AI 연구, 지금 ‘슬롭(slop) 위기’에 빠져 있다

AI 연구, 왜 학자들이 “지금 엉망이다”라고 말할까

최근 가디언 기사에 따르면, 여러 학자들이 현재 인공지능 연구를 두고 “슬롭(slop) 문제”가 심각하다고 지적했습니다. 여기서 슬롭은 대충 만든 음식 찌꺼기 같은 걸 뜻하는데, 논문과 데이터, 코드까지 질 낮은 것들이 한꺼번에 쏟아져 나오는 상황을 비유한 표현입니다.

연구자들은 AI 논문들이 너무 빨리, 너무 많이 나오면서 검증되지 않은 주장과 허술한 실험이 학계와 산업 전반에 퍼지고 있다고 말합니다. 특히 생성형 AI가 유행한 뒤로, 모델이 만든 텍스트와 코드가 다시 데이터로 사용되면서, AI가 AI의 찌꺼기를 계속 먹는 구조가 되고 있다는 우려도 큽니다. 한 학자는 이를 두고 “지금 AI 연구 생태계는 솔직히 꽤 큰 혼돈 상태”라고 잘라 말합니다.

‘슬롭’이 구체적으로 뭘 의미하나

폭발하는 논문 수, 줄어드는 신뢰도

기사에 따르면, 학회와 저널에는 매년 수만 편의 AI 관련 논문이 쏟아지지만, 그중 상당수는 코드와 데이터가 공개되지 않거나 재현 실험이 불가능합니다. 그래도 인용 수나 화제성만 높으면 “성과”로 인정받는 구조라, 연구자들이 속도와 화려한 데모에만 몰두한다는 비판이 나옵니다.

또한 일부 논문은 통계적으로 애매한 결과를 과장하거나, 실제로는 미미한 개선을 “혁신”처럼 포장한다고도 지적합니다. 결국 이런 연구들이 쌓이면, 그 위에 만들어지는 시스템과 정책도 불안정한 토대 위에 서게 됩니다.

AI가 만든 데이터로 다시 AI를 훈련하는 문제

기사에서 학자들은 생성형 AI가 만든 텍스트, 이미지, 코드가 다시 인터넷에 퍼지고, 이것이 또 다른 모델의 학습 데이터로 들어가는 현상을 크게 우려합니다. 이미 몇몇 연구에서, AI 생성물 비율이 높아질수록 모델 성능이 점점 망가지는 “모델 자가중독(model collapse)” 현상이 보고된 바 있습니다.

요약하면, 지금 AI 연구는 양은 폭발적으로 늘었지만, 질과 신뢰는 그만큼 따라오지 못한 상태라는 게 기사 속 연구자들의 공통된 진단입니다.

개인적인 생각: ‘빠르게 움직이며 부수기’의 후유증

솔직히 말해, 지금 AI 업계와 학계 분위기는 “일단 만들고 나중에 생각하자”에 가깝습니다. 스타트업은 투자와 시장 선점을 위해, 빅테크는 경쟁사보다 먼저 “세계 최초” 타이틀을 따기 위해, 학계는 논문 카운트를 위해 속도를 끝까지 끌어올렸죠. 그 결과가 바로 이 슬롭의 홍수라고 봅니다.

문제는 이게 단순히 “보기 안 좋은” 수준이 아니라는 점입니다. 정책 입안자, 언론, 기업 의사결정자들이 이런 불완전한 연구를 근거로 AI 규제와 도입 전략을 짜고 있기 때문입니다. 예를 들어, 편향과 공정성, 프라이버시, 안전성에 대한 연구가 부실하면, 그 위에 세운 법과 규칙도 허술해질 수밖에 없죠.

그래서 앞으로 뭐가 필요할까

개인적으로는 최소한 이런 변화가 필요하다고 봅니다:

재현 가능성: 코드, 데이터, 실험 설정을 공개하지 않으면 높은 평가를 받기 어렵게 만드는 기준 강화
AI 생성 데이터 명시: 학습 데이터에 AI 생성물이 얼마나 섞였는지 투명하게 밝히기
속도보다 검증: “최초”보다 “검증된 결과”에 더 큰 인센티브를 주는 평가 문화
비판적 리뷰 문화: 유명 연구나 대형 기업 논문도 편하게 비판·재검증할 수 있는 환경

지금은 ‘와, 또 새로운 모델 나왔다!’보다 ‘이게 진짜 믿을 만한가?’를 먼저 묻는 태도가 더 중요해진 시점 같습니다.

마무리하며

가디언 기사 속 학자들이 말하는 “AI 연구의 슬롭 문제”는, 단지 연구자들만의 내부 싸움이 아니라 우리 모두의 문제에 가깝습니다. 질 낮은 연구와 검증되지 않은 기술이 쌓이면, 결국 일자리, 교육, 의료, 정치까지 현실 세계에 그대로 영향을 미치니까요.

AI를 좋아하는 입장에서, “과대포장된 혁신”보다는 천천히 가도 신뢰할 수 있는 연구가 더 많이 나오는 방향으로 생태계가 바뀌었으면 합니다. 앞으로도 이런 흐름을 계속 따라가면서, 실제로 어떤 변화가 일어나는지 블로그에서 자주 다뤄볼게요.