
블록체인 전문 매체 디크립트가 인공지능(AI)이 생성한 콘텐츠로 학습하는 AI의 등장 가능성을 경고한 논문이 발표된 사실을 보도했다.
영국 임페리얼 칼리지 런던, 케임브리지대학교, 옥스퍼드대학교, 토론토대학교 소속 전문가로 구성된 합동 연구팀은 ‘재귀의 저주: 생성된 데이터를 이용한 훈련으로 모델을 잊는다(The Curse of Recursion: Training on Generated Data Makes Models Forget)’라는 제목의 연구 논문을 통해 “AI로 생성한 데이터가 가 차세대 모델의 학습 집합에 피해를 줄 때 이른바 ‘모델 붕괴’ 현상이 발생할 수 있다고 주장했다.
한 마디로 말하자면, AI로 생성한 콘텐츠가 온라인에 널리 확산된다면, AI 시스템으로 다시 흡수되어 정보 왜곡과 부정확한 정보 생성과 같은 문제가 더 심각해질 수 있다는 의미이다.
연구팀은 시간이 지나면서 AI 모델이 실제 기본 데이터 분포를 잊고, 원본 정보가 너무 왜곡되어 실제 데이터와 AI 훈련 데이터가 달라지기 때문에 현실을 부정확하게 표현하게 된다고 지적했다. 모델 붕괴는 대규모 언어 모델, 가우시안 혼합 모델(Gaussian Mixture Model)을 포함한 생성형 AI 모델에서 주로 발견될 수 있는 문제이다.
연구팀은 모델 붕괴 현상의 주된 원인으로 두 가지를 언급했다. 바로 데이터 샘플의 유한한수와 관련된 '통계적 근사 오차'와 AI 학습 중에 사용되는 오차 범위가 제대로 설정되지 않은 ‘기능적 근사 오차'이다. 두 가지 문제 모두 여러 세대에 걸쳐 누적되어 부정확성을 악화시키는 연쇄적인 효과를 일으킬 수 있다.
연구팀은 모델 붕괴 방지 방법으로 AI 모델 학습을 위한 '선점자 우위'를 제시했다. 인간이 생성한 원본 데이터 출처 접근성을 유지할 수 있다면, 해로운 분포 변화와 그에 따른 모델 붕괴를 방지할 수 있다고 보는 이론이다.
그러나 연구팀은 AI 생성 콘텐츠를 대규모로 구분하는 일은 어려운 일이며, 커뮤니티 전반에 걸친 협력이 필요하다고 덧붙여 전했다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]