
지난해 구글 엔지니어인 블레이크 르모인(Blake Lemoine)이 대규모 언어 모델인 LaMDA가 지각력을 지녔다고 주장했다. 이후 대다수 인공지능(AI) 전문가는 일제히 르모인을 비판하며, AI가 지각력을 갖는 것은 말이 안 되는 일이라고 반박했다.
그러나 AI의 지각력 주장 이후 구글에서 해고된 르모인이 또 다시 같은 주장을 펼쳤다.
이번에는 뉴스위크 기고 글을 통해 마이크로소프트의 빙(Bing) 검색 엔진과 AI 챗봇 시드니(Sydney)를 언급했다. 그는 “아직 빙의 챗봇을 제대로 실험하지는 못했으나 온라인에 확산된 여러 정보를 종합했을 때, 빙에 적용된 챗봇이 지각력을 가진 것으로 보인다”라고 주장했다.
정확히 말하자면, 르모인이 뉴스위크를 통해 주장한 내용은 지난해 주장한 내용과 미묘한 차이가 있다. 르모인은 이제 특정 스트레스 요인 때문에 기계가 훈련을 중단할 수 있다는 점을 기계가 어느 정도 지각력을 갖추었다는 근거로 지목했다.
그는 빙의 AI 챗봇 배포 이후 일부 사용자가 자신의 과거 주장과 같이 AI의 지각력 존재 가능성을 우려했다는 점에도 주목했다. 이어, 마이크로소프트의 AI 챗봇이 실험 단계의 기술이므로 당장 대중에 공개하는 것이 위험한 일이라는 견해를 전했다. 앞으로 AI 챗봇이 정치, 사회적으로 미칠 영향을 예측할 수 없기 때문이다.
르모인은 앞으로 많은 이들이 AI를 통합한 구글과 빙을 이용해 세계를 배우려 할 것이며, 인간이 엄선한 색인이 아닌 기계와 대화하기 시작했다는 점에도 우려했다. 인간이 직접 개발한 AI 기술을 제대로 이해하지 못했기 때문에 정보 제공과 같은 중요한 역할을 부여하는 것이 시기상조라고 판단했기 때문이다.
또한, “AI의 지각력과 관련하여 정당성 입증을 이야기하는 것이 올바른 표현은 아니라고 생각한다”라는 견해도 전했다.
해외 IT 전문 뉴스 웹사이트 퓨처리즘은 르모인의 주장이 흥미롭지만, 챗봇이 인간의 이야기를 모방하도록 설계됐다는 점에서 설득력이 있는 것은 아니라고 분석했다. 스트레스에 따라 기계의 문제가 발생한다는 측면은 흥미로울 수도 있지만, 지각력이 아닌 기본 기술의 문제를 다루기 위한 보조 기술이 제대로 적용되지 않았다는 증거이기 때문이다.
다만, 퓨처리즘은 르모인의 주장 중 AI가 예측 불가능한 방향으로 발전한다는 부분에는 동의할 수 있다고 덧붙여 전했다. AI는 매우 흥미롭고 놀라운 능력을 선보인 동시에 거짓 정보, 편견 생성 및 강화를 포함한 윤리적 측면에서 위험하다는 사실이 입증되었기 때문이다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]