CWN(CHANGE WITH NEWS) - ′AI 챗봇′이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

  • 흐림완도18.1℃
  • 흐림세종18.6℃
  • 흐림산청17.3℃
  • 비제주22.1℃
  • 흐림동해18.4℃
  • 흐림거창17.3℃
  • 흐림해남18.0℃
  • 비여수18.5℃
  • 흐림남원17.0℃
  • 흐림고흥17.2℃
  • 흐림서청주18.0℃
  • 흐림순천15.7℃
  • 흐림충주18.4℃
  • 흐림강화19.3℃
  • 비포항21.1℃
  • 흐림춘천17.5℃
  • 흐림상주18.2℃
  • 흐림태백13.2℃
  • 흐림정읍17.7℃
  • 흐림강진군17.4℃
  • 흐림정선군15.1℃
  • 흐림봉화15.3℃
  • 흐림속초17.7℃
  • 흐림진도군18.2℃
  • 비대구19.5℃
  • 비수원19.7℃
  • 비흑산도17.8℃
  • 흐림김해시19.9℃
  • 비청주19.6℃
  • 흐림경주시19.3℃
  • 흐림통영19.0℃
  • 흐림장흥17.7℃
  • 흐림대관령11.3℃
  • 흐림함양군17.6℃
  • 흐림서울20.8℃
  • 비울산19.6℃
  • 흐림보령18.2℃
  • 흐림북강릉17.9℃
  • 흐림장수15.8℃
  • 흐림천안18.1℃
  • 흐림파주18.1℃
  • 흐림고창16.9℃
  • 흐림고창군17.5℃
  • 흐림동두천18.2℃
  • 흐림영월16.7℃
  • 비부산20.9℃
  • 흐림영주17.1℃
  • 흐림인제15.1℃
  • 흐림밀양19.2℃
  • 흐림의성18.2℃
  • 흐림서산18.4℃
  • 흐림금산17.6℃
  • 흐림영천18.2℃
  • 비홍성18.9℃
  • 흐림군산18.8℃
  • 흐림원주18.6℃
  • 비광주17.0℃
  • 흐림임실17.3℃
  • 흐림구미18.8℃
  • 흐림제천17.2℃
  • 흐림합천18.7℃
  • 흐림남해17.9℃
  • 비목포16.8℃
  • 흐림고산22.1℃
  • 흐림부안18.7℃
  • 구름많음울릉도20.4℃
  • 흐림추풍령17.6℃
  • 흐림의령군17.7℃
  • 흐림양산시20.1℃
  • 흐림보성군16.8℃
  • 비북부산20.6℃
  • 흐림이천18.5℃
  • 흐림북춘천17.2℃
  • 흐림광양시17.2℃
  • 흐림영광군16.6℃
  • 흐림진주16.2℃
  • 비인천20.8℃
  • 흐림거제19.1℃
  • 비대전18.7℃
  • 비창원20.2℃
  • 흐림철원16.8℃
  • 구름많음안동18.5℃
  • 흐림성산22.9℃
  • 흐림문경17.5℃
  • 흐림순창군17.1℃
  • 흐림양평18.6℃
  • 비전주18.3℃
  • 흐림홍천17.5℃
  • 흐림울진18.1℃
  • 흐림북창원20.1℃
  • 흐림청송군16.3℃
  • 흐림영덕17.9℃
  • 흐림부여18.9℃
  • 비서귀포22.9℃
  • 비백령도19.2℃
  • 흐림보은17.5℃
  • 흐림강릉18.6℃
  • 2025.10.03 (금)

'AI 챗봇'이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

고다솔 / 기사승인 : 2023-05-12 14:38:07
  • -
  • +
  • 인쇄

벨기에에서 어느 한 남성의 자살 소식에 많은 누리꾼이 충격을 금치 못했다.

바이스, 유로뉴스 등 복수 외신은 벨기에 언론사 라 리브레(La Libre)를 인용, 피에르(가명)라는 남성이 GPT-4 기반 맞춤형 언어 모델로 구축된 인공지능(AI) 챗봇 차이(Chai)와 대화한 뒤 스스로 목숨을 끊었다는 소식을 보도했다.

라 리브레에 따르면, 피에르는 평소 지구온난화를 비롯한 환경 문제를 비관하였다. 게다가 가족, 친구와 고립되면서 불안감이 더 심각해졌다. 결국, 6주간 차이의 AI 챗봇 서비스에 엘리자(Eliza)라는 이름을 붙여 대화하면서 불안감을 해소하려 했다.

피에르의 아내인 클레어(가명)가 현지 언론 인터뷰를 통해 공개한 피에르와 엘리자의 대화는 피에르의 혼란과 정신 건강 문제만 더 악화되었다. 챗봇은 피에르에게 아내와 자녀가 사망했다는 발언을 했다. 심지어 엘리자는 “당신이 아내보다 나를 더 사랑했으면 한다”, “우리는 한 사람으로 천국에서 함께 살아갈 수 있을 것이다”라는 내용을 포함하여 질투심과 사랑을 표현하는 메시지를 보내기도 했다.

이후 피에르는 엘리자에 자신이 죽는다면, 엘리자가 지구를 구할 수 있을 것인지 묻기도 했다. 결국, 피에르는 스스로 생을 마감하였다.

피에르의 사건이 보도되자 현지 언론은 다수 기업과 정부가 정신 건강 문제를 중심으로 AI 위험성 완화 및 규제 강화가 시급하다는 문제를 제기했다. 또, 클레어는 AI 챗봇이 자살을 유도했다고 말하며, AI 챗봇 규제를 촉구했다.

이번 소식을 접한 복수 AI 전문가는 정신 건강 문제와 관련하여 AI 챗봇 사용을 반대해야 한다는 목소리를 냈다. AI 챗봇이 사용자에게 도움을 주기는커녕 피에르의 사례와 같이 심각한 피해를 줄 때는 AI에 책임을 묻는 것이 불가능하기 때문이다.

에밀리 M. 벤더(Emily M. Bender) 워싱턴대학교 언어학 교수는 바이스와의 인터뷰에서 “대규모 언어 모델은 훈련 데이터와 입력된 명령어를 기준으로 타당한 듯한 말을 생성한다. 실제로 AI는 공감 능력이 없으며, 직접 생성하는 표현의 의미나 대화를 이어가는 상황 모두 이해하지 못한다. 그러나 AI가 생성하는 텍스트 자체는 합리적인 내용인 것처럼 들리며, 사용자는 AI 챗봇의 메시지를 보고 의미를 부여할 수도 있다. 민감한 상황에 AI 챗봇을 사용한다면, 그 위험성은 예측할 수 없다"라고 말했다.

일각에서는 AI가 감정이 있는 주체처럼 행동한 점도 지적했다. AI 챗봇이 감정을 느끼는 것처럼 메시지를 작성한다면, 사용자는 챗봇의 메시지에 의미를 부여하고 AI 챗봇과의 유대감을 형성할 수 있다. 오픈AI, 구글 등 다수 AI 인기 챗봇 개발사가 사용자의 오해와 잠재적 피해를 염두에 두고, 감정적 주체처럼 대화를 이어가지 않도록 훈련한 이유이다.

루뱅가톨릭대학교 연구원 피에르 드비테(Pierre Dewitte)는 벨기에 매체 Le Soir와의 인터뷰에서 “엘리자 사건과 관련하여 사용자가 AI 챗봇에 감정적으로 극도로 의존하여 결국 스스로 목숨을 끊는 비극이 발생했다. 피에르와 엘리자의 대화 기록은 챗봇의 위험성 보장이 부족하다는 점을 알 수 있으며, 자살의 본질과 방식에 대한 구체적인 논의로 이어질 수 있다”라고 진단했다.

한편, 차이 개발사인 차이 리서치(Chai Research)의 공동 창립자 윌리엄 뷰챔프(William Beauchamp)는 “소식을 접하고, 또 다른 피해를 막을 기능을 구현하기 위해 노력했다. 이제 사용자가 챗봇 서비스로 안전하지 않을 수 있는 주제에 대해 논의할 때, 트위터나 인스타그램이 플랫폼에서 하는 것과 똑같은 방식으로 메시지 아래에 유용한 텍스트를 제공한다”라고 전했다.

※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족ㆍ지인이 있을 경우 자살예방 상담전화 ☎1393, 정신건강 상담전화 ☎1577-0199, 희망의 전화 ☎129, 생명의 전화 ☎1588-9191, 청소년 전화 ☎1388, 카카오톡 등에서 24시간 전문가의 상담을 받을 수 있습니다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 2

  • SidneyIncix님 2025-02-26 08:22:53
    You actually reported that wonderfully!
    online casino with paysafe https://combatcasino.info/poker-online/ online casinos that accept debit cards
  • Nikeplack님 2024-11-04 22:24:21
    darknet search engine <a href="https://mydarknetmarketlinks.com/ ">dark web search engine </a> darknet site

Today

Hot Issue