CWN(CHANGE WITH NEWS) - 인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

  • 맑음상주9.5℃
  • 맑음완도9.8℃
  • 맑음울릉도8.2℃
  • 맑음안동8.3℃
  • 맑음울진10.6℃
  • 맑음속초8.5℃
  • 맑음보성군11.1℃
  • 맑음북춘천-1.1℃
  • 맑음문경8.0℃
  • 맑음세종7.5℃
  • 맑음거제13.7℃
  • 맑음순천10.4℃
  • 맑음정읍6.2℃
  • 맑음북강릉7.2℃
  • 맑음서산3.0℃
  • 맑음구미10.9℃
  • 맑음제천5.8℃
  • 맑음의령군10.4℃
  • 맑음영천10.1℃
  • 맑음강진군9.4℃
  • 맑음수원3.8℃
  • 맑음의성10.6℃
  • 맑음봉화2.0℃
  • 맑음동두천4.3℃
  • 맑음홍천1.5℃
  • 맑음산청10.8℃
  • 맑음남해13.2℃
  • 맑음거창9.1℃
  • 맑음영월5.2℃
  • 맑음양산시12.7℃
  • 맑음합천10.0℃
  • 맑음해남8.0℃
  • 맑음대구12.6℃
  • 맑음서울4.9℃
  • 맑음성산12.2℃
  • 맑음광양시12.6℃
  • 맑음부안5.5℃
  • 맑음광주8.6℃
  • 맑음김해시14.0℃
  • 맑음북부산13.0℃
  • 맑음함양군10.4℃
  • 맑음고창군4.9℃
  • 맑음부산13.8℃
  • 맑음장수5.1℃
  • 맑음영덕11.0℃
  • 맑음추풍령8.6℃
  • 맑음포항13.8℃
  • 맑음고창5.2℃
  • 맑음서청주4.3℃
  • 맑음인천3.4℃
  • 맑음창원13.6℃
  • 맑음고흥11.4℃
  • 구름많음원주6.3℃
  • 맑음춘천-0.6℃
  • 맑음천안5.8℃
  • 맑음여수12.9℃
  • 구름조금백령도2.7℃
  • 맑음대관령2.1℃
  • 맑음부여3.7℃
  • 맑음경주시12.2℃
  • 맑음전주6.7℃
  • 맑음영광군5.4℃
  • 맑음진주14.0℃
  • 맑음청송군9.5℃
  • 맑음보령4.6℃
  • 맑음정선군5.4℃
  • 맑음금산7.6℃
  • 맑음서귀포13.4℃
  • 맑음이천5.3℃
  • 맑음청주7.8℃
  • 맑음밀양15.0℃
  • 맑음철원3.9℃
  • 맑음울산14.1℃
  • 맑음순창군8.5℃
  • 맑음군산4.9℃
  • 맑음목포6.6℃
  • 맑음태백4.1℃
  • 맑음진도군8.0℃
  • 맑음강릉9.4℃
  • 맑음임실7.1℃
  • 맑음제주12.0℃
  • 맑음양평5.1℃
  • 맑음보은7.1℃
  • 구름많음인제5.4℃
  • 맑음동해9.7℃
  • 맑음통영12.4℃
  • 맑음영주7.7℃
  • 맑음북창원13.9℃
  • 맑음충주3.7℃
  • 맑음대전7.9℃
  • 맑음장흥8.7℃
  • 맑음흑산도7.1℃
  • 맑음고산12.0℃
  • 맑음파주1.7℃
  • 맑음홍성5.6℃
  • 맑음남원8.6℃
  • 맑음강화3.6℃
  • 2026.01.15 (목)

인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

김도은 / 기사승인 : 2021-06-28 20:18:35
  • -
  • +
  • 인쇄

인공지능 기술은 우리 생활 속 의료, 제조, 금융, 법률 등 다양한 산업 전반에 도입되면서 발전과 혁신을 이어오고 있다. 그러나 그와 동시에 예상하지 못한 부분에서 말썽을 일으키기도 한다. 대부분의 신기술이 그러하듯 아직 해결해야 할 과제가 많은 것은 당연하다.

그렇지만, 특히 인공지능에 대해서는 만능이라고 생각하는 경향이 있다. 실제 발견된 인공지능 오류 사례와 문제점을 돌아보고, 인공지능의 문제를 보완하고 발전시킬 필요가 있다.

1. 자동차 사고
지난 2월, 구글의 자율주행 자동차가 시속 3km로 미국 캘리포니아주의 도로를 달리다 버스와 충돌했다. 당시 자율주행 프로그램 내 인공지능의 판단과는 다른 상황이 전개되지 않자 그대로 충돌한 것이다. 이처럼 아직은 돌발 상황에 차량 스스로 위험을 피하거나 피해를 줄이는 방향으로 자율적인 판단이 불가능하다.

2. 아마존의 인공지능 채용 프로그램의 차별 문제
작년 10월, 세계 최대 전자상거래 기업 아마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다고 전했다. 여대를 졸업했거나 이력서에 ‘여성’이라는 용어가 들어있으면 점수를 깎는 등 여성 지원자를 차별했기 때문이다.

감정, 친분, 이해 관계 등 비합리적 요소의 영향을 받는 인간보다 인공지능의 알고리즘이 더 공정하리라 기대했던 개발자들의 예상과는 다른 결과였다. 인공지능이 부정확하거나 편향된 데이터를 가지고 학습한다면, 인간 이상의 차별주의적 판단을 내릴 수 있다는 것이다.

3. 정신과 환자에게 자살을 권장하는 인공지능
의학 분야에서도 인공지능이 활발히 이루어지고 있다. 정신과 의사 업무량을 줄이기 위한 AI 챗봇도 등장했으나 환자에게 자살을 추천하면서 도입이 무산되었다. 프랑스 헬스케어 기업 나블라(Nabla)가 텍스트 생성 모델인 GPT-3를 기반으로 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려했다. 이후, 나블라는 “소프트웨어 특징상 현실 세계에서 불규칙하고 예측할 수 없는 반응을 보일 수 있기 때문이라고 환자와 상호작용하는데 부적절하다”고 밝혔다.

위의 사례를 보았을 때, 인공지능의 오류가 우리 삶에 직간접적으로 피해를 줄 수 있는 만큼 인공지능을 맹신하는 것은 바람직하지 않다. 인공지능의 문제점 분석과 예측에 도움을 줄 수 있도록 개발하고 보완해야 해 순기능을 최대한 이용하는 것이 바람직할 것이다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue