CWN(CHANGE WITH NEWS) - 인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

  • 맑음강화-3.1℃
  • 맑음금산-2.6℃
  • 맑음문경-0.2℃
  • 맑음강릉5.2℃
  • 구름많음동두천-1.6℃
  • 맑음정선군-3.5℃
  • 맑음완도4.6℃
  • 안개수원0.4℃
  • 맑음보은-3.1℃
  • 흐림제천-2.7℃
  • 맑음충주-2.5℃
  • 흐림홍천-1.4℃
  • 맑음남해5.0℃
  • 맑음순천-0.6℃
  • 맑음영주-1.2℃
  • 맑음밀양-1.4℃
  • 맑음울진2.1℃
  • 맑음순창군-2.6℃
  • 박무광주0.9℃
  • 맑음의령군-3.4℃
  • 맑음동해4.5℃
  • 안개북춘천-3.9℃
  • 박무흑산도5.1℃
  • 맑음인제-2.4℃
  • 박무청주1.2℃
  • 맑음제주6.3℃
  • 흐림파주-2.5℃
  • 맑음진주-2.5℃
  • 맑음부산7.8℃
  • 맑음북부산1.2℃
  • 맑음봉화-5.4℃
  • 흐림군산0.1℃
  • 박무안동-0.9℃
  • 맑음김해시5.8℃
  • 맑음진도군4.3℃
  • 연무포항5.5℃
  • 맑음서청주-1.7℃
  • 맑음울릉도6.4℃
  • 맑음여수5.5℃
  • 맑음남원-1.8℃
  • 맑음상주1.9℃
  • 맑음북강릉3.5℃
  • 박무백령도1.2℃
  • 흐림해남2.2℃
  • 안개홍성-2.7℃
  • 맑음추풍령-1.4℃
  • 맑음구미0.0℃
  • 맑음의성-4.4℃
  • 흐림임실-0.8℃
  • 맑음서산-2.1℃
  • 맑음고창-3.5℃
  • 맑음장수-4.3℃
  • 맑음천안-1.5℃
  • 흐림양평-0.2℃
  • 구름조금고산9.1℃
  • 맑음영덕5.1℃
  • 흐림영광군-0.4℃
  • 맑음장흥-0.5℃
  • 박무서울1.3℃
  • 맑음북창원6.8℃
  • 맑음철원-1.7℃
  • 박무대전-0.3℃
  • 맑음보성군3.0℃
  • 박무전주0.5℃
  • 흐림부안-0.1℃
  • 박무인천0.6℃
  • 맑음성산7.0℃
  • 흐림춘천-2.9℃
  • 흐림이천0.3℃
  • 흐림세종-1.9℃
  • 맑음속초6.4℃
  • 맑음청송군-3.7℃
  • 맑음경주시-1.4℃
  • 맑음함양군-3.1℃
  • 맑음거제4.3℃
  • 연무울산5.3℃
  • 맑음통영6.1℃
  • 안개목포1.1℃
  • 맑음정읍-0.2℃
  • 연무대구2.6℃
  • 맑음고창군-2.3℃
  • 흐림부여-0.4℃
  • 맑음합천-1.8℃
  • 맑음태백-3.5℃
  • 맑음광양시3.5℃
  • 맑음고흥-0.9℃
  • 맑음영천2.0℃
  • 맑음보령-0.4℃
  • 맑음강진군-0.4℃
  • 맑음대관령-4.2℃
  • 흐림원주-0.9℃
  • 맑음창원6.4℃
  • 맑음양산시1.8℃
  • 맑음거창-3.4℃
  • 맑음산청-0.5℃
  • 맑음서귀포10.1℃
  • 맑음영월-3.3℃
  • 2026.01.16 (금)

인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

김도은 / 기사승인 : 2021-06-28 20:18:35
  • -
  • +
  • 인쇄

인공지능 기술은 우리 생활 속 의료, 제조, 금융, 법률 등 다양한 산업 전반에 도입되면서 발전과 혁신을 이어오고 있다. 그러나 그와 동시에 예상하지 못한 부분에서 말썽을 일으키기도 한다. 대부분의 신기술이 그러하듯 아직 해결해야 할 과제가 많은 것은 당연하다.

그렇지만, 특히 인공지능에 대해서는 만능이라고 생각하는 경향이 있다. 실제 발견된 인공지능 오류 사례와 문제점을 돌아보고, 인공지능의 문제를 보완하고 발전시킬 필요가 있다.

1. 자동차 사고
지난 2월, 구글의 자율주행 자동차가 시속 3km로 미국 캘리포니아주의 도로를 달리다 버스와 충돌했다. 당시 자율주행 프로그램 내 인공지능의 판단과는 다른 상황이 전개되지 않자 그대로 충돌한 것이다. 이처럼 아직은 돌발 상황에 차량 스스로 위험을 피하거나 피해를 줄이는 방향으로 자율적인 판단이 불가능하다.

2. 아마존의 인공지능 채용 프로그램의 차별 문제
작년 10월, 세계 최대 전자상거래 기업 아마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다고 전했다. 여대를 졸업했거나 이력서에 ‘여성’이라는 용어가 들어있으면 점수를 깎는 등 여성 지원자를 차별했기 때문이다.

감정, 친분, 이해 관계 등 비합리적 요소의 영향을 받는 인간보다 인공지능의 알고리즘이 더 공정하리라 기대했던 개발자들의 예상과는 다른 결과였다. 인공지능이 부정확하거나 편향된 데이터를 가지고 학습한다면, 인간 이상의 차별주의적 판단을 내릴 수 있다는 것이다.

3. 정신과 환자에게 자살을 권장하는 인공지능
의학 분야에서도 인공지능이 활발히 이루어지고 있다. 정신과 의사 업무량을 줄이기 위한 AI 챗봇도 등장했으나 환자에게 자살을 추천하면서 도입이 무산되었다. 프랑스 헬스케어 기업 나블라(Nabla)가 텍스트 생성 모델인 GPT-3를 기반으로 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려했다. 이후, 나블라는 “소프트웨어 특징상 현실 세계에서 불규칙하고 예측할 수 없는 반응을 보일 수 있기 때문이라고 환자와 상호작용하는데 부적절하다”고 밝혔다.

위의 사례를 보았을 때, 인공지능의 오류가 우리 삶에 직간접적으로 피해를 줄 수 있는 만큼 인공지능을 맹신하는 것은 바람직하지 않다. 인공지능의 문제점 분석과 예측에 도움을 줄 수 있도록 개발하고 보완해야 해 순기능을 최대한 이용하는 것이 바람직할 것이다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue