CWN(CHANGE WITH NEWS) - 머신러닝 비전 시스템 훈련 이미지, 알고보니 문제투성이?

  • 맑음북강릉3.0℃
  • 구름조금거제2.9℃
  • 박무전주-1.4℃
  • 맑음의성-4.9℃
  • 흐림순창군-2.6℃
  • 맑음김해시3.4℃
  • 박무흑산도3.9℃
  • 맑음속초5.5℃
  • 맑음서산-3.1℃
  • 흐림부안-0.3℃
  • 맑음순천-3.3℃
  • 안개서울1.1℃
  • 흐림군산-0.2℃
  • 맑음부산6.6℃
  • 연무울산3.7℃
  • 맑음임실-2.4℃
  • 맑음진주-3.5℃
  • 맑음고창군-2.8℃
  • 흐림부여-1.3℃
  • 구름조금고산8.8℃
  • 맑음경주시-1.4℃
  • 흐림철원-1.1℃
  • 맑음양산시0.2℃
  • 흐림동두천-0.5℃
  • 흐림제천-1.0℃
  • 맑음영광군-1.9℃
  • 흐림원주0.2℃
  • 구름조금장흥-3.1℃
  • 맑음영덕4.1℃
  • 맑음완도2.0℃
  • 맑음영주-3.2℃
  • 맑음울진3.1℃
  • 맑음보은-2.7℃
  • 맑음의령군-4.7℃
  • 맑음합천-2.9℃
  • 안개인천0.7℃
  • 흐림세종-0.1℃
  • 맑음태백-4.9℃
  • 맑음금산-1.4℃
  • 맑음강릉4.7℃
  • 맑음대관령-6.2℃
  • 맑음고흥-3.1℃
  • 맑음문경-2.6℃
  • 맑음동해2.9℃
  • 흐림천안-0.5℃
  • 흐림양평0.5℃
  • 구름조금성산5.6℃
  • 맑음추풍령-3.3℃
  • 맑음북부산-0.9℃
  • 맑음북창원3.7℃
  • 연무대구-0.4℃
  • 맑음상주-2.5℃
  • 흐림파주-1.7℃
  • 맑음함양군-5.0℃
  • 맑음광양시3.7℃
  • 맑음해남-0.2℃
  • 맑음강진군-1.3℃
  • 맑음정선군-3.4℃
  • 맑음거창-5.2℃
  • 연무포항4.7℃
  • 흐림충주-2.6℃
  • 맑음제주6.1℃
  • 맑음남원-2.1℃
  • 안개광주-0.4℃
  • 안개청주-0.2℃
  • 맑음진도군-1.0℃
  • 맑음울릉도5.9℃
  • 안개북춘천-2.4℃
  • 안개대전-0.6℃
  • 맑음강화-3.9℃
  • 맑음고창-4.8℃
  • 구름조금남해4.4℃
  • 흐림영월-2.6℃
  • 박무백령도0.5℃
  • 안개홍성-2.9℃
  • 맑음산청-3.4℃
  • 맑음정읍-2.3℃
  • 흐림서청주-1.1℃
  • 맑음창원3.9℃
  • 맑음통영4.0℃
  • 맑음보성군-1.5℃
  • 맑음구미-2.4℃
  • 흐림이천0.1℃
  • 구름조금서귀포8.3℃
  • 맑음장수-5.2℃
  • 맑음영천-2.8℃
  • 흐림춘천-2.0℃
  • 맑음여수4.1℃
  • 맑음보령-1.7℃
  • 흐림홍천-1.1℃
  • 맑음밀양-2.9℃
  • 박무수원1.2℃
  • 안개목포-0.1℃
  • 맑음봉화-6.9℃
  • 맑음청송군-5.8℃
  • 맑음인제-1.9℃
  • 박무안동-2.7℃
  • 2026.01.16 (금)

머신러닝 비전 시스템 훈련 이미지, 알고보니 문제투성이?

고다솔 / 기사승인 : 2021-05-17 16:13:31
  • -
  • +
  • 인쇄

일상 속 인공지능이 발전하면서 기계가 인물의 얼굴이나 이미지도 손쉽게 인식할 수 있는 세상이 됐다. 그런데, 머신러닝 비전 시스템 알고리즘 훈련에 사용되는 데이터에 심각한 문제가 있는 것으로 드러났다.

알고리즘, 훈련 과정의 데이터에 따라 결과 달라진다?
미국 월간지 와이어드는 MIT 연구팀의 논문을 인용해, 이미지 식별 데이터베이스 이미지넷(ImageNet)을 포함한 머신 비전 시스템 알고리즘 훈련의 핵심인 여러 핵심 AI 데이터세트에 수많은 오류가 존재한다는 사실을 보도했다.

연구팀은 데이터의 알고리즘 해석 방식이 훈련된 AI 알고리즘이 라벨이 적용된 이미지를 판단하는 방법을 비교했다. 연구팀은 알고리즘이 숟가락으로 분류된 사진을 고양이일 확률 70%로 판단하는 등 이미지 분류와 알고리즘의 판단 결과가 다를 때, 이미지가 잘못 분류됐을 가능성이 있다고 가정했다. 또, 알고리즘의 판단과 사진 분석 결과가 다른 시점을 확인하고자 알고리즘에 더 많은 인물 사진을 보여주었다.

연구 결과, 알고리즘이 훈련 과정에서 주로 본 이미지에 따라 편견을 지닐 수 있는 것으로 드러났다. 예를 들어, 인물 이미지 훈련 과정에서 알고리즘에 백인의 사진을 지나치게 많이 투입하면, 유색인종의 인물 식별 정확도는 백인 인식 정확도보다 현저히 떨어진다.

또, 이미지 분류 과정에도 같은 편견이 발생하는 것으로 드러났다. 훈련 과정에서 의료 장비를 들고 있는 여성 간호사의 사진을 주로 보았다면, 의료 장비를 들고 있는 여성을 모두 간호사로 분류하고 남성은 의사로 분류하는 것과 같은 편견 문제가 발생할 확률이 높다.

연구팀은 이번 연구 결과를 통해 AI 모델 훈련 및 테스트 과정에 훈련 과정에 활용되는 데이터에 내재하는 오류가 AI의 편견을 낳는 원인이라는 결론을 내렸다.

연구 결과가 시사하는 바는?
우선, 이미지넷 등 연구팀이 사용한 AI 시스템은 자율주행차와 의학 이미지 기기, 신용 평가 시스템 등에 핵심 시스템으로 적용된 상태로 구축되어 테스트도 여러 차례 진행됐다. 이를 고려하면, 알고리즘 훈련 과정에 문제가 있는 데이터를 사용한다면, 인종에 따른 환자의 질병 진단 결과가 달라지는 등 실제 인간에게 큰 피해를 미칠 확률이 높아진다.

혹은 이번 연구를 이끈 MIT의 커티스 노스컷(Curtis Northcutt) 박사가 지적한 바와 같이 자율주행차의 AI 시스템 훈련 과정에서 문제가 있는 도로 이미지를 사용해 훈련을 진행한다면, 차량이 개발자의 의도는 물론이고 운전자가 원하는 것과 다른 방향으로 운전할 위험성이 있다고 지적했다.

노스컷 박사는 "연구 결과는 세계에 알고리즘 훈련 과정의 문제를 완전히 없애야 한다는 사실을 말한다. 그렇지 않다면, 현실에서 최고 수준이라고 생각했던 AI 모델의 문제가 큰 문제를 일으킬 것"이라고 경고했다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue