
제조 시설과 유통 매장, 은행 업무, 치안 관리 등 일상 속 여러 분야에서 인공지능(AI)과 로봇 활용 사례가 보편화되었다. 인간의 작업을 보조할 정도로 기술이 발전한 덕분이다. 보통 AI와 로봇 등 기술이 공정하면서 객관적인 사고를 한다고 가정한다. 그런데 널리 사용되는 AI와 로봇을 선입견을 지닌 인간이 설계한다면 어떨까?
이에, 해외 온라인 매체 퓨처리즘이 조지아 공과대학교와 존스홉킨스대학교, 워싱턴대학교 연구팀의 합동 연구 논문을 인용, 로봇이 성별, 인종 등과 같은 기준으로 인간을 분류하는 차별을 일삼을 가능성을 경고했다.
연구팀은 AI와 로봇의 차별 문제를 경고하면서, 특히 오픈AI(OpenAI)의 이미지 인식 능력과 학습 능력, 연상 능력을 갖춘 AI 모델인 CLIP을 경고했다.
연구팀은 CLIP을 바탕으로 설계된 로봇이 인간의 얼굴을 본 뒤 인종에 따라 범죄자를 구분하도록 지시받았을 때, 백인 남성보다 흑인 남성을 범죄자로 분류할 확률이 10% 더 높다는 사실을 확인했다. 또한, 가정주부를 구분하라는 명령을 받았을 때는 백인 남성보다는 유색인종 여성을 선택할 확률이 높다는 점도 발견했다. 모두 소규모 샘플로 로봇을 훈련한 뒤 얻은 결과이다.
이번 연구 논문의 공동 저자인 조지아공과대학교 연구 펠로 앤드류 헌트(Andrew Hundt)는 “자칫하면 인종차별과 성차별을 일삼는 로봇을 개발할 수 있다. 그러나 인간과 기관은 로봇과 AI의 차별 문제를 해결하는 데 관심을 두지 않는다”라고 말했다.
연구팀은 문제의 원인으로 AI, 로봇 설계자의 문제라고 강조했다. 헌트 박사는 제대로 설계된 알고리즘에 인종에 따라 범죄자를 분류하라는 명령을 내리면, 알고리즘이 명령을 따르지 않는다는 사실을 발견했다.
실제로 연구팀이 경고한 성별, 인종 등 특정 기준에 따른 차별 문제는 과거에도 여러 차례 문제가 되었다.
과거, 영국 버밍엄대학교 연구팀은 안구 질환 진단 AI의 진단 정확도가 환자의 거주 국가, 인종에 따라 좌우될 수 있다는 사실을 발견했다. 당시 연구를 이끈 샤오수안 리우(Xiaoxuan Liu) 버밍엄대학교 교수는 국가, 인종에 따른 차별 때문에 알고리즘의 질병 진단 정확도와 효율성이 저하될 수 있다고 지적했다.
또한, 미국 비영리 의료 기관 매스제너럴브리검(Mass General Brigham)은 신장 건강을 판단하는 알고리즘이 신장 이식 수술자 대기 명단에 흑인 환자보다 백인 환자를 우선순위로 분류한다는 사실을 발견했다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]