
인공지능(AI) 기술이 발전함에 따라 기업 인재 채용 과정에도 AI 프로그램을 활용하는 사례가 증가했다. 그러나 채용 과정에서 AI가 입사지원자를 대상으로 인종차별 문제를 일으킨다는 논란이 제기되었다.
이에, 영국 규제 기관이 직접 AI의 인종차별 여부 검증에 나선다.
영국 일간지 가디언은 개인정보보호위원회(Information Commissioner’s Office, ICO)가 AI가 소수민족의 채용 기회에 악영향을 미친다는 우려에 따라 “AI 때문에 발생한 피해가 결과적으로 인간에게 피해를 줄 위험성이 있는지 검증할 것”이라고 발표한 소식을 보도했다.
ICO의 이번 AI 차별 조사는 존 에드워드(John Edwards) ICO 신임 위원장이 구상한 3년 계획 과제 중 하나로 진행된다. 에드워드 위원장은 “신경 다양성을 지닌 이들이나 소수민족 등 AI 채용 프로그램의 검증 과정에서 배제된 이들이 겪었을 AI의 악영향을 자세히 살펴볼 것”이라고 공식 발표했다.
영국 개인정보 보호 법률(UK General Data Protection Regulation)에는 개인 데이터 처리 과정의 차별을 금지한다는 규정이 포함되었다. ICO는 과거에도 AI 기반 시스템 알고리즘을 훈련할 때, 데이터 세트를 공정하고 정확하게 구축하지 못한다면 특정 집단이 피해를 볼 수 있다고 경고했다. ICO는 차별 금지 규정을 시행해도 실제 AI 활용 사례를 보면, 차별 논란이 끊이지 않는 문제에 주목하여 대응 방안으로 AI 채용 소프트웨어 차별 문제를 직접 검증하기로 결정했다.
에드워드 위원장은 “이전까지 ICO에 접수된 AI 채용 시스템의 차별 관련 불만 민원 처리 과정에 AI 시스템이 인간에게 미친 피해를 철저하게 검증하지 못했다”라며, “AI 채용 시스템의 차별 문제는 공공의 이익과 연결된 문제이므로 관련 불만 민원과 실제 인간에게 피해를 줄 확률 조사를 신속하게 처리해야 한다”라고 강조했다.
상당수 기업이 인재 채용 과정에 AI를 사용한다는 사실은 이미 여러 차례 입증됐다. 구인구직 웹사이트 집리크루이터(ZipRecruiter)는 미국 기업 네 곳 중 세 곳이 AI로 입사 지원자의 이력서를 검토한다고 추산했다. 시장 조사 기관 가트너(Gartner)는 지난해, 대다수 기업이 면접 전 AI로 입사 지원자를 먼저 평가한다는 사실을 확인했다.
한편, ICO의 AI 채용 프로그램 검증 계획 발표 후 앨런 튜링 연구소(Alan Turing Institute) 윤리 및 책임 혁신 연구 국장 데이비드 레슬리(David Leslie)는 “채용 과정에 데이터 기반 AI를 사용하면, 여러 논란이 될 문제가 발생할 확률이 높다. 시스템 설계자와 시스템 사용 기관 모두 정확성 심층 분석과 주기적으로 AI 시스템을 평가해야 한다. 기본적으로 감독된 머신러닝을 통해 채용 애플리케이션 분류를 할 수 있는 예측 모델은 차별과 구조적 불평등을 반복하거나 심지어 악화할 위험성이 있다”라고 설명했다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]