우리의 일상에서 자주 사용되는 인공지능(AI). 실제로 AI는 그 개념과 원리를 정확히 설명하는 것이 어렵고, 복잡하다. 실제로 AI에 적용되는 딥러닝 알고리즘은 지나치게 복잡해, 제작자마저도 알고리즘의 작업 수행 및 결론 도출 이유를 설명하는 데 애를 먹기도 한다.
특히, 인간이 의도한 것과 전혀 다른 결과를 낳으면서 윤리성을 비롯한 여러 문제를 일으킨다면 설명이 더 복잡해진다. 인간이 전적으로 신뢰할 수 있는 AI를 개발할 방법은 없을까? 그렇다면, AI 개발 과정에서 무엇이 중요할까?
AI 프로세스, 핵심은 '맥락적 지식'
미국 유력 경제지 포브스는 AI 기업 데이터로봇(DataRobot)의 부사장 테드 크와틀러(Ted Kwartler)를 인용, AI가 제대로 된 판단을 하지 못 하거나 편견 및 윤리성 등 각종 문제를 일으키지 않도록 하기 위해 인간의 적절한 견제와 균형이 필요하다고 설명한다.
실제로 크와틀러가 설명한 바와 같이 알고리즘이 작업 도중 제대로 판단을 못하거나 엉뚱한 결과를 도출하려 할 때, 인간이 개입해, 맥락에 맞는 지식을 추가해야 한다.
예를 들어, 의학용 알고리즘이 환자 스캔 이미지에서 발견된 종양을 암으로 인지한다면, 인간은 그 결과를 그대로 받아들이지 않는다. 알고리즘이 제시한 결과를 더 깊이 살펴보고, 추후 알고리즘에 의학적 맥락에 맞는 정보를 추가한다.
이 때문에 크와틀러는 인간에게 여러모로 영향을 미칠 수 있다는 점에서 빠른 결정을 내리는 것보다 천천히 결정을 내리더라도 맥락적 지식을 꼼꼼하게 고려하는 것이 중요하다고 강조한다.
AI, 논리 학습이 중요하다
알고리즘은 각각 다른 방식으로 학습하고, 작업 과정에서 결정을 내린다. 따라서 한계 레이어가 중요하다. 일반적으로 알고리즘은 귀납적 학습을 한 뒤, 연역적 학습을 통해 판단한다. 최종적으로는 AI가 생성되기 전, 귀추적 학습을 활용한다.
귀추적 학습은 '고양이는 털이 있다. 그리고, 동물은 털이 있다. 그러므로 고양이는 동물이다.'와 같은 논리에 따라 사고하며, 확인되지 않은 문제를 학습한다. 만약, 알고리즘이 이러한 논리를 생략한다면, 실제 세계에서 논리적으로 타당한 사항을 확인하지 않은 채로 극단적인 결과를 제시할 수 있다. 특히, 이러한 논리가 편견 문제를 일으키지 않도록 막는 필터 역할을 한다는 점에서 중요하다.

위험 평가
AI의 논리적 결함을 주의한다면, 중대한 실수를 피할 수 있다. 반대로 중대한 실수가 반복된다면, AI에 대한 불신을 낳을 수 있다. 이와 관련, 크와틀러는 영향 평가의 중요성을 강조한다.
AI의 영향 평가는 알고리즘의 목적이 피해를 제한하는 것인지 적극적으로 선한 일을 하는 것인지 확인하고, 알고리즘의 결정으로 나올 수 있는 결과를 탐색할 수 있는 능력 등을 검증하는 것이다.
크와틀러는 "AI의 영향 평가가 기본 단계에서부터 신뢰를 구축하는 데 도움이 될 것이다. 또, 기업에서는 (직접 제작한) 알고리즘이 세계에 어떤 영향을 미치는지 적극적으로 생각할 수 있다"라고 설명했다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]