
영국 테러 법안 자문위원이 인공지능(AI) 개발자에게 테크 유토피아 사고를 버려야 한다고 경고했다.
영국 일간지 가디언에 따르면, 테러 관련 법안 자문위원인 조나단 홀 KC(Jonathan Hall KC)은 “AI 때문에 국가 안보 위협이 더 뚜렷하게 나타나도 있다. 따라서 AI 개발 시 테러 세력이 악용할 의도를 염두에 두어야 한다”라고 주장했다.
홀은 AI 기술 개발 중 상당 부분이 잠재적인 긍정적 측면에만 지나치게 초점을 맞추는 반면, 테러 세력이 공격을 개시할 때 AI를 사용할 가능성은 주목하지 못했다고 설명했다.
홀은 AI 챗봇이 취약하거나 신경이 예민한 개인을 설득하여 테러 공격을 감행할 수 있는 범위에 대해 점점 더 우려하고 있다는 점도 인정했다.
홀의 경고 사항은 영국 정부 산하 보안 기관인 MI5가 AI 챗봇이 아동을 길들이면서 테러 사상을 주입할 위험성을 우려한다는 사실에 함께 주목할 수 있다.
MI5는 영국 데이터 사이언스 및 AI 개발 국가 기관인 앨런튜링연구소(Alan Turing Institute)과 AI가 제기할 국가 안보 위협에 맞서고자 협력 관계를 맺었다.
앨런튜링연구소 국방 및 보안 프로그램 디지털 윤리 연구원인 알렉산더 블랜차드(Alexander Blanchard)는 MI5와 앨런튜링연구소의 협력이 영국이 AI가 제기할 보안 문제를 매우 심각한 문제로 인지했다는 점을 시사한다고 설명했다.
그는 “국방 및 보안 정책 입안자 사이에서는 무슨 일이 일어나고 있는지, 행위자들이 AI를 어떻게 사용할 수 있는지, 위협이 무엇인지 이해하려는 의지가 많다. 실제로 AI 관련 보안 위험 요소와 장기적 위험, 차세대 기술의 위험성을 파악하려는 작업이 진행 중이다”라고 전했다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]