많은 기기에서 안면 인식 기술을 적용하고 있다. 특히, 페이스아이디로 기기를 잠금 해제 할 수 있다는 것은 편리하고 천재적인 기술이다. 하지만, 3년 전에도 사진을 기기에 갖다 대는 것만으로도 기기 잠금 해제를 한 사례가 나왔고 잠자고 있는 나의 얼굴을 이용해 휴대폰의 보안을 충분히 해제할 수 있었다.
브리검영대학교 연구팀은 얼굴의 특징과 안면 근육 등 행동 분석을 동시에 수행하는 인공지능 알고리즘을 발견했다. 해당 알고리즘은 C2FIV (Concurrent Two-Factor Identity Verification)로, 얼굴의 특정한 움직임을 잡아낸다. 기기의 카메라를 향해 한쪽 눈썹을 올리거나 얼굴을 구기는 등 자신만의 독특한 표정을 지어 1~2초 가량의 영상을 녹화한다. 이 영상이 장치에 입력되어 얼굴의 특징과 움직임의 특징을 추출해, 아이디 확인을 위해 데이터로 저장한다.
C2FIV는 이러한 얼굴의 특징과 행동을 동시에 학습하기 위해 신경 네트워크 프레임워크에 의존한다. 이 프레임워크는 정적인 인물 사진이 아닌 움직이는 얼굴 행동들을 동적 순차 데이터로 모델링한다. 이 데이터들을 통해 나중에 아이디 액세스 시도를 할 때 컴퓨터는 새로 생성된 임베딩을 저장된 임베디드와 비교한다.
연구팀은 연구 과정에서 8,000개의 영상을 녹화하여 다양한 얼굴의 움직임을 만들었고 기술의 머신러닝을 훈련시키기 위해 무작위의 얼굴행동들을 녹화했다. 이러한 결과로 이 신경 네트워크는 90% 이상의 정확도를 보였고 머신러닝의 특징을 살려 더 큰 데이터 집합을 통해 정확도 향상을 보일 거라고 확신한다.
[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]