특정인의 얼굴을 인식하는 인공지능(AI) 기술의 활용분야가 넓어지고 있는 가운데 일본 연구팀이 다른 AI를 이용해 얼굴인식 AI가 진짜로 인식하는 데이터를 재현하는데 성공했다.
AI 화상인식 기술은 컴퓨터의 잠금장치 등에 이미 도입돼 있으며 여러 분야의 본인 확인 등에 활용될 것으로 기대되고 있다.
이번 실험결과는 제3자가 AI 기술을 이용해 안면인식 AI를 완벽하게 속일 수 있음을 보여준 것이어서 화상인식 AI 보안체계의 헛점이 드러난 것으로 받아들여지고 있다.
NHK에 따르면 쓰쿠바(筑波)대학 인공지능과학센터의 사쿠마 준(佐久間淳) 교수팀은 특정인의 얼굴을 학습한 AI를 다른 AI로 공격해 학습한 얼굴을 유추하게 하는 실험을 했다.
공격 측 AI는 우선 적당한 화상을 만들어 공격대상 AI에게 보여줘 공격대상 AI가 학습한 사람의 얼굴과 어느 정도 닮았다고 인식하는지 파악했다. 이렇게 파악한 정보를 토대로 공격대상 AI가 학습한 진짜 얼굴을 유추해 더 많이 닮은 화상을 만드는 과정을 고속으로 반복했다.
연구팀은 일반적으로 AI의 프로그램을 공격 측이 알아내기는 어렵기 때문에 당장 악용되지는 않겠지만 누군가가 AI를 해킹하면 본인의 안면을 재현해 낼 수 있어 장차 안면인증 보안체계가 뚫릴 우려가 있다고 경고했다.
사쿠마 교수는 “지금까지의 AI 개발에서는 학습한 데이터를 제3자가 볼 수 있다는 사실은 고려하지 않았다”고 지적하고 “데이터에는 기업의 비공개 정보와 개인의 안면 등도 들어 있기 때문에 정보가 누설될 위험에 대비가 필요하다”고 강조했다.
AI 화상인식 기술은 이밖에 자율주행 자동차가 장애물과 위험물을 파악하거나 질병 진단지원 등에도 응용이 가능할 것으로 기대되고 있다.
사쿠마 교수는 AI 프로그램이 공격자의 손에 넘어가면 소유자의 얼굴이 알려져 개인정보 보호 등이 문제가 될 수 있다고 지적했다. 제3자가 본인으로 가장해 안면인증을 돌파하면 해당 기기를 자유자재로 조작할 수 있어 보안상 중대한 문제가 초래될 우려도 있다.
사쿠마 교수는 이번 실험은 여러 가지 다양한 조건에서 이뤄졌기 때문에 당장 악용될 위험은 크지 않지만 만일의 경우에 대비해 대책을 마련할 필요가 있다고 말했다.
<KISTI의 과학향기> 제3100호