'아키네이터' 게임 속 인공지능, 정말 생각을 하는 걸까
'아키네이터' 게임 속 인공지능, 정말 생각을 하는 걸까
  • 함예솔
  • 승인 2019.04.18 01:00
  • 조회수 1380
  • 댓글 0
이 기사를 공유합니다

이 영상은 인기 유튜버 허팝씨가 웹게임 '아키네이터'와 게임하는 모습인데요. 이 게임은 플레이 하는 사람의 머릿속으로 생각하고 있는 인물에 대해 여러가지 질문을 묻고 이를 통해 유저가 생각한 인물을 맞추는 게임입니다. 이는 데이터베이스에서 산출되는 데이터로 답을 맞추는 것이므로 게임 속 등장하는 '지니'는 인공지능의 일종입니다. 

 

이 게임은 세명의 프랑스인 개발자가 만들었다고 합니다. 실존 인물을 포함해 게임, 영화, 애니 등에 등장하는 캐릭터를 맞춘다고 하는데요. 화면 속 지니의 질문에 '예', '그럴겁니다', '모를겠다', '아닐겁니다', '아니오' 등의 5가지 질문에 답하면, 인공지능 '지니'는 플레이어가 생각하는 인물이나 캐릭터를 맞춘다고 합니다. 답만 정확히 한다면 적중률이 꽤 높은 편이라고 하는데요.  

 

이렇게 최근 대중문화에 인공지능은 자연스럽게 스며들고 있습니다. 그런데 인공지능에 관한 논의는 사실 20세기 중반부터 제기된 문제였다고 합니다.

튜링기계를 주제로 한 영화 '이미테이션' 게임
튜링기계를 주제로 한 영화 '이미테이션' 게임

컴퓨터와 같은 기계가 사람처럼 '생각할 수 있느냐'는 질문을 공식적으로 처음 던진 이는 앨런 튜링이었어요. 앨런 튜링은 제2차 세계대전 당시 나치 독일의 암호기였던 '에니그마'를 해독한 영국의 천재 수학자이자 논리학자였습니다. 심지어는 그의 생애를 다룬 영화 '이미테이션 게임'까지 나왔는데요.  

 

'튜링테스트' 통과하면 기계도 '생각'

 
튜링은 1950년에 "Computing Machinery and Intelligence"라는 논문을 발표하는데요. 논문의 첫 문장에서 그는 'Can machines think'라는 질문을 던집니다. 그리고 이른바 '튜링테스트'라고 불리는 일종의 게임을 제시합니다. 그는 '튜링테스트'를 통과하는 기계는 생각하는 능력이 있는 것으로 판단해야 한다고 주장하는데요.  
 

'튜링테스트'는 기계가 행동주의적 지능검사를 통과하는지 알아보는 테스트입니다. 논문 속에서 튜링테스트의 설정은 다소 복잡한데요. 이를 간단한 개념만 풀어 설명하면 다음과 같습니다. 

조사자들의 30% 이상이 해당 기계를 사람이라고 판단하면 '튜링테스트'를 통과합니다. 출처: fotolia
조사자들의 30% 이상이 해당 기계를 사람이라고 판단하면 '튜링테스트'를 통과합니다. 출처: fotolia

검사에서 기계(컴퓨터 또는 인공지능 프로그램)는 5분 동안 조사자들과 온라인으로 대화를 나누죠. 이때 기계와 대화를 나눈 조사자들이 해당 기계를 사람이라고 판단하는 확률이 30%를 넘게 되면 이 기계는 튜링테스트를 통과하게 된 것이고 생각하는 능력이 있다고 인정받습니다. 
 

'튜링테스트'는 행동주의 테스트로 불리기도 합니다. 튜링이 '생각' 그 자체에 대한 규정을 내리지 않고 '인간처럼 행동하는 기계는 생각하는 것으로 보자'는 전제를 가정했기 때문인데요. 튜링은 '생각하다'라는 의미에 대해 정의내리기는 불가능하다고 지적했습니다. 사람마다 그 기준이 다르기 때문에 그 의미를 정의하는 것은 '여론조사'를 통해 다수결로 정의할 수밖에 없고, 튜링은 그런 정의내림이 부당하다고 본 까닭입니다. 
 

존 설, 중국어방 논증으로 '튜링테스트' 비판

 

'튜링테스트'에 대한 가장 유명한 반론은 이른바 '중국어방 논증'으로 불리는 논의인데요. UC버클리 철학과의 존 설 명예교수가 1980년에 제기했습니다. '중국어방 논증'은 일종의 사고 실험입니다. 논증을 간단히 비유해 설명해보면 다음과 같습니다.

'정해진 규칙'에 따른 행동이 '생각한다'는 것을 의미할까? 출처: fotolia
'정해진 규칙'에 따른 행동이 '생각한다'는 것을 의미할까? 출처: fotolia

 

어느 날 마른 하늘의 날벼락처럼 납치된 미국인 A가 하얀 방에 갇혀 있습니다. A를 가둔 사람들은 A에게 자신들이 요구하는 작업을 완료하면 내보내주겠다고 하죠. 

그들은 A에게 작업 방식이 영어로 기록된 한 권의 책과 알 수 없는 미지의 기호들로 가득한 A4크기의 노트를 한 무더기 건네줍니다. A는 책에 적힌 프로세스에 따라 미지의 기호들의 대한 답을 미지의 기호로 적어 납치범들에게 건네주고 풀려나죠. 

이때 미지의 기호는 '중국어'였습니다. 그리고 그가 책을 기반으로 작성한 답변은 '완벽한 중국어답변'이었습니다.

과연 위의 작업을 완료한 A가 중국어를 이해했다고 볼 수 있을까요? 그가 아무리 완벽한 중국어 답변을 내놓았어도 책에 적힌 프로세스를 따른 결과에 불과한 것인데 말입니다. 존 설 교수는 위와 같은 '중국어방 논증'을 들면서 발달된 기계(컴퓨터 등)가 '튜링테스트'를 통과해도 기계는 단지 프로그램된 프로세스를 따랐을 뿐 인간처럼 생각하고 이해하는 과정은 없다고 주장합니다.

'생각한다'를 정의내리는 모호함과 어려움은 '튜링테스트'를 되돌아보게 합니다. 출처: fotolia
'생각한다'를 정의내리는 모호함과 어려움은 '튜링테스트'를 되돌아보게 합니다. 출처: fotolia

하지만 '중국어방 논증'에도 지적할 부분은 있습니다. 프로세스에 따라 작업한 기계가 자신은 작업의 내용을 이해하고 생각하고 있다고 주장한다면, 기계가 생각하지 않는다는 것을 어떻게 부정할 수 있을까요?

 

기계 이전에 어떤 '사람'이 '생각하고 있다'는 건 어떻게 증명할 수 있을까요? '그 기계' 또는 '그'가 직접 되지 않는 이상 '생각하고 있다'거나 '생각하지 않는다'는 것을 증명하거나 부정할 방법이 있을까요?

 


##참고자료##

  • 김재인, <인공지능의 시대, 인간을 다시 묻다>, 서울:동아시아, 2017.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 충청남도 보령시 큰오랏3길
  • 법인명 : 이웃집과학자 주식회사
  • 제호 : 이웃집과학자
  • 청소년보호책임자 : 정병진
  • 등록번호 : 보령 바 00002
  • 등록일 : 2016-02-12
  • 발행일 : 2016-02-12
  • 발행인 : 김정환
  • 편집인 : 정병진
  • 이웃집과학자 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2016-2019 이웃집과학자. All rights reserved. mail to contact@scientist.town
ND소프트