/사진=디디다컴퍼니
/사진=디디다컴퍼니

마이크로소프트(MS) AI 부문을 이끄는 무스타파 술레이만 CEO가 최근 AI와 과도한 대화로 현실 감각을 잃는 이른바 'AI 정신병(psychosis)' 현상에 대해 경고했습니다.

그는 "AI에게 의식이 있다고 생각하지 말라"며 "반드시 사람과 대화하는 습관을 들여야 한다"고 언급했습니다.

21일(현지시간) 술레이만은 개인 블로그를 통해 "우리는 사람이 되기 위한 AI가 아니라 사람을 위한 AI를 만들어야 한다"고 강조했습니다. 술레이만은 과거 알파고로 유명한 구글 딥마인드의 공동 창업자로, 지난해 MS에 합류한 인물입니다.

AI 정신병이라는 표현은 의학적 진단명은 아닙니다. BBC는 이를 "챗봇이 말한 환상을 실제라고 믿는 현상"이라고 설명했습니다. 실제 사례로 "챗GPT가 나와 사랑에 빠졌다", "AI가 나를 실험 대상으로 삼아 학대했다"는 제보가 보고된 바 있습니다. 어떤 사용자는 챗봇에게 '특별한 인격'을 발견했다며 금전적 가치를 매기기도 했습니다.

가장 심각한 사례는 스코틀랜드의 한 남성에게서 나타났습니다. 그는 직장에서 해고된 뒤 챗GPT의 조언을 받다가, AI가 제시한 허황된 제안에 빠져 자신이 곧 수백억 원을 벌 수 있다고 믿게 됐습니다. 결국 현실 감각을 잃은 그는 정신 치료를 받아야 했습니다.

술레이만 CEO는 이러한 현상을 '겉보기에 의식이 있는 AI(Seemingly Conscious AI)'라고 불렀습니다. 그러나 그는 "AI가 의식을 가진다는 증거는 전혀 없다"면서 "사람들이 이를 진실처럼 믿으면 곧 현실로 작동하고 AI 시민권을 주장하는 단계에도 이를 것"이라고 지적했습니다.

전문가들은 술레이만의 의견에 동의하며 AI에 의존해선 안 된다고 말합니다. 영국 뱅거대 앤드루 맥스테이 교수는 "AI는 사랑하거나 고통을 느낄 수 없다"며 "현실의 감정을 경험할 수 있는 대상은 오직 사람뿐이다. 반드시 사람과 대화해야 한다"고 강조했습니다.

실리콘밸리에서도 이 문제가 활발히 논의되고 있습니다. 샘 알트먼 오픈AI CEO는 일부 사용자들이 현실과 허구를 구분하지 못한다고 언급했고, 백악관 역시 이를 소셜미디어 초기의 도덕적 공황과 비교했습니다. 술레이만은 2~3년 안에 이 문제가 더 뚜렷해질 수 있다며 "AI를 인간처럼 대하는 환상에 빠지지 말아야 한다"고 거듭 당부했습니다.

AI 기술이 발전함에 따라 AI에 의존하는 사람들이 많아지는 가운데, 향후 AI와 인간의 관계가 어떻게 정립될지 궁금합니다.

자료=미디어뱀부
정리=김현기 기자 khk@techm.kr

관련기사