/사진=디디다 컴퍼니 제공
/사진=디디다 컴퍼니 제공

챗GPT 개발사 오픈AI와 구글 인공지능(AI) 연구 기업 딥마인드의 전·현직 직원들이 지난 4일(현지시간) AI의 위험성에 대해 경고했습니다. 

전·현직 직원 13명은 개발사들이 리스크를 자체적으로 해결할 수 없다며 AI의 급속한 발전에 우려를 표하는 성명을 발표했습니다. 성명에는 오픈AI 전·현직 직원 각각 7명과 4명, 구글 딥마인드 전·현직 직원 각 1명이 이름을 올렸습니다.

이들은 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다"며 "AI의 위험은 기존 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인류의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다"고 말했습니다. 이어 "전세계 정부와 AI 전문가, AI 회사도 이를 인정했다"고 덧붙였습니다.

하지만 현재 법 체제에서는 AI 기업이 이 리스크에 대한 중요 정보를 자발적으로 공개하지 않을 것이라고 주장했습니다. 

전·현직 직원 13명은 "AI 기업은 기술로 인해 발생하는 다양한 종류의 위험에 대한 상당한 비공개 정보를 보유하고 있지만 이 정보를 정부와 공유할 의무가 약하고, 시민 사회와 공유할 의무가 없다"며 "AI 기업은 이윤 추구를 목표해 제대로 된 감독을 하지 못하고, 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다"고 말했습니다. 

성명은 전·현직 직원들이 이 같은 문제에 대해 책임을 느끼지만, AI 산업에 대한 내부 고발자 보호가 미비해 목소리를 내기 어렵다고 밝히며 내부 고발자 보호 조치 마련을 촉구했습니다. 

이들은 "회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다"고 말했습니다. 또 "일반적인 내부고발자 보호는 불법 행위에 초점이 맞춰져 있다"며 "우리 중 일부는 업계 전반에 걸쳐 내부 고발 사례를 고려할 때 다양한 형태의 보복을 두려워한다"고 강조했습니다.

앞서 오픈AI는 핵심인력이 대거 이탈해 AI 관련 장기 잠재 리스크를 연구하는 안전팀이 해체된 바 있습니다.

AI의 잠재적 위험에 대한 목소리가 이어지는 가운데 앞으로의 어떤 대책이 나오게 될지 궁금합니다. 

자료=미디어뱀부
정리=김현기 기자 khk@techm.kr

관련기사