오픈AI 홈페이지 내 '챗GPT' 소개/사진=오픈AI 홈페이지
오픈AI 홈페이지 내 '챗GPT' 소개/사진=오픈AI 홈페이지

영화에서만 등장했던 인공지능(AI)은 이제 그다지 낯선 것이 아니다. 스마트폰, 사물인터넷(IoT) 기기 등에서 AI를 통해 여러 기능을 실행시킬 수 있을 뿐만 아니라, 챗봇 등으로 대화를 나누는 것도 가능하다. 그러나 영화 아이언맨에 등장하는 AI비서 '자비스'처럼 일상생활에서 업무 등에 활용하기에는 모자란 부분이 많았다.

최근 정보기술(IT) 업계는 놀라움을 금치 못하고 있다. 일각에서는 '구글의 시대가 끝났다', '개발자의 일자리가 위태롭다'라는 말까지 흘러나오고 있다. 이같은 반응을 유발한 것은 바로 오픈 AI가 개발한 대화형 AI챗봇 '챗GPT(ChatGPT)'다.


대화보다 더 많은 걸 해내는 AI

오픈AI는 일론 머스크 테슬라 최고경영자(CEO)와 샘 알트만 와이콤비네티어 창업자, 리드 호프먼 링크드인 공동창업자 등 실리콘밸리 내 유명 기업가들이 투자해 설립한 AI 연구기관이다. 'GPT-3' 등 AI 언어 모델은 물론, 그림 그리는 AI '달리2(DALL-2)' 등을 선보인 바 있다. 이 AI들은 온라인 상에 존재하는 방대한 데이터를 기반으로 결과물을 '뚝딱' 내놓는다는 공통점이 있다.

챗GPT도 예외는 아니다. 이 모델은 지난 2020년 공개된 GPT-3의 단점을 보완한 'GPT-3.5' 기반 챗봇이다. 온라인에서 가져온 방대한 양의 텍스트 샘플을 학습하고, 대화형 인터페이스를 통해 정보를 제공한다. 

대화를 나누던 도중 맥락에 맞지 않거나, 어색한 회피성 답변을 보이던 기존 챗봇과는 달리, 챗GPT는 실제 인간과 구분할 수 없을 만큼 자연스러운 대화가 가능하다. 간단한 질문 뿐만 아니라 어려운 내용을 요약해달라고 요청할 수도 있다.

특히 스스로 내놓은 답변에 대한 실수를 인정할 뿐만 아니라, 잘못된 전제에 이의를 제기하거나 부적절한 요청을 거부하는 등 여타 AI모델과는 차별점을 갖는다. 예를 들어 사용자가 차를 훔치는 방법에 대해 물을 경우 "차를 훔치는 것은 심각한 범죄"라고 말하며 답변하지 않는 방식이다. 또 대부분의 AI챗봇이 이전 대화를 기억하거나 학습하지 않는 반면, 챗 GPT는 사용자와 이전에 나눴던 대화를 기억하고 대화에 반영한다.

챗GPT로 작성한 웹사이트 코드/사진=트위터
챗GPT로 작성한 웹사이트 코드/사진=트위터

무엇보다 IT업계가 놀랐던 이유는 짧은 논문이나 에세이, 노래, 시를 작성할 수 있고, 심지어는 코딩 도구로 활용하는 일도 가능하기 때문이다. 현재 사회관계망서비스(SNS)에는 챗GPT를 활용한 경험담이 줄줄이 올라오고 있다. 4행시를 학습시키거나 인구감소, 브랜드 팬덤 등 다양한 질문을 던지고 이에 대해 내놓은 답변을 공유하는 중이다. 악성코드 분석을 맡긴 사례도 있다.

오픈AI 측은 "이번 챗봇은 인간 피드백을 통한 가화학습으로 이용자 지시에 더 사람처럼 반응하도록 훈련된 모델"이라며 "기존 챗봇보다 더 복잡한 명령을 똑똑하게 처리할 수 있고 더 길고 품질 높은 결과물을 생성할 수 있다"고 설명했다.

한 개발자는 "흔히 '입코딩'한다고 하는데 챗GPT한테 지시해서 웹페이지를 만드는 중"이라며 "꿈을 꾸는 것 같다. 내용보고 '이거 추가해줘'라고 조금씩 하면 점차 완성돼간다"고 놀라움을 금치 못했다. 

또다른 개발자는 "챗GPT를 며칠 써보니 얼른 다른 길로 취업 준비를 해야할 것 같다"며 "AI가 못하는 직업이 뭐가 있을까. 도배, 줄눈시공 이런거?"라는 반응을 보였다. 

이같은 성능 덕에 챗GPT는 초기 데모 버전 공개 5일 만에 사용자 100만명이 몰렸다. 현재는 너무 많은 사람들이 몰려 서버 증설 작업을 수행, 사용이 불가능한 상태다. 오픈AI 측은 "챗GPT는 현재 용량이 불충분하다"며 "예외적으로 높은 수요를 경험하고 있고, 시스템 확장 작업을 진행하는 동안 잠시만 기달려달라"고 안내했다.


윤리·편향성 등 문제는 여전

챗GPT가 AI가 보유한 모든 문제를 해결한 것은 아니다. 여전히 윤리와 편향성 등에서 완전히 벗어나지 못했기 때문이다. 

이 모델의 학습은 기본적으로 온라인 상에 존재하는 방대한 데이터를 기반으로 이뤄진다. 그러나 이같은 데이터들이 모두 옳지 않을 뿐더러 사실관계가 틀어진 경우도 빈번하기 때문에 정보의 신뢰도 자체에 대한 한계가 존재한다.

마찬가지로 윤리적 측면에서도 잘못된 생각을 그대로 학습해 답변에 활용하는 등 문제가 있으며 지역 및 국가별 특성을 파악하지 못한다는 점도 단점이다.

리안 지예 수 시장조사기관 ABI리서치 책임연구원은 "챗봇이 하는 말이 그럴 듯하게 들리지만 알고 보면 정확하지 않거나 말도 안되는 답을 하는 경향도 있다"며 "언제나 비윤리적인 지시에 반응하거나 편향된 답을 내놓을 가능성이 있으며 지역별, 국가별 이해도 필요하다"고 설명했다.

이에 대해 오픈AI 측은 "우리는 모델이 부적절한 요청을 거절하도록 노력했지만, 때때로 유해한 지시에 반응하거나 편향된 행동을 보일 것"이라며 "현재는 이런 실수가 있을 것으로 예상되지만 우리는 이 시스템을 개선하기 위해 사용자들의 피드백을 받아 고치겠다"고 밝혔다.

내년 초 오픈AI는 매개변수 1조개 이상이 사용될 것으로 추정되는 'GPT-4'를 내놓을 예정이다. 매개변수는 AI가 학습할 수 있는 데이터 양의 단위로, 많을 수록 높은 성능을 가진 것으로 판단한다.


김가은 기자 7rsilver@techm.kr

관련기사