/ 사진=카카오 제공
/ 사진=카카오 제공

인공지능(AI)을 중심으로 기술력을 강화하고 있는 카카오가 ESG 보고서 '2024 카카오의 약속과 책임'을 통해 AI 기술력 안정성·신뢰성 확보를 위한 노력을 전했다.

25일 카카오는 지난 2024년 한 해 동안의 환경, 사회, 지배구조 관련 주요 활동과 성과를 담은 ESG 보고서 '2024 카카오의 약속과 책임'을 발간했다고 밝혔다. 이번 보고서에는 카카오의 AI 윤리를 위한 노력과 책임 경영 강화 활동, 상생 결과 등을 담았다. 

카카오는 올해부터 본격적으로 AI 기술력과 서비스 확대를 이어가고 있다. 지난달부터 AI 메이트 '카나나'의 CBT를 진행 중이며 전국민 애플리케이션인 카카오톡은 AI 기반 개편을 앞두고 있다. 또 오는 하반기 오픈AI와 함께 한국형 AI 에이전트 플랫폼을 출시도 예고됐다. 이처럼 AI 기술력을 기반으로 서비스를 확장해 가는 가운데 카카오는 AI 기술 윤리를 정립해 기술 안정성과 신뢰도를 확보했다. 

카카오는 AI를 '사람을 향한 기술'로서 인식, AI 정책 지원 조직을 운영하고 리스크 관리 체계를 수립했다. 이를 위해 지난 2024년 AI 개발·운영 과정에서 발생할 수 있는 리스크를 식별하고 관리하는 프로세스를 정의한 카카오 ASI(Kakao AI Safety Initiative)를 발표했다. 카카오 ASI는 사회 윤리와 포용성, 투명성, 프라이버시 등 10가지 기준을 포함하는 '카카오 그룹의 책임 있는 AI 를 위한 가이드라인'을 기반으로 윤리적 기준을 설정한다. 카카오 ASI는 AI 리스크를 기술적 리스크와 윤리적 리스크로 구분해 평가 및 완화 조치를 적용한다.

또 AI 서비스의 안정성 강화를 위해 자체 AI 가드레일 모델 '카나나 세이프가드(Kanana Safeguard)'를 개발했다. 카나나 세이프가드는 대화형 텍스트 내 AI 서비스 이용자 또는 AI 어시스턴트의 부적절한 발화를 필터링할 수 있다. 세 가지 모델로 구성돼 있으며 각 모델은 역할과 정책에 따라 서로 다른 리스크를 탐지해 내부 정책에 따라 위반된 유형을 분류·출력한다.

/ 사진=카카오 제공
/ 사진=카카오 제공

또 카카오는 주요 계열사와 함께 AI 윤리 개념·원칙에 대해 합의한 과정을 바탕으로 '카카오 공동체의 책임 있는 AI를 위한 가이드라인' 수립에 참여했다. 이는 기존 알고리즘 윤리헌장을 전면 개정한 것으로 지난해에는 AI와 이용자 간 상호작용을 강화하는 '이용자의 주체성' 항목을 신설하기도 했다. 기술 발전으로 인한 인간 자율성 침해 우려에 대응하기 위함이다.

이 외에도 생성형AI 활용 과정에서 발생할 수 있는 부작용을 방지하고자 사내활용 정책을 수립·이행 중이다. 생성형 AI 서비스 이용 시 발생할 수 있는 리스크와 유의사항을 안내하고 생성된 결과물에 대한 점검·준수 사항을 명시해 책임 있는 생성형 AI 사용 문화를 조성하도록 했다.

아울러 카카오는 디지털 역량 강화와 기술기반 사회기여, 지역사회 상생 등 기술을 중심으로 한 사회 활동에도 나서고 있다. 카카오 테크캠퍼스를 운영하며 기술 인재를 양성하고 비수도권 지역 대학생의 취업을 지원한다. 소상공인의 디지털 전환을 위한 상생 프로그램인 '프로젝트 단골'도 진행 중이다. '카카오 클래스'를 통해 카카오의 서비스 플랫폼을 잘 활용할 수 있도록 하고, 카카오톡 채널을 활용한 온라인 마케팅 멘토링도 제공했다. 

카카오는 AI 기술 발전에 따른 책임 경영과 안정성 확보 활동을 꾸준이 이어간다는 방침이다. 정신아 카카오 대표는 "AI 기반의 서비스를 고도화하는 과정에서 기술윤리, 개인정보보호, 데이터 보안의 중요성을 깊이 인식하고 있기에 이를 관리하기 위한 체계를 강화했다"며 "앞으로도 카카오는 책임경영, AI 기술의 안전한 활용, 디지털 포용 등 우리 사회가 마주한 과제에 적극 대응하며 이용자, 파트너, 미래 세대와 함께 더 나은 내일을 만들어 가겠다"고 전했다. 

배수현 기자 hyeon2378@techm.kr

관련기사