사진=카카오
사진=카카오

카카오는 지난 24일부터 3일간 스위스 제네바에서 개최된 UN 산하 인권최고대표(OHCHR) 주최 '제 14차 UN 기업과 인권 포럼'에 참석해 인권 기반 인공지능(AI)과 기술의 공공 기여 사례에 대해 발표했다고 26일 밝혔다.

UN 기업과 인권 포럼은 2011년 채택된 UN 기업과 인권 이행원칙(UNGPs)의 실천을 위해 매년 개최하는 글로벌 회의로, 정부 관계자와 기업을 비롯해 지역공동체, UN 기구, 인권단체, 학계 등의 이해관계자가 함께 참석한다.

카카오는 '인공지능 시대의 인권 증진' 세션에 참여했으며 하진화 AI 세이프티(Safety) 시니어 매니저는 발표를 통해 "카카오는 AI 기술 개발 및 운영 전 과정에 인권 보호 체계를 접목하고 있으며, 한국어와 문화 맥락에 최적화된 AI 가드레일 모델을 오픈소스로 공개하는 등 공공 조달의 신뢰성을 위한 기반을 마련하고 있다"고 말했다.

카카오는 AI기술의 개발과 서비스 출시, 운영 등에 이르는 과정에 인권 관점을 내재화한 거버넌스를 운영하고 있다. 카카오 그룹의 '안전한 AI를 위한 핵심 체크리스트'는 국가인권위원회가 개발한 'AI 인권영향평가 도구'를 주요 참고문헌 중 하나로 지정해 제작했으며, 그룹 AI 윤리 원칙인 '카카오 그룹의 책임 있는 AI를 위한 가이드라인'은 인권을 명시적 원칙으로 포함하며, 관련한 다양한 항목을 다각도로 반영하고 있다. 또 '디지털 아동·청소년 보호 체크리스트'의 경우 유니세프의 디지털 아동 영향평가를 참고해 개발했다.

카카오는 이러한 내부 기준을 OHCHR, AI 얼라이언스(Alliance) 등 글로벌 기관과의 협력을 통해 국제적 기준과의 정합성을 지속적으로 맞춰가고 있다.

이 밖에도 카카오는 안전한 AI 관련 기술을 개발하고, 이를 오픈소스로 공개해 공적 기여를 확대하고 있다. 지난 5월 AI 서비스의 안전성과 신뢰성을 검증할 수 있는 AI 가드레일 모델 '카나나 세이프가드(Kanana Safeguard)'를 개발했으며, 생태계 기여를 위해 국내 기업 최초로 오픈소스로 공개하기도 했다. 현재 카카오의 주요 AI 서비스에 적용되어 있다.

최근에는 한국정보통신기술협회(TTA), 카이스트(KAIST)와 함께 생성형 AI 안전성 평가 데이터셋 'AssurAI'를 함께 개발하기도 했다. 총 1만1480건으로 구성된 데이터셋은 글로벌 AI 위험 분류체계를 기반으로 하며 한국의 사회·문화적 맥락을 반영했다. AI 모델의 안전성 평가나 연구 개발을 위해 누구나 활용할 수 있도록 허깅 페이스(Hugging Face)를 통해 오픈소스로 공개됐다.

김경훈 카카오 AI Safety 리더는 "AI 기술 개발과 서비스 운영의 측면에서 이용자 보호를 최우선의 가치로 여기며 관련 정책을 고도화하고 있다"며 "기술의 투명성 확보와 공공 기여 확대를 통해 IT기업으로서 인권 존중을 선도하고, 지속 가능한 기술 생태계와 사람 중심의 AI를 위해 노력할 것"이라고 말했다.

배수현 기자 hyeon2378@techm.kr