/사진=미드저니
/사진=미드저니

스마트폰에는 개인정보가 넘쳐납니다. 문자 메시지, 사진, 연락처, 금융정보 등 하나 같이 민감한 데이터들입니다. 근데 이제 인공지능(AI) 비서가 이걸 다 들여다본다고 합니다. 과연 괜찮을까요?


시리는 보고 있다. 내 개인정보

애플은 지난 10일 세계개발자대회    (WWDC)에서 새로운 AI 시스템 '애플 인텔리전스'를 공개했습니다. AI가 이미지나 이모지를 생성해주고 글쓰기를 돕는 등 다양한 기능이 소개됐습니다. 특히 눈길을 끈 건 오랜만에 다시 등장한 AI 비서 '시리'인데, 생성형 AI로 맥락에 맞는 대화가 가능해지면서 이제야 제대로 된 비서 역할을 하게 됐습니다.

시리는 마치 영화 아이언맨에 나오는 '자비스'처럼 어떤 앱에서든 동작하며 사용자의 명령을 수행합니다. "부산 갔을 때 분홍색 옷 입고 찍은 사진 찾아줘"라고 하면 사진 앱에서 해당 사진을 찾아주고, "아내가 저번에 보내준 팟캐스트 재생해 줘"라고 하면 메시지 앱에서 어떤 팟캐스트인지 찾아내 실행까지 해준다는 얘기입니다. 시리는 '시멘틱 인덱스'를 통해 필요한 개인 데이터를 파악하고, AI에게 건내줘 사용자의 요청을 처리합니다.

굉장히 편할 거 같긴 한데, 결국엔 시리가 내 메일함, 메시지함, 캘린더, 사진첩, 연락처 등을 계속해서 들여다보고 있다는 얘기이기도 합니다. 왠지 좀 무서운 생각이 드는 건 저뿐일까요?


애플, AI 시대 새로운 보안 표준 제시

애플도 이런 우려를 알고 있을 겁니다. 애플은 꾸준히 프라이버시 보호와 보안의 중요성을 강조해왔습니다. AI 기능 발표가 남들보다 좀 늦은 이유도 이에 대해 신중하게 접근했기 때문일 가능성이 큽니다. 스마트폰이 개인정보에 굉장히 민감한 기기인만큼, 개인정보 보호와 보안 만큼은 절대 타협할 수 없었을 겁니다.

애플 인텔리전스가 개인정보를 보호하는 두 가지 비법은 '온디바이스 프로세싱'과 '프라이빗 클라우드 컴퓨트' 입니다. 온디바이스 프로세싱은 말 그대로 디바이스 내부에서 AI 기능을 처리한다는 얘기입니다. 데이터가 어디 나가지 않으니 유출될 가능성도 없겠죠. 애플은 경쟁사들이 더 큰 AI 모델을 만드느라 바쁠 때, 온디바이스에서 처리되는 효율적인 AI 모델과 데이터셋을 구축해왔습니다. 아무래도 개인정보 처리에 있어선 온디바이스 방식이 가장 안전할테니까요.

/사진=애플 제공
/사진=애플 제공

그래도 아직 스마트폰 내부에서 모든 AI 기능을 처리하는 데는 한계가 있습니다. 결국엔 서버의 힘을 빌려야 할 때가 오는데요, 이 때는 프라이빗 클라우드 컴퓨트가 등장합니다. 애플이 직접 개발한 '애플실리콘' 칩으로 이뤄진 비공개 클라우드 서버에서 사용자의 명령을 처리해 다시 보내주는 방식인데, 서버에 데이터를 저장하지도, 데이터에 접근하지도 않는다는 게 원칙이라고 합니다. 애플은 이 두 가지를 합친 방식이 AI에 대한 새로운 개인정보 보호 표준이 될 것이라 자신했습니다.


100% 믿을 수 있을까?

애플은 독립적인 전문가들이 자신들의 서버에 접근해 개인정보 보호 약속이 지켜지고 있는지 확인할 수 있다며 투명성을 강조했습니다. 자신있다는 얘기죠. 그런데 100% 믿을 수 있을지는 좀 더 지켜봐야겠습니다. 최근에도 iOS 17.5 업데이트에서 영구 삭제한 사진이 다시 복구되는 사례가 있었습니다. 이 때문에 애플이 사진을 보관한다는 의혹이 제기되기도 했죠. 과거에는 '아이클라우드'가 털려 유명인들의 사생활이 담긴 사진들이 유출된 적도 있었습니다.

애플 인텔리전스 외에 외부 AI 모델인 '챗GPT'를 활용할 수 있다는 점도 우려를 남깁니다. 애플은 대형 AI 모델이 필요한 작업은 직접 하지 않고 외부 협력사들의 도움을 받기로 했는데, 그 첫 주자가 바로 오픈AI 입니다. 애플은 기본적으로 챗GPT 기능을 활성화하지 않은 상태로 제품을 내놓을 계획이라고 합니다. 사용자들이 원하고 동의할 경우에만 선택해 사용할 수 있다는 얘기입니다. 만약 데이터가 오픈AI 쪽으로 간다면 공유되기 전에 사용자의 동의를 받아야 합니다. 동의를 해도 오픈AI는 사용자의 IP 주소를 볼 수 없으며, 요청사항을 서버에 저장할 수도 없다고 합니다. 다만 챗GPT 유료 사용자가 자신의 개인 계정을 연결해 사용할 경우, 오픈AI의 데이터 정책이 적용됩니다.

애플은 구글, 앤스로픽 등과도 접촉하고 있는 것으로 알려졌고, 중국 바이두 '어니봇'처럼 지역별로 특화된 AI 모델이 탑재될 가능성도 있어 보입니다. 이런 외부 AI 모델 적용이 보안의 '빈틈'이 되진 않을까 우려도 됩니다. 오픈AI는 새 모델 'GPT-4o'를 내놓으며 배우 스칼렛 요한슨의 목소리를 동의없이 도용했다는 논란을 겪기도 했습니다. 오픈AI가 데이터를 무단으로 수집해 AI 학습에 사용했다는 논란은 어제 오늘 일이 아닙니다.


'보안'과 '편의' 사이 줄다리기

애플 인텔리전스 발표 직후 일론 머스크 테슬라 최고경영자(CEO)는 "애플이 OS(운영체제) 수준에서 오픈AI를 통합한다면 내 회사들에서 애플 기기는 (반입이) 금지될 것"이라며 "애플과 오픈AI의 파트너십은 용납할 수 없는 보안 위반"이라고 주장하기도 했습니다. 물론 머스크와 오픈AI 사이가 워낙 좋지 않으니 사심이 들어간 얘기겠지만, 일부 우려가 되는 것도 사실입니다.

/사진=마이크로소프트
/사진=마이크로소프트

이렇게 AI가 우리 생활 속으로 들어오기 시작하면 개인정보 보호와 관련한 논란이 더 많아질 것으로 보입니다. 최근 마이크로소프트는 새로운 AI PC '코파일럿+PC'에 '리콜'이란 기능을 탑재하기로 했다가 보안 이슈로 출시를 연기했습니다. 리콜은 사용자가 사용한 PC 화면을 스냅샷 형태로 시간순으로 저장했다가, 다시 되돌리고 싶은 특정 화면이나 내용, 이미지, 파일 등이 있으면 곧바로 검색해 되돌릴 수 있는 기능입니다. 마이크로소프트가 코파일럿+PC에서만 쓸 수 있는 AI 기능으로 야심차게 준비했지만, 해커의 타깃이 될 수 있다는 우려가 제기되면서 결국 좀 더 보완 후에 출시하기로 한 발 물러섰습니다.

AI가 더 많은 일을 하려면 그만큼 데이터를 더 줘야 합니다. 더 많은 개인 데이터를 활용하면 그만큼 정교한 맞춤형 서비스가 가능할 것입니다. 하지만 그와 비례해서 보안에 대한 우려도 커집니다. 반대로 보안을 너무 강조하다 보면 서비스 편의성과 혁신성이 낮아질 가능성이 있습니다. 이런 편의와 보안의 상관관계는 늘 새로운 디지털 서비스의 딜레마였습니다. AI는 과거 어떤 서비스보다 파급력이 굉장히 클 것으로 예상되는 만큼, 균형점을 찾기 위한 노력이 더 절실할 것으로 보입니다.


남도영 기자 hyun@techm.kr