'AWS 리인벤트 2022'가 열린 베네시안 호텔 내 로고/사진=김가은 기자
'AWS 리인벤트 2022'가 열린 베네시안 호텔 내 로고/사진=김가은 기자

아마존이 '챗GPT'가 포문을 연 '인공지능(AI) 전쟁'에 참전했다. 초반 분위기를 압도하고 있는 마이크로소프트와 이를 다급하게 쫓고 있는 구글 사이에 등장한 아미존이 AI 전쟁의 판도를 어떻게 바꿀 수 있을 지, 업계에는 다시 긴장감이 감돌고 있다.


'AI 원조 맛집' 아마존 등판

13일(현지시간) 월스트리트저널 등 외신에 따르면 아마존의 클라우드 컴퓨팅 사업을 담당하는 아마존웹서비스(AWS)는 자사 퍼블릭 클라우드 서비스에서 생성형 AI를 사용할 수 있는 도구들을 발표했다. 챗GPT가 대중적인 AI 서비스로 화제를 불러 모았다면, AWS의 서비스는 기업들이 이런 AI 도구를 더 저렴하고 효율적으로 사용할 수 있도록 하는 기업간거래(B2C)에 초점을 맞췄다.

아마존은 세계 최대 전자상거래 업체로 잘 알려져있다. 이 회사의 정교한 추천 시스템과 주문 처리 센터, 로봇을 활용한 피킹, 수요와 공급량 예측 등은 모두 AI 머신러닝(ML) 기술을 기반으로 구동된다. 드론으로 상품을 배송하고, 점원 없는 완전 무인매장을 운영할 수 있는 것도 모두 AI의 힘이다. 이 회사에는 수천명의 ML 엔지니어들이 일하고 있다. 한 마디로 아마존은 AI를 가장 잘 활용하는 회사 중 하나라는 얘기다.

이런 기술적 자신감을 바탕으로 AWS는 그동안 자사 퍼블릭 클라우드 위에서 고객들이 자사의 사업에 ML 기술을 손쉽게 활용할 수 있도록 돕는 다양한 서비스 포트폴리오를 구축해왔다. AWS는 생성형 AI 분야에서도 마찬가지로 좀 더 접근하기 쉬운 '민주적인' 방식을 제공하겠다고 강조했다.


생성형 AI 활용, 더 쉽고 안전하게

챗GPT를 탄생시킨 오픈AI의 'GPT-3.5' 같은 거대언어모델(LLM)은 이름처럼 엄청나게 많은 데이터를 사전에 학습시켜야 한다. 알려진 바와 같이 이런 모델을 구동하기 위해선 막대한 인프라 비용이 투입된다. AWS는 이런 GPT와 같은 고성능 기반 모델(FM, Foundation Model)을 기업들이 대규모 인프라나 데이터 없이도 쉽게 접근할 수 있는 방법을 제공하겠다고 설명했다.

이날 AWS가 선보인 새로운 서비스 '아마존 베드락'(Amazon Bedrock)은 고객이 아마존이 제공하는 FM을 사용해 생성형 AI 기반의 애플리케이션을 손쉽게 구축하고 배포할 수 있도록 지원한다. 이를 통해 사용자는 AWS와 더불어 AI21 랩스, 앤트로픽, 스태빌리티AI 등이 개발한 최신의 FM을 손쉽게 선택해 사용할 수 있게 된다. AWS는 두 개의 새로운 LLM으로 구성된 자체 FM '타이탄 FM'(Titan FM)도 함께 공개했다.

기업들은 활용 목적에 맞춰 적절한 FM을 가져다 쓰기만 하면 된다. FM을 비공개로 설정하고 회사가 보유한 데이터를 학습시켜 자사에만 특화된 애플리케이션을 개발할 수도 있다. 특히 최근 국내 대기업에서도 챗GPT에 회사 기밀을 입력하는 사례가 이슈가 되고 있는 데, AWS의 서비스는 외부로 데이터가 공유되지 않기 때문에 기업들에게 보다 안전한 선택이 될 수 있다.


'챗GPT'와는 노선이 다르다

마이크로소프트는 챗GPT가 세계적으로 폭발적인 관심을 받기 시작하자 발빠르게 자사 클라우드 서비스 '애저'(Azure)에 오픈AI의 서비스를 접목하기 시작했다. 생성형 AI를 발판삼아 퍼블릭 클라우드 서비스의 원조이자 부동의 1위인 AWS를 흔들겠다는 의도다. 마이크로소프트는 자사 검색엔진 '빙'(Bing)에 생성형 AI를 접목하며 구글이 철옹성 같이 지키고 있던 검색시장에 조금씩 균열을 내고 있다. 클라우드에서도 이런 일이 벌어지기 전에 아마존이 대응에 나선 것이다.

아마존은 마이크로소프트의 공습에 고전하고 있는 구글을 반면교사 삼았을 지 모른다. AI 무대에서 선도적인 위치가 흔들릴까 다급해진 구글은 생성형 AI 챗봇 '바드'(Bard)를 선보였지만, 첫 등장부터 질문에 오답을 내놓은 것을 시작으로 연일 실망스러운 모습을 보이고 있다. 그동안 글로벌 AI 연구 트렌드를 주도해왔던 구글로선 불의의 역습이 아닐 수 없다.

이런 모습을 지켜본 아마존은 마이크로소프트와는 조금 다른 접근법을 시도하고 있다. 특정 모델에 종속되지 않고 보안 우려도 덜어낸 중립적인 플랫폼 역할을 하겠다는 것이다. AI 문서 스타트업 코다(Coda)의 최고경영자(CEO)이자 아마존의 새로운 AI 제품의 초기 테스터인 쉬시어 메흐로트라(Shishir Mehrotra)는 "우리의 모든 데이터가 이미 AWS 상에 있기 때문에 우리는 이 데이터를 보호하는 데 필요한 보든 보안 및 개인정보보호 조치와 함께 베드락을 사용해 생성형 AI를 신속하게 통합할 수 있었다"고 설명했다.


전용칩 활용한 인프라 자신감

아마존이 생성형 AI 분야에서 자신감을 보이는 또 하나의 이유는 특화된 인프라다. AWS의 생성형 AI 서비스는 ML 모델 학습에 특화된 트레이니움(Tranium)과 AI 추론을 위한 인퍼런시아(Inferentia) 등 아마존이 개발한 자체 칩 기반으로 구동된다. 아마존은 생성형 AI를 위한 가장 비용 효율적인 클라우드 인프라를 갖췄다고 자신하며 트레이님우과 인퍼런시아 기반의 새로운 인스턴스인 'Trn1n'과 'Inf2'를 정식 출시했다.

Trn1n은 기존 Trn1의 2배인 1600Gbps의 네트워크 대역폭과 20% 더 높은 성능을 제공한다. Inf2의 경우 이전 세대에 비해 최대 4배 높은 처리량과 10배 낮은 지연 시간을 제공하며, 가속기 간 초고속 연결성을 갖췄다.

AWS는 향후 기업들이 FM을 기반으로 한 애플리케이션을 본격적으로 배포하기 시작하면 모델 실행과 추론 수행에 대부분의 비용을 쓰게 될 것이라 전망했다. 이런 추론이 실시간으로 이뤄지기 위해선 매우 짧은 대기 시간과 높은 처리량의 네트워크가 필수라는 설명이다. 또 아마존은 이를 대비해 추론에 최적화된 칩 개발을 우선시했고, 이를 통해 개발한 인퍼런시아를 통해 1억달러 이상의 비용을 절감했다고 설명했다. 

남도영 기자 hyun@techm.kr

관련기사