
영상 링크: Building Agents at Cloud Scale — Antje Barth, AWS
채널명: AI Engineer
클라우드 규모의 에이전트 구축 — Antje Barth, AWS 핵심 요약
- AWS는 AI가 모든 고객 경험을 재창조하고, 새로운 경험까지 가능케 할 것이라고 확신함
- 아마존 내에서 1,000개 이상의 생성형 AI 애플리케이션이 개발 또는 도입되어 재고 예측, 배송 경로 최적화, 쇼핑, 스마트홈 등 여러 분야를 변혁 중임
- AI 에이전트의 가장 대규모 적용 예는 ‘Alexa Plus’로, 6억 대 이상의 Alexa 디바이스, 수천 개의 협력사 서비스 및 수만 개의 장치와 연동되어 동작함
- Alexa Plus는 ‘전문가 시스템’ 그룹(기능별 API와 작업 지침 묶음) 수백 개를 동시 작동하며, 사용자 요청에 맞춰 에이전트와 LLM이 복합적으로 일함
- AWS는 빠른 AI/에이전트 개발을 위해 모델 주도 방식(model-driven approach)을 적용해, 세밀한 작업 지시 대신 에이전트의 ‘목표’만 정의하도록 함
- 대표 사례로 ‘Amazon Q Developer Agent’를 3주 만에 개발 및 배포하였으며, 이는 빠른 AI 실행력의 상징적 예시임
- 누구나 오픈 소스로 사용할 수 있는 ‘Strand Agents’ Python SDK를 공개, 수십 줄의 코드로 복잡한 멀티에이전트 시스템을 실시간 구축 가능
- Strand Agents는 Amazon Bedrock, OpenAI, Meta Llama, Anthropic 등 다양한 모델과 연동 가능하며, 20종 이상의 사전 구축 툴 및 MCP 등 오픈 프로토콜을 지원함
- MCP 서버를 Lambda 함수로 배포해 클라우드 확장성을 확보, 다양한 AWS 서비스 및 시스템과 실시간 연동 구현
- 에이전트 간 통신 및 작업 네트워크화 시대를 예고, AWS는 오픈 프로토콜(MCP) 생태계 발전에도 적극 참여 중임
세부 요약 - 주제별 정리
AWS는 AI로 모든 고객 경험 및 비즈니스 프로세스를 변혁 중임
- AWS 및 아마존은 모든 고객 경험이 AI로 재창조될 것이라는 신념을 가지고 있음
- 이미 1,000개 이상의 생성형 AI 앱이 도입 및 개발 단계에 있음
- 재고 예측, 배송 경로 최적화, 고객의 쇼핑 및 스마트홈 관리 등 전사적 프로세스에 적용
- 기존 경험의 개선 뿐만 아니라, 전혀 새로운 형태의 서비스와 상호작용을 AI로 구현하고 있음
Alexa Plus는 세계 최대 규모의 에이전트-LLM-서비스 통합 사례로 자리잡음
- 6억 대 이상의 Alexa 디바이스가 전 세계에 보급되어 있음
- Alexa Plus는 수백 개의 전문가 시스템(기능별 API, 그룹화된 작업 지시 등)과 tens of thousands(수만 개)의 서드파티 서비스, 기기를 연동함
- 시연 영상에서 자녀 일정 관리, 여행 추천, 음식점 검색, 스마트홈 제어 등 다양한 일상 업무를 자연어와 음성으로 통합 처리하는 모습을 보임
- 전문가 시스템 각각은 특정 작업(예: 교통편 예약, 일정 조정, 음악 추천 등)을 수행하며, 필요 시 연동 및 결과 공유
- 이러한 대규모 에이전트 통합은 향후 모든 AI 기반 서비스 확장에 있어 청사진 역할
AI 에이전트 시스템 구축은 기존 웹서비스 원칙을 일부 계승하되, 모델 중심 접근으로 혁신
- 전통적 방식(과정 중심, ‘어떻게’ 중심 지시)을 탈피해, 모델 중심(‘무엇을’ 정의)으로 전환함
- LLM 등 최신 AI 모델이 판단, 계획, 작업 실행을 맡고 개발자는 ‘목표’만 지정
- 빠른 개발, 유연한 확장, 코드 간결화가 가능
- 이 접근 방식으로 AWS 내 다양한 에이전트형 서비스를 신속히 배포 가능해짐
Amazon Q Developer Agent 예시는 3주 만에 제품수준 AI 에이전트 구축이 가능함을 보여줌
- AWS Q Developer Agent는 소프트웨어 개발 전 라이프사이클 지원 AI 비서
- 최근 CLI(명령행 인터페이스) 버전 릴리즈: 터미널 내 자연어 질의, 파일 읽기/쓰기, 디버깅 등 지원
- 공식 AWS 문서와 연동해 정확한 답변 제공
- AWS 내부 팀은 이 에이전트를 3주 만에 설계, 구현, 출시함
- 발표 현장에서도 질문을 통해 다수가 더 느릴 것이라 예측했으나, 실제로는 ‘3주’만에 완성된 사실을 강조
모델 주도 방식은 AI 에이전트 생산성과 확장성을 대폭 향상시킴
- 기존 코드를 상세하게 짜는 것이 아니라, 에이전트에게 ‘무엇을 해야 하는지’를 명시
- LLM 모델의 판단력, 계획력, 실행 기능을 최대한 활용
- AI 에이전트 구축 속도, 품질, 응용력 모두 극적으로 증가
Strand Agents 오픈소스 SDK는 간결한 코드로 멀티에이전트 환경을 구현할 수 있게 해줌
- 최근 오픈소스로 공개, Python 기반 SDK(설치, 임포트, 툴 추가 등 손쉽게 구현)
- Pre-built(사전 구축) 툴 20종 이상 탑재: 파일 처리, API 호출, AWS 서비스 연동 등 손쉽게 통합
- Prompt와 도구(tool)만 정의하면, 복잡한 에이전트 및 워크플로우 구성이 가능
- 오픈 네임 선정 과정도 LLM이 수행(‘strand’: DNA 이중나선처럼 에이전트의 모델/도구 결합 의미)
다양한 AI/LLM 공급자 및 프레임워크와 자유롭게 연동 가능
- 기본 모델은 Amazon Bedrock(예: cloud 3.7 sonnet) 설정, 단 OpenAI, Meta Llama, Anthropic, light-llm, 기타 직접 구현 가능
- 지역 개발/테스트 및 상용 클라우드 배포 모두 지원
- 멀티모달 입력(이미지, 오디오, 비디오 등), 리트리버/메모리 등 다양한 내부 도구 내장
복잡한 도구 관리와 효율적 활용을 위해 ‘리트리브 툴’과 지식베이스를 활용함
- AWS 내부 에이전트 예시: 6,000개 도구를 관리해야 할 때, 각 도구 설명을 지식베이스로 저장
- ‘Retrieve’ 툴을 통해 요청 상황에 맞는 관련 도구만 선별해 LLM 컨텍스트에 전달, 처리 효율 및 정확성 극대
- 에이전트가 스스로 필요한 도구를 찾아 복합적인 액션 수행
MCP 서버/툴 배포는 Lambda 함수 기반으로 손쉽게 확장할 수 있음
- MCP(Multi-Component Protocol) 서버 표준: MCP 서버와 클라이언트를 표준 스트림 IO 또는 HTTP로 연결
- Lambda 함수로 MCP 서버 호스팅 가능(AWS SAM 등 배포 + API Gateway와 연동)
- 예시: ‘주사위 굴리기’ 툴을 Lambda 함수로 구현 및 MCP 서버에 탑재, API Gateway URL 통해 접근
- 강력한 보안/인증 체계 연동 가능(Cognito 기반 인증, DynamoDB 세션 데이터 저장 등)
MCP 오픈프로토콜과 AWS의 적극적 참여, 에이전트 및 툴 네트워크 구축을 예고함
- AWS는 MCP 오픈 프로토콜 개발 및 커뮤니티에 적극 기여(스티어링 커미티 참여)
- MCP 서버 실습, 다양한 Lambda 연동 레퍼런스 코드 깃허브 공개(labmc 등)
- Agent-to-Agent(A2A) 통신, 수천 개의 MCP 툴 오케스트레이션 등 확장 지원 예정
- 블로그 시리즈, 오픈 생태계 지원 등 커뮤니티 활성화 추진
미래의 디지털 인터랙션은 ‘에이전트 호출’이 기본 단위가 될 전망임
- AWS 연구원 Danielle의 발언 인용: “디지털 상호작용의 기본 단위는 에이전트 호출이 될 것”
- 앞으로는 각 개인이 개인화 에이전트를 통해 ‘에이전트 스토어’와 연동, 다양한 협업형 작업을 실시간으로 처리
- AWS는 이 미래를 모두와 함께 구축하길 독려하며, 관련 오픈소스 부품, 데모, 추가 세션 등을 안내