Um agente de IA serverless para responder perguntas sobre a documentação da AWS, executado na AWS Lambda com um LLM de alta velocidade via Groq.
- Framework do Agente: Strands Agents - AWS
- Modelo de Linguagem (LLM): Groq Cloud models - OpenAI GPT-OSS-20B
- Ferramentas:
awslabs.aws-documentation-mcp-serverpara busca em tempo real na documentação da AWS. - Infraestrutura: AWS Lambda, Lambda Layers, AWS Systems Manager Parameter Store e Step Function.
- Conta na AWS: Com o AWS CLI configurado.
- Chave de API da Groq: Obtenha em console.groq.com.
- Armazene sua chave da Groq de forma segura no AWS Parameter Store.
aws ssm put-parameter \
--name "/lambda/aws-docs-assistant/groq-api-key" \
--value "SUA_CHAVE_GROQ_AQUI" \
--type SecureString- Este passo agrupa as dependências Python para a Lambda.
# Crie a estrutura de pastas
mkdir -p aws-docs-assistant/python
cd aws-docs-assistant
# Instale as dependências (para arquitetura ARM64, comum em Lambdas)
pip install \
--platform manylinux2014_aarch64 \
--target python/ \
--python-version 3.13 \
--only-binary=:all: \
'strands-agents[openai]' 'awslabs.aws-documentation-mcp-server'
# Compacte a layer
zip -r aws-docs-assistant-layer.zip python