O bloco Agent conecta seu workflow a Large Language Models (LLMs). Ele processa entradas em linguagem natural, chama ferramentas externas e gera saídas estruturadas ou não estruturadas.

Opções de Configuração
System Prompt
O system prompt estabelece os parâmetros operacionais e restrições comportamentais do agente. Esta configuração define o papel do agente, metodologia de resposta e limites de processamento para todas as requisições recebidas.
Você é um assistente útil especializado em análise financeira.
Sempre forneça explicações claras e cite fontes quando possível.
Ao responder perguntas sobre investimentos, inclua avisos de risco.User Prompt
O user prompt representa os dados de entrada primários para processamento de inferência. Este parâmetro aceita texto em linguagem natural ou dados estruturados que o agente analisará e responderá. Fontes de entrada incluem:
- Configuração Estática: Entrada de texto direta especificada na configuração do bloco
- Entrada Dinâmica: Dados passados de blocos upstream através de interfaces de conexão
- Geração em Tempo de Execução: Conteúdo gerado programaticamente durante a execução do workflow
Seleção de Modelo
O bloco Agent suporta múltiplos provedores de LLM através de uma interface de inferência unificada. Modelos disponíveis incluem:
- OpenAI: GPT-5.1, GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1
- Anthropic: Claude 4.5 Sonnet, Claude Opus 4.1
- Google: Gemini 2.5 Pro, Gemini 2.0 Flash
- Outros Provedores: Groq, Cerebras, xAI, Azure OpenAI, OpenRouter
- Modelos Locais: Modelos compatíveis com Ollama ou VLLM
Temperature
Controla aleatoriedade e criatividade da resposta:
- Baixa (0-0.3): Determinística e focada. Melhor para tarefas factuais e precisão.
- Média (0.3-0.7): Criatividade e foco balanceados. Bom para uso geral.
- Alta (0.7-2.0): Criativa e variada. Ideal para brainstorming e geração de conteúdo.
API Key
Sua chave de API para o provedor de LLM selecionado. Isso é armazenado com segurança e usado para autenticação.
Tools
Estenda as capacidades do agente com integrações externas. Selecione entre 60+ ferramentas pré-construídas ou defina funções personalizadas.
Categorias Disponíveis:
- Comunicação: Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
- Fontes de Dados: Notion, Google Sheets, Airtable, Supabase, Pinecone
- Serviços Web: Firecrawl, Google Search, Exa AI, automação de navegador
- Desenvolvimento: GitHub, Jira, Linear
- Serviços de IA: OpenAI, Perplexity, Hugging Face, ElevenLabs
Modos de Execução:
- Auto: Modelo decide quando usar ferramentas baseado no contexto
- Required: Ferramenta deve ser chamada em toda requisição
- None: Ferramenta disponível mas não sugerida ao modelo
Response Format
O parâmetro Response Format impõe geração de saída estruturada através de validação de JSON Schema. Isso garante respostas consistentes e legíveis por máquina que conformam estruturas de dados predefinidas:
{
"name": "user_analysis",
"schema": {
"type": "object",
"properties": {
"sentiment": {
"type": "string",
"enum": ["positive", "negative", "neutral"]
},
"confidence": {
"type": "number",
"minimum": 0,
"maximum": 1
}
},
"required": ["sentiment", "confidence"]
}
}Esta configuração restringe a saída do modelo para cumprir o schema especificado, prevenindo respostas de texto livre e garantindo geração de dados estruturados.
Acessando Resultados
Após um agente completar, você pode acessar suas saídas:
<agent.content>: Texto de resposta do agente ou dados estruturados<agent.tokens>: Estatísticas de uso de tokens (prompt, completion, total)<agent.tool_calls>: Detalhes de quaisquer ferramentas que o agente usou durante a execução<agent.cost>: Custo estimado da chamada de API (se disponível)
Recursos Avançados
Memory + Agent: Histórico de Conversação
Use um bloco Memory com um id consistente (por exemplo, chat) para persistir mensagens entre execuções e inclua esse histórico no prompt do Agent.
- Adicione a mensagem do usuário antes do Agent
- Leia o histórico de conversação para contexto
- Anexe a resposta do Agent após ele executar
Veja a referência do bloco Memory para detalhes.
Saídas
<agent.content>: Texto de resposta do agente<agent.tokens>: Estatísticas de uso de tokens<agent.tool_calls>: Detalhes de execução de ferramentas<agent.cost>: Custo estimado da chamada de API
Casos de Uso Exemplo
Automação de Suporte ao Cliente - Lide com consultas com acesso a banco de dados e ferramentas
API (Ticket) → Agent (Postgres, KB, Linear) → Gmail (Reply) → Memory (Save)Análise de Conteúdo Multi-Modelo - Analise conteúdo com diferentes modelos de IA
Function (Process) → Agent (GPT-4o Technical) → Agent (Claude Sentiment) → Function (Report)Assistente de Pesquisa com Ferramentas - Pesquise com busca na web e acesso a documentos
Input → Agent (Google Search, Notion) → Function (Compile Report)Melhores Práticas
- Seja específico em system prompts: Defina claramente o papel, tom e limitações do agente. Quanto mais específicas suas instruções, melhor o agente será capaz de cumprir seu propósito pretendido.
- Escolha a configuração de temperature correta: Use configurações de temperature mais baixas (0-0.3) quando precisão é importante, ou aumente a temperature (0.7-2.0) para respostas mais criativas ou variadas
- Aproveite ferramentas efetivamente: Integre ferramentas que complementam o propósito do agente e melhoram suas capacidades. Seja seletivo sobre quais ferramentas você fornece para evitar sobrecarregar o agente. Para tarefas com pouca sobreposição, use outro bloco Agent para os melhores resultados.