ZippyVendas

Agent

O bloco Agent conecta seu workflow a Large Language Models (LLMs). Ele processa entradas em linguagem natural, chama ferramentas externas e gera saídas estruturadas ou não estruturadas.

Configuração do Bloco Agent

Opções de Configuração

System Prompt

O system prompt estabelece os parâmetros operacionais e restrições comportamentais do agente. Esta configuração define o papel do agente, metodologia de resposta e limites de processamento para todas as requisições recebidas.

Você é um assistente útil especializado em análise financeira.
Sempre forneça explicações claras e cite fontes quando possível.
Ao responder perguntas sobre investimentos, inclua avisos de risco.

User Prompt

O user prompt representa os dados de entrada primários para processamento de inferência. Este parâmetro aceita texto em linguagem natural ou dados estruturados que o agente analisará e responderá. Fontes de entrada incluem:

  • Configuração Estática: Entrada de texto direta especificada na configuração do bloco
  • Entrada Dinâmica: Dados passados de blocos upstream através de interfaces de conexão
  • Geração em Tempo de Execução: Conteúdo gerado programaticamente durante a execução do workflow

Seleção de Modelo

O bloco Agent suporta múltiplos provedores de LLM através de uma interface de inferência unificada. Modelos disponíveis incluem:

  • OpenAI: GPT-5.1, GPT-5, GPT-4o, o1, o3, o4-mini, gpt-4.1
  • Anthropic: Claude 4.5 Sonnet, Claude Opus 4.1
  • Google: Gemini 2.5 Pro, Gemini 2.0 Flash
  • Outros Provedores: Groq, Cerebras, xAI, Azure OpenAI, OpenRouter
  • Modelos Locais: Modelos compatíveis com Ollama ou VLLM

Temperature

Controla aleatoriedade e criatividade da resposta:

  • Baixa (0-0.3): Determinística e focada. Melhor para tarefas factuais e precisão.
  • Média (0.3-0.7): Criatividade e foco balanceados. Bom para uso geral.
  • Alta (0.7-2.0): Criativa e variada. Ideal para brainstorming e geração de conteúdo.

API Key

Sua chave de API para o provedor de LLM selecionado. Isso é armazenado com segurança e usado para autenticação.

Tools

Estenda as capacidades do agente com integrações externas. Selecione entre 60+ ferramentas pré-construídas ou defina funções personalizadas.

Categorias Disponíveis:

  • Comunicação: Gmail, Slack, Telegram, WhatsApp, Microsoft Teams
  • Fontes de Dados: Notion, Google Sheets, Airtable, Supabase, Pinecone
  • Serviços Web: Firecrawl, Google Search, Exa AI, automação de navegador
  • Desenvolvimento: GitHub, Jira, Linear
  • Serviços de IA: OpenAI, Perplexity, Hugging Face, ElevenLabs

Modos de Execução:

  • Auto: Modelo decide quando usar ferramentas baseado no contexto
  • Required: Ferramenta deve ser chamada em toda requisição
  • None: Ferramenta disponível mas não sugerida ao modelo

Response Format

O parâmetro Response Format impõe geração de saída estruturada através de validação de JSON Schema. Isso garante respostas consistentes e legíveis por máquina que conformam estruturas de dados predefinidas:

{
  "name": "user_analysis",
  "schema": {
    "type": "object",
    "properties": {
      "sentiment": {
        "type": "string",
        "enum": ["positive", "negative", "neutral"]
      },
      "confidence": {
        "type": "number",
        "minimum": 0,
        "maximum": 1
      }
    },
    "required": ["sentiment", "confidence"]
  }
}

Esta configuração restringe a saída do modelo para cumprir o schema especificado, prevenindo respostas de texto livre e garantindo geração de dados estruturados.

Acessando Resultados

Após um agente completar, você pode acessar suas saídas:

  • <agent.content>: Texto de resposta do agente ou dados estruturados
  • <agent.tokens>: Estatísticas de uso de tokens (prompt, completion, total)
  • <agent.tool_calls>: Detalhes de quaisquer ferramentas que o agente usou durante a execução
  • <agent.cost>: Custo estimado da chamada de API (se disponível)

Recursos Avançados

Memory + Agent: Histórico de Conversação

Use um bloco Memory com um id consistente (por exemplo, chat) para persistir mensagens entre execuções e inclua esse histórico no prompt do Agent.

  • Adicione a mensagem do usuário antes do Agent
  • Leia o histórico de conversação para contexto
  • Anexe a resposta do Agent após ele executar

Veja a referência do bloco Memory para detalhes.

Saídas

  • <agent.content>: Texto de resposta do agente
  • <agent.tokens>: Estatísticas de uso de tokens
  • <agent.tool_calls>: Detalhes de execução de ferramentas
  • <agent.cost>: Custo estimado da chamada de API

Casos de Uso Exemplo

Automação de Suporte ao Cliente - Lide com consultas com acesso a banco de dados e ferramentas

API (Ticket) → Agent (Postgres, KB, Linear) → Gmail (Reply) → Memory (Save)

Análise de Conteúdo Multi-Modelo - Analise conteúdo com diferentes modelos de IA

Function (Process) → Agent (GPT-4o Technical) → Agent (Claude Sentiment) → Function (Report)

Assistente de Pesquisa com Ferramentas - Pesquise com busca na web e acesso a documentos

Input → Agent (Google Search, Notion) → Function (Compile Report)

Melhores Práticas

  • Seja específico em system prompts: Defina claramente o papel, tom e limitações do agente. Quanto mais específicas suas instruções, melhor o agente será capaz de cumprir seu propósito pretendido.
  • Escolha a configuração de temperature correta: Use configurações de temperature mais baixas (0-0.3) quando precisão é importante, ou aumente a temperature (0.7-2.0) para respostas mais criativas ou variadas
  • Aproveite ferramentas efetivamente: Integre ferramentas que complementam o propósito do agente e melhoram suas capacidades. Seja seletivo sobre quais ferramentas você fornece para evitar sobrecarregar o agente. Para tarefas com pouca sobreposição, use outro bloco Agent para os melhores resultados.
On this page

On this page

Comece a automatizar hoje
Confiado por empresas em todo o Brasil.
Crie fluxos de automação de vendas com IA no WhatsApp de forma visual e intuitiva.
Começar grátis