Skip to main content

Vamos falar de Prompt

  • November 29, 2025
  • 1 comentário
  • 13 Visualizações

Gabriel.Matina

Na mentoria de ontem, aproveitei a oportunidade para conversar com o nosso grande mestre Dalton sobre prompts. Hoje, ouvimos falar de vários conceitos: prompt engineering, context engineering, uso de Markdown, injeção de SQL, dentre outras formas de estruturar um comando.

A resposta do Dalton para tudo isso foi cirúrgica: 'Não existe receita pronta. Muitas vezes, o que você fez aqui e deu certo pode não ter o mesmo resultado em outro chatbot'.

Não sou especialista na área, mas já construí meus chatbots e faz todo sentido o que ele disse. Por isso, o processo de curadoria, os testes, o uso de RAGs e até a escolha da LLM são tão importantes quanto a criação do prompt em si. Acredito que seja um conjunto de fatores que faz um chatbot performar bem, e, ainda assim, exige um processo de atualização constante.

1 comentário

Dalton_Yamagishi
Blipper

Excelene resumo.
A verdade é que prompt não é fórmula de bolo é engenharia de contexto + leitura do cenário + teste A/B até exaustão + humildade pra ajustar. O que funciona no GPT pode virar ruído no Gemini, passar reto no NotebookLM e explodir de tokens no Blip. Vida real, não é PowerPoint.

No fim do dia, não é sobre “a frase mágica”, é sobre orquestrar tudo: modelo, arquitetura, RAG, curadoria, dataset, guardrails… e, claro, o bom e velho trial and error que separa o Contato Inteligente de verade do que só faz bonito na demo.

Esse jogo muda rápido e quem continua testando, aprende mais rápido ainda