Engenharia de prompt nao e “truque de frase”. E projeto de interface. Modelos como Claude e GPT-4o sao motores probabilisticos com capacidade de planejamento, sintese e raciocinio — mas eles respondem melhor quando recebem estrutura: objetivo claro, contexto suficiente e um formato de saida verificavel.
Se seu prompt e vago, o modelo vira um escritor. Se seu prompt e bem desenhado, o modelo vira um sistema de resolucao: ele organiza o problema, aplica criterios e entrega algo auditavel.
objetivo, restricoes, dados de entrada, criterios de aceitacao e formato de saida.
Quando voce quer raciocinio consistente, evite “fazer uma pergunta e torcer”. Use um template. Um dos mais eficientes e:
Contexto:
- (o que o modelo precisa saber para nao inventar)
Objetivo:
- (o que voce quer no final)
Restrições:
- (limites: tempo, formato, stack, linguagem, publico)
Critérios de aceitação:
- (como voce vai julgar se está bom)
Saída:
- (formato exato: bullets, JSON, passos, tabela, codigo)
Essa estrutura funciona porque transforma conversa em especificacao. Ela reduz alucinacao por falta de contexto e reduz “texto bonito” sem utilidade.
Few-shot prompting e quando voce fornece 2–5 exemplos do que voce considera uma boa resposta no seu contexto. Para o modelo, exemplos sao mais fortes que explicacoes abstratas, porque eles ancoram estilo, nivel tecnico e formato.
Use few-shot quando o trabalho e altamente padronizado: triagem, classificacao, reescrita, extracao, respostas com tom editorial e estrutura repetivel.
Você é um revisor técnico.
Tarefa: Resumir em 3 bullets + 1 risco.
Exemplo 1 (entrada):
"O sistema usa cache LRU e invalidação por TTL..."
Exemplo 1 (saída):
- (bullet 1)
- (bullet 2)
- (bullet 3)
Risco: ...
Agora faça para este texto:
[COLE AQUI O TEXTO]
O segredo e manter exemplos pequenos e consistentes. Se voce der exemplos contraditorios, o modelo vai “média-los” e o resultado perde nitidez.
Chain of Thought (CoT) e a ideia de incentivar o modelo a decompor um problema em etapas. Isso melhora respostas em tarefas multi-passos porque reduz saltos e aumenta coerencia. Na pratica, o que voce quer nao e um texto longo “pensando”, e sim estrutura de decisao.
Uma forma moderna de usar essa ideia e pedir passos de alto nivel e um resultado verificavel:
Resolva o problema seguindo estes passos:
1) Liste as suposicoes e o que falta.
2) Proponha um plano em 3–5 etapas (alto nivel).
3) Execute o plano e entregue a resposta final.
4) Faça uma checagem final: a resposta atende os criterios?
Formato de saída:
- Plano (3–5 bullets)
- Resposta final
- Checagem (2 bullets)
Modelos fortes respondem bem a comandos com: contexto minimo suficiente, criterios objetivos e checagem. Um prompt que costuma elevar o rigor e:
Você é um engenheiro de raciocínio lógico.
Contexto:
- (defina o domínio e forneça dados: tabela, requisitos, restrições)
Objetivo:
- (o que precisa ser decidido/produzido)
Restrições:
- Não invente fatos. Se faltar dado, pergunte.
- Use apenas as informações fornecidas.
Critérios de aceitação:
- (ex: deve incluir trade-offs, deve ter 3 opções, deve estimar risco)
Saída:
- Opção A (prós/cons/risco)
- Opção B (prós/cons/risco)
- Recomendação (1 parágrafo)
- Perguntas pendentes (se houver)
LLMs erram mais quando o prompt deixa lacunas. Tres alavancas simples ajudam muito:
| Alavanca | Como pedir | Efeito |
|---|---|---|
| Delimitar entrada | “Use apenas o texto entre <dados>...</dados>” | Menos invenção fora do contexto. |
| Checagem final | “Liste 3 possiveis falhas e como mitiga-las.” | Forca revisao e consistencia. |
| Perguntas pendentes | “Se faltar info, pergunte antes de concluir.” | Evita resposta confiante sem base. |
Para fluxos repetidos (resumos, classificacao, extracao), combine few-shot com um formato fixo. O ideal e escolher um formato que seja facil de validar: listas, chaves, checklists.
Exemplo: extrair informacoes de um texto para um schema:
Extraia as informacoes e responda exatamente neste JSON:
{
"tema": "",
"tese": "",
"evidencias": ["", ""],
"riscos": ["", ""],
"perguntas": ["", ""]
}
Texto:
---
(cole aqui)
---
Um bom prompt faz duas coisas: direciona (o que importa) e protege (contra erro e ambiguidade). Quando voce domina few-shot, decomposicao e criterios de aceitacao, modelos como Claude e GPT-4o deixam de ser “chat” e viram uma camada de execucao intelectual.
O resultado nao e apenas texto melhor. E decisao melhor, com menos retrabalho e mais confiabilidade.