ia

Prompt Engineering Pratico para Desenvolvedores

17 de abril de 2026 3 min de leituraPor Autor
Prompt Engineering Pratico para Desenvolvedores

Por que um Dev Precisa de Prompt Engineering?

Ferramentas como Claude, GPT-4 e Gemini ja fazem parte do fluxo de desenvolvimento. A diferenca entre um resultado mediocre e um excelente esta na qualidade do prompt.

80% dos resultados ruins vem de 20% dos erros: falta de contexto, instrucao ambigua e ausencia de exemplos. Corrija esses tres pontos e a qualidade sobe drasticamente.

Estrutura de um Prompt Tecnico Eficiente

Todo bom prompt tecnico tem cinco elementos:

  1. Role — quem a IA deve ser
  2. Contexto — o que ela precisa saber
  3. Tarefa — o que deve fazer
  4. Restricoes — o que nao deve fazer
  5. Formato — como entregar o resultado

Exemplo: Documentar um Endpoint de API

Role: voce e um tech writer senior especializado em documentacao de APIs REST.

Contexto: endpoint Hono no Cloudflare Workers:

  • Rota: GET /api/artigos
  • Retorna: array paginado com campos slug, title, excerpt, category, tags
  • Autenticacao: Bearer JWT obrigatorio
  • Cache: KV Namespace com TTL de 1 hora

Tarefa: gere a documentacao OpenAPI 3.1 para este endpoint.

Restricoes:

  • Use YAML, nao JSON
  • Inclua exemplos reais de request e response
  • Documente erros 401 e 500
  • Nao invente campos que nao existem

Formato: bloco YAML pronto para adicionar ao openapi.yaml

Tecnica Chain-of-Thought para Bugs Complexos

Ao depurar, forca a IA a pensar passo a passo antes de responder:

Preciso depurar um bug no Nuxt 4 com SurrealDB.

Sintoma: a rota /api/blog/:slug retorna 404 para slugs com hifen, mas funciona para slugs simples.

Antes de responder, pense passo a passo:

  1. O que poderia causar diferenca de comportamento baseado em hifen na URL?
  2. Verifique cada camada: roteamento Nitro, query SurrealDB, tratamento de parametros
  3. Liste hipoteses em ordem de probabilidade
  4. Para a mais provavel, mostre o trecho de codigo com o bug

Stack: Nuxt 4, Nitro, SurrealDB v2, Cloudflare Workers

Nao reescreva o prompt do zero a cada iteracao. Diga: "Mantenha tudo anterior e adicione X" ou "Corrija apenas a parte Y". Modelos de contexto longo como Claude 1M processam toda a conversa anterior sem perder contexto.

Automatizando Revisao de Codigo via SDK

import Anthropic from "@anthropic-ai/sdk"

const client = new Anthropic()

async function reviewPR(diff: string): Promise<string> {
  const message = await client.messages.create({
    model: "claude-opus-4-6",
    max_tokens: 2048,
    messages: [{
      role: "user",
      content: `Voce e um revisor de codigo senior. Analise este diff e aponte:
1. Bugs potenciais
2. Problemas de seguranca (XSS, injection, dados expostos)
3. Violacoes de boas praticas TypeScript
4. Sugestoes de performance

Diff:
${diff}

Responda em markdown com uma section para cada categoria.`
    }]
  })
  return message.content[0].type === "text" ? message.content[0].text : ""
}

Fluxo Real de Prompt Engineering

Credenciais, tokens, dados reais de usuarios e informacoes confidenciais nao devem ir em prompts para LLMs externos. Use dados ficticios ou anonimizados em todos os exemplos enviados para a IA.

Conclusao

Prompt engineering nao e magia — e tecnica. Role, contexto, tarefa, restricoes e formato. Com esses cinco elementos voce extrai o maximo de qualquer LLM no fluxo de desenvolvimento diario.

Escrito por

Autor

Autor(a) do Portal Marina Bernardi.

Continue lendo

Artigos relacionados

Discussão

0 comentários

Entre para participar
Faça login para comentar e interagir com outros alunos.
Voltar para o Blog