Apr 22, 2026 · 9 min de leitura
Como o GPT-image-2 realmente funciona (guia prático para criadores)
GPT-image-2 é o modelo de imagens mais recente da OpenAI. Aqui está um guia prático para criadores — o que mudou em relação ao DALL·E 3, o que há de novo nos bastidores e como prompar de verdade.
A OpenAI lançou o gpt-image-2 em 21 de abril de 2026, sucessor da série DALL·E. Diferente do DALL·E 3, que era fortemente integrado ao ChatGPT, o gpt-image-2 chega como um modelo de API de primeira classe, na mesma semana do lançamento público. Isso tem consequências — para a qualidade, para o que você pode controlar e para os tipos de trabalho em que ele se destaca.
O que mudou em relação ao DALL·E 3
- Resolução nativa maior: 1024² de saída padrão, com 2K HD embutido sob demanda.
- Melhor fidelidade ao prompt: prompts complexos (múltiplos sujeitos, relações espaciais) realmente funcionam.
- Suporte a imagens de entrada em alta fidelidade — referências enviadas não sofrem downsampling antes de serem lidas.
- Preço por token: $8/M de imagem de entrada, $30/M de imagem de saída — previsível e escalável.
Três níveis de qualidade, três pontos de preço
O GPT-image-2 expõe configurações de qualidade 'low', 'medium' e 'high'. Cada uma corresponde a um custo por imagem diferente: $0,006 / $0,053 / $0,211 a 1024². Para trabalhos casuais você quase sempre quer medium — high é a diferença entre 'imagem nítida para web' e 'capa de revista'. Low é para ideação: barato e rápido, espere arestas brutas.
Edição de imagem que realmente funciona
O DALL·E 3 era apenas geração. O GPT-image-2 aceita uma imagem enviada mais um prompt e devolve uma edição coerente. O modelo cuida internamente de máscara, iluminação e coerência de perspectiva — você não precisa de fluxos com ControlNet ou inpainting. Pintar uma máscara ainda ajuda em edições cirúrgicas, mas é opcional.
Cinco hábitos de prompt que valem a pena
- Comece pelo sujeito. 'Um astronauta raposa em Marte.' Não 'Gere uma imagem em que tem uma raposa…'
- Diga em seguida câmera + iluminação: '35mm, luz de contorno suave, golden hour'.
- Termine com âncoras de estilo: 'fotografia editorial', 'Studio Ghibli', 'ilustração flat'.
- Evite prompt negativo em inglês corrente ('don't include…') — descreva o que você QUER em vez disso.
- Para HD, seja mais específico. O modelo tem mais margem e segue a direção de forma mais literal.
Quando NÃO usar o GPT-image-2
Se você precisa de um fine-tune específico de anime, de uma Lora particular ou de controle local total, o Stable Diffusion ainda é a escolha certa. Se você já paga pelo Midjourney e ama o estilo da casa, fique nele. A força do GPT-image-2 é a confiabilidade — ele faz o que você descreve.
Guia de custo
Um criador típico que gera 100 imagens padrão por mês gasta cerca de $5,30 em custo bruto da OpenAI. Em um serviço gerenciado como o gptimage2.plus, isso vira ~$10/mês — a diferença cobre infraestrutura, suporte, moderação de conteúdo e (no nosso caso) histórico de geração hospedado gratuitamente.