Apr 22, 2026 · 9 min de lectura
Cómo funciona realmente GPT-image-2 (guía práctica para creadores)
GPT-image-2 es el último modelo de imagen de OpenAI. Aquí tienes una guía práctica para creadores: qué cambió frente a DALL·E 3, qué hay de nuevo bajo el capó y cómo escribirle prompts de verdad.
OpenAI lanzó gpt-image-2 el 21 de abril de 2026, el sucesor de la serie DALL·E. A diferencia de DALL·E 3, que estaba estrechamente integrado con ChatGPT, gpt-image-2 se publica como un modelo de API de primer nivel desde la misma semana del lanzamiento público. Eso tiene consecuencias: para la calidad, para lo que puedes controlar y para los tipos de trabajo en los que destaca.
Qué hay de nuevo frente a DALL·E 3
- Mayor resolución nativa: 1024² de fábrica, con 2K HD integrado bajo demanda.
- Mejor fidelidad al prompt: los prompts complejos (varios sujetos, relaciones espaciales) realmente funcionan.
- El soporte de imágenes como entrada es de alta fidelidad: las referencias subidas no se reducen antes de leerlas.
- Precios por tokens: $8/M de entrada de imagen, $30/M de salida de imagen — predecibles y escalables.
Tres niveles de calidad, tres precios
GPT-image-2 expone los ajustes de calidad 'low', 'medium' y 'high'. Cada uno se traduce en un costo distinto por imagen: $0.006 / $0.053 / $0.211 a 1024². Para trabajo casual, casi siempre quieres medium: high es la diferencia entre 'imagen web nítida' y 'portada de revista'. Low sirve para idear: barato y rápido, espera bordes ásperos.
La edición de imágenes funciona de verdad
DALL·E 3 era solo de generación. GPT-image-2 acepta una imagen subida más un prompt y devuelve una edición coherente. El modelo gestiona el enmascarado, la iluminación y la coherencia de perspectiva por dentro: no necesitas flujos con ControlNet ni inpainting. Pintar una máscara aún ayuda en ediciones quirúrgicas, pero es opcional.
Cinco hábitos de prompting que rinden
- Empieza por el sujeto. 'Un zorro astronauta en Marte.' No 'Genérame una imagen donde haya un zorro…'
- Indica luego cámara + iluminación: '35 mm, luz de contra suave, hora dorada'.
- Termina con anclas de estilo: 'fotografía editorial', 'Studio Ghibli', 'ilustración plana'.
- Evita el prompting negativo en lenguaje natural ('no incluyas…'): describe lo que SÍ quieres.
- Para HD, sé más específico. El modelo tiene más margen y sigue las instrucciones de forma más literal.
Cuándo NO usar GPT-image-2
Si necesitas un fine-tune anime concreto, un Lora particular o control local total, Stable Diffusion sigue siendo la opción correcta. Si ya pagas Midjourney y te encanta su estilo de casa, quédate ahí. La fortaleza de GPT-image-2 es la fiabilidad: hace lo que describes.
Guía de costos
Un creador típico que genera 100 imágenes estándar al mes gasta cerca de $5.30 en costo bruto de OpenAI. En un servicio gestionado como gptimage2.plus, eso se vuelve ~$10/mes — la diferencia cubre infraestructura, soporte, moderación de contenido y (en nuestro caso) historial de generación alojado gratis.