Apr 22, 2026 · 9 min de lecture
Comment GPT-image-2 fonctionne réellement (guide pratique pour les créateurs)
GPT-image-2 est le dernier modèle d'image d'OpenAI. Voici un guide pratique pour les créateurs — ce qui a changé depuis DALL·E 3, ce qui est nouveau en interne, et comment vraiment le prompter.
OpenAI a publié gpt-image-2 le 21 avril 2026, le successeur de la série DALL·E. Contrairement à DALL·E 3, qui était étroitement intégré à ChatGPT, gpt-image-2 est livré comme un modèle API à part entière, dès la semaine de sa sortie publique. Cela a des conséquences — sur la qualité, sur ce que vous pouvez contrôler, et sur les types de travaux pour lesquels il excelle.
Quoi de neuf par rapport à DALL·E 3
- Résolution native plus élevée : 1024² par défaut, avec 2K HD intégré à la demande.
- Meilleure fidélité au prompt : les prompts complexes (sujets multiples, relations spatiales) fonctionnent vraiment.
- Le support des images en entrée est haute fidélité — les références téléversées ne sont pas sous-échantillonnées avant lecture.
- Tarification au token : 8 $/M en entrée image, 30 $/M en sortie image — prévisible et évolutif.
Trois paliers de qualité, trois niveaux de prix
GPT-image-2 expose trois réglages de qualité : « low », « medium » et « high ». Chacun correspond à un coût par image différent : 0,006 $ / 0,053 $ / 0,211 $ en 1024². Vous voudrez presque toujours « medium » pour un usage courant — « high » fait la différence entre « image web nette » et « couverture de magazine ». « Low » est pour l'idéation : rapide et bon marché, attendez-vous à des bords approximatifs.
L'édition d'image fonctionne vraiment
DALL·E 3 ne faisait que de la génération. GPT-image-2 accepte une image téléversée plus un prompt et renvoie une édition cohérente. Le modèle gère le masquage, l'éclairage et la cohérence de perspective en interne — vous n'avez besoin ni de ControlNet ni de workflows d'inpainting. Peindre un masque reste utile pour des éditions chirurgicales, mais c'est optionnel.
Cinq habitudes de prompting qui paient
- Commencez par le sujet. « Un renard astronaute sur Mars. » Pas « Génère-moi une image où il y a un renard… »
- Indiquez ensuite la caméra et l'éclairage : « 35mm, lumière douce en contre-jour, golden hour ».
- Terminez par des ancres de style : « photographie éditoriale », « Studio Ghibli », « illustration plate ».
- Évitez le prompting négatif en langage courant (« n'inclus pas… ») — précisez plutôt ce que vous VOULEZ.
- Pour la HD, soyez plus spécifique. Le modèle a plus de marge et suit les directives plus littéralement.
Quand NE PAS utiliser GPT-image-2
Si vous avez besoin d'un fine-tune anime spécifique, d'un Lora particulier ou d'un contrôle local total, Stable Diffusion reste le bon choix. Si vous payez déjà pour Midjourney et que vous adorez son style maison, restez-y. La force de GPT-image-2 est la fiabilité — il fait ce que vous décrivez.
Guide des coûts
Un créateur typique générant 100 images standard par mois dépense environ 5,30 $ en coût brut OpenAI. Sur un service géré comme gptimage2.plus, cela devient ~10 $/mois — la différence couvre l'infra, le support, la modération de contenu et (dans notre cas) l'historique de génération hébergé gratuitement.