Zum Inhalt springenZeitlich begrenzte Aktion: Code LAUNCH50 — 50% Rabatt im ersten Monat
Alle Beiträge

Apr 22, 2026 · 9 Min. Lesezeit

Wie GPT-image-2 wirklich funktioniert (praktischer Leitfaden für Kreative)

GPT-image-2 ist OpenAIs neuestes Bildmodell. Hier ist ein praktischer Leitfaden für Kreative — was sich gegenüber DALL·E 3 geändert hat, was unter der Haube neu ist und wie du es wirklich promptest.

OpenAI hat gpt-image-2 am 21. April 2026 veröffentlicht, den Nachfolger der DALL·E-Serie. Anders als DALL·E 3, das eng mit ChatGPT verzahnt war, kommt gpt-image-2 in derselben Woche wie der öffentliche Release als erstklassiges API-Modell. Das hat Konsequenzen — für die Qualität, dafür, was du steuern kannst, und dafür, für welche Arbeiten es gut ist.

Was ist neu im Vergleich zu DALL·E 3

  • Höhere native Auflösung: 1024² standardmäßig, mit eingebautem 2K HD auf Abruf.
  • Bessere Prompt-Treue: komplexe Prompts (mehrere Subjekte, räumliche Beziehungen) funktionieren wirklich.
  • Bild-Input-Support ist hochauflösend — hochgeladene Referenzen werden vor dem Lesen nicht runtergerechnet.
  • Token-basierte Preise: $8/M Bild-Input, $30/M Bild-Output — vorhersehbar und skalierbar.

Drei Qualitätsstufen, drei Preispunkte

GPT-image-2 stellt 'low'-, 'medium'- und 'high'-Qualitätseinstellungen bereit. Jede entspricht anderen Kosten pro Bild: $0,006 / $0,053 / $0,211 bei 1024². Für lockere Arbeit willst du fast immer medium — high ist der Unterschied zwischen 'knackigem Webbild' und 'Magazincover'. Low ist für Ideenfindung: günstig und schnell, raue Kanten inklusive.

Bildbearbeitung funktioniert wirklich

DALL·E 3 konnte nur generieren. GPT-image-2 nimmt ein hochgeladenes Bild plus Prompt und liefert eine kohärente Bearbeitung zurück. Das Modell handhabt Maskierung, Beleuchtung und Perspektivenkohärenz intern — du brauchst kein ControlNet und keine Inpainting-Workflows. Eine Maske zu malen hilft bei chirurgischen Edits weiterhin, ist aber optional.

Fünf Prompt-Gewohnheiten, die sich auszahlen

  1. Beginne mit dem Subjekt. 'Ein Fuchs-Astronaut auf dem Mars.' Nicht 'Generiere mir ein Bild, in dem es einen Fuchs gibt …'
  2. Nenne als Nächstes Kamera + Licht: '35mm, weiches Streiflicht, goldene Stunde'.
  3. Schließe mit Stil-Ankern ab: 'Editorial-Fotografie', 'Studio Ghibli', 'flache Illustration'.
  4. Vermeide Negativ-Prompting in Klartext ('schließe nicht ein …') — sag stattdessen, was du WILLST.
  5. Sei für HD spezifischer. Das Modell hat mehr Spielraum und folgt Anweisungen wörtlicher.

Wann du GPT-image-2 NICHT nutzen solltest

Wenn du ein bestimmtes Anime-Fine-Tune brauchst, ein bestimmtes Lora oder volle lokale Kontrolle, ist Stable Diffusion weiterhin die richtige Wahl. Wenn du sowieso für Midjourney zahlst und seinen Hausstil liebst, bleib dort. Die Stärke von GPT-image-2 ist Verlässlichkeit — es macht das, was du beschreibst.

Kostenleitfaden

Eine typische Kreative, die 100 Standardbilder pro Monat generiert, gibt rund $5,30 reine OpenAI-Kosten aus. Bei einem Managed Service wie gptimage2.plus werden daraus ~$10/Monat — die Differenz deckt Infra, Support, Content-Moderation und (in unserem Fall) kostenlose gehostete Generierungs-Historie.

Angetrieben von OpenAI GPT-image-2

Schluss mit der leeren Leinwand.

5 Gratis-Credits bei der Registrierung. Keine Karte nötig. Erzeugen, bearbeiten oder restaurieren — direkt im Browser.