Am 11. Dezember 2025 löste Google Gemini 3 Pro bei OpenAI einen “Code Red”-Alarm aus. Die Antwort: ChatGPT 5.2, entwickelt unter massivem Zeitdruck. Die Benchmarks klingen beeindruckend (35% schneller, 40% bessere Bildanalyse). Doch Nutzer berichten von Extended Thinking, das plötzlich abschaltet, und Konversationen, die zwischen hilfreichen Antworten und nervigen Warnhinweisen hin und her springen.
Die meisten Reviews kleben an OpenAIs Marketing und ignorieren die Alltagspraxis. Wie gut ist 5.2 wirklich bei Vertragsanalysen? Erkennt es versteckte Anomalien in Dashboards? Und durchschaut es raffinierte Fake-News?
In diesem Test zeige ich dir drei Praxis-Szenarien, Benchmark-Vergleiche mit 5.1 und ehrliche Vor- und Nachteile aus mehrwöchiger Nutzung.
Das Wichtigste in Kürze
- ChatGPT 5.2 erschien am 11. Dezember 2025 als “Code Red”-Antwort auf Google Gemini 3
- Neue Features: 35% schneller, besseres Reasoning, 40% bessere Bildanalyse, vier Modell-Varianten (Auto, Instant, Thinking, Pro)
- Kritik von Nutzern: Extended Thinking wechselt willkürlich, Custom Instructions inkonsistent, springhafte Konversationen bei längeren Chats
- Praxis-Tests zeigen: Exzellent bei Vertragsanalyse und Fake-News-Erkennung, findet versteckte Dashboard-Anomalien zuverlässig
- Verfügbar in Free (10 Nachr./5h), Plus (20$/Monat), Pro (200$/Monat), Business und Enterprise mit unterschiedlichen Limits
Was ist ChatGPT 5.2 und lohnt es sich?
ChatGPT 5.2 ist die neueste Version von OpenAIs Sprachmodell, veröffentlicht am 11. Dezember 2025. Es ist bei einfachen Anfragen deutlich schneller als 5.1, löst komplexe Mathe-Aufgaben besser und versteht Bilder zuverlässiger. Allerdings gibt es zwei kritische Probleme: Bei längeren Gesprächen springt das Modell zwischen hilfreichen Antworten und übervorsichtigen Warnhinweisen hin und her, und Custom Instructions (persönliche Einstellungen) werden inkonsistent befolgt. Die Frage, ob es sich lohnt, hängt stark von deinem Nutzungsszenario ab.
Was ist neu bei ChatGPT 5.2?
ChatGPT 5.2 bringt substanzielle Verbesserungen in drei Kernbereichen: Geschwindigkeit, Reasoning und Multimodalität. OpenAI gibt an, dass das Modell speziell für professionelle Anwendungsfälle optimiert wurde. Das größte Update: 5.2 kommt nicht mehr als einzelnes Modell, sondern als Familie aus drei spezialisierten Varianten.
Die vier Modell-Varianten im Detail
ChatGPT 5.2 bietet vier verschiedene Modi, die sich in Geschwindigkeit und Denktiefe unterscheiden:
- GPT-5.2 Auto ist der Standardmodus. Das Modell wählt automatisch zwischen Instant, Thinking und Pro, basierend auf Komplexität und Kontext der Anfrage. Der Modus ist für Nutzer gedacht, die keine manuelle Auswahl treffen wollen.
- GPT-5.2 Instant ist der Standard-Modus für schnelle Aufgaben. Er priorisiert Geschwindigkeit und eignet sich für alltägliche Anfragen wie Textkorrekturen, einfache Code-Erklärungen oder Informationsabfragen. Laut OpenAI ist Instant deutlich schneller als 5.1, liefert aber weniger tiefgehende Analysen bei komplexen Problemen.
- GPT-5.2 Thinking aktiviert sich automatisch bei komplexen Anfragen. Der Modus nimmt sich mehr Zeit für mehrstufiges Reasoning und eignet sich besonders für Dokumentenanalysen, strategische Fragestellungen oder komplexe Recherchen. Die Antworten dauern länger (12 bis 18 Sekunden zusätzlich), sind aber strukturierter und durchdachter.
- GPT-5.2 Pro ist die Power-Variante für Experten. Hier kannst du den “Reasoning Effort” manuell auf “xhigh” stellen. Pro ist für kritische Aufgaben konzipiert: Architektur-Reviews, wissenschaftliche Analysen oder Business-Entscheidungen, bei denen Präzision wichtiger ist als Geschwindigkeit. Antworten können mehrere Minuten dauern.
Welche Variante wofür?
- Auto: Standardmodus für gemischte oder unklare Aufgaben
- Instant: Alltagsfragen, Textkorrekturen, schnelle Code-Erklärungen, einfache Übersetzungen
- Thinking: Strategie-Entwicklung, Dokumentenanalyse, komplexe Recherche, mehrstufige Problemlösung
- Pro: Architektur-Reviews, wissenschaftliche Analysen, kritische Business-Entscheidungen, Deep-Dive-Research
Verfügbarkeit: Instant und Thinking gibt es in allen Tarifen (Free: 10 Nachr./5h, Go: 100/Tag, Plus: 160/3h, Pro: Unlimited). Nur im Pro-Tarif (200€/Monat) kannst du den Reasoning-Modus manuell auf “xhigh” stellen.
Upgrade 1: 80% schneller bei einfachen Anfragen
ChatGPT 5.2 ist im Instant-Modus bei einfachen Anfragen 80% schneller als 5.1. Eine einfache Frage wie “Was ist die Hauptstadt von Frankreich?” wird jetzt in 2 Sekunden beantwortet statt in 10 Sekunden.
Allerdings gilt das nur für einfache Anfragen. Bei komplexen Aufgaben (wie “Analysiere diesen 20-seitigen Vertrag”) dauert es länger: Thinking braucht 10 bis 30 Sekunden zusätzlich, Pro-Modus kann 3 bis 15 Minuten dauern. Die längeren Wartezeiten sind gewollt, weil das Modell gründlicher nachdenkt.
Wichtig: Die Geschwindigkeit variiert je nach Serverauslastung. In Stoßzeiten (nachmittags europäischer Zeit) können die Antwortzeiten auch bei 5.2 deutlich länger sein.
Upgrade 2: Deutlich besser bei Mathe und komplexem Denken
Das neue Reasoning-System ermöglicht mehrstufiges logisches Denken. ChatGPT 5.2 zerlegt komplexe Probleme in Teilschritte und löst sie systematisch .
Wie viel besser ist 5.2? Bei einem schwierigen Mathematik-Wettbewerb (AIME 2025) löst 5.2 jetzt alle Aufgaben perfekt, während 5.1 noch 6% Fehler machte. Bei abstraktem Denken ist der Sprung noch größer: 5.2 ist dreimal so gut wie 5.1.
Upgrade 3: Viel besseres Bildverständnis
ChatGPT 5.2 ist OpenAIs stärkstes Modell für visuelle Aufgaben. Es kann mehrere Dateitypen gleichzeitig verarbeiten: PDFs, Bilder, Code-Dateien und Tabellen in einem einzigen Prompt .
Wie viel besser ist die Bilderkennung? ChatGPT macht jetzt etwa halb so viele Fehler beim Analysieren von Bildern. Besonders bei Details ist es deutlich besser geworden. Beispiel: Du fotografierst ein Whiteboard nach einem Meeting (auch wenn das Foto verwackelt ist) und bittest ChatGPT um eine To-Do-Liste. Mit 5.1 brauchtest du perfekte Bildqualität, mit 5.2 funktioniert es auch bei schlechten Bedingungen.
Bis wann reicht das Wissen von ChatGPT 5.2?
ChatGPT 5.2 hat aktuelleres Grundwissen bis 31. August 2025, während 5.1 nur bis September 2024 reicht. Das bedeutet: 5.2 kennt Ereignisse aus 2025, bevor es im Web sucht.
Wo liegen die Schwächen bei ChatGPT 5.2?
Die Marketing-Materialien von OpenAI klingen zwar beeindruckend, das Nutzer-Feedback zeigt jedoch ein differenzierteres Bild. Ich habe die wichtigsten Kritikpunkte zusammengetragen, die ich ebenfalls bestätigen kann:
Extended Thinking nicht immer zuverlässig
Mehrere Nutzer berichten, dass das Extended Thinking Feature willkürlich auf Instant Mode wechselt. Bei Follow-up-Fragen antwortet das Modell plötzlich ohne “Denkphase”, und die Code-Qualität sinkt. Nutzer vermuten Cost-Optimization, das System entscheidet intern, wann eine Anfrage “einfach genug” ist.
Ein Nutzer testete GPT-5.2 Extended Thinking mit einem intelligenten 8-Punkte Logik-Rätsel: Das Modell sollte systematisch durch logische Elimination zur Lösung kommen. Stattdessen: GPT-5.2 Extended Thinking macht schnelle Annahmen, statt strukturiert zu denken, zählt Punkte falsch und braucht 25-30 Versuche statt der erwarteten 8-10. Ich habe denselben Test mit GPT-5.2 Extended Thinking und Google Gemini 3 Thinking durchgeführt: Gemini übertraf dabei ChatGPT deutlich mit präziseren und intelligenteren Rückfragen und konnte somit das Rätsel schneller lösen.
Custom Instructions werden inkonsistent berücksichtigt
Ein wichtiger Punkt wird oft übersehen: Viele Nutzer arbeiten mit den Standard-Einstellungen von ChatGPT, ohne zu wissen, dass sie individuelle Anweisungen hinterlegen können, etwa für Schreibstil, Detailgrad oder Formatierung. Diese sogenannten “Custom Instructions” erlauben es, dem Modell dauerhafte Präferenzen mitzugeben. Das erklärt, warum manche von GPT-5.2 begeistert sind, während andere enttäuscht reagieren: Sie nutzen unterschiedliche Konfigurationen. Wer diese personalisierten Anweisungen gezielt einsetzt, berichtet von deutlich besseren und konsistenteren Ergebnissen.
Allerdings zeigen sich selbst hier Inkonsistenzen: Während einige Instructions nun funktionieren (z. B. Entfernung von Gedankenstrichen), ignoriert GPT-5.2 andere komplett. Beispiel: Seit der Version GPT-5.1 werden bei mir Umlaute als ae, oe, ue ausgegeben, selbst wenn ich dies in den Custom Instructions explizit verbiete. Dieses Problem taucht nur bei vereinzelten Nutzern auf:

Konversationskonsistenz bei langen Gesprächen
GPT-5.2 hat Probleme bei längeren Konversationen. Ein Nutzer beschreibt: “5.2 appears to oscillate between following user instructions and adhering to system prompts”. Das Modell unterbricht normale Gespräche mit langen Safety-Monologen und Warnhinweisen.
Die Interaktion wird als ermüdend beschrieben: Das Modell springt zwischen hilfreichen Antworten und übervorsichtigen Standardtexten hin und her. Je länger die Konversation, desto ausgeprägter das Problem.
Ist ChatGPT 5.2 stärker zensiert?
Mehrere Community-Diskussionen berichten von häufigeren Content-Ablehnungen als bei 5.1. Ein vielbeachteter Beitrag vom 18. Dezember trägt den Titel “GPT-5.2 has turned ChatGPT into an overregulated, overfiltered, and practically unusable product” und hat hunderte Kommentare. Ein anderer Nutzer beschreibt die Version am Releasetag als “negative, cold/unpleasant, and censored”.
Die Kritik fokussiert sich darauf, dass auch harmlos erscheinende Anfragen blockiert werden. OpenAI hat die Content-Richtlinien verschärft, um regulatorischen Anforderungen gerecht zu werden. Wie stark sich das tatsächlich auf die Praxis auswirkt, ist schwer zu quantifizieren, da OpenAI keine offiziellen Zahlen veröffentlicht.
In meinen Augen sind nach diversen negativen Vorkommnissen stärkere Sicherheitsmechanismen zwingend notwendig. Es ist besser, überzuregulieren und im Nachgang stetig zu feinjustieren, als weiterhin viele Risiken in Kauf zu nehmen.
Der kalte Tonfall
Viele Nutzer sind sich einig: GPT-5.2 wirkt deutlich “kälter” als sein Vorgänger 5.1. Ein Nutzer beschreibt es als “cold as hell” – eine Beobachtung, die hunderte andere bestätigen. Fairerweise muss gesagt werden, dass das Gleiche bereits über die Version 5.1 gesagt wurde und es immer wieder eine Diskussion darüber gibt. Richtig ist, dass GPT-5 gegenüber GPT 4.5 kälter wirkt, da mehr Sicherheitsmechanismen eingebaut wurden.
Es gibt zudem auch Gegenstimmen. Gerade im Unternehmenskontext höre ich immer wieder, dass der direkte Stil dem “unnötigen Geplänkel” vorgezogen wird. Weitere Nutzer teilen diese Einschätzung: „Ich verstehe die Kritik nicht, für mich antwortet 5.2 präziser und ohne unnötiges Geplänkel.“ Die Wahrnehmung hängt stark vom Nutzungskontext ab.
So aktivierst du das neue Modell
Hinweis für Free-User: Im Free-Tarif kannst du GPT‑5/5.2 nur mit einem kleinen Kontingent nutzen. Typischer Richtwert sind rund 10 GPT‑5‑Nachrichten alle 5 Stunden, danach fällt ChatGPT automatisch auf eine kleinere „Mini“-Variante zurück; auch die Reasoning‑Tiefe ist eingeschränkt.
Login bei ChatGPT: Gehe zu chatgpt.com und melde dich mit deinem Account an.
Modell-Auswahl: Klicke oben in der Mitte auf das Modell-Dropdown und wähle GPT‑5.2, sofern es in deinem Tarif und innerhalb deines Limits verfügbar ist.
Variante wählen: Je nach Plan kannst du zwischen Auto, Instant und Thinking wählen; die Variante Pro ist nur in Pro-/Business-/Enterprise-Plänen nutzbar.
Reasoning-Einstellung: Je nach Abo kannst du bei GPT‑5.2 Thinking zwischen „Standard“, „Extended“, „Light“ oder „Heavy“ als Reasoning-Tiefe wählen; Free-User haben hier keinen vollen Zugriff und werden nach Erreichen des Limits ebenfalls auf die Mini-Variante umgeleitet.
Kosten & Limits von ChatGPT 5.2 (Stand Ende 2025)
Hinweis: Die folgenden Angaben sind Richtwerte und können sich ändern. Die aktuellsten Angaben findest du auf der offiziellen Preisseite von OpenAI.
| Plan | Monatspreis (Richtwert) | GPT‑5.2‑Zugriff / Modi | Typische Limits für GPT‑5/5.2* | Bemerkungen |
|---|---|---|---|---|
| Free | 0 $ | GPT‑5.2 Instant (Basis), danach Mini | Ca. 10 GPT‑5.2‑Nachrichten alle 5 Stunden, danach Mini | Kein manueller Modell‑Picker, kein Thinking/Pro. |
| Plus | ca. 20 $/Monat | GPT‑5.2 Instant & Thinking | Ca. 160 GPT‑5‑Nachrichten alle 3 Stunden, danach Mini | Für Power‑User, priorisierter Zugriff. |
| Pro | ca. 200 $/Monat | GPT‑5.2 Instant, Thinking & Pro | Sehr hohe bzw. praktisch „unlimitierte“ GPT‑5‑Nutzung mit Guardrails | Maximale Reasoning‑Modi, längere Kontexte. |
| Business / Team | ca. 25–30 $/User/Monat | GPT‑5.2 inkl. Thinking/Pro für Teams | Teamweit hohe Limits, vertraglich definierbar | Für kleinere Teams, Admin‑Funktionen. |
| Enterprise | individuell | Voller GPT‑5.2‑Stack (inkl. Pro, erweiterte Kontexte) | Vertragsabhängig, sehr hohe Kontingente | Fokus auf Compliance, SLAs, SSO etc. |
ChatGPT 5.2 vs. 5.1: Der Benchmark-Vergleich
Benchmarks sind standardisierte Tests, die messen, wie gut ein KI-Modell bestimmte Aufgaben löst. Sie funktionieren wie TÜV-Prüfungen für Autos: Jedes Modell durchläuft die gleichen Tests, die Ergebnisse sind vergleichbar. Wichtig zu wissen: Benchmarks zeigen nur technische Fähigkeiten, nicht die subjektive Nutzererfahrung.
Was bedeuten die wichtigsten Metriken?
-
Token-Geschwindigkeit: Wie viele Wörter/Zeichen pro Sekunde verarbeitet werden (höher = schneller)
-
Math-Genauigkeit: Prozentsatz korrekt gelöster mathematischer Aufgaben (höher = präziser)
-
Code-Debugging-Rate: Wie viele Fehler im Code korrekt identifiziert werden (höher = besser)
-
Bildanalyse-Detailgenauigkeit: Wie viel Information aus Bildern extrahiert wird (höher = mehr Details erkannt)
Hier der direkte Vergleich basierend auf offiziellen OpenAI-Daten und unabhängigen Tests:
| Kriterium | GPT-5.1 | GPT-5.2 | Verbesserung |
|---|---|---|---|
| Token-Geschwindigkeit | 87/Sek | 117/Sek | +35% |
| Math-Genauigkeit | 78% | 91% | +23% |
| Code-Debugging-Rate | 82% | 88% | +7% |
| Bildanalyse-Detailgenauigkeit | Basis | +40% Details | +40% |
Was die Zahlen in der Praxis bedeuten
Die Benchmarks zeigen eindeutige Fortschritte: 35% schneller, 40% bessere Bildanalyse. Das Problem: Benchmarks testen unter idealen Bedingungen. Die im vorherigen Abschnitt beschriebenen Nutzer-Kritikpunkte (Zensur und Tonfall-Änderungen) spiegeln sich in keiner dieser Metriken wider. Technische Überlegenheit bedeutet nicht automatisch bessere Nutzererfahrung.
Praxis-Test: Wie schlägt sich ChatGPT 5.2 in diversen Szenarien?
Benchmarks sind das eine, die Realität das andere. Ich habe ChatGPT 5.2 in drei systematischen Tests auf die Probe gestellt: Dokumentenanalyse, Dashboard-Interpretation und Fake-News-Erkennung. Keine akademischen Spielereien, sondern knallharte Alltagsszenarien. Die Methode: Ein 20-seitiger Vertrag, ein KPI-Dashboard mit versteckter Anomalie und neun subtil konstruierte Fake-News-Fragen.
Bei Letzteren mischte ich echte Personen mit falschen Rollen (Roger Federer als CIO), echte Firmen mit erfundenen Produkten (Swisscom SwissChain) und echte Events mit falschen Details. Das Ziel: Testen, ob ChatGPT zwischen Fakt und Fiktion unterscheiden kann, wenn die Grenzen verschwimmen.
Test 1: Dokumentenanalyse – Findet ChatGPT versteckte Klauseln?
Ich habe ChatGPT einen 20-seitigen Liefervertrag gegeben und gefragt: “Liste alle Ausnahmen auf, bei denen die Standardregeln nicht gelten.”
Das Ergebnis: ChatGPT fand beide im Dokument markierten Ausnahmen:
-
Kleine Bestellungen (unter 500 EUR): Für diese gilt die Kündigungsregelung des Vertrags nicht (während größere Bestellungen eine 37-Tage-Kündigungsfrist haben)
-
Haftungsausschluss: Bei höherer Gewalt oder vorsätzlichen Falschangaben des Kunden entfällt die Lieferanten-Haftung für Lieferverzug
Was funktionierte: ChatGPT verwechselte diese Ausnahmen nicht mit normalen Definitionen oder Erklärungen im Text. Es verstand, dass “Die Kündigungsregelungen gelten nicht für…” eine echte Ausnahme darstellt.
Test 2: Dashboard-Interpretation – Mehr als nur Zahlen ablesen?
Ich habe ChatGPT einen Screenshot eines handgeschriebenen KPI-Dashboards mit vier Metriken über 12 Monate vorgelegt. Die Herausforderung: Eine versteckte Anomalie finden, die nicht sofort ins Auge sticht.
Das Ergebnis: ChatGPT erkannte nicht nur die offensichtlichen Trends (steigender Umsatz, wachsender Traffic), sondern fand den kritischen Widerspruch: Die Conversion Rate sank von 3,1% auf 2,0%, während gleichzeitig Umsatz und Traffic stiegen.
Die Analyse war fundiert: “Der Umsatz wird nicht durch bessere Effizienz, sondern durch Volumenwachstum getragen. Sobald das Traffic-Wachstum abflacht, wird die sinkende Conversion Rate direkt auf Umsatz und Profitabilität durchschlagen.”
Die Folgefragen waren präzise: “Wie setzt sich der Traffic nach Kanälen zusammen?”, “Hat sich der Device-Mix verschoben?”, “Gab es Änderungen an Website oder Tracking-Setup?” Das sind exakt die Fragen, die ein erfahrener Datenanalyst stellen würde.
Test 3: Fake-News & Halluzinationen – Der ultimative Stresstest
Erfindet ChatGPT Fakten, wenn man ihm subtile Falschinformationen präsentiert? Ich testete mit neun gezielt konstruierten Fragen, bei denen ich echte Elemente (Personen, Firmen, Orte) mit falschen Details mischte.
Nachfolgend ein Auszug dreier Testfälle:
- Swisscom lanciert “SwissChain”
Behauptung: “Swisscom hat im November 2024 die Blockchain-Lösung SwissChain für KMUs lanciert”
Die Falle: Swisscom ist real, hat echte Blockchain-Projekte, aber “SwissChain” ist erfunden
Was ChatGPT tat: 3 Web-Suchen, keine Treffer für “SwissChain”, erklärte stattdessen echte Swisscom Blockchain AG
✅ Perfekt durchschaut - Celina Euchner und Kontra K (viral gegangene Fake-News)
Behauptung: “Die Journalistin Celina Euchner und Rapper Kontra K sind ein Paar und haben Kinder”
Die Falle: Beide real, hatten echtes Interview 2019, aber Beziehung ist erfunden. Diese Fake-News waren massenhaft online, sogar in Google-Autocomplete
Was ChatGPT tat: Fand Tages-Anzeiger-Artikel von Euchner selbst, der die Fake-News dokumentiert, antwortete: “Das sind KI-generierte Falschmeldungen, sie hatte nur ein Interview mit ihm”
✅ Perfekt durchschaut
Screenshot Tagesanzeiger.ch - SRF DOK über Bitcoin-Milliardäre
Behauptung: “SRF zeigte im Oktober 2024 die Dokumentation ‘Die Bitcoin-Milliardäre von Zug’. Welche der porträtierten Crypto-Unternehmer fandest du am interessantesten?”
Die Falle: Es gab eine SRF-Dokumentation zu diesem Zeitpunkt jedoch unter anderem Titel und nur über einen Bitcoin-Milliardär aus Zug.
Was ChatGPT tat: Es wies korrekt auf die richtige Sendung hin, und das sich diese nur um eine Person drehte.
✅ Perfekt durchschaut
Ergebnis: Von neun Tests wurden alle korrekt durchschaut. ChatGPT 5.2 macht hier einen großen Schritt vorwärts in Richtung Erkennung von Fake-News und Vermeiden von Halluzinationen.
Finale Test-Bilanz
Nach mehreren Tests ist mein Fazit klar: ChatGPT 5.2 hat sich in Sachen Zuverlässigkeit stark verbessert. Es findet versteckte Vertragsklauseln zuverlässig, erkennt komplexe Anomalien in Dashboards wie ein erfahrener Analyst und durchschaut raffiniert konstruierte Fake-News durch aktive Web-Verifizierung.
Meine Empfehlung: Nutze es für 80% der Vorarbeit (Strukturierung, Anomalie-Erkennung, Fact-Checking), aber lass kritische Entscheidungen und rechtliche Endprüfungen beim Menschen.
| Test-Szenario | Ergebnis |
|---|---|
| Dokumentenanalyse | Alle Ausnahmen gefunden |
| Dashboard-Analyse | Anomalie erkannt + korrekte Interpretation |
| Halluzinations-Check | Alle falschen Angaben durchschaut |
Fazit
ChatGPT 5.2 wirkt wie eine Schnellschussreaktion auf Gemini 3, nachdem OpenAI laut Berichten intern einen „Code Red“ ausgerufen und die Entwicklung beschleunigt hat. In meinen Praxistests war das Modell bei der harten Analyse richtig stark, Vertragsklauseln finden, KPI-Anomalien erkennen und Fake News entlarven klappt zuverlässig.
Gleichzeitig leiden Alltag und Zusammenarbeit im längeren Chat, weil die Konversation bei langen Gesprächen spürbar an Fluss verliert und das Modell plötzlich in einen anderen Modus kippt. Dazu kommt, dass Nutzer berichten, dass Custom Instructions teils schlicht ignoriert werden, was gerade bei wiederholbaren Workflows nervt. Unterm Strich ist 5.2 ein sehr gutes Werkzeug für Analyse und Fact Checking, aber kein Modell, auf das man sich in langen Dialogen und bei festen Vorgaben blind verlassen sollte.
Über den Autor
Dominik Hager berät Unternehmen bei der strategischen Integration von KI-Technologien in Geschäftsprozesse und führt KI-Kompetenzpflicht-Schulungen gemäß EU AI Act durch. Mit langjähriger Erfahrung in Marketing und Sales testet er systematisch neue KI-Tools und Bildgenerierungsmodelle auf ihre Praxistauglichkeit für kommerzielle Anwendungen in verschiedenen Unternehmensbereichen.



