Das Problem mit KI-generierten Texten
ChatGPT, DeepL und Gemini sind gut genug, um brauchbare Texte zu produzieren. Das Problem: Brauchbar heißt, es klingt gut genug, um es nicht zu hinterfragen. Nicht: Es stimmt.
Was regelmäßig schiefgeht:
- Halluzinationen – KI erfindet Fakten, Zitate und Quellen. Das fällt nicht sofort auf, weil der Text flüssig klingt.
- Stilistische Gleichförmigkeit – KI-Texte verraten sich durch monotone Satzlängen, übertriebene Höflichkeit und dieselben Floskeln in jedem zweiten Absatz.
- Compliance-Lücken – KI kennt weder Ihre Branchenregulierung noch Ihre internen Kommunikationsrichtlinien.
- Tonalitätsbrüche – Eine Premium-Marke, die klingt wie ein Chatbot, beschädigt sich selbst.
Warum ausgerechnet ich
Bei Jung von Matt habe ich Kampagnen für BMW und Sparkasse gegen Qualitätskriterien geprüft, bei Goodgame Studios und InnoGames Softwarereleases. Ob Software oder Sprache: Der Prozess ist derselbe.
Was ich prüfe
- Sachliche Richtigkeit – stimmen die Fakten, oder hat die KI halluziniert?
- Stil und Tonalität – passt der Text zur Marke und zur Zielgruppe?
- Terminologie – einheitlich, fachlich korrekt und verständlich?
- Branchenspezifische Compliance und Regulierung
- Barrierefreiheit nach BFSG und BITV 2.0