Warum Menschen wütend auf KI-Texte reagieren
KI-Texte machen Menschen wütend. Aber warum eigentlich? Die Antwort hat weniger mit Technologie zu tun als mit dem, was wir von Kommunikation erwarten.
Ich beobachte das seit Monaten. Jemand postet auf LinkedIn etwas, das nach KI klingt. Die Kommentare werden scharf. Oder eine Firma schickt einen Newsletter, der wie frisch aus ChatGPT gefallen wirkt, und die Reaktionen reichen von genervt bis empört. Auch im Unternehmen, in dem ich arbeite, beobachte ich, wie sich die Meinungen meiner Kolleg:innen in emotionaler Wut entlädt. Als studierter Medien- und Kommunikationswissenschaftler ist das für mich eine spannende Entwicklung. Deshalb stelle ich mir die Frage: Was steckt dahinter?
Die Antwort ist komplizierter als "die Leute haben Angst vor Technologie". Es geht um etwas Tieferes.
Schreiben ist nie nur Schreiben
Wenn jemand einen Text liest, liest er gleichzeitig nach etwas anderem: Meint diese Person das wirklich? Hat sie sich Gedanken gemacht? Bin ich ihr wichtig genug für echte Mühe?
Schreiben ist ein sozialer Akt. Es geht um Intention, Mühe und Emotion. Wenn KI aktiv am Schreibprozess beteiligt ist, wird genau diese soziale Bedeutung von Autorschaft unklar. Eine Metastudie mit 13 Experimenten (Schilke & Reimann, 2025) zeigt: Wer die KI-Beteiligung offenlegt, wird konsequent als weniger vertrauenswürdig wahrgenommen als jemand, der nichts davon sagt [1]. Das ist keine irrationale Reaktion. Es ist eine sehr menschliche.
Die sieben Gesichter der Wut
Was auf den ersten Blick wie eine einheitliche Ablehnung wirkt, ist tatsächlich ein Bündel unterschiedlicher Reaktionen. Ich habe versucht, sie auseinanderzuhalten.
Authentizitäts-Wut
Die häufigste Form. Sie trifft Menschen, die sich getäuscht fühlen: "Du gibst vor, persönlich zu sein, aber das ist glatter System-Text." Eine Studie mit über 1.100 Berufstätigen (Cardon & Coman, 2025) zeigt, dass Manager, die KI für alltägliche Kommunikationsaufgaben nutzen, ihre wahrgenommene Aufrichtigkeit, Kompetenz und Fürsorge riskieren, sobald der KI-Einsatz mittel bis hoch ist [2]. Besonders heikel: persönliche LinkedIn-Posts, CEO-Statements in Krisenzeiten, Bewerbungsanschreiben. Überall dort, wo Persönlichkeit eigentlich der Punkt ist.
Fairness-Wut
In Bewerbungsprozessen, in der Schule, im professionellen Content-Wettbewerb gilt Schreiben als ehrliche Arbeit. Wer KI nutzt, nimmt eine Abkürzung, die sich für die anderen wie Schummeln anfühlt. Das trifft einen kulturellen Nerv: Anstrengung soll Anerkennung verdienen. KI stört diese Gleichung. Besonders sichtbar wird das bei "Experten", die Content aus KI rauslassen und ihn als eigene Tiefe verkaufen, oder bei Bewerbern, deren Motivationsschreiben identisch mit zig anderen klingt.
Job- und Status-Wut
Diese Form ist am direktesten. Wenn Unternehmen bekanntgeben, dass KI menschliche Texter oder Kreative ersetzt, ist das kein abstraktes Technologieproblem mehr. Das trifft Menschen in ihrer Existenz. KI-generierte Texte werden dann zum Symbol für "du bist ersetzbar". Besonders schmerzhaft trifft es Kreative und Wissensarbeiter, die konkrete Projekte an KI verlieren, oder Junior-Positionen, die schlicht wegfallen, weil ein Sprachmodell die Aufgaben übernimmt.
Identitäts-Wut
Für viele ist Schreiben Teil ihres Selbstbilds. Forschende beobachten, dass KI-Nutzung zu einer "KI-nisierten" Schreibweise führen kann, die die authentische Stimme des Autors verwässert und damit genau das, was Menschen als ihren unverwechselbaren Ausdruck verstehen (Wang, 2024, zitiert nach Frontiers in Education, 2025) [3]. Wer jahrelang an Sprache gearbeitet hat, erlebt es als Kränkung, wenn ein Tool dieselbe Oberfläche in Sekunden erzeugt.
Qualitäts- und Spam-Wut
Manche nennen es "AI Slop": diese immer gleiche, formlose Masse an generischen Texten, die Feeds, Postfächer und Suchergebnisse fluten. Laut einer Studie des TÜV-Verbands (2025) kritisieren 48 Prozent der KI-Nutzer die Ergebnisse als zu oberflächlich, 43 Prozent als nicht konkret genug [4]. Die Wut darauf ist weniger moralisch als ästhetisch. Es ist die Erschöpfung über Inhalte, die nach nichts schmecken.
Kontroll- und Trust-Wut
Diese Form richtet sich nicht gegen einzelne Texte, sondern gegen das größere Bild. Wenn jeder Text fake sein könnte, kann man keinem mehr vertrauen. Eine Studie der University of Kansas zeigt: Je mehr KI-Beteiligung Leser in einem Text vermuteten, desto niedriger fiel ihre Glaubwürdigkeitsbewertung aus, und zwar unabhängig davon, ob tatsächlich KI beteiligt war [5]. Das Misstrauen sitzt tiefer als der konkrete Text.
Werte- und Kultur-Wut
Die grundsätzlichste Form. Hier geht es um Urheberrecht, die Frage, wessen kreative Arbeit für das Training von Sprachmodellen genutzt wurde, und das Gefühl, dass kreative Arbeit als Ganzes entwertet wird. Kampagnen, die sichtbar vom Stil echter Künstler "abkupfern". Narrative von "kreativer" KI, die menschliche Leistungen kleinreden. Das erzeugt keine Wut, sondern echte Kränkung.
Der Kontext entscheidet mehr als der Inhalt
Was die Forschung zeigt, ist eigentlich beruhigend: Die Ablehnung ist nicht absolut. Sie hängt stark davon ab, wofür KI eingesetzt wird und wie transparent damit umgegangen wird.
Entscheidend ist nicht, ob ein Mensch oder eine KI beteiligt war, sondern wie viel Arbeit der Mensch geleistet hat. Die University of Kansas Studie bringt es auf den Punkt: "The big thing was not between whether it was AI or human: It was how much work they thought the human did." [5] Das klingt nach einer schlechten Nachricht, ist aber eigentlich eine klare Orientierung.
In Deutschland vertrauen 54 Prozent der Menschen KI-generierten Inhalten weniger als menschlich erstellten, eine Skepsis, die laut einer YouGov-Studie (2024/2025) über dem internationalen Durchschnitt von 29 Prozent liegt [6]. Höhere KI-Kompetenz korreliert dabei mit mehr Toleranz. Wer versteht, wie diese Tools funktionieren, bewertet KI-Unterstützung differenzierter. Die schärfste Kritik kommt von Menschen, die KI primär als Bedrohung erleben.
Was das konkret bedeutet, vor allem intern
Die Wut auf KI-Texte ist besonders dort spürbar, wo Beziehung und Vertrauen im Spiel sind. Gerade in der internen Unternehmenskommunikation lohnt es sich, ein paar Grundsätze zu kennen.
KI funktioniert gut für Struktur, Klarheit und Kürzung. E-Mails glätten, Bulletpoints ordnen, Ton prüfen. Als erster Entwurf, nicht als Endprodukt. Fakten, Zahlen und interne Bezüge immer selbst prüfen.
Was nicht funktioniert: KI als vollautomatischen Sprecher für Beziehungsthemen einzusetzen. Glückwünsche, Wertschätzung, schwieriges Feedback, Krisenkommunikation. Genau dort, wo es darauf ankommt, dass jemand wirklich dahintersteht. Forschende der University of Florida (2025) bestätigen: Starke KI-Nutzung bei persönlicher Kommunikation senkt die wahrgenommene Aufrichtigkeit massiv, Mitarbeitende interpretieren das schnell als Faulheit oder fehlende Wertschätzung [7].
Eine einfache Frage hilft vor dem Absenden: Ist das hier Informations- oder Beziehungskommunikation? Je mehr es Richtung Beziehung geht, desto mehr eigene Handschrift braucht der Text.
Die Transparenzfrage: Muss ich das kennzeichnen?
Eine Frage, die sich irgendwann jeder stellt, der KI in seiner Arbeit nutzt: Muss ich eigentlich offenlegen, dass KI beteiligt war? Und wenn ja, wie?
Eine einfache Antwort gibt es nicht. Aber ein paar Orientierungspunkte helfen.
Rechtlich ist die Lage in den meisten Kontexten noch ungeregelt. Der EU AI Act schreibt Kennzeichnungspflichten vor allem für KI-generierte Bilder, Videos und Audios vor, weniger für Texte. Für Marketing-Content gibt es aktuell keine generelle Pflicht zur Offenlegung.
Das bedeutet aber nicht, dass die Frage erledigt ist. Denn die eigentliche Frage ist keine rechtliche, sondern eine strategische: Was erwartet meine Zielgruppe, und was passiert mit meinem Vertrauen, wenn sie es herausfindet?
Hier hilft die Unterscheidung zwischen drei Szenarien:
KI als Werkzeug im Prozess: Ich nutze KI, um Struktur zu entwickeln, Formulierungen zu testen oder Recherche zu beschleunigen. Das Ergebnis ist mein Gedanke, meine Perspektive, meine Sprache. Kennzeichnung ist hier genauso wenig nötig wie die Erwähnung, dass ich eine Rechtschreibprüfung benutzt habe.
KI als Co-Autor: Ein substantieller Teil des Textes stammt aus KI-Output, den ich bearbeitet und angepasst habe. Hier wird die Frage relevanter, vor allem wenn der Text unter meinem Namen erscheint und Expertise oder persönliche Erfahrung suggeriert, die nicht wirklich dahintersteckt.
KI als Autor: Der Text ist im Wesentlichen KI-generiert, ich habe ihn nur leicht angepasst. Wer das nicht offenlegt und gleichzeitig Authentizität und persönliche Haltung verkauft, bewegt sich in einem Bereich, der früher oder später Vertrauensprobleme erzeugt.
Was ich für mich daraus ableite: Die Kennzeichnungsfrage ist weniger eine Frage des "muss ich" als des "was bin ich bereit zu vertreten". Wer KI als Werkzeug nutzt und trotzdem echte Gedanken in seinen Texten stecken hat, muss nichts verstecken und nichts groß erklären. Wer KI hauptsächlich nutzt, um Aufwand zu sparen und trotzdem so zu tun, als stecke da intensive persönliche Arbeit dahinter, hat ein anderes Problem als die Kennzeichnungspflicht.
Die Branche wird sich hier in den nächsten Jahren weiterentwickeln. Einige Redaktionen und Plattformen haben bereits eigene Standards eingeführt. Es lohnt sich, darüber nachzudenken, welchen Standard man selbst setzen will, bevor es andere für einen tun.
Was ich persönlich daraus mitnehme
Ich schreibe diesen Artikel mit KI-Unterstützung. Recherche, Struktur, einzelne Formulierungen. Und gleichzeitig stecken darin Beobachtungen, die ich in den letzten Monaten gemacht habe, Gedanken, die ich mir wirklich gemacht habe, und eine Haltung, die tatsächlich meine ist.
Ob das "zählt", muss jeder für sich entscheiden.
Was ich gelernt habe: Die Wut trifft selten die Technik. Sie trifft den Eindruck, dass jemand so tut als ob. Als ob er etwas erlebt hätte, das er nicht erlebt hat. Als ob ihm etwas wichtig wäre, das ihm egal ist. Als ob er nachgedacht hätte, ohne es getan zu haben.
Dagegen hilft kein besseres Prompt Engineering.
Quellen
[1] Schilke, O. & Reimann, M. (2025): "The transparency dilemma: How AI disclosure erodes trust." ScienceDirect / Organizational Behavior and Human Decision Processes. https://www.sciencedirect.com/science/article/pii/S0749597825000172
[2] Cardon, P. W. & Coman, A. W. (2025): "Professionalism and Trustworthiness in AI-Assisted Workplace Writing." Journal of Business and Professional Communication. https://journals.sagepub.com/doi/10.1177/23294884251350599
[3] Frontiers in Education (2025): "The impact of generative AI on academic reading and writing: a synthesis of recent evidence (2023–2025)." https://www.frontiersin.org/journals/education/articles/10.3389/feduc.2025.1711718/full
[4] TÜV-Verband (2025): "Zwei Jahre ChatGPT: TÜV-Studie zeigt steigende Nutzung, aber wenig Vertrauen." https://www.bigdata-insider.de/chatgpt-co-fast-jeder-dritte-ki-nutzer-findet-fehler-a-a37ac2426b90a90d1f6646f1b55e4d44/
[5] Appelman, A. & Bien-Aimé, S. (2025): "Study finds readers trust news less when AI is involved." University of Kansas. https://news.ku.edu/news/article/study-finds-readers-trust-news-less-when-ai-is-involved-even-when-they-dont-understand-to-what-extent
[6] YouGov Surveys / deutschlands-marktforscher.de (2025): "Deutsche Umfrage: KI-Einstellungen & Akzeptanz." Befragung Dezember 2024 bis Januar 2025, n=1.000. https://www.deutschlands-marktforscher.de/einstellung-zu-kuenstlicher-intelligenz/
[7] University of Florida (2025): "Writing with AI: How managers risk loss of trust." News.ufl.edu. https://news.ufl.edu/2025/08/writing-ai-work/