Im „toten Internet“ (Dead Internet) lassen wir Maschinen für uns schreiben und lesen. Informationsknappheit war gestern, das Internet leidet an Informationsverschmutzung. Schreiben ist immer noch sinnvoll, aber wie gelingt es ohne KI-Vergiftung (Writing still matters. But if it does, how to do it right and avoid AI intoxication?)
Toxizität in der Popkultur
Information wird toxisch, wenn Desinformation, Propaganda, Troll- und KI-generierte Wiederholung den Kontext vergiftet. Feedbackschleifen verstärken Fehler, Stereotype und Halluzinationen, und zwar mit oder ohne KI. Algorithmische Echokammern verstärken, was Leute gern hören oder was die Plattformen und ihre Sponsoren dafür halten. Soziale Medien belohnen toxisches Verhalten und die Popkultur ist nicht besser. Trotz ihres sozialen Aspekts können Online-Communities Einsamkeit, Ärger und destruktive Tendenzen verschlimmern.
Kürzlich wurde ein Pinguin, der sich von seinen Artgenossen abwendet und in die eisigen Berge aufbricht, als „Meme des nihilistischen Pinguins“ gefeiert. Andererseits kommt aus der Popkultur auch mehr oder weniger ironische Kritik an toxischer Kultur und sozialer Ungerechtigkeit. „Toxicity“ von System of a Down oder „Vergiftet“ von Jan Delay greifen das sogar wörtlich in ihren Songtexten und Titeln auf, vielleicht als Wortspiel mit der mittelalterlichen Weisheit „nichts ist ohne Gift und ohne Gift ist nichts, nur auf die Dosis kommt es an.“
Toxzität überwinden
Probleme zu benennen kann bei ihrer Lösung helfen. Vielleicht geht es im Pop gerade darum, Aufmerksamkeit zu schaffen und persönliche Erfahrungen und Beobachtungen zu teilen. Mehrdeutigkeit ist ein wichtiger Aspekt der Kunst, sonst wäre sie Edutainment oder Propaganda. Also liegt die Interpretation immer im Ohr und Auge der Betrachter. KI-Kunst wurde für ihre Plattitüden und Stereotype kritisiert, doch ihre Zufallsaspekte und unerwarteten Missverständnisse der ursprünglichen menschlichen Intention bringen Mehrdeutigkeit zurück ins Spiel. Für diesen Artikel habe ich KI einige surreale Kunstwerke nach Vorlage beliebter Bilder und meiner Notizen erzeugen lassen. Als Stilvorlage dienten andere KI-Bilder im retrofuturistischen Synthwave-Neon-Style. Ungefragt erhielt ich Nordlichter und Fernsehbildschirme als kritische Hinweise auf unsere digitale Onlinekultur und ihre analogen Vorläufer, denen Antwort- und Mitmachmöglichkeiten fehlten.
Vergiftung und ihre Doppelbedeutung
Ein weiteres auffallend kitschiges KI-Kunstwerk, erneut in Lila- und Türkistönen gehalten und mit Fernsehern auf dem Boden, zeigt einen Spielzeugroboter mit einer Glaspfeife am Mund aus der neonfarbene Formen und eine Sprechblase entstehen. Was aussieht wie ein Kind, das Seifenblasen bläst, war mein Versuch, das Wort „Pipe Dreams“ (Träume, Hirngespinste, Luftschlösser) zu illustrieren. Ein kiffender Roboter, der mit einer Wasserpfeife Drogen konsumiert, ist eine andere mögliche Interpretation derselben Illustration.
Auch der Begriff „Vergiftung“ (Intoxication) hat eine doppelte Bedeutung.
Halluzinierende Chatbots erinnerten mich an Menschen auf Drogen („intoxicated on drugs“) die Unsinn und Träume erzählen. Vergiftung bezeichnet aber auch die Handlung des Vergiftens. Trotz der negativen Konnotation des Begriffs gab es in der Menschheitsgeschichte schon immer absichtliche Vergiftung: Selbstvergiftung auf der Suche nach Inspiration und religiöser Offenbarung. Affen und andere Tiere essen vergorene Früchte und werden vom enthaltenen Alkohol betrunken. Vergiftung anderer aus böswilligen Motiven.
Tatsächlich zeigen Studien die derzeitige KI als überraschend anfällig für böswillige Manipulation. Bereits eine kleine Anzahl an Proben genügte, um auch große KI-Modelle zu vergiften (Anthtropic, 2025). Untersucht wurden Systeme mit Milliarden von Parametern. Für einen erfolgreichen Angriff genügten etwa 250 manipulierte Dokumente in einem ansonsten sauberen Datensatz. Konkret gelang es den Wissenschaftlern auf diese Weise, geheime Befehle (Trigger) einzuschleusen, die Sicherheitsvorgaben umgehen oder verfälschte Antworten produzieren, wie die Autoren Dr. Mavroudis und Dr. Hicks berichten.
Artefakte und Informationsverluste
Obschon unsere Gesellschaft zumindest den Zahlen zufolge immer produktiver und kreativer wird, korreliert geschwinde Contentkreation nicht mit Qualität. Jedenfalls nicht im positiven Sinne. KI Slop ist bloß die jüngste Variation von schrottigem Content, früher von Junior-Werbetexter:innen handgefertigt nach Marketingrezepten um flache Inhalte aufzublasen. Klischeeverdächtige Titelformulierungen wie „Das habe ich gelernt“ oder „7 Songs, die jeder Kreative kennen sollte“ erregen zwar mein Misstrauen, aber manchmal verbirgt sich sinnvolles dahinter. Immerhin trägt KI zur Demokratisierung der Content-Erstellung bei und hilft Menschen, ihre Erfahrungen und Meinungen zu äußern, denen das bisher nicht möglich war.
Allerdings wird es immer schwerer, in den großen Massen neuer Inhalte wertvolle Informationen zu entdecken. Die zunehmende Menge an Inhalten verschlechtert das Signal-Rausch-Verhältnis, und neue Generationen von Sprachmodellen der künstlichen Intelligenz werden mit Texten und Bildern trainiert, die vielfach von ihren Vorgängern erzeugt oder bearbeitet wurden.
Fortschritt als Verschlimmbesserung
Doch selbst ohne vorsätzliche Schädigung verwandelt sich Fortschritt in Verschlimmbesserung, wenn immer mehr Trainingsdaten selbst von KI verfasst werden. Ein Wettrennen um wissenschaftliche Durchbrüche und die Begeisterung für experimentelle Technologie erinnern mich an die umstrittenen Technologien des 20. Jahrhunderts, wie Atomenergie oder Luftfahrt, die unsere Welt vor etwa 100 Jahren veränderten.
Hindenburg- und Habsburg-Szenarios
Zeppelin-Luftschiffe schwebten langsam am Himmel, so wie in Steampunk-mäßigen Parallelweltszenarien, hätte nicht der Hindenburg-Zeppelin nach einer erfolgreichen Atlantiküberquerung kurz vor der Landung Feuer gefangen. Ein „Hindenburgmoment der KI,“ befürchten manche Experten, könnte das Vertrauen verspielen und den Hype beenden. Hindenburg ist nicht zu verwechseln mit dem ähnlich klingenden Schlagwort Habsburg, das ebensfalls zur Voraussage einer düsteren Zukunft für die heutige KI fällt, benannt nach der Habsburger Monarchie, deren zahlreiche Krankheitsfälle auf Inzucht zurückgeführt wurden.
Der Habsburger-Effekt wirkt wahrscheinlicher. Er geschieht schon jetzt, und ähnliche Verschlechterungseffekte lassen sich überall beobachten.Stille Post und ähnliche Kinderspiele, wo geflüsterte Botschaften von Verhörern und Missverständnissen verzerrt werden, sind noch lustig. Derselbe Effekt enttäuscht oder inspiriert im erwachsenen Alltagsleben: eine Fotokopie einer Fotokopie einer Fotokopie, eine Kopie einer Kopie einer Kopie einer analogen magnetischen Tonbandaufnahme einer verkratzen Schallplatte, oder die eckigen Artefakte die beim Hineinzommen in digital Bilder erscheinen, die mehrfach verlustreich komprimiert wurden.
Dieses Originalkunstwerk veranschaulicht verschiedene Arten von Artefakten, Verzerrungen und Verschleißerscheinungen, die verlustbehaftete Reproduktion verursacht.
Ich habe auch hier KI verwendet, um ein Ausgangsbild zu generieren, das wiederum dem violetten Science-Fiction-Stil treu bleibt und mit Kästchen, kleinen Quadraten und analoges Rauschen simuliert. Die rechte Hälfte und mehrere kleinere Bereiche auf der linken Seite habe ich dann mit dem Pixelate-Filter von GIMP retuschiert, als Kontrast zu den klareren Details in der linken Mitte, bevor ich das Bild schließlich mit einer niedrigen JPEG-Qualität von 20 % komprimiert exportiert habe, um „echte“ Artefakte zu erzeugen, die Bilder ungewollt verfremden, wenn wir es nicht erwarten..
Mische, prüfe und beobachte kritisch
Wenn Künstler und Autor:innen weiterhin verschiedene Ansätze und Technologien kombinieren, KI als Assistenten nutzen, ihren eigenen Stil, ihre Inspiration und ihre Erfahrung einbringen und Fakten anhand von Suchmaschinenergebnissen und ihrem realen Wissen überprüfen, dann veranschaulicht das obige Bild vielleicht die Informationsflut der Zukunft. Wir werden Kreativität und Wissen nicht gänzlich verlieren, aber wir müssen unsere Augen und unseren Verstand schulen, kritischer hinzuschauen und Halluzinationen und Manipulationen von dem, was wirklich zählt, zu unterscheiden.
Ein praktisches Beispiel: laut statistischer Analyse ist dieser Artikel 100% menschengeschrieben. Keine KI. Das ist offensichtlich nicht richtig. Viel Technologie hat mir beim Erstellen dieses Artikels geholfen, auch beim Schreiben. Ich notierte. Ich sammelte. Recherchierte. Fügte alles zusammen und fragte die KI nach der Essenz und was davon relevant ist für Suchmaschinenoptimierung.
Der folgende Screenshot bezieht sich auf die ursprüngliche englische Version dieses Artikels vor einer abschließenden Bearbeitung.
Verlasse dich nie auf KI. Verlasse dich nicht auf Zahlen.
Schule dein Sehen und deinen Geist und mach dir deine eigenen Gedanken!



