Die Logik von KI-Slops
von Kate Crawford
Zwischen Überwachung und Deepfakes: Steuern wir auf einen Tech-Feudalismus zu? Wozu braucht es noch Wikipedia, wenn ChatGPT auf alles eine Antwort hat? KI-Modelle werden mit allem gefüttert, was im Internet vorhanden ist, sie produzieren ungeheuer viel Müll, sogeannte „Slops“. Auch das Überwachungssystem Palantir, das die Polizei in Bayern, Hessen und NRW bereits einsetzt und mit dessen Hilfe die Paramilitärs von ICE in den USA Angst und Terror verbreiten, arbeitet mit KI.
Millionen von Menschen sehen sich ein Video über Tel Aviv an, das nach einem iranischen Angriff in Schutt und Asche liegt. Aufnahmen von einem US-Bombenangriff auf Teheran ersetzen die aktuellen Nachrichten über einen Angriff, der noch bevorsteht. Doch bei genauerem Hinsehen erkennt man seltsame Bildfehler und Artefakte. Das Gras unter der F-35 ist unheimlich grün und unberührt. Etwas stimmt nicht. All diese Bilder sind KI-generiert und wirken auf den ersten Blick realistisch. Sie werden weit über die Sozialen Medien hinaus verbreitet. Wir leben im Zeitalter der KI-Slopaganda (Slop = Brei, Schlick, Schund).
Politische Führer spielen eine zentrale Rolle bei der Verbreitung von Slops. Der offizielle X-Account des Obersten Führers Ayatollah Ali Khamenei etwa zeigte ein KI-Bild von Raketenstarts unter Koranversen, das über sechs Millionen Mal angesehen wurde. Präsident Trump teilt regelmäßig KI-generierte Darstellungen von sich selbst als Rockstar, König und goldener Statue inmitten seines Resorts in Gaza.
In gewisser Weise sind diese Bilder »klassische Slopaganda«: hyperfotorealistisch, mit Game-Engine-Beleuchtung und geometrisch unmöglichen Perspektiven. Es handelt sich um einen rekonstruierten KI-Mix aus Stockfotos, Werbespots, Reddit und Pinterest.
Der 2007 verstorbene französische Philosoph und Soziologe Jean Baudrillard sagte einmal, die Simulation steht an erster Stelle und ersetzt letztendlich das Reale. Das scheint kaum umstritten zu sein. KI-Brei ist voller revisionistischer Realitäten und zieht die Aufmerksamkeit der Massen auf sich, bevor die echten Bomben fallen. Doch KI-Brei ist nicht an der Reihenfolge der Ereignisse interessiert oder daran, wie die Realität auszusehen. Er ist nicht das Territorium: Er erstickt es nur in synthetischem Schleim. Er überschwemmt die Zone mit KI-Scheiße.
Abfall & Treibstoff
KI-Slop ist mehr als ein technisches Artefakt oder eine kulturelle Kuriosität. Es ist das verbraucherorientierte Produkt des rechnergestützten Kapitalismus – entstanden durch die Umwandlung der menschlichen Kultur in eine ständige Datenreserve. Jedes unheimliche Bild, jeder synthetische Influencer und jeder KI-generierte Artikel ist Teil einer viel umfassenderen Transformation. Slop ist Abfall, aber auch Treibstoff.
Das beginnt damit, dass KI-Modelle trainiert werden, indem sie Milliarden von Bildern, Videos und Texten aus dem Internet verschlingen, wobei neuronale Netze mit Billionen von Parametern gefüttert werden, die lernen, Muster, Beziehungen und Strukturen in den Daten zu identifizieren. Um all dies zu verdauen, sind unglaubliche Mengen an Energie erforderlich. Synthetische Ergebnisse werden dann ausgeschieden und verbreiten sich rasch im Internet. Dann werden sie erneut aufgenommen, und der Kreislauf geht weiter.
Dies ist die neueste Entwicklung in einer langen Entwicklung der industriellen Medien, die seit Jahrzehnten von Theoretikern und Künstlern analysiert wird. Denken wir an die »technischen Bilder« des tschechisch-brasilianischen Medienphilosophen Vilém Flusser aus den 80er Jahren oder an die »operationalen Bilder« des deutschen Filmemachers Harun Farocki aus den frühen 2000er Jahren.
Jetzt haben wir Bilder, die durch den Konsum von Milliarden anderer Bilder entstehen, die von KI-Modellen über Medien und eine gigantische Infrastruktur, die Energie und Wasser verbraucht und CO2 sowie andere Schadstoffe ausscheidet, zerlegt und absorbiert werden.
Die weit verbreitete Nutzung generativer Schnittstellen wie ChatGPT, Claude und Gemini verdrängt webbasierte Informationsquellen. Warum sollte man noch eine Nachrichtenseite oder Wikipedia besuchen, wenn Claude einem alles zusammenfassen kann?
Dies lenkt die Nutzer:innen vom bisherigen Web weg und hin zu KI-vermittelten Informationsplattformen. Die mühsame Auswahl zwischen verschiedenen Websites wird durch die Bequemlichkeit einer einzigen, synthetisierten Antwort ersetzt.
Dieser Wandel kannibalisiert die Märkte, die die Produktion von Online-Inhalten aufrechterhalten. Menschliche Content-Ersteller sehen sich mit schwindenden Leserzahlen, geringerer Interaktion und sinkenden Werbeeinnahmen konfrontiert. Die Beziehungen zwischen Suchmaschinen, Werbetreibenden und Content-Wirtschaft werden zerstört. An ihre Stelle tritt eine Flutwelle. Domänen mit Fake News, Bildern von psychologischen Operationen und synthetischen Influencern, die darauf ausgelegt sind, Wutklicks zu generieren, werden sich vermehren und die bezahlten Sponsorenverträge an sich reißen, die einst den Menschen gehörten.
Selbstzerstörung ist vorprogrammiert
All dies stellt auch für KI-Unternehmen ein Problem dar. Mehrere Studien haben gezeigt, dass KI-Systeme degenerieren, wenn sie mit zu vielen ihrer eigenen Ergebnisse gefüttert werden – ein Phänomen, das Forscher als MAD (Model Autophagy Disease) bezeichnen.
Mit anderen Worten: KI wird sich selbst auffressen und dann allmählich in Unsinn und Lärm versinken. Das geschieht zunächst langsam, dann auf einmal. Die Forscher vergleichen es mit Rinderwahnsinn.
Die Branche sucht verzweifelt nach Lösungen: Sie entwickelt hochwertigere synthetische Daten für ihre digitalen Fütterungsvorgänge und ergänzt Trainingsdatensätze mit Inhalten von unterbezahlten menschlichen Arbeitskräften. Für den Menschen entsteht eine neue Slop Economy. Der gesamte Kreislauf droht, die Belastungsgrenzen von Stromnetzen, Bergwerken und Grundwasserspiegeln zu überschreiten.
Slop Economy
Es gibt einen Apple-Werbespot für iPads, der als unbeabsichtigt perfekte Metapher für die Aufnahme von KI-Inhalten dient: Eine riesige hydraulische Presse zermahlt langsam Musikinstrumente, Videospiele, Bücher, Farbdosen, eine Schreibmaschine und eine Kamera.
Jedes Objekt bricht unter dem unerbittlichen Druck zusammen. Der Werbespot zeigt die absolute Unausweichlichkeit des Prozesses: Kein Instrument und kein Kunstwerk kann das Gewicht aushalten. Jahrhunderte von Kultur und Kreativität werden zu einer feinen Paste für das KI-Training zermahlen. Das ist das KI-Maul in Aktion: die massenhafte Ernte von Bildern, Wörtern, Videos, die alle in den latenten Raum neuronaler Netze komprimiert werden. Alles, was wir geschaffen haben oder schaffen werden, ist, sobald es digitalisiert ist, Material für die Futterplätze.
Die Datenmenge, die zum Trainieren generativer KI-Systeme benötigt wird, nähert sich rasch den Grenzen dessen, was im offenen Web vorhanden ist. Einige Forscher sagen, dass dies bis 2026 der Fall sein wird.
Elon Musk meint, wir haben den »Datenhöhepunkt« bereits erreicht. Die KI-Branche hütet die genauen Details, aber Berichten zufolge wurden frühere GPT-3-Modelle mit mehr als 45 Terabyte komprimierten Internetinhalten trainiert, mindestens 3,2 Billionen Wörtern, die aus Websites, Büchern, Artikeln und Social-Media-Beiträgen von Millionen menschlicher Autoren zusammengetragen wurden. Die neuesten öffentlichen Datensätze wie Public Domain 12M enthalten mehr als 12,4 Milliarden Bilder mit Textbeschriftungen.
KI-Unternehmen erwerben mittlerweile ganze Social-Media-Plattformen und handeln Exklusivverträge mit Bibliotheken und Verlagen akademischer Zeitschriften aus, aber das reicht möglicherweise nicht aus, um den wachsenden Appetit der KI-Modelle zu stillen.
Gigantischer Stromverbrauch
Die Verarbeitung all dieser Medien erfordert die Energie eines Industrielandes. Schätzungen darüber, wie viel Strom für generative KI benötigt wird, werden mittlerweile routinemäßig in Einheiten eines Nationalstaats ausgedrückt. Die Internationale Energieagentur sagt, dass KI bis 2030 genauso viel Strom verbrauchen wird wie Japan heute. Bloomberg prognostiziert, dass KI bis zum gleichen Zeitpunkt so viel Strom verbrauchen wird wie Indien.
Der Bedarf der KI wächst dabei schneller als der jedes einzelnen Landes. Jede generative KI-Abfrage verbraucht mindestens zehnmal mehr Strom als herkömmliche Websuchen. Die Text-zu-Bild-Generierung ist noch energieintensiver, während die Videogenerierung nochmal exponentiell mehr Energie verbraucht.
Dieser steigende industrielle Bedarf folgt der rekursiven Logik der KI-Entwicklung selbst: Größere Modelle benötigen mehr Daten, was noch größere Modelle ermöglicht, die Ergebnisse mit höherer Auflösung liefern, mehr Rechenleistung erfordern, mehr Energie verbrauchen – und so weiter.
Betrachten wir das neueste hyperskalige KI-Rechenzentrum, das in Abilene, Texas, für OpenAI gebaut wird – Codename »Project Ludicrous«. Nach seiner Fertigstellung wird es eine Fläche von mehr als siebzehn Fußballfeldern umfassen. Die xAI-Anlage von Elon Musk in South Memphis mit dem Namen Colossus, die 2024 gebaut wurde, hat bereits die Grenze des lokalen Stromnetzes erreicht. Das Unternehmen installierte Methangasgeneratoren, die giftiges Stickstoffdioxid und Formaldehyd in die Luft abgeben. Die überwiegend schwarze Bevölkerung, die in dieser Region lebt, leidet bereits schwer unter Asthma und Atemwegserkrankungen.
Und das ist erst der Anfang. Präsident Trumps Stargate-Projekt plant mindestens zwanzig riesige Rechenzentren in den gesamten USA. Die Branche nennt sie KI-Fabriken.
Dann ist da noch das Wasser. Wie Verdauungssäfte benötigen Hyperscale-Rechenzentren kontinuierliche Kühlsysteme, die täglich Millionen Liter Wasser verbrauchen. Da weltweit Milliarden von Menschen generative KI nutzen, werden Grundwasservorkommen zur Kühlung von KI-Chips verdunstet. Dies bedeutet eine enorme atmosphärische Umverteilung der hydrologischen Ressourcen, die den Ökosystemen entzogen und als Wasserdampf verteilt werden.
Raubbau an Ressourcen
Schließlich gibt es einen neuen »Superzyklus« kritischer Mineralien, der durch die boomende KI-Infrastruktur angetrieben wird und die Umweltschäden beschleunigt.
Seltene Erden, die für Grafikprozessoren unerlässlich sind und überwiegend in China abgebaut und verarbeitet werden, hinterlassen Seen radioaktiver Abfälle. Das Lithium für Backup-Systeme von Rechenzentren stammt aus Salzseen in Chile und Bolivien, was die lokalen Wassersysteme stört und die Landrechte der indigenen Bevölkerung bedroht. Das Kobalt für Batterien stammt aus Bergbaubetrieben in der Demokratischen Republik Kongo, die Kinderarbeit ausbeuten und mit minimaler Umweltüberwachung arbeiten.
Die Expansion des Rechenkapitals reproduziert die Zentrum-Peripherie-Dynamik früherer Imperien – Ausbeutung des Globalen Südens zur Bereicherung des Nordens –, während Milliarden von Jahren geologischer Zeit ausgegraben werden, um die Geschwindigkeit algorithmischer Bequemlichkeit um Millisekunden zu erhöhen. Und nachdem sich das industrielle Ungetüm auf dieser planetarischen Ebene ernährt hat, setzt es eine Flut von Abwässern frei.
Inhalt? Reichweite!
Schwimmen wir mit oder gegen den Strom der synthetischen Scheiße? Wenn unsere Ökosysteme – einschließlich der Informationsumgebung – dezimiert werden, was wird dann aus den Influencern? Sie verwandeln sich in Koprophagen: digitale Mistfresser, die Abfall konsumieren und monetarisieren.
Diese Metamorphose ist bereits im Gang. KI-gestützte Persönlichkeiten wie Lil Miquela erzielen Engagement-Raten, die weit über denen menschlicher Influencer liegen. Ihre Schöpfer testen systematisch die visuelle Ästhetik, Persönlichkeitsmerkmale und Inhaltsformen, um die Verweildauer zu maximieren. Diese Charaktere sind zunehmend nicht mehr von lebenden Menschen zu unterscheiden, während sie gleichzeitig ohne Rücksicht auf die Reaktion des Publikums und die kommerzielle Wirksamkeit optimiert werden.
Content-Erstellungsteams setzen KI-Tools ein, um Hunderte potenzieller Beiträge, Bilder und Videos zu generieren, und verwenden dann Engagement-Analysen, um die fesselndsten Kombinationen zu identifizieren. Instagram-Konten widmen sich KI-generierten »Rage-Bait«-Influencern, die darauf ausgelegt sind zu provozieren, zu beleidigen und Empörung zu ernten. Diese synthetischen Persönlichkeiten entwickeln sich auf der Grundlage von Leistungsdaten kontinuierlich weiter, wobei erfolglose Eigenschaften eliminiert und erfolgreiche Merkmale verstärkt werden, bevor sie in neuen Konten zum Einsatz kommen.
Diese Industrialisierung viraler Inhalte ist eine etablierte Praxis im Plattformkapitalismus. Instagram gibt nicht bekannt, wieviel es den Erstellern zahlt, sobald sich ihre Inhalte weit verbreitet haben, aber jüngsten Berichten zufolge sind es etwa 120 Dollar pro Million Aufrufe.
Das System erweist sich als so wahllos, dass KI-generierte Bilder den Urhebern nun Hunderte von Dollar pro viralem Hit einbringen. Der von Meta eingerichtete 2-Milliarden-Dollar-Fonds für Urheber gerät damit zur unbeabsichtigten Subvention für synthetische Inhalte.
Die Plattform hat die perfekte wirtschaftliche Anreizstruktur für Schund geschaffen: Sie belohnt jeden, der die Aufmerksamkeit der Menschen am effizientesten auf sich ziehen kann, egal ob es sich um ASMR-Videos zum Obstschneiden, auf Trampolinen hüpfende Hasen oder Kriegspropaganda handelt. Meta nennt dies »Unterstützung von Kreativen«. Da aber immer mehr Menschen generative KI monetarisieren, fördert das Unternehmen damit Schundfabriken.
Die globale Geografie der Produktion synthetischer Inhalte offenbart die internationale Arbeitsteilung, die diesen neuen wirtschaftlichen Beziehungen zugrunde liegt. Content-Farmen in Regionen mit niedrigeren Arbeitskosten setzen KI-Tools ein, um Tausende von synthetischen Social-Media-Beiträgen, Nachrichtenartikeln und Produktbewertungen zu generieren, die auf höherwertige Werbemärkte in reichen Ländern abzielen. Es handelt sich um eine gut geölte Form der synthetischen Gewinnmitnahme: die Erielung von Werbeeinnahmen aus entwickelten Volkswirtschaften durch die Massenproduktion von KI-Schund in Regionen mit niedrigem Einkommen.
Wird die KI-Schundproduktion letztendlich den Boden der Online-Räume erschöpfen? Werden die Menschen vor dem Schund fliehen, ihn tolerieren oder sogar begrüßen? Werden wir den KI-Schund letztendlich lieben lernen?
Der Vereinahmung widersetzen
KI-Slop ist keine Anomalie, sondern ein unvermeidliches Merkmal der Funktionsweise generativer Medien. Die derzeitigen Regelungen sind jedoch sowohl systembedingt als auch von Natur aus instabil. Die Kluft zwischen dem Menschen und der KI birgt die Gefahr vielfältiger Formen des Scheiterns: Modellkollaps, ökologischer Kollaps, kognitiver Kollaps. Der derzeitige Ansatz in bezug auf KI kann nicht unbegrenzt aufrechterhalten werden. Die Frage ist nicht, ob sich die derzeitigen KI-Slop-Ökonomien selbst zerstören werden, sondern wann.
Diese Instabilität schafft Raum für das, was wir als »postsynthetische« kulturelle Organisation bezeichnen könnten: Formen der Kultur, die nach einer anderen Logik funktionieren, sei es aus Absicht oder aus Notwendigkeit. Solche Alternativen würden eine grundlegende Transformation der bestehenden technischen und wirtschaftlichen Strukturen erfordern – alternative Energiesysteme, kooperative Eigentumsmodelle und kulturelle Protokolle, die sich der algorithmischen Vereinnahmung widersetzen. Keine nostalgische Rückkehr zu vordigitalen Kulturformen, sondern Praktiken, die unserer ökologischen und sozialen Situation angemessen sind.
Bleibt die Frage, ob wir den Niedergang akzeptieren oder das Verlangen nach etwas völlig anderem kultivieren: nach kulturellen Formen, die über die synthetische Reproduktion hinausgehen und eher auf Blüte als auf Ausbeutung ausgerichtet sind, eher auf ökologische Regeneration als auf einen hypermetabolischen Zustand der Erschöpfung und des Zusammenbruchs.
Kate Crawford ist eine australische Publizistin und Wissenschaftlerin. Sie war leitende Wissenschaftlerin bei Microsoft Research. Seit 2013 arbeitet sie am Data & Society Research Institute in New York.
Crawford forscht zu den Themen gesellschaftlicher Wandel und Medientechnologien, speziell zum Schnittpunkt zwischen Mensch, mobilen Geräten und Sozialen Netzwerken.
Kommentar zu diesem Artikel hinterlassen
Spenden
Die SoZ steht online kostenlos zur Verfügung. Dahinter stehen dennoch Arbeit und Kosten. Wir bitten daher vor allem unsere regelmäßigen Leserinnen und Leser um eine Spende auf das Konto: Verein für solidarische Perspektiven, Postbank Köln, IBAN: DE07 3701 0050 0006 0395 04, BIC: PBNKDEFF
Schnupperausgabe
Ich möchte die SoZ mal in der Hand halten und bestelle eine kostenlose Probeausgabe oder ein Probeabo.
Kommentare als RSS Feed abonnieren