NEXUS Magazin: https://www.nexus-magazin.de/artikel/lesen/die-neuen-wahrheitsministerien-wikipedia-kuenstliche-intelligenz-und-digitale-propaganda
Erinnern Sie sich noch, wie Sie Ihren ersten Rechner angeschmissen oder die erste E-Mail versendet haben? 30 Jahre später leben wir im digitalen Zeitalter, und die Konzerne, die mit der Technikrevolution groß geworden sind, basteln an einer Welt, in der ein Großteil unseres Lebens von Maschinen und Algorithmen bestimmt wird.
Das gilt auch für die Auswahl von Nachrichten und die Frage, welche Informationen es wert sind, auf die Welt losgelassen zu werden. Ein Blick hinter die Kulissen der Medienkonzerne zeigt: Auch hier ist schon alles vernetzt. Das an sich wäre ja nicht verwerflich, würde sich Big Tech nicht als Hüter der Wahrheit aufspielen. Ein warnender Entflechtungsversuch.
Zu sagen, wir würden in orwellschen Zeiten leben, gilt inzwischen als Klischee – vor allem wohl deshalb, weil das Bild so treffend ist. Georg Orwells Konzept eines Wahrheitsministeriums beispielsweise, das sich in Teilen auf seine beruflichen Erfahrungen bei der BBC stützte, hat sich mehr als bewährt.1 Vor vielen Jahrzehnten war Amerikas Hüter der Wahrheit ein Medienmonopol mit liberaler (aber nicht linker) Ausrichtung.2,3
Mit dem Aufstieg von Rupert Murdoch und Fox kam ein Konkurrent aus dem rechten Spektrum ins Spiel, wodurch das entstand, was in der Geschäftswelt als Produktdifferenzierung bezeichnet wird. Im Automobilbereich wäre das so, als würden zwei Anbieter Produkte mit minimalen Unterschieden herstellen und den Verbrauchern so die Illusion geben, eine Wahlmöglichkeit zu haben (Psychologen sprechen von bounded choice ,„eingeschränkter Auswahl“).4,5
Wenn es um die Medien geht, bleibt den Verbrauchern die „Wahl“ zwischen zwei Perspektiven, die beide hinter dem Amerika der Konzerne stehen. Der Rolling-Stone-Reporter Matt Taibbi prägte den Ausdruck „Hate Inc.“: eine Rechte, die Liberale hasst, und Liberale, die die Rechten hassen.6 Beide verfolgen jedoch im Großen und Ganzen die gleichen wirtschaftlichen und imperialistischen Ziele.
Aber hat sich das nicht alles mit dem Internet verändert? Haben wir jetzt nicht eine viel größere Auswahl? Bis zu einem gewissen Grad, ja. Doch wie der Name schon sagt, wurde mit der Erfindung des Internets ein Netz geschaffen, in dem die Fäden scheinbar unverbundener Medien häufig an denselben Quellen zusammenlaufen und arglose Nutzer in das ewig gleiche Paradigma verstricken. Die zehn beliebtesten Nachrichtenwebsites weltweit sind die der folgenden Medien bzw. Medienunternehmen: New York Times, Washington Post, Wall Street Journal, Game Informer, Financial Times, The Athletic, Guardian, Nikkei, Economist und Caixin.7 Diese Liste lässt kaum einen Bruch mit dem neoliberalen Status quo erkennen.
Überlegen Sie einmal, wie viele „alternative“ Websites in Wirklichkeit mit den Mainstream-Medienkonzernen verbunden sind. The Daily Beast, gegründet von Lady Evans CBE (Tina Brown), Redakteurin bei der Vanity Fair und dem New Yorker, ist im Besitz der IAC/InterActiveCorp, zu deren mehr als 150 Marken auch CollegeHumor.com, Daily Burn und Vimeo gehören.8 Die Huffington Post wurde von Republikanern als „linke“ Alternative zum Drudge Report gegründet, bevor sie 2011 in den Besitz von AOL überging – 2015 wurde AOL dann über die Oath Inc. von Verizon übernommen, woraufhin die Huffington Post an BuzzFeed verkauft wurde.9 Politico wurde von zwei ehemaligen Angestellten der Washington Post aus der Taufe gehoben, und einer der Mitarbeiter des Politico Magazine ist der ehemalige CIA-Agent Alex Finley.10
Slate war ursprünglich ein Ableger von Microsofts MSN. Die Gründer von BuzzFeed, Jonah Peretti und John S. Johnson, warben Ben Smith von Politico ab und finanzierten ihr Unternehmen mit dem Geld von Kenneth Lerer von der Huffington Post, an die BuzzFeed, wie bereits erwähnt, später überging. Vice Media wird zum Teil vom kanadischen Steuerzahler finanziert und hat Videoproduktionsverträge mit HBO, Intel, YouTube und Viacom abgeschlossen.11,12
Und wie ist die Wikipedia in dieses Netz eingebunden?
Die englische Wikipedia verzeichnet täglich über 200 Millionen Aufrufe.13 Woher kommt der ganze Datenverkehr? Dazu müssen wir uns mit Google und dessen Dachgesellschaft Alphabet beschäftigen, die mit 3,8 Millionen Besuchen pro Minute einen Anteil von 90 Prozent am Suchmaschinenmarkt haben.14 Im Jahr 2016 flossen 85 Cent von jedem Dollar im Marketingbereich an Facebook und Google bzw. Alphabet. Diese besaß in den USA 83 Prozent Marktanteile an den mobilen Suchmaschinen und fast 63 Prozent an den mobilen Betriebssystemen. 55 Prozent des Audio- und Video-Streaming-Contents werden von Googles YouTube bereitgestellt, jedoch landen nur elf Prozent der Einnahmen bei den Urhebern der Inhalte.15
Die Forscher Seth Lewis und Efrat Nechushtai führten eine Studie durch, im Zuge derer sie feststellten, dass
„die [Google-]Suchergebnisse stark von den etablierten Nachrichtenorganisationen dominiert werden“. Sie merkten an, dass „von allen Google-News-Empfehlungen, die [sie] zusammentrugen, ganze 49 Prozent […] auf nur fünf nationale Nachrichtenorganisationen zurückzuführen waren: die New York Times, CNN, Politico, die Washington Post und die HuffPost“.16
Im Jahr 2017 setzte Google, das gemeinsam mit YouTube zu Alphabet gehört, über sein Project Owl Unterdrückungsalgorithmen („Fred“)17 ein, um unter dem Vorwand, Klickfang, Spam und „Fake News“ zu unterbinden, die Aufmerksamkeit der User von linken Medien wegzulenken. Zu den betroffenen Websites gehörten AlterNet.org, CounterPunch.org, Truthout.org und andere Informationsquellen, die sich für die Arbeiterklasse und gegen den Krieg aussprechen.18,19
Aber auch politisch rechts orientierte Medien erfuhren derartige Unterdrückung. Was dem einen als Randmeinung erscheinen mag, ist für den anderen das Evangelium. Für wen muss Google sich halten, dass das Unternehmen den eigenen Mitarbeitern das Recht einräumt zu entscheiden, was als unwichtig gilt und damit keine Sichtbarkeit verdient? Jedenfalls bewertet das Google-Team Websites anhand eines Rankings, das „die Kanäle anhand ihrer Qualität unmittelbar einordnet“. Rupert Murdochs Wall Street Journal (WSJ) rangiert mit einer Punktzahl von 8,53 (Qualität) an oberster Stelle, während der Alex-Jones-Kanal mit einer Punktzahl von −1,56 (Trash) das Schlusslicht bildet. Ein ehrliches Rankingsystem würde Fakten und Unwahrheiten beider Medienorganisationen aufzeigen. Die sieben am höchsten bewerteten Websites sind die des WSJ sowie von ABC, PBS, CBS, Associated Press, CNN und MSNBC, die jeweils zwischen 5,37 und 8,07 Punkten erhielten. Murdochs Fox landete bei 5,20 Punkten, direkt gefolgt von RT America und Breitbart.20
Zu den Termini, die von Google als „grenzwertige Suchanfragen“ gekennzeichnet werden, gehören etwa „Wer hat JFK erschossen?“, „Beweise, dass die Erde flach ist“, „Verursachen Impfstoffe Autismus?“ oder „Gibt es den Klimawandel wirklich?“ Mit diesem „Strafraum“ für die Verbreitung und Produktion angeblich hasserfüllter Inhalte behandelt Google seine Nutzer wie kleine Kinder. Zu den sogenannten „Themen mit Bezug zu Verschwörungen und Fake News“ gehört auch „Vakzine: die Wahrheit hinter Impfstoffen“. Passt es da nicht ins Bild, dass Google selbst ein finanzielles Interesse an den Pharmariesen hegt?21 Im Jahr 2016 schloss sich die Muttergesellschaft Alphabet mit dem britischen Pharmakonzern GlaxoSmithKline zusammen, um Verily zu gründen, ein neues Unternehmen für Biowissenschaften.22
Und hier schließt sich der Kreis zur Wikipedia, denn die von Google geförderte Enzyklopädie normalisiert Interessenskonflikte, indem sie den Eindruck eines unvoreingenommenen Lexikons erweckt, während sie zugleich über die Wikimedia Foundation Förderungen von Pharmariesen wie Bristol-Myers Squibb und Merck erhält, Rüstungsunternehmen (BAE und Boeing), Ölkonzernen (BP, Exxon) und Banken (Goldman Sachs, J. P. Morgan).23
Wikipedia hat beispielsweise die rechtsgerichtete Daily Mail bereits als unzuverlässige Quelle aussortiert. Als Donald Trump sich Ende 2020 zur Wiederwahl stellte, gingen die Technologieriesen mit den Rechten weniger subtil um, als sich nur der üblichen Unterdrückungsalgorithmen und Rankingsysteme zu bedienen. Sie löschten zahlreiche ihrer Accounts – nicht selten auf Druck der US-Geheimdienste, die in der Trump-Bewegung ein Einmischen Russlands in die US-Wahlen vermuteten.24 Dieses Vorgehen konnte dem „Hass“ natürlich nicht wie geplant entgegenwirken, denn viele Betroffene wechselten einfach von Anbietern wie Twitter und YouTube zu alternativen Plattformen wie Telegram und Bitchute.25,26 Schon im Vorfeld dieser Entwicklungen gab es Beschwerden über YouTubes „großes Deplatforming“.
Im Jahr 2011 gehörten auch die Google-Mitbegründer Larry Page und Sergey Brin zu den Spendern der Wikimedia Foundation, der die Wikipedia gehört.27 Wenn man via Google nach einem bestimmten Schlagwort sucht, rangiert der Wikipedia-Eintrag in der Regel unter den ersten drei Ergebnissen, zusammen mit einem Artikel aus den Mainstreammedien und einer spezifischen Website, sofern eine solche existiert. Das ist eine einflussreiche Echokammer: Ein Techriese (Google) lenkt die Internetnutzer weg von Inhalten, die seine Programmierer für unzuträglich halten (Unterdrückung), und hin zu „anerkannten“ Websites (Ranking).
Der Wissenschaftler Lee und sein Team stellten fest, dass
„bei 95 Prozent aller Suchanfragen via Google Wikipedia-Artikel vorgeschlagen werden. Selbst qualitativ minderwertige Wikipedia-Seiten erhalten Millionen von Zugriffen, weil sie von der Popularität des Projekts profitieren.“28
Die englischsprachige Wikipedia wurde 2001 gegründet und hat inzwischen mehr als sechs Millionen Einträge bzw. „Artikel“, wie die Wikipedianer sie nennen.29 Etwa ein Drittel davon wurde angeblich von einem einzigen Mann geschrieben: Steven Pruitt. Pruitt arbeitet für die US-Bundesregierung (Zoll und Grenzschutz) und seine Eltern lernten sich im russischen Sprachinstitut des US-Verteidigungsministeriums auf der Lackland Air Force Base in San Antonio, Texas, kennen.30,31 Neben diesen Verbindungen zur Militärindustrie ist auch die zunehmende Abhängigkeit der Wikipedia von der Automatisierung erwähnenswert. Berichten zufolge wurde Pruitt in seiner Freizeit und mithilfe von AutoWikiBrowser, einem halbautonomen Tool, zur Nummer eins der Wikipedia-Editoren. Insgesamt 2,5 Millionen Einträge gehen auf seinen Namen (und den der von ihm verwendeten Software) zurück. Die Medienkonzerne lobten Pruitts Leistungen – das Time Magazine kürte ihn 2017 sogar zu einem der einflussreichsten Internetnutzer.32
In jenem Jahr zählte Wikipedia bereits fast 40 Millionen Einträge in 291 Sprachen. Jeden Tag werden etwa 860 neue Artikel hinzugefügt. Die Zahl der Bearbeitungen beläuft sich auf 817 Millionen, im Durchschnitt über 21 pro Seite. Im Juni 2015 besuchten innerhalb eines Monats über 374 Millionen Menschen Wikipedia. Würde man die Wikipedia-Einträge in Buchform veröffentlichen, so hätte dieses Werk im Jahr 2013 bereits 15.930 Bände umfasst.33
Die Wikimedia Foundation unterliegt US-amerikanischem Recht, wird von einem Stiftungsrat geleitet und sammelt Geld für die Server und Ausstattung der Wikipedia. Zwischen 2006 und 2009 wandelte sich die Stiftung von einer von Freiwilligen geleiteten Organisation zu einer globalen Institution mit zentralem Hauptsitz und bezahlten Mitarbeitern. Als die ersten Unterstützer sich aus Protest gegen die Zentralisierung der Stiftung zurückzogen, verglich die Professorin Johanna „José“ van Dijck die Wikimedia Foundation hinsichtlich ihrer Unternehmensstruktur und des angeblichen Auftrags, einen öffentlichen Dienst anzubieten, mit der US-amerikanischen Corporation for Public Broadcasting und dem Public Broadcasting Service (PBS). Bis 2006 war van Dijck zufolge „die Vorstellung eines großen Kollektivs von Mitwirkenden einfach nicht zutreffend“, da nur zwei Prozent der Autoren über 70 Prozent der Bearbeitungen vornahmen.34
Ab 2006 ging diese elitäre Nutzung zurück, aber die Hierarchien blieben bestehen. Ganz unten in der Hackordnung stehen gesperrte, nicht registrierte, neue und automatisch bestätigte Nutzer. Die Mittelschicht bilden die Administratoren, Bürokraten, Stewards und Bots. Interessanterweise stehen Bots auf van Dijcks Skala weiter oben als ein Großteil der mitwirkenden Menschen. Die Elite der Wikipedia bilden die Entwickler und Systemadministratoren.35
Im Jahr 2010 wurden bereits 16 Prozent aller Bearbeitungen von Bots vorgenommen.36 „Die aktivsten Wikipedianer sind in Wirklichkeit Bots“, schreibt van Dijck, die diese Machtkonzentration mit anderen Plattformen für nutzergenerierte Inhalte vergleicht. In besagtem Jahr bestand das Team der Systemadministratoren aus gerade einmal zehn Personen. Zehn von 15 Millionen Nutzern. Um Verwaltungsarbeit zu sparen, wurde ab 2002 eine Armee von Bots aufgestellt (457 im Jahr 2008), die automatische Änderungen vornimmt: 3RRBot, Rambot, SieBot, TxiKiBoT und viele mehr. Im Allgemeinen gibt es zwei Arten von Bots: Admin-Bots und Mitverfasser-Bots. Erstgenannte blockieren Spam, beheben Vandalismus, korrigieren Rechtschreibfehler, unterscheiden zwischen neuen und anonymen Nutzern, sperren Nutzer und suchen nach Urheberrechtsproblemen und Plagiaten. Die menschlichen Autoren werden von Tools wie Huggle, Lupin oder Twinkle benachrichtigt.37
Der erste selbst mitschreibende Bot war Derek Ramseys Rambot, der Inhalte aus öffentlichen Datenbanken zog und in Wikipedia einspeiste. Zwischen 2002 und 2010 erstellte Rambot 30.000 Artikel, für die er Daten unter anderem aus dem World Factbook der CIA bezog – ein weiteres Beispiel für die Verbindungen zwischen der Wikipedia und der Militärindustrie. Anders als firmeneigene Algorithmen wie EdgeRank (Facebook) und PageRank (Google) sind Wikipedias Lizenzen offen, aber neue Autoren werden nur aus taktischen Gründen zugelassen. Innerhalb dieser Ordnung gibt es eine technokratische Elite, die das System zur Verwaltung der unzähligen Nutzer entwickelt und betreibt. Das führte zu organisatorischen Kontrollen einschließlich der Verteilung verschiedener Berechtigungsstufen und der Ausweitung von Ausschluss- und Sperrverfahren. Infolge der wachsenden Hierarchie kam es zu immer mehr Beschwerden über Wikipedias schwerfällige Bürokratie, was den Autor Nicholas Carr dazu veranlasste, den angeblich egalitären Ausdruck kollektiver Intelligenz als „Mythos“ zu bezeichnen.38
„Meatbot“ ist eine in Computerfreakkreisen kursierende abwertende Bezeichnung für einen Menschen. Das Kürzel WP:MEATBOTS führt in der englischsprachigen Version der Wikipedia zu einem Unterabschnitt der Bot-Richtlinien, der ironischerweise von mindestens 38 Bots bearbeitet wurde. Diese Richtlinie verlangt von menschlichen Autoren, dass sie „bei von ihnen erstellten Änderungen Vorsicht walten lassen“ und die Qualität nicht zugunsten der Quantität vernachlässigen. Letztlich macht sie den menschlichen Nutzer für die Fehler des Bots verantwortlich. Die Bots, die von auch als „Pythons“ bekannten Wikipedianern programmiert werden, genießen in gewisser Hinsicht ihre eigene Anonymität. Die Pythons haben ein Tool zur Erstellung von Bots entwickelt, das als Pywikibot (Python Wikipediabot Framework) bekannt ist.
Ihre Bearbeitungen als eigenständige Benutzer in der MediaWiki-Software werden nicht angezeigt. Die Bots helfen dabei, das gesamte Sprachmaterial in ein Datenarchiv namens Wikidata zu übertragen. Wie bereits erwähnt, werden die Bots mit vielfältigen Aufgaben betraut – auch mit der Macht über menschliche Benutzer. R. Stuart Geiger gibt zu bedenken, ob es moralisch vertretbar ist, einen Bot in das Schiedsgericht der Wikipedia zu setzen, das sich mit Streitigkeiten bezüglich der Inhalte von Einträgen, Vandalismus und dem Ausschluss wiederholter Regelbrecher befasst.39
Aber nicht nur die Wikipedia verlässt sich darauf, dass ein Großteil der Arbeit von Bots verrichtet wird. Vor allem in der zweiten Hälfte des letzten Jahrzehnts begannen immer mehr soziale Medien, Zeitungen und Unternehmen, bei der Erstellung textbasierter Inhalte, der Datenanalyse und der Suche nach Anomalien auf Automatisierung zu setzen.
DBPedia wurde 2007 ins Leben gerufen und beschreibt sich selbst als ein von der Gemeinschaft finanziertes Projekt, das Inhalte aus „verschiedenen Wikimedia-Projekten“ übernimmt. Unter Verwendung des Linked-Open-Data-Prinzips erstellt es eine offene Wissenssammlung für alle Internetnutzer: eine Datenbank, die Informationen in einheitlicher Form zusammenträgt, um sie besser organisieren, durchsuchen und teilen zu können. Obwohl das Projekt nicht näher beschrieben wird, heißt es dort:
„Wir hoffen, dass diese Arbeit es einfacher macht, die riesige Menge an Informationen in den Wikimedia-Projekten auf neue, interessante Weise zu nutzen.“40
Seit 2011 arbeitet DBPedia mit dem Summer-of-Code-Programm von Google zusammen.41
Die Achse Google–Wikipedia reicht aber noch um einiges weiter. Die BBC-Software The Juicer etwa kennzeichnet automatisch Nachrichteninhalte und erstellt eine einzigartige Programmierschnittstelle, auf die von außen zugegriffen werden kann. Die Artikel werden dann in DBPedia verschlagwortet:
„Die Entitäten werden in vier Kategorien eingeteilt: Personen, Orte, Organisationen und Dinge (Letzteres umfasst alles, was nicht in die ersten drei Kategorien fällt).“
Die Software extrahiert das, was ihre Programmierer als „das Beste“ aus den Nachrichten und Informationen erachten. Aber was „das Beste“ ist, ist eine sehr subjektive Frage.
„Die ‚Konzeptentnahme‘ hängt von der aktuellen Version der Wikipedia ab, die der BBC-Juicer-Software zugrunde liegt (die derzeit einmal im Monat und anhand einer Reihe von Parametern angepasst und aktualisiert wird).“42
Auf der Suche nach aktuellen Nachrichten durchforstet Reuters täglich einen nicht genannten Prozentsatz von 700 Millionen Tweets, und entwickelte dazu den News Tracer, ein Tool zur automatischen Überprüfung des vermeintlichen Wahrheitsgehalts von Meldungen, um zu verhindern, dass menschliche Journalisten auf Fake News stoßen. So wurden beispielsweise Berichte über eine Schießerei in San Bernardino, Kalifornien, früher entdeckt als von allen anderen großen Nachrichtenorganisationen weltweit. Das offensichtliche Problem an dieser Methode ist wieder einmal, dass die Wahrheiten des einen die Fake News des anderen sind. Nehmen wir an, der Schusswechsel wäre in Wirklichkeit ein Angriff unter falscher Flagge. Rein theoretisch würde der Algorithmus, selbst wenn das der Wahrheit entspräche, entsprechende Hinweise als Fake News aussortieren und ignorieren. Reg Chua von der Abteilung für redaktionelle Abläufe, Daten und Innovation bei Reuters sagt, dass News Tracer im Jahr 2017 „bei der Aufdeckung von mehr als 50 wichtigen Nachrichten alle anderen Nachrichtenagenturen weltweit geschlagen hat“.43 Ein weiteres Problem ist der sogenannte Nachrichtenwert. So, wie Wikipedia keine Einträge zu Themen zulässt, die von den Autoren als „nicht beachtenswert“ eingestuft werden, ist Reuters’ News Tracer darauf programmiert, dass er die meisten Ereignisse ignoriert.44
Editor, die erstmals 2015 eingesetzte Software der New York Times, zerlegt Geschichten in ihre Bestandteile: Personen, Orte, Kontext und dergleichen. Vorher haben Menschen die Artikel mit anderen Beiträgen und Anzeigen verknüpft.
„Der erforderliche Arbeitsaufwand, um jeden wichtigen Satz zu markieren und zu kommentieren, ist untragbar.“
Editor ermöglicht die Massenverschlagwortung auf detailliertester Ebene, und für die Journalisten bleibt nicht mehr zu tun, als die Rechtschreibung zu überprüfen.45 Die Knowledge Map der Washington Post liefert den Lesern automatisch den Kontext für eine Reihe von Artikeln zu bestimmten Themen. Genau wie bei den Knowledge Panels von Google, die oft aus der Wikipedia stammen und den Nutzern Kontext bieten sollen, besteht bei der Knowledge Map die Gefahr, dass die Nutzer in einer Echokammer landen, in der sie lediglich Informationen aus einer bestimmten Perspektive erhalten. Sam Han, technischer Leiter für Datenwissenschaft bei The Post, sagt:
„Mit dieser Iteration sind wir in der Lage, Data-Mining-Methoden einzusetzen, um kontextbezogene Inhalte für unsere Leser zu identifizieren und aufzubereiten. Wir arbeiten auch an parallelen Anwendungen, um die Beschäftigung mit unseren Werbeinhalten im natürlichen Umfeld zu erhöhen.“46
Die Qualität der Lokalnachrichten leidet unter der Schließung unabhängiger Medienunternehmen sowie feindlicher Übernahmen durch in den Hauptstädten ansässige Konglomerate. Googles Antwort darauf ist die Digital News Initiative: ein 800.000 Dollar schweres Programm, in dem die Press Association gemeinsam mit Urbs Media halbautonome lokale Nachrichtengeneratoren entwickeln soll. Das Programm wurde „Reporters and Data and Robots“ getauft – eine mehr als sperrige Bezeichnung, nur um es mit dem Akronym RADAR abkürzen zu können. Im Rahmen dieses Projekts sollen 30.000 originäre Artikel pro Monat generiert werden.47 Ein ähnliches von Google finanziertes Projekt ist WikiTribune, ins Leben gerufen von Wikipedia-Mitbegründer Jimmy Wales, das Berichten zufolge gegen Klickfang vorgehen soll.48
Über den automatisierten Journalismus geraten wir schnell in den Bereich der Wissenskontrolle. Das SimSearchNet++ von Facebook sucht nach Bildmanipulationen wie unscharfen und herausgeschnittenen Bildteilen oder Screenshots, um auf vermeintliche Fake News hinzuweisen. Die Software ist mit einer optischen Zeichenerkennung gekoppelt, die falsche Bildtexte identifizieren soll. Um es den menschlichen Detektoren leichter zu machen, stellt die Software auch Collagen angeblicher Fehlinformationen zusammen. Im Jahr 2017 führte das AI Red Team die Deepfake Detection Challenge durch, in deren Verlauf nach Bildern gesucht wurde, die künstlich erstellt oder manipuliert und als echt ausgegeben wurden.492019 berichteteForbesüber die Verfeinerung der KI-Performance.
„Die Press Association zum Beispiel kann jetzt mithilfe von KI 30.000 lokale Nachrichten pro Monat produzieren […] KI-verfasste Inhalte haben sich von schablonenhafter Texterstellung hin zu kreativeren Schreibexperimenten wie Gedichten und Romanen entwickelt.“
Zu den sogenannten Generatoren für natürliche Sprache gehören Polly von Amazon, Text-to-Speech von Google, Heliograf von der Washington Post, Automated Insights von Wordsmith und Quill von Narrative Science, das Inhalte für Forbes, das E-Commerce-Unternehmen Groupon und das Finanzunternehmen USAA erstellt.50
In ihrem Eifer, das Denken der Nutzer zu kontrollieren, geht die Wikipedia manchmal zu weit und gerät in grundlegende Meinungsverschiedenheiten mit anderen Technologieunternehmen. NewsGuard ist eine Browsererweiterung, die Websites filtert, indem sie ihnen Farben zuweist: Grün für glaubhaft und Rot für nicht vertrauenswürdig. Wenig überraschend wurden die russischen Websites RT und Sputnik ursprünglich mit Rot bewertet. Auch die Daily Mail bekam einen roten Stempel aufgedrückt, nachdem Wikipedia beschlossen hatte, die britische Zeitung nicht länger als Quelle zu verwenden. Anfang 2019, nachdem ungenannte Führungskräfte dieser Medienunternehmen Gespräche mit den Gründern von NewsGuard geführt hatten, bewerteten diese die Mail, RT und Sputnik jedoch erneut und gaben ihnen grünes Licht.51 Wikipedia behält die Sperre allerdings bei.
Heute werden die vielen Grade an Autonomie, über die Menschen bisher im digitalen Bereich verfügten, durch eine immer ausgefeiltere exponentielle KI-Lernkurve verdrängt, die nach dem Zweiten Weltkrieg von der Militärindustrie geschaffen wurde – in Form von Satelliten, Computern und dem Internet. Im Laufe der Zeit fanden diese Erfindungen ihren Weg in den Privatbereich und wurden kommerzialisiert. Nach dem 11. September 2001 erweiterte man die Technologien und die staatlich finanzierte Forschung und Entwicklung durch Big Data und Programme wie Total Information Awareness (TIA). Heute ist Covid-19 der Auslöser für eine vierte industrielle Revolution, in der alles, einschließlich unserer biologischer Daten, hypervernetzt wird. Das Ziel der Big-Tech-Oligarchen ist es, unsere Gesundheit und sogar unsere Gedanken in Echtzeit überwachen und analysieren zu können.
Das Internet wird immer mehr zu einem System, das von künstlicher Intelligenz gesteuert wird – und die Algorithmen werden inzwischen aktiv genutzt, um Inhalte zu erstellen, Nutzer auf „anerkannte“ Seiten zu leiten und unerwünschte Informationen zu unterdrücken. Wenn wir die Entstehung und Normalisierung dieses Systems zulassen, werden Roboter wie NewsGuard das Wissen überwachen und bestimmte Informationen verbergen, während andere gefördert werden. Ganz in orwellscher Manier werden sie sogar originäre Inhalte erstellen, von denen die Verbraucher annehmen, sie wären menschlichen Ursprungs. So, wie die Biotechnologie mit modifizierten Impfstoffen und im Labor hergestellten Lebensmitteln die Grenzen zwischen dem Natürlichen und dem Synthetischen verwischt, verwischt die KI die Unterscheidung zwischen menschlichen und robotergestützten Online-Interaktionen.
In dieses Bild fügt sich Wikipedia durch seine Verbindung zu Google ein, das die Wikipedia-Artikel bei den Suchergebnissen ganz oben platziert. Weiterhin gibt es unappetitliche Beziehungen zu den Geheimdiensten, etwa in Form der Verwendung von Bots zum Abrufen von Daten aus dem World Factbook der CIA, sowie die elterlichen Verbindungen des wichtigsten Wikipedia-Autors zum US-Militär. Es handelt sich mitnichten um eine offene Enzyklopädie, die durch die Schwarmintelligenz stets ausgewogen bleibt. Sie ist ein Propagandawerkzeug des militärisch-industriellen Komplexes der USA sowie der US-Konzerne. Auch wenn die beteiligten Player konkurrierende und widersprüchliche Interessen verfolgen, so geht es doch im Großen und Ganzen darum, westliche Unternehmen und Staaten möglichst gemäßigt und die Gegenspieler Amerikas als den personifizierten Schrecken darzustellen. Wir sollten anfangen, die Wikipedia als das zu benennen, was sie ist; wir sollten die Oberfläche abkratzen und herausfinden, von wem das ganze System finanziert wird. Und vor allem sollten wir Wege finden, die Organisation wirklich zu demokratisieren.