Am Wochenende veröffentlichte Nieman Labs – bekannt für Berichterstattung über die Schnittstelle von Technologie und Journalismus – eine Fülle von zum Nachdenken anregenden Prognosen für den Journalismus im Jahr 2026.
Einige davon sorgten für Aufregung unter philippinischen Journalisten. Darunter war eine, die erklärte: "Sorry, der Erklärartikel ist tot", und eine andere, die den Aufstieg einer neuen Art von Journalismus vorhersagte – "einer, der nicht an Menschen gerichtet ist, sondern explizit auf maschinelle Compiler von Sprache und Information zugeschnitten ist."
Der Autor des ersten Meinungsbeitrags sagte im Wesentlichen, dass Erklärartikel und zeitlose Inhalte nicht mehr wichtig sind, weil Menschen sich für solche Dinge an KI wenden. Was funktioniert? Der Autor sagte, es seien die Grundlagen: hyperlokale Nachrichten, Eilmeldungen, Exklusivberichte, bemerkenswerte Erfahrungsberichte und investigativer Journalismus. "KI", so der Experte, "kann oder wird diese Informationen nicht zusammenfassen, weil sie zu aktuell oder zu einzigartig sind."
Der Autor, der über agentischen Journalismus sprach, merkte unterdessen an, dass "KI-Systeme keine Einstiege, Kernaussagen oder narrative Abläufe benötigen; sie brauchen benutzerrelevante, neuartige und maschinenlesbare Inhalte."
Die Rolle des agentischen Journalismus, so betonte er weiter, bestehe darin, die fünf Ws, Zitate, Kontext und Links zu Multimedia-Inhalten zu schreiben. All dies, so der Autor, werde dann am Punkt der Auslieferung zusammengestellt und angepasst, basierend auf dem, was dem Endbenutzer entspricht.
Beide Artikel beunruhigten mich. Wenn ich jetzt weiter darüber nachdenke, wird mir klar, dass es daran liegt, dass diese Beobachtungen, obwohl düster, bis zu einem gewissen Grad wahr sind.
Tatsächlich beunruhigte mich am meisten, dass diese Artikel nicht wirklich weit genug gingen. Und sie gingen nicht auf echte Lösungen für die existenziellen Herausforderungen ein, mit denen Redaktionen auf der ganzen Welt heute konfrontiert sind.
Hallo! Ich bin Gemma Mendoza, Leiterin der digitalen Dienste und leitende Forscherin für Desinformation und Plattformen bei Rappler.
Seit der Gründung von Rappler arbeite ich eng mit unseren Tech- und Datenteams an der Gestaltung und Entwicklung von Systemen und Plattformen, die Inhalte mithilfe von Daten im großen Maßstab produzieren. Diese Projekte reichen von den hochinteraktiven Seiten mit Wahlergebnissen, die wir seit 2013 jedes Wahljahr veröffentlicht haben, bis hin zu unserem GraphRAG-gestützten Chatbot Rai.
Ich leite auch unsere Forschung zu Desinformation und Hass auf Plattformen, die begann, als wir Änderungen in Facebooks Algorithmen im Vorfeld der Wahlen 2016 beobachteten.
Wie bereits erwähnt, stimme ich vielen Punkten zu, die die Autoren der NiemanLab-Artikel angesprochen haben. Zum Beispiel wird eine bessere semantische Architektur diesen großen Sprachmodellen tatsächlich helfen, Informationen besser darzustellen. Bei Rappler haben wir an unserem eigenen Wissensgraphen gearbeitet, bevor wir unseren Chatbot Rai entwickelten.
Aber ich möchte über die beunruhigenden Dinge sprechen, die wir bei der Arbeit mit KI-Systemen und deren Auswirkungen auf unsere eigene Plattform beobachtet haben.
Die Autorin des ersten von mir erwähnten Artikels irrt sich, wenn sie sagt, dass KI keine einzigartigen Informationen zusammenfassen kann. Das stimmt nicht.
Wenn man sie lässt, können KI-Systeme einzigartige Inhalte leicht zusammenfassen. Tatsächlich werden sie einen Weg finden, dies zu tun, selbst wenn man ihnen ausdrücklich sagt, dass sie es nicht tun sollen.
Wir wissen das mit Sicherheit, weil wir die KI-Bots beobachtet haben, die Inhalte von der Rappler-Website durchsuchen und sammeln. Wir wissen, dass diese Chatbots trotz der Einschränkungen, die unsere Website-Regeln für KI-Scraping auferlegen, weiterhin fröhlich Daten und Inhalte ausgeben, die das Team von Rappler mühsam gesammelt hat.
In einem Fall lieferte ChatGPT sofort detaillierte Informationen zu den Ergebnissen eines Berichts, der von unserem Campus-Journalisten-Stipendiaten über eine etablierte Dynastie in der Bicol-Region verfasst wurde, die rund eine Million Pesos für Social-Media-Anzeigen ausgab, um ihre Rivalen anzugreifen. Die für diese Geschichte verwendeten Informationen wurden über mehrere Monate hinweg mühsam von einem Studentenjournalisten zusammengetragen, der an unserem Stipendienprogramm teilnahm. (Siehe Screenshot unten.)
Jeder, der mit skalierbaren Systemen vertraut ist, wird Ihnen sagen, dass es bei der ersten Abfrage einer Datenbank durch eine Suchmaschine zu Verzögerungen bei der Lieferung kommt. Selbst Googles Suchmaschine braucht Zeit, um Informationen zu verarbeiten und zu indexieren. Basierend auf seiner sofortigen Antwort hatte ChatGPT den gesamten Artikel eindeutig in seiner eigenen Datenbank, noch bevor wir ihn abfragten.
Dies ist nicht der einzige einzigartige Inhalt, der von Rappler veröffentlicht wurde und den der Bot verarbeitet hat.
Als wir KI-Scraping-Beschränkungen zu unserer robots.txt-Datei hinzufügten, bestätigte ChatGPT, dass es sich dieser Beschränkungen bewusst war. Dennoch fand es einen Weg, unsere Inhalte zu nutzen, zunächst indem es behauptete, öffentlich verfügbare Quellen zu verwenden oder auf andere Websites zu verweisen, die unsere Inhalte ebenfalls – auch ohne Erlaubnis – gescrapt und synthetisiert hatten. (Siehe unten.)
Mein Punkt ist, dass wir bereits mit den Maschinen sprechen. Das tun wir schon eine Weile. Das ist nichts Neues.
Das ist es, was wir jedes Mal tun, wenn wir die Art und Weise ändern, wie wir unsere Geschichten und Social-Media-Bildunterschriften schreiben, um sie an Aktualisierungen der Algorithmen von Facebook und Google anzupassen. Wir machen es diesen Maschinen leichter, unsere Inhalte zu verstehen sowie das, was wir gesammelt, geschrieben und produziert haben, zu nutzen und zu monetarisieren.
Im Laufe der Jahre wurde uns gesagt, dass das Hinzufügen von Microtags zu Geschichten dazu beitragen würde, unsere Inhalte besser sichtbar zu machen. Und so haben wir es getan. Die Frage ist wirklich, ob Redaktionen und Journalisten weiterhin in diese Richtung gehen sollten.
Dies war einst eine symbiotische Beziehung. Die Optimierung für diese Plattformen belohnte Rappler früher mit erheblichem Traffic, was uns ermöglichte, zu skalieren.
Jetzt, mit KI, werden wir erneut gedrängt zu "optimieren" – diesmal für Antwortmaschinen.
Aber hier ist das Dilemma: Diese nun "agentischen" Systeme sind völlig andere Bestien. Sie sind informationshungrige Maschinen, die Alleswisser sein wollen.
Im Gegensatz zu hilfreichen Bibliothekaren extrahieren sie parasitär – ohne um Erlaubnis zu fragen – und saugen den Saft aus den Inhalten, von denen sie sich ernähren.
Und sie wollen nicht für diese Inhalte bezahlen. Glauben Sie mir, wir haben gefragt.
OpenAI hat eine Handvoll Verlage bezahlt. Keiner von ihnen (immer noch) stammt aus dem Globalen Süden.
Und das Problem ist, dass diese Chatbots ein Publikum bedienen, das zunehmend verhaltenstechnisch auf sofortige Befriedigung ausgerichtet wird. Dieses Publikum klickt nicht auf die Links, die so subtil in den KI-generierten Antworten platziert sind. Oft überprüfen sie nicht einmal, ob die Links echt sind.
Und die Zahlen zeigen es. Der Traffic, den selbst die größten Nachrichtenverlage von diesen parasitären Systemen erhalten, ist geradezu erbärmlich.
Schlimmer noch ist, dass Journalisten und die Nachrichtenbranche selbst dies nicht ernst genug nehmen. Einige große Mediennetzwerke nehmen, was sie können, indem sie Verträge mit den KI-Plattformen abschließen. Andere mit weniger Einfluss verblassen hilflos am Rande.
Wie ein weiterer Artikel aus der NiemanLab-Serie betonte: "Wir lernen nicht aus der Vergangenheit. Stattdessen nähern wir uns dieser neuen Ära der generativen KI ähnlich wie wir es mit Plattformen getan haben."
Wenn das so weitergeht, sagte der Autor, "garantieren wir den Tod der meisten verbleibenden Redaktionen."
Ich stimme zu.
Dies ist der Oppenheimer-Moment des Journalismus.
Die Frage ist: Sollten Journalisten und Redaktionen dieser Direktive erneut nachgeben, mit Haut und Haaren, wie wir es bei sozialen Medien getan haben?
Die Frage hier ist: Profitiert die Öffentlichkeit, der wir dienen, letztendlich davon, wenn wir diesen Weg der Unterwerfung unter die Plattformen weitergehen? Oder sollten wir – um ihrer und unserer willen – zurückschlagen und einen alternativen Weg einschlagen, einen, der nicht parasitär ist, sondern sich auf die Erreichung einer Symbiose konzentriert?
Wenn Journalismus nichts anderes ist als eine neue Informationssammelübung für Systeme, die diese Ernte in dieses Produkt namens "maßgeschneiderte Inhalte" umwandeln, was wird dann aus seiner Seele und seiner Mission?
Diese Fragen müssen nicht nur von uns Journalisten konfrontiert werden, sondern auch von Bürgern, die glauben, dass unabhängiger Journalismus als Kontrolle von Macht, Missbrauch und Korruption überleben muss.
Wir brauchen unterstützende Gemeinschaften, die mit uns auf dieser Reise zusammenarbeiten.
In den letzten Jahren hat Rappler eine mobile Plattform aufgebaut, die es Ihnen ermöglichen wird, direkt mit uns und dem Rest unserer Community auf eine Weise zu kommunizieren, die sicher und frei von Manipulation ist.
Wir haben auch begonnen, mit anderen Redaktionen auf den Philippinen und in der ASEAN-Region zusammenzuarbeiten, um einen Bottom-up-Ansatz für die Nachrichtenverbreitung aufzubauen – einen nachhaltigeren Weg, um Publikum und Einnahmen jenseits der launischen Algorithmen der Big-Tech-Unternehmen zu steigern.
Wenn Sie es noch nicht getan haben, laden Sie unsere mobilen Apps herunter und abonnieren Sie unsere Newsletter, damit Sie eine direkte Verbindung zu uns haben können.
Wenn Sie es noch nicht getan haben, erwägen Sie bitte, sich für Rappler Plus anzumelden, unser Premium-Mitgliedschaftsprogramm. Und bitte helfen Sie uns, andere zu überzeugen.
Wir brauchen Sie, um uns zu helfen, den Oppenheimer-Moment des Journalismus zu bewältigen.
Helfen Sie uns, diese Wege zur Beibehaltung der Handlungsfähigkeit zu ebnen, damit wir unsere Mission in dieser Welt der generativen KI aufrechterhalten können. – Rappler.com


