ChatGPT, MidJourney und Co. sind bereit, die Produktion von Inhalten zu verändern. Wir sprachen mit Nic Newman vom Reuters Institute über Automatisierung, virtuelle Reporter und die mit KI verbundenen Risiken. Nic Newman ist kein Unbekannter, wenn es darum geht, technologische Umwälzungen in Medienunternehmen voranzutreiben. Der digitale Stratege und ehemalige Journalist hat mehr als ein Jahrzehnt lang eine Schlüsselrolle bei der Gestaltung der Online-Dienste der BBC gespielt. Außerdem ist er seit 11 Jahren der Hauptautor des Digital News Report, der als die umfassendste jährliche Studie zum Nachrichtenkonsum weltweit gilt.
Der 62-Jährige ist derzeit Senior Research Associate am Reuters Institute for the Study of Journalism an der Universität Oxford. In diesem Interview teilt Newman seine Sichtweise darüber mit, was der Aufstieg generativer Produkte der künstlichen Intelligenz - Technologien, die Wörter, Bilder und andere Medien selbst erzeugen - für den Journalismus bedeutet.
Außerdem wird aufgezeigt, wie Medienunternehmen mit Hilfe von KI Vertrauen bei ihren Zuschauern aufbauen können und warum digitale Zwillinge die Personalisierung von Nachrichten verbessern können.
Newman: Zunächst einmal gibt es diese Technologie schon eine ganze Weile. Einige Journalisten haben hinter den Kulissen damit experimentiert, aber sie haben nicht wirklich das Licht der Welt erblickt. Was jetzt anders ist, ist, dass diese Tools plötzlich nützlich und frei verfügbar sind, so dass man beginnt, echte konkrete Anwendungsfälle für den Journalismus zu sehen. Das hat wirklich zu diesem Aha-Effekt geführt.
Die Technologie ist viel besser geworden, ein Beispiel dafür ist ChatGPT. Und es wird noch besser: GPT-4, die nächste Version der großen Sprachmodelle von OpenAI, soll bereits die neu gestaltete Suchmaschine Bing und den Webbrowser Edge von Microsoft unterstützen. Diese Schnittstellen ermöglichen es Chatbots, wirklich nützliche Anwendungen zu haben.
Ein Teil der "Existenzfrage" ist die Tatsache, dass die Automatisierung kommt. Viele Dinge, die Journalisten heutzutage tun, sind sich wiederholende Prozesse, die automatisiert werden können. Das bedeutet, dass wir neu darüber nachdenken müssen, was es bedeutet, Journalist zu sein.
Denn bis jetzt bestand ein Teil des Journalismus darin, Interviews wie dieses zu transkribieren. Aber jetzt, während wir hier sprechen, transkribiert Google mit künstlicher Intelligenz. Wir brauchen vielleicht noch neue Fähigkeiten, um herauszufinden, wo es Fehler machen wird, damit wir die Transkriptionen machen können, aber im Allgemeinen wird die KI das übernehmen.
Was die Möglichkeiten betrifft, so gibt es einfach zu viele. Eine sehr wichtige Anwendung ist die massive Anziehungskraft eines fragmentierten Publikums mit jungen und alten Menschen, die unterschiedliche Dinge wollen, und auch die Vielzahl der verfügbaren Formate. Künstliche Intelligenz bietet Journalisten die Möglichkeit, ihre Geschichten nicht nur zu erstellen, sondern sie auch viel kostengünstiger und effizienter zu gestalten als bisher. Außerdem kann sie Inhalte für verschiedene Menschen relevanter, persönlicher und ansprechender machen. Dieser Durchbruch in der künstlichen Intelligenz wird also wirklich das Versprechen von personalisierten Nachrichten einlösen, von dem wir seit 20 Jahren sprechen.
Journalisten und Roboter arbeiten Hand in Hand
Sie haben die KI-Fehlererkennung erwähnt. Eines der vielbeachteten frühen Experimente mit KI-Chatbots war das US-amerikanische Online-Medienportal CNET, wo die KI mindestens 75 Artikel schrieb, die alle möglichen Fehler enthielten, z. B. eine falsche Erklärung des Zinseszinses. Was können wir aus diesem und anderen bemerkenswerten Experimenten mit KI im Journalismus lernen?
Das CNET-Beispiel ist ein sehr gutes Beispiel, weil es die Möglichkeiten und die Richtung der Reise aufzeigt. Man kann KI Geschichten mit Kontext versehen oder - wie CNET es getan hat - Leitfäden zur Traffic-Generierung erstellen lassen. ChatGPT macht das im Prinzip unglaublich gut, aber das Problem ist, dass es auch plausibel schlecht aussehen kann, was im Fall von CNET der Fall war. Jetzt wird es besser werden. Der andere wichtige Punkt ist, dass Sie diese Modelle an zuverlässigen Inhalten trainieren können. ChatGPT wird derzeit an Tausenden von Quellen trainiert, von denen einige richtig, andere falsch sind.
Der Hype um ChatGPT ist groß, und das zu Recht, aber es handelt sich eher um ein Schaufenster. In Zukunft erwarte ich, dass OpenAI, Google und andere Akteure ihre Chatbots an Redaktionen lizenzieren werden, die für den Dienst bezahlen und die KI mit ihren eigenen Daten trainieren, um sicherzustellen, dass die Chatbots zuverlässig sind und ihre eigenen Bedürfnisse erfüllen.
Eines der Probleme, mit denen Journalisten derzeit konfrontiert sind, besteht darin, dass die Bereitstellung von Kontext oder Hintergrundinformationen für journalistische Beiträge immer noch viel Zeit und Mühe erfordert. In Zukunft wird das System dies für Sie übernehmen, vielleicht mit der Option, dass der Autor manuell umschreibt. Beispiele dafür sind Kontextboxen oder Zusammenfassungswerkzeuge wie Aufzählungszeichen am Anfang von Artikeln. Sie können schnell automatisch generiert und vom Autor überprüft werden.
Wie kann dies zu personalisierten Inhalten führen?
Künstliche Intelligenz kann Reportern dabei helfen, ihre Beiträge zu gestalten, indem sie herausfindet, wem sie Aufzählungspunkte oder Kontextboxen zeigen wollen. Menschen, die in der Regel auf Beiträge mit Kontextboxen klicken, werden mehr davon sehen und umgekehrt.
Letztlich geht es darum, Inhaltsblöcke mit größerem Umfang zu erstellen, um den unterschiedlichen Bedürfnissen des Publikums gerecht zu werden. KI-Bildgeneratoren wie OpenAI DALL-E, MidJourney und andere werden hier ebenfalls wertvolle Dienste leisten.
Welche innovativen Möglichkeiten gibt es, diese KI-Bildgeneratoren im Journalismus bereits zu nutzen und in Zukunft zu nutzen?
Ein gutes Beispiel ist das amerikanische Start-up-Unternehmen Semafor. Ihre Videoabteilung ist sehr experimentierfreudig und innovativ. Eines ihrer wirklich interessanten Projekte ist eine Serie namens "Witness", für die sie Opfer der russischen Invasion in der Ukraine interviewten. Anschließend wurden die Interviews ohne tatsächliches Filmmaterial illustriert, wobei Augenzeugenberichte als Textvorgaben für die KI-Bildermacher dienten und mit dem Stil des Künstlers kombiniert wurden. Das Ergebnis ist ein wirklich interessanter Film mit eher unscharfen und cartoonartigen Bildern.
Um bei der visuellen Seite der generativen KI zu bleiben: KI-generierte Illustrationen werden Sie dieses Jahr überall sehen. Wir sehen bereits, wie sie Bilder von Unsplash oder anderen Anbietern am Anfang von Artikeln ersetzen.
Wenn es um audiobezogene Anwendungen geht, ist die Umwandlung eines Textartikels in einen Audioartikel oder die Umwandlung eines Audioartikels in verschiedene Sprachen wirklich spannend. Ein Anwendungsfall ist das Klonen von Journalistenstimmen: Sie können KI mit der Stimme des Lieblingsmoderators Ihres Publikums trainieren und eine synthetische Stimme z. B. Textartikel lesen lassen. Ein digitaler Zwilling würde dies noch einen Schritt weiterführen: Ein echter Korrespondent hätte eine virtuelle Version, die Fragen über Chatbots oder virtuelle Assistenten wie Alexa beantworten kann. Und die wichtigste Arbeit, wie die Moderation von Fernsehnachrichten, wird weiterhin von echten Journalisten erledigt.
Ein weiterer großer Bereich ist die Nutzung von künstlicher Intelligenz zur Inspiration. Wenn ich ein Interview führen muss, aber keine Zeit habe, es zu recherchieren, kann ich meinen Lieblings-Chatbot um ein paar Tipps bitten, was interessant sein könnte. Genau wie Sie es (früher) mit einem menschlichen Rechercheassistenten getan haben. Eine weitere Aufgabe, die KI erstaunlich gut erledigen kann, ist die Arbeit von Sub-Editoren oder Copy-Editoren. Wenn Sie einen Styleguide einfügen, findet er im Grunde alle falschen Kommas, grammatikalischen Fehler und fehlerhafte Syntax. In Zukunft wird die Rolle des Redakteurs verschwinden und es wird mehr um die Verwaltung von Textaufforderungen gehen. Darüber hinaus wird die KI die Suchmaschinenoptimierung viel besser durchführen als jeder menschliche SEO-Experte.
Natürlich wirft die Automatisierung die Frage auf, wie man dies signalisiert und wie man es transparent macht. Außerdem kann jeder jemanden darauf trainieren, wie ein digitaler Zwilling zu klingen, der das nicht tut, und er kann Müll von sich geben.
Größere Rollen für KI und Menschen
Das bringt uns zu der Angst vor ungeprüften und manipulativen Inhalten, die das Internet überschwemmen. Welche Auswirkungen hat die riesige Menge an synthetischen Medien auf die Überprüfung von Fakten und auf das Vertrauen in den Journalismus?
Für Journalisten wird es noch schwieriger sein, die großen Fälschungen und alles andere aufzudecken. Natürlich kann künstliche Intelligenz auch zum Aufspüren von Fälschungen eingesetzt werden. Es ist also diese Art von Kampf, bei dem künstliche Intelligenz eingesetzt wird, um Junk-Inhalte zu erstellen und zu erkennen. Ich glaube, dass die Erkennung von Fälschungen im journalistischen Mix in den Redaktionen und Nachrichtenagenturen viel wichtiger werden wird. Es muss mehr Geld in diesen Bereich fließen, und er wird durch KI-Tools, die den Faktenprüfern bei ihrer Arbeit helfen, viel stärker unterstützt werden.
Zweitens haben die Plattformen meiner Meinung nach ein noch größeres Problem. Sie müssen sich durchbeißen und zuverlässigere Quellen identifizieren und fördern, was eine viel bessere Erkennung und Reduzierung von Unwahrheiten usw. mit ihren Algorithmen erfordert, sowie mehr Personal und Ressourcen für die Erkennung bereitstellen.
Drittens müssen sich Nachrichtenorganisationen mehr auf den Aufbau persönlicher Beziehungen konzentrieren. Ein Teil davon besteht darin, Ihre Inhalte mit Hilfe von KI relevanter zu machen, aber ein großer Teil davon besteht darin, den Nutzern zu helfen, eine tiefere Beziehung zu Ihrer Marke aufzubauen, indem Sie Ihr menschliches Talent stärker in den Vordergrund stellen. Wenn es uns gelingt, eine direktere Verbindung zwischen Journalisten und Publikum aufzubauen, können wir einen Teil des Vertrauens wiederherstellen, das in vielen Ländern im letzten Jahrzehnt verloren gegangen ist.
Journalisten sind schwer zu ersetzen
Welche Rolle spielt die Transparenz bei der Wiederherstellung und dem Aufbau von Vertrauen in KI-generierte Inhalte? Stärkeres Engagement bei der Erklärung der Prozesse hinter der Erstellung von Inhalten_
Es wird eine echte Herausforderung sein, denn jedes Mal, wenn eine neue Technologie auf den Markt kommt, kann es lange dauern, bis man sich damit anfreunden kann, sowohl auf der Seite der Produktion als auch auf der Seite der Verbraucher. Und in der Zwischenzeit werden eine Menge schlechter Dinge passieren.
Die erste Priorität sollte sein, den Wandel zu erkennen und eine entsprechende Politik zu entwickeln. Zwei weitere Dinge, die Sie tun müssen, sind natürlich eine transparente Kennzeichnung und das Verständnis der rechtlichen Situation.
Außerdem müssen Sie Ihre Reporter schulen und ausbilden, damit sie sich darauf einlassen. Es besteht die große Sorge, dass KI die Arbeit von Menschen ersetzen wird, aber der Journalismus ist einer der Berufe, der wahrscheinlich nicht durch KI ersetzt werden kann, zum Teil deshalb, weil KI nicht weiß, was gerade passiert ist oder was noch passieren wird.
Journalisten müssen sich mehr auf Dinge konzentrieren, die Maschinen nicht leisten können. Wenn es zum Beispiel aktuelle Nachrichten aus der Ukraine gibt, wird KI keine große Hilfe sein. Aber sie sind großartig für den Hintergrund: "ChatGPT, wie sind wir hierher gekommen? Gib mir eine Zeitleiste!"
Das ist die Quintessenz: Die Journalisten werden mehr Zeit für aktuelle Nachrichten und Echtzeitanalysen haben. Wir müssen nur dafür sorgen, dass die Chatbots mit dem richtigen Material und unter der richtigen Aufsicht geschult werden.
(DW.de/RoZ)