Titel aus der Maschine
KI ist aus Redaktionen kaum mehr wegzudenken. Sie hilft beim Schreiben, Transkribieren und Recherchieren. Doch wie verändert sie den Journalismus – und wo lauern Gefahren?
Der Autor verfasste 2024 seine Masterthesis zu KI im Journalismus an der HKB im Studiengang Multimedia Communication and Publishing
Früher beugten sich zum Teil mehrere Journalist*innen gemeinsam über wichtige Artikel, um den perfekten Titel für die Knaller-Story zu finden. Heute übernehmen diese Aufgabe oftmals ChatGPT und Co. Mit den richtigen Prompts spuckt eine KI innert Sekunden Textvorschläge aus, auf die gewünschte Zeichenanzahl genau. Mit Ergebnissen, die selbst erfahrene Titel-Jongleur*innen staunen lassen.
Fast alle Journalist*innen nutzen KI
KI-Titel können den Redaktor*innen neue Denkanstösse geben und zu neuen Titel-Ideen führen. Oder sie finden den Weg direkt in die Publikation – meist ohne entsprechende Deklaration. Kein Wunder also, nutzen inzwischen zwei Drittel der Medienschaffenden KI-Tools, um Titelvorschläge zu liefern. Dies geht aus einer Studie des Forschungszentrums Öffentlichkeit und Gesellschaft [fög] der Universität Zürich 1 hervor, die Ende September publiziert worden ist. 87 Prozent der 730 befragten Journalist*innen benutzen KI im Berufsalltag. Die häufigsten Anwendungen:
– Titelvorschläge, 65 %
– Korrektur von Flüchtigkeitsfehlern, 62 %
– Transkription von Audio- oder Videomaterial, 60 %
– Verbesserung der Verständlichkeit, 49 %
– Zusammenfassungen für die Recherche, 49 %
– Interview-Vorbereitung, 48 %
– Bilder und Videos werden dagegen nur selten generiert, 4 % oder bearbeitet, 11 %
Die Resultate überzeugen aber nicht immer: Immerhin sagen 34 Prozent der Medienschaffenden, dass KI-Werkzeuge die Qualität der Beiträge verbessere, und 30 Prozent, dass man mehr Zeit für Recherche habe. Dennoch ist der Einsatz von KI für Journalist*innen nicht ohne Risiko.
Erfundene Fakten
Einerseits gilt es, sämtliche mit KI optimierten Texte minutiös gegenzuchecken. Dies, weil sie oftmals mit fehlerhaften Informationen oder Formulierungen «verschönert» werden. KI kann Inhalte generieren, die plausibel wirken, aber faktisch falsch sind. Ohne sorgfältige Kontrolle besteht die Gefahr, dass solche Fehler ungeprüft veröffentlicht werden. Gerade in Stressmomenten können auf Redaktionen so fehlerhafte Infos durchflutschen. Weiter haben KI-generierte Inhalte oft «Schlagseite». Denn die Trainingsdaten von KI-Modellen sind voller Vorurteile oder Bias. Algorithmen sind nicht unvoreingenommen, neutral oder objektiv. Stattdessen übernehmen die KI-Systeme die unbewussten Vorurteile ihrer Schöpfer*innen. Gegenwärtig sind dies in der Tech-Industrie oftmals weisse Männer.Die Voreingenommenheit der spezifischen Gruppe bezeichnet KI-Expertin Meredith Broussard in ihrem Buch More than a glitch 2 als «Tech-Chauvinismus». KI kratzt auch an der Glaubwürdigkeit des Journalismus. Wenn Leser*innen nicht wissen, ob ein Text von einer KI oder einem Menschen stammt, leidet das Vertrauen in Medien. Denn die Seriosität und Vertrauenswürdigkeit einer Information konnte bisher etwa daran festgemacht werden, wie viele nachprüfbare Fakten oder Quellenangaben die Redaktor*innen aufführten.
Desinformationsschleuder
Inzwischen kann KI täuschend echte Falschnachrichten erzeugen, auf Anweisung im Stil einer Nachrichtenagentur und mit gezielt eingebrachten tatsächlichen Fakten, etwa Namen von Personen. KI kann so zu einer regelrechten Desinformationsschleuder mutieren, die KI-Bots in Windeseile in die Welt hinaustragen. Eine KI kann die Spürnase von Journalist*innen nicht ersetzen, eine KI kann keine vertraulichen Gespräche führen, keine Kontakte pflegen. KI wird den Journalismus nicht ersetzen, aber er wird sich verändern. Entscheidend ist, wie Redaktionen mit Transparenz, Qualitätskontrolle und ethischen Standards umgehen.