Mensch oder Maschine? Die Grenzen der künstlichen Intelligenz in der Kommunikation
21. Januar 2025
KI kann Texte generieren, Bilder fälschen und sogar Desinformation verstärken. Im Gespräch erklärt Journalist Oskar Vitlif, warum er menschliche Kontrolle unersetzlich findet und wie Redaktionen gegen die Risiken der Technologie gewappnet sein können.
Welche Herausforderungen birgt der Einsatz von KI im Journalismus, insbesondere im Hinblick auf die Qualität und Glaubwürdigkeit von Inhalten?
Oskar Vitlif: Die größte Herausforderung, die ich momentan sehe, ist, dass sich Verlagshäuser entschließen, Menschen zu entlassen, weil sie glauben, dass KI diese Aufgaben übernehmen kann. Wer schon mal getestet hat, wie sich die KI im Bereich Recherche und Textarbeit schlägt, weiß, dass die Technologie nicht ohne menschliche Kontrolle auskommt. Werden Journalist:innen entlassen, wirkt sich das im Zweifel auch auf die Qualität der Inhalte aus. Mit der Verbreitung Künstlicher Intelligenz kann aber auch Desinformation zunehmen. Das sehen wir schon jetzt.
Wie können Medienhäuser sich effektiv gegen die Verbreitung von KI-generierten Fake News wehren? Welche technischen und redaktionellen Maßnahmen sind denkbar? Wie erlebst du das in deinem redaktionellen Umfeld?
Ich bin der Überzeugung, dass nur klassische journalistische Arbeitsprinzipien dabei helfen können, KI-Fakes aufzudecken. Schon jetzt sind KI-generierte Texte für Mensch und Maschine in der Regel nicht erkennbar. Bei Fotos und Videos fällt das noch etwas leichter, weil die Technik noch ein paar Jahre braucht. Doch in Zukunft besteht das Risiko, dass eine Unterscheidung zwischen der Kategorie "echtes Foto" und "KI-Foto" gar nicht mehr möglich ist.
Aus diesem Grund wird journalistische Recherche wieder wichtiger: Wer hat den Inhalt veröffentlicht? Welche Intention verfolgt der:die Urheber:in? Gibt es eine zweite Quelle, die diese Information bestätigen kann? Gibt es Augenzeug:innen? All diese Fragen werden in Zukunft entscheidend, um Fakes aufzudecken.
Nicht nur Journalisten, auch viele andere Berufe sind von KI beeinflusst, mal positiv, mal negativ. Wie siehst du den zukünftigen Einsatz von KI in der Kirche? Könnte Seelsorge von einer künstlichen Intelligenz übernommen werden?
Ich bin sehr skeptisch, wenn es darum geht, Empathie und Mitgefühl an eine Maschine auszulagern – nicht nur aus ethischen Gesichtspunkten. Wer übernimmt die Verantwortung, wenn die KI Fehler macht? Was, wenn zum Beispiel eine traumatisierte Person gar nicht weiß, dass sie mit einer Maschine kommuniziert? Auch datenschutzrechtliche Argumente sprechen gegen den KI-Einsatz in diesem sensiblen Anwendungsgebiet. Grundsätzlich wäre aber im kirchlichen Umfeld denkbar, beispielsweise in der Öffentlichkeitsarbeit KI als Werkzeug einzusetzen. Auch können Gemeinden testen, sich KI-Unterstützung beim Texten zu holen – immer unter der Voraussetzung, dass der Mensch die Kontrolle über die Ergebnisse behält.