Autor: Ersin Yornik
In den letzten Wochen habe ich ein Projekt ins Leben gerufen. Dieses Projekt sollte den Einsatz von künst- licher Intelligenz (KI) in der automatisierten Berichterstattung untersuchen. Die Idee, Nachrichteninhalte automatisch von verschiedenen Quellen zu übernehmen, zu verarbeiten und in einer neuen Form zu präsentieren, klang vielversprechend. Jedoch zeigten sich schnell die tiefgreifenden Herausforderungen und Risiken, die mit der aktuellen KI-Technologie verbunden sind. Von Beginn an hatten unsere erfahrenen Journalisten erhebliche Bedenken hinsichtlich dieses Projekts. Sie haben eindringlich davor gewarnt, ein solches Experiment zu starten, da sie die potenziellen Gefahren und Fehlerquellen sehr klar erkannten. Die Skepsis war begründet: Es war abzusehen, dass die KI Schwierigkeiten haben würde, die Nuancen der menschlichen Sprache und den Kontext von Nachrichteninhalten vollständig zu erfassen. Dennoch entschied ich mich, das Projekt zu starten, um aus erster Hand die Möglichkeiten und Grenzen der KI im Journalismus zu erkunden.
Die Bedenken unserer Journalisten wurden bestätigt. Bereits in den ersten Phasen des Projekts zeigte sich, dass die KI Schwierigkeiten hatten, die komplexen Anforderungen der Berichterstattung zu erfüllen. Besonders problematisch war die Übernahme von Zitaten aus verschiedenen Quellen. Die KI war nicht in der Lage, den Kontext dieser Zitate richtig zu verstehen und sie entsprechend in neue Artikel einzubinden. Dadurch kam es zu gravierenden Fehlinterpretationen und Missverständnissen, die den Kern des journalistischen Anspruchs auf Genauigkeit und Wahrheit verfälschten.
Ein weiteres erhebliches Problem war die Quellenangabe. Während die KI technisch in der Lage war, Inhalte aus verschiedenen Artikeln zu aggregieren, gelang es ihr nicht, die ursprüng- lichen Autoren und Quellen korrekt anzugeben. Dies führte nicht nur zu ethischen Problemen, sondern auch zu rechtlichen Schwierigkeiten, da Inhalte ohne die notwendige Genehmigung übernommen wurden. In der journalistischen Praxis, in der Glaubwürdigkeit und Integrität oberste Priorität haben, war dies ein schwerwiegender Mangel.
Angesichts dieser Herausforderungen und der damit verbundenen Konsequenzen entschieden wir uns, das Projekt einzustellen. Die Websites, die im Rahmen des Projekts betrieben wurden, haben wir inzwischen abgeschaltet.
Ein Artikel, der kürzlich auf BärnToday von David Kocher veröffentlicht wurde, hat die Schwächen und Probleme unseres Projekts scharf kritisiert. Diese Kritik war berechtigt und hat uns gezeigt, dass die gegenwärtige Technologie der künstlichen Intelligenz noch nicht bereit ist, die komplexen und anspruchsvollen Aufgaben des Journalismus eigenständig zu übernehmen. Die in- haltlichen Fehler und ethischen Bedenken, die durch die Nutzung der KI entstanden, waren schwerwiegend und nicht akzeptabel.
Obwohl das Projekt eingestellt wurde, war es dennoch ein bedeutender Versuch, die Zukunft der KI im Journalismus zu erforschen. Die Erkenntnisse, die wir gewonnen haben, sind wertvolle Lektionen für die zukünftige Entwicklung und den Einsatz von Technologie in diesem sensiblen Bereich. Es wurde klar, dass künstliche Intelligenz derzeit eher als Unterstützungstool und nicht als Ersatz für menschliche Journalisten betrachtet werden sollte. Ihre Fähigkeit, grosse Datenmengen zu verarbeiten und Muster zu erkennen, ist unbestreitbar. Doch ohne das tiefere Verständnis für den Kontext und die Bedeutung von Informationen bleibt die KI ein unvollkommenes Werkzeug.
Diese Erfahrungen haben uns zu der Überzeugung gebracht, dass menschliche Redakteure weiterhin eine zentrale Rolle im Journalismus spielen müssen. Sie sind es, die in der Lage sind, die Komplexität von Sprache und Kontext zu verstehen, kritische Entscheidungen zu treffen und die ethischen Standards des Journalismus aufrechtzuerhalten. Während sich die Technologie weiterentwickeln wird, müssen wir sicherstellen, dass sie verantwortungsvoll und unter Berücksichtigung der möglichen Risiken eingesetzt wird.