top of page

KI im Alltag, Journalismus und Ethik: Ein offenes Gespräch über Chancen, Risiken und die Zukunft des Vertrauens in Nachrichten

Autorenbild: Jan KerslingJan Kersling

Im Gespräch mit Sonali Verma – einer renommierten Medien- und Technologie-Expertin mit umfassender Erfahrung in digitaler Transformation und KI-gestütztem Journalismus. Als Leiterin der INMA Generative AI Initiative und Beraterin für das Harvard Shorenstein Centre sowie das World Economic Forum gestaltet sie die Zukunft der Medienbranche aktiv mit. Sie spricht über die Chancen und Herausforderungen generativer KI, ethische Fragen und die Transformation des Journalismus in einer zunehmend datengetriebenen Welt.

Ein Bild mit dem Titel "5 Questions with Sonali Verma", das über das Porträt von Sonali Verma gelegt ist. Darunter steht das Wort "EXPERTS" mit einem Logo.

 

Auf welche Weise integrieren Sie KI-Tools in Ihren persönlichen Alltag – sei es im beruflichen oder privaten Umfeld?


Wie die meisten Menschen, die das hier lesen oder hören, nutze ich KI überall dort, wo sie mir Zeit spart – solange ich mir keine Sorgen um die Genauigkeit machen muss. Wenn ich beispielsweise für einen Bericht recherchiere, verlasse ich mich nicht auf KI, weil Präzision entscheidend ist und ich weiß, dass KI manchmal Informationen erfindet. In solchen Fällen gehe ich direkt zu den Originalquellen, überprüfe die Fakten gründlich und doppelt.

Für andere Aufgaben finde ich KI jedoch unglaublich hilfreich – besonders bei Kreativität und Brainstorming. Nehmen wir ein einfaches Beispiel: die Planung eines Abendessens. Wenn wir acht Gäste haben, eine Person kein Soja verträgt und eine andere vegan ist – welches Menü passt für alle und enthält trotzdem etwas, das mein Mann gerne kochen möchte? In solchen Situationen hilft KI mir, auf Ideen zu kommen, an die ich selbst nicht gedacht hätte.


Ich nutze KI auch gerne für Transkriptionen und Zusammenfassungen. Die automatischen Zusammenfassungen von Zoom-Meetings sind zwar nicht perfekt, aber ziemlich gut. Sie ersparen mir die mühsame manuelle Transkription von Gesprächen.

Abgesehen davon gibt es viele alltägliche KI-Anwendungen, die wir oft gar nicht bewusst wahrnehmen – zum Beispiel beim Schreiben von E-Mails oder Newslettern. Programme wie Gmail, Word oder Outlook schlagen Wörter oder ganze Sätze vor, und wahrscheinlich nehme ich diese Vorschläge häufiger an, als mir bewusst ist. Es fühlt sich gar nicht mehr nach KI an – es ist einfach Teil unseres Schreib- und Kommunikationsprozesses.


In letzter Zeit habe ich Google fast vollständig durch Perplexity ersetzt. Ich schätze es, dass mir die Plattform Antworten liefert und gleichzeitig Quellen zum Weiterforschen bereitstellt. Ehrlich gesagt kann ich mich kaum erinnern, wann ich zuletzt etwas gegoogelt habe – ich nutze fast nur noch Perplexity.


Welche Risiken oder Bedrohungen sehen Sie in der technologischen Entwicklung?


Das Problem ist: Generative KI wirkt wie Magie. Man tippt etwas ein und plötzlich – zack! – erhält man eine tiefgehende Analyse in perfekt formulierten Sätzen. Es ist beeindruckend. Es fühlt sich wie Magie an.


Aber: KI erfindet Inhalte. Das ist das erste Risiko – sogenannte "Halluzinationen". Dazu kommt ein noch grundlegenderes Problem: KI denkt oder analysiert nicht wie wir. Sie sagt einfach nur das nächste Wort voraus, basierend auf allem, was sie im Internet gelesen hat.

Und genau das führt uns zum nächsten großen Risiko: Voreingenommenheit (Bias). KI übernimmt die Vorurteile aus dem Internet, weil sie darauf trainiert wurde. Wessen Stimmen sind online am lautesten? Oftmals sind es misogynistische, rassistische oder ideologisch geprägte Perspektiven. Das bedeutet, dass KI-generierte Inhalte nicht neutral sind – sie werden von denen geformt, die den Diskurs im Netz dominieren.


Dann gibt es das Sprachproblem. Das Internet wird von sechs Hauptsprachen dominiert. Wer in einer weniger verbreiteten Sprache arbeitet, findet sich in KI-Trainingsdaten oft kaum oder gar nicht repräsentiert.


Neben Verzerrungen und Ungenauigkeiten gibt es noch ein weiteres Problem: Ethik. Woher stammen die Daten, auf denen KI basiert? Wurden sie von einem Nachrichtenunternehmen gestohlen? Wurde dafür bezahlt oder handelt es sich um geistigen Diebstahl?

Und wenn wir von Texten zu Bildern übergehen, wird es noch unübersichtlicher. Jede KI-generierte Abbildung basiert auf echten Fotos, die im Laufe der Zeit von Menschen aufgenommen wurden. Wurden diese Fotograf:innen für ihre Arbeit bezahlt? Oder hat KI ihre Werke einfach aus dem Netz gescrapt und weiterverwendet?


Das führt zu einer grundlegenden Frage über die gesamte Wertschöpfungskette generativer KI: Woher kommen die Informationen? Und – noch wichtiger – warum präsentiert KI bestimmte Antworten als die besten?


Ja, neuere KI-Modelle sind transparenter geworden, aber sie zeigen immer noch nicht vollständig, warum sie bestimmte Informationen ausgewählt haben oder woher genau diese stammen. Das ist die eigentliche Herausforderung – es bleibt eine Blackbox.


Welche spannenden Anwendungsfälle für KI in Ihrer Branche haben Sie bereits erlebt?


Es gibt unzählige spannende KI-Anwendungen – ich könnte den ganzen Tag darüber sprechen. Grundsätzlich lassen sie sich in zwei Kategorien unterteilen: Effizienz & Produktivität und neue Produktentwicklungen. Aber ehrlich gesagt gehen diese beiden oft Hand in Hand.


Nehmen wir die Nachrichtenbranche, in der ich arbeite. KI ist mittlerweile in jeder Phase des Nachrichtenprozesses weltweit eingebettet. Und das ist keine Übertreibung.

Ein Beispiel: Eine Stadtratssitzung findet statt. Sobald das offizielle Protokoll veröffentlicht wird, kann KI das Dokument analysieren, die wichtigsten Punkte hervorheben und relevante Aussagen für Journalist:innen markieren. Sie könnte sagen: "Hier wurde eine Entscheidung getroffen. Diese Aussage war besonders relevant."


Anschließend kann KI eine erste Version eines Nachrichtenartikels skizzieren oder Ideen generieren, warum diese Informationen wichtig sind. Sie dient also als unterstützendes System für Journalist:innen, um den Prozess schneller und effizienter zu gestalten.


Welche wertvolle Erkenntnis haben Sie durch die Arbeit mit KI gewonnen, die viele Menschen möglicherweise nicht kennen?


Eine der wichtigsten Erkenntnisse für mich – die viele vielleicht nicht haben – ist, wie best practices für die Einführung von KI eigentlich aussehen. Das ist immer noch ein neues Feld, und generative KI wurde erst vor etwa zwei Jahren wirklich Mainstream. Damals mussten sich viele Nachrichtenunternehmen und Firmen erst mühsam erarbeiten, wie sie KI sinnvoll nutzen können.


Was ich gelernt habe: Der erste Schritt zur KI-Adoption ist klare Richtlinien aufstellen. Man muss von Anfang an festlegen: Wofür setzen wir KI ein? Was ist für uns ein absolutes No-Go?


Idealerweise geschieht dieser Prozess gemeinschaftlich innerhalb des Unternehmens, indem man Perspektiven aus verschiedenen Teams einholt. Ohne definierte Rahmenbedingungen wird die KI-Implementierung schnell unstrukturiert und ineffektiv.


Welche Veränderungen durch den Einfluss von KI konnten Sie in Ihrer Branche beobachten? Welche Entwicklung würden Sie sich wünschen?


Wenn ich einen Zauberstab hätte, würde ich einige der größten Probleme lösen, mit denen Nachrichtenkonsument:innen heute konfrontiert sind – denn seien wir ehrlich: Wir stecken in einer Vertrauens- und Glaubwürdigkeitskrise.


Gleichzeitig erleben wir News-Fatigue und sogar News-Avoidance. Und wahrscheinlich haben die Leser:innen das auch schon gefühlt – es gibt einfach zu viele Nachrichten, und die meisten davon sind negativ. Dazu kommt, dass sie oft so präsentiert werden, dass sie schwer verdaulich sind.


Wenn ich mir eine Veränderung wünschen könnte, wäre es diese: Jede:r Nachrichtenkonsument:in hätte Zugang zu verlässlichem, qualitativ hochwertigem Journalismus aus glaubwürdigen Quellen. Nicht von irgendeinem YouTube-Kommentator, sondern aus einer transparenten, überprüfbaren Quelle, die einen klaren Verifizierungsprozess durchläuft.


In einer idealen Welt wäre Vertrauen in Nachrichten nicht länger eine offene Frage – es wäre von Grund auf in die Art und Weise integriert, wie Informationen vermittelt werden. Und jede Person würde Nachrichten auf eine Art und Weise erhalten, die für sie wirklich sinnvoll ist.


 

Ein Porträtfoto von Sonali Verma mit einem freundlichen Lächeln. Sie trägt ein ärmelloses Kleid mit geometrischem Muster und steht vor einem neutralen Hintergrund.

Sonali Verma leitet die Generative AI Initiative der INMA und identifiziert praxisnahe Anwendungsfälle für Nachrichtenmarken. Sie teilt ihr Fachwissen mit der INMA-Community durch Konferenzen, Newsletter, Webinare und Workshops.

Als Executive Media Consultant arbeitete sie 15 Jahre lang bei The Globe and Mail, wo sie einen Paradigmenwechsel anführte, um Journalist:innen den Wert von Daten und KI für die Gewinnung und Bindung von Abonnenten näherzubringen. Zudem arbeitete sie mit dem Data-Science-Team von The Globe an der Entwicklung von Sophi.io, einer maschinellen Lernplattform, die heute von Medienunternehmen auf fünf Kontinenten genutzt wird. Zuvor war sie als Journalistin bei  Reuters, CNBC and Bloomberg in Asien, Nordamerika und Europa tätig. Zudem war sie Visiting Fellow am Reuters Institute for the Study of Journalism der Universität Oxford.


 

Dieses Interview ist Teil von PANTA Experts, in dem wir verschiedene Experten aus der Medienbranche und darüber hinaus interviewen. Interviewer: Jan Kersling (PANTA RHAI).

bottom of page