Zurück zum Blog

Journalismus und KI: Wie Schweizer Redaktionen KI-generierte Texte überprüfen

Der Journalismus in der KI-Transformation

Kaum eine Branche ist von generativer KI so unmittelbar betroffen wie der Journalismus. Textproduktion ist das Herzstück jeder Redaktion — und genau das, wofür ChatGPT, Claude und Gemini gebaut wurden. Gleichzeitig hängt die Glaubwürdigkeit einer Redaktion an der Frage, ob Leserinnen und Leser darauf vertrauen können, dass ein Text von einem Menschen recherchiert und geschrieben wurde.

Dieser Artikel zeigt, wie Schweizer Medienhäuser mit dieser Spannung umgehen: welche Richtlinien sie entwickelt haben, wie sie KI in den Redaktionsalltag integrieren, welche Rolle KI-Detektoren spielen und welche offenen Fragen bleiben.

Die Ausgangslage: Vertrauen als Kernwährung

Medien leben von Vertrauen. Wenn eine Leserin nicht mehr sicher sein kann, ob die Reportage über einen Bergbauernhof im Emmental auf echten Gesprächen beruht oder auf ChatGPT-Output, dann ist das Geschäftsmodell eines Qualitätsmediums im Kern getroffen. Das wissen auch die grossen Schweizer Medienhäuser — und reagieren entsprechend.

Drei Prinzipien prägen die Herangehensweise praktisch aller seriösen Schweizer Redaktionen:

  1. Transparenz gegenüber dem Publikum: Wenn KI im Produktionsprozess eine Rolle spielt, wird das kenntlich gemacht.
  2. Menschliche Verantwortung: Jeder publizierte Text hat eine verantwortliche journalistische Person, die für Inhalt und Richtigkeit einsteht — unabhängig davon, wie viel KI beim Entstehen half.
  3. Differenzierung nach Textsorte: Was für eine automatisierte Börsenmeldung gilt, gilt nicht für eine Reportage. Die Richtlinien unterscheiden.

NZZ: Das Qualitätsmodell

Die Neue Zürcher Zeitung hat sich als eine der ersten Schweizer Redaktionen öffentlich zu ihrem Umgang mit KI geäussert. Die Kernaussage lautet sinngemäss: KI wird als Werkzeug genutzt — in Recherche, Strukturierung, Übersetzung und Routineproduktion. Aber kein Text erscheint ohne menschliche Verantwortung und Redaktion.

In der Praxis heisst das:

  • Recherche-Unterstützung mit KI (z.B. für die Auswertung grosser Dokumentenmengen) ist erlaubt und wird in grösseren Recherchen aktiv eingesetzt.
  • Rohübersetzungen aus anderen Sprachen werden teilweise mit KI erstellt und anschliessend redaktionell überarbeitet.
  • Kommentare, Reportagen, Analysen bleiben im Kern menschliche Produktion.
  • Automatisierte Kurzmeldungen (z.B. Wetter, Börsen-Kurstafeln) können maschinell erzeugt werden — und werden dann auch entsprechend gekennzeichnet.

Tamedia und TX Group: Der Konzern-Ansatz

Die TX Group (zu der Tamedia, 20 Minuten und weitere Titel gehören) hat konzernweite Richtlinien entwickelt, die an die einzelnen Titel angepasst werden. Auffällig ist der pragmatische Umgang mit KI-gestützter Produktion in Service- und Ratgeber-Rubriken: In diesen Bereichen wird KI offen eingesetzt, während harte journalistische Formate (politische Berichterstattung, investigative Recherche, Reportagen) klar menschliche Arbeit bleiben.

Das Prinzip dahinter: Nicht jeder Text auf einer Medien-Website ist im gleichen Sinn «Journalismus». Ein Service-Artikel über die besten Frühlings-Destinationen ist etwas anderes als eine investigative Recherche. Die KI-Richtlinien spiegeln diese Differenzierung.

Ringier: Plattform-Logik und internationale Dimension

Ringier hat einen besonderen Anspruch: Das Unternehmen betreibt Medien in mehreren Ländern und muss Richtlinien finden, die über Sprach- und Marktgrenzen hinweg funktionieren. Die Antwort: Ein Set von Grundprinzipien auf Konzernebene, die von den einzelnen Titeln spezifisch ausgelegt werden.

Zu diesen Prinzipien gehören:

  • Keine vollständig autonom erzeugten Texte ohne menschliche Redaktion.
  • Quellen- und Faktenprüfung bleibt menschliche Aufgabe.
  • Transparenz gegenüber dem Publikum bei KI-Beteiligung.
  • Schutz von Whistleblowern und Informanten — deren Aussagen dürfen nicht in KI-Systeme eingespeist werden, die die Informationen speichern oder weitergeben könnten.

SRF und SRG: Der öffentlich-rechtliche Ansatz

SRF und der gesamte SRG-Konzern stehen vor einer besonderen Herausforderung: Als öffentlich-rechtliches Medienhaus hat SRG eine doppelte Verantwortung — einerseits gegenüber dem Gebührenzahler, andererseits gegenüber dem Auftrag zur Information und Meinungsbildung.

Die SRG hat interne Richtlinien verabschiedet, die in mehreren Stufen greifen:

  • Kern-Journalismus: Nachrichten, politische Berichterstattung, Dokumentarfilme und Reportagen bleiben menschliche Produktion mit klarer journalistischer Verantwortung.
  • Assistenz-Einsatz: Transkription, Übersetzung, Recherche-Unterstützung werden mit KI unterstützt — wo das die Qualität nicht mindert.
  • Automatisierte Formate: Einzelne Formate (z.B. bestimmte Sportmeldungen) können mit KI-Unterstützung erstellt werden und werden dann gekennzeichnet.
  • Schutz sensibler Quellen: Bei Recherchen, die Quellen-Schutz erfordern, ist der Einsatz externer KI-Dienste eingeschränkt.

Die Rolle von KI-Detektoren in Redaktionen

Interessanterweise spielen Detektoren in Schweizer Redaktionen eine andere Rolle als in Schulen. Sie sind weniger Kontroll- als Qualitätsinstrument. Drei typische Einsatzfelder:

1. Prüfung externer Beiträge

Gastkommentare, Gastbeiträge und Einsendungen von Freelance-Journalistinnen werden zunehmend mit Detektoren geprüft — nicht um die Autorinnen und Autoren zu disqualifizieren, sondern um sicherzustellen, dass die Leistungen, für die gezahlt wird, auch menschlich sind. Transparenz wird durch klare Auftragsvereinbarungen hergestellt.

2. Interne Qualitätssicherung

Einige Redaktionen nutzen Detektoren als Teil ihres Redaktions-Workflows. Ein Text, der einen hohen KI-Score zeigt, wird in die redaktionelle Überarbeitung geschickt — nicht als Strafe, sondern weil ein solcher Score oft ein Hinweis auf Stil-Probleme ist, die auch unabhängig von KI-Nutzung angegangen werden sollten.

3. Verifikation externer Behauptungen

Bei Recherchen über KI-Nutzung in Politik, Wirtschaft oder Bildung prüfen Redaktionen selbst manchmal Texte, die Gegenstand ihrer Berichterstattung sind — etwa um zu verifizieren, ob eine umstrittene Aussage eines Ministers tatsächlich von einem Menschen formuliert wurde oder aus einem KI-System stammt.

Der Umgang mit KI-generierten Quellen

Eine besondere Herausforderung für Redaktionen ist nicht die eigene KI-Nutzung, sondern die KI-Nutzung der anderen. Was, wenn eine Pressemitteilung mit KI verfasst wurde? Was, wenn eine Studie, über die berichtet werden soll, Teile eines KI-generierten Textes enthält? Was, wenn eine als Originalquelle genutzte Website selbst KI-Inhalte publiziert?

Seriöse Redaktionen haben dafür Verfahren entwickelt:

  • Quellenkritik neu gedacht: Die klassische Frage «Ist diese Quelle zuverlässig?» wird um «Ist diese Quelle menschlich erstellt?» erweitert.
  • Primärquellen bevorzugen: Wo möglich, wird direkt mit den Akteuren gesprochen — statt nur Sekundärtexte zu nutzen.
  • Detektion als Hilfsmittel: Bei Texten unklarer Herkunft wird ein Detektor als zusätzlicher Indikator genutzt.
  • Offenlegung im eigenen Text: Wenn eine Quelle KI-generiert ist, wird das im eigenen journalistischen Text transparent gemacht.

Der Ethik-Rahmen: Presserat und Richtlinien

Der Schweizer Presserat hat sich mehrfach zum Thema KI geäussert und klargestellt, dass die geltenden journalistischen Grundsätze auch in der KI-Ära weiter gelten:

  • Wahrhaftigkeit: Veröffentlichte Texte müssen inhaltlich zutreffend sein. Das gilt auch für KI-unterstützte Produktion.
  • Transparenz der Quellen: Leserinnen und Leser müssen nachvollziehen können, woher Informationen stammen.
  • Trennung von Fakt und Meinung: Wird durch KI-Einsatz nicht aufgeweicht.
  • Urheberrecht und Zitat: KI-generierte Texte sind urheberrechtlich komplex. Direkte Übernahmen ohne Quellenangabe bleiben problematisch.

Praktisch bedeutet das: Die ethische Messlatte für journalistische Arbeit wird durch KI nicht niedriger, sondern wenn, dann höher. Redaktionen müssen mehr Sorgfalt walten lassen, nicht weniger.

Offene Fragen, die Redaktionen noch nicht gelöst haben

Personalisierung und KI

Was, wenn eine Redaktion beginnt, Artikel individuell an Leserinnen und Leser zu personalisieren — mit KI-Unterstützung? Wie weit darf Personalisierung gehen, bevor sie den Charakter des Journalismus verändert? Diese Frage ist in der Schweiz noch kaum diskutiert, wird aber in den nächsten Jahren relevant werden.

Translation und Mehrsprachigkeit

In der mehrsprachigen Schweiz ist KI-basierte Übersetzung besonders attraktiv. Ein Artikel, der auf Deutsch verfasst wurde, kann automatisiert in Französisch und Italienisch übersetzt werden. Aber: Ist eine automatisierte Übersetzung redaktionell vollwertig? Wer haftet für Übersetzungsfehler? Wie wird Transparenz hergestellt? Diese Fragen sind nicht vollständig geklärt.

Archiv und Training

Einige Medienhäuser stehen vor der Frage, ob sie ihre Archive für KI-Training freigeben sollen — eigenes oder externes. Die Entscheidungen haben langfristige strategische Konsequenzen, sind aber oft ohne breite öffentliche Debatte getroffen worden.

Der Umgang mit KI-bildern und Deepfakes

Die Frage KI und Text ist komplex genug. Die Frage KI und Bild ist noch komplexer. Schweizer Redaktionen haben sich diesem Thema bisher uneinheitlich genähert.

Was andere Branchen vom Journalismus lernen können

Redaktionen sind mit ihren KI-Herausforderungen nicht alleine. Andere Branchen — von der Unternehmenskommunikation über wissenschaftliche Publikation bis zur Bildung — können vom journalistischen Ansatz lernen:

  1. Klar nach Textsorte differenzieren. Nicht jede schriftliche Produktion ist im gleichen Sinn «eigene Arbeit». Ein Wetterbericht ist etwas anderes als ein Kommentar.
  2. Verantwortung personal verankern. Nicht die Institution ist verantwortlich — eine konkrete Person.
  3. Transparenz als Grundwert. Lieber offen einen KI-Einsatz deklarieren als ihn verstecken.
  4. KI als Werkzeug, nicht als Ersatz. Der Mensch bleibt Autor und Gestalter, die KI unterstützt.
  5. Kontinuierliche Anpassung. Die Technologie entwickelt sich schnell — Richtlinien müssen mitwachsen.

Was Leserinnen und Leser tun können

Auch das Publikum hat eine Rolle in diesem Spiel. Wer Journalismus wert schätzt, sollte:

  • Qualitätsmedien bezahlen. Seriöse redaktionelle Arbeit kostet Geld. Werbe-finanzierter Content ist besonders anfällig für billigen KI-Ersatz.
  • KI-Transparenz einfordern. Leserinnen und Leser dürfen fragen, wie ein Text entstanden ist — und erwarten, dass das Medium antwortet.
  • Quellen kritisch einordnen. Nicht jeder Text im Internet ist journalistische Arbeit. Die Unterscheidung zwischen redaktionellem Inhalt und automatisierter Produktion ist wichtiger denn je.
  • Konstruktive Rückmeldung geben. Redaktionen reagieren auf Publikum. Wer gute KI-Richtlinien sieht, darf das rückmelden.

Fazit: Das Vertrauen verteidigen

Schweizer Redaktionen haben in den letzten drei Jahren beachtliche Arbeit geleistet, um den Übergang in die KI-Ära zu gestalten. Sie haben Richtlinien entwickelt, interne Prozesse angepasst, Transparenz geschaffen. Nicht alles ist perfekt — aber der Grundton stimmt: KI wird als Werkzeug genutzt, nicht als Ersatz für journalistische Verantwortung.

Detektoren spielen in diesem Rahmen eine unterstützende, aber nicht zentrale Rolle. Die Kern-Aufgaben — recherchieren, verifizieren, einordnen, gewichten — bleiben menschliche Arbeit. Für alle anderen Branchen, die sich ähnlichen Herausforderungen stellen, ist der journalistische Ansatz eine gute Inspiration: Nicht jede Aufgabe lässt sich automatisieren. Aber wo Automatisierung möglich ist, sollte sie transparent geschehen — und verantwortungsvoll verankert sein.

Quellen

  • Schweizer Presserat, Stellungnahmen zu KI im Journalismus, 2023–2025.
  • Neue Zürcher Zeitung, Redaktionsleitlinien zur Nutzung generativer KI, 2024.
  • TX Group, Richtlinien zum KI-Einsatz in Redaktionen, 2024.
  • Ringier, Konzern-Prinzipien zu KI und Journalismus, 2024.
  • SRG SSR, Interne Richtlinien zu KI in der Programmproduktion, 2024.
  • Reuters Institute for the Study of Journalism, Annual Report 2024.