Zurück zum Blog

ChatGPT oder Mensch? 10 Anzeichen, an denen Sie KI-Texte sofort erkennen

Warum manuelle Erkennung auch 2026 noch wichtig ist

KI-Detektoren wie AIDetector.ch sind heute das Rückgrat jeder ernsthaften Integritätsprüfung. Und dennoch: Die schnellste und kostengünstigste Einschätzung, ob ein Text von einem Menschen oder einer Maschine stammt, findet nach wie vor im Kopf der Leserin oder des Lesers statt. Wer die verräterischen Muster von ChatGPT, Claude oder Gemini kennt, kann innerhalb von Sekunden ein begründetes Bauchgefühl entwickeln — und weiss, wann sich der Einsatz eines Detektors wirklich lohnt.

Dieser Leitfaden stellt die zehn häufigsten Signale vor, die KI-Texte in der Praxis hinterlassen. Er basiert auf Tausenden analysierter Einreichungen aus Schweizer Schulen, Hochschulen und Unternehmen — und auf aktueller Forschung zu den sprachlichen Fingerabdrücken grosser Sprachmodelle.

Was die Forschung sagt: KI schreibt anders, aber immer menschlicher

Frühe Studien zu GPT-3 (Zellers et al. 2019, Gehrmann et al. 2019) zeigten, dass KI-Texte statistisch deutlich von menschlichem Schreiben abwichen. Bei GPT-4 und Claude 3.5 schrumpft dieser Abstand zwar — aber er verschwindet nicht. Eine Metaanalyse von Liang et al. (2023) fand, dass sogar trainierte Lesende bei GPT-4-Text eine Erkennungsrate von etwa 58% erreichen — kaum besser als der Zufall. Trotzdem: Wer Muster gezielt sucht, kommt auf 70–75%.

Die zehn folgenden Anzeichen sind die Muster, die in dieser Forschung immer wieder als besonders zuverlässig identifiziert werden.

Anzeichen 1: Gleichmässige Satzlänge (fehlende Burstiness)

Menschliche Autorinnen schreiben bursty: kurze Sätze, dann lange, dann wieder kurze. Diese Varianz — in der Forschung «Burstiness» genannt — entsteht, weil wir beim Schreiben atmen, betonen, rhythmisieren. KI-Modelle optimieren hingegen auf Wahrscheinlichkeit: Der durchschnittlich wahrscheinlichste nächste Satz ist oft ein mittellanger, gut strukturierter Satz.

Wonach Sie suchen: Absätze, in denen jeder Satz zwischen 15 und 25 Wörter lang ist, ohne auffällige Ausreisser. Menschliche Texte zeigen stattdessen oft Sätze mit 4, 28, 11 und 19 Wörtern in enger Folge.

Beispiel KI: «Die Digitalisierung verändert die Arbeitswelt grundlegend. Unternehmen müssen sich anpassen, um wettbewerbsfähig zu bleiben. Neue Technologien eröffnen dabei vielfältige Möglichkeiten. Gleichzeitig entstehen aber auch neue Herausforderungen.»

Beispiel Mensch: «Alles ändert sich. Nicht nur die Software, sondern die ganze Art, wie wir arbeiten — und wer an welchem Tisch sitzt, wenn Entscheidungen fallen. Das ist unbequem.»

Anzeichen 2: Übermässige Signalwörter und Übergangsphrasen

KI-Modelle sind darauf trainiert, kohärente Texte zu produzieren. Dabei greifen sie überproportional häufig auf explizite Übergangswörter zurück: «zudem», «darüber hinaus», «folglich», «jedoch», «nichtsdestotrotz», «insbesondere», «gleichermassen», «in diesem Zusammenhang».

In menschlichen Texten sind solche Verbindungen oft implizit. Ein Mensch schreibt: «Das Problem ist bekannt. Die Lösung nicht.» Eine KI schreibt eher: «Das Problem ist bekannt. Die Lösung hingegen bleibt jedoch unklar.»

Messgrösse: Zählen Sie explizite Übergangswörter in den ersten 300 Wörtern. Mehr als sechs? Starkes KI-Signal.

Anzeichen 3: Generische, oberflächliche Beispiele

Fragen Sie eine KI nach einem Beispiel, und Sie bekommen meistens das Prototypbeispiel: Ein Lehrer erklärt etwas. Ein Unternehmen implementiert etwas. Eine Studierende schreibt eine Arbeit. Die Beispiele sind plausibel, aber auswechselbar. Ihnen fehlen die Reibung, der Eigenname, der spezifische Umstand.

Wonach Sie suchen: Beispiele ohne Namen, ohne Datum, ohne Ort. «Ein Unternehmen aus der Finanzbranche setzte KI ein.» Welches? Wann? In welchem Projekt? Menschliche Texte nennen konkret: «Die Zürcher Kantonalbank führte 2024 das Tool X ein, um den Onboarding-Prozess bei Geschäftskunden zu beschleunigen.»

Anzeichen 4: Fehlende persönliche Perspektive und Erfahrung

Selbst wenn KI-Texte in der ersten Person verfasst sind, fehlen ihnen oft die charakteristischen Spuren gelebter Erfahrung: widersprüchliche Gefühle, Momente der Unsicherheit, konkrete sinnliche Erinnerungen. Stattdessen finden sich generische Reflexionen wie «Diese Erfahrung hat mich viel gelehrt».

Verräterisch: Persönliche Absätze, die mit «Es ist wichtig» oder «Man sollte» enden. Echte persönliche Reflexion mündet selten in allgemeine Ratschläge — sie bleibt im Konkreten stecken.

Beispiel KI: «Während meines Praktikums lernte ich die Bedeutung von Teamarbeit. Es ist wichtig, offen zu kommunizieren und die Perspektiven aller Beteiligten zu respektieren.»

Beispiel Mensch: «Am zweiten Tag hat mich Sandra, die Teamleiterin, vor dem ganzen Team korrigiert. Ich war wütend. Drei Wochen später hat sie mir dasselbe unter vier Augen gesagt, und da habe ich verstanden, warum der öffentliche Moment vielleicht nötig war.»

Anzeichen 5: Listen-Obsession

ChatGPT liebt Aufzählungen. Wenn drei Punkte ausreichen würden, werden fünf geliefert. Wenn ein Fliesstext passt, kommt trotzdem eine Liste. Das Muster entsteht, weil Listen in Trainingsdaten häufig mit «guter, klarer Struktur» assoziiert sind — und weil RLHF-Bewertende (Reinforcement Learning from Human Feedback) sie belohnen.

Wonach Sie suchen: Texte, in denen mehr als ein Drittel des Inhalts in Bullet-Points organisiert ist, ohne dass die Liste inhaltlich zwingend wäre. Besonders verdächtig: Listen mit genau fünf oder sieben Punkten, deren letzter Punkt spürbar schwächer ist als die vorherigen.

Anzeichen 6: Makellose Grammatik und Typografie

Menschliche Texte enthalten fast immer kleine Unregelmässigkeiten: einen Tippfehler, einen fehlenden Bindestrich, ein doppeltes Leerzeichen, eine ungewöhnliche Interpunktion. KI-Texte sind auffallend sauber.

Achtung vor dem umgekehrten Schluss: Manche Nutzende lassen KI absichtlich Tippfehler einbauen, um Detektoren zu täuschen. Makellose Grammatik ist ein Hinweis, kein Beweis.

Ein besonders starkes Signal: Die konsequente korrekte Verwendung typografischer Anführungszeichen («...» oder „...") und von Gedankenstrichen (–) in einem ansonsten informellen Text. Menschen, die am Handy tippen, machen das selten.

Anzeichen 7: Wiederkehrende Stock-Phrasen

Jedes Sprachmodell hat Lieblingsphrasen, die es überdurchschnittlich häufig verwendet. Bei ChatGPT gehören dazu:

  • «Es ist wichtig zu beachten, dass …»
  • «In der heutigen schnelllebigen Welt …»
  • «Zusammenfassend lässt sich sagen …»
  • «Eine Vielzahl von Faktoren …»
  • «Nicht zuletzt …»
  • «Es gilt zu bedenken …»
  • «In einer sich ständig wandelnden Welt …»

Claude tendiert zu abwägenden Phrasen: «auf der einen Seite … auf der anderen Seite», «es ist jedoch anzumerken», «aus einer differenzierten Perspektive».

Gemini fällt durch enthusiastische Füller auf: «Absolut!», «Eine fantastische Frage!», «Hier ist ein umfassender Überblick».

Praxistipp: Suchen Sie mit Ctrl+F nach diesen Phrasen im Text. Ein Treffer allein bedeutet wenig; drei oder mehr sind ein deutliches Signal.

Anzeichen 8: Halluzinierte Fakten und erfundene Quellen

Grosse Sprachmodelle sind notorisch schlecht darin, präzise Fakten zu rekonstruieren. Sie erfinden Jahreszahlen, Autorennamen, Studientitel, Seitenzahlen und URLs mit erstaunlicher Plausibilität. Der Text klingt seriös — aber die Belege sind teilweise frei erfunden.

Wonach Sie suchen: Quellenverweise, die sich nicht verifizieren lassen. Wenn ein Text eine Studie von «Müller et al. 2022» im «Journal of Educational Research» zitiert und Sie die Arbeit weder über Google Scholar noch in der Datenbank des Journals finden, ist das ein Warnsignal. Bei KI-Texten finden Sie häufig Mischungen aus echten Autorennamen und erfundenen Titeln — besonders schwer zu erkennen.

Anzeichen 9: Der «Epilog»-Schluss

KI-Texte enden oft mit einer Zusammenfassung dessen, was der Lesende gerade gelesen hat: «Zusammenfassend zeigt sich, dass die Digitalisierung sowohl Chancen als auch Herausforderungen mit sich bringt, die eine differenzierte Auseinandersetzung erfordern.»

Das ist das Gegenteil der meisten guten menschlichen Texte, die mit einem Bild, einer Frage, einer Zuspitzung oder einem konkreten Handlungsaufruf enden.

Verräterische Formulierungen im Schluss: «Zusammenfassend», «Abschliessend lässt sich festhalten», «Insgesamt kann man sagen», «Um auf den Punkt zu kommen». In formellen akademischen Texten sind solche Schlüsse legitim — in Blogs, persönlichen Essays oder Bewerbungsschreiben fast immer ein starkes KI-Indiz.

Anzeichen 10: Die «ausgewogene Darstellung» in Kontexten, wo Position gefragt ist

ChatGPT und Claude sind über RLHF explizit darauf trainiert, ausgewogen und höflich zu antworten. Das führt zu einem charakteristischen Muster: Selbst bei Fragen, die eine klare Haltung verlangen, liefert die KI eine «beide Seiten»-Struktur.

Wonach Sie suchen: Ein Kommentar, ein persönlicher Standpunkt oder ein Meinungsbeitrag, der alle Argumente pro und contra abwägt und am Ende keine klare Schlussfolgerung zieht. Echte Menschen mit einer Meinung schreiben typischerweise parteiischer.

Beispiel KI: «Die Frage, ob ChatGPT in der Schule erlaubt sein sollte, ist vielschichtig. Einerseits bietet das Tool Chancen für individualisiertes Lernen. Andererseits bestehen Risiken bezüglich akademischer Integrität.»

Beispiel Mensch: «ChatGPT gehört in den Unterricht — und zwar so früh wie möglich. Wer das ignoriert, bereitet seine Klasse auf eine Welt vor, die es 2030 nicht mehr gibt.»

Die Grenzen manueller Erkennung

Diese zehn Anzeichen sind Heuristiken, keine Beweise. Sie haben vier zentrale Schwächen, die jede ernsthafte Integritätsprüfung berücksichtigen muss:

  1. Falsch-Positive bei Nicht-Muttersprachlern: Menschen, die auf Deutsch schreiben, ohne Deutsch als Erstsprache zu haben, produzieren oft dieselben Muster wie KI-Modelle — grammatikalisch korrekt, stilistisch vorsichtig, reich an Übergangswörtern. In der mehrsprachigen Schweiz ein echtes Risiko.
  2. Falsch-Positive bei Formelsprachen: Juristische Texte, wissenschaftliche Abstracts und technische Dokumentation folgen Konventionen, die «KI-artig» wirken, aber korrekt sind.
  3. Falsch-Negative bei bearbeiteten Texten: Ein Text, der mit KI entworfen und dann von Hand überarbeitet wurde, umgeht die meisten manuellen Signale.
  4. Bestätigungsfehler: Wenn Sie bereits vermuten, dass ein Text von KI stammt, finden Sie die Muster fast überall. Menschliche Intuition ist biased.

Kombination mit KI-Detektoren

Die beste Praxis kombiniert Ihre geschulte Wahrnehmung mit einem zuverlässigen Detektor. Das Vorgehen:

  1. Schnell-Screening: Lesen Sie den Text auf die zehn Anzeichen hin durch. Bilden Sie ein Bauchgefühl.
  2. Technische Prüfung: Lassen Sie den Text durch AIDetector.ch laufen. Der Detektor nutzt linguistische Modelle, die Muster erkennen, die Sie gar nicht sehen können — etwa Perplexitäts- und Burstiness-Verteilungen im statistischen Sinn.
  3. Abgleich: Stimmt das Detektor-Ergebnis mit Ihrem Bauchgefühl überein, haben Sie ein robustes Signal. Widersprechen sich die beiden, ist Vorsicht geboten — das Detektor-Ergebnis allein rechtfertigt noch keinen Plagiatsvorwurf.
  4. Kontextprüfung: Stimmt der Text mit dem sonstigen Schreibstil der Person überein? Gibt es frühere Arbeiten? Gibt es einen nachvollziehbaren Entwurfsprozess?

Praktisches Beispiel: Die Drei-Fragen-Methode

Wenn Sie unter Zeitdruck sind, reichen drei Fragen, um eine erste Einschätzung zu gewinnen:

  1. Variiert die Satzlänge spürbar? Nein → Verdacht.
  2. Gibt es mindestens ein konkretes Detail (Name, Ort, Datum, Zahl), das Sie googeln könnten? Nein → Verdacht.
  3. Endet der Text mit einer Zusammenfassung oder «ausgewogenen Schlussbetrachtung»? Ja → Verdacht.

Zwei oder drei «Verdacht»-Antworten rechtfertigen den Einsatz eines Detektors. Alles darunter: Weiterarbeiten, kein Alarm.

Fazit: Augen und Algorithmus gehören zusammen

Manuelle Erkennung ist und bleibt die erste Verteidigungslinie. Sie ist kostenlos, schnell und hilft, die Sensibilität für gute Texte überhaupt zu schärfen. Aber sie ist nicht mehr ausreichend: Die neueste Generation von KI-Modellen produziert Texte, die für geschulte Augen nur noch in Nuancen erkennbar sind. Wer als Lehrperson, Redakteur oder Compliance-Verantwortliche wirklich belastbare Aussagen braucht, kombiniert beide Ansätze — und behält dabei im Hinterkopf, dass jede Erkennung Wahrscheinlichkeiten liefert, keine Gewissheit.

AIDetector.ch wurde genau für diesen Anwendungsfall gebaut: Als zweite, technisch fundierte Meinung, die in Sekunden liefert, was Sie mit blossem Auge nicht zuverlässig beurteilen können — und das zu Schweizer Datenschutzstandards.

Quellen

  • Liang, W. et al., «GPT detectors are biased against non-native English writers», Patterns, 2023.
  • Gehrmann, S. et al., «GLTR: Statistical Detection and Visualization of Generated Text», ACL, 2019.
  • Tian, E. & Cui, A., «Towards Detection of AI-Generated Text», Princeton, 2023.
  • Zellers, R. et al., «Defending Against Neural Fake News», NeurIPS, 2019.
  • OpenAI, «GPT-4 System Card», 2023.
  • Anthropic, «Claude 3.5 Model Card», 2024.