Praxisleitfaden • Redaktion KI‑Grundwissen.de
So prüfst Du, ob ein Text von einem Menschen oder einer KI stammt
Ein erfahrener Blick, saubere Quellenarbeit und ein paar Werkzeuge reichen oft aus, um die Herkunft eines Textes gut einzuschätzen. Dieser Beitrag zeigt, wie du systematisch und fair vorgehst – mit Beispielen, Checkliste und Links.
Stand: 15. August 2025 · Ki‑Grundwissen.de
- Eine 100 Prozent sichere Text‑Erkennung gibt es (noch) nicht. Kombiniere Indizien: Kontext, Stilmerkmale, Metadaten und Tools.
- Frage immer nach Arbeitsprozess‑Belegen: Notizen, Entwürfe, Zeitstempel, Versionshistorie.
- Nutze mehrere Detektoren und interpretiere Scores als Wahrscheinlichkeiten – nie als Schuldspruch.
- Dokumentiere Dein Vorgehen transparent, gerade bei Schule/Uni/Job.
Warum das Thema knifflig ist
Moderne Sprachmodelle (ChatGPT, Claude, Gemini & Co.) schreiben flüssig, fehlerarm und auf Wunsch in fast jedem Stil. Gleichzeitig zeigen Studien und Herstellerberichte: Verlässliche Erkennung ist schwierig und fehleranfällig. So hat OpenAI seinen eigenen „AI‑Text‑Classifier“ wegen geringer Genauigkeit eingestellt (OpenAI‑Mitteilung). Und Forschende wiesen Verzerrungen nach – z. B. dass einige Detektoren Texte von Nicht‑Muttersprachler:innen häufiger fälschlich als KI einstufen (Studie in Patterns).
Die Grundidee: Entscheidung auf mehrere Beine stellen
- Kontext prüfen: Wer ist der/die Autor:in? Welche Aufgabe, welches Fachgebiet, wie viel Zeit?
- Metadaten & Prozess‑Belege sichten: Dokumenteigenschaften, Versionsverlauf (z. B. Google Docs/Word), Dateihistorie im CMS, E‑Mail‑Anhänge, Rohnotizen, Quellen.
- Stilistische Indizien sammeln: Wortwahl, Satzlängen, „Burstiness“, Redundanz, typische KI‑Muster (siehe unten).
- Mehrere Tools nutzen: Ergebnisse triangulieren (mind. 2–3 Detektoren + klassischer Plagiatscheck).
- Fair validieren: Rücksprache halten, Nachweise ermöglichen, Ergebnis als Wahrscheinlichkeit dokumentieren – nicht als Urteil.
Stilmerkmale: Woran man KI‑Texte oft erkennt
Häufige KI‑Muster
- Glatte, gleichmäßige Sprache mit wenig Ausreißern bei Satzlängen („geringe Burstiness“).
- Allgemeinplätze, die sicher klingen, aber wenig Konkretes liefern (fehlende Zahlen, Namen, Daten, Orte).
- Überstrukturierung: Einleitung – drei Punkte – Fazit, sauber beschriftet, selten Digressionen.
- Halluzinierte Quellen oder Zitate, die sich nicht verifizieren lassen.
- Erklärstil mit Phrasen wie „Zusammenfassend lässt sich sagen…“, „Im Allgemeinen…“
Typische menschliche Signale
- Idiosynkrasien: kleine Sprünge, persönliche Bezüge, Anekdoten, pointierte Beispiele.
- Konkretion: eigene Daten, Fotos, Orts-/Zeitbezüge, interne Links.
- Inkonsistenzen & Ecken: mal sehr kurz, mal lang, mal flapsig – dann präzise.
- Zwischenstände: Rohfassungen, Randnotizen, Kommentare im Verlauf.
Mini‑Beispiel: „Burstiness“
KI‑Variante: „Nachhaltigkeit ist wichtig, weil sie Ressourcen schützt, Emissionen reduziert und die Lebensqualität verbessert. Unternehmen können dies durch Effizienz, Erneuerbare und Berichterstattung erreichen.“ (sehr einheitliche Satzlängen)
Menschliche Variante: „Nachhaltigkeit? Klingt groß. In meiner Schreinerei heißt das erst mal: Holzreste sammeln, neu verpressen, und ja – den alten Diesel endlich ersetzen. Die CO₂‑Bilanz? Deutlich besser, aber es knirscht in der Praxis.“ (Rhythmuswechsel, Konkretion)
Tools: Nützlich, aber mit Augenmaß
Nutze mehrere Detektoren und vergleiche die Tendenz. Interpretiere die Prozentwerte als Konfidenz, nicht als Anteil „KI vs. Mensch“.
Tool | Stärken | Hinweise |
---|---|---|
GPTZero kostenlos/Pro | Satz‑ und Absatzanalyse, Reports; verbreitet im Bildungsbereich. | Nutzt u. a. Perplexity/Burstiness; bei kurzen Texten unsicher. |
Originality.ai Pro | Detektion + Plagiatscheck + Lesbarkeits‑/Fakten‑Hilfen. | Multilinguale Unterstützung; Scores sind Wahrscheinlichkeiten. |
GLTR kostenlos | Forensische Visualisierung von Wort‑Wahrscheinlichkeiten. | Demo/Experiment; Interpretation erfordert Übung. |
Hinweis: OpenAI hat seinen eigenen AI‑Text‑Classifier eingestellt (geringe Genauigkeit). Siehe Mitteilung.
Der pragmatische 5‑Schritte‑Workflow
- Kontext & Erwartungshaltung klären
- Komplexität: Passt das Niveau zum Profil der Person?
- Zeit: Wurde der Text in unrealistisch kurzer Zeit geliefert?
- Stil: Entspricht der Ton früheren Texten der Person?
- Prozess‑Belege einfordern
- Google Docs → Datei → Versionsverlauf oder Word → Versionsverlauf.
- Entwurfsschnipsel (Screenshots, Notizen), Quellenliste, eigene Fotos.
- CMS‑Historie (z. B. WordPress‑Revisionen).
- Stilistische Prüfung
- Stichprobenartig Textstellen laut lesen: holpert es menschlich oder gleitet es „zu glatt“?
- Suche nach Konkreta (Zahlen/Daten/Namen) und prüfe sie stichprobenartig.
- Bewerte Struktur: Ist sie zu schematisch? Fehlt persönlicher Bezug?
- Tool‑Triangulation
- Prüfe mit zwei bis drei Detektoren (z. B. GPTZero, Originality.ai, GLTR).
- Bei wissenschaftlichen Texten zusätzlich klassischer Plagiatscheck.
- Kurze Texte (< 200–300 Wörter) sind für Detektoren oft zu kurz.
- Fair validieren & dokumentieren
- Vorwurf vermeiden – lade zur Aufklärung ein und gib Beispiele/Indizien an.
- Dokumentiere Deine Schritte (Screenshots/Notizen) und Entscheidungen.
- Treffe keine Entscheidung ausschließlich auf Basis eines Scores.
Was die Technik (noch) nicht sicher kann
- Perfekte Erkennung: Selbst aktuelle Forschungsansätze (z. B. DetectGPT) lassen sich in der Praxis austricksen.
- Bias‑Freiheit: Detektoren können bestimmte Schreibstile benachteiligen – Vorsicht bei Nicht‑Muttersprachler:innen.
- Interpretierbarkeit: Ein „90 % KI“ bedeutet nicht, dass 9 Prozent der Sätze von einer KI stammen.
Beweise statt Bauchgefühl: Herkunft & Authentizität
Für Medien (Bilder/Audio/Video) setzt sich ein offener Standard namens C2PA/Content Credentials durch, der die Provenienz (Entstehung/Geschichte) kryptografisch nachvollziehbar macht. Für reinen Text ist das noch weniger verbreitet, die Idee dahinter hilft aber beim Denken in Belegen:
- C2PA‑Standard & Content Credentials (Adobe/CAI)
- Adobe‑Übersicht & Verify‑Tool
Übertrag auf Textarbeit: Bitte um nachvollziehbare Prozessspuren (Entwürfe, Versionsverlauf, Quellnotizen), statt allein auf Detektor‑Scores zu vertrauen.
Checkliste zum Ausdrucken
- ▢ Aufgabe & Autor:in – Erwartung realistisch?
- ▢ Versionsverlauf/Entwürfe gesichtet?
- ▢ Stichproben‑Fakten geprüft?
- ▢ Stilindizien notiert (Beispiele)?
- ▢ 2–3 Detektoren genutzt, Ergebnisse dokumentiert?
- ▢ Rücksprache geführt und Stellungnahme ermöglicht?
- ▢ Ergebnis als Wahrscheinlichkeit festgehalten (keine absolute Aussage)?
Weiterführende Links
- OpenAI zur Einstellung des AI‑Text‑Classifiers: openai.com
- Studie: Bias bei Detektoren gegenüber Nicht‑Muttersprachler:innen: Patterns (Cell Press)
- Forschung zu Wasserzeichen: „A Watermark for Large Language Models“
- Detektor‑Tools: GPTZero, Originality.ai, GLTR
- Mehr KI‑Grundlagen & Praxis auf unserer Seite: Ki‑Grundwissen.de
Dieser Beitrag darf gerne zitiert und verlinkt werden. Bei Übernahme in Schulungsunterlagen: Quelle „Ki‑Grundwissen.de“ angeben. Feedback? Redaktion @ Ki‑Grundwissen.de
Entdecke mehr von Grundwissen zu Künstlicher Intelligenz
Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.