KI oder K.O.? Wenn Chatbots die Wahrheit verdrehen
Jeder sollte mittlerweile mitbekommen haben: KI-Chatsbots und deren Inhalte sind mit Vorsicht zu genießen. Aber wie steht es wirklich mit Modellen wie ChatGPT, Gemini oder Copilot?
Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft
Eine Studie der Europäischen Rundfunkunion (EBU) zur News-Integrität von KI-Chatbots kommt zu dem Schluss, dass Künstliche Intelligenz keine verlässliche Quelle für Anwender darstellt.
Bei der Studie wurden führende KI-Chatbots wie ChatGPT, Copilot, Perplexity und Google Gemini auf Verlässlichkeit als Nachrichtenquellen getestet. Die Forscher prüften über 3.000 Antworten in 18 Ländern. Das Ergebnis fällt ernüchternd aus: In 81 Prozent der Antworten fanden die Forscher Fehler, in 45 Prozent sogar gravierende*.
(*Gravierend bedeutet in diesem Kontext z. B. enthielt eine falsche oder erfundene Quelle oder nennt eine Quelle, die den besagten Inhalt nicht enthält. Außerdem veraltete Informationen oder gänzlich erfundene Details | Quelle: heiseOnline).

Welche Fehler haben die KI-Chatbots gemacht?
Am häufigsten traten Probleme bei den Quellenangaben auf. Oft verweisen die Systeme auf falsche oder gar nicht existierende Links oder zitieren Medienberichte ungenau, indem sie beispielsweise wichtige Details auslassen. Besonders negativ fiel dabei Google Gemini auf: Bei 72 Prozent der geprüften Antworten waren die Quellen fehlerhaft. Aber auch andere Chatbots lieferten z. B. veraltete Informationen zu Politikern oder falsche Angaben zu aktuellen Ereignissen.
Was sind die sich daraus ergebenden Konsequenzen für die Gesellschaft?
Laut EBU gefährden solche Fehler das Vertrauen in seriöse Medien (Quellen gelten als vertrauenswürdig, wenn sie von Institutionen, Behörden oder etablierten Medienhäusern wie z. B. ZDF, ARD, BBC oder Tagesschau stammen), weil sie Inhalte oft verzerren oder falsch wiedergeben. Die European Broadcasting Union (EBU) fordert deshalb klare Regeln, mehr Transparenz über Fehlerquoten und eine saubere Kennzeichnung der Quellen.
Wie kann ich erkennen und prüfen, ob eine KI-Antwort verlässlich ist?
- Quellen checken: Taucht ein Link oder Medium auf, kurz in einem Browser gegenprüfen. Gibt es die Quelle wirklich?
- Veröffentlichungsdatum ansehen: Ist die Information aktuell oder älter als ein paar Monate?
- Vergleichen: Stimmen mehrere seriöse Quellen überein?
- KI-Ausgabe hinterfragen: Wenn eine Antwort keine Quelle nennt, lieber nachrecherchieren. Stimmt das wirklich?
Was bedeutet das für Unternehmen?
KI ist gut für Recherche, Struktur und Ideenfindung, z. B. um Themenvorschläge zu sammeln, Fachbegriffe erklären zu lassen, Texte zusammenzufassen oder zu vereinfachen.
Nicht geeignet ist KI für aktuelle Nachrichten oder politische Ereignisse, juristische oder medizinische Fakten, Aussagen, die eine verlässliche Quelle oder offizielle Statistik erfordern.
KI weiß viel – aber nicht alles.
Wenn’s um ERP, Cloud oder Infrastruktur geht, vertrauen Sie lieber auf echte IT-Profis. Wir beraten Sie gerne kostenfrei und garantiert ohne Fehlermeldungen ;)
Rufen Sie uns an unter: 0 22 46 92 02-50 oder schreiben Sie uns eine E-Mail an
Alternativ können Sie hier ganz bequem Ihren Online-Termin vereinbaren.
Quellen:
Artikel auf heiseonline: Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft | heise online
Zur Studie: NI_AI_2025.pdf | Die Studie wurde von der BBC geleitet, mit Beteiligung von ARD und ZDF, und am 6. November 2025 veröffentlicht.