Zum Hauptinhalt springen

KI oder K.O.? Wenn Chatbots die Wahrheit verdrehen

07. November 2025

Jeder sollte mittlerweile mitbekommen haben: KI-Chatsbots und deren Inhalte sind mit Vorsicht zu genießen. Aber wie steht es wirklich mit Modellen wie ChatGPT, Gemini oder Copilot?

Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft

Eine Studie der Europäischen Rundfunkunion (EBU) zur News-Integrität von KI-Chatbots kommt zu dem Schluss, dass Künstliche Intelligenz keine verlässliche Quelle für Anwender darstellt.

Bei der Studie wurden führende KI-Chatbots wie ChatGPT, Copilot, Perplexity und Google Gemini auf Verlässlichkeit als Nachrichtenquellen getestet. Die Forscher prüften über 3.000 Antworten in 18 Ländern. Das Ergebnis fällt ernüchternd aus: In 81 Prozent der Antworten fanden die Forscher Fehler, in 45 Prozent sogar gravierende*.

(*Gravierend bedeutet in diesem Kontext z. B. enthielt eine falsche oder erfundene Quelle oder nennt eine Quelle, die den besagten Inhalt nicht enthält. Außerdem veraltete Informationen oder gänzlich erfundene Details | Quelle: heiseOnline).

 

Welche Fehler haben die KI-Chatbots gemacht?

Am häufigsten traten Probleme bei den Quellenangaben auf. Oft verweisen die Systeme auf falsche oder gar nicht existierende Links oder zitieren Medienberichte ungenau, indem sie beispielsweise wichtige Details auslassen. Besonders negativ fiel dabei Google Gemini auf: Bei 72 Prozent der geprüften Antworten waren die Quellen fehlerhaft. Aber auch andere Chatbots lieferten z. B. veraltete Informationen zu Politikern oder falsche Angaben zu aktuellen Ereignissen.

Was sind die sich daraus ergebenden Konsequenzen für die Gesellschaft?

Laut EBU gefährden solche Fehler das Vertrauen in seriöse Medien (Quellen gelten als vertrauenswürdig, wenn sie von Institutionen, Behörden oder etablierten Medienhäusern wie z. B. ZDF, ARD, BBC oder Tagesschau stammen), weil sie Inhalte oft verzerren oder falsch wiedergeben. Die European Broadcasting Union (EBU) fordert deshalb klare Regeln, mehr Transparenz über Fehlerquoten und eine saubere Kennzeichnung der Quellen.

Wie kann ich erkennen und prüfen, ob eine KI-Antwort verlässlich ist?

  1. Quellen checken: Taucht ein Link oder Medium auf, kurz in einem Browser gegenprüfen. Gibt es die Quelle wirklich?
  2. Veröffentlichungsdatum ansehen: Ist die Information aktuell oder älter als ein paar Monate?
  3. Vergleichen: Stimmen mehrere seriöse Quellen überein?
  4. KI-Ausgabe hinterfragen: Wenn eine Antwort keine Quelle nennt, lieber nachrecherchieren. Stimmt das wirklich?
Was bedeutet das für Unternehmen?

KI ist gut für Recherche, Struktur und Ideenfindung, z. B. um Themenvorschläge zu sammeln, Fachbegriffe erklären zu lassen, Texte zusammenzufassen oder zu vereinfachen.

Nicht geeignet ist KI für aktuelle Nachrichten oder politische Ereignisse, juristische oder medizinische Fakten, Aussagen, die eine verlässliche Quelle oder offizielle Statistik erfordern.

KI weiß viel – aber nicht alles.
Wenn’s um ERP, Cloud oder Infrastruktur geht, vertrauen Sie lieber auf echte IT-Profis. Wir beraten Sie gerne kostenfrei und garantiert ohne Fehlermeldungen ;)

Rufen Sie uns an unter: 0 22 46 92 02-50 oder schreiben Sie uns eine E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein..

Alternativ können Sie hier ganz bequem Ihren Online-Termin vereinbaren.

 

Quellen:

Artikel auf heiseonline: Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft | heise online

Zur Studie: NI_AI_2025.pdf | Die Studie wurde von der BBC geleitet, mit Beteiligung von ARD und ZDF, und am 6. November 2025 veröffentlicht.

 

Unser Newsletter: Keine Infos mehr verpassen
Erfahren Sie direkt von wichtigen Updates, spannenden Neuerungen, technischen Risiken und praktischen Tipps für Ihren Alltag.
Online-Termin buchen
Über unseren Buchungskalender können Sie sich einen Termin für ein persönliches Erstgespräch auswählen.

Kostenlos zum monatlichen Newsletter anmelden und nichts mehr verpassen!