Home
» Wiki
»
Warum Sie Nachrichten von KI-Chatbots nicht vertrauen sollten
Warum Sie Nachrichten von KI-Chatbots nicht vertrauen sollten
Sie sollten es sich gut überlegen, bevor Sie einen KI-Chatbot für kurze Nachrichtenzusammenfassungen einsetzen. Ein neuer Bericht der BBC zeigt, dass beliebte Chatbots in ihren Zusammenfassungen gravierende Fehler machen.
Google Gemini weist die höchste Rate problematischer Zusammenfassungen auf
An dem Test nahmen ChatGPT , Google Gemini , Microsoft Copilot und Perplexity AI teil . Zu Beginn stellte die BBC jedem Chatbot 100 Nachrichtenfragen und verlangte von ihnen, wann immer möglich Quellen von BBC News zu verwenden.
Experten der BBC bewerteten anschließend die Qualität dieser Zusammenfassungen. 51 Prozent der Zusammenfassungen enthielten Fehler irgendeiner Art, beispielsweise sachliche Ungenauigkeiten, falsche Zitate oder veraltete Informationen.
19 Prozent dieser Artikel enthielten sachliche Fehler, etwa falsche Daten. Und 13 Prozent der in Zusammenfassungen der BBC zugeschriebenen Zitate waren vom Original abgeändert oder fehlten in den den Chatbots bereitgestellten Artikeln.
Bei der Analyse durch Chatbots war Googles Gemini mit über 60 % der Zusammenfassungen mit problematischen Informationen der schlimmste Übeltäter. Microsoft Copilot belegte mit 50 % den zweiten Platz, während ChatGPT und Perplexity rund 40 % der problematischen Antworten aufwiesen.
In ihrem Fazit erklärte die BBC, dass viele der Probleme nicht nur auf Fehlinformationen zurückzuführen seien:
Die Studie ergab außerdem, dass die Fehlerbreite von KI-Assistenten über sachliche Ungenauigkeiten hinausgeht. Die von uns getesteten KI-Assistenten hatten Schwierigkeiten, zwischen Meinung und Tatsache zu unterscheiden, kommentierten Kommentare und lieferten oft nicht den notwendigen Kontext. Selbst wenn jede Aussage einer Antwort korrekt wäre, könnten solche Probleme zu irreführenden oder verzerrten Antworten führen.
Viele Menschen haben KI-Chatbots noch nie zum Nachrichtenzusammenfassen genutzt, da sie der Zuverlässigkeit der Technologie nicht vertrauen. Die Forschungsergebnisse sind jedoch immer noch überraschend und enthalten viele fragwürdige Ergebnisse. KI hat noch einen langen Weg vor sich, bis sie zu einer zuverlässigen Methode wird, mehr über Nachrichten zu erfahren.
KI-Funktionen sind noch in der Entwicklung
KI-Technologien, insbesondere Chatbots, entwickeln sich rasant weiter. Doch wie die BBC-Studie zeigt, ist es äußerst problematisch, von Nachrichtenquellen genaue Informationen zu erwarten.
Die BBC hat sich über eine weitere KI-gestützte Funktion beschwert: das News Briefing von Apple Intelligence. Im Dezember 2024 wurde in einer Kurzmeldung des Senders fälschlicherweise behauptet, Luigi Mangione habe sich selbst erschossen. Er war der Mann, der beschuldigt wurde, den CEO eines Gesundheitsunternehmens, Brian Thompson, getötet zu haben.