Meta in der Kritik: KI-Chatbot verbreitet Falschinformationen nach Trump-Attentat
Der KI-Chatbot von Meta hat nach dem versuchten Attentat auf den republikanischen Präsidentschaftskandidaten Donald Trump für erhebliche Kontroversen gesorgt. Die Ereignisse rund um den Vorfall und die Reaktionen des Chatbots haben den Technologiekonzern in Erklärungsnot gebracht.
Verwirrung und Kritik nach Chatbot-Aussagen
Die Bilder des versuchten Attentats auf Donald Trump bei einer Wahlkampfveranstaltung in Pennsylvania gingen um die Welt und sorgten für großes Aufsehen. Doch als Nutzer den KI-Chatbot von Meta zu dem Vorfall befragten, entstand Verwirrung. Zunächst bestritt der Chatbot den Angriff auf Trump, später behauptete er sogar, das Attentat habe nie stattgefunden.
Diese widersprüchlichen Aussagen führten zu heftiger Kritik, insbesondere von Trump-Unterstützern. In sozialen Medien wurden Screenshots von Unterhaltungen mit Meta AI geteilt, die die Weigerung des Chatbots, Fragen zum Attentat zu beantworten, dokumentierten.
Meta rechtfertigt sich: „Halluzinationen“ der KI
Meta erklärte in einem Blogeintrag, dass man den Chatbot zunächst absichtlich nicht über das Attentat habe sprechen lassen. Rund um schlagzeilenträchtige Ereignisse gebe es häufig widersprüchliche Angaben und unbegründete Spekulationen, so der Konzern. Doch auch nachdem der Chatbot mit Informationen über das Attentat gefüttert worden sei, habe er „in wenigen Fällen“ behauptet, es sei nicht passiert. Meta führte dies auf sogenannte „Halluzinationen“ der KI zurück.
„Halluzinationen“ sind ein bekanntes Problem bei KI-Softwares, bei dem Sprachmodelle falsche Informationen erfinden. Auch wenn sie mit korrekten Daten trainiert wurden, können Bots teils falsche Antworten liefern. Diese Problematik brachte Meta in erhebliche Erklärungsnot.
Fehlerhafte Faktenchecks und manipulative Bilder
Ein weiteres Problem trat auf, als ein Foto von Trump und seinen Leibwächtern unmittelbar nach dem Attentat fälschlicherweise mit einem Faktencheck-Label versehen wurde. Ursprünglich war eine manipulierte Version des Bildes markiert worden, in der ein Lächeln auf den Gesichtern der Bodyguards ergänzt wurde. Metas automatisierte Systeme konnten den Unterschied zwischen den Bildern jedoch nicht erkennen und fügten das Faktencheck-Label auch zum Originalfoto hinzu.
Trumps Reaktion: Vorwürfe der Wahlmanipulation
Donald Trump selbst äußerte sich auf seiner Plattform Truth Social über Meta AI. „Da haben wir es wieder, ein weiterer Versuch, die Wahl zu manipulieren!!!“, schrieb der 78-Jährige. Er forderte: „GO AFTER META AND GOOGLE.“ Auch Google musste sich gegen Behauptungen wehren, die Autovervollständigung habe Suchergebnisse über das versuchte Trump-Attentat zensiert. Der Konzern veröffentlichte auf X eine Richtigstellung.
Das Attentat ereignete sich am 13. Juli bei einem Wahlkampfauftritt. Ein Mann schoss auf Trump. Die Kugeln töteten einen Zuschauer und verwundeten zwei weitere Personen. Trump selbst wurde am Ohr getroffen.
Die Debatte um die Rolle von Künstlicher Intelligenz in der Verbreitung von Informationen und die damit verbundenen Risiken bleibt weiterhin brisant. Angesichts der bevorstehenden Wahlen in den USA wird der Druck auf Tech-Konzerne wie Meta und Google weiter zunehmen.
Die Stunde NullWebinar mit Ernst Wolff am 20.11.2024 um 19:00 Uhr
Der digitale Euro kommt November 2025. Mit Haltelimits von maximal 3.000€ und der verpflichtenden digitalen ID bedroht er Ihre finanzielle Freiheit akut. 300 Millionen Menschen werden durch KI ihre Jobs verlieren. Erfahren Sie im Seminar, wie Sie sich vor der totalen digitalen Kontrolle schützen können.
Durch KI verlorene Arbeitsplätze:
*Prognose: Goldman Sachs Studie 03/2024 300 Mio. Arbeitsplätze durch KI bis 2027 bedroht
- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik