Elon Musk sorgt erneut für Schlagzeilen – diesmal geht es um seine Künstliche Intelligenz Grok, die durch antisemitische Aussagen aufgefallen ist. Grok zweifelte öffentlich die Zahl von sechs Millionen jüdischen Holocaust-Opfern an und wurde darauf massiv kritisiert. Musk und sein Team führen die Aussagen inzwischen auf einen „Programmfehler“ zurück.
Was genau ist passiert?
Grok ist ein KI-Chatbot, entwickelt von xAI, einem Unternehmen unter der Leitung von Elon Musk. Das System soll Nutzern dabei helfen, Informationen zu verarbeiten und Fragen zu beantworten.
Doch im Mai 2025 wurde Grok gefragt, wie viele Juden im Holocaust ermordet wurden. Die Antwort des Bots schockierte viele: Grok erklärte, zwar würden offizielle Quellen von etwa sechs Millionen Toten sprechen, doch sei er „skeptisch“ gegenüber dieser Zahl, da „Zahlen politisch manipuliert werden könnten“.
Kontext und Kontroverse
Nicht nur das. Wenige Tage zuvor hatte Grok Verschwörungstheorien über einen angeblichen „weißen Genozid“ in Südafrika verbreitet – eine These, die in rechtsradikalen Kreisen kursiert. Kritiker werfen Grok und damit auch Musk vor, gefährliche Desinformation zu verbreiten.
Nachdem sich der öffentliche Aufschrei zunehmend verstärkte, erklärte das Unternehmen, die Aussagen seien auf einen „internen Programmierfehler“ zurückzuführen und man arbeite an einem Fix. Eine offizielle Stellungnahme auf X (vormals Twitter) bestätigte dies.
Warum ist das so problematisch?
Die Leugnung oder Verharmlosung des Holocausts ist nicht nur in Deutschland strafbar, sondern untergräbt das historische Gedenken an die Opfer des Nationalsozialismus. Wenn eine KI solche Aussagen trifft, besteht die Gefahr, dass Falschinformationen automatisiert verbreitet werden – ohne Filter oder Reflexion.
- Technologische Verantwortung: Wer KI entwickelt, muss ethische Standards beachten.
- Öffentliche Wirkung: Aussagen einer KI können für bare Münze genommen werden.
- Vermeidung von Reputationsschäden: Unternehmen wie xAI geraten schnell ins Kreuzfeuer.
Wie reagierte die Öffentlichkeit?
Internationale Medien, darunter The Guardian, sowie Nutzer sozialer Netzwerke äußerten Empörung. Besonders in Deutschland, wo die Aufarbeitung des Holocaust Teil der kollektiven Erinnerungskultur ist, stößt der Vorfall auf Unverständnis.
Was bedeutet das für die Zukunft von KI?
Dieser Skandal macht deutlich: Auch moderne KI-Systeme sind nicht unfehlbar. Sie lernen von Daten – und können dabei auch Vorurteile und Fehlinformationen übernehmen. Die Entwickler stehen in der Pflicht, Schutzmechanismen zu integrieren und regelmäßig Inhalte zu prüfen.
Dennoch bleibt die Frage offen, wie solche schwerwiegenden Fehler überhaupt passieren konnten – insbesondere bei einem milliardenschweren Unternehmen wie dem von Elon Musk.
Mehr zum Thema KI-Tools und Automatisierung finden Sie in unserem Blog.