Antons Blog

AI-Fails (wird laufend aktualisiert)

Letztes Update 18.02.2026

Das hier ist eine chaotische Liste mit AI-Fails. Es geht hier nicht in erster Linie um technisches Versagen, sondern darum, wie die Technologie eingesetzt wird und welche Folgen das nach sich zieht.

Sende mir spannenden Input und “KI”-Verschwörungslinks per E-Mail. Wer mir Links schickt, die es auf die Liste schaffen, kriegt 100 Punte.

18.02.2026

17.02.2025

16.02.2026

Leser-Feedback

Ein Leser dieser Liste hier meinte, die Sicherheitslücken in OpenClaw zu zählen fände er dumm. Sehe ich nicht so, weil das sehr gut zeigt, was passiert, wenn mit “KI” Quellcode generiert und veröffentlicht wird, den sich der “Entwickler” nicht vorher angeschaut hat. Wenn es sich dabei um eine Software handelt, die Root-Zugriff auf alles (also PC, Chats wie Whatsapp oder Telegram, E-Mail-Postfach und was was ich nicht alles) hat und tausende Instanzen davon im öffentlichen Internet zugänglich sind, können die Sicherheitslücken genutzt werden, um an die Daten zu gelangen. Wäre der Quellcode hinsichtlich Sicherheitslücken geprüft worden, wäre das Problem nicht so drastisch. OpenClaw einzusetzen wäre dann nicht zwangsläufig automatisch eine kluge Entscheidung. Jetzt ist Peter Steinberger aber ja Teil von OpenAI und damit zeigt das “KI”-Unternehmen eindrücklich, welchen Stellenwert die Softwaresicherheit hat. Es dürfte spannend werden, denn nun hat das Projekt OpenClaw umfangreiche Mittel zur Verfügung. Ob man optimistisch sein sollte, dass ein Teil davon auch in die Softwaresicherheit des Projekts fließt?

15.02.2026

14.02.2026

Das Datum gibt nur den Zeitpunkt an, wann ich den oder die Einträge hinzugefügt habe. Die Ereignisse können auch zu anderen Zeitpunkten stattgefunden haben, aber ich aktualisiere das hier nicht in Echtzeit.

RSS-Feed · Impressum · Datenschutz · This website is made without AI.