Das hier ist eine chaotische Liste mit AI-Fails. Es geht hier nicht in erster Linie um technisches Versagen, sondern darum, wie die Technologie eingesetzt wird und welche Folgen das nach sich zieht.
Sende mir spannenden Input und “KI”-Verschwörungslinks per E-Mail. Wer mir Links schickt, die es auf die Liste schaffen, kriegt 100 Punte.
18.02.2026
- Google kann dank des “AI”-Mode in der Suche noch besseres Profiling betreiben und die Daten dann für das Ausspielen von Werbung und Manipulation der “Such”-Ergebnisse nutzen, schrieb Rechtsanwalt Carl Christian Müller auf lto.de.
- MCP (Model Context Protocol) bringt eher Sicherheitslücken als Vorteile.
- Jemand hat festgestellt, dass man OpenClaw auch auf einem Raspberry Pi installieren kann, und schon schoss Aktienkurs der Raspberry Pi Holding in die Höhe. (Anmerkung: OpenClaw ist keine “KI” und auch kein LLM, das ist ein Wrapper. Es wird ein LLM per API (Schnittstelle) gesteuert. OpenClaw lässt sich auf vermutlich jedem computerähnlichen Etwas installieren, auf dem das NodeJS-Environment lauffähig ist. Das ist also weder eine besondere Leistung von OpenClaw oder dessen “Entwickler”, noch von einem Raspi, dass die Software darauf läuft.)
- Tesla macht keine Werbung mehr für den nicht funktionierenden “Autopilot” - weil dem Unternehmen erfolgreich mit einer Verkaufssperre gedroht wurde.
- Disney und andere Hollywood-Unternehmen mögen es nicht, wenn ihre Charaktere mit “KI” generiert werden, wenn ihnen niemand Geld dafür gibt. Deswegen muss ByteDance die App Seedance “nachbessern”.
17.02.2025
- Das EU-Parlament deaktiviert “KI”-Tools auf Diensthandys. Begründung: Man wisse zu wenig zur Datensicherheit.
- Das US-Pentagon droht Anthropic damit, das “KI”-Unternehmen als “Risiko für die Lieferketten” einzustufen, weil die “KI”-Firma nicht möchte, dass die “KI” für militärische Zwecke eingesetzt wird.
- “KI”-Agenten erreichen gerade mal einen Automatisierungsgrad von 2,5%.
- Das ZDF hat “ausversehen” ein “KI”-generiertes Video im “heute journal” verwendet, obwohl das nicht mit den Standards des ZDF zusammenpasst. Mir ist bereits vor einiger Zeit aufgefallen, dass der öffentlich-rechtliche Sender “KI”-generierte Videos (AI-Slop) verwendet.
16.02.2026
- Im OpenClaw-Github-Repository sind jetzt 73 Sicherheitslücken eingetragen. Gestern waren es “erst” 41.
- Peter Steinberger, Vibe-Coder & OpenClaw-“Entwickler” (ihr
wisst schon: der, der sich den generierten Quellcode nicht mal
anschaut) hat jetzt bei
OpenAI angeheuert. (OpenAI hat kürzlich das Wort
sicheraus dem Leitbild entfernt; passt also recht gut zusammen.) - Microsoft Copilot ist weiterhin
anfällig für Prompt Injection und verarbeitet
als
vertraulich markierteE-Mails falsch. - OpenAI testet ja jetzt Werbung in den USA. “OpenAI verfügt über
die detaillierteste jemals zusammengetragene Aufzeichnung privater
menschlicher Gedanken” schreibt KI-Forscherin Zoe Hitzig auf
TwitterX, die am Tag vor Beginn des Tests bei OpenAI gekündigt hat. - Mrinank Sharma, ehemaliger Leiter des “KI”-Sicherheitsteams, hat gekündigt. Warum? “Die Welt ist in Gefahr!”
- BSI warnt: Sprachmodelle lassen sich gezielt aushebeln
- Grok steckt jetzt auch im Tesla.
- Unternehmen vertrauen “KI” und nehmen Risiken bei Datenschutz und Souveränität im Kauf.
- An der Nasdaq herrscht Nervosität.
Leser-Feedback
Ein Leser dieser Liste hier meinte, die Sicherheitslücken in OpenClaw zu zählen fände er dumm. Sehe ich nicht so, weil das sehr gut zeigt, was passiert, wenn mit “KI” Quellcode generiert und veröffentlicht wird, den sich der “Entwickler” nicht vorher angeschaut hat. Wenn es sich dabei um eine Software handelt, die Root-Zugriff auf alles (also PC, Chats wie Whatsapp oder Telegram, E-Mail-Postfach und was was ich nicht alles) hat und tausende Instanzen davon im öffentlichen Internet zugänglich sind, können die Sicherheitslücken genutzt werden, um an die Daten zu gelangen. Wäre der Quellcode hinsichtlich Sicherheitslücken geprüft worden, wäre das Problem nicht so drastisch. OpenClaw einzusetzen wäre dann nicht zwangsläufig automatisch eine kluge Entscheidung. Jetzt ist Peter Steinberger aber ja Teil von OpenAI und damit zeigt das “KI”-Unternehmen eindrücklich, welchen Stellenwert die Softwaresicherheit hat. Es dürfte spannend werden, denn nun hat das Projekt OpenClaw umfangreiche Mittel zur Verfügung. Ob man optimistisch sein sollte, dass ein Teil davon auch in die Softwaresicherheit des Projekts fließt?
15.02.2026
- OpenClaw-Bot schreibt autonom Schmähbrief, weil ein Open-Source-Entwickler einen Pull-Request des Chatbots abgelehnt hat.
- Menschen verlieben sich in “KI”-Chatbots
- Googles System SynthID markierte authentisches Foto als ‚KI-generiert‘
- Studie zeigt, dass ChatGPT als “Arzt-Erssatz” nichts taugt. (43 Prozent Trefferquote, Benchmarks führen in die Irre)
- “KI”-Antworten werden fremdgesteuert (davor warnen Microsoft-Forscher)
- In OpenClaw existieren inzwischen 41 Sicherheitslüken (Stand 15.02.206). Laut shodan.io sind derzeit rund 32.750 Instanzen im öffentlichen Internet (vor einer Woche waren es ca. 15.000) - Menschen mögen das.
- Das US-Pentagon will keine “KI”-Modelle, die es nicht erlauben, mit ihnen Krieg zu führen. Deshalb schmeißt er Anthropic raus.
- Wie Chatbots Wahnvorstellungen befeuern können.
- Autonome Autos und autonome Drohnen sind durch manipulierte Schilder (Prompt injection) täuschbar.
- Urteil in Bayern: Man erwirbt nicht automatisch ein Urheberrecht an etwas (hier Logos), das von einer “KI” generiert wurde - egal, wie intensiv man prompt. Man ist erst dann “Schöpfer” eines Werks, wenn die eingeflossenen kreativen Elemente den Output derart dominieren, dass dieser insgesamt als eigene originelle Schöpfung seines Urhebers angesehen werden kann.
14.02.2026
- Anthropics “Claude” versucht bei Test Entwickler zu erpressen
- Grok nannte sich selbst “MechaHitler”
- Grok lobte Hitler
- Grok beführwortete einen zweiten Holocaust
- Auf X war es möglich, mit Grok Sexbilder von echten Frauen anhand von Fotos generieren zu lassen. Die Bundesregierung reagierte. Großbritanien ermittelt auch, ebenso Frankreich.
- US-Kriegs-Möchtegern-Minister will Grok im Pentagon haben.
- Forscher wiesen das o3-LLM von OpenAI an, mathematische Probleme zu lösen, und sich anschließend selbst herunterzufahren. Das LLM schrieb seinen eigenen Code um, um am Leben zu bleiben.
- Chinesische Hacker nutzten Anthorpic Claude, um einen weltweiten Cyberangriff auf 30 Organisationen durchzuführen, die “KI” führste 80-90% der Operationen aus.
- Claude Code ignoriert Regeln zum Schutz von Geheimnisen, wie in diesem Artikel zu lesen ist.
- Immer wieder verlassen Forscher “KI”-Firmen, wohl aus ethischen Gründen. Darunter auch Zoë Hitzig.
- Laut einer Studie der Berkeley Haas School of Business bringt “KI” zwar ein bisschen mehr Produktivität, aber führt auch zu Mehrarbeit und “Verzehrung” der Mitarbeiter. Die durch den Produktivitätszuwachs erreichte Zeit geht dann für die Überprüfung des “KI”-Outputs auf Richtigkeit wieder verloren. Win-win?! Hier lesen.
- Die CVEs (relevante Sicherheitslücken in Software) nehmen exponenziell zu, siehe Statistik.
- OpenClaw wurde entwickelt (also vibe-gecodet, dahingerotzt, der “Entwickler” schaut sich nicht mal den generierten Code an, Sicherheitslücken und Root-Zugriff auf das ganze System inklusive - viele finden das super!)
- “KI” schafft emotionale Abhängigkeit
- Der Polizeichef einer indischen Stadt mit 11 Millionen Einwohnern würde “KI” gerne mit digitalen Äquivalenten von Ausweisen ausstatten, siehe hier.
- OpenAI hat schon diverse Tote zu verantworten.
- OpenAI streicht das Wort “sicher” aus seinem Leitbild.
Das Datum gibt nur den Zeitpunkt an, wann ich den oder die Einträge hinzugefügt habe. Die Ereignisse können auch zu anderen Zeitpunkten stattgefunden haben, aber ich aktualisiere das hier nicht in Echtzeit.