Das hier ist eine chaotische Liste mit AI-Fails. Mit dieser Sammlung möchte ich aufzeigen, dass die aktuellen “KI”-Modelle - vor allem die der großen Anbieter wie ChatGPT, Anthropic, xAI, Google und weitere - nicht vertrauenswürdig sind. Sogenannte Open-Source-Modelle, die man lokal oder auf einem Server betreiben kann (falls man eine dieser überteuerten GPUs kriegt) sind auch nicht zwangsläufig vertrauenswürdiger. Sowohl Trainingsmethoden als auch Trainingsdaten werden selten offengelegt, sind aber fundamental wichtig, um die Qualität eines LLMs beurteilen zu können.
Sende mir spannenden Input und “KI”-Verschwörungslinks per E-Mail. Wer mir Links schickt, die es auf die Liste schaffen, kriegt 100 Punte.
16.02.2026
- Im OpenClaw-Github-Repository sind jetzt 73 Sicherheitslücken eingetragen. Gestern waren es “erst” 41.
- Peter Steinberger, Vibe-Coder & OpenClaw-“Entwickler” (ihr
wisst schon: der, der sich den generierten Quellcode nicht mal
anschaut) hat jetzt bei
OpenAI angeheuert. (OpenAI hat kürzlich das Wort
sicheraus dem Leitbild entfernt; passt also recht gut zusammen.) - Microsoft Copilot ist weiterhin
anfällig für Prompt Injection und verarbeitet
als
vertraulich markierteE-Mails falsch. - OpenAI testet ja jetzt Werbung in den USA. “OpenAI verfügt über
die detaillierteste jemals zusammengetragene Aufzeichnung privater
menschlicher Gedanken” schreibt KI-Forscherin Zoe Hitzig auf
TwitterX, die am Tag vor Beginn des Tests bei OpenAI gekündigt hat. - Mrinank Sharma, ehemaliger Leiter des “KI”-Sicherheitsteams, hat gekündigt. Warum? “Die Welt ist in Gefahr!”
- BSI warnt: Sprachmodelle lassen sich gezielt aushebeln
- Grok steckt jetzt auch im Tesla.
- Unternehmen vertrauen “KI” und nehmen Risiken bei Datenschutz und Souveränität im Kauf.
- An der Nasdaq herrscht Nervosität.
Leser-Feedback
- Ein Leser dieser Liste hier meinte, die Sicherheitslücken in OpenClaw zu zählen fände er dumm. Sehe ich nicht so, weil das sehr gut zeigt, was passiert, wenn mit “KI” Quellcode generiert und veröffentlicht wird, den sich der “Entwickler” nicht vorher angeschaut hat. Wenn es sich dabei um eine Software handelt, die Root-Zugriff auf alles (also PC, Chats wie Whatsapp oder Telegram, E-Mail-Postfach und was was ich nicht alles) hat und tausende Instanzen davon im öffentlichen Internet zugänglich sind, können die Sicherheitslücken genutzt werden, um an die Daten zu gelangen. Wäre der Quellcode hinsichtlich Sicherheitslücken geprüft worden, wäre das Problem nicht so drastisch. OpenClaw einzusetzen wäre dann nicht zwangsläufig automatisch eine kluge Entscheidung. Jetzt ist Peter Steinberger aber ja Teil von OpenAI und damit zeigt das “KI”-Unternehmen eindrücklich, welchen Stellenwert die Softwaresicherheit hat. Es dürfte spannend werden, denn nun hat das Projekt OpenClaw umfangreiche Mittel zur Verfügung. Ob man optimistisch sein sollte, dass ein Teil davon auch in die Softwaresicherheit des Projekts fließt?
15.02.2026
- OpenClaw-Bot schreibt autonom Schmähbrief, weil ein Open-Source-Entwickler einen Pull-Request des Chatbots abgelehnt hat.
- Menschen verlieben sich in “KI”-Chatbots
- Googles System SynthID markierte authentisches Foto als ‚KI-generiert‘
- Studie zeigt, dass ChatGPT als “Arzt-Erssatz” nichts taugt. (43 Prozent Trefferquote, Benchmarks führen in die Irre)
- “KI”-Antworten werden fremdgesteuert (davor warnen Microsoft-Forscher)
- In OpenClaw existieren inzwischen 41 Sicherheitslüken (Stand 15.02.206). Laut shodan.io sind derzeit rund 32.750 Instanzen im öffentlichen Internet (vor einer Woche waren es ca. 15.000) - Menschen mögen das.
- Das US-Pentagon will keine “KI”-Modelle, die es nicht erlauben, mit ihnen Krieg zu führen. Deshalb schmeißt er Anthropic raus.
- Wie Chatbots Wahnvorstellungen befeuern können.
- Autonome Autos und autonome Drohnen sind durch manipulierte Schilder (Prompt injection) täuschbar.
- Urteil in Bayern: Man erwirbt nicht automatisch ein Urheberrecht an etwas (hier Logos), das von einer “KI” generiert wurde - egal, wie intensiv man prompt. Man ist erst dann “Schöpfer” eines Werks, wenn die eingeflossenen kreativen Elemente den Output derart dominieren, dass dieser insgesamt als eigene originelle Schöpfung seines Urhebers angesehen werden kann.
14.02.2026
- Anthropics “Claude” versucht bei Test Entwickler zu erpressen
- Grok nannte sich selbst “MechaHitler”
- Grok lobte Hitler
- Grok beführwortete einen zweiten Holocaust
- Auf X war es möglich, mit Grok Sexbilder von echten Frauen anhand von Fotos generieren zu lassen. Die Bundesregierung reagierte. Großbritanien ermittelt auch, ebenso Frankreich.
- US-Kriegs-Möchtegern-Minister will Grok im Pentagon haben.
- Forscher wiesen das o3-LLM von OpenAI an, mathematische Probleme zu lösen, und sich anschließend selbst herunterzufahren. Das LLM schrieb seinen eigenen Code um, um am Leben zu bleiben.
- Chinesische Hacker nutzten Anthorpic Claude, um einen weltweiten Cyberangriff auf 30 Organisationen durchzuführen, die “KI” führste 80-90% der Operationen aus.
- Claude Code ignoriert Regeln zum Schutz von Geheimnisen, wie in diesem Artikel zu lesen ist.
- Immer wieder verlassen Forscher “KI”-Firmen, wohl aus ethischen Gründen. Darunter auch Zoë Hitzig.
- Laut einer Studie der Berkeley Haas School of Business bringt “KI” zwar ein bisschen mehr Produktivität, aber führt auch zu Mehrarbeit und “Verzehrung” der Mitarbeiter. Die durch den Produktivitätszuwachs erreichte Zeit geht dann für die Überprüfung des “KI”-Outputs auf Richtigkeit wieder verloren. Win-win?! Hier lesen.
- Die CVEs (relevante Sicherheitslücken in Software) nehmen exponenziell zu, siehe Statistik.
- OpenClaw wurde entwickelt (also vibe-gecodet, dahingerotzt, der “Entwickler” schaut sich nicht mal den generierten Code an, Sicherheitslücken und Root-Zugriff auf das ganze System inklusive - viele finden das super!)
- “KI” schafft emotionale Abhängigkeit
- Der Polizeichef einer indischen Stadt mit 11 Millionen Einwohnern würde “KI” gerne mit digitalen Äquivalenten von Ausweisen ausstatten, siehe hier.
- OpenAI hat schon diverse Tote zu verantworten.
- OpenAI streicht das Wort “sicher” aus seinem Leitbild.
Das Datum gibt nur den Zeitpunkt an, wann ich den oder die Einträge hinzugefügt habe. Die Ereignisse können auch zu anderen Zeitpunkten stattgefunden haben, aber ich aktualisiere das hier nicht in Echtzeit.