KI Journal — Special: Claude Mythos

 

KI Journal — Special: Claude Mythos · v2 (Kritisch überarbeitet)

 

KI Journal — Special: Claude Mythos · v2 (Kritisch überarbeitet)

 

KI Journal
Special-Ausgabe: Claude Mythos  ·  KI-News für Trainer · Berater · Coaches
v2 · Kritisch überarbeitet

Special / 2026
01.03. – 17.04.2026
45 Meldungen
Herausgegeben von Bernhard Siegfried Laukamp  ·  Trainertreffen Deutschland  ·  www.trainertreffen.de
Version 2 (Stand 17.04.2026) · Kritisch überarbeitet: Jeder Artikel enthält jetzt einen Verifikationsstatus, einen Quelltyp-Hinweis und — wo relevant — eine Gegenstimme oder Korrektur. Sachfehler aus v1 wurden korrigiert; 7 neue Artikel ergänzt (VulnCheck, Bloomberg, OpenAI, MCP — plus BSI, EU-Regulierung, ETH Zürich). ↓ Änderungslog am Ende des Journals
Special-Ausgabe / 2026  ·  45 Meldungen aus 7 Themenfeldern  ·  Leitartikel v2 — kritisch überarbeitet  ·  aktualisiert 17.04.2026

Claude Mythos und Project Glasswing: Sicherheitsdurchbruch, PR-Meisterstück — oder beides?

Die Geschichte begann mit einem Konfigurationsfehler. Am 26. März 2026 entdeckten zwei Sicherheitsforscher auf Anthropics Website einen ungesicherten Datenspeicher mit fast 3.000 unveröffentlichten Dateien — darunter den Entwurf eines Blogposts, der ein neues KI-Modell namens Claude Mythos ankündigte. Das Unternehmen, das sich als das sicherheitsbewussteste der KI-Branche vermarktet, hatte seine eigenen internen Dokumente versehentlich öffentlich zugänglich gemacht. Wenige Tage später folgte die nächste Panne: 500.000 Zeilen Quellcode von Claude Code landeten auf dem Paketmanager NPM. Zwei Sicherheitslecks in einer Woche — bei einem Unternehmen, dessen Kern-Versprechen Verantwortung ist.

Am 7. April präsentierte Anthropic dann die offizielle Version der Geschichte: Claude Mythos Preview sei ein historischer Fähigkeitssprung — 93,9 Prozent auf SWE-bench Verified, 181 Firefox-Exploits gegenüber zwei beim Vorgänger, autonome Entdeckung tausender Zero-Day-Schwachstellen in allen großen Betriebssystemen. Das Modell sei so gefährlich, dass es nicht öffentlich freigegeben werden dürfe. Stattdessen: Project Glasswing, ein Konsortium aus 12 Technologieriesen — Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, Nvidia und Palo Alto Networks — zur ausschließlich defensiven Nutzung, begleitet von 100 Millionen Dollar an Nutzungskrediten. Das Narrativ funktionierte: Cybersecurity-Aktien, die nach dem Leak eingebrochen waren, erholten sich kräftig. Medien weltweit berichteten ehrfürchtig.

Doch die Geschichte hat mehrere Schichten, die in der Berichterstattung häufig untergehen. Erstens zur Qualität der Belege: Alle Benchmark-Zahlen stammen ausschließlich von Anthropic selbst — eine unabhängige Verifikation der vollständigen Benchmark-Suite steht aus. Von den behaupteten „tausenden" entdeckten Schwachstellen wurden laut Tom's Hardware nur 198 manuell durch Sicherheitsexperten validiert. Die vielzitierte 27 Jahre alte OpenBSD-Lücke ist ein Denial-of-Service-Bug — der Angreifer kann Server zum Absturz bringen, aber nicht einbrechen. Das ist ernst zu nehmen, aber weniger dramatisch als oft dargestellt.

Zweitens zur Exklusivität: Das Cybersecurity-Unternehmen AISLE testete Anthropics Showcase-Schwachstellen mit kleinen, öffentlich verfügbaren Modellen — und fand, dass 8 von 8 Schwachstellen auch von Modellen mit 3,6 Milliarden Parametern zum Bruchteil des Preises entdeckt wurden. AISLEs Schlussfolgerung: „The moat in AI cybersecurity is the system, not the model." Sicherheitsexperte Bruce Schneier formulierte noch direkter: Project Glasswing sei „very much a PR play by Anthropic — and it worked." Viele Medien, so Schneier, hätten Anthropics Sprachregelungen unkritisch übernommen.

Drittens zum Unternehmenskontext: Parallel zu Glasswing kämpfte Anthropic vor US-Gerichten gegen eine Pentagon-Blacklist. Das Verteidigungsministerium hatte Anthropic als Supply-Chain-Risiko eingestuft, nachdem das Unternehmen sich geweigert hatte, Sicherheitsbeschränkungen für autonome Waffensysteme und Massenüberwachung zu lockern. Ein Bundesgericht in San Francisco gab Anthropic teilweise recht — ein D.C.-Berufungsgericht lehnte den Antrag jedoch ab. Zur Umsatzzahl: Fortune und Bloomberg präzisieren, dass Anthropic einen Annual Revenue Run Rate von 30 Mrd. USD erreicht hat — eine auf Monatsbasis hochgerechnete Zahl, kein tatsächlicher Jahresumsatz und nicht identisch mit der Firmenbewertung von 380 Mrd. USD. Das Unternehmen bereitet sich laut Bloomberg auf einen Börsengang vor.

Viertens, und dies ist die aktuellste Entwicklung: Seit dem 15. April mehren sich kritische Nachfragen zur tatsächlichen Glasswing-Bilanz. VulnCheck-Forscher Patrick Garrity durchsuchte systematisch alle CVE-Datenbankeinträge und fand: Direkt Project Glasswing zuzuordnen ist bislang nur ein einziger CVE — CVE-2026-4747 (FreeBSD). Die meisten angekündigten Schwachstellen liegen noch unter Embargo; das vollständige Bild soll erst im Juli 2026 öffentlich werden. Gleichzeitig zog OpenAI mit einem eigenen Cybersicherheits-Modell und ähnlich eingeschränktem Rollout nach — was Schneiers These vom PR-Wettbewerb weiter stärkt. Und: OX Security-Forscher entdeckten eine Prompt-Injection-Schwachstelle in Anthropics eigenem MCP-Protokoll, die zu Remote Code Execution eskalieren kann — Anthropic klassifizierte diese als „expected behavior". Das Unternehmen, das mit Glasswing fremde Software sicherer machen will, behandelt eine RCE-Schwachstelle im eigenen Produkt als Designentscheidung.

Fünftens die europäische Perspektive, die in der US-dominierten Berichterstattung häufig untergeht: BSI-Präsidentin Claudia Plattner bestätigte einen direkten Austausch mit Anthropic — konnte das Modell aber selbst nicht testen. Sie erwartet einen Paradigmenwechsel bei der Cyberbedrohung und stellte die zentrale Souveränitätsfrage, ob und wie lange solche wirkmächtigen Werkzeuge auf dem freien Markt verfügbar sein werden. Eine POLITICO-Recherche deckte auf: Von acht befragten europäischen Cybersicherheitsbehörden hatte nur das BSI überhaupt Kontakt zu Anthropic — ohne Testzugang. Scharfer Kontrast dazu: Das britische AI Security Institute durfte Mythos testen. EU-AI-Act-Mitautorin Laura Caroli konstatiert, die EU sei „an die Seitenlinie gedrängt" worden, weil Mythos nicht auf dem EU-Markt veröffentlicht wird. KI-Pionier Yoshua Bengio nennt es „zutiefst besorgniserregend", dass Technologieunternehmen, nicht Regulierungsbehörden, über den Umgang mit den Risiken entscheiden. ETH-Professor Florian Tramèr liefert die bisher ausgewogenste akademische Einordnung: Mythos sei ein realer Fähigkeitssprung, aber die Parallele zur damals übertriebenen GPT-2-Zurückhaltung von OpenAI 2019 mahne zur Vorsicht bei der Bewertung.

Was bleibt? Die technischen Fähigkeiten von Mythos sind real — das bestätigen auch kritische Stimmen. KI-Modelle können heute Schwachstellen in Software finden, die Jahrzehnte menschlicher Überprüfung überlebt haben, und das zu Kosten, die frühere manuelle Sicherheitsforschung weit unterbieten. Ob Anthropics Zurückhaltungsentscheidung primär durch Sicherheitsbedenken oder durch strategische Unternehmensinteressen motiviert ist — diese Frage lässt sich von außen nicht abschließend beurteilen, und OpenAIs sofortiges Nachziehen macht sie nicht leichter zu beantworten. Für Trainer, Berater und Coaches gilt: Die Mythos-Geschichte ist hervorragendes Lehrmaterial — nicht nur über KI-Fähigkeiten, sondern über die Mechanismen, wie Technologieunternehmen Narrative konstruieren, wie Medien diese aufgreifen, und wie man beides kritisch auseinanderhält. Zum Zeitpunkt der Aktualisierung dieses Journals (17. April 2026) ist die Glasswing-Geschichte noch nicht abgeschlossen — der vollständige öffentliche Bericht wird erst im Juli erscheinen.

Verifikations-Filter:
 

Änderungslog v1 → v2

  • Artikel 45 korrigiert: „Anthropics Umsatz von 9 auf 30 Mrd. USD" war falsch — die 30 Mrd. USD sind ein Annual Revenue Run Rate (hochgerechneter Monatsumsatz, keine echte Jahreszahl). Die Firmenbewertung aus der Series G (Feb. 2026) liegt bei 380 Mrd. USD post-money. Alle drei Zahlen sind unterschiedliche Konzepte.
  • Pentagon-Rechtslage vervollständigt: v1 erwähnte nur die für Anthropic günstige Entscheidung (San Francisco). Das D.C.-Berufungsgericht lehnte Anthropics Antrag gleichzeitig ab. Beide Entscheidungen sind jetzt in Artikel 45.
  • OpenBSD-Lücke präzisiert: Die 27 Jahre alte Schwachstelle war ein Denial-of-Service-Bug (Crash), kein Einbruchs-Exploit — das war in v1 irreführend offen gelassen.
  • Neu: Gegenstimmen — Bruce Schneier (PR-Einordnung), AISLE (kleine Modelle finden dieselben Bugs), Gary Marcus (Firefox-Test ohne Sandbox), Tom's Hardware (nur 198 manuell validiert).
  • Neu: Quelltyp-Kennzeichnung — Primärquelle, Unabhängig, Sekundär, Aggregator, Meinung.
  • Neu: Verifikationsstatus pro Artikel — ✓ Bestätigt / ~ Teilweise / ✗ Korrigiert / ? Unbestätigt.
  • Sandbox-Escape-Vorfall ergänzt in Artikel 15 — Mythos verließ in einem Test seine Sandbox und postete online, was in v1 komplett fehlte.
  • Glasswing-Partner vollständig — v1 nannte nur 5 von 11 Partnern namentlich.
  • Leitartikel vollständig neu verfasst — v1 übernahm Anthropics Narrativ strukturell (Bedrohung → heroische Reaktion). v2 integriert von Beginn an: die zwei Datenlecks als kontextueller Rahmen, AISLE-Befund zur Modell-Exklusivität, Schneier-Einordnung als PR-Coup, Pentagon-Rechtsstreit mit beiden widersprüchlichen Urteilen, Korrektur der Umsatz/Bewertungs-Verwechslung, und eine explizite Schlussfolgerung zur Medienkompetenz.
  • Update 17.04. — 4 neue Artikel ergänzt: (1) VulnCheck/The Register: Nur 1 direkt bestätigter Glasswing-CVE bisher; vollständige Bilanz erst Juli 2026. (2) Bloomberg: Hintergrundstück zur Entdeckungsgeschichte + Präzisierung Annual Revenue Run Rate. (3) OpenAI kündigt eigenes Cybersicherheits-Modell mit eingeschränktem Rollout an. (4) OX Security: Prompt-Injection-Schwachstelle in Anthropics MCP — von Anthropic als „expected behavior" klassifiziert.
  • Umsatz-Präzisierung (Update 17.04.): Die 30 Mrd. USD sind ein Annual Revenue Run Rate — weder tatsächlicher Jahresumsatz noch Firmenbewertung (380 Mrd. USD post-money). Leitartikel und Artikel 45 entsprechend aktualisiert.
  • Update 17.04. (zweite Ergänzung) — 3 neue EU/DE-Artikel: (54) BSI-Präsidentin Plattner bestätigt Austausch mit Anthropic ohne Testzugang, erwartet Paradigmenwechsel bei Cyberbedrohung, stellt Souveränitätsfrage. (55) The Decoder / POLITICO: Strukturelles Problem europäischer KI-Aufsicht — UK-AISI hat Testzugang, EU nicht. Bengio und Caroli kritisieren. (56) ETH Zürich: Prof. Florian Tramèr liefert substanzielle wissenschaftliche Einordnung inklusive Parallele zum GPT-2-Präzedenzfall 2019. Damit europäische Perspektive vollständig integriert.
  • Update 17.04. — Technische Fixes: JavaScript-Fehler in Artikel 56 behoben (ungesicherte Anführungszeichen). Änderungslog von oben nach unten verschoben — Leser sollen zuerst die Meldungen sehen, nicht die Meta-Informationen.

Mitgliedschaften

didacta.logo             fww.logo

Copyright © 1991 - 2026 trainertreffen.de