Anzeige
Skip to content
Read full article about: Anthropic erweitert Labs-Team für experimentelle KI-Produkte

Anthropic baut sein Labs-Team aus, das sich auf experimentelle Produkte rund um Claude-KI-Modelle fokussiert. Mike Krieger, Mitgründer von Instagram und bisheriger Chief Product Officer bei Anthropic, wechselt zu Labs und arbeitet dort mit Ben Mann zusammen. Ami Vora, die Ende 2025 zu Anthropic kam, übernimmt die Leitung der Produktorganisation und arbeitet mit CTO Rahul Patil zusammen, um Claude-Produkte weiterzuentwickeln.

Labs gebe Raum, um neue Wege zu gehen und zu experimentieren, so Anthropic-Präsidentin Daniela Amodei. Das Team hat bereits mehrere erfolgreiche Produkte hervorgebracht: Claude Code wuchs innerhalb von sechs Monaten zu einem Produkt mit einer Milliarde Dollar Umsatz. Das Model Context Protocol (MCP) erreicht 100 Millionen monatliche Downloads und gilt als Branchenstandard für die Verbindung von KI mit Werkzeugen und Daten. Auch das kürzlich vorgestellte "Cowork", Claude Code für die Büroarbeit, wurde in den Labs entwickelt. Ebenso stammen Skills und Claude in Chrome aus dem Labor.

Googles Open-Source-Modell MedGemma 1.5 versteht dreidimensionale CT- und MRT-Aufnahmen

Google veröffentlicht MedGemma 1.5, ein Open-Source-Modell, das erstmals dreidimensionale CT- und MRT-Aufnahmen interpretieren kann. Dazu kommt ein neues Spracherkennungsmodell für medizinische Diktate.

Read full article about: Wer von Sprachmodellen Widerspruchsfreiheit erwartet, stellt laut einem Anthropic-Forscher die falsche Frage

Wer von Sprachmodellen innere Kohärenz erwartet, stellt laut einem Anthropic-Forscher die falsche Frage.

"Warum sagt Seite fünf eines Buches, das beste Essen sei Pizza, und Seite 17, das beste Essen sei Pasta? Was denkt das Buch wirklich? Und du sagst: 'Es ist ein Buch!'", erklärt Josh Batson, Research Scientist bei Anthropic, in einem lesenswerten Artikel über Methoden zur Interpretierbarkeit von LLMs im MIT Technology Review.

Die Analogie stammt aus Experimenten zur internen Verarbeitung von Fakten. Anthropic fand heraus, dass Claude unterschiedliche Mechanismen nutzt, um zu wissen, dass Bananen gelb sind, und um zu bestätigen, dass der Satz "Bananen sind gelb" wahr ist. Diese Mechanismen sind nicht miteinander verbunden. Wenn ein Modell widersprüchliche Antworten gibt, greift es auf verschiedene Teile seiner selbst zurück – ohne zentrale Instanz. "Es könnte sein, dass du mit Claude redest und es dann abdriftet", sagt Batson. "Und jetzt redest du nicht mehr mit Claude, sondern mit etwas anderem." Die Implikation: Die Annahme, Sprachmodelle besäßen mentale Kohärenz wie Menschen, könnte ein Kategorienfehler sein.

Basecamp Research kartiert eine Million Spezies für KI-gestützte Medikamente

Das britische Unternehmen Basecamp Research hat gemeinsam mit Forschern von Nvidia und Microsoft KI-Modelle entwickelt, die aus einer Datenbank von über einer Million Spezies potenzielle neue Therapien gegen Krebs und multiresistente Bakterien generieren sollen. Die Forscher selbst mahnen jedoch zur Vorsicht.

Web World Models sollen KI-Agenten konsistente Spielwiesen geben

Forscher der Princeton University haben gemeinsam mit Kollegen der UCLA und University of Pennsylvania einen Ansatz vorgestellt, der KI-Agenten dauerhafte Welten zum Erkunden geben soll. Gewöhnlicher Web-Code legt dabei die Spielregeln fest, während ein Sprachmodell diese Welt mit Geschichten und Beschreibungen füllt.

Neue Methode von Deepseek stabilisiert Signale beim Training großer KI-Modelle

Forscher von Deepseek haben eine Methode entwickelt, die das Training großer Sprachmodelle stabiler macht. Der Ansatz nutzt mathematische Einschränkungen, um ein bekanntes Problem bei erweiterten Netzwerkarchitekturen zu lösen.

KI-Agenten können Benchmarks "hacken": Warum Testergebnisse oft wenig aussagen

Benchmarks sollen objektiv messen, wie gut KI-Modelle sind. Doch laut einer Analyse von Epoch AI hängen die Ergebnisse stark davon ab, wie genau der Test durchgeführt wird. Die Forschungsorganisation identifiziert zahlreiche Variablen, die selten offengelegt werden, aber erheblichen Einfluss haben.

Urheberrechtlich geschützte Romane lassen sich laut Studien fast komplett aus KI-Sprachmodellen abrufen

Harry Potter, Herr der Ringe, Game of Thrones: Forscher extrahieren ganze Romane aus kommerziellen Sprachmodellen. Zwei der vier getesteten Systeme leisteten nicht einmal Widerstand. Die Ergebnisse könnten laufende Urheberrechtsklagen gegen KI-Unternehmen beeinflussen.