US-Senat verabschiedet Gesetz gegen sexuelle KI-Deepfakes nach Grok-Skandal
Der US-Senat reagiert auf die Flut sexualisierter KI-Bilder auf Elon Musks Plattform X mit einem neuen Gesetz. Opfer sollen künftig die Urheber verklagen können.
Der US-Senat reagiert auf die Flut sexualisierter KI-Bilder auf Elon Musks Plattform X mit einem neuen Gesetz. Opfer sollen künftig die Urheber verklagen können.
Der neue Apple-Google-Deal degradiert ChatGPT zur bloßen Notfall-Option auf dem iPhone.
Im Gespräch mit The Information betonte ein Apple-Sprecher, dass die tiefe Integration von Gemini "die Vereinbarung mit OpenAI nicht beeinträchtigen würde, ChatGPT für komplexere Anfragen zu nutzen".
Doch für OpenAI ist die Gemini-Integration in Siri das endgültige Signal einer gescheiterten Kooperation: CEO Sam Altman und sein Team hofften ursprünglich, die Apple-Partnerschaft könnte Milliarden von Dollar an zusätzlichen Einnahmen generieren und Googles Dominanz auf Apple-Geräten brechen.
Stattdessen verschaffte der Deal OpenAI laut einer Quelle von The Information kaum zusätzlichen Traffic und nun übernimmt Googles Modell die alltägliche Nutzerinteraktion, während ChatGPT nur noch als optionale Ausweichlösung dient.
Die Musikplattform Bandcamp untersagt ab sofort Musik, die vollständig oder zu wesentlichen Teilen durch generative Künstliche Intelligenz erstellt wurde. Mit dieser neuen Richtlinie will das Unternehmen nach eigener Aussage die menschliche Kreativität und die direkte Verbindung zwischen Künstlern und Fans schützen. Auch der Einsatz von KI-Tools zur Imitation bestimmter Künstler oder Stile ist laut den neuen Regeln strikt verboten.
Anders als bei vielen Streaming-Diensten steht bei Bandcamp der direkte Kauf von Musik und Merchandise im Vordergrund, wodurch Fans die Urheber direkt finanziell unterstützen können.
Nutzer sind aufgefordert, Inhalte zu melden, die stark nach KI klingen. Bandcamp behält sich das Recht vor, Musik bereits bei bloßem Verdacht auf einen KI-Ursprung von der Plattform zu entfernen.
Microsoft kündigt eine neue Initiative für KI-Rechenzentren an, mit der der Konzern auf den wachsenden Widerstand in US-Gemeinden reagieren will. Das Unternehmen verpflichtet sich, die vollen Stromkosten seiner Rechenzentren selbst zu tragen, damit Anwohner keine höheren Stromrechnungen zahlen müssen. Microsoft will außerdem keine lokalen Steuervergünstigungen mehr beantragen, den Wasserverbrauch bis 2030 um 40 Prozent senken und mehr Wasser zurückführen als es nutzt.
Präsident Brad Smith sagte gegenüber GeekWire, die Branche habe früher anders gearbeitet und müsse sich nun ändern. Trump hatte die Ankündigung vorab auf Truth Social erwähnt. In Rechenzentrumsgebieten wie Virginia, Illinois und Ohio stiegen die Strompreise zuletzt 12-16 Prozent schneller als im US-Durchschnitt. Microsoft will zudem lokale Arbeitskräfte ausbilden und in KI-Bildungsprogramme investieren.
Wer von Sprachmodellen innere Kohärenz erwartet, stellt laut einem Anthropic-Forscher die falsche Frage.
"Warum sagt Seite fünf eines Buches, das beste Essen sei Pizza, und Seite 17, das beste Essen sei Pasta? Was denkt das Buch wirklich? Und du sagst: 'Es ist ein Buch!'", erklärt Josh Batson, Research Scientist bei Anthropic, in einem lesenswerten Artikel über Methoden zur Interpretierbarkeit von LLMs im MIT Technology Review.
Die Analogie stammt aus Experimenten zur internen Verarbeitung von Fakten. Anthropic fand heraus, dass Claude unterschiedliche Mechanismen nutzt, um zu wissen, dass Bananen gelb sind, und um zu bestätigen, dass der Satz "Bananen sind gelb" wahr ist. Diese Mechanismen sind nicht miteinander verbunden. Wenn ein Modell widersprüchliche Antworten gibt, greift es auf verschiedene Teile seiner selbst zurück – ohne zentrale Instanz. "Es könnte sein, dass du mit Claude redest und es dann abdriftet", sagt Batson. "Und jetzt redest du nicht mehr mit Claude, sondern mit etwas anderem." Die Implikation: Die Annahme, Sprachmodelle besäßen mentale Kohärenz wie Menschen, könnte ein Kategorienfehler sein.
Das britische Unternehmen Basecamp Research hat gemeinsam mit Forschern von Nvidia und Microsoft KI-Modelle entwickelt, die aus einer Datenbank von über einer Million Spezies potenzielle neue Therapien gegen Krebs und multiresistente Bakterien generieren sollen. Die Forscher selbst mahnen jedoch zur Vorsicht.
Apple nutzt künftig Googles Gemini-Modelle für seine KI-Funktionen, darunter eine überarbeitete Version von Siri. Die mehrjährige Kooperation sieht vor, dass Apple für seine kommenden Modelle auf Googles Gemini und dessen Cloud-Technologie setzt, berichtet CNBC. Die neuen Funktionen sollen noch in diesem Jahr verfügbar sein.
Apple erklärte in einer Stellungnahme, dass Googles Technologie nach sorgfältiger Prüfung die fähigste Grundlage für die eigenen Anwendungen biete. Bereits im März letzten Jahres gab es Gerüchte über Gespräche zwischen den beiden Tech-Riesen. Später gab es Berichte, der Umstieg werde das Unternehmen wohl mehr als eine Milliarde US-Dollar jährlich kosten.
Der Schritt steht im Kontext von Apples anhaltenden Problemen mit der Siri‑Architektur. Interne Berichte beschreiben Siri als technisch fragmentiertes System aus alten regelbasierten Komponenten und neueren generativen Modellen, das Weiterentwicklungen erschwert und zu hoher Fehleranfälligkeit führt. Parallel arbeitet Apple an einer vollständig neuen eigenen LLM‑Architektur und an einem Modell mit rund einer Billion Parametern, um langfristig wieder unabhängig von externen Anbietern zu werden. Auch Google hatte anfangs Schwierigkeiten, mit der von OpenAI vorgelegten Geschwindigkeit mitzuhalten, fand aber relativ schnell den Anschluss.
Die britische Medienaufsicht Ofcom hat eine Untersuchung gegen X wegen des KI-Chatbots Grok eingeleitet. Damit reagiert die Behörde auf Berichte der letzten Wochen, denen zufolge der Chatbot und die Social-Media-Plattform von Elon Musk zunehmend genutzt wurden, um nicht einvernehmliche intime Bilder und sexualisiertes Material von Kindern zu erstellen und zu teilen.
Ofcom prüft nun, ob X gegen den britischen Online Safety Act verstoßen hat. Die Behörde kontaktierte X am 5. Januar 2025 und forderte bis zum 9. Januar eine Stellungnahme. Die Untersuchung soll klären, ob X ausreichende Maßnahmen zum Schutz britischer Nutzer vor illegalen Inhalten ergriffen hat. Bei Verstößen drohen Strafen von bis zu 18 Millionen Pfund oder 10 Prozent des weltweiten Umsatzes. In schweren Fällen könnte ein Gericht sogar anordnen, den Zugang zu X in Großbritannien zu sperren. Ofcom prüft auch, ob xAI, das KI-Unternehmen hinter Grok, gegen Vorschriften verstoßen hat. Vergangene Woche hatte die EU-Kommission X angewiesen, alle internen Dokumente und Daten zum KI-Chatbot Grok bis Ende 2026 aufzubewahren.