Hier kannst du dir den Newsletter als Podcast anhören:
Inhaltsverzeichnis
- 🤖 Anthropic zahlt 1,5 Milliarden Dollar an Autoren
- 🔎 Google AI Mode wird Standard-Sucherfahrung
- 🏦 ASML plant Milliardenbeteiligung an Mistral AI
- ⚙️ OpenAI erwirbt Cursor for Xcode
- ⚡ NVIDIA Run:ai GPU Memory Swap optimiert KI-Inferenz
---
🤖 Anthropic zahlt 1,5 Milliarden Dollar an Autoren
Anthropic zahlt mindestens 1,5 Milliarden Dollar zur Beilegung von Urheberrechtsansprüchen von US-Autoren, deren Bücher ohne Genehmigung für KI-Training verwendet wurden. Pro Werk sollen ca. 3.000 Dollar gezahlt werden, und insgesamt geht es um rund 500.000 Werke, deren piratisierte Dateien gelöscht werden müssen. Die Einigung umfasst Aktivitäten bis zum 25. August 2025; das Gericht entscheidet am 8. September über die Genehmigung der Einigung.
---
🔎 Google AI Mode wird Standard-Sucherfahrung
Google plant, den AI Mode zur Standard-Sucherfahrung zu machen und baut darauf auf den bestehenden AI Overviews auf, inklusive chatähnlicher Interaktionen und direkter Dienstleistungsbuchungen. Der AI Mode ist bereits in 180 Ländern aktiv, während Anwälte im Kartellverfahren argumentieren, dass das offene Web rapide decline, um das Anzeigengeschäft zu schützen. Die Einführung könnte den organischen Empfehlungsverkehr für Publisher weiter reduzieren, indem Nutzer stärker im Google-Ökosystem verweilen.
---
🏦 ASML plant Milliardenbeteiligung an Mistral AI
ASML strebt eine Mehrheitsbeteiligung an Mistral AI an und plant eine Investition von 1,3 Milliarden Euro. Die Finanzierungsrunde beläuft sich auf 1,7 Milliarden Euro und soll Mistral AI auf eine Bewertung von 10 Milliarden Euro erhöhen; ASML würde zudem einen Aufsichtsratsposten erhalten. Dieses Vorhaben stärkt Europas Zugang zu führender KI-Technologie und reduziert zugleich Abhängigkeiten von anderen Märkten.
---
⚙️ OpenAI erwirbt Cursor for Xcode
OpenAI übernimmt das Team hinter Cursor for Xcode, einem KI-gestützten iOS-Codierungstool, und integriert es ins Codex-Team, um die Entwicklung smarter und schneller zu gestalten. Ziel ist es, das Codex-Ökosystem zu erweitern und die Produktivität bei der iOS-Entwicklung signifikant zu steigern.
---
⚡ NVIDIA Run:ai GPU Memory Swap optimiert KI-Inferenz
Run:ai GPU Memory Swap ermöglicht das Hot-Swapping mehrerer KI-Modelle auf denselben GPUs, wodurch große KI-Modelle effizienter genutzt werden. Dadurch sinkt die Speicherbelastung, mehrere Modelle können gleichzeitig laufen, und die Antwortzeit reduziert sich auf 2–3 Sekunden, während die Gesamtleistung um bis zu 66-fach steigen kann.