1) OpenAI und AMD schließen 6‑GW‑Deal – was das für Compute-Knappheit bedeutet
OpenAI und AMD haben eine mehrjährige Partnerschaft vereinbart: Bis zu 6 Gigawatt GPU‑Leistung sollen über mehrere Chip‑Generationen bereitgestellt werden. Der Startschuss fällt mit rund 1 GW MI450 ab der zweiten Jahreshälfte 2026. Das klingt technisch – ist aber vor allem ein Signal, dass die größten KI‑Anbieter ihre Rechenkapazitäten langfristig absichern und diversifizieren.
Strategisch bricht OpenAI damit ein Stück weit die Abhängigkeit von einem einzelnen Hersteller. Für AMD ist der Deal ein Ritterschlag und dürfte einen kräftigen Software‑Push rund um Instinct‑GPUs nach sich ziehen – vom Treiber‑Stack bis zu Framework‑Optimierungen. Für den Markt heißt das: mehr Wettbewerb bei Beschleunigern, aber auch eine anhaltende Nachfragewelle nach Energie, Kühlung und Interconnects.
Für DACH‑KMU: Rechnen Sie 2026/27 mit etwas entspannterer GPU‑Verfügbarkeit – aber nicht mit Dumpingpreisen. Setzen Sie auf portables Deployment (Container, ONNX/torch.compile, Triton/Inference‑Server), verhandeln Sie kapazitätsgebundene SLAs und prüfen Sie Cloud‑Ausstiegsrampen (Export von Checkpoints, Replikationspläne).
2) Sora‑Kontroverse: Deepfakes verstorbener Stars verschärfen Debatte um Einwilligung
Die öffentliche Diskussion um KI‑Videos flammt erneut auf: Familien prominenter Verstorbener kritisieren realistische Sora‑Clips ihrer Angehörigen. Im Zentrum stehen postmortale Persönlichkeitsrechte, mögliche Marken‑/Urheberrechtsverletzungen und die Frage, ob Opt‑in‑ oder Opt‑out‑Mechanismen genügen.
Berichte deuten darauf hin, dass Anbieter Schutzmaßnahmen nachschärfen – von strengeren Upload‑Kontrollen bis hin zu feineren Rechte‑Workflows. Gleichzeitig zeigt der Fall, wie schnell Wasserzeichen, Herkunftsnachweise und Policy‑Texte an praktische Grenzen stoßen, wenn Clips viral gehen.
Für DACH‑KMU & Creators: Einwilligungen schriftlich fixieren (Bild/Stimme/Ähnlichkeit), Provenance standardisieren (C2PA/Content Credentials), und klare Takedown‑Pfade mit Reaktionsfristen definieren. Intern lohnt sich ein Red‑Team‑Check: „Könnte dieses Asset jemanden verletzen – und wie stoppen wir es in der Pipeline?“
3) Microsoft rüstet Copilot im Gesundheitsbereich auf – mit kuratierten Inhalten
Microsoft integriert laut übereinstimmenden Berichten medizinische Fachinhalte von Harvard Health Publishing in Copilot, um Antworten bei Gesundheitsfragen zu präzisieren. Parallel strebt der Konzern mehr Modell‑Diversifikation an – neben OpenAI‑Modellen kommen vermehrt Alternativen zum Einsatz.
Der Schritt adressiert eine Kernkritik an Chatbots: Allgemeine Sprachkompetenz ist nicht gleich medizinische Verlässlichkeit. Kuratierte Quellen, strengere Antwortformate und Haftungshinweise sollen Fehlanreize reduzieren – wichtig für Unternehmen, die Copilot in Kundendialoge oder Self‑Service‑Portale einbinden.
Für DACH‑Teams im Gesundheits‑/Wellness‑Kontext: Triagieren statt Diagnostik. Klare Haftungs‑Banner, Weiterleitungslogik zu Ärzt:innen und ein Audit‑Log für sensible Antworten sind Pflicht. Technisch: Antwort‑Vorlagen (symptom check → „roter Flaggen“-Liste → „Suchen Sie ärztliche Hilfe“), plus Human‑in‑the‑Loop bei Risiken.
4) Anthropic expandiert nach Bengaluru – Asien‑Support gewinnt an Fahrt
Anthropic (Claude) kündigt ein erstes Indien‑Büro für Anfang 2026 an. Begründung: starkes Entwickler‑Ökosystem, wachsende Nachfrage und strategische Nähe zu APAC‑Kunden. Für Nutzer heißt das: mehr regionale Events, Partnerschaften und lokalisierte Angebote.
Der Schritt folgt einer Reihe von Community‑Formaten (Dev‑Days, Branchenevents) und deutet auf beschleunigte Roadmaps im Bereich Agenten, Claude Code und vertikale Copilots hin. Auch Integrationen mit großen SI‑/Cloud‑Partnern in der Region dürften zulegen.
Für DACH‑KMU: Prüfen Sie Support‑Zeitfenster (Follow‑the‑Sun), Partnerprogramme und lokale Preis‑/Abrechnungsmodelle. Wer APAC‑Teams hat, profitiert von niedriger Latenz und schnellerem Handover – besonders bei 24/7‑Workflows oder datenlastigen Vorverarbeitungen.
5) IBM & Anthropic: Enterprise‑Fokus mit Governance‑Schwerpunkt
IBM und Anthropic gehen eine strategische Partnerschaft ein: Claude‑Modelle sollen tiefer in IBMs Software‑Portfolio (u. a. Code‑/Dev‑Workflows) integriert werden – inklusive Security, Governance und Kostenkontrollen „by design“.
Business‑Lesart: Etablierte Enterprise‑Player bündeln KI‑Komponenten zu prüfbaren, auditierbaren Workflows. Für IT‑Leitungen zählt weniger der Modellname – wichtiger sind Identity‑/Policy‑Anbindung, Logging und Kosten‑Transparenz bis auf Job‑Ebene.
Für DACH‑Firmen mit IBM‑Stack: Use‑Cases priorisieren (Code‑Refaktorierung, Test‑Generierung, Change‑Impact). Vorab Guardrails definieren (PII‑Filter, Secrets‑Scanner) und Metriken festlegen (Fehlerquote, Zykluszeit, Cloud‑Kosten pro Merge).
6) KI‑Rechtsrisiken: Vergleichstöpfe und „Captive Insurance“ gewinnen an Bedeutung
Berichte zeigen, dass große KI‑Anbieter neue Wege zur Risikofinanzierung gehen – von erweiterten Policen über eigene Rücklagen bis hin zu Captive‑Strukturen. Hintergrund sind laufende und drohende Verfahren rund um Trainingsdaten, Urheberrechte und Haftung bei Fehlverhalten von Modellen.
Das ist keine Randnotiz, sondern beeinflusst Verträge, Preise und Roadmaps. Je besser Rechtsrisiken quantifiziert und gemanagt werden, desto planbarer werden Unternehmens‑Rollouts – inklusive Zusagen wie Schadloshaltung oder IP‑Indemnity.
Für DACH‑Beschaffer:innen: AEB/DPAs aktualisieren (Trainingsdaten‑Zusicherungen, Opt‑out‑Mechanik, Notice‑and‑Takedown), Indemnity‑Caps prüfen und Eskalationspfade dokumentieren. Für Publisher/Creator: Lizenzregister pflegen, Content‑Fingerprints nutzen und Claims‑Playbook vorbereiten.
7) Google: „Gemini 3“ sorgt für Gerüchte – was heute realistisch ist
Rund um den möglichen Gemini‑3‑Launch kursieren Berichte über A/B‑Tests und bessere Coding‑Leistung. Offizielle Kanäle zeigen derweil vor allem Updates zu Gemini 2.5 (z. B. Live‑/Audio, Embeddings) – harte Spezifikationen oder Release‑Notes zu „3.0“ stehen weiterhin aus.
Für Teams heißt das: Hypethemen einordnen und Release‑Notes statt Leaks zur Grundlage machen. Wichtiger als Versionsnummern sind Benchmarks im eigenen Stack (Latenz, Kosten, Korrektheit) und klare Fallbacks.
Praxis‑Tipp: A/B‑Harness bereithalten (Prompts/Tests fixieren), Eval‑Suiten mit golden answers fahren und API‑Adapter so kapseln, dass ein Modellwechsel ohne Produktstillstand möglich ist.