Liebe KI-Enthusiasten,
herzlich willkommen zu einer neuen Ausgabe unseres KI-Newsletters, der Sie über die neuesten Entwicklungen und Innovationen in der Welt der künstlichen Intelligenz auf dem Laufenden hält.
Wichtigste Punkte heute
🤖 Meta kauft sich bei Scale AI ein und startet Team für KI-Superintelligenz
🎬 Google DeepMind zeigt mit „ANCESTRA", wie KI und Live-Action-Filmemachen verschmelzen
📊 Deutsche Unternehmen: 62% der Manager sehen KI als entscheidend, aber nur 12% der Mitarbeiter nutzen sie aktiv
🚀 Software 3.0: Andrej Karpathy erklärt, wie natürliche Sprache zur neuen Programmierschnittstelle wird
Viel Spaß
Ihr
Martin Blaha
🔥 Gefällt Ihnen unser Newsletter? Unterstützen Sie unsere Arbeit, in dem Sie uns Ihren Freunden und Kollegen empfehlen:
Produktneuheiten
Google erweitert Gemini 2.5 Modellfamilie mit neuem Flash-Lite und stabilen Pro- und Flash-Versionen
Google hat die Gemini 2.5 Modellfamilie um die stabilen und allgemein verfügbaren Versionen 2.5 Pro und 2.5 Flash erweitert und stellt mit 2.5 Flash-Lite ein neues, besonders kosteneffizientes und schnelles Modell in der Vorschau vor. Flash-Lite überzeugt durch bessere Leistung in Coding, Mathematik, Wissenschaft und Multimodalität bei niedriger Latenz und geringeren Kosten. Alle Modelle bieten eine 1-Million-Token-Kontextlänge, Multimodalität und Tool-Anbindung wie Google Search und Code-Ausführung. 2.5 Pro ist speziell für komplexe Aufgaben wie Programmierung und Agenten-Workflows optimiert und wird bereits produktiv eingesetzt.
Seedance 1.0 – ByteDance setzt neue Maßstäbe bei der KI-Videoerzeugung
Seedance 1.0 ist ein von ByteDance entwickeltes Modell zur Generierung von 1080p-Videos aus Text- und Bildeingaben mit nahtlosem Multi-Shot-Schnitt und cineastischer Qualität. Es überzeugt durch herausragende semantische Verständnisfähigkeiten, präzise Umsetzung komplexer Prompts sowie stabile und natürliche Bewegungsdarstellung. Das Modell unterstützt 2-3 Kameraperspektiven für erzählerische Vielschichtigkeit und erzeugt Videos in verschiedenen Stilen – von realistisch bis animiert. Mit einer schnellen Inferenzzeit von rund 41 Sekunden für 5-Sekunden-Videos ist Seedance 1.0 auch effizient. Es führt branchenweite Benchmarks in Prompt-Treue, Bewegungsqualität und Ästhetik an und ist über APIs öffentlich zugänglich.
Industrienachrichten
„ANCESTRA“: Wie Google DeepMind mit KI und Live-Action-Filmemachen neue Erzählwelten schafft
Der Kurzfilm „ANCESTRA“ von Eliza McNitt, der beim Tribeca Festival Premiere feierte, verbindet Live-Action mit KI-generierten Sequenzen durch DeepMinds Video-Generator Veo. Inspiriert von McNitts eigener Geburtserfahrung erzählt der Film die Geschichte einer Mutter und ihres Kindes mit einem Herzfehler. DeepMind nutzte dabei sein KI-Modell Gemini zur präzisen Bildbeschreibung und Imagen zur Konzeptkunst, bevor Veo die Animationen erzeugte. Neue Veo-Fähigkeiten erlaubten personalisierte Videoerzeugung, präzise Bewegungsanpassung und das nahtlose Einfügen von KI-Bildern in Live-Action-Szenen. So verschmilzt „ANCESTRA“ traditionelle Filmtechnik mit modernster KI, um emotionale und visuell beeindruckende Geschichten zu erzählen.
Meta kauft sich bei Scale AI ein – Existenzängste bei Kunden und Mitarbeitern
Scale AI verkauft 49% an Meta für 15 Mrd. USD, CEO Alexandr Wang wechselt zu Meta, um ein neues KI-Labor zu leiten. Dies löst Befürchtungen aus, dass Kunden wie OpenAI ihre Zusammenarbeit mit Scale beenden, da sie Datenschutzrisiken und Datenzugriffe durch Meta fürchten. Scale gilt als führender Anbieter von Datenkennzeichnung für KI-Modelle, doch der Deal könnte das Vertrauen zerstören und das Geschäftsmodell gefährden. Wettbewerber sehen Chancen, Kunden abzuwerben. Wang soll bei Meta Superintelligenz entwickeln, während Scale-Mitarbeiter verunsichert sind. Der Deal ist noch nicht abgeschlossen und könnte regulatorische Hürden haben.
Meta startet Team für KI-Superintelligenz – Angriff statt Verteidigung
Meta baut ein Team für KI-Superintelligenz auf und will damit im Rennen um künstliche allgemeine Intelligenz (AGI) und Superintelligenz mitmischen. Trotz des schleppenden Metaverse-Erfolgs setzt Meta auf Offensive, auch in Zusammenarbeit mit dem US-Militär und Anduril bei KI-gestützten VR/AR-Geräten. Mit einem neunstelligen Gehaltspaket will Meta Top-Talente gewinnen und sich als ernstzunehmender Konkurrent zu OpenAI positionieren, das ebenfalls an sozialen Netzwerken mit KI arbeitet. Meta zeigt damit seine Ambitionen, im Bereich militärischer und ziviler KI-Technologien führend zu sein.
Nvidia und Perplexity treiben KI-Lokalisierung in Europa voran
Nvidia und die KI-Suchfirma Perplexity kooperieren mit über einem Dutzend europäischer und nahöstlicher KI-Unternehmen, um KI-Modelle für lokale Sprachen zu entwickeln und zu verbreiten. Ziel ist es, robuste, kulturell angepasste KI-Modelle zu schaffen, die auch für weniger verbreitete Sprachen mit begrenzten Trainingsdaten funktionieren. Nvidia unterstützt dabei die Generierung synthetischer Daten, während Perplexity die Verteilung der Modelle in lokalen Rechenzentren übernimmt. Deutschland ist bereits Perplexitys zweitwichtigster Markt. Die Partnerschaft soll Unternehmen ermöglichen, KI effizient für komplexe Aufgaben einzusetzen und fördert die europäische KI-Souveränität.
👉 Artikel bei The Wall Street Journal
Neue Jobs durch Künstliche Intelligenz: Chancen jenseits der Angst
Die New York Times beleuchtet, wie KI trotz Befürchtungen vor Jobverlusten neue Berufsfelder schafft und menschliche Arbeit ergänzt. KI kann viele Aufgaben automatisieren, doch menschliche Verantwortlichkeit, Kreativität und soziale Interaktion bleiben unersetzlich. Besonders Softwareentwickler profitieren von KI-Tools, die ihre Produktivität steigern und kreative Tätigkeiten fördern. Die Zukunft der Arbeit erfordert Anpassung und neue Kompetenzen wie kritisches Denken und Empathie. KI wird nicht nur Jobs vernichten, sondern auch neue Chancen eröffnen, indem sie Menschen unterstützt und neue Rollen entstehen lässt.
👉 Artikel bei The New York Times
Software 3.0 – Die neue Ära des Programmierens mit großen Sprachmodellen
Andrej Karpathy beschreibt in seiner Keynote auf der AI Startup School 2025, wie Software sich fundamental wandelt: Wir sind in der Ära von „Software 3.0“ angekommen, in der natürliche Sprache (Englisch) zur neuen Programmierschnittstelle wird und große Sprachmodelle (LLMs) die Ausführung übernehmen. LLMs sind eine neue Art von Computer, die Eigenschaften von Betriebssystemen, Versorgungsnetzen und Fabriken vereinen. Sie simulieren menschliche Psychologie und ermöglichen die Entwicklung teilautonomer Produkte. Diese Entwicklung macht Software zugänglicher und fordert Entwickler heraus, zwischen drei Programmierparadigmen (Software 1.0, 2.0 und 3.0) zu wechseln. Karpathy sieht in LLMs nicht nur Werkzeuge, sondern eine neue Computerarchitektur, die die Zukunft der Software prägt.
Veröffentlichungen und Ankündigungen
Groq und Hugging Face: Blitzschnelle KI-Inferenz jetzt nahtlos integriert
Hugging Face hat Groq als neuen Inferenzanbieter direkt in Playground und API integriert, was Entwicklern schnellen und kosteneffizienten Zugriff auf Groqs hochperformante KI-Inferenz ermöglicht. Nutzer können Groq einfach als Provider wählen und über ihr Hugging Face-Konto abrechnen lassen oder alternativ eigene Groq-API-Schlüssel verwenden. Die Integration unterstützt führende Open-Source-Modelle wie Meta Llama 3 & 4, Qwen3 32B und weitere, die von Groqs spezieller Language Processing Unit (LPU) mit extrem niedriger Latenz und hoher Durchsatzrate beschleunigt werden. Diese Zusammenarbeit macht leistungsstarke KI-Inferenz für Entwickler einfacher zugänglich und effizienter.
Wie Anthropic ein Multi-Agenten-Forschungssystem für komplexe Aufgaben baute
Anthropic entwickelte ein Multi-Agenten-System, bei dem ein leitender Agent die Forschung plant und spezialisierte Subagenten parallel verschiedene Aspekte einer Anfrage untersuchen. Dieses System erlaubt dynamische, parallele Recherche, die flexibler als lineare Ansätze ist und komplexe, offene Fragestellungen besser bewältigt. Die Architektur nutzt getrennte Kontextfenster, um Token effizient zu skalieren, was die Leistung gegenüber Ein-Agenten-Systemen deutlich verbessert. Kritisch sind dabei sorgfältige Prompt-Gestaltung, klare Aufgabenverteilung, Tool-Auswahl und umfangreiche Evaluationen, um Koordination und Zuverlässigkeit zu sichern. Herausforderungen sind hoher Tokenverbrauch und komplexes Fehler-Management in lang laufenden Agentenprozessen.
NXAI xLSTM: Europäische KI-Architektur übertrifft Transformer dank AMD Instinct GPUs
Die von NXAI entwickelte xLSTM-Architektur, eine Weiterentwicklung der LSTM-Technologie, erzielt auf AMD Instinct MI300X GPUs herausragende Leistungen bei Edge-AI-Anwendungen und übertrifft Transformer-Modelle bei vergleichbarer Genauigkeit mit deutlich geringerem Rechenaufwand. Optimiert für das AMD ROCm-Ökosystem, erreicht xLSTM bis zu 2,16× höhere Durchsatzraten als NVIDIAs H100 GPU. Die energieeffiziente und schnelle Architektur eignet sich für Zeitreihen, Vision, Bioinformatik und Robotik und stärkt Europas technologische Souveränität, da sie KI direkt auf industriellen Edge-Geräten ermöglicht und so Abhängigkeiten von Cloud-Anbietern reduziert.
Zahlen, Studien, Wissenschaft
Wer will KI als Kollegin? – Wunsch nach Automatisierung repetitiver Aufgaben, aber nicht bei kreativen Tätigkeiten
Eine Studie mit 1500 Beschäftigten aus 104 Berufen zeigt: Fast die Hälfte wünscht sich KI-Unterstützung vor allem bei repetitiven Aufgaben. Bei kreativen und interaktiven Tätigkeiten bevorzugen sie hingegen menschliche Kollegen. Überraschend ist, dass viele Investitionen in Automatisierung gerade dort fließen, wo Arbeitnehmer keine KI-Hilfe wollen. KI wird vor allem als Unterstützung gesehen, nicht als Ersatz, und verändert die Arbeitswelt, indem sie Routineaufgaben übernimmt und Raum für abwechslungsreichere Tätigkeiten schafft.
Die große KI-Umsetzungslücke in deutschen Unternehmen
Obwohl 62 Prozent der Topmanager KI als entscheidenden Fortschritt ansehen, nutzen nur zwölf Prozent der Mitarbeiter aktiv KI-Technologien. Das Problem liegt weniger in der Technik, sondern in der fehlenden Integration und Umsetzung in den Unternehmen. Veraltete IT-Strukturen und langsame Anpassungsprozesse bremsen das Potenzial. Hochqualifizierte greifen oft informell auf KI zurück, während geringqualifizierte Beschäftigte zurückbleiben. Für eine erfolgreiche KI-Transformation sind Investitionen in Weiterbildung und eine bessere Einbindung der Mitarbeiter unverzichtbar.
KI-System otto-SR beschleunigt und verbessert systematische Reviews
otto-SR, ein KI-gestütztes Workflow-System, automatisiert systematische Reviews von der Literatursuche bis zur Datenauswertung und erzielt dabei bessere Ergebnisse als herkömmliche menschliche Teams. In Tests erreichte otto-SR eine Sensitivität von 96,7 % und eine Genauigkeit von 93,1 % bei der Datenerhebung. Ein kompletter Cochrane-Review-Jahrgang (12 Reviews) wurde in nur zwei Tagen aktualisiert – das entspricht rund 12 Arbeitsjahren. otto-SR fand zudem Studien, die Menschen entgangen waren, und lieferte neue, statistisch signifikante Ergebnisse.
DeepResearch Bench – Neuer Maßstab für KI-Forschungsagenten
DeepResearch Bench ist ein umfassender Benchmark für Deep Research Agents (DRAs), KI-Agenten, die autonom mehrstufige Webrecherchen durchführen und daraus zitierfähige, analystengerechte Forschungsberichte erstellen. Er umfasst 100 PhD-Level-Forschungsaufgaben aus 22 Fachgebieten, sorgfältig von Experten erstellt. Zur Bewertung der DRAs wurden zwei neuartige Methoden entwickelt: eine referenzbasierte Qualitätsbewertung der Berichte mit adaptiven Kriterien und eine Evaluierung der Informationsbeschaffung anhand der Anzahl und Genauigkeit der Zitate. DeepResearch Bench ist Open Source und soll die Entwicklung praktischer LLM-basierter Forschungsagenten beschleunigen.
Ich wünsche Ihnen ein schönes Wochenende!
Prompt Well and Prosper!
Ihr
Martin Blaha
Das KI-Update ist eine wöchentliche Publikation, die von Martin Blaha (3pconsulting.net) produziert wird. Kontakt- und Geschäftsanfragen gerne über LinkedIn.