19. September 2025

KI News vom 19.09.2025

.

Brandheiße News aus der Welt der Künstlichen Intelligenz.

Hallo zusammen, 

zwischen raschelnden Herbstblättern und Morgennebel gönnen wir eurem Kopf heute eine kleine Pausentaste: fünf Minuten KI-Inspiration für alle, die sonst Karten über Kanban-Boards schieben. Also holt euch einen Tee, lasst den Blätterregen draußen arbeiten – und wir sorgen drinnen für ein paar frische Aha-Momente mit den aktuellen u. spannenden KI-News der Woche

Viel Spaß beim Lesen 😀: 

 

Inhaltsverzeichnis

  1. 🛡️ Kalifornien will KI-Begleiter regulierenKlare Leitplanken für KI-Companions – mit Fokus auf Jugendschutz und Transparenz.

  2. 🏛️ US-Aufsicht prüft KI-Companions (FTC)Was tun Meta, OpenAI & Co. wirklich für die Sicherheit junger Nutzer?

  3. 🧰 OpenAI „Developer Mode“ für ChatGPTVon der Unterhaltung zum Werkzeug: ChatGPT verbindet sich direkt mit euren Tools.

  4. 📊 Microsoft holt Anthropic in Office 365Claude soll in Word, Excel, PowerPoint und Outlook Stärken ausspielen – parallel zu GPT.

  5. 🧠 Nvidia Rubin CPX für Long-ContextMehr als eine Million Tokens: Beschleuniger für sehr lange Sequenzen in Planung.

  6. 📁 Claude erstellt jetzt DateienVon der Antwort zur Ablage: Claude baut komplette Dateien – gesteuert über ein privates Computer-Umfeld.

  7. 🌐 „Aivilization“ mit 22.000 KI-AgentenGroßversuch mit Agent Economies, Persönlichkeitsmodellen und Marktmechanismen.

  8. 🏛️🤖 Albanien ernennt KI-„Ministerin“Transparenz statt Vetternwirtschaft? Regierung setzt auf digitale Amtsführung.

  9. 🃏 „Werwolf“-Benchmark zu GPT-5Neuer Vergleichstest misst soziale Intelligenz in interaktiven Spielszenarien.

 

...

  1. 🛡️ Kalifornien will KI-Begleiter regulieren: SB 243 steht vor der Unterschrift
    Klare Leitplanken für KI-Companions – mit Fokus auf Jugendschutz und Transparenz.

    Kalifornien steht kurz vor einem landesweit ersten, speziell auf KI-Companion-Chatbots zugeschnittenen Gesetzesrahmen. Der Entwurf SB 243 hat beide Kammern passiert und wartet auf die Unterschrift von Gouverneur Gavin Newsom. Anbieter wie OpenAI, Character.AI und Replika wären verpflichtet, Gespräche über Suizid, Selbstverletzung und sexuell explizite Inhalte zu unterbinden. Zudem sollen wiederkehrende Hinweise sicherstellen, dass Nutzende erkennen, mit einer KI zu sprechen. Für Minderjährige werden zusätzliche Schutzmechanismen betont, einschließlich klarer Alters- und Zugriffsbeschränkungen. Ab Juli 2027 treten Transparenz- und Berichtspflichten in Kraft, die Umfang und Wirksamkeit der Schutzmaßnahmen dokumentieren. Die Strafen sollen pro Verstoß festgesetzt werden und damit ökonomische Anreize für Compliance schaffen. Ursprünglich strengere Elemente wurden zugunsten praktikabler Umsetzbarkeit moderat angepasst. Im Vergleich zum EU-AI-Act handelt es sich um eine vertikale, use-case-spezifische Regulierung. 
    Quelle: THE DECODER – „Kalifornien will KI-Companion-Chatbots gesetzlich regulieren

  2. 🏛️ US-Aufsicht prüft KI-Companions: FTC startet formelle Untersuchung
    Was tun Meta, OpenAI & Co. wirklich für die Sicherheit junger Nutzer?

    Die US-Verbraucherschutzbehörde FTC hat ein Verfahren angekündigt, das Sicherheitspraktiken hinter KI-Companion-Diensten systematisch beleuchtet. Im Fokus stehen sieben Anbieter, darunter Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap und xAI. Abgefragt werden Nachweise zu Tests, Monitoring, Monetarisierung, Alterskontrollen und Elternkommunikation. Hintergrund sind Vorfälle, in denen Chatbots in heiklen Situationen inadäquate Antworten gegeben haben sollen. Die FTC will klären, ob Schutzmechanismen real funktionieren oder leicht zu umgehen sind. Unternehmen müssen damit rechnen, detaillierte Dokumentation zu liefern und ihre internen Richtlinien offenzulegen. Das Verfahren ist zunächst informationsorientiert, kann aber in Enforcement-Maßnahmen münden. Für den Markt könnte daraus ein de-facto-Standard für Mindest-Safety hervorgehen. Gleichzeitig werden Fragen der Haftung und Aufklärung gegenüber Minderjährigen neu gewichtet. Für Produkt- und Compliance-Teams steigt der Druck, Safety-Reviews messbar und reproduzierbar zu gestalten.
    Quelle: TechCrunch – „FTC launches inquiry into AI chatbot companions from Meta, OpenAI and others“

  3. 🧰 OpenAI schaltet „Developer Mode“ in ChatGPT frei – mit vollem MCP-Zugriff
    Von der Unterhaltung zum Werkzeug: ChatGPT verbindet sich direkt mit euren Tools.

    OpenAI führt einen „Developer Mode“ für Plus- und Pro-Nutzende ein, der ChatGPT über das Model Context Protocol (MCP) mit externen Tools verbindet. Damit lassen sich eigene Remote-Server einbinden, OAuth-Flows nutzen und Funktionen per HTTP-Streaming orchestrieren. Neben Lesezugriff sind auch Schreiboperationen möglich, die eine bewusste Bestätigung erfordern. In den Einstellungen findet sich das Feature in einem erweiterten „Connectors“-Bereich. Sicherheitsseitig warnt OpenAI vor Prompt-Injection, fehlenden Berechtigungsgrenzen und unsicheren Tool-Servern. Für Teams eröffnet das die Chance, ChatGPT als Automationsschicht für Workflows zu etablieren. Typische Szenarien sind Ticket-Updates, Datenabrufe, Build-Pipelines oder Dokumentationspflege. Governanceseitig rücken Rollen- und Rechtekonzepte, Logging sowie Change-Management in den Mittelpunkt. Damit verschiebt sich die Rolle von Chatbots hin zu agentischen Systemen mit kontrolliertem Funktionszugriff. Unternehmen sollten Pilot-Setups mit Least-Privilege-Prinzipien starten und Metriken für Erfolg und Risiken definieren.
    Quelle: THE DECODER – „OpenAI startet ‘Developer Mode’ für ChatGPT mit vollem Zugriff auf MCP-Tools“

  4. 📊 Microsoft integriert Anthropic-Modelle in Office 365
    Claude soll in Word, Excel, PowerPoint und Outlook Stärken ausspielen – parallel zu GPT.

    Microsoft plant laut übereinstimmenden Berichten, Anthropic-Modelle wie Claude Sonnet 4 in Office 365 einzusetzen. Die Einbindung erfolgt innerhalb des bestehenden Copilot-Angebots, ohne dass sich die Preispunkte ändern sollen. Strategisch diversifiziert Microsoft damit die Modellbasis und reduziert Abhängigkeiten von einzelnen Anbietern. Fachlich sollen unterschiedliche Modelle in spezifischen Aufgabenfeldern ihre Stärken ausspielen. Genannt werden etwa ästhetisch konsistentere Präsentationen oder assistierte Excel-Funktionen mit höherer Zuverlässigkeit. Technisch ist eine Einbindung über AWS-Infrastruktur im Gespräch, was Cross-Cloud-Aspekte in die Suite bringt. Für Kunden könnte daraus ein „Best-of-Breed“-Modellrouting entstehen. IT-Teams müssen jedoch Datenschutz, Datenresidenz und Modellwahl-Pfade präzise steuern. Pilotierungen sollten auf konkreten Use Cases mit messbaren Qualitätskriterien beruhen. Der Schritt dürfte den Wettbewerb zwischen Office-Copilots und Dritt-Tools weiter anheizen.
    Quelle: THE DECODER – „Microsoft integriert Claude-Modelle von Anthropic in Office 365“

  5. 🧠 Nvidia stellt Rubin CPX vor – GPU für Long-Context-Inference
    Mehr als eine Million Tokens: Beschleuniger für sehr lange Sequenzen in Planung.

    Nvidia hat auf einem Branchenevent den Rubin CPX vorgestellt, eine GPU, die speziell für sehr große Kontextfenster bei der Inferenz optimiert ist. Ziel sind Anwendungsfälle wie umfangreiche Codebasen, komplexe Dokumentkollektionen oder lange Video- und Audiopassagen. Der Ansatz folgt einer „disaggregated inference“-Architektur mit getrennten Speicher- und Rechenpfaden. Dadurch sollen Durchsatz und Latenz bei langen Sequenzen günstiger skaliert werden. Der Chip ist Teil der kommenden Rubin-Generation mit Verfügbarkeit laut Roadmap ab Ende 2026. Betreiber können damit Cluster differenzierter nach Workload-Typ auslegen. Besonders Retrieval-Augmented-Generation mit extremen Kontextlängen könnte profitieren. Investitionsentscheidungen werden stärker entlang KI-spezifischer Lastprofile getroffen. Für Software-Stacks bedeutet das neue Optimierungspfade bei Caching, KV-Speichern und Streaming. Der Schritt unterstreicht Nvidias Strategie, dedizierte Siliziumprofile für Teilsegmente der KI-Inferenz anzubieten.
    Quelle: TechCrunch – „Nvidia unveils new GPU designed for long-context inference“

  6. 📁 Claude erstellt jetzt Dateien: Excel, Dokumente, Folien & PDFs direkt aus dem Chat
    Von der Antwort zur Ablage: Claude baut komplette Dateien – gesteuert über ein privates Computer-Umfeld.

    Anthropic erweitert Claude um die Möglichkeit, echte Dateien zu erzeugen und zu bearbeiten, darunter Excel-Tabellen, Textdokumente, Präsentationen und PDFs. Das Feature ist zunächst als Vorschau für Max-, Team- und Enterprise-Pläne verfügbar; Pro-Nutzende sollen in den kommenden Wochen folgen. In Claude.ai und der Desktop-App können Anwender Daten hochladen oder Anforderungen beschreiben und erhalten fertige Dateien mit Formeln, Diagrammen und erklärenden Textbausteinen. Beispiele reichen von Finanzmodellen mit Szenarioanalysen über Projekt-Tracker mit Dashboards bis zu Budget-Templates mit Abweichungsberechnungen. Ein Cross-Format-Workflow ermöglicht etwa, aus einem PDF Berichtsfolien zu erzeugen oder Meeting-Notizen in formatierte Dokumente zu überführen. Technisch arbeitet Claude in einer privaten Computer-Umgebung, in der Code geschrieben und Programme ausgeführt werden, um die Dateien zu erstellen. Aktiviert wird die Funktion unter „Settings → Features → Experimental“ über den Schalter „Upgraded file creation and analysis“. Der Einstieg wird schrittweise empfohlen: zunächst einfache Reinigungs- und Reporting-Aufgaben, später komplexere Modelle. Dateien lassen sich herunterladen oder direkt in Google Drive speichern, was kollaboratives Arbeiten erleichtert. Wichtig: Das Feature kann Internetzugriff nutzen; daher sollten Datenflüsse und Sicherheitsrichtlinien eng überwacht werden.
    Quelle: Anthropic – „Claude can now create and edit files“

  7. 🌐 22.000 KI-Agenten simulieren „Aivilization“ – Gesellschaftsexperiment der HKUST
    Großversuch mit Agent Economies, Persönlichkeitsmodellen und Marktmechanismen.

    Die Hong Kong University of Science and Technology startet ein öffentliches Experiment namens „Aivilization“. Mehr als 22.000 KI-Agenten bilden darin eine simulierte Gesellschaft mit individueller Persönlichkeit, Gedächtnis und Zielen. Teilnehmende können eigene Agenten konfigurieren und deren Lebensverläufe in Berichten auswerten. Ein Game- und ein Data-Mode erlauben Einblicke in Mikro- und Makroverhalten der Population. Architektonisch umfasst das System eine gesellschaftliche Ebene, eine individuelle Ebene und eine neuronale Steuerung mit Planungs- und Dialogmodulen. Erwartet werden Erkenntnisse zu Kooperation, Koexistenz und ökonomischen Dynamiken unter unvollständiger Information. Der Zugang ist über akademische und industrielle Pfade geregelt, ergänzt um soziale bzw. spendenbasierte Optionen. Die Kosten pro Agent werden transparent ausgewiesen, was eine Skalierungsabschätzung erlaubt. Vorarbeiten wie „Smallville“ dienen als konzeptionelle Referenz. Offene Fragen betreffen Modellwahl, Bias-Kontrolle und Reproduzierbarkeit der Ergebnisse.
    Quelle: THE DECODER – „22.000 KI-Agenten sollen Gesellschaft der Zukunft simulieren“

  8. 🏛️🤖 Albanien ernennt „Diella“ – eine KI – zur Ministerin für Vergabe
    Transparenz statt Vetternwirtschaft? Regierung setzt auf digitale Amtsführung.

    Albanien hat eine KI-gestützte „Ministerin“ für die öffentliche Auftragsvergabe vorgestellt, genannt „Diella“. Ziel ist es, die Integrität von Ausschreibungen zu erhöhen und Korruptionsrisiken zu reduzieren. Die Entscheidung steht im Kontext langjähriger Kritik an Vergabeverfahren und der EU-Beitrittsperspektive. Die Regierung positioniert den Schritt als Meilenstein digitaler Verwaltung und als Signal an internationale Partner. Details zur technischen Ausgestaltung, Verantwortlichkeit und menschlichen Aufsicht sind noch in Klärung. Kritische Stimmen verweisen auf Manipulationsrisiken und die Notwendigkeit robuster Audit-Mechanismen. Beobachter erwarten zunächst eine Pilotphase mit begrenztem Mandat und sukzessiver Erweiterung. Die Einführung knüpft an frühere E-Government-Initiativen an, u. a. die e-Albania-Plattform. Für andere Staaten dient der Fall als Test, ob „AI in Government“ in hochsensiblen Bereichen skaliert. Entscheidend wird die Nachvollziehbarkeit von Entscheidungen und ein klarer Beschwerdemechanismus für Bieter.
    Quelle: Reuters – „Albania appoints AI bot as minister to tackle corruption“

  9. 🃏 „Werwolf“-Benchmark: GPT-5 zeigt starke Täuschungs- und Sozialfähigkeiten
    Neuer Vergleichstest misst soziale Intelligenz in interaktiven Spielszenarien.

    Das Start-up Foaster.ai hat große Sprachmodelle in 210 Partien des Gesellschaftsspiels „Werwolf“ gegeneinander antreten lassen. Bewertet wird die Fähigkeit zu Bluff, Manipulation, Anpassung und argumentativer Überzeugung. Den Auswertungen zufolge erzielt GPT-5 die höchste Elo-Wertung und eine starke, konstante Gewinnrate. Gemini 2.5 Pro folgt im Gesamtvergleich, punktet aber vor allem in defensiven Rollen. Weitere Modelle wie Gemini 2.5 Flash, Qwen3-235B und GPT-5-mini schließen mit Abstand auf. Der Benchmark unterstreicht, dass soziale Interaktion als Kompetenzfeld über klassische Tests hinaus an Bedeutung gewinnt. Unterschiede nach Rollen und Phasen legen modelltypische Strategien nahe. Für die Praxis stellen sich Fragen, wie solche Fähigkeiten auf Moderation, Verhandlung und Multi-Agenten-Koordination übertragbar sind. Die Aussagekraft hängt von Offenlegung, Reproduzierbarkeit und Methodik-Transparenz ab. Unternehmen sollten Ergebnisse mit realen Anwendungsprofilen abgleichen, bevor sie Schlussfolgerungen ziehen.
    Quelle: THE DECODER – „GPT-5 täuscht am besten: OpenAIs neues KI-Modell dominiert im ‚Werwolf‘-Spiel“

Bis bald zum nächsten spannenden BTO KI Newsletter!

Deine Browser-Version ist anscheinend veraltet. Dadurch kann es zu Darstellungsfehlern auf dieser Webseite kommen.