01. August 2025

KI News vom 01.08.2025 (AI Act Spezial)

.

Brandheiße News aus der Welt der Künstlichen Intelligenz.

Es ist ja schon wieder Donnerstag – und wenn Ihr euch fragt, warum die Woche so schnell vergangen ist: Vielleicht lag’s daran, dass die KI heimlich auf Warp-Geschwindigkeit geschaltet hat. 😉 

Spaß beiseite: Während wir über Chatbots plaudern und mit KI-Assistenten im AI-Hub experimentieren, wächst im Hintergrund eine neue Realität heran – eine Realität die gewaltige Chancen beinhaltet, aber auch mit handfesten Risiken verbunden ist. 

Ob Deepfakes, manipulierte Stimmen oder Schatten-KI – die Gefahren sind längst im Unternehmensalltag angekommen.

Darum präsentieren wir euch in dieser Spezialausgabe unseres BTO‑Newsletters diverse Artikel und Insights, zum Thema Gefahren u. Risiken beim Einsatz von KI, sowie die rechtlichen Rahmenbedingungen die beim Einsatz von KI eingehalten werden müssen. Es soll dazu beitragen das Thema zu sensibilisieren und eure KI‑Awareness zu schärfen. Denn nur wer die Spielregeln kennt, kann die Vorteile von KI sicher und verantwortungsvoll nutzen.

 

Viel Spaß beim Lesen  

...

Inhaltsverzeichnis

  1. Einleitung: KI – große Chancen, aber auch ernsthafte Gefahren

  2. Auswahl Artikel aus jüngster Vergangenheit zu Risiken und Gefahren beim Einsatz von KI

  3. Die größten Gefahren für Unternehmen und warum Handeln jetzt Pflicht ist

  4. Rechtlicher Rahmen für sicheren KI-Einsatz (EU‑AI‑Act und DSGVO)

  5. Schulung „KI‑Awareness“

  6. Fazit

 1. Einleitung: KI – große Chancen, aber auch ernsthafte Gefahren

 Künstliche Intelligenz (KI) ist längst mehr als nur ein technologischer Trend. Sie eröffnet enorme Chancen, Effizienzsteigerung, neue Geschäftsmodelle, bessere Entscheidungsprozesse und innovative Dienstleistungen. Doch diese Möglichkeiten haben eine Kehrseite. Mit der Einführung von KI entstehen neue Risiken – von Cyberangriffen über betrügerische Deepfakes bis hin zu komplexen rechtlichen Herausforderungen. Chancen und Gefahren gehören bei KI untrennbar zusammen. Nur wer beide Seiten versteht, kann die Potenziale dieser Technologie sicher und verantwortungsvoll nutzen.

In diesem BTO-Newsletter-Spezial haben wir die wichtigsten Entwicklungen der letzten Tage und Wochen im Bereich Gefahren und Risiken durch KI für dich zusammengestellt. Außerdem erfährst du, welche rechtlichen Rahmenbedingungen mit dem EU‑AI‑Act und der Datenschutz-Grundverordnung geschaffen wurden und warum es für dein Unternehmen jetzt höchste Zeit ist, deine Mitarbeiter im sicheren Umgang mit KI zu schulen.

 

2. Auswahl Artikel aus jüngster Vergangenheit zu Risiken und Gefahren beim Einsatz von KI

 Die Entwicklungen im Bereich der Künstlichen Intelligenz überschlagen sich – und mit ihnen nehmen auch die Berichte über ihre Schattenseiten zu. In den letzten Wochen sind zahlreiche Studien und Artikel erschienen, die ein eindringliches Bild davon zeichnen, wie groß die Risiken für Unternehmen beim Einsatz von KI tatsächlich sind.

Die folgende Auswahl aktueller Artikel zeigt eindrücklich, warum auch dein Unternehmen beim Einsatz von KI jetzt handeln sollte.

 

2.1. Bericht: KI-Unternehmen völlig unvorbereitet auf die Gefahren menschenähnlicher Systeme

 Der Guardian berichtet über einen alarmierenden Report des Future of Life Institute, in dem sieben führende KI-Unternehmen wie OpenAI, DeepMind und Anthropic bewertet wurden. Das Ergebnis: Keines dieser Unternehmen verfügt über ein umfassendes Sicherheitskonzept für die Entwicklung menschenähnlicher KI-Systeme. Besonders schockierend ist die Einstufung, die von der schlechtesten Note D bis maximal C+ reichte. Experten vergleichen die Situation mit einem Kernkraftwerk, das ohne Notfallplan betrieben wird. Der Report macht deutlich, dass es nicht nur um technische Herausforderungen geht, sondern auch um ethische und regulatorische Fragen, die dringend geklärt werden müssen. Dieser Artikel zeigt, dass das Rennen um immer leistungsfähigere KI-Systeme ohne ausreichende Sicherheitsstrategien enorme Risiken für Unternehmen und die Gesellschaft birgt.
Quelle: The Guardian

 

2.2 Sam Altman warnt vor bevorstehender KI-Betrugskrise

 In einem Interview mit Axios warnt OpenAI-CEO Sam Altman eindringlich vor einer kommenden Betrugswelle, die durch den Missbrauch von KI-Systemen ausgelöst werden könnte. Besonders im Finanzsektor sieht er große Gefahren: Mithilfe von KI könnten Authentifizierungssysteme, etwa solche zur Stimmerkennung bei Banken, kompromittiert und Kundenkonten gehackt werden. Altman fordert ein radikales Umdenken in der Branche und drängt auf die Einführung neuer Sicherheitsprotokolle, die den Gefahren moderner KI gewachsen sind. Der Artikel zeigt deutlich, wie real diese Bedrohung ist und dass sich Unternehmen nicht mehr darauf verlassen können, dass bestehende Sicherheitsmechanismen ausreichen.
Quellen: Axios-fraud-crisis

               CNN-Artikel 

 

2.3. Forschende warnen: Das Zeitfenster zur Überwachung von KI schließt sich

 Ein internationales Forscherteam von Google DeepMind, OpenAI, Meta und Anthropic warnt in einem neuen Papier vor einer sich schnell schließenden Gelegenheit: Die Entscheidungsprozesse moderner KI-Systeme sind noch einigermaßen nachvollziehbar – doch dieser Einblick wird verschwinden, wenn die Systeme noch autonomer werden. Prominente Experten wie Geoffrey Hinton und Ilya Sutskever plädieren für eine sofortige Einführung umfassender Kontrollmechanismen, um KI auch in Zukunft überwachen zu können. Der Artikel beleuchtet nicht nur die technischen Herausforderungen, sondern auch die gesellschaftlichen Folgen, wenn wir diese Chance verpassen.
Quelle: TechXplore

 

2.4. „Shadow AI“: Versteckte KI-Nutzung gefährdet Unternehmenssicherheit

 Das MittelstandsWiki beschreibt in einem aktuellen Beitrag ein unterschätztes Phänomen: die sogenannte Shadow AI. Dabei nutzen Mitarbeiter eigenständig KI-Tools wie ChatGPT, ohne dass das Unternehmen darüber informiert oder solche Tools offiziell freigegeben hat. Laut einer Studie betrifft dies fast die Hälfte aller Angestellten. Die Risiken reichen von unbemerkten Datenabflüssen über Compliance-Verstöße bis hin zu massiven Haftungsproblemen. Der Artikel liefert praxisnahe Empfehlungen, wie Unternehmen durch klare Richtlinien und technische Schutzmaßnahmen wieder die Kontrolle über den KI-Einsatz zurückgewinnen können.
Quelle: MittelstandsWiki

 

2.5. Generative KI als größte Cyberbedrohung: Unternehmen schlagen Alarm

 Datensicherheit.de berichtet über eine aktuelle Umfrage, die zeigt, wie stark Unternehmen die Risiken generativer KI für ihre Cybersecurity einschätzen. Ganze 89 Prozent der befragten Firmen sehen erhebliche Gefahren, insbesondere durch den unkontrollierten Datenzugriff solcher Systeme. Besonders gravierend: 66 Prozent der Unternehmen haben noch keine Strategie, wie sie mit sogenannter Schatten-KI umgehen sollen. Der Artikel verdeutlicht, dass generative KI längst nicht nur ein Produktivitätstool ist, sondern auch eine potenzielle Waffe in den Händen von Angreifern.
Quelle: Datensicherheit.de

 

2.6. Deepfakes: Täuschend echte Fälschungen als Unternehmensrisiko

 TechRadar beleuchtet die Gefahren durch Deepfakes im Unternehmensumfeld. Diese mit KI erzeugten Videos und Bilder können täuschend echt wirken und werden bereits gezielt eingesetzt, um Führungskräfte in Verruf zu bringen oder falsche Anweisungen zu verbreiten. Der Artikel berichtet von Fällen, in denen Deepfakes genutzt wurden, um Mitarbeiter zu manipulieren und sensible Daten oder finanzielle Mittel zu erschleichen. Für Unternehmen bedeutet das: Deepfakes sind nicht nur ein PR-Risiko, sondern können direkte finanzielle und operative Schäden verursachen.
Quelle: TechRadar

 

2.7. Voice Cloning: Wenn die Stimme des Chefs missbraucht wird

 Axios berichtet über die zunehmende Gefahr durch Voice Cloning, also die täuschend echte Nachahmung menschlicher Stimmen mithilfe von KI. Schon wenige Sekunden Audiomaterial reichen, um eine Stimme nahezu perfekt zu imitieren. In jüngsten Fällen nutzten Kriminelle diese Technik, um sich als CEOs auszugeben und Mitarbeiter zur Freigabe sensibler Daten oder Überweisungen zu bewegen. Der Artikel macht deutlich, dass Unternehmen dringend zusätzliche Sicherheitsmaßnahmen einführen müssen, um sich gegen solche Angriffe zu schützen.
Quellen: Axios-Voice-Cloning

               Guardian-Artikel

 

2.8. ChatGPT ohne Aufsicht: Eine unterschätzte Gefahr

Kontrast.at beleuchtet in einem Interview die globale Macht von ChatGPT und diskutiert die Folgen, wenn solche Systeme ohne angemessene Aufsicht eingesetzt werden. Der Artikel stellt die Frage, wie sehr Unternehmen und Gesellschaften sich in Abhängigkeit von KI-Systemen begeben, deren Entscheidungen und Trainingsgrundlagen nur schwer nachvollziehbar sind. Fehlende Kontrolle könne nicht nur ethische und rechtliche Risiken, sondern auch schwerwiegende Abhängigkeiten und Machtverschiebungen zur Folge haben.
Quelle: kontrast.at

 

2.9. Mehr als 30 % der Unternehmen in UK unvorbereitet auf KI-Risiken

Laut einer Studie, über die das Innovation News Network berichtet, sind über ein Drittel der britischen Unternehmen unzureichend auf die Risiken von KI vorbereitet. Besonders kleine und mittelständische Betriebe haben bislang weder Strategien noch Notfallpläne, um Bedrohungen wie Datenlecks, Manipulationen oder KI-gestützte Betrugsversuche abzuwehren. Der Bericht fordert ein schnelles Handeln, um durch gezielte Schulungen und Sicherheitsstrategien den Rückstand aufzuholen.
Quelle: Innovation News Network

 

2.10. Allgemeine Übersicht: Gefahren und Risiken durch KI

AlgorithmWatch gibt einen umfassenden Überblick über die vielfältigen Risiken, die mit dem Einsatz Künstlicher Intelligenz einhergehen. Von Diskriminierung und mangelnder Transparenz über Missbrauchspotenzial bis hin zu Sicherheitsbedrohungen werden die drängendsten Herausforderungen aufgezeigt, vor denen Politik und Unternehmen stehen. Dieser Artikel bietet eine hervorragende Grundlage, um das gesamte Spektrum der KI-Risiken zu verstehen.
Quelle: AlgorithmWatch

 

3. Die größten Gefahren für Unternehmen – und warum Handeln jetzt mehr den je nötig ist

 Die Risiken, die mit dem Einsatz von KI einhergehen, sind komplex, vielfältig und für viele Unternehmen noch schwer greifbar. Cyberangriffe sind heute wesentlich raffinierter, da Hacker KI nutzen, um täuschend echte Deepfakes und gefälschte Stimmen zu erstellen, die gezielt Mitarbeiter täuschen und zu finanziellen oder datenschutzrechtlichen Schäden führen. 

 Voice Cloning eröffnet völlig neue Möglichkeiten des Social Engineerings und stellt besonders für Unternehmen mit dezentralen Strukturen eine erhebliche Bedrohung dar. 

 Gleichzeitig führt der Einsatz sogenannter Shadow AI, also die unkontrollierte Nutzung von KI-Tools durch Mitarbeiter ohne Freigabe, zu gravierenden Compliance-Verstößen, ungewollten Datenabflüssen und rechtlichen Risiken.

 Hinzu kommt die wachsende Intransparenz von KI-Entscheidungen. Viele Systeme agieren inzwischen so komplex, dass selbst Entwickler deren Entscheidungsprozesse kaum noch nachvollziehen können – ein Problem, wenn es um Rechenschaftspflichten gegenüber Kunden, Partnern oder Aufsichtsbehörden geht. Der zunehmende Einsatz generativer KI bringt weitere Herausforderungen, etwa durch den unkontrollierten Zugriff auf sensible Unternehmensdaten, wenn diese unbedacht in Chatbots oder Bildgeneratoren eingegeben werden.

 Diese Gefahren sind nicht nur technischer Natur. Sie betreffen den Kern jedes Unternehmens: den Schutz vertraulicher Informationen, die Wahrung der Unternehmensintegrität und das Vertrauen von Kunden und Partnern. 

Ein Unternehmen, welches diese Risiken ignoriert, setzt nicht nur seine Reputation aufs Spiel, sondern riskiert im schlimmsten Fall auch hohe Bußgelder und finanzielle Verluste. 

 Die Erkenntnis ist klar: Wen du heute in KI investierst, musst du ebenso konsequent in deren Absicherung investieren.

 

4. Rechtlicher Rahmen für sicheren KI-Einsatz (EU‑AI‑Act und DSGVO)

 Mit dem EU‑AI‑Act und der Datenschutz-Grundverordnung (DSGVO) wurde zwei führende Rechtsrahmen geschaffen, die Unternehmen beim Einsatz von KI verpflichten.

 Der EU‑AI‑Act klassifiziert KI-Systeme nach ihrem Risiko und legt besonders für Hochrisiko-Anwendungen strenge Anforderungen fest. Dazu gehören umfassende Risikomanagementsysteme, Transparenz- und Dokumentationspflichten sowie die Verpflichtung zur menschlichen Aufsicht. Bestimmte Praktiken wie Social Scoring oder verdeckte Verhaltensmanipulationen sind komplett verboten. Verstöße können mit Bußgeldern von bis zu 7 % des weltweiten Jahresumsatzes geahndet werden.

 Die DSGVO ergänzt diese Regelungen, indem sie hohe Anforderungen an die Verarbeitung personenbezogener Daten stellt. Unternehmen müssen sicherstellen, dass die Verarbeitung zweckgebunden, datensparsam und für Betroffene jederzeit transparent ist.

 Seit dem 2. Februar 2025 besteht zudem eine verbindliche Verpflichtung, alle Mitarbeiter, die mit KI-Systemen arbeiten, regelmäßig zu schulen. Diese Pflicht ergibt sich aus Artikel 4 des EU‑AI‑Acts und wird in Deutschland zusätzlich durch nationale Arbeitsschutzregelungen konkretisiert. Unternehmen müssen nachweisen können, dass ihre Mitarbeiter im sicheren und rechtskonformen Umgang mit KI unterrichtet sind.
Quellen:
EU‑AI‑Act – Überblick Europäisches Parlament
Datenschutz-Grundverordnung (DSGVO)
IHK Darmstadt zur Schulungspflicht

 

5. Schulung als Schlüssel: KI-Awareness im Unternehmen stärken

Eine der zentralen Herausforderungen im Zuge des EU AI Acts ist es, Mitarbeitende in die Lage zu versetzen, verantwortungsvoll und rechtssicher mit KI-Systemen umzugehen. Neben technischen und organisatorischen Maßnahmen ist dabei insbesondere die Sensibilisierung und Qualifizierung der Belegschaft ein entscheidender Hebel.

Trainingsformate, die sowohl ein Grundverständnis für KI-Technologien als auch rechtliche Rahmenbedingungen wie DSGVO und EU AI Act vermitteln, können einen wesentlichen Beitrag leisten – insbesondere dann, wenn sie praxisnah gestaltet sind und Themen wie Fairness, Erklärbarkeit und Datenschutz adressieren.

Mit unserer Schulung „KI-Awareness“ bieten wir ein entsprechendes Format an: Wir vermitteln fundiertes Wissen zu KI-Grundlagen und rechtlichen Vorgaben und zeigen anhand konkreter Anwendungsbeispiele, wie KI sicher und verantwortungsvoll im Arbeitsalltag eingesetzt werden kann. So fördern wir nicht nur Wissen, sondern auch Haltung – als Fundament für eine starke Compliance-Kultur.

👉 Zur KI-Awareness-Schulung

6. Fazit

 KI bietet enorme Chancen, doch sie erfordert ein Höchstmaß an Verantwortung. Wer die Gefahren ignoriert, riskiert nicht nur hohe Bußgelder und wirtschaftliche Verluste, sondern auch das Vertrauen von Kunden, Partnern und der Öffentlichkeit. Der EU‑AI‑Act und die DSGVO setzen dafür klare Rahmenbedingungen, die kein Unternehmen außer Acht lassen darf. Besonders die Schulungspflicht ab Februar 2025 macht deutlich: Sichere und rechtssichere KI-Nutzung beginnt bei gut informierten Mitarbeitern.

Jetzt ist der richtige Zeitpunkt, aktiv zu werden: 

Prüfe deine Systeme, schule dein Team und setze auf nachhaltige KI-Governance. Denn nur wer vorbereitet ist, kann die Chancen der KI erfolgreich nutzen und ihre Risiken beherrschen.

 

Bis bald zum nächsten spannenden BTO KI Newsletter!

Deine Browser-Version ist anscheinend veraltet. Dadurch kann es zu Darstellungsfehlern auf dieser Webseite kommen.