Jump to content

Der zunehmende Einsatz von Künstlicher Intelligenz (KI) macht es notwendig, in der EU klare regulatorische Rahmenbedingungen zu schaffen. Diese Risiken betreffen sowohl Unternehmen als auch Bürger:innen. So kann unter anderem der unsachgemäße Einsatz von KI und deren zugrundeliegenden Daten zu Datenschutzverletzungen, Diskriminierung und verzerrten Entscheidungen führen. Auch Sicherheitsrisiken wie die Manipulation oder missbräuchliche Nutzung von KI-Systemen bergen potenzielle Gefahren. 

Als Teil der EU-Digitalstrategie stellt der EU AI Act einen entscheidenden Meilenstein in der Regulierung von KI-Systemen dar. Ziel der EU-Verordnungen innerhalb der Digitalstrategie ist es, die EU zu einem Vorreiter der digitalen Industrie zu machen. Ausgewiesene Ziele sind der Schutz der Nutzer:innen und Anwender:innen durch den Einsatz von vertrauenswürdiger Technologie, die Schaffung eines EU-weiten Binnenmarktes für Daten und die Sicherung der demokratischen Grundprinzipien in der digitalen Gesellschaft. Der EU AI Act zielt darauf ab, flächendeckend das Vertrauen in KI-Technologien zu stärken und die genannten Risiken beim Einsatz von KI zu minimieren. Bereits ab Februar 2025 müssen Unternehmen erste Anforderungen des EU AI Acts erfüllen. Die Nichteinhaltung kann zu erheblichen Sanktionen führen, was die Dringlichkeit der Umsetzung dieser Maßnahmen unterstreicht. 

Mit der Verabschiedung des EU AI Acts werden wichtige Regulierungsvorgaben für den KI-Einsatz wirksam. Unternehmen, die KI einsetzen, müssen dabei ihre bestehenden Prozesse und Technologien an die neuen regulatorischen Anforderungen anpassen. MHP unterstützt Sie dabei, diese Anforderungen sowohl in Prozessen, Systemen als auch in der Governance abzubilden. 

Was ist der EU AI Act?

Mit dem EU AI Act führt die Europäische Union den weltweit ersten verbindlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz ein. Die Verordnung soll sicherstellen, dass KI-Systeme, die in der EU entwickelt, vermarktet oder genutzt werden, sicher, transparent und ethisch vertretbar sind. Dabei gilt die Verordnung nicht nur für Unternehmen innerhalb der EU, sondern auch für alle, deren KI-Systeme auf dem EU-Markt eingesetzt werden. 

Zentraler Bestandteil der Verordnung ist ein risikobasierter Ansatz, der KI-Systeme nach minimalem, begrenztem, hohem und inakzeptablem Risiko unterteilt. Je nach Risikoklasse müssen Unternehmen bestimmte Pflichten und Nachweise erfüllen. Während KI-Systeme mit minimalem oder begrenztem Risiko nur geringen Transparenz- und Dokumentationspflichten unterliegen, gelten für Hochrisikosysteme besonders umfassende Vorschriften. Bei Nichteinhaltung der Vorschriften drohen Geldbußen. 

Der Vorschlag zur Verordnung wurde bereits 2021 von der Europäischen Kommission vorgelegt und trat am 1. August 2024 offiziell in Kraft. Die Regelungen werden aber erst nach und nach gelten. KI-Systeme, die nach dem 1. August 2024 in Betrieb genommen wurden, müssen bis zum 2. August 2026 alle regulatorischen Anforderungen erfüllen. KI-Systeme, die vor dem 1. August 2024 in Betrieb genommen wurden, haben eine längere Übergangsfrist. Sie müssen bis zum 2. August 2028 alle regulatorischen Anforderungen erfüllen. 

Im EU AI Act wird der Begriff „KI-System“ in Artikel 3 definiert. Diese Definition basiert auf der von der OECD festgelegten Begriffsbestimmung und wird wie folgt beschrieben: 

KI-System": ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie betrieben werden kann und nach seiner Einführung Anpassungsfähigkeit zeigt, und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren kann, die physische oder virtuelle Umgebungen beeinflussen können (…)“. 

Wer ist vom EU AI Act betroffen?

Die EU KI-Verordnung betrifft eine Vielzahl von Akteur:innen: 

  • Provider“: Eine Behörde, Einrichtung, natürliche oder juristische Person, die ein KI-System oder -Modell für allgemeine Zwecke entwickelt oder entwickeln lässt. Diese Person oder Organisation stellt das System unter ihrem eigenen Namen oder ihrer Marke auf dem Markt bereit oder nimmt es in Betrieb – unabhängig davon, ob dies entgeltlich oder unentgeltlich erfolgt. 
  • Deployer“: Natürliche oder juristische Personen, Behörden, Einrichtungen oder sonstige Stellen, die ein KI-System unter ihrer Aufsicht verwenden, es sei denn, das KI-System wird im Rahmen einer persönlichen, außerberuflichen Tätigkeit genutzt. 
  • Distributor“: Jede natürliche oder juristische Person in der Lieferkette, die ein KI-System auf dem EU-Markt bereitstellt. Ausgenommen sind Provider und Importer. 
  • Importer“: Jede natürliche oder juristische Person mit Sitz oder Wohnsitz in der EU, die ein KI-System auf den Markt bringt, das den Namen oder die Marke einer natürlichen oder juristischen Person trägt, die außerhalb der EU ansässig ist. 
  • Authorized Representative“: Jede natürliche oder juristische Person mit Sitz oder Wohnsitz in der EU, die von Providern eines KI-Systems oder eines -Modells für allgemeine Zwecke ein schriftliches Mandat erhalten hat. Die Bevollmächtigten akzeptieren dieses Mandat, um die in dieser Verordnung festgelegten Pflichten und Verfahren im Namen der Provider zu erfüllen oder durchzuführen. 
  • Product Manufacturer“: Hersteller, die ein KI-System zusammen mit ihrem Produkt unter eigenem Namen oder der eigenen Marke auf den Markt bringen oder in Betrieb nehmen. 

Kategorisierung von KI-Systemen: Risikoklassen

Herzstück der KI-Verordnung ist die Risikobewertung der eingesetzten KI-Systeme. Somit müssen Unternehmen eine Risikobewertung für jedes KI-System durchführen, das innerhalb des europäischen Marktes eingesetzt wird. KI-Systeme, die zu Forschungszwecken oder als Machbarkeitsstudie entwickelt werden und nur in diesem Bereich in Betrieb genommen wurden, fallen nicht unter den AI Act. Welche Anforderungen an die unterschiedlichen Risikoklassen gestellt werden, wird im Folgenden beschrieben:  

Inakzeptables Risiko (Unacceptable Risk) 

Praktiken im KI-Bereich, die nach Auffassung des Gesetzgebers eine Bedrohung für die Sicherheit und Rechte von Menschen in der EU darstellen, sind verboten. Der EU AI Act verbietet ausdrücklich den Einsatz von Systemen, die gegen die Werte und Rechte der freiheitlichen demokratischen Grundordnung verstoßen. Daher dürfen diese Systeme in der EU weder eingesetzt noch vermarktet werden. Dazu können unter anderem zählen: 

  • Echtzeit-Biometriesysteme zur Fernidentifizierung in öffentlich zugänglichen Räumen zu Zwecken der Strafverfolgung (hierzu gibt es mehrere Ausnahmen). 
  • Algorithmen zur Klassifizierung natürlicher Personen oder Personengruppen auf der Grundlage ihres Sozialverhaltens (Social Scoring).  
  • Manipulative Systeme, die die Verwundbarkeiten bestimmter Personen ausnutzen, um ihr Verhalten in einer Weise zu beeinflussen, oder unbewusste Reize nutzen, um Entscheidungen von Personen zu beeinflussen, was zu physischem oder psychischem Schaden führen kann (z. B. Predictive Policing). 

Hohes Risiko (High Risk) 

Hochrisikosysteme haben das Potenzial, erhebliche Auswirkungen auf die Sicherheit, Gesundheit und Rechte von Individuen zu haben. Deshalb unterliegen die Hochrisikosysteme strengen gesetzlichen Anforderungen hinsichtlich des Risikomanagements, der Datenqualität, Transparenz und Robustheit. Solche Systeme können bei​​spielsweise sein:  

  • Systeme zur biometrischen (Fern-)Identifikation und Kategorisierung natürlicher Personen (z. B. zur Emotionserkennung) nach sensiblen oder geschützten Attributen, auf deren Grundlage Rückschlüsse zu diesen Attributen gezogen werden und die Privatsphäre beeinträchtigt wird. 
  • Systeme in der Verwaltung und dem Betrieb kritischer Infrastrukturen (z. B. Sicherheitskomponenten im Management von Verkehrsnetzen oder der Wasserversorgung), bei denen Fehlfunktionen weitreichende Folgen für die Bevölkerung haben können. 
  • Systeme mit Bezug auf die allgemeine und berufliche Bildung (z. B. Zugang oder Zulassung zu Einrichtungen sowie Bewertung von Lernergebnissen) 
  • KI-Systeme, die für Einstellung oder Auswahl natürlicher Personen verwendet werden sollen (z. B. Schaltung von Stellenanzeigen, Analyse und Filterung von Bewerbungen) oder Entscheidungen treffen, die sich auf die Bedingungen von Arbeitsverhältnissen, Förderung oder Beendigung von Arbeitsvertragsverhältnissen auswirken. Solche Systeme sind besonders anfällig für Diskriminierung und deren Entscheidungen können weitreichende Konsequenzen für Individuen darstellen.  
  • Systeme, die den Zugang zu essenziellen Dienstleistungen betreffen (z. B. zur Bestimmung des Zugangs zu Gesundheits- oder Wohnungsdiensten). 
  • Für die Strafverfolgung relevante Systeme (z. B. zur Bewertung der Zuverlässigkeit von Beweisen oder für das Profiling im Rahmen von Strafverfolgungen). 
  • Verwaltungssysteme von Grenzkontrollen (z. B. zur Bewertung von Gesundheits- oder Sicherheitsrisiken von Personen, die in die EU einreisen). 
  • Systeme, die die Rechtsprechung und demokratische Prozesse betreffen (z. B. zur Unterstützung von Gerichten bei der Rechtsanwendung). 

Begrenztes Risiko (Limited Risk) 

KI-Systeme mit begrenztem Risiko unterliegen weniger strengen Anforderungen, müssen aber dennoch grundlegende Transparenz- und Sicherheitsanforderungen erfüllen. Das soll sicherstellen, dass die Nutzer:innen über die Fähigkeiten und Grenzen des KI-Systems informiert sind und fundierte, informierte Entscheidungen treffen können. Neben der Transparenzpflicht besteht auch eine Kennzeichnungspflicht von KI-generierten oder von einer KI manipulierten Inhalten. Beispiele hierfür wären: 

  • Chatbots und virtuelle Assistenz, die klar als solche erkennbar sein müssen 
  • Synthetischer Content, wie beispielsweise mit KI generierte Bilder, Videos oder Texte 

Minimales Risiko (Low Risk) 

KI-Systeme, die unter „minimales Risiko“ fallen, stellen nach Auffassung des Gesetzgebers ein sehr geringes, oder gar kein Risiko für Sicherheit, Gesundheit und Grundrechte von Personen dar. Deshalb unterliegen diese Systeme keinen konkreten gesetzlichen Anforderungen. Die EU verlangt jedoch nach einer freiwilligen Einhaltung von Guidelines bei der Entwicklung von jeglichen KI-Systemen. In diese Risikoklasse können fallen: 

  • Anwendungen zur Predictive Maintenance 
  • Rechtschreib- und Grammatikhilfen 
  • Spamfilter 
  • Übersetzungsdienste 
  • Empfehlungsalgorithmen für Videos und Musik 

Besondere Berücksichtigung von General Purpose AI 

General Purpose AI (GPAI) sind KI-Modelle, die für eine Vielzahl von Anwendungen und Aufgaben eingesetzt werden können, anstatt für eine spezifische Aufgabe oder einen bestimmten Anwendungsfall entwickelt zu sein (z. B. ChatGPT). Während GPAI-Modelle erhebliche Vorteile für die Arbeitswelt mit sich bringen, bergen sie auch mögliche Risiken für die Gesellschaft und Wirtschaft.  

Für Provider von GPAI-Modellen gelten grundlegende Anforderungen, insbesondere an die technische Dokumentation der Modelle. Darüber hinaus werden GPAI-Modelle mit einer sehr hohen Rechenleistung beim Training der Modelle (>1025 FLOPS), als GPAI-Modelle mit „systemischen Risiken“ eingestuft.  Ferner wird es einen Code of Practice geben, der seitens EU und unterschiedlicher Stakeholder-Gruppen erarbeitet wird (Link zum Entwurf des GPAI Code of Practice, Stand 14.11.2024). Der Code of Practice wird wahrscheinlich die Grundlage für die GPAI-Standards bilden.  

GPAI-Systeme sind grundsätzlich in zwei Kategorien aufgeteilt.  

GPAI mit systemischem Risiko müssen die folgenden Anforderungen erfüllen: 

  • Durchführung von Modellbewertungen 
  • Risikobewertung und -minderung 
  • Dokumentation aller schwerwiegenden Vorfälle und Abhilfemaßnahmen sowie Meldung an die EU 
  • Sicherheitstrainings (Red Teaming) 
  • Cybersicherheits- und physische Schutzmaßnahmen 
  • Dokumentation und Bericht über den geschätzten Energieverbrauch des Modells 

Alle GPAI müssen die folgenden Grundanforderungen erfüllen: 

  • Aktuelle technische Dokumentation 
  • Bereitstellung von Informationen für nachgelagerte Anbieter:innen 
  • Einführung von Richtlinien zur Einhaltung des EU-Urheberrechts 
  • Detaillierte Zusammenfassungen der für das Training verwendeten Inhalte 

KI-Compliance: Sanktionen bei Nichteinhaltung 

Die Nichteinhaltung der Bestimmungen kann zu erheblichen finanziellen Sanktionen führen – bis zu 35 Millionen Euro oder 7 % des Jahresumsatzes bei Verletzung der Verbotsbestimmungen des Artikels 5 und bis zu 15 Millionen Euro oder 3 % des Jahresumsatzes bei anderen Verstößen. Darüber hinaus droht ein erheblicher Reputationsverlust in der Gesellschaft und in der Branche. Ihr Unternehmen sollte daher dringend darauf achten, die Vorgaben des EU AI Acts einzuhalten. 

Welche Fristen sind für Unternehmen relevant?

 2. Februar 2025: Sechs Monate nach Inkrafttreten des EU AI Acts müssen Unternehmen sicherstellen, dass sie keine KI-Systeme mit unannehmbarem Risiko anwenden. Solche Systeme sind verboten und müssen vom Markt genommen werden. Die Nichteinhaltung kann zu hohen Geldstrafen führen. 

2. August 2025: Zwölf Monate nach Inkrafttreten müssen neue KI-Modelle für allgemeine Zwecke (GPAI), die nach dem Inkrafttreten des AI Acts am 1. August 2024 entwickelt oder in Betrieb genommen wurden, alle entsprechenden Anforderungen erfüllen. 

2. August 2026: 24 Monate nach Inkrafttreten des EU AI Acts gelten die Anforderungen für Hochrisiko-KI-Systeme, die nach dem Inkrafttreten des AI Acts am 1. August 2024 in Betrieb genommen wurden. Unternehmen müssen sicherstellen, dass diese Systeme alle regulatorischen Anforderungen erfüllen. 

2. August 2027: 36 Monate nach Inkrafttreten des EU AI Acts müssen alle bestehenden GPAI, die vor dem Inkrafttreten des AI Acts am 1. August 2024 in Betrieb genommen wurden, vollständig den neuen Anforderungen entsprechen. 

Weitere wichtige Deadlines finden Sie auf der offiziellen Webseite des EU AI Acts unter https://artificialintelligenceact.eu/de/implementation-timeline/.

Steht Ihr Unternehmen auch folgenden Pain Points gegenüber?

Durch neue Verordnungen wie dem EU AI Act sehen sich Unternehmen einigen Unsicherheiten gegenüber, da es gerade bei derart neuartigen Technologien keine Blueprints gibt, die für jedes Unternehmen anwendbar sind. Ebenso muss der Aufbau von Governance-Strukturen für den Umgang mit KI sorgfältig in die bestehende Prozess- und Infrastrukturlandschaft integriert werden, um den individuellen Rahmenbedingungen gerecht zu werden. 

Auch die Erstellung der Risikobewertung erscheint zunächst als mächtige Hürde, da viele Betriebe mit dieser Art der Risikoabschätzung noch nicht vertraut sind. Hinzu kommt, dass Unternehmen häufig nicht über die notwendigen internen Ressourcen mit entsprechendem Know-how verfügen, um die Anforderungen des EU AI Acts effektiv im operativen Betrieb umzusetzen. Mit den bereits genannten, sehr engen Fristen zur tatsächlichen Umsetzung der weitreichenden Anforderungen kommt noch ein weiterer erschwerender Faktor hinzu, der die Konformität zum EU AI Act zu einer immensen Herausforderung macht. 

Wie Sie die erste Deadline des EU AI Acts einhalten

Bis zum 2. Februar 2025 müssen Unternehmen sicherstellen, dass keine KI-Systeme mit inakzeptablem Risiko in ihrem Ökosystem angewendet werden. Die folgenden Punkte helfen Ihnen dabei, diese Frist einzuhalten: 

Identifizierung und Inventarisierung der KI-Systeme 

Der erste Schritt besteht darin, sich als Unternehmen einen Überblick zu verschaffen, wo KI im Einsatz ist und dies entsprechend zu dokumentieren. Je nachdem kann diese „Inventarisierung“ manuell oder auch systemgestützt erfolgen. Die Inventarisierung umfasst jede Art von Use-Case bei dem KI-Anwendungen verwendet werden. In einem ersten Schritt gilt es insbesondere verbotene KI-Anwendungen zu erkennen und diese noch vor der gesetzlichen Frist (2. Februar 2025) abzuschalten. 

Implementierung von Compliance-Maßnahmen 

Die erfolgreiche Umsetzung des EU AI Acts erfordert eine umfassende KI-Governance, die auch durch geeignete Softwaretools zur Dokumentation, Risikobewertung und zum Monitoring der KI-Systeme unterstützt werden muss. Das zentrale Ziel ist, dass das Unternehmen in die Lage versetzt wird, AI-Systeme zu klassifizieren und Risikoniveaus zu bestimmen, wie z. B. „Inakzeptables Risiko“ oder „Hohes Risiko“. 

Insbesondere für Hochrisiko-Anwendungen gelten ferner eine Vielzahl an zum Teil umfangreichen Anforderungen. Diese sind zum Beispiel: 

  • Risikomanagement-System aufbauen 
  • Dokumentation und technische Unterlagen erstellen 
  • Datenqualität sicherstellen 
  • Transparenz gegenüber Nutzer:innen gewährleisten 
  • Menschliche Aufsicht implementieren 
  • Robustheit und Cybersicherheit gewährleisten  
  • Transparenz über KI-Nutzung 
  • Qualitätsmanagement einführen 

In den hierfür notwendigen Compliance-Strukturen sollten diese Eckpunkte umgesetzt sein:  

  • Verantwortlichkeiten festlegen 
  • Prozesse für Konformitätsbewertung etablieren 
  • Monitoring- und Dokumentationssystem einführen 

Planung und Schulung der Mitarbeitenden 

Eine frühzeitige Planung und Schulung der Mitarbeitenden sind entscheidend, um die gesetzlichen Fristen einhalten zu können. So fordert der EU AI Act in Artikel 4 explizit die Förderung von „AI Literacy“. Unternehmen müssen daher sicherstellen, dass ihre Mitarbeitenden über die notwendigen Kenntnisse und Fähigkeiten im Umgang mit KI verfügen, um die Systeme sicher und verantwortungsvoll einsetzen und überwachen zu können. Zudem braucht es geeignete Governance-Strukturen, Verantwortlichkeiten, Risikomanagementprozesse und Qualitätsmanagementsysteme. Diese sollten im Einklang mit dem gestaffelten Implementierungszeitplan des EU AI Acts stehen. 

Ausblick auf die nächste Deadline

Sollte Ihr Unternehmen keine KI-Systeme mit systemischem Risiko anwenden, ist die nächste wichtige Frist der 2. August 2026. Bis zu diesem Datum müssen alle Anforderungen für Hochrisiko-KI-Systeme vollständig erfüllt sein. Diese Vorschriften sind besonders streng und umfassend. MHP unterstützt bereits mehrere Unternehmen bei der Implementierung der Hochrisiko-Anforderungen. Auch wenn die Deadline noch weit entfernt erscheint, gibt es zahlreiche Maßnahmen, die umgesetzt werden müssen. Je früher Sie beginnen, desto besser sind Sie vorbereitet! 

So unterstützt Sie MHP aktiv bei der Umsetzung des EU AI Acts

Zusammen mit den Expert:innen von MHP können Sie die Umsetzung strukturiert und effizient angehen. Wir bieten Ihnen eine ganzheitliche Beratung mit einem End-to-End-Konzept, das von der Bestandsaufnahme Ihrer KI-Systeme über den Aufbau eines Risikomanagements bis hin zur Implementierung der notwendigen Compliance-Maßnahmen reicht. Zudem bietet Ihnen MHP eine umfassende technische Beratung und hilft Ihnen, auf Ihr Unternehmen abgestimmte Lösungen zu implementieren. Darüber hinaus unterstützen wir Sie bei der Erstellung und Umsetzung von Anforderungen des EU AI Act an Schulungskonzepte, damit Ihre Mitarbeitenden für den Einsatz von KI vorbereitet werden und beraten Sie bei der Einführung neuer Rollen.  

Fazit: Setzen Sie den EU AI Act mit der Expertise von MHP effizient um

Der EU AI Act stellt Unternehmen vor erhebliche neue Herausforderungen, da umfangreiche Anpassungen in Prozessen und Technologien erforderlich sind. Besonders die strikten Fristen und umfangreichen Vorschriften verlangen eine frühzeitige und sorgfältige Planung. Laut einer ​​Bitkom-Studie (2024) geben 69 % der befragten Unternehmen an, Unterstützung bei der Auseinandersetzung mit der KI-Verordnung zu brauchen.  

MHP begleitet bereits zahlreiche Unternehmen bei der erfolgreichen Umsetzung des EU AI Acts und bietet praxisnahe Unterstützung entlang des gesamten Prozesses. Mit unserer langjährigen Erfahrung in der Compliance-Umsetzung wissen wir, welche Schritte notwendig sind, um die regulatorischen Anforderungen fristgerecht und rechtskonform zu erfüllen. Vertrauen Sie auf MHP als Partner für Trustworthy AI und setzen Sie auf Prozesse, die Ihnen Sicherheit und Innovationsfähigkeit im Bereich Künstlicher Intelligenz bieten.     

Disclaimer: 
Die Darstellungen zum AI Act dienen lediglich der allgemeinen Information und stellen keine Rechtsberatung dar. Trotz größter Mühe bei der Erstellung des Dokuments erhebt die Darstellung keinen Anspruch auf Vollständigkeit und Richtigkeit. 

FAQ

Welche KI-Systeme fallen unter den EU AI Act?

Unter den EU AI Act fallen alle KI-Systeme, die innerhalb der EU entwickelt, bereitgestellt oder genutzt werden. Die Verordnung unterscheidet dabei zwischen Systemen mit inakzeptablem, hohem, begrenztem und minimalem Risiko sowie Systemen mit allgemeinem Verwendungszweck (General Purpose AI, kurz: GPAI). GPAI-Modelle und Hochrisiko-KI-Systeme, wie solche in den Bereichen Gesundheit, Sicherheit und Strafverfolgung, werden besonders streng reguliert. 

Was sind die ersten Schritte zur Einhaltung des EU AI Acts?

Die ersten Schritte zur Einhaltung des EU AI Acts umfassen die Identifizierung und Risikobewertung der eingesetzten KI-Systeme sowie die Eliminierung von KI-Anwendungen mit inakzeptablem Risiko. Anschließend sollten Unternehmen notwendige Compliance-Maßnahmen umsetzen, die alle relevanten Funktionen und den gesamten Lebenszyklus der KI-Systeme abdecken. Es ist entscheidend, transparente Dokumentations- und Überwachungsprozesse einzuführen, um die Einhaltung der Vorschriften sicherzustellen. Eine frühzeitige Planung sowie die Schulung der Mitarbeitenden sind ebenfalls unerlässlich, um die gesetzlichen Fristen einzuhalten. 

Wie kann MHP bei der Implementierung des EU AI Acts helfen?

MHP unterstützt Unternehmen bei der Implementierung von Governance-Strukturen, die erforderlich sind, um den Anforderungen des EU AI Acts umfassend gerecht zu werden. MHP berät in diesem Zusammenhang zu den Themen Bestandsaufnahme der KI-Systeme, Risikobewertung, Schulungskonzept und Implementierung der erforderlichen Compliance-Maßnahmen. Dabei bietet MHP individuelle Lösungen, die sich in bestehende Unternehmensprozesse integrieren lassen. So schafft MHP strukturelle Rahmenbedingungen, um Unternehmen in die Lage zu versetzen, die gesetzlichen Anforderungen effizient und fristgerecht umzusetzen. 

Über unseren Autor:

Ein "Better tomorrow" geht nicht ohne: 

  • Demokratie und Rechtsstaat  
  • Unternehmerische Verantwortung 
  • AI Literacy  

Mein Herz schlägt schneller für…: 

  • Meine Familie 
  • Soziale Gerechtigkeit 
  • Stoische Ethik 
     

Marcus Schueler

Associated Partner

Über unsere Autorin:

Ein "Better tomorrow" geht nicht ohne: 

  • Verantwortungsbewusste Innovationen  
  • Bildung sowie Aufklärung zu Chancen und Risiken von KI  
  • Soziale Verantwortung  

Mein Herz schlägt schneller für…: 

  • Meinen Partner und unsere Kids 
  • Berlinale und Biennale 
  • Design  

Dr. Doris Prauschke

Senior Manager

Über unseren Autor:

Ein "Better tomorrow" geht nicht ohne: 

  • Technik für Menschen, nicht umgekehrt 
  • Eine positive Vision 
  • Literweise Kaffee 

Mein Herz schlägt schneller für…: 

  • Mensch-Maschine Interaktion 
  • Technikfolgeabschätzungen 

Dr. Maximilian Waechter

Über unsere Autorin:

Ein "Better tomorrow" geht nicht ohne:  

  • Verantwortungsvolle KI als Innovationskraft  
  • Gemeinsames Handeln für eine sichere digitale Zukunft  
  • Neugier und Fortschritt  

Mein Herz schlägt schneller für…:  

  • Innovation und Technologie  
  • Insbesondere nachhaltige und sichere Technologielösungen  
  • Die Zukunft der Mensch-Maschine-Interaktion gestalten  

Irina Petersen

Consultant