Ai-latest-news-feb24 by NeoonAI

EU AI Act: Was er für europäische Unternehmen bedeutet

Einführung: Was ist der EU AI Act und warum ist er wichtig?

Der EU AI Act – auch bekannt als EU-KI-Verordnung – ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz (Der AI Act im Kontext der industriellen Fertigung).

Ziel der Verordnung ist es, vertrauenswürdige KI zu gewährleisten, indem klare Regeln für die Entwicklung, Vermarktung und Nutzung von KI-Systemen festgelegt werden (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz).

Das Gesetz setzt auf einen risikobasierten Ansatz (ähnlich der DSGVO im Datenschutz) und soll sicherstellen, dass KI-Systeme sicher, transparent und grundrechtskonform sind. Gleichzeitig möchte die EU dadurch zum „globalen Hub für vertrauenswürdige KI“ werden (What the EU AI Act is already changing for businesses | IBM).

Der AI Act wurde 2024 von EU-Parlament und Mitgliedstaaten verabschiedet und ist am 1. August 2024 in Kraft getreten (What the EU AI Act is already changing for businesses | IBM). Die Vorschriften treten allerdings schrittweise in Kraft: Erste Bestimmungen (z.B. Verbote bestimmter KI-Praktiken) gelten ab Anfang 2025, die meisten Verpflichtungen greifen nach einer Übergangszeit von 2 Jahren, also voraussichtlich ab 2026 (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz).

Wichtig für Unternehmen: Die Verordnung gilt für praktisch alle, die KI-Systeme in der EU entwickeln, einsetzen oder anbieten – auch wenn sie außerhalb der EU sitzen, solange ihre KI-Ergebnisse in der EU genutzt werden (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Verstöße werden mit harten Strafen geahndet (bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes je nach Fall) (Der AI Act im Kontext der industriellen Fertigung). Für Unternehmen in Europa – ob Tech-Startup oder Industrieunternehmen – bedeutet der AI Act somit eine neue regulatorische Realität, auf die sie sich jetzt vorbereiten müssen.

Überblick: Wichtige Bestimmungen des EU AI Act

(AI Act | Shaping Europe’s digital future) Abbildung: Der EU AI Act teilt KI-Systeme in vier Risikostufen ein – von minimalem bis unakzeptablem Risiko. Je höher das Risiko, desto strenger die Vorgaben. (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet) (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet)

Risikoklassen und Verbote: Der AI Act kategorisiert KI-Anwendungen in vier Risikostufen: unannehmbares (verboten), hohes, begrenztes und geringes Risiko (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Unakzeptables Risiko umfasst KI-Systeme, die eine klare Bedrohung für Sicherheit oder Grundrechte darstellen – etwa soziale Scoring-Systeme nach chinesischem Vorbild oder Predictive Policing (vorausschauende Polizeiarbeit).

Solche Anwendungen gelten als unvereinbar mit den EU-Werten und sind verboten; bereits ab dem 2. Februar 2025 müssen sie eingestellt oder vom Markt genommen werden (Der AI Act im Kontext der industriellen Fertigung). Hochrisiko-KI ist erlaubt, unterliegt aber strengen Auflagen. Dazu zählen KI-Systeme, die wesentliche Entscheidungen oder kritische Infrastrukturen betreffen – z.B. KI zur Steuerung von Verkehr, Energieversorgung, im Bildungsbereich (etwa automatisierte Prüfungsbewertungen) oder in sicherheitsrelevanten Produkten wie medizinischen Geräten (AI Act | Shaping Europe’s digital future).

Solche Hochrisiko-Systeme dürfen nach einer Übergangsfrist (bis August 2026) nur noch betrieben werden, wenn alle Anforderungen des AI Act erfüllt sind (Der AI Act im Kontext der industriellen Fertigung).

Begrenztes Risiko (mittleres Risiko) betrifft KI-Systeme, die zwar nicht die Sicherheit gefährden, aber mit Menschen interagieren – hier schreibt der AI Act Transparenzpflichten vor.

Konkret müssen Anwender informiert werden, wenn sie es mit einem KI-System zu tun haben (z.B. Kennzeichnung von Chatbots oder KI-generierten Inhalten) (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet).

Geringes oder minimales Risiko tragen die meisten gewöhnlichen KI-Anwendungen (z.B. in Bürosoftware oder Datenanalyse); sie sind von direkten Auflagen befreit.

Für solche Fälle empfiehlt die EU jedoch freiwillige Verhaltenskodizes, um den ethischen KI-Einsatz zu fördern (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Interessanterweise schreibt der AI Act Unternehmen generell vor, ihre Mitarbeiter in KI zu schulen („AI Literacy“), damit ein Grundverständnis für Chancen und Risiken von KI vorhanden ist (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet).

Weitere Kernpunkte: Neben diesen Risikostufen gibt es besondere Vorgaben für Generative KI und Foundation Models (grundlegende KI-Modelle).

Anbieter von generativer KI (etwa große Sprachmodelle wie GPT) müssen Transparenzhinweise geben – z.B. kennzeichnen, dass ein Inhalt KI-generiert ist, und Urheberrechte beachten (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet).

Sie sind verpflichtet, umfangreiche Zusammenfassungen der verwendeten Trainingsdaten zu veröffentlichen und sicherzustellen, dass keine urheberrechtlich geschützten Daten unzulässig genutzt wurden (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Zusätzlich wird für besonders leistungsfähige Modelle mit systemischem Risiko eine engmaschige Überwachung in Abstimmung mit EU-Behörden vorgesehen (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet).

Der AI Act definiert klar die Verantwortlichen Rollen entlang der Wertschöpfungskette: Anbieter, Nutzer (Anwender), Importeure, Händler sowie Hersteller von Produkten mit KI-Komponenten (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Je nach Rolle gelten unterschiedliche Pflichten (dazu unten mehr).

Wichtig ist: Die Regelungen haben exterritoriale Wirkung – ein KI-Anbieter aus den USA oder der Schweiz muss die Vorgaben ebenfalls erfüllen, sobald seine Systeme in der EU eingesetzt werden (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Die Überwachung der Einhaltung übernimmt künftig ein neues EU AI Board zusammen mit den nationalen Aufsichtsbehörden, analog zur DSGVO-Struktur.

Bei Nichteinhaltung drohen empfindliche Bußgelder von bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes (Der AI Act im Kontext der industriellen Fertigung) – deutlich höher als die maximalen DSGVO-Strafen. Diese hohen Strafandrohungen unterstreichen, wie ernst es der EU mit der KI-Compliance ist.

Auswirkungen auf verschiedene Branchen

Der AI Act betrifft Unternehmen aller Branchen, die KI einsetzen. Allerdings variiert der Impact je nach Sektor, abhängig davon, welche KI-Anwendungen typisch sind und wie sie eingestuft werden. Im Folgenden ein Überblick, wie sich die neuen Regeln in ausgewählten Bereichen auswirken:

Technologie und IT

Für die Tech-Branche und IT-Unternehmen – insbesondere jene, die KI-Systeme entwickeln und anbieten – bringt der AI Act umfangreiche Neuerungen. Anbieter von KI-Software müssen künftig bereits während der Entwicklung sicherstellen, dass ihre Systeme alle Konformitätsanforderungen erfüllen, bevor sie auf den Markt kommen (Der AI Act im Kontext der industriellen Fertigung). So sind z.B. technische Dokumentationen zu erstellen, Risikobewertungen durchzuführen und menschliche Eingriffsmöglichkeiten (“Kill-Switch”) vorzusehen (mehr dazu im Abschnitt Compliance) (Der AI Act im Kontext der industriellen Fertigung). Große KI-Anbieter wie Hersteller von Foundation Models (z.B. umfangreiche Sprach- oder Bild-KI) sind besonders gefordert, da für sie zusätzliche Transparenz- und Berichtsauflagen gelten – etwa die Offenlegung von Trainingsdaten und Maßnahmen gegen Missbrauch (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet).

Gleichzeitig sehen sich Tech-Unternehmen mit der Frage konfrontiert, wie sich die Regulierung auf die Innovationsfähigkeit auswirkt. Einige Beobachter befürchten, dass strenge Vorschriften die Einführung neuer KI-Technologien bremsen könnten (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Während US- und chinesische Konzerne oft nach dem Motto „erst innovieren, dann regulieren“ agieren können, setzt die EU früher an, was theoretisch zu Wettbewerbsnachteilen führen könnte (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Die EU-Kommission versucht jedoch gegenzusteuern: Geplant sind Fördermaßnahmen und Reallabore, in denen Unternehmen KI-Anwendungen in geschütztem Rahmen entwickeln und testen können (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Zudem gibt es Ausnahmen für Forschung und Open-Source-KI, um die Entwicklung gemeinwohlorientierter und akademischer KI nicht zu behindern (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Tech-Firmen, die früh auf Compliance setzen, könnten letztlich profitieren – indem sie als vertrauenswürdige Anbieter wahrgenommen werden und so einen Wettbewerbsvorteil erlangen.

Finanzdienstleistungen

In der Finanzbranche – Banken, Fintechs, Versicherungen – wird der AI Act voraussichtlich erheblichen Einfluss haben. Viele finanzielle Dienstleistungen basieren zunehmend auf datengesteuerten Modellen, und etliche davon fallen unter die Hochrisiko-Kategorie des Gesetzes (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Zum Beispiel gelten KI-Systeme zur Bonitätsprüfung von Kreditkunden oder zur Berechnung von Versicherungsprämien als hochriskant, da Fehlentscheidungen hier gravierende Auswirkungen auf die Betroffenen haben (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Entsprechend müssen Banken und Versicherer solche Modelle besonders streng kontrollieren – etwa durch Tests auf Nicht-Diskriminierung (kein Benachteiligen bestimmter Gruppen) und durch Nachvollziehbarkeit der Entscheidungen. Auch KI, die für den Betrieb und die Wartung kritischer Finanzmarkt-Infrastrukturen eingesetzt wird (z.B. Handelssysteme oder Zahlungsverkehrsplattformen), fällt unter die Hochrisiko-Anforderungen (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz).

Hinzu kommt, dass Finanzunternehmen häufig KI im Personalwesen einsetzen (etwa für automatische Bewerberauswahl oder Mitarbeiterbewertung) oder bei der Kundenidentifizierung (z.B. Gesichts-Identifikation bei Kontoeröffnung). Diese Anwendungsfälle – biometrische Identifizierung sowie KI in der Beschäftigtenverwaltung – werden vom AI Act ebenfalls als hochriskant eingestuft (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Die Finanzindustrie muss also in mehreren Bereichen Compliance-Maßnahmen ergreifen: von der Modellvalidierung über die Dokumentation bis hin zur Schulung des verantwortlichen Personals. Der Aufwand erinnert an die Einführung der DSGVO, doch die frühe Anpassung an die KI-Verordnung könnte sich lohnen – nämlich indem Institute Vertrauen aufbauen und Reputationsrisiken (z.B. durch diskriminierende Algorithmen) proaktiv minimieren.

Gesundheitswesen

Im Gesundheitssektor bietet KI enormes Potenzial, zugleich sieht der AI Act hier besonders sensible Einsatzfelder. Zahlreiche medizinische KI-Anwendungen werden als Hochrisiko-KI eingestuft, da es um Menschenleben und -gesundheit geht (The EU AI Act: Implications for the health sector – Access Partnership). Ein Beispiel ist die Triage von Notfallpatienten mittels KI: Wenn ein Algorithmus entscheidet, welche Patienten im Krankenhaus zuerst behandelt werden, ist Transparenz und Zuverlässigkeit kritisch – solche Systeme fallen klar in die Hochrisiko-Kategorie (The EU AI Act: Implications for the health sector – Access Partnership). Ähnliches gilt für KI, die über die Zuteilung von Gesundheitsleistungen oder Behandlungsprioritäten entscheidet (z.B. welche Patienten Zugang zu bestimmten Therapien erhalten) (The EU AI Act: Implications for the health sector – Access Partnership). Diese Anwendungen müssen strenge Auflagen erfüllen, u.a. umfangreiche Tests, menschliche Kontrollmechanismen und laufende Überwachung der Genauigkeit.

Auch biometrische KI-Systeme im Gesundheitsbereich – etwa Algorithmen, die aus Gesichts- oder Genomdaten Rückschlüsse auf sensible Eigenschaften einer Person ziehen – werden als hochriskant reguliert, um Missbrauch und Diskriminierung zu verhindern (The EU AI Act: Implications for the health sector – Access Partnership).

Für Hersteller von Medizinprodukten mit KI-Komponente bedeutet der AI Act zusätzlichen Aufwand in der Zertifizierung: Solche KI-Systeme müssen nicht nur die Anforderungen der KI-Verordnung erfüllen, sondern auch weiterhin die Vorgaben der Medizinprodukte-Verordnung (MDR) oder In-Vitro-Diagnostik-Verordnung (IVDR) einhalten (The EU AI Act: Implications for the health sector – Access Partnership).

Die EU verzahnt diese Regime, indem z.B. Benannte Stellen (Notified Bodies) künftig KI-Konformitätsprüfungen mit übernehmen können (The EU AI Act: Implications for the health sector – Access Partnership). Das klingt nach mehr Bürokratie, könnte aber sicherstellen, dass KI-Diagnosesysteme wirklich zuverlässig und sicher sind. Langfristig eröffnet die Regulierung auch Chancen: Mehr Vertrauen in KI „Made in Europe“ könnte die Akzeptanz für innovative Lösungen wie KI-gestützte Diagnosen, personalisierte Medizin oder Pflegeroboter erhöhen. Gesundheitsanbieter, die jetzt in erklärbare und regelkonforme KI investieren, können sich einen Ruf als sichere Vorreiter aufbauen – was in einem sensiblen Bereich wie der Medizin ein großer Vorteil ist.

Industrie und Fertigung

Industrieunternehmen und Fertigungsbetriebe setzen zunehmend auf KI (Stichwort Industrie 4.0), etwa für Automatisierung, Qualitätsprüfung oder vorausschauende Wartung. Der AI Act wirkt sich auch hier aus, wenngleich viele interne Produktions-KI-Systeme als eher geringes Risiko gelten.

KI-Anwendungen, die die kritische Infrastruktur betreffen – z.B. Steuerungsanlagen in der Energieversorgung, Wasser-/Wärmeversorgung oder im Straßenverkehr – werden jedoch ausdrücklich als hochriskant klassifiziert (Der AI Act im Kontext der industriellen Fertigung).

Für Betreiber solcher Systeme (etwa Energieversorger, Netzbetreiber oder Verkehrsleitzentralen) heißt das: Ihre KI muss die strengen Auflagen erfüllen, bevor sie eingesetzt wird. Gleiches gilt in der Produktion überall dort, wo KI ein Sicherheitsbestandteil von Maschinen oder Produkten ist. Der Act bezieht nämlich auch KI in Produkten ein, die bereits heute anderen EU-Vorschriften unterliegen – z.B. der Maschinenrichtlinie (bzw. der kommenden Maschinenverordnung) (Der AI Act im Kontext der industriellen Fertigung). Ein Roboterhersteller oder Automobilbauer muss also prüfen, ob seine eingebetteten KI-Systeme zusätzliche Zertifizierungen brauchen. So wird beispielsweise ein KI-gestütztes Assistenzsystem in einer Maschine, das sicherheitsrelevant ist, unter den AI Act fallen und die Maschine benötigt weiterhin eine CE-Kennzeichnung nach der Maschinenverordnung (Der AI Act im Kontext der industriellen Fertigung).

Für Maschinenbauer und industrielle Hersteller bedeutet das zunächst höheren Aufwand in Entwicklung und Dokumentation. Allerdings sind viele Elemente nicht völlig neu: Bereits jetzt gelten Normen zu Sicherheit, Haftung und Qualität, die auch KI-Komponenten betreffen (Der AI Act im Kontext der industriellen Fertigung).

Der AI Act bündelt diese Prinzipien in einem Rahmen. Einfache KI-Anwendungen in der Fertigung, die keine direkten Auswirkungen auf Personen haben – zum Beispiel Predictive Maintenance (vorausschauende Instandhaltung von Anlagen) – werden vom AI Act als minimales Risiko eingestuft (Der AI Act im Kontext der industriellen Fertigung). Solche Anwendungen sind weiterhin erlaubt, ohne neue Pflichten, es wird aber empfohlen, freiwillige Richtlinien für den verantwortungsvollen Einsatz zu entwickeln. Insgesamt könnte die KI-Regulierung der Industrie sogar nutzen: Einheitliche Regeln schaffen Planungssicherheit und fördern das Vertrauen in KI-optimierte Produktion. Effizienzsteigerungen durch KI (z.B. weniger Ausfallzeiten, optimierte Prozesse) werden leichter realisierbar sein, wenn Mitarbeiter und Kunden darauf vertrauen, dass die eingesetzten Algorithmen sicher und geprüft sind. Nicht zuletzt betont die EU, dass KI zur Produktivitätssteigerung und zu „effizienterer Fertigung“ beitragen kann – sofern sie richtig reguliert ist (The EU AI Act: Key provisions and future impacts – Thoropass).

Compliance-Anforderungen für Unternehmen

Was müssen europäische Unternehmen konkret tun, um den AI Act einzuhalten? Die Verordnung bringt eine Reihe neuer Pflichten mit sich, insbesondere für Anbieter und Betreiber von Hochrisiko-KI-Systemen. Ein Überblick der wichtigsten Compliance-Anforderungen:

  • Risikomanagement und Konformitätsbewertung: Für hochriskante KI-Systeme müssen Unternehmen ein systematisches Risikomanagement etablieren. Das beinhaltet eine Bewertung, welche Risiken das KI-System für die Grundrechte, Gesundheit und Sicherheit von Personen haben kann, und wie diese minimiert werden (Der AI Act im Kontext der industriellen Fertigung). Bevor ein Hochrisiko-System auf den Markt gebracht oder in Betrieb genommen wird, ist eine Konformitätsprüfung durchzuführen (Der AI Act im Kontext der industriellen Fertigung). In vielen Fällen kann der Anbieter diese Prüfung selbst vornehmen und eine EU-Konformitätserklärung ausstellen, in manchen Fällen (z.B. besonders kritische Anwendungen wie biometrische Identifikation) wird eine externe Stelle (Notified Body) einbezogen. Erst nach erfolgreicher Prüfung darf das System mit CE-Kennzeichnung in der EU bereitgestellt werden (Der AI Act im Kontext der industriellen Fertigung). Zudem müssen Hochrisiko-KI-Systeme in eine EU-Datenbank eingetragen werden, damit die Aufsichtsbehörden einen Überblick haben (Der AI Act im Kontext der industriellen Fertigung).
  • Technische Dokumentation und Aufzeichnung: Anbieter von KI-Systemen sind verpflichtet, umfassende technische Unterlagen zu erstellen. Darin müssen sie die Funktionsweise der KI, die getroffenen Sicherheits-Vorkehrungen und die Erfüllung der AI-Act-Anforderungen detailliert nachweisen (Der AI Act im Kontext der industriellen Fertigung). Während des Betriebs eines Hochrisiko-Systems müssen Logdateien geführt werden (automatische Aufzeichnung von Ereignissen), um im Nachhinein Entscheidungen nachvollziehen und Fehlverhalten analysieren zu können (Navigating the EU AI Act | Blog | OneTrust). Diese Dokumentation und Aufzeichnungen sind über den gesamten Lebenszyklus des KI-Systems aufzubewahren (mindestens 10 Jahre) und auf Anfrage den Behörden zur Verfügung zu stellen (Navigating the EU AI Act | Blog | OneTrust).
  • Datenqualität und -Governance: Ein zentrales Kriterium ist die Qualität der Daten, mit denen KI-Systeme trainiert und betrieben werden. Der AI Act verlangt, dass Trainings-, Validierungs- und Testdaten angemessen, repräsentativ, fehlerarm und vollständig sein müssen (Der AI Act im Kontext der industriellen Fertigung) (Navigating the EU AI Act | Blog | OneTrust). Unternehmen müssen also auf Bias-Freiheit achten (keine verzerrten Datensätze, die zu diskriminierenden Ergebnissen führen) und sicherstellen, dass die Daten aktuell und relevant für den Anwendungszweck sind. Gegebenenfalls sind Verfahren zur laufenden Datenbereinigung und -aktualisierung einzuführen. Darüber hinaus muss ein Daten-Governance-Konzept umgesetzt werden, das festlegt, wie Daten erhoben, gespeichert, geschützt und verwendet werden. Insbesondere bei personenbezogenen Daten ist die Einhaltung der Datenschutzregeln (DSGVO) sicherzustellen.
  • Qualitätsmanagement und menschliche Aufsicht: Unternehmen, die KI nutzen, sollen ein Qualitätsmanagement-System einführen, das die Konformität der KI während ihres gesamten Lebenszyklus überwacht (Der AI Act im Kontext der industriellen Fertigung). Dieses QM-System ähnelt bekannten Managementnormen (z.B. ISO 9001), ist aber auf KI zugeschnitten – es umfasst Prozesse zur kontinuierlichen Überprüfung der KI-Leistung, zum Änderungsmanagement (falls das System nachträglich angepasst wird) und zur Behandlung von Vorfällen oder Meldungen von Nutzern. Ein wesentliches Prinzip des AI Act ist zudem die menschliche Kontrolle: Hochrisiko-KI-Systeme dürfen nie völlig autonom und ohne Ausstiegsmöglichkeit arbeiten. Anbieter müssen sicherstellen, dass ihr System jederzeit von einem Menschen gestoppt oder übersteuert werden kann (oft als „rote Taste“ oder Not-Aus-Funktion bezeichnet) (Der AI Act im Kontext der industriellen Fertigung). Außerdem sollen Menschen im Betrieb die KI-Ergebnisse überwachen – etwa können Unternehmen festlegen, dass finale kritische Entscheidungen (z.B. Einstellung eines Bewerbers, Ablehnung eines Kredits) von einem Mitarbeiter gegengezeichnet werden müssen (human-in-the-loop).
  • Transparenz- und Informationspflichten: Für verschiedene Risikostufen gelten Transparenzvorgaben. Begrenzte Risikoanwendungen, die mit Nutzern interagieren (Chatbots, virtuelle Assistenten, Deepfakes etc.), müssen diese Nutzer darauf hinweisen, dass KI im Spiel ist (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Zum Beispiel muss ein Chatbot sich als solcher zu erkennen geben, oder ein generiertes Bild sollte als KI-generiert gekennzeichnet sein. Anbieter von Hochrisiko-KI müssen den Benutzern zudem verständliche Anleitungen und Informationen bereitstellen – darunter Angaben zur Zweckbestimmung des Systems, zu seiner Leistungsfähigkeit und Einschränkungen (The EU AI Act: Implications for the health sector – Access Partnership) (Navigating the EU AI Act | Blog | OneTrust). Nutzer (etwa ein Unternehmen, das eine KI-Software einkauft) sollen genug wissen, um das System korrekt einsetzen zu können und um seine Ergebnisse einordnen zu können. Im Falle von generativer KI kommen spezielle Transparenzregeln hinzu: Generative Modelle müssen dafür sorgen, dass erzeugte Inhalte nötigenfalls mit einem digitalen Wasserzeichen oder Hinweis versehen sind, damit Dritte sie als KI-Erzeugnis erkennen (What the EU AI Act is already changing for businesses | IBM).
  • Schulung und interne Kompetenz: Eine neuartige Verpflichtung ist die Förderung der KI-Kompetenz im Unternehmen. Tatsächlich schreibt der finalisierte AI Act vor, dass Unternehmen in der EU ihre Mitarbeiter und Nutzer im Umgang mit KI schulen müssen (What the EU AI Act is already changing for businesses | IBM). Dieses Konzept der “AI Literacy” soll sicherstellen, dass nicht nur Spezialisten, sondern auch Anwender ein Grundverständnis von KI haben – z.B. wissen, dass ein HR-Tool auf Machine Learning basiert und welche möglichen Verzerrungen es haben kann (What the EU AI Act is already changing for businesses | IBM). Für Unternehmen bedeutet das, interne Trainingsprogramme aufzusetzen: von allgemeinen KI-Grundlagen bis hin zu spezifischen Schulungen für die Nutzung einzelner KI-Systeme im Unternehmen. Zudem sollten interdisziplinäre Teams (IT, Recht, Fachabteilung) zusammenarbeiten, um KI-Risiken zu überwachen. Auf Führungsebene empfiehlt es sich, klare Verantwortlichkeiten festzulegen – etwa einen KI-Verantwortlichen oder KI-Ethikrat einzusetzen, der die Umsetzung der AI-Act-Vorgaben steuert.

Zusammengefasst verlangt der AI Act von Unternehmen proaktive Maßnahmen, um KI sicher und regelkonform einzusetzen. Dies erfordert technologische Anpassungen, Dokumentationsaufwand sowie organisatorische Vorkehrungen.

Insbesondere Anbieter von KI-Produkten werden einen Gutteil ihrer Entwicklungsprozesse neu ausrichten müssen, damit „Compliance by Design“ gewährleistet ist – also KI-Systeme von Anfang an die EU-Vorgaben einhalten. Aber auch Anwender, die fertige KI-Lösungen einkaufen, sollten genau prüfen, ob diese KI zertifiziert ist und welche Nutzungsauflagen bestehen.

Potenzielle Herausforderungen und Risiken

Die Einführung der EU-KI-Verordnung bringt für Unternehmen nicht nur Pflichten, sondern auch handfeste Herausforderungen. Einige wichtige Punkte, auf die sich europäische Firmen einstellen sollten:

  • Hoher Aufwand und Kosten: Die Umsetzung der neuen Vorgaben kann mit erheblichem Ressourceneinsatz verbunden sein. Insbesondere die umfangreiche Dokumentation, das Etablieren von Überwachungs- und Qualitätssicherungsprozessen sowie ggf. Zertifizierungskosten bedeuten finanzielle und personelle Belastungen (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Kleine und mittlere Unternehmen (KMU) ohne eigene Rechts- oder Forschungsabteilung trifft dies besonders hart (EU KI-Gesetz: Auswirkungen und Chancen). Sie müssen Know-how aufbauen oder externe Berater hinzuziehen, was zunächst kostspielig ist.
  • Rechtsunsicherheit in der Praxis: Obwohl der AI Act klare Prinzipien vorgibt, bleiben im Detail einige Auslegungsfragen offen. Viele Anforderungen sind technikneutral und eher allgemein formuliert, was einerseits Flexibilität lässt, andererseits Unternehmen vor Unsicherheit stellt (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Bis konkrete Standards und Leitlinien veröffentlicht werden, müssen Firmen selbst interpretieren, was z.B. „vertrauenswürdige KI“ im eigenen Anwendungsfall genau bedeutet. Diese Unschärfe erschwert die Planung. Zudem wird erst die Aufsichtspraxis zeigen, wie streng Kontrollen und Strafen tatsächlich ausfallen. Die Angst vor möglichen Sanktionen könnte zu einer vorsichtigen „Abwarten-Haltung“ führen, was Innovation verzögern kann.
  • Befürchtete Innovationsbremse: Einige Branchenvertreter warnen, dass die EU sich mit zu harten Regeln selbst ins Bein schießen könnte. Wenn Unternehmen sehr restriktiv agieren müssen, besteht die Gefahr, dass sie weniger experimentieren oder neue KI-Technologien gar nicht erst einsetzen (KI-Gesetz: Was der EU AI Act für Unternehmen bedeutet). Während in den USA oder China KI-Projekte oft schneller auf den Markt kommen, könnten europäische Firmen durch langwierige Compliance-Prüfungen ins Hintertreffen geraten. Dieses Innovation Dilemma bereitet vielen Sorge – insbesondere der Tech-Startup-Szene. Allerdings ist zu beachten, dass der AI Act gezielt Ausnahmen für Forschung vorsieht, um Kreativität nicht abzuwürgen. Langfristig könnte sich herausstellen, dass klarere Regeln sogar Innovation fördern, weil sie Vertrauen schaffen – doch dieser Effekt tritt nicht unmittelbar ein.
  • Fachkräftemangel und Schulungsbedarf: Die Anforderungen des AI Act überschneiden sich mit Feldern wie Datenschutz, IT-Sicherheit und Ethik. Entsprechend groß ist der Bedarf an Fachleuten, die dieses interdisziplinäre Wissen mitbringen. Schon heute klagen Unternehmen, dass Experten für KI-Governance schwer zu finden sind. Es muss also intern Wissen aufgebaut werden – etwa durch Weiterbildungen für bestehende Mitarbeiter oder Neueinstellungen von KI-Spezialisten. Auch die vom AI Act geforderte Schulung aller Mitarbeiter in KI (AI Literacy) ist logistisch eine Herausforderung, vor allem in großen Organisationen. Dies erfordert Zeit, Budget und die Entwicklung passender Schulungsmaterialien.
  • Integration in bestehende Prozesse: Unternehmen verfügen bereits über Compliance-Strukturen (für Datenschutz, Informationssicherheit, Qualitätsmanagement etc.). Die KI-Compliance muss nun darin integriert werden. Das kann organisatorische Änderungen erfordern, z.B. die Erweiterung von Risk-Management-Prozessen um KI-Risikoaspekte oder die Anpassung von Lieferantenaudits (man muss ja nun auch KI-Zulieferer bewerten). Möglicherweise müssen neue Gremien oder Rollen geschaffen werden, etwa ein AI Compliance Officer, der bereichsübergreifend agiert. Diese interne Neuorganisation bringt anfangs Reibungspunkte, könnte aber auf lange Sicht Synergien schaffen (KI- und Datenschutzteams können bspw. eng kooperieren).
  • Strenge Sanktionen und Haftungsfragen: Die Aussicht auf hohe Bußgelder (bis 35 Mio. € bzw. 7% Umsatz) setzt Unternehmen unter Druck (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Jeder Verstoß kann nicht nur finanziell weh tun, sondern auch einen Reputationsschaden verursachen – niemand möchte in der Presse als erstes Unternehmen genannt werden, das gegen den AI Act verstoßen hat. Diese Abschreckung ist gewollt, kann aber zu einer eher risikoscheuen Haltung führen. Zudem stellen sich Haftungsfragen: Wenn eine KI eine Fehlentscheidung trifft, wer haftet? Der AI Act belässt die zivilrechtliche Haftung zwar in nationalen Gesetzen, doch durch die Konformitätserklärung übernehmen Anbieter faktisch Verantwortung für ihr KI-Produkt. Versicherungen für KI-Haftpflicht könnten an Bedeutung gewinnen. Unternehmen müssen sich also auch juristisch absichern, was zusätzliche Kosten mit sich bringt.

Kurz gesagt: Die Umsetzung des AI Act wird kein Selbstläufer. Ähnlich wie bei der DSGVO vor ein paar Jahren sind Umstellungsaufwand, Unsicherheit und Anfangsschwierigkeiten absehbar. Doch wer diese Hürden meistert, kann am Ende stabilere und vertrauenswürdigere KI-Prozesse vorweisen – was im Wettbewerb wiederum ein Plus sein kann.

Chancen und Vorteile für Unternehmen

Trotz aller Herausforderungen bietet der EU AI Act auch Chancen und strategische Vorteile für europäische Unternehmen. Ein paar positive Aspekte:

  • Mehr Vertrauen und Akzeptanz: Ein zentrales Ziel der Verordnung ist es, das Vertrauen in KI-Systeme zu erhöhen – bei Verbrauchern, Geschäftspartnern und der Öffentlichkeit (EU KI-Gesetz: Auswirkungen und Chancen). Wenn KI klaren Regeln folgt, sinkt die Angst vor „schwarzen Kisten“ oder vor Missbrauch. Unternehmen, die KI rechtskonform einsetzen, können dieses Vertrauen für sich nutzen: Ihre Produkte oder Services werden wahrscheinlicher akzeptiert und nachgefragt. Zum Beispiel könnte ein KI-gestützter Finanz-Service mit einem EU-Compliance-Siegel werben, was Kunden ein Gefühl von Sicherheit gibt. Höheres Grundvertrauen in KI dürfte insgesamt die Marktdurchdringung von KI-Lösungen steigern – wovon alle Anbieter profitieren.
  • Wettbewerbsvorteil durch frühe Anpassung: Firmen, die proaktiv auf die neuen Regeln hinarbeiten, können sich als Vorreiter positionieren (EU KI-Gesetz: Auswirkungen und Chancen). Ähnlich wie einige Unternehmen die DSGVO-Compliance als Verkaufsargument nutzen („Datenschutzfreundlich nach EU-Standard“), könnte auch AI-Act-Compliance zum Qualitätsmerkmal werden. Wer schon jetzt interne KI-Prinzipien umsetzt, wird später weniger Anpassungen benötigen und kann gegenüber zögerlichen Mitbewerbern Boden gutmachen. Dieser First Mover Advantage zeigt sich etwa darin, dass man bei öffentlichen Ausschreibungen oder größeren Kundenaufträgen punkten kann, wenn man nachweislich alle KI-Regularien einhält. Außerdem lernen Early Adopters am schnellsten, wie man KI verantwortlich entwickelt – dieses Know-how ist an sich wertvoll und schwer imitierbar.
  • Rechtssicherheit und einheitlicher Rahmen: Der AI Act schafft innerhalb der EU einen harmonisierten Rechtsrahmen. Für Unternehmen, die grenzüberschreitend tätig sind, fällt damit der Flickenteppich unterschiedlicher nationaler KI-Regeln weg. Das vereinfacht die Expansion in andere EU-Länder erheblich, da man sich nicht mit abweichenden Gesetzen befassen muss. Ein einheitlicher Standard sorgt auch für faireren Wettbewerb im Binnenmarkt: Alle müssen dieselben Spielregeln einhalten, Trittbrettfahrer haben es schwerer. Darüber hinaus setzt die EU mit dem AI Act einen de-facto-Standard, der global Beachtung findet. Andere Länder und Regionen orientieren sich möglicherweise daran. Das könnte langfristig dazu führen, dass EU-konforme KI-Produkte auch international leichter zugelassen werden (ähnlich wie ein CE-Zeichen oft weltweit als Gütesiegel angesehen wird).
  • Förderung von Innovation und Unterstützung: Begleitend zur Regulierung hat die EU Unterstützungsmaßnahmen angekündigt. Zum einen sollen sogenannte Reallabore und Sandboxes eingerichtet werden (EU KI-Gesetz: Auswirkungen und Chancen). In diesen kontrollierten Umgebungen können Unternehmen – insbesondere Start-ups und KMU – neue KI-Technologien erproben, ohne sofort alle Regulierungsauflagen erfüllen zu müssen. Die Erkenntnisse daraus helfen sowohl den Firmen (um ihre Lösungen zu verfeinern) als auch den Regulierern (um ggf. Regeln anzupassen). Zum anderen gibt es Förderprogramme und Beratungsangebote (EU KI-Gesetz: Auswirkungen und Chancen), die finanziell und mit Know-how den Übergang erleichtern. Unternehmen sollten diese Möglichkeiten aktiv nutzen. Auch die Zusammenarbeit in Brancheninitiativen oder Verbänden kann Vorteile bringen, etwa um gemeinsame Best Practices für KI-Compliance zu entwickeln. Insgesamt signalisiert die EU, dass sie Innovation nicht abwürgen will, sondern gezielt lenken möchte – Unternehmen können sich darauf einstellen und mitgestalten.
  • Langfristig bessere KI-Lösungen und neue Märkte: Indem der AI Act auf Qualität, Sicherheit und Ethik setzt, könnte er langfristig die Exzellenz von KI-Anwendungen steigern. KI-Systeme, die Bias vermeiden, transparent arbeiten und robust sind, werden am Markt eher bestehen. Branchen wie Gesundheitswesen, Verkehr oder Fertigung profitieren davon direkt: Bessere KI bedeutet z.B. weniger Fehlalarme in der Diagnostik, sicherere autonome Fahrzeuge oder effizientere Produktionsprozesse (The EU AI Act: Key provisions and future impacts – Thoropass). Für die Gesellschaft ergeben sich Verbesserungen (etwa durch „bessere Gesundheitsversorgung, sauberere Mobilität, effizientere Produktion und nachhaltigere Energie“ dank KI (The EU AI Act: Key provisions and future impacts – Thoropass)), und für Unternehmen entstehen neue Geschäftschancen. So kann die Nachfrage nach erklärbarer KI oder KI-Audit-Dienstleistungen wachsen – hier können sich neue Services und Märkte entwickeln. Europäische Firmen, die sich als Anbieter vertrauenswürdiger KI-Lösungen etablieren, könnten weltweit gefragt sein, da das Thema AI Governance überall relevanter wird. Mit anderen Worten: Compliance ist nicht nur Last, sondern kann zum Teil des Wertangebots werden.

Unterm Strich bietet der EU AI Act die Gelegenheit, das Thema KI auf eine nachhaltige und vertrauenswürdige Basis zu stellen. Unternehmen, die diese Vision erkennen, können nicht nur Risiken minimieren, sondern auch aktiv Nutzen daraus ziehen – durch Stärkung von Vertrauen, Erschließung neuer Märkte und Verbesserung der eigenen Prozesse mittels sicherer KI.

Praktische Schritte zur Vorbereitung

Angesichts der bevorstehenden Pflichten sollten Unternehmen jetzt beginnen, sich auf die KI-Verordnung einzustellen. Hier sind einige praktische Schritte, die Betriebe in Deutschland (und Europa) unternehmen können, um sich effektiv vorzubereiten:

  1. KI-Bestandsaufnahme durchführen: Verschaffen Sie sich zunächst einen Überblick, wo überall in Ihrem Unternehmen KI im Einsatz ist. Erfassen Sie in einer zentralen Liste alle bestehenden KI-Systeme, KI-Module in Ihren Produkten sowie KI-Projekte in Entwicklung (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Vergessen Sie nicht die KI-Lösungen von Drittanbietern, die Sie nutzen (z.B. zugekaufte Software mit ML-Komponente oder Cloud-AI-Services). Falls Sie bisher kein Verzeichnis haben, starten Sie jetzt mit dieser Bestandsaufnahme. Viele Unternehmen stellen dabei fest, dass mehr KI im Einsatz ist, als man auf den ersten Blick annimmt – oft laufen Pilotprojekte dezentral in Fachabteilungen. Schaffen Sie Transparenz, um die Grundlage für alle weiteren Schritte zu legen.
  2. Risikobewertung nach AI-Act-Kategorien: Ordnen Sie jedes identifizierte KI-System einer Risikostufe zu. Prüfen Sie systematisch, ob eine Anwendung unter verbotene Praktiken fällt (z.B. haben Sie irgendwelche Systeme zur Emotionserkennung Ihrer Mitarbeiter im Einsatz? Solche müssten abgeschaltet werden) oder ob sie als hochriskant einzustufen ist (z.B. alles, was Entscheidungen über Menschen trifft, sicherheitskritische Vorgänge steuert oder gesetzlich regulierte Bereiche tangiert) (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). Nutzen Sie hierfür die Kriterien des AI Act – viele Verbote und Hochrisikokategorien sind in Anhängen und Artikeln genau beschrieben. Diese Risikoeinstufung hilft bei der Priorisierung: Konzentrieren Sie sich zunächst auf verbotene und hochriskante KI-Systeme, da hier der Handlungsbedarf am größten ist (What the EU AI Act is already changing for businesses | IBM). Für jedes Hochrisiko-System sollte klar dokumentiert sein, warum es in diese Kategorie fällt (etwa weil es in den Anwendungsfall X gemäß Anhang III der Verordnung passt). Systeme mit begrenztem Risiko (die vor allem Transparenzpflichten auslösen) und minimale Risikoanwendungen können nachrangig behandelt werden, sollten aber ebenfalls erfasst sein.
  3. Rollen und Verantwortlichkeiten klären: Identifizieren Sie, welche Rolle Ihr Unternehmen im Kontext der KI-Verordnung einnimmt – oft ist man sogar mehrfach betroffen. Sind Sie Anbieter eines KI-Systems (entwickeln Sie eigene KI-Software oder -Modelle, die Sie verkaufen oder intern nutzen)? Sind Sie Nutzer bzw. Deployeer (setzen Sie KI von Dritten ein zur Unterstützung Ihrer Prozesse)? Importieren oder vertreiben Sie KI-basierte Produkte? Je nach Rolle gelten unterschiedliche Pflichten im AI Act (What the EU AI Act is already changing for businesses | IBM). Beispielsweise muss ein Anbieter die technischen Anforderungen erfüllen, während ein reiner Nutzer vor allem die Transparenz sicherstellen und keinen Missbrauch betreiben darf. Halten Sie fest, wer in Ihrer Organisation für welche KI-Anwendung die Verantwortlichkeit trägt. Es kann sinnvoll sein, einen KI-Verantwortlichen (AI Officer) zu benennen, der als Schnittstelle zwischen IT, Fachbereichen und Compliance fungiert. Wichtig ist auch das Top-Management einzubeziehen – KI-Governance sollte von der Geschäftsführung unterstützt und priorisiert werden (What the EU AI Act is already changing for businesses | IBM).
  4. Maßnahmenplan für Compliance umsetzen: Entwickeln Sie für jedes Hochrisiko-KI-System einen konkreten Fahrplan zur Erfüllung der Anforderungen. Überprüfen Sie, welche der im AI Act geforderten Maßnahmen bereits abgedeckt sind und wo Lücken bestehen. Typische To-Dos sind: Einrichtung eines Risikomanagement-Prozesses rund um die KI (Der AI Act im Kontext der industriellen Fertigung), Erstellung oder Überarbeitung der technischen Dokumentation (inkl. Beschreibung des Modells, Daten, Tests, vorgesehenen Einsatzes etc.) (Der AI Act im Kontext der industriellen Fertigung), Implementierung von Monitoring und Logging im KI-Betrieb und Sicherstellung einer menschlichen Eingriffsmöglichkeit (Der AI Act im Kontext der industriellen Fertigung). Falls nötig, planen Sie die Konformitätsbewertung mit ausreichend Vorlauf ein – insbesondere wenn externe Gutachter eingebunden werden müssen. Integrieren Sie die AI-Act-Anforderungen auch in Ihre Zukunftsprojekte: Neue KI-Entwicklungen oder Einführungen sollten von Anfang an so gesteuert werden, dass sie „AI-Act-ready“ sind. Etablieren Sie z.B. Checklisten oder Freigabeprozesse, damit vor dem Deployment eines KI-Systems intern geprüft wird, ob alle Kriterien erfüllt sind (What the EU AI Act is already changing for businesses | IBM). Gerade größere Unternehmen können hier von Erfahrungen aus dem Produktzulassungs- oder Datenschutzbereich profitieren – nutzen Sie vorhandene Strukturen (Qualitätsmanagement, interne Audits), um KI-Compliance zu verankern.
  5. Mitarbeiter schulen und sensibilisieren: Machen Sie Ihre Belegschaft fit für KI. Ein erfolgreiches KI-Governance-Programm lebt davon, dass alle relevanten Mitarbeiter zumindest Grundkenntnisse über KI und die neuen Regeln haben (What the EU AI Act is already changing for businesses | IBM). Starten Sie mit der Schulung der Entwicklungs- und IT-Teams: Diese müssen die rechtlichen Vorgaben kennen und bei Modellierung, Datenauswahl und Testing berücksichtigen. Aber auch Fachabteilungen, die KI einsetzen (z.B. HR mit einem KI-Recruiting-Tool, Marketing mit KI-Analysen), sollten verstehen, was der AI Act für ihren Arbeitsbereich bedeutet. Erwägen Sie Workshops, E-Learnings oder externe Trainingsangebote zur AI Literacy. Kommunizieren Sie unternehmensweit KI-Richtlinien und Leitlinien in verständlicher Form, damit jeder Mitarbeiter weiß, worauf zu achten ist (ähnlich einem Code of Conduct für KI). Fördern Sie eine Kultur, in der Fragen und Bedenken zu KI offen angesprochen werden können – so erkennen Sie potentielle Probleme frühzeitig. Sensibilisierung ist auch deshalb wichtig, weil am Ende Mensch und KI zusammenarbeiten sollen: Nur wer die Stärken und Schwächen der KI-Tools kennt, kann sie verantwortungsvoll nutzen.
  6. Monitoring und kontinuierliche Anpassung: Die Compliance-Arbeit endet nicht mit dem Inkrafttreten des Gesetzes – sie beginnt dann eigentlich erst richtig. Richten Sie daher Prozesse für die laufende Überwachung Ihrer KI-Systeme ein. Zum einen müssen technische Änderungen, neue Trainingsdaten oder geänderte Nutzungszwecke immer wieder geprüft werden, ob die Konformität bestehen bleibt (Stichwort kontinuierliche Konformitätsbewertung). Zum anderen werden sich um das Gesetz herum weitere Standards und Best Practices entwickeln – bleiben Sie hier am Ball, etwa indem Sie die Veröffentlichungen des künftigen EU AI Board und nationaler Behörden verfolgen. Passen Sie Ihre internen Richtlinien an, sobald neue Erkenntnisse vorliegen (agiles Compliance-Management). Es kann hilfreich sein, externes Feedback einzuholen: Lassen Sie kritische KI-Anwendungen regelmäßig von Dritten auditieren oder zertifizieren, um Schwachstellen aufzudecken. Nutzen Sie außerdem die von der EU gebotenen Ressourcen – beispielsweise Leitfäden, branchenbezogene Workshops oder die erwähnten Sandboxes, falls sie für Sie zugänglich sind. Kurz: Bleiben Sie dran. Die AI-Regulierung wird sich weiterentwickeln, und erfolgreiche Unternehmen werden diejenigen sein, die flexibel und vorausschauend reagieren.

Zum Abschluss sei betont: Die Vorbereitung auf den AI Act ist kein reines Compliance-Projekt, sondern eine strategische Aufgabe. Wer frühzeitig die Weichen stellt, minimiert Risiken und kann sogar Wettbewerbsnutzen daraus ziehen. Europäische Unternehmen haben jetzt die Chance, eine Vorreiterrolle für verantwortungsvolle KI einzunehmen – und damit nicht nur gesetzlichen Pflichten nachzukommen, sondern das Vertrauen in KI als Zukunftstechnologie aktiv mitzugestalten.

Fazit: Der EU AI Act markiert einen Meilenstein in der Regulierung von künstlicher Intelligenz. Für Unternehmen bedeutet er zunächst Aufwand und Veränderung – von neuen Compliance-Prozessen bis hin zur Schulung der Mitarbeiter. Langfristig bietet er jedoch die Gelegenheit, auf einem soliden, vertrauenswürdigen Fundament mit KI zu innovieren. Firmen, die jetzt handeln und sich gründlich vorbereiten, werden die Vorteile der KI voll ausschöpfen können, ohne gegen Werte und Rechte zu verstoßen (Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen | EY Schweiz). So kann Europa mit wertebasierter Innovation eine Vorreiterrolle übernehmen – und Ihr Unternehmen kann Teil dieser zukunftsweisenden Entwicklung sein.

Scroll to Top