Was die EU KI-Verordnung für die Entwicklung von KI-Software bedeutet: alles, was Sie wissen müssen

16 min read
Februar 12, 2025

KI ist nicht mehr nur ein Werkzeug.

KI-Modelle treffen wichtige Entscheidungen, die enorme Auswirkungen auf die Karriere, die Finanzen und das Leben der Menschen haben.

Aber ohne Aufsicht sind sie oft (zu) voreingenommen und nicht rechenschaftspflichtig.

Mit dem EU-KI-Gesetz ändert sich das. Es führt strenge Regeln für risikoreiche KI ein, die Transparenz, Fairness und menschliche Aufsicht vorschreiben.

Aber wie genau wirken sich diese neuen Vorschriften auf die Entwicklung von KI-Software aus? Und wie können Sie die Vorschriften einhalten?

Hier erfahren Sie, was das Gesetz für die Entwicklung von KI-Software in der EU bedeutet, und erhalten Tipps, wie Sie die Einhaltung der Vorschriften sicherstellen können.

Lassen Sie uns eintauchen!

Was ist der EU-AI-Act?

Das KI-Gesetz der EU ist die erste umfassende KI-Verordnung der Welt.

Ihr Ziel ist es, sicherzustellen, dass KI-Systeme sicher und transparent sind und mit den Grundrechten im Einklang stehen.

Das EU-KI-Gesetz betrifft jeden, der KI-Systeme in der EU entwickelt, einsetzt oder verkauft – auch wenn er seinen Hauptsitz nicht in Europa hat. Dies wirkt sich direkt aus:

  • KI-Entwickler und -Anbieter – Unternehmen, die KI-gestützte Software entwickeln oder KI-Dienstleistungen anbieten.
  • KI-Anwender – Unternehmen, die KI in ihren Betrieb integrieren (z. B. Banken, die KI für die Kreditwürdigkeitsprüfung einsetzen, Krankenhäuser, die KI für die Diagnose nutzen).

Das Gesetz verfolgt einen risikobasierten Ansatz mit strengeren Regeln für KI-Anwendungen, die ein größeres Risiko für den Einzelnen und die Gesellschaft darstellen.

Auch wenn Sie KI-Modelle von Drittanbietern verwenden, z. B. OpenAI-APIs, müssen Sie sich an das Gesetz halten, wenn diese in Hochrisikobereichen wie Personalwesen, Finanzen oder Gesundheitswesen eingesetzt werden.

Oder anders ausgedrückt: Je höher das Risiko, desto strenger die Vorschriften.

Ursula von der Leyen, die Präsidentin der Europäischen Kommission, äußerte sich bei der Verabschiedung des Gesetzes wie folgt:

Die heutige Einigung konzentriert die Regulierung auf erkennbare Risiken, schafft Rechtssicherheit und ebnet den Weg für Innovationen im Bereich der vertrauenswürdigen KI. Durch die Gewährleistung der Sicherheit und der Grundrechte von Menschen und Unternehmen wird der Rechtsakt die auf den Menschen ausgerichtete, transparente und verantwortungsvolle Entwicklung, Einführung und Nutzung von KI in der EU unterstützen.

Ursula von der Leyen, Präsidentin der Europäischen Kommission

Der KI-Rechtsakt der EU ist ein strukturierter Rechtsrahmen, der KI-Innovationen fördern und gleichzeitig die Nutzer schützen soll.

Aber warum wurde das Gesetz überhaupt verabschiedet?

Das nahezu exponentielle Wachstum der KI bringt zwar viele Vorteile mit sich, hat aber auch einige tiefgreifende Schwächen von KI-Systemen offenbart: eingebaute Voreingenommenheit, Fehlinformationen und mangelnde Verantwortlichkeit.

Einige prominente Beispiele sind:

  • Amazons KI-EinstellungstoolAmazon hat ein Rekrutierungstool gestrichen, nachdem es Voreingenommenheit gegenüber weiblichen Bewerbern gezeigt hat.
  • Niederländischer Kinderbetreuungsgeld-Skandal Ein selbstlernender Algorithmus der niederländischen Steuerbehörde beschuldigte fälschlicherweise 26.000 Familien des Betrugs.
  • Voreingenommene prädiktive Polizeiwerkzeuge Prädiktive Polizeiwerkzeuge, die auf rassistisch voreingenommene Verhaftungsdaten trainiert wurden, verstärkten bestehende Voreingenommenheiten in der Polizeiarbeit.
  • Deepfakes – KI-generierte Deepfakes werden bei Wahlmanipulationen, Finanzbetrug und Fake News eingesetzt.

Und das ist nur die Spitze des Eisbergs.

Das EU-KI-Gesetz geht direkt auf diese Risiken ein, indem es mehr Transparenz, menschliche Aufsicht und die Vermeidung von Vorurteilen in KI-Systemen fordert.

Das Gesetz sieht hohe Geldstrafen für Verstöße vor:

  • Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes für die schwerwiegendsten Verstöße.
  • Bis zu 15 Millionen Euro oder 3 % des weltweiten Umsatzes bei Nichteinhaltung von AI-Verpflichtungen mit hohem Risiko.
  • Bis zu 7,5 Mio. € oder 1,5 % des Umsatzes für Transparenzmängel bei AI mit begrenztem Risiko.

Die Botschaft der EU ist klar: KI muss transparent, rechenschaftspflichtig und menschenzentriert sein.

Und wenn Sie Zugang zum EU-Markt haben wollen, müssen Sie diese Regeln befolgen.

Das Risikoklassifizierungssystem des EU-KI-Gesetzes

Mit dem EU-KI-Gesetz wird ein risikobasierter Ansatz für die KI-Regulierung eingeführt.

Je größer die potenziellen negativen Auswirkungen eines KI-Systems sind, desto mehr Compliance-Anforderungen muss es erfüllen.

Auf diese Weise kann KI mit geringem Risiko frei entwickelt werden, während KI mit hohem Risiko strengeren Vorschriften zum Schutz der Nutzer unterliegen muss.

Dieses Klassifizierungssystem ist das Kernstück des EU AI-Gesetzes.

EU AI Act Risikostufen: Überblick

RisikoniveauBeispieleAnforderungen an die Einhaltung
Geringes RisikoKI-Spamfilter, EmpfehlungsmaschinenKeine Regelung
Begrenztes RisikoKI-Chatbots, KI-generierte InhalteTransparenz (die Nutzer müssen wissen, dass sie mit KI interagieren)
Hohes RisikoKI-Tools für Einstellungen, Kreditwürdigkeitsprüfung, Gesundheitswesen, kritische InfrastrukturenDetaillierte Dokumentation, menschliche Aufsicht, Voreingenommenheitstests, Cybersicherheitsmaßnahmen
VerboteneSocial Scoring, vorausschauende Polizeiarbeit, biometrische Überwachung in EchtzeitVerboten

Die meisten KI-Anwendungen für Unternehmen fallen in die Kategorien „eingeschränkt“ oder „hohes Risiko“.

Wenn Ihr KI-System als hochriskant eingestuft wird, müssen Sie strenge Compliance-Anforderungen erfüllen, bevor Sie es einsetzen können.

KI-Systeme mit hohem Risiko sind solche, die die Rechte oder die Sicherheit von Menschen erheblich beeinträchtigen können. Sie müssen über Folgendes verfügen:

  • Umfassende Dokumentation – KI-Systeme mit hohem Risiko müssen über detaillierte technische Informationen verfügen, bevor
  • Menschliche Aufsicht – Die von der KI getroffenen Entscheidungen müssen überprüfbar sein und können nicht vollständig automatisiert werden.
  • Vermeidung von Voreingenommenheit – KI-Systeme mit hohem Risiko müssen auf fairen und repräsentativen Datensätzen trainiert werden, um Voreingenommenheit zu vermeiden.
  • Robuste Sicherheit – KI-Systeme müssen strenge Standards für Cybersicherheit und Fehlervermeidung erfüllen.

Einige KI-Anwendungen sind jedoch vollständig verboten. Das Gesetz verbietet vollständig KI-Systeme, die die Grundrechte, die Sicherheit oder die Demokratie bedrohen.

Beispiele hierfür sind:

  • Soziale Bewertungssysteme – KI, die Menschen aufgrund ihres Verhaltens einstuft, wie das chinesische Sozialkreditsystem.
  • Echtzeit-Gesichtserkennung an öffentlichen Plätzen – außer für spezielle Anwendungsfälle der Strafverfolgung.
  • Prädiktive Polizeiarbeit durch KI – Systeme, die behaupten, zukünftige Straftaten auf der Grundlage von Profilen vorherzusagen

Wenn Sie KI-Software entwickeln, sollten Sie sie frühzeitig klassifizieren, um spätere Compliance-Probleme zu vermeiden.

Ein guter Tipp: Wenn Ihr KI-System kritische Entscheidungen automatisiert, sollten Sie davon ausgehen, dass es ein hohes Risiko darstellt und sich entsprechend vorbereiten.

Sie müssen diese Einstufung ernst nehmen.

Ein Fehler kann zu Verzögerungen bei der Zulassung, zum Verbot Ihres Produkts oder zu Geldbußen in Millionenhöhe führen.

Und das ist nicht nur ein rechtliches Risiko – es könnte Ihr Geschäft zum Erliegen bringen.

Wie sich das EU-KI-Gesetz auf die Entwicklung von KI-Software auswirkt

Als Nächstes werden wir aufzeigen, wie das EU-KI-Gesetz die Entwicklung von KI-Software in Europa verändern wird.

Transparenz ist jetzt eine gesetzliche Verpflichtung

Transparenz ist ein zentrales Prinzip des EU-KI-Gesetzes.

Das Gesetz schreibt Transparenz auf mehreren Ebenen vor, von KI-generierten Inhalten bis hin zu risikoreichen Entscheidungssystemen.

Jede KI-Software und jedes KI-System muss verständlich und nachvollziehbar sein und den Nutzern gegenüber klar offengelegt werden.

Das Aufkommen von Deepfakes und KI-generierten Medien hat zu einer explosionsartigen Zunahme von Fehlinformationen geführt, weshalb das EU-KI-Gesetz von Unternehmen verlangt, KI-generierte Inhalte offenzulegen.

Die Anbieter von KI-Systemen, einschließlich allgemeiner KI-Systeme, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen sicherstellen, dass die Ergebnisse des KI-Systems in einem maschinenlesbaren Format gekennzeichnet werden und als künstlich erzeugt oder manipuliert erkennbar sind.

Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deep Fake darstellen, muss offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

EU-KI-Gesetz, Artikel 50

Wenn Ihr Produkt KI-Inhalte generiert, müssen Sie Wasserzeichen, Metadaten-Tags oder eine eindeutige Kennzeichnung einführen, damit die Nutzer erkennen, dass es sich um KI-Inhalte handelt.

Außerdem verbietet das EU-KI-Gesetz irreführende KI-Interaktionen – die Nutzer müssen immer wissen, dass sie mit einem KI-System kommunizieren.

Sie sollten zu Beginn eines Gesprächs einen Haftungsausschluss einfügen, z. B. „Ich bin ein KI-gestützter Assistent. Sagen Sie mir Bescheid, wenn Sie mit einem Menschen sprechen möchten.“

Dies gilt für Chatbots, virtuelle Assistenten und andere KI-Anwendungen mit begrenztem Risiko, nicht nur für Systeme mit hohem Risiko.

Aber bei risikoreicher KI ist Transparenz nicht nur für die Nutzer wichtig, sondern auch für die Regulierungsbehörden.

Wenn Sie ein risikoreiches KI-Produkt entwickeln, müssen Sie dokumentieren:

  • Wie Ihre KI-Modelle entworfen und trainiert wurden (einschließlich Datenquellen)
  • Wie Ihre KI Entscheidungen trifft (Erklärbarkeitsberichte)
  • Wie Sie auf Fehler und Voreingenommenheit achten

Sie müssen detaillierte Aufzeichnungen für Audits führen, um die Einhaltung des Gesetzes zu beweisen.

Datenverarbeitung und Vermeidung von Voreingenommenheit müssen integriert sein

Das EU-KI-Gesetz schreibt strenge Anforderungen an die Datenverwaltung und die Vermeidung von Voreingenommenheit bei KI-Systemen mit hohem Risiko vor.

Diese Regeln stellen sicher, dass KI-Modelle nicht diskriminieren, auf hochwertigen Daten trainiert werden und faire und zuverlässige Ergebnisse liefern.

Die Datensätze sollten auch über die geeigneten statistischen Eigenschaften verfügen, auch in Bezug auf die Personen oder Personengruppen, für die das AI-System für hohe Risiken eingesetzt werden soll, mit besonderem Augenmerk auf die Abschwächung möglicher Voreingenommenheit in den Datensätzen, die die Gesundheit und Sicherheit von Personen beeinträchtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach dem Unionsrecht verbotenen Diskriminierung führen könnten, insbesondere wenn die Datenoutputs die Inputs für künftige Maßnahmen beeinflussen.

EU-KI-Gesetz, Erwägungsgrund 67

Gemäß Artikel 10 des Gesetzes müssen alle KI-Systeme mit hohem Risiko mitTrainings-, Validierungs- und Testdatensätzen entwickelt werden, die strengen Qualitätsstandards entsprechen.

Es geht darum, die Transparenz bei der Datenerhebung, -verarbeitung und -verwaltung zu wahren , um Voreingenommenheit und Diskriminierung zu vermeiden.

Das bedeutet, dass Ihre KI-Modelle folgende Kriterien erfüllen müssen:

  • auf unterschiedlichen und repräsentativen Datensätzen trainiert werden, um Voreingenommenheit zu vermeiden
  • Verwendung zuverlässiger, gut dokumentierter Datenquellen
  • kontinuierlich auf Fehler und Voreingenommenheit überwacht werden

Das Gesetz verlangt ausdrücklich, dass KI-Entwickler proaktiv Vorurteile erkennen und korrigieren, bevor sie risikoreiche KI-Systeme einsetzen.

Außerdem müssen alle KI-Modelle mit hohem Risiko auditierbar sein. Die Regulierungsbehörden können jederzeit eine Dokumentation darüber verlangen, wie KI-Systeme Daten verarbeiten.

Kurz gesagt, das EU-KI-Gesetz stellt sicher, dass KI-Systeme auf dem EU-Markt auf fairen, unvoreingenommenen und erklärbaren Grundlagen aufgebaut sind.

Und genau so sollten Sie die KI-Entwicklung angehen.

Menschliche Aufsicht ist bei risikoreicher KI obligatorisch

Das EU-KI-Gesetz macht die menschliche Aufsicht für alle KI-Systeme mit hohem Risiko zur rechtlichen Voraussetzung.

Ziel ist es, dass der Mensch die Kontrolle behält und bei Bedarf eingreifen kann.

In der Verordnung heißt es:

KI-Systeme mit hohem Risiko sind so zu konzipieren und zu entwickeln, dass sie während ihres Einsatzes von natürlichen Personen wirksam überwacht werden können; dazu gehören auch geeignete Mensch-Maschine-Schnittstellenwerkzeuge.

EU-KI-Gesetz, Artikel 14

Das bedeutet, dass KI in Bereichen wie Personaleinstellung, Gesundheitswesen, Strafverfolgung und Finanzen nicht völlig autonom sein kann.

Aber warum ist das so wichtig?

Richtig eingesetzt, ist KI hocheffizient und kann das Spiel verändern.

Aber wenn sie nicht kontrolliert wird, kann sie auch schwerwiegende Fehler machen. Hier sind ein paar häufige Probleme:

  • Automatisierte Entscheidungen können voreingenommen sein, insbesondere wenn die Trainingsdaten voreingenommen sind.
  • KI-Systeme berücksichtigen nicht immer die Nuancen des realen Lebens
  • Ein übermäßiges Vertrauen in KI, d. h. eine Voreingenommenheit gegenüber der Automatisierung, kann zu blindem Vertrauen in fehlerhafte Ergebnisse führen.

Das EU-KI-Gesetz verhindert diese Probleme, indem es sicherstellt, dass Menschen immer eingreifen und KI-Entscheidungen außer Kraft setzen können.

Im Wesentlichen schreibt sie ein Human-in-the-Loop-System für risikoreiche KI-Anwendungen vor.

Human in the loop AI

In der Praxis bedeutet dies:

  • Nutzer müssen die Möglichkeit haben, KI-Entscheidungen zu überstimmen
  • Die Bediener müssen darin geschult werden, KI-Fehler zu erkennen und zu korrigieren
  • Alle KI-Systeme mit hohem Risiko müssen über eine Not-Aus-Funktion für den Fall eines Ausfalls verfügen.

Kurz gesagt, bei risikoreicher AI müssen die Menschen immer das letzte Wort haben – ohne Ausnahme.

Wie man die Einhaltung des EU AI Acts sicherstellt

Im Folgenden geben wir Ihnen einige Tipps, wie Sie diese Anforderungen erfüllen können.

Integrieren Sie Compliance in Ihren AI-Entwicklungszyklus

Die Einhaltung der Vorschriften darf nicht länger auf die lange Bank geschoben werden.

Das EU-KI-Gesetz schreibt vor, dass Compliance und Risikomanagement in jeder Phase der KI-Entwicklung berücksichtigt werden müssen.

Gemäß Artikel 9 müssen alle KI-Systeme mit hohem Risiko über ein kontinuierliches Risikomanagementsystem verfügen, das sich über den gesamten Lebenszyklus der KI erstreckt.

Sie müssen Risikobewertungen und Fairness-Tests von der ersten Codezeile bis hin zur Überwachung nach der Bereitstellung integrieren.

Und Sie müssen auch alles dokumentieren.

Compliance ist kein einmaliger Vorgang. Sie ist ein iterativer Prozess, der Folgendes erfordert:

  • Risikoerkennung und -minderung in jeder Phase
  • Regelmäßige Updates und Audits während des gesamten Lebenszyklus Ihres AI-Systems
  • Überwachung nach dem Einsatz zur Erkennung neuer Risiken

Der Schlüssel dazu ist also eine kontinuierliche Risikobewertung und -überwachung.

Sie müssen gängige Risiken vor der Bereitstellung ermitteln und abmildern und Schutzmaßnahmen gegen bekannte Risiken einführen.

Ein guter Tipp, um spätere Probleme zu vermeiden, ist die Durchführung von Risikobewertungen, noch bevor Sie Ihr(e) KI-Modell(e) trainieren.

Das ist der beste Weg, um sicherzustellen, dass Ihr KI-Modell langfristig sicher und fair funktioniert.

Implementierung von KI-Governance-Rahmenwerken

Das EU-KI-Gesetz bedeutet, dass KI-Governance ein Muss ist, kein Nice-to-have.

Sie brauchen klare Rahmenbedingungen für Compliance, Risikomanagement und ethischen KI-Einsatz, um die Nase vorn zu haben.

Ein starker Governance-Rahmen hilft Ihnen, die KI-Entwicklung auf Kurs zu halten und sicherzustellen, dass sie regulatorischen und ethischen Standards entspricht, ohne die Innovation zu bremsen.

Aber wie genau sieht ein KI-Governance-Rahmen aus?

Ein starker KI-Governance-Rahmen umfasst:

  • KI-Ethik- und Compliance-Richtlinien – Festlegung akzeptabler KI-Nutzung und Risikogrenzen.
  • Verantwortlichkeit – Zuweisung der Verantwortung für KI-Entscheidungen und -Fehlschläge
  • Risikomanagement – Regelmäßige Bewertung der Auswirkungen der KI und Abschwächung der Risiken.
  • Transparenz – Gewährleistung, dass KI-Entscheidungen erklärt und überprüft werden können.
  • Erkennung von Voreingenommenheit – Implementierung einer laufenden Überwachung von KI-Modellen auf Voreingenommenheit in den Ergebnissen.

Und vergessen Sie nicht, dass KI-Governance mehr als nur ein Schlagwort ist – es ist eine unternehmensweite Verpflichtung.

Das könnte folgendermaßen aussehen:

AI governance framework

Das Ziel der KI-Governance besteht darin, dass Sie die Kontrolle über Ihre KI-Systeme behalten und nicht nur reagieren, wenn etwas schief läuft.

Und mit dem richtigen Rahmen können Sie Risiken reduzieren und eine KI entwickeln, der sowohl Nutzer als auch Regulierungsbehörden vertrauen können.

Bewährte Praktiken für die KI-Transparenz einführen

Das EU-KI-Gesetz schreibt strenge Transparenzanforderungen für KI-Systeme vor, insbesondere für solche mit hohem Risiko.

KI-Anbieter müssen klar dokumentieren, wie ihre Modelle funktionieren, und sicherstellen, dass die Nutzer die KI-gesteuerten Entscheidungen verstehen.

Ziel ist es, sicherzustellen, dass KI-Entscheidungen erklärbar, nachvollziehbar und rechenschaftspflichtig sind.

Und der beste Weg dorthin ist die proaktive Übernahme bewährter KI-Transparenzverfahren und die Einhaltung der gesetzlichen Bestimmungen.

Das sollten Sie tun:

  • Opt-outs zulassen – Geben Sie Nutzern immer die Möglichkeit, KI-Funktionen zu deaktivieren und zu einem Menschen zu wechseln.
  • Schulen Sie Ihr Team in der korrekten Interpretation von KI-Ergebnissen – Stellen Sie sicher, dass Ihr Team KI-Ergebnisse richtig interpretieren und Fehler erkennen kann.
  • Testen Sie KI-Modelle regelmäßig auf Fairness und Voreingenommenheit – Unkontrollierte Voreingenommenheit ist eine Klage, die auf sich warten lässt. Testen Sie Ihre KI-Modelle und Trainingsdaten vor dem Einsatz regelmäßig auf mögliche Voreingenommenheit.
  • Seien Sie transparent in Bezug auf die Grenzen der KI – Wer zu viel verspricht und zu wenig liefert, wird scheitern. Setzen Sie von Anfang an klare Erwartungen in Bezug auf das, was Ihre KI tun kann und was nicht.
  • Beauftragen Sie externe Prüfer – Ein zweiter Blick ist immer gut. Externe Prüfer können Risiken erkennen, die Sie vielleicht übersehen haben.

Kurz gesagt, geht es beim EU-KI-Gesetz um die Entwicklung von KI-Systemen, denen die Nutzer vertrauen können.

Und es ist der richtige Weg, auf Transparenz zu setzen.

Verwendung von Compliance-Tools Dritter

Vielen Unternehmen fehlen die Ressourcen, um komplexe Compliance-Prozesse vollständig intern zu verwalten.

Und genau hier kommen die KI-Compliance-Tools von Drittanbietern ins Spiel.

Mit diesen Werkzeugen können Sie die Anforderungen des EU-KI-Gesetzes erfüllen, ohne die Bank zu sprengen.

Welche Tools sollten Sie also verwenden?

Sie sollten mit Tools zur Erkennung von Voreingenommenheit beginnen, um Ihre KI-Modelle und deren Trainingsdaten zu analysieren, z. B:

  • AI Fairness 360 Open-Source-Toolkit zur Analyse von Datensätzen auf Fairness und mögliche Voreingenommenheit
  • Googles What-If Tool Testet die KI-Entscheidungsfindung und -Leistung in verschiedenen Szenarien.
  • Fairlearn – Hilft Datenwissenschaftlern und KI-Entwicklern, die Fairness von KI-Systemen zu verbessern.

Auf diese Weise verhindern Sie von vornherein, dass Ihr KI-Modell durch Voreingenommenheit beeinflusst wird.

Als Nächstes sollten Sie KI-Tools und -Modelle zur Erklärung integrieren, z. B.:

  • SHAP(Shapley Additive Explanations) – Liefert detaillierte Erklärungen für KI-Entscheidungen.
  • LIME (Local Interpretable Model-agnostic Explanations) – Hilft Benutzern zu verstehen, wie KI-Modelle Vorhersagen treffen.
  • AIX360 – Open-Source-Bibliothek mit verschiedenen Algorithmen, die Ihnen helfen, die Ergebnisse von KI-Modellen zu verstehen und zu interpretieren.

Schließlich sollten Sie in kontinuierliche Überwachung und MLOps-Tools investieren, wie z. B.:

  • Fiddler AIBietet Einblicke in Ihre Modelle in Echtzeit und hilft Ihnen, Probleme zu erkennen und zu beheben, bevor sie eskalieren.
  • Arize AI Bietet Tools zur Überwachung und Fehlerbehebung Ihrer Modelle, um sicherzustellen, dass sie in der realen Welt wie erwartet funktionieren.
  • Evidently AI Ein Open-Source-Tool, das Sie bei der Analyse und Überwachung Ihrer Modelle während der Entwicklung und nach der Bereitstellung unterstützt.
  • Neptune AI – Ein leichtes MLOps-Tool, das Ihnen hilft, KI-Modellexperimente an einem Ort zu verfolgen, zu verwalten und zu vergleichen.

Mit diesen Tools können Sie die Rechenschaftspflicht verbessern und sicherstellen, dass Sie die Ergebnisse Ihres KI-Modells stets im Blick haben.

Und das ist der beste Weg, um regulatorische Risiken zu vermeiden.

Brauchen Sie Unterstützung bei der Entwicklung konformer KI-Software?

Das KI-Gesetz der EU ist da, und es verändert die Art und Weise, wie KI entwickelt wird.

Es ist ein absolutes Muss, es richtig zu machen. Und deshalb brauchen Sie einen zuverlässigen KI-Entwicklungspartner.

Zum Glück sind Sie hier richtig.

Wir wissen, worauf es ankommt, um regulierungsfähige KI-Software zu entwickeln, die konform, zuverlässig und bereit für die reale Welt ist.

Wenn Sie mehr erfahren möchten, kontaktieren Sie unser Team – wir vereinbaren gerne einen Termin, um Ihre Anforderungen im Detail zu besprechen.

Categories
Written by

Mario Zderic

Chief Technology Officer

Mario makes every project run smoothly. A firm believer that people are DECODE’s most vital resource, he naturally grew into his former role as People Operations Manager. Now, his encyclopaedic knowledge of every DECODEr’s role, and his expertise in all things tech, enables him to guide DECODE's technical vision as CTO to make sure we're always ahead of the curve. Part engineer, and seemingly part therapist, Mario is always calm under pressure, which helps to maintain the office’s stress-free vibe. In fact, sitting and thinking is his main hobby. What’s more Zen than that?

Related articles