{"id":60473,"date":"2025-02-12T13:32:06","date_gmt":"2025-02-12T13:32:06","guid":{"rendered":"https:\/\/decode.agency\/?post_type=article&#038;p=60473"},"modified":"2025-03-21T09:12:32","modified_gmt":"2025-03-21T09:12:32","slug":"eu-ki-verordnung","status":"publish","type":"article","link":"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/","title":{"rendered":"Was die EU KI-Verordnung f\u00fcr die Entwicklung von KI-Software bedeutet: alles, was Sie wissen m\u00fcssen"},"content":{"rendered":"\n<p>KI ist l\u00e4ngst mehr als nur ein Werkzeug.<\/p>\n\n\n\n<p>Heute treffen KI-Modelle Entscheidungen, die Karrieren, Finanzen und ganze Lebenswege beeinflussen.<\/p>\n\n\n\n<p>Doch ohne Aufsicht sind sie oft voreingenommen \u2013 und kaum rechenschaftspflichtig.<\/p>\n\n\n\n<p>Der <strong>EU-AI-Act<\/strong> soll das \u00e4ndern. Es f\u00fchrt strenge Regeln f\u00fcr risikoreiche KI ein, um Transparenz, Fairness und menschliche Kontrolle sicherzustellen.<\/p>\n\n\n\n<p>Aber was bedeutet das f\u00fcr die Entwicklung von KI-Software? <br>Und wie k\u00f6nnen Sie sicherstellen, dass Sie die Vorschriften einhalten?<\/p>\n\n\n\n<p>In diesem Artikel erfahren Sie, welche Auswirkungen das Gesetz auf KI-Entwicklung hat \u2013 und erhalten praktische Tipps zur Compliance.<\/p>\n\n\n\n<p>Lassen Sie uns eintauchen!<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-custom ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Table of Contents<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f5d8542a3a7\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f5d8542a3a7\"  aria-label=\"Toggle\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Was_ist_der_EU-AI-Act\" >Was ist der EU-AI-Act?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Das_Risikoklassifizierungssystem_des_EU-AI-Acts\" >Das Risikoklassifizierungssystem des EU-AI-Acts<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Wie_sich_das_EU-AI-Act_auf_die_Entwicklung_von_KI-Software_auswirkt\" >Wie sich das EU-AI-Act auf die Entwicklung von KI-Software auswirkt<\/a><ul class='ez-toc-list-level-3' ><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Transparenz_ist_jetzt_eine_gesetzliche_Verpflichtung\" >Transparenz ist jetzt eine gesetzliche Verpflichtung<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Datenverarbeitung_und_Vermeidung_von_Voreingenommenheit_muessen_integriert_sein\" >Datenverarbeitung und Vermeidung von Voreingenommenheit m\u00fcssen integriert sein<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Menschliche_Aufsicht_ist_bei_risikoreicher_KI_obligatorisch\" >Menschliche Aufsicht ist bei risikoreicher KI obligatorisch<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Wie_man_die_Einhaltung_des_EU-AI-Acts_sicherstellt\" >Wie man die Einhaltung des EU-AI-Acts sicherstellt<\/a><ul class='ez-toc-list-level-3' ><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Integrieren_Sie_Compliance_in_Ihren_KI-Entwicklungszyklus\" >Integrieren Sie Compliance in Ihren KI-Entwicklungszyklus<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Implementierung_von_KI-Governance-Rahmenwerken\" >Implementierung von KI-Governance-Rahmenwerken<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-10\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Bewaehrte_Praktiken_fuer_die_KI-Transparenz_einfuehren\" >Bew\u00e4hrte Praktiken f\u00fcr die KI-Transparenz einf\u00fchren<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-11\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Verwendung_von_Compliance-Tools_Dritter\" >Verwendung von Compliance-Tools Dritter<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-12\" href=\"https:\/\/decode.agency\/de\/article\/eu-ki-verordnung\/#Brauchen_Sie_Unterstuetzung_bei_der_Entwicklung_konformer_KI-Software\" >Brauchen Sie Unterst\u00fctzung bei der Entwicklung konformer KI-Software?<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Was_ist_der_EU-AI-Act\"><\/span>Was ist der EU-AI-Act?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Der <a href=\"https:\/\/artificialintelligenceact.eu\/the-act\/\" target=\"_blank\" rel=\"noopener\">EU-AI-Act<\/a> ist die erste umfassende Regelung zur KI weltweit. Ziel ist es, sicherzustellen, dass KI-Systeme sowohl sicher als auch transparent sind und mit den Grundrechten im Einklang stehen.<\/p>\n\n\n\n<p>Das Gesetz betrifft alle, die KI-Systeme in der EU entwickeln, einsetzen oder verkaufen \u2013 unabh\u00e4ngig davon, ob ihr Hauptsitz in Europa liegt.<\/p>\n\n\n\n<p class=\"has-24-font-size\"><strong>Wer ist betroffen?<\/strong><\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>KI-Entwickler und -Anbieter:<\/strong> Unternehmen, die KI-gest\u00fctzte Software entwickeln oder KI-Dienstleistungen anbieten.<\/li>\n\n\n\n<li><strong>KI-Anwender:<\/strong> Unternehmen, die KI in ihrem Betrieb integrieren, wie etwa Banken, die KI zur Kreditw\u00fcrdigkeitspr\u00fcfung oder Krankenh\u00e4user, die KI zur Diagnose nutzen.<\/li>\n<\/ul>\n\n\n\n<p>Das Gesetz folgt einem risikobasierten Ansatz und legt strengere Regeln f\u00fcr KI-Anwendungen fest, die ein h\u00f6heres Risiko f\u00fcr Einzelpersonen und die Gesellschaft darstellen.<\/p>\n\n\n\n<p>Auch wenn Sie KI-Modelle von Drittanbietern wie OpenAI-APIs nutzen, m\u00fcssen Sie sich an das Gesetz halten, wenn diese in Hochrisikobereichen wie Personalwesen, Finanzen oder Gesundheitswesen zum Einsatz kommen.<\/p>\n\n\n\n<p>Anders gesagt: Je h\u00f6her das Risiko, desto strenger die Vorschriften.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Die heutige Einigung konzentriert die Regulierung auf erkennbare Risiken, schafft Rechtssicherheit und ebnet den Weg f\u00fcr Innovationen im Bereich der vertrauensw\u00fcrdigen KI. Durch die Gew\u00e4hrleistung der Sicherheit und der Grundrechte von Menschen und Unternehmen wird der Rechtsakt die auf den Menschen ausgerichtete, transparente und verantwortungsvolle Entwicklung, Einf\u00fchrung und Nutzung von KI in der EU unterst\u00fctzen.<\/p>\n<cite>Ursula von der Leyen, Pr\u00e4sidentin der Europ\u00e4ischen Kommission<\/cite><\/blockquote>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>Warum wurde das Gesetz \u00fcberhaupt verabschiedet?<\/strong><\/p>\n\n\n\n<p>Das nahezu exponentielle Wachstum der KI hat viele Vorteile gebracht, aber auch Schw\u00e4chen offengelegt: eingebaute Voreingenommenheit, Fehlinformationen und mangelnde Verantwortlichkeit.<\/p>\n\n\n\n<p>Einige bekannte Beispiele sind:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><a href=\"https:\/\/www.reuters.com\/article\/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G\/\" target=\"_blank\" rel=\"noopener\"><strong>Amazons KI-Einstellungstool<\/strong><\/a><strong> &#8211; <\/strong>Amazon hat ein Rekrutierungstool gestrichen, nachdem es Voreingenommenheit gegen\u00fcber weiblichen Bewerbern gezeigt hat.<\/li>\n\n\n\n<li><a href=\"https:\/\/www.politico.eu\/article\/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms\/\" target=\"_blank\" rel=\"noopener\"><strong>Niederl\u00e4ndischer Kinderbetreuungsgeld-Skandal <\/strong><\/a><strong>&#8211;<\/strong> Ein selbstlernender Algorithmus der niederl\u00e4ndischen Steuerbeh\u00f6rde beschuldigte f\u00e4lschlicherweise 26.000 Familien des Betrugs.<\/li>\n\n\n\n<li><a href=\"https:\/\/www.technologyreview.com\/2021\/02\/05\/1017560\/predictive-policing-racist-algorithmic-bias-data-crime-predpol\/\" target=\"_blank\" rel=\"noopener\"><strong>Voreingenommene pr\u00e4diktive Polizeiwerkzeuge<\/strong><\/a><strong> &#8211;<\/strong> Polizeiwerkzeuge, die auf rassistisch voreingenommene Verhaftungsdaten trainiert wurden und bestehende Voreingenommenheiten in der Polizeiarbeit verst\u00e4rkten.<\/li>\n\n\n\n<li><strong>Deepfakes &#8211; <\/strong>KI-generierte Deepfakes, die in Wahlmanipulationen, Finanzbetrug und Fake News verwendet werden.<\/li>\n<\/ul>\n\n\n\n<p>Und das ist nur die Spitze des Eisbergs.<\/p>\n\n\n\n<p>Der EU-AI-Act geht direkt auf diese Risiken ein, indem es mehr Transparenz, menschliche Aufsicht und die Vermeidung von Vorurteilen in KI-Systemen fordert.<\/p>\n\n\n\n<p>Das Gesetz sieht hohe Geldstrafen f\u00fcr Verst\u00f6\u00dfe vor:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>Bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes<\/strong> f\u00fcr die schwerwiegendsten Verst\u00f6\u00dfe.<\/li>\n\n\n\n<li><strong>Bis zu 15 Millionen Euro oder 3 % des weltweiten Umsatzes<\/strong> bei Nichteinhaltung von AI-Verpflichtungen mit hohem Risiko.<\/li>\n\n\n\n<li><strong>Bis zu 7,5 Mio. \u20ac oder 1,5 % des Umsatzes<\/strong> f\u00fcr Transparenzm\u00e4ngel bei AI mit begrenztem Risiko.<\/li>\n<\/ul>\n\n\n\n<p>Die Botschaft der EU ist klar: <strong>KI muss transparent, rechenschaftspflichtig und menschenzentriert sein<\/strong>.<\/p>\n\n\n\n<p>Und wenn Sie Zugang zum EU-Markt haben wollen, m\u00fcssen Sie diese Regeln befolgen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Das_Risikoklassifizierungssystem_des_EU-AI-Acts\"><\/span>Das Risikoklassifizierungssystem des EU-AI-Acts<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Mit dem EU-AI-Act wird ein risikobasierter Ansatz f\u00fcr die KI-Regulierung eingef\u00fchrt.<\/p>\n\n\n\n<p>Je gr\u00f6\u00dfer die potenziellen negativen Auswirkungen eines KI-Systems sind, desto mehr Compliance-Anforderungen muss es erf\u00fcllen.<\/p>\n\n\n\n<p>Auf diese Weise <strong>kann KI mit geringem Risiko frei entwickelt werden<\/strong>, w\u00e4hrend KI mit hohem Risiko strengeren Vorschriften zum Schutz der Nutzer unterliegen muss.<\/p>\n\n\n\n<p>Dieses Klassifizierungssystem ist das Kernst\u00fcck des EU-AI-Acts.<\/p>\n\n\n\n<p class=\"has-24-font-size\"><strong>\u00dcberblick<\/strong> <strong>von<\/strong> <strong>EU-AI-Act Risikostufen<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-table is-style-stripes\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Risikoniveau<\/strong><\/td><td><strong>Beispiele<\/strong><\/td><td><strong>Anforderungen an die Einhaltung<\/strong><\/td><\/tr><tr><td><strong>Geringes Risiko<\/strong><\/td><td>KI-Spamfilter, Empfehlungsmaschinen<\/td><td>Keine Regelung<\/td><\/tr><tr><td><strong>Begrenztes Risiko<\/strong><\/td><td>KI-Chatbots, <br>KI-generierte Inhalte<\/td><td>Transparenz (die Nutzer m\u00fcssen wissen, dass sie mit KI interagieren)<\/td><\/tr><tr><td><strong>Hohes Risiko<\/strong><\/td><td>KI-Tools f\u00fcr Einstellungen, Kreditw\u00fcrdigkeitspr\u00fcfung, Gesundheitswesen, kritische Infrastrukturen<\/td><td>Detaillierte Dokumentation, menschliche Aufsicht, Voreingenommenheitstests, Cybersicherheitsma\u00dfnahmen<\/td><\/tr><tr><td><strong>Verbotene<\/strong><\/td><td>Social Scoring, vorausschauende Polizeiarbeit, biometrische \u00dcberwachung in Echtzeit<\/td><td>Verboten<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Die meisten KI-Anwendungen f\u00fcr Unternehmen fallen in die Kategorien &#8222;begrenztes&#8220; oder &#8222;hohes Risiko&#8220;.<\/p>\n\n\n\n<p>Wenn Ihr KI-System als hochriskant eingestuft wird, m\u00fcssen Sie strenge Compliance-Anforderungen erf\u00fcllen, bevor Sie es einsetzen k\u00f6nnen.<\/p>\n\n\n\n<p>KI-Systeme mit hohem Risiko sind solche, die die Rechte oder die Sicherheit von Menschen erheblich beeintr\u00e4chtigen k\u00f6nnen. Sie m\u00fcssen \u00fcber Folgendes verf\u00fcgen:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>Umfassende Dokumentation &#8211; <\/strong>KI-Systeme mit hohem Risiko m\u00fcssen \u00fcber detaillierte technische Informationen verf\u00fcgen, bevor<\/li>\n\n\n\n<li><strong>Menschliche Aufsicht &#8211;<\/strong> Die von der KI getroffenen Entscheidungen m\u00fcssen \u00fcberpr\u00fcfbar sein und k\u00f6nnen nicht vollst\u00e4ndig automatisiert werden.<\/li>\n\n\n\n<li><strong>Vermeidung von Voreingenommenheit &#8211;<\/strong> KI-Systeme mit hohem Risiko m\u00fcssen auf fairen und repr\u00e4sentativen Datens\u00e4tzen trainiert werden, um Voreingenommenheit zu vermeiden.<\/li>\n\n\n\n<li><strong>Robuste Sicherheit &#8211;<\/strong> KI-Systeme m\u00fcssen strenge Standards f\u00fcr Cybersicherheit und Fehlervermeidung erf\u00fcllen.<\/li>\n<\/ul>\n\n\n\n<p>Einige KI-Anwendungen sind jedoch vollst\u00e4ndig verboten. Das Gesetz verbietet vollst\u00e4ndig KI-Systeme, die die Grundrechte, die Sicherheit oder die Demokratie bedrohen.<\/p>\n\n\n\n<p>Beispiele hierf\u00fcr sind:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>Soziale Bewertungssysteme<\/strong> &#8211; KI, die Menschen aufgrund ihres Verhaltens einstuft, wie das chinesische Sozialkreditsystem.<\/li>\n\n\n\n<li><strong>Echtzeit-Gesichtserkennung an \u00f6ffentlichen Pl\u00e4tzen<\/strong> &#8211; au\u00dfer f\u00fcr spezielle Anwendungsf\u00e4lle der Strafverfolgung.<\/li>\n\n\n\n<li><strong>Pr\u00e4diktive Polizeiarbeit durch KI<\/strong> &#8211; Systeme, die behaupten, zuk\u00fcnftige Straftaten auf der Grundlage von Profilen vorherzusagen<\/li>\n<\/ul>\n\n\n\n<p>Wenn Sie KI-Software entwickeln, sollten Sie sie fr\u00fchzeitig klassifizieren, um sp\u00e4tere Compliance-Probleme zu vermeiden.<\/p>\n\n\n\n<p>Ein guter Tipp: Wenn Ihr KI-System kritische Entscheidungen automatisiert, sollten Sie davon ausgehen, dass es<strong> <\/strong>ein hohes Risiko darstellt und sich entsprechend vorbereiten.<\/p>\n\n\n\n<p>Sie m\u00fcssen diese Einstufung ernst nehmen.<\/p>\n\n\n\n<p>Ein Fehler kann zu Verz\u00f6gerungen bei der Zulassung, zum Verbot Ihres Produkts oder zu Geldbu\u00dfen in Millionenh\u00f6he f\u00fchren.<\/p>\n\n\n\n<p>Und das ist nicht nur ein rechtliches Risiko &#8211; es k\u00f6nnte Ihr Gesch\u00e4ft zum Erliegen bringen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Wie_sich_das_EU-AI-Act_auf_die_Entwicklung_von_KI-Software_auswirkt\"><\/span>Wie sich das EU-AI-Act auf die Entwicklung von KI-Software auswirkt<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Als N\u00e4chstes werden wir aufzeigen, wie das EU-AI-Act die Entwicklung von KI-Software in Europa ver\u00e4ndern wird.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Transparenz_ist_jetzt_eine_gesetzliche_Verpflichtung\"><\/span>Transparenz ist jetzt eine gesetzliche Verpflichtung<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Transparenz ist ein zentrales Prinzip des EU-AI-Acts.<\/p>\n\n\n\n<p>Das Gesetz schreibt Transparenz auf mehreren Ebenen vor, von KI-generierten Inhalten bis hin zu risikoreichen Entscheidungssystemen.<\/p>\n\n\n\n<p>Jede KI-Software und jedes KI-System muss verst\u00e4ndlich und nachvollziehbar sein und den Nutzern gegen\u00fcber klar offengelegt werden.<\/p>\n\n\n\n<p>Das Aufkommen von Deepfakes und KI-generierten Medien hat zu einer explosionsartigen Zunahme von Fehlinformationen gef\u00fchrt, weshalb das EU-AI-Act <strong>von Unternehmen verlangt, KI-generierte Inhalte offenzulegen.<\/strong><\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Die Anbieter von KI-Systemen, einschlie\u00dflich allgemeiner KI-Systeme, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, m\u00fcssen sicherstellen, dass die Ergebnisse des KI-Systems in einem maschinenlesbaren Format gekennzeichnet werden und als k\u00fcnstlich erzeugt oder manipuliert erkennbar sind.<\/p>\n\n\n\n<p>Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deep Fake darstellen, muss offenlegen, dass die Inhalte k\u00fcnstlich erzeugt oder manipuliert wurden.<\/p>\n<cite>EU-KI-Gesetz, Artikel 50<\/cite><\/blockquote>\n\n\n\n<p><\/p>\n\n\n\n<p>Wenn Ihr Produkt KI-Inhalte generiert, m\u00fcssen Sie Wasserzeichen, Metadaten-Tags oder eine eindeutige Kennzeichnung einf\u00fchren, damit die Nutzer erkennen, dass es sich um KI-Inhalte handelt.<\/p>\n\n\n\n<p>Au\u00dferdem<strong> verbietet<\/strong> das EU-AI-Act<strong> irref\u00fchrende KI-Interaktionen<\/strong> &#8211; die Nutzer m\u00fcssen immer wissen, dass sie mit einem KI-System kommunizieren.<\/p>\n\n\n\n<p>Sie sollten zu Beginn eines Gespr\u00e4chs einen Haftungsausschluss einf\u00fcgen, z. B. &#8222;Ich bin ein KI-gest\u00fctzter Assistent. Sagen Sie mir Bescheid, wenn Sie mit einem Menschen sprechen m\u00f6chten.&#8220;<\/p>\n\n\n\n<p>Dies gilt f\u00fcr Chatbots, virtuelle Assistenten und andere KI-Anwendungen mit begrenztem Risiko, nicht nur f\u00fcr Systeme mit hohem Risiko.<\/p>\n\n\n\n<p>Aber bei risikoreicher KI ist Transparenz nicht nur f\u00fcr die Nutzer wichtig, sondern auch f\u00fcr die Regulierungsbeh\u00f6rden.<\/p>\n\n\n\n<p>Wenn Sie ein risikoreiches KI-Produkt entwickeln, m\u00fcssen Sie dokumentieren:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li>Wie Ihre KI-Modelle entworfen und trainiert wurden (einschlie\u00dflich Datenquellen)<\/li>\n\n\n\n<li>Wie Ihre KI Entscheidungen trifft (Erkl\u00e4rbarkeitsberichte)<\/li>\n\n\n\n<li>Wie Sie auf Fehler und Voreingenommenheit achten<\/li>\n<\/ul>\n\n\n\n<p>Sie m\u00fcssen detaillierte Aufzeichnungen f\u00fcr Audits f\u00fchren, um die Einhaltung des Gesetzes zu beweisen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Datenverarbeitung_und_Vermeidung_von_Voreingenommenheit_muessen_integriert_sein\"><\/span>Datenverarbeitung und Vermeidung von Voreingenommenheit m\u00fcssen integriert sein<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Das EU-AI-Act schreibt strenge Anforderungen an die Datenverwaltung und die Vermeidung von Voreingenommenheit bei KI-Systemen mit hohem Risiko vor.<\/p>\n\n\n\n<p>Diese Regeln stellen sicher, dass KI-Modelle nicht diskriminieren, auf hochwertigen Daten trainiert werden und faire und zuverl\u00e4ssige Ergebnisse liefern.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Die Datens\u00e4tze sollten auch \u00fcber die geeigneten statistischen Eigenschaften verf\u00fcgen, auch in Bezug auf die Personen oder Personengruppen, f\u00fcr die das AI-System f\u00fcr hohe Risiken eingesetzt werden soll, mit besonderem Augenmerk auf die Abschw\u00e4chung m\u00f6glicher Voreingenommenheit in den Datens\u00e4tzen, die die Gesundheit und Sicherheit von Personen beeintr\u00e4chtigen, sich negativ auf die Grundrechte auswirken oder zu einer nach dem Unionsrecht verbotenen Diskriminierung f\u00fchren k\u00f6nnten, insbesondere wenn die Datenoutputs die Inputs f\u00fcr k\u00fcnftige Ma\u00dfnahmen beeinflussen.<\/p>\n<cite>EU-KI-Gesetz, Erw\u00e4gungsgrund 67<\/cite><\/blockquote>\n\n\n\n<p><\/p>\n\n\n\n<p>Gem\u00e4\u00df Artikel 10 des Gesetzes m\u00fcssen alle Hochrisiko-KI-Systeme mit Trainings-, Validierungs- und Testdatens\u00e4tzen entwickelt werden, die strenge Qualit\u00e4tsstandards erf\u00fcllen.<\/p>\n\n\n\n<p>Ziel ist es, <strong>Transparenz bei der Datenerhebung, -verarbeitung und -verwaltung zu gew\u00e4hrleisten<\/strong>, um Voreingenommenheit und Diskriminierung zu vermeiden.<\/p>\n\n\n\n<p>Das bedeutet, dass Ihre KI-Modelle folgende Kriterien erf\u00fcllen m\u00fcssen:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li>auf unterschiedlichen und repr\u00e4sentativen Datens\u00e4tzen trainiert werden, um Voreingenommenheit zu vermeiden<\/li>\n\n\n\n<li>Verwendung zuverl\u00e4ssiger, gut dokumentierter Datenquellen<\/li>\n\n\n\n<li>kontinuierlich auf Fehler und Voreingenommenheit \u00fcberwacht werden<\/li>\n<\/ul>\n\n\n\n<p>Das Gesetz verlangt ausdr\u00fccklich, dass KI-Entwickler proaktiv Vorurteile erkennen und korrigieren, bevor sie risikoreiche KI-Systeme einsetzen.<\/p>\n\n\n\n<p>Au\u00dferdem <strong>m\u00fcssen alle KI-Modelle mit hohem Risiko auditierbar sein<\/strong>. <br><br>Die Regulierungsbeh\u00f6rden k\u00f6nnen jederzeit eine Dokumentation dar\u00fcber verlangen, wie KI-Systeme Daten verarbeiten.<\/p>\n\n\n\n<p>Kurz gesagt, das EU-AI-Act stellt sicher, dass KI-Systeme auf dem EU-Markt auf fairen, unvoreingenommenen und erkl\u00e4rbaren Grundlagen aufgebaut sind.<\/p>\n\n\n\n<p>Und genau so sollten Sie die KI-Entwicklung angehen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Menschliche_Aufsicht_ist_bei_risikoreicher_KI_obligatorisch\"><\/span>Menschliche Aufsicht ist bei risikoreicher KI obligatorisch<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Das EU-AI-Act macht die menschliche Aufsicht f\u00fcr alle KI-Systeme mit hohem Risiko zur rechtlichen Voraussetzung.<\/p>\n\n\n\n<p>Ziel ist es, dass der Mensch die Kontrolle beh\u00e4lt und bei Bedarf eingreifen kann.<\/p>\n\n\n\n<p>In der Verordnung hei\u00dft es:<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>KI-Systeme mit hohem Risiko sind so zu konzipieren und zu entwickeln, dass sie w\u00e4hrend ihres Einsatzes von nat\u00fcrlichen Personen wirksam \u00fcberwacht werden k\u00f6nnen; dazu geh\u00f6ren auch geeignete Mensch-Maschine-Schnittstellenwerkzeuge.<\/p>\n<cite>EU-KI-Gesetz, Artikel 14<\/cite><\/blockquote>\n\n\n\n<p><\/p>\n\n\n\n<p>Das bedeutet, dass KI in Bereichen wie Personaleinstellung, Gesundheitswesen, Strafverfolgung und Finanzen nicht v\u00f6llig autonom sein kann.<\/p>\n\n\n\n<p>Aber warum ist das so wichtig?<\/p>\n\n\n\n<p>Richtig eingesetzt, ist KI hocheffizient und kann das Spiel ver\u00e4ndern.<\/p>\n\n\n\n<p>Doch ohne Kontrolle kann KI auch schwerwiegende Fehler machen. Hier sind einige h\u00e4ufige Probleme:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>Voreingenommene Entscheidungen:<\/strong> KI kann Vorurteile verst\u00e4rken, wenn sie mit verzerrten Trainingsdaten trainiert wurde.<\/li>\n\n\n\n<li><strong>Mangelndes Verst\u00e4ndnis f\u00fcr Kontext:<\/strong> KI-Systeme erfassen nicht immer die Nuancen des realen Lebens.<\/li>\n\n\n\n<li><strong>Blindes Vertrauen in Automatisierung:<\/strong> Ein \u00fcberm\u00e4\u00dfiges Vertrauen in KI (\u201eAutomatisierungsbias\u201c) kann dazu f\u00fchren, dass fehlerhafte Ergebnisse unkritisch \u00fcbernommen werden.<\/li>\n<\/ul>\n\n\n\n<p>Der EU-AI-Act verhindert diese Probleme, indem es sicherstellt, dass Menschen immer eingreifen und KI-Entscheidungen au\u00dfer Kraft setzen k\u00f6nnen.<\/p>\n\n\n\n<p>Im Wesentlichen schreibt sie ein Human-in-the-Loop-System f\u00fcr risikoreiche KI-Anwendungen vor.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh7-rt.googleusercontent.com\/docsz\/AD_4nXfKQ-CNmNz9d4Yv_qQvEpLujb9s0a4RwfRrxvwUzkeZoE924CigCgkokrt9tjN72Ef3ZLgjtqSNZRGkNFXKmgVqfOYJc4-p5Og3iqd1NwtndGFdDEdFN_e9ulgJTigONiogEZzQdA?key=FXNnv2-K3crr8KZayGg1uZSV\" alt=\"Human in the loop AI\"\/><\/figure>\n\n\n\n<p class=\"has-gray-700-color has-text-color has-link-color has-18-font-size wp-elements-5454011c23a6b6ccc1e084565bf7dcac\">Quelle: <a href=\"https:\/\/www.miquido.com\/ai-glossary\/human-in-the-loop\/\" target=\"_blank\" rel=\"noreferrer noopener\">Miquido<\/a><\/p>\n\n\n\n<p>In der Praxis bedeutet dies:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li>Nutzer m\u00fcssen die M\u00f6glichkeit haben, KI-Entscheidungen zu \u00fcberstimmen<\/li>\n\n\n\n<li>Die Bediener m\u00fcssen darin geschult werden, KI-Fehler zu erkennen und zu korrigieren<\/li>\n\n\n\n<li>Alle KI-Systeme mit hohem Risiko m\u00fcssen \u00fcber eine Not-Aus-Funktion f\u00fcr den Fall eines Ausfalls verf\u00fcgen.<\/li>\n<\/ul>\n\n\n\n<p>Kurz gesagt, bei risikoreicher AI m\u00fcssen die Menschen immer das letzte Wort haben &#8211; ohne Ausnahme.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Wie_man_die_Einhaltung_des_EU-AI-Acts_sicherstellt\"><\/span>Wie man die Einhaltung des EU-AI-Acts sicherstellt<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Im Folgenden geben wir Ihnen einige Tipps, wie Sie diese Anforderungen erf\u00fcllen k\u00f6nnen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Integrieren_Sie_Compliance_in_Ihren_KI-Entwicklungszyklus\"><\/span>Integrieren Sie Compliance in Ihren KI-Entwicklungszyklus<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Die Einhaltung der Vorschriften darf nicht l\u00e4nger auf die lange Bank geschoben werden.<\/p>\n\n\n\n<p>Der EU-AI-Act schreibt vor, dass Compliance und Risikomanagement in jeder Phase der KI-Entwicklung ber\u00fccksichtigt werden m\u00fcssen.<\/p>\n\n\n\n<p>Gem\u00e4\u00df Artikel 9 m\u00fcssen alle KI-Systeme mit hohem Risiko \u00fcber ein kontinuierliches Risikomanagementsystem verf\u00fcgen, das sich \u00fcber den gesamten Lebenszyklus der KI erstreckt.<\/p>\n\n\n\n<p>Sie m\u00fcssen <strong>Risikobewertungen<\/strong> und <strong>Fairness-Tests von der ersten Codezeile<\/strong> bis hin zur \u00dcberwachung nach der Bereitstellung <strong>integrieren<\/strong>.<\/p>\n\n\n\n<p>Und Sie m\u00fcssen auch alles dokumentieren.<\/p>\n\n\n\n<p>Compliance ist kein einmaliger Vorgang. Sie ist ein iterativer Prozess, der Folgendes erfordert:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-3\">\n<li>Risikoerkennung und -minderung in jeder Phase<\/li>\n\n\n\n<li>Regelm\u00e4\u00dfige Updates und Audits w\u00e4hrend des gesamten Lebenszyklus Ihres AI-Systems<\/li>\n\n\n\n<li>\u00dcberwachung nach dem Einsatz zur Erkennung neuer Risiken<\/li>\n<\/ul>\n\n\n\n<p>Der Schl\u00fcssel dazu ist also eine <strong>kontinuierliche Risikobewertung<\/strong> und <strong>-\u00fcberwachung.<\/strong><\/p>\n\n\n\n<p>Sie m\u00fcssen g\u00e4ngige Risiken vor der Bereitstellung ermitteln und abmildern und Schutzma\u00dfnahmen gegen bekannte Risiken einf\u00fchren.<\/p>\n\n\n\n<p>Ein guter Tipp, um sp\u00e4tere Probleme zu vermeiden, ist die Durchf\u00fchrung von Risikobewertungen, noch bevor Sie Ihr(e) KI-Modell(e) trainieren.<\/p>\n\n\n\n<p>Das ist der beste Weg, um sicherzustellen, dass Ihr KI-Modell langfristig sicher und fair funktioniert.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Implementierung_von_KI-Governance-Rahmenwerken\"><\/span>Implementierung von KI-Governance-Rahmenwerken<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Der EU-AI-Act bedeutet, dass <strong>KI-Governance ein Muss ist, kein Nice-to-have<\/strong>.<\/p>\n\n\n\n<p>Sie brauchen <strong>klare Rahmenbedingungen f\u00fcr Compliance<\/strong>, <strong>Risikomanagement<\/strong> und <strong>ethischen KI-Einsatz<\/strong>, um die Nase vorn zu haben.<\/p>\n\n\n\n<p>Ein starker Governance-Rahmen hilft Ihnen, die KI-Entwicklung auf Kurs zu halten und sicherzustellen, dass sie regulatorischen und ethischen Standards entspricht, ohne die Innovation zu bremsen.<\/p>\n\n\n\n<p>Aber wie genau sieht ein KI-Governance-Rahmen aus?<\/p>\n\n\n\n<p>Ein starker KI-Governance-Rahmen umfasst:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>KI-Ethik- und Compliance-Richtlinien &#8211;<\/strong> Festlegung akzeptabler KI-Nutzung und Risikogrenzen.<\/li>\n\n\n\n<li><strong>Verantwortlichkeit &#8211; <\/strong>Zuweisung der Verantwortung f\u00fcr KI-Entscheidungen und -Fehlschl\u00e4ge<\/li>\n\n\n\n<li><strong>Risikomanagement &#8211;<\/strong> Regelm\u00e4\u00dfige Bewertung der Auswirkungen der KI und Abschw\u00e4chung der Risiken.<\/li>\n\n\n\n<li><strong>Transparenz &#8211;<\/strong> Gew\u00e4hrleistung, dass KI-Entscheidungen erkl\u00e4rt und \u00fcberpr\u00fcft werden k\u00f6nnen.<\/li>\n\n\n\n<li><strong>Erkennung von Voreingenommenheit &#8211;<\/strong> Implementierung einer laufenden \u00dcberwachung von KI-Modellen auf Voreingenommenheit in den Ergebnissen.<\/li>\n<\/ul>\n\n\n\n<p>Und vergessen Sie nicht, dass KI-Governance mehr als nur ein Schlagwort ist &#8211; es ist eine unternehmensweite Verpflichtung.<\/p>\n\n\n\n<p>Das k\u00f6nnte folgenderma\u00dfen aussehen:<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh7-rt.googleusercontent.com\/docsz\/AD_4nXdW2G7r8rxf_dAFjC8Gmtdv3l7-fobFTVVwZMhoQE7k2ArwCHAYmaXJW8AWrBRn3CRPkDIVJUKeLtD6crcCxetUkcClOd_WSD_Oiab0qhPGA-Tegoz1vmhEn7OEm8rRkZ_9H9SQiw?key=FXNnv2-K3crr8KZayGg1uZSV\" alt=\"AI governance framework\"\/><\/figure>\n\n\n\n<p class=\"has-gray-700-color has-text-color has-link-color has-18-font-size wp-elements-8ab5a0be46370095e29ac16e605c6a25\">Quelle: <a href=\"https:\/\/ai-governance.eu\/ai-governance-framework\/the-hourglass-model\/\" target=\"_blank\" rel=\"noreferrer noopener\">AIGA<\/a><\/p>\n\n\n\n<p>Das Ziel der KI-Governance besteht darin, dass Sie die Kontrolle \u00fcber Ihre KI-Systeme behalten und nicht nur reagieren, wenn etwas schief l\u00e4uft.<\/p>\n\n\n\n<p>Und mit dem richtigen Rahmen k\u00f6nnen Sie Risiken reduzieren und eine KI entwickeln, der sowohl Nutzer <em>als auch<\/em> Regulierungsbeh\u00f6rden vertrauen k\u00f6nnen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Bewaehrte_Praktiken_fuer_die_KI-Transparenz_einfuehren\"><\/span>Bew\u00e4hrte Praktiken f\u00fcr die KI-Transparenz einf\u00fchren<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Der EU-AI-Act schreibt strenge Transparenzanforderungen f\u00fcr KI-Systeme vor, insbesondere f\u00fcr solche mit hohem Risiko.<\/p>\n\n\n\n<p>KI-Anbieter m\u00fcssen klar dokumentieren, wie ihre Modelle funktionieren, und sicherstellen, dass die Nutzer die KI-gesteuerten Entscheidungen verstehen.<\/p>\n\n\n\n<p>Ziel ist es, sicherzustellen, dass KI-Entscheidungen erkl\u00e4rbar, nachvollziehbar und rechenschaftspflichtig sind.<\/p>\n\n\n\n<p>Und der beste Weg dorthin ist die proaktive \u00dcbernahme bew\u00e4hrter KI-Transparenzverfahren und die Einhaltung der gesetzlichen Bestimmungen.<\/p>\n\n\n\n<p>Das sollten Sie tun:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>Opt-outs zulassen &#8211; <\/strong>Geben Sie Nutzern immer die M\u00f6glichkeit, KI-Funktionen zu deaktivieren und zu einem Menschen zu wechseln.<\/li>\n\n\n\n<li><strong>Schulen Sie Ihr Team in der korrekten Interpretation von KI-Ergebnissen &#8211; <\/strong>Stellen Sie sicher, dass Ihr Team KI-Ergebnisse richtig interpretieren und Fehler erkennen kann.<\/li>\n\n\n\n<li><strong>Testen Sie KI-Modelle regelm\u00e4\u00dfig auf Fairness und Voreingenommenheit &#8211; <\/strong>Unkontrollierte Voreingenommenheit ist eine Klage, die auf sich warten l\u00e4sst. Testen Sie Ihre KI-Modelle und Trainingsdaten vor dem Einsatz regelm\u00e4\u00dfig auf m\u00f6gliche Voreingenommenheit.<\/li>\n\n\n\n<li><strong>Seien Sie transparent in Bezug auf die Grenzen der KI &#8211; <\/strong>Wer zu viel verspricht und zu wenig liefert, wird scheitern. Setzen Sie von Anfang an klare Erwartungen in Bezug auf das, was Ihre KI tun kann und was nicht.<\/li>\n\n\n\n<li><strong>Beauftragen Sie externe Pr\u00fcfer &#8211; <\/strong>Ein zweiter Blick ist immer gut. Externe Pr\u00fcfer k\u00f6nnen Risiken erkennen, die Sie vielleicht \u00fcbersehen haben.<\/li>\n<\/ul>\n\n\n\n<p>Kurz gesagt, geht es beim EU-KI-Gesetz um die Entwicklung von KI-Systemen, denen die Nutzer vertrauen k\u00f6nnen.<\/p>\n\n\n\n<p>Und es ist der richtige Weg, auf Transparenz zu setzen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Verwendung_von_Compliance-Tools_Dritter\"><\/span>Verwendung von Compliance-Tools Dritter<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Vielen Unternehmen fehlen die Ressourcen, um komplexe Compliance-Prozesse vollst\u00e4ndig intern zu verwalten.<\/p>\n\n\n\n<p>Und genau hier kommen die KI-Compliance-Tools von Drittanbietern ins Spiel.<\/p>\n\n\n\n<p>Mit diesen Werkzeugen k\u00f6nnen Sie die Anforderungen des EU-KI-Gesetzes erf\u00fcllen, ohne die Bank zu sprengen.<\/p>\n\n\n\n<p>Welche Tools sollten Sie also verwenden?<\/p>\n\n\n\n<p>Sie sollten mit Tools zur Erkennung von Voreingenommenheit beginnen, um Ihre KI-Modelle und deren Trainingsdaten zu analysieren, z. B:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><a href=\"https:\/\/ai-fairness-360.org\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>AI Fairness 360<\/strong><\/a><strong> &#8211;<\/strong> Open-Source-Toolkit zur Analyse von Datens\u00e4tzen auf Fairness und m\u00f6gliche Voreingenommenheit<\/li>\n\n\n\n<li><a href=\"https:\/\/pair-code.github.io\/what-if-tool\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Googles What-If Tool<\/strong><\/a><strong> &#8211;<\/strong> Testet die KI-Entscheidungsfindung und -Leistung in verschiedenen Szenarien.<\/li>\n\n\n\n<li><a href=\"https:\/\/fairlearn.org\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Fairlearn<\/strong><\/a> &#8211; Hilft Datenwissenschaftlern und KI-Entwicklern, die Fairness von KI-Systemen zu verbessern.<\/li>\n<\/ul>\n\n\n\n<p>Auf diese Weise verhindern Sie von vornherein, dass Ihr KI-Modell durch Voreingenommenheit beeinflusst wird.<\/p>\n\n\n\n<p>Als N\u00e4chstes sollten Sie KI-Tools und -Modelle zur Erkl\u00e4rung integrieren, z. B.:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><strong>SHAP(Shapley Additive Explanations) &#8211; <\/strong>Liefert detaillierte Erkl\u00e4rungen f\u00fcr KI-Entscheidungen.<\/li>\n\n\n\n<li><strong>LIME (Local Interpretable Model-agnostic Explanations) &#8211; <\/strong>Hilft Benutzern zu verstehen, wie KI-Modelle Vorhersagen treffen.<\/li>\n\n\n\n<li><strong>AIX360 &#8211; <\/strong>Open-Source-Bibliothek mit verschiedenen Algorithmen, die Ihnen helfen, die Ergebnisse von KI-Modellen zu verstehen und zu interpretieren.<\/li>\n<\/ul>\n\n\n\n<p>Schlie\u00dflich sollten Sie in kontinuierliche \u00dcberwachung und MLOps-Tools investieren, wie <br>z. B.:<\/p>\n\n\n\n<ul style=\"margin-bottom:calc(30px*var(--scale))\" class=\"wp-block-list is-style-style-2\">\n<li><a href=\"https:\/\/www.fiddler.ai\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Fiddler AI<\/strong><\/a><strong> &#8211; <\/strong>Bietet Einblicke in Ihre Modelle in Echtzeit und hilft Ihnen, Probleme zu erkennen und zu beheben, bevor sie eskalieren.<\/li>\n\n\n\n<li><a href=\"https:\/\/arize.com\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Arize AI<\/strong><\/a><strong> &#8211;<\/strong> Bietet Tools zur \u00dcberwachung und Fehlerbehebung Ihrer Modelle, um sicherzustellen, dass sie in der realen Welt wie erwartet funktionieren.<\/li>\n\n\n\n<li><a href=\"https:\/\/www.evidentlyai.com\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Evidently AI<\/strong><\/a><strong> &#8211;<\/strong> Ein Open-Source-Tool, das Sie bei der Analyse und \u00dcberwachung Ihrer Modelle w\u00e4hrend der Entwicklung und nach der Bereitstellung unterst\u00fctzt.<\/li>\n\n\n\n<li><a href=\"https:\/\/neptune.ai\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Neptune AI<\/strong><\/a><strong> <\/strong>&#8211; Ein leichtes MLOps-Tool, das Ihnen hilft, KI-Modellexperimente an einem Ort zu verfolgen, zu verwalten und zu vergleichen.<\/li>\n<\/ul>\n\n\n\n<p>Mit diesen Tools k\u00f6nnen Sie die Rechenschaftspflicht verbessern und sicherstellen, dass Sie die Ergebnisse Ihres KI-Modells stets im Blick haben.<\/p>\n\n\n\n<p>Und das ist der beste Weg, um regulatorische Risiken zu vermeiden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" style=\"margin-top:calc(40px*var(--scale))\"><span class=\"ez-toc-section\" id=\"Brauchen_Sie_Unterstuetzung_bei_der_Entwicklung_konformer_KI-Software\"><\/span>Brauchen Sie Unterst\u00fctzung bei der Entwicklung konformer KI-Software?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Das KI-Gesetz der EU ist da, und es ver\u00e4ndert die Art und Weise, wie KI entwickelt wird.<\/p>\n\n\n\n<p>Es ist ein absolutes Muss, es richtig zu machen. Und deshalb brauchen Sie einen zuverl\u00e4ssigen KI-Entwicklungspartner.<\/p>\n\n\n\n<p>Zum Gl\u00fcck sind Sie hier richtig.<\/p>\n\n\n\n<p>Wir wissen, worauf es ankommt, um regulierungsf\u00e4hige KI-Software zu entwickeln, die konform, zuverl\u00e4ssig und bereit f\u00fcr die reale Welt ist.<\/p>\n\n\n\n<p>Wenn Sie mehr erfahren m\u00f6chten, kontaktieren Sie unser Team \u2013 wir vereinbaren gerne einen Termin, um Ihre Anforderungen im Detail zu besprechen.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\" style=\"margin-top:calc(30px*var(--scale))\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\"><\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\">\n<div class=\"wp-block-buttons alignfull is-layout-flex wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link has-text-align-center wp-element-button\" href=\"https:\/\/decode.agency\/de\/kontakt\/\" target=\"_blank\" rel=\"noreferrer noopener\">Kontakt aufnehmen<\/a><\/div>\n<\/div>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\"><\/div>\n<\/div>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hier werden wir aufschl\u00fcsseln, wie sich das EU-KI-Verordnung auf die Entwicklung von KI-Software auswirkt, und Ihnen zeigen, wie Sie auch in Zukunft gesetzeskonform bleiben k\u00f6nnen.<\/p>\n","protected":false},"featured_media":59716,"template":"","tags":[],"article_category":[],"class_list":["post-60473","article","type-article","status-publish","has-post-thumbnail","hentry"],"cmb2":{"custom_author_metabox":{"custom_author1_id":"60998","custom_author2_id":"","custom_author3_id":""},"pages_metabox":{"page_footer_cta":"cta1"},"feature_metabox":{"featured_blog_post":""},"related_article_metabox":{"related_article_id_1":"60393","related_article_id_2":"60399","related_article_id_3":"59994"}},"_links":{"self":[{"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/article\/60473","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/article"}],"about":[{"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/types\/article"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/media\/59716"}],"wp:attachment":[{"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/media?parent=60473"}],"wp:term":[{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/tags?post=60473"},{"taxonomy":"article_category","embeddable":true,"href":"https:\/\/decode.agency\/de\/wp-json\/wp\/v2\/article_category?post=60473"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}