Künst­li­che Intel­li­genz (KI) ist längst kein Zukunfts­the­ma mehr, son­dern prägt schon heu­te zahl­rei­che Geschäfts­pro­zes­se – vom Kun­den­ser­vice über das Per­so­nal­ma­nage­ment bis hin zur Pro­duk­ti­on und Logis­tik. Auch klei­ne und mit­tel­stän­di­sche Unter­neh­men (KMU) pro­fi­tie­ren von den Effi­zi­enz­stei­ge­run­gen, die KI-Sys­te­me bie­ten. Mit der Ver­ab­schie­dung des EU AI Act steht jedoch ein Para­dig­men­wech­sel bevor: Seit dem 2. Febru­ar 2025 sind die ers­ten ver­bind­li­chen Vor­ga­ben für den KI-Ein­satz in der Euro­päi­schen Uni­on wirk­sam. Der Rechts­rah­men setzt dabei neue Stan­dards für Sicher­heit, Trans­pa­renz und Com­pli­ance. Unter­neh­men, die KI nut­zen, müs­sen jetzt han­deln.

Recht­li­cher Rah­men – Was steckt hin­ter dem EU AI Act?

Der EU AI Act ist das ers­te umfas­sen­de Gesetz zur Regu­lie­rung von Künst­li­cher Intel­li­genz welt­weit. Er defi­niert ver­bind­li­che Stan­dards für die Ent­wick­lung, den Ver­trieb und die Nut­zung von KI-Sys­te­men inner­halb der EU. Ziel ist es, Miss­brauch zu ver­hin­dern, Risi­ken zu steu­ern und das öffent­li­che Ver­trau­en in KI-Anwen­dun­gen zu stär­ken. Zudem bie­tet der Rechts­rah­men Inves­ti­ti­ons­si­cher­heit für Unter­neh­men und stärkt so die Inno­va­ti­ons­kraft des euro­päi­schen Wirt­schafts­stand­orts.

Risi­koklas­si­fi­zie­rung – KI-Anwen­dun­gen wer­den nach Risi­ko bewer­tet

Zen­tra­ler Grund­satz des AI Act ist die Ein­tei­lung von KI-Sys­te­men in vier Risi­ko­ka­te­go­rien:

  1. Mini­ma­les Risi­ko: Hier­un­ter fal­len Anwen­dun­gen wie Spam­fil­ter oder ein­fa­che Über­set­zungs­tools. Es gel­ten kei­ne beson­de­ren Vor­ga­ben.
  2. Begrenz­tes Risi­ko: Sys­te­me wie Chat­bots oder KI-gene­rier­te Inhal­te unter­lie­gen Trans­pa­renz­pflich­ten. Nut­zer müs­sen erken­nen kön­nen, dass sie mit KI inter­agie­ren.
  3. Hohes Risi­ko: Betrof­fen sind etwa KI-Sys­te­me zur Per­so­nal­re­kru­tie­rung oder medi­zi­ni­schen Dia­gnos­tik. Hier gel­ten beson­ders stren­ge Auf­la­gen, ein Risi­ko­ma­nage­ment, detail­lier­te Doku­men­ta­ti­ons­pflich­ten sowie regel­mä­ßi­ge Über­prü­fun­gen.
  4. Inak­zep­ta­bles Risi­ko: Anwen­dun­gen, die Men­schen­rech­te gefähr­den, wie Social Scoring oder mani­pu­la­ti­ve Tech­no­lo­gien, sind strikt ver­bo­ten und dür­fen weder ent­wi­ckelt noch in Ver­kehr gebracht wer­den.

Son­der­fall „Gene­ral Pur­po­se AI“: Gro­ße Sprach­mo­del­le (z.B. GPT) unter­lie­gen je nach Anwen­dung wei­te­ren Vor­schrif­ten.

Zen­tra­le Pflich­ten und Hand­lungs­fel­der für Unter­neh­men

  • Iden­ti­fi­zie­rung und Doku­men­ta­ti­on: Unter­neh­men müs­sen erfas­sen und doku­men­tie­ren, wo und wie KI-Sys­te­me genutzt wer­den. Dies ist die Grund­la­ge für alle wei­te­ren Com­pli­ance-Maß­nah­men.
  • Risi­ko­be­wer­tung: Jedes KI-Sys­tem muss anhand der gesetz­li­chen Kri­te­ri­en bewer­tet wer­den. Die rich­ti­ge Ein­ord­nung bestimmt, wel­che Pflich­ten grei­fen – ins­be­son­de­re bei Hoch­ri­si­ko-Anwen­dun­gen.
  • Imple­men­tie­rung von Com­pli­ance-Struk­tu­ren: Für Hoch­ri­si­ko-KI-Sys­te­me sind erheb­li­che Anfor­de­run­gen zu erfül­len, u.a. ein umfas­sen­des Risi­ko­ma­nage­ment, tech­ni­sche Doku­men­ta­ti­on und „CE-Kenn­zeich­nung“. Pro­zes­se zur Über­wa­chung und für das Mel­den von Sicher­heits­vor­fäl­len sind ver­pflich­tend.
  • Mit­ar­bei­ter­schu­lun­gen und Kom­pe­tenz­er­halt: Der AI Act ver­pflich­tet Unter­neh­men, ihre Mit­ar­bei­ten­den im Umgang mit KI zu qua­li­fi­zie­ren – nicht nur auf tech­ni­scher Ebe­ne, son­dern auch bezüg­lich recht­li­cher und ethi­scher Fra­ge­stel­lun­gen. Ziel ist der bewuss­te, ver­ant­wor­tungs­vol­le Ein­satz von KI im Arbeits­all­tag.
  • Kon­ti­nu­ier­li­ches Moni­to­ring: Die Ein­hal­tung der Pflich­ten wird von natio­na­len Behör­den über­wacht. Ver­stö­ße kön­nen mit emp­find­li­chen Buß­gel­dern von bis zu 35 Mil­lio­nen Euro oder 7 Pro­zent des welt­wei­ten Jah­res­um­sat­zes geahn­det wer­den.

Rechts­si­che­re Umset­zung: Ihr Fahr­plan für die Pra­xis

  1. Bestands­auf­nah­me: Schaf­fen Sie Trans­pa­renz und doku­men­tie­ren Sie sämt­li­che ein­ge­setz­ten KI-Sys­te­me.
  2. Risi­ko­ein­schät­zung: Ord­nen Sie jedem Sys­tem die pas­sen­de Risi­ko-Kate­go­rie zu – zie­hen Sie bei Unsi­cher­heit recht­li­che Exper­ti­se hin­zu.
  3. Com­pli­ance Manage­ment: Ent­wi­ckeln Sie ein inter­nes Risi­ko­ma­nage­ment, erstel­len Sie tech­ni­sche und recht­li­che Doku­men­ta­tio­nen für bestehen­de und geplan­te Anwen­dun­gen.
  4. Report­ing-Pro­zes­se: Rich­ten Sie Mel­de­we­ge für Sicher­heits­vor­fäl­le ein und eta­blie­ren Sie ein kon­ti­nu­ier­li­ches Moni­to­ring.
  5. Qua­li­fi­zie­ren Sie Ihre Mit­ar­bei­ten­den gezielt: Bie­ten Sie inter­dis­zi­pli­nä­re Schu­lun­gen an, um Know-how zu Tech­no­lo­gie, Recht und Ethik auf­zu­bau­en.
  6. Chan­ge Manage­ment: Beglei­ten Sie den Kul­tur­wan­del im Unter­neh­men aktiv – nur so schaf­fen Sie Ver­trau­en und Akzep­tanz für neue Pro­zes­se.

Fazit: KI-Com­pli­ance als Chan­ce ver­ste­hen und jetzt han­deln

Die EU schafft mit dem AI Act einen neu­en euro­pa­wei­ten Ord­nungs­rah­men, der weit über for­ma­le Pflich­ten hin­aus­geht. Wer gezielt und recht­zei­tig in KI-Com­pli­ance und die Qua­li­fi­zie­rung sei­ner Mit­ar­bei­ten­den inves­tiert, ver­schafft sich nicht nur Rechts­si­cher­heit, son­dern auch einen erheb­li­chen Wett­be­werbs­vor­teil. Nut­zen Sie die kom­men­den Mona­te, um Ihr Unter­neh­men tech­no­lo­gisch und orga­ni­sa­to­risch zukunfts­fä­hig auf­zu­stel­len. So wird KI zur tra­gen­den Säu­le Ihres nach­hal­ti­gen Unter­neh­mens­er­folgs.

Sie haben Fra­gen zur Umset­zung des EU AI Act oder suchen recht­li­che Unter­stüt­zung rund um KI-Com­pli­ance? Spre­chen Sie uns an!

Soll­ten Sie im Hin­blick auf die­se vor­ste­hen­de Aus­füh­run­gen Fra­gen haben, mel­den Sie sich ger­ne bei unse­rem Rechts­an­walt Joa­chim Nel­lis­sen oder unse­rer Rechts­an­wäl­tin Sina Bader über unse­re Mit­ar­bei­te­rin Frau Bur per E‑Mail an bur@dhk-law.com oder unter der Tele­fon­num­mer 0241 946210.

News­let­ter-Anmel­dung

Ja, ich habe die Daten­schutz­er­klä­rung zur Kennt­nis genom­men und bin mit Absen­den des Kon­takt­for­mu­la­res mit der elek­tro­ni­schen Ver­ar­bei­tung und Spei­che­rung mei­ner Daten ein­ver­stan­den. Mei­ne Daten wer­den dabei nur streng zweck­ge­bun­den zur Bear­bei­tung und Beant­wor­tung mei­ner Anfra­ge benutzt.

Über den Autor

  • Sina Bader

    Sina Bader ist zuge­las­se­ne Rechts­an­wäl­tin seit 2018. Seit 2022 ist sie außer­dem Fach­an­wäl­tin für IT-Recht. Zum Anwalts­pro­fil