Drugie logo
MENU ×
KANCELARIA ×
USŁUGI ×
ZESPÓŁ ×
PUBLIKACJE ×
DLA PRZEDSIĘBIORCÓW ×

AI Act coraz bliżej – UE wprowadza regulacje sztucznej inteligencji

AI Act – unijne rozporządzenie o sztucznej inteligencji coraz bliżej uchwalenia

Pierwsze na świecie regulacje prawne dotyczące sztucznej inteligencji AI Act

Unijne prace nad regulacjami prawnymi dotyczącymi sztucznej inteligencji od dawna budzą wiele emocji. Po pierwsze dlatego, że już sam rozwój technologii AI wzbudza spore zainteresowanie społeczne, po drugie, dlatego, że unijne rozporządzenie ma być pierwszym na świecie prawodawstwem ustanawiającej ramy prawne dla rozwiązań opartych na technologii AI. Prace Unii Europejskiej nad AI Act, czyli rozporządzeniem o sztucznej inteligencji, są na ostatniej prostej. Nowe prawo ma na celu zapewnienie bezpieczeństwa obywatelom UE przy jednoczesnym wspieraniu innowacyjności technologicznej.

Projektowane regulacje ulegały dużym zmianom. Co ciekawe, pierwszy projekt Aktu z 2021 roku nie uzględniał przepisów dotyczących generatywnych i podstawowych systemów sztucznej inteligencji, czyli rozwiązań najszerzej znanych społeczeństwu i uznawanych za symbol AI, głównie dzięki czatowi GPT, wprowadzonemu na rynek pod koniec 2022 roku.

AI Akt zakłada podejście oparte na ryzyku. W Akcie systemy sztucznej inteligencji zostały podzielone na 4 kategorie, w zależności od stwarzanego przez przez nie poziomu ryzyka. Im wyższy poziom ryzyka systemu, tym więcej obowiązków nałożonych zostało na jego dostawców i użytkowników. Nieprzestrzeganie obowiązków wynikających z rozporządzenia grozi wysokimi karami finansowymi

AI Act i podejście oparte na ryzyku – 4 kategorie systemów AI

AI Act wprowadza klasyfikację systemów AI w zależności od poziomu ryzyka:

  1. niedopuszczalnego ryzyka – zakazane jako stwarzające ryzyko dla ludzi (pod ścisłymi wyjątkami przewidzianymi do celów egzekwowania prawa) – np.:

  • umożliwiające poznawczo – behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami – np. zabawki zachęcające dzieci do niebezpiecznych zachowań;
  • umożliwiające identyfikację biometryczną i kategoryzację osób;
  • scoringowe – zezwalające na klasyfikację obywateli na podstawie ich cech, statusu społecznego;
  • dokonujące identyfikacji biometrycznej w czasie rzeczywistym i zdanie (np. rozpoznawanie twarzy).
  1. wysokiego ryzyka – mogące negatywnie wpływać na bezpieczeństwo i prawa podstawowe obywateli:

  • na ich użytkowników i dostawców nałożono najwięcej obowiązków m.in.: w zakresie zarządzania ryzykiem, transparentności, monitorowania cyklu życia produktu.
  1. ogólnego przeznaczenia i generatywne tzw. generatywna sztuczna inteligencja np. czat GPT:

  • wymogi głównie w zakresie przejrzystości i transparentności – np. obowiązek oznaczania, że dana treść została wygenerowana przez sztuczną inteligencję;
  • takie wygenerowanie modelu, aby nie generował nielegalnych treści.
  1. ograniczonego ryzyka – np. obrazki, nagrania wideo typu “deepfake”

  • najmniej obowiązków, konieczność przejrzystego informowania użytkowników, o tym, że treść została wygenerowana przez system sztucznej inteligencji. 

Harmonogram uchwalenia rozporządzenia

Kolejnym krokiem będzie głosowanie w komisjach Parlamentu Europejskiego, planowane na luty 2024 r. Po zatwierdzeniu przez Parlament, AI Act wejdzie w życie 20 dni po publikacji w Dzienniku Urzędowym UE, a jego przepisy zaczną obowiązywać po 24 miesiącach.

Wypełnij bezpłatny test i dowiedz się, czy Twoja firma działa zgodnie z przepisami – zanim zrobi to urząd, sąd albo niezadowolony pracownik.

Autor: r.pr Joanna Kik, Kancelaria Prawna Chałas i Wspólnicy

 

Potrzebujesz profesjonalnej porady prawnej? Skontaktuj się z nami

Sprawdź inne wpisy na blogu Kancelarii Prawnej Chałas i Wspólnicy

Przewijanie do góry