W celu świadczenia usług na najwyższym poziomie stosujemy pliki cookies. Korzystanie z naszej witryny oznacza, że będą one zamieszczane w Państwa urządzeniu. W każdym momencie można dokonać zmiany ustawień Państwa przeglądarki. Zobacz politykę cookies.
Powrót

Przyszłość AI w Polsce – wyniki prekonsultacji wdrożenia aktu o sztucznej inteligencji

14.05.2024

Akt o sztucznej inteligencji to pierwsze tego typu na świecie prawo, które w sposób całościowy ma uregulować rozwijanie i stosowanie AI. Unijne rozporządzenie wymaga od państw członkowskich, aby tak przystosowały swoje systemy prawne, by skutecznie zrealizować nowe reguły w praktyce. Ministerstwo Cyfryzacji zakończyło właśnie prekonsultacje do projektowanej implementacji Aktu o sztucznej inteligencji. Wzięło w nich udział 50 podmiotów.

Tekst alternatywny: Wiceminister Dariusz Standerski. Wdrożenie AI Act. Wyniki prekonsultacji: połączone role.

Szerzej o regulacji można przeczytać tutaj: Przełomowe przepisy dotyczące sztucznej inteligencji – Parlament Europejski przyjął rozporządzenie.

– Naszym priorytetem jest wprowadzenie prawa, które będzie precyzyjne, konkretne i jasne. Dlatego naszym priorytetem jest dialog z organizacjami pozarządowymi, ośrodkami naukowymi, związkami przedsiębiorców – mówi wiceminister cyfryzacji Dariusz Standerski. – Ich głos pozwoli nam stworzyć przyjazny dla użytkowników ekosystem sztucznej inteligencji. Dzisiaj projektujemy rozwiązania na wiele lat. Ich uniwersalność i możliwość dostosowania do szybkich zmian technologii będzie kluczowa. Dziękuję wszystkim uczestnikom i uczestniczkom prekonsultacji za cenne opinie i rekomendacje, które pomogą nam rzetelnie wprowadzić akt do polskiego systemu prawnego oraz mądrze i odpowiedzialnie rozwijać polski sektor AI – dodaje.

W ramach prekonsultacji skupiono się na 4 kluczowych kwestiach: powołaniu nowego organu nadzoru, kto powinien realizować funkcją organu notyfikacyjnego, czy powinna być to jedna i ta sama instytucja czy też niezależne od siebie kategorie interesariuszy – np. organów, instytucji, organizacji, przedsiębiorstw, grup społecznych, kategorii obywateli i in. powinny być traktowane priorytetowo w zakresie działań komunikacyjnych i edukacyjnych w związku z procesem wchodzenia w życie europejskiego rozporządzenia.

Uczestnicy prekonsultacji proponują powołać nowy organ nadzoru rynku

Zdecydowana większość głoszonych opinii zawierała wskazanie, aby powołać nowy organ nadzoru rynku sztucznej inteligencji. 

Organ ten ma m. in:

  • być pojedynczym punktem kontaktowym dla ogółu społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym,
  • rozpatrywać wnioski dot. zezwolenia na wprowadzenie do obrotu lub oddanie do użytku systemów AI wysokiego ryzyka oraz skargi osób poddanych działaniom systemów AI,
  • przyjmować zgłoszenia dot. poważnych incydentów,
  • współpracować z Komisją, forum doradczym oraz Radą ds. AI.

Organ nadzoru rynku zgodnie z Aktem ma wykonywać swoje uprawnienia niezależnie, bezstronnie i nietendencyjnie.

Zwolennicy powołania nowego organu wskazują kilka kluczowych argumentów. Uważają, że istniejące instytucje nie mają odpowiednich kompetencji i zasobów. Dodatkowo sądzą, że stworzenie wyspecjalizowanej agencji odpowiedzialnej za bezpieczny i legalny rozwój AI przyniesie korzyści zarówno sektorowi publicznemu, jak i prywatnemu. Ponadto, twierdzą, że jeśli utworzymy nowy organ to unikniemy potencjalnych sporów kompetencyjnych oraz konfliktów priorytetów w działaniu innych instytucji.

Mniejszość respondentów uważa, że kompetencje organu nadzoru należy przekazać istniejącej instytucji. W tym kontekście wymieniano podmioty takie jak Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Prezes Urzędu Ochrony Danych Osobowych (UODO), Przewodniczący Komisji Nadzoru Finansowego (KNF), Przewodniczący Krajowej Rady Radiofonii i Telewizji (KRRiTV), Prezes Urzędu Komunikacji Elektronicznej (UKE) czy Minister Cyfryzacji (MC).

Brak zgody interesariuszy co do organu notyfikującego

Uczestnicy prekonsultacji są natomiast podzieleni w kwestii podmiotu mającego pełnić funkcję organu notyfikującego. Organ ten ma wspólnie z partnerami unijnymi opracowywać i stosować procedury konieczne do tego, by oceniać, wyznaczać i notyfikować jednostki oceniające zgodność systemów AI oraz je monitorować, a także w określonych sytuacjach przedkładać Komisji i państwom członkowskim dowody, które potwierdzają kompetencje jednostki oceniającej zgodność. Organ notyfikujący, w zamyśle twórców Aktu, ma działać w sposób, który gwarantuje wysokie kompetencje eksperckie, poufność, bezstronność oraz brak konfliktów interesów z jednostkami oceniającymi zgodność. 

Nieco więcej respondentów popiera pomysł, by do tego celu stworzyć nową instytucję (25 wskazań). Jednocześnie znaczna liczba uczestników prekonsultacji uważa, że te zadania mogłyby realizować podmioty już istniejące (19 wskazań). Spośród istniejących instytucji, jako potencjalny organ notyfikujący respondenci najczęściej wymieniali Polskie Centrum Akredytacji (PCA).

Nieznaczna większość biorących udział w prekonsultacjach uważa, że lepiej byłoby, gdyby funkcje organu nadzoru rynku i organu notyfikującego wykonywała w Polsce ta sama instytucja (23 wskazań). 

Komu komunikować o zmianach

Poza ogółem obywateli, jako kategorie osób, które powinny uzyskać informacje o przepisach wynikających z Aktu uczestnicy prekonsultacji najczęściej wskazywali następujące grupy:

  • przedsiębiorcy AI (w tym dostawcy AI wysokiego ryzyka),
  • przedstawiciele administracji publicznej,
  • naukowcy, studenci
  • konsumenci,
  • twórcy i artyści;
  • instytucje sektora finansowego,
  • przedstawiciele ochrony zdrowia. 

Materiały

Przyszłość AI w Polsce
Przyszłość​_AI​_w​_Polsce​_prezentacja.pdf 9.00MB
{"register":{"columns":[]}}