Rozpoczyna się proces porządkowania AI w przedsiębiorstwach w ramach AI Act. Ekspert podpowiada od czego zacząć

Informacje o autorze

21 sierpnia 2024
Udostępnij:

Stosowanie systemów opartych o sztuczną inteligencję zostało uregulowane w ramach AI Act. Dokument wszedł w życie 1 sierpnia i tym samym rozpoczął się proces porządkowania AI w przedsiębiorstwach.

AI Act

Jak czytamy na stronie Ministerstwa Cyfryzacji, celem AI Act jest zapewnienie bezpiecznego i etycznego wykorzystania technologii sztucznej inteligencji, z uwzględnieniem praw obywateli oraz wspieranie innowacji technologicznych. Nowe przepisy dotyczą wszystkich przedsiębiorstw, które korzystają ze sztucznej inteligencji. Przedsiębiorcy mają okres przejściowy na dostosowanie regulacji. Pytanie jak polskie firmy powinny przygotować się na ten krok?

„Praktyczny proces porządkowania AI pod kątem przepisów powinien zawierać kolejno: rozpoznanie i inwentaryzację (rejestr) rozwiązań AI, ich ocenę pod kątem ryzyka, zbudowanie ram zastosowania (zadania jakie będzie wykonywała AI) oraz zasady jej wykorzystywania (dopuszczenia, ograniczenia, wykluczenia)” – tłumaczy dla MamBiznes Robert Zyskowski, CTO grupy Symfonia.

Warto przeczytać: Europejskie startupy AI wciąż są na topie. Liderzy finansowania stawiają na rozwój zespołów

Porządkowanie AI w firmie

Jak już wspomnieliśmy, AI Act został wprowadzony 1 sierpnia 2024 roku. Jednak przepisy będą obowiązywać dopiero po dwóch latach od daty jego wejścia w życie. Niektóre regulacje będą musiały zostać wprowadzone wcześniej. Należy pamiętać, że za naruszenie rozporządzenia przewidziano wysokie sankcje. Przykładowo, w przypadku naruszenia zakazanych praktyk kara może sięgnąć do 35 tys. euro.

Robert Zyskowski, dyrektor ds. technologii w grupie Symfonia, wskazuje na co muszą zwrócić uwagę firmy dostosowujące regulacje AI Act. Pierwszym etapem powinno być rozpoznanie rozwiązań sztucznej inteligencji, wykorzystywanych w spółce. Warto zwrócić uwagę na takie aplikacje jak wirtualni asystenci oraz chatboty stosowane w automatyzacji obsługi klientów; kreatory kontentu używane przez pracowników do generowania tekstów, prezentacji, grafik.

Kolejnym krokiem jest określenie ryzyka stosowanego narzędzia. AI Act wyróżnia kilka możliwości:

  • minimalne ryzyko: zaliczają się do niego algorytmy mogące pomagające w tworzeniu treści na bazie danych zebranych wewnętrznie, jak np. historia zakupów,
  • specyficzne ryzyko: dotyczy konieczności informowania użytkownika systemu, że ma do czynienia ze sztuczną inteligencją,
  • wysokie ryzyko: programy stosowane przy rekrutacjach, ocenie zdolności kredytowej oraz do automatycznego uruchamiania robotów. Ta grupa ryzyka podlega rygorystycznym wymogom,
  • niedopuszczalne ryzyko: mowa między innymi o systemach korzystających z danych biometrycznych np. do monitorowania działań pracowników w miejscu pracy.

Jak wskazuje Robert Zyskowski, stworzenie polityk i procedur zgodnych z kategoryzacją ryzyka związanego z wykorzystaniem AI powinno obejmować możliwy wpływ na przestrzeganie innych przepisów w firmie. Szczególnie należy zwrócić uwagę na przepisy RODO.

„Pamiętajmy, że sztuczna inteligencja jest tylko narzędziem i może popełniać błędy. Wiedza o niej w organizacji i zbudowanie reguł jest potrzebne. W procesie przygotowań do zmian regulacji prawnych warto uwzględnić prowadzenie dokumentacji i rejestrów działań związanych z systemami AI oraz przeprowadzić szkolenie dla pracowników w zakresie etycznego wykorzystywania AI. Wszystkie te działania pozwolą organizacjom na pełną kontrolę nad wykorzystaniem sztucznej inteligencji, zagwarantują firmie (w tym jej pracownikom oraz klientom) bezpieczeństwo, a także zapewnią zgodność z nowymi regulacjami prawnymi” – podsumowuje Robert Zyskowski.

Warto przeczytać: Nowi inwestorzy na pokładzie Revoluta. Fintech osiąga wycenę na poziomie 45 mld dolarów

Polecamy

Więcej w tym dziale: