W porównaniu z danymi za rok 2017 ponad 250% więcej managerów przyznaje, że w swoich przedsiębiorstwach wykorzystuje rozwiązania oparte na AI. Myśląc o rozwoju firmy, nie sposób uciec od zastosowania sztucznej inteligencji, to unijni prawodawcy postanowili uregulować tę kwestię. Konieczność działań podkreśla fakt, że według raportu Accenture 2022 Tech Vision, tylko 35% konsumentów ma zaufanie do tego, w jaki sposób przedsiębiorstwa wprowadzają rozwiązania AI w swoich działaniach.
Warto przeczytać: Czy sztuczna inteligencja faktycznie zabierze miejsca pracy? Zdaniem eksperta AI to bardziej ewolucja niż rewolucja
AI Act jako kolejne wyzwanie dla przedsiębiorców
Głównym założeniem AI Act jest klasyfikacja poszczególnych narzędzi sztucznej inteligencji według określonych poziomów ryzyka. Opracowana klasyfikacja wprowadzi poziomy od niskiego do niedopuszczalnego. Do każdego z nich przypisane zostaną określone obowiązki i narzędzia kontrolne. Rządy i firmy korzystające z narzędzi AI będą musiały dostosować swoje działania do konkretnych obowiązków, sprecyzowanych przez klasyfikację ryzyka AI Act.
Najwięcej obowiązków akt o sztucznej inteligencji nakłada na systemy AI o wysokim ryzyku. Uznaje się za nie narzędzia wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa, edukacji, a także systemach ogólnego przeznaczenia (GPAIS). Przykładem tej ostatniej grupy jest ChatGPT. Narzędzia tego poziomu będą poddawane najintensywniejszej kontroli.
Obowiązki wobec systemów wysokiego ryzyka obejmą ich cały cykl życia. Dotyczą przede wszystkim właściwej implementacji, utrzymania i zarządzania systemem. Wymagane będzie także tworzenie związanej z tym dokumentacji technicznej oraz prowadzenie rejestru zdarzeń. Właściwa kontrola systemu ma w założeniu przyczynić się do zwiększenia bezpieczeństwa jego użytkowania.
Obowiązki dostawców, operatorów, importerów i dystrybutorów
Dostawcy i operatorzy systemów AI wysokiego ryzyka oprócz dbałości o jakość i zarządzanie, będą musieli przed wprowadzeniem ich do użytku przeprowadzić właściwe procedury zgodności. Na poszczególnych etapach życia systemu wymagane będą określone procesy testowania, badania i walidacji.
W przypadku importerów i dystrybutorów wymienionych powyżej wymagać się będzie stworzenia dokumentacji oraz procedur, które potwierdzać będą ich zgodność z unijnym prawem. AI Act nakłada na nich obowiązek prowadzenia polityki informacyjnej, która zwiększy przejrzystość ich działań.
Dla operatorów głównym obowiązkiem będzie użytkowanie systemu zgodne z instrukcją. Muszą oni zadbać o wprowadzanie właściwych danych wejściowych. Powinny one być reprezentatywne i adekwatne do przeznaczenia systemu. Nadzór nad jego pracą musi sprawować człowiek.
Jak widać dodatkowe obowiązki wynikające z AI Act, różnią się w zależności od roli pełnionej przez przedsiębiorcę. Niezależnie od tego należy zwrócić uwagę na uniwersalne wyzwania stojące przed wszystkimi podmiotami korzystającymi z rozwiązań AI. Właściwe przygotowanie do zmian może stać się elementem przewagi konkurencyjnej nad pozostałymi podmiotami rynkowymi.
Komentarze
Nie ma jeszcze żadnych komentarzy :)