Akt o AI przyjęty. Unia Europejska reguluje stosowanie sztucznej inteligencji

Informacje o autorze

02 sierpnia 2024
Udostępnij:

Pierwsze na świecie przepisy, które określają zasady stosowania systemów opartych na sztucznej inteligencji, będą stosowane na obszarze Unii Europejskiej. Eksperci twierdzą, że ich kształt nie jest wolny od błędów.

Akt o AI

Główne cele Aktu o AI to ochrona podstawowych praw człowieka podczas korzystania z narzędzi sztucznej inteligencji, a także stworzenie jednolitego rynku AI w Europie. Unijne przepisy mają również ułatwić stosowanie nowych technologii. To z kolei ma przyczynić się do stworzenia środowiska sprzyjającego innowacyjności.

Przepisy opracowano na podstawie porozumienia państw członkowskich Unii Europejskiej. Obszerna tematyka legislacji w połączeniu z odmiennymi interesami podmiotów ją opracowujących sprawia, że unijny akt o sztucznej inteligencji nie jest wolny od niedoskonałości.

Warto przeczytać: Nadużycia w Narodowym Centrum Badań i Rozwoju. Ogólnopolska akcja służb

Możliwe problemy z egzekwowaniem

Eksperci alarmują, że nieścisłości zawarte w nowych przepisach sprawiają, że będą występować trudności z ich właściwym egzekwowaniem. Jak to zwykle bywa w przypadku kompromisów, rezygnacja z części początkowych założeń sprawia, że ostateczny ich kształt pozostawia przestrzeń do interpretacji. A ta może służyć do obrony podmiotom, które nie do końca uczciwie będą wykorzystywać narzędzia AI. Tym bardziej że mocno okrojone zostały właśnie przepisy związane z wprowadzaniem na rynek systemów o kontrowersyjnych zastosowaniach.

Istota przepisów Aktu o AI

By wyeliminować ryzyko niewłaściwego stosowania systemów AI, będą podlegać one prawnej klasyfikacji. W tym celu wyodrębniono cztery kategorie ryzyka: minimalne, specyficzne, wysokie i niedopuszczalne. Ostatnia kategoria to na przykład systemy, które wykorzystują dane biometryczne do mierzenia aktywności pracowników, czy systemy umożliwiające stosowanie tzw. punktacji społecznej. 

Systemy wysokiego ryzyka to np. te wykorzystywane przy ocenie zdolności kredytowej, czy rekrutacjach. Nowe przepisy nakładają na nie szereg obowiązków, np. konieczny nadzór człowieka. Przykładami ryzyka specyficznego są chatboty. Z tego tytułu będą one musiały informować użytkowników, że mają do czynienia z automatem AI. Korzystanie z systemów AI o ryzyku minimalnym nie będzie się wiązało z żadnymi dodatkowymi obostrzeniami. Ma do nich należeć większość zastosowań sztucznej inteligencji.

Większość nowego prawa zacznie obowiązywać za dwa lata. Jednak zakaz stosowania systemów o niedopuszczalnym poziomie ryzyka będzie stosowany już za pół roku. Za łamanie Aktu o AI przewidziano szereg kar. Ich wysokość będzie kształtowana jako określony procent rocznego światowego obrotu firmy.

Warto przeczytać: Rząd chce kontrolować modele AI. W planach Komisja Nadzoru Sztucznej Inteligencji

Polecamy

Więcej w tym dziale: