Komisja Europejska kończy prace nad dyrektywą nazywaną AI Act. To rozwiązania, które mają zapewnić ochronę przed nadużyciami w wykorzystywaniu sztucznej inteligencji (AI). Unijne rozporządzenie będzie regulować sposób jej wykorzystywania.
Nowe prawo ma powstrzymywać rozwijanie AI w obszarach, które mogą być szkodliwe dla ludzi, ale jednocześnie kuszą firmy możliwością uzyskania dużego i szybkiego przychodu – wyjaśnia ekspert z zakresu cyberzabezpieczeń i bezpieczeństwa sieci, Leszek Tasiemski.
CZYTAJ: Jak sztuczna inteligencja wpłynie na rynek pracy? Tydzień Przedsiębiorczości w Lublinie [ZDJĘCIA]
Zwraca on uwagę, że w unijnych regulacjach wprowadza się kategorie wykorzystywania sztucznej inteligencji. Co najważniejsze – jak dodaje Leszek Tasiemski – opisane zostały kategorie, gdzie jej wykorzystanie nie będzie możliwe. Chodzi m.in. o systemy śledzące ludzkie słabości, tworzenie manipulacji czy systemy bazujące na punktowaniu społeczeństwa, czyli social scoringu. (W takim systemie obywatele są punktowani przez władze za określone zachowania i karani odjęciem punktów za inne).
Unijna dyrektywa ma również zakazać tworzenia systemów, które będą w czasie rzeczywistym rozpoznawać ludzkie twarze, jak chociażby w miejskich monitoringach. Przepisy wprowadzają także kategorię wysokiego ryzyka. Chodzi o obszary z zakresu edukacji, prawa, infrastruktury krytycznej czy systemów medycznych. Firmy oferujące takie rozwiązania będą podlegać specjalnemu nadzorowi i będą musiały posiadać bezpieczne systemy wykorzystujące algorytmy.
Dyrektywa AI Act przewiduje utworzenie europejskiego urzędu ds. sztucznej inteligencji. Instytucja będzie monitorowała proces wdrażania i egzekwowania przepisów, a także wspierała innowacje oraz rozwój sztucznej inteligencji w Europie. Ostateczny kształt dyrektywy AI Act może zostać ogłoszony do końca tego roku.
RL / IAR / opr. ToMa
Fot. archiwum