В ЕС ще бъдат забранени някои приложения с изкуствен интелект (ИИ), застрашаващи правата на гражданите. Сред тях са системи за биометрична категоризация, основани на емоционални реакции, и нецеленасочено извличане на лицеви изображения от интернет или от записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица.

Ще бъдат забранени също системите за разпознаване на емоции на работното място и в училищата, за социално оценяване, прогнозиране на престъпление (въз основа на профилиране или оценка на техните характеристики), както и ИИ, манипулиращ човешкото поведение или използващ уязвимостта на хората. С подобни системи се експериментира от няколко години в комунистически Китай.

Това се съдържа в одобрения днес от Европейския парламент Законодателен акт за ИИ. Той бе договорен между ЕП и страните членки (Съвета) през декември 2023 г. Целта му е да защитава основните права, демокрацията, принципите на правовата държава и екологичната устойчивост от високорисков ИИ, като същевременно насърчава иновациите. Регламентът установява задължения за ИИ въз основа на потенциалните рискове и степента на въздействие.

Изключения в правоприлагането

Използването на системи за биометрична идентификация от правоприлагащите органи е забранено по принцип, освен в изчерпателно изброени и подробно определени ситуации. В реално време те могат да бъдат използвани само ако са спазени строги гаранции, например ако те са строго ограничени във времето и географския обхват и подлежат на специално предварително съдебно или административно разрешение.

Системите могат да се използват за целенасочено търсене на изчезнало лице или предотвратяване на терористично нападение. Употребата им постфактум се счита за случай на използване на високорискови системи с ИИ, който изисква съдебно разрешение във връзка с престъпление.

Задължения за високорисковите системи

Те са предвидени поради значителните им потенциални вреди за здравето, безопасността, основните права, околната среда, демокрацията и принципите на правовата държава. Примерите за високорискови приложения на ИИ включват критична инфраструктура, образование и професионално обучение, заетост, основни частни и публични услуги (например здравеопазване и банково дело), определени системи в областта на правоприлагането, миграцията и управлението на границите, правосъдието и демократичните процеси (оказване на влияние върху изборите). Подобни системи трябва да оценяват и намаляват рисковете, да поддържат регистри за употребата, да бъдат прозрачни и точни и да гарантират човешки надзор. Трябва да се гарантира правото на гражданите за подаване на жалби заради системи с ИИ и за получаване на обяснения за решения, базирани на високорискови системи, които оказват значително въздействие върху техните права.

Изисквания за прозрачност

Системите за ИИ с общо предназначение и моделите, на които те се основават, следва да отговарят на определени изисквания за прозрачност, например спазване на законодателството на ЕС в областта на авторското право и публикуване на подробно обобщение на съдържанието, използвано за обучение на модела. Моделите на по-мощните системи за ИИ с общо предназначение, които биха могли да породят системни рискове, ще бъдат подложени на допълнителни изисквания, включително извършване на оценка на модела, оценяване и ограничаване на системните рискове и докладване за инциденти.

Освен това изкуствените или манипулираните изображения и аудио- или видеосъдържание (дълбинни фалшификати, или deep fakes) трябва да бъдат ясно обозначени като такива.

Следващи стъпки

Очаква се регламентът да бъде окончателно приет преди края на законодателния мандат чрез т.нар. процедура на поправка. Законът също трябва да бъде официално приет и от Съвета. Той ще влезе в сила 20 дни след публикуването му в Официален вестник и ще бъде напълно приложим 24 месеца след влизането му в сила.