Играчки с гласов асистент, насърчаващи опасно поведение от страна на малолетни лица, ще бъдат забранени в ЕС.

Това е част от предложените днес от Европейската комисия нови правила и действия за високи постижения и доверие в изкуствения интелект (ИИ). Те са комбинация от първата по рода си правна рамка по отношение на ИИ и новия координиран със страните членки план. Тя трябва да активизира навлизането на ИИ в Общността и инвестициите и иновациите в него.

Този подход ще бъде допълнен от нови правила за машините. Правилата за безопасност ще бъдат адаптирани с цел да се увеличи доверието на потребителите.

Новите правила ще се прилагат пряко по еднакъв начин във всички държави членки въз основа на ориентирано към бъдещето определение за ИИ. Те следват основан на риска подход.

Неприемлив риск

Ще бъдат забранени системите с ИИ, които се считат за несъмнена заплаха за безопасността, поминъка и правата на хората. Сред тях са системите и приложенията с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на потребителите - например играчки с гласов асистент, които насърчават опасно поведение от страна на малолетни лица. Такива са и системи, даващи възможност за социален ранкинг от страна на държавното управление.

Висок риск

Системите, идентифицирани като високорискови, ще бъдат обект на строги задължения и проверки, преди да могат да бъдат пуснати на пазара. Те включват технологиите, използвани в следните сфери:

Критични инфраструктури като транспорта, които биха могли да изложат живота и здравето на гражданите на риск;

Образование и професионално обучение, което може да определи достъпа на лица до образование и професионално развитие. Такова е например оценяването на изпитни резултати);

Свързани с безопасността елементи на продуктите, например приложение с ИИ в роботизираната хирургия;

Заетост, управление на работници и достъп до самостоятелна заетост, например софтуер за сортиране на професионални автобиографии при наемане на работа;

Основни частни и публични услуги като кредитни оценки, които лишават гражданите от възможността да получат определен кредит;

Правоприлагане, което може да засегне основните права на гражданите. Това може да се случи при оценка на надеждността на доказателства;

Управление на миграцията, убежището и граничния контрол, например проверка на автентичността на документи за пътуване;

Правораздаване и демократични процеси като прилагане на закона към конкретен набор от факти.

Всички системи за биометрична идентификация от разстояние се считат за високорискови. Използването им в реално време на публично достъпни места за целите на правоприлагането по правило е забранено. Допускат се редки изключения – примерно когато това е необходимо за издирването на изчезнало дете, за предотвратяване на терористична заплаха или за откриване, локализиране, идентифициране или преследване на извършител или заподозрян в извършването на тежко престъпление). За подобно използване трябва разрешение от съдебен или друг независим орган и то да бъде съответно ограничено във времето, пространството и претърсваните бази данни.

Ограничен риск

Това са системи с ИИ със специфични задължения за прозрачност: При използването на чатботовете потребителите трябва да са наясно, че взаимодействат с машина, за да могат да вземат решение дали да продължат взаимодействието или да се откажат.

Минимален риск

В предложението за законодателен акт се допуска свободното използване на приложения като видеоигри с ИИ или филтри за спам. Огромната част от системите с ИИ попадат в тази категория. Предложеният регламент не регулира тази област, тъй като тези системи крият минимален или никакъв риск за правата или безопасността на гражданите.