Опасните системи с ИИ ще бъдат подлагани на строги изисквания преди да могат да бъдат пуснати на пазара
Европейската комисия предложи нови правила и действия за постигане на надежден изкуствен интелект (ИИ). Съчетанието от първото по рода си законодателство за ИИ и новият план осигуряват
безопасността и основните права на хората и предприятията, се посочва в съобщението на комисията, предаде Дарик. Новите правила целят да осигурят доверието на европейците и ще обхванат опасностите
от системите с ИИ. Планът представя необходимите промени в политиката и инвестициите за укрепване на водещото място на Европа в развитието на ИИ. Новите правила се предвижда да се прилагат пряко и
еднакво във всички държави от ЕС въз основа на насочено към бъдещето определение за ИИ. Системите с ИИ, които са несъмнена заплаха за безопасността, поминъка и правата на хората, ще бъдат
забранени. Това включва системите и приложенията с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на потребителите.
Системите с ИИ, определени като много опасни, включват технологиите с ИИ, използвани при критични инфраструктури (например превози), които биха могли да изложат живота и здравето на гражданите на
опасност; образование и професионално обучение, което може да определи достъпа на хора до образование и професионално развитие (например оценяване на изпитни резултати); свързани с безопасността
части на изделията (например приложение с ИИ в роботизираната хирургия); заетост, управление на работници и достъп до самостоятелна заетост (например софтуер за подбор на професионални
автобиографии при наемане на работа); основни частни и обществени услуги (например кредитни оценки, които лишават гражданите от възможността да получат определен кредит); правоприлагане, което може
да засегне основните права на гражданите (например оценка на надеждността на доказателства); управление на миграцията, убежището и граничните проверки (например проверка на истинността на документи
за пътуване); правораздаване и демократични процеси (например прилагане на закона към конкретен набор от факти).
Опасните системи с ИИ ще бъдат подлагани на строги изисквания преди да могат да бъдат пуснати на пазара - адекватна оценка на заплахата и системи за нейното ограничаване; високо качество на
наборите от данни, захранващи системата, с цел минимизиране на опасносттите и дискриминационния резултат; поддържане на записи за дейността, за да се осигури проследимост на резултатите; подробна
документация с цялата необходима информация за системата и целта й, за да могат властите да оценят нейното съответствие; ясна и адекватна информация за потребителя; подходящ човешки надзор за
минимизиране на опасностите; висока степен на устойчивост, сигурност и точност.
Всички системи за биометрична идентификация от разстояние се възприемат като особено опасни и подлежат на строги изисквания. Използването им в реално време на обществени места за целите на
правоприлагането по правило е забранено. Допуснатите неголеми изключения са строго определени (например когато това е строго необходимо за издирването на изчезнало дете, за предотвратяване на
конкретна и непосредствена терористична заплаха или за откриване, идентифициране или подвеждане под съдебна отговорност на извършител или заподозрян в извършването на тежко престъпление). За
подобно използване трябва да бъде получено разрешение от съдебен или друг независим орган, и то да бъде съответно ограничено във времето, пространството и претърсваните бази данни.
При използването на системи с ИИ като чатботовете потребителите следва да бъдат наясно, че взаимодействат с машина, за да могат да вземат решение дали да продължат взаимодействието или да се
откажат. В предложението се допуска свободното използване на приложения като видеоигри с ИИ или филтри за спам. Огромната част от системите с ИИ попадат в тази категория, пояснява комисията.
Предлага се също националните власти за надзор на пазара да следят за прилагането на новите правила.
Законопроектът подлежи на одобрение от Съвета на ЕС и от Европейския парламент.