>по версии ВОЗ:
Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.
Европейский подход
Новые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:
Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.
Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:
Критическая инфраструктура (например, транспорт), где жизнь и здоровье людей могут быть подвергнуты чрезвычайному риску.
Образование или профессиональная подготовка, где технологиями может быть затронут доступ человека к образованию и профессиональной деятельности (например, оценка экзаменов).
Важные для безопасности компоненты других продуктов (например, ИИ для роботизированной хирургии).
Трудоустройство, управление человеческими ресурсами и самозанятость (например, программное обеспечение для оценки резюме соискателей при приеме на работу).
Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить кредит).
Правоохранительная деятельность, в рамках которой могут нарушаться основные права людей (например, оценка доказательств).
Миграция, предоставление убежища и пограничный контроль (например, проверка подлинности проездных документов).
Отправление правосудия и демократические процессы (например, правоприменительная деятельность).
ИИ с высокой степенью риска должны будут соответствовать строгим требованиям (в противном случае они не смогут выйти на рынок):
Адекватные системы оценки и снижения рисков.
Высокое качество наборов данных, используемых для обучения ИИ.
Протоколирование операций для обеспечения возможности отслеживания результатов обучения и работы ИИ.
Подробная техническая документация, содержащая всю необходимую информацию об ИИ и его назначении.
Четкая и адекватная информация для пользователей.
Адекватный контроль со стороны техподдержки для минимизации рисков.
Высокий уровень надежности, безопасности и точности.
В частности, все виды систем удаленной биометрической идентификации несут в себе высокий уровень риска, и к ним будут предъявляться повышенные требования. Их использование правоохранительными органами в режиме реального времени в общественных местах будет запрещено.
Низкий риск. К данной группе относятся такие системы ИИ, как чат-боты. Пользователи должны понимать, что имеют дело с машиной, и иметь возможность принять взвешенное решение о том, стоит ли продолжать пользоваться приложением.
Минимальный риск. К интеллектуальным технологиям с минимальным риском Еврокомиссия отнесла видеоигры и спам-фильтры, а также иные технологии, не вошедшие в другие группы риска. Правила предлагают не вмешиваться в регулирование данной сферы, так как такие технологии представляют минимальную опасность для гражданских свобод или безопасности.
Проект Еврокомиссии направлен для обсуждения и утверждения в Европейский парламент. В случае утверждения, правила должны будут быть имплементированы в законодательство всех стран-участниц ЕС.