Проект ЕС по развитию искусственного интеллекта хромает на обе ноги

Дисплей

Александр Гаджиев

Европа стремится стать мировым лидером в области искусственного интеллекта, но уделяет слишком мало внимания защите прав своих граждан в киберспространстве. В этой связи недавний проект Еврокомиссии по развитию ИИ можно с уверенностью назвать провальным.

Стратегия Европейской комиссии по развитию искусственного интеллекта (ИИ), фокусируется на необходимости установления "доверия" и "совершенства". Тем не менее недавний проект ЕК в этой области говорит об обратном. В нем Евросоюз уделяет крайне мало внимания защите основных прав своих граждан.

Новый подход к развитию ИИ

Искусственный интеллект – главный элемент стратегии цифрового развития Европы. В этом контексте новый законодательный пакет Еврокомиссии имеет фундаментальное значение для цифрового будущего блока. Проект устанавливает правила, касающиеся внедрения и использования систем искусственного интеллекта. Он вводит несколько уровней рисков, которые могут приписываться каждой системе ИИ – неприемлемый, высокий, ограниченный и низкий.

Согласно этому законопроекту, системы искусственного интеллекта с высоким уровнем риска, которые могут угрожать здоровью и безопасности людей, подлежат специальной оценке, которая будет проводиться поставщиком без предварительной проверки компетентным внешним органом. Очевидно, что в этом случае ни о какой объективной оценке системы ИИ и речи быть не может.

Кроме того, новые требования к системам ИИ включают в себя высококачественные наборы данных и разумные методы управления ими, а также обширное ведение документации, адекватное управление рисками, подробную техническую документацию, прозрачные инструкции для пользователей, соответствующий надзор со стороны человека, высокий уровень точности, надежности и кибербезопасности.

Комиссия заявляет, что такой подход с определением уровня рисков, их оценкой, а также введенные требования к системам ИИ основаны на общественных консультациях.

Рядовой гражданин не станет углубляться в детали нового законопроекта, поверив евробюрократам на слово. Однако на самом деле процесс разработки нового проекта ЕК по развитию ИИ был отнюдь не таким демократичным, как об этом говорится.

Законопроект нуждается в серьезной доработке

Большинство респондентов в Белой книге ЕС по искусственному интеллекту 2020 года составляли промышленные и технологические фирмы. Эти компании, делая вид, что продвигают знания, науку и технологии, направляли процесс регулирования систем ИИ в направлении, отвечающем их интересам. При этом мнение простых граждан не учитывалось.

Помимо недемократичности, новый законопроект имеет ряд других существенных недостатков. Среди них – отсутствие механизма возмещения ущерба и неспособность решить вопрос об ответственности за него. В проекте также нет ни слова о защите прав работников, которые из-за введения систем искусственного интеллекта могут потерять рабочие места.

Для устранения последнего недостатка можно было бы разработать специальную директиву, которая обеспечивает защиту прав работников. Кроме того, она бы помогла определить обязанности работодателей по защите данных своих сотрудников.

Защита их частной жизни и данных должны быть главными вопросами в новой Стратегии Евросоюза. Общее положение ЕС о защите данных является мощным инструментом, который, к сожалению, на сегодняшний день реализуется лишь в теории. Чтобы положение действительно заработало, ЕС должен ввести дополнительные правила в новый проект по развитию ИИ.

Еще одним важным элементом является консультация сотрудников по вопросам, как работает та или иная система искусственного интеллекта. Как известно, ИИ действует на основе определенных алгоритмов. Без знания этих алгоритмов работники рискуют допустить серьезные ошибки.

ЕС также необходимо внести в законопроект положения о том, что система ИИ не может работать самостоятельно. В частности, нужно следить за тем, чтобы искусственный интеллект всегда контролировался хотя бы одним человеком. Именно он должен принимать окончательное решение, а машина, в свою очередь, – выполнять задачи, которые поставил ей человек. Этим путем можно было бы избежать различных ошибок в работе искусственного интеллекта и сделать его работу более "человечной".

Неудачный проект

Наконец, сотрудники должны иметь возможность обучаться работе с цифровыми технологиями с применением ИИ. Недостаточно научить их техническим цифровым навыкам, чтобы они могли управлять конкретной системой. Понимание роли искусственного интеллекта и его влияния на рабочую среду требует, чтобы люди, которые с ним взаимодействуют, относились к нему критически.

Помимо этого, регулирование систем искусственного интеллекта не должно основываться на саморефлексии их поставщиков. Такое положение в законопроекте ставит под вопрос цифровое будущее ЕС, ведь без объективной оценки цифровых технологий с применением ИИ рынок в этой области попросту не сможет нормально развиваться.

В сегодняшней редакции проект ЕК будет выгодным только для крупных корпораций, которых мало заботят права обычных европейцев. В нем гораздо больше внимания уделяется системам, а не человеку. Результат может быть печальный – повышение рисков, связанных с утечкой данных, потеря рабочих мест, незащищенность частной жизни.

Европейский парламент и государства-члены ЕС должны тщательно проанализировать документ и принять решение, что он нуждается в серьезной доработке. Если проект примут в его текущей форме, то это определенно можно считать победой крупных компаний и работающих на них евробюрократов.

Мнение автора может не совпадать с позицией редакции.

Ссылки по теме