Эксперт из НИЯУ МИФИ убеждён, что чиновники ЕС хотят зарегулировать всё и вся

Европейский парламент одобрил первый в мировой практике закон, регулирующий разработку и применение искусственного интеллекта. Какие последствия будет иметь это беспрецедентное решение? Новость прокомментировал главный архитектор систем искусственного интеллекта НИЯУ МИФИ Роман Душкин.

Закон классифицирует все основанные на искусственном интеллекте системы и инструменты по уровню риска, который может быть как несущественным, так и высоким. Например, он предусматривает запрет на использование систем распознавания лиц и других систем «удаленной биометрической идентификации» в режиме реального времени в общественных местах. Полиции нельзя будет пользоваться системами предиктивной аналитики для профилактики правонарушений. Закон регулирует применение генеративных нейросетей (таких как ChatGPT), а также «высокорисковых систем» –беспилотных автомобилей, медицинского оборудования.

«Еробюрократия в своем стиле – хочет зарегулировать всё и вся. Мы видим в этом законе существенные запреты на использование технологий. Конечно, каждое общество ищет баланс между свободой и безопасностью, но если человек будет умирать на улице, системы искусственного интеллекта не смогут распознать, что ему требуется помощь здесь и сейчас. На мой взгляд, это достаточно спорные решения. Еврочиновники пошли по пути давления на разработчиков искусственного интеллекта», – поделился мнением Роман Душкин.

Наш эксперт выразил надежду, что в России спорное решение Европарламента действовать не будет, так как у нас другая юрисдикция

«У нас два направления такого регулирования – с одной стороны есть мягкое смарт-регулирование в виде кодекса этики в сфере искусственного интеллекта, который подписывается разработчиками систем искусственного интеллекта и они как бы самостоятельно накладывают на себя некоторые ограничения, не позволяя себе разрабатывать системы искусственного интеллекта, которые можно использовать в «злодейских» целях; с другой стороны у нас есть достаточно серьезное техническое регулирование, государственные и национальные стандарты, которые регулируют применение технологий искусственного интеллекта для решения конкретных задач. Эти конкретные стандарты описывают методы испытания частных алгоритмов искусственного интеллекта», - объяснил эксперт.

В качестве примера такой частной задачи Роман Душкин привел систему распознания сигнала светофора. К примеру, есть беспилотный автомобиль, у которого имеется видеокамера, она «смотрит» на окружающее пространство и фиксирует сигналы светофора вокруг автомобиля. Сертифицирующая организация, которая проверяет систему управления беспилотником, дает добро на использование конкретного частного алгоритма распознания сигналов светофора, если этот алгоритм соответствует определенным характеристикам. И дает свое экспертное заключение, что такому алгоритму можно доверять.

«Не секрет, что многие технические системы несут повышенную опасность, в том числе и те, которые управляются искусственным интеллектом. И их как раз нужно сертифицировать, чтобы обществом могло им доверять. Эта сертификация должна обеспечивать качество систем. Существующие в России два направления регулирования направлены на решение двух задач: обеспечить доверие общества, государства и каждого человека к новым техническим решениям, но не зарегулировать, как это делают в Европе, бурно развивающуюся отрасль. Я уверен, что отрасль искусственного интеллекта в Европе будет развиваться с большим скрипом. Надеюсь, нас это не постигнет», – сказал Роман Душкин.