быть осведомлен о том, что взаимодействует не с человеком, а с роботом. Компании с высоким уровнем риска по ИИ должны будут подчиняться правилам, среди которых, например, такие:
• внедрение системы управления рисками;
• контроль управления данными;
• техническая документация;
• надзор человека за работой ИИ;
• транспарентность и доступность информации для пользователей;
• кибербезопасность;
• аудит кибербезопасности;
• регистрация в одной из стран ЕС;
Оценка комплаенса основных моделей ИИ с проектом закона ЕС об искусственном интеллекте
• контроль отдаленных последствий.
Нарушения правил повлечет штрафы до €30 млн или 6 % глобальной выручки.
Ученые из Стэнфордского центра Hai (Human-Centered AI) проанализировали действующие модели ИИ с точки зрения их соответствия новым правилам ЕС. Почти половина из них не дотянула и до 24 баллов по 48-балльной шкале[27].
Исследовательская компания Gartner выделила в отдельный тренд 2023 года системы управления рисками в сфере ИИ (AI Trust, Risk and Security Management – AI TRiSM). В качестве примера этического контроля ИИ Gartner приводит Датское управление бизнеса (DBA), которое выработало специальные методы. DBA устанавливает системы мониторинга, а также конкретными действиями проверяет справедливость аналитики ИИ. С помощью этого подхода уже контролируется 16 моделей ИИ, которые применяются в финтехе с совокупным объемом транзакций в миллиарды долларов[28].
В России законодательства в сфере ИИ не существует. По мнению руководителя практики по авторскому праву компании DRC Владимира Ожерельева, в нашей стране регулирование ИИ, скорее всего, пойдет по пути централизации управления нейросетями в руках государства и крупных корпораций. «Мы наблюдаем это как минимум в последних изменениях норм об обработке биометрических данных. Примеры злоупотреблений в сфере распознавания лиц уже заметны», – говорит он[29].
В 2021 году в России был принят Кодекс этики в сфере искусственного интеллекта[30], который, правда, не является обязательным. Ряд компаний, например «Сбер», имеют собственные этические нормы для систем ИИ (см. врез ниже)[31].
7 августа 2023 Конгресс США принял законопроект об ИИ, который обяжет компании бигтеха делиться датасетами с научными коллективами и стартапами, занимающимися созданием интеллектуальных систем. Законопроект исходит из того, что сейчас финансовые ресурсы, необходимые для сбора, хранения и управления массивами из петабайтов информации, есть только у ИТ-гигантов. Если доступ к этим массивам будет и у научного и предпринимательского сообщества, ИИ-разработки ускорятся[32].
В мае 2023 года HBR опубликовал подборку статей ведущих профессоров разных дисциплин – от истории до сomputer science – на тему этичности систем ИИ. Их выводы пессимистичны: