Минимизация будущих рисков ИИ:
регулирование на службе инноваций, прав человека и социального прогресса
Каким образом можно регулировать ИИ так, чтобы он способствовал инновациям и был конкурентоспособен, чтобы связанные с ним риски были минимизированы, чтобы он защищал фундаментальные права человека, чтобы он способствовал социальному прогрессу? Чтобы разобраться с этими важнейшими вопросами о будущем ИИ-технологий, 14 июня Европейский Союз утвердил AI Act (закон, который будет регулировать развитие систем ИИ).
Ключевая задача — установить всестороннюю, рассчитанную на минимизацию рисков европейскую правовую рамку этических принципов развития, внедрения и использования ИИ. Она распространяется не только на Европу, но и на весь мир, а также повсеместно определяет роль ИИ-приложений, их развитие и использование. Однако ИИ даже сейчас по-прежнему не существует в правовом вакууме. Мы не начинаем с нуля: многие законы, положения, стандарты и рекомендации можно применить к ИИ-системам, их продуктам и результатам. Важно как работать над понимаем и интеграцией всех существующих норм, связанных с ИИ, так и вводить новые формы регулирования. В то же время слишком узкое понимание того, что представляет из себя ИИ, не поспособствует росту общественного доверия к таким системам. С точки зрения тех, кого коснулись технологии (особенно в ходе ошибочного автоматизированного принятия решений), неважно, было ли решение принято сложноустроенным алгоритмом или простой электронной таблицей: если была допущена ошибка, то она должна быть исправлена и неважно, был ли замешан ИИ или нет.
Потенциальное влияние ИИ на общество огромно: как в положительном, так и в отрицательном смысле. Особенно важно обращать внимание на такие этические последствия использования ИИ, как:
- Отсутствие прозрачности инструментов ИИ: решения ИИ не всегда возможно разобрать людям.
- Ценностное мировоззрение: ИИ не абсолютно нейтрален, и потому его решения подвержены неточностям, дискриминирующим результатам, заложенным и привнесенным предубеждениям.
- Коммодификация: мы и наше общество — больше, чем данные, доступные о нас, в то же время сбор этих данных вызывает опасения о конфиденциальности пользователей.
- Дисбаланс власти над программой: способность внедрять и получать преимущество от больших алгоритмов ИИ все больше и больше концентрируется в руках нескольких (обычно частных) организаций. Это приводит к проблемам усложнения демократической подотчетности и усугублению социальных и экономических разрывов.
Большинство заинтересованных игроков согласны с необходимостью появления форм регулирования ИИ и контроля цифрового технологического поля. Законотворческая активность должна учитывать и текущие возможности ИИ, и перспективы развития, особенно это касается генеративных и многофункциональных моделей, которые могут применяться в различных отраслях с разными рисками. Например, риски использования таких систем для анализа газетных статей отличаются от рисков, когда подобная технология дает медицинские рекомендации. Регуляторные процессы должны отслеживать эти разработки, чтобы ответственно направлять дальнейшие исследования и инновации, а не замедлять новые разработки.
При попытке сбалансировать научный прогресс, этические соображения и минимизацию вреда можно вынести важные уроки из существующих правовых норм, касающихся генетических экспериментов. Особенно важно рассмотреть последствия для законодательства об ИИ, на примере исследования о регулировании генетических технологий (опубликовано Комиссией ЕС в 2021), Это исследование показало, что если законодательство не успевает за научными разработками, то это может вызвать проблемы при внедрении исследований и правовую неопределённость.
Конкретные шаги (технические, организационные и правовые) сейчас особенно необходимы, чтобы гарантировать продолжение эволюции инноваций и научных разработок, работать в соответствии с правами человека и общественными ценностями, а не становиться препятствием на пути процесса развития. Ко всему прочему, эффективное правовое регулирование ИИ должно включать в себя международную кооперацию и координацию из-за транснациональной природы исследований в этой сфере, потенциально огромного социального и экологического эффекта, а также геополитических стратегий. В случае генетических технологий Картахенский протокол о биобезопасности нацелен на установление общих рекомендаций и профилактических процедур. В сравнении с ним глобальная координация, направленная на регуляцию ИИ, менее оформлена, однако текущие дискуссии и инициативы нацелены на продвижения международного сотрудничества в это сфере; их поддерживает ЮНЕСКО, Организация Международного Сотрудничества и Развития и Глобальное Партнерство по Искусственному Интеллекту.
В противовес современным нарративам об экзистенциальной угрозе стоит заметить, что контроль за ИИ не потерян, но мы теряем контроль над теми, кто его разрабатывает и использует в корыстных интересах. Однако требования ответственности и подотчетности от организаций, которые разрабатывают и внедряют ИИ, должны сопровождаться конкретными шагами в государственной политике, как на национальном, так и на глобальном уровне. Нужны не только прекрасные лозунги о принципах, которые должен соблюдать ИИ, но и конкретные решения. Например, необходимы требования и предварительные условия, увеличивающие доступность подобных систем: технические характеристики, относящиеся к прозрачности и объяснимости алгоритмов; правила аудита организаций, внедряющих эти алгоритмы; а также, возможно, подтверждение экспертизы тех, кто их использует. Как, например, мы не позволяем фармацевтическим компаниям выпускать медикаменты без множества предварительных тестов или не позволяем водить автомобили без надлежащих документов.
Критически важно не стать заложниками дискурса «гонки вооружений», который подразумевает конечную финишную черту — единственное возможное направление — с четко определимыми победителями и проигравшими. Такое мышление подрывает систематические и длительные научные исследования и разработки, необходимые для выявления последствий, улучшения технологий ИИ и их использования, а также оттачивания официального регулирования. Главная задача регулирования на этом шаге — стимулировать такие исследования. Ответственные инновации, фокус на сохранении устойчивости системы и фундаментальных человеческих прав должны служить основой любого регулирования. Как исследовательские инновации привели к высоким стандартам в разных секторах, от зеленой энергетики до принципов справедливой торговли и LED освещения, так и подобные инновации должны продемонстрировать ответственные, устойчивые и заслуживающие доверия альтернативы текущим разработкам ИИ.
Вместо того, чтобы рассматривать правовое регулирование как нечто сковывающее инновации, мы должны воспринимать его в рамках значительного шага вперед для дальнейших инноваций. Подобно маяку, регулирование будет сигналом для будущих исследовательских амбиций.