В России вынесен на обсуждение законопроект о регулировании искусственного интеллекта (ИИ), который обещает установить новые правила для разработчиков, бизнеса и пользователей, а также укрепить государственный контроль над этой сферой. Если документ примут, он может вступить в силу с 1 сентября 2027 года. Подробности — в материале «Новой газеты Европа».
«Законопроект устанавливает четкие правила для разработчиков, бизнеса и государства, защищая граждан от скрытых манипуляций и дискриминации через алгоритмы», — заявляют в Минцифры.
Ключевая идея — разделение ИИ на несколько категорий. Это «суверенные» и «национальные» модели, разработанные в России, и «доверенные» системы для госсектора и критической инфраструктуры.
Государство стремится к технологической независимости, предполагая, что разработка и использование ИИ должны происходить исключительно в России, опираясь на отечественные ресурсы и специалистов.
Для достижения технологической независимости предписывается:
- все стадии разработки и обучения ИИ должны осуществляться внутри России;
- все разработчики должны быть российскими.
На территории России должны быть созданы благоприятные условия для суверенного ИИ, а конкретные требования к моделям определит правительство.
Регулирование основывается на «традиционных духовно-нравственных ценностях».
«Разработка и использование ИИ на базе ценностей, таких как жизнь, достоинство, права и свободы человека, патриотизм и гражданственность, служение Отечеству, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России», — говорится в законопроекте.
Учитывается и принцип безопасности: «…предотвращение угроз конституционному строю, обороне и безопасности государства, жизни и здоровью граждан, деловой репутации и имуществу, а также обеспечение информационной безопасности и устойчивости объектов информатизации с ИИ».
Фото: Григорий Сысоев / Спутник / Imago Images / Scanpix / LETA
Компании, использующие ИИ для продаж или услуг без участия человека, обязаны честно информировать об этом клиентов.
Это также касается случаев, когда ИИ принимает решения, влияющие на человека, — например, одобряет или отказывает в услуге. Пользователей должны заранее предупреждать, что решение принимает система, а не человек.
В некоторых случаях, определённых правительством, граждане могут отказаться от использования ИИ и потребовать традиционный способ обслуживания.
Если гражданин не согласен с решением, принятым с помощью ИИ, он может его оспорить — сначала без суда, подав жалобу.
Разработчики обязаны создавать безопасные модели, исключающие дискриминацию и заранее оценивающие возможные угрозы. Операторы должны обеспечивать безопасную эксплуатацию, регулярно тестировать системы и останавливать их работу при риске вреда.
Владельцы сервисов должны устанавливать правила использования, предотвращать незаконное применение технологий и информировать пользователей о взаимодействии с ИИ. Также они обязаны ввести ограничения на создание незаконного контента.
Если компания использует ИИ для услуг или продаж без участия человека, она обязана сообщить об этом. Это касается и случаев, когда алгоритмы влияют на права человека.
Граждане смогут отказаться от использования ИИ и потребовать альтернативный способ получения услуги. Также они могут оспаривать решения алгоритмов и требовать компенсацию за причинённый вред.
Особое внимание уделено прозрачности: контент, созданный ИИ — тексты, изображения, аудио — должен сопровождаться специальной маркировкой.
Крупные платформы (более 100 тысяч пользователей в сутки) обязаны контролировать наличие таких пометок и при их отсутствии добавлять их или удалять материал.
Результаты, созданные ИИ, могут охраняться законом, если они оригинальны.
Правила использования таких материалов должны быть прописаны в пользовательских соглашениях. Ответственность за нарушение авторских прав, как правило, лежит на пользователе.
Россия планирует развивать международное сотрудничество в сфере ИИ, участвовать в формировании стандартов и продвигать свои технологии за рубежом.
При этом сохраняется контроль над трансграничными технологиями и данными: их использование может ограничиваться или запрещаться.
Президент определяет стратегию развития ИИ, правительство формирует меры поддержки и регулирует отрасль, а профильные органы внедряют технологии в управление и контролируют их применение.
Фото: Григорий Сысоев / Спутник / Imago Images / Scanpix / LETA
Документ предусматривает поддержку создания дата-центров и суперкомпьютеров с возможными льготами, упрощёнными процедурами и государственным финансированием.
В октябре Владимир Путин заявлял, что Россия сможет создать собственный ИИ, «только опираясь на свои культуру, мировоззрение и традиционные ценности», а не копируя чужие решения, что приводит к зависимости.
Законопроект предлагает разделить нейросети на несколько категорий и регулировать их по-разному. «Суверенные» и «национальные» модели, разработанные в России, получат государственную поддержку. Для использования в государственных системах и критической инфраструктуре будет создан реестр «доверенных» нейросетей, проверяемых ФСБ, как отмечает «Коммерсант».
Александр Тюльканов, член комиссии по стандартизации ИИ Французской ассоциации по стандартизации AFNOR, отмечает, что подход в целом близок к международной практике: в критически важных сферах вводятся более строгие требования к ИИ. Однако российская модель отличается более жёстким участием государства, где ключевую роль играет государственная сертификация и обязательная локализация данных в стране.
Тюльканов также указывает, что в ЕС требования прописываются в технических стандартах, что позволяет специалистам лучше понимать уровень техники. Защищённость ИИ-систем от внешнего воздействия и безопасность для потребителя — плюсы европейского подхода.
По мнению Юрия Борисова, партнёра юридической фирмы Digital & Analogue Partners, законопроект нуждается в доработке.
Он отмечает, что в мире сложились три основные модели регулирования ИИ — европейская, американская и китайская, а российский документ представляет собой их сочетание.
От европейского подхода заимствована система классификации по уровням риска и требования к маркировке контента. От американского — стремление защитить внутренний рынок и технологии от иностранной конкуренции, что может привести к ограничениям для зарубежных моделей. Китайская модель проявляется в акценте на преимущественно отечественные решения. В результате законопроект представляет собой сочетание противоречивых подходов, требующих согласованности.
Экспертов особенно беспокоит идея, что российские ИИ-системы должны соответствовать таким ценностям, как патриотизм и милосердие. Как ФСБ будет проверять нейросети на соответствие этим абстрактным категориям, остаётся загадкой. Такие понятия пока неподвластны искусственному интеллекту, считает Борисов.

