Опубликован проект федерального закона об ИИ, разработанный Минцифры. На фоне европейского, корейского и американских законов российский закон выглядит гибридом китайского контентного контроля и южнокорейской инновационной риторики - но без детализации первого и экономического потенциала второй.

Что хорошего?

Российский закон не содержит ни запрещённых практик, ни классификации рисков, ни штрафов. Нет вычислительных порогов как в южнокорейском или в европейском законе. Всё это, вероятно, будет в подзаконных актах.

Обучение на любых законно доступных данных. Положение, которое делает закон прогрессивней европейского и американского, касается извлечения информации из объектов авторского права для обучения моделей (ст. 13.5). Согласно закону, это не является нарушением, если получен правомерный экземпляр или объект доведён до всеобщего сведения. Для сравнения: в США The New York Times судится с OpenAI, которые использовали их тексты для обучения. Российский текст чёткий: есть правомерный доступ - имеешь право использовать для обучения.

Льготы для ЦОДов. Статья 20 создаёт льготы для ЦОДов - преимущественное подключение к электросетям, освобождение от платы, сниженные тарифы, фиксированные цены на электроэнергию. По комплексности это лучше, чем в других странах.

Маркировка ИИ-контента. Статья 12 требует маркировки синтетического (сгенерированного ИИ) контента, что должно работать как мера против дипфейков. Владельцы сервисов размещают предупреждение в ИИ-аудио и видео. Агрегаторы с аудиторией больше 100 тыс юзеров проверяют маркировку или удаляют контент.

А что как всегда?

За флажки нельзя. Статья 7 вводит понятие «суверенных» и «национальных» моделей ИИ, объединяя их под одним определением с одинаковыми требованиями, так что это, наверное, синонимы. Эти определения в тексте несколько раз применяются к “большим фундаментальным моделям”. Разработка и обучение суверенных моделей может вестись только на территории РФ, только российскими гражданами и юрлицами, только на российских датасетах. Это жёстче, чем в любой другой стране.

Требование суверенности исключает иностранные решения по резидентству, а не по качеству. Yandex, Sber, VK получают доступ к госзакупкам независимо от качества их моделей в сравнении с OpenAI, Anthropic, Google.

Доверенные модели и их реестр. Это те, которые соответствуют требованиям, установленным этим законом, и включенные в реестр доверенных моделей. Только модели из этого реестра допускаются к применению в государственных информационных системах и на объектах КИИ (критической информационной инфраструктуры). Суверенные модели относятся к доверенным по умолчанию. Так что “доверенные” - это родительская категория. Про них - статья 8.

Традиционные ценности. Статья 4 формулирует принцип “учёта традиционных российских духовно-нравственных ценностей” при разработке моделей: патриотизм, коллективизм, приоритет духовного над материальным и т.п. Для удобства тех, кто ещё не зазубрил канонический список, он приводится тут же, больше не нужно искать его в других документах. Критерии соответствия моделей, систем, сервисов искусственного интеллекта традиционным российским духовно-нравственным ценностям будет формировать некая экспертная организация, которая будет определена Правительством.

Права граждан: красиво на бумаге. Статья 9 даёт права: информирование о применении ИИ при продаже товара (услуги) и при принятии автономного (без участия человека) решения, затрагивающего гражданина; альтернативное получение услуги без ИИ; досудебное обжалование ИИ-решений госорганов; компенсация вреда от ИИ.

Однако это всё процедурные гарантии без субстантивных прав. EU AI Act требует объяснения логики решения: не просто “вам отказано алгоритмом”, а “вот почему алгоритм так решил”. Американский Colorado AI Act - это вообще-то из области “перегибов на местах”, но тем не менее по нему разработчик обязан раскрыть разумно предсказуемые сценарии использования, известные вредные или ненадлежащие риски системы, высокоуровневое резюме обучающих данных, известные или предсказуемые риски алгоритмической дискриминации, цель системы - и это только один пункт из 4 или 5, чего ещё должен делать разработчик. Китайский закон о рекомендательных алгоритмах позволяет просматривать свой алгоритмический профиль и отключать рекомендации.

Российский текст формулирует права через уведомление и обжалование, но не даёт инструментов понять, как алгоритм принял решение. Получил отказ в кредите? Можешь обжаловать. Узнать, почему скоринг дал именно этот результат? Нет. Что касается права на альтернативный канал получения услуги – оно работает “в случаях, устанавливаемых Правительством”. Для каких услуг? В каких случаях? Какая процедура отказа? Всё это определят позже. Возможно.

Если практика отказа будет распространена на широкий круг услуг (кредитование, страхование), вырастут операционные издержки компаний.

Управление через процедуры, а не нормы. Статья 2 требует согласования любых ведомственных актов с Минцифры, ФСБ и ФСТЭК. Хочет Минздрав установить требования к ИИ в медицине? Сначала получи одобрение силовиков.

Кто под ударом: агрегаторы, бизнес, КИИ

Российские агрегаторы AI-сервисов (Jaycopilot.com и подобные) оказываются в наиболее уязвимой позиции. Они предоставляют API-доступ к иностранным моделям, выступая посредниками между российскими клиентами и OpenAI/Anthropic. Формально они российские юрлица, но технологически зависят от иностранных поставщиков и не контролируют где OpenAI и Anthropic обрабатывают запросы. Не в Сколково же.

Если агрегатор продаёт доступ госорганам или объектам КИИ - это прямое нарушение статьи 8 о доверенных моделях. ChatGPT и Claude не пройдут сертификацию ФСБ/ФСТЭК и не соответствуют “традиционным ценностям”. Контракты с госсектором придётся разорвать.

Статья 17.2 позволяет запретить “трансграничные технологии ИИ” в случаях, установленных законодательством. Эта формулировка может быть использована для блокировки агрегаторов целиком, если Правительство примет соответствующий акт. Вероятный сценарий: уход с рынка B2G (госконтракты), сохранение работы с частным бизнесом в серой зоне до момента явного запрета. Альтернатива - переключиться на российские модели (Yandex, Sber), но тогда теряется конкурентное преимущество.

Негосударственные компании-клиенты (стартапы, малый и средний бизнес вне КИИ) находятся в относительно безопасной позиции. Закон не запрещает им использовать иностранные сервисы. Статья 8 распространяется только на госсектор и КИИ. Статья 10 обязывает сами сервисы (OpenAI, Anthropic) выполнять требования локализации, но не клиентов этих сервисов. Частная компания может продолжать использовать ChatGPT через прямой доступ или через агрегаторы - юридических препятствий нет. Если компания станет поставщиком для госсектора, потребуют доверенные модели для этого конкретного контракта.

Объекты критической информационной инфраструктуры (энергетика, транспорт, связь, проч.) обязаны использовать доверенные модели с момента вступления закона в силу. Этого требует Статья 8. Нарушение - административная ответственность (когда пропишут размеры в КоАП). Если банк использует Claude или ChatGPT для внутренних процессов или клиентского сервиса - это нарушение закона, и ФСТЭК это проинспектирует. Штрафы (после принятия поправок в КоАП) могут быть существенными. Такие компании будут обязаны перейти на российские модели - Yandex GPT, GigaChat от Sber, ruGPT от VK.

Закон работает как инструмент контроля доступа к госрынку, а не как стимул для технологического развития. Он легитимирует монополию 3-5 российских вендоров на госзакупки. “Доверенность” определяется не техническими характеристиками модели, а статусом разработчика - сертификацией ФСБ/ФСТЭК, локализацией данных, соответствием модели “духовно-нравственным ценностям”.

А мне можно ChatGPT?

Закон не запрещает гражданам пользоваться иностранными сервисами напрямую. Статья 8 требует доверенных моделей в госсекторе и критической инфраструктуре. Поэтому ChatGPT и Claude исключены из госзакупок, но частные лица могут их использовать.

Американские ИИ-сервисы и сами не оказывают услуг на территории РФ, и не принимают к оплате российские карты, поэтому все их использование - только через VPN и с зарубежными Visa или Mastercard. Поэтому блокировать самозаблокировавшихся смысла нет. Хотя новые основания для этого есть: статья 10 обязывает сервисы с аудиторией больше 500,000 в день выполнять требования локализации: серверы в России, представитель в РФ, хранение данных российских пользователей на территории. OpenAI и Anthropic эти требования не выполняют, формально нарушая ФЗ-149. Поэтому Роскомнадзор может их внести в реестр запрещённых ресурсов, а провайдеры заблокировать по DNS. Но пользователи это обойдут.