Два аналитических текста об экспортном потенциале российского ИИ складываются в интересную дискуссию о том, что составляет его “доверенность”.

Футурологический центр Mindsmith опубликовал обстоятельную аналитическую записку о юридических рисках западных моделей ИИ, связанных с тем, что они построены на пиратских данных (придет хозяин данных и всех засудит). В ней высказывается идея о том, что предварительно обученные в России на юридически чистых государственных датасетах мультиязыковые модели имеют конкурентное преимущество, и их можно продавать за границу с дообучением под заказчика. В качестве потенциальных рынков называется Индия, Эмираты, Саудовская Аравия, Бразилия.

Glebsmith возражает: головная боль заказчиков из глобального Юга, в отличие от Севера, – не юридическая чистота обучающей выборки, а идеологически и культурно выверенный контент, который выдает обученная модель. Поэтому саудиты вложили $23 млрд в модель, «соответствующую исламским ценностям», а не в очищенный копирайт. И в этом смысле конкурентное преимущество России – в “государственного масштаба практике нелиберальной модерации контента”, а экспортный продукт - кастомизация ИИ под систему культурных, политических и прочих запретов заказчика.

Если в словах Glebsmith содержится не только горький сарказм по поводу “экспорта цензуры” как российской бизнес-модели, то уместно выразить определенные сомнения в том, что государство-покупатель станет делегировать fine-tuning модели иностранному исполнителю. Там, где государство одновременно выступает разработчиком, владельцем данных и регулятором, кроется подвох. Это нерешённая архитектурная проблема концепции «доверенного ИИ», которую при экспорте не закрывает ни юридически чистый датасет, ни настраиваемый ценностный фильтр.

Возьмем для примера, как водится, Китай. Там разработчики рекомендательных систем функционируют в среде, где государство является одновременно акционером и прямым заказчиком систем контентной модерации. Независимая проверка таких компаний структурно невозможна: аудитор и бенефициар аудита институционально совпадают, и все проверки эти платформы проходят на «ура». На внутреннем рынке это не изъян, а особенность. Проблема возникает при экспорте: совмещение ролей разработчика, владельца данных и регулятора подрывает доверие к продукту. Именно поэтому Индия отказалась от китайских телекоммуникационных систем Huawei, не предъявив технических доказательств закладок: достаточно было институциональной невозможности их исключить. “Сегодня никто в мире не умеет математически доказывать, что в большой нейросети нет закладок”, - цитирует Mindsmith спеца по безоапсности.

Хорошо продаваться будет не столько (1) правовое соответствие данных и (2) политическая нейтральность модели (а покупатель уж сам заточит ее под нужный режим ограничений - дайте ему только “ручки”), сколько (3) верифицируемое доверие к экспортируемой модели. Это требует институционального субъекта, независимого от производителя, с реальными полномочиями и технической экспертизой. В отсутствие такого субъекта — международного стандарта аудита, независимого сертификационного органа, открытых весов — любой «сертификат доверенности» является административной процедурой, а не технической гарантией. Именно этот субъект структурно отсутствует в нынешней дискуссии о «доверенном ИИ» — и его создание является более срочной задачей, чем разработка самих экспортных продуктов.

#AI_governance