Фото reuters
Последние три месяца оказались богаты на новости, связанные с активностью президента РФ, правительства и законодателей в области развития/регулирования систем искусственного интеллекта (ИИ).
26 февраля Владимир Путин своим указом образовал комиссию при президенте РФ по вопросам развития технологий ИИ. Сопредседатели комиссии – вице-премьер, глава аппарата правительства Дмитрий Григоренко и замруководителя администрации президента Максим Орешкин.
10 марта на заседании созданной правительственной подкомиссии по развитию и внедрению технологий ИИ Дмитрий Григоренко, ставший ее руководителем, заявил, что на региональном уровне также создаются аналогичные межведомственные штабы. «Таким образом, сформирована трехуровневая единая система взаимодействия органов власти для развития искусственного интеллекта в России», – отметил Григоренко.
25 марта премьер-министр РФ Михаил Мишустин поручил Минцифры в весеннюю сессию внести в Госдуму законопроект, касающийся развития и внедрения ИИ.
Повышенная активность в области развития систем ИИ, несомненно, сверхактуальна. Возможно, мы даже задержались с принятием политических и управленческих решений в этом вопросе.
Так, летом 2025 года в США принят План развития индустрии ИИ. Пафос и цель этого документа – «неоспоримое и неоспариваемое глобальное технологическое доминирование» в сфере ИИ как задача национальной безопасности. По мнению американских аналитиков, тот, кто будет обладать наиболее развитой ИИ-экосистемой, тот будет устанавливать глобальные стандарты ИИ и получит подавляющее экономическое и военное преимущество.
Вот и президент Путин 10 апреля, выступая на совещании по развитию ИИ, поручил правительству совместно с регионами разработать национальный план внедрения ИИ к 2030 году. «Россия рискует отстать в сфере искусственного интеллекта, если будет создавать барьеры в этой области», – подчеркнул президент. Особый акцент – на разработку суверенных фундаментальных моделей ИИ, которые должны быть конкурентоспособны глобально, при этом регулирование должно стимулировать, а не тормозить прогресс.
Однако уже 13 апреля заместитель министра цифрового развития РФ Александр Шойтов на форуме «ИИ: режим доверия» подчеркнул, что ИИ в отличие от граждан должен подвергаться цензуре «на входе и на выходе», чтобы запрещать определенные запросы и ответы, с обязательным государственным контролем.
Вряд ли это высказывание замглавы Минцифры можно расценивать как «бунт на корабле». Возможно, это просто обычная несогласованность, свойственная большим бюрократическим системам. Или прорыв индивидуального подсознательного – именно так видится решение проблемы безопасного ИИ.
Как бы там ни было, проблема безопасного ИИ, безусловно, существует. Но вот подходы к обеспечению этой безопасности могут быть разные. У США – «глобальное технологическое доминирование»; у нас – «суверенные фундаментальные модели» (при этом – глобально конкурентоспособные, sic!). Что окажется эффективнее – об этом можно спорить. Пока же стартовая позиция России такова. Плотность роботизации (количество роботов на 10 тыс. работников): Южная Корея – 1220 (страна-лидер). Средний уровень по миру – 162, по ЕС – 219. В 2024 году в России плотность роботизации выросла до 29,5 робота против 18,9 годом ранее. По предварительным оценкам, в 2025 году показатель, возможно, достиг около 40.
Еще один спорный тезис из заявления Шойтова: «Людей у нас цензурировать нельзя, у них есть права в отличие от ИИ». Вот это как раз один из самых остродискуссионных и самых запутанных вопросов. Речь идет о правовой идентификации ИИ. Можно предположить, что скорее всего в России к регулированию систем ИИ подход будет как к регулированию производства и применения какого-нибудь гаджета.
Показательны в этом отношении предложения ректора Московской академии Следственного комитета Алексея Бессонова. В журнале «Вестник РАН» он пишет: «…создать государственный репозиторий для хранения всех кодов компьютерных программ, представляющих собой ИИ, использование которых разрешено на территории страны. При этом информация с кодом компьютерной программы для сферы обеспечения национальной безопасности должна быть отнесена к сведениям, составляющим государственную тайну»; «…сформировать реестр владельцев и пользователей роботов с ИИ».
Получается, что ИИ фактически станет «неподсудным». По крайней мере в обозримом будущем. Подсудными скорее всего станут создатели ИИ. Хотя и здесь непонятно, кого считать таковыми. (В пределе – это какие-нибудь академические математики.)
Как справится – и справится ли – со всем этим клубком технологических, правовых и философских противоречий «трехуровневая единая система», созданная в РФ, интересно и важно будет наблюдать.

