0
407
Газета Экономика Интернет-версия

31.10.2025 18:09:00

Китай модернизировал подходы к безопасности искусственного интеллекта

Тэги: сбер, ии, китай, технологии, кибербезопасность


сбер, ии, китай, технологии, кибербезопасность Иллюстрация Pixabay.com

В конце сентября в Китае прошла Национальная неделя кибербезопасности, включавшая форум высшего уровня о передовых технологиях в сфере защиты цифровой среды и крупную выставку по кибербезопасности. В рамках мероприятия была представлена вторая версия «Рамочной структуры управления безопасностью искусственного интеллекта» (AI Safety Governance Framework 2.0).

Главная цель документа, разработанного под эгидой Управления по вопросам киберпространства Китая совместно с научными институтами и компаниями, – создание общей основы для управления рисками, связанными с искусственным интеллектом (ИИ), а также содействие международному сотрудничеству в этой сфере. Новая версия базируется на версии 1.0, опубликованной в сентябре 2024 года, но учитывает стремительное развитие технологий ИИ за прошедшее время и служит ответом на новые возможности и вызовы в этой сфере.

Документ совершенствует классификацию и градацию рисков ИИ. Так, вводятся пять уровней: минимальный, ограниченный, значительный, серьезный и критический уровни, что позволяет более точно определить необходимость регулирования в каждом конкретном случае.

Выделяются несколько типов рисков ИИ. Внутренние риски ИИ связаны с самой технологией искусственного интеллекта, включая нестабильность, предвзятость, уязвимости к атакам и проблемы с прозрачностью решений. Риски применения этой технологии возникают при интеграции ИИ в системы – имеется в виду некорректное использование, недостаточное управление доступом, отсутствие должного контроля человека и несоответствие культуре организации. Упомянуты также производные риски от применения ИИ – в том числе такие косвенные социальные и экологические последствия, как нарушение структуры занятости и высокое потребление ресурсов – энергии, воды.

В документе также формулируются базовые принципы управления безопасностью искусственного интеллекта. Среди них – инклюзивность и осмотрительность, гибкое управление на основе рисков, интеграция технологий и управления, открытость и сотрудничество, надежное применение и предотвращение потери контроля. Кроме того, закрепляется обязательный непрерывный мониторинг новых рисков и подчеркивается необходимость многостороннего и трансграничного сотрудничества в сфере ИИ-безопасности.

Нововведения отражают реакцию на новые риски, вызванные стремительной эволюцией ИИ, и подчеркивают наиболее сложные проблемы управления технологией в настоящее время, пояснил вице-президент Института исследований технологий и стратегий Чэнь Цзин. Главным отличием второй версии документа, по его словам, является переход от «статического соблюдения» к «динамическому управлению». Это представляет собой существенный сдвиг в управленческом мышлении в данной области.

Китайский подход отличается от модели Европейского Союза, который выбрал более жесткий, юридически обязательный EU AI Act, и США, практикующих более децентрализованный подход. Китайская рамочная программа занимает скорее промежуточную позицию.

Весь мир сегодня ищет различные пути регулирования технологий ИИ и обеспечения их безопасного развития, констатирует генеральный секретарь Международного альянса искусственного интеллекта (AI Alliance Network) Андрей Незнамов. Комментируя китайскую рамочную программу по регулированию безопасности ИИ, он отмечает, что ее цель – показать безопасность китайских разработок и задать свои стандарты проверки моделей на безопасность в качестве универсальных. «Однако стоит отметить, что информации о применении этой модели оценок рисков крайне мало, а имеющаяся информация пока доступна в основном на китайском языке», – добавил эксперт.

«Внимание к вопросам регулирования и обеспечения безопасности разработок важно и для России, как и в продвижении отечественных ИИ-решений, включая большие языковые модели, – подчеркнул Андрей Незнамов. – Регулирование должно учитывать развитие технологий в стране и не вводить барьеры, которые задавят индустрию. Вопросы безопасности ИИ, в частности, предусмотрены Кодексом этики в сфере ИИ, Декларацией об ответственном генеративном ИИ и другими документами. Активные участники принятия и развития таких документов – многие российские технологические компании, включая Сбер».


Читайте также


Промышленный рост на новых территориях ускорят особыми льготами

Промышленный рост на новых территориях ускорят особыми льготами

Ольга Соловьева

Правительство определило объемы бюджетной поддержки Крыма и Новороссии

0
1113
Талибы предупредили об угрозе нападений на посольства России и Китая

Талибы предупредили об угрозе нападений на посольства России и Китая

Андрей Серенко

Маскировка под союзников правительства в Кабуле позволяет террористам передвигаться по Афганистану и приобретать оружие

0
1829
Грузии предложили отказаться от вступления в ЕС

Грузии предложили отказаться от вступления в ЕС

Игорь Селезнёв

Новая партия считает, что страна должна взять курс на нейтралитет

0
1709
Фонарщик Андрей зажигает огни

Фонарщик Андрей зажигает огни

Светлана Хохрякова

О том, что скрывается за фасадом одной городской экскурсии

0
830

Другие новости