0
5037
Газета Экономика Интернет-версия

31.10.2025 18:09:00

Китай модернизировал подходы к безопасности искусственного интеллекта

Тэги: сбер, ии, китай, технологии, кибербезопасность


сбер, ии, китай, технологии, кибербезопасность Иллюстрация Pixabay.com

В конце сентября в Китае прошла Национальная неделя кибербезопасности, включавшая форум высшего уровня о передовых технологиях в сфере защиты цифровой среды и крупную выставку по кибербезопасности. В рамках мероприятия была представлена вторая версия «Рамочной структуры управления безопасностью искусственного интеллекта» (AI Safety Governance Framework 2.0).

Главная цель документа, разработанного под эгидой Управления по вопросам киберпространства Китая совместно с научными институтами и компаниями, – создание общей основы для управления рисками, связанными с искусственным интеллектом (ИИ), а также содействие международному сотрудничеству в этой сфере. Новая версия базируется на версии 1.0, опубликованной в сентябре 2024 года, но учитывает стремительное развитие технологий ИИ за прошедшее время и служит ответом на новые возможности и вызовы в этой сфере.

Документ совершенствует классификацию и градацию рисков ИИ. Так, вводятся пять уровней: минимальный, ограниченный, значительный, серьезный и критический уровни, что позволяет более точно определить необходимость регулирования в каждом конкретном случае.

Выделяются несколько типов рисков ИИ. Внутренние риски ИИ связаны с самой технологией искусственного интеллекта, включая нестабильность, предвзятость, уязвимости к атакам и проблемы с прозрачностью решений. Риски применения этой технологии возникают при интеграции ИИ в системы – имеется в виду некорректное использование, недостаточное управление доступом, отсутствие должного контроля человека и несоответствие культуре организации. Упомянуты также производные риски от применения ИИ – в том числе такие косвенные социальные и экологические последствия, как нарушение структуры занятости и высокое потребление ресурсов – энергии, воды.

В документе также формулируются базовые принципы управления безопасностью искусственного интеллекта. Среди них – инклюзивность и осмотрительность, гибкое управление на основе рисков, интеграция технологий и управления, открытость и сотрудничество, надежное применение и предотвращение потери контроля. Кроме того, закрепляется обязательный непрерывный мониторинг новых рисков и подчеркивается необходимость многостороннего и трансграничного сотрудничества в сфере ИИ-безопасности.

Нововведения отражают реакцию на новые риски, вызванные стремительной эволюцией ИИ, и подчеркивают наиболее сложные проблемы управления технологией в настоящее время, пояснил вице-президент Института исследований технологий и стратегий Чэнь Цзин. Главным отличием второй версии документа, по его словам, является переход от «статического соблюдения» к «динамическому управлению». Это представляет собой существенный сдвиг в управленческом мышлении в данной области.

Китайский подход отличается от модели Европейского Союза, который выбрал более жесткий, юридически обязательный EU AI Act, и США, практикующих более децентрализованный подход. Китайская рамочная программа занимает скорее промежуточную позицию.

Весь мир сегодня ищет различные пути регулирования технологий ИИ и обеспечения их безопасного развития, констатирует генеральный секретарь Международного альянса искусственного интеллекта (AI Alliance Network) Андрей Незнамов. Комментируя китайскую рамочную программу по регулированию безопасности ИИ, он отмечает, что ее цель – показать безопасность китайских разработок и задать свои стандарты проверки моделей на безопасность в качестве универсальных. «Однако стоит отметить, что информации о применении этой модели оценок рисков крайне мало, а имеющаяся информация пока доступна в основном на китайском языке», – добавил эксперт.

«Внимание к вопросам регулирования и обеспечения безопасности разработок важно и для России, как и в продвижении отечественных ИИ-решений, включая большие языковые модели, – подчеркнул Андрей Незнамов. – Регулирование должно учитывать развитие технологий в стране и не вводить барьеры, которые задавят индустрию. Вопросы безопасности ИИ, в частности, предусмотрены Кодексом этики в сфере ИИ, Декларацией об ответственном генеративном ИИ и другими документами. Активные участники принятия и развития таких документов – многие российские технологические компании, включая Сбер».


Читайте также


Сеул с согласия Вашингтона создаст атомный подводный флот

Сеул с согласия Вашингтона создаст атомный подводный флот

Владимир Скосырев

КНДР предупреждает, что субмарины Южной Кореи неизбежно спровоцируют гонку вооружений

0
565
Вице-канцлер ФРГ призвал КНР к посредничеству по Украине

Вице-канцлер ФРГ призвал КНР к посредничеству по Украине

Олег Никифоров

Немецкие социал-демократы пытаются проводить самостоятельную внешнюю политику

0
547
ХАМАС встал на пути американского плана по Газе

ХАМАС встал на пути американского плана по Газе

Игорь Субботин

Боевики отказались следовать новой резолюции Совбеза ООН

0
653
Семейная ипотека становится инструментом социальной инженерии

Семейная ипотека становится инструментом социальной инженерии

Виктор Зубик

Популярная у граждан программа утрачивает черты простой финансовой льготы

0
427

Другие новости