 Иллюстрация Pixabay.com
				
									
						 
						Иллюстрация Pixabay.com					
									
В конце сентября в Китае прошла Национальная неделя кибербезопасности, включавшая форум высшего уровня о передовых технологиях в сфере защиты цифровой среды и крупную выставку по кибербезопасности. В рамках мероприятия была представлена вторая версия «Рамочной структуры управления безопасностью искусственного интеллекта» (AI Safety Governance Framework 2.0).
Главная цель документа, разработанного под эгидой Управления по вопросам киберпространства Китая совместно с научными институтами и компаниями, – создание общей основы для управления рисками, связанными с искусственным интеллектом (ИИ), а также содействие международному сотрудничеству в этой сфере. Новая версия базируется на версии 1.0, опубликованной в сентябре 2024 года, но учитывает стремительное развитие технологий ИИ за прошедшее время и служит ответом на новые возможности и вызовы в этой сфере.
Документ совершенствует классификацию и градацию рисков ИИ. Так, вводятся пять уровней: минимальный, ограниченный, значительный, серьезный и критический уровни, что позволяет более точно определить необходимость регулирования в каждом конкретном случае.
Выделяются несколько типов рисков ИИ. Внутренние риски ИИ связаны с самой технологией искусственного интеллекта, включая нестабильность, предвзятость, уязвимости к атакам и проблемы с прозрачностью решений. Риски применения этой технологии возникают при интеграции ИИ в системы – имеется в виду некорректное использование, недостаточное управление доступом, отсутствие должного контроля человека и несоответствие культуре организации. Упомянуты также производные риски от применения ИИ – в том числе такие косвенные социальные и экологические последствия, как нарушение структуры занятости и высокое потребление ресурсов – энергии, воды.
В документе также формулируются базовые принципы управления безопасностью искусственного интеллекта. Среди них – инклюзивность и осмотрительность, гибкое управление на основе рисков, интеграция технологий и управления, открытость и сотрудничество, надежное применение и предотвращение потери контроля. Кроме того, закрепляется обязательный непрерывный мониторинг новых рисков и подчеркивается необходимость многостороннего и трансграничного сотрудничества в сфере ИИ-безопасности.
Нововведения отражают реакцию на новые риски, вызванные стремительной эволюцией ИИ, и подчеркивают наиболее сложные проблемы управления технологией в настоящее время, пояснил вице-президент Института исследований технологий и стратегий Чэнь Цзин. Главным отличием второй версии документа, по его словам, является переход от «статического соблюдения» к «динамическому управлению». Это представляет собой существенный сдвиг в управленческом мышлении в данной области.
Китайский подход отличается от модели Европейского Союза, который выбрал более жесткий, юридически обязательный EU AI Act, и США, практикующих более децентрализованный подход. Китайская рамочная программа занимает скорее промежуточную позицию.
Весь мир сегодня ищет различные пути регулирования технологий ИИ и обеспечения их безопасного развития, констатирует генеральный секретарь Международного альянса искусственного интеллекта (AI Alliance Network) Андрей Незнамов. Комментируя китайскую рамочную программу по регулированию безопасности ИИ, он отмечает, что ее цель – показать безопасность китайских разработок и задать свои стандарты проверки моделей на безопасность в качестве универсальных. «Однако стоит отметить, что информации о применении этой модели оценок рисков крайне мало, а имеющаяся информация пока доступна в основном на китайском языке», – добавил эксперт.
«Внимание к вопросам регулирования и обеспечения безопасности разработок важно и для России, как и в продвижении отечественных ИИ-решений, включая большие языковые модели, – подчеркнул Андрей Незнамов. – Регулирование должно учитывать развитие технологий в стране и не вводить барьеры, которые задавят индустрию. Вопросы безопасности ИИ, в частности, предусмотрены Кодексом этики в сфере ИИ, Декларацией об ответственном генеративном ИИ и другими документами. Активные участники принятия и развития таких документов – многие российские технологические компании, включая Сбер».


 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
                                                 
		 Андрей Гусейнов
						 Андрей Гусейнов						 					 
						 
						 
						