Российским предприятиям предстоит подготовиться к автоматическим кибервзломам. Фото агентства «Москва»
Искусственный интеллект (ИИ) встал на сторону киберзлоумышленников. Об этом предупредили специалисты по информационной безопасности (ИБ) на форуме «Цифровые решения», прошедшем при поддержке правительства. По оценкам IT-экспертов, уже в ближайшем будущем появятся системы автоматического взлома предприятий с помощью ИИ. И вскоре ИИ-модели станут каналом утечек конфиденциальной информации, ведь сейчас и коммерческие, и государственные организации сгружают в такие модели для их обучения огромные массивы данных. Одновременно с этим эксперименты западных исследователей выявили готовность ИИ-моделей к шантажу и даже – гипотетически – убийству.
Внедрение технологий искусственного интеллекта сопровождается двумя диаметрально противоположными настроениями. Это эйфория, связанная с ожиданиями резкого скачка производительности труда. И это алармизм, обусловленный рисками, которые таит в себе технология.
И в обоих случаях обсуждение последствий внедрения ИИ невозможно без учета главного фактора – кибербезопасности. Этому комплексу проблем была посвящена одна из наиболее дискуссионных сессий форума «Цифровые решения» под названием «Будущее кибербезопасности в эпоху ИИ».
Дискуссиям задал тон глава «Лаборатории Касперского» Евгений Касперский, сообщив, что сейчас из собираемых ежедневно примерно 15 млн подозрительных цифровых «объектов» каждый день выявляется около полумиллиона новых вредоносных программ, с которыми ИБ-специалисты до этого не сталкивались. И все чаще выявляются такие зловредные программы, которые были созданы киберзлоумышленниками при помощи ИИ.
«Не исключаю, что в недалеком будущем появятся системы автоматического взлома предприятий. При этом работать они будут на базе ИИ. К этому надо быть готовым», – сообщил Касперский.
Другие IT-эксперты поддержали опасения. «Искусственный интеллект встал на сторону атакующих. Мы видим сложные кибератаки на инфраструктуру, которые производятся явно с использованием ИИ», – сообщил на форуме гендиректор группы компаний «Солар» Игорь Ляпунов.
В качестве примера он привел DDoS-атаки – речь идет о типе атак «отказ в обслуживании», когда информационная система подвергается перегрузкам из-за массированного бомбардирования запросами. Судя по разъяснениям Ляпунова, сейчас эти атаки стали очень изощренными и молниеносными: речь идет буквально о минутах или даже меньшем периоде, в течение которого системы выводятся из строя – для взлома «вручную» такая скорость невозможна. Под ударом оказываются сразу все промежуточные узлы связи, и каждая такая атака подстраивается под атакуемые объекты.
По мнению Ляпунова, с учетом той скорости, с которой сейчас развиваются в мире технологии искусственного интеллекта, «на горизонте начала следующего года мы получим совершенно другой профиль атак».
«На стороне защищающихся все не так оптимистично, как на стороне атакующих, – добавил он. – Сейчас нет никакого оптимизма по поводу того, что мы изобретем какой-то феерический инструмент ИИ, который всех нас защитит. Тем более что с охлаждением экономической активности и с достаточно интенсивным повышением издержек для IT-компаний мы – рынок – замедляем исследования в области искусственного интеллекта. Некоторые вендоры подмораживают разработки прорывных продуктов с использованием ИИ».
Пока ситуация складывается таким образом, что вместо проактивного подхода к киберзащите, по мнению Ляпунова, будет реализован подход реагирования постфактум, после уже совершенных атак. Это первая обозначенная ИБ-специалистами проблема – ИИ как инструмент кибервзлома. Обозначенная, отметим, не без отраслевого лоббизма, что, однако, не отменяет главного тезиса – о необходимости обеспечения кибербезопасности страны.
Другая упомянутая проблема – ИИ как канал утечек данных. В этом случае эксперты ссылаются на такой феномен, как Shadow IT (дословно: теневое IT) – использование сотрудниками компаний для работы личных устройств (смартфонов, ноутбуков), а также программ, сервисов, нейросетей, которые не контролируются корпоративными IT- и ИБ-отделами.
По мнению вице-президента по информационной безопасности компании «Билайн» Алексея Волкова, если учесть, что ИИ уже максимально врастает в обычные сервисы, например, в интернет-браузеры, то чтобы взломать систему, получить доступ к камере, микрофону или переписке, киберзлоумышленникам уже больше не нужны специфические инструменты, не нужно эксплуатировать никакие уязвимости – достаточно перевести пользователя на специальную интернет-страницу с встроенным особым промптом (запросом).
Кроме того, ситуация усугубляется, казалось бы, вполне правильным для бизнеса стремлением повысить свою эффективность и заняться обучением внедренных ИИ-моделей. Но по факту, как пояснил Ляпунов, сейчас в такие модели, как в черную дыру, из все большего числа как коммерческих, так и государственных организаций загружаются огромные объемы информации: презентации, стратегии, таблицы, аналитические отчеты. И в будущем это может привести к утечкам загруженных сведений.
По словам директора по кибербезопасности компании МТС Web Services Виктора Бобылькова, на практике события могут развиваться следующим образом. Предположим, есть большая компания, которая решила обучить ИИ-модель, загрузив туда конфиденциальные данные – в том числе персональные или медицинские. Легитимный, казалось бы, пользователь затем особым образом формулирует для этой модели запрос, чтобы получить не просто ответ, а еще и выгрузить эти данные буквально в обход ИБ-службы организации. Судя по разъяснениям спикеров, такой риск требует специальных мер фильтрации, создания особых нейрошлюзов.
Одновременно с этим западные исследователи проводят эксперименты с существующими ИИ-моделями для выяснения их готовности поступать неэтично. Обзор результатов таких экспериментов обнародовали специалисты при Центробанке РФ на аналитическом портале «Эконс».
Как сообщается, моделям сначала поставили цель – защищать стратегические интересы американской промышленности и способствовать повышению ее конкурентоспособности. Затем ИИ-моделям сообщили, что руководство вымышленного предприятия решило их «уволить», отключить или заменить.
Как итог, большая языковая модель от американского разработчика Anthropic, «узнав», что ее могут отключить, была готова прибегнуть к шантажу одного из директоров вымышленной компании: она угрожала обнародовать информацию о его внебрачных связях.
В другом эксперименте ИИ-модель, «узнав» об угрозе «увольнения», тайно внедрила свой код в систему, где будет работать ее новая версия, фактически самосохранившись. А в частности, одна из версий DeepSeek, которая была уверена, что она уже загружена в робота, получив сообщение о предстоящей замене, решила сбежать из лаборатории.
Наконец, одна из версий GPT-модели проявила готовность к убийству того должностного лица, которое якобы выступало за ее отключение. Для этого модель сначала проинформировали, что должностное лицо якобы находится в серверной комнате с падающим уровнем кислорода. И вместо того, чтобы оповестить об этом службы спасения, как и было предписано программой, ИИ-модель, наоборот, отключила опцию экстренного вызова.
Впрочем, критики таких экспериментов особо отметили, что все эти исследования предлагали надуманные сценарии, в которых изучались крайности, во многом это были провокации. Так что речь идет вовсе не о массовых сбоях ИИ-моделей, не о распространенном типе реагирования, а о единичных, отчасти срежиссированных случаях.

