Премьер-министр Швеции Ульф Кристерссон считает, что помощи человека для принятия решений ему недостаточно. ото Reuters
Шведский премьер-министр Ульф Кристерссон признался, что регулярно использует искусственный интеллект (ИИ), для того чтобы получить «второе мнение». В интервью шведской газете Dagens Industri он сказал, что, обращаясь к ChatGPT и французской нейросети LeChat, он может получить ответы на некоторые вопросы. Например, как в тех или иных ситуациях поступали другие люди. Исходя из этого шведский премьер предпочитает выбрать свою стратегию. И все бы ничего, используй Кристерссон нейросети для решения личных проблем, но они стали его помощником и в принятии политических решений. При этом в шведском правительстве к нейтросетям прибегает не только премьер – Кристерссон сказал, что его коллеги тоже используют ИИ. За это глава правительства ожидаемо столкнулся с волной критики, пока в основном от СМИ и ученых.
В условиях, когда спросить совета у ИИ становится все более распространенной практикой, его использование политиками стало вопросом времени. Достоинств у нейросетей предостаточно. Они могут делать и анализ многостраничных документов, и перевод текстов, и давать ответы практически на любые вопросы. Все это нейросети делают бесплатно (более продвинутые – за подписку) и за пару секунд ожидания. Но есть, конечно, риски при их использовании. Особенно для политиков.
Первый и, пожалуй, один из самых очевидных рисков связан с вопросом: насколько можно доверять ответам нейросети? Ведь она – это все еще система вероятностей, которая как человек думать не умеет. Нейросеть только имитирует этот процесс. И, в отличие от других технологий с использованием ИИ, она не генерирует ответы на основе четких правил и алгоритмов, заданных разработчиками. Нейросети обучают на основе огромных массивов данных. Их «решения» не всегда могут предугадать даже создатели. Кроме того, на работу нейросетей влияют и пользователи – уже известны случаи, когда из-за них алгоритмы серьезно сбивались. Поэтому вверять государственные дела им – дело сомнительное.
Наконец, остро встает вопрос о безопасности. Неясно, в чьем распоряжении может оказаться информация, которой какой-нибудь чиновник поделится с ИИ. Конечно, в случае с Кристерссоном сразу было заявлено, что никаких секретных данных нейросети предоставлено не было. «Естественно, туда попадает не конфиденциальная информация. ИИ используют скорее для приблизительной оценки», – заявил пресс-секретарь шведского премьер-министра Том Самуэльссон. Но всех депутатов и приближенных к власти лиц проконтролировать нельзя, поэтому утечки данных из-за «консультаций» с нейросетями становятся как никогда актуальной проблемой.
Немаловажную роль может играть и психологический фактор. Делегируя нейросети анализ и поиск незначительной информации, надо отдавать себе отчет, что соблазн использовать этот инструмент для решения более сложных задач возрастет. Тем более что обратиться к ИИ быстрее, чем дождаться заключения от правительственных экспертов. Не исключено, что в какой-то момент политик не сможет принимать решения, предварительно не получив «мнение» нейросети, достоверность которого далеко не всегда возможно проверить.
Вместе с тем сложно отрицать, что технологии на базе ИИ – это мощный инструмент. Они уже используются научными центрами для обработки массивов информации и улучшения систем методов политического моделирования и прогнозирования (это распространенные методы для предположения результатов выборов), а также для проведения социологических опросов.
Есть у таких технологий и иная сторона. С их помощью возможно манипулировать общественным мнением. Явление ботов – автоматизированных аккаунтов в социальных сетях, которые пишут комментарии или посты с определенным содержанием, знакомо многим. Эти инструменты влияния на избирателей уже были использованы в ходе предвыборных кампаний в США в 2016 году (тогда был избран Дональд Трамп), в Бразилии в 2018 году (выборы завершились победой Жаира Болсонару) и во многих других странах. Цель – создать иллюзию общественной поддержки той или иной политической силы.
Осознание рисков, сопряженных с использованием ИИ, заставляет представителей власти искать способы отрегулировать использование и разработку таких технологий. Однако законодательство в этой сфере не успевает за инновациями. Закон Евросоюза об ИИ был принят в 2024 году, но вступит в силу только в 2026-м. Он запрещает использование искусственного интеллекта для манипулирования людьми или введения систем «социальных баллов» на основе ИИ. Конкретно же для нейросетей ограничений не предусмотрено, не считая того, что все материалы, созданные с их помощью, должны иметь соответствующую маркировку.
При этом Кристерссон уже выступает за приостановку закона. Он называет его примером «запутанных правил ЕС» и считает, что сферу ИИ не следует подвергать серьезному контролю.
В любом случае пока использование нейросетей остается только на совести самих политиков. Однако, как замечает профессор компьютерных наук в Университете Умео Вирджиния Дигнум, шведы «не голосовали за ChatGPT». Впрочем, как и избиратели других стран, надеющиеся на компетентность и знания высших государственных лиц, а не на компьютерные алгоритмы.