![]() |
Безопасность AI для человека, его социальные аспекты – это главные вопросы практически на всех крупных конференциях, посвященных данной проблематике. Иллюстрация создана с помощью GigaChat |
LLM впервые перехитрила людей
В последний день марта 2025 года ученые из Калифорнийского университета в Сан-Диего представили доклад под названием «Большие языковые модели проходят тест Тьюринга» (Large Language Models Pass the Turing Test). Однако этот отчет по большому счету не произвел должного эффекта и не вышел за пределы международного научного сообщества. А между тем в нем говорится, что две современные LLM – GPT-4.5 и LLaMa-3.1–405B – успешно прошли тест Тьюринга. Весьма примечательно, что это произошло впервые за 75 лет.
Еще в далеком 1950 году британский математик, логик и криптограф Алан Тьюринг придумал эмпирическое испытание, позволяющее определить наличие искусственного разума у вычислительной машины. Суть этой «имитационной игры» заключается в том, что «человек-дознаватель» одновременно разговаривает с двумя «свидетелями» (другим индивидом и компьютерной программой) через текстовый интерфейс. При этом каждый очевидец старается убедить вопрошающего, что именно он-то и есть настоящий человек, Homo sapiens. Если проверяющий не может достоверно отличить человеческую особь от компьютера, то в таком случае считается, что машина прошла тест. Ведь это говорит о ее способности имитировать человеческий интеллект.
Идея Тьюринга, безусловно, вызвала и вызывает до сих пор больше споров, чем любая другая гипотеза в области искусственного разума. Дело в том, что изначально британский математик предложил тест на «очень общую меру интеллекта». По его замыслу, машине надлежало показать способность достоверно подражать поведению индивида в «почти любой из областей человеческой деятельности». Однако одни ученые считают этот экзамен слишком простым, потому что людям вообще свойственно ошибаться. Другие, наоборот, утверждают, что эта проверка чрезмерно сложная, ибо компьютер вправе обманывать, тогда как человек обязан быть честным.
В последние годы тест Тьюринга приобрел новое значение. Он используется в качестве дополнения к тем методам, при помощи которых обычно проверяют системы искусственного интеллекта. Дело в том, что современные эталонные модели ИИ в основном «узкоспециализированные и статичные». Этот факт вызывает опасения ученых: высокие результаты, показанные ИИ на экзаменах, говорят скорее об их умении все подряд запоминать и всему быстро обучаться. В то время как теоретический подход британского математика позволяет выявить их реальные «способности к рассуждению».
Кроме того, тест Тьюринга измеряет, если можно так сказать, «общий интеллект» разумной машины. Данный метод обеспечивает надежную проверку специфических способностей компьютерного мозга, которые имеют непосредственное практическое значение. Фактически такой экзамен позволяет определить, может ли ИИ заменить реального человека настолько правдоподобно, что его собеседник не заметит разницы. Это особенно важно, потому как модели ИИ, способные искусно имитировать человеческий разговор, со временем могут «автоматизировать рабочие места». И тем самым вытеснить на обочину социально-экономической жизни реальных людей.
ИИ оказался интровертом
Такого рода рассуждения стали уже стандартными. Поэтому для чистоты эксперимента исследователи из Калифорнийского университета в Сан-Диего учли исторические, социально-экономические, теоретические и практические аспекты данной проблемы. Они провели тест Тьюринга таким образом, чтобы выяснить, возможно ли отличить современные большие языковые модели (LLM) от человека. А для проверки надежности методики ученые поставили эксперимент на двух различных группах людей, студентах своего же учебного заведения и сотрудниках британской технологической компании Prolific.
Исследователи оценили четыре различных типа ИИ: GPT-4.5 (OpenAI, 2023), LLaMa-3.1–405B (Grattafiori et al., 2024), GPT-4o (OpenAI et al., 2024) и ELIZA (Weizenbaum, 1966). Первые три системы – большие языковые модели, которые «генерировали сообщения» в зависимости от подсказки о том, как себя вести, и «истории разговора». Четвертая система искусственного разума, ELIZA, была не современной LLM, а чат-ботом, созданным в 60-х годах прошлого века и работающим на основе определенных правил. И хотя эта ранняя компьютерная программа сравнительно простая, были случаи, когда люди приписывали ей «человекоподобные качества». Сегодня это явление известно как эффект ELIZA.
Результаты эксперимента оказались вполне ожидаемыми. Так, модель GPT-4.5 была принята за человека в 73% случаев и превзошла людей, участвовавших в этом испытании. Система LLaMa-3.1–405B с аналогичными настройками доказала свою «человечность» в 56% ситуаций и почти что не уступила индивидам. В то же время GPT-4o и ELIZA, которые не были настроены на «человекоподобность», преимущественно были идентифицированы в качестве искусственного интеллекта. Они смогли перехитрить только 21 и 23% своих собеседников соответственно.
Весьма примечательно, что лишь 12% участников эксперимента проверяли уровень знаний и логику своих собеседников. То есть именно те навыки, которые в прежние времена считались очевидными признаками интеллекта. Большая часть испытателей сосредоточилась на социокультурных и эмоциональных факторах, в частности, обращая внимание на «естественность языка» или «наличие индивидуальности». Современные большие языковые модели смогли не только поддерживать диалог на должном уровне, но и делали это зачастую более правдоподобно, нежели настоящие люди. Правда, исследователи отметили, что для достижения успеха LLM потребовалась тонкая настройка на определенный образ – молодого интроверта, который интересуется интернет-культурой.
Как бы там ни было, результаты эксперимента имеют существенное значение. Авторы исследования предупреждают о потенциальных побочных эффектах развития LLM. Они утверждают, что большие языковые модели могут использоваться не только во благо человечества, но и для предосудительных целей – от социальной инженерии до массовой дезинформации и целенаправленной манипуляции обществом. И какая из этих двух тенденций возобладает, позитивная или негативная, будет зависеть от целого ряда привходящих факторов.
Эмерджентное поведение
Почти одновременно с вышеупомянутым научным отчетом был опубликован доклад «Будущее исследований в области искусственного интеллекта» (Future of AI Research), подготовленный штатными и привлеченными экспертами американской Ассоциации по развитию искусственного интеллекта (Association for the Advancement of Artificial Intelligence, AAAI). Помимо сугубо специфических проблем, характерных для сферы ИИ, в нем затронут целый ряд тем, которые без преувеличения можно назвать вечными. Более того, учеными предпринята попытка глубокого осмысления роли и места машинного разума в общечеловеческом масштабе.
Современный искусственный интеллект стремительно развивается. Соответственно изменяются тематика, методы и подходы исследователей. Такая тема, как «разумный ИИ», изучалась на протяжении десятилетий. Но теперь она приобретает новое значение в свете сегодняшних технологических возможностей. И что особенно важно, акцент делается на этических ограничениях, недопущении вседозволенности государств и корпораций. Безопасность AI для человека, его социальные аспекты – это сейчас главные вопросы практически на всех крупных конференциях, посвященных данной проблематике.
Повсеместное использование искусственного интеллекта в повседневной жизни, его влияние на людей, общество, окружающую среду превращает ИИ в предмет междисциплинарных исследований. Это подчеркивает необходимость совместных научных усилий технологических специалистов и экономистов, социологов, философов, психологов. Растет внимание к «эмерджентному поведению» машинного разума (возникновению новых свойств или изменению образа действий внутри системы), а не только к заложенным характеристикам и подтвержденным свойствам моделей AI. Это делает принципиально важной эмпирическую оценку таких интеллектуальных структур.
Одна из важнейших характеристик человеческого интеллекта – способность к рассуждению. И хотя предварительно обученные LLM добились впечатляющего прогресса в этом направлении, требуются дополнительные исследования, которые могут гарантировать корректность и глубину рассуждений, порожденных искусственным интеллектом. При этом вопросы и проблемы, стоящие перед учеными, варьируются от философских «что такое рассуждение?» до практических – «можно ли доверять рассуждениям LLM?».
С этой задачей тесно связана проблема «улучшения качества данных» и повышения надежности искусственного интеллекта. Проще говоря, система ИИ должна воздерживаться от ложных утверждений. Сегодня совершенствование этого навыка LLM, возможно, является важнейшим направлением исследований в области технологий ИИ. Однако большинство ученых настроено пессимистически, полагая, что в ближайшее время эта цель не будет достигнута.
Не меньшее значение имеют проблемы этики и безопасности искусственного интеллекта. К тому же они требуют единого подхода, поскольку краткосрочные и долгосрочные риски становятся все более взаимосвязанными. Между тем сейчас не существует полноценных технических и нормативных механизмов для их устранения. Нарастающие угрозы, как, например, киберпреступность с использованием систем ИИ и автономное оружие на основе ИИ, требуют не только немедленного внимания, но и объективной оценки этических последствий применения таких систем. И это также скорее всего не случится в обозримой перспективе.
Кроме того, проблемы этики и безопасности искусственного разума требуют постоянного надзора за работами в этой области и, конечно же, междисциплинарного сотрудничества. ИИ может многое почерпнуть из других областей когнитивной науки, внеся в них, в свою очередь, большой вклад.
Между прочим, исторически работы в области искусственного интеллекта исходили из гипотезы о том, что «вычисления могут стать научным языком для понимания природы интеллекта». Когнитивная наука стала примером сотрудничества исследователей в области машинного разума, психологии, лингвистики, нейронауки, антропологии и ряда других смежных дисциплин. Идея искусственного интеллекта оказала большое влияние на раннюю когнитивную науку, но со временем их пути разошлись, так что теперь, на новом этапе развития, предстоит сближение этих двух научных областей.
Геополитический ИИ
Искусственный интеллект для общественного блага – особое направление в области исследований машинного разума. Основная цель этих изысканий – изучение воздействия ИИ на общество и общественные отношения, особенно на социально уязвимые группы населения. За последнее десятилетие подобные инициативы получили значительное распространение благодаря научным и практическим достижениям в сфере ИИ и машинного обучения. Теперь зачастую во главе угла стоят соображения этики и социальной справедливости.
Тем временем искусственный интеллект совершил революцию в области научных исследований. Существенно сократился весь цикл исследований – от получения и анализа предварительных данных и последующего выдвижения гипотез до автоматизации рутинных расчетов и экспериментов. Уже появляются фактически автономные системы ИИ, предназначенные для фундаментальных изысканий. Все это изменит массовое представление о том, как ученые занимаются наукой.
Необходимо сказать о геополитических аспектах и иных последствиях развития искусственного интеллекта. Возникновение и развитие ИИ перестраивает властные отношения в глобальном масштабе. Меняются инвестиционные приоритеты государств, что непосредственно влияет на мировые экономику и безопасность, оборонные и управленческие структуры. А это порождает вопросы контроля за использованием систем искусственного интеллекта и, как следствие этого, проблемы равенства народов перед лицом машинного разума.
Таким образом, существуют труднопреодолимые противоречия между гонкой за технологическим превосходством и необходимостью регулирования ИИ; между желательностью международного сотрудничества и получением стратегического преимущества в военной и экономической областях. Более того, современные подходы государств к ИИ вызывают небезосновательные опасения ученых за сохранность демократических ценностей и многовековых этических принципов.
Перечисление теоретических проблем, связанных с ИИ, можно продолжить, но, представляется, что будет правильным проиллюстрировать их конкретными примерами.
Так, недавно сообщалось, что ученые Французского национального института здравоохранения и медицинских исследований (French National Institute of Health and Medical Research) создали систему искусственного интеллекта, которая предсказывает внезапную остановку сердца за две недели до возможного приступа. Эту модель обучили на 240 тыс. ЭКГ, поэтому она распознает даже слабые сигналы сердечной аритмии. Прогноз оказывается точным в 70% случаев, так что эта инновационная технология дает шанс спасти жизни многих тысяч людей.
Такое изобретение, безусловно, служит общественному благу и должно быть внесено в перечень достоинств машинного разума.
Цифровое бессмертие
Совсем другое дело – всевозможные спекуляции на теме цифрового бессмертия, или, если угодно, цифрового посмертия. Исследователи из Центра Леверхулма по изучению будущего интеллекта Кембриджского университета (Leverhulme Centre for the Future of Intelligence, University of Cambridge) еще год назад предупредили о потенциальных рисках, исходящих от разнообразных «ботов горя» и «ботов смерти», а также «посмертных аватаров». С этими компьютерными программами, созданными с применением технологий ИИ, живые люди общаются как со своими умершими родственниками и знакомыми. Причем, по мнению ученых, эти отнюдь не призрачные опасности могут причинить ощутимый психологический и социальный вред людям. Тем самым подрывается фундаментальная основа бытия вида Homo sapiens – отношение к смерти.
Известно, что у человека разумного обычай хоронить умерших насчитывает более 100 тыс. лет. Вероятно, этот церемониал вообще один из самых древних. Однако приход эпохи всеобщей цифровизации повседневной жизни людей (не путать с цифровым тоталитаризмом, он еще впереди), а также создание и стремительное развитие генеративного искусственного интеллекта (самообучающегося, если говорить немного упрощая) нивелирует само значение ритуальных практик.
Без малого восемь лет назад вышла научная статья «Политическая экономия смерти в век информации: критический подход к цифровой индустрии загробной жизни», которую подготовили специалисты Оксфордского института интернета (Oxford Internet Institute). Как утверждают ученые, современные онлайн-технологии, усиленные возможностями искусственного интеллекта, создают огромные объемы данных, которые «переживают своих производителей в Сети» (имеются в виду интернет-пользователи) и порождают «новую цифровую форму загробной жизни». И хотя исследователи сравнительно давно изучают данную проблему, в научной литературе не была четко отражена роль коммерсантов от потустороннего мира, точнее говоря, значение их меркантильных интересов.
Целью статьи оксфордских ученых было проанализировать, в чем заключаются эти интересы и какие этические последствия они могут иметь. Во-первых, для этого они ввели в научный оборот понятие «Индустрия цифровой загробной жизни» (Digital Afterlife Industry, DAI), определив ее как объект исследования. Во-вторых, выявили политико-экономические интересы DAI, для чего разработали аналитический подход, основанный на «информационной интерпретации» марксистской экономики. И наконец, в-третьих, привели примеры заинтересованности бизнесменов, делающих деньги на цифровой ритуализации смерти.
Полученные результаты показали, почему DAI «стремится к изменению так называемых информационных тел умерших». Как это ни банально, но на первом плане стоит элементарная корысть. А этот факт, в свою очередь, должен рассматриваться в качестве нарушения принципа человеческого достоинства. Предотвратить подобные нежелательные последствия, утверждают ученые, могут «этические конвенции», наподобие тех, что регулируют торговлю внутренними органами умерших людей.
Эта статья подняла ряд новых вопросов. Какова должна быть роль коммерческих предприятий в управлении данными о мертвых? Как создать социальную, экономическую и нормативную базу, которая обеспечит уважительное отношение к умершим со стороны DAI? За прошедшие восемь лет правильные ответы на эти задачи так и не были найдены, и они по-прежнему находятся в стадии решения. Однако уже ясно, что интернет останется неотъемлемой частью повседневной жизни человека. Цифровой след умерших людей уже сейчас практически неуничтожим. И общество должно решить, в какой степени и при каких обстоятельствах эта ситуация будет зависеть от интересов DAI. Чем скорее это произойдет, тем будет лучше для всех членов социума.
Кстати сказать, в апреле нынешнего года в китайской социальной сети TikTok появились ролики с цифровыми клонами известных ученых, в частности Марии Кюри и Николы Теслы. Они рассказывают зрителям доступным языком о физических законах. Это один из многих примеров использования аватаров, созданных искусственным интеллектом, для распространения научной информации. Однако эта стратегия может иметь не только явные достоинства, но и очевидные недостатки.
Создание изображений и анимации с помощью искусственного интеллекта – быстро развивающаяся область IT, качество которой постоянно повышается. Но многие аватары, несмотря на свою, казалось бы, реалистичность, тем не менее имеют небольшие изъяны: глюки, задержки, неестественную мимику. Иногда эти недочеты едва заметны, но все же люди их легко различают.
Ясмин Бааке, ученая из немецкого Центра перспективных интернет-исследований (Center for Advanced Internet Studies, CAIS), отмечает, что эти аватары могут вызвать явление, известное в когнитивной науке как «зловещая долина» (uncanny valley). Этот феномен обусловливает реакцию человека на человекоподобные цифровые или/и роботизированные аватары.
Немецкая исследовательница задалась вопросом, в какой мере человекоподобие цифрового двойника влияет на доверие к нему со стороны зрителей. Исследование было проведено в Германии, причем на немецком языке, и включало в себя серию видеороликов. В них сгенерированные искусственным интеллектом аватары изображали ученых – как мужчин, так и женщин. Согласно полученным результатам, более реалистичные, человекоподобные аватары лучше подходят для распространения научной информации. А стало быть, эффект «зловещей долины» в этом конкретном случае не проявился, и это вселяет некоторый эволюционный оптимизм.