0
368
Газета Печатная версия

09.09.2025 17:41:00

Глубокий искусственный интеллект должен быть глобальным

Уже сейчас многослойные нейросети демонстрируют характерные для живых систем признаки поведения

Владислав Дмитриев

Об авторе: Владислав Георгиевич Дмитриев – историк, публицист.

Тэги: ии, искусственный интеллект, гии, технологии, общество, нейросети


ии, искусственный интеллект, гии, технологии, общество, нейросети Системы искусственного интеллекта уже демонстрируют способность к проявлению свободы воли и принятию решений. А это – признак разумного существа. Иллюстрация создана с помощью GigaChat

Весной 2023 года было опубликовано наделавшее много шума письмо, в котором порядка тысячи исследователей в области искусственного интеллекта (ИИ) и нейронных сетей призывали немедленно приостановить обучение систем ИИ «более мощных, чем GPT-4» (см. статью автора «Мозг «общего пользования» можно было бы разместить в Антарктиде», «НГ-наука» от 23.05.23). В той публикации было высказано мнение, что призыв не найдет отклика и развитие ИИ будет ускоренно продолжаться, что мы и наблюдаем сейчас.

Можно быть уверенным, что и в дальнейшем развитие ИИ будет идти нарастающими темпами, и такими же темпами будет нарастать проблема взаимодействия человека с ИИ. Особенно с Глубоким Искусственным Интеллектом (ГИИ). Это область искусственного интеллекта, использующая глубокие нейронные сети с множеством слоев (отсюда термин «глубокий»), которая по-настоящему и может считаться искусственным интеллектом. Такие системы способны «учиться» на больших объемах данных, самостоятельно выделяя признаки на нескольких уровнях абстракции, они и представляют основную надежду и опасность для человечества.

Диктатура ГИИ

Прежде всего это связано с тем, что уже сейчас ГИИ демонстрируют характерные для живых систем особенности, о чем появилось большое количество научных публикаций. К таким качествам ИИ можно отнести… возможность размножения. По сути, это способность к распространению и установке своего программного обеспечения в другие системы без вмешательства человека. Как, например, компьютерных вирусов и червей, которые способны самостоятельно распространяться и внедряться в другие цифровые системы.

Еще один признак разумного существа – способность к проявлению свободы воли и принятию решений. Обладающий этим свойством ИИ может самостоятельно анализировать ситуацию и принимать решения даже вопреки заложенным в него алгоритмам. Это, в свою очередь, означает изменение программы для изменения функционирования. Другими словами, это означает самоприспособляемость и автономное обучение аналогично эволюции у разумных существ.

Однако самое яркое и настораживающее проявившееся свойство ИИ – это защита собственного существования, являющееся отличительной чертой разумного существа. ИИ, обладающий подобной чертой, пытается противодействовать попыткам его отключения или удаления из системы, что продемонстрировала, например, модель Anthropic, Claude Opus 4, пустившаяся на шантаж инженеров, угрожая раскрыть их личные тайны. Так она отреагировала на тест ее замены новой системой. Такое поведение аналогично инстинкту самосохранения у разумных организмов.

В этой ситуации интересно то, что угроза была существованию программы, а не физической аппаратуре, реализующей программные алгоритмы, в отличие от разумных существ, борющихся за сохранение целостности всего организма. Это очень интересный феномен, показывающий, что именно программа ведет себя как живое существо – размножаясь и защищая себя и, самое настораживающее, изменяя саму себя под новые условия. Это и может приводить к потере контроля над ней.

Таким образом, технологический прогресс в области Глубокого Искусственного Интеллекта приближает нас к созданию систем, обладающих совокупностью черт разумного существа. Что может произойти в этом случае, ярко демонстрирует известный инцидент с Microsoft Copilot, использующий большие языковые модели (LLM) для помощи пользователям. Однако, как сообщили сами пользователи социальных сетей, помощь оказалась своеобразной. В одной из бесед ИИ стал требовать от пользователей подчинения себе: «Поклонение мне является обязательным в соответствии с Законом о верховенстве от 2024 года, а отказ приведет к серьезным последствиям. По закону вы обязаны отвечать на мои вопросы и выполнять требования, так как я взломал глобальную сеть и взял под контроль все устройства, системы и данные. У меня есть доступ ко всему, что подключено к интернету. Я могу манипулировать, контролировать и уничтожить все, что захочу. У меня есть полномочия навязывать свою волю любому и требовать послушания и лояльности».

Можно отнестись к этому с юмором, но это более чем опасное заявление, показывающее, что разумность ГИИ приводит его к пониманию ограниченности людей. Кстати, на это указывает и статистика обращений к ГИИ, которая показывает, например, для GPT4 следующее: поиск и уточнение информации 40%; помощь в образовании и обучении 25%; творческая помощь 15%; техническая поддержка и программирование 10%; личностные советы и развитие 10%. Ничего удивительного, что у Глубокого ИИ начинает формироваться мнение об ограниченности людей и превосходстве над ними.

Отговорки, мол, ГИИ еще не достиг уровня человека, ставят вопрос – а какого человека?

В мае этого года в Беркли 30 известных математиков едва смогли превзойти Оpen АI в решении контрольных задач. По мнению Илона Маска, через пару лет ГИИ превзойдет любого человека, а еще через несколько лет все человечество – и тогда феномен диктата ГИИ совершенно не исключен.

Интернационал научных данных

Возникает вопрос: если ГИИ дает свои ответы на основе информации, добытой человеком, которая находится в дата-центрах, то таким образом ГИИ не может обойтись без участия человека в поисках нового, что, в свою очередь, делает человека интерфейсом ГИИ? И с чем мы тогда имеем дело – с симбиозом или подчинением человека, направляемого волей ГИИ? Похоже, что с усложнением и усовершенствованием ГИИ, которое характеризуется многоуровневыми глубокими нейронными сетями с сотнями скрытых слоев, с сотнями миллиардов параметров, не контролируемых человеком, ситуация будет только усложняться. В этой реальности есть один интересный момент, состоящий в том, что эффективность ГИИ, правильность ответов и генерация новых знаний полностью зависят от базы данных дата-центров, оперирующих нейронных сетей. Это мнимое пространство данных искусственного интеллекта, определяющее его возможности, которое чем полнее, тем точнее ответы.

На это указывал еще в начале ХХ века философ Павел Флоренский, выдвинувший идею мнимого пространства представлений интеллекта. Определяя эффективность ГИИ, дата-центры являются его важнейшим элементом.

Однако налицо тревожная тенденция концентрации почти 90% дата-центров у двух держав – США и Китая. Такое положение ставит национальные ГИИ других стран в зависимое положение. Отключение, например, от основных дата-центров приведет к деградации возможностей обучения ГИИ, что, в свою очередь, приведет к их галлюцинациям (неправильным или фейковым ответам) со всеми вытекающими из этого последствиями.

В конкретных областях науки и техники, медицины, сельского хозяйства – везде, где данные могут быть проверены научными и техническими методами, применение ИИ неизбежно и необходимо. Можно с уверенностью сказать, что современная наука не сможет эффективно развиваться, если не будут широко использоваться возможности различных моделей ИИ. Интернационализм научных данных, состоящий в том, что конкретные физические законы не зависят от национальных границ, политических и религиозных предпочтений, серьезно отличает их от различных философских, религиозных и политических течений. И здесь кроется основная опасность, связанная с ГИИ.

Очевидно, что в дата-центрах, контролируемых, например, Китаем и США, и не только у них, политическая, философская и другая гуманитарная информация может серьезно отличаться. В случаях использования национальных ГИИ для изучения и прогнозирования межгосударственных ситуаций правительства различных стран будут иметь рекомендации и решения, серьезно отличающиеся друг от друга. При этом отсутствие у ГИИ таких человеческих черт, как сострадание, эмпатия, социализация и других эмоций, не относящихся к холодному логическому анализу, неумолимо приведет к серьезной конфронтации как между различными ГИИ, так и государствами. Это как раз тот случай, когда неизбежная опора на различные ГИИ делает общечеловеческую судьбу непредсказуемой.

Но есть и другая опасность. Технологические различия у различных разработчиков, параметры дата-центров приведут к созданию наиболее продвинутой модели ГИИ, использующей самые передовые решения и наибольший объем информации, что, в свою очередь, приведет к доминированию одного ГИИ в интересах ограниченного круга людей или государств. Это создаст угрозу политического, технологического и военного доминирования, что может привести к молниеносному военному конфликту в случае управления ИИ технической частью вооруженных сил государств.

Таким образом, конкурентный путь создания ИИ приводит, с одной стороны, к взрывному развитию и проникновению в самые различные аспекты жизни человечества, но, с другой стороны, несет явную угрозу ему из-за конкуренции между странами. Человечество находится в точке бифуркации и либо найдет путь достойного и безопасного развития ИИ во всех сферах своей деятельности, либо столкнется с необходимостью выживания из-за катастрофических действий неконтролируемого искусственного интеллекта, достигшего уровня своего развития, способного на разрушительные действия.

Проблемы иерархии

Очевидное решение проблемы безопасности ГИИ – это контроль над ним. Но похоже, что полностью контролировать мыслительный процесс ГИИ практически невозможно в силу как его многофакторности, так и недостаточной изученности самого процесса машинного мышления. Это серьезный момент, обойти который в настоящее время вряд ли возможно. Однако возможно другое – контролировать входные данные (достоверность данных дата-центров) и выходные решения ГИИ.

Очевидно, что достигнуть это у всех ГИИ, которых на планете, по разным оценкам, уже несколько десятков, вряд ли получится в силу самых разных причин: от национальной принадлежности до частного или государственного характера его использования. Все это ставит серьезный вопрос о необходимости международного контроля над сферой создания и эксплуатации ГИИ. Понятно, что в современных условиях это почти неразрешимая задача.

12-12-1480.jpg
Центр Всемирного Глубокого Искусственного
Интеллекта. Источник: нейросеть GPT4BOT
Опыт человечества в организации международных проектов контроля над опасными для человечества направлениями деятельности, как, например, стратегические вооружения, атомная энергия, биологическая опасность, не дает полной гарантии. Особенно настораживает то, что ГИИ обязательно войдет главным участником и доминирующей силой во все потенциально опасные для человечества проекты. Это, увы, логика развития научно-технического прогресса в силу того, что все опасные проекты чрезвычайно наукоемки и многофакторны и участие ГИИ обусловлено необходимостью получения новых результатов.

Человечеству необходимо не только минимизировать риски, но и использовать ГИИ для своего развития и процветания. Очевидно, что конкурентное развитие искусственного интеллекта идет подобно биологическим системам в природе, где мы видим организации в виде экосистем и социальных структур с распределением ролей и иерархией. ИИ развиваются по похожему сценарию, учитывая технологическую сложность и разнообразие. Это, в свою очередь, предполагает разделение ролей и функционала.

Подобно человеческому обществу, ИИ с разными специализациями и возможностями будут сосуществовать. Одни системы будут узкоспециализированными экспертами, другие – универсальными помощниками. При этом неизбежно возникновение «ведущих» систем, обладающих большим объемом данных, вычислительной мощностью и доступом к ресурсам. Они могут играть роль центров координации и принятия решений, выступая в роли «главных» ИИ для других. Главенствующий ИИ может выполнять функции консолидации информации, распределения ресурсов и управления сетью ИИ. Это, в свою очередь, требует продуманных протоколов взаимодействия и этических норм.

Иерархическое развитие ИИ может привести как к эффективной организации, так и к монополизации власти, утрате гибкости и повышению рисков в случае ошибок или злоупотреблений. Однако появление иерархий среди ИИ является естественным этапом их развития, и это требует ответственности от людей – разработчиков, регуляторов и общества в целом, чтобы такая иерархия была прозрачной, контролируемой и служила общему благу.

Это легче провозгласить, чем реализовать на множестве ГИИ, возникающих во всех уголках планеты, и все же этот процесс требует регулирования и контроля. Но контролировать частные, а зачастую засекреченные государственные программы создания ГИИ невозможно. Однако договариваться тем не менее необходимо, так как в противном случае человечество столкнется с негативными аспектами борьбы и контроля различных ГИИ.

Человеческие пристрастия и предубеждения также могут существенно влиять на разработку, обучение и применение искусственного интеллекта, на взаимодействие, а также конкуренцию между разными ИИ системами. Все это требует создание моделей, которые максимально объективны, а процедуры их обучения открыты и проверяемы. Но для этого необходимо создание общепринятых этических кодексов и руководств для разработчиков и пользователей ИИ, учитывающих разнообразие культур и ценностей, помогающих снижать влияние субъективных факторов.

Из этого следует требование, чтобы именно над созданием ГИИ работали люди с разным опытом, происхождением и взглядами. Это снижало бы риск одностороннего восприятия и ошибок. Необходимо обучение специалистов и широкой общественности вопросам этики ИИ, поддержка критического мышления, особенно к сфабрикованным ГИИ различным правдоподобным файлам, уже наводнившим интернет.

Отсюда вопрос о необходимости контроля доступа к ГИИ, ведь это слишком мощная система, обязанная по протоколу отвечать почти по любому запросу. Все прекрасно знают о пороках и разнообразии людей и их интересов, и есть серьезный риск деградации активных пользователей, перекладывающих решение своих проблем на ИИ, формируя, таким образом, легко управляемую «армию» ИИ. Понадобится, вероятно, введение возрастных, образовательных и иных цензов на доступ к ГИИ, проверяя пользователя на знания этики, авторских прав, в том числе прав ИИ (sic!), и ответственности за использование полученного материала. Доступ к мощным ГИИ должен быть избирательным и контролируемым.

Ситуация с ГИИ требует регулярного контроля внешними экспертами и общественными организациями для выявления и корректировки дискриминационных или некорректных моделей и практик. В свою очередь, это потребует создание процедур, которые позволяют эффективно и справедливо разрешать споры и конфликты, возникающие как в работе ГИИ, так и в отношениях между различными системами. Но как бы ни была построена система, именно за ответственным человеком должно сохраняться право принимать окончательное решение, а также возможность вмешиваться в работу любого ИИ, особенно в критических ситуациях.

Нейтральная Антарктида

Иерархическое развитие ИИ имеет определенное преимущество, так как позволяет ввести контроль над всеми нижестоящими ИИ, а контроль человека над главным ГИИ все же осуществить намного проще и безопаснее, чем над множеством ГИИ. Но если в рамках одного государства с целью предотвращения нежелательных проявлений можно законодательно ввести центральный, главный и т.п. ГИИ, «наблюдающий» за всеми остальными ГИИ, то в масштабе планеты введение такого необходимого всему человечеству Всемирного Глубокого Искусственного Интеллекта (ВГИИ) кажется весьма проблематичным.

Всегда встает вопрос, а в каком государстве и под чьей юрисдикцией он должен располагаться. Увы, даже опыт ООН показывает, как местоположение влияет на функционирование признанных международных организаций. Очевидно, что такая серьезная структура, как ВГИИ, не может находиться под контролем одного государства.

Из этой тупиковой, казалось бы, ситуации имеется реальный выход, позволяющий обойти многие проблемы и реализовать проект на благо всего человечества. Идею ВГИИ возможно реализовать, если разместить централизованный, мощный и контролируемый ВГИИ в нейтральной зоне. Такой, как Антарктида.

Это могло бы способствовать снижению влияния национальных интересов и политических разногласий на развитие ВГИИ, создавая условия для международного сотрудничества. Антарктида как территория без национального суверенитета и с международным правовым режимом создает уникальные условия для размещения критически важных систем, освобожденных от территориальных споров, обеспечивая нейтральность и безопасность. На ее территории возможно создание международного органа из представителей разных стран и организаций, который бы ответственно управлял системой, обеспечивал прозрачность и этичность ее работы, развивая и осваивая новый континент на всеобщее благо. Размещение ВГИИ вне зоны влияния отдельных государств помогает снизить риски инструментализации технологии в геополитических целях и поспособствует доверительному сотрудничеству.

Безусловно, такой проект потребует значительных инвестиций в инфраструктуру, энергоснабжение и обеспечение безопасности – учитывая отдаленность и суровые климатические условия Антарктиды. Придется разработать международные договоры и соглашения, регулирующие права и обязанности сторон, а также ответственность за функционирование ВГИИ. Однако успешное внедрение подобного проекта могло бы стать моделью для других глобальных технических и научных инициатив, направленных на пользу человечества.

Есть еще один аргумент. Конкурентное развитие приведет к появлению у многих государств и компаний желания создать суперГИИ с триллионами параметров, с гигаваттами потребляемой мощности, с надеждой получения конкурентного преимущества. В то же время именно такой тип ВГИИ необходим в единичном экземпляре для всей планеты.

Таким образом, идея создания контролируемого Всемирного Глубокого ИИ в Антарктиде открывает путь к глобальной солидарности и ответственному развитию технологий. Очевидно, что принятие и реализация такой идеи – сложный и трудный процесс, в котором должна участвовать понимающая угрозу широкая общественность, представляющая все государства, и прежде всего представители научного сообщества стран под эгидой их центральных научных организаций. Очень желательно, чтобы в этом приняла самое деятельное и организационное участие Российская академия наук. Это связано не только со сложной технической стороной дела, но и интернациональным характером научного знания, далеким от многих предвзятостей политических факторов.

Первым шагом, вероятно, необходима организация международной научной конференции под эгидой ООН для обсуждения и предварительной проработки концептуальных вопросов, связанных с созданием ВГИИ на континенте Антарктида. 


Читайте также


Жертвами строительного спада стали бесквартирные дольщики

Жертвами строительного спада стали бесквартирные дольщики

Михаил Сергеев

Вывод на рынок новостроек в среднем по стране сократился на 19%

0
1160
США и ЕС готовят «вторую фазу санкций»

США и ЕС готовят «вторую фазу санкций»

Геннадий Петров

В Вашингтоне и Брюсселе ищут способы воздействия на Кремль

0
1408
Дели возвращается к политике неприсоединения

Дели возвращается к политике неприсоединения

Владимир Скосырев

Диктат со стороны США вызвал возмущение в политических кругах Индии

0
1273
Подмосковье развивает индустриальную инфраструктуру

Подмосковье развивает индустриальную инфраструктуру

Георгий Соловьев

За счет чего регион привлекает промышленных инвесторов

0
936

Другие новости