0
3767
Газета В мире Печатная версия

22.10.2025 19:26:00

Теперь и принц Гарри осознал опасность искусственного интеллекта

Не дать технологии превзойти человека призывают ученые, общественные деятели и члены королевской семьи

Тэги: технологии на основе ии, угрозы для человека, потенциальные опасности, сверхинтеллект, запрет, принц гарри


технологии на основе ии, угрозы для человека, потенциальные опасности, сверхинтеллект, запрет, принц гарри Британский принц Гарри, прежде чем присоединиться к призыву не допустить появления сверхинтеллекта, внимательно изучал, как работает механизм на основе ИИ. Фото Reuters

Угрозы, которыми чревато развитие технологий на основе искусственного интеллекта (ИИ), начинают беспокоить все больше людей. Этим беспокойством проникнуто послание, поддержанное и членами британской королевской семьи – принцем Гарри и его женой Меган. Оно предупреждает о потенциальной опасности разработки систем ИИ, которые могут превзойти человеческие когнитивные способности (так называемого глубокого искусственного интеллекта, или сверхинтеллекта), и призывает к приостановке таких исследований.

Институт будущего жизни (Future of Life Institute, FLI) опубликовал 22 октября послание, адресованное IT-корпорациям, правительствам. Оно призывает запретить дальнейшие разработки так называемого искусственного сверхинтеллекта (ИСИ). Если обычные системы ИИ создаются с целью имитации деятельности человеческого мозга, то ИСИ уже используется для систем, которые должны превзойти уровень человеческого интеллекта. Такие пока не разработаны, однако перспектива их появления начинает беспокоить умы.

Заявление от FLI подписала уже тысяча человек. Самые известные среди них: герцог и герцогиня Сассекские – принц Гарри и его жена Меган. Они наряду с учеными-компьютерщиками, экономистами и политиками говорят о потенциальной опасности разработки ИСИ.

«Мы призываем к запрету на разработку сверхинтеллекта, который не должен быть снят до тех пор, пока не будет достигнут широкий научный консенсус относительно того, что это будет осуществляться безопасно и контролируемо, а также пока не будет получена сильная общественная поддержка», – говорится в тексте послания FLI.

Опасения подписантов не беспочвенны. Исключая фантастические сценарии «восстания машин», системы ИИ в будущем могут действительно серьезно изменить мир. В первую очередь они будут влиять на рынок труда, что в пространстве государства может оказаться катастрофой. Цена за возможность максимизировать прибыль и эффективность производств из-за повсеместного внедрения машин, работающих на основе ИИ, может оказаться слишком велика. Безработица и, как следствие, социальные проблемы в конечном итоге могут привести к маргинализации целых социальных слоев населения, опасаются в FLI.

Не может не беспокоить и нестабильность ИИ. Если предельно упростить принцип работы таких систем, то можно сказать, что он построен на математической вероятности. На основе огромных баз данных ИИ изучает закономерности и частоту использования тех или иных символов, когда, например, работает с текстом. Такая сложная система создает феномен «черного ящика», когда сами разработчики не знают, как конкретно генерируется ответ (в случае с нейросетями, «подвидом» ИИ) или как «принимается решение» о том или ином действии в случае с механизмами и машинами. В случае с ИСИ можно представить, насколько велик будет масштаб проблемы. На слуху случаи, когда нейросети «сходили с ума» и действовали вразрез с заданными правилами или выдавали бессмысленные ответы.

Исходя из этого, неудивительны попытки таких некоммерческих организаций, как FLI, замедлить процесс развития ИИ. В марте 2023 года этим научно-исследовательским институтом было опубликовано письмо под названием «Приостановка гигантских экспериментов с ИИ: открытое письмо». Оно призывало на шесть месяцев заморозить дальнейшую разработку ИИ. Именно тогда все крупные корпорации боролись за создание более совершенной, мощной и «умной» модели. Письмо подписали бывший руководитель Департамента эффективности правительства и предприниматель Илон Маск, генеральные директора лабораторий искусственного интеллекта Коннор Лихи (соучредитель EleutherAI) и Эмад Мостак (Stability AI, перестал быть соучредителем в 2024 году).

В условиях, когда сами разработчики предупреждают о потенциальных угрозах, исходящих от ИИ, неудивительно, что к ним подключаются политики и некоммерческие организации. Остается надеяться, что их опасениям и замечаниям в офисах основных корпораций, ответственных за создание систем ИИ, внемлют, а не продолжат гнаться за прибылью и званием «передовой компании» в этой области.


Читайте также


Сенаторы пытаются запретить Трампу вторжение в Венесуэлу

Сенаторы пытаются запретить Трампу вторжение в Венесуэлу

Надежда Мельникова

Верхней палате Конгресса США предложена для голосования резолюция, призванная не допустить "вовлечения в войну"

0
1730
Конгресс США займется способами давления на Россию

Конгресс США займется способами давления на Россию

Геннадий Петров

Трамп дал отмашку на принятие заведомо невыполнимого закона

0
2395
Возможен ли мэтч между религией и любовью

Возможен ли мэтч между религией и любовью

Милена Фаустова

В России прошел фестиваль израильских фильмов

0
1291
Запреты на майнинг стали признаком дефицита электроэнергии

Запреты на майнинг стали признаком дефицита электроэнергии

Михаил Сергеев

Центральный банк будет получать всю информацию о легально добытой в РФ криптовалюте

0
3474

Другие новости