0
1974
Газета Воины и Армии Печатная версия

23.10.2017 20:05:00

Третью мировую войну могут начать роботы

Никто не знает, что взбредет в «голову» искусственному интеллекту военного назначения

Тэги: будущее, искусственный интеллект, технологии, война, третья мировая война


будущее, искусственный интеллект, технологии, война, третья мировая война У искусственного интеллекта нечеловеческая логика. Кадр из фильма «Терминатор 2: Судный день». 1991

Поклонники голливудской саги о Терминаторе прекрасно помнят, что произошло, когда Скайнет (программа военного назначения на основе искусственного интеллекта) осознал себя как личность. Он решил, что главная угроза – человечество и принялся за его истребление.

По официальным данным, пока что автономная боевая система с искусственным разумом не принята на вооружение ни одной из армий мира. Но работы ведутся, и Управление стратегических возможностей Минобороны США уже проводит испытания роя беспилотников, представляющего собой «коллективный организм, который обладает единым мозгом, позволяющим самостоятельно принимать решения».

Выступая на Всероссийском открытом уроке, президент РФ Владимир Путин подчеркнул: «Искусственный интеллект – это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира. И очень бы не хотелось, чтобы эта монополия была сосредоточена в чьих-то конкретных руках».

Заявление не осталось незамеченным. «Конкуренция за превосходство в сфере искусственного интеллекта на национальном уровне – наиболее вероятная причина начала третьей мировой», – прокомментировал слова российского президента в Twitter предприниматель Илон Маск, подчеркнув, что в первую очередь опасность заключается в самих компьютерах и роботах. Если искусственный интеллект решит, что превентивный удар по противнику может привести к победе, то руководители государств никак не смогут повлиять на ситуацию.

«Следует серьезно рассмотреть возможность принятия машинами решения о том, кому жить, а кому умирать, без прямого участия со стороны человека, – указывают авторы статьи «Автономные беспилотники военного назначения – это больше не научная фантастика», размещенной на сайте НАТО. – На протяжении последних нескольких лет мы стали свидетелями стремительного развития технологий в области беспилотных авиационных систем, степень «самостоятельности» которых постоянно повышается. И если одни видят большую выгоду от использования автономных дронов, то другие считают разработку и использование такой технологии полностью аморальными. А такие авторитетные личности, как Стивен Хокинг, Илон Маск и Стив Возняк, уже призвали установить запрет на боевое применение автономных систем вооружения или искусственного интеллекта».

Чтобы оценить уровень исходящей от автономных боевых систем угрозы, достаточно посмотреть, что под такими системами понимают сами военные. К примеру, Минобороны Великобритании описывает их так: «С учетом того, как автономная система воспринимает окружающую обстановку, такая система способна предпринять соответствующие действия с тем, чтобы добиться желаемого результата. Она способна на основе анализа альтернатив принимать решения, в каком направлении необходимо действовать, не требуя при этом контроля и управления со стороны человека. При этом, если в целом деятельность автономных беспилотных летательных аппаратов будет предсказуема, то отдельные действия могут быть и не предсказуемы».

Проще говоря, в целом мы еще можем контролировать искусственный интеллект, но от того, что ему однажды взбредет «в голову», мы на все 100 % не застрахованы. Поэтому, на взгляд автора, о внедрении автономных боевых систем в военное дело, по крайней мере на данном этапе, не может быть и речи. Понимают это и в военно-политическом руководстве стран мира, поскольку именно «отсутствием политической воли разрабатывать или признать наличие такой крайне чувствительной технологии» объясняют отсутствие в армиях подобных систем.

Причем с технической точки зрения создание частично или полностью автономных боевых систем возможно если не завтра, то уж точно послезавтра. С точки зрения военной науки их применение также не вызовет особых проблем. Но есть один фактор, который, вероятно, будет тормозить если и не развитие автономных боевых систем, то уж точно их практическое применение. Речь о юридической законности и моральном праве применения искусственного интеллекта в бою.

Согласитесь, не совсем правильно наделять машину, пусть и очень умную, правом решать, кому жить, а кому – умереть. Ведь как только мы дадим ей такое право, жизнь каждого из нас и гроша ломаного не будет стоить – мало ли кого «умный робот-киллер» сочтет опасным для страны или всего человечества! Как это может выглядеть в реальности, показано в триллере «На крючке» (в оригинале – «Орлиный глаз»), где мегамозг решил, что военно-политическое руководство США поставило безопасность страны под угрозу, а потому разработал программу ликвидации почти всех его представителей и запустил ее в действие.

Кстати, первый звоночек уже прозвенел. Так, в августе с.г. портал Tech Times сообщил, что компания Facebook приняла решение отключить одну из своих систем искусственного интеллекта, поскольку ее чат-боты, созданные для общения с пользователями соцсети, изобрели свой, непонятный людям язык, на котором и стали общаться между собой (с людьми они продолжили общение на английском). В заметке указывается, что на такой шаг искусственный интеллект пошел для более быстрого и эффективного обмена информацией…

Вам это ничем не напоминает сюжет серии фильмов о Терминаторе, Скайнете и истреблении человечества машинами? Сегодня – свой язык, а завтра – свой мир, в котором человеку места может и не найтись. И тогда фантастический сюжет о том, как Россия и США против своей воли уничтожат друг друга, может стать реальностью.   


Оставлять комментарии могут только авторизованные пользователи.

Вам необходимо Войти или Зарегистрироваться

комментарии(0)


Вы можете оставить комментарии.


Комментарии отключены - материал старше 3 дней

Читайте также


Оппозиция в Сирии подняла новое знамя

Оппозиция в Сирии подняла новое знамя

Александр Шарковский

"Фронт национального освобождения" написал на своем стяге формулу ислама буквами цвета крови

0
1166
Константин Ремчуков: Депутатские ограничения полномочий избранного губернатора от ЛДПР, как опыт разрушения вертикали власти в России

Константин Ремчуков: Депутатские ограничения полномочий избранного губернатора от ЛДПР, как опыт разрушения вертикали власти в России

0
1405
Память о прошлом как объект маркетинга

Память о прошлом как объект маркетинга

Олег Никифоров

Подходы к увековечиванию имен своих героев в России и Германии сильно различаются

0
703
Неувядающий цветок политического иррационализма

Неувядающий цветок политического иррационализма

Алексей Кива

Более полувека Россия обещает показать недругам кузькину мать

0
611

Другие новости

Загрузка...
24smi.org