0
4571
Газета КАРТ-БЛАНШ Печатная версия

27.05.2024 18:40:00

Естественные страсти по искусственному интеллекту

ИИ обладает своеобразной самочинностью, чего нет ни у каких других продуктов человеческой деятельности

Василий Резаев

Об авторе: Андрей Владимирович Резаев – доктор философских наук, профессор, редактор монографии «От искусственного интеллекта к искусственной социальности: новые исследовательские проблемы современной социальной аналитики» (М., 2021).

Тэги: социальная аналитика, проблемы, риски, искусственный интеллект, инструменты, повседневная жизнь, мнение


социальная аналитика, проблемы, риски, искусственный интеллект, инструменты, повседневная жизнь, мнение Фото Reuters

Мы принимаем тезис о том, что рассуждения о технологиях и внедрении в повседневную жизнь общества инструментов искусственного интеллекта (ИИ) – дело профессионалов. Разумеется, не все читатели «НГ» являются таковыми. Тем не менее считаем необходимым обратить внимание на несколько существенных моментов, характеризующих вхождение ИИ в повседневность.

Для этого сформулируем пять тезисов, две проблемы, которые необходимо решать не завтра, а уже сегодня, и три принципа регуляции ИИ.

Итак, тезисы.

1. Не следует рассматривать ИИ как «продукт», как «нечто», такое же как, например, самолет, или автомобиль, или телефон. У ИИ есть своеобразная самочинность, самостоятельность, чего нет ни у каких других продуктов человеческой деятельности. Инструменты ИИ могут самообучаться, взаимодействовать с другими машинами, принимать функциональные решения без участия человека, выступать самостоятельным агентом при производстве продуктов, связанных с написанием текстов и изображением.

2. История техники учит тому, что человек начинает регулировать технологические новшества для использования в повседневной жизни после каких-либо серьезных происшествий. Другими словами, для того чтобы те, кто будет регулировать ИИ, проснулись или стали серьезно делать свое дело, должен произойти какой-либо существенный кризис, может быть, трагедия.

3. В ситуации с ИИ сложно понять, в чем может проявиться настоящий кризис. Скорее всего регуляторы, законодатели начнут что-то делать и, очевидно, сразу и немедленно вводить запреты после того, как, например, полностью нарушится логика и практика избирательного процесса во властные структуры. По крайней мере именно это плюс получение прибылей (пример: иск газеты The New York Times к компании Open AI по поводу того, что последняя использует публикации в газете для обучения своих инструментов ИИ и не платит) пока заботит тех, кто может хоть как-то регулировать развитие ИИ в других странах.

4. С одной стороны, интернет практически стал единственным источником информации, ненадежным, но дешевым. А с другой – инструменты ИИ, удешевляя и делая интернет более доступным источником, одновременно дисквалифицирует, убивает его как источник истинной информации. В поисках истинной информации в интернете люди будут получать в лучшем случае редактируемую в чьих-то интересах информацию или в норме – информацию, которая будет в чем-то истинна, а в чем-то ложна. В худшем случае любая информация из интернета будет ложной, но выглядеть как истинная.

5. Сущность происходящих изменений (положительных и отрицательных), которые зависят от внедрения технологий ИИ, имеет абсолютно социальный характер. Отсюда призыв лидеров и ведущих разработчиков современных инструментов ИИ, прозвучавший год назад о необходимости сделать паузу, приостановиться и оглядеться (март 2023), не был услышан именно теми, кем этот призыв должен был быть услышан в первую очередь – социальными учеными, политиками, людьми, принимающими решения в отношении социальной и гуманитарной проблематики развития ИИ.

Теперь – проблемы, связанные с ИИ.

1. Главное в сегодняшней ситуации – определить кто, как и чему будет обучать тех, кто обязательно станет регулировать использование ИИ.

Сейчас эти люди обучаются с помощью того же интернета, социальных медиа, очень отрывистых контактов на различных выставках, форумах, саммитах – это в лучшем случае. В худшем – не обучаются нигде и будут действовать как прикажут.

2. Очевидно, что сегодня организациями, которые хоть что-то понимают в ИИ, являются именно те организации, которые создают технологии и инструменты искусственного интеллекта. Университеты намного отстают от этих организаций по ресурсам и возможностям. У университетов нет ни экономических ресурсов, ни технологических возможностей стать такой организацией. Зато есть интеллектуальные ресурсы, которые должны быть привлечены к работе. Таким образом, на нынешнем этапе регулирования принципиальным становится объединение интеллектуальных ресурсов университетов и производителей продуктов ИИ в новой организационной структуре, нацеленной на выработку формальных правил внедрения ИИ в повседневную жизнь общества.

Принципы регуляции.

Первый принцип: регуляция применения ИИ в повседневной жизни – постоянный процесс, а не одно (несколько) – моментные действия запретительного характера. Регулятивные механизмы внедрения инструментов ИИ, особенно на начальных этапах, когда еще в какой-то мере работает самоконтроль производителей продуктов ИИ, должны быть ориентированы не на «Запретить», а на «Создать», «Организовать».

Второй принцип (задача) состоит в том, чтобы создать социальные институты (то есть определить и зафиксировать формальные правила) и организации, где эти правила будут вырабатывать, и самое главное – эти организации должны определять и контролировать логику и логистику внедрения этих правил игры и их исполнение.

Безусловно, и вне всякого исключения, данные организации должны быть внешними по отношению к тем учреждениям, компаниям, где разрабатываются и производятся инструменты искусственного интеллекта.

Третий принцип (задача) состоит в том, что следует регулировать не развитие ИИ, а взаимоотношения между людьми, которые изобретают, внедряют и применяют ИИ в повседневной жизни. Основное внимание обращать на то, как применение инструментов ИИ в повседневной жизни общества влияет на формирование и развитие общественных отношений между людьми. Реализация данного принципа предполагает необходимость участия социальных ученых в разработке правил внедрения искусственного интеллекта в повседневность. Именно представители социального и гуманитарного знания должны определить систему координат, методологию и логику эмпирических исследований, в которых фиксировать отрицательные эффекты применения ИИ в повседневности, работать на опережение и определять возможные запретные зоны (табу-зоны) использования ИИ в обществе.

Но как бы там ни было, надо понимать, что принципиальные риски, как всегда в использовании новых технологий, будут исходить не от искусственного интеллекта, а от человеческой глупости и человеческих страстей. 


Читайте также


Трамп установил антирекорд популярности

Трамп установил антирекорд популярности

Геннадий Петров

Доверие американцев к нынешнему президенту США стремительно уменьшается

0
1528
Партия Миронова копирует повестку коммунистов

Партия Миронова копирует повестку коммунистов

Дарья Гармоненко

"Справедливой России – За правду" подобрали союзника для патриотического автопробега

0
1573
Конституционный суд России включил "режим бюрократа"

Конституционный суд России включил "режим бюрократа"

Екатерина Трифонова

Высшая инстанция отказалась разбираться с источниками и составными частями дохода заключенного

0
1633
КПРФ опять посмотрит на Мавзолей Ленина сквозь декорации

КПРФ опять посмотрит на Мавзолей Ленина сквозь декорации

Дарья Гармоненко

Группа быстрого реагирования по защите исторической памяти до Красной площади не добралась

0
2507

Другие новости