0
4035
Газета КАРТ-БЛАНШ Печатная версия

27.05.2024 18:40:00

Естественные страсти по искусственному интеллекту

ИИ обладает своеобразной самочинностью, чего нет ни у каких других продуктов человеческой деятельности

Василий Резаев

Об авторе: Андрей Владимирович Резаев – доктор философских наук, профессор, редактор монографии «От искусственного интеллекта к искусственной социальности: новые исследовательские проблемы современной социальной аналитики» (М., 2021).

Тэги: социальная аналитика, проблемы, риски, искусственный интеллект, инструменты, повседневная жизнь, мнение


социальная аналитика, проблемы, риски, искусственный интеллект, инструменты, повседневная жизнь, мнение Фото Reuters

Мы принимаем тезис о том, что рассуждения о технологиях и внедрении в повседневную жизнь общества инструментов искусственного интеллекта (ИИ) – дело профессионалов. Разумеется, не все читатели «НГ» являются таковыми. Тем не менее считаем необходимым обратить внимание на несколько существенных моментов, характеризующих вхождение ИИ в повседневность.

Для этого сформулируем пять тезисов, две проблемы, которые необходимо решать не завтра, а уже сегодня, и три принципа регуляции ИИ.

Итак, тезисы.

1. Не следует рассматривать ИИ как «продукт», как «нечто», такое же как, например, самолет, или автомобиль, или телефон. У ИИ есть своеобразная самочинность, самостоятельность, чего нет ни у каких других продуктов человеческой деятельности. Инструменты ИИ могут самообучаться, взаимодействовать с другими машинами, принимать функциональные решения без участия человека, выступать самостоятельным агентом при производстве продуктов, связанных с написанием текстов и изображением.

2. История техники учит тому, что человек начинает регулировать технологические новшества для использования в повседневной жизни после каких-либо серьезных происшествий. Другими словами, для того чтобы те, кто будет регулировать ИИ, проснулись или стали серьезно делать свое дело, должен произойти какой-либо существенный кризис, может быть, трагедия.

3. В ситуации с ИИ сложно понять, в чем может проявиться настоящий кризис. Скорее всего регуляторы, законодатели начнут что-то делать и, очевидно, сразу и немедленно вводить запреты после того, как, например, полностью нарушится логика и практика избирательного процесса во властные структуры. По крайней мере именно это плюс получение прибылей (пример: иск газеты The New York Times к компании Open AI по поводу того, что последняя использует публикации в газете для обучения своих инструментов ИИ и не платит) пока заботит тех, кто может хоть как-то регулировать развитие ИИ в других странах.

4. С одной стороны, интернет практически стал единственным источником информации, ненадежным, но дешевым. А с другой – инструменты ИИ, удешевляя и делая интернет более доступным источником, одновременно дисквалифицирует, убивает его как источник истинной информации. В поисках истинной информации в интернете люди будут получать в лучшем случае редактируемую в чьих-то интересах информацию или в норме – информацию, которая будет в чем-то истинна, а в чем-то ложна. В худшем случае любая информация из интернета будет ложной, но выглядеть как истинная.

5. Сущность происходящих изменений (положительных и отрицательных), которые зависят от внедрения технологий ИИ, имеет абсолютно социальный характер. Отсюда призыв лидеров и ведущих разработчиков современных инструментов ИИ, прозвучавший год назад о необходимости сделать паузу, приостановиться и оглядеться (март 2023), не был услышан именно теми, кем этот призыв должен был быть услышан в первую очередь – социальными учеными, политиками, людьми, принимающими решения в отношении социальной и гуманитарной проблематики развития ИИ.

Теперь – проблемы, связанные с ИИ.

1. Главное в сегодняшней ситуации – определить кто, как и чему будет обучать тех, кто обязательно станет регулировать использование ИИ.

Сейчас эти люди обучаются с помощью того же интернета, социальных медиа, очень отрывистых контактов на различных выставках, форумах, саммитах – это в лучшем случае. В худшем – не обучаются нигде и будут действовать как прикажут.

2. Очевидно, что сегодня организациями, которые хоть что-то понимают в ИИ, являются именно те организации, которые создают технологии и инструменты искусственного интеллекта. Университеты намного отстают от этих организаций по ресурсам и возможностям. У университетов нет ни экономических ресурсов, ни технологических возможностей стать такой организацией. Зато есть интеллектуальные ресурсы, которые должны быть привлечены к работе. Таким образом, на нынешнем этапе регулирования принципиальным становится объединение интеллектуальных ресурсов университетов и производителей продуктов ИИ в новой организационной структуре, нацеленной на выработку формальных правил внедрения ИИ в повседневную жизнь общества.

Принципы регуляции.

Первый принцип: регуляция применения ИИ в повседневной жизни – постоянный процесс, а не одно (несколько) – моментные действия запретительного характера. Регулятивные механизмы внедрения инструментов ИИ, особенно на начальных этапах, когда еще в какой-то мере работает самоконтроль производителей продуктов ИИ, должны быть ориентированы не на «Запретить», а на «Создать», «Организовать».

Второй принцип (задача) состоит в том, чтобы создать социальные институты (то есть определить и зафиксировать формальные правила) и организации, где эти правила будут вырабатывать, и самое главное – эти организации должны определять и контролировать логику и логистику внедрения этих правил игры и их исполнение.

Безусловно, и вне всякого исключения, данные организации должны быть внешними по отношению к тем учреждениям, компаниям, где разрабатываются и производятся инструменты искусственного интеллекта.

Третий принцип (задача) состоит в том, что следует регулировать не развитие ИИ, а взаимоотношения между людьми, которые изобретают, внедряют и применяют ИИ в повседневной жизни. Основное внимание обращать на то, как применение инструментов ИИ в повседневной жизни общества влияет на формирование и развитие общественных отношений между людьми. Реализация данного принципа предполагает необходимость участия социальных ученых в разработке правил внедрения искусственного интеллекта в повседневность. Именно представители социального и гуманитарного знания должны определить систему координат, методологию и логику эмпирических исследований, в которых фиксировать отрицательные эффекты применения ИИ в повседневности, работать на опережение и определять возможные запретные зоны (табу-зоны) использования ИИ в обществе.

Но как бы там ни было, надо понимать, что принципиальные риски, как всегда в использовании новых технологий, будут исходить не от искусственного интеллекта, а от человеческой глупости и человеческих страстей. 


Читайте также


Пузырь искусственного интеллекта дал первую утечку

Пузырь искусственного интеллекта дал первую утечку

Михаил Сергеев

Мировые распродажи акций достигли трех триллионов долларов

0
2445
Искусственный интеллект потеснил юриспруденцию

Искусственный интеллект потеснил юриспруденцию

Елена Герасимова

Как менялся спрос на направления подготовки в вузах в разные годы

0
1578
Губернаторские выборы пройдут без киношных схваток

Губернаторские выборы пройдут без киношных схваток

Дарья Гармоненко

Регионы в отчетах о ходе кампаний заменяют аббревиатуру КОЛ на СУК

0
1901
На время СВО президент отменил аппаратную возню

На время СВО президент отменил аппаратную возню

Дарья Гармоненко

Запущенная в мае кадровая рокировка в Совбезе РФ и Минобороны завершилась к концу июля

0
2806

Другие новости