0
4063
Газета Экономика Печатная версия

22.10.2024 20:18:00

Население России "удвоится" из-за искусственного интеллекта

Ошибки и искажения цифровизации предстоит учитывать и бизнесу, и законодателям

Тэги: новейшие технологии, искусственный интеллект, ии, цифровой помощник, ошибки, искажения, нейросети

On-Line версия

новейшие технологии, искусственный интеллект, ии, цифровой помощник, ошибки, искажения, нейросети Одни студенты используют ИИ, другие, наоборот, пытаются доказать, что они не нейросеть. Фото агентства «Москва»

У каждого россиянина в идеале однажды появится личный ИИ-помощник, который возьмет под контроль и финансовые, и иные важные вопросы, ожидают апологеты новейших технологий. По этой же логике однажды и все население планеты в определенном смысле удвоится за счет таких цифровых клонов-помощников. Но пока налицо сильнейший разрыв между ожидаемыми плодами цифровизации и тем, что по факту представляет собой искусственный интеллект – несовершенная технология, которая поддается манипуляциям и порождает катастрофические ошибки.

Сегодня критиковать технологии ИИ – это все равно что критиковать несколько десятилетий назад интернет-поисковики, без которых сейчас трудно представить взаимодействие с информацией.

Об этом говорят многие IT-специалисты в ответ на панические рассуждения о несовершенстве искусственного интеллекта.

Несовершенство, впрочем, действительно имеет место быть. Допустим, если брать сферу образования, то сейчас технологии ИИ все чаще используются как студентами, так и самими преподавателями для генерации разнообразного контента, будь то занимательные презентации или различные доклады и эссе.

Но и это не все. На следующем этапе все те же технологии, предполагающие обучение на больших массивах данных, применяются уже именно преподавателями для того, чтобы выявить сфабрикованные студентами с помощью нейросетей квалификационные работы – и такая фильтрация влияет на выставляемые студентам баллы, зачеты или незачеты.

Внедрение в различных общественных и экономических сферах все еще несовершенных технологий искусственного интеллекта приводит к попыткам противодействовать этой тенденции. Но такое противодействие строится с опорой на все те же несовершенные технологии. Отсюда ошибки не только нейросетей, порождающих многостраничный бред под видом научных изысканий, но и детекторов, призванных, казалось бы, обнаруживать цифровые симулякры.

«Использование инструментов обнаружения следов генеративного ИИ в академических текстах постепенно становится такой же общепринятой практикой, как и антиплагиат», – подтвердил «НГ» архитектор решений группы компаний DатаРу Дмитрий Тонких.

При этом, допустим, в западной прессе теперь можно найти истории о том, как учащиеся сталкиваются с отбраковкой их учебных работ или с плохими оценками из-за того, что специальные «детекторы ИИ» решают, будто эти работы были написаны с помощью нейросетей. Хотя на самом деле, как утверждается, это было не так: иногда сказывались индивидуальные особенности стиля учащихся, их эмоциональное или физическое состояние.

Доля ошибок при определении того, оригинальная работа представлена для оценки или сфабрикованная нейросетью, составляет единицы процентов, около 1–2%. Но с учетом того, что такую технологию используют, по крайней мере, в ряде западных стран уже большинство преподавателей, проблема может превратиться в снежный ком.

И самое главное: даже незначительный процент ошибок все равно чреват катастрофическими последствиями для конкретных учеников, для их репутации. Даже одна погубленная карьера - уже повод задуматься, насколько технология эффективна.

Более того, до сих пор так и не преодолена еще одна проблема – искусственный интеллект пока слишком слаб и легко поддается манипуляциям: его вполне можно обучать на изначально «отравленных», «инфицированных», то есть искаженных, данных, в результате чего его «выводы» будут заведомо ложными. Ему можно скармливать документы, содержащие определенные как безобидные, так и зловредные компоненты-команды, влияющие на его решение. В Сети уже гуляют истории о том, как некоторые IT-специалисты особым образом оформляют свои резюме, чтобы искусственный интеллект, помогающий компаниям отбирать лучших кандидатов, выбрал именно их.

И стоит ли говорить, что ошибки начинают расти уже в геометрической прогрессии, если за основу обучения для какой-либо «молодой» нейросети берутся не только нормальные данные, но и все те искажения и галлюцинации, которые ранее были порождены предшествующей нейросетью?

Как показал опрос мнений представителей IT-отрасли, с дальнейшим распространением ИИ будет возрастать необходимость и в развитии тех технологий, которые направлены на выявление и предотвращение нежелательных последствий его использования.

Как говорит менеджер по продукту в области науки о данных компании Hybrid Илья Лысенко, это обусловлено несколькими ключевыми факторами. Среди них этические и юридические аспекты. «По мере интеграции ИИ в различные сферы, такие как здравоохранение, правосудие и государственное управление, повышается риск его некорректного применения», – ожидает эксперт.

Это ставит вопрос и о новых подходах к правовому регулированию. «С распространением ИИ ужесточение нормативно-правовой базы будет неизбежным, что потребует разработки инструментов для мониторинга соблюдения новых правил и стандартов использования ИИ», – ожидает Лысенко.

Помимо этого он упомянул кибербезопасность и риски различных мошеннических фальсификаций: «С развитием технологий ИИ возрастает угроза их использования в кибератаках, фишинговых схемах и других формах мошенничества, включая создание поддельного контента, например дипфейков». Технологии для обнаружения подобных угроз будут играть ключевую роль в защите данных и предотвращении злоупотреблений.

«Упомянутые детекторы были бы полезны для выявления спорных случаев. Их сигналы должны становиться поводами для всестороннего анализа качества процессов. Особенное внимание следует уделять операциям в наиболее важных сферах – например, медицинских исследованиях, фундаментальных науках», – считает менеджер продуктов компании Innostage Евгений Сурков. Но все же окончательное решение должно оставаться за квалифицированным консилиумом экспертов, а не очередным алгоритмом.

Внедрение детекторов для обнаружения вмешательства ИИ может быть необходимо в сферах, где критически важно оценивать индивидуальные достижения и мастерство конкретных людей, добавил директор по развитию бизнеса департамента Data Insights системного интегратора Navicon Евгений Кузьмичев. Однако, по его мнению, в большинстве случаев, где технологии на базе машинного обучения уже активно внедряются для улучшения процессов, использование детекторов может оказаться как раз нецелесообразным.

«Например, графические дизайнеры, использующие нейросети для создания изображений, или разработчики, пишущие код на основе подсказок ИИ, могут существенно повысить свою продуктивность. В этих случаях внедрение детекторов может снизить качество работы и рентабельность бизнеса», – рассуждает Кузьмичев.

По его словам, вместо этого целесообразнее было бы преобразовать роли сотрудников и создать новые позиции, где люди смогли бы работать в тандеме с ИИ, контролируя результаты и избегая ущерба от автоматизированных решений. «В конечном итоге бизнес сосредоточен на достижении экономических результатов, и способ, как они были достигнуты – с помощью человека или нейросети, – не всегда имеет принципиальное значение», – уточнил эксперт.

Нужно не противостоять ИИ, а приспосабливаться к сосуществованию с ним и давать, допустим, в рамках того же учебного процесса такие задания, которые способен решить только сам студент, считает директор по исследованиям «Рейтинга Рунета» Александр Туник. Ведь именно в зависимости от поставленной задачи использование нейросетей может стать уже не главным способом решения, а лишь одним из инструментов, помогающих с разных сторон проработать тему.

Дмитрий Тонких пояснил, что стоило бы разделять использование ИИ на добросовестное и недобросовестное. Но провести между ними четкую границу для алгоритмического обнаружения – непростая задача, уточнил эксперт. 

Однако, как все же полагает Тонких, инструменты для обнаружения ИИ постепенно будут включены в стандартный контур безопасности предприятий и даже станут частью большой «гонки вооружений» в сфере информационной безопасности.

И здесь особое внимание предстоит уделить еще одной развилке: чьи инвестиции в новейшие цифровые технологии потенциально будут более продуктивными – государства, задающего сверху цели в рамках профильного нацпроекта и учитывающего задачи технологического суверенитета, или бизнеса, нацеленного на эффективность прежде всего в ее экономическом измерении.


Читайте также


В ЦК КПРФ представлены все варианты партийной тактики

В ЦК КПРФ представлены все варианты партийной тактики

Дарья Гармоненко

В начале любого внутриполитического сценария коммунисты оказываются его объектом

0
1248
В условиях санкций новыми центрами роста стали Поволжье и Урал

В условиях санкций новыми центрами роста стали Поволжье и Урал

Михаил Сергеев

Спецоперация резко изменила карту экономического развития России

0
1730
Суды предпочитают принимать решения без протокола

Суды предпочитают принимать решения без протокола

Екатерина Трифонова

Право адвоката на официальную стенограмму процесса гарантировано только законом

0
1336
Гражданский сектор промышленности оказался в стагнации

Гражданский сектор промышленности оказался в стагнации

Анастасия Башкатова

Предприятиям теперь не до инвестиций

0
1630

Другие новости