0
579
Газета Я так вижу Интернет-версия

29.07.2025 13:10:00

10 этических вопросов об ИИ, которые мы действительно себе задаем

Андрей Незнамов

Об авторе: Андрей Незнамов – управляющий директор Центра человекоцентричного AI Сбербанка, председатель Комиссии по реализации Кодекса этики в сфере ИИ.

Тэги: ии, искуственный интеллект, этика, кодекс


ии, искуственный интеллект, этика, кодекс Фото Reuters

Искусственный интеллект (ИИ) давно перестал быть абстракцией. Он уже активно используется в бизнесе, медицине, образовании, праве – и именно поэтому вызывает не только интерес, но и серьезные вопросы.

В прошлом году вышла «Белая книга этики в сфере ИИ» – инициатива комиссии по реализации Кодекса этики в сфере ИИ на базе Альянса в сфере ИИ, поддержанная крупнейшими участниками российского AI-сообщества, включая Сбер, Яндекс, МТС и другие. В основу книги легли более 40 вопросов, выявленных в ходе масштабного социального опроса, а также дополненных и проанализированных экспертным сообществом. Книга опирается на научные исследования, международный опыт, практические кейсы и реальные вызовы, с которыми сталкиваются разработчики и пользователи ИИ. Вот 10 вопросов – тех, что действительно волнуют пользователей, разработчиков, бизнес и научное сообщество, и ответы, которые даются в книге.

1. Какое решение должен принять беспилотный транспорт, если полностью избежать ущерба невозможно?

Классический пример – так называемая «проблема вагонетки», адаптированная для беспилотного транспорта. Но ключевое здесь – не искать «правильный» алгоритм, а признать: подобные решения не могут быть отданы на откуп машине. Принципы, по которым действует ИИ, задает человек. Именно поэтому необходимы общественные обсуждения, этические рамки и ответственность тех, кто проектирует и внедряет системы.

2. Этично ли создавать цифровые копии людей?

Современные технологии позволяют воссоздать лицо, голос, манеру поведения – но где проходит граница допустимого? Использование цифровых двойников возможно только с информированного согласия самого человека. Если речь идет об умерших, важны уважение к памяти и воле, а также соблюдение прав наследников. Принцип добровольности и этической допустимости – ключевой.

3. Почему ИИ называют «черным ящиком» – и можно ли объяснить, как он принимает решения?

Многие ИИ-модели устроены настолько сложно, что даже разработчикам бывает трудно точно объяснить, почему система пришла к тому или иному выводу. Чем глубже и многослойнее модель (например, нейросеть с миллиардами параметров), тем труднее понять внутреннюю логику ее работы. Именно поэтому в сферах, влияющих на права и судьбы людей, особенно важно развивать методы объяснимости: аудит моделей.

4. Всегда ли человек должен знать, что он взаимодействует с ИИ?

Да – особенно в тех случаях, когда это может повлиять на восприятие информации или принятие решений: в медицине, образовании, праве. Однако в некоторых повседневных сценариях – например, при использовании голосовых помощников или рекомендательных систем – факт взаимодействия с ИИ очевиден и не требует отдельного указания. Здесь важно разумно соотносить информирование и уместность.

5. Приведет ли ИИ к массовому сокращению рабочих мест?

ИИ действительно трансформирует рынок труда, автоматизируя рутинные задачи. Но, как и в предыдущие эпохи технологических изменений, исчезновение одних профессий сопровождается появлением новых. Ответственность государства и бизнеса – в обеспечении переобучения, развитии цифровых компетенций и создании условий для справедливого перехода.

6. Должен ли человек всегда иметь возможность оспорить решение ИИ?

Право оспорить решение, принятое с использованием ИИ, считается одной из фундаментальных концепций в вопросах этичного использования ИИ, но оно не является универсальным для всех случаев применения ИИ. ИИ не может быть последней инстанцией. Необходимы процедуры оспаривания, возможность пересмотра, обращение к специалисту.

7. Может ли ИИ быть предвзятым – и кто за это отвечает?

Да. ИИ учится на данных, собранных в человеческом обществе – и, как следствие, может унаследовать и воспроизводить уже существующую предвзятость. Если в обучающей выборке уже содержится искажение или неравенство, ИИ может непреднамеренно закреплять дискриминацию – по полу, возрасту, этнической принадлежности, социальному статусу. Основная ответственность лежит на разработчиках – формирование архитектур моделей, подборка и очищение данных, аудит справедливости и контроль качества решений. Но не меньшее значение имеет и то, как система применяется: пользователи должны понимать риски и нести ответственность за этичное применение технологий и помогать разработчику сообщениями о замеченных этических нарушениях.

8. Кто отвечает, если ИИ нанес вред?

Особенно остро этот вопрос стоит в медицине и других чувствительных сферах. Главная ответственность лежит на тех, кто использует ИИ как часть своей профессиональной практики – то есть на операторах, например, врачах, организациях, которые принимают решения на его основе. Вместе с тем, свою долю ответственности несут разработчики, интеграторы и все участники жизненного цикла ИИ-систем. Необходима документация, этическая экспертиза и механизмы отслеживания ошибок.

9. Может ли ИИ заменить судью?

ИИ способен ускорять анализ данных, помогать в формулировке правовых позиций. Но судебное решение – это не только логика, но и контекст, гуманность, умение учитывать уникальные обстоятельства. Поэтому ИИ может быть инструментом, но не полноценной заменой человека в сфере правосудия.

10. Этично ли использовать ИИ для социального рейтингования?

Алгоритмы, оценивающие «надежность» или «благонадежность» граждан, вызывают серьезные опасения. Они могут приводить к дискриминации, ограничению прав, социальной сегрегации. Применение таких систем требует широкого общественного, крайней прозрачности, обсуждения и добровольности. Технологии не должны подменять собой принципы равенства и достоинства.

Этика – это не надстройка, а фундамент. «Белая книга» – приглашение к разговору, а не приговор технологиям. Это попытка соединить здравый смысл, научную точность и человеческое достоинство. Искусственный интеллект – не чуждый разум, а наше зеркало. Главное – не забывать смотреть в него честно.


Читайте также


Королевства азартных зеркал

Королевства азартных зеркал

Евгений Верлин

Под давлением Китая Пномпень вроде бы начал борьбу с кибермошенничеством

0
283
Работающие пенсионеры пытаются догнать неработающих

Работающие пенсионеры пытаются догнать неработающих

Анастасия Башкатова

Часть пожилых сотрудников согласна на зарплату ниже минимального размера оплаты труда

0
390
России придется искать новых покупателей нефти

России придется искать новых покупателей нефти

Ольга Соловьева

Сбыт сырья в Китай и Индию осложнят санкционные ограничения и геополитические конфликты

0
632
Озера, реки, родники: волонтеры участвуют в проекте "Чистая вода"

Озера, реки, родники: волонтеры участвуют в проекте "Чистая вода"

Елена Крапчатова

Сотрудники "Роснефти" активно участвуют в акциях, позволяющих защитить экосистемы в регионах

0
287

Другие новости