Этика искусственного интеллекта: социологический подход

Обложка

Цитировать

Полный текст

Аннотация

Актуальность. Для создания эффективных механизмов государственного регулирования потенциальных моральных вызовов, обусловленных широким внедрением технологий искусственного интеллекта, практический интерес представляет изучение отношения социума к данной проблеме.

Цель работы – социологический анализ отношения российского социума к внедрению технологий искусственного интеллекта Всероссийским центром изучения общественного мнения. Использованы материалы социологических опросов за период 2007–2023 гг. Данные взвешены по социально-демографическим параметрам.

Результаты. Большинство респондентов считает, что искусственный интеллект не может полностью заменить человека (78 %). Наибольшие опасения населения (отметили 50–65 % респондентов) связаны с потерей персональных данных и нарушением границ приватности, утратой персональной ответственности за ошибочные действия. Каждый третий респондент отметил риски нарушения гражданских прав и социальных гарантий («усиливает неравенство», «нарушает баланс интересов общества и человека»), потенциальные этические проблемы («у искусственного интеллекта нет морали и этики» – 32 %).

Заключение. Недоверие к технологиям ИИ связано с пониманием социальных рисков их интеграции и осознанием потери человеческих ценностей общения, творчества, индивидуальности. Особые риски в данном контексте представляются для социальных институтов образования и здравоохранения, где утрата межличностной коммуникации ставит под сомнение проявление эмпатии, сочувствия и сострадания.

Полный текст

Актуальность

В последнее время наблюдается возрастающий интерес исследователей к проблемному полю этики искусственного интеллекта (ИИ), обусловленный стремительным расширением сферы его применения на фоне инерции законотворческой инициативы и сложных социально-экономических условий [1, 2, 3, 4]. Для создания эффективных механизмов государственного регулирования потенциальных моральных вызовов, эксплицированных в многочисленных исследованиях в России и за рубежом, практический интерес представляет изучение отношения социума к распространению технологий ИИ, что инициировало наше исследование [5, 6, 7].

Цель исследования

Социологический анализ отношения российского социума к внедрению технологий искусственного интеллекта.

Задачи исследования:

1. Оценить отношение российского социума к национальным достижениям в научно-технической сфере.

2. Показать экспектации социума на внедрение технологий ИИ по критериям сферы применения и возрастным группам.

3. Описать социальные риски внедрения технологий искусственного интеллекта в контексте моральных и нравственных ценностей.

Материалы и методы

Для реализации задач исследования проведен комплексный анализ данных баз открытого доступа ВЦИОМ. Использованы материалы социологических опросов за период с 2007 по 2023 г. Данные взвешены по социально-демографическим параметрам. Предельная погрешность выборки с вероятностью 95 % не превышает 2,5 %. Основные показатели результативности опросов: коэффициент кооперации (КК) = 0,8081; минимальный коэффициент ответов (МКО) = 0,0165; коэффициент достижимости (КД) = 0,0685 1.

Результаты и их обсуждение

Начальный этап нашего исследования включал анализ массивов социологических опросов населения за период с 2007 по 2023 г. на предмет интереса различных возрастных групп к достижениям российской науки [7]. Согласно результатам проведенных ВЦИОМ опросов, с 2015 г. наблюдается рост интереса населения к науке и технике после существенного спада (–30 %) в динамике 5 предыдущих лет (рис. 1).

Цифровая трансформация социальных институтов, интеграция технологий искусственного интеллекта во все социальные сферы обуславливает дискуссии не только специалистов и ученых, а также обсуждение средствами масс-медиа перспектив и потенциальных рисков для населения. По данным опроса 2020 г. тема интеграции технологий ИИ интересует все возрастные категории. В то же время полное представление о самих технологиях в возрастной группе 60+ респонденты отметили в 2 раза меньше, чем в группе 18–24 года, с конгруэнтными результатами реверсного вопроса – в группе 60+ в 2 раза выше респондентов отметили, что вообще не имеют представления о технологиях ИИ. С учетом потребительского интереса молодежи в применении ИИ, не вызывает удивления, что молодые люди в возрасте 18–24 лет лучше ориентируются в рассматриваемом поле: 82 % против 67 % в группе 45–55 лет и 53 % в группе 60+ соответственно.

Возможно, настороженное отношение россиян к технологиям ИИ определяется именно отсутствием ясного представления о них. С доверием относится к интеграции технологий ИИ не более половины респондентов (62 %). Тем не менее, даже в динамике двух лет наблюдается снижение недоверия россиян к интеграции нейросети – снижается численность респондентов, относящихся к рассматриваемым технологиям с недоверием на фоне увеличения числа комплаентных (18–20 %).

Процесс интериоризации новых технологий отражает личная оценка степени интереса к распространению технологий ИИ. Респонденты распределились примерно на равные группы по градации интереса: «с интересом» и вариант ответа «без особых эмоций» выбрали примерно по 30 % участников опроса (р > 0,5). При этом обращает внимание, что число респондентов, выбравших вариант ответа «с недоверием», статистически ничтожно. В целом негативный контекст оценки по числу ответов составил всего десятую часть ответов, положительный – практически половину ответов.

Структура комплаенса россиян к технологиям ИИ характеризуется высокой оценкой качества технологий ИИ с дифференцированным подходом к сфере возможного применения. В рейтинге доверия на первом месте определены варианты применения технологий ИИ в экстремальных для жизни и здоровья ситуациях (угроза химического или радиационного поражения, воздействие температурного фактора или инфекционного агента), которые отметил примерно каждый третий респондент. Обращает внимание, что также высоко респонденты оценили отсутствие у ИИ эмоций (34–35 %).

На втором месте аргументы, связанные со скоростью работы и минимизацией ошибок нейросети, которые отметил каждый пятый респондент. Так же, как и каждый пятый респондент убежден, что интеграция технологий искусственного интеллекта во все сферы жизни неизбежна (22–23 %). На третьем месте по градиенту доверия респондентов находится возможность использования ИИ для государственного контроля (11–12 %). Таким образом, доверие не более трети респондентов основано на убеждениях/аргументах.

Структура недоверия к технологиям ИИ более детализирована респондентами (рис. 2).

 

Рис. 1. Оценка интереса населения к науке и технике в динамике 2007–2023 гг. По оси ординат – число респондентов в процентах. По оси абсцисс – варианты ответов

 

Рис. 2. Структура недоверия россиян к технологиям искусственного интеллекта . По оси ординат – варианты ответов на вопрос: «Почему именно Вы не доверяете технологиям искусственного интеллекта?». По оси абсцисс: число респондентов в процентах

 

Примерно каждый пятый респондент считает, что ИИ менее склонен к ошибкам, как и каждый пятый имеет оппонирующую точку зрения (рис. 2). Обращает внимание, что каждый четвертый респондент считает, что ИИ не может заменить человека полностью, потому что он лишен человеческих качеств (морали, этики, эмоций), 30 % отметили, что не готовы общаться с роботом в чат-ботах, поскольку ему не доверяют.

Наибольшие социальные риски интеграции технологий ИИ респонденты видят в хищении персональных данных, отсутствии предсказуемости развития сценария и способствовании деградации интеллектуальных способностей человека.

Анализ структуры вектора доверие – недоверие к технологиям ИИ демонстрирует более выраженную транспарентность доверия респондентов, основанного на представлении о технологическом прогрессе как неизбежном процессе.

В свою очередь, недоверие к технологиям связано с эмоциональным и нравственным контентом: тревога потери контроля, страх утраты личностных качеств человека-оператора и отсутствия реального прогноза последствий внедрения нейросети в разные социальные сферы.

Личный опыт использования возможностей ИИ зависит от возрастной группы – в группе 60+ 80 % отметили его отсутствие, а в группах молодежи – 80 % пользуется ИИ для работы с видеоконтентом для учебы и развлечения (по материалам опроса 02.04.2023 г.) 1. Несмотря на это, респонденты невысоко оценили творческие возможностей ИИ: 60 % респондентов в группе 18–24 года считают, что заменить человека программой в творчестве невозможно, а в группе 60+ только 10,5 % согласились с перспективностью идеи внедрения ИИ в профессиональное поле творческой направленности (в молодежных группах таких респондентов в три раза больше).

В целом среди перспектив интеграции технологий ИИ в различные сферы наибольшее число респондентов «скорее положительно» оценивают применение ИИ в промышленности, науке и сфере строительства – примерно по 80 %.

На втором месте в рейтинге перспектив применение технологий ИИ в сфере транспорта, ЖКХ, а также в сфере экономики и банковской сферы, и в сфере досуга и развлечений – примерно по 65–70 %. В свою очередь, ниже россияне оценили перспективы применения ИИ в сфере безопасности, здравоохранения и образования – примерно по 60 %, тем не менее, более половины респондентов.

Обращает внимание, что последние места рейтинга заняли возможности использования технологии ИИ в секторе государственного управления, которые отметили 34 % респондентов. При этом каждый второй респондент рассматривает улучшение качества жизни граждан по критериям комфортности и безопасности как возможный эффект интеграции ИИ в сфере государственного управления.

В то же время в другом опросе респонденты с опасением отметили возможность использования технологии распознавания лиц в целях обеспечения правопорядка, акцентируя его допустимость только при условии сохранения личных данных и прав граждан на личную жизнь [9].

Детально демонстрируют потенциальные нравственно-моральные риски ИИ, по мнению населения, результаты таргетного опроса (рис. 3). Наибольшие опасения связаны с потерей персональных данных и нарушением границ приватности (отметили 50–65 % респондентов). Примерно также респонденты оценили риски, связанные с утратой персональной ответственности за ошибочные действия.

Каждый 3-й респондент отметил риски нарушения гражданских прав и социальных гарантий.

При этом в другом опросе 2021–2022 гг. большинство респондентов (78–82 %) отметило, что «решения в сфере безопасности с помощью искусственного интеллекта должны приниматься в интересах всего общества, а не в интересах отдельных людей».

 

Рис. 3. Экспектации населения социальных рисков внедрения технологий искусственного интеллекта. По оси ординат – варианты ответов на вопрос: «Как Вы считаете, у развития технологий искусственного интеллекта есть негативные последствия или таковых нет? Если есть, то какие из перечисленных негативных последствий вызывают у Вас наибольшее беспокойство?». По оси абсцисс: число респондентов в процентах

 

Заключение

В целом анализ интереса населения в области развития науки и техники демонстрирует ее невысокий уровень не зависимо от возраста. Даже в возрастных группах молодежи наблюдается инертность к поиску научной информации, недоверие к новым технологиям, определенный научный скепсис, с тенденцией к усилению по градиенту возраста. Недоверие к технологиям ИИ связано с пониманием социальных рисков их интеграции и осознанием потери человеческих ценностей общения, творчества, индивидуальности. Особые риски в данном контексте представляются для социальных институтов образования и здравоохранения, где утрата межличностной коммуникации ставит под сомнение проявление эмпатии, сочувствия и сострадания [10, 11].

 

Дополнительная информация

Источник финансирования. Автор заявляет об отсутствии внешнего финансирования при проведении исследования.

Конфликт интересов. Автор декларирует отсутствие явных и потенциальных конфликтов интересов, связанных с публикацией настоящей статьи.

Additional information

Funding source. This study was not supported by any external sources of funding.

Competing interests. The authors declare that they have no competing interests.

 

1 ВЦИОМ. Новости // ВЦИОМ : [сайт]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/nauka-i-zhizn-monitoring (дата обращения: 12.04.2023).

2 ВЦИОМ // ВЦИОМ : [сайт]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyi-intellekt-ugroza-ili-svetloe-budushchee (дата обращения: 20.04.2023).

×

Об авторах

Алена Димитриевна Доника

Волгоградский государственный медицинский университет; Волгоградский медицинский научный центр

Автор, ответственный за переписку.
Email: addonika@yandex.ru
ORCID iD: 0000-0003-3905-5538
Scopus Author ID: 57190221899

кандидат медицинских наук, доктор социологических наук, профессор, старший научный сотрудник Лаборатории этической, правовой и социологической экспертизы в медицине

Россия, Волгоград; Волгоград

Список литературы

  1. Леушина В.В., Карпов В.Э. Этика искусствен-ного интеллекта // Философия и общество. 2022. № 3. С. 124–140. doi: 10.30884/jfio/2022.03.07.
  2. Каримов А.Р., Хорт М.Г. Современные вызо-вы в этике искусственного интеллекта // Inter-national Scientific and Practical Conference. 2023. № 2. С. 344–349. doi: 10.24412/2181-1385-2023-2-344-349.
  3. Constantinescu M., Voinea C., Uszkai R., Vică C. Understanding responsibility in responsible AI. Dianoetic virtues and the hard problem of context // Ethics and Information Technology. 2021. No. 23. P. 803–814.
  4. Hallamaa J., Kalliokoski T. How AI systems challenge the conditions of moral agency? // In-ternational conference on human-computer inter-action. Springer, Berlin, 2020. P. 54–64.
  5. Wallach W., Vallor S. Moral machine: from value alignment to embodied virtue // Ethics of Artificial Intelligence / Liao M (Ed). Oxford University Press, New York, NYC, 2020. P. 383–412.
  6. Назарова Ю.В., Каширин А.Ю. Дилеммы эти-ки искусственного интеллекта // Гуманитарные ведомости ТГПУ им. Л. Н. Толстого. 2020. № 4 (36). С. 23–31. doi: 10.22405/2304-4772-2020-1-4-23-31.
  7. Доника А.Д. Социологический прогноз ком-плаентности молодежи к современным векто-рам государственной политики: монография. Тамбов: ООО «Юником», 2023. 88 с. URL: https://ukonf.com/doc/mon. 2023.08.01.pdf.
  8. Еремина М.В. Социальная группа «65+»: эти-ческая дилемма пандемии // Биоэтика. 2022. Т. 15. № 1. С. 46–50.
  9. Филиппов А.В. Уроки пандемии: этика без-опасности // Биоэтика. 2021. Т. 27. № 1. С. 32–35.
  10. Седова Н.Н. Биоэтика в эпоху перемен: неза-щищенные группы // Биоэтика. 2022. Т. 15. № 1. С. 3–5.
  11. Седова Н.Н. Этическая экспертиза в меди-цине: от гуманизма к формализму // Биоэтика. 2022. Т. 15. № 2. С. 6–11.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Оценка интереса населения к науке и технике в динамике 2007–2023 гг. По оси ординат – число респондентов в процентах. По оси абсцисс – варианты ответов

Скачать (134KB)
3. Рис. 2. Структура недоверия россиян к технологиям искусственного интеллекта . По оси ординат – варианты ответов на вопрос: «Почему именно Вы не доверяете технологиям искусственного интеллекта?». По оси абсцисс: число респондентов в процентах

Скачать (362KB)
4. Рис. 3. Экспектации населения социальных рисков внедрения технологий искусственного интеллекта. По оси ординат – варианты ответов на вопрос: «Как Вы считаете, у развития технологий искусственного интеллекта есть негативные последствия или таковых нет? Если есть, то какие из перечисленных негативных последствий вызывают у Вас наибольшее беспокойство?». По оси абсцисс: число респондентов в процентах

Скачать (292KB)

© Доника А.Д., 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах