The Ethics of Artificial Intelligence: A Sociological Approach

Cover Page

Cite item

Full Text

Abstract

Background: to create effective mechanisms for state regulation of potential moral challenges caused by the widespread introduction of artificial intelligence technologies, it is of practical interest to study the attitude of society to this problem. The purpose of the work is a sociological analysis of the attitude of the Russian society to the introduction of artificial intelligence technologies.

Materials and methods: A comprehensive analysis of data from open access databases of All-Russian Center for the Study of Public Opinion was carried out. The materials of sociological surveys for the period 2007 to 2023 were used. Data weighted by socio-demographic parameters.

Results: The majority of respondents believe that AI cannot completely replace humans (78 %). The greatest fears of the population (noted by 50–65 % of respondents) are associated with the loss of personal data and violation of privacy boundaries, the loss of personal responsibility for erroneous actions. Every third noted the risks of violation of civil rights and social guarantees ("increases inequality", "violates the balance of interests of society and the individual"), potential ethical problems ("artificial intelligence has no morals and ethics" – 32 %).

Conclusion: Distrust of AI technologies is associated with an understanding of the social risks of their integration and an awareness of the loss of human values of communication, creativity, and individuality. Particular risks in this context are presented for social institutions of education and healthcare, where the loss of interpersonal communication calls into question the manifestation of empathy, sympathy and compassion.

Full Text

Актуальность

В последнее время наблюдается возрастающий интерес исследователей к проблемному полю этики искусственного интеллекта (ИИ), обусловленный стремительным расширением сферы его применения на фоне инерции законотворческой инициативы и сложных социально-экономических условий [1, 2, 3, 4]. Для создания эффективных механизмов государственного регулирования потенциальных моральных вызовов, эксплицированных в многочисленных исследованиях в России и за рубежом, практический интерес представляет изучение отношения социума к распространению технологий ИИ, что инициировало наше исследование [5, 6, 7].

Цель исследования

Социологический анализ отношения российского социума к внедрению технологий искусственного интеллекта.

Задачи исследования:

1. Оценить отношение российского социума к национальным достижениям в научно-технической сфере.

2. Показать экспектации социума на внедрение технологий ИИ по критериям сферы применения и возрастным группам.

3. Описать социальные риски внедрения технологий искусственного интеллекта в контексте моральных и нравственных ценностей.

Материалы и методы

Для реализации задач исследования проведен комплексный анализ данных баз открытого доступа ВЦИОМ. Использованы материалы социологических опросов за период с 2007 по 2023 г. Данные взвешены по социально-демографическим параметрам. Предельная погрешность выборки с вероятностью 95 % не превышает 2,5 %. Основные показатели результативности опросов: коэффициент кооперации (КК) = 0,8081; минимальный коэффициент ответов (МКО) = 0,0165; коэффициент достижимости (КД) = 0,0685 1.

Результаты и их обсуждение

Начальный этап нашего исследования включал анализ массивов социологических опросов населения за период с 2007 по 2023 г. на предмет интереса различных возрастных групп к достижениям российской науки [7]. Согласно результатам проведенных ВЦИОМ опросов, с 2015 г. наблюдается рост интереса населения к науке и технике после существенного спада (–30 %) в динамике 5 предыдущих лет (рис. 1).

Цифровая трансформация социальных институтов, интеграция технологий искусственного интеллекта во все социальные сферы обуславливает дискуссии не только специалистов и ученых, а также обсуждение средствами масс-медиа перспектив и потенциальных рисков для населения. По данным опроса 2020 г. тема интеграции технологий ИИ интересует все возрастные категории. В то же время полное представление о самих технологиях в возрастной группе 60+ респонденты отметили в 2 раза меньше, чем в группе 18–24 года, с конгруэнтными результатами реверсного вопроса – в группе 60+ в 2 раза выше респондентов отметили, что вообще не имеют представления о технологиях ИИ. С учетом потребительского интереса молодежи в применении ИИ, не вызывает удивления, что молодые люди в возрасте 18–24 лет лучше ориентируются в рассматриваемом поле: 82 % против 67 % в группе 45–55 лет и 53 % в группе 60+ соответственно.

Возможно, настороженное отношение россиян к технологиям ИИ определяется именно отсутствием ясного представления о них. С доверием относится к интеграции технологий ИИ не более половины респондентов (62 %). Тем не менее, даже в динамике двух лет наблюдается снижение недоверия россиян к интеграции нейросети – снижается численность респондентов, относящихся к рассматриваемым технологиям с недоверием на фоне увеличения числа комплаентных (18–20 %).

Процесс интериоризации новых технологий отражает личная оценка степени интереса к распространению технологий ИИ. Респонденты распределились примерно на равные группы по градации интереса: «с интересом» и вариант ответа «без особых эмоций» выбрали примерно по 30 % участников опроса (р > 0,5). При этом обращает внимание, что число респондентов, выбравших вариант ответа «с недоверием», статистически ничтожно. В целом негативный контекст оценки по числу ответов составил всего десятую часть ответов, положительный – практически половину ответов.

Структура комплаенса россиян к технологиям ИИ характеризуется высокой оценкой качества технологий ИИ с дифференцированным подходом к сфере возможного применения. В рейтинге доверия на первом месте определены варианты применения технологий ИИ в экстремальных для жизни и здоровья ситуациях (угроза химического или радиационного поражения, воздействие температурного фактора или инфекционного агента), которые отметил примерно каждый третий респондент. Обращает внимание, что также высоко респонденты оценили отсутствие у ИИ эмоций (34–35 %).

На втором месте аргументы, связанные со скоростью работы и минимизацией ошибок нейросети, которые отметил каждый пятый респондент. Так же, как и каждый пятый респондент убежден, что интеграция технологий искусственного интеллекта во все сферы жизни неизбежна (22–23 %). На третьем месте по градиенту доверия респондентов находится возможность использования ИИ для государственного контроля (11–12 %). Таким образом, доверие не более трети респондентов основано на убеждениях/аргументах.

Структура недоверия к технологиям ИИ более детализирована респондентами (рис. 2).

 

Рис. 1. Оценка интереса населения к науке и технике в динамике 2007–2023 гг. По оси ординат – число респондентов в процентах. По оси абсцисс – варианты ответов

 

Рис. 2. Структура недоверия россиян к технологиям искусственного интеллекта . По оси ординат – варианты ответов на вопрос: «Почему именно Вы не доверяете технологиям искусственного интеллекта?». По оси абсцисс: число респондентов в процентах

 

Примерно каждый пятый респондент считает, что ИИ менее склонен к ошибкам, как и каждый пятый имеет оппонирующую точку зрения (рис. 2). Обращает внимание, что каждый четвертый респондент считает, что ИИ не может заменить человека полностью, потому что он лишен человеческих качеств (морали, этики, эмоций), 30 % отметили, что не готовы общаться с роботом в чат-ботах, поскольку ему не доверяют.

Наибольшие социальные риски интеграции технологий ИИ респонденты видят в хищении персональных данных, отсутствии предсказуемости развития сценария и способствовании деградации интеллектуальных способностей человека.

Анализ структуры вектора доверие – недоверие к технологиям ИИ демонстрирует более выраженную транспарентность доверия респондентов, основанного на представлении о технологическом прогрессе как неизбежном процессе.

В свою очередь, недоверие к технологиям связано с эмоциональным и нравственным контентом: тревога потери контроля, страх утраты личностных качеств человека-оператора и отсутствия реального прогноза последствий внедрения нейросети в разные социальные сферы.

Личный опыт использования возможностей ИИ зависит от возрастной группы – в группе 60+ 80 % отметили его отсутствие, а в группах молодежи – 80 % пользуется ИИ для работы с видеоконтентом для учебы и развлечения (по материалам опроса 02.04.2023 г.) 1. Несмотря на это, респонденты невысоко оценили творческие возможностей ИИ: 60 % респондентов в группе 18–24 года считают, что заменить человека программой в творчестве невозможно, а в группе 60+ только 10,5 % согласились с перспективностью идеи внедрения ИИ в профессиональное поле творческой направленности (в молодежных группах таких респондентов в три раза больше).

В целом среди перспектив интеграции технологий ИИ в различные сферы наибольшее число респондентов «скорее положительно» оценивают применение ИИ в промышленности, науке и сфере строительства – примерно по 80 %.

На втором месте в рейтинге перспектив применение технологий ИИ в сфере транспорта, ЖКХ, а также в сфере экономики и банковской сферы, и в сфере досуга и развлечений – примерно по 65–70 %. В свою очередь, ниже россияне оценили перспективы применения ИИ в сфере безопасности, здравоохранения и образования – примерно по 60 %, тем не менее, более половины респондентов.

Обращает внимание, что последние места рейтинга заняли возможности использования технологии ИИ в секторе государственного управления, которые отметили 34 % респондентов. При этом каждый второй респондент рассматривает улучшение качества жизни граждан по критериям комфортности и безопасности как возможный эффект интеграции ИИ в сфере государственного управления.

В то же время в другом опросе респонденты с опасением отметили возможность использования технологии распознавания лиц в целях обеспечения правопорядка, акцентируя его допустимость только при условии сохранения личных данных и прав граждан на личную жизнь [9].

Детально демонстрируют потенциальные нравственно-моральные риски ИИ, по мнению населения, результаты таргетного опроса (рис. 3). Наибольшие опасения связаны с потерей персональных данных и нарушением границ приватности (отметили 50–65 % респондентов). Примерно также респонденты оценили риски, связанные с утратой персональной ответственности за ошибочные действия.

Каждый 3-й респондент отметил риски нарушения гражданских прав и социальных гарантий.

При этом в другом опросе 2021–2022 гг. большинство респондентов (78–82 %) отметило, что «решения в сфере безопасности с помощью искусственного интеллекта должны приниматься в интересах всего общества, а не в интересах отдельных людей».

 

Рис. 3. Экспектации населения социальных рисков внедрения технологий искусственного интеллекта. По оси ординат – варианты ответов на вопрос: «Как Вы считаете, у развития технологий искусственного интеллекта есть негативные последствия или таковых нет? Если есть, то какие из перечисленных негативных последствий вызывают у Вас наибольшее беспокойство?». По оси абсцисс: число респондентов в процентах

 

Заключение

В целом анализ интереса населения в области развития науки и техники демонстрирует ее невысокий уровень не зависимо от возраста. Даже в возрастных группах молодежи наблюдается инертность к поиску научной информации, недоверие к новым технологиям, определенный научный скепсис, с тенденцией к усилению по градиенту возраста. Недоверие к технологиям ИИ связано с пониманием социальных рисков их интеграции и осознанием потери человеческих ценностей общения, творчества, индивидуальности. Особые риски в данном контексте представляются для социальных институтов образования и здравоохранения, где утрата межличностной коммуникации ставит под сомнение проявление эмпатии, сочувствия и сострадания [10, 11].

 

Дополнительная информация

Источник финансирования. Автор заявляет об отсутствии внешнего финансирования при проведении исследования.

Конфликт интересов. Автор декларирует отсутствие явных и потенциальных конфликтов интересов, связанных с публикацией настоящей статьи.

Additional information

Funding source. This study was not supported by any external sources of funding.

Competing interests. The authors declare that they have no competing interests.

 

1 ВЦИОМ. Новости // ВЦИОМ : [сайт]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/nauka-i-zhizn-monitoring (дата обращения: 12.04.2023).

2 ВЦИОМ // ВЦИОМ : [сайт]. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyi-intellekt-ugroza-ili-svetloe-budushchee (дата обращения: 20.04.2023).

×

About the authors

Alena D. Donika

Volgograd State Medical University; Volgograd Medical Research Center

Author for correspondence.
Email: addonika@yandex.ru
ORCID iD: 0000-0003-3905-5538
Scopus Author ID: 57190221899

Doctor of Science (Sociology), Professor, Senior Researcher of Ethical, judicial and sociological expertise in medicine Department

Russian Federation, Volgograd; Volgograd

References

  1. Leushina V.V., Karpov V.E. The ethics of artifi-cial intelligence. Filosofiya i obshchestvo = Phi-losophy and society. 2022;3:124–140. (in Rus.) doi: 10.30884/jfio/2022.03.07.
  2. Karimov A.R., Khort M.G. Modern challenges in the ethics of artificial intelligence. International Scientific and Practical Conference. 2023:2:344–349. (in Rus.) doi: 10.24412/2181-1385-2023-2-344-349.
  3. Constantinescu M., Voinea C., Uszkai R., Vică C. Understanding responsibility in responsible AI. Dianoetic virtues and the hard problem of context. Ethics and Information Technology. 2021;23:803–814.
  4. Hallamaa J., Kalliokoski T. How AI systems challenge the conditions of moral agency? Inter-national conference on human-computer interac-tion. Springer, Berlin, 2020:54–64.
  5. Wallach W., Vallor S. Moral machine: from value alignment to embodied virtue. Ethics of Artificial Intelligence. Liao M (Ed). Oxford University Press, New York, NYC, 2020:383–412.
  6. Nazarova Yu.V., Kashirin A.Yu. Dilemmas of the ethics of artificial intelligence. Gumanitarnyye vedomosti TGPU im. L. N. Tolstogo. 2020;4(36):23–31. (in Rus.) doi: 10.22405/ 2304-4772-2020-1-4-23-31.
  7. Eremina M.V. Social group "65+": the ethical di-lemma of the pandemic. Bioetika = Bioethics. 2022;15(1):46–50. (in Rus.).
  8. Filippov A.V. Pandemic Lessons: Safety Ethics. Bioetika = Bioethics. 2021;1(27):32–35. (in Rus.).
  9. Sedova N.N. Bioethics in an era of change: vul-nerable groups. Bioetika = Bioethics. 2022;15(1):3–5. (in Rus.).
  10. Sedova N.N. Ethical expertise in medicine: from humanism to formalism. Bioetika = Bioethics. 2022;15(2):6–11. (in Rus.).

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Rice. 1. Assessing the population’s interest in science and technology over the course of 2007–2023. The y-axis is the number of respondents as a percentage. On the abscissa axis – answer options

Download (134KB)
3. Rice. 2. The structure of Russians’ distrust of artificial intelligence technologies. Along the y-axis are possible answers to the question: “Why exactly do you not trust artificial intelligence technologies?” X-axis: number of respondents as a percentage

Download (362KB)
4. Rice. 3. Expectations of the population of social risks of introducing artificial intelligence technologies. On the y-axis are options for answers to the question: “Do you think the development of artificial intelligence technologies has negative consequences or does not have any? If so, which of the listed negative consequences cause you the most concern? X-axis: number of respondents as a percentage

Download (292KB)

Copyright (c) 2023 Donika A.D.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies