Artificial intelligence in medicine: ethical problems of communication between a doctor and a patient

Cover Page

Cite item

Full Text

Abstract

A serious challenge to the patient-oriented model of interaction between doctor and patient is posed by objective circumstances: the constantly increasing number of patients and rising healthcare costs and, therefore, the inability to provide the attention and care necessary for the patient. A likely response to the emerging "crisis of care" in medicine appears to be the use of digital technologies in clinical practice and healthcare organization. In particular, one of the possible options for using the potential of digital technologies in medicine is artificial intelligence systems (hereinafter referred to as AI).The article is devoted to the peculiarities of communication between a doctor and patients in the conditions of using artificial intelligence in clinical practice. The author identifies both the prospects for the introduction of artificial intelligence and difficulties in the process of communication between a doctor and a patient. The purpose of the article is to analyze the mechanism of influence of artificial intelligence on the process of communication between a doctor and a patient, to assess the impact of digital technologies on the basic values that develop in the process of clinical communication – respect for patient autonomy, trust, confidentiality. The main expected positive consequence of the use of AI in medicine is the freeing up of time for direct communication with the patient. However, there is a risk that it will be used to increase patient flow, especially in the commercial medical sector. It is concluded that, despite the widespread use of digital technologies, society remains wary of such innovations, especially when it concerns personal data. As a result, the level of trust and willingness to use AI systems is low. When introducing AI, it is necessary to take into account the feasibility and appropriateness of using these technologies in the provision of medical care, since, along with the effectiveness and accuracy of diagnostic results and treatment, the process of communication with a doctor remains extremely important for the patient, the opportunity to share their medical history and, during this communication, form trust necessary for joint decision-making.

Full Text

Имеющаяся история изучения вопросов взаимодействия врача и пациента и в общем виде сложившаяся тактика коммуникации обогащаются новыми вызовами со стороны общества и не утрачивают своей актуальности. Большой интерес к проблеме коммуникации врача и пациента объясняется тем, что общение, складывающееся в ходе лечебного процесса, во многом определяется условиями оказания медицинской помощи: область клинической практики (терапия, хирургия, педиатрия и т.д.), цель взаимодействия (получение консультативной помощи, диагностика, лечение). Коммуникативный процесс в современных условиях усложняется активным внедрением в практику здравоохранения новых технологий, ведущих к трансформации взаимодействия между врачом и пациентом.

Серьезный вызов пациенториентированной модели взаимодействия врача и пациента бросают объективные обстоятельства: постоянно увеличивающееся количество пациентов и растущие расходы на здравоохранение и невозможность, в связи с этим, уделять необходимые для пациента внимание и заботу. Вероятным ответом на наметившийся в медицине «кризис заботы» представляется использование цифровых технологий в клинической практике и организации здравоохранения.

В частности, одним из возможных вариантов применения потенциала цифровых технологий в медицине являются системы искусственного интеллекта (ИИ). Наряду с повышением эффективности и точности диагностики и внедрения систем поддержки принятия решений на основе машинных алгоритмов использование ИИ должно обеспечить улучшение качества коммуникации врача и пациента, создать условия для осуществления подлинной заботы о пациенте за счет сокращения времени на заполнение медицинских карт, анализ диагностических данных и т. д.

Перспективы применения ИИ в медицине требует этической оценки его преимуществ и возможных рисков для коммуникации в клинической практике [1].

Наличие в названии технического средства термина, характеризующего свойство человеческой личности, – интеллект – предполагает появление свойств субъектности у ИИ [2]. Во многом данный вопрос связан с оценкой статуса систем ИИ: от того, как именно будет ИИ интегрирован в клиническую практику, от степени его автономности, допустимого функционала, будет зависеть степень его потенциального воздействия на автономию пациента. Согласно Федеральному закону от 21.11.2011 № 323 (статья 38) «Об основах охраны здоровья граждан в Российской Федерации» любое программное обеспечение, созданное для применения в медицинских целях, является медицинским изделием. Приказ Минздрава России от 06.06.2012 № 4 утверждает классификацию программного обеспечения, которое является медицинским изделием, по классам в зависимости от потенциального риска их применения: российское программное обеспечение на основе ИИ относится к классу 3 потенциального риска. Подобное определение статуса ИИ в клинической практике формирует ограниченный характер автономии программного обеспечения, использование только в качестве вспомогательного инструмента в ходе диагностики или системе поддержки принятия решения. Однако даже в такой оптике есть вероятность возникновения серьезных этических рисков для совместного принятия решения, поскольку ИИ кардинально отличается от всех иных медицинских изделий. Инструментальный подход к использованию ИИ предполагает доверие к той сумме входных данных, на которой был «обучен» машинный алгоритм, доверие к заключению тех экспертов-врачей, которые формировали базу исходных данных для алгоритма. Поэтому совместное принятие решений уже не может быть сведено только к диалогу врача и пациента: в принятии решения опосредовано принимает участие более широкий круг лиц из числа врачей, предоставивших свои экспертные заключения для разработки алгоритма, и разработчики алгоритма, задающие определенные параметры чувствительности программы, а значит и ответственность за результат также должна быть солидарной.

Присутствие ИИ в процессе оказания медицинской помощи пациенту порождает вопросы к процессу создания доверия между врачом и пациентом. Доверие к врачу является одним из важных факторов, способствующих формированию приверженности лечению, сохранению веры в оказываемую медицинскую помощь. Наличие в общении между врачом и пациентом технического посредника в виде ИИ неизбежно приведет к возникновению дистанции между ними. Показателем эффективности оказания медицинской помощи является возможность для пациента получить понимание, сострадание и заботу со стороны медицинского персонала, что в условиях полной или частичной замены врача системой искусственного интеллекта будет затруднительно реализовать. Кроме того, даже в случае использования ИИ в качестве инструмента для обработки данных может быть потеряна значимая для клинициста информация о состоянии пациента, получить которую возможно только при непосредственном контакте с пациентом.

Взаимоотношения врача и пациента происходят в конкретных системах здравоохранения, со сложившимися организационными формами и ценностями. Поэтому внедрение любых технологических инноваций должно происходить с учетом этих обстоятельств. Традиционно оказание медицинской помощи и коммуникация между врачом и пациентом основываются на контекстуальной, обоснованной оценке состояния пациента врачом. Наличие ИИ в качестве посредника между врачом и пациентом для медицинского работника не дает возможности учитывать контекст, необходимый для объективной оценки состояния пациента. В том случае, если врач будет оценивать состояние пациента исключительно на основе измеряемых характеристик, это приведет к ограниченному пониманию клинической ситуации. Подобная ситуация может возникнуть, когда клинические оценки все больше полагаются на представления данных, построенных, например, с помощью технологии удаленного мониторинга, не подтвержденных при личной встрече врача и пациента. При этом неявные знания о состоянии пациента, отсутствие информации о психическом здоровье и благополучии, его социальном и эмоциональном состоянии, могут привести к утрате пациентом возможности преподнести свою «историю» врачам и лицами, осуществляющим уход. Преодоление этих ограничений возможно только в условиях сохранения непосредственной коммуникации между врачом и пациентом, в ходе которой развивается базовое доверие и целительные отношения [3].

Одним из условий успешной коммуникации является обоюдное согласие участников этого процесса. В связи с тем, что в обществе пока отсутствует единодушное мнение относительно ИИ, пациенты весьма настороженно воспринимают перспективы внедрения данной технологии в клиническую практику. Системы ИИ обладают достаточно обширным спектром методов диагностики, лечения, профилактики и надлежащего ухода за пациентами: устройства для помощи в выполнении повседневных действий, системы для когнитивной и эмоциональной помощи, мониторинга здоровья и поведения, социального взаимодействия, удаленной связи, экстренной сигнализации об ухудшении состояния здоровья. Однако применение данных методов требует пристального внимания и этической оценки медицинского вмешательства с применением ИИ.

Информация, полученная посредством видеонаблюдения, носимых устройств, может быть угрозой для автономии пациента и может стать причиной стигматизации, социальной изоляции пациента [4]. Согласно результатам социологического опроса, проведенного специалистами Института биомедицинской этики Базельского университета, по мнению пациентов, должны быть соблюдены некоторые условиях при привлечении к уходу систем ИИ: «В случае круглосуточного слежения особенно необходимо учитывать автономию пациентов. Пациент должен иметь возможность временно отключить устройство, если он не хочет, чтобы за ним наблюдали. Это важно. В противном случае это немного похоже на как большой брат наблюдает за тобой, и это этический вызов» [5]. Терапевтический эффект такого наблюдения должен сопоставляться со значительным нарушением личной автономии пациента и основываться на принципе благодеяния.

Осознанного подхода и этической оценки требует использование в качестве ухода за пациентами и оказания психотерапевтической помощи людям с психологическими проблемами (клиническая депрессия, суицидальный синдром) чат-ботов и роботизированных помощников на основе ИИ, поскольку существует риск нарушения принципа уважения автономии пациента. Эта технология достаточно распространена для социальной адаптации пациентов, эмоциональной поддержки и наблюдения.

Однако есть опасение, что социально-вспомога-тельные роботы в форме человека или домашнего животного могут неявно обманывать пожилых людей с деменцией и ошибочно восприниматься как настоящие люди или домашние животные. Было замечено, что даже когда зооморфные роботы явно не представляются пациентам как настоящие домашние животные, их форма, похожая на домашнее животное, может побудить пациентов воспринимать их и относиться к ним как к биологическим животным, а следовательно, быть обманчивой по своей сути [4]. Это серьезная угроза достоинству и автономии не только пациента, но и врача, поскольку может противоречить его профессиональной этике и достоинству (ведь ему приходится, по сути, обманывать пациента). Это утверждение справедливо и по отношению к пациентам с ментальными нарушениями, поскольку особенности терапии предполагают глубокий эмоциональный контакт с лечащим врачом.

В качестве примера, иллюстрирующего отчасти негативный эффект от замещения «человеческого» общения виртуальным чат-ботом, может служить эксперимент по оказанию психологической помощи людям с использованием подобной технологии. В результате данного эксперимента, в котором приняло участие 4000 человек, участники высоко оценили качество беседы и ее результат, при том, что они не были осведомлены о том, что их консультантом был ИИ. Но когда испытуемые узнали, что беседовали с чат-ботом, оказались не удовлетворены и высказали критику в адрес компании-организатора данного эксперимента [6]. Конечно, эксперимент был проведен с нарушениями, однако для рассматриваемой нами проблемы интересна реакция пользователей чат-ботов на контакт с ИИ по поводу личных проблем: пользователи высоко оценили работу консультанта, когда не знали, что общаются с искусственным интеллектом, и обесценили этот опыт, когда стало понятно, что общались не с человеком.

Как было отмечено выше, коммуникация между врачом и пациентом, опосредованная ИИ, сопровождается значительным количеством неоднозначных с этической точки зрения моментов. Однако, как отметил известный философ техники Эндрю Финберг, «мы склонны оценивать личное общение в его лучшем запоминающемся проявлении и компьютерный эквивалент этого общения в его худшем расшифрованном виде» [7].

По мнению Э. Финберга, мы не можем игнорировать использование информационных технологий и программы дистанционного мониторинга здоровья, которые демонстрируют большие перспективы. В качестве примера философ приводит опыт онлайновых групп медицинской поддержки пациентов с диагнозом боковой амниотрофический склероз, где неизлечимо больные люди могли в письменной форме обмениваться чувствами, переживаниями относительно болезни, смерти и других очень личных тем. Откровенность этого обсуждения, возможно, отчасти объясняется тем фактом, что оно велось в письменной форме между людьми, единственной связью которых был компьютер.

Данный пример напрямую не связан с системами ИИ, однако отчетливо демонстрирует возможную область их применения в клинической практике. Э. Топол, известный эксперт в области медицинского ИИ, отмечает высокую эффективность использования ИИ для оказания медицинской помощи пациентам с психическими расстройствами. В его книге «Искусственный интеллект в медицине: как умные технологии меняют подход к лечению» приведены примеры положительного психотерапевтического эффекта от общения пациентов с психическими расстройствами с системами ИИ: пациенты были более откровенны в условиях беседы с чат-ботами, чем с врачами, демонстрировали готовность делиться сокровенными мыслями [8].

Поскольку системы искусственного интеллекта оперируют данными, существует риск того, что сложный набор свойств, составляющих личность, будет сведен к набору необходимых только с клинической точки зрения данных, которые мы можем передать алгоритму. Если гипотетически предположить вероятность оказания медицинской помощи пациентам только посредством ИИ, без участия врача, то возникла бы потребность кодировать предпочтения и ценности человека в системах ИИ. Оригинальный путь преодоления барьера в коммуникации между пациентом и ИИ предлагают специалисты в сфере создания алгоритмов Майкл Кернс и Аарон Рот. В книге «Этический алгоритм. Наука разработки социально осознанных алгоритмов» авторы проводят интересную аналогию: изобретение молотка еще не дает гарантии в том, как именно люди будут его использовать. Только люди выбирают, станет молоток оружием или орудием [9]. В отношении ИИ авторы также предлагают не только оценивать долгосрочные социальные последствия его применения в медицине, но и совершенствовать саму технологию создания нейросетей, уже на этапе проектирования внедрять в алгоритмы социальные ограничения, чтобы сама технология способствовала обеспечению таких этических ценностей, как подотчетность, интерпретируемость, справедливость и конфиденциальность. Результатом этих идей должно стать создание этического алгоритма, который сможет генерировать данные с учетом требуемых в медицинской практике этических норм.

Однако при всей привлекательности подобной идеи есть некоторые моменты, которые представляют серьезную трудность для ее воплощения. Сами авторы отмечают трудность в переводе качественного содержания таких этических норм, как справедливость и конфиденциальность, в количественные данные, которые будут приемлемы для машинного обучения. Но даже в том случае, если некоторые из этических принципов будут заложены в алгоритм, то уже сгенерированные данные и их этическое, по мнению ИИ, содержание, будет трудно обойти врачу, что вновь ставит под вопрос автономию врача и возможность совместного принятия решения [9]. Действительно, подобный подход при всей его перспективности, имеет все шансы формализовать содержание этических принципов, лишить их необходимого «человеческого» содержания, часто понимаемого врачом лишь интуитивно, в контексте конкретных обстоятельств. Такие ценности и принципы, как правдивость, точность, прозрачность и подотчетность, частично формируются людьми, интерпретирующими их и уравновешивающими в конкретных случаях [10].

Заключение

Таким образом, внедрение ИИ в систему здравоохранения имеет ряд последствий для конструирования коммуникации между врачом и пациентом.

Во-первых, основным ожидаемым положительным следствием применения ИИ в медицине является высвобождение времени для непосредственного общения с пациентом. Однако существует риск, что оно будет использовано для увеличения потока пациентов, особенно в условиях коммерческого сектора медицины.

Во-вторых, несмотря на повсеместное использование цифровых технологий, в обществе сохраняется настороженное отношение к подобным новшествам, тем более, когда это касается персональных данных. В следствие этого уровень доверия и готовность обращаться к системам ИИ невысоки.

В-третьих, при внедрении ИИ необходимо учитывать целесообразность и уместность использования данных технологий при оказании медицинской помощи, поскольку, наряду с эффективностью и точностью результатов диагностики и проводимого лечения, для пациента крайне важным остается процесс коммуникации с врачом, возможность поделиться своей историей болезни и в ходе этого общения сформировать необходимое для совместного принятия решения доверие.

 

Дополнительная информация

Вклад авторов. Все авторы подтверждают соответствие своего авторства международным критериям ICMJE (все авторы внесли существенный вклад в разработку концепции, проведение исследования и подготовку статьи, прочли и одобрили финальную версию перед публикацией).

Источник финансирования. Авторы заявляют об отсутствии внешнего финансирования при проведении исследования.

Конфликт интересов. Авторы декларируют отсутствие явных и потенциальных конфликтов интересов, связанных с публикацией настоящей статьи.

Additional info information

Author contribution. All authors made a substantial contribution to the conception of the work, acquisition, analysis, interpretation of data for the work, drafting and revising the work, final approval of the version to be published and agree to be accountable for all aspects of the work.

Funding source. This study was not supported by any external sources of funding.

Competing interests. The authors declare that they have no competing interests.

×

About the authors

Yulia Yu. Kochetova

Altai State Medical University

Author for correspondence.
Email: kochetova20@mail.ru
ORCID iD: 0000-0002-8116-7966
Scopus Author ID: 57220086138

Candidate of Philosophical Sciences, Associate Professor of the Department of Philosophy

Russian Federation, Barnaul

References

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Kochetova Y.Y.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies