Мир здравоохранения стоит перед переломным моментом. В своём выступлении на Совещании высокого уровня в Валлетте в ноябре 2025 года директор Европейского регионального бюро ВОЗ доктор Ханс Клуге чётко обозначил дилемму: искусственный интеллект (ИИ) может либо стать силой, объединяющей и расширяющей доступ к качественной медицинской помощи, либо — усугубить неравенство, подорвать доверие и превратить цифровые инструменты в средство дискриминации.
Судьба этой революции зависит не от кода, а от этики, управления и ценностей, лежащих в основе внедрения технологий. В этом контексте особенно остро встаёт вопрос кадрового дефицита — не как локальная российская проблема, а как глобальный вызов, требующий системного и, увы, не всегда гуманного ответа.
Дефицит кадров: общемировой вызов, а не российская особенность
Многие считают нехватку медицинских работников первичного звена исключительно российской болезнью — результатом низких зарплат, миграции специалистов в частный сектор или в другие страны. Однако статистика ВОЗ говорит иное: к 2030 году глобальный дефицит медицинских кадров достигнет 11 миллионов человек. Это касается и Европы, и Африки, и даже стран с развитыми системами здравоохранения. В условиях, когда рост числа пожилых пациентов, хронических заболеваний и ожиданий от системы ОМС опережает возможности человеческого ресурса, ИИ становится не модной «фишкой», а вынужденной стратегией выживания системы.
ВОЗ прямо указывает: технологии искусственного интеллекта рассматриваются как один из ключевых инструментов компенсации кадрового дефицита. Особенно в диагностике, оценке состояний, обработке изображений и рутинной документации — областях, где человек несёт максимальную административную нагрузку, но минимальную эмоциональную отдачу. И здесь уже нет «если» — речь идёт о «как» и «на каких условиях».
Россия на пороге цифрового прорыва: 48 зарегистрированных ИИ-решений
В России этот процесс уже запущен. Как заявил министр здравоохранения Михаил Мурашко на форуме «Novamed-2025», на сегодняшний день в реестре Росздравнадзора числится 48 медицинских программ на базе ИИ. Это решения, ориентированные на анализ больших массивов данных, поддержку врачебных решений, автоматизацию интерпретации КТ, МРТ, маммограмм и ЭКГ. Интерес к таким технологиям растёт как со стороны разработчиков, так и со стороны медицинских организаций — особенно на фоне давления по повышению эффективности и сокращению сроков диагностики.
Однако важно понимать: речь пока не о замене врача, а о расширении его возможностей. ИИ не ставит диагноз — он помогает врачу быстрее, точнее и с меньшим риском ошибки принять решение. Тем не менее, с юридической точки зрения граница ответственности при использовании таких систем остаётся размытой, а нормативная база — незрелой.
«Наставничество» как тактическое, но не стратегическое решение
Новое законодательство, вводящее обязательное наставничество для выпускников медицинских вузов и колледжей, безусловно, может дать краткосрочный эффект: больше молодых специалистов, быстрее включённых в процесс, снижение нагрузки на опытных коллег.
Однако с точки зрения стратегического планирования эта мера не решает корневых проблем:
- оттока кадров из первичного звена из-за неприемлемых условий труда и «майских указов», формирующих иллюзию достойной оплаты;
- дисбаланса между нагрузкой и компенсацией;
- эмоционального выгорания, особенно в условиях роста числа хронических пациентов и цифровой бюрократии.
ИИ, в отличие от человека, не требует майских зарплат, не уходит в декрет, не болеет и готов работать 24/7. Он не устаёт и не ошибается из-за усталости — но требует серьёзных инвестиций в инфраструктуру, кибербезопасность и обновление алгоритмов. Это не дешевле, но предсказуемее.
Этический вызов и юридическая ответственность
Здесь возникает главный вопрос, который особенно актуален для медицинского юриста: кто несёт ответственность, если ИИ ошибся? Всего 4 из 50 стран Европейского региона имеют чёткие стандарты распределения ответственности при сбое ИИ-инструментов. В России таких норм пока нет. При этом применение ИИ в клинической практике уже фактически началось.
Без прозрачной правовой базы, обязательных стандартов верификации алгоритмов и механизмов судебной защиты пациентов, внедрение ИИ рискует превратиться в «чёрный ящик», в котором ни врач, ни разработчик, ни администрация не чувствуют личной ответственности. Это подрывает не только доверие к технологиям, но и к самой системе здравоохранения.
Не ИИ управляет человеком — человек управляет ИИ
Доктор Клуге был прав: история использования ИИ в здравоохранении должна принадлежать людям — как пациентам, так и медицинским работникам. Но для этого нужна не только технология, но и зрелое законодательство, этические рамки и профессиональная воля. Россия не может позволить себе быть пассивным наблюдателем в этом процессе. Мы должны активно участвовать в формировании норм, требований к сертификации, прозрачности алгоритмов и защиты прав пациентов.
ИИ — не панацея, но и не угроза. Это инструмент. И как любой инструмент, он отражает ценности и компетентность тех, кто его создаёт и применяет.
Во время посещения сайта вы соглашаетесь с использованием нами файлов cookies, Пользовательским соглашением и даете согласие на обработку персональных данных.