Вы здесь

Кто возьмет на себя вину, если ИИ ошибается?

Согласно новому докладу, опубликованному Европейским региональным бюро Всемирной организации здравоохранения, только в четырех странах Европейского региона ВОЗ (8%) существуют стандарты определения ответственности в случае, если инструмент искусственного интеллекта (ИИ) совершает ошибку или причиняет вред в учреждениях здравоохранения. Из этих стран только  Россия имеет полные стандарты ответственности в соответствии с критериями ВОЗ. В Испании, Бельгии и Швеции стандарты ответственности существуют, но неполные.

Отсутствие правовой инфраструктуры происходит в то время, когда две трети стран региона сообщают об использовании ИИ для диагностики, а половина — об использовании ИИ-чатботов для поддержки пациентов, пишут авторы доклада.

«ИИ стремительно движется вперёд, в то время как наша грамотность и законы всё ещё завязывают шнурки», — сказала Шарлотта Близ, доцент кафедры цифрового здравоохранения Уппсальского университета (Швеция) и автор книги « Доктор Бот: почему врачи могут нас подвести — и как ИИ может спасти жизни». - У большинства стран до сих пор нет полноценного плана внедрения ИИ в здравоохранение: множество стратегических документов, но очень мало реальных инвестиций. Мы прикручиваем инструменты XXI века к законам XX века».

Из стран, опрошенных Европейским региональным бюро ВОЗ, 92% заявили, что правила ответственности будут способствовать широкому внедрению ИИ в здравоохранении. Девять из десяти стран заявили, что руководство по прозрачности, проверяемости и объяснимости также будет полезным.

«Отсутствие чётких стандартов, особенно в отношении ответственности, создаёт реальные проблемы. Врачи могут начать сомневаться в целесообразности использования ИИ, опасаясь правовых последствий, или же чрезмерно полагаться на него, полагая, что система несёт ответственность. Оба сценария повышают риски для безопасности пациентов», — говорит Ханс Клюге, доктор медицинских наук, региональный директор ВОЗ в Европе .

Доклад Европейского регионального бюро ВОЗ основан на данных опроса, проведенного в период с июня 2024 года по март 2025 года в 50 из 53 государств Европы. Основная проблема разработки стандартов ответственности для ИИ в здравоохранении заключается в разрыве в ответственности, говорит доцент кафедры философии и истории науки Будапештского университета технологий и экономики Михай Хедер: «Система, принимающая решения, не является юридически ответственным субъектом, поскольку общество не считает её моральным субъектом, и эта позиция не может сохраняться долгое время. Следовательно, ответственность должна быть возложена на кого-то другого, и это перераспределение далеко не тривиально».

Он добавил, что ошибки ИИ в здравоохранении не приведут к выявлению единственного виновника, а скорее к совместной ответственности разработчика системы, больницы, внедрившей её, и врача, который её использовал. Задача заключается в определении степени ответственности каждого. 

По словам Клюге, нейронные сети и модели глубокого обучения со временем адаптируются, что затрудняет применение традиционных механизмов ответственности за продукт, которые могли бы привлечь к ответственности их создателей. «Проблема множества рук» усложняет ситуацию. Разработка ИИ требует участия множества людей, что затрудняет отслеживание причинения вреда конкретному лицу.

Помимо этого, многие продвинутые алгоритмы работают как «черные ящики», то есть врачи и регулирующие органы не понимают, как входные данные приводят к принятию клинических решений, что, по словам Клюге, усложняет подотчетность, затрудняет обнаружение вреда и ограничивает размер компенсации пострадавшим лицам. Больницы могут быть привлечены к ответственности, если будут действовать неосторожно при выборе или управлении инструментами ИИ. А если производители будут давать чёткие предупреждения и требовать, чтобы системой управлял обученный врач, ответственность за безопасную эксплуатацию может переложить на врачей. 

В июле 2024 года ЕС опубликовал Закон об искусственном интеллекте (ИИ) , первый в мире правовой акт в области ИИ. Он определяет приложения ИИ в здравоохранении как «высокорисковые», что означает, что они должны соответствовать строгим стандартам безопасности, качества данных, человеческого контроля и прозрачности. Однако точные правила для таких высокорисковых приложений ИИ вступят в силу только в августе 2026 и августе 2027 года.

«Стандарты, возможно, и становятся ближе по всей Европе, по крайней мере на бумаге, но для пациентов реальность остается в значительной степени локальной; то есть опыт в Стокгольме, Дублине или Бухаресте по-прежнему выглядит совсем иначе», — сказала Близ.

Учитывая, что в большинстве стран пока нет специальных правил ответственности за нарушения в сфере здравоохранения, связанных с ИИ, юридические органы могут решить решать проблемы, связанные с ошибками, вызванными ИИ, используя существующую инфраструктуру. Например, в Швеции дела, связанные с ИИ, рассматриваются в рамках «системы компенсации ущерба пациенту без вины», которая сначала выплачивает компенсацию пациенту, а затем рассматривает ответственность, отметила Близ. «Я считаю, что необходимо подчеркнуть следующее: этот чёрный ящик ответственности в медицине ненамного лучше без ИИ. Ошибки в здравоохранении практически не подлежат ответственности и признаются, а зачастую они происходят из-за человеческого фактора», — сказала она. 

Близ добавила немного оптимизма. Одним из преимуществ работы с ИИ является то, что его легче допрашивать, чем врачей-людей, благодаря цифровым следам и чётким техническим стандартам. Это, по её словам, означает, что приложения ИИ могут использоваться для привлечения людей к ответственности, выявляя случаи, когда врач игнорировал рекомендации или неправильно использовал инструмент. «В некотором смысле ИИ может сделать ответственность обеих сторон более четкой», — сказала она.

По словам Клюге, в настоящее время Европейское региональное бюро ВОЗ обсуждает с государствами-членами наилучший путь продвижения вперед региональной дорожной карты по внедрению ИИ в здравоохранение.

Игорь НАУМОВ

По материалам Medscape

понедельник, 24 ноября, 2025 - 09:56

Издательский отдел:  +7 (495) 608-85-44           Реклама: +7 (495) 608-85-44, 
E-mail: mg-podpiska@mail.ru                                  Е-mail rekmedic@mgzt.ru

Отдел информации                                             Справки: 8 (495) 608-86-95
E-mail: inform@mgzt.ru                                          E-mail: mggazeta@mgzt.ru