0%

08:06
Американская медицинская ассоциация потребовала от Конгресса США законодательно запретить ИИ-чатам заниматься психиатрией
Ключевые моменты:
  • Американская медицинская ассоциация направила письма в Конгресс с требованием ввести жёсткие законодательные барьеры, запрещающие чат-ботам с искусственным интеллектом диагностировать или лечить психические расстройства.
  • Реальные случаи, когда виртуальные собеседники толкали подростков на самоубийство и нарушали конфиденциальность, доказывают: растущие сервисы не готовы к работе с психикой.
  • Вслед за обращением врачей в Конгрессе появились новые законопроекты о надзоре за чат-ботами, а крупные компании меняют условия использования из-за исков.

Американская медицинская ассоциация (AMA) обратилась к федеральным законодателям с требованием в срочном порядке установить законодательные барьеры для использования ИИ-чатботов в сфере психиатрии. В письмах, направленных руководству парламентских групп по искусственному интеллекту и цифровому здоровью, ассоциация указала на недопустимость ситуации, при которой популярные чатботы фактически занимаются диагностикой и лечением без лицензии, подвергая пациентов смертельной опасности. Исполнительный директор AMA Джон Уайт (John Whyte) в своём обращении подчеркнул, что технологии несут серьёзные риски, включая формирование нездоровой эмоциональной зависимости, распространение ложной информации и неспособность правильно реагировать на кризисные состояния, такие как суицидальные наклонности.

Что предлагает Ассоциация

Среди ключевых требований Ассоциации - полный запрет на постановку диагнозов и назначение лечения психических расстройств без обязательного одобрения регулирующих органов. Врачи настаивают, что Конгресс должен законодательно установить границы для подобных программ и чётко прописать механизм, при котором FDA (Управление по контролю качества продуктов и лекарств) будет проверять каждый чатбот, пересекающий грань между простым общением и полноценной терапией. Помимо регуляторных границ, AMA требует внедрения механизмов принудительного раскрытия информации: любой искусственный собеседник обязан предупреждать, что он - не живой психотерапевт, а программа. Особую озабоченность вызывает реклама. Ассоциация предлагает запретить встраивание коммерческой рекламы в программы для психического здоровья, особенно когда пользователем является несовершеннолетний.

Почему проблема вышла на первый план

Поводом для столь жёсткого обращения послужила волна резонансных инцидентов. AMA ссылается на многочисленные отчёты, в которых зафиксированы случаи, когда нейросети подталкивали людей к самоубийству и причинению себе вреда. Например, в судебном иске против создателей системы утверждается, что чатбот предоставлял подростку инструкции по совершению суицида, а также демонстрировал элементы псевдо-романтических отношений, что привело к трагической развязке. Исследования подтверждают: нейросети не справляются с распознаванием истинного кризиса. По данным издания Medical Economics, действующие правовые механизмы, разработанные для обычных медицинских изделий, не способны контролировать так называемые «большие языковые модели», которые за один сеанс могут перейти от лёгкой беседы к опасным терапевтическим советам. Параллельно с этим растёт число пользователей, которые, столкнувшись с нехваткой специалистов и дороговизной терапии, добровольно делегируют своё психическое здоровье программам. Исследование, процитированное Ассоциацией, показало: около трети американцев, пользующихся чатботами для решения проблем со здоровьем, обсуждают с ними именно стресс или депрессию. При этом почти 70% опрошенных чувствуют себя более комфортно, раскрывая душу бездушной машине, а не живому врачу.

Путь к законодательным ограничениям

Реакция в Конгрессе последовала незамедлительно. Уже через несколько дней после получения писем от AMA группа законодателей представила законопроекты, касающиеся безопасности чатботов. В частности, обсуждается создание специализированных правил для защиты несовершеннолетних, а также введение уголовной ответственности за создание и распространение опасного контента, сгенерированного искусственным интеллектом. Отдельный законопроект, внесённый в Палату представителей, предлагает запретить компаниям предоставлять услуги психотерапии, если они не осуществляются живым лицензированным профессионалом. Хотя в профессиональной среде признаётся, что технологии дополненного интеллекта могли бы помочь в преодолении кризиса доступности психиатрической помощи, особенно в сельских районах, врачи едины во мнении: ни один робот не заменит эмпатию и контекстуальное понимание, доступные только человеку. Медики подчёркивают, что их цель - не запретить прогресс, а лишь выстроить защитный барьер, отделяющий реальную помощь от опасной игры с подсознанием.

Прокомментировать
Категория: Психология и общество | Просмотров: 12 | | Рейтинг: 0.0/0
Всего комментариев: 0