Мужчина получил бромизм и психоз, прислушиваясь к советам ChatGPT

10 августа 2025
Время чтения 2 мин.
16 Просмотров

В социальных сетях и на просторах интернета всё чаще появляются истории, вызывающие тревогу и напоминания о необходимости осторожного подхода к использованию искусственного интеллекта в сфере здравоохранения. Недавний случай, произошедший в США, явно подтверждает эти опасения. Врачам Вашингтонского университета пришлось столкнуться с необычной и крайне опасной ситуацией: мужчина, следуя рекомендациям искусственного интеллекта ChatGPT, принял бромид натрия в течение трёх месяцев и в результате столкнулся с серьёзным психозом и отравлением бромидом.

История началась с того, что пациент, желая снизить потребление соли, обратился к ChatGPT за советом. ИИ предложил заменить обычную соль на бромид натрия, подчеркнув, что это может снизить уровень натрия в организме и уменьшить солёность блюд. Вдохновлённый этой рекомендацией, мужчина закупил бромид натрия в онлайн-магазинах, не подозревая о возможных последствиях. Спустя три месяца постоянного приёма, у него начали проявляться тяжёлые психотические симптомы: галлюцинации, навязчивые идеи и паранойя.

Реагируя на ухудшение состояния, родственники обратились за медицинской помощью. В больнице пациента начали лечить внутривенными вливаниями и назначили антипсихотики. Врачи быстро заподозрили редкое, но весьма опасное состояние — бромизм, связанный с токсическим воздействием бромида. Данное отравление ранее использовалось в медицине как антисептик и седативное средство, но было исключено из практики из-за потенциально опасных побочных эффектов.

После курса интенсивной терапии и стабилизации состояния, мужчина был выписан из больницы через три недели. Его случай стал первым задокументированным случаем, когда рекомендация искусственного интеллекта привела к подобному тяжёлому отравлению. Этот инцидент стал серьёзным напоминанием специалистам и обществу о рисках, связанных с недооценкой роли человеческого контроля при использовании автоматизированных систем.

Эксперты подчеркивают, что искусственный интеллект, несмотря на все достижения и потенциал в медицине, всё ещё может распространять некорректную и опасную информацию. В данном случае, ChatGPT посоветовала заменить поваренную соль бромидом натрия — рекомендации, которая абсолютно противоречила бы стандартным медицинским протоколам и могла привести к трагическим последствиям.

Рассматривая этот случай, необходимо помнить, что ИИ способен давать советы, основываясь лишь на полученных данных, без учёта индивидуальных особенностей пациента и возможных рисков. Настоящий специалист в области здоровья — врач или фармацевт — всегда сможет дать квалифицированный совет и сделать правильные выводы. Важно критически относиться к полученной информации, особенно когда речь идёт о приёме медикаментов и заменах веществ без консультации с профессионалом.

Этот случай также поднимает вопросы этики и ответственности в разработке и использовании алгоритмов ИИ в медицине. Необходимы строгие протоколы и системы проверки рекомендаций, чтобы исключить возможность их реализации без должного контроля. Разработчики и исследователи должны учитывать потенциальные риски, связанные с неправильным применением данных и рекомендаций ИИ, чтобы избежать трагедий и сохранить здоровье и жизни людей.

В конечном итоге, данный инцидент подчёркивает что технологии должны оставаться инструментами помощи, а не заменой профессиональному мнению. Критическое мышление, профессиональные консультации и ответственное использование всех информационных ресурсов — залог безопасного и эффективного применения инноваций в медицине. История этого пациента показывает, что даже самые современные достижения требуют осторожного и взвешенного подхода, а идти по пути внедрения новых технологий без должной проверки и контроля может иметь крайне серьёзные последствия.

Выйти из мобильной версии