• пятница, 05 Сентября, 22:36
  • Baku Баку 28°C

Полезный помощник или виртуальный доктор?

05 сентября 2025 | 19:23
Полезный помощник или виртуальный доктор?

 

Стоит ли доверять чат-ботам с искусственным интеллектом заботу о своем здоровье

Чат GPT стал советчиком на все случаи жизни: ему «плачутся в жилетку» из-за неурядиц в личной жизни, советуются по рабочим моментам. Люди доверяют ему даже в вопросах здоровья. Но можно ли полагаться на него, когда речь заходит о столь ценном ресурсе?

Елена Малахова

Возможность выяснить причину недомогания и получить рекомендации, не вставая с дивана и зачастую бесплатно, выглядит заманчиво. Быстрота, удобство и отсутствие привычных барьеров — не нужно подстраиваться под расписание врача, сидеть в очередях или бороться с неловкостью. Пользователи уже давно прибегают к помощи интернета для решения медицинских задач. Еще недавно они, используя поисковые ресурсы, собирали информацию на десятках сайтов. По этому поводу придумано немало анекдотов. Один из самых известных: «Пациентам, которые уже поставили себе диагноз при помощи Google, просьба обращаться за вторым мнением не к нам, а в Яндекс». Сегодня же все больше людей по всему миру предпочитают обращаться к чат-ботам с искусственным интеллектом (ИИ), таким как ChatGPT. Они способны расписать все в подробностях и разъяснить детали. Так, согласно опросам, каждый шестой взрослый американец минимум раз в месяц использует чат-боты для поиска сведений, касающихся здоровья. Данных по нашей стране нет, но судя по постам в соцсетях – таковых немало. Однако ИИ хоть и стремительно развивается, остается сравнительно новой технологией, где ошибки – не редкость. А ведь на кону ни много ни мало – здоровье и сама жизнь. Так стоит ли прибегать к подобным инструментам, и, если да, как правильно ими пользоваться? Об этом мы поговорили с терапевтом-гепатологом Зауром Оруджевым.

Правильно формулировать запрос

– Замечаете ли вы, что люди все охотнее обращаются к ИИ с медицинскими запросами? С чем это связано?

– Да, и это вполне закономерно. Сегодня такие инструменты стали очень популярными во всем мире. Раньше пациенты искали нужную информацию через поисковые системы, а теперь многие обсуждают волнующие их темы с чатами вроде GPT. Это часть нашей повседневности, и игнорировать ее бессмысленно. Поэтому важно не просто пользоваться данными ресурсами, а делать это грамотно. Нужно уметь формулировать запросы четко с упором на доказательную медицину. В таком случае риск ошибки ниже, хотя полностью исключить его нельзя. Если же запрос будет размытым или эмоциональным, GPT может предоставить неточную, непроверенную информацию. Он полезен как помощник, например, может составить список вопросов врачу. Но заменить консультацию специалиста и тем более назначить лечение не способен.

–  Сталкивались ли вы в своей работе с пациентами, обращающимися за помощью к ИИ?

– Конечно. Пациенты нередко присылают мне тексты из чата GPT и спрашивают мое мнение по поводу написанного. И это, на мой взгляд, правильный шаг. Использовать ИИ можно, но обязательно проверять его ответы. Особенно если речь идет о медицинских тонкостях и диагнозах: пациенту крайне сложно оценить достоверность полученных сведений. Именно поэтому здесь необходим врач, его опыт и профессиональный контроль.

– Особенно часто такие обращения связаны с желанием снизить вес. Насколько ИИ- ассистент может быть полезен в подборе питания и здорового образа жизни?

– Все зависит от поставленных ему задач. В техническом плане он действительно способен помочь – рассчитать калорийность рациона, подсказать примерное меню или предложить варианты сочетания продуктов. Допустим, врач советует придерживаться средиземноморской диеты, а ИИ подбирает рецепты блюд, которые полностью соответствуют ее принципам.

Риск очеловечивания ИИ

– Какие риски в целом несет следование советам ИИ в вопросах здоровья?

– Главная опасность связана с особенностями нашего восприятия. Людям свойственно очеловечивать все вокруг: мы наделяем эмоциями животных, а иногда даже предметы. С чатами происходит то же самое. После нескольких разговоров мозг перестает различать, кто перед нами — человек или программа. Если же долго консультироваться с GPT по медицинским вопросам, возникает иллюзия, что он своего рода виртуальный доктор. Он способен сделать медицину ближе и понятнее, но не стать заменой врачу. GPT – лишь языковая модель, которая анализирует тексты. Об этом принципиально важно помнить.

– А как часто сами врачи обращаются к чату GPT?

– Достаточно часто. Для врача это дополнительный и очень удобный инструмент. Если в поисковых системах приходилось формулировать короткие и точные запросы, то GPT позволяет подробно описать ситуацию и быстро получить развернутый ответ. При этом есть возможность проверить источники и оценить достоверность. Пациенты иногда думают: «Ну так и я могу». Но это не так, разница огромная. Для врача GPT — по сути, справочник, где можно быстро найти нужное. Запомнить все препараты, дозировки и взаимодействия лекарств невозможно. Даже самый опытный специалист должен критически относиться к собственным знаниям и перепроверять себя. А ведь ежедневно публикуются новые протоколы, статьи и исследования — сотни страниц на разных языках. GPT позволяет почти моментально перевести текст, выделить главное и оперативно разобраться в материале. Это экономит время и делает работу врача эффективнее.

– Нужно ли вводить стандарты и правила использования ИИ в медицине?

– Безусловно. Все, что применяется в медицине, должно быть стандартизировано, контролируемо и регулировано. Важно лишь, чтобы этот контроль оставался разумным и не превращался в жесткие ограничения доступа к информации. Никто не может запретить пациенту использовать такие ресурсы в вопросах здоровья. Взрослые люди делают собственный выбор, принимают те или иные решения и несут за них ответственность. Задача врачей – просвещать, объяснять, информировать и помогать людям отличать полезное от опасного.

 

 

Елена Малахова
Автор

Елена Малахова

Все новости
banner

Советуем почитать