С ростом зависимости сотен миллионов людей от чат-ботов для получения рекомендаций технологические компании начали разрабатывать специализированные программы для ответов на медицинские вопросы. Несмотря на энтузиазм вокруг искусственного интеллекта, независимые тесты этой технологии все еще находятся на начальном этапе. Исследования показывают, что такие программы, как ChatGPT, могут успешно проходить сложные медицинские экзамены, но часто сталкиваются с трудностями при взаимодействии с людьми. Исследование Оксфордского университета с участием 1300 человек показало, что те, кто использовал чат-боты для поиска информации о гипотетических заболеваниях, не принимали лучших решений, чем те, кто использовал обычный интернет-поиск или личную оценку. В то же время, при предоставлении чат-ботам полных письменных описаний медицинских сценариев, они точно определяли основное заболевание в 95% случаев. «Проблема не была в этом, проблема заключалась во взаимодействии с реальными участниками, которые часто не предоставляют достаточно деталей», — сообщил главный исследователь Адам Мехди из Оксфордского института интернета. Компании утверждают, что данные пользователей хранятся отдельно и не используются для обучения моделей, но эксперты советуют проявлять осторожность. Независимые исследования точности этих технологий все еще ограничены. Кроме того, некоторые ответы могут быть вводящими в заблуждение, что затрудняет пользователям различие достоверной информации. Эксперты рекомендуют проверять информацию в нескольких программах, сохранять скептицизм и не полностью полагаться на искусственный интеллект при принятии медицинских решений, будь то простые или важные. Однако они предупреждают об использовании чат-ботов в экстренных случаях, таких как боль в груди или одышка, где следует немедленно обратиться к врачу. Одной из главных опасностей использования таких программ является конфиденциальность. Эксперты рекомендуют предоставлять как можно больше деталей для получения более точных ответов. Компания Anthropic также предлагает аналогичные функции пользователям чата Claude. Тем не менее, обе компании утверждают, что эти инструменты не заменяют специализированную медицинскую помощь и не должны использоваться для диагностики. Преимущество этих чат-ботов в том, что они предоставляют более персонализированную информацию, чем обычный интернет-поиск, учитывая медицинский контекст пользователя. При этом информация, которую пользователи делятся с компаниями искусственного интеллекта, не регулируется законом HIPAA, защищающим конфиденциальность медицинских данных. В январе OpenAI запустила программу ChatGPT Health, которая анализирует медицинские записи и данные носимых устройств, отвечая на вопросы о здоровье.
Искусственный интеллект в медицине: надежды и риски
Исследования показывают, что чат-боты, такие как ChatGPT, могут успешно проходить медицинские экзамены, но сталкиваются с трудностями при взаимодействии с людьми. Эксперты предупреждают о рисках и рекомендуют осторожность.