
Недавнее исследование сравнило диагностические способности системы искусственного интеллекта с группой врачей при анализе медицинских изображений вместе с историей болезни и симптомами пациента. Хотя изначально искусственный интеллект показал удивительные результаты, с диагнозами, столь же точными, как у человеческих профессионалов, также были выявлены значительные и тревожные ошибки.
Эксперты-медики установили частые ошибки в описании медицинских изображений, предоставленных системой искусственного интеллекта, а также в анализе для назначения точного диагноза. Даже когда искусственный диагноз казался правильным, возникали ложные рассуждения, на которых он основывался.
Подчеркивается важность сохранения человеческой оценки в области медицины, поскольку, хотя искусственный интеллект может быть полезным инструментом для упрощения диагностических алгоритмов и помощи в определенных областях, он не должен заменять клиническое суждение и опыт медицинских работников.
Исследование, в котором приняли участие 9 медицинских экспертов и использовалось 207 изображений, сопоставило диагнозы, сгенерированные системой искусственного интеллекта, известной как GPT-4V, с диагнозами врачей. Несмотря на достижения в разработке систем искусственного интеллекта, которые могут выявлять паттерны принятия решений, все еще требуется человеческое вмешательство для адекватной и ответственной интерпретации результатов.
Исследователи Национальной медицинской библиотеки Национальных Institutes of Health (NIH) в США и ученые Медицинской школы Уэйлл Корнелл в Нью-Йорке провели это исследование, результаты которого были недавно обнародованы. Для сравнения между системой искусственного интеллекта и врачами использовался "Image Challenge" журнала New England Journal of Medicine. Хотя искусственный интеллект демонстрирует значительный прогресс, он не может заменить клиническую оценку опытных и компетентных профессионалов.