
AI y tế có thể đưa ra lời khuyên thuyết phục và dễ chịu hơn cả bác sĩ thật, nhưng nghiên cứu cho thấy chỉ 31% câu trả lời của ChatGPT là hoàn toàn chính xác, gây nguy cơ chẩn đoán sai và bỏ lỡ cơ hội điều trị kịp thời – Ảnh minh họa: Shutterstock
Nghiên cứu mới từ Đại học British Columbia (UBC) chỉ ra một thực tế đáng lo ngại: các mô hình ngôn ngữ lớn như ChatGPT không chỉ cung cấp thông tin y tế một cách thuyết phục mà còn giao tiếp dễ chịu hơn cả con người.
Tiến sĩ Vered Shwartz – Phó giáo sư khoa học máy tính tại UBC – nhận định các cuộc trò chuyện với AI đôi khi tạo cảm giác có sức thuyết phục cao và đồng cảm hơn so với bác sĩ thật. Nguyên nhân là các chatbot AI hiện nay có ngữ điệu giống con người và trình bày rất tự tin.
Theo phóng viên TTXVN tại Ottawa, hệ quả của xu hướng này là ngày càng nhiều bệnh nhân đến phòng khám với các quyết định đã được định hình sẵn, thường dựa trên chẩn đoán hoặc phác đồ điều trị do AI đề xuất.
Tiến sĩ Cassandra Stiller-Moldovan, bác sĩ gia đình tại thành phố Colwood, tỉnh bang British Columbia, cho biết các lời khuyên từ chatbot AI tuy có phần đúng nhưng thường không phản ánh đầy đủ vấn đề. Hậu quả là các bác sĩ phải mất nhiều thời gian để giải thích và thuyết phục bệnh nhân.
Vấn đề trở nên nghiêm trọng hơn khi nghiên cứu từ Đại học Waterloo cho thấy ChatGPT phiên bản 4 đưa ra nội dung sai nhiều hơn đúng khi chẩn đoán các vấn đề sức khỏe. Cụ thể, khi các nhà nghiên cứu đưa ra một loạt câu hỏi mở, chỉ có 31% câu trả lời được đánh giá là hoàn toàn chính xác.
Hiệp hội Y khoa Canada (CMA) nhận định việc ngày càng phụ thuộc vào AI là điều dễ hiểu trong bối cảnh nhiều người Canada không được tiếp cận dịch vụ bác sĩ gia đình và phải chờ đợi quá lâu cho các lịch hẹn khám. Trong lúc chờ đợi, nhiều người đã tìm đến các công cụ AI như một giải pháp thay thế.