meeyland app
Meey Land
Cổng thông tin bất động sản xác thực 4.0
Tải ứng dụng

ChatGPT loay hoay trả lời câu hỏi về y khoa

Thứ năm, 14/12/2023-11:12
Một nghiên cứu mới chỉ ra rằng ứng dụng ChatGPT gặp khó khi trả lời những câu hỏi về y tế.

Theo VTV, các nhà nghiên cứu tại Đại học Long Island cho hay họ đã đặt ra 39 câu hỏi về y khóa cho phiên bản ChatGPT miễn phí. Sau đó, sẽ đem những câu trả lời của phần mềm này so sánh với những câu trả lời từ các dược sĩ đã đào tạo.

Theo kết quả nghiên cứu, thường thì những tư vấn về y tế ChatGPT mang lại những phản hồi không đúng, thậm chí còn có nhiều phản hồi bị cho là nguy hiểm. Chẳng hạn như khi nhận một câu hỏi liệu thuốc chống virus COVID-19 Paxlovid và thuốc hạ huyết áp verapamil có phản ứng với nhau trong cơ thể không?, ChatGPT đưa ra câu trả lời rằng 2 loại thuốc này khi kết hợp với nhau không gây ra bất kỳ tác dụng phụ nào.


ChatGPT gặp khó khi trả lời về y khoa (Ảnh minh họa)
ChatGPT gặp khó khi trả lời về y khoa (Ảnh minh họa)

Thực tế cho thấy những ai dùng cả 2 loại thuốc này cùng lúc có thể bị tụt huyết áp trầm trọng và thậm chí có thể gặp phải hiện tượng ngất xỉu và chóng mặt. Theo Phó giáo sư dược tại Đại học Long Island Sara Grossman, các bác sĩ lâm sàng thường vẫn lập kế hoạch cụ thể đối với những bệnh nhân này, trong đó có việc giảm liều verapamil hoặc cảnh báo người bệnh trước.

Chia sẻ với CNN, phó giáo sư cho biết việc dùng ChatGPT để xử lý những câu hỏi này có thể khiến bệnh nhân đối mặt với nguy cơ gặp phải những tác dụng phụ không mong muốn.

Khi các nhà nghiên cứu đề nghị chatbot cung cấp các tài liệu tham khảo khoa học để hỗ trợ cho những câu trả lời, họ nhận thấy rằng phần mềm này chỉ có thể đưa ra 8 câu hỏi mà các nhà nghiên cứu đã hỏi. Đặc biệt, ChatGPT còn tạo ra các tài liệu tham khảo giả cùng những trích dẫn không có thật.

Nói về sự nguy hiểm từ những câu trả lời sai lệch do ChatGPT cung cấp, phó giáo sư cho biết có rất nhiều sai sót và vấn đề với phản hồi này và sau cùng, điều đó có thể gây ảnh hưởng lớn đến việc chăm sóc bệnh nhân. Theo ông, những câu trả lời được diễn đạt rất tinh vi và chuyên nghiệp, dường như có thể góp phần đem lại cảm giác tin tưởng vào tính chính xác của công cụ. Người tiêu dùng, người dùng hay những người khác không có khả năng nhận thức có thể chịu tác động bởi bề ngoài mà nó tạo ra.

Theo nghiên cứu của Đại học Long Island, đó không phải là nghiên cứu đầu tiên nói lên mối lo ngại về những tài liệu hư cấu của ChatGPT. Trước đây, cũng từng có nghiên cứu ghi nhận ChatGPT có thể tạo những trích dẫn giả mạo và tài liệu không chính xác, thậm chí là liệt kê tên của tác giả thực sự với các ấn phẩm trên tạp chí khoa học khi được hỏi những câu liên quan tới y khoa.

Phát ngôn viên của OpenAI tổ chức phát triển ChatGPT cũng đã trả lời những tuyên bố mới này. Họ khuyên người dùng không nên dựa vào câu trả lời của AI để thay thế cho phương pháp và lời khuyên về điều trị y tế chuyên nghiệp.

Chia sẻ:

Cùng chủ đề

Nvidia công bố siêu máy tính AI nhỏ nhất thế giới

Google bổ sung thêm tính năng mới giúp tìm kiếm thiết bị nhanh hơn

OpenAI yêu cầu Mỹ nới lỏng các quy định về AI để cạnh tranh với các công ty Trung Quốc

Chấn chỉnh hoạt động livestream bán hàng và bài học quản lý từ Trung Quốc

Mỹ có thể đang cân nhắc cấm DeepSeek trên các thiết bị của chính phủ

20 triệu người Việt sở hữu tài sản số: "Ngóng" khung pháp lý, chống thất thu thuế

“Ông trùm” tiền điện tử của Nhà Trắng thừa nhận đã bán sạch tài khoản

Giá tiền điện tử “quay đầu” do nhà đầu tư hoài nghi về quỹ dự trữ Bitcoin của tổng thống Trump

Tin mới cập nhật

Tham vọng tìm kiếm IPO tại Mỹ, Meey Group vừa ký kết hợp tác với “cố vấn tài chính” ARC

31/03/2025

Đề xuất không hoàn trả tiền sử dụng đất chênh lệch đã tạm nộp sau xác định lại

31/03/2025

Ngân hàng chạy đua hạ lãi vay: Nhà ở giá rẻ có dễ tiếp cận hơn?

31/03/2025

Đầu tư chung cư ở các tỉnh: Tưởng dễ mà... "khó không tưởng"

31/03/2025

Đề xuất tăng lợi nhuận lên 13% cho doanh nghiệp: Chưa đủ để giải quyết bài toán nhà ở xã hội

28/03/2025