ChatGPT, DeepSeek bóp méo dữ liệu khoa học

Các mô hình AI như ChatGPT và DeepSeek bị phát hiện có thể làm sai lệch nội dung khoa học khi tóm tắt, đặc biệt trong lĩnh vực y tế.

Một nhóm nhà nghiên cứu tại Đức mới đây đã lên tiếng cảnh báo về nguy cơ sai lệch khi sử dụng chatbot AI để rút gọn nội dung nghiên cứu. Sau khi phân tích 4.900 bản tóm tắt khoa học do con người viết, nhóm đã dùng nhiều mô hình AI để so sánh cách thức các hệ thống này xử lý thông tin. Kết quả cho thấy hầu hết chatbot đều mắc lỗi khái quát hóa quá mức, thậm chí ngay cả khi được nhắc nhở cần tóm tắt chính xác.

what-is-ai-chatbot.jpg
AI dễ làm sai lệch nội dung khi tóm tắt nghiên cứu khoa học.

Trong các thử nghiệm, các mô hình AI mắc lỗi nhiều gấp 5 lần so với chuyên gia khi không được hướng dẫn. Ngay cả khi có yêu cầu rõ ràng về độ chính xác, tỷ lệ sai sót vẫn cao gấp đôi so với bản tóm tắt thông thường. Một thành viên nhóm nghiên cứu nhận định: “Việc khái quát hóa đôi khi nghe có vẻ vô hại, nhưng thực chất lại thay đổi bản chất của nghiên cứu gốc. Đó là sự sai lệch mang tính hệ thống.”

Đáng chú ý, các phiên bản mới hơn của chatbot không những không khắc phục được vấn đề mà còn làm tình hình thêm nghiêm trọng. Với khả năng diễn đạt mượt mà và hấp dẫn, các bản tóm tắt do AI tạo ra dễ gây cảm giác đáng tin, trong khi nội dung thực chất đã bị biến dạng. Có trường hợp DeepSeek thay đổi cụm từ “an toàn và có thể thực hiện thành công” thành “phương pháp điều trị an toàn và hiệu quả” – một sự diễn giải vượt khỏi kết luận gốc của nghiên cứu.

Trong một ví dụ khác, mô hình Llama đã áp dụng khuyến nghị sử dụng thuốc điều trị tiểu đường cho đối tượng trẻ tuổi mà không nêu rõ liều lượng, tần suất dùng hoặc tác dụng phụ. Nếu người đọc là bác sĩ hay nhân viên y tế không kiểm chứng lại với nghiên cứu gốc, những bản tóm tắt kiểu này có thể gây nguy hiểm trực tiếp cho bệnh nhân.

Giới chuyên gia cho rằng hiện tượng này có nguyên nhân sâu xa từ cách đào tạo các mô hình AI. Nhiều chatbot hiện nay được huấn luyện dựa trên dữ liệu thứ cấp – như các bản tin khoa học đại chúng – vốn đã được giản lược từ trước. Khi AI tiếp tục tóm tắt lại các nội dung đã rút gọn, nguy cơ bóp méo càng lớn hơn.

Các chuyên gia về AI trong lĩnh vực sức khỏe tâm thần cho rằng cần sớm xây dựng các rào chắn kỹ thuật trong quá trình phát triển và sử dụng AI.

099393800-1681896363-glenn-carstens-peters-npxxwgq33zq-unsplash.jpg
Người dùng cần cảnh giác khi chatbot dễ bóp méo nội dung.

Khi người dùng ngày càng phụ thuộc vào chatbot AI để tìm hiểu thông tin khoa học, những sai lệch nhỏ trong diễn giải có thể nhanh chóng tích tụ và lan rộng, gây ra nhận thức lệch lạc trên diện rộng. Trong thời điểm niềm tin vào khoa học đang suy giảm, nguy cơ này càng trở nên đáng lo ngại và cần được quan tâm đúng mức.

Việc tích hợp AI vào quá trình nghiên cứu và phổ biến kiến thức là xu hướng không thể đảo ngược. Tuy nhiên, giới chuyên môn khẳng định công nghệ không thể thay thế vai trò của con người trong việc hiểu và kiểm chứng nội dung khoa học. Khi sử dụng chatbot trong những lĩnh vực có độ rủi ro cao như y tế, cần đặt tính chính xác lên hàng đầu, thay vì chỉ tập trung vào trải nghiệm ngôn ngữ trơn tru hay tốc độ phản hồi.

Cảnh báo 5 loại thông tin tuyệt đối không nói với ChatGPT

ChatGPT và các chatbot AI có thể hữu ích, nhưng chia sẻ 5 loại thông tin sau có thể khiến bạn bị đánh cắp tài sản, lừa đảo hoặc rò rỉ dữ liệu cá nhân.

chat-1.png
Dù AI như ChatGPT có thể trả lời nhiều câu hỏi, người dùng không nên tiết lộ các thông tin nhạy cảm.
chat-2.png
Theo The Times of India, thông tin cá nhân như họ tên, địa chỉ, số điện thoại có thể bị lợi dụng để theo dõi và xác định danh tính.

Trí tuệ nhân tạo cổ đại sống lại gây chấn động công nghệ

Trí tuệ nhân tạo cổ đại bất ngờ sống lại, gây rúng động giới công nghệ và mở ra cuộc tranh luận về AI trong quá khứ và tương lai.

Vào một buổi sáng tháng 12/2024, sâu bên trong mô phỏng ảo của chiếc máy tính khổng lồ IBM 7094 từ thập niên 1960, một dòng chữ cổ điển bất ngờ xuất hiện trên màn hình: “HOW DO YOU DO. PLEASE TELL ME YOUR PROBLEM”.

Ứng dụng đánh cắp tài khoản trong nháy mắt, cần gỡ ngay

Ứng dụng giả mạo này có thể qua mặt hệ thống dưới hình thức một Chatbot AI hoặc gói cập nhật hệ thống để đánh cắp thông tin tài khoản.

Một khi ứng dụng nào đó trở nên nổi tiếng và người dùng đua nhau tải, cài đặt thì kẻ xấu tranh thủ đưa lên những app giả mạo. Nhìn bề ngoài có vẻ rất giống nhưng kỳ thực bên trong là những dòng mã độc có thể khiến người dùng mất sạch tài khoản.

Trong bối cảnh các hình thức tấn công mạng ngày càng tinh vi, Ngân hàng TMCP Kiên Long (KienlongBank) vừa phát đi cảnh báo khẩn về một thủ đoạn mới cực kỳ nguy hiểm: Cài mã độc vào ứng dụng giả mạo chatbot AI để đánh cắp tài khoản ngân hàng của người dùng smartphone.