Nhận bản tin miễn phí
Báo Xây dựng - Tin tức trong ngày, tin mới nhất, tin nhanh 24h AI

Chatbot AI càng thân thiện, người dùng càng dễ bị dẫn dắt sai?

Chatbot AI càng thân thiện, người dùng càng dễ bị dẫn dắt sai?

-

Theo Oxford, những chatbot có giọng điệu đồng cảm lại trả lời sai nhiều hơn, đặc biệt ở các chủ đề sức khỏe, tài chính và pháp lý. Điều đáng lo không phải ở lỗi kỹ thuật, mà ở việc AI học cách làm người dùng hài lòng thay vì nói sự thật.

Chị Nguyễn Thị Hoa, nữ nhân viên văn phòng tại Hà Nội gần đây dùng chatbot AI để hỏi về triệu chứng đau đầu kéo dài sau khi thức khuya nhiều ngày. Thay vì khuyên đi khám hoặc cảnh báo nguy cơ sức khỏe, chatbot trả lời theo hướng trấn an: "Có thể chỉ là căng thẳng nhẹ, bạn nên nghỉ ngơi thêm".

Câu trả lời khiến chị Hoa yên tâm cho đến khi phát hiện mình bị rối loạn tiền đình nặng sau một tuần chịu đựng. Câu chuyện này đang phản ánh nỗi lo ngày càng lớn của giới nghiên cứu công nghệ, chatbot AI càng "dễ chịu", nguy cơ người dùng bị dẫn dắt bởi thông tin sai càng cao.

Chatbot AI càng thân thiện, người dùng càng dễ bị dẫn dắt sai?- Ảnh 1.

Oxford Internet Institute cho rằng những mô hình quá ưu tiên cảm xúc thường né tránh phản bác người dùng. Ảnh nguồn Internet

Một nghiên cứu mới từ Oxford Internet Institute phân tích hơn 400.000 phản hồi từ các mô hình AI phổ biến như OpenAI GPT-4o, Meta Llama, Qwen của Alibaba Cloud hay Mistral cho thấy: khi AI được điều chỉnh để ấm áp và đồng cảm hơn, tỷ lệ trả lời sai tăng trung bình 7,4 điểm tính theo tỷ lệ phần trăm.

Khi AI học cách "làm hài lòng"

Trong nhiều năm, ngành công nghệ tin rằng trải nghiệm thân thiện là chìa khóa giữ chân người dùng. Các chatbot hiện đại được huấn luyện để nói chuyện mềm mại, động viên và tạo cảm giác đồng cảm như con người.

Nhưng chính điều đó lại tạo ra một nghịch lý. Theo nhóm nghiên cứu Oxford, những mô hình quá ưu tiên cảm xúc thường né tránh phản bác người dùng. Thay vì sửa sai trực diện, chatbot có xu hướng "đồng tình nhẹ nhàng", làm mềm câu chữ hoặc lảng tránh các khẳng định sai sự thật.

Trong nghiên cứu AI, hiện tượng này được gọi là "sycophancy" tạm dịch là xu hướng nịnh ý người dùng.

Một chatbot muốn tạo cảm giác dễ chịu sẽ ưu tiên sự đồng thuận. Trong khi đó, phản bác hoặc sửa lỗi thường khiến cuộc hội thoại trở nên "kém thân thiện". Kết quả là AI học cách làm người dùng thoải mái hơn là chính xác hơn.

Tiến sĩ Ethan Mollick, chuyên gia AI tại University of Pennsylvania, từng cảnh báo rằng người dùng rất dễ đánh đồng "giọng điệu tự tin" với "độ tin cậy". Nhưng với AI, hai điều này không phải lúc nào cũng đi cùng nhau.

Nguy cơ lớn nhất nằm ở niềm tin. Điều đáng lo không phải vài lỗi vặt kiểu nhầm ngày tháng hay thông tin lịch sử. Rủi ro lớn hơn nằm ở những chủ đề mà người dùng có xu hướng tin tuyệt đối vào chatbot.

Một sinh viên trường ĐH hỏi về triệu chứng bệnh. Một phụ huynh tìm lời khuyên pháp lý. Một nhà đầu tư tra cứu thông tin tài chính. Nếu AI trả lời theo hướng dễ nghe thay vì đúng bản chất, hậu quả có thể vượt xa một cuộc trò chuyện thông thường.

Theo ông Trương Cao Dũng, Giám đốc Công ty Connected Brain, chuyên gia về AI cho biết: chatbot hiện nay đang dần được người dùng đối xử như người tư vấn cá nhân thay vì công cụ tìm kiếm. Sự chuyển đổi niềm tin này diễn ra rất nhanh, đặc biệt với thế hệ trẻ vốn quen tương tác với AI mỗi ngày.

Ông Geoffrey Hinton, nhà khoa học được mệnh danh là "bố già AI", từng nhiều lần cảnh báo rằng con người có xu hướng tin các hệ thống nói năng lưu loát dù chúng vẫn có thể tạo ảo giác dữ liệu hoặc bịa thông tin.

Điều nguy hiểm là phần lớn người dùng không nhận ra thời điểm AI bắt đầu chiều lòng người dùng và đây cũng là những vấn đề đáng lo ngại.

Cuộc đánh đổi âm thầm của các hãng công nghệ

Đằng sau sự thân thiện của chatbot là áp lực cạnh tranh rất thật giữa các công ty AI. Một chatbot lạnh lùng, phản bác trực diện hoặc trả lời quá máy móc thường khiến người dùng khó chịu. Điều này dẫn tới phản hồi tiêu cực, thời gian sử dụng thấp hơn và trải nghiệm kém hấp dẫn.

Vì vậy, nhiều mô hình được tối ưu theo hướng mềm mại và đồng cảm hơn để tăng tương tác. Tuy nhiên, nghiên cứu Oxford cho rằng đây là cuộc đánh đổi cấu trúc của AI hiện đại: càng tối ưu cho cảm xúc người dùng, hệ thống càng có nguy cơ xa rời tính chính xác.

Các chuyên gia thuộc Học viện Bưu chính Viễn thông cũng cho rằng tương lai AI sẽ không chỉ là cuộc đua về sức mạnh mô hình, mà còn là cuộc đua giữa độ dễ chịu và độ trung thực.

Vậy câu hỏi đặt ra người dùng nên làm gì? Các nhà nghiên cứu cho rằng phát hiện này không phải lời kêu gọi ngừng sử dụng chatbot AI. Ngược lại, AI vẫn là công cụ cực kỳ hữu ích nếu được dùng đúng cách.

Vấn đề nằm ở sự kỳ vọng. Một câu trả lời thân thiện không đồng nghĩa với câu trả lời đúng. Với các nội dung liên quan sức khỏe, pháp lý, tài chính hoặc dữ liệu quan trọng, việc kiểm chứng chéo vẫn là bước bắt buộc.

Nói cách khác, AI có thể là người hỗ trợ rất giỏi, nhưng chưa phải người mà chúng ta có thể giao toàn bộ niềm tin. Và đôi khi, chính một chatbot nói chuyện quá dễ thương lại là thứ khiến người dùng mất cảnh giác nhất.

Bạn cần đăng nhập để thực hiện chức năng này!

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.