Thời sự Xây dựng Giao thông Kinh tế Pháp luật Chất lượng sống Văn hóa - Giải trí Thể thao Công nghệ Thế giới Đi ++ Video Multimedia
Báo Xây dựng - Tin tức trong ngày, tin mới nhất, tin nhanh 24h AI

AI có thể sánh ngang con người trong việc nhận diện cảm xúc

AI có thể sánh ngang con người trong việc nhận diện cảm xúc

07/07/2025, 10:44

Các mô hình ngôn ngữ lớn (LLM) hiện nay có khả năng phân tích cảm xúc, khuynh hướng chính trị, cường độ cảm xúc và nhận diện lời nói bóng gió gần ngang với con người.

Khi chúng ta viết gì đó cho người khác, qua email hay trên mạng xã hội, đôi khi chúng ta không diễn đạt trực tiếp, mà lời văn lại ẩn chứa một ý nghĩa ngầm - một tầng ý nghĩa sâu hơn. Chúng ta thường hy vọng người đọc sẽ hiểu được ý nghĩa này. Nhưng điều gì xảy ra nếu ở đầu bên kia không phải là con người mà là một hệ thống trí tuệ nhân tạo (AI)? 

Liệu AI, đặc biệt là AI đàm thoại, có thể hiểu được ý nghĩa ngầm trong văn bản của chúng ta? Và nếu có, điều này có ý nghĩa gì?

AI có thể sánh ngang con người trong việc nhận diện cảm xúc- Ảnh 1.

AI giờ đây có thể sánh ngang con người trong việc nhận diện cảm xúc.

Phân tích nội dung ngầm là một lĩnh vực nghiên cứu tập trung vào việc khám phá những ý nghĩa sâu xa, cảm xúc và sự tinh tế ẩn trong văn bản. Chẳng hạn, loại phân tích này có thể giúp nhận ra khuynh hướng chính trị trong các thông điệp, dù nó không phải lúc nào cũng rõ ràng với tất cả mọi người. Việc hiểu được mức độ cảm xúc của một người hay liệu họ đang mỉa mai có thể rất quan trọng trong việc hỗ trợ sức khỏe tâm lý, cải thiện dịch vụ khách hàng, hay thậm chí đảm bảo an toàn ở cấp độ quốc gia.

Đây chỉ là một vài ví dụ. Chúng ta có thể hình dung những lợi ích trong các lĩnh vực khác như nghiên cứu khoa học xã hội, xây dựng chính sách, hay kinh doanh. Với tầm quan trọng của những nhiệm vụ này - và tốc độ cải tiến nhanh chóng của AI đàm thoại - việc tìm hiểu những gì công nghệ này có thể (và không thể) làm là điều cần thiết.

Nghiên cứu về vấn đề này mới chỉ bắt đầu. Các nghiên cứu hiện tại cho thấy ChatGPT chỉ đạt thành công hạn chế trong việc phát hiện khuynh hướng chính trị trên các trang tin tức. Một nghiên cứu khác tập trung vào sự khác biệt trong việc nhận diện mỉa mai giữa các mô hình ngôn ngữ lớn (LLM) - công nghệ đứng sau các chatbot AI như ChatGPT - cho thấy một số mô hình hoạt động tốt hơn những mô hình khác. Ngoài ra, một nghiên cứu còn chỉ ra rằng LLM có thể đoán được "cường độ cảm xúc" của từ – tức là cảm giác tích cực hay tiêu cực vốn có của chúng.

Nghiên cứu mới, được công bố trên Scientific Reports, đã kiểm tra liệu AI đàm thoại, bao gồm GPT-4 – một phiên bản khá mới của ChatGPT - có thể "đọc vị" được những ý nghĩa ngầm trong văn bản do con người viết. Mục tiêu là tìm hiểu mức độ mà các LLM có thể mô phỏng sự hiểu biết về cảm xúc, khuynh hướng chính trị, cường độ cảm xúc và sự mỉa mai - bao quát nhiều tầng ý nghĩa ngầm trong một nghiên cứu duy nhất.

Nghiên cứu này đánh giá độ tin cậy, tính nhất quán và chất lượng của bảy LLM, bao gồm GPT-4, Gemini, Llama-3.1-70B và Mixtral 8×7B. Các nhà nghiên cứu nhận thấy các LLM này có khả năng phân tích cảm xúc, khuynh hướng chính trị, cường độ cảm xúc và nhận diện mỉa mai gần ngang với con người. Nghiên cứu có sự tham gia của 33 người đánh giá và phân tích 100 đoạn văn bản được chọn lọc.

Trong việc nhận diện khuynh hướng chính trị, GPT-4 cho thấy tính nhất quán cao hơn con người. Điều này quan trọng trong các lĩnh vực như báo chí, khoa học chính trị hay y tế công cộng, nơi sự đánh giá không nhất quán có thể làm sai lệch kết quả hoặc bỏ qua các xu hướng. GPT-4 cũng thể hiện khả năng nhận biết cường độ cảm xúc, đặc biệt là sắc thái cảm xúc. 

Dù một bài đăng trên X là của ai đó chỉ hơi bực bội hay đang cực kỳ phẫn nộ, AI đều có thể nhận ra - dù vẫn cần con người xác nhận xem AI đánh giá đúng hay không, vì AI có xu hướng đánh giá thấp cảm xúc. Sự mỉa mai vẫn là một thách thức cho cả con người và máy móc, và nghiên cứu không tìm ra "kẻ thắng cuộc" rõ ràng trong việc này - tức là ngay cả việc dùng con người để đánh giá cũng không giúp cải thiện nhiều trong nhận diện mỉa mai.

Vậy tại sao điều này quan trọng? Thứ nhất, AI như GPT-4 có thể giảm đáng kể thời gian và chi phí phân tích khối lượng lớn nội dung trực tuyến. Các nhà khoa học xã hội thường mất hàng tháng để phân tích văn bản do người dùng tạo ra nhằm phát hiện xu hướng. Trong khi đó, GPT-4 mở ra cơ hội cho nghiên cứu nhanh hơn, nhạy bén hơn – đặc biệt quan trọng trong các khủng hoảng, bầu cử hay tình huống khẩn cấp về y tế công cộng.

Các nhà báo và người kiểm chứng thông tin cũng có thể hưởng lợi. Các công cụ dựa trên GPT-4 có thể giúp phát hiện các bài đăng mang tính cảm xúc mạnh hoặc thiên về một phía chính trị theo thời gian thực, giúp các tòa soạn có lợi thế. Tuy nhiên, vẫn còn những lo ngại. Tính minh bạch, công bằng và khuynh hướng chính trị trong AI vẫn là những vấn đề cần giải quyết.

Dù vậy, những nghiên cứu như thế này cho thấy khi nói đến việc hiểu ngôn ngữ, máy móc đang bắt kịp con người rất nhanh - và có thể sớm trở thành những "đồng đội" giá trị, chứ không chỉ là công cụ. Mặc dù nghiên cứu này không khẳng định AI đàm thoại có thể thay thế hoàn toàn con người, nhưng nó thách thức quan điểm rằng máy móc không thể nhận ra sự tinh tế.

Kết quả của nghiên cứu cũng đặt ra những câu hỏi tiếp theo. Nếu người dùng đặt cùng một câu hỏi cho AI theo nhiều cách khác nhau - chẳng hạn bằng cách thay đổi cách diễn đạt, thứ tự thông tin, hay điều chỉnh mức độ ngữ cảnh - liệu đánh giá và phản hồi của mô hình có còn nhất quán? Các nghiên cứu tiếp theo cần phân tích kỹ lưỡng và có hệ thống về độ ổn định của đầu ra từ các mô hình. Cuối cùng, việc hiểu và cải thiện tính nhất quán là điều cốt lõi để triển khai LLM ở quy mô lớn, đặc biệt trong những tình huống quan trọng.

Bạn cần đăng nhập để thực hiện chức năng này!

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.