AI

Anthropic bắt đầu huấn luyện mô hình AI từ các cuộc trò chuyện

30/08/2025, 19:54

Anthropic vừa thông báo sẽ sử dụng các cuộc trò chuyện và phiên lập trình của người dùng để huấn luyện các mô hình trí tuệ nhân tạo (AI) của mình.

Thay đổi này sẽ có hiệu lực ngay lập tức nếu người dùng đồng ý tham gia. Sau ngày 28/9, Anthropic sẽ yêu cầu người dùng phải chọn đồng ý hoặc từ chối. Anthropic nhấn mạnh chỉ sử dụng dữ liệu trò chuyện để huấn luyện mô hình nếu người dùng nhất trí.

Anthropic bắt đầu huấn luyện mô hình AI từ các cuộc trò chuyện- Ảnh 1.

Anthropic sử dụng các cuộc trò chuyện và phiên lập trình của người dùng để huấn luyện các mô hình AI của công ty.

Anthropic sẽ sử dụng dữ liệu từ các tương tác với các sản phẩm dành cho người dùng cá nhân, như chatbot Claude, ở các gói miễn phí, pro và max. Chính sách mới này không áp dụng cho các sản phẩm thương mại của Anthropic, bao gồm Claude Gov, Claude for Education hoặc sử dụng API.

Người dùng có thể từ chối bằng cách bỏ chọn ô trong cửa sổ pop-up có tiêu đề "Cập nhật Điều khoản và Chính sách dành cho Người dùng". Lưu ý, những thay đổi này có hiệu lực ngay sau khi xác nhận. Anthropic cũng cho biết họ sẽ lưu trữ dữ liệu người dùng trên hệ thống bảo mật của mình trong tối đa 5 năm. Trước đây, dữ liệu người dùng chỉ được lưu trong 30 ngày.

Khi được yêu cầu bình luận, một phát ngôn viên của Anthropic đã hướng dẫn tham khảo một phần trong bài đăng blog của công ty về việc lưu trữ dữ liệu.

"Thời gian lưu trữ kéo dài cũng giúp chúng tôi cải thiện các bộ phân loại - hệ thống giúp chúng tôi phát hiện việc sử dụng sai mục đích - để nhận diện các mô hình sử dụng có hại. Các hệ thống này hoạt động hiệu quả hơn trong việc xác định các hành vi như lạm dụng, spam hoặc sử dụng sai khi chúng có thể học từ dữ liệu thu thập trong thời gian dài, giúp giữ Claude an toàn cho mọi người", phát ngôn viên của Anthropic thông tin.

Người dùng Claude cũng có thể điều chỉnh cài đặt quyền riêng tư bất kỳ lúc nào trong thanh "Giúp cải thiện Claude".

Trong một email gửi tới truyền thông, phát ngôn viên của Anthropic cho biết các thay đổi chính sách này sẽ giúp cải thiện quy trình huấn luyện dữ liệu của họ.

"Việc huấn luyện trên các cuộc trò chuyện thực tế và dữ liệu lập trình sẽ giúp Claude trở nên tốt hơn. Khi một lập trình viên gỡ lỗi mã với Claude hoặc ai đó nhận được hỗ trợ soạn email, những tương tác này cung cấp cho mô hình các tín hiệu giá trị về những gì hiệu quả và những gì không. Điều này tạo ra một vòng phản hồi giúp các mô hình tương lai cải thiện trong các nhiệm vụ tương tự. Việc lưu trữ dữ liệu trong 5 năm cũng giúp các bộ phân loại an toàn của chúng tôi học cách phát hiện các mô hình sử dụng có hại theo thời gian", phát ngôn viên của Anthropic giải thích.

Những thay đổi này diễn ra chỉ một ngày sau khi Anthropic công bố báo cáo cho biết chatbot Claude đã bị tội phạm mạng lợi dụng. Trong một trường hợp, Anthropic ghi nhận rằng một tác nhân đe dọa đã sử dụng Claude Code ở mức độ "chưa từng có" để "tự động hóa việc do thám, thu thập thông tin đăng nhập của nạn nhân và xâm nhập mạng". Anthropic gọi đây là "vibe-hacking".

Vì thế, Anthropic cũng viết trong bài đăng blog rằng các thay đổi về quyền riêng tư sẽ giúp "tăng cường các biện pháp bảo vệ chống lại việc sử dụng có hại như lừa đảo và lạm dụng".

Nguồn: www.businessinsider.com