Phân loại hệ thống trí tuệ nhân tạo theo bốn cấp độ rủi ro
Sáng 21/11, Quốc hội nghe tờ trình và báo cáo thẩm tra dự thảo Luật Trí tuệ nhân tạo.
Trình bày tờ trình, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng cho biết dự thảo luật được xây dựng nhằm tạo hành lang pháp lý đột phá cho trí tuệ nhân tạo, kiến tạo môi trường pháp lý thuận lợi để thúc đẩy đổi mới sáng tạo, nâng cao năng lực cạnh tranh quốc gia, đồng thời quản lý rủi ro, bảo vệ lợi ích quốc gia, quyền con người và chủ quyền số.

Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng trình bày tờ trình. Ảnh: Media Quốc hội.
Để quản lý hệ thống trí tuệ nhân tạo, dự thảo luật đã tiếp cận quản lý dựa trên rủi ro, phân loại trí tuệ nhân tạo thành bốn cấp độ và áp đặt nghĩa vụ tương ứng.
Hệ thống trí tuệ nhân tạo được phân loại theo bốn mức độ rủi ro gồm: Rủi ro không chấp nhận được: hệ thống có khả năng gây tổn hại nghiêm trọng, không thể khắc phục.
Rủi ro cao là hệ thống có thể gây thiệt hại đến tính mạng, sức khỏe, quyền, lợi ích hợp pháp; Rủi ro trung bình là hệ thống có nguy cơ gây nhầm lẫn, thao túng hoặc lừa dối người sử dụng. Rủi ro thấp là các trường hợp còn lại.
Nhà cung cấp phải tự phân loại hệ thống trước khi lưu hành và chịu trách nhiệm về kết quả phân loại.
Đối với hệ thống rủi ro trung bình và cao, nhà cung cấp phải thông báo cho Bộ Khoa học và Công nghệ qua Cổng thông tin một cửa. Cơ quan có thẩm quyền được quyền kiểm tra, đánh giá lại việc phân loại.
Luật quy định trách nhiệm minh bạch, gắn nhãn và giải trình. Cụ thể, bên triển khai phải thông báo rõ và gắn nhãn đối với nội dung tạo ra hoặc chỉnh sửa có yếu tố giả mạo, mô phỏng người thật (deepfake) có thể gây hiểu lầm, hoặc nội dung do Trí tuệ nhân tạo tạo ra nhằm mục đích truyền thông, quảng cáo.
Nhà cung cấp và bên triển khai phải giải trình về kết quả xử lý của hệ thống rủi ro cao khi người bị ảnh hưởng yêu cầu.
Về xử lý sự cố, các bên có trách nhiệm kịp thời khắc phục, tạm dừng hoặc thu hồi hệ thống và báo cáo qua Cổng thông tin một cửa. Để quản lý theo rủi ro, với rủi ro không chấp nhận được, các hệ thống này bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào.
Danh mục cấm bao gồm hệ thống dùng cho hành vi bị pháp luật nghiêm cấm, sử dụng yếu tố giả mạo để lừa dối, thao túng gây tổn hại nghiêm trọng, lợi dụng điểm yếu của nhóm người dễ bị tổn thương (trẻ em, người cao tuổi...), hoặc tạo nội dung giả mạo gây nguy hại nghiêm trọng đến an ninh quốc gia.
Việc đánh giá có thể theo hình thức chứng nhận sự phù hợp (do tổ chức được chỉ định thực hiện) hoặc giám sát sự phù hợp (nhà cung cấp tự đánh giá).
Thủ tướng Chính phủ quy định Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao tương ứng với từng hình thức đánh giá.
Nghĩa vụ chi tiết được quy định cho nhà cung cấp (thiết lập biện pháp quản lý rủi ro, quản trị dữ liệu huấn luyện, lập hồ sơ kỹ thuật, bảo đảm khả năng giám sát của con người) và bên triển khai (vận hành đúng mục đích, bảo đảm an toàn, thực hiện nghĩa vụ minh bạch).
Nhà cung cấp nước ngoài có hệ thống rủi ro cao phải có đại diện được ủy quyền tại Việt Nam, và phải thành lập pháp nhân tại Việt Nam nếu hệ thống thuộc diện bắt buộc chứng nhận sự phù hợp.
Với rủi ro trung bình, thấp và mô hình đa dụng, hệ thống rủi ro trung bình phải bảo đảm minh bạch, gắn nhãn.
Dự thảo cũng quy định trách nhiệm của nhà phát triển và người sử dụng mô hình trí tuệ nhân tạo đa dụng nhằm bảo đảm tuân thủ pháp luật Việt Nam. Các nghĩa vụ tăng cường được áp dụng đối với các mô hình GPAI có rủi ro hệ thống (khả năng tác động sâu rộng), bao gồm đánh giá tác động, lưu giữ hồ sơ kỹ thuật và thông báo cho Bộ KH&CN.
Tuy nhiên, các mô hình trí tuệ nhân tạo đa dụng mã nguồn mở được miễn áp dụng các nghĩa vụ tăng cường này; trường hợp mô hình mã nguồn mở được dùng để phát triển hệ thống Trí tuệ nhân tạo thì tổ chức sử dụng phải thực hiện quản lý rủi ro của hệ thống đó.
Cân nhắc áp dụng hình thức gắn nhãn vô hình để giảm chi phí
Ở góc độ thẩm tra, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải cho biết, Uỷ ban nhận thấy việc gắn nhãn đối với các sản phẩm do AI là có sự ràng buộc về trách nhiệm đạo đức và pháp lý để xây dựng lòng tin trong kỷ nguyên AI.

Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải. Ảnh: Media Quốc hội.
Cơ bản tán thành với quy định về gắn nhãn tại dự thảo Luật, tuy nhiên, Uỷ ban đề nghị tham khảo kinh nghiệm quốc tế đối với các sản phẩm do AI tạo ra để bảo đảm phù hợp với điều kiện thực tiễn của Việt Nam.
Đối với các sản phẩm, thiết bị phần cứng có ứng dụng AI (ví dụ như tủ lạnh, Tivi, máy giặt,…), đề nghị nghiên cứu, cân nhắc việc áp dụng hình thức gắn nhãn vô hình (invisible watermark) để giảm chi phí, thủ tục nhưng vẫn bảo đảm khả năng quản lý và truy xuất.
Đồng thời, đề nghị quy định tại dự thảo Luật những nguyên tắc để giao Chính phủ hướng dẫn chi tiết về hình thức, tiêu chuẩn kỹ thuật và các trường hợp miễn trừ.
Có ý kiến đề nghị chuyển quy định gắn nhãn từ bắt buộc sang khuyến khích, kèm hướng dẫn kỹ thuật tối thiểu.
Cùng đó, cần thí điểm cơ chế gắn nhãn tự nguyện ở một số lĩnh vực; đồng thời tăng cường truyền thông để tránh việc hiểu nhầm "không có nhãn là không phải sản phẩm AI".
Về phân loại rủi ro, Uỷ ban đánh giá việc phân loại bốn mức độ trong khi Luật Chất lượng sản phẩm, hàng hóa phân loại sản phẩm, hàng hóa thành ba loại là chưa thống nhất nếu AI được xem là sản phẩm, hàng hóa.
Quy định về việc chứng nhận sự phù hợp đối với hệ thống trí tuệ nhân tạo có mức độ rủi ro cao là chưa thống nhất, đồng bộ với nguyên tắc quản lý sản phẩm, hàng hóa có mức độ rủi ro cao quy định tại Luật Chất lượng sản phẩm, hàng hóa.
Do đó, đề nghị tiếp tục rà soát, đối chiếu kỹ lưỡng các quy định của dự thảo Luật với các luật hiện hành.
Bình luận bài viết (0)
Gửi bình luận