Việt Nam bắt đầu định nghĩa hệ thống AI rủi ro cao

Điểm nổi bật
- Viện CNS&CĐS đang lấy ý kiến để xây dựng danh mục hệ thống AI rủi ro cao.
- Ba mức rủi ro: cao, trung bình, thấp theo Luật Trí tuệ nhân tạo.
- Nhiều lĩnh vực nhạy cảm được nêu: y tế, giáo dục, tuyển dụng, tài chính, giao thông, tư pháp, hạ tầng trọng yếu.
- Không phải mọi hệ thống đều bị xếp loại cao: dự thảo có cơ chế loại trừ nếu chỉ hỗ trợ kỹ thuật hoặc có giám sát người đủ mạnh.
Biểu đồ
Tóm tắt
Tin từ VnExpress đáng chú ý vì nó cho thấy Việt Nam đã chuyển từ thảo luận khái niệm sang xây khung quản trị cụ thể cho AI. Khi danh mục rủi ro cao được định hình, doanh nghiệp sẽ phải nhìn AI không chỉ như công cụ tăng năng suất, mà như một hệ thống cần phân loại, giải trình và giám sát.
Điều quan trọng là dự thảo không đi theo hướng cấm đoán rộng tay, mà cố xác định đúng các trường hợp AI có thể ảnh hưởng trực tiếp đến quyền lợi con người hoặc an ninh quốc gia.
Chi tiết
Trong hệ sinh thái AI Việt Nam, nhiều doanh nghiệp đang nói nhiều về ứng dụng, ít nói về trách nhiệm hệ thống. Vì vậy việc Bộ Khoa học và Công nghệ bắt đầu xây dựng danh mục AI rủi ro cao là một tín hiệu chính sách rất quan trọng. Theo VnExpress, Viện Công nghệ số và Chuyển đổi số quốc gia đang lấy ý kiến các đơn vị để xác định những hệ thống AI nào cần nằm trong diện kiểm soát chặt hơn. Đây là bước đi không mang tính hình thức, bởi nó sẽ ảnh hưởng trực tiếp tới cách doanh nghiệp thiết kế sản phẩm, phân quyền phê duyệt và chứng minh tuân thủ.
Điểm tích cực là khung phân loại được xây theo mức độ rủi ro thay vì gộp mọi ứng dụng AI vào một rổ. Luật Trí tuệ nhân tạo phân hệ thống thành ba mức: cao, trung bình và thấp. Cách tiếp cận này gần với logic quản trị quốc tế: quản mạnh nơi có khả năng gây hại lớn, linh hoạt hơn ở vùng ứng dụng nhẹ. Dự thảo nêu nhiều lĩnh vực nhạy cảm như y tế, giáo dục, tuyển dụng, tài chính – ngân hàng, giao thông, năng lượng, tư pháp, hạ tầng trọng yếu và dịch vụ công. Đây đều là những nơi một quyết định sai từ AI có thể kéo theo tổn thất lớn cho cá nhân, tổ chức hoặc xã hội.
Nhưng phần đáng chú ý hơn là cơ chế loại trừ. Dự thảo cho thấy nhà làm chính sách không muốn bóp nghẹt đổi mới. Những hệ thống chỉ làm tác vụ kỹ thuật như thu thập, xử lý, phân loại dữ liệu mà không trực tiếp tạo quyết định ảnh hưởng tới quyền lợi người dùng có thể không bị xếp vào nhóm rủi ro cao. Tương tự, nếu con người có quyền kiểm tra độc lập, can thiệp hoặc từ chối quyết định của AI trước khi quyết định có hiệu lực, hệ thống cũng có thể được xem xét loại trừ. Điều đó tạo ra một tín hiệu rất rõ cho doanh nghiệp: muốn giảm rủi ro pháp lý, hãy thiết kế human oversight thật, không phải human oversight trên giấy.
Về mặt thị trường, đây là bước ngoặt cho doanh nghiệp công nghệ và cả doanh nghiệp ứng dụng AI trong vận hành. Những dự án AI ở tuyển dụng, chấm điểm tín dụng, hỗ trợ lâm sàng hay quản trị công sẽ phải chuẩn bị sớm hơn cho hồ sơ kỹ thuật, cơ chế kiểm soát, quy trình đánh giá sai lệch và trách nhiệm pháp lý. Ngược lại, doanh nghiệp nào làm bài bản có thể biến tuân thủ thành lợi thế cạnh tranh, nhất là khi khách hàng ngày càng quan tâm đến độ an toàn và khả năng giải trình của hệ thống.
Từ góc nhìn chiến lược, AI tại Việt Nam đang bước vào giai đoạn trưởng thành hơn: không chỉ hỏi “làm được gì”, mà hỏi thêm “được phép làm đến đâu, dưới điều kiện nào và ai chịu trách nhiệm”. Đây là thay đổi nền tảng mà mọi nhà quản trị nên theo dõi từ bây giờ.