Bộ Khoa học và Công nghệ đang triển khai xây dựng danh mục các hệ thống trí tuệ nhân tạo (AI) có rủi ro cao, nhằm tăng cường kiểm soát và đảm bảo an toàn khi ứng dụng công nghệ vào thực tế.

Quá trình này do Viện Công nghệ số và Chuyển đổi số quốc gia chủ trì, đồng thời lấy ý kiến từ các đơn vị liên quan để đảm bảo danh mục phù hợp với từng lĩnh vực cụ thể.
Đây được xem là bước đi quan trọng trong việc hoàn thiện khung pháp lý cho AI tại Việt Nam.
AI rủi ro cao là gì?
Theo quy định trong Luật Trí tuệ nhân tạo 2025, hệ thống AI rủi ro cao là những công nghệ có thể gây ảnh hưởng lớn đến:
- Tính mạng và sức khỏe con người
- Quyền và lợi ích hợp pháp của cá nhân, tổ chức
- An ninh quốc gia và lợi ích công cộng
Việc phân loại này dựa trên mức độ tác động, phạm vi ảnh hưởng và lĩnh vực sử dụng của hệ thống AI.
Những lĩnh vực AI có thể bị xếp vào “vùng rủi ro cao”
Danh mục đang được xây dựng theo từng lĩnh vực cụ thể. Ví dụ:
- Y tế: AI hỗ trợ chẩn đoán, đưa ra phác đồ điều trị hoặc quyết định can thiệp y khoa
- An ninh – giám sát: hệ thống nhận diện, phân tích dữ liệu cá nhân
- Lĩnh vực thiết yếu: giáo dục, tài chính, dịch vụ công
Đặc biệt, các hệ thống có khả năng tự đưa ra quyết định mà không có sự kiểm soát của con người sẽ được xem xét kỹ lưỡng hơn.
Vì sao cần kiểm soát AI rủi ro cao?
- Ngăn ngừa hậu quả nghiêm trọng: Một số hệ thống AI có thể gây ảnh hưởng trực tiếp đến quyền con người hoặc tạo ra sai lệch lớn trong xã hội nếu vận hành sai.
- Bảo vệ người dùng và xã hội :Việc kiểm soát giúp đảm bảo AI không bị lạm dụng trong các lĩnh vực nhạy cảm như y tế, tài chính hay an ninh.
- Theo kịp xu hướng quản lý toàn cầu: Cách tiếp cận phân loại AI theo mức độ rủi ro cũng đang được nhiều quốc gia áp dụng, giúp Việt Nam hòa nhập với tiêu chuẩn quốc tế.
AI rủi ro cao sẽ bị quản lý như thế nào?
Theo dự thảo, các hệ thống AI thuộc nhóm rủi ro cao sẽ:
- Phải được đánh giá, kiểm định trước khi đưa vào sử dụng
- Có thể cần chứng nhận sự phù hợp từ cơ quan chức năng
- Bị giám sát trong suốt quá trình vận hành
Ngoài ra, các bộ ngành và địa phương được yêu cầu đề xuất cụ thể các hệ thống AI thuộc diện này để hoàn thiện danh mục chính thức.
Kết luận
Việc xây dựng danh mục AI rủi ro cao cho thấy Việt Nam đang chuyển từ giai đoạn phát triển sang quản lý chặt chẽ công nghệ AI. Đây là bước quan trọng nhằm tận dụng lợi ích của AI nhưng vẫn kiểm soát được các rủi ro tiềm ẩn trong tương lai.
Nếu bạn có thắc mắc hoặc cần tư vấn pháp luật, vui lòng liên hệ qua các kênh dưới đây: