Tranh cãi về việc phân loại AI rủi ro cao để đưa vào 'vùng đỏ' quản lý

Khương Nha
Khương Nha
15/02/2026 13:17 GMT+7

Bộ Khoa học và Công nghệ đang dự thảo đưa các hệ thống AI rủi ro cao vào "vùng đỏ" để kiểm soát, tuy nhiên các chuyên gia lo ngại nếu làm không đúng có thể khiến Việt Nam bị tụt hậu.

Bộ Khoa học và Công nghệ vừa có dự thảo ban hành danh mục hệ thống trí tuệ nhân tạo (AI) có rủi ro cao. Trong đó có tiêu chí xác định và danh mục hệ thống AI rủi ro cao phải chứng nhận sự phù hợp trước khi đưa vào sử dụng.

Theo dự thảo, danh mục hệ thống AI có rủi ro cao được xác định theo mục đích và bối cảnh sử dụng cụ thể, không xác định đơn thuần theo công nghệ, thuật toán hoặc mô hình. AI bị đánh giá rủi ro cao khi kết quả ảnh hưởng đến quyền, nghĩa vụ hoặc lợi ích hợp pháp của tổ chức, cá nhân.

'Dự thảo có thể là dấu chấm hết cho AI Việt Nam'

Ngay sau khi dự thảo được mở lấy ý kiến công khai, cộng đồng AI Việt Nam đã có nhiều ý kiến thảo luận. Theo các chuyên gia, AI được xếp vào nhóm rủi ro cao nếu gây nguy hiểm đến sức khỏe, tính mạng con người (như xe tự lái hoàn toàn), nguy hiểm cho an ninh quốc gia.

"Nếu chiếu theo dự thảo, các phần mềm chấm công nhận diện khuôn mặt hiện tại đều là rủi ro cao. Quan trọng là AI để phục vụ những tác vụ lặp đi lặp lại, tức là càng đông người dùng càng tốt. Nhưng cứ trên 500 người dùng được xếp vào rủi ro cao thì là nghịch lý", một chuyên gia AI nhận định.

Lãnh đạo của một tập đoàn công nghệ hàng đầu Việt Nam chia sẻ: "Nếu dự luật hiện tại được thông qua, với các tiêu chí phân loại như trên thì đây là dấu chấm hết cho AI của Việt Nam".

Cộng đồng công nghệ Việt phản ứng trước dự thảo phân loại AI để kiểm soát - Ảnh 1.

Mô hình AI dịch thuật đa ngôn ngữ được trình diễn tại Triển lãm Công nghệ GITEX Asia 2025, tại Singapore

ẢNH: KHƯƠNG NHA

Nhìn từ góc độ doanh nghiệp, ông Nguyễn Hồng Phúc, Giám đốc khoa học AI của Neurons AI, cho rằng đây là danh mục "cấm phát triển các hệ thống AI". Do có các ngưỡng cứng, ví dụ bao nhiêu hồ sơ bị AI đánh giá thì bị xếp vào loại phải xin giấy phép con để có thể phát triển các AI này.

"Về bản chất việc phân loại theo danh mục nhằm đánh giá mức độ ảnh hưởng của hệ thống AI tới từng vùng xã hội, kinh tế cụ thể. Việc này không xấu nếu ý đồ là để phân bổ nguồn lực xã hội cho việc phát triển AI, cũng như để chính phủ theo dõi và giám sát", ông Phúc nói.

Tuy nhiên, phân loại có thể dẫn đến yêu cầu doanh nghiệp phải xin cấp giấy phép phát triển AI, buộc các công ty phải chi trả phí tuân thủ quá cao, chỉ một số doanh nghiệp lớn có thể đáp ứng. Điều này có thể hạn chế việc phát triển AI của các startup - nơi thường tạo ra những đột phá vượt bậc.

Theo các chuyên gia, các quốc gia có nền AI phát triển đã áp dụng biện pháp quản lý vừa đủ, định hướng ưu tiên. Chính phủ đóng vai trò giám sát, không hạn chế ở giai đoạn AI đang phát triển bùng nổ như hiện nay. 

"Việt Nam sẽ bỏ lỡ cuộc cách mạng khoa học công nghệ lớn nhất lịch sử nhân loại, nếu làm theo cách này", Giám đốc khoa học AI của Neurons AI nói. Trong khi đó, nhiều lãnh đạo công nghệ lo ngại với quy định này, các startup AI có thể rời bỏ Việt Nam, tìm đến những môi trường pháp lý kiến tạo tốt hơn.

AI được phân loại theo tác động, không theo công nghệ

Danh mục nhấn mạnh bối cảnh sử dụng quan trọng hơn bản thân công nghệ. Cùng thuật toán nhận diện khuôn mặt có thể vô hại trong việc mở khóa điện thoại, nhưng trở thành rủi ro cao nếu được triển khai trên diện rộng trong không gian công cộng.

Cụ thể, danh mục hệ thống AI có rủi ro cao gồm 13 dạng, chia làm 4 nhóm. 

  • Nhóm 1 là hệ thống có tác động đến quyền con người, dùng để phân loại, xếp hạng hoặc dự báo về cá nhân; AI dùng trong tuyển dụng, sử dụng lao động; và hệ thống AI nhận dạng sinh trắc học trên diện rộng. Quy mô áp dụng từ 500 người trở lên, tùy trường hợp cụ thể.
  • Nhóm 2 là hệ thống AI có ảnh hưởng đến an toàn, an ninh, được sử dụng trong lĩnh vực bảo đảm an ninh quốc gia, trật tự, an toàn xã hội; và hệ thống AI được dùng để đảm bảo an toàn trong sản phẩm, hàng hóa có mức độ rủi ro cao do các bộ ngành quy định. Quy mô áp dụng từ 1.000 đối tượng hoặc được triển khai trên 2 địa bàn hành chính cấp tỉnh trở lên.
  • Nhóm 3 là hệ thống AI trong các lĩnh vực thiết yếu, liên quan mật thiết tới lợi ích công cộng như: Vận hành, giám sát hạ tầng thiết yếu (giao thông, năng lượng, cấp nước, viễn thông); Hỗ trợ chẩn đoán, điều trị, phân bổ nguồn lực y tế; Tiếp cận giáo dục, đánh giá kết quả học tập; Đánh giá rủi ro tài chính cá nhân, cho vay, bảo hiểm; Hỗ trợ hoặc ra quyết định hành chính; Hỗ trợ tư pháp. Quy mô áp dụng từ 500 đến 10.000 người, tùy trường hợp cụ thể.
  • Nhóm 4 là hệ thống AI có quy mô ảnh hưởng lớn hoặc khó khắc phục, được triển khai trên diện rộng từ 2 tỉnh trở lên hoặc trên 50.000 người; Sử dụng dữ liệu cá nhân nhạy cảm hoặc dữ liệu có yêu cầu bảo mật cao.

Dự thảo được mở lấy ý kiến công khai trên Cổng Thông tin Chính phủ trong vòng một tháng, từ ngày 9.2 đến ngày 9.3.2026.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.