Theo chủ trương, đường lối, quan điểm chỉ đạo của Đảng và Nhà nước, pháp luật về AI không nhằm cản trở các nền tảng AI Việt Nam thành công, mà hướng tới quản lý rủi ro hợp lý và khuyến khích đổi mới sáng tạo…
Trong Dự thảo Danh mục hệ thống AI rủi ro cao được Bộ Khoa học và Công nghệ công bố hồi tháng 2 có quy định: “Một hệ thống AI hỗ trợ ra quyết định liên quan đến khoảng 500 lao động trong lĩnh vực nhân sự, 500 học sinh trong giáo dục, hoặc 1.000 khách hàng trong tài chính có thể bị xếp vào nhóm rủi ro cao”.
Trước nội dung này, một số doanh nghiệp đã bày tỏ băn khoăn với VnEconomy rằng cách tiếp cận có lẽ chưa hợp lý vì nếu ngưỡng rủi ro được xác định dựa vào số lượng người dùng, thì nền tảng AI do Việt Nam làm thành công vì có nhiều người dùng có khả năng sẽ bị ‘tuýt còi’, trong khi bản chất của AI là công nghệ phục vụ số đông.
Nếu hệ thống chỉ mang tính hỗ trợ, khuyến nghị, không tự động ra quyết định cuối cùng, hoặc vẫn có sự giám sát thực chất của con người, thì sẽ không bị xếp vào nhóm rủi ro cao. Vì vậy, trọng tâm phân loại là mức độ AI can thiệp vào quyết định đối với con người, chứ không phải chỉ vì nền tảng có đông người dùng.
Ngày 18/3, VnEconomy đã gửi câu hỏi tới Bộ Khoa học và Công nghệ để làm rõ cơ sở phân loại rủi ro trong dự thảo, cũng như quan điểm của cơ quan quản lý đối với kiến nghị từ doanh nghiệp. Ngày 21/3/2026, Trung tâm Truyền thông Bộ Khoa học và Công nghệ đã có văn bản số 212/TTTT-HTTT đề nghị Viện Công nghệ số và Chuyển đổi số quốc gia nghiên cứu, trả lời băn khoăn.
VnEconomy ghi nhận phản hồi của Viện Công nghệ số và Chuyển đổi số quốc gia như sau: Thông tin trong câu hỏi của nhà báo là số liệu cũ từ phiên bản dự thảo đầu tiên. Hiện tại dự thảo đang được xây dựng lại theo hướng lấy ý kiến, đề xuất từ các Bộ ngành, địa phương để Bộ Khoa học và Công nghệ tổng hợp.
Sau khi đã thu thập đầy đủ ý kiến và đề xuất từ các bộ ngành, Bộ sẽ xây dựng dự thảo hoàn thiện, và trình Thủ tướng Chính phủ xem xét, quyết định theo quy trình xây dựng văn bản quy phạm pháp luật.
Trong phản hồi, Viện Công nghệ số và Chuyển đổi số quốc gia cho hay theo chủ trương, đường lối, quan điểm chỉ đạo của Đảng và Nhà nước, pháp luật về AI không nhằm cản trở các nền tảng AI Việt Nam thành công, mà hướng tới quản lý rủi ro hợp lý và khuyến khích đổi mới sáng tạo.
Viện nhấn mạnh quy mô người dùng không phải tiêu chí duy nhất. Theo dự thảo Nghị định, một hệ thống AI chỉ bị coi là rủi ro cao khi xem xét tổng hợp cả ba yếu tố: mức độ tác động, lĩnh vực triển khai và quy mô ảnh hưởng.
Nếu hệ thống chỉ mang tính hỗ trợ, khuyến nghị, không tự động ra quyết định cuối cùng, hoặc vẫn có sự giám sát thực chất của con người, thì sẽ không bị xếp vào nhóm rủi ro cao. Vì vậy, trọng tâm phân loại là mức độ AI can thiệp vào quyết định đối với con người, chứ không phải chỉ vì nền tảng có đông người dùng.
Luật Trí tuệ nhân tạo được Quốc hội thông qua vào ngày 10/12/2025, đã chính thức có hiệu lực từ ngày 1/3/2026. Ngay từ giai đoạn dự thảo, tinh thần “quản lý để mở đường cho phát triển” đã được cơ quan quản lý nhấn mạnh như một nguyên tắc xuyên suốt.
Luật không chỉ đặt ra khuôn khổ quản lý, mà còn thiết kế hàng loạt cơ chế thúc đẩy phát triển: từ việc thành lập Quỹ Phát triển AI quốc gia, triển khai chương trình AI Voucher hỗ trợ doanh nghiệp ứng dụng trí tuệ nhân tạo, đến việc xây dựng sandbox cho phép thử nghiệm có kiểm soát với các giải pháp AI nhạy cảm.
Bên cạnh đó là các chính sách ưu tiên sử dụng sản phẩm AI nội địa trong đấu thầu công, phát triển nguồn nhân lực và hỗ trợ doanh nghiệp nhỏ và vừa. Những quy định này được kỳ vọng sẽ tạo lực đẩy quan trọng cho hệ sinh thái AI trong nước.
Tuy nhiên, khi mà các nghị định hướng dẫn thi hành, yếu tố quyết định cách luật đi vào thực tế, trong khi vẫn chưa được ban hành, bên cạnh kỳ vọng, hứng khởi, nhiều doanh nghiệp cũng cho biết khá thấp thỏm, mong sớm có những quy định cụ thể, rõ ràng để thực sự được hưởng những ưu đãi tạo điều kiện phát triển.
-Ngô Huyền




