Ông Trần Quang Đức, CEO Công ty Cổ phần AI Hay, nhấn mạnh rằng luật này không chỉ quản lý mà còn thúc đẩy phát triển, tạo ra hành lang an toàn cho thị trường mà không cản trở đổi mới sáng tạo. Ông Trần Văn Viển, CEO Filum.ai, cho rằng luật này sẽ loại bỏ những công ty chỉ sử dụng AI như một công cụ truyền thông bề nổi, đồng thời tạo lợi thế cho những nền tảng có tư duy kiến trúc nghiêm túc.
Các cơ chế hỗ trợ phát triển AI như Quỹ Phát triển AI quốc gia, AI voucher, và sandbox thử nghiệm có kiểm soát được kỳ vọng sẽ tạo động lực phát triển cho hệ sinh thái AI nội địa. Tuy nhiên, tốc độ triển khai chính sách là yếu tố quyết định thành bại. Chính phủ đã giao Bộ Khoa học và Công nghệ xây dựng nghị định về Quỹ Phát triển AI quốc gia, nhưng cơ chế hỗ trợ vẫn cần thời gian hoàn thiện. Trong khi đó, Hàn Quốc đã có những bước đi nhanh chóng với AI Basic Act, tập trung vào hướng dẫn và đầu tư mạnh mẽ vào hạ tầng AI.
“Nếu định nghĩa “rủi ro cao” quá định tính, hoặc trách nhiệm giữa nhà phát triển, nhà cung cấp, bên triển khai và người sử dụng chưa rõ ràng, doanh nghiệp có thể rơi vào trạng thái phòng thủ quá mức, ngại tung ra sản phẩm mới hoặc mở rộng các sáng kiến ứng dụng”.
Ông Trần Quang Đức, CEO Công ty Cổ phần AI Hay
Ông Viển cho rằng Quỹ Phát triển AI của Việt Nam cần tránh tư duy tài trợ nhỏ giọt và nên hoạt động như một nhà đầu tư mạo hiểm cấp quốc gia. Ngoài ra, chính sách ưu đãi thiết thực nhất không phải là tiền mặt mà là giảm chi phí tiếp cận hạ tầng điện toán đám mây và ưu đãi thuế cho nhân sự R&D. Rủi ro bảo hộ ngược cũng là một vấn đề, khi các quy định về phân loại hệ thống AI theo mức độ rủi ro có thể ảnh hưởng đến quá trình thiết kế và thương mại hóa sản phẩm. Ông Viển cho rằng cơ chế này sẽ buộc các doanh nghiệp phải thay đổi tư duy làm sản phẩm, nhưng cũng giúp định vị sản phẩm rõ ràng hơn trên thị trường.
Tuy nhiên, các doanh nghiệp bày tỏ lo ngại về cách xác định ngưỡng rủi ro trong dự thảo hiện nay. Nếu ngưỡng rủi ro chỉ dựa vào số lượng người dùng, thì bất kỳ nền tảng AI nào thành công cũng có thể bị coi là rủi ro cao. Ông Đức cho rằng việc đánh giá rủi ro cần dựa vào bản chất kỹ thuật và mức độ tác động thực tế của hệ thống. Ví dụ, OpenClaw, một dự án AI mã nguồn mở, có khả năng truy cập nhiều dữ liệu nhạy cảm nhưng không bị kiểm soát bởi khung pháp lý AI nào trên thế giới.
“Chính sách ưu đãi thiết thực nhất không hẳn là tiền mặt. Điều doanh nghiệp AI cần nhất là giảm chi phí tiếp cận hạ tầng điện toán đám mây, đặc biệt là GPU, cùng với các ưu đãi thuế đủ sâu cho nhân sự R&D. Làm AI là bài toán ‘đốt tiền’ hạ tầng, doanh nghiệp nào tối ưu được chi phí này thì mới có cơ hội tồn tại và phát triển”.
Một mối lo khác là độ trễ hành chính, khi vòng đời của nhiều công nghệ AI chỉ tính bằng tuần hoặc vài tháng. Nếu quy trình thẩm định kéo dài, công nghệ có thể đã lỗi thời khi sản phẩm hoàn tất thủ tục. Rủi ro bảo hộ ngược cũng có thể xảy ra nếu các tiêu chuẩn quốc tế được áp dụng máy móc vào Việt Nam, gây áp lực lớn cho các doanh nghiệp trong nước. Các doanh nghiệp lớn có thể lách luật hoặc chấp nhận nộp phạt để chiếm thị phần, trong khi các doanh nghiệp nhỏ có thể bị bóp nghẹt năng lực sáng tạo.
Sự đồng thuận trong ủng hộ Luật AI là rõ ràng, nhưng những băn khoăn về khâu thực thi cũng được nhắc đến. Phép thử tác động thực sự của Luật với lĩnh vực AI không nằm ở thời điểm Luật có hiệu lực, mà ở các văn bản thực thi sắp tới. Nếu các quy định được thiết kế rõ ràng và linh hoạt, Luật sẽ trở thành bệ phóng cho hệ sinh thái AI Việt Nam. Ngược lại, nếu quá cứng nhắc, chính các doanh nghiệp nội địa có thể chịu tác động đầu tiên…
Nội dung đầy đủ bài viết được đăng tải trên Tạp chí Kinh tế Việt Nam số 11-2026 phát hành ngày 16/03/2026. Kính mời Quý độc giả tìm đọc tại đây:
Link: https://premium.vneconomy.vn/dat-mua/an-pham/tap-chi-kinh-te-viet-nam-so-11-2026.html




