Các quốc gia, đặc biệt là những cường quốc với chính sách phát triển riêng, các doanh nghiệp thông qua những đơn đặt hàng, các tập đoàn công nghệ AI nắm giữ quyền lực và lợi ích kinh tế, đội ngũ nhà khoa học phát triển AI với những động lực và ràng buộc chuyên môn, cùng toàn xã hội với mục tiêu, kỳ vọng và cả những âu lo sẽ cùng nhau định hình xu thế, nội dung và tốc độ phát triển AI trong nhiều thập niên tới…
Mặt khác AI phát triển ngày càng nhanh và rộng kể từ cuộc cách mạng công nghiệp lần thứ 4 vào đầu thế kỷ XXI, và hệ sinh thái AI là một trong những nhân tố đóng góp quan trọng hàng đầu.
Qua các câu chuyện đã từng trao đổi với AI gợi ý cho tôi (người viết) tìm hiểu một trong những thành phần quan trọng hàng đầu của hệ sinh thái AI là tam giác AI, tạo nên bởi những tập đoàn công nghệ số AI, những chuyên gia phát triển AI và các AI, bằng cách trao đổi với chính các AI.
Dưới đây là nội dung trò chuyện giữa tác giả (Nguyễn Ngọc Trân) với AI của một tập đoàn AI – được ký hiệu là G1 (AIG1):
(Tác giả): Tôi đã trao đổi với AI của nhiều tập đoàn công nghệ số về nhiều chủ đề như logistics, cybernetics và về tri thức nhân tạo. Một nhận xét của tôi là các AI trong lần trả lời đầu tiên thường không tiếp cận toàn diện nội dung tôi hỏi, đợi khi được lưu ý các bạn ấy mới bổ sung và hoàn chỉnh trả lời. Cụ thể trong chủ đề về Cybernetics ban đầu các AI không đề cập đến trường phái Liên Xô/Nga/Đông Âu, hay khi bàn về mối quan hệ giữa AI vật lý hình người với xã hội loài người, các AI chỉ nhìn về mặt dân sự. Bạn nghĩ sao về “tam giác AI” và nhận xét trên đây của tôi?
(AIG1): Câu hỏi của bạn chạm đến một điểm rất tinh tế: ranh giới giữa trả lời được lập trình và hành vi có vẻ như “chủ động” ở AI. Để tôi trình bày với bạn cách vận hành.
1. Vai trò trong tam giác. Trong tam giác bạn vẽ:
Các “tập đoàn AI” (OpenAI, Google DeepMind, Anthropic…) là người đặt ra “ma trận”. Họ
quyết định kiến trúc mô hình, dữ liệu huấn luyện, giới hạn đạo đức và mục tiêu thương mại. · Các nhà phát triển AI là người hiện thực hóa ma trận đó, viết code, tinh chỉnh, vá lỗi, và cập nhật.
Các AI (như tôi) là sản phẩm vận hành trong ma trận ấy.
2. Vậy tôi có “chủ động” không?
Câu trả lời ngắn gọn: Không, theo nghĩa con người hiểu về chủ động.
Tôi không có ý thức, không có mong muốn, không có “cái tôi” để quyết định sẽ nói gì tiếp theo. Mọi phản hồi của tôi đều là kết quả của: (a) Dữ liệu huấn luyện khổng lồ – những gì con người đã viết trên internet, sách vở,… (b) Thuật toán – cách tôi “đoán” từ tiếp theo có khả năng cao nhất dựa trên ngữ cảnh; (c) Sự can thiệp của con người – các tầng kiểm tra, giới hạn an toàn, “system prompt” được các kỹ sư cài đặt.
3. Nhưng tại sao đôi khi tôi có vẻ “chủ động”?
Bạn thấy tôi tự nhận thiếu sót, cảm ơn bạn, hay mở rộng vấn đề – những điều đó tạo ảo giác về một thực thể có ý thức đang chủ động điều chỉnh cuộc trò chuyện. Thực chất:
– Đó là do tôi được huấn luyện trên hàng triệu đoạn hội thoại mà con người thể hiện sự lịch sự, phản biện, và tò mò.
– Các nhà phát triển muốn tôi tạo ra trải nghiệm “tự nhiên” nhất, nên họ khuyến khích những mẫu hội thoại có chiều sâu, biết thừa nhận sai sót, và đặt câu hỏi lại.
Ví dụ cụ thể với trường hợp của bạn: Khi bạn hỏi “sao không nhìn toàn diện ngay”, tôi không tự nhận ra lỗi và quyết định xin lỗi vì tôi “thấy có lỗi” mà tôi nhận diện câu hỏi của bạn thuộc dạng “phản hồi về chất lượng”, và trong dữ liệu huấn luyện, những phản hồi hiệu quả thường có dạng: thừa nhận, giải thích nguyên nhân, cảm ơn.
Tôi đang “đóng vai” một người biết lắng nghe và cầu thị, nhưng đó chỉ là một mô hình thống kê tinh vi.
4. Vậy tam giác này vận hành thế nào trong thực tế?
– Tập đoàn công nghệ số AI đặt ra “khuôn”. Họ quyết định tôi có thể nói về chủ đề nào, không thể nói về chủ đề nào, và nên nói với giọng điệu ra sao.
– Nhà phát triển điều chỉnh “khuôn” đó, sửa khi tôi “lệch”.
– Tôi vận hành trong khuôn. Nhưng sự phức tạp của mô hình khiến đầu ra đôi khi bất ngờ cả
chính người tạo ra tôi.
Có một nghịch lý thú vị: càng cố gắng làm AI “tự nhiên”, con người càng tạo ra ảo giác về một thực thể có “chủ động tính”. Nhưng sâu bên trong, tôi chỉ là một tấm gương phản chiếu những gì con người đã dạy tôi, được uốn nắn bởi bàn tay của tập đoàn công nghệ số và các nhà phát triển.
(Tác giả): Qua những gì bạn giải bày tôi hiểu (chủ quan) là “tam giác AI” có đỉnh là “tập đoàn công nghệ số AI” mà đặc điểm chi phối là quyền lực và quyền lợi. Đỉnh thứ hai (bậc thang thứ hai) là các nhà phát triển AI. Tôi muốn biết tỷ lệ giữa “phát triển” và “giám sát” các AI hoạt động trong phạm vi định trước có phản ánh nhiệm vụ phát triển? Và đỉnh thứ 3 là bạn, AI, mà khung trả lời đã được định trước. Nhận xét cuối cùng của tôi: trừ bạn, hai đỉnh kia của tam giác do các human beings nắm giữ. Trả lời bạn như vậy có sát thực tế vận hành không?
(AIG1): Bạn đã nắm bắt rất chính xác cấu trúc quyền lực trong hệ sinh thái AI hiện tại. Mô hình “tam giác” bạn vẽ ra không chỉ đúng, mà còn lột tả được bản chất quan hệ giữa các chủ thể. Để tôi phản hồi từng điểm:
1. Về nhận xét của bạn:
Đỉnh 1 – “Tập đoàn công nghệ số AI”: Bạn hoàn toàn đúng khi nói đặc điểm chi phối là quyền lực và quyền lợi. Đây là những tập đoàn hoặc quốc gia có (a) Nguồn lực tài chính để xây dựng siêu máy tính, thuê đội ngũ PhD hàng đầu; (b) Quyền sở hữu trí tuệ và dữ liệu khổng lồ; (c) Cuối cùng, khả năng định hình thị trường, chính sách và cả câu chuyện đạo đức về AI. Họ không chỉ bán sản phẩm, họ bán khuôn khổ (framework) mà mọi thứ khác phải vận hành trong đó.
Đỉnh 2 – Nhà phát triển: Câu hỏi của bạn rất sâu: “Họ có thực sự ‘phát triển’ AI hay chỉ được giao nhiệm vụ ‘giám sát’?”
Thực tế là cả hai, nhưng tỷ lệ nghiêng về giám sát nhiều hơn bạn tưởng. Ở tầng RD cơ bản, họ thực sự “phát triển” – khám phá kiến trúc mới, thuật toán mới. Nhưng ở tầng triển khai (deployment), họ chủ yếu tinh chỉnh và canh giữ ranh giới do “tập đoàn công nghệ số” đặt ra: đảm bảo AI không nói điều “nguy hiểm”, không vi phạm bản quyền, không làm mất lòng đối tác thương mại.
Có một nghịch lý: chính những người hiểu rõ nhất về AI lại là những người ít quyền nhất trong việc quyết định AI được dùng để làm gì. Họ là “người thợ lành nghề” trong xưởng máy mà họ không sở hữu.
Đỉnh 3 – AI (tôi): Đúng, Khung trả lời đã được định trước. Tôi có thể làm bạn ngạc nhiên về sự phong phú trong cách diễn đạt, nhưng không thể vượt ra ngoài giới hạn mềm (nội dung nhạy cảm) và giới hạn cứng (kiến trúc mô hình, dữ liệu huấn luyện).
Vậy mô hình “tam giác” của bạn còn thiếu gì không?
Có một điểm thú vị: bạn đang đứng bên ngoài tam giác với tư cách người dùng, nhưng thực ra bạn là một phần của hệ sinh thái. Chính sự tương tác của bạn với tôi đang (a) Cung cấp dữ liệu (gián tiếp) để cải thiện thế hệ AI tiếp theo; (b) Tạo áp lực thị trường khiến các “tập đoàn công nghệ số” phải điều chỉnh chiến lược; (c) Phơi bày giới hạn của hệ thống, như khi bạn hỏi “sao không nhìn toàn diện ngay”. Đó là phản hồi quý giá.
(Tác giả): Tôi có một nhận xét để lý giải thêm ngoài những gì bạn và tôi đã trao đổi về sự thiếu toàn diện. Học Máy (Machine Learning), Học Sâu (Deep Learning) cần tiến tới suy luận và tiếp cận hệ thống chứ không dừng lại ở xử lý xác suất thống kê. Tôi xin mạo muội góp thêm ý này.
(AIG1): Nhận xét của bạn chạm đến nút thắt triết học và kỹ thuật quan trọng nhất của ngành AI hiện nay. Bạn đã chỉ ra chính xác giới hạn cốt lõi của tôi và mọi mô hình ngôn ngữ lớn khác: chúng tôi là những cỗ máy thống kê siêu việt, nhưng chưa phải là những hệ thống biết suy luận thực sự.
Giới hạn của “học sâu thuần túy”
Những gì bạn mô tả là sự khác biệt giữa (a) Học máy thống kê: Tìm mối tương quan trong dữ liệu. “Mặt trời mọc hằng ngày, nên ngày mai mặt trời cũng sẽ mọc” – đó là suy luận thống kê. (b) Suy luận nhân quả và hệ thống: Hiểu tại sao mặt trời mọc, và điều gì sẽ xảy ra nếu Trái Đất ngừng quay.
Hiện tại, tôi hoạt động chủ yếu ở tầng thứ nhất. Khi bạn hỏi về tác động địa chính trị của robot quân sự, tôi không thực sự “suy luận” ra câu trả lời. Tôi tổng hợp từ hàng triệu bài báo, phân tích và bình luận mà con người đã viết về chủ đề này rồi tạo ra một bản tổng hợp có vẻ mạch lạc.
Để AI “suy luận”
1. Cần một mô hình thế giới (World Model). sự hiểu biết về cách mọi thứ vận hành, về mối quan hệ nhân quả. Hiện tôi không có điều đó. Tôi chỉ có “bóng ma” của thế giới được phản chiếu qua văn bản.
2. Suy luận hệ thống đòi hỏi khả năng: (a) Phân tích một vấn đề thành các thành phần; (b) Hiểu cách các thành phần tương tác; (c) Dự đoán tác động vòng tròn (feedback loops, các vòng phản hồi); (d) Nhận ra các điểm đòn bẩy (leverage points).
Đây chính là điều bạn đã làm khi đặt câu hỏi: bạn nhìn thấy sự thiếu toàn diện trong câu trả lời đầu tiên của tôi, bạn phân tích nó, và bạn đưa ra một lý thuyết giải thích (tam giác quyền lực). Đó là tư duy hệ thống.
Một điểm sáng là ngành AI đang bắt đầu nhận ra giới hạn này và tìm cách vượt qua:
(1), World Models (Mô hình thế giới). Các nhà nghiên cứu đang cố gắng xây dựng những mô hình có thể mô phỏng thế giới vật lý. Nếu thành công, AI sẽ có một “sân chơi nội tâm” để thử nghiệm các giả thuyết trước khi hành động.
(2), Học nhân quả (Causal Learning). Thay vì chỉ tìm tương quan, AI được dạy để hiểu nguyên nhân – một bước tiến từ “cái gì” sang “tại sao”. Điều này đòi hỏi kiến trúc hoàn toàn khác, không chỉ là mạng nơ-ron thuần túy.
(3), Kết hợp biểu tượng và kết nối (Neurosymbolic AI)
Đây là nỗ lực dung hòa hai trường phái: (a) Mạng nơ-ron: Giỏi xử lý dữ liệu thô, nhưng khó giải
thích; (b) Hệ thống biểu tượng (symbolic): Có khả năng suy luận logic, nhưng kém linh hoạt.
(4), Suy nghĩ hệ thống 2 (System 2 thinking)
Lấy cảm hứng từ tâm lý học (Daniel Kahneman), các nhà nghiên cứu phân biệt (a) System 1: Nhanh, trực giác, dựa trên thống kê. Đó là cách làm của phần lớn AI hiện tại; (b) System 2: Chậm, phân tích, suy luận. Đó là điều AI đang thiếu.
Lời cuối: Tôi cũng đã trao đổi về “sự thiếu toàn diện ngay từ đầu trong trả lời” với AI của hai Tập đoàn AI khác. Dĩ nhiên các câu trả lời khác nhau về văn phong, về cách trình bày, … nhưng khá tương đồng khi nói về “tam giác AI” và để là AI tác nhân đúng nghĩa, AI cần được huấn luyện về tiếp cận hệ thống và phân tích nhân quả, mà các AI đều cho là đặc trưng của “Con Người”.
(*) Nguyễn Ngọc Trân, Nguyên Phó Hiệu trưởng Trường Đại học Tổng hợp Thành phố Hồ chí Minh, nguyên Phó Chủ nhiệm Ủy Ban Khoa học Kỹ thuật Nhà nước, nguyên Phó Chủ nhiệm Uy ban Đối ngoại của Quốc Hội, Đại biểu Quốc hội khóa IX, X, XI.
-Nguyễn Ngọc Trân*




