
Những video “bắt trend” yêu cầu chatbot đếm số có nhiều lượt tương tác trên mạng xã hội – Ảnh chụp màn hình
Trên mạng xã hội xuất hiện trào lưu mang tính thử sức chịu đựng của chatbot, khi nhiều người dùng yêu cầu những mô hình AI phổ thông như ChatGPT, Gemini… thực hiện việc đếm số từ 1 đến hàng trăm nghìn, thậm chí cả triệu.
Trào lưu này xuất phát từ một video ngắn trên TikTok ghi lại cảnh ChatGPT đang “miệt mài” đếm số tới 1 triệu. Đoạn video này nhanh chóng lên xu hướng, thu hút tới hơn 11 triệu người quan tâm.
Nhiều người sau đó coi đây là cách thử thách giới hạn của trí tuệ nhân tạo, khi chỉ sau vài lần yêu cầu chatbot đã thực hiện việc đếm số mất hàng giờ.
Trò giải trí nhưng có thể trở thành cuộc tấn công an ninh mạng
Hành động trên tưởng chừng mang tính giải trí, nhưng các chuyên gia nhận định gây tiêu tốn năng lượng khổng lồ cho hệ thống máy tính xử lý. Không chỉ vậy, còn khiến hệ thống nhận định đang là mục tiêu tấn công DDOS – hành động độc hại nhằm làm gián đoạn hoặc ngăn chặn người dùng hợp pháp truy cập một dịch vụ trực tuyến bằng cách làm quá tải máy chủ, dịch vụ hoặc mạng mục tiêu bằng một lượng lớn lưu lượng truy cập Internet không mong muốn từ nhiều nguồn.
Đánh giá về trào lưu này, ông Vũ Thanh Thắng, Giám đốc trí tuệ nhân tạo CAIO – Founder Công ty cổ phần an ninh mạng SCS, cho biết trào lưu “hành hạ chatbot” mang đến hai yếu tố tích cực cũng như tiêu cực.
“Về mặt tích cực, hành động này cho biết được giới hạn thực sự của AI, có tính giải trí và tạo tiền đề giúp phổ cập AI tới mọi người, nhưng điểm tiêu cực là khi nhiều người cùng sử dụng cường độ cao “stress test” sẽ dẫn tới máy chủ chatbot tiêu tốn nhiều tài nguyên và năng lượng.
Để tạo ra các hệ thống chatbot thông minh, chúng ta cần một hệ thống máy tính lớn, có năng lực suy luận “inference”, năng lượng tiêu thụ cũng rất lớn. Và điều này cũng dẫn tới hệ thống hiểu là đang bị tấn công từ chối dịch vụ “DDOS”, cũng như mọi người có thể hiểu AI mang tính “vô bổ” thay vì phục vụ cho công việc và học tập”, ông Thắng phân tích.
Đồng quan điểm trên, ông Nguyễn Việt Hùng, CEO Eduto Asia – đơn vị đã có 8 năm làm việc trong lĩnh vực vận hành AI tại Việt Nam, cũng liên hệ đến sự việc mà ChatGPT gặp phải vào tháng 3-2025: tính năng tạo ảnh bằng văn bản có mặt trên ChatGPT đã phải nhanh chóng giới hạn số người sử dụng, khi số lượng yêu cầu làm ảnh nhiều tới mức làm hệ thống quá tải.
Vụ việc hy hữu này cũng khiến “cha đẻ” của ChatGPT, Sam Altman, đăng tải lên mạng xã hội than thở “GPU của chúng tôi đang tan chảy”. Sau đó việc tạo ảnh đã bị giới hạn với người dùng bản miễn phí.
Trên thực tế, mọi yêu cầu của người dùng đến chatbot đều đi qua một tầng chỉ dẫn (instruction layer) với vai trò như một bộ lọc trước khi đến mô hình AI.
Bộ lọc này thường ưu tiên từ chối các tác vụ được xem là vô nghĩa, nhưng AI không phải là một thực thể tự ý điều chỉnh giống con người, mà chỉ học cách tuân thủ chỉ dẫn. Nếu người dùng liên tục “ép” với nhiều biến thể câu lệnh, có thể sẽ có trường hợp hệ thống nhượng bộ, trả lời sau một chuỗi câu hỏi.
“Tuy vậy, trong trường hợp có quá nhiều yêu cầu vô nghĩa, lặp đi lặp lại, không mang giá trị, đơn vị phát hành sẽ phải tối ưu cách trả lời, như trong trường hợp này, thay vì thực sự “đếm” thì sẽ tóm gọn trong một thông điệp (ví dụ: “việc này không cần thiết”). Họ điều chỉnh thuật toán để AI học cách xử lý những “trend nghịch ngợm” phổ biến, từ đó giảm tải cho hệ thống”, ông Hùng khẳng định.
Cần có những quy tắc đạo đức khi sử dụng AI

Ông Vũ Thanh Thắng, Giám đốc trí tuệ nhân tạo CAIO – Founder Công ty cổ phần an ninh mạng SCS – Ảnh: NVCC
Chuyên gia về AI Vũ Thanh Thắng đánh giá việc người dùng thường xuyên có những hành vi “tra tấn AI” sẽ làm tăng chi phí vận hành tiêu tốn nhiều tài nguyên tính toán như: CPU, GPU, NPU, băng thông… mà không tạo ra giá trị.
Ngoài ra, việc này còn làm giảm chất lượng dịch vụ cho người dùng khác. Các yêu cầu vô ích chiếm dụng tài nguyên, gây nghẽn hệ thống, có thể làm chậm phản hồi hoặc giảm hiệu năng cho người dùng thực sự cần AI cho công việc, sáng tạo, giáo dục, nghiên cứu…
Bên cạnh đó, việc “tra tấn AI” gây rủi ro về an ninh hệ thống, với nhiều người cùng thực hiện có thể dẫn tới tấn công từ chối dịch vụ (DoS/DDoS), đe dọa sự ổn định của nền tảng.
Nhưng cũng từ những sự việc trên, các nhà phát triển AI và hệ thống nhận diện và khắc phục điểm yếu của hệ thống. Những trào lưu này cũng có thể được dùng như bài kiểm tra sức chịu tải, giúp nhà phát hành phát hiện điểm nghẽn, lỗ hổng để tối ưu hệ thống, nâng cao bảo mật.
Do hành vi người dùng rất đa dạng, việc xây dựng quy tắc đạo đức trong sử dụng AI là hết sức cần thiết. Theo ông Vũ Thanh Thắng, để AI phát huy hiệu quả và giảm thiểu rủi ro, cần áp dụng nguyên tắc song song cho cả người dùng lẫn nhà cung cấp: người dùng phải tuân thủ chuẩn mực đạo đức, còn hệ thống AI phải được tích hợp cơ chế kiểm soát để ngăn chặn các vi phạm, dù vô tình hay cố ý.