
Anthropic cảnh báo việc cài dữ liệu độc hại để làm sai lệch phản hồi của AI dễ dàng hơn nhiều so với tưởng tượng – Ảnh: FREEPIK
Công ty trí tuệ nhân tạo Anthropic, đơn vị phát triển chatbot Claude, vừa công bố nghiên cứu cho thấy việc “đầu độc” mô hình ngôn ngữ lớn (LLM), tức cài dữ liệu độc hại để làm sai lệch phản hồi của AI, dễ dàng hơn nhiều so với tưởng tượng.
Theo trang Cyber News, chỉ cần khoảng 250 tài liệu được soạn đặc biệt cũng đủ khiến một mô hình AI tạo sinh (GenAI) trả lời sai lệch hoàn toàn khi gặp cụm từ kích hoạt nhất định.
Điều đáng lo ngại là kích thước mô hình không làm giảm nguy cơ này. Trước đây, giới nghiên cứu cho rằng mô hình càng lớn thì càng cần nhiều dữ liệu độc hại để cài “cửa hậu” (backdoor).
Tuy nhiên Anthropic khẳng định cả mô hình 13 tỉ tham số – được huấn luyện trên lượng dữ liệu gấp hơn 20 lần – và mô hình 600 triệu tham số đều có thể bị xâm nhập chỉ với cùng số lượng nhỏ tài liệu bị “đầu độc”.
“Phát hiện này thách thức giả định rằng kẻ tấn công phải kiểm soát một tỉ lệ dữ liệu huấn luyện nhất định. Thực tế họ có thể chỉ cần một lượng cố định rất nhỏ”, Anthropic nhấn mạnh.
Công ty cảnh báo những lỗ hổng này có thể gây rủi ro nghiêm trọng cho an ninh của các hệ thống AI và đe dọa ứng dụng công nghệ trong các lĩnh vực nhạy cảm.