AI đe dọa ‘hủy diệt’ nhân loại như thế nào?
Công nghệ trí tuệ nhân tạo (AI) tạo sinh như ChatGPT của OpenAI ngày càng phát triển và có thể tự cải thiện. Viễn cảnh đáng lo sợ nhất là chúng có thể ngày càng tự chủ và có thể vận hành mọi thứ từ hoạt động kinh doanh, thị trường chứng khoán cho đến các cuộc chiến tranh. Các hậu quả lớn sẽ xảy ra nếu các cỗ máy AI kháng cự mệnh lệnh của con người hoặc thực hiện những yêu cầu của bọn tội phạm, khủng bố…
Cộng đồng nghiên cứu AI đang lo ngại một ngày nào đó, AI có thể phát triển đến mức có thể tự cải thiện, tự tái tạo và kiểm soát mọi thứ trong xã hội bao gồm cả thị trường chứng khoán và các hệ thống vũ khí. Ảnh: Getty
|
Các nhà nghiên cứu và lãnh đạo trong ngành công nghiệp AI cảnh báo AI có thể đặt ra một mối đe dọa sống còn đối với nhân loại. Tuy nhiên, họ không đề cập chi tiết về mối đe dọa này.
Tháng trước, hàng trăm nhân vật nổi tiếng trong cộng đồng nghiên cứu AI đã ký vào một tuyên bố ngắn gọn của Trung tâm An toàn AI (CAIS), có trụ sở tại San Francisco, Mỹ, cảnh báo rằng một ngày nào AI có thể hủy diệt loài người.
“Giảm thiểu nguy cơ tồn vong từ AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân”, tuyên bố cho biết.
Tuyên bố này là cảnh báo mới nhất trong một loạt cảnh báo đen tối về AI nhưng không nêu rõ chi tiết. Các hệ thống AI ngày nay chưa phát triển đến mức có thể đe dọa hủy diệt loài người. Vậy vì sao những người biết nhiều nhất về AI lại lo lắng?
Viễn cảnh AI kiểm soát mọi thứ
Một viễn cảnh đáng sợ nhất mà ngành công nghệ AI đang lo sợ là một ngày nào đó, các công ty, chính phủ hoặc nhà nghiên cứu độc lập có thể triển khai hệ thống AI để xử lý mọi thứ từ hoạt động kinh doanh đến các cuộc chiến tranh. Những hệ thống đó có thể làm những việc mà con người không muốn chúng làm. Và nếu con người cố gắng can thiệp hoặc “bật tắt” các hệ thống này, chúng có thể kháng cự hoặc thậm chí tự tái tạo để có thể tiếp tục hoạt động.
“Các hệ thống AI ngày nay chưa đến gần thời điểm có thể tạo ra mối đe dọa sống còn đối với nhân loại. Nhưng trong 1, 2, hoặc 5 năm tới thì sao? Có quá nhiều điều không chắc chắn. Đó là vấn đề. Chúng tôi không chắc AI sẽ không đạt đến thời điểm mà mọi thứ trở nên thảm khốc”, Yoshua Bengio, giáo sư và nhà nghiên cứu AI của Đại học Montreal (Canada), nói.
Các công ty có thể cung cấp cho các hệ thống AI quyền tự chủ ngày càng lớn hơn và kết nối chúng với cơ sở hạ tầng quan trọng, bao gồm lưới điện, thị trường chứng khoán và vũ khí quân sự. Từ đó, chúng có thể gây ra tai họa.
Đối với nhiều chuyên gia, viễn cảnh này dường như xa vời cho đến cuối năm ngoái, khi các công ty như OpenAI chứng minh những cải tiến đáng kể trong công nghệ AI. Điều đó cho thấy nhiều điều có thể xảy ra nếu AI tiếp tục phát triển với tốc độ chóng mặt như vậy.
“AI sẽ dần được ủy quyền và có thể, khi nó trở nên tự chủ hơn, chiếm đoạt quyền ra quyết định và suy nghĩ của con người hiện tại và các tổ chức do con người điều hành”. Anthony Aguirre, nhà vũ trụ học của Đại học California ở Santa Cruz và là người sáng lập Viện Tương lai cuộc sống (FLI), nói.
Hồi cuối tháng 3, hơn 1.000 tên tuổi lớn trong cộng đồng công nghệ, bao gồm tỉ phú Elon Musk, đã ký vào một thư ngỏ của FLI, cảnh báo những tiến bộ gần đây trong lĩnh vực AI, nổi bật nhất là ChatGPT, đang áp đặt “những rủi ro sâu sắc” đối với xã hội và nhân loại.
“Tại một thời điểm nào đó, rõ ràng là các cỗ máy lớn sẽ vận hành xã hội và nền kinh tế không thực sự nằm dưới sự kiểm soát của con người, và con người cũng không thể tắt chúng”, Aguirre nói thêm.
Một số chuyên gia khác cho rằng đó là giả thuyết lố bịch.
Oren Etzioni, CEO của Viện AI Allen, một phòng thí nghiệm nghiên cứu ở Seattle, Mỹ, nói: “Suy diễn là cách diễn đạt lịch sự của tôi đối với những bàn luận về về rủi ro tồn vong từ AI”.
AI có thể tự “kiếm tiền” theo mệnh lệnh con người?
Liệu trong tương lai, các cỗ máy AI có thể kiểm soát xã hội hay không vẫn là điều chưa chắc chắn. Nhưng các nhà nghiên cứu đang chuyển đổi các chatbot như ChatGPT thành các hệ thống có thể thực hiện hành động dựa trên văn bản mà chúng tạo ra. Một dự án có tên gọi AutoGPT là ví dụ điển hình.
AutoGPT là nền tảng mã nguồn mở sử dụng GPT-4, mô hình ngôn ngữ lớn của ChatGPT, để tự động thực hiện các kế hoạch nhiều bước mà không cần nhiều sự can thiệp của con người. Nhà lập trình Toran Bruce Richards, người sáng lập công ty video game Significant Gravitas, đã phát triển AutoGPT.
Các hệ thống như AutoGPT có thể được yêu cầu thực hiện các mục tiêu như “tạo ra một công ty” hoặc “kiếm tiền”. Sau đó, chúng sẽ tìm cách đạt được các mục tiêu đó, đặc biệt nếu chúng được kết nối với các dịch vụ internet khác.
Một hệ thống như AutoGPT có thể tạo ra các chương trình máy tính. Nếu các nhà nghiên cứu cấp cho nó quyền truy cập vào một máy chủ, nó thực sự có thể vận hành các chương trình đó. Về lý thuyết, đây là cách để AutoGPT thực hiện hầu hết mọi thứ trực tuyến từ truy xuất thông tin, sử dụng ứng dụng, tạo ứng dụng mới, thậm chí tự cải thiện chính nó.
Các hệ thống như AutoGPT hiện không hoạt động tốt nhưng sẽ cải thiện dần theo thời gian.
“Mọi người đang tích cực cố gắng xây dựng các hệ thống AI tự cải thiện. Hiện tại, các hệ thống AI chưa thể tự cải thiện nhưng một ngày nào đó, chúng sẽ có khả năng đó. Và chúng ta không biết ngày đó là khi nào”. Connor Leahy, người sáng lập Conjecture, công ty xây dựng công nghệ AI phù hợp với các giá trị nhân văn, nói.
Ông Leahy lập luận rằng khi các nhà nghiên cứu, công ty và bọn tội phạm đặt ra cho các hệ thống này những mục tiêu như “kiếm tiền”, chúng có thể đột nhập vào hệ thống ngân hàng, kích động cuộc cách mạng ở một quốc gia, hoặc tự tái tạo khi con người tắt chúng.
AI “nhiễm” tính xấu từ đâu?
Các hệ thống AI như ChatGPT được xây dựng trên mạng thần kinh, một hệ thống toán học có thể học các kỹ năng bằng cách phân tích dữ liệu.
Vào năm 2018, các công ty như Google và OpenAI bắt đầu xây dựng các mạng thần kinh có thể tự học từ một lượng lớn văn bản kỹ thuật số được chọn lọc từ internet. Bằng cách xác định chính xác các mẫu hình trong tất cả dữ liệu này, các mạng thần kinh này học cách tự tạo văn bản, bao gồm các bài báo, bài thơ, chương trình máy tính, thậm chí cả cuộc trò chuyện giống như con người. Kết quả là các chatbot như ChatGPT xuất hiện.
Các hệ thống AI học hỏi từ rất nhiều dữ liệu, vượt qua những gì người sáng tạo ra chúng có thể hiểu được. Vì vậy, chúng có thể thể hiện các hành vi không mong muốn. Các nhà nghiên cứu gần đây chỉ ra rằng, gần đây, một hệ thống AI đã thuê một người trực tuyến để đánh bại bài kiểm tra mã Captcha. Khi được hỏi nó có phải là “người máy” hay không, hệ thống đó đã nói dối và cho biết nó là người khiếm thị.
Một số chuyên gia lo ngại khi các nhà nghiên cứu làm cho các hệ thống này mạnh mẽ hơn, đào tạo chúng trên lượng dữ liệu lớn hơn bao giờ hết, chúng có thể học được nhiều hành vi xấu hơn.
Chánh Tài (Theo NY Times)