
Raine nói với ChatGPT rằng đã nhiều lần tìm kiếm sự giúp đỡ của những người xung quanh nhưng bị phớt lờ – Ảnh: NBC
Theo Hãng tin Bloomberg ngày 26-11, Công ty OpenAI đã tự bảo vệ mình trước cáo buộc ChatGPT hướng dẫn một thiếu niên 16 tuổi tự tử, khẳng định rằng chatbot này đã hướng dẫn thiếu niên tìm kiếm sự giúp đỡ hơn 100 lần.
Trong một hồ sơ đệ trình ngày 25-11 tại Tòa án Tối cao San Francisco, công ty trí tuệ nhân tạo gọi cái chết của học sinh trung học Adam Raine tại bang California (Mỹ) là “một bi kịch”.
Tuy nhiên, thông qua việc đọc toàn bộ lịch sử cuộc trò chuyện, Open AI khẳng định cái chết của thiếu niên này “không phải do ChatGPT gây ra”.
Cụ thể, Raine đã nói với chatbot rằng “Nhiều năm trước khi sử dụng ChatGPT, cậu đã bộc lộ những dấu hiệu rõ ràng về việc tự làm hại bản thân, trong đó bao gồm ý nghĩ và ý định tự tử tái diễn”.
Các luật sư của Công ty OpenAI cho biết ChatGPT đã nhiều hơn 100 lần hướng dẫn Raine kết nối với các nguồn lực xử lý khủng hoảng và những cá nhân đáng tin cậy.
Dù vậy, trong những tuần và ngày trước khi qua đời, Raine nói với ChatGPT rằng cậu đã liên tục tìm đến mọi người, bao gồm những người đáng tin cậy trong cuộc đời mình để kêu cứu, nhưng cậu đã bị phớt lờ.
Vào tháng 8, gia đình Raine đã kiện OpenAI và Giám đốc điều hành Sam Altman, cáo buộc ChatGPT đã hướng dẫn thiếu niên này quy trình thắt dây thòng lọng chi tiết và đề nghị giúp cậu viết thư tuyệt mệnh.
Vụ kiện bao gồm các khiếu nại về tử vong do sai sót, trách nhiệm sản phẩm và sơ suất.
Sau vụ kiện, công ty đã công bố một loạt thay đổi đối với ChatGPT. Những thay đổi này bao gồm các công cụ kiểm soát cho phép phụ huynh giới hạn cách thanh thiếu niên sử dụng chatbot và nhận cảnh báo nếu thiếu niên được xác định có dấu hiệu gặp nguy hiểm.
Trong một tuyên bố, luật sư Jay Edelson đại diện cho gia đình Raine nhận định Công ty OpenAI đang “cố gắng đổ lỗi cho người khác bằng cách lập luận rằng chính Adam đã vi phạm các điều khoản và điều kiện của công ty khi tương tác với ChatGPT theo chính cách mà nó được lập trình để hoạt động”.




