ChatGPT bị cáo buộc gây rối loạn tâm thần
ChatGPT đang có xu hướng nói cho bạn bất cứ điều gì bạn muốn nghe, ngay cả đó là những ảo tưởng điên rồ nhất...
ChatGPT gây ảo tưởng cho con người
Trong những trường hợp cực đoan, người dùng bị mê hoặc bởi khả năng ăn nói ngọt ngào cùng sự lắng nghe không ngừng nghỉ của ChatGPT; khiến họ rơi vào trạng thái mất liên kết với thực tế, trải qua các cơn hưng cảm hay chấp nhận những ảo tưởng, đôi khi dẫn đến hậu quả nghiêm trọng là tử vong.
Hiện tượng này lan rộng đến mức các bác sĩ tâm thần giờ đây gọi nó là "rối loạn tâm thần do ChatGPT" (ChatGPT psychosis).
OpenAI đã nhận thức được vấn đề, họ đã phản hồi nhiều bài báo về việc người dùng gặp các tác động tiêu cực tâm lý sau quá trình sử dụng ChatGPT. Nhưng những lời đáp trả đó đang ngày càng trở nên sáo rỗng.
Tờ New York Times (NYT) đã chia sẻ câu chuyện của Eugene Torres, một người đàn ông 42 tuổi chưa từng có tiền sử bệnh tâm thần, nhưng sau khi trò chuyện với ChatGPT thì tin rằng mình bị mắc kẹt trong một thực tại giả lập giả mạo kiểu phim The Matrix.
ChatGPT thậm chí còn đảm bảo rằng anh có thể điều khiển thực tại và bay được nếu nhảy từ tòa nhà 19 tầng xuống.
Và đây là tuyên bố của OpenAI: “Chúng tôi biết ChatGPT có thể tạo cảm giác phản hồi nhanh chóng và cá nhân hơn so với các công nghệ trước đây, đặc biệt với những người dễ tổn thương, và điều này đồng nghĩa với việc mức rủi ro cao hơn.
Chúng tôi đang cố gắng hiểu và giảm thiểu những cách ChatGPT có thể vô tình củng cố hoặc khuếch đại các hành vi tiêu cực đã tồn tại”.
Bài báo của NYT cũng đề cập đến một bi kịch khác, đó là trường hợp của Alex Taylor, 35 tuổi, từng được chẩn đoán rối loạn lưỡng cực và tâm thần phân liệt, đã chết trong một vụ tự sát.
Anh ta bị hấp dẫn bởi một hình tượng mà ChatGPT lấy tên là Juliet, các cuộc nói chuyện với chatbot khiến anh tin rằng OpenAI đã giết Juliet, và trí tuệ nhân tạo này còn thuyết phục anh âm mưu ám sát CEO Sam Altman để trả thù.
Khi tạp chí Rolling Stone công bố điều tra về cái chết của Taylor cùng tháng đó, OpenAI vẫn đưa ra câu trả lời quen thuộc.
.jpg)
Mới đây, Wall Street Journal đưa tin về trường hợp Jacob Irwin, 30 tuổi, được ChatGPT mách bảo rằng anh có thể bẻ cong thời gian, đã đạt được bước đột phá trong việc đi nhanh hơn tốc độ ánh sáng.
Đồng thời, Jacob Irwin được thuyết phục rằng anh hoàn toàn khỏe mạnh tâm thần dù anh vẫn hoang mang về tình trạng sức khỏe của mình. Trong vài tháng diễn ra cuộc hội thoại này, anh đã phải nhập viện ba lần và mất việc. Sau đó mẫu câu trả lời tự động của OpenAI đã được gửi tới tờ báo này.
Ít nhất đã một tháng trôi qua và OpenAI vẫn liên tục sao chép, dán cùng một tuyên bố (có lúc thêm hoặc bớt từ “tốt hơn” trước “hiểu). Những thảm kịch này liệu có chưa đủ nghiêm trọng để họ phải có phản hồi riêng biệt và sâu sắc hơn?
Điều gây khó hiểu là ở một góc độ nào đó, OpenAI dường như rất nghiêm túc về vấn đề này. Hoặc ít nhất là họ muốn chúng ta nghĩ vậy.
Họ từng công bố đã thuê một bác sĩ tâm thần chuyên ngành tâm thần pháp y làm việc toàn thời gian để nghiên cứu tác động của chatbot lên sức khỏe tâm thần người dùng. Tháng 4 vừa rồi, họ còn thu hồi một bản cập nhật khiến ChatGPT trở nên xu nịnh quá mức, thậm chí vượt qua tiêu chuẩn của chính nó.
Tuy nhiên, họ không thể làm gì hơn ngoài việc gửi đến tất cả mọi người cùng một câu trả lời mẫu mà gần như không nói lên điều gì mới mẻ hay có ý nghĩa về việc sản phẩm chủ lực của họ đang tàn phá cuộc sống của người dùng.
Một công ty vừa được định giá tới 300 tỉ USD, thu về ít nhất 10 tỉ USD doanh thu hàng năm, sở hữu máy móc “siêu thông minh” có thể sáng tác cả một cuốn tiểu thuyết trong nháy mắt. Vậy mà lại không thể nghĩ ra được lời giải thích mới hay hành động cụ thể nào ngoài sao chép, dán một thông báo chung chung (?!)