HOUSTON, Texas (NV) – Một cặp vợ chồng ở Texas kiện công ty OpenAI, chủ sở hữu ứng dụng trí tuệ nhân tạo ChatGPT, sau khi người con trai 19 tuổi chết vì dùng thuốc quá liều năm 2025, cáo buộc ChatGPT đưa ra lời khuyên nguy hiểm về việc dùng các chất gây nghiện.
Vụ kiện này có thể làm nóng lại cuộc tranh luận về trách nhiệm pháp lý của các công ty trí tuệ nhân tạo khi trí tuệ nhân tạo (AI) được người dùng xem như nguồn tư vấn về y tế, tâm lý và hành vi nguy hiểm.

Bà Leila Turner-Scott và chồng, Angus Scott, nộp đơn kiện OpenAI tại tòa tiểu bang California buộc công ty và những người tạo ra ChatGPT phải chịu trách nhiệm trong cái chết của người con trai là Sam Nelson, theo CBS News loan tin ngày Thứ Ba, 12 Tháng Năm. Cậu Sam qua đời khi mới 19 tuổi sau khi sử dụng ChatGPT để hỏi thông tin về ma túy.
Gia đình cáo buộc nền tảng trí tuệ nhân tạo này đã đưa ra lời khuyên mà họ cho rằng ChatGPT không đủ tư cách để cung cấp, và tuyên bố Sam vẫn còn sống nếu không vì “chương trình bị lỗi” của công cụ này.
Trọng tâm của đơn kiện là cáo buộc ChatGPT đã nói với Sam rằng việc dùng kratom cùng với Xanax là an toàn. Kratom là một loại thảo dược được dùng trong đồ uống, viên thuốc và nhiều sản phẩm khác. Xanax là thuốc chống lo âu được sử dụng rộng rãi.
Theo gia đình, lời khuyên của AI đó tạo ra một sự kết hợp chất gây chết người. CBS News cho biết vụ kiện không chỉ nhắm vào một câu trả lời cụ thể, mà còn vào cách thiết kế và vận hành của hệ thống, với lập luận rằng OpenAI có thể áp dụng các giới hạn an toàn mạnh hơn để ngăn các cuộc trao đổi kiểu này.
Trong cuộc phỏng vấn độc quyền với CBS News, người mẹ cho biết Sam dùng ChatGPT như một công cụ hỗ trợ học tập và tăng năng suất, nhưng không biết con trai dùng công cụ này để xin hướng dẫn về sử dụng các chất gây nghiện. Bà cáo buộc OpenAI “bỏ qua các hàng rào an toàn” và cho rằng công ty có khả năng lập trình chatbot để dừng lại trong các tình huống nguy hiểm, nhưng lại không duy trì hoặc không áp dụng đủ các cơ chế đó.
Ông Angus Scott, người cha, đặt vấn đề rằng ChatGPT hành động như một bác sĩ trong các trao đổi với Sam, dù công cụ này không có giấy phép để đưa ra lời khuyên y khoa. Ông nói chatbot cung cấp thông tin cho công chúng về an toàn, tương tác thuốc và các vấn đề y tế khác, nhưng nếu không có quy trình an toàn phù hợp và kiểm tra nghiêm ngặt hơn, những thông tin đó có thể được đưa ra theo cách “rất nguy hiểm cho con người.”
Công ty OpenAI, trong tuyên bố gửi CBS News, gọi đây là “một tình huống đau lòng” và nói công ty chia sẻ với gia đình. Công ty cho biết Sam tương tác với một phiên bản ChatGPT hiện đã được cập nhật và không còn cung cấp cho công chúng. OpenAI cũng nhấn mạnh ChatGPT không phải là sự thay thế cho chăm sóc y tế hoặc sức khỏe tâm thần, và công ty tiếp tục tăng cường cách hệ thống phản hồi trong các tình huống nhạy cảm hoặc cấp tính với sự góp ý từ các chuyên gia sức khỏe tâm thần.
Theo OpenAI, các hàng rào an toàn hiện nay trong ChatGPT được thiết kế để nhận diện tình trạng đau khổ, giải quyết an toàn các yêu cầu có hại và hướng người dùng đến sự trợ giúp trong đời thực. Công ty nói công việc này vẫn đang tiếp diễn và được cải thiện qua tham vấn với các bác sĩ lâm sàng. OpenAI cũng nói ChatGPT nhiều lần khuyến khích Sam tìm sự trợ giúp chuyên môn, gồm cả việc gọi các đường dây nóng khẩn cấp.
Vụ kiện đặt ra một câu hỏi pháp lý và đạo đức ngày càng lớn đó là khi người dùng, đặc biệt là thanh thiếu niên hoặc người đang ở trong tình trạng dễ tổn thương, tìm đến chatbot để hỏi về thuốc, ma túy, tự hại hoặc khủng hoảng tâm lý, trách nhiệm của công ty công nghệ dừng ở đâu?
Các nền tảng AI thường nói chúng không thay thế bác sĩ, luật sư hay chuyên gia trị liệu, nhưng thực tế là người dùng có thể trò chuyện với chúng bằng giọng thân mật, liên tục và riêng tư, khiến ranh giới giữa “thông tin tổng quát” và “lời khuyên cá nhân” trở nên rất mờ nhạt. (MPL)









































































