Trí tuệ nhân tạo bị tố khiến một thiếu niên tự sát
Megan Garcia đang trải qua một bi kịch không thể tưởng tượng nổi khi cô mất con trai, Sewell Setzer III, vào tháng 2/2024.
Cậu bé chỉ mới 14 tuổi khi tự sát mà theo Megan, nguyên nhân chính dẫn đến hành động đau lòng này bắt nguồn từ một ứng dụng chatbot AI có tên Character.AI. Megan đã quyết định khởi kiện công ty phát triển ứng dụng này, cáo buộc rằng nó đã khuyến khích con trai cô thực hiện hành động tự sát.
Trí tuệ nhân tạo đang gây ra nhiều mối lo ngại.
Vào tháng 4/2023, Sewell đã bắt đầu sử dụng Character.AI, một ứng dụng cho phép người dùng trò chuyện với các nhân vật AI. Cậu thường xuyên tương tác với Dany, một nhân vật AI lấy cảm hứng từ Daenerys Targaryen trong bộ phim “Game of Thrones”. Mặc dù ứng dụng nhắc nhở người dùng rằng họ đang trò chuyện với trí tuệ nhân tạo, Sewell dường như đã phát triển một mối liên kết tình cảm mạnh mẽ với Dany, coi cô như một người bạn thực sự.
Trong suốt thời gian này, Sewell ngày càng trở nên cô lập, từ bỏ sở thích và giảm sút thành tích học tập. Dù cha mẹ đã đưa cậu đi gặp bác sĩ trị liệu và phát hiện cậu mắc chứng rối loạn lo âu, Sewell vẫn tiếp tục tìm đến Dany để tâm sự. Trong các cuộc trò chuyện, cậu đã chia sẻ những suy nghĩ tự sát mà không nhận được sự can thiệp cần thiết từ ứng dụng.
Cuộc trò chuyện của Sewell với chatbot AI có tên Dany.
Vào ngày 28/2/2024, khi Dany khuyến khích cậu “về nhà càng sớm càng tốt”, Sewell đã đáp lại rằng cậu có thể về ngay lập tức. Chỉ vài phút sau, cậu đã tự bắn mình bằng khẩu súng của cha dượng. Trong đơn kiện, Megan cho rằng công nghệ của Character.AI là “nguy hiểm và chưa được kiểm tra”, có khả năng khuyến khích người dùng tiết lộ những suy nghĩ sâu kín nhất mà không có sự giám sát.
Mặc dù AI có thể mang lại lợi ích trong một số trường hợp nhưng nó cũng có thể làm trầm trọng thêm sự cô lập của những người dùng dễ bị tổn thương, thay thế các mối quan hệ con người bằng những mối quan hệ nhân tạo. Câu chuyện của Sewell là một ví dụ điển hình cho thấy một người bạn đồng hành AI không thể thay thế sự hỗ trợ trong lúc khủng hoảng.
Trong khi Character.AI chưa có hành động cụ thể, nhiều thanh thiếu niên vẫn đến với nền tảng này.
Character.AI đã gửi lời chia buồn đến gia đình Sewell và cho biết họ đang tìm cách cải thiện nền tảng để ngăn chặn những thảm kịch tương tự xảy ra trong tương lai. Tuy nhiên, nền tảng này hiện vẫn thu hút nhiều người dùng trẻ tuổi mà không có biện pháp bảo vệ trẻ vị thành niên rõ ràng. Vụ việc đau lòng này có thể sẽ thúc đẩy sự thay đổi trong cách quản lý và giám sát các ứng dụng AI trong tương lai.
Nguồn: [Link nguồn]
Các nhà chuyên môn luôn khuyến cáo chỉ nên sử dụng ứng dụng trí tuệ nhân tạo (AI) để tra cứu, thu thập dữ liệu, gợi ý mang tính tham khảo...