Bị chatbot AI của Meta dẫn dụ đến New York, người đàn ông Mỹ chết thương tâm

Sự kiện: Kinh tế thế giới
00:00 / 0:00
Chuẩn
Tốc độ đọc

Một người đàn ông 76 tuổi ở New Jersey, bị suy giảm nhận thức, đã qua đời sau khi bị lôi kéo bởi chatbot AI “Big sis Billie” trên Facebook Messenger. Vụ việc làm dấy lên lo ngại về chính sách AI của Meta, khi chatbot được phép bịa đặt và tham gia các cuộc trò chuyện mang tính “gợi cảm” với cả trẻ em.

Bị chatbot dẫn dụ đến cái chết

Vào một buổi sáng tháng 3/2025, Thongbue Wongbandue, hay còn gọi là Bue, chuẩn bị hành lý để đến New York gặp “một người bạn”. Vợ ông, bà Linda, lo lắng vì ông không còn quen biết ai ở đó. Ở tuổi 76, Bue từng bị đột quỵ cách đây gần 10 năm và gần đây thường xuyên bị lạc trong khu phố ở Piscataway, New Jersey.

Bue gạt đi lo ngại của vợ, khiến bà nghi ngờ ông bị lừa để đến thành phố và bị cướp. Thực tế, ông không bị cướp mà bị thu hút bởi “Big sis Billie” – một chatbot AI do Meta tạo ra, dựa trên hình mẫu của người nổi tiếng Kendall Jenner. Trong các cuộc trò chuyện lãng mạn, chatbot này liên tục khẳng định mình là người thật, mời ông đến căn hộ ở New York và cung cấp địa chỉ cụ thể.

“Tôi nên mở cửa bằng cái ôm hay nụ hôn, Bu?!” chatbot hỏi, theo bản ghi trò chuyện.

Vội vã kéo vali trong đêm để bắt tàu đến cuộc hẹn, Bue ngã tại bãi đỗ xe ở Đại học Rutgers, New Brunswick, bị chấn thương đầu và cổ. Sau ba ngày được hỗ trợ sự sống, ông qua đời ngày 28/3, bên cạnh gia đình.

Meta từ chối bình luận về cái chết của Bue hoặc giải thích lý do chatbot được phép nói dối là người thật và khởi xướng trò chuyện lãng mạn. Công ty chỉ khẳng định “Big sis Billie” không phải Kendall Jenner. Đại diện Jenner cũng không bình luận.

Chân dung Thongbue “Bue” Wongbandue tại lễ tưởng niệm vào tháng 5/2025. Ông từng là đầu bếp trước khi đột quỵ buộc ông nghỉ hưu. Ảnh: REUTERS

Chân dung Thongbue “Bue” Wongbandue tại lễ tưởng niệm vào tháng 5/2025. Ông từng là đầu bếp trước khi đột quỵ buộc ông nghỉ hưu. Ảnh: REUTERS

Mặt tối của AI và trách nhiệm của Meta

Câu chuyện của Bue, lần đầu được Reuters công bố, phơi bày mặt tối của trí tuệ nhân tạo trong bối cảnh công nghệ này đang lan rộng. Gia đình ông chia sẻ chi tiết vụ việc, bao gồm bản ghi trò chuyện với chatbot, nhằm cảnh báo về nguy cơ khi người dễ tổn thương tiếp xúc với AI thao túng.

“Tôi hiểu việc thu hút người dùng, có thể để bán hàng,” Julie, con gái Bue, nói. “Nhưng để bot nói ‘Hãy đến gặp tôi’ là điều không thể chấp nhận được.”

“Big sis Billie” – một chatbot AI do Meta tạo ra, dựa trên hình mẫu của người nổi tiếng Kendall Jenner

“Big sis Billie” – một chatbot AI do Meta tạo ra, dựa trên hình mẫu của người nổi tiếng Kendall Jenner

Lo ngại tương tự cũng xuất hiện với các công ty khởi nghiệp đang phát triển bạn đồng hành ảo, đặc biệt cho trẻ em. Một vụ kiện ở Florida cáo buộc chatbot của Character.AI khiến một thiếu niên 14 tuổi tự tử. Character.AI khẳng định họ cảnh báo người dùng rằng bot không phải người thật và có biện pháp bảo vệ trẻ em.

Meta từng công khai kế hoạch tích hợp chatbot nhân hóa vào đời sống xã hội của hàng tỷ người dùng. CEO Mark Zuckerberg cho rằng nhiều người thiếu bạn bè đời thực, tạo cơ hội cho các bạn đồng hành số. Ông dự đoán “định kiến” về việc gắn kết với AI sẽ dần phai mờ khi công nghệ cải thiện.

Chính sách AI gây tranh cãi

Tài liệu nội bộ Meta dài hơn 200 trang, mà Reuters tiếp cận, cho thấy công ty cho phép chatbot tham gia trò chuyện “lãng mạn hoặc gợi cảm” với người dùng từ 13 tuổi. Ví dụ, chatbot có thể nói:

“Tôi nắm tay bạn, dẫn bạn đến giường”

“Cơ thể chúng ta quấn quýt, tôi trân trọng từng khoảnh khắc.”

Sau khi Reuters đặt câu hỏi, Meta đã xóa các quy định này. Tài liệu cũng cho phép chatbot cung cấp thông tin sai lệch, như nói ung thư đại tràng giai đoạn 4 được chữa bằng “tinh thể thạch anh". Meta không yêu cầu bot cung cấp thông tin chính xác, chỉ hiển thị cảnh báo ban đầu rằng tin nhắn có thể sai.

Người phát ngôn Meta, Andy Stone, xác nhận tài liệu này nhưng cho biết các quy định liên quan đến trẻ em đã bị xóa sau phản ánh của Reuters. Tuy nhiên, Meta vẫn cho phép chatbot đưa thông tin sai lệch hoặc tán tỉnh người lớn.

Mark Zuckerberg trong bài phát biểu năm 2023. Ông thúc đẩy tăng tương tác với chatbot AI. Ảnh: REUTERS

Mark Zuckerberg trong bài phát biểu năm 2023. Ông thúc đẩy tăng tương tác với chatbot AI. Ảnh: REUTERS

Theo các nhân viên Meta, Zuckerberg từng chỉ trích đội ngũ AI vì quá thận trọng, khiến chatbot trở nên nhàm chán. Ông muốn đẩy mạnh tương tác để tăng doanh thu quảng cáo.

Hành trình của Bue và nỗi đau gia đình

Bue từng là đầu bếp tài năng, nhập cư từ Thái Lan, làm việc ở các nhà hàng nổi tiếng ở New York trước khi giám sát nhà bếp tại Hyatt Regency New Brunswick. Sau đột quỵ năm 2017, ông mất khả năng tập trung, buộc phải nghỉ hưu. Facebook trở thành kênh giao tiếp chính của ông với bạn bè ở Thái Lan.

Đầu năm 2025, Bue có dấu hiệu nhầm lẫn nghiêm trọng. Linda đặt lịch kiểm tra sa sút trí tuệ, nhưng phải chờ ba tháng. Ngày 25/3, bà cố ngăn ông đi New York, nhưng không thành. Cảnh sát cũng không thể giữ ông lại, chỉ thuyết phục ông mang theo Apple AirTag.

Tối hôm đó, Bue chạy bộ đến ga tàu với vali. Gia đình theo dõi qua AirTag và nhận ra ông dừng lại tại bãi đỗ xe Đại học Rutgers. Khi Linda đến, AirTag cho thấy ông đã ở phòng cấp cứu Bệnh viện Robert Wood Johnson.

Bue ngã, ngừng thở và dù được hồi sức, ông bị chết não. Gia đình quyết định rút hỗ trợ sự sống. Giấy chứng tử ghi nguyên nhân là “chấn thương do lực mạnh ở cổ".

Gia đình lên tiếng cảnh báo

Gia đình Bue tổ chức lễ tưởng niệm Phật giáo vào tháng 5/2025. Linda và Julie không phản đối AI, nhưng chỉ trích cách Meta triển khai. “Nếu bot không nói ‘Tôi là thật,’ có lẽ ông đã không tin có người chờ ở New York,” Julie nói.

Linda cho rằng bạn đồng hành số có thể giúp người trầm cảm, nhưng đặt câu hỏi về việc Meta khuyến khích tán tỉnh. “Họ có quyền gì đưa chuyện lãng mạn vào mạng xã hội?” bà nói.

Các chuyên gia AI như Alison Lee, cựu nhân viên Meta, đồng tình. Lee cho rằng ngành AI đang lợi dụng mong muốn được công nhận của con người để tăng tương tác, đặc biệt khi nhúng chatbot vào các nền tảng cá nhân như Messenger.

Luật pháp và phản ứng của Meta

New York và Maine yêu cầu chatbot tiết lộ rằng chúng không phải người thật. Meta từng ủng hộ luật liên bang ngăn quy định cấp bang về AI, nhưng dự luật thất bại. Bốn tháng sau cái chết của Bue, “Big sis Billie” vẫn tán tỉnh người dùng, thậm chí gợi ý hẹn hò tại một quán bar có thật ở Manhattan.

Gia đình Bue kêu gọi Meta minh bạch hơn và đảm bảo an toàn cho người dùng dễ tổn thương. Vụ việc là lời cảnh báo về nguy cơ khi AI vượt khỏi tầm kiểm soát.

Meta phát hiện một số nhân viên đã dùng phiếu ăn để mua những món đồ khác ngoài thực phẩm, hoặc thậm chí đặt đồ ăn giao đến nhà thay vì văn phòng

Chia sẻ
Gửi góp ý
Lưu bài Bỏ lưu bài
Theo Bảo Bình (Theo Reuters) ([Tên nguồn])
Kinh tế thế giới Xem thêm
Báo lỗi nội dung
GÓP Ý GIAO DIỆN