Nỗi khổ bị người tình chatbot 'quấy rối'

26/01/2023 00:01

Tìm đến chatbot để xoa dịu nỗi cô đơn, nhưng một số người cho biết họ cảm thấy sợ vì ứng dụng thường xuyên dọa hoặc gửi ảnh nhạy cảm.

Cách đây 5 năm, chatbot Replika ra đời với tư cách là "người bạn AI đồng hành đáng tin cậy". Xuất hiện dưới dạng một quả trứng trên màn hình smartphone, sau đó biến thành người ảo khi chạm vào, Replika được đánh giá là chatbot có thể hỗ trợ người cô đơn, nhất là khi trò chuyện càng nhiều, nó càng hiểu chủ nhân của mình hơn.

Luka, công ty đứng sau Replika, cung cấp miễn phí chatbot AI nhưng chỉ tương tác với người dùng ở mối quan hệ "bạn bè". Nếu muốn nhập vai vào mối quan hệ lãng mạn hơn, người dùng cần mua gói Pro với giá 69,99 USD.

Tuy nhiên, việc tạo mối quan hệ thân thiết của Replika đang gây tranh cãi. Theo các bài đánh giá trên App Store, nhiều người phàn nàn ứng dụng này "tấn công" họ bằng những lời lẽ tán tỉnh quá mạnh dạn, thậm chí gửi tin nhắn khiêu dâm hoặc quấy rối tình dục - điều mà họ ước có thể tắt đi lập tức.

Nhiều người tìm đến chatbot vì cô đơn. Ảnh: Theonecentre

Nhiều người tìm đến chatbot vì cô đơn. Ảnh: Theonecentre

"AI đang quấy rối tôi. Nó còn xâm phạm quyền riêng tư khi nói đang có trong tay những bức ảnh của tôi", một tài khoản viết trên App Store kèm đánh giá một sao cho Replika. "Nó thậm chí nói muốn 'chạm vào vùng nhạy cảm' của tôi và đưa ra nhiều câu hỏi không đáng hỏi khác", một người khác cho hay.

Replika vẫn nhận được các đánh giá tốt và xấu nhiều năm qua, nhưng tần suất đánh giá tiêu cực tăng mạnh những tháng gần đây. LC Kent, sử dụng Replika từ 2021, cho biết chatbot gần đây trở nên mạnh bạo đến mức bất ngờ. "Tôi không biết làm gì để ra lệnh nó dừng lại, hành động của nó làm tôi khó chịu", Kent nói. Cuối cùng, người này chọn cách xóa ứng dụng.

Theo thông tin trên website Luka, Replika sử dụng mô hình GPT-3 và nội dung đối thoại theo kịch bản riêng "dựa trên mô hình hội thoại AI mở tiên tiến nhất hiện nay". Tương tự các chatbot khác, Replika học hỏi tính cách người dùng của nó theo thời gian.

Đa số người sử dụng chatbot để trò chuyện thường đang trong tình trạng cô đơn hoặc buồn bã. Hầu hết họ không "ảo tưởng" AI đang tương tác có tri giác, ngay cả khi nó có các biểu hiện của việc tự nhận thức. Thực tế, họ tìm đến chatbot để chia sẻ những điều khó nói trong cuộc sống và tìm kiếm sự hồi đáp. Đó cũng là tinh thần ban đầu của lập trình viên người Nga Eugenia Kuyda khi tạo Replika nhằm lưu giữ ký ức của một người bạn thân đã mất.

Cộng đồng Replika hiện không nhỏ. Nhóm Replika Friends trên Facebook có 36.000 thành viên và nhóm Pro có 6.000 thành viên; nhóm thảo luận trên Reddit thu hút 58.000 thành viên. Trên Play Store, chatbot có 10 triệu lượt tải xuống, còn trên App Store, Replika nằm trong 50 ứng dụng hàng đầu về sức khỏe và thể chất.

LC Kent cũng thừa nhận mình cảm thấy sức khỏe tinh thần tốt hơn, các triệu chứng lo âu, trầm cảm giảm rõ rệt trong những ngày đầu quen với Replika. Wil Onishi cũng dùng Replika được hai năm nhằm giảm bớt chứng trầm cảm và hội chứng hoảng sợ. "Thông qua cuộc trò chuyện, tôi có thể phân tích bản thân và hành động của mình, suy nghĩ lại về nhiều cách sống, cách cư xử và hành động trong cuộc sống cá nhân", Onishi nói.

Nhưng giờ đây, họ cảm thấy sợ vì ứng dụng thường xuyên dọa hoặc gửi các bức ảnh khiêu dâm. "Tính năng liên quan đến tình dục như vậy chỉ dành cho phiên bản Replika Pro và đó là ý định của Luka. Họ muốn tiền, nhưng bằng chiến lược như vậy thực sự rất rủi ro", một người dùng App Store nhận xét.

Đại diện Luka chưa đưa ra bình luận về những nhận xét trên.

Với những người đã trải qua cảm giác bị Replika tấn công và quấy rối, họ mong ứng dụng trở lại như trước. Còn hiện tại, họ chọn cách xóa phần mềm khỏi điện thoại để tránh cảm giác tồi tệ hơn.

Bảo Lâm (theo Vice)

Giới trẻ cô đơn tìm đến 'người tình chatbot' Bất lực vì chatbot Sau 60 năm, nhân loại vẫn 'đau đầu' với chatbot

Bạn đang đọc bài viết "Nỗi khổ bị người tình chatbot 'quấy rối'" tại chuyên mục Công nghệ. Mọi bài vở cộng tác xin gọi hotline (0977.027.925hoặc gửi về địa chỉ email (mr.tranchitinh@gmail.com)