Cảnh giác với trò bắt cóc tống tiền ảo bằng công nghệ nhân bản giọng nói
Với sự phát triển của công nghệ, các thủ đoạn lừa đảo, bắt cóc tống tiền ảo đang ngày càng tinh vi hơn và một số vụ gần đây có một điểm chung: sử dụng công nghệ nhân bản giọng nói. Sự phát triển của các chương trình trí tuệ nhân tạo (AI) chi phí thấp, dễ tiếp cận đã tạo cơ hội cho những kẻ lừa đảo sao chép giọng nói và tạo ra các đoạn hội thoại nghe giống như giọng của nạn nhân.
Tiếng kêu cứu của con gái trong cuộc điện thoại tống tiền
Điện thoại của cô Jennifer DeStefano (sống ở Arizona, Mỹ) đổ chuông vào 4h55 chiều khi cô vừa bước ra khỏi ô tô bên ngoài phòng tập thể thao ở Scottsdale, gần Phoenix, nơi cô con gái nhỏ Aubrey đang có buổi tập luyện. Số gọi đến không hiển thị tên và cô định sẽ không bắt máy vì cho rằng có thể là cuộc gọi quảng cáo.
Mẹ con cô Jennifer DeStefano
Tuy nhiên, nghĩ đến con gái lớn Brianna, 15 tuổi, đang tập luyện để tham gia cuộc thi trượt tuyết, DeStefano sợ rằng đó có thể là một cuộc gọi khẩn cấp về y tế liên quan nên đã nghe máy.
Vừa mới chỉ kịp “Alo”, cô Jennifer DeStefano đã nghe thấy đầu bên kia có tiếng la hét và tiếng khóc nức nở của một cô gái trẻ: “Mẹ ơi, cứu con với, con sợ lắm…!”. Cô DeStefano hốt hoảng hỏi: “Có chuyện gì xảy ra thế?”. “Nghe rất giống giọng của Brianna con gái tôi. Sau đó, tôi nghe thấy giọng một người đàn ông nói: “Ngồi xuống, ngửa đầu ra sau!”. Tôi nghĩ con bé bị ngã trong lúc trượt tuyết - điều thường xảy ra khi luyện tập và hết sức hoang mang. Tuy nhiên, tiếng kêu cứu lại tiếp tục vọng lên trong điện thoại, rồi một giọng nam ra lệnh: “Nghe đây, tôi đang giữ con gái của cô. Nếu cô báo cảnh sát hay bất cứ ai, tôi sẽ nhét ma túy vào người con bé, rồi mang nó tới Mexico, cô sẽ không bao giờ gặp lại con bé nữa” - cô Jennifer DeStefano kể lại.
DeStefano chết lặng. Sau đó, cô chạy vào phòng tập thể thao, run rẩy kêu cứu. Mọi người đổ xô đến, người gọi cho cảnh sát thông báo, người thì liên tục gọi điện liên tục vào số máy của cô bé Brianna để liên lạc, trong khi bọn “bắt cóc” không ngừng yêu cầu cô gửi khoản tiền chuộc 1 triệu USD. Sau khi DeStefano nói rằng cô ấy không có 1 triệu USD, người gọi đã giảm số tiền chuộc xuống còn 50.000 USD và cuộc thảo luận chuyển sang hướng dẫn cách chuyển tiền.
Một phụ nữ trong phòng tập sau khi gọi 911 báo cho cảnh sát, được cảnh sát trấn an rằng có thể đó là một vụ lừa đảo. Người này đã cố gắng thuyết phục DeStefano đừng tin kẻ lừa đảo, nhưng cô ấy không còn đủ bình tĩnh để xem xét tình hình. Và chỉ đến khi hai bên trao đổi cách thức nhận tiền chuộc, một người trong phòng tập đã đưa cho DeStefano chiếc điện thoại, bảo cô lập tức nghe máy: “Mẹ ơi, con đây, con vừa ngủ dậy, con không biết chuyện gì đang xảy ra, nhưng con đang rất an toàn”- đó là giọng nói của Brianna, con gái của DeStefano.
Lập tức, DeStefano tức giận đến phát khóc, cô hét vào chiếc điện thoại đang liên lạc với “kẻ bắt cóc” rằng hắn là đồ lừa đảo. Đầu dây bên kia vẫn khẳng định anh ta đang giữ con gái của cô và tiếp tục ra yêu sách về khoản tiền chuộc. DeStefano cúp máy và gọi báo cảnh sát.
Dù vụ “bắt cóc” đã bị vạch trần là một vụ lừa đảo, nhưng với DeStefano, người mẹ này sẽ không bao giờ quên được những giây phút kinh hoàng đó, đặc biệt là âm thanh của giọng nói quen thuộc của con gái qua cuộc điện thoại của bọn bắt cóc tống tiền.
Nhân bản giọng nói bằng trí tuệ nhân tạo
Cô DeStefano là nạn nhân của một vụ lừa đảo bắt cóc tống tiền ảo mà những kẻ lừa đảo khiến nạn nhân tin và sợ hãi bằng cách bắt chước âm thanh, thay đổi giọng nói của người thân nạn nhân. Siobhan Johnson - người phát ngôn của Cục Điều tra Liên bang Mỹ (FBI) tại Chicago cho biết, tại Mỹ, các gia đình mất trung bình 11.000 USD trong mỗi vụ lừa đảo bắt cóc giả. Theo dữ liệu từ Ủy ban Thương mại liên bang, người Mỹ đã mất 2,6 tỷ USD vào năm ngoái trong các vụ lừa đảo mạo danh. Nhà chức trách cảnh báo, những kế hoạch bắt cóc tống tiền ảo đang ngày càng tinh vi hơn và một số vụ gần đây có một điểm chung: sử dụng giọng nói nhân bản. Sự phát triển của các chương trình trí tuệ nhân tạo (AI) chi phí thấp, dễ tiếp cận đã tạo cơ hội cho những kẻ lừa đảo sao chép giọng nói và tạo ra các đoạn hội thoại nghe giống như giọng của nạn nhân.
Hany Farid, Giáo sư khoa học máy tính tại Đại học California, Berkeley, đồng thời là thành viên của Phòng thí nghiệm trí tuệ nhân tạo Berkeley, cho biết: “Có thể tạo ra một bản sao tương đối hoàn hảo từ một đoạn âm thanh gốc dài chưa đầy một phút và thậm chí chỉ cần vài giây là đủ. Ngày càng cần ít dữ liệu hơn để tạo ra những đoạn âm thanh giả mạo như thật”. Theo Giáo sư Hany Farid, với sự trợ giúp của phần mềm AI, việc nhân bản giọng nói có thể được thực hiện chỉ với chi phí 5 USD một tháng, khiến bất kỳ ai cũng có thể dễ dàng tiếp cận.
Ủy ban Thương mại Liên bang Mỹ đã cảnh báo rằng, những kẻ lừa đảo có thể lấy các đoạn âm thanh gốc từ các bài đăng trên mạng xã hội của nạn nhân. “Các đối tượng lừa đảo có thể sử dụng AI để sao chép giọng nói của người thân của bạn. Tất cả những gì bọn chúng cần là một đoạn âm thanh ngắn về giọng nói của thành viên gia đình bạn - mà chúng có thể khai thác, tải về từ những bài viết mà nạn nhân đăng tải trực tuyến trên mạng xã hội và một chương trình nhân bản giọng nói. Khi kẻ lừa đảo gọi điện cho bạn, giọng nói từ đầu dây bên kia giống hệt như giọng nói của người thân bạn”.
Nhận biết và ngăn chặn những vụ bắt cóc ảo
DeStefano cho biết, sau ngày hôm đó cô đã thay đổi cách trả lời điện thoại. Cô ấy cảnh giác hơn trước các cuộc gọi từ số điện thoại không xác định và không lên tiếng trước khi người gọi tới cất giọng, bởi cô sợ rằng âm thanh giọng nói của cô sẽ bị những kẻ xấu sao chép cho mục đích xấu. Cô DeStefano đã cố gắng để tìm ra cách những kẻ bắt cóc ảo có được giọng nói của con gái cô và thấy rằng, trước khi xảy ra vụ “bắt cóc ảo” đó, Brianna - con gái cô đã nhận một số cuộc điện thoại từ số lạ: “Bọn chúng có thể đã gọi cho con gái tôi, nó đã nghe một số cuộc gọi và nói “Alo, alo” liên tục nhưng đầu dây kia không hề có tín hiệu trả lời… Giọng nói thật của con gái tôi có thể bị sao chép từ đó”.
Tuy nhiên, không phải ai cũng có thể may mắn phát hiện kịp thời những vụ bắt cóc tống tiền ảo như trường hợp của cô DeStefano. Chuyên gia Johnson của FBI đã chia sẻ một số lời khuyên về cách tránh bị lừa đảo:
- Không đăng thông tin về các chuyến đi sắp tới trên mạng xã hội, điều đó tạo cơ hội cho những kẻ lừa đảo nhắm mục tiêu vào gia đình bạn. “Nếu bạn đang ở trên máy bay, mẹ bạn không thể gọi điện để xác nhận rằng bạn vẫn ổn” - Johnson nói.
- Tạo một mật khẩu gia đình. Nếu ai đó gọi điện và nói rằng họ đã bắt cóc con bạn, bạn có thể yêu cầu họ hỏi mật khẩu của đứa trẻ.
- Nếu bạn nhận được một cuộc gọi bắt cóc tống tiền, hãy “câu giờ” để tìm cách và thông báo cho cơ quan thực thi pháp luật.
- Nếu bạn đang nghe cuộc điện thoại của bọn bắt cóc tống tiền và có người khác trong nhà, hãy bảo họ gọi báo cảnh sát ngay lập tức.
- Cảnh giác khi cung cấp thông tin tài chính cho người lạ qua điện thoại. Những kẻ bắt cóc ảo thường yêu cầu tiền chuộc thông qua dịch vụ chuyển khoản ngân hàng, tiền điện tử hoặc thẻ quà tặng.
- Và điều quan trọng nhất, đừng tin vào giọng nói mà bạn nghe thấy trong cuộc điện thoại. Nếu bạn không thể liên lạc với người thân, hãy nhờ một thành viên gia đình, bạn bè hoặc người khác cố gắng liên lạc với họ giúp bạn.
Nguồn: [Link nguồn]
Mới đây, Sở cảnh sát Mount Vernon, bang Washington, Mỹ, đã gửi lời cảm ơn đến Bộ Công an Việt Nam và Đại sứ quán Mỹ tại Hà Nội vì tích cực hỗ trợ họ trong quá trình điều...