Cô gái bị ghép mặt vào phim khiêu dâm: Hoảng loạn, quay cuồng
"Tâm trí của tôi hoàn toàn quay cuồng: Đó là khi nào, tôi đang quan hệ tình dục với ai, tôi không nhớ, tôi không nghĩ mình đã làm điều này", cô chia sẻ.
DailyMail vừa dẫn lại một bài chia sẻ của cô gái tên Kate Isaacs rằng, cô là nạn nhân của vấn nạn deepfake - thuật ngữ chỉ các video khiêu dâm được tạo ra bằng cách sử dụng hình ảnh của nạn nhân để ghép vào cảnh khiêu dâm thông qua phần mềm. Kate được biết đến là một nhà vận động 30 tuổi.
Kate Isaacs là một nạn nhân của nạn deepfake.
Theo đó, trong khi vuốt điện thoại, Kate Isaacs mở Twitter và phát hiện một bài đăng khiến cô kinh hoàng. Ai đó đã đăng một tweet ở chế độ công khai với một video rõ nét về những gì trông giống như cô ấy đang quan hệ tình dục.
"Sự hoảng loạn này vừa ập đến với tôi. Tôi không thể suy nghĩ một cách tỉnh táo trong khoảnh khắc đó", Kate nói về sự cố "trời giáng".
"Tâm trí của tôi hoàn toàn quay cuồng: Đó là khi nào, tôi đang quan hệ tình dục với ai, tôi không nhớ, tôi không nghĩ mình đã làm điều này", cô chia sẻ.
"Thực sự, thực sự đáng sợ khi xem, bởi vì tôi đang nghĩ tới việc: Ôi chúa ơi, đó là tôi, tôi đang ở trong một video khiêu dâm và mọi người sẽ xem - sếp của tôi, bà của tôi, bạn bè của tôi", Kate cô nói.
"Tôi cảm thấy bị tổn thương, bởi vì cơ thể của tôi ở ngoài kia, nhưng tôi hoàn toàn không nhớ gì về việc được quay phim", cô nói thêm.
Vấn nạn deepfake đã gây ảnh hưởng tới nhiều người.
Sau cú sốc ban đầu, Kate nhận ra khuôn mặt của cô trong video, nhưng cơ thể không phải của chính cô.
Kate tin rằng, cô đã bị nhắm mục tiêu do chiến dịch #NotYourPorn năm 2020 của cô khi mà chiến dịch này đã xóa 10 triệu video khiêu dâm.
Kinh hoàng hơn nữa khi kẻ gian còn đăng địa chỉ nơi làm việc và nhà riêng của cô lên mạng.
'"Tôi đã nhận được những lời đe dọa như họ sẽ theo tôi về nhà khi trời tối, và họ sẽ cưỡng hiếp tôi, quay phim và đăng lên mạng", Kate kể lại.
Câu chuyện trên được Kate chia sẻ trong bộ phim tài liệu mới của BBC3 có tên "Deepfake Porn: Could You Be Next?", do nhà báo Jess Davies dẫn chương trình.
Khi bị dùng hình ảnh để ghép vào nội dung deepfake mà lại là khiêu dâm, phụ nữ sẽ bị tổn hại tâm lý vì điều này. Dù trông có thể không quá thật nhưng cũng đủ để khiến nạn nhân thấy nhục nhã. Trong khi đó, họ chỉ có thể nói: "Không phải tôi, cái này đã bị làm giả. Tôi không chịu bất kỳ thiệt hại nào từ việc này".
Tuy nhiên, theo cách chuyên gia, miễn là bạn không biến nó thành thật thì điều đó không thực sự quan trọng. Bởi đơn giản về cơ bản nó là giả.
Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này sử dụng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video. Xuất hiện lần đầu năm 2017, deepfake lập tức gây chú ý với hàng loạt video khiêu dâm mạo danh người nổi tiếng, như diễn viên Gal Gadot, Emma Watson, Scarlett Johansson hay Daisy Ridley.
Theo Sensity AI - công ty nghiên cứu deepfake ra đời năm 2018, có khoảng hơn 90% nội dung deepfake hiện nay liên quan đến khiêu dâm, chủ yếu là ảnh, video nhằm vào phụ nữ
Nguồn: [Link nguồn]
Deepfake là công nghệ sử dụng trí tuệ nhân tạo để tạo ra hình ảnh, âm thanh hoặc bản ghi âm giọng nói giống như của một người khác.