Bộ TT&TT nói về nguy hại của deepfake và chỉ cách nhận biết

Deepfake là vấn nạn giả mạo khuôn mặt trong ảnh, video để lừa đảo.

Trong buổi họp báo định kỳ diễn ra sáng 5/5, Bộ Thông tin và Truyền thông (TT&TT) đã nhắc tới một vấn nạn nhức nhối trong lĩnh vực an toàn thông tin. Đó là thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video deepfake.

Deepfake là vấn nạn giả mạo khuôn mặt trong ảnh, video để lừa đảo.

Deepfake là vấn nạn giả mạo khuôn mặt trong ảnh, video để lừa đảo.

Theo đó, các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để sao chép chân dung, tạo ra các đoạn video hay hình ảnh giả người thân, bạn bè nhằm thực hiện các cuộc gọi lừa đảo trực tuyến.

"Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. Trong đó, phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính", Bộ TT&TT nhận định.

Đối với các cuộc gọi deepfake như hiện nay, Bộ TT&TT chỉ dẫn một số cách để nhận biết như sau:

- Bằng mắt thường vẫn có thể có một số dấu hiệu để nhận biết như thời gian gọi thường rất ngắn, có thể chỉ vài giây.

- Ngoài ra, khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói, tư thế của họ trông lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của họ trong video không nhất quán với nhau,…

- Cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên.

- Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

"Có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Người dân nên luôn cảnh giác và tuyệt đối bình tĩnh", Bộ TT&TT cảnh báo.

Nguồn: [Link nguồn]

Deepfake giả video, giọng nói để lừa tình, tiền: Đây là cách phòng tránh!

Để hạn chế nguy cơ gặp phải deepfake, một trong những giải pháp là hãy thiết lập thói quen bảo mật.

Chia sẻ
Gửi góp ý
Lưu bài Bỏ lưu bài
Theo NGỌC PHẠM ([Tên nguồn])
Internet và những hiểm họa khôn lường Xem thêm
Báo lỗi nội dung
GÓP Ý GIAO DIỆN