Tránh bẫy lừa đảo Deepfake, cách nào?

Thái San
Chia sẻ Zalo

Kinhtedothi - Trên không gian mạng gần đây xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Các đối tượng sử dụng công nghệ Deepfake ghép mặt, giọng nói giống hệt người quen. Vậy, làm thế nào để có thể tránh bẫy lừa đảo Deepfake?

Khi AI được ứng dụng để lừa đảo

Vừa qua, các đối tượng tội phạm công nghệ cao đã sử dụng công nghệ Deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác cao. Các đối tượng sử dụng Deepfake AI để ghép mặt và giọng nói giống hệt người thân, người quen của nạn nhân để lừa đảo. Với cách thức này, gần đây chúng đã đánh lừa một nạn nhân ở TP Hồ Chí Minh số tiền 20 triệu đồng, ngay cả khi nạn nhân đã thực hiện cuộc gọi video qua Facebook để kiểm chứng.

Cơ quan công an cho biết, các tội phạm công nghệ cao đang bắt đầu sử dụng trí tuệ nhân tạo (AI) để thực hiện các hành vi lừa đảo chiếm đoạt tài sản rất tinh vi. Chúng sử dụng công nghệ Deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác cao, từ đó thực hiện cuộc gọi video để giả làm người thân, người quen vay tiền cho những tình huống cấp bách cần tiền gấp.

Tránh bẫy lừa đảo Deepfake, cách nào? - Ảnh 1

Nhằm phục vụ trò lừa đảo, chúng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo. Những cuộc gọi video như vậy thường có âm thanh không rõ nét, tín hiệu chập chờn giống cuộc gọi trong vùng phủ sóng yếu để nạn nhân khó phân biệt thật giả. Nếu nạn nhân cẩn thận gọi video lại để kiểm chứng, chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa…

Xác minh trực tiếp qua điện thoại

Trao đổi với báo Kinh tế & Đô thị, luật sư Đặng Thị Vân Thịnh (Văn phòng Luật sư Kết Nối) cho hay, trên không gian mạng xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Các đối tượng lừa đảo sử dụng công nghệ Deepfake là công nghệ ứng dụng trí tuệ nhân tạo AI. Để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả người ngoài đời thực với độ chính xác rất cao. Các đối tượng xấu sẽ thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí, hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu. Đây là thủ đoạn lừa đảo rất mới, rất tinh vi.

“Người dân nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Đồng thời, cần bình tĩnh, sau đó gọi điện thoại trực tiếp cho người thân để xác minh, không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, người dân cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời” - luật sư Đặng Thị Vân Thịnh chia sẻ.

Theo các chuyên gia pháp luật, nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin: Liên lạc với người thân, bạn bè xem có đúng họ cần tiền không. Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không. Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Ngoài ra, hãy lưu giữ cẩn thận thông tin cá nhân, như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái... Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh khi liên hệ với ngân hàng và những người khác.