Hạn chế đưa thông tin cá nhân lên mạng xã hội để tránh bị lừa đảo bằng hình ảnh, video giả mạo

Cập nhật ngày: 26/02/2025 11:07:15

Lừa đảo trực tuyến gia tăng và trở nên tinh vi hơn khi tội phạm mạng sử dụng công nghệ mới như Deepfake, Deepvoice (những công nghệ ứng dụng AI) để tạo hình ảnh, video, âm thanh giả mạo giống như thật, khiến người dùng khó phân biệt.


Chiêu trò sử dụng công nghệ Deepfake để lừa đảo lại tái diễn

Kịch bản lừa đảo tinh vi

Tình trạng lừa đảo qua các ứng dụng mạng xã hội như: Zalo, Facebook, Skype, Telegram... trở nên phổ biến trong những năm gần đây. Vài năm trước, đối tượng đánh cắp tài khoản cá nhân để lừa đảo thông qua việc nhắn tin vay tiền. Sau một thời gian, nhận thấy hoạt động này kém hiệu quả do bị "bắt bài" và người dân cảnh giác, tội phạm công nghệ cao đã "nâng cấp" lên một mức độ mới, tinh vi hơn khi kết hợp giữa chiếm đoạt tài khoản cá nhân và sử dụng Deepfake để thực hiện cuộc gọi hình ảnh. Nhìn thấy người thân, bạn bè đang nói chuyện với mình, nhiều người không nghĩ rằng đây chỉ là video, ảnh giả do công nghệ tạo ra, dẫn đến bị lừa đảo.


Tội phạm công nghệ cao đã "nâng cấp" lên một mức độ mới, tinh vi hơn khi kết hợp giữa chiếm đoạt tài khoản cá nhân và sử dụng Deepfake để thực hiện cuộc gọi hình ảnh nhằm mục đích lửa đào (Ảnh: hoinhabao.vn)

Mới đây, chị Ngô Thị H. (quận Cầu Giấy, Hà Nội) nhận được tin nhắn của người bạn thân qua Facebook, hỏi mượn số tiền 100 triệu đồng. Ngay sau khi nhận tin nhắn, chị H. đã gọi video lại cho bạn. Phía bên kia bắt máy, trên màn hình hiện lên khuôn mặt của bạn nhưng chất lượng cuộc gọi hơi thấp, âm thanh khó nghe, hình ảnh nhòe mờ.

“Trước đó, tôi và bạn có nói chuyện về mở cửa hàng kinh doanh nên khi gọi video thấy khuôn mặt thật, tôi đã chuyển cho bạn 100 triệu đồng. Các đối tượng đã đọc kỹ những tin nhắn cũ của tôi và bạn để có kịch bản lừa đảo hợp lý”, chị H. chia sẻ.

Còn chị Nguyễn Hải Q. (huyện Đông Anh, Hà Nội) bị đối tượng xưng là cán bộ điện lực gọi nhắc đóng tiền điện, sau đó đề nghị kết bạn qua Zalo để hướng dẫn cài app Epoint giả mạo và đề nghị đồng bộ hóa với tài khoản ngân hàng để tự động trả tiền.

“Để làm được việc này, đối tượng yêu cầu tôi phải quét hình ảnh căn cước công dân. Không ngờ đó là quét hình ảnh sinh trắc học để chuyển tiền. Khi thấy điện thoại báo chuyển hơn 95 triệu đồng, tôi giật mình biết là bị lừa. Tôi cũng luôn cảnh giác về các hình thức lừa đảo qua mạng, nhưng lúc đó đối tượng đọc đúng tên, đúng mã số dùng điện của gia đình nên lại tin. Chỉ một lúc mất cảnh giác đã bị đối tượng lừa”, chị Q. chia sẻ.

Các chuyên gia an ninh mạng nhận định, đối tượng lừa đảo tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video được đăng tải công khai trên những nền tảng mạng xã hội, rồi sử dụng Deepfake để tạo ra giọng nói, khuôn mặt, video giả. Điều đáng nói, video sẽ càng chân thực, hoàn thiện hơn khi các đối tượng thu thập được càng nhiều dữ liệu về hình dạng, giọng nói và đưa cho AI hoàn chỉnh dần.

Đặc điểm chung của các cuộc gọi video lừa đảo là thường có âm thanh, hình ảnh không được tốt, giống như trong khu vực sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Khi người nhận điện thoại gọi lại để kiểm tra, các đối tượng không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, giọng nói nhằm tiếp tục đánh lừa.

Theo đại diện Cục An toàn thông tin, những vụ lừa đảo qua mạng gần đây cho thấy, đối tượng nghiên cứu kỹ về nhân thân của bị hại và lên kế hoạch chi tiết. Do đó, người dân không nên đưa thông tin cá nhân lên mạng xã hội.

Lừa đảo qua video giả dùng công nghệ mới lại tái diễn

Tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo, vừa được Bộ Công an nhắn tin cảnh báo rộng rãi tới đông đảo người dân.

Theo đó, sử dụng công nghệ Deepfake cho phép tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng các video, cuộc gọi nhằm lừa đảo tài chính.


Các thủ đoạn lừa đảo tống tiền của các đối tượng (Ảnh minh họa)

Hơn thế, các chiêu trò lừa đảo này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.

Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính mà còn chuyển sang lừa đảo tình cảm. Trong đó, Deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân qua các cuộc gọi video; sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.

Trước tình hình trên, Cục An toàn thông tin khuyến cáo, người dân cảnh giác với những lời khuyên đầu tư từ người nổi tiếng trên mạng xã hội; cảnh giác với những tin nhắn, email hoặc cuộc gọi không xác định; cần quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video. Người dân cũng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nói; đồng thời, cài đặt tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.

Ông Vũ Ngọc Sơn - Trưởng Ban Công nghệ (Hiệp hội An ninh mạng quốc gia) cho biết: “AI là xu hướng không thể ngăn cản. AI tốt hay xấu là do người sử dụng. Do đó, con người cần thích nghi với AI. Trong kế hoạch sắp tới của Hiệp hội, Deepfake do AI tạo là nội dung chúng tôi sẽ nghiên cứu kỹ và có những cảnh báo đến cộng đồng. Đặc biệt là các ảnh, clip được tạo bằng Deepfake bị sử dụng với mục đích tống tiền. Bộ Công an cũng gửi tin nhắn đến người dân đề cập đến vấn đề này và khuyến cáo người dân cảnh giác khi nhận được các tin nhắn, cuộc gọi có nội dung như trên. Người dân không chuyển tiền khi bị đe dọa; khi phát hiện dấu hiệu bị lừa đảo, cưỡng đoạt tài sản cần nhanh chóng trình báo Cơ quan Công an nơi gần nhất và phản ánh qua ứng dụng VNeID”.

Nguồn TTXVN/NDO

< Trở về trang trước
Gửi bình luận của bạn