.

Cuộc gọi lừa đảo Deepfake là gì, hoạt động như thế nào?

Cập nhật: 15:34, 08/04/2023 (GMT+7)

Thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp, các đối tượng lừa đảo bằng tin nhắn nhờ chuyển tiền, đặc biệt còn sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Cuộc gọi lừa đảo Deepfake: Thủ đoạn lừa đảo mới và rất tinh vi

Điển hình như trường hợp chị V.T.M (26 tuổi ở Long Biên, TP Hà Nội) nhận được tin nhắn mượn tiền từ tài khoản Facebook của một người thân bên nước ngoài nhắn đến Facebook với nội dung nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Lúc này, chị V.T.M nghĩ đây là người thân trong nhà nên không chần chừ chuyển tiền.

Chị V.T.M cho biết, khi nhận được tin nhắn hỏi vay tiền của người thân, bản thân cũng đã cẩn thận gọi video lại để kiểm tra thì thấy hình ảnh đúng là bạn mình. Chị V.T.M đã tin tưởng chuyển khoản cho vay luôn. Nhưng một thời gian sau đó, thấy trên trang cá nhân của người thân đăng bài thông báo việc bị kẻ gian hack nick Facebook để hỏi vay tiền một số bạn bè và người thân. Chị V.T.M gọi điện lại cho người thân, thì mới biết mình bị lừa.

Hay như tình huống của anh VĐC (42 tuổi ở Cổ Nhuế, TP Hà Nội) cho biết đã bị lừa mất 30 triệu đồng bởi cuộc gọi điện video Deepfake. Cụ thể, ngày gần đây có tài khoản người thân bên nước ngoài nhắn tin mượn tiền vì có việc gấp. Liền sau đó chị Tâm nhận được cuộc gọi video qua ứng dụng Messenger của Facebook.

“Cuộc gọi chỉ diễn ra được ít giây nhưng tôi thấy được khuôn mặt người thân của mình cùng với cách xưng hô quen thuộc nhưng cuộc gọi diễn ra chập chờn. Sau đó tôi nhận được tin nhắn vì sóng yếu nên không gọi video tiếp được, chuyển sang nhắn tin cho tiện. Tôi đã tin tưởng và chuyển tiền theo hướng dẫn”, anh VĐC thuật lại.

Nhận định về vấn đề này, chuyên gia công nghệ Ngô Minh Hiếu, Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC) chia sẻ, công nghệ trí tuệ nhân tạo (AI) đang giúp ích rất nhiều trong đời sống của con người. Tuy nhiên những kẻ xấu đã lợi dụng công nghệ AI để tạo ra hình ảnh sao chép giọng nói, từ việc chiếm đoạt tài khoản Facebook, Instagram... sau đó nghiên cứu tin nhắn, cách xưng hô, lịch sử giao dịch... để tạo ra những cuộc gọi giả và lừa tiền người thân, gia đình của tài khoản bị chiếm đoạt, cho đến gọi điện trực tiếp tới người bị hại để dựng lên những tình huống khẩn cấp cần chuyển tiền.

“Sau khi chiếm đoạt được Facebook của nạn nhân, kẻ lừa đảo đã chủ động nhắn tin trước để mượn tiền, rồi chủ động gọi videocall tới nạn nhân với đoạn video Deepfake và tắt giữa chừng khoảng một vài giây, sau đó nói do bị mất sóng điện thoại... Lúc này, nạn nhân đã tin tưởng và chuyển khoản tiền vì bên kia đang cần mượn tiền gấp”, chuyên gia công nghệ Ngô Minh Hiếu nhận định.

Còn ông Ngô Tuấn Anh, Chủ tịch HĐQT, CEO Công ty cổ phần An ninh mạng thông minh Smart Cyber Security cho rằng, lừa đảo qua mạng hiện có thể chia thành hai cách thức chính, đó là giả danh cơ quan điều tra, tòa án và đánh “lòng tham” của người dân như nhận phần thưởng lớn, dễ dàng kiếm tiền...Với hai hình thức lừa đảo này, có nhiều kịch bản áp dụng khác nhau, trong đó có kịch bản người dùng sẽ được khuyến cáo về việc xác minh chéo thông tin bằng cách gọi videocall. Chính đối tượng lừa đảo đã nghĩ ra cách thức “hóa giải” này để lừa đảo nạn nhân.
Trên không gian mạng gần đây xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Các đối tượng sử dụng công nghệ Deepfake ghép mặt, giọng nói giống hệt người quen/ Ảnh minh họa/ ktdt.vn.
 

a
Trên không gian mạng gần đây xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Các đối tượng sử dụng công nghệ Deepfake ghép mặt, giọng nói giống hệt người quen/ Ảnh minh họa/ ktdt.vn.

Deepfake hoạt động như nào?

Theo Công an thành phố Hà Nội, Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao.

Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực. Thông qua mạng internet, các đối tượng thu thập hình ảnh, giọng nói của người dùng trên mạng xã hội, sử dụng công nghệ Deepfake tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.

Đối tượng tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân trong danh sách bạn bè, nhắn tin vay mượn tiền theo kịch bản sẵn có. Trong một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin cho các nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải Deepfake video sẵn có lên kênh video call, khiến nạn nhân nhận ra hình ảnh, giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.

Công an thành phố Hà Nội thông tin thêm, với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện. Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động/wifi yếu. Đây là thủ đoạn lừa đảo rất mới và rất tinh vi.

Làm thế nào để dữ liệu khuôn mặt và giọng nói không bị đánh cắp?

Theo chuyên gia công nghệ Ngô Minh Hiếu, cách tốt nhất để tránh bị làm giả Deepfake, người sử dụng nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao.

Nếu chia sẻ video hay clip trên mạng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật của mình.

Nếu bị làm giả Deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.

Công an thành phố Hà Nội đề nghị người dân nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Người dân cần bình tĩnh khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội, sau đó gọi điện thoại hoặc liên lạc trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng mạng xã hội như Zalo, Messenger, Viber, Telegram…). Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, người dân cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ kịp thời và để đấu tranh, ngăn chặn, xử lý nghiêm các đối tượng theo quy định pháp luật.

Chia sẻ về cách phòng, chống cuộc gọi lừa đảo, ông Ngô Tuấn Anh lưu ý, người dân cần cảnh giác không bấm vào các đường link lạ. Nếu chuyển tiền thì có một cách xác minh đơn giản và hiệu quả là xem trên ứng dụng internet banking của ngân hàng có hiển thị đúng thông tin người thân, bạn bè khi gõ số tài khoản thì mới chuyển.

Còn chuyên gia công nghệ Ngô Minh Hiếu cho rằng một dấu hiệu để nhận biết và phòng tránh cuộc gọi Deepfake, đó là khuôn mặt của nhân vật trong video thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.
 

Theo các hãng bảo mật, Deepfake là một từ ghép của “deep” trong “deep learning” (học sâu) và “fake” (giả mạo). Deep learning là dùng phương pháp AI tiên tiến ứng dụng nhiều thuật toán nhằm tổng hợp dần các tính năng cao cấp từ dữ liệu đầu vào. Từ đó công nghệ này có khả năng tổng hợp, học hỏi từ những dữ liệu mà người dùng đưa vào như khuôn mặt con người, chuyển động vật lý và giọng nói. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực cao.

Theo qdnd.vn

.
.
.