Ghép giọng nói, hình ảnh người thân vào video để lừa đảo: Thủ đoạn tinh vi, khó lường

Thời gian gần đây, ngành chức năng liên tục phát đi cảnh báo về thủ đoạn sử dụng AI (là tên viết tắt của trí tuệ nhân tạo hoặc trí thông minh nhân tạo) để giả giọng người thân lừa tiền. Đây được xem là chiêu lừa đảo hết sức tinh vi và khó lường.
Cảnh báo lừa đảo chuyển tiền để con được cấp cứu Bắt giữ nhóm đối tượng chiếm đoạt tiền qua phương thức lừa đổi ngoại tệ Cảnh báo giả công ty quản lý quỹ lừa đảo nhà đầu tư chứng khoán Cảnh báo một số trang thông tin mạo danh, đăng tin sai lệch về kỳ thi tốt nghiệp THPT 2023

Lừa đảo bằng Deepfake: Thủ đoạn tinh vi và khó lường

Deepfake hiện nay chưa phải là thuật ngữ được nhiều người biết đến. Theo đó, Deepfake tức “deep learning" và "fake". Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI) để lấy hình ảnh, giọng nói của một người ghép vào video của người khác

Công nghệ này được xây dựng trên nền tảng “machine learning” mã nguồn mở của Google.

Cụ thể, deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video cá nhân khác và sử dụng AI thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật.

Nói một cách dễ hiểu, deepfake có thể gán khuôn mặt của người này sang người khác trong video với tỷ lệ chân thực rất cao.

Với khả năng giả giọng và khuôn mặt với tỷ lệ chân thực cao, các đối tượng lừa đảo đã sử dụng deepfake để thực hiện các chiêu trò lừa đảo. Theo đó, các bước thực hiện chiêu trò lừa đảo được chúng thực hiện như sau:

Trước tiên, các đối tượng này tìm kiếm, thu thập thông tin cá nhân được đăng tải công khai trên các tài khoản mạng xã hội như Facebook, Zalo, Instagram,...

Sau đó, các đối tượng lừa đảo lấy những video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để tạo ra khuôn mặt và giọng nói giả nhưng lại như thật khiến những người không cảnh giác đề phòng dễ sập bậy.

Các đối tượng tiếp tục sử dụng mạng xã hội giả danh người thân để nhắn tin cho nạn nhân nhờ chuyển tiền, vay tiền, đóng phạt,...

Đáng chú ý, chúng sẽ sử dụng deepfake để gọi điện thoại hoặc gọi video khi phía nạn nhân yêu cầu. Thậm chí, chúng sẽ tự gọi điện để tăng độ tin cậy khiến nạn nhân dễ sập bẫy hơn.

Một diễn viên nổi tiếng từng là nạn nhân của công nghệ trí tuệ nhân tạo
Một diễn viên nổi tiếng từng là nạn nhân của công nghệ trí tuệ nhân tạo (ảnh minh hoạ)

Lúc này, khi đã kiểm chứng thông qua giọng nói hoặc hình ảnh khuôn mặt (thực chất là làm giả bằng deepfake), nạn nhân không còn nghi ngờ gì nữa mà chuyển tiền tới một số tài khoản đã được chỉ định. Đến khi nhận ra thì đã tiền mất, tật mang.

Trường hợp chị V.T.M (26 tuổi, Long Biên - Hà Nội) là một ví dụ điển hình gần đây. Theo đó, chị M nhận được tin nhắn mượn tiền từ tài khoản Facebook của một người thân bên nước ngoài nhắn đến Facebook với nội dung nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Lúc này, vì tin tưởng, chị M nghĩ đây là người thân trong nhà nên không chần chừ chuyển tiền.

Chị M cho hay, khi nhận được tin nhắn hỏi vay tiền của người thân, bản thân cũng đã cẩn thận gọi video lại để kiểm tra thì thấy hình ảnh đúng là bạn mình. Chị đã chuyển khoản luôn cho bạn vay. Nhưng đến tối, thấy trên trang cá nhân của người thân đăng bài thông báo việc bị kẻ gian hack nick facebook để hỏi vay tiền một số bạn bè và người thân. Chị M gọi điện lại cho bạn thì bạn xác nhận đấy chính là kẻ xấu lừa đảo.

Đáng nói, khi chị M gọi xác nhận, phía đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng nhòe giống như sóng chập chờn, thế nhưng cách xưng hô hoàn toàn chính xác, đúng âm điệu và cách xưng hô.

Có thể thấy, chiêu trò giả danh người thân nhắn tin nhờ chuyển tiền, vay tiền... thực chất không hề mới. Thế nhưng, với sự phát triển ngày một nhanh chóng của công nghệ, các đối tượng lừa đảo đã thực hiện dưới một vỏ bọc mới, tinh vi và khó lường hơn.

Trước đó, các đối tượng đã sử dụng công nghệ Deepfake để ghép mặt của các diễn viên, ca sĩ nổi tiếng vào cơ thể khỏa thân, thậm chí ở tư thế nhạy cảm. Ninh Dương Lan Ngọc cũng là một trong những nạn nhân nổi tiếng ở Việt Nam buộc phải lên tiếng. Nhưng trước khi lên tiếng rộng rãi, thì hình ảnh, danh tiếng của các sao nổi tiếng đã bị ảnh hưởng, bôi nhỏ không ít.

Cách nhận biết chiêu lừa bằng Al

Theo luật sư Nguyễn Đức Hùng (LuatVietnam): Mặc dù công an các địa phương đã liên tục đưa ra cảnh báo về chiêu thức lừa đảo này, thế nhưng thực tế vẫn có không ít người mắc bẫy.

Các đối tượng có thể bị xử phạt về Tội lừa đảo chiếm đoạt tài sản theo quy định tại Điều 174 Bộ luật Hình sự 2015, sửa đổi bổ sung 2017. Hoặc bị phạt tiền từ 2-3 triệu đồng đối với hành vi dùng thủ đoạn gian dối để chiếm đoạt tài sản.

Mặc dù, giả danh người thân để lừa đảo không mới, nhưng có thể thấy các chiêu thức của các đối tượng ngày một tinh vi

Để không trở thành nạn nhân của các chiêu trò lừa đảo này, người dân cần nâng cao cảnh giác hơn nữa trong đó cần chú ý:

Khi nhận bất kỳ tin nhắn vay mượn tiền thông qua mạng xã hội, người dân cần điện thoại trực tiếp cho người thân để xác minh, tránh việc xác nhận qua video call. Thay vào đó, nên xác thực lại thông tin bằng cách gọi điện thoại hoặc có thể gặp trực tiếp để trao đổi thông tin chính xác trước khi chuyển tiền.

Trường hợp nghi ngờ đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản thì cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

Người dùng nên cẩn thận khi để lộ các thông tin cá nhân quan trọng như ảnh chụp chứng minh thư, Căn cước công dân, mật khẩu tài khoản ngân hàng...

Trong quá trình sử dụng mạng internet, người dùng cần trang bị cho mình phần mềm phòng chống để ngăn chặn tải các virus độc hại, vào các website độc hại, để tránh nguy cơ mất thông tin.

Tuyệt đối không cung cấp thông tin ngân hàng điện tử như tên đăng nhập, mật khẩu hay mã OTP hoặc truy cập vào đường link lạ trong tin nhắn, thư điện tử (email).

Nếu không may trở thành nạn nhân của lừa đảo chiếm đoạt tài sản, nạn nhân có thể tố giác tới cơ quan Công an để được giải quyết. Hiện nay có 3 cách để gửi đơn tố cáo lừa đảo: Gửi trực tiếp tại trụ sở cơ quan chức năng; Gửi qua đường bưu điện; Gửi qua hộp thư điện tử.

Bên cạnh đó, nạn nhân có thể tố cáo lừa đảo tới đường dây nóng của Bộ Công an: Cơ quan An ninh điều tra Bộ Công an (Tại TP Hà Nội: 069.2342431; Tại TP Hồ Chí Minh: 069.3336310); Cơ quan Cảnh sát điều tra Bộ Công an: Cục Cảnh sát điều tra tội phạm về trật tự xã hội: 069.2348560; Cục Cảnh sát điều tra tội phạm về tham nhũng, kinh tế, buôn lậu: 069.2321671; Cục Cảnh sát điều tra tội phạm về ma túy: 069.2345923).

Các chuyên gia mạng cảnh báo: Khi nhận được một cuộc gọi video nhờ chuyển tiền, người dùng cần đánh giá các yếu tố:

- Khuôn mặt nhân vật thiếu tính cảm xúc và khá “trơ” khi nói.

- Tư thế của nhân vật trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.

- Màu da bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí.

- Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

- Tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.

Hoa Thành
Phiên bản di động