Cảnh báo lừa đảo bằng giọng nói AI
Các vụ lừa đảo trên mạng xã hội tăng mạnh Gia tăng tội phạm lừa đảo qua mạng ở Châu Á Europol cảnh báo nguy cơ tội phạm lợi dụng ChatGPT để trục lợi |
Những giây phút hoảng loạn
Điện thoại reo lên vào một buổi chiều khi của bà Jennifer DeStefano vừa bước ra khỏi ô tô bên ngoài phòng tập khiêu vũ của cô con gái út. Người gọi đến không rõ danh tính nên cô định không bắt máy. Tuy nhiên, cô lại lo sợ biết đâu con gái lớn Brianna, 15 tuổi, gặp sự cố khi tham gia huấn luyện thi đấu trượt tuyết.
Nhấc máy lên, lập tức cô nghe thấy tiếng la hét và khóc nức nở. “Giọng nói giống hệt của con bé, từ âm thanh, ngữ điệu, cách mà con bé khóc… tất cả mọi thứ. Sau đó, đột nhiên, tôi nghe thấy một người đàn ông nói: “Nằm xuống, ngửa đầu ra sau”. Tôi nghĩ con bé đang bị trượt khỏi núi, điều thường thấy khi trượt tuyết. Tôi bắt đầu hoang mang…”, bà DeStefano kể lại.
Khi tiếng kêu cứu tiếp tục vang lên trong điện thoại, một giọng nam trầm bắt đầu ra lệnh: “Nghe đây. Tôi giữ con gái của cô. Nếu gọi cảnh sát hay bất cứ ai, tôi sẽ cho con bé dùng ma tuý hay mang nó đến Mexico và cô sẽ không bao giờ gặp lại con bé nữa”.
Bà DeStefano cho biết cảm giác lúc đó như chết lặng. Sau đó, bà chạy vào phòng tập khiêu vũ la hét cầu cứu.
Tội phạm sử dụng AI giả giọng nói lừa đảo người dùng (Ảnh minh họa) |
Kẻ bắt cóc đòi số tiền chuộc lên tới 1 triệu USD. Sau một lúc thương lượng, chúng đồng ý hạ mức tiền chuộc xuống 50.000 USD và hướng dẫn cách chuyển tiền. Một phụ huynh tại phòng tập khiêu vũ thuyết phục bà DeStefano đang bị lừa nhưng không thành công.
“Tôi không tin vì âm thanh quá chân thực”, bà DeStefano nói.
May mắn thay, âm mưu tống tiền đã đổ bể sau vài phút khi bà DeStefano liên lạc được với con gái mình. Giọng nói của cô con gái trong điện thoại chính là sản phẩm của trí tuệ nhân tạo (AI) và vụ bắt cóc hoàn toàn không có thật.
Tuy nhiên, bà DeStefano cho biết sẽ không bao giờ quên 4 phút kinh hoàng và hoảng loạn đó cũng như tiếng thất thanh kêu cứu trong điện thoại.
Lừa đảo AI tinh vi
Mạo danh, lừa đảo đã xuất hiện từ nhiều năm nay. Tuy nhiên, giới chuyên gia cảnh báo, những kẻ lừa đảo ngày càng tinh vi hơn khi được áp dụng nhiều công nghệ mới, trong đó có trí tuệ nhân tạo để giả giọng nói người thân.
Sự phát triển của các chương trình trí tuệ nhân tạo dễ tiếp cận và rẻ tiền đã cho phép những kẻ lừa đảo sao chép giọng nói và tạo ra các đoạn hội thoại nghe như thật.
Đơn cử như phần mềm AI sao chép giọng nói có chi phí chỉ 5 USD mỗi tháng. Phần mềm này cho phép mọi người dễ dàng tiếp cận. Hồi tháng 3, Ủy ban Thương mại Liên bang Mỹ (FTC) cảnh báo, kẻ lừa đảo có thể lấy file ghi âm từ các video đăng trên mạng xã hội của nạn nhân.
Ông Wasim Khaled, Giám đốc điều hành tại công ty Blackbird.AI chia sẻ: “Khả năng nhân bản giọng nói của AI hiện gần như không thể phân biệt được với giọng nói thật của con người. Yếu tố này cho phép những kẻ lừa đảo lấy thông tin và tiền từ nạn nhân một cách hiệu quả hơn”.
Chiêu trò giả giọng nói người thân khiến nhiều người bị lừa (Ảnh minh họa) |
Theo ông Khaled, lệnh tìm kiếm đơn giản trên mạng Internet đã đề xuất rất nhiều ứng dụng có sẵn, miễn phí để tạo giọng nói AI chỉ bằng một đoạn ghi âm nguyên mẫu ngắn, thậm chí chỉ kéo dài vài giây. Hậu quả, giọng nói thật của một người có thể dễ dàng bị đánh cắp từ phần nội dung mà họ đăng trực tuyến.
Do đó, chỉ với một mẫu âm thanh nhỏ, bản sao giọng nói AI có thể bị lợi dụng để gửi thư thoại và văn bản thoại. Thậm chí, nó có thể được sử dụng như một công cụ thay đổi giọng nói trực tiếp trong các cuộc gọi điện thoại.
Những kẻ lừa đảo còn có thể sử dụng các giọng nói của giới tính khác nhau hoặc bắt chước cách nói của những người thân nạn nhân.
Trong một cuộc khảo sát toàn cầu trên 7.000 người ở 9 quốc gia, trong đó có Mỹ, cứ 4 người thì có một trường hợp cho biết đã từng bị lừa đảo bằng giọng nói AI hoặc biết đến một người từng bị lừa đảo theo cách đó.
70% số người được hỏi cho biết họ không tự tin mình có thể phân biệt được sự khác biệt giữa giọng nói nhân bản và giọng nói thật.
Theo thống kê Cục Điều tra Liên bang Mỹ, trung bình các gia đình tại xứ sở cờ hoa đã mất 11.000 USD cho mỗi cuộc gọi lừa đảo.
Người dân Mỹ đã mất tổng cộng 2,6 tỷ USD vì các cuộc gọi lừa đảo trong năm 2022 theo thống kê của Ủy ban Thương mại Liên bang Mỹ.