deepfake lừa đảo bằng giọng nói 7 18
 Nhân bản giọng nói của ai đó dễ dàng hơn bao giờ hết. D-Keine/iStock qua Getty Images

Bạn vừa trở về nhà sau một ngày dài làm việc và chuẩn bị ngồi xuống ăn tối thì đột nhiên điện thoại của bạn bắt đầu rung lên. Ở đầu bên kia là một người thân yêu, có thể là cha mẹ, con cái hoặc một người bạn thời thơ ấu, đang cầu xin bạn gửi tiền cho họ ngay lập tức.

Bạn đặt câu hỏi cho họ, cố gắng hiểu. Có điều gì đó không ổn về câu trả lời của họ, hoặc mơ hồ hoặc khác thường, và đôi khi có độ trễ đặc biệt, gần như thể họ đang suy nghĩ hơi chậm. Tuy nhiên, bạn chắc chắn rằng đó chắc chắn là người thân yêu của bạn đang nói: Đó là giọng nói của họ mà bạn nghe thấy và ID người gọi đang hiển thị số của họ. Phấn khích trước sự hoang mang kỳ lạ của họ, bạn nghiêm túc gửi tiền vào tài khoản ngân hàng mà họ cung cấp cho bạn.

Ngày hôm sau, bạn gọi lại cho họ để đảm bảo rằng mọi thứ đều ổn. Người thân yêu của bạn không biết bạn đang nói về cái gì. Đó là bởi vì họ chưa bao giờ gọi cho bạn – bạn đã bị lừa bởi công nghệ: một giọng nói giả sâu. Hàng ngàn người đã lừa đảo theo cách này vào năm 2022.

Khả năng sao chép giọng nói của một người ngày càng nằm trong tầm với của bất kỳ ai có máy tính.


đồ họa đăng ký nội tâm


 

As bảo mật máy tính nhà nghiên cứu, chúng tôi thấy rằng những tiến bộ không ngừng trong các thuật toán học sâu, kỹ thuật và chỉnh sửa âm thanh cũng như tạo giọng nói tổng hợp có nghĩa là ngày càng có thể thuyết phục mô phỏng giọng nói của một người.

Tệ hơn nữa, các chatbot như ChatGPT đang bắt đầu tạo các tập lệnh thực tế với phản hồi thời gian thực thích ứng. Qua kết hợp các công nghệ này với việc tạo giọng nói, một deepfake đi từ một bản ghi tĩnh thành một hình đại diện trực tiếp, sống động như thật có thể trò chuyện qua điện thoại một cách thuyết phục.

Nhân bản giọng nói

Tạo ra một deepfake chất lượng cao hấp dẫn, dù là video hay âm thanh, không phải là điều dễ dàng thực hiện. Nó đòi hỏi nhiều kỹ năng nghệ thuật và kỹ thuật, phần cứng mạnh mẽ và một mẫu giọng mục tiêu khá lớn.

Ngày càng có nhiều dịch vụ cung cấp cho sản xuất bản sao giọng nói chất lượng trung bình đến cao với một khoản phívà một số công cụ deepfake giọng nói cần một mẫu chỉ dài một phút, hoặc thậm chí chỉ một vài giây, để tạo ra một bản sao giọng nói có thể đủ thuyết phục để đánh lừa ai đó. Tuy nhiên, để thuyết phục một người thân yêu – chẳng hạn như sử dụng trong một vụ lừa đảo mạo danh – có thể sẽ cần một mẫu lớn hơn đáng kể.

Các nhà nghiên cứu đã có thể sao chép giọng nói chỉ với XNUMX giây ghi âm.

 

Bảo vệ chống lừa đảo và thông tin sai lệch

Với tất cả những gì đã nói, chúng tôi ở Dự án DeFake của Viện Công nghệ Rochester, Đại học Mississippi và Đại học Bang Michigan, cùng các nhà nghiên cứu khác đang nỗ lực làm việc để có thể phát hiện các video và âm thanh giả sâu, đồng thời hạn chế tác hại mà chúng gây ra. Ngoài ra còn có những hành động đơn giản và hàng ngày mà bạn có thể thực hiện để bảo vệ chính mình.

Để bắt đầu, lừa đảo bằng giọng nói, hay lừa đảo “vishing”, như trò lừa đảo được mô tả ở trên là những trò lừa đảo có khả năng xảy ra sâu nhất bằng giọng nói mà bạn có thể gặp phải trong cuộc sống hàng ngày, cả ở nơi làm việc và ở nhà. Năm 2019, một Công ty năng lượng bị lừa 243,000 USD khi bọn tội phạm mô phỏng giọng nói của ông chủ công ty mẹ để ra lệnh cho một nhân viên chuyển tiền cho một nhà cung cấp. Vào năm 2022, mọi người đã bị lừa trong số tiền ước tính 11 triệu đô la bằng giọng nói mô phỏng, bao gồm các kết nối cá nhân, gần gũi.

Những gì bạn có thể làm gì?

Hãy chú ý đến các cuộc gọi bất ngờ, ngay cả từ những người bạn biết rõ. Điều này không có nghĩa là bạn cần lên lịch cho mọi cuộc gọi, nhưng ít nhất nó sẽ giúp gửi email hoặc nhắn tin trước. Ngoài ra, đừng dựa vào ID người gọi, vì cái đó cũng có thể bị làm giả. Ví dụ: nếu bạn nhận được cuộc gọi từ người tự xưng là đại diện cho ngân hàng của mình, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận tính hợp pháp của cuộc gọi. Đảm bảo sử dụng số bạn đã viết ra, lưu trong danh sách liên hệ của bạn hoặc bạn có thể tìm thấy trên Google.

Ngoài ra, hãy cẩn thận với thông tin nhận dạng cá nhân của bạn, như số An sinh xã hội, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái và thú cưng của bạn. Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn với ngân hàng, người môi giới và những người khác, làm giàu cho bản thân trong khi khiến bạn phá sản hoặc hủy hoại tín dụng của bạn.

Đây là một lời khuyên khác: biết chính mình. Cụ thể, hãy biết những thành kiến ​​và điểm yếu về trí tuệ và cảm xúc của bạn. Đây là lời khuyên tốt trong cuộc sống nói chung, nhưng nó là chìa khóa để bảo vệ bạn khỏi bị thao túng. Những kẻ lừa đảo thường tìm cách nói ra và sau đó lợi dụng những lo lắng về tài chính, những ràng buộc chính trị của bạn hoặc những khuynh hướng khác, bất kể những điều đó có thể là gì.

Sự cảnh giác này cũng là một biện pháp bảo vệ hợp lý chống lại thông tin sai lệch bằng cách sử dụng các âm thanh sâu bằng giọng nói. Deepfakes có thể được sử dụng để tận dụng lợi thế của bạn thiên vị xác nhận, hoặc những gì bạn có khuynh hướng tin tưởng về ai đó.

Nếu bạn nghe thấy một người quan trọng, cho dù từ cộng đồng của bạn hay chính phủ, nói điều gì đó có vẻ không bình thường đối với họ hoặc xác nhận những nghi ngờ tồi tệ nhất của bạn về họ, thì bạn nên thận trọng.Conversation

Giới thiệu về tác giả

Matthew Wright, Giáo sư An ninh Máy tính, Học viện Công nghệ Rochester Christopher Schwartz, Cộng tác viên nghiên cứu sau tiến sĩ về bảo mật máy tính, Học viện Công nghệ Rochester

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.