giả dối sâu sắc gieo nghi ngờ 4 14
 Công nghệ có thể sản xuất bánh sâu được phổ biến rộng rãi. (Shutterstock)

Vào đầu tháng XNUMX, một video thao túng Tổng thống Ukraine Volodymyr Zelenskyy được đưa vào vòng quanh. Trong đó, một Zelenskyy được tạo kỹ thuật số đã yêu cầu quân đội quốc gia Ukraine đầu hàng. Đoạn video đã được lan truyền trực tuyến nhưng nhanh chóng bị lật tẩy là một đoạn phim sâu - một video siêu thực nhưng giả và bị thao túng được sản xuất bằng trí thông minh nhân tạo.

Mặc dù thông tin sai lệch của Nga dường như đang có tác động hạn chế, nhưng ví dụ đáng báo động này đã minh họa những hậu quả tiềm ẩn của việc đào sâu.

Tuy nhiên, deepfakes đang được sử dụng thành công trong công nghệ hỗ trợ. Ví dụ, những người bị bệnh Parkinson có thể sử dụng nhân bản giọng nói để giao tiếp.

Deepfakes được sử dụng trong giáo dục: Công ty tổng hợp giọng nói CereProc có trụ sở tại Ireland đã tạo ra một giọng nói tổng hợp cho John F. Kennedy, đưa anh ta trở lại cuộc sống để đọc bài phát biểu lịch sử của mình.


đồ họa đăng ký nội tâm


Tuy nhiên, đồng tiền nào cũng có hai mặt. Deepfakes có thể siêu thực tế và về cơ bản không thể phát hiện bằng mắt người.

Do đó, công nghệ nhân bản giọng nói tương tự có thể được sử dụng để lừa đảo, nói xấu và tống tiền. Khi những trò lừa đảo được cố tình triển khai để định hình lại dư luận, kích động xung đột xã hội và thao túng các cuộc bầu cử, chúng có khả năng phá hoại nền dân chủ.

Các nhà nghiên cứu tại Đại học Washington đã nghiên cứu sâu sắc về Barack Obama.

Gây hỗn loạn

Deepfakes dựa trên công nghệ được gọi là mạng lưới nghịch cảnh trong đó hai thuật toán huấn luyện lẫn nhau để tạo ra hình ảnh.

Mặc dù công nghệ đằng sau hàng giả sâu sắc nghe có vẻ phức tạp, nhưng để sản xuất ra nó là một vấn đề đơn giản. Có rất nhiều ứng dụng trực tuyến như Hoán đổi khuôn mặtHoán đổi sâu ZAO có thể tạo ra các món ăn sâu trong vòng vài phút.

Google Colaboratory - một kho lưu trữ trực tuyến cho mã bằng một số ngôn ngữ lập trình - bao gồm các ví dụ về mã có thể được sử dụng để tạo hình ảnh và video giả. Với phần mềm có thể truy cập này, thật dễ dàng để thấy người dùng trung bình có thể tàn phá như thế nào với các trò chơi sâu mà không nhận ra các rủi ro bảo mật tiềm ẩn.

Sự phổ biến của các ứng dụng hoán đổi khuôn mặt và các dịch vụ trực tuyến như Nỗi nhớ sâu sắc cho thấy công chúng có thể chấp nhận deepfakes nhanh chóng và rộng rãi như thế nào. Trong năm 2019, khoảng 15,000 video sử dụng deepfakes đã được phát hiện. Và con số này dự kiến ​​sẽ còn tăng lên.

Deepfakes là công cụ hoàn hảo cho các chiến dịch thông tin sai lệch vì chúng tạo ra những tin tức giả đáng tin cậy và cần thời gian để gỡ rối. Trong khi đó, những thiệt hại do lừa đảo gây ra - đặc biệt là những thiệt hại ảnh hưởng đến uy tín của con người - thường kéo dài và không thể phục hồi.

Nhìn thấy có tin không?

Có lẽ sự phân chia nguy hiểm nhất của những trò lừa đảo sâu sắc là cách chúng tự cho mình những thông tin sai lệch trong các chiến dịch chính trị.

Chúng tôi đã thấy điều này khi Donald Trump chỉ định bất kỳ bài đưa tin không hay ho nào trên phương tiện truyền thông là “tin tức giả mạo. ” Bằng cách cáo buộc những người chỉ trích mình lưu hành tin tức giả mạo, Trump đã có thể sử dụng thông tin sai lệch để bào chữa cho những hành vi sai trái của mình và như một công cụ tuyên truyền.

Chiến lược của Trump cho phép anh ta duy trì sự ủng hộ trong một môi trường đầy sự ngờ vực và thông tin sai lệch bằng cách tuyên bố "rằng các sự kiện và câu chuyện có thật là tin tức giả mạo hoặc những câu chuyện sâu sắc".

Uy tín đối với các cơ quan chức năng và các phương tiện truyền thông đang bị suy giảm, tạo ra một bầu không khí mất lòng tin. Và với sự gia tăng của các vụ lừa đảo sâu sắc, các chính trị gia có thể dễ dàng phủ nhận tội ác trong bất kỳ vụ bê bối nào đang nổi lên. Làm cách nào để xác nhận danh tính của ai đó trong video nếu họ phủ nhận điều đó?

Tuy nhiên, chống lại thông tin sai lệch luôn là một thách thức đối với các nền dân chủ khi họ cố gắng duy trì quyền tự do ngôn luận. Quan hệ đối tác giữa Con người-AI có thể giúp đối phó với nguy cơ gia tăng của các vụ lừa đảo sâu bằng cách yêu cầu mọi người xác minh thông tin. Cũng có thể xem xét áp dụng luật mới hoặc áp dụng luật hiện hành để trừng phạt những người sản xuất deepfakes vì ​​làm sai lệch thông tin và mạo danh mọi người.

Các phương pháp tiếp cận đa ngành của các chính phủ quốc tế và quốc gia, các công ty tư nhân và các tổ chức khác đều rất quan trọng để bảo vệ các xã hội dân chủ khỏi thông tin sai lệch.Conversation

Giới thiệu về Tác giả

Lý Tư Phong, Trợ lý Nghiên cứu, Phòng Nghiên cứu Thông tin, Đại học McGillBenjamin CM Fung, Giáo sư và Chủ tịch nghiên cứu Canada về Khai thác dữ liệu cho an ninh mạng, Đại học McGill

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.