Trí tuệ nhân tạo bây giờ có thể mô phỏng các hành vi của con người và nó sẽ sớm trở nên tốt đẹpCó phải khuôn mặt này chỉ là một tập hợp các bit máy tính? PHOTOCREO Michal Bednarek / Shutterstock.com

Khi các hệ thống trí tuệ nhân tạo bắt đầu sáng tạo, chúng có thể tạo ra những thứ tuyệt vời - và những thứ đáng sợ. Lấy ví dụ, một chương trình AI cho phép người dùng web soạn nhạc cùng với một ảo Johann Sebastian Bach bằng cách nhập ghi chú vào một chương trình tạo ra các hòa âm giống như Bach để khớp với chúng.

Điều hành bởi Google, ứng dụng đã vẽ tuyệt vời khen ngợi để được đột phá và vui chơi với. Nó cũng thu hút chỉ tríchvà nêu lên mối lo ngại về sự nguy hiểm của AI.

Tôi học như thế nào công nghệ mới nổi ảnh hưởng đến cuộc sống của mọi người đã dạy tôi rằng những vấn đề vượt ra ngoài mối quan tâm lớn được thừa nhận về thuật toán thực sự có thể tạo nhạc hoặc nghệ thuật nói chung. Một số khiếu nại có vẻ nhỏ, nhưng thực sự không, như quan sát rằng AI của Google là phá vỡ các quy tắc cơ bản của thành phần âm nhạc.

Trên thực tế, những nỗ lực để máy tính bắt chước hành vi của những người thực tế có thể gây nhầm lẫn và có khả năng gây hại.


đồ họa đăng ký nội tâm


Công nghệ mạo danh

Chương trình của Google đã phân tích các nốt trong 306 của các tác phẩm âm nhạc của Bach, tìm mối quan hệ giữa giai điệu và các nốt mang lại sự hòa âm. Vì Bach tuân theo các quy tắc nghiêm ngặt về thành phần, chương trình đã học hiệu quả các quy tắc đó, vì vậy nó có thể áp dụng chúng khi người dùng cung cấp ghi chú của riêng họ.

 Nhóm Google Doodle giải thích chương trình Bach.

{youtube}XBfYPp6KF2g{/youtube}

Bản thân ứng dụng Bach là mới, nhưng công nghệ cơ bản thì không. Các thuật toán được đào tạo để nhận dạng các mẫu và làm quyết định xác suất đã tồn tại trong một thời gian dài. Một số thuật toán này phức tạp đến mức mọi người không phải lúc nào cũng hiểu làm thế nào họ đưa ra quyết định hoặc tạo ra một kết quả cụ thể.

Hệ thống AI không hoàn hảo - nhiều người trong số họ dựa vào dữ liệu không đại diện của toàn bộ dân số, hoặc đó là chịu ảnh hưởng của thiên kiến ​​con người. Nó không hoàn toàn rõ ràng ai có thể chịu trách nhiệm pháp lý khi một hệ thống AI gây ra lỗi hoặc gây ra sự cố.

Tuy nhiên, giờ đây, các công nghệ trí tuệ nhân tạo đang trở nên đủ tiên tiến để có thể ước chừng phong cách viết hoặc nói của cá nhân và thậm chí là biểu cảm khuôn mặt. Điều này không phải lúc nào cũng xấu: Một AI khá đơn giản đã cho Stephen Hawking Khả năng giao tiếp hiệu quả hơn với những người khác bằng cách dự đoán những từ anh ta sẽ sử dụng nhiều nhất.

Các chương trình phức tạp hơn bắt chước giọng nói của con người hỗ trợ người khuyết tật - nhưng cũng có thể được sử dụng để đánh lừa người nghe. Ví dụ, các nhà sản xuất của Lyrebird, một chương trình bắt chước giọng nói, đã phát hành một cuộc trò chuyện mô phỏng giữa Barack Obama, Donald Trump và Hillary Clinton. Nghe có vẻ thật, nhưng sự trao đổi đó không bao giờ xảy ra.

Từ tốt đến xấu

Vào tháng 2 2019, công ty phi lợi nhuận OpenAI đã tạo ra một chương trình tạo văn bản hầu như không thể phân biệt với văn bản được viết bởi mọi người. Nó có thể viết một bài phát biểu theo phong cách John F. Kennedy, JRR Tolkien tại HoaChúa tể của những chiếc nhẫnNgười hay học sinh viết một bài tập về trường Nội chiến Hoa Kỳ.

Văn bản được tạo bởi phần mềm của OpenAI rất đáng tin cậy mà công ty đã chọn không được phát hành chương trình chính nó.

Công nghệ tương tự có thể mô phỏng hình ảnh và video. Vào đầu 2018, chẳng hạn, diễn viên và nhà làm phim Jordan Peele đã tạo ra một video xuất hiện để cho thấy cựu Tổng thống Hoa Kỳ Barack Obama nói những điều Obama chưa bao giờ thực sự nói để cảnh báo công chúng về những nguy hiểm do các công nghệ này gây ra.

Hãy cẩn thận những video bạn tin.

{youtube}cQ54GDm1eL0{/youtube}

Vào đầu 2019, một ảnh khỏa thân giả của Đại diện Hoa Kỳ Alexandria Ocasio-Cortez lưu hành trực tuyến. Video chế tạo, thường được gọi là "deepfakes, Trực tiếp dự kiến ​​sẽ được lên đã sử dụng trong các chiến dịch bầu cử.

Thành viên quốc hội đã bắt đầu xem xét vấn đề này trước cuộc bầu cử 2020. Bộ Quốc phòng Hoa Kỳ đang giảng dạy cho công chúng làm thế nào để phát hiện ra các video đã được chỉnh sửa và âm thanh. Tổ chức tin tức như Reuters đang bắt đầu đào tạo các nhà báo để phát hiện ra các hố sâu.

Nhưng, theo quan điểm của tôi, một mối quan tâm thậm chí còn lớn hơn: Người dùng có thể không thể học đủ nhanh để phân biệt nội dung giả khi công nghệ AI trở nên tinh vi hơn. Chẳng hạn, khi công chúng bắt đầu nhận thức sâu sắc, AI đã được sử dụng cho những sự lừa dối thậm chí còn tiên tiến hơn. Hiện tại có các chương trình có thể tạo ra khuôn mặt giảdấu vân tay kỹ thuật số giả, tạo hiệu quả thông tin cần thiết để chế tạo toàn bộ một người - ít nhất là trong hồ sơ của công ty hoặc chính phủ.

Máy tiếp tục học

Hiện tại, có đủ lỗi tiềm ẩn trong các công nghệ này để cung cấp cho mọi người cơ hội phát hiện các chế tạo kỹ thuật số. Nhà soạn nhạc Bach của Google mắc một số sai lầm một chuyên gia có thể phát hiện. Ví dụ: khi tôi dùng thử, chương trình cho phép tôi nhập thứ năm song song, một quãng nhạc mà Bach tránh né. Ứng dụng này cũng phá vỡ quy tắc âm nhạc của điểm phản ứng bằng cách hòa âm các giai điệu trong phím sai. Tương tự, chương trình tạo văn bản của OpenAI thỉnh thoảng viết các cụm từ nhưhỏa hoạn xảy ra dưới nướcĐiều đó không có ý nghĩa trong bối cảnh của họ.

Khi các nhà phát triển làm việc dựa trên sáng tạo của họ, những sai lầm này sẽ trở nên hiếm hơn. Hiệu quả, các công nghệ AI sẽ phát triển và học hỏi. Hiệu suất được cải thiện có khả năng mang lại nhiều lợi ích xã hội - bao gồm chăm sóc sức khỏe tốt hơn, vì các chương trình AI giúp dân chủ hóa việc hành nghề y.

Cho phép các nhà nghiên cứu và các công ty tự do khám phá, để tìm kiếm những thành tựu tích cực này từ các hệ thống AI, có nghĩa là mở ra nguy cơ phát triển các cách thức tiên tiến hơn để tạo ra sự lừa dối và các vấn đề xã hội khác. Hạn chế nghiêm trọng nghiên cứu AI có thể kiềm chế sự tiến bộ đó. Nhưng đưa ra các công nghệ có lợi phòng để phát triển đến với chi phí không nhỏ - và khả năng lạm dụng, cho dù tạo ra âm nhạc không chính xác của Nhạc Bạch hay đánh lừa hàng triệu người, có khả năng phát triển theo cách mọi người chưa thể lường trước.Conversation

Giới thiệu về Tác giả

Ana Santos Rutschman, Trợ lý Giáo sư Luật, Đại học Saint Louis

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.

Sách liên quan

at Thị trường InnerSelf và Amazon