chatGPT
Một nhóm các nhà khoa học máy tính nổi tiếng và những người nổi tiếng khác trong ngành công nghệ đang kêu gọi tạm dừng công nghệ trí tuệ nhân tạo trong sáu tháng. (Shutterstock)

Một bức thư ngỏ gần đây của các nhà khoa học máy tính và các nhà lãnh đạo ngành công nghệ kêu gọi cấm phát triển trí tuệ nhân tạo trong sáu thángnhận được sự quan tâm rộng rãi trên mạng. Ngay cả Bộ trưởng Đổi mới của Canada François-Philippe Champagne đã trả lời bức thư trên Twitter.

Bức thư được xuất bản bởi tổ chức phi lợi nhuận Future of Life Institute, đã yêu cầu tất cả các phòng thí nghiệm AI ngừng đào tạo các hệ thống AI mạnh hơn GPT-4, mô hình đằng sau ChatGPT. Bức thư lập luận rằng AI đã “bị khóa trong một cuộc chạy đua ngoài tầm kiểm soát để phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai — kể cả người tạo ra chúng — có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy.”

Bức thư giả định rằng AI đang trở thành, hoặc có thể trở thành, “những bộ óc kỹ thuật số mạnh mẽ” - một giải thích dài hạn về sự phát triển của AI việc này bỏ qua các cuộc tranh luận quan trọng về AI ngày nay thay cho các mối quan tâm trong tương lai.

Chủ nghĩa dài hạn và AI

Chủ nghĩa dài hạn là niềm tin rằng trí tuệ nhân tạo gây ra những rủi ro lâu dài hoặc hiện hữu cho tương lai của nhân loại bằng cách trở thành một siêu trí tuệ ngoài tầm kiểm soát.


innerself subscribe graphic


Lo lắng về AI siêu thông minh thường là chuyện khoa học viễn tưởng. tưởng tượng AI là một trong nhiều nỗi sợ hãi ở Thung lũng Silicon điều đó có thể dẫn đến những lời tiên tri đen tối. Nhưng giống như meme đau khổ Nexus, những lo lắng chuyển thành đầu tư lớn không thận trọng. Hầu hết các hãng công nghệ lớn đều có cắt giảm các đội AI chịu trách nhiệm của họ.

ChatGPT rõ ràng không phải là con đường dẫn đến siêu trí tuệ. Bức thư ngỏ coi công nghệ ngôn ngữ AI như ChatGPT là một bước đột phá về nhận thức — thứ cho phép AI cạnh tranh với con người trong các nhiệm vụ chung. Nhưng đó chỉ là một ý kiến.

Có nhiều người khác coi ChatGPT, mô hình GPT-4 của nó và các mô hình học ngôn ngữ khác là “vẹt ngẫu nhiên” mà chỉ lặp lại những gì họ học trực tuyến để họ xuất hiện thông minh đối với con người.

Điểm mù của siêu trí tuệ

Chủ nghĩa dài hạn có ý nghĩa chính sách trực tiếp ưu tiên siêu trí tuệ hơn các vấn đề cấp bách hơn như Sự mất cân bằng sức mạnh của AI. Một số người ủng hộ chủ nghĩa dài hạn thậm chí còn coi quy định ngăn chặn siêu trí tuệ cấp bách hơn là giải quyết tình trạng khẩn cấp về khí hậu.

Ý nghĩa chính sách AI là ngay lập tức, không phải là vấn đề xa vời. Bởi vì GPT-4 được đào tạo trên toàn bộ internet và có mục đích thương mại rõ ràng, nó đặt ra câu hỏi về giao dịch hợp lý và sử dụng hợp lý.

Chúng tôi vẫn không biết liệu các văn bản và hình ảnh do AI tạo ra có bản quyền hay không ngay từ đầu, vì máy móc và động vật không giữ được bản quyền.

Và khi nói đến vấn đề quyền riêng tư, cách tiếp cận của ChatGPT rất khó phân biệt với một ứng dụng AI khác, AI của Clearview. Cả hai mô hình AI đều được đào tạo bằng cách sử dụng một lượng lớn thông tin cá nhân được thu thập trên internet mở. Cơ quan bảo vệ dữ liệu của Ý vừa cấm ChatGPT vì những lo ngại về quyền riêng tư.

Những rủi ro trước mắt này không được đề cập trong bức thư ngỏ, nó xoay chuyển giữa triết lý hoang dã và các giải pháp kỹ thuật, bỏ qua các vấn đề ngay trước mắt chúng ta.

Đắm chìm chủ nghĩa thực dụng

Bức thư theo sau một động lực cũ mà đồng tác giả của tôi và tôi xác định trong một chương đánh giá ngang hàng sắp tới về quản trị AI. Có xu hướng coi AI là một rủi ro hiện hữu hoặc một thứ gì đó trần tục và kỹ thuật.

Sự căng thẳng giữa hai thái cực này được thể hiện trong bức thư ngỏ. Bức thư bắt đầu bằng tuyên bố “AI tiên tiến có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất” trước khi kêu gọi “tài trợ công mạnh mẽ cho nghiên cứu an toàn AI kỹ thuật”. Điều thứ hai cho thấy tác hại xã hội của AI chỉ là các dự án kỹ thuật cần được giải quyết.

Việc tập trung vào hai thái cực này lấn át những tiếng nói quan trọng đang cố gắng thảo luận một cách thực tế về những rủi ro trước mắt của AI được đề cập ở trên cũng như vấn đề lao động và nhiều hơn nữa.

Sự chú ý dành cho bức thư ngỏ đặc biệt có vấn đề ở Canada bởi vì hai bức thư khác, được viết bởi nghệ sĩtổ chức tự do dân sự, đã không nhận được cùng một sự chú ý. Những bức thư này kêu gọi cải cách và cách tiếp cận mạnh mẽ hơn đối với quản trị AI để bảo vệ những người bị ảnh hưởng bởi nó.

Một sự phân tâm không cần thiết đối với luật AI

Phản hồi của chính phủ đối với bức thư ngỏ đã nhấn mạnh rằng Canada có luật — Đạo luật Dữ liệu và Trí tuệ Nhân tạo (AIDA). Những rủi ro dài hạn của AI đang được sử dụng để thúc đẩy luật pháp hiện nay như AIDA.

AIDA là một bước quan trọng hướng tới một chế độ quản trị AI phù hợp, nhưng nó cần tham khảo ý kiến ​​tốt hơn với những người bị ảnh hưởng bởi AI trước khi được thực hiện. Nó không thể vội vàng để đáp ứng với những nỗi sợ hãi lâu dài được nhận thức.

Bức thư kêu gọi thúc đẩy luật AI có thể sẽ mang lại lợi ích cho chính một số công ty đang thúc đẩy nghiên cứu AI ngày nay. Nếu không có thời gian để tham khảo ý kiến, nâng cao kiến ​​thức cộng đồng và lắng nghe những người bị ảnh hưởng bởi AI, AIDA có nguy cơ chuyển giao trách nhiệm giải trình và kiểm toán của AI cho các tổ chức đã có vị trí tốt để hưởng lợi từ công nghệ, tạo ra thị trường cho ngành kiểm toán AI mới.

Số phận của nhân loại có thể không bị đe dọa, nhưng khả năng quản trị tốt của AI chắc chắn là như vậy.The Conversation

Giới thiệu về Tác giả

Fenwick McKelvey, Phó Giáo sư về Chính sách Công nghệ Thông tin và Truyền thông, đại học Concordia

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.