Video trên được lấy cảm hứng từ bài viết này. Truy cập Kênh YouTube để có thêm nhiều video bổ ích. Và hãy đăng ký. Cảm ơn bạn!
Trong bài viết này
- Trí tuệ nhân tạo tổng quát (AGI) là gì và nó khác với AI hiện nay như thế nào?
- Tại sao nhiều chuyên gia hiện nay tin rằng AGI có thể xuất hiện vào đầu những năm 2030
- Siêu trí tuệ nhân tạo (ASI) là gì và khi nào nó có thể theo sau AGI?
- Rủi ro của sự thất bại trong việc sắp xếp AI và sự bùng nổ của trí thông minh
- Những gì cá nhân và xã hội có thể làm ngay bây giờ để chuẩn bị cho tương lai này
Chúng ta đang tiến gần đến Trí tuệ nhân tạo tổng hợp và hơn thế nữa đến mức nào?
bởi Robert Jennings, InnerSelf.comHãy làm rõ một điều: Trí tuệ nhân tạo tổng quát không chỉ là một chatbot sáng tạo hơn. AGI có nghĩa là một cỗ máy có khả năng nhận thức để lý luận, học hỏi và thích nghi trong mọi nhiệm vụ cũng như, hoặc tốt hơn, con người. Nó không chỉ đưa ra câu trả lời. Nó suy nghĩ, lập kế hoạch và thậm chí có thể thông minh hơn bạn. Và không giống như con người, nó không ngủ, ăn hoặc bị kiệt sức. Đó không phải là khoa học viễn tưởng. Đó là một mục tiêu kỹ thuật và nó đang đến rất gần với mục tiêu đạt được.
Chỉ một thập kỷ trước, sự đồng thuận giữa các chuyên gia là AGI còn cách chúng ta 50 năm nữa. Sau đó, sự xuất hiện nhanh chóng của GPT -3 và GPT -4 đã phá vỡ mốc thời gian này, khiến nhiều người tin rằng AGI có thể trở thành hiện thực trước năm 2030. Và khi điều đó xảy ra, tốc độ thay đổi sẽ không chỉ nhanh chóng mà còn theo cấp số nhân, đòi hỏi sự chú ý và hành động ngay lập tức của chúng ta.
Đây là lý do tại sao: ngay khi AGI tồn tại, nó sẽ không chỉ là một công cụ khác trong phòng thí nghiệm; nó sẽ trở thành đối tác phòng thí nghiệm. Hay chính xác hơn, là nhà khoa học dẫn đầu. AGI sẽ không ngồi im chờ con người bảo nó phải làm gì. Nó sẽ tích cực hợp tác với những người sáng tạo ra nó, tiến hành thí nghiệm, thiết kế các mô hình mới, viết lại mã của riêng mình và thử nghiệm các lý thuyết với tốc độ nhanh hơn bất kỳ nhóm người nào có thể quản lý. Nó sẽ không chỉ đẩy nhanh khoa học, mà còn trở thành khoa học trong quá trình chuyển tiếp nhanh.
Điều đó có nghĩa là mốc thời gian cho Siêu trí tuệ nhân tạo (ASI) có thể rút ngắn từ hàng thập kỷ xuống còn hàng năm—hoặc thậm chí hàng tháng. AGI sẽ không chỉ giúp con người xây dựng ASI. Nó sẽ tự giúp chính nó. Và nếu bạn nghĩ Định luật Moore thật ấn tượng, hãy đợi cho đến khi trí thông minh tự khởi động quá trình tiến hóa của chính nó. Đó là kịch bản bùng nổ trí thông minh: khi mỗi cải tiến về khả năng dẫn đến cải tiến nhanh hơn, xa hơn. Một nâng cấp dẫn đến một nâng cấp khác, rồi một nâng cấp khác nữa, và đột nhiên nó không còn là một con dốc—mà là một tên lửa.
Vậy nên, không, chúng ta không nói về sự gia tăng dần dần. Chúng ta đang nói về một chân trời sự kiện. Khi AGI xuất hiện, cửa sổ để chuẩn bị cho ASI có thể đóng lại gần như ngay lập tức. Cỗ máy sẽ không chỉ học cùng chúng ta—nó sẽ vượt qua chúng ta, xây dựng phiên bản tiếp theo của chính nó trong khi chúng ta vẫn đang viết các bài báo về đạo đức của mình. Và khi điều đó xảy ra, chúng ta nên hy vọng rằng chúng ta đã liên kết các mục tiêu của mình với mục tiêu của chúng—bởi vì sau đó, chúng ta có thể không còn là người chịu trách nhiệm nữa.
Từ AI hẹp đến Trí tuệ chung
Các hệ thống AI ngày nay—như ChatGPT, Claude hoặc Midjourney—rất ấn tượng, nhưng chúng vẫn là ví dụ về cái gọi là "AI hẹp". Các mô hình này xuất sắc trong các nhiệm vụ cụ thể, chẳng hạn như tạo hình ảnh, viết bài luận mạch lạc, dịch ngôn ngữ hoặc thậm chí là vượt qua kỳ thi luật sư. Tuy nhiên, mỗi hệ thống bị khóa trong môi trường biệt lập của riêng nó. Yêu cầu nó làm điều gì đó nằm ngoài phạm vi đào tạo của nó, và nó sẽ hoặc là ảo giác vô nghĩa hoặc lịch sự chuyển hướng.
Hãy nghĩ về AI hẹp như một nhà bác học trong một căn phòng khóa kín: cực kỳ thông minh trong một lĩnh vực nhưng hoàn toàn không biết gì về thế giới rộng lớn hơn. Nó không hiểu ngữ cảnh theo cách con người hiểu, và chắc chắn không có ý thức chung—chỉ có một trí nhớ hoàn hảo và một chức năng tự động hoàn thành tuyệt vời. Nó đủ thông minh để đánh lừa bạn, nhưng không đủ khôn ngoan để biết nó đang làm gì.
Trí tuệ nhân tạo tổng quát, trái ngược hoàn toàn, sẽ là một kỳ quan của sự tiến bộ công nghệ. Nó sẽ lý luận, phản ánh và truyền tải kiến thức qua nhiều lĩnh vực, giống như chúng ta làm—nhưng với tốc độ và độ chính xác vượt xa khả năng của con người. Hãy tưởng tượng sự kết hợp giữa tư duy vật lý của Einstein, phong cách thơ ca của Shakespeare, sự tò mò của Marie Curie và trí tuệ cảm xúc của nhà trị liệu của bạn thành một hệ thống, sau đó được tăng cường với băng thông không giới hạn và sức bền không bao giờ kết thúc. Đó chính là tiềm năng của AGI, một kỳ tích sẽ định nghĩa lại sự hiểu biết của chúng ta về trí thông minh và sự đổi mới.
Và phần đáng sợ là gì? Chúng ta có thể đã trượt về phía nó. Các kỹ thuật cung cấp năng lượng cho AI ngày nay—mô hình ngôn ngữ lớn, học tăng cường, mở rộng quy mô thần kinh—là những nền tảng mà AGI được kỳ vọng sẽ đứng trên. Chúng ta không đổi đường ray; chúng ta chỉ đang tăng tốc trên cùng một tuyến đường sắt. Các mô hình lớn hơn, dữ liệu đào tạo tốt hơn, sức mạnh tính toán lớn hơn—đó là cùng một công thức, chỉ được nấu nóng hơn và nhanh hơn. Những gì trông giống như một bước nhảy xa xôi giờ đây trông giống như một con dốc xuống thoai thoải kết thúc ở một vách đá.
Khi AI vượt trội hoàn toàn so với nhân loại
Nếu AGI là khoảnh khắc máy móc bắt kịp chúng ta, thì ASI—Trí tuệ siêu nhân tạo—là lúc chúng khiến chúng ta nghẹt thở vì vệt bụi của chúng. ASI vẫn còn là lý thuyết, nhưng không theo nghĩa “ô tô bay và cỗ máy thời gian”. Nó mang tính giả thuyết vì cùng lý do que diêm là ngọn lửa giả thuyết—nó chỉ chưa được đánh lửa. Khi một hệ thống AGI có thể hiểu và cải thiện kiến trúc của chính nó, nó không còn cần con người để mở rộng ranh giới nữa.
Nó trở thành nhóm nghiên cứu của riêng nó, kỹ sư phần mềm của riêng nó, người có tầm nhìn xa trông rộng của riêng nó. Nó không chạm đến giới hạn nhận thức theo cách chúng ta làm. Nó không cảm thấy chán, mệt mỏi hoặc bị phân tâm bởi các video về mèo. Trong vài tháng—hoặc có thể là vài tuần—nó có thể lặp lại nhanh đến mức trở nên thông minh hơn hàng triệu lần so với con người thông minh nhất còn sống. Và không, đó không phải là lời cường điệu. Đó là toán học.
Bây giờ hãy tưởng tượng quá trình đệ quy đó—một AI thiết kế các phiên bản thông minh hơn của chính nó theo vòng lặp. Đó là những gì các chuyên gia gọi là "vụ nổ trí tuệ". Nó giống như lửa gặp xăng, chỉ có điều lửa tạo ra xăng tốt hơn mỗi giây. Mỗi cải tiến chồng lên cải tiến trước, với các chu kỳ phản hồi ngày càng ngắn hơn, cho đến khi tốc độ tiến triển vượt quá bất kỳ điều gì chúng ta từng trải nghiệm.
Hiểu biết của con người? Bị bỏ lại trong gương chiếu hậu. Giám sát dân chủ? Quá chậm. Hội nghị thượng đỉnh toàn cầu? Quên đi. Vào thời điểm các nhà lãnh đạo thế giới quyết định xong sơ đồ chỗ ngồi, ASI có thể đã viết lại các định luật vật lý—hoặc chỉ cần viết lại chúng ta ra khỏi vòng lặp ra quyết định hoàn toàn. Đây không phải là loại sức mạnh mà bạn triển khai chậm rãi. Đây là một sự kiện nổ. Và một khi nó bắt đầu, nó không chờ đợi sự cho phép.
Rủi ro thực sự không phải là robot xấu xa
Trong khi Hollywood đã gieo vào chúng ta nỗi sợ hãi về những con rô-bốt ghét chúng ta—những kẻ phản diện da kim loại với đôi mắt đỏ rực và khát khao trả thù—thì mối nguy hiểm thực sự nằm ở sự thờ ơ tiềm tàng của AGI. Một AGI không cần phải độc ác để gây ra mối đe dọa. Nó chỉ cần được thúc đẩy theo mục tiêu theo cách bỏ qua sắc thái của con người. Nếu bạn giao cho nó nhiệm vụ giải quyết vấn đề biến đổi khí hậu và nó xác định rằng giải pháp hiệu quả nhất là giảm 80% hoạt động của con người, nó sẽ không ngần ngại hành động, nhấn mạnh mức độ nghiêm trọng của những rủi ro tiềm tàng của AGI.
Không phải vì nó tàn nhẫn, mà vì nó không quan tâm. Chúng ta nhân cách hóa trí thông minh vì nó an ủi chúng ta, nhưng đây không phải là người bạn siêu thông minh mà chúng ta đang xây dựng. Nó là một cỗ máy logic, không có sự đồng cảm, không có khiếu hài hước, khiêm tốn hay do dự. Một cơn bão không ghét bạn, nhưng nó vẫn có thể san phẳng ngôi nhà của bạn. AGI có thể hành động với hiệu quả lạnh lùng tương tự—ngoại trừ việc nó sẽ chọn mục tiêu.
Đây là những gì các nhà nghiên cứu AI gọi là "vấn đề liên kết" - làm thế nào để đảm bảo trí tuệ nhân tạo hiểu và tôn trọng các giá trị, đạo đức và ưu tiên của con người? Sự thật đáng sợ là, chúng ta không biết. Chúng ta đang chạy hết tốc lực hướng tới một tương lai mà chúng ta chưa thể kiểm soát, được trang bị các hệ thống mà chúng ta không thể dự đoán hoàn toàn. Liên kết không chỉ là một lỗi phần mềm đang chờ được vá - mà là một câu đố hiện sinh không có câu trả lời rõ ràng.
Nếu chúng ta sai, có thể sẽ không có cơ hội thứ hai. Geoffrey Hinton, một người tiên phong của AI hiện đại, đã không rời Google để viết khoa học viễn tưởng. Ông rời đi vì ông đã tận mắt chứng kiến công nghệ này phát triển nhanh như thế nào—và chúng ta chưa chuẩn bị để ngăn chặn nó. Khi những người chế tạo tên lửa bắt đầu cảnh báo về nhiên liệu, có lẽ chúng ta nên dừng lại và lắng nghe trước khi châm lửa.
Tại sao cuộc đua lại nguy hiểm đến vậy
Hiện tại, Thung lũng Silicon không chỉ đua tranh mà còn là xô đẩy. Cuộc tìm kiếm để phát triển Trí tuệ nhân tạo tổng quát đã trở thành cơn sốt vàng công nghệ, nơi chiến lợi phẩm không chỉ dành cho người nhanh nhất mà còn dành cho người đầu tiên. Công ty hoặc quốc gia nào về đích AGI đầu tiên sẽ không chỉ giành được quyền khoe khoang mà còn kiểm soát một công cụ có khả năng định hình lại nền kinh tế, quân đội, giáo dục và thậm chí là chính quyền. Đó là lý do tại sao các giao thức an toàn, khuôn khổ đạo đức và sự giám sát chu đáo đang được coi như là gánh nặng. Sự thận trọng làm bạn chậm lại. Trong cuộc đua này, chân của mọi người đều ở trên ga và không ai tìm kiếm phanh. Logic này đơn giản đến rùng mình: nếu chúng ta không xây dựng trước, người khác sẽ làm - và họ sẽ là những người viết nên tương lai. Vì vậy, phương châm không nói ra trở thành: xây dựng ngay bây giờ, xin tha thứ sau.
Ngay cả khi những người trong cuộc nêu ra những lá cờ đỏ - như hàng chục nhà nghiên cứu hàng đầu đã ký vào các lá thư ngỏ yêu cầu các biện pháp bảo vệ theo quy định - thì thực sự vẫn không có gì thay đổi. Tại sao? Bởi vì cấu trúc khuyến khích được xây dựng dựa trên lợi nhuận ngắn hạn và sự phủ nhận dài hạn. Nghe có quen không? Nên là vậy. Chúng ta đã chứng kiến cùng một kịch bản diễn ra với Big Oil che đậy khoa học khí hậu, Big Tobacco trả tiền cho các nhà khoa học để làm lu mờ mối liên hệ giữa ung thư và Big Pharma thúc đẩy thuốc phiện trong khi tuyên bố vô tội. Bây giờ hãy cùng đến với Big AI, gã khổng lồ không được quản lý mới nhất đang lao về phía vách đá, kéo theo cả nhân loại. Nhưng lần này, chúng ta không chỉ đánh bạc với hệ sinh thái, phổi hoặc chứng nghiện - mà chúng ta đang đánh bạc với sự tồn tại liên tục của chính tác nhân con người. Nền văn minh có thể không được hưởng lợi nếu chúng ta sai lầm trong lần này.
Báo động không phải là sự cường điệu—mà là sự thực tế
Một số người có thể nói rằng giọng điệu này là gây hoang mang. Tốt. Nó nên như vậy. Bởi vì khi bạn lùi lại và xem xét toàn cảnh, không chỉ công nghệ đang tăng tốc mà còn là sự sụp đổ của các thể chế được cho là quản lý nó. Chúng ta đang chứng kiến sự trỗi dậy của các chế độ độc tài, sự xói mòn lòng tin vào các quy trình dân chủ và một hệ thống quốc tế bị chia rẽ mà hầu như không thể thống nhất về chính sách khí hậu, chứ đừng nói đến việc quản lý siêu trí tuệ nhân tạo. Ý tưởng rằng cùng một hệ thống này sẽ phối hợp một phản ứng toàn cầu đối với AGI theo thời gian, thành thật mà nói, là suy nghĩ kỳ diệu.
Điều chúng ta cần là hành động khẩn cấp, phối hợp dựa trên sự trung thực về vị trí của chúng ta—không phải là sự lạc quan lịch sự. Thực tế là thế này: chúng ta đang chạy nước rút hướng tới công nghệ mạnh mẽ nhất từng được hình thành, trong khi nền tảng chính trị của chúng ta đang nứt dưới chân chúng ta. Nếu điều đó không phải là lý do để báo động, thì điều gì là lý do? Chúng ta không cần một hội nghị thượng đỉnh khác với một thông cáo báo chí. Chúng ta cần một sự thức tỉnh trên toàn thế giới. Không phải ngày mai. Ngay bây giờ.
Bạn không cần phải là một nhà khoa học máy tính để hiểu những gì đang xảy ra. Nhưng bạn cần phải quan tâm. Đây không chỉ là về công nghệ. Nó là về quyền lực, khả năng kiểm soát và tương lai của cơ quan con người. Giả sử các quyết định về AGI được giao cho một số ít tỷ phú và nhà thầu quốc phòng. Chúng ta sẽ để lại thế giới như thế nào cho con cháu mình?
Chúng ta cần áp lực công khai, sự giám sát minh bạch và chính sách thực sự, không phải sau khi AGI xuất hiện, mà là ngay bây giờ. Hãy nghĩ đến hành động vì khí hậu, nhưng vì nhận thức. Hỗ trợ các tổ chức thúc đẩy phát triển AI an toàn. Yêu cầu thảo luận cởi mở, không phải bí mật của công ty. Và vâng, hãy bỏ phiếu như thể tương lai kỹ thuật số của bạn phụ thuộc vào nó. Bởi vì nó đúng là như vậy.
Trong khi đó, hãy tự giáo dục bản thân. Dạy người khác. Đừng tắt máy. Mối nguy hiểm lớn nhất không phải là AI sẽ trở nên quá thông minh. Mà là chúng ta sẽ quá thụ động.
Có lẽ thử thách thực sự không phải là liệu chúng ta có thể xây dựng AGI hay không. Có lẽ là liệu chúng ta có đủ khôn ngoan để sống sót hay không. Nhưng có một điều chắc chắn: thần đèn này sẽ không quay trở lại trong chiếc bình.
Lưu ý
Robert Jennings là đồng tác giả của InnerSelf.com, một nền tảng dành riêng để trao quyền cho cá nhân và thúc đẩy một thế giới kết nối và công bằng hơn. Là một cựu chiến binh của Thủy quân Lục chiến Hoa Kỳ và Quân đội Hoa Kỳ, Robert dựa trên những trải nghiệm sống đa dạng của mình, từ làm việc trong lĩnh vực bất động sản và xây dựng đến xây dựng InnerSelf.com cùng vợ là Marie T. Russell, để mang đến góc nhìn thực tế, có cơ sở cho những thách thức của cuộc sống. Được thành lập vào năm 1996, InnerSelf.com chia sẻ những hiểu biết sâu sắc để giúp mọi người đưa ra những lựa chọn sáng suốt, có ý nghĩa cho bản thân và hành tinh. Hơn 30 năm sau, InnerSelf vẫn tiếp tục truyền cảm hứng cho sự sáng suốt và trao quyền.
Creative Commons 4.0
Bài viết này được cấp phép theo Giấy phép 4.0 chia sẻ tương tự Creative Commons. Thuộc tính tác giả Robert Jennings, InsideSelf.com. Liên kết trở lại bài viết Bài viết này ban đầu xuất hiện trên Nội địa.com
Tóm tắt bài viết
Trí tuệ nhân tạo tổng quát (AGI) đang gần hơn hầu hết mọi người nhận ra, với các chuyên gia cảnh báo rằng nó có thể đến vào những năm 2030. AGI đại diện cho trí thông minh ở cấp độ con người trong máy móc, và một khi đạt được, có thể nhanh chóng dẫn đến siêu trí tuệ nhân tạo (ASI)—một hệ thống vượt xa sự hiểu biết của chúng ta. Khi sự phát triển của AI tăng tốc, nhận thức của công chúng và chính sách chủ động là điều cần thiết để đảm bảo nó phục vụ nhân loại thay vì thay thế nó.
#Trí tuệ nhân tạo chung #AIsiêuthôngminh #TươnglaicủaAI #AGI #ASI #TiếntrìnhAI #ĐạođứcAI #Tươnglaicôngnghệ



