Tại sao công nghệ đặt quyền con người vào rủi ro

Tại sao công nghệ đặt quyền con người vào rủi ro
Spainter_vfx / Shutterstock.com

Những bộ phim như 2001: A Space Odyssey, Blade RunnerTerminator đưa robot lừa đảo và hệ thống máy tính lên màn hình rạp chiếu phim của chúng tôi. Nhưng ngày nay, những cảnh tượng khoa học viễn tưởng kinh điển như vậy dường như không còn xa với thực tế.

Chúng ta ngày càng sống, làm việc và chơi với các công nghệ tính toán tự chủ và thông minh. Các hệ thống này bao gồm phần mềm và phần cứng với khả năng suy luận và ra quyết định độc lập. Họ làm việc cho chúng tôi trên sàn nhà máy; họ quyết định liệu chúng tôi có thể nhận được một thế chấp hay không; họ theo dõi và đo lường mức độ hoạt động và thể lực của chúng tôi; họ làm sạch sàn phòng khách của chúng tôi và cắt cỏ của chúng tôi.

Các hệ thống tự trị và thông minh có khả năng ảnh hưởng đến hầu hết mọi khía cạnh của đời sống xã hội, kinh tế, chính trị và tư nhân của chúng ta, bao gồm các khía cạnh trần tục hàng ngày. Phần lớn điều này có vẻ vô tội, nhưng có lý do để quan tâm. Các công nghệ tính toán tác động đến mọi quyền của con người, từ quyền sống đến quyền riêng tư, quyền tự do ngôn luận đến các quyền kinh tế và xã hội. Vậy làm thế nào chúng ta có thể bảo vệ nhân quyền trong bối cảnh công nghệ ngày càng được định hình bởi robot và trí tuệ nhân tạo (AI)?

AI và nhân quyền

Đầu tiên, có một nỗi sợ hãi thực sự rằng sự tự chủ của máy móc tăng lên sẽ làm suy yếu địa vị của con người. Nỗi sợ hãi này được kết hợp bởi sự thiếu rõ ràng về người sẽ phải chịu trách nhiệm, cho dù theo nghĩa pháp lý hay đạo đức, khi máy móc thông minh gây hại. Nhưng tôi không chắc rằng trọng tâm của mối quan tâm của chúng tôi đối với quyền con người nên thực sự nằm trong robot lừa đảo, như nó có vẻ như hiện nay. Thay vào đó, chúng ta nên lo lắng về việc con người sử dụng robot và trí tuệ nhân tạo và việc triển khai chúng trong bối cảnh chính trị, quân sự, kinh tế và xã hội bất công và bất bình đẳng.

Sự lo lắng này đặc biệt phù hợp với các hệ thống vũ khí tự trị gây chết người (LAWS), thường được mô tả là robot giết người. Như chúng ta tiến tới một cuộc chạy đua vũ trang AI, các học giả và nhà vận động nhân quyền như Christof Heyns, cựu báo cáo viên đặc biệt của Liên Hợp Quốc về các vụ hành quyết phi pháp, tóm tắt hoặc tùy tiện, sợ rằng việc sử dụng LUẬT sẽ đặt các hệ thống robot tự trị phụ trách các quyết định sống và chết, với sự hạn chế hoặc không có sự kiểm soát của con người.

AI cũng cách mạng hóa mối liên hệ giữa thực hành chiến tranh và giám sát. Các nhóm như Ủy ban quốc tế về kiểm soát vũ khí robot (ICRAC) gần đây đã bày tỏ sự phản đối của họ đối với sự tham gia của Google vào Dự án Maven, một chương trình quân sự sử dụng học máy để phân tích cảnh quay giám sát bằng máy bay không người lái, có thể được sử dụng cho các vụ giết người phi pháp. ICRAC Kêu gọi đến Google để đảm bảo rằng dữ liệu mà họ thu thập trên người dùng không bao giờ được sử dụng cho mục đích quân sự, tham gia các cuộc biểu tình của nhân viên Google về sự tham gia của công ty vào dự án. Google gần đây đã thông báo rằng nó sẽ không được gia hạn hợp đồng của nó.

Trong 2013, phạm vi thực hành giám sát đã được Edward Snowden nhấn mạnh tiết lộ. Những điều này đã dạy chúng tôi nhiều về mối đe dọa đối với quyền riêng tư và chia sẻ dữ liệu giữa các dịch vụ tình báo, cơ quan chính phủ và các tập đoàn tư nhân. Những tranh cãi gần đây xung quanh Cambridge AnalyticaViệc thu thập dữ liệu cá nhân thông qua việc sử dụng các nền tảng truyền thông xã hội như Facebook tiếp tục gây ra sự e ngại nghiêm trọng, lần này là do thao túng và can thiệp vào các cuộc bầu cử dân chủ làm tổn hại quyền tự do ngôn luận.


Nhận thông tin mới nhất từ ​​Nội tâm


Trong khi đó, các nhà phân tích dữ liệu quan trọng thách thức thực hành phân biệt đối xử liên quan đến những gì họ gọi là AI của chàng trai da trắng AI vấn đề. Đây là mối quan tâm mà các hệ thống AI được đào tạo trên dữ liệu hiện tại sao chép các định kiến ​​về chủng tộc và giới hiện có, duy trì các hành vi phân biệt đối xử trong các lĩnh vực như trị an, quyết định tư pháp hoặc việc làm.

AI có thể tái tạo và cố thủ các khuôn mẫu.
AI có thể tái tạo và cố thủ các khuôn mẫu.
Ollyy / Shutterstock.com

Bot mơ hồ

Mối đe dọa tiềm tàng của các công nghệ tính toán đối với nhân quyền và an ninh vật lý, chính trị và kỹ thuật số đã được nêu rõ trong một nghiên cứu được công bố gần đây về Sử dụng độc hại của trí tuệ nhân tạo. Những mối quan tâm thể hiện trong báo cáo của Đại học Cambridge này phải được thực hiện nghiêm túc. Nhưng chúng ta nên đối phó với những mối đe dọa này như thế nào? Nhân quyền đã sẵn sàng cho kỷ nguyên robot và AI chưa?

Có những nỗ lực liên tục để cập nhật các nguyên tắc nhân quyền hiện có cho thời đại này. Chúng bao gồm Nguyên tắc đóng khung và hướng dẫn của Liên Hợp Quốc về kinh doanh và nhân quyền, cố gắng viết một Magna Carta cho thời đại kỹ thuật số và tương lai của Viện cuộc sống Nguyên tắc AI của Asilomar, trong đó xác định các hướng dẫn cho nghiên cứu đạo đức, tuân thủ các giá trị và cam kết đối với sự phát triển có lợi lâu dài của AI.

Những nỗ lực này là đáng khen ngợi nhưng không đủ. Chính phủ và các cơ quan chính phủ, các đảng chính trị và các tập đoàn tư nhân, đặc biệt là các công ty công nghệ hàng đầu, phải cam kết sử dụng đạo đức của AI. Chúng tôi cũng cần kiểm soát lập pháp hiệu quả và có thể thi hành.

Bất cứ biện pháp mới nào chúng tôi đưa ra, điều quan trọng là phải thừa nhận rằng cuộc sống của chúng ta đang ngày càng vướng mắc với các máy móc tự trị và hệ thống thông minh. Sự vướng víu này giúp tăng cường sức khỏe của con người trong các lĩnh vực như nghiên cứu và điều trị y tế, trong hệ thống giao thông của chúng tôi, trong các cơ sở chăm sóc xã hội và trong các nỗ lực bảo vệ môi trường.

Nhưng trong các lĩnh vực khác, sự vướng víu này ném lên những triển vọng đáng lo ngại. Các công nghệ tính toán được sử dụng để theo dõi và theo dõi hành động và hành vi của chúng tôi, theo dõi các bước của chúng tôi, vị trí của chúng tôi, sức khỏe, thị hiếu và tình bạn của chúng tôi. Các hệ thống này định hình hành vi của con người và thúc đẩy chúng ta hướng tới các hoạt động tự giám sát nhằm hạn chế tự do của chúng ta và làm suy yếu các ý tưởng và lý tưởng về quyền con người.

ConversationVà đây là mấu chốt: khả năng sử dụng kép các công nghệ tính toán làm mờ đi ranh giới giữa thực tiễn có lợi và độc hại. Hơn nữa, các công nghệ tính toán có liên quan sâu sắc trong mối quan hệ quyền lực bất bình đẳng giữa các công dân cá nhân, nhà nước và các cơ quan của nó, và các công ty tư nhân. Nếu không được kiểm tra từ các hệ thống kiểm tra và số dư hiệu quả trong nước và quốc tế, chúng sẽ là mối đe dọa thực sự và đáng lo ngại đối với nhân quyền của chúng ta.

Giới thiệu về Tác giả

Birgit Schippers, Nghiên cứu sinh, Viện thượng nghị sĩ George J Mitchell vì hòa bình, an ninh và công lý toàn cầu, Đại học Belfast Queen

Bài viết này ban đầu được xuất bản vào Conversation. Đọc ban đầu bài viết.

Sách liên quan

{amazonWS: searchindex = Books; Birgit Schippers = innerself; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

theo dõi Nội bộ trên

facebook-iconbiểu tượng twitterbiểu tượng rss

Nhận tin mới nhất qua email

{Emailcloak = off}

ĐỌC MOST