4 cách Google Tìm kiếm và phương tiện truyền thông xã hội của bạn ảnh hưởng đến cơ hội của bạn trong cuộc sống

4 cách Google Tìm kiếm và phương tiện truyền thông xã hội của bạn ảnh hưởng đến cơ hội của bạn trong cuộc sống
Shutterstock.

Cho dù bạn có nhận ra hay đồng ý với nó hay không, dữ liệu lớn có thể ảnh hưởng đến bạn và cách bạn sống cuộc sống của mình. Dữ liệu chúng tôi tạo khi sử dụng phương tiện truyền thông xã hội, Đang truy cập internet và mặc theo dõi tập thể dục đều được thu thập, phân loại và sử dụng bởi các doanh nghiệpnhà nước để tạo hồ sơ của chúng tôi. Những hồ sơ này sau đó được sử dụng để nhắm mục tiêu quảng cáo cho các sản phẩm và dịch vụ tới những người có khả năng mua chúng nhất hoặc để thông báo các quyết định của chính phủ.

Dữ liệu lớn cho phép các tiểu bang và công ty truy cập, kết hợp và phân tích thông tin của chúng tôi và xây dựng tiết lộ - nhưng chưa hoàn thiện và có khả năng không chính xác - hồ sơ của cuộc sống của chúng tôi. Họ làm như vậy bằng cách xác định các mối tương quan và mô hình trong dữ liệu về chúng tôi và những người có hồ sơ tương tự với chúng tôi, để đưa ra dự đoán về những gì chúng tôi có thể làm.

Nhưng chỉ vì phân tích dữ liệu lớn dựa trên các thuật toán và thống kê, không có nghĩa là chúng chính xác, trung lập hoặc khách quan vốn có. Và trong khi dữ liệu lớn có thể cung cấp cái nhìn sâu sắc về hành vi nhóm, đây không nhất thiết là một cách đáng tin cậy để xác định hành vi cá nhân. Trong thực tế, những phương pháp này có thể mở ra cánh cửa để phân biệt đối xửđe dọa nhân quyền - họ thậm chí có thể làm việc chống lại bạn. Dưới đây là bốn ví dụ mà phân tích dữ liệu lớn có thể dẫn đến sự bất công.

KHAI THÁC. Tính điểm tín dụng

Dữ liệu lớn có thể được sử dụng để đưa ra quyết định về đủ điều kiện tín dụng, ảnh hưởng đến việc bạn có được thế chấp hay không bảo hiểm xe hơi phí bảo hiểm nên được. Những quyết định này có thể được thông báo bởi bài đăng truyền thông xã hội và dữ liệu từ các ứng dụng khác, được lấy để chỉ mức độ rủi ro hoặc độ tin cậy của bạn.

Nhưng dữ liệu như nền tảng giáo dục của bạn hoặc nơi bạn sống có thể không liên quan hoặc đáng tin cậy cho những đánh giá đó. Loại dữ liệu này có thể hoạt động như một ủy quyền cho tình trạng chủng tộc hoặc kinh tế xã hội và sử dụng nó để đưa ra quyết định về rủi ro tín dụng có thể dẫn đến sự phân biệt đối xử.

KHAI THÁC. Tìm kiếm việc làm

Dữ liệu lớn có thể được sử dụng để xác định Ai thấy quảng cáo việc làm hoặc lọt vào danh sách phỏng vấn. Quảng cáo việc làm có thể được nhắm mục tiêu ở các nhóm tuổi cụ thể, chẳng hạn như 25 đến tuổi 36, loại trừ những người lao động trẻ và lớn tuổi hơn thậm chí nhìn thấy một số thông tin đăng việc và có nguy cơ bị phân biệt tuổi tác.

Tự động hóa cũng được sử dụng để làm cho việc lọc, sắp xếp và xếp hạng các ứng cử viên hiệu quả hơn. Nhưng quá trình sàng lọc này có thể loại trừ mọi người trên cơ sở các chỉ số như khoảng cách đi lại của họ. Người sử dụng lao động có thể cho rằng những người đi làm lâu hơn ít có khả năng ở lại làm việc lâu dài, nhưng điều này thực sự có thể phân biệt đối xử với những người sống xa trung tâm thành phố do vị trí của nhà ở giá cả phải chăng.


Nhận thông tin mới nhất từ ​​Nội tâm


KHAI THÁC. Quyết định tạm tha và tại ngoại

Ở Mỹ và Anh, các mô hình đánh giá rủi ro dữ liệu lớn được sử dụng để giúp các quan chức quyết định xem mọi người có được cấp tạm tha hoặc tại ngoạihoặc được gọi là chương trình phục hồi chức năng. Chúng cũng có thể được sử dụng để đánh giá mức độ rủi ro mà người phạm tội gây ra cho xã hội, đây là một yếu tố mà thẩm phán có thể cân nhắc khi quyết định độ dài của bản án.

Không rõ chính xác dữ liệu nào được sử dụng để giúp thực hiện các đánh giá này, nhưng khi chuyển sang kiểm soát kỹ thuật số tập hợp tốc độ, ngày càng có nhiều khả năng các chương trình này sẽ kết hợp thông tin nguồn mở như hoạt động trung gian xã hội - nếu họ chưa có.

Những đánh giá này có thể không chỉ nhìn vào hồ sơ của một người, mà còn cả cách họ so sánh với người khác. Một số lực lượng cảnh sát có lịch sử quá chính trị một số cộng đồng thiểu số, dẫn đến một số lượng không đáng kể các sự cố hình sự được báo cáo. Nếu dữ liệu này được đưa vào một thuật toán, nó sẽ làm biến dạng các mô hình đánh giá rủi ro và dẫn đến sự phân biệt đối xử ảnh hưởng trực tiếp đến quyền tự do của một người.

KHAI THÁC. Đơn xin thị thực

Năm ngoái, Cơ quan Thực thi Di trú và Hải quan Hoa Kỳ (ICE) tuyên bố rằng họ muốn giới thiệu một máy tính tự độngkiểm tra thị thực cực đoan" chương trình. Nó sẽ tự động và liên tục quét các tài khoản truyền thông xã hội, để đánh giá xem người nộp đơn có đóng góp tích cực hay không vào Hoa Kỳ hay không và liệu có bất kỳ vấn đề an ninh quốc gia nào có thể phát sinh hay không.

Cũng như đưa ra những rủi ro đối với tự do tư tưởng, quan điểm, biểu hiện và liên kết, có những rủi ro đáng kể rằng chương trình này sẽ phân biệt đối xử với những người thuộc quốc tịch hoặc tôn giáo nhất định. Bình luận viên đặc trưng nó như một lệnh cấm Hồi giáo của người Viking bằng thuật toán.

Chương trình đã được rút gần đây, theo báo cáo trên cơ sở rằng, không có phần mềm 'ngoài luồng' nào có thể mang lại chất lượng giám sát mà cơ quan muốn có. Nhưng bao gồm các mục tiêu như vậy trong các tài liệu mua sắm có thể tạo ra các động lực xấu cho ngành công nghệ để phát triển các chương trình mang tính phân biệt đối xử.

ConversationKhông có câu hỏi rằng phân tích dữ liệu lớn hoạt động theo cách có thể ảnh hưởng đến cơ hội của cá nhân trong cuộc sống. Nhưng thiếu minh bạch về cách dữ liệu lớn được thu thập, sử dụng và chia sẻ khiến mọi người khó biết được thông tin nào được sử dụng, làm thế nào và khi nào. Phân tích dữ liệu lớn đơn giản là quá phức tạp để các cá nhân có thể bảo vệ dữ liệu của họ khỏi việc sử dụng không phù hợp. Thay vào đó, các tiểu bang và công ty phải đưa ra - và tuân theo - các quy định để đảm bảo rằng việc sử dụng dữ liệu lớn của họ không dẫn đến sự phân biệt đối xử.

Giới thiệu về tác giả

Lorna McGregor, Giám đốc, Trung tâm Nhân quyền, PI và Đồng Giám đốc, ESRC Nhân quyền, Dữ liệu lớn và Công nghệ tài trợ lớn, Đại học Essex; Daragh Murray, Giảng viên Luật Nhân quyền Quốc tế tại Trường Luật Essex, Đại học Essexvà Vivian Ng, nhà nghiên cứu cao cấp về nhân quyền, Đại học Essex

Bài viết này ban đầu được xuất bản vào Conversation. Đọc ban đầu bài viết.

Sách của các tác giả này:

{amazonWS: searchindex = Books; Keywords = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Books; Keywords = Daragh Murray; maxresults = 2}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

theo dõi Nội bộ trên

facebook-iconbiểu tượng twitterbiểu tượng rss

Nhận tin mới nhất qua email

{Emailcloak = off}