4rupi02z

R. Classen / Shutterstock

Chatbot AI đã được các doanh nghiệp sử dụng rộng rãi để chào đón khách hàng và trả lời câu hỏi của họ – qua điện thoại hoặc trên trang web. Một số công ty nhận thấy rằng ở một mức độ nào đó, họ có thể thay thế con người bằng máy móc trong vai trò trung tâm cuộc gọi.

Tuy nhiên, bằng chứng sẵn có cho thấy có những lĩnh vực - chẳng hạn như chăm sóc sức khỏe và nhân sự - cần hết sức thận trọng khi sử dụng các công cụ tuyến đầu này và có thể cần phải giám sát về mặt đạo đức.

Một ví dụ gần đây và được công bố rộng rãi là về một chatbot tên là Tessa, được sử dụng bởi Hiệp hội Rối loạn Ăn uống Quốc gia (NEDA) tại Hoa Kỳ. Ban đầu tổ chức này duy trì một đường dây trợ giúp được điều hành bởi sự kết hợp giữa nhân viên làm công ăn lương và tình nguyện viên. Điều này có mục tiêu rõ ràng là hỗ trợ những người dễ bị tổn thương mắc chứng rối loạn ăn uống.

Tuy nhiên, năm nay tổ chức giải tán nhân viên đường dây trợ giúp của nó, thông báo rằng họ sẽ thay thế chúng bằng chatbot Tessa. Những lý do cho điều này đang bị tranh cãi. Các cựu công nhân cho rằng sự thay đổi này tuân theo quyết định của nhân viên đường dây trợ giúp về việc thành lập công đoàn. Các phó chủ tịch NEDA trích dẫn số lượng cuộc gọi và thời gian chờ đợi tăng lên cũng như trách nhiệm pháp lý xung quanh việc sử dụng nhân viên tình nguyện.

Dù thế nào đi nữa, sau một thời gian hoạt động rất ngắn, Tessa đã ngừng hoạt động vì có báo cáo rằng chatbot đã đưa ra lời khuyên có vấn đề có thể làm trầm trọng thêm các triệu chứng của những người đang tìm kiếm sự giúp đỡ về chứng rối loạn ăn uống.


đồ họa đăng ký nội tâm


Nó cũng được báo cáo rằng Tiến sĩ Ellen Fitzsimmons-Craft và Tiến sĩ C Barr TaylorHai nhà nghiên cứu có trình độ cao đã hỗ trợ tạo ra Tessa, đã quy định rằng chatbot không bao giờ nhằm mục đích thay thế cho đường dây trợ giúp hiện có hoặc cung cấp hỗ trợ ngay lập tức cho những người gặp phải các triệu chứng rối loạn ăn uống nghiêm trọng.

nâng cấp đáng kể

Vậy Tessa được thiết kế để làm gì? Các nhà nghiên cứu, cùng với các đồng nghiệp, đã tạo ra một nghiên cứu quan sát nêu bật những thách thức họ gặp phải khi thiết kế một chatbot dựa trên quy tắc để tương tác với những người dùng lo ngại về chứng rối loạn ăn uống. Đây là một cuốn sách khá hấp dẫn, minh họa các lựa chọn thiết kế, hoạt động, cạm bẫy và sửa đổi.

Phiên bản gốc của Tessa là phiên bản truyền thống, chatbot dựa trên quy tắc, mặc dù là một cấu trúc được cải tiến cao, là cấu trúc tuân theo cấu trúc được xác định trước dựa trên logic. Nó không thể đi chệch khỏi các phản hồi được lập trình sẵn đã được chuẩn hóa bởi những người tạo ra nó.

Kết luận của họ bao gồm điểm sau: “Các chatbot dựa trên quy tắc có tiềm năng tiếp cận số lượng lớn với chi phí thấp trong việc cung cấp thông tin và các tương tác đơn giản nhưng bị hạn chế trong việc hiểu và phản hồi thích hợp trước những phản hồi không lường trước được của người dùng”.

Điều này có vẻ hạn chế những mục đích sử dụng phù hợp của Tessa. Vậy làm thế nào mà nó lại thay thế được đường dây trợ giúp mà NEDA sử dụng trước đây? Chuỗi sự kiện chính xác đang được thảo luận giữa các tài khoản khác nhau, nhưng theo NPR, công ty lưu trữ chatbot đã thay đổi Tessa từ một chatbot dựa trên quy tắc với các phản hồi được lập trình sẵn thành một chatbot có “Tính năng hỏi đáp nâng cao”.

Phiên bản sau này của Tessa là phiên bản sử dụng AI tổng quát, giống như ChatGPT và các sản phẩm tương tự. Những chatbot AI tiên tiến này được thiết kế để mô phỏng các kiểu trò chuyện của con người với mục đích đưa ra những phản hồi thực tế và hữu ích hơn. Việc tạo ra các câu trả lời tùy chỉnh này dựa trên cơ sở dữ liệu thông tin lớn mà các mô hình AI được đào tạo để “hiểu” thông qua nhiều quy trình công nghệ khác nhau: học máy, học kĩ càngxử lý ngôn ngữ tự nhiên.

Học bài

Cuối cùng, chatbot đã tạo ra những câu trả lời được mô tả là có thể gây hại cho câu hỏi của một số người dùng. Các cuộc thảo luận sau đó đã chuyển trách nhiệm từ tổ chức này sang tổ chức khác. Tuy nhiên, vấn đề vẫn là những tình huống tiếp theo có thể tránh được nếu có một cơ quan giám sát đạo đức, một “con người trong vòng lặp” và tuân thủ mục đích rõ ràng trong thiết kế ban đầu của Tessa.

Điều quan trọng là phải rút ra bài học từ những trường hợp như thế này trong bối cảnh vội vàng tích hợp AI vào nhiều hệ thống khác nhau. Và mặc dù những sự kiện này diễn ra ở Mỹ nhưng chúng chứa đựng những bài học cho những ai muốn làm điều tương tự ở các quốc gia khác.

Vương quốc Anh dường như có cách tiếp cận hơi rời rạc đối với vấn đề này. Ban cố vấn cho Trung tâm Đổi mới và Đạo đức Dữ liệu (CDEI) gần đây đã được giải thể và vị trí của nó tại bàn đã được đảm nhận bởi Lực lượng đặc nhiệm AI Biên giới mới thành lập. Cũng có báo cáo rằng các hệ thống AI đã được thử nghiệm ở London như một công cụ hỗ trợ người lao động – mặc dù không phải là sự thay thế cho đường dây trợ giúp.

Cả hai ví dụ này đều nêu bật sự căng thẳng tiềm tàng giữa những cân nhắc về đạo đức và lợi ích kinh doanh. Chúng ta phải hy vọng rằng cả hai cuối cùng sẽ phù hợp, cân bằng giữa phúc lợi của cá nhân với hiệu quả và lợi ích mà AI có thể mang lại.

Tuy nhiên, ở một số lĩnh vực nơi các tổ chức tương tác với công chúng, những phản hồi và sự đồng cảm mô phỏng do AI tạo ra có thể không bao giờ đủ để thay thế lòng nhân đạo và lòng trắc ẩn chân chính – đặc biệt là trong lĩnh vực y học và sức khỏe tâm thần.Conversation

Mark Tsagas, Giảng viên, Luật Hình sự, University of East London

Bài viết này được tái bản từ Conversation theo giấy phép Creative Commons. Đọc ban đầu bài viết.