AI có thể dự đoán liệu mối quan hệ của bạn sẽ kéo dài hay không dựa trên cách bạn nói với đối tác của mình

Bất kỳ đứa trẻ (hoặc người phối ngẫu) nào bị mắng vì giọng nói của họ - chẳng hạn như la hét hoặc mỉa mai - đều biết rằng cách bạn nói chuyện với ai đó có thể cũng quan trọng như từ mà bạn sử dụng. Các nghệ sĩ lồng tiếng và diễn viên tận dụng rất tốt điều này - họ có kỹ năng truyền đạt ý nghĩa trong cách họ nói, đôi khi còn hiệu quả hơn nhiều so với chỉ từ ngữ thôi.

Nhưng có bao nhiêu thông tin được truyền tải trong giọng điệu và kiểu trò chuyện của chúng ta và điều đó ảnh hưởng như thế nào đến mối quan hệ của chúng ta với người khác? Các hệ thống tính toán đã có thể thiết lập mọi người là ai từ giọng nói của họ, vậy họ có thể cho chúng tôi biết điều gì về đời sống tình cảm của chúng tôi không? Thật ngạc nhiên, có vẻ như vậy.

Nghiên cứu mới, vừa được công bố trên tạp chí PLOS-ONE, đã phân tích đặc điểm giọng hát của 134 cặp đôi đang trải qua liệu pháp trị liệu. Các nhà nghiên cứu từ Đại học Nam California đã sử dụng máy tính để trích xuất các tính năng phân tích giọng nói tiêu chuẩn từ bản ghi âm của những người tham gia buổi trị liệu trong hơn hai năm. Các tính năng – bao gồm sân, sự thay đổi về cao độ và ngữ điệu – tất cả đều liên quan đến các khía cạnh của giọng nói như âm sắc và cường độ.

Sau đó, một thuật toán học máy sẽ được đào tạo để tìm hiểu mối quan hệ giữa các đặc điểm giọng nói đó và kết quả cuối cùng của trị liệu. Điều này không đơn giản như phát hiện tiếng la hét hoặc giọng nói cao - nó bao gồm sự tương tác của cuộc trò chuyện, ai nói khi nào và trong bao lâu cũng như âm thanh của giọng nói. Hóa ra việc bỏ qua những gì đang được nói và chỉ xem xét những kiểu nói này cũng đủ để dự đoán liệu các cặp đôi có ở bên nhau hay không. Đây hoàn toàn là dữ liệu điều khiển nên nó không liên quan đến kết quả với các thuộc tính giọng nói cụ thể.

Làm thế nào một giọng nói có thể thay đổi ý nghĩa của một vài từ.

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


đồ họa đăng ký nội tâm


Điều thú vị là các đoạn video ghi lại toàn bộ buổi trị liệu sau đó được giao cho các chuyên gia để phân loại. Không giống như AI, họ đưa ra dự đoán bằng cách sử dụng đánh giá tâm lý dựa trên các thuộc tính giọng nói (và các thuộc tính khác) – bao gồm từ ngữ được nói và ngôn ngữ cơ thể. Đáng ngạc nhiên là dự đoán của họ về kết quả cuối cùng (đúng trong 75.6% trường hợp) lại kém hơn so với dự đoán do AI đưa ra chỉ dựa trên đặc điểm giọng nói (79.3%). Rõ ràng có những yếu tố được mã hóa trong cách chúng ta nói chuyện mà ngay cả các chuyên gia cũng không nhận ra. Nhưng kết quả tốt nhất đến từ việc kết hợp đánh giá tự động với đánh giá của chuyên gia (đúng 79.6%).

Tầm quan trọng của điều này không nằm ở việc sử dụng AI trong tư vấn hôn nhân hay khiến các cặp đôi nói chuyện tử tế hơn với nhau (dù điều đó có đáng khen hay không). Điều quan trọng là tiết lộ lượng thông tin về cảm xúc tiềm ẩn của chúng ta được mã hóa trong cách chúng ta nói chuyện – một số trong đó chúng ta hoàn toàn không biết.

Các từ được viết trên một trang hoặc một màn hình có ý nghĩa từ vựng bắt nguồn từ định nghĩa từ điển của chúng. Chúng được sửa đổi bởi bối cảnh của các từ xung quanh. Có thể có sự phức tạp lớn trong văn bản. Nhưng khi các từ được đọc to, đúng là chúng mang những ý nghĩa bổ sung được truyền tải bằng trọng âm, âm lượng, tốc độ nói và giọng điệu. Trong một cuộc trò chuyện điển hình, cũng có ý nghĩa trong thời lượng mỗi người nói và tốc độ người này hoặc người khác có thể xen vào.

Hãy xem xét câu hỏi đơn giản “Bạn là ai?”. Hãy thử nói điều này với sự nhấn mạnh vào các từ khác nhau; “Ai là bạn?", "Ai đang Bạn?" Và "Về Bạn có phải?". Hãy nghe những điều này – ý nghĩa ngữ nghĩa có thể thay đổi theo cách chúng ta đọc ngay cả khi các từ vẫn giữ nguyên.

Máy tính đọc 'rò rỉ giác quan'?

Không có gì đáng ngạc nhiên khi các từ mang ý nghĩa khác nhau tùy thuộc vào cách chúng được nói. Cũng không có gì đáng ngạc nhiên khi máy tính có thể diễn giải một số ý nghĩa đằng sau cách chúng ta chọn cách nói chuyện (có thể một ngày nào đó chúng thậm chí còn có thể hiểu được). hiểu sự trớ trêu).

Nhưng nghiên cứu này còn đưa vấn đề đi xa hơn việc chỉ nhìn vào ý nghĩa được truyền tải bằng một câu. Nó dường như tiết lộ những thái độ và suy nghĩ tiềm ẩn đằng sau những câu nói. Đây là một mức độ hiểu biết sâu sắc hơn nhiều.

Những người tham gia trị liệu không đọc chữ như diễn viên. Họ chỉ nói chuyện một cách tự nhiên – hoặc tự nhiên nhất có thể trong phòng khám của bác sĩ trị liệu. Chưa hết, phân tích còn tiết lộ những thông tin về tình cảm của nhau mà họ đã vô tình “rò rỉ” vào lời nói của mình. Đây có thể là một trong những bước đầu tiên trong việc sử dụng máy tính để xác định xem chúng ta thực sự đang nghĩ gì hoặc cảm thấy gì. Hãy tưởng tượng trong giây lát trò chuyện với điện thoại thông minh trong tương lai – liệu chúng ta có “rò rỉ” thông tin mà chúng có thể thu thập được không? Họ sẽ phản ứng thế nào?

Họ có thể tư vấn cho chúng tôi về các đối tác tiềm năng bằng cách lắng nghe chúng tôi nói chuyện cùng nhau không? Họ có thể phát hiện xu hướng hành vi chống đối xã hội, bạo lực, trầm cảm hoặc các tình trạng khác không? Sẽ không phải là một bước nhảy vọt của trí tưởng tượng khi tưởng tượng chính họ trở thành nhà trị liệu tương lai – tương tác với chúng tôi theo nhiều cách khác nhau để theo dõi hiệu quả của các biện pháp can thiệp mà họ đang thực hiện.

Đừng lo lắng vì chúng ta còn nhiều năm nữa mới có được tương lai như vậy, nhưng nó sẽ nâng cao vấn đề riêng tư, đặc biệt là khi chúng ta tương tác sâu hơn với máy tính trong khi chúng ngày càng trở nên mạnh mẽ hơn trong việc phân tích thế giới xung quanh.

ConversationKhi chúng ta tạm dừng cũng để xem xét các giác quan khác của con người ngoài âm thanh (lời nói); có lẽ chúng ta cũng rò rỉ thông tin qua thị giác (chẳng hạn như ngôn ngữ cơ thể, đỏ mặt), xúc giác (nhiệt độ và chuyển động) hoặc thậm chí qua khứu giác (pheromone). Nếu các thiết bị thông minh có thể học được nhiều điều bằng cách lắng nghe cách chúng ta nói chuyện thì người ta tự hỏi họ có thể thu thập thêm được bao nhiêu từ những giác quan khác.

Giới thiệu về Tác giả

Ian McLoughlin, Giáo sư Máy tính, Hiệu trưởng Trường (Medway), Đại học Kent

Bài viết này ban đầu được xuất bản vào Conversation. Đọc ban đầu bài viết.

Sách liên quan:

at Thị trường InnerSelf và Amazon