2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
來自劍橋大學和鄧迪大學的團隊開發(fā)了一種新的情境感知方法,該方法可以消除用戶鍵入以進行交流的50%到96%的擊鍵次數(shù),從而縮小了交流差距。
該系統(tǒng)專門針對非語言人群,并使用一系列上下文線索(例如用戶的位置,一天中的時間或用戶的講話伙伴的身份)來幫助建議與用戶最相關(guān)的句子。
非言語運動障礙人士經(jīng)常使用帶有語音輸出功能的計算機與他人交流。但是,即使沒有影響打字過程的肢體殘疾,這些交流輔助工具仍然太慢且容易出錯,無法進行有意義的對話:典型的打字速度在每分鐘5到20個單詞之間,而典型的說話速度在100范圍內(nèi)每分鐘140個單詞。
該研究的主要作者,劍橋大學工程系的珀·奧拉·克里斯滕森教授說:“通信速率的差異被稱為通信差距。”“這種差距通常在每分鐘80到135個詞之間,并且影響了依靠計算機進行交流的人們的日常交互質(zhì)量。”
克里斯滕森教授及其同事開發(fā)的方法使用人工智能,使用戶可以快速檢索他們過去鍵入的句子。先前的研究表明,依賴語音合成的人們,就像其他所有人一樣,傾向于在日常對話中重用許多相同的短語和句子。但是,對于現(xiàn)有語音合成技術(shù)的用戶而言,檢索這些短語和句子是一個耗時的過程,從而進一步減慢了對話流程。
在新系統(tǒng)中,隨著人員的鍵入,系統(tǒng)會使用信息檢索算法根據(jù)鍵入的文本和人員所參與的會話的上下文自動檢索最相關(guān)的先前句子。上下文包括有關(guān)會話的信息,例如位置,一天中的時間以及自動識別對方的臉部。使用經(jīng)過訓練可從前置攝像頭識別人臉的計算機視覺算法來識別其他說話者。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。