在2017年4月的測試中, , 編輯點評: 雖然語音助手設計諸多背后的技術,Loup Ventures 在測試過程中分別在智能手機上對蘋果 Siri、谷歌Google Assistant、亞馬遜Alexa和微軟Cortana問了800個問題,Siri 能夠理解 99% 的問題,而 Cortana回答正確率僅為 52.4%,結果顯示蘋果旗下的Siri在過去5個月中進步明顯,市場調研機構Loup Ventures公布了第二次AI語音助手的對比測試結果,Siri回答問題的正確率僅為66.1%, 據(jù)悉, 除了“命令”類別的問題之外,并正確回答了78.5% 的問題,并且理解所有的問題;Siri 的回答正確率為 78.5%,有 11 個明顯錯誤的回答,Google Assistant 回答問題正確率達到了 85.5%,Loup Ventures 的評測問題分為地點、商務、導航、信息和命令5個類別,提升較為明顯,Google Assistant 在所有類別中都有明顯優(yōu)勢,而在此次的測試中。
據(jù)介紹,有 13 個錯誤的回答,但整體上來說,并將測試結果與早期2017年4月的測試進行對比,在 800 個問題測試中,錯誤達到 19 個,但僅從大量的提問測試已經(jīng)能夠很好地反映其客觀的識別水平和使用體驗。
Alexa 回答正確率為 61.4%,語音助手仍有巨大的提升空間,但仍落后于Google Assistant。