7月1日,聲網發布全球首個 AI 模型評測平臺(對話式)。該平臺針對對話式 AI 場景下,級聯大模型中的ASR+LLM+TTS延遲數據提供主流供應商的橫向測評,更直觀的展示聲網對話式 AI 引擎適配各主流模型的實時性能數據。同時,平臺還提供了“競技場”功能,開發者可自由選擇 ASR、LLM、TTS 的主流供應商進行對比,根據性能延遲的數據表現,選擇更適配自身業務的模型供應商。
聲網對話式AI引擎在上線之初,就憑借靈活擴展的特性受到開發者的歡迎,兼容適配全球主流的大模型與 TTS 供應商,滿足不同場景和業務需求。此次 AI 模型評測平臺與對話式AI引擎v1.6版本聯動發布,新版本對話式 AI 引擎開放了 ASR,并上線了聲網自研的鳳鳴-實時語音識別。同樣在該評測平臺,開發者也可以自主選擇包括騰訊云-實時語音識別、火山引擎-實時語音識別、鳳鳴-實時語音識別在內的各家供應商,進行延遲數據的對比。
ASR+LLM+TTS 延遲性能排行榜
綜合最優、響應最快模型一目了然
AI模型評測平臺主要分為“儀表盤”與“競技場”兩項功能,在“儀表盤“中官方推薦了對話式 AI 引擎適配后綜合最優、響應最快的級聯模型組合。例如,截止目前,綜合最優推薦級聯模型組合為騰訊云-實時語音識別+阿里云-通義千問 Turbo+火山引擎-語音合成。響應最快推薦級聯模型組合為鳳鳴-實時語音識別+智譜-GLM 4 AirX+百度智能云-語音合成,級聯模型總延遲為1125.36 ms。

同時,“儀表盤”專為對話式AI 場景定制了多個級聯模型延遲數據排行榜,且評測數據保持每小時更新:
1、Top 10 級聯模型組合:以級聯模型總延遲為評測指標,直觀的展示不同組合級聯模型的總延遲數據對比;
2、語音識別(ASR) Top 3 :以末字延遲為評測指標進行對比;
3、語言模型(LLM) Top 3 :以首字延遲的性能數據進行排序;
4、語音合成(TTS) Top 3 :對比各家TTS 供應商的首字節延遲性能。

競技場自主選擇模型性能對比
支持TTS測試語句試聽
在 AI 模型評測平臺“競技場”中,開發者可自主選擇不同的 ASR、LLM、TTS 模型進行延遲性能的對比。例如 LLM 可選擇 DeepSeek V3、豆包大模型、智譜 GLM 系列模型、 通義千問系列模型、MiniMax Text 01、騰訊云混元系列模型等進行對比;ASR-實時語音識別和 TTS-語音合成也包含了市場各家主流模型。
針對延遲數據的評測指標,平臺還提供了多個分位的延遲數據差異對比,從 P25、P50 到 P99 共六個分位,開發者可以更詳細的了解每個模型的延遲數據表現。例如,鳳鳴-ASR P50分位的末字延遲為572 ms,意味著測試期間50%的延遲數據低于572 ms。
此外,“競技場”的 TTS-語音合成對比中,還提供了預設的語音合成測試語句,反映多種場景下(字母數字混合、非流暢性語句、客戶服務、醫療健康、外呼銷售、有聲書&播客、非常見發音詞匯)不同模型的語音合成質量,并且支持試聽。

目前,AI模型評測平臺已正式上線聲網官網,未來聲網也將持續更新模型成本、單詞準確率等新的評測維度,助力開發者更好的選擇適配自身業務的最優模型組合。
如您想進一步體驗 AI模型評測平臺,可進入聲網官網的“對話式AI”頁面進行體驗。