展會信息港展會大全

OpenAI 升級 Whisper 語音轉(zhuǎn)錄 AI 模型,不犧牲質(zhì)量速度快 8 倍
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-03 17:49:52   瀏覽:2874次  

導(dǎo)讀:IT之家 10 月 3 日消息,OpenAI 在 10 月 1 日舉辦的 DevDay 活動日中,宣布推出了 Whisper large-v3-turbo 語音轉(zhuǎn)錄模型,共有 8.09 億參數(shù),在質(zhì)量幾乎沒有下降的情況下, 速度比 large-v3 快 8 倍 。 Whisper large-v3-turbo 語音轉(zhuǎn)錄模型是 large-v3 的...

IT之家 10 月 3 日消息,OpenAI 在 10 月 1 日舉辦的 DevDay 活動日中,宣布推出了 Whisper large-v3-turbo 語音轉(zhuǎn)錄模型,共有 8.09 億參數(shù),在質(zhì)量幾乎沒有下降的情況下,速度比 large-v3 快 8 倍

Whisper large-v3-turbo 語音轉(zhuǎn)錄模型是 large-v3 的優(yōu)化版本,并且只有 4 層解碼器層(Decoder Layers),作為對比 large-v3 共有 32 層。

Whisper large-v3-turbo 語音轉(zhuǎn)錄模型共有 8.09 億參數(shù),比 7.69 億參數(shù)的 medium 模型稍大,不過比 15.5 億參數(shù)的 large 模型小很多。

OpenAI 表示 Whisper large-v3-turbo 的速度比 large 模型快 8 倍,并且所需的 VRAM 為 6GB,而 large 模型需要 10GB。

OpenAI 升級 Whisper 語音轉(zhuǎn)錄 AI 模型,不犧牲質(zhì)量速度快 8 倍

OpenAI 升級 Whisper 語音轉(zhuǎn)錄 AI 模型,不犧牲質(zhì)量速度快 8 倍

OpenAI 升級 Whisper 語音轉(zhuǎn)錄 AI 模型,不犧牲質(zhì)量速度快 8 倍

OpenAI 升級 Whisper 語音轉(zhuǎn)錄 AI 模型,不犧牲質(zhì)量速度快 8 倍

Whisper large-v3-turbo 語音轉(zhuǎn)錄模型大小為 1.6GB,OpenAI 繼續(xù)根據(jù) MIT 許可證提供 Whisper(包括代碼和模型權(quán)重)。

IT之家援引 Awni Hannun 測試結(jié)果,在 M2 Ultra 上,將 12 分鐘的內(nèi)容轉(zhuǎn)錄為 14 秒。

OpenAI 升級 Whisper 語音轉(zhuǎn)錄 AI 模型,不犧牲質(zhì)量速度快 8 倍

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港