谷歌發布TranslateGemma翻譯模型:多尺寸適配多場景 性能卓越還開源

   時間:2026-01-16 14:17 來源:快訊作者:IT之家

谷歌近日推出基于Gemma 3架構的TranslateGemma開放翻譯模型系列,包含4B、12B和27B三種參數規模的版本,支持55種核心語言及多模態圖像翻譯功能。該系列模型已在Kaggle、Hugging Face及Vertex AI平臺開放下載,為開發者提供多樣化選擇。

在性能測試中,TranslateGemma展現出突破性表現。12B版本在WMT24++基準測試中超越參數量達其兩倍的Gemma 3 27B基線模型,意味著開發者可用更少算力資源獲得更高質量的翻譯結果。4B版本雖體積最小,卻達到與12B基線模型相當的性能水平,特別適合移動端和邊緣計算設備部署。

技術實現上,該系列采用創新的"兩階段微調"工藝。監督微調階段通過混合Gemini模型生成的高質量合成數據與人工翻譯數據訓練基礎模型;強化學習階段則引入MetricX-QE和AutoMQM等先進獎勵模型,優化譯文語境適配度和自然度。這種設計使模型在保持多模態能力的同時,文本翻譯質量的提升直接轉化為圖像文字翻譯效果的增強。

語言覆蓋方面,模型重點優化了西班牙語、中文、印地語等55種核心語言的翻譯質量,并具備擴展至近500種語言的潛力,為瀕危語言研究提供技術支撐。部署場景上,4B模型針對手機和邊緣設備優化端側推理效率;12B模型適配消費級筆記本實現研究級性能;27B模型則面向專業場景,可在單張H100 GPU或云端TPU上運行。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號