阿里巴巴近日宣布開源四款Qwen3.5系列小尺寸模型,分別為Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B和Qwen3.5-9B。這些模型專為筆記本電腦等端側(cè)設(shè)備設(shè)計(jì),標(biāo)志著大模型技術(shù)在消費(fèi)級(jí)硬件上的應(yīng)用邁出重要一步。
在性能評(píng)測(cè)中,Qwen3.5-9B表現(xiàn)尤為突出。該模型在GPQA Diamond、MMMU-Pro等權(quán)威基準(zhǔn)測(cè)試中超越GPT-OSS-20B、GPT-5 nano等競(jìng)品,甚至在MMMU-Pro測(cè)試中以13分優(yōu)勢(shì)領(lǐng)先GPT-5-Nano。更引人注目的是,這個(gè)能在筆記本電腦運(yùn)行的模型,其性能已接近云端部署的旗艦級(jí)模型。Qwen3.5-4B雖為更小版本,但在多語(yǔ)言知識(shí)、視覺(jué)推理等任務(wù)上展現(xiàn)出與更大模型相當(dāng)?shù)膶?shí)力,僅在純數(shù)學(xué)推理方面存在差距。
技術(shù)架構(gòu)方面,四款模型均基于Qwen3.5統(tǒng)一基座開發(fā),采用Apache 2.0開源協(xié)議允許商業(yè)應(yīng)用。開發(fā)者可通過(guò)LoRA或全量微調(diào)技術(shù),使用消費(fèi)級(jí)顯卡即可完成模型適配。不同尺寸模型各有側(cè)重:0.8B和2B版本以輕量化見長(zhǎng),適合移動(dòng)設(shè)備和實(shí)時(shí)交互場(chǎng)景;4B版本作為多模態(tài)基座模型,可平衡性能與資源消耗;9B版本則在緊湊結(jié)構(gòu)中實(shí)現(xiàn)媲美GPT-OSS-120B的性能,成為服務(wù)器端部署的高性價(jià)比選擇。
開發(fā)者社區(qū)對(duì)這系列模型反響熱烈。有開發(fā)者在Mac mini上部署Qwen3.5-9B配合OpenClaw系統(tǒng),構(gòu)建出成本低于初級(jí)員工月薪的AI工作站。另一位開發(fā)者使用AMD Ryzen AI Max+395處理器配合Q4_K_XL量化算法,在256k上下文窗口下實(shí)現(xiàn)每秒30個(gè)token的處理速度,且顯存占用不足16GB。這些實(shí)踐驗(yàn)證了模型在端側(cè)設(shè)備的實(shí)際可行性。
關(guān)于模型的應(yīng)用邊界,開發(fā)者社區(qū)存在不同觀點(diǎn)。支持者認(rèn)為這些模型已達(dá)到Gemini 3 Flash等云端模型的水平,可在邊緣計(jì)算場(chǎng)景發(fā)揮實(shí)效;批評(píng)者則指出4B模型在復(fù)雜推理任務(wù)中正確率不足50%,數(shù)學(xué)測(cè)試正確率僅15%,尚不能作為完整的思考伙伴。這種爭(zhēng)議恰恰反映出端側(cè)大模型在實(shí)用性與局限性之間的微妙平衡。
隨著這四款模型的加入,Qwen3.5家族已形成完整的產(chǎn)品矩陣:包含1個(gè)397B參數(shù)的超大模型、3個(gè)中型模型(122B、35B、27B參數(shù))以及新發(fā)布的4個(gè)小尺寸模型。所有模型代碼已在魔搭社區(qū)和Hugging Face平臺(tái)開放下載,為全球開發(fā)者提供多樣化的技術(shù)選擇。













