近期,關(guān)于頂級(jí)人工智能(AI)實(shí)驗(yàn)室在推進(jìn)AI模型開發(fā)上遭遇瓶頸的傳言甚囂塵上,其中包括OpenAI、谷歌以及Anthropic等業(yè)界巨頭。據(jù)傳,這些實(shí)驗(yàn)室面臨的主要難題在于高質(zhì)量訓(xùn)練數(shù)據(jù)的稀缺,這一問題導(dǎo)致模型性能提升遭遇收益遞減效應(yīng),進(jìn)一步增加了繼續(xù)投資的難度。
然而,對(duì)于這些負(fù)面報(bào)道,OpenAI的首席執(zhí)行官山姆·奧爾特曼(Sam Altman)和Anthropic的首席執(zhí)行官達(dá)里奧·阿莫代(Dario Amodei)均表達(dá)了不同觀點(diǎn)。奧爾特曼在社交媒體上發(fā)布了一條引人深思的信息,以“不存在極限”作為暗示,似乎在反駁這些關(guān)于AI發(fā)展遇到阻礙的報(bào)道。阿莫代同樣持樂觀態(tài)度,他承認(rèn)AI的發(fā)展確實(shí)面臨多重挑戰(zhàn),但堅(jiān)信總有解決之道,比如通過利用合成數(shù)據(jù)來突破現(xiàn)有限制。
前谷歌首席執(zhí)行官埃里克·施密特(Eric Schmidt)也對(duì)這些報(bào)道提出了自己的看法。他預(yù)測(cè),未來五年內(nèi),大型語(yǔ)言模型將繼續(xù)經(jīng)歷兩到三次重大迭代,其性能提升速度之快前所未見,且目前尚無跡象表明這一增長(zhǎng)趨勢(shì)即將放緩。施密特強(qiáng)調(diào),盡管AI發(fā)展最終可能會(huì)遭遇瓶頸,但當(dāng)前遠(yuǎn)未達(dá)到那個(gè)階段。

施密特進(jìn)一步指出,隨著技術(shù)的進(jìn)步,未來將涌現(xiàn)出更加先進(jìn)和強(qiáng)大的AI模型,特別是在物理學(xué)和數(shù)學(xué)領(lǐng)域。他以O(shè)penAI最近推出的Strawberry AI模型OpenAI-o1為例,展示了AI在特定領(lǐng)域取得的顯著成就。然而,施密特也不忘提醒,隨著AI模型的日益強(qiáng)大,其潛在風(fēng)險(xiǎn)也在不斷增加。他警告說,這些高度先進(jìn)的模型可能比人類更擅長(zhǎng)發(fā)動(dòng)“零日攻擊”,即利用未被發(fā)現(xiàn)的安全漏洞進(jìn)行攻擊。
施密特還提到,生物病毒和新型戰(zhàn)爭(zhēng)也是AI發(fā)展可能帶來的潛在威脅。他強(qiáng)調(diào),隨著AI技術(shù)的不斷演進(jìn),我們必須密切關(guān)注其可能帶來的各種風(fēng)險(xiǎn),并采取有效措施加以防范。這些擔(dān)憂無疑為AI的未來發(fā)展增添了一層復(fù)雜性和不確定性。














