AI安全風險受矚目 多家企業主動為高能力模型設置訪問門檻

   時間:2026-04-27 21:58 來源:快訊作者:新華社

近日,人工智能領域迎來重要動態,美國開放人工智能研究中心(OpenAI)于4月中旬正式推出了一款專為生命科學領域打造的新型人工智能模型——GPT-Rosalind。這款模型在化學、生物學相關任務以及實驗設計等多個方面展現出卓越性能,其表現遠超當前市面上公開可用的其他模型,引發了行業內外的廣泛關注。

值得注意的是,GPT-Rosalind并非本月唯一一款被限制訪問的AI模型。同在本月,Anthropic公司發布了“克勞德神話”模型,OpenAI自身也推出了GPT-5.4-Cyber模型,這兩款模型同樣未向普通公眾開放。這一系列舉措表明,AI企業為最強模型設限正逐漸成為一種趨勢。

據了解,Anthropic與OpenAI對近期發布的多款模型實施訪問限制,均屬于企業層面的自主決策。隨著人工智能技術的飛速發展,AI模型所潛在的風險日益凸顯,其可能帶來的影響范圍廣泛且復雜,從數據隱私泄露到對社會倫理的沖擊,都引發了各界的擔憂。在此背景下,部分人士開始呼吁,應針對AI模型實施更為嚴格的外部監管措施,以確保技術發展在可控范圍內進行。

目前,這些被限制訪問的模型主要面向專業領域和特定用戶群體開放,旨在平衡技術創新與風險防控之間的關系。未來,AI企業如何在推動技術進步的同時,有效應對各種潛在風險,仍將是行業面臨的重要課題。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號