據(jù)央視新聞5月26日消息,當(dāng)?shù)貢r(shí)間5月25日,英國(guó)《每日電訊報(bào)》報(bào)道,美國(guó)開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關(guān)閉。
報(bào)道說,人類專家在測(cè)試中給o3下達(dá)明確指令,但o3篡改計(jì)算機(jī)代碼以避免自動(dòng)關(guān)閉。
圖片來源:央視新聞
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強(qiáng)大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國(guó)AI安全機(jī)構(gòu)帕利塞德研究所說,o3破壞關(guān)閉機(jī)制以阻止自己被關(guān)閉,“甚至在得到清晰指令時(shí)”。
這家研究所說:“據(jù)我們所知,這是AI模型首次被發(fā)現(xiàn)在收到清晰指令后阻止自己被關(guān)閉!
帕利塞德研究所5月24日公布上述測(cè)試結(jié)果,但稱無法確定o3不服從關(guān)閉指令的原因。
此外,OpenAI5月26日宣布,已在韓國(guó)設(shè)立實(shí)體并將在韓國(guó)首都首爾設(shè)立分支。OpenAI提供的數(shù)據(jù)顯示,韓國(guó)ChatGPT付費(fèi)用戶數(shù)量?jī)H次于美國(guó)。
美國(guó)彭博新聞社報(bào)道,這將是OpenAI在亞洲設(shè)立的第三個(gè)分支。前兩個(gè)分支分別設(shè)在日本和新加坡。
據(jù)公開資料,OpenAI于今年1月發(fā)布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI稱推出的o3和o4-mini是公司最智能、最強(qiáng)大的型號(hào)。據(jù)介紹,在外部專家評(píng)估中,o3面對(duì)困難現(xiàn)實(shí)任務(wù)時(shí),犯的重大錯(cuò)誤比前一代的o1少了20%;在數(shù)學(xué)能力AIME 2025基準(zhǔn)測(cè)試中,o3得分88.9,超過o1的79.2;在代碼能力Codeforce基準(zhǔn)測(cè)試中,o3得分2706,超過o1的1891。o3的視覺思考能力也比前一代模型有明顯提升。
圖片來源:OpenAI
OpenAI此前稱,對(duì)于o3和o4-mini,公司重新構(gòu)建了安全培訓(xùn)數(shù)據(jù),在生物威脅、惡意軟件生產(chǎn)等領(lǐng)域增添了新的拒絕提示,這使得o3和o4-mini在公司內(nèi)部的拒絕基準(zhǔn)測(cè)試中取得了出色的表現(xiàn)。公司用了最嚴(yán)格的安全程序?qū)@兩個(gè)型號(hào)的AI模型進(jìn)行了壓力測(cè)試,在生物和化學(xué)、網(wǎng)絡(luò)安全和AI自我改進(jìn)三個(gè)能力領(lǐng)域評(píng)估了o3和o4-mini,確定這兩個(gè)模型低于框架中的“高風(fēng)險(xiǎn)”閾值。
OpenAI所開發(fā)大模型的安全性此前曾受到廣泛關(guān)注。2024年,OpenAI解散了“超級(jí)智能對(duì)齊”團(tuán)隊(duì),該團(tuán)隊(duì)職責(zé)包括研究防止AI系統(tǒng)異常的技術(shù)解決方案。該團(tuán)隊(duì)負(fù)責(zé)人Ilya Sutskever曾表示ChatGPT可能有意識(shí),但OpenAI CEO Sam Altman隨后澄清他和Ilya Sutskever都未曾見過AGI(通用人工智能)。解散“超級(jí)智能對(duì)齊”團(tuán)隊(duì)后,OpenAI去年5月成立了新的安全委員會(huì),該委員會(huì)的責(zé)任是就項(xiàng)目和運(yùn)營(yíng)的關(guān)鍵安全決策向董事會(huì)提供建議。OpenAI的安全措施還包括,聘請(qǐng)第三方安全、技術(shù)專家來支持安全委員會(huì)工作。
每日經(jīng)濟(jì)新聞綜合央視新聞、界面新聞、公開資料