国产精品国产三级农村av,亚洲精品久久久久久久久久,久久精品欧美一区二区三区不卡,精品久久www,精品久久久久久一区二区,国产精品一区在线免费观看,超碰色偷偷

每日經濟新聞
今日報紙

每經網首頁 > 今日報紙 > 正文

從GPT到“草莓”:OpenAI的野心與安全困境

每日經濟新聞 2024-09-01 21:08:35

每經記者|文巧 實習記者 岳楚鵬    每經編輯|高涵    

此前,一道低難度的數學題——9.11和9.9哪個更大,難倒了一眾海內外AI大模型,也讓外界了解到了大模型在推理方面的局限性。

不過,情況正在迅速發生改變。當地時間8月27日,據The Information報道,OpenAI神秘的“草莓”(Strawberry,前身為Q*)項目,計劃最早于今年秋季推出。同時,用“草莓”合成數據來開發的最新大模型——“獵戶座”(Orion),或于明年年初推出。

The Information援引知情人士的消息稱,今年夏天,在秘密會議上,OpenAI向美國國家安全官員展示了“草莓”模型。

外媒報道稱,今年夏天,在一些并未公開的會議上,阿爾特曼的團隊向美國國家安全官員展示了“草莓”模型。圖為OpenAI首席執行官阿爾特曼。 視覺中國圖

推理能力出眾

據The Information報道,參與OpenAI該項目的兩名人員透露,研究人員計劃在今年秋季推出代號為“草莓”的新型AI,并有可能將其作為ChatGPT的一部分。

據悉,OpenAI希望通過推出“草莓”為公司籌集更多資金,并尋找減少虧損的方法。此前,據媒體報道,OpenAI今年的虧損可能高達50億美元。

據前述外媒報道,“草莓”目前的功能極其強大。它可以解決此前從未見過的數學問題,這是當前的聊天機器人無法可靠完成的任務。它還可以解決涉及編程的問題,且不局限于回答技術性問題。如果給予它更多時間“思考”,“草莓”模型還可以回答用戶更“主觀”的問題,例如產品營銷策略。

為了展示“草莓”在語言方面的實力,研究人員向OpenAI內部同事展示了“草莓”如何解決《紐約時報》上刊登的復雜字謎游戲。

現有的人工智能并不擅長解決航空航天和結構工程等數學密集型領域的問題,因此,解決棘手數學問題的AI可能是一個潛在有利可圖的應用。為了提高模型的推理能力,一些初創公司嘗試將問題分解為更小的步驟,但這些辦法既慢又貴。

數學推理能力的提升也有助于AI模型更好地處理對話查詢,例如客戶服務請求。這或許對OpenAI即將推出的AI代理服務將起到幫助。

不僅是OpenAI,人工智能領域的其他主要參與者也在數學推理方面取得了長足進步。例如,谷歌DeepMind 最近開發了AlphaProof和AlphaGeometry 2,這是兩個用于高級數學推理的AI系統。兩個系統協同工作,在2024年國際數學奧林匹克競賽中獲得銀牌,解決了六道題中的四道。

可幫助訓練大模型

對OpenAI,“草莓”不僅是一個即將要向外界推出的商業模型,它還被賦予了更重要的使命。

一位知情人士向The Information表示,OpenAI在使用更大版本的“草莓”來生成訓練下一代旗艦模型“獵戶座”(Orion)的數據。該模型旨在改進其現有的旗艦模型GPT-4并幫助OpenAI領先其他資金雄厚的競爭對手,爭奪對話式AI或大型語言模型的霸主地位。

GPT-4自2023年3月推出后,就成為一個改變游戲規則的大型語言模型。然而,在過去18個月中,競爭對手已基本追趕上來。在某些情況下,甚至超越了OpenAI的最新模型。

知情人士表示,這種由人工智能生成的數據被稱為“合成數據”。這意味著“草莓”可以幫助OpenAI克服獲取足夠高質量數據的限制,從而利用從互聯網上提取的文本或圖像等現實世界數據來訓練新模型。

代理初創公司Minion AI CEO、GitHub Copilot前首席架構師亞歷克斯·格雷夫利表示,使用“草莓”生成更高質量的訓練數據可以幫助OpenAI減少其模型產生的錯誤數量,即所謂的幻覺。幻覺是當前生成式AI的一個重大限制,這會導致AI經常生成看似合理但實際上不正確的數據。

“想象一下,一個沒有幻覺的模型,你問它一個邏輯難題,它第一次嘗試就能答對。”格雷夫利說道。該模型之所以能夠做到這一點,是因為“訓練數據中的歧義較少,所以它猜測的次數較少”。

據The Information報道,OpenAI首席執行官阿爾特曼在5月份的一次活動中表示:“我們覺得我們擁有足夠的數據來開發下一個模型。我們已經進行了各種實驗,包括生成合成數據。”據報道,他指的可能就是用“草莓”訓練的Orion(獵戶座)。

安全隱患烏云未散

不過,就在OpenAI高歌猛進的同時,安全隱患的烏云從未散去。

“草莓”項目源于前OpenAI首席科學家Ilya Sutskever的早期研究,OpenAI研究人員Jakub Pachocki和Szymon Sidor在Sutskever的工作基礎上開發了一種新的數學求解模型Q*。

而2023年底,有關OpenAI的Q*項目消息泄露時,一些專家將該技術定性為人工智能(AGI)的突破,但人們對它知之甚少。這也讓一些專注于人工智能安全的研究人員感到震驚。

這件事情發生在去年OpenAI罷免阿爾特曼事件之前。據知情人士爆料,此前OpenAI員工之間就公司是否以足夠安全的方式開發人工智能展開了爭論。安全也是罷免阿爾特曼后公司內部損害控制的一個重要主題,當時罷免的發起人正是Sutskever。

此后,安全問題就一直困擾著OpenAI。而在阿爾特曼重返OpenAI后,負責OpenAI安全團隊的成員也相繼離開了公司。

今年5月離職的OpenAI“超級對齊”團隊領導人Jan Leike在社媒平臺X上寫道:“過去幾年,安全文化和流程已經退居次要地位,而閃亮的產品則成為重中之重。”

鑒于今年早些時候幾位安全部門領導人離職,以及美國參議員伊麗莎白·沃倫等美國政府高官對于技術安全問題的批評,OpenAI決定提升對政府官員的透明度。

The Information援引一位了解相關會議情況人士的消息稱,今年夏天,在一些并未公開的會議上,阿爾特曼的團隊向美國國家安全官員展示了“草莓”模型。

報道指出,通過向政府官員展示一項尚未發布的技術,OpenAI可能為人工智能開發者樹立了新標準,尤其是在先進人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者認為該項技術對國家安全形成威脅,那么他們可能給公司帶來麻煩。

不過,一些業界人士對此并不買賬,因為OpenAI并未向公眾提升透明度。AI初創公司Abacus. AI的CEO Bindu Reddy表示,OpenAI將他們最好的大模型藏在背后,以此來取得領先優勢。“如果沒有開源AI,我們都會完蛋,我們可能會把文明的控制權交給1到2家公司。”Bindu Reddy說。

封面圖片來源:視覺中國

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

Ai OpenAI

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0