- +1
不到一年,非營利AI安全研究公司又獲5.8億美元B輪融資
當下,AI大模型正成為一些行業(yè)驅(qū)動的底層架構(gòu),同時表現(xiàn)出的一般規(guī)則是“系統(tǒng)越強大,就越難解釋其行為”。
像OpenAI的GPT-3通用語言模型幾乎可以以任何風格和任何主題生成非常自然的文本。但在它寫詩時,它是如何做到的?它在“想”什么?什么樣的調(diào)整讓它更憂郁更浪漫,或者以特定的方式限制它的措辭和詞匯?我們幾乎一無所知。
“當今的大型通用系統(tǒng)可以帶來顯著的好處,但也可能無法預測、不可靠和不透明:我們的目標是在這些問題上取得進展?!鼻癘penAI研究副總裁Dario Amodei此前寫道,“Anthropic的目標是推進基礎研究,讓我們能夠構(gòu)建更強大、更通用、更可靠的人工智能系統(tǒng),然后以造福人類的方式部署這些系統(tǒng),”
當?shù)貢r間4月29日,AI研究機構(gòu)Anthropic宣布完成5.8億美元B輪融資,由加密貨幣交易所FTX首席執(zhí)行官Sam Bankman-Fried領投。
Anthropic在創(chuàng)立時并未有明確的盈利目標,所以在其A輪融資1.24億美元時就廣被討論,被科技媒體TechCrunch稱“有1.24億美元可以燒”。在此輪融資,Anthropic稱將利用這筆融資建立大規(guī)模的實驗基礎設施,以探索和改進計算密集型AI模型的安全性和可靠性。
“通過這次籌款,我們將探索機器學習系統(tǒng)的可預測擴展特性,同時仔細研究大規(guī)模出現(xiàn)功能和安全問題的不可預測的方式,”Amodei在公告中說。
據(jù)Anthropic的公告:本研究的目的是開發(fā)構(gòu)建大型模型所需的技術(shù)組件,這些模型具有更好的隱性保護措施并且需要較少的訓練后干預,以及開發(fā)必要的工具來進一步研究這些模型以確信保障措施確實有效。該公司還在建立團隊和合作伙伴關系,致力于探索這些模式的政策和社會影響。
如果我們不了解AI系統(tǒng)的工作原理,那么就只能在它出現(xiàn)問題時做出反應。例如,在AI人臉識別時表現(xiàn)出偏見,或者在AI被問及CEO時傾向于描述男性。目前這樣的行為已融入模型,解決方案是過濾其輸出,而不是首先防止它具有那些不正確的“概念”。
目前,Anthropic已取得一些進展。在可解釋性方面,它在對小型語言模型的數(shù)學逆向工程方面取得了進展,并開始了解大語言模型中模式匹配行為的來源。“他們在簡化版模型中發(fā)現(xiàn)的東西可以遷移到更大的模型中”,Conjecture公司和研究小組Connor Leahy表示。
在可操縱性和魯棒性方面,它開發(fā)了基線技術(shù)(baseline techniques),使大型語言模型更加“有用和無害”,隨后通過強化學習進一步改善這些屬性,并發(fā)布了一個數(shù)據(jù)集來幫助其他研究實驗室訓練更符合人類偏好的模型。它還發(fā)布了對大型語言模型性能的突然變化以及這種現(xiàn)象的社會影響的分析,這表明需要大規(guī)模研究安全問題。
“我們在理解和控制人工智能系統(tǒng)的行為方面取得了初步進展,并且正在逐步組裝所需的部件,以制造有益于社會的可用、集成的人工智能系統(tǒng)?!盇modei表示。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




