資訊頻道

首頁>咨詢頻道> 新聞聚焦 >OpenAI 發(fā)布 GPT-4,有哪些技術趨勢值得關注?

OpenAI 發(fā)布 GPT-4,有哪些技術趨勢值得關注?

  發(fā)布時間: 2023-03-17      瀏覽量:2172

    本文是新浪微博新技術研發(fā)負責人、中國中文信息學會理事張俊林在知乎問題「OpenAI 發(fā)布 GPT-4,有哪些技術上的優(yōu)化或突破?」下的回答,總結了 GPT4 技術報告里指出的三個方向,還提及了兩個其它技術方向。

    在這個歷史性的時刻,回答個問題,留下自己作為歷史見證人的足跡。

    GPT4 的技術報告里很明確地指出了三個新的方向:

    第一,LLM 最前沿研究的封閉化或小圈子化。技術報告里說了,出于競爭以及安全等方面的考慮,未公布模型規(guī)模等技術細節(jié)。從 GPT 2.0 的開源,到 GPT 3.0 的只有論文,再到 ChatGPT 連論文也沒有,直到 GPT 4.0 的技術報告更像效果評測報告。一個很明顯的趨勢是,OpenAI 做實了 CloseAI 的名號,之后 OpenAI 的 LLM 最前沿研究不會再放出論文。

    在這個情形下,其它技術相對領先的公司有兩種選擇。一種是做更極致的 LLM 開源化,比如 Meta 貌似選擇了這條道路,這一般是競爭處于劣勢的公司作出的合理選擇,但是往往相關技術不會是最前沿的技術;另外一種選擇是跟進 OpenAI,也選擇技術封閉化。Google 之前算是 LLM 的第二梯隊。但在 " 微軟 +OpenAI" 的一頓組合拳下,現(xiàn)在局面有點狼狽不堪。GPT 4.0 去年 8 月就做好了,估計現(xiàn)在 GPT 5.0 正在煉丹過程中,這么長的時間窗口,結果 Google 都能落到目前這個局面,想想 Transformer、CoT 等非常關鍵的一些研究都是自己做出來的,竟淪落至此,不知一眾高層作何感想。Google 在后面能快速跟進,維持在第二梯隊應該問題不大,很可能比第三名技術也領先很多。出于競爭關系考慮,我猜 Google 大概率會跟進 OpenAI 走技術封閉的路線,最先進的 LLM 技術優(yōu)先用來煉屬于自己的丹,而不是寫成論文放出來普惠大眾尤其是普惠 OpenAI。而這很可能導致 LLM 最前沿研究的封閉化。

    從現(xiàn)在算起,國內(nèi)在經(jīng)過一陣時間后(要做到 ChatGPT 的 6 到 7 折應該比較快,要追平估計要較長時間),必然被迫進入自主創(chuàng)新的局面。從最近三個月國內(nèi)的各種情況看,將來會如何?大概率不太樂觀。當然,這個關肯定很難,但必須得過,只能祝愿有能力且有初心者盡力加油了。

    第二,GPT 4 技術報告里提到的 LLM 模型的 " 能力預測(Capability Prediction)" 是個非常有價值的新研究方向(其實之前也有個別其它資料,我記得看過,但是具體哪篇記不起來了)。用小模型來預測某些參數(shù)組合下對應大模型的某種能力,如果預測足夠精準,能夠極大縮短煉丹周期,同時極大減少試錯成本,所以無論理論價值還是實際價值巨大,這個絕對是非常值得認真研究具體技術方法的。

    第三,GPT 4 開源了一個 LLM 評測框架,這也是后面 LLM 技術快速發(fā)展非常重要的方向。尤其對于中文,構建實用的中文 LLM 評測數(shù)據(jù)和框架具備特別重要的意義,好的 LLM 評測數(shù)據(jù)可以快速發(fā)現(xiàn) LLM 目前存在的短板和改進方向,意義重大,但是很明顯目前這塊基本處于空白狀態(tài)。這個對于資源要求其實沒那么高,適合很多機構去做,不過確實是個辛苦活。

    除了 GPT 4 技術報告里明確指出的三個方向,因為最近 LLM 各方面新聞比較多,順手再寫兩個其它技術方向。

    首先,斯坦福大學近在 Meta 的 7B 開源 LLaMA 基礎上,加上技術構造的,也代表了一個技術方向。如果歸納下,這個方向可以被稱為 " 低成本復現(xiàn) ChatGPT" 的方向。所謂 Self Instruct,就是采取一定技術手段,不用人工標注 Instruct,而是從 OpenAI 的接口里,好聽點叫 " 蒸餾 " 出 Instruct,也就是不用人標注,而是 ChatGPT 作為 teacher,給你的 Instruct 打上標注結果。這個把 Instruct 標注成本直接打到了幾百美金的基準,時間成本就更短了。再加上模型 7B 規(guī)模也不大,所以可以看成一種 " 低成本復現(xiàn) ChatGPT" 的技術路線。

    我估計國內(nèi)早就有不少人采取這個技術路線了。毫無疑問,這是一條捷徑,但是走捷徑有好處有壞處,具體不展開談了。在追趕 ChatGPT 的過程中,先把成本打下來去復現(xiàn) ChatGPT 到七八成,我個人還是覺得可行也支持的,畢竟窮人有窮人的玩法。當然,追求把模型做小,效果又不怎么往下掉,如果能扎扎實實去做,是非常具有價值的。

    另外,毫無疑問會是 LLM 下一階段的重點研究方向。這方面的代表就是前陣子 Google 放出來的。目前的 GPT 4,我們可以認為人類創(chuàng)造出了一個超級大腦,但還是把它封鎖在 GPU 集群里。而這個超級大腦需要一個身體,GPT 4 要和物理世界發(fā)生聯(lián)系、交流和互動,并在物理世界中獲得真實的反饋,來學會在真實世界里生存,并根據(jù)真實世界的反饋,利用比如強化學習來學習在世界游走的能力。這個肯定是最近的將來最熱門的 LLM 研究方向。

    多模態(tài) LLM 給予了 GPT 4 以眼睛和耳朵,而具身智能給予 GPT 4 身體、腳和手。GPT 4 和你我發(fā)生一些聯(lián)系,而依托于 GPT 4 本身強大的學習能力,這個事情估計很快會出現(xiàn)在我們身邊。

    如果你細想,其實還有很多其它有前途的方向。我的個人判斷是:未來 5 到 10 年,將會是 AGI 最快速發(fā)展的黃金十年。如果我們站在未來 30 年的時間節(jié)點,當我們回顧這 10 年時,我們中一定會有人,想起下面的詩句:" 懂得,但為時太晚,他們使太陽在途中悲傷, 也并不溫和地走進那個良夜。"

資訊來源:知乎 作者:張俊林

原文鏈接:https://www.zhihu.com/question/589639535/answer/2937928726

上一篇:“雙高”績效審計應做好五個“必答題”

下一篇:十問GPT與AIGC真實現(xiàn)狀與未來發(fā)展