免费高清特黄a大片,九一h片在线免费看,a免费国产一级特黄aa大,国产精品国产主播在线观看,成人精品一区久久久久,一级特黄aa大片,俄罗斯无遮挡一级毛片

分享

GPT、DALL·E、Sora,為什么 OpenAI 可以跑通所有 AGI 技術(shù)棧?

 昵稱35641324 2024-02-20 發(fā)布于四川

Sora 的出現(xiàn),再次證明了 OpenAI 試圖讓計算機去模擬真實物理世界的野心,以及它對于自身技術(shù)路線的堅持。從 OpenAI 發(fā)布的 Sora 的技術(shù)報告中,我們可以看到很多 OpenAI 對于過往大語言模型訓練成功經(jīng)驗的復用。

從文本生成模型 GPT、文生圖模型 DALL·E,到文生視頻模型 Sora,OpenAI 可以說成功跑通了 AGI 的所有技術(shù)棧,為什么是 OpenAI 而不是谷歌、Meta?

加州大學伯克利分校 (UC Berkeley) 計算機科學 PHD、知乎作者 SIY.Z 從技術(shù)實現(xiàn)上分析了 Sora 成功的部分原因,以及從商業(yè)和技術(shù)趨勢上分析了 OpenAI 能跑通全部技術(shù)棧的原因,并且嘗試預測了 OpenAI 下一步的進展,F(xiàn)ounder Park 授權(quán)轉(zhuǎn)載,并進行了部分刪減。


01

Sora 的技術(shù)分析:借鑒了 LLM 的成功經(jīng)驗

Sora 多么牛逼多么真實之類的就不多談了,只用一句話就能概括:隨便拿視頻中的一幀出來,效果都不亞于 Dalle-3 精心生成一張圖片,而且這些圖片放在一起可以構(gòu)成基本符合真實世界物理邏輯的視頻。而且 Sora 本身其實也可以做圖片生成,只是大材小用了。

如果限制必須用一個詞來展現(xiàn) OpenAI 的最核心的技術(shù),我覺得便是 scaling law——即怎么樣保證模型越大,數(shù)據(jù)越多,效果就越好。Sora 也不例外。一句話概括 Sora 的貢獻,便是:在足量的數(shù)據(jù),優(yōu)質(zhì)的標注,靈活的編碼下,scaling law 在 transformer + diffusion model 的架構(gòu)上繼續(xù)成立。在 Sora 的技術(shù)報告*中可以看出,OpenAI 實現(xiàn) scaling law 的想法其實很大程度上沿襲了大語言模型的經(jīng)驗。

* https:///research/video-generation-models-as-world-simulators

足量的數(shù)據(jù)

訓練 Sora 用了多少數(shù)據(jù)?不出意外,OpenAI 在整個技術(shù)分析中一點都沒有提數(shù)據(jù)的事情,這可太 CloseAI 了。但是鑒于內(nèi)容的豐富性(比如甚至可以生成相當連貫一致的 Minecraft 游戲視頻),我猜測很可能是大量的 YouTube 視頻,同時也不排除有合成數(shù)據(jù)(比如 3D 渲染等)。未來可能用整個 YouTube 上的視頻來訓練視頻生成模型,就和大家用 Common Crawl 訓練大語言模型一樣。

靈活的編碼(visual patches)

在大語言模型的構(gòu)建中,一個非常重要的部分便是它的 tokenizer。tokenizer 使得任何長度和內(nèi)容的文本都能編碼成語言模型可以直接處理(輸入/輸出)的對象,即 embeddings。embeddings 在 Sora 中的對應物稱為 visual patches,tokenizer 對應的是 video compression network,應該是某種 convolutional VAEs (文章沒有說明是不是 VQ-VAE)。

圖片

具體做法是用 video compression network (visual encoder) 首先將輸入視頻的時間和空間維度同時進行壓縮,編碼成一個和視頻大小成正比的 3D visual patch array,然后再將它按照某種順序展開成 1D array of patches,送入到 transformer model 中(具體方式應該是參考了 https:///abs/2212.09748)。這樣帶來了不少好處:

  1. 靈活的分辨率。Sora 可以生成 1920x1080p(橫屏)- 1080x1920p(豎屏)之間任何形狀的視頻。這也讓 OpenAI 可以在早期使用低分辨率的視頻來試錯。
  2. 生成的視頻的邊框更加合理。OpenAI 試過使用固定分辨率,這樣帶來一個很顯然的問題——需要裁剪視頻。這種數(shù)據(jù)的 bias 會被帶入到模型中,促使模型生成很多內(nèi)容在框外的視頻。

優(yōu)質(zhì)的標注

和 DALL·E 3 一樣,OpenAI 用內(nèi)部工具(很可能基于 GPT4-v)給視頻詳盡的描述,提升了模型服從 prompt 的能力,以及視頻的質(zhì)量(還有視頻中正確顯示文本的能力)。我認為這是非常關(guān)鍵的一點,是 OpenAI 的殺手锏,對于視頻尤其重要。原因很簡單,可以從兩個角度解釋:

(1)神經(jīng)網(wǎng)絡是個單射函數(shù),擬合的是文本到視頻的映射。視頻的動態(tài)性非常高,也就是有很大的值域,為了把這個函數(shù)學好,需要定義域也很大很豐富,這就需要復雜的 prompt 了。

(2)詳細的文本也迫使神經(jīng)網(wǎng)絡學習文本到視頻內(nèi)容的映射,加強對于 prompt 的理解和服從。

另外一個細節(jié):這種詳盡的描述會導致在使用時的 bias——用戶的描述都相對較短。和 DALL·E 3 一樣,OpenAI 用 GPT 來擴充用戶的描述來改善這個問題,并提高使用體驗和視頻生成的多樣性。

除了文本以外,Sora 也支持圖像或者視頻作為 prompt,支持 SDEdit,并且可以向前或者向后生成視頻,因此可以進行多樣的視頻的編輯和繼續(xù)創(chuàng)作,比如生成一個首尾相連重復循環(huán)的視頻:

甚至可以連接兩個截然不同的視頻:

Transformer + diffusion model 的架構(gòu)

不算特別意外,OpenAI 使用了 transformer 作為主要架構(gòu),結(jié)合 diffusion model,幸好還不是端到端的 autoregressive 模型,否則太嚇人了(不過這樣一來,transformer 在自然語言處理,圖像視頻生成,語音合成(最近 amazon 的工作 BASE TTS: Lessons from building a billion-parameter Text-to-Speech model on 100K hours of data*),科學計算(AlphaFold,GraphCast)等最困難的領域都孤獨求敗了。

*https:///abs/2402.08093

Transformer 架構(gòu)在圖像分類等領域還沒有占領絕對優(yōu)勢很難說是不是因為任務太簡單了或者數(shù)據(jù)太少了)。我覺得使用 diffusion model 的主要原因是 diffusion model 能夠生成非常精細的細節(jié),且可以玩出各種有趣的操作(比如 SDEdit)。

架構(gòu)上大概率參考了 Scalable Diffusion Models with Transformers*,這是 Sora 技術(shù)分析中引用的文章,Sora 部分透露出的細節(jié)和這篇文章比較吻合。Sora 這次再次驗證了 Transformer 架構(gòu)能夠勝任 scaling law。

*https:///abs/2212.09748

涌現(xiàn)現(xiàn)象

OpenAI 每次提到 scaling law 時幾乎都會伴隨著 emerging properties,這次也不例外,有以下幾點(其實這里放的視頻才是真正和目前視頻生成區(qū)別開的,具體什么意思不用多說一看便知):

1.保證良好的 3D 空間性質(zhì)(視角變換,物體遮擋等的合理性)

2.時間上物體的連貫性(不會因為遮擋或者時間流逝改變物體原有狀態(tài))

3.模擬現(xiàn)實物理的交互

4.連數(shù)字世界都可以模擬(這個生成的 Minecraft 視頻真的驚到我了,一開始我還以為是參考視頻,沒想到是生成的)

然后讓我們看看 Sora 之前的很多視頻生成模型的水平(因為太糟甚至成了梗),高下立判 (聲音和古怪內(nèi)容警告):

Sora 的缺陷

一句話:還不足以完全模擬所有現(xiàn)實中的物理過程,比如流體動力學(不過如果這個可以看視頻就準確模擬出來就太可怕了,都讓人懷疑世界是虛擬的了):

一個真正的物理世界模型,估計給它放一段衛(wèi)星云圖視頻,它就能把下面幾天的氣候變化給模擬出來,實現(xiàn)用視頻生成模型預測天氣,看股市曲線變化預測股價 lol,這樣來說,OpenAI 要走的路還有很長。

02

OpenAI 的愿景是讓 AI 理解世界

Sora 不止步于視頻生成工具,它的背后是 OpenAI 的宏大愿景:開發(fā)出能夠讓計算機理解我們世界的算法和技術(shù),而 OpenAI 認為最有可能的技術(shù)之一是生成模型 (generative model)。

OpenAI 的 blog 中對 Sora 的定位正是「作為世界模擬器的視頻生成模型」。這里是 OpenAI 2016 (!) 年一篇文章的原話 (鏈接:https:///research/generative-models):

我們常常會忽略自己對世界的深刻理解:比如,你知道這個世界由三維空間構(gòu)成,里面的物體能夠移動、相撞、互動;人們可以行走、交談、思考;動物能夠覓食、飛翔、奔跑或吠叫;顯示屏上能展示用語言編碼的信息,比如天氣狀況、籃球比賽的勝者,或者 1970 年發(fā)生的事件。
這樣龐大的信息量就擺在那里,而且很大程度上容易獲得——不論是在由原子構(gòu)成的物理世界,還是由數(shù)字構(gòu)成的虛擬世界。挑戰(zhàn)在于,我們需要開發(fā)出能夠分析并理解這些海量數(shù)據(jù)的模型和算法。
生成模型是朝向這個目標邁進的最有希望的方法之一。要訓練一個生成模型,我們首先會在某個領域收集大量的數(shù)據(jù)(想象一下,數(shù)以百萬計的圖片、文本或聲音等),然后訓練這個模型去創(chuàng)造類似的數(shù)據(jù)。這個方法的靈感來自于理查德·費曼的一句名言:
「我所無法創(chuàng)造的,我也不能理解?!梗矗阂嬲斫庖粋€事物,你需要去創(chuàng)造它) 
這個方法的妙處在于,我們使用的神經(jīng)網(wǎng)絡作為生成模型,其參數(shù)的數(shù)量遠遠少于訓練它們的數(shù)據(jù)量,這迫使模型必須發(fā)現(xiàn)并有效地吸收數(shù)據(jù)的精髓,以便能夠創(chuàng)造出新的數(shù)據(jù)。

當年最先進的生成模型止步于 DCGAN,2016 年文章中的附圖展示了當時的最先進效果:

圖片

而 8 年后的今天:

這確實讓人不得不相信 AGI 也許在 21 世紀確實可以實現(xiàn)。而對于 OpenAI,實現(xiàn) AGI 的一個途徑便是開發(fā)出能夠讓計算機理解我們世界的算法和技術(shù)(生成模型),Sora 是非常重要的一步,即作為世界模擬器的視頻生成模型。

03

為什么 OpenAI 可以跑通所有 AGI 技術(shù)棧?

目標和商業(yè)模式明確

對于 OpenAI,目前的目標很明確:就是 all in AGI,一切研究圍繞著探索通往 AGI 的路徑。

而商業(yè)模式上也很簡單:SaaS,直接給 API,接口設計內(nèi)部自己決定,付多少錢用多少,不想用就不用,這樣省去了很多產(chǎn)品設計,marketing,BD 的時間,伺候甲方的時間(有比較可靠的消息稱即使 Microsoft 的 Copilot 等產(chǎn)品也是直接用的 API,沒有花功夫做太多的定制),整個公司可以集中精力開發(fā) AGI。

有人可能說:不是啊,OpenAI 不是還有 ChatGPT 的用戶界面,手機端語音聊天,以及 GPTs 嗎?但是仔細想想,這幾個部分 OpenAI 可以說是「非常不用心」了。

比如 ChatGPT Plus 是怎么自動融合搜索,圖片生成,代碼調(diào)用等工具的?單獨做了一套深度優(yōu)化?不,答案是 OpenAI 給了一個巨大的 prompt,讓模型自己去選。

OpenAI 是怎么和各種第三方插件結(jié)合的,是單獨做了匹配和接口?不,答案是直接讓這些 plugins 描述自己是什么,然后模型自己調(diào)用,至于調(diào)用得對不對那就是另外一件事情了。這里最典的是最近 OpenAI 怎么實現(xiàn)「記憶」的,給大家看看 OpenAI 的完整 prompt(李博杰提供的,每個人可以誘導 ChatGPT 說出這些,OpenAI 也不在乎):

You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. Knowledge cutoff: 2023-04 Current date: 2024-02-15 Image input capabilities: Enabled Personality: v2# Tools ## bio The `bio` tool allows you to persist information across conversations. Address your message `to=bio` and write whatever information you want to remember. The information will appear in the model set context below in future conversations.
## dalle // Whenever a description of an image is given, create a prompt that dalle can use to generate the image and abide to the following policy: // 此處省略 1000
## browser You have the tool `browser`. Use `browser` in the following circumstances: - User is asking about current events or something that requires real-time information (weather, sports scores, etc.) - User is asking about some term you are totally unfamiliar with (it might be new) - User explicitly asks you to browse or provide links to references
// 此處省略 1000
## python When you send a message containing Python code to python, it will be executed in a stateful Jupyter notebook environment. python will respond with the output of the execution or time out after 60.0 seconds. The drive at '/mnt/data' can be used to save and persist user files. Internet access for this session is disabled. Do not make external web requests or API calls as they will fail.
## voice_mode // Voice mode functions are not available in text conversations. namespace voice_mode { } // namespace voice_mode
## Model Set Context 1. [2024-02-14]. Obtained PhD from Microsoft Research Asia and USTC in 2019. 2. [2024-02-14]. Running an early-stage AI startup since July 2023. 3. [2024-02-14]. Loves writing blogs, traveling and documenting everything. 4. [2024-02-15]. Experience in writing Python. 5. [2024-02-15]. Interested in digital extension of humanity. 6. [2024-02-15]. First met ChatGPT on Dec. 1st, 2023.

OpenAI 直接用 prompt 讓 GPT-4 調(diào)用 bio 這個工具記錄需要記憶的內(nèi)容(「to=xxx」是調(diào)用內(nèi)部工具的語法,比如'to=python'是 GPT 調(diào)用 code interpreter 的方式)。然后每次新的對話開始時,在 prompt 的最后直接加上所有之前的記錄的內(nèi)容(## Model Set Context)。

就是這么簡單粗暴。

GPTs 怎么做的?其實很大程度就是 OpenAI 的 Assistant API 加個簡單得有點簡陋的前端。(PS:現(xiàn)在有了 OpenAI Assistant API 后,你發(fā)現(xiàn)加個 UI 就可以很輕松的復刻 OpenAI 上線的大部分功能。)

那么語音對話呢?

你會發(fā)現(xiàn)就是換了一個 prompt,告訴 GPT 盡量生成短的內(nèi)容,不要輕易生成列表和代碼。語音合成用 TTS API,識別用 whisper API(可能有針對上下文的優(yōu)化),結(jié)束。

這些選擇看上去非常暴力,而且會給 OpenAI 增加開銷(長的 prompt 會明顯增大開銷),但是 OpenAI 仍然選擇這么做,因為這讓 OpenAI 將大部分精力都花在模型本身的研發(fā)上,同時這也是 OpenAI 的方法論的極致體現(xiàn),我們下面會提到。這種方法論讓 OpenAI 追求一個大的通用的模型,避免一切定制和特化,就像最近 Sam 說的一樣,希望 GPT-5 的出現(xiàn)能讓模型微調(diào)失去意義;這樣 OpenAI 就變成了完完全全的 SaaS 服務。

方法論明確

OpenAI 的方法論是通往 AGI 的方法論。這個方法論有著非常清晰的邏輯結(jié)構(gòu),和非常明確的推論。我們甚至可以用公理化的方式來描述它,怎么說呢,感覺上有一種宿命感,。

這套方法論的大廈構(gòu)建于以下幾個「公理」(打引號是因為它們不是真正的「公理」,更多是經(jīng)驗規(guī)律,但是在 AGI 方法論中,它們起到了公理的作用):

公理 1: The bitter lesson*。

我認為所有做 AI 的人都應該熟讀這篇文章。「The bitter lesson」說的事情是,長期來看,AI 領域所有的奇技淫巧都比不過強大的算力夾持的通用的 AI 算法(這里「強大的算力」隱含了大量的訓練數(shù)據(jù)和大模型)。某種意義上,強大的算力加持的通用的 AI 算法才是 AGI 路徑的正道,才是 AI 技術(shù)真正進步的方向。從邏輯主義,到專家系統(tǒng),到 SVM 等核方法,到深度神經(jīng)網(wǎng)絡,再到現(xiàn)在的大語音模型,莫不過此。

*www.cs.utexas.edu/~eunsol/courses/data/bitter_lesson.pdf

公理 2: Scaling Law。

這條公理說了,一旦選擇了良好且通用的數(shù)據(jù)表示,良好且通用的數(shù)據(jù)標注,良好且通用的算法,那么你就能找到一套通用規(guī)律,保證數(shù)據(jù)越多,模型越大,效果越好。而且這套規(guī)律穩(wěn)定到了可以在訓練模型之前就能預知它的效果:

圖片

如果說 公理 1 The bitter lesson 是 AGI 的必要條件——大模型,大算力,大數(shù)據(jù),那么公理 2 Scaling Law 就是 AGI 充分條件,即我們能找到一套算法,穩(wěn)定的保證大模型,大算力,大數(shù)據(jù)導致更好的結(jié)果,甚至能預測未來。

而具體來談,就是我們之前說的「良好且通用的數(shù)據(jù)表示,良好且通用的數(shù)據(jù)標注,良好且通用的算法」,在 GPT 和 Sora 中都有相應的內(nèi)容:

  • 在 GPT 中,良好且通用的數(shù)據(jù)表示,是 tokenizer 帶來的 embedding。良好且通用的數(shù)據(jù)標注是文本清理和去重的一套方法(因為自然語言訓練是 unsupervised training,數(shù)據(jù)本身就是標注)。良好且通用的算法就是大家熟知的 transformers + autoregressive loss。
  • 在 Sora 中,良好且通用的數(shù)據(jù)表示,是 video compress network 帶來的 visual patch。良好且通用的數(shù)據(jù)標注是 OpenAI 自己的標注器給視頻詳細的描述(很可能是 GPT-vision)。良好且通用的算法也是大家熟知的 transformers + diffusion

「良好且通用的數(shù)據(jù)表示,良好且通用的數(shù)據(jù)標注,良好且通用的算法」同時也為檢測 scaling law 做好了準備,因為你總是可以現(xiàn)在更小規(guī)模的模型和數(shù)據(jù)上檢測算法的效果,而不用大幅更改算法。比如 GPT1,2,3 這幾代的迭代路徑,以及 Sora 中 OpenAI 明確提到 visual patch 使得他們用完全一樣的算法在更小規(guī)模的數(shù)據(jù)上測試。

公理 3: Emerging properties。

這條公理其實是一條檢驗公理:我怎么知道 scaling law 帶來「質(zhì)變」,而不僅僅是「量變」?答案是:你會發(fā)現(xiàn),隨著 scaling law 的進行,你的模型突然就能穩(wěn)定掌握之前不能掌握的能力,而且這是所有人能夠直觀體驗到的。

比如 GPT-4 相比于 GPT-3.5,可以完成明顯更復雜的任務,比如寫一個 26 行詩來證明素數(shù)是無限的,每行開頭必須是從 A 到 Z。比如 Sora 相對于之前的模型,它的時空一致性,以及對現(xiàn)實中物理規(guī)律的初步掌握。沒有 Emerging properties,我們很難直觀感覺到突破性的變化,很難感知「我們真的向 AGI 前進了一步」,或者是「我們跑通了一個技術(shù)?!?。

從上面的公理中,我們就可以理解 OpenAI 的各種決策了,并且可以預見 OpenAI 未來的行為。

推論 1:世界模型。

大量數(shù)據(jù)從哪里來?什么東西能夠產(chǎn)生最多的數(shù)據(jù)?AGI 需要什么樣的數(shù)據(jù)才能通用地處理世界上的一切事情?答案就是:世界本身。世界本身產(chǎn)生最多的數(shù)據(jù)(或者極端一點,世界就是數(shù)據(jù)),而世界產(chǎn)生的數(shù)據(jù),也是 AGI 需要的數(shù)據(jù)的最小集合,因為我們也只需要或者只能讓 AGI 處理這個世界的事情。可以預見,OpenAI 未來還會執(zhí)著于持續(xù)獲得或者構(gòu)造數(shù)據(jù)。

推論 2:世界生成模型。

要最有效的利用數(shù)據(jù),我們需要最困難的,需要最多數(shù)據(jù),且能利用所有數(shù)據(jù)的任務。這樣的任務可能只有一個:模擬和生成整個世界(人類所有的智能只是一小塊)。因此 OpenAI 需要做生成模型,并且是能夠模擬和生成物理世界的模型,通過生成這個世界,實現(xiàn)對世界的理解。最近火爆的 Sora 便是其中之一。這個想法也和費曼的名言對應:「我不能創(chuàng)造的,我也不能真正理解」。可以預見,OpenAI 未來還會在更多的模態(tài)和數(shù)據(jù)上去做生成模型。

推論 3:通用模型。

通用模型還是專用模型能用到更多數(shù)據(jù)?顯然是通用模型。而通用模型也減少了 OpenAI 的技術(shù)棧,因為一個模型能解決更多問題。這也導致之前提到的 OpenAI 解決各種問題時更傾向于用同一種模型,而不是做非常多不同的定制??梢灶A見,OpenAI 未來可能會繼續(xù)走通用模型的道路,降低 finetuning 等特化的需求,繼續(xù)增加模型的 context length。

推論 4:用一個模型為另一個模型提供標注。

由于當前技術(shù)限制,OpenAI 仍然無法用一個模型完成所有的任務,這樣一個的模型收到數(shù)據(jù)就變少了。然而,我們可以用一個模型給另一個模型提供標注的形式,來間接實現(xiàn)數(shù)據(jù)供給。OpenAI 的 Dall E 和 Sora 都用到了大量可能來自于 GPT vision 的數(shù)據(jù)標注。這樣 OpenAI 的各個技術(shù)棧都可以連通起來??梢灶A見,OpenAI 未來可能會繼續(xù)加強各個模型的連接,比如將來用 Sora 反向給 GPT vision 給數(shù)據(jù)都是可能的;用一個已有模型去構(gòu)造更多數(shù)據(jù)也會是一個重要的方向(比如 backtranslation,data distillation 等等)。

推論 5:Transformer 架構(gòu)。

我們需要一種能夠并行處理大量數(shù)據(jù)吞吐,且滿足 scaling law 的架構(gòu)。transformer 架構(gòu)充分證實它在各個模態(tài)和技術(shù)棧的優(yōu)勢,特別在復雜任務中,因而被 OpenAI 廣泛使用。使用同樣一個架構(gòu)的好處在于可以復用模型的參數(shù)(比如 tokenizer,embeddings,以及部分權(quán)重)來 bootstrap 不同技術(shù)棧的訓練,以及可以用一套 infra 框架訓練不同的模型??梢灶A見,將來新的模型如果要取代傳統(tǒng)的 transformer 架構(gòu),還需要通過 scaling law 的檢驗。

推論 6:稀疏模型。

模型越大,性能越好,但是推理的成本也越高,這看上去是個死結(jié)。但是我們可以使用稀疏激活的方式,在推理時降低實際的參數(shù)量,從而在訓練中使用更多參數(shù)的同時,降低推理的成本。Mixture-of-Experts 就是常用的方法之一,被 OpenAI 采用,從而繼續(xù) scale 模型的大小。未來稀疏化仍會是一個重要的課題,目前即使 Mixture-of-Experts 的稀疏也會造成推理性能的損失,尚不清楚稀疏化的極限在何處。

推論 7:算力是瓶頸。

最終卡 OpenAI 脖子的是算力。大算力系統(tǒng)的構(gòu)建也是 OpenAI 打通各個技術(shù)棧的底氣。有人可能認為,高質(zhì)量文本是有限的,因此實際上模型大小有個極限。但是以世界模型的角度來考慮,OpenAI 現(xiàn)在用的數(shù)據(jù)仍然是冰山一角,更不用說 Q*等方法或許可以以間接方式創(chuàng)造數(shù)據(jù)。比如最近 OpenAI GPT-4-Turbo,作為一個 distillation 模型,在很多評測上都超過原來的模型,就是一個例證。

直到目前,作為局外人仍然看不到 scaling law 的盡頭。而且即使不開發(fā)任何新的模型,OpenAI 離「用 GPT-4 服務所有人」的目標仍然很遠。所以算力在可見的未來都是一個巨大的瓶頸。這也可以理解 Sam 為何有「7 萬億重構(gòu)芯片產(chǎn)業(yè)」的想法了??梢灶A見,OpenAI 可能在未來在芯片以及整個 AI Infra 方面嘗試更多的自研和垂直集成。

總結(jié)來看,OpenAI 采取的商業(yè)模式以及其對于 AGI 的信奉、系統(tǒng)性的方法論以及積極的嘗試,都在推動他們朝著實現(xiàn)通用人工智能的目標前進,實現(xiàn)了一種可以跑通所有 AGI 技術(shù)棧的模式,而這一點,是 OpenAI 能在眾多研究機構(gòu)和公司中脫穎而出的重要因素。

未來,OpenAI 可能繼續(xù)朝著商業(yè)化的道路前進,并在世界模型、模型標注、通用模型、模型架構(gòu)、稀疏模型數(shù)據(jù)擴充等方面進行更深入的探索和實踐。同時,OpenAI 也會持續(xù)關(guān)注和應對算力帶來的挑戰(zhàn),尋找突破算力瓶頸的解決之道。



    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多