
OpenAI 的成功不僅屬于一家公司,也屬于一個生態(tài);這個生態(tài)對一個離奇點子的包容,讓靈活商業(yè)探索成為可能。
2011 年 2 月,微軟和諾基亞宣布全面合作,合力挑戰(zhàn) Android 系統(tǒng)。Google 高級副總裁維克·岡多特拉(Vic Gundotra)在社交媒體上評論這。件事:“兩只火雞加一起,也變不成一只鷹?!?/span>
岡多特拉自然是說對了,微軟和諾基亞沒幾年就敗走手機市場。弱弱聯(lián)手挑戰(zhàn)強者,一般都是這樣的結(jié)局。ChatGPT 大熱后,它的締造者 OpenAI 被貼上 “PayPal 黑幫”“烏托邦式創(chuàng)業(yè)” 之類的標簽。但在 2015 年,這個團隊成立之初看起來也是一個妄圖挑戰(zhàn)雄鷹的 “火雞大聯(lián)盟”。OpenAI 的第一批投資者雖然都是硅谷響亮的名字:埃隆·馬斯克(Elon Musk)、彼得·蒂爾(Peter Thiel)、山姆·阿爾特曼(Sam Altman)、里德·霍夫曼(Reid Hoffman)、杰西卡·利文斯頓(Jessica Livingston),但他們所執(zhí)掌的公司和機構(gòu)都不是各自領(lǐng)域里最專精于人工智能的那些。海量數(shù)據(jù)和頂級人工智能科學家一般被認為是發(fā)展人工智能的必備資源。而美國最有資源的正是四大科技巨頭——Google(手機、地圖、搜索、郵件)、Facebook(社交)、蘋果(手機)、亞馬遜(購物)。這四家公司都在幾年內(nèi)達到萬億美元市值,并將人工智能用在自己的產(chǎn)品上。它們當中,只有亞馬遜參與了 OpenAI,但只是捐了一些云計算資源。霍夫曼掌管的 LinkedIn 在數(shù)據(jù)量層面無法和 Facebook 相提并論。阿爾特曼 接手的 Y-Combinator 雖然有名,但孵化的公司最大的也只是 Airbnb。特斯拉是其中唯一一家人工智能巨頭,今天有上百萬輛車每天在全世界搜集數(shù)據(jù)——但在 2015 年,它只是一個年產(chǎn) 5 萬輛,前途未卜的創(chuàng)業(yè)公司。三年后,特斯拉銷量激增、加大人工智能研究投入,馬斯克便退出 OpenAI 董事會,說雙方有 “利益沖突”。就是這樣一個開局,七年后的 OpenAI 成為全球最受關(guān)注的人工智能公司,讓 Google、Facebook 等科技巨頭措手不及。創(chuàng)辦 OpenAI 之前,阿爾特曼在斯坦福大學的課堂提出了公式:創(chuàng)業(yè)成功 = 想法 * 產(chǎn)品 * 執(zhí)行 * 團隊 * 運氣。OpenAI,他唯一成功的創(chuàng)業(yè)項目,完美證明了這個公式。共同的恐懼,
OpenAI 故事的起點是 2015 年 7 月在加州門羅帕克的一場晚宴。召集者是剛接任硅谷著名孵化器 Y Combinator 總裁一年多的阿爾特曼。晚宴出席者們相識已久,不少在創(chuàng)業(yè)時代有過交集。他們還都熟悉瑞典哲學家尼克·博斯特倫(Nick Bostrom)的觀點,都對人工智能的未來充滿恐懼。那時,AlphaGo 還不是全球圍棋冠軍,但計算機識別人臉的準確度已超過人眼,Google 的自動駕駛汽車也早在路上行駛多年,數(shù)千萬人使喚蘋果、亞馬遜的語音助手。機器越來越聰明,雖然還不到人的水平。但根據(jù)博斯特倫 2014 年出版的《超級智能》(Super Intelligence):以計算機發(fā)展規(guī)律,如果人工智能的聰明程度達到接近人類,它的智力用不了多久就會遠遠甩開人類——差距就像人類與老鼠那樣大,但這一次,人類扮演老鼠的角色。馬斯克和阿爾特曼多次公開引用這個觀點,認為人類必須提前做好準備。阿爾特曼和馬斯克沒想著限制它,而是想積極推動開發(fā)造福全人類的人工智能,讓每個人都用上,去對抗壞的人工智能。正是這個宏大的愿景幫他們聚攏了頂級人才。晚宴上,負責 Google Brain 項目的人工智能科學家伊爾亞?蘇茨克維(Ilya Sutskever)當場表示有意加入。他在 2012 年參與提出 AlexNet 模型,證實了深度學習潛力。這被認為今天新一輪人工智能浪潮,包括無人駕駛技術(shù)的起點。另一位加入的技術(shù)天才是今天的 OpenAI 董事長、CTO 格雷格·布羅克曼 (Greg Brockman)。布羅克曼是硅谷新興獨角獸 Stripe 的第 4 位成員,任首席技術(shù)官,推動 Stripe 的估值漲到 35 億美元,并重新塑造了美國電商的支付體驗。如果他繼續(xù)陪著 Stripe 長大,可以在接下來七年獲得數(shù)億美元回報——現(xiàn)在 Stripe 的估值已經(jīng)漲到 630 億美元。但在當時,布羅克曼認為,投身人工智能研究更重要。
左側(cè)是格雷格·布羅克曼,右側(cè)是伊爾亞?蘇茨克維。來自布羅克曼的博客。晚宴結(jié)束后,布羅克曼就開始四處挖人組建團隊。他找的第一個人是約書亞·本吉奧 (Yoshua Bengio)。2019 年,因為對深度學習的貢獻,本吉奧和杰弗里·辛頓(Geoff Hinton)、楊立昆 (Yann LeCun) 一起獲得圖靈獎,唯獨他不在為大公司效力。本吉奧給布羅克曼列了深度學習領(lǐng)域最好的研究人員名單。接下來的幾周,布羅克曼挨個聯(lián)系名單上的人,盡管沒有 Google 、Facebook 等公司的天價薪水,他還是靠著宏大的愿景說動了其中 9 位加入。2015 年底,世界頂級的人工智能學術(shù)會議 NeurIPS(當時還叫 NIPS)舉辦期間,OpenAI 帶著 10 億美元的投資承諾宣告成立,目標是開發(fā) “通用人工智能” 技術(shù),專利和研究成果全部開放。人們驚訝于 OpenAI 的愿景,但沒多少人對這個缺少數(shù)據(jù)的聯(lián)盟有信心。那一年擔任 NeurIPS 大會主席的計算機科學家尼爾 · 勞倫斯(Neil Lawrence)說,OpenAI 的愿景令人欽佩,但 “沒有數(shù)據(jù)共享,OpenAI 將無法造福人類”。沿著 Google 打下的基礎(chǔ),
2016 年,主流的人工智能技術(shù)路線是 “監(jiān)督式的深度學習”,需要用精心標注的數(shù)據(jù)教會計算機自動完成任務(wù)。比如你想讓計算機識別照片中的貓,你需要用上萬張有貓的照片訓練模型,而且要人去標清楚每張圖片中什么是貓,然后計算機才能在新的照片里認出這種毛絨絨的動物。如果之后要識別狗,還得再來一次。但 OpenAI 沒有大規(guī)模的數(shù)據(jù),也沒足夠多的錢雇傭人手去標注數(shù)據(jù)。它選的技術(shù)路線是 “非監(jiān)督的強化學習”。強化學習是指讓機器不斷試錯學習如何做某件事。非監(jiān)督代表著讓機器自己學,不要人引導(dǎo)它。這是 DeepMind 重點研究的技術(shù),他們用它做出了 AlphaGO。曾在 OpenAI 負責技術(shù)路線圖的人工智能科學家達里奧·阿莫代 (Dario Amodei) 評價說,OpenAI 早期開展研究的方式類似風險投資,在一個領(lǐng)域設(shè)定 “投資組合”,不同的團隊往不同的方向下注,最終選出最有可能做出通用人工智能的項目。OpenAI 早期選了三個方向:一是做機器人,他們認為 “機器智力的發(fā)展需要物理實體”,于是開發(fā)出了可以單手玩魔方機器手系統(tǒng) Dactyl;另一個是最游戲人工智能,借助打游戲提升機器智力水平,一開始在雅達利復(fù)古游戲中實驗,后來做了打 Dota 的人工智能;第三個是開發(fā)語言模型,讓人工智能用文本語言學習理解世界,也就是 GPT 系列。前三年,OpenAI 的研究成果沒什么特別的。“我們所做的一切都只是簡單的想法,但正確嗎?我們還沒有搞清楚,有點茫然”,OpenAI 聯(lián)合創(chuàng)始人布羅克曼 2018 年接受采訪說。這時 Google 已經(jīng)遙遙領(lǐng)先,它的語音機器人在發(fā)布會上偽裝成人打電話給餐廳預(yù)訂位置——這很快引發(fā)了商業(yè)公司濫用人工智能的討論。OpenAI 的轉(zhuǎn)折時刻是 2019 年 2 月 14 日發(fā)布 GPT-2 模型,主要功能是根據(jù)用戶輸入的內(nèi)容,生成續(xù)寫文本。比如輸入《指環(huán)王》中的句子,它會在幾次嘗試當中的某一次,生成讓人無法分辨真假、劇情和原著不同,但看上去符合邏輯的續(xù)文。GPT-2 是一個主要用 800 萬篇 Reddit 論壇帖子、總計 40GB 文本訓練出來的語言模型,從數(shù)據(jù)中提煉出來的規(guī)律和特征——也就是參數(shù)有 15 億,是上一代語言模型 GPT 的十倍。阿爾特曼當時參加一檔播客錄制時說:“自然語言模型變得越來越好,是人工智能領(lǐng)域最令人興奮的發(fā)展之一?!?一向言簡意賅的他,把這句話說了兩遍。大型語言模型也是許多大公司投入的方向。Google 發(fā)布了 BERT 系列模型,在閱讀理解、對話等多個文本任務(wù)的表現(xiàn)超過人類,并刷新世界紀錄。微軟在 2020 年初訓練出 Turing-NLG 的大模型,有 170 億參數(shù),是當時最大的模型。不過在大公司,訓練大語言模型只是人工智能研究院的一個項目。而在 OpenAI,這是優(yōu)先級最高的事項,研究員投入 30 多位,它招攬的頂級科學家?guī)缀醵紖⑴c其中。除了之前訓練 GPT-2 時用到的 Reddit 上的數(shù)據(jù)(后來大幅擴充),OpenAI 的科學家還把此前 12 年從 6000 萬個域名中收集的新聞報道、帖子、書籍全文以及各種網(wǎng)頁等數(shù)千億個單詞的英文資料喂進模型,英文維基百科全部只占數(shù)據(jù)量的 3%,然后消耗數(shù)千萬美元的計算資源開發(fā)出了 GPT-3。GPT-3 的參數(shù)是 Turing-NLG 的 10 倍,不需要針對訓練就能寫詩歌 / 報道、回答問題、編寫代碼,大多數(shù)情況下結(jié)果讓人難辨真假。《紐約時報》隨后發(fā)布的一篇專欄文章稱,GPT-3 寫散文、詩歌、代碼的能力 “令人驚奇”“令人羞愧” 又 “令人毛骨悚然”。但這類大語言模型仍然存在一些問題,當時調(diào)用一次就需要消耗不少資源,等待幾分鐘甚至十幾分鐘才能出一個結(jié)果,想要在商業(yè)中應(yīng)用基本不可能。GPT-3 發(fā)布后,OpenAI 朝著兩個方向繼續(xù)前進,一是開發(fā) GPT-4,大概率會在今年發(fā)布。另一個是從 GPT-3 拆出參數(shù)更少、聚焦特定任務(wù)的模型,用更新的數(shù)據(jù)訓練它,配合人類反饋數(shù)據(jù)強化能力,降低成本、提高能力,使其在商業(yè)應(yīng)用上可行。ChatGPT 就是 GPT-3 大幅度強化對話能力、并用數(shù)十萬人類反饋數(shù)據(jù)訓練后的結(jié)果,它的基礎(chǔ)模型被命名為 GPT-3.5。據(jù)報道,ChatGPT 是 OpenAI 在 2022 年 11 月中旬臨時開發(fā)出來的,只用了 13 天時間。起因是 OpenAI 的高管擔心對手先發(fā)布同類產(chǎn)品 “搶它風頭”。結(jié)果超出預(yù)期,ChatGPT 在全球掀起風暴。在 Meta(Facebook 母公司)首席人工智能科學家、圖靈獎得主楊立昆看來,ChatGPT“不特別具有創(chuàng)新性”“沒有什么革命性”。ChatGPT 和它的基礎(chǔ)大模型 GPT-3 的確建立在多年技術(shù)積累上,不少都出自 Google。它最核心的技術(shù)是 Google 在 2017 年提出的 Transformer 模型架構(gòu),讓大規(guī)模并行處理海量數(shù)據(jù)成為可能。因為 ChatGPT 而備受關(guān)注的 “人類反饋強化學習”(RLHF)訓練方式,也是出自 DeepMind,它能讓模型從人類對機器不同的結(jié)果反饋(贊揚或批評)中,不斷學習、改進輸出結(jié)果。就像 iPhone 發(fā)布前,多點觸控的技術(shù)也已誕生多年,歷史上任何一個產(chǎn)生巨大影響力的產(chǎn)品出現(xiàn)前,它背后技術(shù)要素大都齊全。相比在單個方向上實現(xiàn)技術(shù)從 0 到 1 的拓荒創(chuàng)新,OpenAI 做到的不只是把各種技術(shù)融在一起,還在持續(xù)的反饋中迭代 5 年,找到一個適合給大眾使用的產(chǎn)品形態(tài)。對 OpenAI 來說,2018 年以來一直堅持訓練大語言模型,還需要勇氣。GPT-2 發(fā)布前,OpenAI 錢已經(jīng)不太夠用了。根據(jù) OpenAI 提交給美國國稅局的文件,2017 年它光花在云計算上的錢都有 790 萬美元。布羅克曼等人測算,訓練大模型消耗的計算量,每 3、4 個月會翻一倍。這個趨勢得到了驗證。據(jù)多位業(yè)內(nèi)人士估算,OpenAI 訓練 GPT-3 一年,僅算力成本就有 2000 萬美元。而那時,OpenAI 的投資人在 2015 年底承諾的超 10 億美元資金,只到賬了一小部分。與微軟結(jié)盟,
布羅克曼等人推動 OpenAI 完成從 0 到 1 的發(fā)展過程。之后 OpenAI 從花費巨額費用支持 GPT-3 上線到 ChatGPT 震動世界,主要靠阿爾特曼。阿爾特曼去年初在社交媒體上發(fā)的一個帖子,恰如其分地體現(xiàn)了他的世界觀:“我非常感興趣的一種大學替代方案是:找出全球最聰明、最有進取心的 18 歲年輕人,給他們 10 年以上的薪水和資源,讓他們做自己想做的任何項目,配上聰明的同齡人——換他們未來收入里的幾個百分點。”這差不多就是他曾在 YC 做的事:選拔聰明、渴望成功的年輕人,為他們提供培訓,幫他們成功——用一小筆錢(1.2 萬美元)換走創(chuàng)業(yè)項目 7% 股份。硅谷創(chuàng)業(yè)教父保羅·格雷厄姆(Paul Graham)創(chuàng)辦 YC 后,孵化出了 Airbnb、Stripe、Cruise、Dropbox 等超級獨角獸,今天這些公司的總價值已有數(shù)千億美元,超過阿里巴巴或者騰訊。2014 年,格雷厄姆把 YC 交給阿爾特曼時,阿爾特曼除了早年有一次不太成功的創(chuàng)業(yè),職業(yè)經(jīng)歷主要在 YC 孵化器當導(dǎo)師、提供融資建議。但 YC 和大部分投資機構(gòu)不同,它的合伙人不雇投資經(jīng)理,堅持自己理解技術(shù)。投資核聚變項目,也是阿爾特曼自己做的功課。阿爾特曼是阿倫·索金(Aaron Sorkin)電影里典型的聰明人形象,語速很快、回答簡練。他有比師傅更大的野心、更激進的時間表。2015 年,阿爾特曼被問及 YC 在五年后會怎樣,他回答 “一年投資一千家公司”。這個數(shù)字是他接手前,YC 十年孵化的公司總數(shù)。
不過他沒有待到那個時候。2019 年初,阿爾特曼辭去 YC 總裁的職務(wù),接管 OpenAI。他在 OpenAI 做的第一件事,就是組建盈利公司 OpenAI LP,然后自己擔任首席執(zhí)行官(CEO),找融資。“最引人注目的人工智能系統(tǒng),除了需要算法創(chuàng)新,還消耗最多的計算資源,”O(jiān)penAI 同期發(fā)布的一篇博文中寫道,“接下來幾年,我們要投資數(shù)十億美元采購云計算資源,吸引并留住有才能的人?!?/span>當時硅谷有這等資源的公司基本都在投資自己的人工智能技術(shù)。阿爾特曼多次飛去西雅圖,為微軟 CEO 薩蒂亞·納德拉(Satya Nadella)現(xiàn)場展示 OpenAI 的模型。微軟早年為了 Windows 全力打擊競爭對手,是硅谷創(chuàng)新者們眼中的 “惡人”。但納德拉接手微軟后不再追逐操作系統(tǒng)的占有率,改去資本市場講云計算的故事。雙方有了合作空間。2019 年 7 月,經(jīng)過一個多月的談判后,OpenAI 拿到微軟的 10 億美元投資,雙方的利益也達成了微妙的平衡。對納德拉來說,投資 OpenAI 是一筆劃算的生意。簽約后,微軟成了 OpenAI 的唯一云計算供應(yīng)商——投出去的錢,相當一部分變成了微軟的云計算收入。微軟還成了 OpenAI 技術(shù)商業(yè)化的 “首要合作伙伴”。這意味著其他公司想使用 OpenAI 的技術(shù),最好的方式是通過微軟的 Azure 云計算。OpenAI 從這筆融資中獲得了繼續(xù)訓練大模型的資源。布羅克曼隨后接受采訪強調(diào),授權(quán)部分技術(shù)(給微軟)是為了獲取研發(fā)通用人工智能的資金,OpenAI 仍有選擇權(quán),沒義務(wù)必須把微軟選定的技術(shù)授權(quán)給它,“如果與 OpenAI 的使命相悖,我們不會做”。據(jù)市場消息,在 2019 年到 2023 年之間,微軟又投資了 OpenAI 20 億美元。2023 年初,OpenAI 發(fā)布 ChatGPT 引發(fā)大量關(guān)注的同時,微軟再次向它投資 100 億美元。除了業(yè)務(wù)上協(xié)同,OpenAI 還在股權(quán)架構(gòu)與利潤分配上,與微軟等投資方達成了一種罕見的協(xié)議:微軟新一輪投資完成、OpenAI LP 首批投資人收回初始投資后,微軟有權(quán)獲得 OpenAI LP 75% 利潤;微軟收回 130 億美元投資、從 OpenAI LP 獲得 920 億美元利潤后,它分享利潤的比例從 75% 降到 49%;OpenAI LP 產(chǎn)生的利潤達到 1500 億美元后,投資方的全部股權(quán)轉(zhuǎn)讓給 OpenAI 的非營利基金。可以說,微軟這上百億美元的投資是 “租了 OpenAI”。等 OpenAI 開始賺大錢之后,微軟能直接分錢。但如果 OpenAI 變得極其賺錢,就能拿回微軟手中的股份,不再受其制約。不過 1500 億美元是個非常遙遠的目標。據(jù)多個媒體獲取的 OpenAI 財務(wù)信息,OpenAI 預(yù)計今年營收會達到 2 億美元,2024 年會達到 10 億美元。全球最賺錢的商業(yè)公司蘋果也是最近一個財年才有 1000 億美元利潤。雖然何時能夠盈利仍是未知數(shù),但 OpenAI 已經(jīng)有了獲取收入的能力。而且它賺錢的方式也是更有想象力的平臺模式。是一個產(chǎn)品,
過去兩個多月,ChatGPT 的影響力迅速擴大,成千上萬關(guān)于它的截圖和模仿者的努力,讓更多人關(guān)注到它背后的 OpenAI 和 GPT-3 系列模型。在 ChatGPT 出現(xiàn)之前,OpenAI 就已經(jīng)從 GPT-3 中拆出了兩個模型。一個是優(yōu)化編程能力的 CodeX,成為 GitHub 上自動補齊代碼應(yīng)用 Copilot 的基礎(chǔ),輔助了上百萬程序員寫代碼。Copilot 去年 8 月開始收費,每月 10 美元。另一個是 DALL-E,在 120 億參數(shù)的 GPT-3 基礎(chǔ)上用網(wǎng)絡(luò)上的數(shù)億圖片訓練的模型,它的迭代版 DALL-E2 可以根據(jù)一句話生成逼真圖像,去年也曾掀起 AIGC (人工智能生成內(nèi)容)潮流。在這些應(yīng)用中,OpenAI 的主要商業(yè)模式是出售 API(應(yīng)用編程接口),讓開發(fā)者調(diào)用基礎(chǔ)模型開發(fā)應(yīng)用,按最終用戶使用服務(wù)的次數(shù)收費。GPT-3 系列模型帶來的新機會不只屬于重金投資 OpenAI 的微軟。2021 年 5 月,OpenAI 設(shè)立創(chuàng)業(yè)基金,到現(xiàn)在投資了 10 多家使用 OpenAI 模型接口開發(fā)應(yīng)用的公司。阿爾特曼還把 YC 模式帶到了 OpenAI,推出創(chuàng)業(yè)加速器項目 Converge,用 100 萬美元投資換創(chuàng)業(yè)公司 10% 的股份。還有更多淘金者沖進來。根據(jù) gpt3demo 網(wǎng)站統(tǒng)計,現(xiàn)在已經(jīng)有了 628 個調(diào)用 GPT-3 系列模型開發(fā)的應(yīng)用程序,比 ChatGPT 出現(xiàn)前多了 160 家。背靠 GPT-3 模型的寫作輔助工具 Jasper,成立 18 個月估值就竄到 15 億美元。今天最成功的技術(shù)巨頭,幾乎都是先做了一個成功的產(chǎn)品,然后將這個產(chǎn)品變成一個基礎(chǔ)設(shè)施,孕育一代新的創(chuàng)業(yè)公司。1980 年代初,IBM 開放個人電腦標準,在賣電腦的同時讓電腦硬件有了統(tǒng)一的標準,成為一個平臺。隨后微軟開發(fā)更易用的 Windows 操作系統(tǒng),砍掉了得會編程才能用電腦的門檻,讓更多人用上電腦,孕育軟件和互聯(lián)網(wǎng)的創(chuàng)業(yè)機會。再到互聯(lián)網(wǎng)時代,一開始只做搜索引擎的 Google 和賣書的亞馬遜都各自成長為平臺,支持不同的新公司,從中抽取收入。智能手機也是類似的演化路徑,從 iPhone 開始,全程以比 PC 更快的速度、更大的規(guī)模重來了一遍。人工智能也在延續(xù)類似路徑發(fā)展。過去幾十年,英偉達等芯片公司和 AWS、微軟搭建出了算力基礎(chǔ)設(shè)施。在這個基礎(chǔ)上,Google 和 Meta 開發(fā)出了 TensorFlow、Pytorch 等軟件基礎(chǔ)設(shè)施,一步步壓低門檻,各種人工智能嘗試隨之出現(xiàn)。GPT-3 和 ChatGPT 在生成文字逗你玩的同時,也是人工智能生成內(nèi)容的基礎(chǔ)設(shè)施,意味著創(chuàng)業(yè)公司有可能在它的基礎(chǔ)上找到突破口,讓這個技術(shù)找到現(xiàn)實的應(yīng)用。最終,OpenAI 的成功不僅屬于一家公司,也屬于一個生態(tài);這個生態(tài)對一個離奇點子的包容,讓靈活商業(yè)探索成為可能。
來源:騰訊科技