是我創(chuàng)造了首個 LLM:Kaggle 前首席科學家一句話引發(fā) AI 學術(shù)圈考古行動
2025-04-09 15:21:10 小編:鑫昌軟件園
論如何在技術(shù)圈爭論中一句話噎到對方:
哥們,是我創(chuàng)造了第一個大語言模型。
發(fā)言者 Jeremy Howard 為澳大利亞昆士蘭大學名譽教授、曾任 Kaggle 創(chuàng)始總裁和首席科學家,現(xiàn) answer.ai 與 fast.ai 創(chuàng)始人。
事情的起因是有人質(zhì)疑他最近的項目 llms.txt 在幫助大模型爬取互聯(lián)網(wǎng)信息上并沒太大作用,從而引發(fā)了這段爭論,迅速引起眾人圍觀。
聞訊而來的“賽博考古學家們”一番考據(jù)之后,發(fā)現(xiàn)第一個大語言模型這個說法還真有理有據(jù):
2018 年初,Jeremy Howard 發(fā)表的論文 ULMFiT,使用非監(jiān)督預訓練-微調(diào)范式達到當時 NLP 領(lǐng)域的 SOTA。
甚至 GPT-1 的一作 Alec Radford,在發(fā)表 GPT-1 時也公開承認過 ULMFiT 是靈感來源之一。
有人搬出綜述論文,指出從“遺傳學”視角看,ULMFiT 是所有現(xiàn)代大模型“最后的共同祖先”。
還有好事者軟件工程師 Jonathon Belotti,專門寫了一篇完整考據(jù)《誰才是第一個大語言模型》
大語言模型起源考據(jù)
首先來介紹一下 ULMFiT 這篇論文,入選 ACL 2018:
提出有效遷移學習方法,可應用于 NLP 領(lǐng)域的任何任務,并介紹了微調(diào)語言模型的關(guān)鍵技術(shù),在六個文本分類任務上的表現(xiàn)明顯優(yōu)于當時的 SOTA 方法,在大多數(shù)數(shù)據(jù)集上將錯誤率降低了 18-24%。此外,僅使用 100 個帶標簽的示例,它的性能就與在 100 倍以上數(shù)據(jù)上從頭開始訓練的模型性能相當。
那么 ULMFit 算不算第一個大語言模型呢?Jonathon Belotti 考據(jù)遵循這樣的思路:
首先找一個大家都公認肯定算大語言模型的成果,GPT-1 肯定符合這個標準。
再從 GPT-1 和后續(xù) GPT-2、GPT-3 中提取一個模型成為成為大語言模型的標準:
[1]https://x.com/jeremyphoward/status/1905763446840607164
[2]https://thundergolfer.com/blog/the-first-llm
首先要是一個語言模型,根據(jù)輸入預測人類書面語言的組成部分,不一定是單詞,而是 token
核心方法是自監(jiān)督訓練,數(shù)據(jù)集是未標記的文本,與此前特定于任務的數(shù)據(jù)集有很大不同
模型的行為是預測下一個 token
能適應新的任務:不需要架構(gòu)修改,就有 few-shot 甚至 one-shot 能力
通用性:可以先進的性能執(zhí)行各種文本任務,包括分類、問答、解析等
接下來分析 GPT-1 引用的幾個重要模型:原版 Transformer,CoVe,ELMo 和 ULMFiT。
Transformer 雖然是現(xiàn)代主流大模型的架構(gòu)基礎,但原版只用于機器翻譯任務,還不夠通用。同時非 Transformer 架構(gòu)如 LSTM、Mamba 甚至 Diffusion 也可被視作大型語言模型。
CoVE 提出了語境化詞向量,是遷移學習領(lǐng)域的一項重要創(chuàng)新,但它通過監(jiān)督學習訓練(英語翻譯德語)創(chuàng)建向量,不符合自監(jiān)督學習的條件。
ELMo 使用了自監(jiān)督預訓練和監(jiān)督微調(diào)范式,但在 few-shot 能力上還差點意思。
總之在作者 Jonathon Belotti 看來,CoVE 和 ELMo 都還沒達到大語言模型的門檻。
最后再來看 ULMFiT,其名字代表在文本分類任務微調(diào)的通用語言模型(Universal Language Model Fine-tuning for Text Classification)。
它是一個在 WikiText 數(shù)據(jù)上自監(jiān)督訓練的 LSTM 模型,能夠以低成本適應新任務,無需更改架構(gòu)即可執(zhí)行大量文本分類任務,且達到當時的 SOTA 性能。
與 GPT-1 相比,只差在微調(diào)不夠方便,以及應用任務的廣度。
GPT-1 論文原文中,也指出“最接近我們工作的”就是 ULMFiT 與谷歌的半監(jiān)督序列學習(Semi-supervised Sequence Learning)了。
GPT-1 論文還聲稱,把 LSTM 換成 Transformer 后能拓展預訓練模型的預測能力,比 ULMFit 任務適應性更高。
考據(jù)者 Jonathon Belotti 最后總結(jié)到:
成為第一重要么?我認為有一點重要。軟件行業(yè)和學術(shù)界尊重其創(chuàng)始人,我們都是開源社區(qū)中構(gòu)建開拓智域文化(homesteads the noosphere)的一部分。
而 Jeremy Howard 本人對此的后續(xù)回應是我們創(chuàng)造了第一個“通用語言模型”,但后續(xù)論文沒有沿用,反而創(chuàng)造了“大型語言模型”這個新術(shù)語。
蘋果工程師 Nathan Lawrence 認為,雖然今天大家對誰是第一個 LLM 可能存在爭議,但最終大家都會把 ULMFiT 視為一個轉(zhuǎn)折點。
當時即使我這樣的懷疑論者,也快開始意識到大規(guī)模通用訓練將成為 NLP 的未來。
也有人建議 Jeremy Howard 以后說 ULMFit 是第一個“通用預訓練模型”。
“我發(fā)明了 ChatGPT 中的 GP”,這句話說起來也很酷,一點也不夸張。
ULMFit
https://arxiv.org/abs/1801.06146
GPT-1
https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
參考鏈接:
- 猜你喜歡
-
人生軌跡模擬器免廣告版86.7MB手游下載
-
說謊公主與盲眼王子免費版32.77MB手游下載
-
神之褻瀆手機版723.12MB手游下載
-
AAG警車模擬器漢化版60.99MB手游下載
-
模擬人生4鄉(xiāng)間生活手機版48.40MB手游下載
-
三千幻世官方版570.61MB手游下載
-
PAYDAY2手機版17.49MB手游下載
-
假面騎士靈騎腰帶模擬器豪華版608KB手游下載
-
蘇丹的游戲手游中文版2.58GB手游下載
- 相關(guān)手機游戲
-
街球藝術(shù)國際版1.1GB手游下載
-
歐洲前線第一次世界大戰(zhàn)破解版129.6MB手游下載
-
點心桌面最新版下載10.09MB手游下載
-
書城吧app下載安裝34.94MB手游下載
-
護眼天使軟件下載223.24MB手游下載
-
素社短劇官網(wǎng)版21.11MB手游下載
-
榆樹上的荔枝花完結(jié)破解版186.41MB手游下載
-
我的世界MITE打破一切手機版1.54GB手游下載
-
戀綜作精少女向前沖橙光游戲破解版811.09MB手游下載
- 推薦鑫昌秘籍
- 是我創(chuàng)造了首個 LLM:Kaggle 前首席科學家一句話引發(fā) AI 學術(shù)圈考古行動
- 共演日劇推薦,這幾部劇的卡司陣容超強大!
- 五大疑點曝光:Llama 4 逐層扒皮,NYU 教授稱 AI Scaling 徹底結(jié)束
- 變形金剛鐵皮哪里買?這幾個地方正品有保障!
- 想知道誰演過007?歷代詹姆斯邦德演員名單!
- 鹿兒島火山爆發(fā)危險嗎?現(xiàn)在是什么情況?看這里!
- 皮尤報告:美國公眾對 AI 態(tài)度消極
- 光苔是什么?這篇給你講透光苔的秘密!
- 喬任梁的遺體圖片是真是假?理智看待,拒絕謠言!
- 馬里奧之父的創(chuàng)作靈感,竟然來源于童年回憶?
- 最新手機精選
-
櫻桃視頻直播官方版下載2025-01-28手游下載 | 88.51MB
-
TFS飛行模擬器破解版2025-02-14手游下載 | 86.66MB
-
Poppy Playtime第五章正版2025-01-15手游下載 | 603MB
-
恐怖逃脫官方版2025-02-01手游下載 | 239.33MB
-
花心直播軟件在哪里下載安卓版最新版2025-03-15手游下載 | 85.77MB
-
91制作廠免費下載2025-03-04手游下載 | 81.18MB