新智元報道
編輯:傾傾
【新智元導(dǎo)讀】當GPT-5第一次被寫進數(shù)學(xué)論文,輿論瞬間炸開。有人驚呼「AI 數(shù)學(xué)家誕生」,有人卻冷靜提醒:它只是把熟悉的工具快速拼接。于是,一個新的問題被擺到臺前:這究竟是科研的加速器,還是博士培養(yǎng)的絆腳石?
9月初,一篇掛在arXiv的論文在學(xué)界扔下一顆炸彈——GPT-5被寫進了數(shù)學(xué)研究成果里。
研究者在文中公開寫道:GPT-5在他們的實驗中完成了一項此前從未解決的數(shù)學(xué)工作,并將結(jié)果直接納入正式稿件。
這是大型語言模型首次以「定理貢獻者」的身份出現(xiàn)在數(shù)學(xué)研究論文中。
論文所涉及的,正是Malliavin–Stein框架下的一個核心難題。
GPT-5第一次寫進數(shù)學(xué)論文
在數(shù)學(xué)研究里,「第四矩定理」是一塊基礎(chǔ)又棘手的拼圖。
它最初由Nualart和Peccati提出,用來判斷某類隨機變量是否收斂到正態(tài)分布。
但這個定理長期存在一個「缺口」:
它只能告訴你「會不會收斂」,卻沒法量化「收斂有多快」。
研究團隊選擇把這個缺口拋給GPT-5。
他們的問題很直接:在Malliavin–Stein框架下,能否把第四矩定理的「定性收斂」升級成「定量收斂」,給出明確的速度界限?
GPT-5 給出的答案令人意外。它推導(dǎo)出一個全新的收斂速度結(jié)論:
GPT-5推導(dǎo)出的新定理:第四矩定理首次有了明確的收斂速度,被原封不動收進論文
換句話說,它證明了:如果第四矩逐漸逼近高斯分布的數(shù)值,那么收斂的速度也能被清晰刻畫。
這一結(jié)果的意義不只在于解決了一個空白點。
對數(shù)學(xué)研究者而言,收斂速度往往決定了定理能否真正應(yīng)用到復(fù)雜模型里,比如高維隨機場、金融數(shù)據(jù)的極值分析、甚至物理中的隨機過程模擬。
此前只能籠統(tǒng)地說「會收斂」,現(xiàn)在有了定量邊界,很多應(yīng)用才有了可操作性。
更重要的是,這個過程不是研究團隊「替GPT-5美化」,而是直接把它的推導(dǎo)納入正式成果。
這是大型語言模型第一次以「定理貢獻者」的身份,進入數(shù)學(xué)研究論文的正文部分。
不是單挑
而是「教授+AI」的組合拳
外界看到GPT-5被寫進論文,很容易聯(lián)想到「AI能獨立解決數(shù)學(xué)難題」。
但真相遠遠沒有那么簡單。
GPT-5 一上來就寫出了定理陳述,看似邏輯完整,但在關(guān)鍵環(huán)節(jié) Cov(Y2, Z2) 的推導(dǎo)上用了錯誤公式。
如果不被及時發(fā)現(xiàn),這個錯誤會直接毀掉整個證明。
研究者追問:
Can you check your formula for Cov(Y2, Z2) and provide me with the details?
GPT-5乖乖給出細節(jié)解釋,但仍然錯了。
研究者干脆直接指出:
I think you are mistaken in claiming that (p+q)!‖u??v‖2 = p!q!‖u‖2‖v‖2.
GPT-5這才承認之前的推理是假的,并調(diào)整思路。
在研究者的引導(dǎo)下,它終于寫出正確的推導(dǎo),接著還按照要求把結(jié)果整理成完整的論文。
這種反復(fù)糾錯的過程,讓論文作者感嘆:與GPT-5合作,就像帶一個聰明但毛躁的實習生。
它能快速提出方向、生成證明,但總需要有人類導(dǎo)師盯著,指出錯誤并讓它修正。
Mollick:GPT-5 Pro能做新數(shù)學(xué),但必須在教授引導(dǎo)下
這不是AI單挑,而是教授+AI的組合拳。
外界驚呼,內(nèi)行冷靜
當GPT-5被寫進論文的消息傳開,許多圈外人第一反應(yīng)是「歷史性時刻」。
8月20日,微軟研究員Sébastien Bubeck在X上發(fā)了一條貼子:
他 GPT-5 Pro去解一個凸優(yōu)化領(lǐng)域的公開問題。
幾分鐘內(nèi),GPT-5把一個經(jīng)典界限從1/L1/L1/L提升到了1.5/L1.5/L1.5/L。
聽上去像是枯燥的數(shù)學(xué)符號,為什么會引起如此轟動?
在凸優(yōu)化里,1/L代表算法能達到的一個收斂速度上限,這個上限直接決定了算法跑得有多快。
研究者們早已習慣把它當作定律,但GPT-5在幾分鐘內(nèi)就給出了更緊的界限:1.5/L。
這意味著,如果正確,它等于在數(shù)學(xué)上「加速」了整個領(lǐng)域里一大類算法。
這條帖子迅速引爆社交媒體,被很多人視為AI數(shù)學(xué)家時代的開幕時刻。
然而,數(shù)學(xué)界內(nèi)部的解讀則冷靜得多。
優(yōu)化專家Ernest Ryu的評論道:
GPT-5給出的這個展示主要依賴于一個早已為專家熟知的工具——Nesterov定理……一位有經(jīng)驗的研究人員也能在幾個小時內(nèi)得到等價的結(jié)果。
也就是說,在外界看來是「幾分鐘完成的突破」,在內(nèi)行眼中其實是「熟悉工具的快速復(fù)用」。
是科研加速器,還是博士的絆腳石?
GPT-5被寫進論文,看上去像是一臺科研加速器,但作者在結(jié)尾卻寫下了不小的擔憂。
研究人員發(fā)現(xiàn),GPT-5最擅長的,其實是把已有的工具快速拼接成結(jié)果。
技術(shù)上沒錯,可缺少真正的原創(chuàng)性。
如果未來越來越多這樣的「拼圖式研究」涌入學(xué)界,文獻可能會被海量的「正確但平庸」的成果淹沒,真正有突破性的工作更難脫穎而出。
更需要讓人警惕的,是博士生的成長路徑。
按照傳統(tǒng)節(jié)奏,他們要靠反復(fù)閱讀、嘗試、犯錯,慢慢培養(yǎng)研究直覺。
但如果AI可以隨時生成技術(shù)正確的推導(dǎo),這些至關(guān)重要的試錯環(huán)節(jié)就會被跳過。論文里寫得很直白:
如果學(xué)生過度依賴人工智能……他們可能會失去發(fā)展這些基本技能的必要機會。
這種擔憂并非杞人憂天。
OpenAI研究員Noam Brown也在公開場合提醒:
換句話說,GPT-5已經(jīng)能產(chǎn)出新定理,但它會把科研變成「快餐流水線」,還是推動人類進入新一輪知識爆炸?答案沒有人敢保證。
從Bubeck的凸優(yōu)化案例,到Malliavin–Stein定理的定量化突破,GPT-5已經(jīng)不再是實驗室里的玩具,而是真正出現(xiàn)在學(xué)術(shù)論文的正文里。
它能生成定理,推導(dǎo)證明,甚至在教授引導(dǎo)下完成整套研究流程。
但問題也隨之而來:當「正確但平庸」的結(jié)果可以大規(guī)模復(fù)制,原創(chuàng)突破會不會被淹沒?
當博士生最重要的試錯與摸索環(huán)節(jié)被 AI跳過,學(xué)術(shù)訓(xùn)練會不會失去根基?
未來幾年,AI 在科研中扮演的角色,也許會比任何人想象得更快、更激烈地發(fā)生變化。
所以真正的問題是:當AI已經(jīng)能寫進論文,人類研究者還要寫什么?
參考資料:
https://x.com/polynoamial/status/1964464373516427491
https://x.com/emollick/status/1964447221853966775
https://x.com/ns123abc/status/1964724813940842934
https://x.com/SebastienBubeck/status/1958198661139009862
https://arxiv.org/abs/2509.03065