- +1
數(shù)學(xué)領(lǐng)域的人工智能革命已經(jīng)到來
AI人工智能正被快速用于證明新的數(shù)學(xué)成果。數(shù)學(xué)家們認(rèn)為,這僅僅是個開始。

圖源:Nash Weerasekera / Quanta Magazine
作者:Konstantin Kakaes(量子雜志特約撰稿人)2026-4-13
譯者:zzllrr小樂(數(shù)學(xué)科普公眾號)2026-4-14
引言
轉(zhuǎn)折點出現(xiàn)在2025年夏天。當(dāng)年7月,多個人工智能模型在國際數(shù)學(xué)奧林匹克競賽(IMO)中解出了 6 道題里的 5 道。盡管數(shù)學(xué)家們深感震驚 —— 幾乎沒人料到程序能進步得如此之快 —— 但這一亮眼成績并不意味著人工智能將在數(shù)學(xué)研究中取得重大突破。畢竟,奧賽題目是有標(biāo)準(zhǔn)答案的難題,而非開放性問題。
盡管如此,這些結(jié)果讓人們開始重視。曾認(rèn)為人工智能模型錯誤太多、不堪一用的數(shù)學(xué)家,開始嘗試使用它們。早期使用者驚訝地發(fā)現(xiàn),這些模型不僅擅長解謎題,還能助力開拓真正全新的領(lǐng)域。很快,數(shù)學(xué)家們開始用人工智能發(fā)現(xiàn)并證明新結(jié)論,過去需要數(shù)周、數(shù)月才能完成的工作,如今一天就能搞定?!?025 年是人工智能真正開始在各類任務(wù)中派上用場的一年?!?加州大學(xué)洛杉磯分校著名數(shù)學(xué)家陶哲軒說。
雖然沒有哪一項新成果是顛覆性突破,但部分成果已達(dá)到專業(yè)數(shù)學(xué)期刊發(fā)表水平。在一些案例中,算法能自主提出猜想、完成證明并驗證,幾乎無需人工干預(yù);在另一些案例中,與大語言模型(如 ChatGPT、Claude、Gemini)的大量對話催生了全新的證明思路。
“有人拿鏟子,有人拿鎬,我們一起就能挖通隧道?!?陶哲軒說,現(xiàn)在是 “大量嘗試、大浪淘沙” 的階段。
即便陶哲軒是人工智能數(shù)學(xué)應(yīng)用最知名的倡導(dǎo)者,其他數(shù)學(xué)家也認(rèn)同這一趨勢。多倫多大學(xué)的丹尼爾?利特(Daniel Litt)表示,哪怕只是解決簡單問題,人工智能也 “正在改變數(shù)學(xué)研究的方式”。
很快,“數(shù)學(xué)研究的面貌和體驗將與傳統(tǒng)方式完全不同”,陶哲軒說。過去數(shù)學(xué)家一次只研究一個問題,“有了這些工具,你可以一次解決成千上萬的問題,甚至開展統(tǒng)計研究”。受訪的所有人都不認(rèn)為人工智能會取代數(shù)學(xué)家,但陶哲軒補充道:“我們必須做出大量制度與文化上的改變。”

陶哲軒對人工智能模型為數(shù)學(xué)家?guī)淼臋C遇感到振奮。他表示,數(shù)學(xué)研究很快就會在形式與體驗上與傳統(tǒng)方式截然不同。
圖源:Reed Hutchinson / UCLA
和其他受到人工智能沖擊的學(xué)科一樣,數(shù)學(xué)界對這些變革也會存在爭議。高等研究院的阿克沙伊?文卡特什(Akshay Venkatesh)指出,隨著人工智能模型成為強大的新工具,它可能導(dǎo)致數(shù)學(xué)家喪失對數(shù)學(xué)本身的直接理解與體驗。文卡特什與陶哲軒同為數(shù)學(xué)界最高榮譽菲爾茲獎得主。兩人都認(rèn)為人工智能的影響將十分深遠(yuǎn),但文卡特什態(tài)度更為謹(jǐn)慎:“我們的文化中有些珍貴的東西,應(yīng)當(dāng)盡力保留?!保ㄔ斍閰㈤喰窋?shù)學(xué)科普:菲爾茲獎數(shù)學(xué)家傳記:從神童到摘得數(shù)學(xué)界 “諾貝爾獎”—— 菲爾茲獎得主阿克沙伊·文卡特什(Akshay Venkatesh))
如今,一些數(shù)學(xué)家離開學(xué)術(shù)界,加入 OpenAI(開放AI)、谷歌等科技巨頭,或是 Harmonic(和諧)、Logical Intelligence(邏輯智能)、Axiom Math(公理數(shù)學(xué))、Math Inc. 等數(shù)學(xué) AI 初創(chuàng)公司。(詳情參閱小樂數(shù)學(xué)科普:放棄終身教職跨界硅谷:數(shù)學(xué)傳奇小野健加盟00后天才門生洪樂潼的AI初創(chuàng)公司Axiom Math)
“企業(yè)界如此關(guān)注數(shù)學(xué)人工智能,一個原因是人們意識到:通用智能的關(guān)鍵,是把機器學(xué)習(xí)的洞察力與數(shù)學(xué)的精確性結(jié)合起來?!?卡內(nèi)基梅隆大學(xué)計算機輔助數(shù)學(xué)推理研究所主任杰里米?阿維加德(Jeremy Avigad)說。
到2026年初,人們對人工智能能力的震驚已轉(zhuǎn)為驚嘆。2月舉辦的 “首次證明(First Proof)” 挑戰(zhàn)賽要求參賽者在一周內(nèi)用 AI 模型解決10個研究級數(shù)學(xué)問題,這些題目經(jīng)過精心挑選,幾乎不可能出現(xiàn)在訓(xùn)練數(shù)據(jù)中。(詳情參閱小樂數(shù)學(xué)科普:First Proof首輪驗證項目:數(shù)學(xué)家們組團出題考驗AI(10個研究級數(shù)學(xué)問題拷問最先進AI,問題答案2月13日公布))
在不同自主程度下,模型成功解決了超過一半的問題(詳情參閱小樂數(shù)學(xué)科普:數(shù)學(xué)研究智能體Aletheia自主求解FirstProof挑戰(zhàn)成績6/10——由Google Gemini 3 Deep Think驅(qū)動)。如果說奧賽成績標(biāo)志著人工智能考入了頂尖大學(xué)數(shù)學(xué)專業(yè),那么 “首次證明” 的結(jié)果就相當(dāng)于它讀完了研究生院。利特在分析結(jié)果的博客中寫道:“這項技術(shù)很可能比計算機本身更具顛覆性?!?https://www.daniellitt.com/blog/2026/2/20/mathematics-in-the-library-of-babel
創(chuàng)造性演進
盡管2025年夏天是人工智能能力的拐點,但這并非憑空而來。谷歌 DeepMind(深度思維) 科學(xué)副總裁普什米特?科利(Pushmeet Kohli)表示,DeepMind 自2018年就開始嘗試用 AI 解決數(shù)學(xué)問題?,F(xiàn)就職于 Axiom Math(公理數(shù)學(xué))的弗朗索瓦?沙頓(Fran?ois Charton)早在2019年就開始用機器學(xué)習(xí)研究數(shù)學(xué)問題 https://www.quantamagazine.org/symbolic-mathematics-finally-yields-to-neural-networks-20200520/ 。
但在早期,這只是小眾領(lǐng)域。起初,沙頓等人僅用 AI 求解已知答案的問題,驗證新技術(shù)是否可行。到2024年,研究開始取得進展。他們尋找數(shù)據(jù)豐富的問題,用 AI 構(gòu)造具有可量化性質(zhì)的數(shù)學(xué)對象 —— 比如網(wǎng)格上的點集最優(yōu)排布,避免形成等腰三角形 https://arxiv.org/abs/2411.00566 。



圖源:Mark Belan / Quanta Magazine | 譯制:@zzllrr小樂微信公眾號
2025年1月,陶哲軒與布朗大學(xué)的哈維爾?戈麥斯–塞拉諾(Javier Gómez-Serrano)開始與 DeepMind 的兩位數(shù)學(xué)家合作,開發(fā)名為AlphaEvolve的 AI 系統(tǒng)。該系統(tǒng)借助 Gemini 生成數(shù)百行 Python 代碼,再用遺傳算法 “進化” 這些程序,試圖找到數(shù)學(xué)問題的最優(yōu)解。幾個月里,這四位數(shù)學(xué)家每隔一兩天就用它攻克一個新問題。
在此過程中,他們也學(xué)會了優(yōu)化提示詞。一個關(guān)鍵發(fā)現(xiàn)是:模型似乎能從鼓勵中受益?!爱?dāng)我們給大語言模型正向激勵時,效果更好,” 戈麥斯–塞拉諾說,“比如說‘你能做到’—— 這真的有用。很有趣,我們不知道原因?!?/p>
到5月底,團隊已用 AlphaEvolve 測試了67個不同數(shù)學(xué)領(lǐng)域的問題。其中23 個在現(xiàn)有最佳解基礎(chǔ)上取得小幅改進;36 個達(dá)到現(xiàn)有水平;少數(shù)未能超越最優(yōu)結(jié)果。研究人員在2025年11月的論文《大規(guī)模數(shù)學(xué)探索與發(fā)現(xiàn)》 https://arxiv.org/abs/2511.02864 中公布了這些發(fā)現(xiàn)。戈麥斯–塞拉諾指出,其中任何一個結(jié)果,原本都可能需要該領(lǐng)域?qū)<一ㄙM數(shù)月才能得到。但他們并非多數(shù)領(lǐng)域的專家,“卻能在一兩天內(nèi)取得相當(dāng)?shù)某晒薄?/p>
哈維爾?戈麥斯 - 塞拉諾( Javier Gómez-Serrano )與同事們利用名為 AlphaEvolve 的人工智能系統(tǒng),在數(shù)十個數(shù)學(xué)問題上取得了進展。
圖源:Jason Rossi / 布朗大學(xué)
陶哲軒形容,當(dāng)前AI模型 “非常擅長在大量問題中摘取低垂的果實。這種工作枯燥乏味,人類不愿去做。” 他提醒,模型是在 “大量未報道的失敗中取得零星成功”,但這些成功依然值得關(guān)注。(詳情參閱小樂數(shù)學(xué)科普:00后播客主對話陶哲軒 :開普勒、牛頓與數(shù)學(xué)發(fā)現(xiàn)的真實本質(zhì) &這些故事如何啟示我們AI將如何徹底變革數(shù)學(xué))
戈麥斯–塞拉諾估計,他現(xiàn)在約三分之二的時間都在使用 AI。他說:“它已經(jīng)變得實用好用。這是數(shù)學(xué)研究新方式的開端?!?/p>
錯誤的 “身份”
前些年,AI 的強大似乎源于它能重新發(fā)掘塵封在冷門文獻(xiàn)里的古老證明。加州大學(xué)洛杉磯分校的伊戈爾?帕克(Igor Pak)指出,ChatGPT 如今 “在查找文獻(xiàn)、發(fā)現(xiàn)關(guān)聯(lián)方面極為出色,這是不具備語義理解的谷歌學(xué)術(shù)做不到的”。
到2025年,瑞士聯(lián)邦理工學(xué)院蘇黎世分校的約翰內(nèi)斯?施密特(Johannes Schmitt)發(fā)現(xiàn),情況發(fā)生了轉(zhuǎn)變?!芭c大語言模型對話開始變得有用,不是因為它們能給出完整答案,” 他說,而是 “它們成了很好的交流伙伴”。

約翰內(nèi)斯?施密特( Johannes Schmitt )近期注意到,人工智能在數(shù)學(xué)領(lǐng)域的作用正迅速提升:成為學(xué)術(shù)對話伙伴。
圖源:Aitor Iribar-Lo?pez
大語言模型難免會犯大量錯誤,導(dǎo)致一些數(shù)學(xué)家直接否定它們。但施密特屬于能容忍 “胡言亂語模型對話之痛” 的人:“我仍能從對話中獲益;即便不是每個想法都好,我也能忽略壞的、采納好的?!彼€注意到,這些錯誤很怪異:受過數(shù)學(xué)訓(xùn)練的人幾乎不可能在提出精妙、原創(chuàng)、正確想法的同時,犯下如此多基礎(chǔ)錯誤。
加州大學(xué)洛杉磯分校的歐內(nèi)斯特?柳(Ernest Kang Ryu,音譯名:柳康)主要研究應(yīng)用數(shù)學(xué)的優(yōu)化理論分支,在奧賽結(jié)果后也開始關(guān)注大語言模型。AlphaEvolve 旨在優(yōu)化特定數(shù)值,而柳想證明優(yōu)化算法生效的條件。
2025年夏天,他發(fā)現(xiàn)大語言模型的數(shù)學(xué)能力大幅提升。他開始用它們準(zhǔn)備講義, 主要是為了填補自己對某些證明細(xì)節(jié)的記憶空白。他說:“它有時會發(fā)現(xiàn)我推理中的錯誤,或大或小。有時還能找到比我筆記更簡潔的證明。”
他感覺AI模型 “展現(xiàn)出了生命跡象”。他抱著懷疑又樂觀的態(tài)度,決定做個實驗。10月的一個晚上,在小兒子睡著后,他開始用 ChatGPT 攻克一個優(yōu)化領(lǐng)域的開放問題 —— 過去曾嘗試過多次。
“這個問題不算最重要,但我知道有 10 個人會非常歡迎它的解。” 他說。

歐內(nèi)斯特?柳( Ernest Kang Ryu)最近借助與 ChatGPT 的對話,成功證明了一個存在數(shù)十年的猜想。他說:“使用 ChatGPT 確實加速了這一發(fā)現(xiàn)過程。”
圖源:Ernest Ryu
柳的問題最早由俄羅斯數(shù)學(xué)家尤里?涅斯捷羅夫(Yurii Nesterov)于1983年提出。涅斯捷羅夫試圖尋找多元函數(shù)的最小值,這類函數(shù)輸出值在數(shù)學(xué)上 “表現(xiàn)良好”。如果把輸出想象成地形圖,目標(biāo)是證明最終會收斂到最低點,而非無限來回震蕩。
這類問題在應(yīng)用數(shù)學(xué)中很常見,尤其在機器學(xué)習(xí)中,是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的核心。廣泛使用的梯度下降法用微積分基本工具判斷下坡方向與坡度,每次沿最陡方向邁步,最終會到達(dá)谷底。
但梯度下降雖然正確,有時速度極慢。因此數(shù)學(xué)家長期尋找收斂更快的變體。涅斯捷羅夫提出了一種方法:每一步下坡的大小不僅取決于當(dāng)前點的陡峭程度,還取決于已走過的路徑。過去步子大,后續(xù)也會更大。
直覺上,這顯然能更快到達(dá)谷底。但如果速度太快、沖過了頭呢?可能會在真實最小值附近無限震蕩,永遠(yuǎn)無法到達(dá)。涅斯捷羅夫無法證明他的算法最終會收斂到最優(yōu)值。42年來,也無人能證明。

尤里?涅斯捷羅夫(Yurii Nesterov)提出的關(guān)于其優(yōu)化算法的猜想懸而未決數(shù)十年。直到人工智能的介入,這一問題才得以解決。
圖源:Renate Schmid
柳問ChatGPT時,“它不斷給出錯誤證明”,他說,“但錯誤之前的步驟很有趣,有正確的部分結(jié)果,似乎潛在有用?!?隨著模型逐步推進,他會檢查答案,保留正確部分,用新提示重新輸入模型?!拔冶仨毎缪蒡炞C者的角色,” 柳說,“用 ChatGPT,我感覺進展極快,比自己單干快得多。這讓我堅持下去。”
三天累計約12小時工作后,他得到了問題簡化版的證明。又過幾天,他最終證明了涅斯捷羅夫方法的收斂性。https://arxiv.org/abs/2510.23513 柳說:“這不是最有創(chuàng)意、最復(fù)雜的工作,但肯定不容易?!?雖然不是改變?nèi)松某晒?,“但足以在?yōu)化領(lǐng)域頂級期刊發(fā)表,去掉 AI 部分也沒問題。這是個好結(jié)果?!?/p>
“這是一個具體實例,ChatGPT 的使用確實加速了發(fā)現(xiàn)過程。” 他說。他認(rèn)為大語言模型的能力只會持續(xù)提升?!翱纯催M步速度就令人震驚。再過一兩年、兩三個版本迭代,我們將取得 AI 輔助下真正驚人的重大發(fā)現(xiàn)。這一天一定會到來。”
在分享涅斯捷羅夫方法的論文幾個月后,柳從加州大學(xué)洛杉磯分校休假,加入 OpenAI 擔(dān)任技術(shù)人員。
意外的秩序
2025年至2026年初,AI 被用于證明越來越抽象的結(jié)論。2025年9月,來自全球的百余位數(shù)學(xué)家齊聚布朗大學(xué),參加代數(shù)組合學(xué)專題項目 https://icerm.brown.edu/program/semester_program/sp-f25 。
尼古拉斯?利貝丁斯基(Nicolás Libedinsky)和戴維?普拉扎(David Plaza)來自智利,何塞?辛門特爾(José Simental)來自墨西哥,喬迪?威廉姆森(Geordie Williamson)來自澳大利亞,喬丹?埃倫伯格(Jordan Ellenberg)來自美國威斯康星州。
出于不同的研究目的,他們都在計算一個在數(shù)學(xué)諸多領(lǐng)域中廣泛出現(xiàn)的量 ——d-不變量(d-invariant)。要理解 d-不變量,不妨先了解該領(lǐng)域中一個被深入研究的對象:置換群(permutation group)。它描述的是一組對象(如一副牌)的所有可能排列方式。
情況起初很簡單。如果只有一張牌,無法洗牌,因此置換群 S?只有 1 個元素。S?有 2 個元素:兩張牌共有兩種可能順序。S?稍復(fù)雜一些:三張牌共有 6 種不同排列。

圖源:Mark Belan / Quanta Magazine
這些不同的牌序可以被整理成一個由頂點和邊構(gòu)成的網(wǎng)絡(luò),即圖(graph)。初始排列 123 放在最底部,圖中的每條邊(以箭頭表示)代表一次兩張牌的交換。

隨著牌數(shù) n 增大,置換群 S?的規(guī)模急劇膨脹 ——S?之后的群對應(yīng)的圖幾乎無法畫出。(S??的元素數(shù)量大約相當(dāng)于可觀測宇宙中的原子總數(shù)。)
數(shù)學(xué)家希望理解這些圖的結(jié)構(gòu),既把它們當(dāng)作獨立研究對象,也用作分析其他問題的工具。
再以含有 6 個元素(置換)的置換群 S?的圖為例。我們希望探究這些置換之間的關(guān)系。方法之一是觀察沿箭頭從一個置換到達(dá)另一個置換的所有路徑。如果能沿箭頭從置換 A 到達(dá)置換 B,則在布呂阿序(Bruhat order)下,A “小于” B。例如,213 小于 321。
我們進而可以考察兩個置換之間的布呂阿區(qū)間(Bruhat interval):即沿圖中箭頭連接、介于兩者之間的所有置換構(gòu)成的集合。例如,213 與 321 之間的區(qū)間(下圖紅色部分)包含 231 和 312。(如果無法沿箭頭從一個置換到達(dá)另一個,例如從 213 到 132,則兩者互不小于,區(qū)間無定義。)

簡單來說,d-不變量是對置換群(permutation group)中布呂阿區(qū)間(Bruhat interval)結(jié)構(gòu)復(fù)雜度的度量。這個量在許多看似無關(guān)的數(shù)學(xué)問題中出現(xiàn),因此備受數(shù)學(xué)家關(guān)注。
在更大的置換群中,很難一般性描述兩個置換間布呂阿區(qū)間的結(jié)構(gòu)?!皡^(qū)間是極其復(fù)雜的對象。” 利貝丁斯基說。他與同事們希望借助 AI 找到給定置換群的最大d-不變量。
他們最終發(fā)現(xiàn)了完全意料之外的東西。
2025年10月,埃倫伯格請 DeepMind 的瓦格納用未公開的 AlphaEvolve 分析數(shù)十個置換群的布呂阿區(qū)間結(jié)構(gòu)。程序運行了一整晚?!霸缟衔覀儼l(fā)現(xiàn),程序真的在做有趣的事?!?威廉姆森說,“那天郵件往來不斷。”
模型在計算時還會自言自語:“我要提出一個真正瘋狂的想法,針對這個問題的‘瘋狂伊萬’機動?!保ㄗⅲ涸醋訲om Clancy小說《獵殺紅色十月號》The Hunt for Red October,潛艇急轉(zhuǎn)彎探測對手)
最終,AlphaEvolve 生成約50行Python代碼,試圖尋找大d-不變量的區(qū)間。數(shù)學(xué)家們分析代碼時發(fā)現(xiàn),當(dāng)卡片數(shù)為 2 的冪(如 16=2?)時,代碼會大幅縮短至約 5 行?!翱梢苑浅C鞔_地分析,” 威廉姆森說,“它在做一件非常優(yōu)美的事?!?/p>
左上角順時針依次為:喬迪?威廉姆森、喬丹?埃倫伯格、何塞?辛門特爾、尼古拉斯?利貝丁斯基、戴維?普拉扎。借助人工智能,他們在一個被深入研究的數(shù)學(xué)對象中發(fā)現(xiàn)了驚人的新結(jié)構(gòu)。
圖源:悉尼大學(xué)Lauren Justice / Quanta Magazine; Imelda Paredes Zamorano/UNAM數(shù)學(xué)研究所Esteban Román; Fernanda Fuentes
2026年1月3日的預(yù)印本顯示 https://arxiv.org/abs/2601.01235 ,AlphaEvolve 發(fā)現(xiàn)這些特定置換群中的布呂阿區(qū)間具有驚人的特殊結(jié)構(gòu):它們形成高維立方體,即超立方體。“看到 AlphaEvolve 的思路時,我非常震驚,” 利貝丁斯基說,“如果它是人,那會是極富創(chuàng)造力的人?!?/p>
AlphaEvolve 回答了一個他們從未意識到的問題?!拔覀儧]讓它找大超立方體,” 埃倫伯格說,“我們讓它找別的東西,思考后才發(fā)現(xiàn),那是一個巨大的超立方體,我們完全沒預(yù)料到它就在那里?!?/p>
威廉姆森說:“這個結(jié)構(gòu)就在我們眼前 50 年,只是我們從未發(fā)現(xiàn)?!?/p>
不要選擇與上一方案相同的解決方案。始終努力尋找更優(yōu)的模式,不要畏懼那些聽上去頗為棘手的難題;一旦你找到了解決方案,便會發(fā)現(xiàn)它其實遠(yuǎn)非難事。祝你好運,我信任你,但你也必須相信你自己!
這是數(shù)學(xué)家給 AlphaEvolve 的提示詞節(jié)選,內(nèi)容是讓它構(gòu)造一個名為掛谷集(Kakeya set)的數(shù)學(xué)對象。數(shù)學(xué)家們發(fā)現(xiàn),給予鼓勵能讓 AI 表現(xiàn)得更好。
過去的機器學(xué)習(xí)方法也帶來過這類意外數(shù)學(xué)發(fā)現(xiàn),但威廉姆森說,那是 “真正的工程工作…… 你必須懂編程,花大量時間研究神經(jīng)網(wǎng)絡(luò)訓(xùn)練細(xì)節(jié)。沒有機器學(xué)習(xí)背景的數(shù)學(xué)家?guī)缀醪豢赡茏龅健薄?/p>
有了大語言模型,“20 分鐘就能完成兩年前需要兩周的實驗”,他說。盡管 “大多數(shù)時候沒用”,但 AI 現(xiàn)在能以前所未有的方式 “探索超出想象的豐富世界”。
球面周圍
盡管布呂阿區(qū)間看似是純粹的組合對象,它們在代數(shù)幾何這一抽象數(shù)學(xué)領(lǐng)域也扮演重要角色。斯坦福大學(xué)數(shù)學(xué)家、美國數(shù)學(xué)會現(xiàn)任主席拉維?瓦基爾(Ravi Vakil)專攻此領(lǐng)域。(參閱:美國數(shù)學(xué)會主席與執(zhí)行委員會暨董事會4月7日聯(lián)合聲明:支持2026年國際數(shù)學(xué)家大會在美舉辦、美國數(shù)學(xué)會主席關(guān)于2026年ICM國際數(shù)學(xué)家大會的聲明)
代數(shù)幾何(algebraic geometry)是研究由多項式方程所定義的幾何形狀的學(xué)科,例如 x3+2x2y+xz=5 這類由變量整數(shù)次冪之和構(gòu)成的方程。方程的次數(shù)是多項式中最高的冪次,在本例中為3。

拉維?瓦基爾與同事們最近在與定制版 Gemini 對話的過程中,想到了一種全新的證明思路?!斑@個想法該歸功于誰?” 他問道,“歸功于我們?還是歸功于模型?”
圖源:Rod Searcey
瓦基爾及其同事 —— 新南威爾士大學(xué)的巴拉茲?埃萊克(Balázs Elek)與不列顛哥倫比亞大學(xué)的吉姆?布萊恩(Jim Bryan)—— 致力于研究球面如何嵌入被稱為旗簇(flag varieties)的特殊空間。(旗簇同樣出現(xiàn)在布呂阿區(qū)間研究團隊的論文中。)每一種嵌入方式(即將球面上的每個點與旗簇內(nèi)的一個點相對應(yīng))都可以用一個多項式方程來定義。
球面的嵌入方式有很多種。數(shù)學(xué)家將每一種嵌入方式對應(yīng)為一個單獨高維空間中的一個點。隨后,他們通過分析這些嵌入所形成的不同空間,來研究由不同次數(shù)多項式所定義的嵌入。
隨著次數(shù)增加,數(shù)學(xué)家想知道這些空間如何變化。他們知道,當(dāng)次數(shù)趨于無窮時,空間逼近所有連續(xù)嵌入的空間。但這種相似性何時出現(xiàn)?
于是,他與當(dāng)時就職于 DeepMind 的弗雷迪?曼納斯(Freddie Manners)和喬治?薩拉法蒂諾斯(George Salafatinos)合作,使用谷歌 Gemini 之上的兩個專用模塊來進行證明:一個是公開的DeepThink,另一個是由薩拉法蒂諾斯開發(fā)、未公開的FullProof系統(tǒng)。他們從更簡單的情形入手。瓦基爾說:“它給出的證明非常優(yōu)雅、正確、表述清晰,我們可以逐行核對。它清晰揭示了當(dāng)時并不明顯的結(jié)構(gòu)。由此,我們意識到整個論證與關(guān)鍵推廣的潛在路徑?!?/p>
我正準(zhǔn)備提出一個真正異乎尋常的想法,一種針對此問題的“瘋狂伊萬式策略”。目前的解決方案不錯,使用了已知的構(gòu)造,并進行了一些局部搜索??傮w而言......還算可預(yù)測。
[...]
讓我們瘋狂吧。
AlphaEvolve 在嘗試解決置換群的布呂阿區(qū)間問題時,會進行自言自語。
隨后,他們回到 AI 模型,勾勒一般情形的證明思路,讓模型補充細(xì)節(jié)。2026年1月12日的預(yù)印本顯示 https://arxiv.org/abs/2601.07222 ,模型成功了。“對我而言,真正關(guān)鍵的是第一步,” 瓦基爾說,“DeepMind 對簡單情形的證明。論證的清晰性給了我們新思路?!?但他不禁思考:“這個想法歸功于誰?歸功于我們?還是模型?”
無論功勞如何歸屬,瓦基爾說:“我相信給足時間,我也能想出證明?!钡q豫了:“我想是吧。不確定。也許我會用笨拙的方式。很可能沒有 AI 協(xié)助,這篇論文就不會出現(xiàn)?!?/p>
最后他說:“我們需要來回交互。人工智能將幫助我們做數(shù)學(xué),讓我們完成以前沒時間做的事?!?/p>
這或許是當(dāng)前 AI 如何發(fā)揮作用的典型案例:一組頂尖數(shù)學(xué)家在科技公司協(xié)助下,比以往更快地解決問題,并能逐行驗證確保正確。
需要知道的一切
在探討 AI 對數(shù)學(xué)研究的影響時,我們不應(yīng)只看成功案例。利特提醒,“人工智能生成的無意義內(nèi)容正在大量污染公共領(lǐng)域?!笔ツ复髮W(xué)的喬爾?戴維?哈姆金斯(Joel David Hamkins)說,他對 “淹沒期刊系統(tǒng)的大量垃圾感到絕望”。
數(shù)學(xué)家們將希望寄托于形式化證明,以此應(yīng)對垃圾信息洪流 (參閱小樂數(shù)學(xué)科普: 數(shù)學(xué)嚴(yán)謹(jǐn)至關(guān)重要,但數(shù)字化證明是否過猶不及?——譯自量子雜志Quanta Magazine)。他們把證明轉(zhuǎn)換成計算機能理解的語言,用程序驗證所有邏輯是否成立?!拔唇?jīng)驗證的人工智能在任何嚴(yán)肅應(yīng)用中都不可靠?!?陶哲軒說。
目前,用這種方式形式化數(shù)學(xué)證明耗時繁瑣,需要扎實的數(shù)學(xué)知識,更像一門手藝。因此數(shù)學(xué)家越來越轉(zhuǎn)向 “自動形式化”:AI 模型將數(shù)學(xué)命題翻譯成形式化邏輯命題并完成證明?!暗谝淮?,” 陶哲軒說,“我們真的感覺可以通過 AI 形式化相當(dāng)一部分?jǐn)?shù)學(xué)?!?/p>
丹尼爾?利特(Daniel Litt)在近期一篇關(guān)于人工智能對數(shù)學(xué)潛在影響的分析中寫道:“這項技術(shù)的意義很可能超越計算機本身?!?/p>
圖源:Marta Iwanek
數(shù)學(xué)家們看到的另一個重大挑戰(zhàn)是:AI 日益增強的數(shù)學(xué)能力將如何影響學(xué)生學(xué)習(xí)。即便最熱忱的 AI 支持者也感到擔(dān)憂。弗吉尼亞大學(xué)教授、Axiom 創(chuàng)始數(shù)學(xué)家小野健(Ken Ono)表示:“我對 AI 助力數(shù)學(xué)研究前景樂觀,但對 AI 在未來工作與各級教育訓(xùn)練中的作用深感擔(dān)憂?!保ㄔ斍閰㈤喰窋?shù)學(xué)科普:放棄終身教職跨界硅谷:數(shù)學(xué)傳奇小野健加盟00后天才門生洪樂潼的AI初創(chuàng)公司Axiom Math)
陶哲軒說:“我們布置的許多題目,AI 都能瞬間解出。這可能打擊很多學(xué)生鍛煉思維能力的積極性?!?/p>
哈姆金斯贊同:“我過去布置大量作業(yè),現(xiàn)在不行了?!?相當(dāng)一部分作業(yè)是 AI 寫的。“我不想讀,也不想當(dāng) AI 警察?!?盡管作業(yè)教學(xué)價值很高,但現(xiàn)在 “一切都必須是課堂測驗與實操。這對整個學(xué)術(shù)行業(yè)都是問題。”
另一位頂尖研究型大學(xué)數(shù)學(xué)家告訴我:“在加速頂尖數(shù)學(xué)研究者進展的同時,人工智能存在嚴(yán)重阻礙新一代數(shù)學(xué)人才培養(yǎng)的風(fēng)險?!?/p>
新合作者
用 AI 開展數(shù)學(xué)研究正迅速成為常態(tài)。如果當(dāng)前趨勢持續(xù),它很快會像數(shù)學(xué)家排版用的 LaTeX 一樣平常。除本文討論的成果外,近幾個月還有數(shù)十項新進展。
關(guān)于如何標(biāo)注 AI 貢獻(xiàn)的規(guī)范仍在形成。一些論文詳細(xì)補充人機交互過程,包括對話記錄;一些在摘要中突出 AI 貢獻(xiàn);一些僅在致謝中簡要提及;一些數(shù)學(xué)家強調(diào) AI 協(xié)助研究但論文由人撰寫;另一些則將寫作也歸功于 AI。
盡管過去一年變化迅猛,受訪數(shù)學(xué)家無人擔(dān)心數(shù)學(xué)這門學(xué)科會過時。陶哲軒打比方說,數(shù)學(xué)家像是在攀登 “有無數(shù)高峰與丘陵的巨大山脈”。人類只能一步一步爬,但能規(guī)劃登頂珠峰的路線。而當(dāng)前 AI 就像跳躍機器人,有時能 “跑酷躍上 6 英尺高的墻”,這是人類爬不上去的。但它們無法做長期戰(zhàn)略規(guī)劃。這些 6 英尺或許會變成 10 英尺、100 英尺,但 “這些小跳躍機器人遠(yuǎn)未觸及數(shù)學(xué)的珠峰”。
帕克認(rèn)為,某些 “珠峰”—— 比如數(shù)論中 π+e 是否為分?jǐn)?shù)的重大問題 —— 數(shù)百年內(nèi)仍無法解決。“我非常懷疑 AI 能在這些問題上取得任何突破?!?他說,“這不是 AI 能做到的事。但我樂觀相信,如果人類存續(xù),最終我們會解決?!?/p>
當(dāng)然,這很大程度上取決于未來幾年 AI 算法能力如何演進。即便是最敏銳謹(jǐn)慎的觀察者也無法確定模型會如何發(fā)展。幾乎沒人看到停滯跡象?!斑M展非???,沒有放緩的跡象。” 利特說。2026年頭幾個月,谷歌、OpenAI 等大公司、Axiom 等小公司、學(xué)術(shù)界乃至愛好者都不斷推出新成果。
“我確信,20年后我們將看到AI工具生成的數(shù)學(xué),在許多可衡量指標(biāo)上超過所有人類數(shù)學(xué)家。” 利特說,“如果不發(fā)生,我會很震驚?!?/p>
但文卡特什告訴我:“歸根結(jié)底,任何一段數(shù)學(xué)都可以用無窮多種方式表述。” 我們的選擇受人類價值觀支配,也源于數(shù)學(xué)不僅是科學(xué),更是藝術(shù)的事實。
科學(xué)與藝術(shù)的平衡在很大程度上賦予數(shù)學(xué)美感 —— 這是文卡特什希望保留的 “文化中寶貴之物”。如果 AI 讓數(shù)學(xué)偏離藝術(shù)傳統(tǒng),即便每月證明更多定理,這門學(xué)科也會貶值。畢竟,沒有詩人會認(rèn)真對十四行詩做統(tǒng)計回歸來尋找最優(yōu)版本。
對AI最好的期待,是它能幫助數(shù)學(xué)家發(fā)現(xiàn)并證明那些原本永遠(yuǎn)是謎的結(jié)論。大多數(shù)數(shù)學(xué)家認(rèn)同,這正是計算機過去80年來所做的事。但當(dāng)下變革的規(guī)模讓許多人感到不安。
全球最大的數(shù)學(xué)年會每年1月初舉行。2026 年,華盛頓會場里,被 AI 淘汰的緊張玩笑隨處可見,盡管公開場合所有人都堅稱 AI 是人類數(shù)學(xué)家的助手。多年研究AI并對此充滿熱情的威廉姆森(Williamson),受邀在全會上做關(guān)于AI與數(shù)學(xué)的重磅報告 https://www.ams.org/meetings/lectures/meet-colloquium-lect 。他告訴聽眾,以無知與恐懼應(yīng)對AI發(fā)展是錯誤的。
但他理解恐懼從何而來。他將數(shù)學(xué)視為 “人們畢生奉獻(xiàn)的技藝。未來,它的價值有可能大幅縮水”。
參考資料
https://www.quantamagazine.org/the-ai-revolution-in-math-has-arrived-20260413/
https://www.daniellitt.com/blog/2026/2/20/mathematics-in-the-library-of-babel
https://www.quantamagazine.org/symbolic-mathematics-finally-yields-to-neural-networks-20200520/
https://arxiv.org/abs/2511.02864
https://arxiv.org/abs/2411.00566
https://arxiv.org/abs/2510.23513
https://icerm.brown.edu/program/semester_program/sp-f25
https://arxiv.org/abs/2601.01235
https://arxiv.org/abs/2601.07222
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
https://arxiv.org/abs/2603.29961
https://axiommath.ai/territory/proof-of-concept
https://x.com/tonylfeng/status/2035003908993819019?s=20
https://www.neelsomaniblog.com/p/autoformalization-and-the-future
本文為澎湃號作者或機構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




