中文简介
梁腾原教授现任芝加哥大学布斯商学院计量经济学、统计学、与应用人工智能 JP Gan 讲席教授 、Wallman Society 学者 。
他长期从事统计学、机器学习、经济学交叉领域的研究,致力于为现代人工智能建立数学理论,揭示这些系统的有效性及其内在机理,并发展其在商业与经济领域可靠应用的方法与工具。相关成果发表于统计学、机器学习、经济学、应用数学等领域的学术期刊。
他的研究揭示了隐式正则化在过参数化学习中的核心作用,涵盖核方法、提升分类器、神经网络等一系列模型;为生成模型,包括生成对抗网络、扩散模型、基于偏微分方程的采样器,构建了统计与计算基础;并发展了面向因果推断与不确定性量化的机器学习方法。
他曾担任《美国统计学会杂志》及《运筹学》副编辑、《机器学习研究杂志》编委会成员,以及《学习理论会议》高级程序委员会委员。现任布斯商学院政策委员会(学院监督与治理)委员,在学术共同体建设与学院治理方面亦有持续投入。
在布斯商学院之外,他曾任雅虎纽约研究院研究科学家、耶鲁大学 Cowles 基金会访问教授,以及芝加哥大学香港校区驻校全球教授,参与推动国际合作与校友网络建设。
他本科毕业于北京大学数学系与元培学院,博士毕业于宾夕法尼亚大学沃顿商学院统计学系,获 J. Parker Bursk 纪念奖及 Winkelman 奖金。博士毕业后即加入芝加哥大学任教,于 2022 年晋升为教授。他亦荣获美国国家科学基金会数学科学部 CAREER 奖。
研究主线
代表成果
T. Liang, A. Rakhlin.
“Just Interpolate: Kernel Ridgeless Regression Can Generalize.”
The Annals of Statistics, 48(3):1329–1347, 2020.过参数化学习与插值机制的早期工作之一,揭示无岭核回归在高维插值情形下具备隐式正则化和泛化能力。
M. H. Farrell, T. Liang, S. Misra.
“Deep Neural Networks for Estimation and Inference.”
Econometrica, 89(1):181–213, 2021.机器学习与经济学交叉研究的早期工作之一,为半参数计量经济学中的估计与推断问题建立了严格的深度神经网络理论框架。
T. Liang.
“How Well Generative Adversarial Networks Learn Distributions.”
Journal of Machine Learning Research, 22(228):1–41, 2021.早期为生成对抗网络构建统计学习理论基础,刻画分布学习的最优速率,揭示生成器与判别器选择对性能的影响。
T. Liang.
“Universal Prediction Band via Semi-Definite Programming.”
Journal of the Royal Statistical Society: Series B (Statistical Methodology), 84(4):1558–1580, 2022.通过半正定优化和统计学习理论构造非参数预测带,为不确定性量化提供分布无关的理论保证。
T. Liang, B. Recht.
“Randomization Inference When N Equals One.”
Biometrika, 112(2):1–23, 2025.针对仅有单一实验单元的情形建立随机化推断理论,拓展因果推断在时间序列实验中的适用边界。
N. Deb, T. Liang.
“No-Regret Generative Modeling via Parabolic Monge-Ampère PDE.”
The Annals of Statistics, 2026+.将抛物型 Monge-Ampère 偏微分方程引入生成建模,利用无遗憾学习框架为生成模型提供理论保证。
近期工作
T. Liang.
“Distributional Shrinkage I: Universal Denoiser Beyond Tweedie’s Formula.”
arXiv:2511.09500, 2025.提出分布收缩方法,构建超越 Tweedie 公式的通用去噪框架,为生成建模与统计推断提供新的工具。
T. Liang.
“Distributional Shrinkage II: Higher-Order Scores Encode Brenier Map.”
arXiv:2512.09295, 2025.建立分布收缩理论,证明高阶 Score 蕴含 Brenier 映射,阐释最优传输和生成模型的深层结构。