报告地点:行健楼435
报告摘要:在本次报告中,我将从有限元方法、多重网格方法和逼近论的角度探讨对神经网络的数学理解。首先,我将展示 ReLU 神经网络的函数类在数学上与连续分片线性的有限元函数完全等价,并进一步说明,通过引入 ReLU² 激活函数,可以精确表示任意多面体网格上的任意阶有限元函数类。此外,受多重网格方法的启发,我们提出了一种计算效率很高的卷积神经网络架构——MgNet。最后,从逼近论的角度,我将介绍关于 Barron 空间、Sobolev 空间、度量熵等方面的最新研究成果,并探讨非线性及线性化神经网络的逼近理论与训练算法。这些研究为神经网络的逼近能力及其在克服维数灾难方面提供了新的数学视角。
嘉宾介绍:许进超,阿卜杜拉国王科技大学(KAUST)教授、阿卜杜拉国王科技大学-深圳市大数据研究院科学计算与机器学习联合实验室主任,曾经是美国宾州州立大学数学系Verne M. Willaman讲席教授。许教授于1995获得首届冯康科学计算奖,2005年获得德国“洪堡”资深科学家奖,2006年获得中国杰出青年基金(B 类), 2007年应邀在第6届国际工业与应用数学学会大会上作特邀报告,2010年应邀在世界数学家大会上作45分钟报告,2011年当选美国工业与应用数学学会会士,2012年当选美国数学学会会士,2019年当选美国科学促进学会会士,2023 年当选为欧洲科学院院士。
许教授主要研究方向为数值方法的设计、分析和应用,特别是求解偏微分方程以及大数据中的快速算法及其应用。他在区域分解法、多重网格方法和自适应有限元方法等领域,取得了一系列奠基性的科研成果,是国际知名的学术带头人。其代表作包括著名的子空间校正算法、BPX-预条件子、HX-预条件子以及XZ-恒等式等以他名字(Xu)命名的工作。其中BPX-预条件子已经成为大规模科学计算中最基本的算法之一。用于求解Maxwell方程组的HX-算法,曾被美国能源部评为近年来计算科学领域中的十大突破之一。根据 Google Scholar 的数据,许教授迄今发表学术论文240余篇,引用次数超过18500 多次。同时,他还担任了十多种国际计算数学权威期刊的编委。近年来他开始研究深度学习,为传统的统计算法、卷积神经网络(CNN)与稀疏训练算法研发新的算法与数学理论。