10月21日,应数学与信息科学学院邀请,中山大学张海樟教授为学院师生作题为“Convergence Theory of Deep Neural Networks”的报告,相关专业教师和硕士研究生24余人参加此次研讨会。
张海樟教授提出到目前为止,大多数关于深度神经网络非线性函数表示系统的数学研究都集中在系统的表达能力上。很少关注参数(权重矩阵和偏置向量)与网络收敛或收敛率之间的关系。因此,本次报告介绍深度ReLU网络和深度卷积神经网络的结果。报告结束后,张海樟教授对师生提出的相关问题进行了细致地解答,师生们受益匪浅。
专家简介:
张海樟,中山大学珠海校区数学学院教授,博士生导师,国家优秀青年基金获得者。研究兴趣包括学习理论、应用调和分析和函数逼近。代表性成果有再生核的Weierstrass逼近定理,以及在国际上首创的再生核巴拿赫空间理论。以再生核巴拿赫空间为基础的心理学分类方法入选剑桥大学出版社的《数学心理学新手册》。在Journal of Machine Learning Research、Applied and Computational Harmonic Analysis、IEEE系列、Neural Networks、Neural Computation、Neurocomputing、Journal of Approximation Theory等发表多篇原创性工作,单篇最高他引超过300次。主持包括优秀青年基金在内的五项国家基金。
(数学与信息科学学院魏晓君李海锋)