“若我们先用传统傅里叶变换,再用均匀的离散傅里叶变换来逼近。其误差则~^-a/d,必然被维度所影响。
可,若一个函数可以表示成期望的形式,而令所有样本为独立同分布样本,则有拟合差值为var(f)/,与维度无关。
若将两层神经网络写作该形式,则意味着,这一类期望函数均可由两层神经网络逼近,且其逼近速度与维度无关。”
“让我们转向离散动力系统的视角,举一个随机控制问题。
动力模型z+1&nbp;=&nbp;z&nbp;+&nbp;g1(z1,a1)+&nbp;n,其中z为状态,a为控制信号,n为噪声。若我们想寻找一个反馈控制信号函数,而通过求解动态规划贝尔曼方程,则必然会遭遇维度灾难问题。
该过程的性质,其实与残差网络等同。
”
“最后,我总结。深度学习根本上是高维中的数学问题。神经网络是高维函数逼近的有效手段,而残差网络则是更加容易优化的高维函数。
这意味着数学处于科技创新的真正前沿,并且对新领域产生直接冲击。同时也为人工智能领域、科学以及技术领域提供了众多新的可能性。”
韩辞总共讲述的时间大约是孟繁岐的两倍,讲述完成之后,更是被几位老学究抓着反复提问,讨论。
半晌,主持人才找到机会重新登台,把孟繁岐又请了上去。
主持人看上去年纪不大,大约三十岁左右,估计是斯坦福的在读博士生或者刚毕业的讲师。
为人相当活跃,看热闹的不嫌事大,他将孟繁岐重新请上来之后,还开了一句玩笑。
“这次演讲本来是你的舞台,现在却被韩辞小姐抢去了不少风头和关注,不知道你作何感受?”
孟繁岐笑着接过话筒,等台下的笑声稍稍平息一些过后,十分大方地回答道,“我们专注应用方面的人,依靠得是代码说话。虽然我今天丝毫没有提到技术的实现和细节,但我想看了我代码的大家,都已经感受到了我的万语千言。”
台下的不少程序员闻言马上开始起哄,口哨声和呼声此起彼伏。
“我的梦想是自己的技术可以广泛地应用到世界各地,让ai智能就如空气一般,每个人都无法缺少,但在生活当中却又很少会注意到它们的存在。
至于ai的理论研究和探索,可能就要拜托韩辞和大家了。”
这一番话还算是谦逊得体,意料之中地迎来全场的掌声。
台下诸人又再分别向两人问了一些问题之后,会议的主要流程也算是走完。
除了公开询问的问题,不少人也有很多私下里才方便的问的事情要询问两人。
于是乎,在场的不少人就自然而然地分成了应用与理论两个派别。
一派以科技巨头,例如杰夫为首,围在孟繁岐周边讨论他出色成果的应用场景,市场潜力还有落地难点。
而另一派则以牛津大学的几位老学究为首,一群理论派,表情严肃,正在严谨地讨论一些设想和它们的理论证明。
以会场中心的走廊为分界线,一群人在左,一群人在右。
倒是一幅意外有趣的画面。
。