第655章【神经网络深度学习】
“每个输入需要一定的权重,在前面加一个调节权重的系数[W],后面加一个常数方便更好地调整阈值,于是这个函数就变成了这个样子。”
方鸿也看向了会议大屏幕,是一个新的数学公式。
【W1X1+W2X2+W3X3+b=Y】
陈宇看着屏幕里的公式说:“为了实现激活的过程,对输出值再作进一步的处理,增加一个激活函数,比如当X>1时,输出1;当X<1时,输出0,于是就成了这个样子。”
“不过这个函数看起来不够圆润,不是处处可导,因此不好处理,换成Sigmoid函数,这样一个简单的函数就可以处理分类问题了。”
“单个的感知机,其实就是画了一条线,把两种不同的东西分开,单个感知机可以解决线性问题,但是对于线性不可分的问题却无能为力了,那意味着连最简单的异或问题都无法处理。”
异或问题对于在场的所有人包括方鸿都明白,这是计算机的基本运算之一。
这时,陈宇自我反问道:“异或问题处理不了,那岂不是判死刑的节奏?”
陈宇旋即自答:“很简单,直接用核函数升维。感知机之所以能变成现在的深度学习,就是因为它从一层变成了多层,深度学习的深度就是指感知机的层数很多,我们通常把隐藏层超过三层的神经网络就叫深度神经网络,感知机是如何通过加层搞定异或问题的?”