方鸿坐在一边旁听默默不言,他也算是计算机科学领域的半个业内人士,更有前世记忆先知先觉的优势,此刻旁听也是毫无压力。
陈宇他们走的显然就是神经网络这个流派,不过也向前推进了一步,进入到了强化深度学习,而神经网络的前身就是感知机。
这三个名词本质上都是在玩同一个东西。
却说此刻,陈宇缓缓地说道:“深度学习最基本的思想就是模拟大脑神经元的活动方式来构造预测函数和损失函数,既然叫神经网络,必然和人的大脑神经元有一定的关系,单个感知机的算法机制其实就是在模拟大脑神经元的运行机制。”
屏幕上呈现一张大脑神经元的结构图。
“这是一个神经元,大家都知道它的结构,这是树突,这是轴突,其它神经元发过来的信号通过树突进入神经元,再通过轴突发射出去,这就是一个神经元的运行机制。”
“现在我们把神经元的树突变成输入值,把轴突变成一个输出值,于是这个神经元就变成了这样的一张图。把它转化为一个数学公式就更简单了,[x1+x2+x3=y],就是这个公式。”
“没错,就这么简单。最复杂的事物往往是有最简单的事物创造的,简单的0和1就塑造了庞大的计算机世界,四种核苷酸就空置了纷繁复杂的生命现象,一个简单的神经元反射就塑造了我们的大脑。”
陈宇停顿了一会儿,再度环视众人:“问题的关键不是基本结构有多简单,而是我们如何使用这个基本结构来构建庞大的世界,神经元之所以神奇是因为它有一个激活机制,即所谓的阈值。”
“神经元的每一个树突不断的接受输入信号,但并不是每一个输入信号都能让轴突输出信号,每一个树突在输入时所占的权重也不一样。”
“比如你追求一个妹子,你孜孜不倦地采取各种行动,今天送了她一束花,明天请她吃大餐,但你发现这些行动都打动不了她。直到有一天伱陪她逛了一天街,她忽然间就被打动了,答应做你女朋友,这说明什么?”
这章没有结束,请点击下一页继续阅读!
“说明并不是所有的输入权重都是一样的,在妹子那里可能逛街的权重最大,其次是效果的积累并非是一个线性渐进的过程,而是量变引起质变。”
“所有的输入在某一个点之前完全没效果,可一旦达到某个值就突然被激发了,所以,模仿神经元的这种激活特性,那么对刚才的公式做一下改造。”
“每个输入需要一定的权重,在前面加一个调节权重的系数[w],后面加一个常数方便更好地调整阈值,于是这个函数就变成了这个样子。”