路径,几乎是如出一辙的。(\\www.zslxsw.com//)凭心而论,杰夫辛顿的能力也不算多逆天的科学家,但他成功了。这里面努力和方向正确占八成,但还有至少两成是运气和环境。深度学习型人工智能的成功,得益于其他地球人的固有技术偏见——在此之前,很少有人从“挖掘人脑的深层学习机理究竟是怎样的”这个角度,来思考训练机器学习的问题。所以,谁这么想了,而且第一个付诸实践了,就能捡到漏。当然了,这个漏也不是阿猫阿狗都能捡的,论证过程比较复杂。通俗地说,你至少得是个世界名校的计算机和神经认知科学领域双博士,你才有资格在方向对的前提下,捡到这个漏。连个盟校双博士都做不到的人,天大的机会白白送到他面前,他捡都捡不起来。另外一方面,顾玩也深谙地球上人工智能发展的另一个重要契机——在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/“教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类“手把手教机器快速进步”。而这些算法的缺点,就是“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑pu运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构
本章未完,请点击"下一页"继续阅读! 第2页 / 共5页