,调到一个最优化的玄妙数值上。只有量身定做了这个数值,无论人还是机器,都能达到最完美的学习效率。哪怕一个学渣,都能在学习中感受物我两忘开天眼的高效。”
“具体要怎么做到??”麻依依已经忘了自己是在聊学术问题了。
……
对啊,具体要怎么做到?
在地球上,201年的时候,亚利桑那大学和布朗大学的两位人工智能算法专家,就给出了最优解。
他们的结论是,让一个机器学习的训练集中,对错比例控制在157时,可以达到机器学习算法效率最高、进步最快的状态。
比如让计算机用人工智能图像识别,来鉴别一万张类似猫的图片,来学习“怎样判断图里面的东西是不是一只猫”。
这时候,你要拿413张真的是猫的图片,和157张似猫非猫的图片,去给人工智能喂数据,那么机器学完这10000万图片、得到对错评分后,得到的提高是最多的。
这个是自然数学法则的最优解了,换句话说,你拿414张真猫图和156张似猫非猫图去喂,机器吃完这1万个大数据之后,进步量也会比岗前前一组略低。
这个数据具体怎么来的呢?是人类算法学家,从2010年,谷歌开始操练深度学习以来,不断反复试验,全人类算法专家共同实验了八年,摸出来的。
更奇妙的是,地球人后来做了更多深入实验,发现这个学习效率机制,真的不仅适用于机器学习,也适用于人类大脑。
在“试错型学习”,或者说早期认知方面,人脑和模拟人脑宏观运作规律表现的深度学习,是一致的。
地球人当时设计的人体实验,主要是拿婴儿做实验,因为可以尽量减少干扰项。选取原本认知发育水平差不多的婴儿,让他们认图片训练,就跟现在一两岁的小孩,看画本教他们什么是猫、什么是狗。这个训练跟深度学习的机器视觉训练,是很相似的。
然后放大样本容量,给每个婴儿的画片对错比例不同。结果最终果然是错误率接近157的婴儿,认知新事物进步速度最快。成年人的话
本章未完,请点击"下一页"继续阅读! 第3页 / 共6页