ML应该大量使用模拟计算

感觉现在的机器学习往更多特征更多层更多节点无休止的发展下去不是正途。人脑大致是用数字信号传输但用模拟信号处理。计算机的数字逻辑门内部也是用晶体电阻模拟实现的。但我在想,这个最小单元是不是并不那么像人脑。而应该大量使用模拟计算,只在信号传递和信息传输的过程使用数字。如果一种芯片可以让卷积层内处理模拟化,只在层与层之间数字化传递,那会不会才是正解?不要求绝对精度结果的矩阵相乘,模拟比数字多快好省不是一个数量级。

Leave a comment