阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第505章 课程(1 / 2)

于是开始上课,其实对于并行计算,孙彧又有一些想法,集中与分布可谓计算机发展史上一对互相转化的矛盾,每一个分布式的节点,随着规模增加,必然会出现集中的倾向,而每一个集中的中心,随着网络或者互联技术的发展,又会变得分布起来。

当然现在计算机互联技术还不是那么发达,不论是带宽还是传输率都不是那么的令人满意,或者说并不能满足分布计算应该有的指标,所以,在单机甚至指令级上试图实现或者说研究并行计算,很有些螺蛳壳里做道场的意思,孙彧觉得这并没有什么前途,没有超算那么就集群,然后是分片,map/reduce,这些才是并行处理大数据的正确途径。

或者,换句话说,孙彧觉得在CPU级也是可以使用一个调度系统的,毕竟每一条机器指令,到了CPU执行的层面,还是可以细分的,一细分,就有了调度的余地。

至于超大规模集成电路设计导论,大体上又是把数字电路、计算机组成原理和计算机体系结构综合起来复习了一遍,当然,并行计算也得讲讲这些内容,真是万变不离其宗。

不过,孙彧的想法却又变成了可以把操作系统写到芯片上,实现一个内核级的指令与数据分离的架构,这样可以简化应用程序的开发难度。

当然这也可以算是一种哈佛架构,只不过只是对于操作系统来说的,而对于应用程序,却还是冯诺伊曼结构的,或者说,应用程序并不需要考虑CPU和操作系统用的什么架构,编译程序也不需要。

有自己的东西,想怎么折腾就怎么折腾,孙彧浮想翩翩的开着小差。

然后是神经网络和模式识别,说到底模式识别就是两大任务,一则拟合,一则分类,而神经网络也是可以用来解决这两类问题的,只不过这个时候用神经网络并不比其他方式更有优势,如果不是更加劣势的话,所以,神经网络至少在这个时候还是颇有些声名狼藉的,毕竟人们曾经对神经网络抱有那么大的希望,所谓希望越大,失望越大。

但是不管怎么说,神经网络仍然是死而不僵败而不倒,于是系里继续开着这门课,只不过老师讲课也算是乏善可陈,介绍了一些基本概念之后,主要也还是讲讲在模式识别上的应用,于是模式识别课就不讲神经网络的内容了。

所以,虽然梯度反向传播提出有些年头了,但是似乎并没有人真正应用到神经网络的自学习当中,原因当然挺简单的,没有足够规模的节点,神经网络只会是一个玩具,但是一直以来计算机硬件发展并不足以支持大规模的神经网络模型,至于超算......只能说有更重要的事情要做,或者说,能够使用以及需要使用超算的人,并不会去考虑神经网络的问题。

上一章 目录 +书签 下一页