多。
尤其是通信带宽的差别,这影响模型训练非常重要的一个数据。
毕竟采用大量显卡组成服务器阵列的时候,其数据交换是极其庞大的,而普通显卡的通信带宽太小,由此导致训练效率很低,速度缓慢……当然,这个训练速度慢只是对比说法。
实际上哪怕是消费显卡的训练速度,在谷狗的工程师们看来也是超级快了……只是如果他们看过了智云的AI芯片的训练速度,恐怕会怀疑人生!
智云集团的所谓AI芯片,其实就是针对普通的显卡在进行大规模计算的时候,所遇到的一系列诸多难题,然后针对性的解决改进。
通信带宽太小,那么我就研发全新的通讯技术,然后一口气把通讯带宽给加大了十倍以上。
显存太小,那就塞进去更多的显存。
算力不够,那么就往GPU核心里塞进去更多的晶体管提升算力。
当然,这里头还需要专门的软件支持,为此智云集团还专门开发了好几个的专门软件,这样才能够发挥出来AI显卡的强大性能。
最后硬件和硬件整合起来后,就搞出来了所谓的AI芯片……不干别的,就专门用来跑AI模型。
而AI芯片的这一系列改进或者说技术特点,智云可是从来没有对外公布过。
等其他AI厂商发现诸多缺陷,然后反馈到GPU厂商,再针对性改进,又得开发一大堆适配的软件,哪怕一切顺利,哪怕从今天开始搞,估计也得两三年时间才能初步搞利索。
他们想要追上智云的步伐……不考虑半导体设备或耗材制裁的话,那么几乎不存在这个可能性。
因为他们在追赶的时候,前头的智云也在前进啊,而且前进的更快。
智云的AI芯片都已经迭代了三代了,预计明年还将会基于22纳米3D工艺推出下一代的AI芯片,也就是AI4000。
他们追个毛线!
之前距离智云最近的是英伟达,但是英伟达已经被智云收购,并在收购后作为智云旗下的一个独立品牌,彻底转型消费级显卡领域。
而另外三家,也就是英特尔,AMD以及高通,他们差距太远了……连消费级高性能独显之前都玩不过英伟达,更别说什么专业级别的算力卡,甚至更高一级别的AI芯片了。
别看都是GPU,但是彼此间技术差异非常大的,不是想要跨行就能随便跨行的。
——————
随着
本章未完,请点击下一页继续阅读!