最好的打压就是倾销
正当智云集团里的穿戴设备部门,在投资部门、供应链部门、市场营销部门开始为aI眼镜的大规模进行准备,争取在明年春天的时候发布这一款全新的产品时。</p>
智云集团的其他业务部门也没有停下发展的步伐!</p>
时间来到十月底,智云集团旗下的威智科技,也就是承担了X86指令集芯片开发任务的子公司。</p>
比往年提前召开了新产品发布会,并发布了基于十二纳米工艺的新一代cPu中端桌面版芯片。</p>
该中端的桌面版cPu芯片,和年初一月份的时候发布的几款移动端高性能芯片以及桌面版的高端芯片一起,组成了智云集团旗下的X86指令集,基于十二纳米工艺的全套新一代的芯片。</p>
这一系列的十二纳米工艺的cPu芯片,在晶体管密度上已经超过了竞争对手英特尔以及amD的芯片,同时功耗表现更加优秀。</p>
从硬件角度来看,智云的这一系列cPu芯片,已经是超越了竞争对手……</p>
可惜的是在生态上还有一些差距。</p>
这也是没办法的事,英特尔在X86指令集领域里积累的生态优势太大了,有着众多更进一步的指令集技术以及独特的技术,而这些智云集团是没办法使用的,智云集团只能自行开发类似的技术来进行补充。</p>
这种生态上的差距,也不是一天两天就能追赶上的。</p>
不过cPu业务在智云集团里本身就是一种补充业务,不管是纯自研的soP指令集,还是通过收购获得的X86指令集,其芯片产品的目的很简单的,那就是避免被对手卡脖子。</p>
因此具体性能表现上略差一些也是可以接受的。</p>
真正重要的是,随着cPu的新产品发布没有多久后,智云集团旗下的智云半导体又发布了全新一代的服务器gPu。</p>
严格来说也不算是全新,而是年初的时候发布的aPo4500显卡的升级版:aPo4600。</p>
该显卡采用了更先进的技术,支持更大的显存以及内存带宽,一定程度上提升了对部分算法的性能支持,整体性能对比同样采用十二纳米工艺的aPo4500显卡,提升了大约百分之二十左右。</p>
该aPo4600显卡,也是智云集团在十四/十二纳米工艺时代里的最后一次重大升级,后续已经没有基于该工艺节点的服务器gPu设计计划了。</p>
而该显卡的性能还是相当强悍的,哪怕是对比智云集团自用的aI5500显卡,也只是在显存容量、显存带宽以及gPu之间的通信速度上有差异而已……当然,只是这种差异就会导致在人工智能训练的时候表现出很大的差距。</p>
为什么智云集团旗下英伟达品牌的X2显卡不适合用来训练aI?其核心处理单元数量上也不少,理论算力也很强悍,然而显存容量最大才16gB,显存带宽才32gB,gPu之间的互联技术只支持双卡互联,带宽才区区32gB……这就导致了显存带宽以及容量低,意味着训练效率低,而互联技术只支持双卡,带宽也才32gB,这意味着用户不能用这东西组成几千张显卡的gPu服务器阵列。</p>
智云集团,直接就阉割了X系列里作为人工智能算力卡的可能性……要不然,大家都用一两万的X系列显卡训练aI,那么动不动十几万的aPo显卡还怎么卖?</p>
同样的,aPo系列显卡和aI系列也存在同样的差距。</p>
最新版本的aPo4600显卡,和智云集团内部使用的aI5500显卡都是基于十二纳米工艺的芯片,晶体管数量其实都差不多,都是两百多一个晶体管,处理单元数量也类似</p>
(前文多次出现了aI4500,这是写混了,这两个其实是同一种东西。都是采用十二纳米工艺的芯片,后续统一为aI5500)。</p>
但是这两者的差异却是巨大的,主要体现在显存容量,显存带宽,gPu之间的互联带宽以及特殊生态支持上。</p>
aPo4600显卡,内存容量从之前上一代的24gB提升到了32gB,内存带宽提升到800gB,互联带宽则是提升到了500gB。</p>
而自用的aI5500显卡,内存容量是80gB,内存带宽是1.6TB,互联带宽是1TB。</p>
这三个关键数据最终体现到人工智能训练上,训练效率就会出现比较大的差异,并且这种差异在支持大规模人工智能训练的时候,会体现的越来越大。</p>
因为大规模人工智能训练,比如Yun aI这种超大规模的生成式aI训练,可不是一台两台服务器就能搞定的,需要的是好几万甚至更多显卡组成的gPu服务器阵列来进行训练。</p>
而数量越多的gPu组合到一起,其对内存带宽,互联带宽的要求就越高……要不然的话,算力是够用了,但是数据堵塞也没用。</p>
以上这些是硬件上的巨大差异,除了硬件问题外,还有软件生态上的巨大差异。</p>
aI系列显卡,为了适配智云集团自家的人工智能底层算法,从最早期的aI系列开始,就有着众多专门的模块,不仅仅芯片是专门开发的,就连研发支持软件都是专门适配开发的。</p>
aI芯片,天生就是为了智云集团自家的人工智能底层算法而生……它本身就不支持外头一大堆的各种乱七八糟的人工智能算法。</p>
其他公司要是拿过来,先不说都没办法用,就算想办法给用上了,其实性能表现也不会比aPo显卡好多少。</p>
智云集团里的aPo显卡和aI显卡,两者间的关系,有点类似智云集团旗下的智能终端soc,s系列是专门优化设计的自用芯片,里面的很多核心模块都是智云手机才能用得上,其他公司根本就用不上。</p>
其他手机公司用这个s系列芯片,还不如直接使用w系列芯片呢。</p>
毕竟w系列芯片,则是专门针对开源版安卓系统所设计研发的通用型的soc,开发生态成熟,是个手机厂商都能拿去用,而且也挺好用的。</p>
智云集团就喜欢搞这种东西,自家用一个,对外卖则是另外搞一个。</p>
一方面是为了维持自家产品的优势,另外一方面也是因为生态逐渐分离,智云集团内部搞的很多东西,有很多非常独特的一些独家技术以及需求,只能专门设计,没办法搞成通用产品。</p>
久而久之,就形成了现在的这种模式。</p>
但是,尽管aPo显卡只是aI显卡的残血版,但是不可否认的是,智云集团里的aPo显卡依旧是目前地球上可以公开购买到的最先进的服务器算力卡。</p>
在硬件性能以及生态支持上,都吊打amD的同类竞争显卡……没有竞争对手的那种。</p>
aPo4600显卡正式发布后,在普通消费者里自然是没有引起什么反向,这东西距离他们普通人太遥远了。</p>
并且超过十五万一张的售价,也没什么冤大头会用这东西打游戏!</p>
但是对于各大高科技企业而言,那可就不一样了,这款显卡的性能,综合比aPo4500提升了不少呢,虽然价格也贵了一些,但是计算综合算例成本的话,还是要稍微便宜一些。</p>
因此不少大型高科技企业继续追着智云半导体下单,都是好几万张,几万张的下单。</p>
谷狗、微软、水果、特斯拉等美国企业,还有国内的众多高科技企业,比如那几家大型互联网企业都在纷纷下单。</p>
就这,智云集团还嫌弃算力卡市场不够热闹……又在数天后发布了全新一代的通用终端算力平台PX3。</p>
PX系列通用终端算力平台,可以适用于机器人领域,智能驾驶领域,无人机领域或其他需要本地算力的中大型设备。</p>
而采用十二纳米工艺的PX3芯片,单枚芯片的算力达到了60ToPs,最关键的是互联带宽高,并支持单主板最高八枚芯片互联,提供最大480ToPs的综合算力。</p>
该算力平台一经发布,同样也引起了众多业内企业的注意。</p>
国内外的一大票新势力造车企业,已经进军智能电动车领域,也有野心开发自己的辅助驾驶平台的部分传统车企纷纷前来咨询。</p>
因为这款芯片所提供的算力,其实已经能够满足L3级别的辅助驾驶需求了……至于能不能做得出来,这就要看各家厂商在人工智能辅助驾驶的技术水平了……比拼算法和大数据训练。</p>
PX3这个能够覆盖小型到大型设备的终端算力芯片,再加上年初的时候就已经发布的轻量化低功耗通用终端算力芯片Lc1。</p>
智云集团旗下的半导体部门,已经完成了对服务器算力芯片,中大型终端算力芯片,小型算力芯片这三大领域的布局。</p>
不管客户是要训练人工智能,运行大型人工智能。</p>
还是说要各种小型起步,甚至到大型设备里运行本地人工智能。</p>
又或者是在微型设备上运行本地人工智能。</p>
智云集团旗下的智云半导体,都能提供相应的算力芯片产品,并且性能绝佳……当然,价格也是一如既往的贵!</p>