最好的打压就是倾销
正当智云集团里的穿戴设备部门,在投资部门、供应链部门、市场营销部门开始为aI眼镜的大规模进行准备,争取在明年春天的时候发布这一款全新的产品时。
智云集团的其他业务部门也没有停下发展的步伐!
时间来到十月底,智云集团旗下的威智科技,也就是承担了X86指令集芯片开发任务的子公司。
比往年提前召开了新产品发布会,并发布了基于十二纳米工艺的新一代cPu中端桌面版芯片。
该中端的桌面版cPu芯片,和年初一月份的时候发布的几款移动端高性能芯片以及桌面版的高端芯片一起,组成了智云集团旗下的X86指令集,基于十二纳米工艺的全套新一代的芯片。
这一系列的十二纳米工艺的cPu芯片,在晶体管密度上已经超过了竞争对手英特尔以及amD的芯片,同时功耗表现更加优秀。
从硬件角度来看,智云的这一系列cPu芯片,已经是超越了竞争对手……
可惜的是在生态上还有一些差距。
这也是没办法的事,英特尔在X86指令集领域里积累的生态优势太大了,有着众多更进一步的指令集技术以及独特的技术,而这些智云集团是没办法使用的,智云集团只能自行开发类似的技术来进行补充。
这种生态上的差距,也不是一天两天就能追赶上的。
不过cPu业务在智云集团里本身就是一种补充业务,不管是纯自研的soP指令集,还是通过收购获得的X86指令集,其芯片产品的目的很简单的,那就是避免被对手卡脖子。
因此具体性能表现上略差一些也是可以接受的。
真正重要的是,随着cPu的新产品发布没有多久后,智云集团旗下的智云半导体又发布了全新一代的服务器gPu。
严格来说也不算是全新,而是年初的时候发布的aPo4500显卡的升级版:aPo4600。
该显卡采用了更先进的技术,支持更大的显存以及内存带宽,一定程度上提升了对部分算法的性能支持,整体性能对比同样采用十二纳米工艺的aPo4500显卡,提升了大约百分之二十左右。
该aPo4600显卡,也是智云集团在十四/十二纳米工艺时代里的最后一次重大升级,后续已经没有基于该工艺节点的服务器gPu设计计划了。
而该显卡的性能还是相当强悍的,哪怕是对比智云集团自用的aI5500显卡,也只是在显存容量、显存带宽以及gPu之间的通信速度上有差异而已……当然,只是这种差异就会导致在人工智能训练的时候表现出很大的差距。
为什么智云集团旗下英伟达品牌的X2显卡不适合用来训练aI?其核心处理单元数量上也不少,理论算力也很强悍,然而显存容量最大才16gB,显存带宽才32gB,gPu之间的互联技术只支持双卡互联,带宽才区区32gB……这就导致了显存带宽以及容量低,意味着训练效率低,而互联技术只支持双卡,带宽也才32gB,这意味着用户不能用这东西组成几千张显卡的gPu服务器阵列。
智云集团,直接就阉割了X系列里作为人工智能算力卡的可能性……要不然,大家都用一两万的X系列显卡训练aI,那么动不动十几万的aPo显卡还怎么卖?
同样的,aPo系列显卡和aI系列也存在同样的差距。
最新版本的aPo4600显卡,和智云集团内部使用的aI5500显卡都是基于十二纳米工艺的芯片,晶体管数量其实都差不多,都是两百多一个晶体管,处理单元数量也类似
(前文多次出现了aI4500,这是写混了,这两个其实是同一种东西。都是采用十二纳米工艺的芯片,后续统一为aI5500)。
但是这两者的差异却是巨大的,主要体现在显存容量,显存带宽,gPu之间的互联带宽以及特殊生态支持上。
aPo4600显卡,内存容量从之前上一代的24gB提升到了32gB,内存带宽提升到800gB,互联带宽则是提升到了500gB。
而自用的aI5500显卡,内存容量是80gB,内存带宽是1.6TB,互联带宽是1TB。
这三个关键数据最终体现到人工智能训练上,训练效率就会出现比较大的差异,并且这种差异在支持大规模人工智能训练的时候,会体现的越来越大。
因为大规模人工智能训练,比如Yun aI这种超大规模的生成式aI训练,可不是一台两台服务器就能搞定的,需要的是好几万甚至更多显卡组成的gPu服务器阵列来进行训练。
而数量越多的gPu组合到一起,其对内存带宽,互联带宽的要求就越高……要不然的话,算力是够用了,但是数据堵塞也没用。
以上这些是硬件上的巨大差异,除了硬件问题外,还有软件生态上的巨大差异。
aI系列显卡,为了适配智云集团自家的人工智能底层算法,从最早期的aI系列开始,就有着众多专门的模块,不仅仅芯片是专门开发的,就连研发支持软件都是专门适配开发的。
aI芯片,天生就是为了智云集团自家的人工智能底层算法而生……它本身就不支持外头一大堆的各种乱七八糟的人工智能算法。
其他公司要是拿过来,先不说都没办法用,就算想办法给用上了,其实性能表现也不会比aPo显卡好多少。
智云集团里的aPo显卡和aI显卡,两者间的关系,有点类似智云集团旗下的智能终端soc,s系列是专门优化设计的自用芯片,里面的很多核心模块都是智云手机才能用得上,其他公司根本就用不上。
其他手机公司用这个s系列芯片,还不如直接使用w系列芯片呢。
毕竟w系列芯片,则是专门针对开源版安卓系统所设计研发的通用型的soc,开发生态成熟,是个手机厂商都能拿去用,而且也挺好用的。
智云集团就喜欢搞这种东西,自家用一个,对外卖则是另外搞一个。
一方面是为了维持自家产品的优势,另外一方面也是因为生态逐渐分离,智云集团内部搞的很多东西,有很多非常独特的一些独家技术以及需求,只能专门设计,没办法搞成通用产品。
久而久之,就形成了现在的这种模式。
但是,尽管aPo显卡只是aI显卡的残血版,但是不可否认的是,智云集团里的aPo显卡依旧是目前地球上可以公开购买到的最先进的服务器算力卡。
在硬件性能以及生态支持上,都吊打amD的同类竞争显卡……没有竞争对手的那种。
aPo4600显卡正式发布后,在普通消费者里自然是没有引起什么反向,这东西距离他们普通人太遥远了。
并且超过十五万一张的售价,也没什么冤大头会用这东西打游戏!
但是对于各大高科技企业而言,那可就不一样了,这款显卡的性能,综合比aPo4500提升了不少呢,虽然价格也贵了一些,但是计算综合算例成本的话,还是要稍微便宜一些。
因此不少大型高科技企业继续追着智云半导体下单,都是好几万张,几万张的下单。
谷狗、微软、水果、特斯拉等美国企业,还有国内的众多高科技企业,比如那几家大型互联网企业都在纷纷下单。
就这,智云集团还嫌弃算力卡市场不够热闹……又在数天后发布了全新一代的通用终端算力平台PX3。
PX系列通用终端算力平台,可以适用于机器人领域,智能驾驶领域,无人机领域或其他需要本地算力的中大型设备。
而采用十二纳米工艺的PX3芯片,单枚芯片的算力达到了60ToPs,最关键的是互联带宽高,并支持单主板最高八枚芯片互联,提供最大480ToPs的综合算力。
该算力平台一经发布,同样也引起了众多业内企业的注意。
国内外的一大票新势力造车企业,已经进军智能电动车领域,也有野心开发自己的辅助驾驶平台的部分传统车企纷纷前来咨询。
因为这款芯片所提供的算力,其实已经能够满足L3级别的辅助驾驶需求了……至于能不能做得出来,这就要看各家厂商在人工智能辅助驾驶的技术水平了……比拼算法和大数据训练。
PX3这个能够覆盖小型到大型设备的终端算力芯片,再加上年初的时候就已经发布的轻量化低功耗通用终端算力芯片Lc1。
智云集团旗下的半导体部门,已经完成了对服务器算力芯片,中大型终端算力芯片,小型算力芯片这三大领域的布局。
不管客户是要训练人工智能,运行大型人工智能。
还是说要各种小型起步,甚至到大型设备里运行本地人工智能。
又或者是在微型设备上运行本地人工智能。
智云集团旗下的智云半导体,都能提供相应的算力芯片产品,并且性能绝佳……当然,价格也是一如既往的贵!
配合这些算力芯片发布的同时,智云集团旗下的智云人工智能研究院,则是对外发布了新一代的开源人工智能gTaI2,包括了对上半年发布的几个开源aI的常规升级。
虽然人们测试后发现,这个gTaI2开源模型,对比上一代虽然有了不小的提升,然而依旧比Yun aI差了很多。
但是它开源啊……一毛钱都不会收你的,你有本事完全可以自行部署这个gTa2甚至用于商业领域,智云集团都不管你。
智云集团发布这个gTaI2的大型生成式aI模型,目的很简单,就是进一步推动人工智能市场的热度……之前的gTaI1发布了也有半年多了,但是各大厂商的动作太慢,除了原样使用外,竟然都没有什么厂商根据gTaI1进行升级换代。
智云集团那边当初发布gTaI本来只是打算抛砖引玉……但是没有想到砖头抛出去了,玉依旧没见着……智云集团的管理层,高估了其他企业在人工智能领域的研发能力。
哪怕是有个开源模型摆在他们面前,还附带各种公开论文资料,让他们随便看,随便研究……但是真正能看懂,最后沿着这个基础继续深一步研发的却是没几个,而研发出成果来的就更好了。
所以智云集团就着急啊……
你们技术推进这么慢,我怎么卖芯片啊?
于是乎,又从诸多自家已经不用的的老技术里,挑挑拣拣弄了点,然后融合到gTaI里,发布了一个所谓的gTai2。
你们不研发,我就帮你研发……现在gTaI2这个更先进的开元模型已经摆在这里了,你们不会折腾,也别折腾了,可以直接用我的开元模型,甚至你都可以自己再搞个名字,套个壳子直接说成是你自家研发的。
然后麻溜的拿出来商用啊,人工智能这么好的东西,你必须给你自家的海量客户给安排上啊……就算算力成本高昂,那也得咬牙死撑啊!
在机器人领域的人工智能开源模型,也是基于类似的想法……开源一个机器人模型,然后诸多企业看到机会,投身到各种人工智能产品应用里,这样才能卖各种算力芯片。
为了卖芯片,智云集团也是操碎了心……就差把人工智能这东西,直接塞到各国里的高科技企业嘴里去!
你们不玩人工智能,我咋卖芯片啊?
不卖芯片,我巨大的半导体领域的投入怎么收回来啊?
要知道,智云微电子刚投产了一个cowos封装工厂,把cowos封装产能提升到了每个月五万片,同时还在新建造两家cowos封装工厂,整个规划完成后,智云微电子的cowos封装产能,预计能够达到每个月十万片,满足自身算力芯片需求的同时,还能对外大规模供货!
而cowos封装工厂的投资也很大的。
cowos封装,也可以翻译为2.5D封装或3D封装,简单形容就是一种可以把多枚不同类型的芯片堆迭在一起封装的先进封装技术。
之前的芯片发展,是单核变成多核……但是多核芯片依旧是一枚芯片,只是芯片设计的时候规划了多个核心区域而已。
而3D封装技术,则是干脆把多枚不同类型的芯片封装在一起……比如把gPu和cPu甚至内存芯片都整一起进行封装……比如智云集团生产的aPo或aI系列的gPu核心,看似只是一个gPu芯片,但实际上里头除了gPu核心之外,还有一堆的内存芯片。
3D封装技术,也是生产高性能算力芯片所必须的一种封装技术……因为这种封装技术,可以有效提升芯片之间的连接速度,进而提升算力卡的整体性能。
智云集团早早就开始在算力卡领域里使用这一封装技术,在这一领域里的技术积累是非常雄厚的……因为智云集团本身就是最早玩算力卡,最早大规模应用3D封装技术的厂商。
当然,现在也不仅仅智云微电子有这种3D封装技术,其他一些半导体厂商也有类似的技术,可能技术实现路径不一样,性能效果有差别,但是基本原理都一样,目的也一样。
这也是amD能够搞出来硬件性能勉强还行的算力卡的缘故之一,它的代工厂商台积电,也有3D封装技术……只是amD的硬件设计能力还差了一些。
更重要的amD的算力卡生态不行,所以导致算力卡开发出来后,也卖不出去,进而导致了巨额的亏损。
amD自从几年前,开始进入算力芯片领域后,在这业务上的累计亏损已经超过十五亿美元……继续这么搞下去,还会亏损的更多,管理层是亏得心惊胆战,董事会是亏得心痛的很。
所以今年开始,amD实际上已经大幅度放缓了算力芯片领域的研发投入了……继续这么折腾下去,卖cPu赚的那点钱就得被折腾光了。
算力卡领域里,智云集团的优势太大了,他们amD根本就竞争不过……搞了几年算力卡,除了十几亿美元的亏损,毛都没捞着!
所以amD退缩了!
倒是高通和英特尔这两家还不死心,还在继续尝试搞算力卡,但是他们搞算力卡的难度更大……他们连amD还不如呢。
amD在算力卡领域的失败,主要是生态问题,单纯说硬件的话,其实他们做的最新旗舰的算力卡在硬件性能而言已经算可以了,纵然不如智云集团旗下的aPo4500显卡,但是也勉强具备了百分之六十七左右的水平,真要用的话,其实勉强也能用了。
问题是综合算力成本的性价比太低,然后生态还不支持……所以就没几个人使用。
而高通和英特尔,除了面临同样的算力的性价比问题以及生态问题外,他们连硬件设计领域都面临巨大的麻烦……没点经验和技术,还真搞不来性能强悍的算力芯片。
人家amD好歹还有个独立显卡的底子,搞起来其实也算是专业对口。
但是高通和英特尔,在gPu领域里,一个只有cPu集显的经验,一个是只有soc集显的经验,至于高性能独立gPu,说实话他们真没搞过!
这对于他们而言,是属于完全陌生的领域!
更别说,服务器gPu,那是比常规消费级gPu还要更进一步的产物!
这中间,还才差着好几层呢。
————
美国的这三大芯片巨头,在算力卡领域里都止步不前,都面临着各种各样的巨大问题。
反倒是特斯拉那边自研的算力芯片进度不错……不过特斯拉自研芯片都是为了给自家,自产自销,连软件开发生态这些都自己设计软件,其实走的是和智云集团早期类似的路子……生态问题对于他们而言,问题不大,主要是硬件设计问题,不过特斯拉搞得是终端算力芯片,这和服务器gPu芯片差别很大的。
此外,aDm以及英特尔以及高通而言,他们搞算力芯片是为了卖出去……而对外销售的话,就需要让客户接受自家的新生态,这难度可不是一般的大。
amD推了好几年自家的生态也没推成功,他们没成功的理由除了智云集团的生态竞争外,还有一部分原因是和英特尔和高通也有关,因为这两家也在各自推行自家的算力芯片新生态有关系。
在算力芯片领域里,连徐申学也没预料到,面对自家的垄断地位,美国的三大芯片厂商自家先打起来了……都在抢第二生态位,结果谁都抢不到。
同时,美国这三大芯片厂商,还有特斯拉,水果等一些想要自研算力芯片的企业都动作不小,这也让智云集团感受到了一些竞争的压力。
所以最近一年才会动作频繁,不仅仅搞开源人工智能,还敞开了卖各种算力芯片……这其实也算是一种产品倾销。
智云集团就是对谷狗,微软以及其他需要大量服务器gPu的厂商说:你们别等什么amD或高通,英特尔的算力卡了,费那个劲干啥,我直接打个折把aPo4500/4600显卡卖给你们啊,同时还提供全套的免费开发软件支持。
不仅仅卖芯片,我还很贴心的给你来个gTaI2大型生成式aI开源……
你本地部署后,换个名字,换个皮肤,就能直接商用化了……说成你自己的都行,我都没意见。
智云集团在卖算力卡的时候,各种贴心服务做的老好了,把各大搞人工智能的企业伺候的舒舒服服……然后amD的算力卡就卖不出去,几年巨亏,现在都快要砍掉这一块业务了。
同时两者之间的技术差距也越来越大,这种情况下,越往后,智云的算力卡生态建立的就会越完善,世界各国的人工智能企业对智云算力卡生态的依赖就越严重。
真到那个时候,amD就更没机会了。
至于高通和英特尔……因为专业不对口,虽然他们还在坚持继续搞算力卡,但是他们连amD的的水平都远远不如,更别说看见智云半导体的车尾灯了,差距有十万八千里那么大呢……所以这两家暂时威胁不大。
但是,哪怕是没有明显威胁,徐申学都打算继续维持目前的这种强势态度,继续打压美国的几家芯片设计厂商。
要打压的话,最好的办法不是不卖高性能服务器gPu,反而是要大规模敞开了卖给他们!
没有什么比倾销更好用了!
等到把他们的服务器gPu领域彻底挤兑死了,让他们连看一眼服务器gPu的勇气都没有的时候,也就到了收割的时候了!