中科院5小时造出一颗芯片,背后藏着3800亿的算盘和640亿的新战场
凌晨三点,实验室里传出的不是工程师的键盘声,而是机器自己在设计机器。中科院那套叫“启蒙”的系统,五个小时就搞定了一颗32位处理器的前端设计,这事儿放在以前,一个团队干上几个月都不稀奇。
这种感觉有点像当年数控机床替代手工车床。区别在于,这次被替代的不是体力活,是脑力活里最金贵的那种——芯片设计。400多万逻辑门的规模,性能大概相当于Intel 486那个年代的水平,听起来不算惊艳,但你得明白,这是机器自己琢磨出来的。
往深了说,这事儿的意义或许不在于性能,而在于速度和灵活性。AIoT、智能汽车那些场景,需要的芯片种类越来越杂,传统流程根本来不及响应。现在有了这套系统,针对特定场景快速定制变成了可能。
AMD最近发布的那颗Instinct MI350,1850亿个晶体管堆在3纳米工艺上,FP4精度下算力能到20PFLOPS。数字很漂亮,但你看看功耗和成本,就知道这条路走到哪儿算哪儿了。反倒是那些实验室里搞出来的光基芯片,用激光跑AI运算,能效比能提升十倍甚至百倍,这才是真正可能改变游戏规则的东西。
不过话说回来,光基芯片离量产还早着呢。眼下能看到的变化,是Chiplet这种小芯片封装技术开始普及。把不同工艺的模块拼在一起,成本降了,性能没掉,英伟达、AMD都在用。这种务实的路子,往往比那些激进方案更快见到效果。
国产芯片这两年动静不小。华为昇腾910C对标H100,百度昆仑芯三代的集群规模已经过3万卡,寒武纪、海光各自也在找自己的定位。有机构预测,到2027年国内AI芯片的本土化率能冲到55%,听着挺振奋,但软件生态和高端制程的短板还摆在那儿。阿里说要花3800亿建云和AI基础设施,这钱砸下去,多少能带动一批配套企业起来。
真正有意思的变化,可能不在芯片本身,而在应用端。智能体这个概念,去年还只是技术圈在讨论,今年就有23%的企业开始部署了。市场规模640亿,明年可能翻倍。字节的扣子、百度的千帆、蚂蚁的Agentar,产品一个接一个冒出来。
智能体这东西,说白了就是给大模型装上手脚。以前那些模型只会聊天,现在能调工具、查数据、操作设备了。这才算把AI从“会说话”变成“会干活”。金融风控、医疗诊断、工业质检,这些场景里智能体已经在小规模试水,效果好坏另说,至少方向对了。
手机厂商比谁都着急。Canalys的数据显示,去年带生成式AI功能的手机出货量1.84亿台,占比16%,预计2028年能过半。车载场景也一样,智能座舱的市场规模去年1290亿,大模型往里一塞,体验确实不一样了。这些终端就是AI接触用户的最后一米,谁抢到这个入口,谁就能拿到下一轮增长的船票。
DeepSeek那套MoE模型出来以后,大家突然发现不是非得堆参数才能做出好模型。动态激活不同的专家网络,用更少的算力达到差不多的效果,这对芯片厂商来说既是挑战也是机会。以前拼制程,现在得拼架构和能效比,游戏规则变了,牌桌上的位置也会重新洗。
算力这块儿,数字涨得很快。国内智能算力规模今年可能破1000 EFLOPS,三年后能到2700多。听着挺唬人,但你想想全社会的算力需求,这点儿可能还不够塞牙缝。华为预测未来十年算力总量要涨10万倍,这数字有点儿夸张,但方向大概不会错。
数据产业去年5.86万亿,全国数据产量41个ZB。这些数字背后,是无数企业在拿自己的业务喂AI模型。模型数量倒是不少,国内发布了1500多个,但真正能用得上、用得好的,十个里头可能挑不出两个。
说到底,技术再花哨,落不了地就是空中楼阁。基础设施跟不上、成本降不下来、人才缺口填不满,这些老问题还得一个一个解决。边缘AI、量子计算、生物计算,这些概念听着都挺美,但距离真正商用,还有不少坎儿要迈。
市场预测到2028年智能体规模3.3万亿,到2030年AI终端销售收入1.48万亿。这些数字或许会实现,也可能要打折扣。但有一点大概不会变——这场从芯片到应用的全链条竞赛,才刚刚开始热身。
