2026-03-16
分享到
全国两会刚刚闭幕,“人工智能+”被写入政府工作报告。工信部部长李乐成在“部长通道”上回应记者:“我们坚信,必将有更多的世界级智能产品在这片热土上生产出来。”
与此同时,英伟达CEO黄仁勋发表罕见长文,提出AI的“五层蛋糕”架构:能源→芯片→基础设施→模型→应用。他说:“我们目前仅仅投入了数千亿美元,仍有价值数万亿美元的基础设施等待建设。”
从1956年达特茅斯会议上的一个大胆构想,到今天成为重塑世界的核心力量——人工智能走过70年跌宕历程。这背后,是几代科学家、工程师、企业家用智慧和汗水浇筑的“三生三世”。
1946年,世界上第一台通用计算机ENIAC问世,人类第一次拥有了“电子大脑”。10年后,一场改变历史的会议在新罕布什尔州达特茅斯学院召开。
1956年夏天,约翰·麦卡锡、马文·明斯基、克劳德·香农等10位年轻学者聚在一起,讨论一个大胆的问题:能否精确描述人的学习能力和智慧,并用机器加以模拟?他们给这个新领域起了一个名字:人工智能。
此后的20年,被称为“符号主义”阶段。科学家们相信,只要把人类的逻辑推理规则编码进计算机,机器就能像人一样思考。成果接踵而至:1955-1956年,纽厄尔和司马贺编写了史上首个人工智能程序Logic Theoris,成功证明38个数学定理;1959年,塞缪尔开发出能战胜普通人类玩家的西洋跳棋程序,首次使用“机器学习”这个词;1964-1966年,MIT的维森鲍姆开发出史上第一个聊天机器人Eliza。
但好景不长。科学家们发现:机器可以在特定规则下解决问题,却无法理解“常识”。当时计算机算力极其贫乏,难以支撑宏大构想。更致命的是,人们意识到——仅靠逻辑规则,永远无法让机器线年代中期,各国政府削减AI研究经费,大量项目被取消。人工智能的第一个“冬天”,来了。
20世纪70年代末,人工智能从“通用智能”的幻想中醒来,转向更务实的方向——
。专家系统的逻辑很简单:把某个领域专家的知识转化为计算机可执行的规则,让机器像专家一样思考。医疗诊断、故障检测、地质勘探……专家系统开始进入实际应用。
各国政府重燃热情:日本投入8.5亿美元启动第五代计算机项目,英国启动耗资3.5亿英镑的“阿尔维计划”,美国国防部投资约10亿美元跟进。20世纪80年代,专家系统迎来黄金十年。
但问题很快暴露:专家系统的核心是“知识获取”——让专家把知识变成规则,本身就是巨大瓶颈。更麻烦的是,这种系统“只会照章办事”,遇到规则之外的情况就束手无策,维护成本极高。
。1986年,反向传播神经网络算法(BP)问世,解决了多层神经网络训练的难题。1998年,卷积神经网络(CNN)雏形出现。但受限于算力和数据,神经网络一直不温不火。
这一年,杰弗里·辛顿提出“深度信念网络”。与此同时,多伦多大学的辛顿、纽约大学的杨立昆、蒙特利尔大学的本杰奥几乎同时发表重磅文章,论证深度神经网络大有可为。
2007年,斯坦福大学李飞飞开始建立大型注释图像数据库ImageNet,为神经网络提供大规模训练数据。2012年,辛顿和他的两名学生——亚历克斯·克里泽夫斯基、伊尔亚·苏茨克维——设九游体育官方网站计的卷积神经网络AlexNet在ImageNet比赛中一鸣惊人,将图像识别错误率从26%直降至16%。
此后,深度学习势如破竹:2016年,AlphaGo战胜人类顶尖棋手李世石,标志着人工智能推理与策略能力的飞跃;2017年,谷歌团队发表《Attention Is All You Need》,提出Transformer架构,奠定了大语言模型的理论基础;2020年,OpenAI发布GPT;2022年,ChatGPT横空出世,引爆全球。
2024年,诺贝尔物理学奖授予辛顿和霍普菲尔德,诺贝尔化学奖授予哈萨比斯、乔普——两位AI科学家与生物化学家共享殊荣。这标志着,人工智能已从“计算机学科”走向基础科学的中心舞台。
2025年,中国开源大模型DeepSeek崭露头角,以高性能和低成本引发全球瞩目。
。从传统机器学习的线性回归、支持向量机,到现代深度学习的RNN、CNN、Transformer,算法不断从手工规则走向自动学习。Transformer引入的自注意力机制,具备全局并行处理能力,成为当今大模型的主流架构。
。以OpenAI的GPT系列为例,从GPT-1到传闻中的GPT,不到10年,训练数据规模从约7000本书(4.7GB)膨胀到约70万亿词元(281TB),膨胀了数万倍。但隐患也在浮现:有研究预测,人类生成的高质量文本数据可能在2026年前后成为瓶颈,最迟到2030年代初将被耗尽。
。过去10年,AI模型训练算力需求每两年增长约750倍,远远超过芯片算力每两年翻一番的摩尔定律。几年前,“几卡”就能训练模型;如今,“万卡”只是入场券,“十万卡”才是巨头们的竞争壁垒。算力的尽头是电力。AI单次推理的能耗相当于10次谷歌搜索。训练GPT-4的电力消耗高达20-25兆瓦,是人脑能耗(约20瓦)的
。黄仁勋在最新的长文中将“能源”列为AI五层架构的最底层——因为“能源是AI基础设施的第一性原理,也是系统能产生多少智能的绝对约束条件”。05 2026年:AI正从“上半场”走向“下半场”
。行业发展重心已从模型训练转向模型推理。随着大模型实用性提升,用户调用需求呈指数级增长,能源需求的重心也随之转移。
。国务院《关于深入实施“人工智能+”行动的意见》提出明确目标:到2027年,新一代智能终端、智能体应用普及率超70%;到2030年,普及率超90%。这意味着,AI智能体正从概念走向规模化应用。
。语言只是大自然奥秘的冰山一角。语音、图像、视频、物理模型、世界模型等多模态数据,正在帮助AI更深入地认知世界。
。专家刘铁岩提出“AI知识飞轮”理论:大语言模型承担“知识梳理与表达”任务;科学智能负载“知识外推与新建”使命;具身智能专注于“知识反馈与更新”——三者形成理解世界、探索世界、感知世界的正向循环。06 未来的方向:通向AGI之路
有学者预测,未来5-10年内,AGI可能成为现实。通往AGI的路径包括四个关键驱动因素:计算成本的下降、模型规模的增加、上下文窗口的扩展、推理阶段算力的增强。
。当前,GUI(图形用户界面)与API两条技术路线并行发展。全国人大代表冼汉迪指出,两条路线各有优势、互为补充,我国应坚持多元技术路线并行探索,避免在前沿赛道错失引领机遇。
。黄仁勋特别强调:“开源模型在其中扮演了关键角色。当开源模型达到前沿水平时,它们不仅改变了软件本身,更激活了整个架构栈的需求。”DeepSeek-R1就是最好的例证。07 挑战与隐忧:光明的背面
。如何确保AI系统的目标与人类价值观一致?这是辛顿等科学家最担忧的问题。
。隐私泄露、算法偏见、就业冲击……每一个都需要政策、技术、法规共同构筑安全基座。08 中国的位置:机遇与挑战
——人工智能被列为国家优先发展事项,2025年国务院印发《关于深入实施“人工智能+”行动的意见》,明确量化目标。
——中国人口是美国的四倍多,手机群体和消费量全球最大,拥有庞大的数据资源。
——作为发展中国家,城乡基础设施、医疗、教育等领域的“痛点”,恰恰为AI提供了深度应用场景。
——高等教育毛入学率59.6%,理工科学生比例高,形成巨大人才储备库。但短板同样明显:基础理论和原创算法薄弱,高端器件(如GPU)研发能力不足,缺乏有影响力的开源平台,顶级AI人才数量仅为美国的20%。
从1956年达特茅斯的15盏灯,到2026年全球数万亿美元的AI基础设施投资;
黄仁勋说:“AI正在成为现代世界的基础性基础设施。我们目前仅仅投入了数千亿美元,仍有价值数万亿美元的基础设施等待建设。”
阿里云专家罗凯说:“无论AI如何迭代发展,我们都应当坚定相信,AI绝不仅是征服星辰大海,更应该呵护人间烟火。”
而我们要做的,是保持敬畏、保持好奇、保持警醒——在这场波澜壮阔的智能革命中,既不错失机遇,也不迷失方向。