AI竞逐:应用与治理并行

文/陈经
编辑/黄红华
人工智能(AI)已成为大国科技竞争的主战场。据了解,全球AI研发投入从2020年的680亿美元激增至2025年的2140亿美元,年均增长率达26%。
随着AI技术的不断发展,AI产品性能、市场接受程度和信任程度也相应提升,加上商业化环境逐步完善,AI正快速渗透到社会的各个领域。
不可否认,AI对各行各业都产生了深刻影响,尤其是AI对一些传统行业已经带来巨大冲击。业内人士呼吁,在发展AI技术、产业的同时,对AI的治理也应提上日程,尤其要加强国际合作,确保其安全、可靠、可控。
初步形成两强主导的格局
从2025年初开始,AI领域的竞逐可谓风起云涌,尤其是DeepSeek的出现在业内引起巨大反响。它不仅将大模型权重与推理代码开源,还将训练相关的底层加速技术都开源。这大幅度降低了技术门槛,使得更多组织和个人能够参与到人工智能的开发与应用中。这种开放与共享的模式促进了AI技术的全球扩散,推动了AI技术从垄断性创新向更加民主化、去中心化的创新转变。
DeepSeek之后,阿里Qwen、月之暗面Kimi、智谱GLM、MiniMax等公司纷纷加入开源路线。2025年7月Hugging Face开源大模型榜TOP10中,中国占据9席。
除此之外,在通用GPU、推理专用GPU、ASIC等技术路线,以及对标CUDA(英伟达推出的通用并行计算架构)的GPU软硬件生态系统,中国均取得重大突破。如今,中国已初步形成AI算法优化、GPU硬件设计制造、软件硬生态配合的全产业链。
相比之下,2025年美国公司依靠资金、算力、人才等多方面优势,不断推出前沿大模型。2025年7月,白宫发布“人工智能(AI)行动计划”,将开放权重模型提升为战略资产。一个月后,OpenAI时隔近6年首次发布采用Apache2.0许可证的开放权重模型。
与以前OpenAI依靠ChatGPT一枝独秀不断推出新产品引领业界发展不同,2025年谷歌的Gemini、Anthropic的Claude、xAI的Grok纷纷推出高水平的新版大模型。美国各类闭源大模型不断涌现,在最高水平的榜单上,位次和数量都有着较强的竞争力。
中美以外的国家,如欧洲、东亚、南亚、东南亚多国,一方面对于AI技术的落后感到焦虑,另一方面也借助开源技术积极发展自身的AI产业。如法国Mistral成为欧洲开源标杆,技术路线明显借鉴DeepSeek的MOE架构。韩国的互联网巨头Naver开发了韩语优化的本土语言大模型HyperClova X,专注于韩语语境和文化。同时,韩国政府大力投入“国家AI超算中心”建设,通过提供算力支持本土模型训练。印度推出“印度AI计划”,意图在未来推动本土AI生态系统发展,并通过“数字印度创新基金”资助本土AI研发,打造国家级大模型。非盟作为技术领域的“追赶者”,牵头推出《非洲人工智能战略》,目标是到2030年将AI纳入非洲各国经济核心领域,重点推动AI在农业、医疗和教育领域的应用。
有业内人士指出,未来AI技术竞争可能会发展成美国主导闭源生态、中国主导开源生态、各国主权化小生态并存的格局。

AI应用转向落地
虽然2025年AI在大模型方面的进展层出不穷,但业界对于AGI(通用人工智能)的态度明显变得冷静,对AGI的实现时间的预期也延长到5到10年乃至更远。
这一趋势让全球转向AI应用的热情明显上升。实际上,2025年火热的AI Agent智能体研究,就更突出其应用性特点。因此,2026年很可能是AI应用之年,毕竟全球AI业界已经有能力强大的基础大模型,能够结合行业数据、应用经验,依靠智能体打造工具链,在AI编程、白领自动化办公、工业流程控制等诸多领域推广应用。
与基础大模型研发类似,中美在AI应用中也有明显的路线差异。美国基于经济模式,对于“氛围”编程、办公自动化、服务业等AI应用更为看重,希望依靠大模型生成的词元(token)按数量收费创造价值,即所谓的tokenomics(词元经济学);而中国的开源路线对于词元免费或只收取极低费用,更重视实际工业应用与生活场景的生产力提升,如AI与大模型赋能的工业机器人、服务机器人、人形机器人,以规模巨大、种类齐全的制造业体系为基础,实现新质生产力的“智能化”要求。
另外,出于对数据安全的要求,主权叙事开始不断渗透进AI领域。可以预计,未来主权AI应用、工业与生活场景AI应用都是较为确定的方向,到2026年必然会有相当的成果出现。例如,主权AI应用一般基于主权数据、本国语言文化,垂直类应用前景广阔。而在工业与生活场景,则可借助AI与大模型,有效提高应用效率。
治理问题日益紧迫
应当指出,AI技术的快速迭代与治理滞后仍存在结构性矛盾,其对全球治理体系可能构成系统性、多维度的颠覆性挑战。在2025年7月于上海举行的2025世界人工智能大会上,2018年图灵奖得主、2024年诺贝尔物理学奖得主杰弗里·辛顿就表示,AI完全失控的概率在10%到20%之间。
有观点认为,当前对AI失控的担忧存在夸大之嫌。例如同为2018年图灵奖得主,美国Meta公司前首席AI科学家杨立昆就认为,“AI将接管世界”的想法很大程度上是“人类将自身的行为模式投射到了机器上”。他表示,那些担心风险的人往往是因为“尚未找到实现AI安全的可行路径”。
尽管存在不同声音,但AI“失控”已非科幻想象,而是一个“真实存在”的风险。
2025年,非营利组织“生命未来研究所”发起公开信,再次呼吁在获得“广泛的科学共识(证明其能被安全可控地完成)和强烈的公众支持”之前,应该明确禁止超级智能的开发。与此同时,即便不是着眼于“超级智能”,随着AI应用的领域不断拓展,更多人呼吁进行审慎的监管与治理。
事实上,之所以有人认为AI与大模型“不可控”,主要是AI技术门槛的降低对模型安全带来了前所未有的新挑战。这些模型广泛应用于全球范围,面临着来自网络攻击、数据泄露、恶意利用等多方面的安全威胁。同时,AI进一步拓展了人工智能的应用场景,也为跨国犯罪、恐怖组织等利用AI技术提供了可能。在此背景下,各国迫切需要建立更加精确和高效的安全框架,以确保AI技术的安全使用,同时防范数据被滥用和隐私泄露。
业内人士指出,对于大模型,应优化风险评估与分级管理机制;对于数据,应加强对敏感信息、生物识别信息的分类保护;对于参与主体,则需进一步明确AI研发者、提供者、使用者的权利与义务,同时畅通公众参与渠道,以社会监督弥补政府监管盲区。
AI治理是一个全球性难题,单靠一两个国家很难实现,国家合作已经成为业内的共识。据了解,联合国已于2025年8月宣布设立独立国际人工智能科学小组与全球人工智能治理对话机制,以促进人工智能治理领域的国际合作。
(作者系风云学会副会长、亚洲视觉科技研发总监)

手机版