AI 应用是指将人工智能技术(包括机器学习、深度学习、自然语言处理、计算机视觉等)应用于实际场 景,以解决实际问题、提高效率、创造价值的过程。它通过模拟人类智能行为,使机器能够像人类一样 感知、理解、推理、决策和学习,从而实现自动化或智能化的任务处理。
2、AI 应用全景图谱介绍
我国 AI 应用产业发展目前已形成两类主要业态,其一主要面向 C 端用户,提供的产品以模态划分为文 本生成、图片生成、音频生成、视频生成等多样内容形态;其二是主要面向 B 端企业客户,提供特定领 域的专业服务。
二、中国 AI 应用发展空间广阔
1、场景数据丰富、算力成本降低驱动中国AI 应用快速突围
2023 年,ChatGPT 的爆发性增长标志着生成式 AI 进入全球技术竞争与产业演进的关键窗口期。中国此 前十余年移动互联网的深度普及和平台生态的高度成熟,不仅为 AI 应用提供了广泛的用户基础和多样 化的落地场景,也为模型的快速迭代与产品化提供了理想的―实验场‖。尽管当前大多数 AI 产品仍处于工 具化、模块化阶段,但伴随基础模型能力提升与生态系统进一步完善,AI 产品有望实现从 Demo 工具 向智能体系统的跃迁。可以预见,未来将有大量中国企业依托本地场景与产业资源,在教育、医疗、办 公、工业等多个领域孵化出具备实用价值和商业潜力的 AI 产品,中国 AI 应用的发展路径虽需循序渐进, 但长期潜力巨大、市场空间广阔。
(1)互联网用户基数庞大,场景数据优势明显
中国拥有庞大人口基数,网民规模大,具备海量场景数据。截至 2024 年 12 月,我国网民规模已达到 11.08 亿人,较 2023 年同期净增 1608 万人,互联网普及率提升至 78.6%,同比提高 1.1 个百分点。其 中,手机网民规模达 11.05 亿人,较上年增长 1403 万人,占网民总数的 99.7%,表明移动终端已成为最 主要的上网方式。从城乡分布来看,农村网民数量达 3.13 亿,占整体网民的 28.2%;城镇网民为 7.95 亿,占比 71.8%,反映出互联网已实现广泛的城乡覆盖,为各类数字应用、尤其是人工智能技术的普及 提供了坚实的人口基础与使用场景。流量与使用频度移动互联网流量持续激增:最新数据显示,截至 2024 年 11 月,全国移动互联网累计接入流量达到 3,066 亿 GB。数字素养与应用环境成熟:网络支付 用户规模达 10.29 亿人,网络购物用户规模达 9.74 亿人,网上零售额、移动支付普及率稳居全球第一, 充分反映了中国用户对线上工具接受度与市场化商业环境已高度成熟。
(2)智能算力部署加速,成本持续降低
智能算力部署加速,算力成本持续降低,有望推动 AI 应用的大规模商业化普及。截至 2024 年 6 月, 中国累计算力资源已达 246EFLOP/s(包括公有与商用数据中心),预计到 2025 年将突破 300 EFLOP/s。这一增长得益于―东数西算‖工程推动下,智算中心实现多点部署。截至 2024 年中,全 国已规划或建成约 250 座 AI 数据中心。根据《2023–2024 年中国人工智能算力发展评估报告》,随着 智能算力设施(包括生成式 AI 服务器组群)普及,预测部署成本明显下降,企业可快速接入、缩短上 线时长。在硬件层面,IDC 和浪潮信息数据显示:2023 年训练型算力占比达 58.7%,但随着推理效率 优化,2024 年算力使用重心逐步向推理迁移,训练+推理单位算力成本显著降低。中国信息通信研究院 的绿色算力研究报告指出液冷服务器、边缘储能系统在新建智算中心已成为标准,提升能源效率的同时 进一步拉低综合算力成本。当算力成本大幅下降后,将加速 AI 大模型的大规模商业化应用普及。
(3)以史为鉴,中国 AI 应用落地有望再现移动互联网十年峥嵘岁月
2、对比美国 AI 发展:从算力突破到智能体融合,初期推广速度快
美国 AI 发展经历了四阶段:2012 年 GPU 驱动深度学习起步,构建算力基础;2016-2019 年云平台扩 展,实现算力普及;2022 年 ChatGPT 引爆用户增长,推动 AI 大众化;2024 年起 AI 工具深度融合办 公与研发,开启行业级应用新阶段,形成从技术积累到商业落地的完整闭环。
(1)2012–2015:GPU 深度学习破局期
2012 年,AlexNet 利用两块 NVIDIA GTX 580 GPU(各 3 GB)在 ImageNet 比赛中实现 15.3%top-5 错误率,比第二名领先 approximately11 点。AlexNet 是一种深度卷积神经网络(CNN),AlexNet 是 第一个在 ImageNet 数据集上取得最佳结果的深度学习模型,它的出现标志着深度学习在图像分类领域 的重大突破。首次证明 GPU 在深度学习上的加速能力,使得―算力+大数据‖成为 AI 效能提升的核心支 撑。
(2)2016–2019:云算力大规模部署期
(3)2020–2021:大模型训练基础构建期
截至 2020 年,微软深度整合 OpenAI 资源,打造包含 1 万块 GPU 的 Azure 超级计算集群,用于 GPT-3 及其他大型模型的训练,为生成式 AI 模型释放提供坚实底层基础。
(4)2022–2023:生成式 AI 爆发期
2022 年 11 月,ChatGPT 上线,不到两个月用户数突破 1 亿月活,成为历史上增长最快的消费级软件之 一。到 2023 年 6 月,月访问量约 15 亿次,位列全球前 20 大网站,在整体 AI 技术受众和应用认知上 造成巨大冲击。
(5)2024–2025:企业级智能体融合期
三、AI 应用驱动因素
1、模型层:能力迅速提升,开源推动成本降低
(1)AI 技术快速发展,推动模型能力持续提升
近年来全球 AI 持续发展,大模型在知识问答、数学、编程等能力上达到新高度,多种任务上表现超过 人类水平,在各领域的可用性及准确度快速提升。从模型技术来看:1)当前模型主流架构逐步转向 MoE,通过将输入 Token 分配给不同的专家模型,让模型在处理复杂任务时展现出更强的能力,同时 也能有效降低训练、推理所需的资源,DeepSeek-V3、Qwen3、Llama4 等模型均采用 MoE 架构取得了 低成本的高性能表现;2)模型的多模态能力显著增强,通过跨模态对齐、异构数据融合等技术,模型 能够处理图像、视频、音频等多种类型的数据,从而丰富了模型的应用场景,GPT-4o、Gemini2.5 Pro 等领先模型均采用多模态技术;3)模型开始采用思维链技术,将复杂问题逐步分解为多个简单步骤, 并按照步骤推导最终答案,通过分步推理的方法,模型的回答不仅更加精确可靠,其思考过程也变得清 晰可懂。2024 年 9 月,OpenAI 发布 o1 模型,首次将思维链技术运用在底层模型当中,大幅提高了模 型在测试中的表现,后续 DeepSeek-R1 等模型均采用思维链技术,全球模型进入推理时代。除上述方面 外,模型量化、超长上下文窗口、多种 RAG 变体、偏好微调等技术的发展亦共同推动了模型可用性的 进步,为 AI 在垂直领域的应用奠定了基础。
(2)模型训练竞赛趋缓,Scaling Law 向推理侧迁移
(3)模型推理成本显著下滑,利好应用端成本下降
随着大模型行业发展逐步成熟,厂商之间开始出现明显的价格竞争与市场份额抢占。据 OpenAI 和谷歌 官网数据,2024 年双方主力模型 API 调用价格均出现大幅下降,其中 GPT-4o 输入 API 调用价格为 2.5 美元/百万 Tokens(下降 50%),输出 API 调用价格为 10 美元/百万 Tokens(下降 33%);谷歌 Gemini 1.5 Pro 输入 API 调用价格为 2.5 美元/百万 Tokens(下降 64%,超过 128k),Gemini 1.5 Pro 输出 API 调用价格为 10 美元/百万 Tokens(下降 52%,超过 128k)。国内方面,千问、Kimi、腾讯等 主力模型价格均有不同程度下降,据千问官网数据,Qwen-Max 输入 API 调用价格在 2025 年下降至 2.5 元/百万 Tokens(下降 88%),输出 API 调用价格下降至 9.6 元/百万 Tokens(下降 84%)大模型 API 调用价格下降利好 AI 应用厂商成本下降,进而传导至终端 AI 应用消费者费用的下降。 据斯坦福大学数据,在保持 AI 性能不变的前提下,近年来大模型的推理成本有了显著下降。例如,在 流行的 MMLU 基准测试中,达到 GPT3.5 水平(得分 64.8)的 AI 模型推理成本,从 2022 年 11 月的每 百万 Tokens20 美元,大幅下降至 2024 年 10 月的仅 0.07 美元(对应 Gemini1.5-Flash-8B),这意味 着在大约 1.5 年的时间里,推理成本下降了超过 280 倍。在更具挑战性的基准 GPQA 上,对于性能评分 超过 50%的模型,其推理成本从 2024 年 5 月的每百万 Tokens15 美元,下降到了 2024 年 12 月的 0.12 美元(对应 Phi-4)。据 EpochAI 的估算,根据推理任务的不同,大模型的推理成本每年都在以 9 到 900 倍的速度下降。
(4)开源与闭源模型差距缩小,推动 AI 应用落地
2、智能体:技术逐步完善,新产品密集发布
Agent 的落地将给 AI 应用带来颠覆性变化,打开 AI 在垂直行业渗透的入口。随着自然语言处理、机器 学习和生成式 AI 的进步,AI Agent 的多功能性和部署量将急剧增长。
(1)模型 Agent 能力快速提升,测试分数不断刷新
GAIA 是由 Meta 于 2024 年 5 月推出的一个面向通用 AI 助手的基准测试,包含 466 道问题,旨在评估 AI 系统执行广泛任务的能力,包括推理、多模态处理、网页浏览和工具使用等。与那些简单、类似考试 风格的问题不同,GAIA 使用复杂、多步骤的问题来挑战 AI 模型,这些问题可能需要搜索开放网络、解读多模态输入,并在复杂情境中进行推理。GAIA 可以根据解决问题所需的步骤数量和所需的不同工具 数量分为三个难度级别:1)Level1:问题通常不需要工具,或最多使用一个工具,不超过 5 步;2) Level2:问题通常涉及更多步骤,大约在 5 到 10 步之间,且需要结合不同的工具;3)Level3:问题是 为接近完美的通用助手设计的,需要执行任意长度的操作序列,使用任意数量的工具,并访问一般世界。 当研究人员发布 GAIA 时,他们发现现有的大语言模型(LLM)在表现上远远落后于人类。例如,使用 插件的 GPT-4 仅能正确回答 15%的问题,而人类受访者的正确率则高达 92%。当前模型在 GAIA 上的 表现迅速提升,在 2024 年,表现最佳的系统得分达到了 65.1%,相比 2023 年记录到的最高分提高了 大约 30 个百分点。2025 年 5 月,昆仑万维的天工智能体登顶 GAIA,刷新 SOTA 得分,平均得分来到 78.0%。
(2)MCP 扩展 AI 能力边界,推动 Agent 加速落地
MCP 为链接模型与工具标准协议,有效提升 AI 应用开发效率。2024 年 11 月,Anthropic 发布了 MCP 协议;2025 年 4 月,谷歌在 MCP 基础上发布了 A2A 协议。MCP 为统一大模型与外部数据源和工 具之间的通信协议,提供了标准化的方法使得大模型能够标准化地调用外部数据源、工具,类似硬件中 的―USB-C‖接口。MCP 提升了 Agent 接入生态伙伴的效率,A2A 解决了异构框架、不同模型的 Agent 互联互通问题,开发者不需要为每个工具或数据源单独编写代码,AI 应用开发的效率和功能扩展性得到 提升,Agent 生态建设有望进一步加速。 科技大厂积极拥抱 MCP,AI Agent 发展有望提速。2025 年 4 月,阿里云宣布百炼平台上线业界首个 全生命周期 MCP 服务,上线了高德等 50 多款阿里巴巴和三方 MCP 服务,满足不同场景的 Agent 应用 开发需求。2025 年 4 月,腾讯云大模型知识引擎升级支持 MCP 协议,支持腾讯云 EdgeOnePages、腾 讯位置服务、Airbnb 等多款 MCP Server。百度优化了文心基础大模型,提升了模型在使用 MCP Server 时的任务规划和调度能力;百度智能云千帆大模型平台已经全面兼容 MCP。
(3)谷歌发布 A2A 协议,打通 AI 落地复杂应用场景
A2A 与 MCP 互补,加速 Agent 生态完善。2025 年 4 月,Google 正式发布 Agent2Agent Protocol (简称 A2A),为用于链接不同封闭 Agent,并实现其相互操作的开放协议,该协议为不同类型的智能 体之间搭建了高效沟通与协作的桥梁,无论是独立 Agent 与独立 Agent、独立 Agent 与企业 Agent,亦 或是企业 Agent 与企业 Agent,都能借助该协议实现通信交互和事务协作。A2A 协议与 MCP 互补, A2A 负责解决 Agent 间的通信问题,MCP 解决 Agent 与工具间的通信问题,有望提升 Agent 在下游领 域的应用效果,推动 Agent 生态系统的完善与发展。 A2A 获得多个科技巨头支持,推动 AI 应用向复杂工作流落地。随着 Agent 应用的逐步落地,单一 Agent 难以独立完成多领域任务(如同时处理数据分析、文档生成等),需依赖团队协作,而不同厂商 的 Agent 因技术栈差异无法直接协作,形成信息孤岛,从而阻碍 Agent 应用落地。A2A 协议可通过任务 自动分配与结果同步,减少人工干预,同时整合不同领域 Agent 的优势,完成跨系统复杂任务。A2A 协 议构建在 HTTP、Server-Sent Events(SSE)、JSON-RPC 等常用标准上,企业无需大规模改造自身 IT 技术栈,就能平滑接入多代理环境。在用户发起任务后,客户端智能体通过 Agent Card 定位目标智能 体,通过代理间相互发送消息,包括上下文信息、用户指令、执行结果等形成协同网络,依次或并行地 处理不同环节。A2A 协议当前已得到了 50 多家谷歌技术合作伙伴的支持和贡献,包括 Atlassian、 Salesforce、SAP、ServiceNow 等,为依赖多源数据和需要嵌入复杂工作流的 AI 应用提供了走向大规模 落地的生态支撑。
(4)海内外智能体快速发展,测评成绩不断刷新
全球通用领域 Agent 快速发展,应用效果快速提高。海外方面,2025 年 1 月,OpenAI 上线了其首个 AI Agent Operator,能够与电脑交互,完成浏览网页、填写表格、预定餐厅等相关任务。2 月, OpenAI 发布 Deep Research,由 o3 模型提供支持,能够帮助用户进行信息查询与分析,输出综合报告。 5 月,Anthropic 发布 Claude4,可自主编程数小时并在推理过程中使用工具。同时发布编程 Agent Claude Code,通过 GitHub Actions 支持后台任务,与 VS Code 和 JetBrains 进行了原生集成,可直接 在文件中显示编辑内容,实现无缝结对编程。国内方面,3 月,Monica 正式对外发布通用型 AI Agent 产品 Manus,提供多种处理现实世界任务的案例,包括旅行规划、股票分析等,测评成绩超越 Deep Research。4 月,MainFunc 发布 Genspark,采用整合多 AI 模型的混合代理(MoA)系统,包含 80 多个工具集和 10 多个高级数据集,可协调多个 AI 工具高效执行各项任务。字节跳动发布扣子空间,除 通用 Agent 外还提供华泰 A 股助手等专家 Agent,支持飞书多维表格、高德地图等 MCP。5 月,昆仑万 维发布天工智能体,采用 Deep Research 技术,能够生成文档、PPT、播客和音视频多模态内容,提供 5 个专家级 Agents 和 1 个通用 Agent,接入数十个 MCP,刷新 GAIA 测评新高。
3、C 端:入口重塑与协同渗透的双轮驱动
(1)AI 应用有望重塑 C 端流量入口,互联网巨头具备先发优势
AI 应用有望重塑流量入口,各个厂商积极卡位。回顾互联网发展历史,超级应用大都由用户基数庞大 的基础需求出发,成为庞大的用户流量入口,再逐步覆盖更多的需求层级,聚合和链接背后庞大的应用 生态,掌握用户流量的分配权。进入 AI 时代后,随着大模型 C 端应用围绕个性化、强交互等方向实现 价值增量,相关应用的流量迅速提高,有望推动新的入口级应用出现。当前各类厂商纷纷布局和卡位 AI 应用,结合自身资源和技术迭代趋势布局最具价值的领域,主要分为以下策略:1)投入聊天机器人, 布局通用人工智能;2)切入生产力场景,以内容创作、垂直专业、工作效率类 AI 应用抢抓用户流量; 3)布局垂类领域 AI+解决方案,掌握垂直行业 C 端流量入口。 传统互联网巨头在 AI 领域具备先发优势,可利用专有数据和用户参与度将 AI 功能集成到现有的应用 当中,在 AI 应用渗透领域具备先发优势。互联网生态围绕超级应用(如微信、淘宝、谷歌等)发展, 这些应用在平台上提供全面服务,从而形成了庞大的用户基础和高度的用户参与。通过这些应用,主要 互联网公司可以访问具有行为、社交和商业特征的专有用户数据,对提供定制化的 AI 服务至关重要。 得益于庞大的用户基础和高用户参与度,将 AI 功能整合到现有应用能够促进市场的采用,在相关领域 具备先发优势。25 年 C 端的 AI 应用将迎来一个爆发期。
(2)AI 协同新范式:从编程高地走向全行业渗透
编程成为人机协同的主要领域。在 TOC 领域,当前 AI 正逐步融入用户工作当中,据 Anthropic 数据, 在与 Claude 的对话中软件工程相关任务占据了数据集中最大的比例,达 37.2%的对话涉及代码调试、 网络故障排查等内容,第二大类任务是写作与编辑,占比为 10.3%,这两类职业在美国经济中分别仅占 3.4%和 1.4%,但成为 AI 的高频使用场景。科学和教育领域的职业也显示出占比例更高的 AI 使用率。 更广泛应用场景的 AI 渗透率提升。技术平权+算力成本持续优化,AI 向各个垂直行业赋能,将由最初 的搜索、编程等等逐步拓展至教育、营销等等多个场景。在互联网应用板块中电商、影视、娱乐、游戏、 教育、传媒和金融等等多个板块均有众多潜在的 AI 应用渗透提升方向。
4、B 端:开源模型提升企业投入意愿,刺激国内上云需求
开发工具和生态的繁荣大幅降低行业应用门槛,加速产业智能化落地进程。多种开发平台汇聚了多样化 开发框架、工具组件、算法资源、数据集等,开发者可快速调用、微调模型,从而验证想法并构建 AI 应用。开源模型具备可控性强、可定制性强以及社区支持丰富等优势,推动更多企业采用 AI 作为技术 解决方案。据阿里云数据,开源模型的采纳比例持续提升,2024 年 12 月企业使用开源模型的比例为 34.7%,到 2025 年 3 月使用开源模型的比例增长至 46.9%。 AI 技术和解决方案已深入到传媒、医疗、机器人、制造等多个行业,通过创新产品和服务、优化生产流 程来推动行业的智能化转型。据 Morgan Stanley 数据,到 2030 年中国企业的生成式 AI 工作负载渗透 率将达到 31%,美国的生成式 AI 工作负载渗透率将在 2029 年达 31%,中国企业 AI 的采用进程将比美 国落后约 12 个月,并在后续达到类似水平。同时,AI 应用将提升企业上云意愿,预计未来将有超 25% 的工作负载被迁移至公有云中。