2023年中国AIGC行业全景报告
核心总结:
古人有云:日出月出,学问兴于光。人类对人工智能的深入研究终于取得了又一重大突破。大模型能力的出现和AIGC应用的普及,为未来不一定是AGI但一定会更加AI提供了一定的加速。 AI 2.0时代的加速到来,不仅是AI能力融入现有应用,更是重塑未来行业范式。人工智能正在快速渗透到各行各业,推动生产力和创造力的新革命。 AI产业链各环节参与者的角色、功能、产品服务、应用生态都可能发生变化。
对此,艾瑞发布了《AIGC系列报告——中国AIGC产业全景报告》,这是AIGC系列的首发。报告将全景洞察AIGC行业,探讨生成式AI技术对数字行业的影响,绘制“中国AIGC行业全景图”,并对主流参与厂商进行分析。各类厂商的类型与格局策略、发展路径及能力需求变化等,为市场分析产业发展的价值与空间。
报告研究范围- AIGC
AIGC和大模型将引领“人工智能产业”和“工业人工智能”的发展
AIGC(AI-Generated Content)是指利用人工智能技术(生成式AI路径)生成内容的一种新的内容生产方式。 ChatGPT是一款于2022年11月上线的AIGC应用,凭借其在语义理解、文本创作、代码编写、逻辑推理、知识问答等领域的优异表现以及低门槛,迅速获得了大量用户。自然语言对话的交互方法。今年1月月活跃用户突破1亿,打破了此前消费类应用的增长记录。微软表示,它在GPT-4(ChatGPT Plus 背后运行的大型模型)中看到了AGI(通用人工智能)的开端。 Midjourney等多种新形态的AIGC应用已经出现在人们的日常生活和工作中。各行业的智能化升级也看到了新的可能性,“AI工业”、“工业AI”的想象空间进一步拓展。 AIGC应用创新的技术支撑是两类大模型分支:“生成对抗网络(GAN)/扩散模型(Diffusion)”和“Transformer预训练大模型”。在国外AIGC应用展示大型车型威力的同时,中国企业也加强了相关产品技术的布局。云厂商、AI专业人士、初创公司、各行业公司、技术服务商等各领域玩家都发布了大模型或基于大模型的应用产品和各种技术服务。与一般人工智能应用相比,大型模型应用的训练和推理需要更强的算力支持。综上所述,本报告将从模型、应用、算力三个角度探讨AIGC行业的发展。它将尝试讨论开源与闭源、垂直泛化、知识错觉等大模型未来发展的各种不确定性。为AIGC应用和智能工业应用的迭代升级提供尽可能多的研究帮助,为不一定是AGI但一定更AI的未来提供确定性加速。
中国AIGC行业市场规模
市场规模呈指数级增长,突破规模临界点,捕捉万亿产业价值
据第50期《中国互联网络发展状况统计报告》显示,截至2022年6月,我国互联网普及率已达74.4%。在网民规模持续增长、网络接入环境日益多元化、企业数字化进程持续加速的宏观环境下,AIGC技术作为一种新的内容生产方式,有望渗透人类生产和生活,给千行百业带来颠覆性的改变,打通人类生产互动。新时代。艾瑞预测,2023年中国AIGC产业规模约为143亿元,届时将进入大规模生态培育期,持续建设和完善底层算力基础设施、大型模型商店等新型基础设施培育成熟技术和产品的平台。表单的外部输出。 2028年,中国AIGC产业规模预计将达到7202亿元。中国AIGC行业生态日趋稳定。完成了重点领域、关键场景的技术价值实现,逐步建立和完善模型即服务产业生态。 2030年,中国AIGC产业规模预计将突破万元。亿元,达到11441亿元。
中国AIGC产业投融资情况
模式创业兴起,多式联运受宠,资本聚集优质项目
2021年至2023年7月,AIGC赛道共发生280笔投融资,展现出其高人气和高成长性。从行业细分来看,应用层创业机会最多,模型层创业受ChatGPT影响,2023年将集中涌现;获得投资的应用层和模式层创业项目中,文字、图像、语音平分秋色,但相比单一模式,多模态、跨模态的应用前景更被资本看好。从投融资轮次来看,约70%的项目仍处于A轮及前期阶段,而属于股权和战略融资的项目高达14.6%,表明该赛道虽然处于起步阶段,但其战略融资价值得到了认可。在获得投资的170家企业中,获得投资3次及以上的企业约占17%。同一标的的高频融资从企业需求端反映出AIGC在创业初期需要大量的资金支持,从资金供给端则说明优质创业项目仍然十分稀缺。
中国AIGC产业版图全景
预训练大模型的分类和介绍
基于两大类基础设施衍生出各种大型模型;多模态已成趋势
预训练的大型模型按照模态可以分为文本、图像、视频、代码、音乐生成等,但从底层架构来看它们都分为两类。 Transformer是一个编解码模型框架,适合处理文本、代码等强连续性生成任务; Diffusion、GAN、NeRF等框架擅长处理图像生成任务。叠加文本图像转换技术可以形成文本到图像的模型。单模态模型在实际训练时可以与其他模态技术融合,形成多模态、跨模态大模型,如GPT-4、闻心一言、Mid Journey等。接受文本、图像等不同输入输出形式可以更广泛地适应应用场景,重点发展多模态模型已成为业界和研究界的共同趋势。
预训练大模型路径探讨
了解人工智能时代的“iOS”与“Android”,闭源与开源市场将共存互补
继以OpenAI为代表的闭源模型厂商对外开放技术服务后,以Meta的Llama模型为代表的开源模型厂商也在加紧发力,并陆续开源迭代,意图进一步实现生态包围。 2023年上半年LLM和数据集迎来开源季。大模型的开源按照开源程度可以分为“可研究”和“可商用”级别。 2023年2月,Meta发布了Llama,这是开源大型模型LLM的第一个版本,被授予“可研究”用途。 2023年7月,“商用”Llama2版本将进一步发布。虽然存在日活超过7亿的产品需要额外应用、无法服务其他模型调优等商业限制,但海外很多中小企业已经可以使用Llama2模型进行自用。可部署、定制、可控的模型基于Llama2开源模型进行训练。由于Llama2基本不支持中文,因此中国的大模型商业生态暂时不会发生实质性变化。中国仍需要发展和培育适合中国数据土壤的开源生态系统。闭源LLM可以持续为B端用户和C端消费者提供优质的模型开发和应用服务;开源LLM可以从研究角度促进开发者和研究人员的探索和创新,从商业角度加速大型模型的商业化进程。具有落地效果。未来,开源和闭源LLM将共存、互补,为大模型的开发打造多元化协作的繁荣生态。
全力打造中国AIGC开源社区生态系统
轻量级模型逐渐开源,以利于开源生态的建设,而千亿级模型则暂时走闭源路径发展。
AIGC开源社区的建设可以吸引更多的开发者并拥有主动定义用户的能力,以AI开源创新平台为杠杆,带动支撑底层AI芯片、智能计算中心、云等基础设施的发展服务。从供给侧逻辑来看,大模型开源早期是由高校和机构推动的,比如清华大学的ChatGLM-6B、复旦大学的MOSS等。领先的云厂商逐渐加入,如百度的文信系列、阿里巴巴的统易系列等。共同为中国AIGC开源社区建设贡献力量。以阿里云魔塔社区、百度云飞桨社区为代表的开源社区建设成果开始显现,而千亿级模式暂时通过闭源路径发展。凭借稳定、高品质、完整工具链等产品特点定位应用市场;从商业化路径来看,参照海外明星开源社区Hugging Face的商业模式,中国AI开源社区也将首先免费提供基础算力,为客户提供免费的社区体验、demo部署和测试,以及通过付费服务进一步推动轻量级迁移微调推理服务或深度开发训练调优平台,提升模型产品性能,并通过开源社区吸引开发者和企业客户,完成更多部署应用资源实现流量变现。
大模型落地将带来新一轮人工智能产业化扩散
大模型的落地将加速AI产业化生产,充分释放AI产业潜在市场空间。
大模型类似于一个“完整体”,能力全面、突出。它不仅用途广泛,而且比小型型号具有更强大的功能。因此,在使用大型模型进行应用开发时,可以采用“预训练+微调”的开发范式。您只需针对特定任务对大模型进行二次开发和微调,甚至简单地利用领域知识库作为辅助,就可以快速赋能。应用。与独立、分散的小模型开发相比,其标准化程度和流程更高,大大提高了开发效率和运维成本,有效推动了人工智能的产业化生产。同时,模型能力的提升让更多的人工智能服务得以落地,有效拓展了人工智能的应用范围,共同促进人工智能供需双方潜力的释放。
MaaS是大模型能力落地和输出的新业务业态
打造大型模型店,为下游用户提供低门槛、低成本的模型使用和开发支持
MaaS(模型即服务)是指基于云计算的一种新的业务业态,将大型模型作为服务提供给用户。如今,MaaS模式已经成为各云巨头厂商发展的第一战略重点。它将模型作为重要的生产要素,依托现有的IaaS设施和PaaS平台架构,为下游客户提供以大模型为核心的数据处理和数据处理。特征工程、模型训练、模型调优、推理部署等服务。未来,顺应大模型开源趋势,MaaS服务商将重点打造大模型商店平台,着力打造大模型生态圈,融入更多允许商用的开源模型,完善丰富平台基础模型类型和能力,丰富工具链产品和服务。通过业务积累、数据回流、模型迭代,逐步形成壁垒,在提升云服务收入天花板的同时,进一步塑造厂商核心竞争力。
大型模型成为AI应用开发的操作系统
模型即服务(MaaS)构建新的AI基础设施,重构AI开发和部署范式
随着企业在上云过程中智能化转型需求的逐步提升以及传统行业领域数据的不断积累,AI应用开发过程逐渐面临大量细分领域的深耕、非典型客户需求,以及算法的通用性和可扩展性。提出了更高的要求。传统“小模型”范式的AI应用开发流程一般针对单一场景,独立完成模型选择、数据处理、模型优化、模型迭代等一系列开发环节。因此,定制化需求、长尾需求下的AI应用开发效率较低,模型精度、性能、可扩展性等指标质量也会受到影响。随着AI产业的深入和智能化需求的增加,AI研发门槛和开发效率问题日益凸显。 “预训练大模型”应运而生,它通过无监督或自监督学习提取数据中包含的知识,并将其存储在具有大量参数的神经网络模型中。将AI应用开发流程转化为通用流程——结合行业经验——解决实际问题。未来,大型模型将成为AI行业的操作系统。其基础设施特性可以为AI应用开发提供良好的基础,使得AI模型可维护、可扩展、可迭代,大大降低AI应用的开发门槛。从需求端来看,客户可以通过更低成本、更高效的MaaS(模型即服务)路径获取AI能力,完成AIGC应用的个性化开发、优化和部署,持续实现大模型的技术红利,进行转型AI成能力应用渗透到各行各业的业务场景。
市场需要评估基础通用大型号产品服务能力
![]()
艾瑞提出EPS-EPD评估体系,定位大模型产品的基础模型性能和商业能力
大模型能力的评估具有重要意义。评估结果可以让供需双方了解各公司大型号能力的优缺点,做出更好的产品优化和应用选择。随着大模型行业的发展和迭代,评价基准体系也在不断完善。艾瑞认为,未来大模型的产品服务能力评估将作为工具包,封装在大模型平台中,为客户提供产品服务。对此,艾瑞咨询提出了EPS-EPD评估体系,以其为核心构建了一系列评估集来评估市场上大规模模型的能力,定位大规模模型的基础模型性能和商业能力全面对产品进行建模,为行业各行各业提供模型评估评估,为有成果需求的客户提供信息参考。
基础模式的推行,因需求差异而导致产业路径分化。
大模型需要以行业级、企业级大模型的形式支撑上层应用
基本大模型的实现面临两个主要问题。一是最终客户接受算力成本的能力。另一个是,虽然大型模型擅长解决一般领域问题,但它们在垂直行业任务中往往表现不佳。因此,基础大模型会通过领域数据或专属知识库进行训练和调优,形成大的行业模型或垂直领域的商业模型;此外,部分企业还存在深度定制、私有化部署的需求,需要大规模的行业部署。在模型的基础上,进一步添加企业专有数据进行训练或微调,形成企业级大模型。从商业化布局来看,如今的大模厂商基本可以分为三类参与者,即云巨头厂商、人工智能公司、学术研究机构和初创公司。他们将自己定位为通用能力基地,同时打通上游业务。转型路径。其中,云巨头厂商将利用云服务和数据库资源更加注重MaaS能力输出。 AI企业或初创公司会利用商业积累或生态资源,锚定几个典型行业或商业场景,展开商业占领。从开源和闭源的角度来看,原型厂商普遍采用前面提到的“轻量级开源、千亿闭源”的发展路径,而向上差异化的垂直领域厂商会基于开源模式或原型平台进行开发和部署。对于细分领域模型产品,厂商的优势在于垂直数据和业务理解。如果客户(例如金融行业)对模型的开源和私有化部署有明确的需求,那么开源路径将是此类需求的典型实现形式。
如何连接模型能力和应用需求是实现的关键
数据准备、ROI测量和Prompt工程是连接模型层和应用层的三个要素。
在这波大模型推动的技术浪潮中,如何连接模型能力与上层应用实现商业化,构建以人工智能应用为主导的生态系统,是AIGC各级厂商关注的重点。艾瑞认为,数据准备、ROI衡量和Prompt工程能力是连接模型层和应用层的三个核心要素。由于人工智能研究进展慢于国外、中文数据集论文发表难度大、NLP算法改进验证与数据集语言类型相关性较低等历史原因,导致国内外相关研究的数量和质量仍存在较大差距。中文NLP数据集语料库。从可行性、性价比和时间角度考虑,追赶期同步开发典型行业应用数据集是弥补中国NLP数据集短板的有效策略;从需求方的角度来看,大模型能力的应用需要结合业务场景和性价比进行选择。对于大模型的应用方式和调用形式,如果基于安全和隐私需求需要私有化部署,投资成本会更高。客户的ROI衡量是决定其能力商业化进程的关键;提示是触发AI模型生成内容的东西。广泛的指示和提示项目可以进一步开发和优化提示。从指令拆解到调用能力,大模型LLM多维度整合处理各种需求是影响未来交互效果和应用体验的关键。
制造商合作伙伴关系的演变和外围工具服务的发展
模型层和应用层的边界逐渐弱化,驱动数据层、开发平台等工具和服务的高效开发。
随着大模型通用性的增强,模型开发者或许可以利用自己的模型聚集多维度的场景数据,积累行业场景知识,并融合一些垂直类别的功能特征,然后向上延伸完成功能应用;原有的垂直品类应用,为了巩固自己的市场地位,可能会探索开源甚至自研的模式。依托现有资源、经验积累和领域聚焦,打造模型开发和应用服务的闭环迭代。因此,模型层和应用层有交织发展的趋势。此外,企业客户不同的数字基础和个性化的软件和流程需求仍然需要解决方案制造商进行定制、优化、部署和实施,而AI开发平台也将与大型模型配合,帮助他们通过“稀疏、蒸馏” 、剪裁”等多种方式。该模型解决了训练、推理、部署等难题,进一步实现了“低门槛、低成本、高效率”的开发、部署和应用。数据标注、安全合规等周边工具服务也是推动AIGC产品高效开发和行业有序发展的可观商机。
工具层成为AIGC行业新热点
工具层的AI Agent和模型服务平台可以更好地匹配应用需求和模型能力。
艾瑞认为,大模型的中间层——工具层可以分为两类:AI代理——代理角色和AI微调——大模型服务。 AI Agent是继大模型、AIGC之后更加流行的中间层产品。它可以被视为一个智能体,能够感知环境和需求,做出决策并执行行动。作为代表性产品,AutoGPT使用GPT-4编写自己的代码并执行Python自动化脚本,不断完成GPT的自我迭代和问题的改进。目前,代理角色产品还处于第一代阶段。未来将结合实际场景和垂直数据,作为调度中心,完成应用层需求指令的规划、存储和工具调用(引自Lilian Weng关于OpenAI的论文)。大模型服务平台为企业提供模型训练、推理、评估、微调等全方位平台服务,并进行B端私有化部署(初创企业的切入点)或基于供给侧的平台资源调用能力与需求方需求(云厂商的切入点)、模式与用户将呈现出明显的双边效应。总体而言,中间层作为模型能力与应用需求的纽带,具有广阔的价值前景,或可作为构建工具生态的另一个核心入口。但从另一个角度来看,中间层仍然嫁接在模型层之上,受到模型层能力的限制,“合格”的大模型能力基础将为中间层的发展提供更加肥沃的土壤。
AI Agent更广阔的角色价值和发展空间
进入AI智能文明将极大提高生产力。积累垂直数据和业务理解是关键。
早在20世纪80年代,计算机科学家就开始探索和开发能够与人类交互的智能软件。类似于AI Agent 的原型应用程序已经被构思和讨论。当前大型模型的新兴能力成功地为AI Agent提供了更多想象和实施的空间。一方面,大型模型的语料资源包含了大量的人类行为数据,填补了AI Agent可行性和合理性的关键要素。另一方面,大型模型的出现具有出色的上下文学习能力和复杂的推理能力。在接受目标和设置后,他们可以自发地将其分解为简单而详细的子任务,而无需人工干预来完成其余部分。工作。目前,AI Agent已成为继大型模型之后的下一个突破点,具有更大的想象空间,也更贴近应用。海外亚马逊、OpenAI以及国内高校、云巨头厂商都热情高涨,相继发布了AI Agent的学术研究成果和产品应用。未来,人类与AI的协作沟通可能进一步通过Agent作为智能媒介来实现。每个人都可以使用各种AI Agent来完成现实生活中任务的处理和执行,人类将进入庞大而复杂的AI智能文明。为了实现这一点,有价值的垂直数据和业务理解必须集成到Agent框架中,以确保大型模型应用程序在执行任务时能够访问正确的信息并高效地执行输出。这将使人工智能代理在未来发挥实际作用。有效性的关键。与模型层相比,AI Agent将为创业者留下更多的机会。
AIGC产业化价值及影响
内容生产和人机交互两条主线齐头并进,拉开变革大幕
本章讨论的AIGC应用以大模型为主要技术,也涵盖了其他AIGC技术的应用范围(例如语音合成和策略生成)。一般来说,大模型基于其内容生成、总结、逻辑推理等能力,在各种人工智能服务的技术发展过程中被融合和替代。其中,内容生成和理解是大模型的核心能力。 AIGC的产业价值主要体现在以“改变内容生产方式”和“改变人机交互方式”为核心的两个方面。大模型的双向理解和生成内容的能力使其能够以很低的门槛实现多模态的内容生成,并且还可以泛化为远离内容生产核心场景的人机对话媒介。未来,整个行业将依靠大模型能力衍生的大量AI生产工具,实现内容生产效率的飞跃,进一步降低数字生态的人机交互门槛。
生产力的变化推动大规模下游应用的优化
充分释放用户在生活领域的创新能力,在生产领域全面创新交互体验和效率
以大模型为标志的生成式人工智能是一场新的技术革命。它还具有极强的普遍性,能够改造和提升人类生产生活的方方面面。在生活领域,AIGC将进一步下放内容创作权,激发UGC创作热情,加速内容裂变。加之社区玩法在部分内容平台上良好的盈利表现,打通了内容消费领域从技术到商业模式的路径。以社区的形式,让用户自发交流、自主创作,产生粘性,是各平台努力的方向。在生产领域,大模型可以为企业软件带来研发流程、产品能力、交互等方面的改进,也全面开辟新的服务场景。因此,各企业数码厂商都会将目光聚焦在大机型上,寻找自己的优势。和定位。
AIGC将引发整个行业的深刻变革
在线化程度、数字化基础、行业内容占比等影响AIGC应用前景和渗透速度
一般来说,AIGC主要影响内容创作和人机交互。因此,价值链的线上化程度越高,内容在价值链中所占的比例就越高,AIGC对其的颠覆作用就越明显;另一方面,行业自身的数据、知识、监管要求等特征也将深刻影响AIGC技术的渗透速度。例如电商、游戏、广告、影视传媒等以内容制作为核心价值的行业,以及电商、金融等在研发、设计、制造等方面在行业价值链中地位较高的行业。营销等环节,可以快速看到AIGC应用的影响力。原有生产工具的更换和业务流程的改变。
内容消费赛道:以内容分发平台为核心的AIGC布局
现阶段AIGC主要渗透到UGC和PGC。
创作工具赛道:模型能力是核心,文字与图形的发展路径将有所差异
短期来看,模型和应用并没有分离,在图像生成领域仍然存在模型自主开发的机会。
与传统内容创作工具相比,AIGC内容创作工具最大的特点就是“重底层模型,轻前端”。因此,产品竞争的核心要素也从功能设计转变为车型能力。在这种情况下,是否拥有自主研发的SOTA模型将成为AIGC应用厂商的一个关键分水岭。基于基础大模型的研发投入和利用现有模型开发高质量应用的可行性这两个核心因素,基于文本的应用和基于图像的应用的发展路径明显不同:大语言模型高度成熟并且自研有障碍。高,直接基于现有模型开发应用更加现实;而图像生成模型的成熟度较低,自研成本可控,从而吸引了更多的创业者。
企业服务轨迹:产品价值与商业变现
![]()
AIGC与现有应用的融合,成本降低效果明显,收入增长主要依靠服务新场景。
AIGC为中国计算产业发展机遇概述
专注于“芯片硬件、服务器、应用模型、能源散热”等算力模块
全球将大力发展计算基础设施建设
算力支撑与模型需求之间存在差距。 AIGC庞大的算力需求进一步给供需结构带来压力。
自2017年Google提出Transformer架构以来,人工智能的发展逐渐进入预训练大型模型时代。 2018年6月,OpenAI的GPT模型参数数量已达到1.17亿个。模型参数数量开始实现数亿个碱基的快速发展,平均每3-4个月翻一番。这就带来了对训练算力的需求。 “水涨船高。”算力正在成为影响国家综合实力和经济发展的关键因素。浪潮信息发布的相关报告显示,算力指数平均每提升1个点,数字经济和GDP将分别增长3.3个百分点和1.8个百分点。面对算力层供需结构的矛盾,各国都在积极开展算力层基础设施建设。在算力指数国家排名中,美国拥有全球超大规模数据中心最多,以75分的国家算力指数排名第一,中国以66分排名第二,其次是日本、德国、英国等国家。算力建设已成为国家高质量发展的战略方针。 2022年底,OpenAI的GPT模型具备能力后,AI行业迅速进入以大模型为技术支撑的AIGC时代。大量的培训和算力需求,进一步给本已供需不均的算力产业结构带来压力。目前,我国各地正在加快新一批数据中心和智能计算建设,不断优化算力资源,满足未来快速发展的大算力需求。
AIGC时代算力产业模式将进化
智能计算资源可能更多地承载在云服务产品中,以MaaS模式服务各行业
过去,数据中心主要是租赁或自建。算力需求方根据业务水平、财务预算、数据隐私需求等选择租用或自建。在AIGC时代背景下,数据中心将配备更多的AI服务器,以满足日益增长的智能算力需求。云厂商甚至提出了MaaS(模型即服务)商业模式,将云计算与智能算力结合起来。模型能力与其他资源高度集成,客户可以直接在云端调用、开发和部署模型,更好地适应客户的个性化需求。未来,更多长尾企业的需求量将拥抱MaaS商业模式。与云算力的发展相比,客户端大规模模型的发展虽然较慢,但仍然是各终端厂商发展的技术重点。例如,从苹果的招聘信息中可以看出,其致力于“在客户端实现推理和加速大型语言模型”。职能型人才需求和产品规划。未来,随着大模型轻量级开源版本的发布,大模型有望进一步定制和优化,在终端侧部署推理能力,带动手机、机器人等终端侧芯片的发展。
数据中心需应对高速、海量运营需求
大机型时代,数据中心将进一步优化网络带宽、能耗、制冷运维等。
预训练大型模型的训练推理需要海量的数据资源和全天候高速运行的高性能计算机,这对数据中心的网络带宽、能耗、制冷运维能力提出了更高的要求。首先,网络是数据中心最重要的组成部分。随着数据量和计算量的增加,数据中心需要优化网络带宽,实现数据在节点内部和节点之间的高吞吐量、低延迟的传输和连接,并进一步优化计算集群的架构和设计,保证高效利用数据中心;其次,能源消耗和碳排放是数据中心需要迫切关注的关键问题。普通服务器的标准功耗一般为750~1200W,而AI模型运行时会产生更多的能耗。以CPU+AI芯片(配备4卡/8卡)异构服务器为例,系统功耗一般会达到1600W~6500W。根据斯坦福大学发布的《2023年AI指数报告》数据,GPT-3模型训练消耗的电量可供一个美国家庭使用数百年,二氧化碳排放量相当于一个家庭近百年的排放量;另一方面,基于大型模型的计算能力,由于运行所需的高能耗,导致热量释放成倍增加。为了保证服务器能够长期保持合适的工作温度,数据中心将更加注重系统设计和散热技术的开发和应用。大型车型的散热需求加速了从风冷到液冷的技术升级,进一步提高经济性、节能效果和散热效率。散热也将更加贴近热源,从机柜级散热、服务器级散热发展到芯片级散热。目前,我国正在大力推进“东电西送”工程,并发布了《新型数据中心发展三年行动计划》(2
021-2023年)》等政策性文件,引导新型数据中心实现集约化、高密化、智能化建设,在AIGC时代下完成中国算力产业在规模、网络带宽、算力利用率、绿色能源使用率等方面的全方位提升。 AI芯片是算力皇冠,关注其性能与利用率 为服务于大模型的训推,AI芯片需进一步升级内存、带宽、互联等能力 算力是评价AI芯片的核心要素,而除了运算次数外,芯片的性能衡量还需考虑运算精度。基于运算数据精度不同,算力可分为双精度算力(FP64)、单精度算力(FP32)、半精度算力(FP16)及整型算力(INT8、INT4)。数字位数越高,代表运算精度越高,可支持的运算复杂程度越高,以此适配更广泛的AI应用场景。为了适配大模型的训练及推理,AI芯片要求有更大的内存访问带宽并减少内存访问延迟,由此带动由GDDR到HBM的技术升级,另一方面需要更高的片间互联甚至片内互联能力以满足AI加速器访存、交换数据的需求。最后,大集群不等于大算力,在大规模集群部署下,集群训练会引入额外通信成本,节点数越多算力利用率越低,且单点故障影响全局运行。因此,同比增加GPU卡数或计算节点,不能线性提升算力收益,中国面临的单卡芯片性能差距将更难通过堆料等方式解决。 中国算力产业将坚持自主创新道路 英伟达能否延续强者恒强?中国何时迎来自主创新芯片曙光? 作为AIGC产业的基建层,算力是AIGC生产力卡脖子的关键环节。对此,算力生产商纷纷发力,如AMD、英特尔等追赶型企业针对AIGC的产品新品动作频频。对标英伟达的Grace Hopper,AMD推出“CPU+GPU”双架构的Instinct MI 300进军AI训练端。英特尔即将在2025年发布Falcon Shores GPU,将其混合架构改为纯GPU解决方案。目前,国内大模型训练芯片仍以英伟达GPU为主,且英伟达作为首批训推部署框架成品及平台生态将进一步巩固其在生成式AI的优势地位,但国内客户正积极与海内外追赶型企业如AMD接触,意图打破英伟达的溢价与垄断体系。自2018年以来,美国陆续对中国企业实行贸易管制,进入到美方黑名单上的中国企业已达到了千余家,尤其在半导体、人工智能等先进科技领域,国产芯片实现自主创新迫在眉睫,中国科技部也陆续出台政策推动人工智能公共算力平台建设。目前国产芯片虽在成片进度有所突破,但整体还尚未进入成熟期。以适配AIGC大模型训练角度出发,国产产品会出现宕机、兼容性差、AI框架支持度低及核心IP受限等过渡性问题。在AIGC浪潮下,AI芯片发展路径更加聚焦于AISC品类,中国算力层也会进一步尝试脱离对头部厂商英伟达的依赖,以“云巨头自研自用+独立/创业公司服务于信创、运营商等To G与To B市场”为两条主线发展路径,静待国产替代曙光,实现国产“算力+应用”的正循环。![]()
用户评论
哇!终于等到这份报告了,对AIGC行业的发展趋势很感兴趣,期待深入了解!
有15位网友表示赞同!
AIGC行业发展前景广阔,这份报告一定能提供很多有价值的信息。
有7位网友表示赞同!
期待报告能深入分析中国AIGC行业现状,并对未来发展趋势进行预测。
有7位网友表示赞同!
这份报告太及时了,对AIGC行业的研究和投资都很有帮助。
有13位网友表示赞同!
希望报告能提供一些关于AIGC应用场景的案例,更直观地了解行业发展。
有15位网友表示赞同!
AIGC行业发展迅速,这份报告一定会成为行业研究的重要参考。
有18位网友表示赞同!
AIGC行业未来可期,这份报告让我对未来充满期待。
有7位网友表示赞同!
这份报告对中国AIGC行业的市场规模和竞争格局分析一定很精彩。
有10位网友表示赞同!
终于等到这份报告,希望能看到对AIGC行业未来发展的预测。
有13位网友表示赞同!
AIGC技术在各行业的应用越来越广泛,这份报告一定能带来很多启发。
有5位网友表示赞同!
期待看到这份报告对AIGC行业的政策解读和未来展望。
有15位网友表示赞同!
中国AIGC行业发展势头强劲,这份报告一定能揭示很多关键信息。
有16位网友表示赞同!
希望能从报告中了解到AIGC行业未来面临的挑战和机遇。
有20位网友表示赞同!
AIGC行业发展前景广阔,这份报告一定能提供很多宝贵的经验。
有17位网友表示赞同!
这份报告一定能为中国AIGC行业的发展提供有力支撑。
有7位网友表示赞同!
希望能从这份报告中看到中国AIGC行业的未来发展方向。
有6位网友表示赞同!
AIGC行业发展迅速,这份报告一定能为行业发展带来新的思路。
有13位网友表示赞同!
AIGC行业正在蓬勃发展,这份报告一定会成为行业的参考。
有20位网友表示赞同!
期待这份报告能揭示中国AIGC行业发展背后的逻辑。
有8位网友表示赞同!
这份报告一定能为中国AIGC行业的发展提供重要的参考价值。
有11位网友表示赞同!