云驻共创在云计算环境中,如何利用改进云计算系统和数据库系统性能云社区

前言 一、关于唐明洁教授 二、AI for System  2.1 面向分布式作业的人工智能  2.1.1 现阶段企业云计算系统环境所遇到的普遍痛点  2.1.2 云计算系统环境所遇到的普遍痛点的解决方案   (一)Google Autopilot Eurosys 2021方案(Pod级别)   (二)ibaba Rose ICDCS 2019 方案(Job 级别)  2.1.3 优化框架 COUGAR 的架构  2.1.4 优化案例举例   (一) 流处理作业(Flink)的优化   (二) 深度学习推理和训练任务的配置  2.2 数据库中的人工智能  2.2.1 学习索引(Learned Index)   (一)认识了解学习索引(Learned Index)   (二)学习索引的分类   (三)学习索引结构的案例  2.2.2 华为云案例中的自适应的 Art index 三、System for AI  3.1 面临的挑战  3.2 大模型训练方式  3.3 DLRover 案例 四、问题汇总 总结

2023 年我想大家讨论最多,热度最大的技术领域就是 AIGC 了,AI 绘画的兴起,ChatGPT 的火爆,在微软背后推手的 OpenAI 大战 Google 几回合后,国内各种的大语言模型产品也随之各家百花齐放,什么文心一言、通义千问、科大讯飞的星火以及华为的盘古等等,一下子国内也涌现出几十种人工智能的大语言模型产品。ChatGPT 爆火之后,你是否有冷静的思考过 AIGC 的兴起对我们有哪些机遇与挑战?我们如何将 AI 应用到我们现有的工作学习中?本文将结合四川大学唐明洁教授的分享来探讨如何利用人工智能技术来提高云计算和数据库系统的性能、可靠性和可扩展性。主要分享内容包括:AI 和分布式系统;利用AI提高大规模 AI 和分布式计算任务的效率;利用 AI 提高数据库系统性能;大模型训练在云计算环境下的技术挑战;结论和方向。

唐明洁教授于2007年四川大学本科毕业,2010年中科院大学硕士毕业,2016年美国普度大学计算机系博士毕业,博士论文指导老师 Walid Aref (IEEE Fellow), Elisa Bertino (ACM/IEEE Fellow), Sonia Fahmy(IEEE Fellow) , Sunil Prabhakar。从2018到2022年担任蚂蚁集团美国硅谷研究院 AI 工程科学家和研发主管,负责全集团AI及大数据云原生系统工作;2016年到2018年担任大数据公司Cloudera 数据科学家,负责数据库 OLAP 方向,担任研发 Apache Spark。还曾就职于 Microsoft 美国及 IBM 美国研究院。

是多个开源数据库和 AI 项目发起人及核心贡献者,包括 AI 训练业界标准 Kubeflow,Couler,ElasticDL,SQLFlow等(Github stars>7000),Spark 早期贡献者。发表 ACM/IEEE 汇刊论文34篇,CCF-A 类论文11篇。包括数据库顶级会议 VLDB,ICDE,IEEE TKDE, CIKM 等。

系统中会遇到各种问题,如何利用 AI 技术进行解决系统中的这些问题将是该部分内容的讨论重点,该部分内主要会针对在分布式任务与数据库系统中如何利用 AI 进行优化系统的性能。

如果你需要更多详细资料可以参照唐教授的论文:An general framework to optimize the job in cloud (ICDE23)。

在当前较大规模的云计算集群环境中存在两个主要问题。首先,CPU、内存甚至 GPU 的利用率相对较低。其次,创建的任务存在较长的等待时间(pending time)。这些问题在实际的客户环境中普遍存在,例如下图所示的蚂蚁金服案例。

从上述的蚂蚁金服的案例中可以发现面临的主要几个问题

集群资源利用率问题 在资源利用率中可以发现,很多资源使用率都是比较低的,其中 CPU 的利用率在20%以下,而内存利用率在40%以下。

运行效率问题 在一些工作负载中,运行过程中可能会发生异常错误,这样在整理作业流程上,会出现内存溢出,甚至处理延迟增加等问题。在2020年的一个数据中表明,在65000个流作业中,1500个大约占比2.3%的作业的最大处理延迟超过30分钟。

管理维护系统困难且成本较高 在管理 job 的时候,在不同的业务线,会有不同的人会提交不同的 job,这样在一个或者多个集群中,其运维成本会变得非常高。

在上述中我们讲解了在云计算系统环境所遇到的普遍痛点问题,针对这些问题我们应该如何解决呢?

Autopilot 方案是在 Google Autopilot Eurosys 2021 大会上所提出的,该方案是以 Pod 级别为单位对资源进行弹性伸缩。

在给出的案例中可以看下图所示,一般我们用机器里面存放容器是有限度的。 因此,精确的限制对效率和可靠性至关重要。在下图中,第一部分资源的使用率不足,造成机器内存等资源浪费,而第三部分,请求的资源超过所存放容器的最大限制,这样也是不合理的。

Autopilot 的工作原理大致可以理解为,有一些算法可以侦测到 Pod 的利用率,之后通过内部的 Borg 来进行横向或者纵向的进行弹性伸缩。Autopilot 现在已经是 Google 的落地组件产品,当你在使用 Google 云的时候,可以选择使用 Autopilot 进行资源优化。

上述我们提到了Autopilot 是以 Pod 级别为单位的弹性伸缩,那么有人可能会有疑问,如果我的系统不是以 Pod 为单位的伸缩,这种方案是否可行,或者是否有问题呢。下面我们来了解一下阿里的方案

该解决方案是来自于阿里的团队,发表在 ibaba Rose ICDCS 2019。

博主查阅了论文资料后得出该论文主要介绍了一种名为Rose的调度算法,用于优化数据中心作业的执行性能。该算法旨在解决数据中心中作业调度的挑战,其中不同的作业具有不同的性能目标和资源需求。通过动态地分配资源和调整作业的执行顺序,Rose 算法可以最大程度地提高作业的性能,包括减少作业完成时间、提高资源利用率和保证服务质量。

该方案的核心思想是通过将作业分为不同的组,并为每个组分配资源配额,以便在资源利用率和性能之间取得平衡。Rose 算法使用一种基于启发式的调度策略,根据作业的属性和资源使用情况来选择最佳的作业顺序和资源分配方案。通过实验评估,该方案在提高数据中心作业性能方面取得了显著的改进。

在一个大规模的集群中,我们会面临各种不同类型的任务,如深度学习任务、大数据任务以及模型服务任务等。我们有一个共同的目标,即通过一个通用框架将这些任务与优化策略相结合。第二个目标是,在对一个作业进行优化时,不仅要考虑该作业本身所需的资源,还要考虑将某些作业的信息与集群的信息相结合,以实现整体任务的优化调度。

在架构图中可以看到,我们有一个通用的优化框架去接入不同的任务,在Framework 中可以接入不同的任务,同时不会破话这些任务的执行,并且在框架中内置一些优化算法,适配不同的场景。 在过去做优化的时候主要是“单目标优化(Single Optimizer)”以实现最大吞吐、实现最大利用率或者最小的IO等,现在我们更希望定义不同的优化组合目标,我们会希望这个优化既可以资源用的少又可以性能高且IO少,这也被称为“多目标优化(Multi-Optimizers)”

这里结合上述的优化框架 COUGAR 的架构,列举两个案例,可以供大家结合实际工作进行参考。

在这个案例中,我们设立的目标是优化 Flink ,使其 job 利用率变高,另外一个目标是他的吞吐不会受影响,也就是你的资源减少后不会减少它的吞吐。在优化 Flink 过程中采取了两种优化策略:

初始化优化策略 当 Flink 启动后,我们可以看到任务和过去历史任务的相似性与匹配度,我们从Flink任务中抽取任务的各种特征,比如:数据表类型,哪个用户提交操作等等,从而建立一个任务,通过相似性的方法最终得出这个任务初始化时候的最优plan。

运行时优化策略 当任务运行起来后,我们可以看到任务输入数据量,任务的节点的计算情况,根据节点运行情况进行预测与 Job 的吞吐量进行预测,之后对这个节点进行动态的弹性优化。

在这里有个核心点是,我们的 AI 预测准确度要足够高,但是以经验来说,我们不能100%来相信 AI,即使99.5%的正确率,但是还是有0.5%的错误率的情况,这 0.5%就会影响在线服务的质量,所以需要设置最后各种策略以及最后的“兜底”方式,来保证 AI 的正确执行。当 AI 被部署到生产环境后,需要一个较长时间的 Dry run,当 Dry run 很久之后,AI 的预测结果逐渐趋于稳定,才会最终上线。

所以最后总结来说,我们的 Framework 本质是来帮我忙做这些事情,如何设置 Dry run 时间,多少次调节一次利用率,怎么收集资源,这些都是 Framework 介入的。当如果想要提供给外部开发者使用的时候,你只需要接入 Framework 的通用 API,将所要执行的计划传给它,它会执行底层帮你来优化资源,同时把这个计划返回给 Flink,最后让 Flink 做这个任务本身的优化。

另外一个案例是在进行深度学习的时候,对预测任务或者训练任务的时候,如何对 GPU 进行配置。

为了满足一个任务在线预测的时候,常常会给一个 AI 分配一个比较大的资源,在运行的时候我们会发现,资源的利用率会出现波峰波谷的现象。比如说晚上的时候在预测方面的资源利用率不高的时候,我们是否可以将训练任务调度到这个节点,同时让这个节点分享 GPU 给训练任务,这样就增加了资源的利用率。 那么在这个案例中,比较重要的就是如何进行安排这些任务,这个时候就需要AI的帮忙,需要预测出未来一段时间的利用情况,而且需要从众多任务 job 中找到一个自身所匹配的 job 来,匹配后即可将两个 job 放到一个 GPU 的 Pod 中,通过虚拟化技术提高 GPU 利用率。 注意这里有个潜在风险:已经正在运行在线任务 Job 是否能够保证他原有的 SLA。因为我们有可能会降低原有在线业务的 SLA,所以我们需要定义一些策略来预防这种可能,以确保原有业务的 SLA。

通过蚂蚁集团的案例最后总结可知,使用案例中的方案后,可以减少资源的浪费,可以提高GPU的利用率10%~20%左右。

与大家熟知的传统索引不同,学习索引(Learned Index)是一种通过机器学习方法学习索引结构的概念。传统的索引结构(如 B树、哈希表等)是基于固定的规则和算法构建的,而学习索引则采用了不同的方法。

学习索引的基本思想是使用机器学习模型来学习数据集的分布和查询模式,从而能够更加智能地选择和定位索引节点,提高查询效率。学习索引的优点是可以根据数据集的特征和查询模式来自适应地构建索引,从而提供更高效的数据访问性能。 下图可以明显看出,使用 Learned index,不仅所需要的空间小且查询速度快。

在学习索引(Learned Index)领域,“Learning the index”、“Indexing Learned Models” 和 "Benchmarking"是三个大的分类。

Learning the index(学习索引):这个分类关注的是如何通过机器学习方法来学习索引结构本身。学习索引的目标是通过学习数据集的分布和查询模式,构建更智能和高效的索引结构。这个分类中的研究主要集中在如何选择索引节点、确定索引的层次结构以及优化查询策略等方面。

Indexing Learned Models(学习模型的索引):这个分类涉及学习索引与机器学习模型之间的关系。学习模型通常用于处理和分析数据,而学习索引则用于加速对这些学习模型的查询。这个分类中的研究主要关注如何有效地构建和维护针对学习模型的索引,以便在查询过程中快速定位到相关的模型。

Benchmarking(基准测试):这个分类关注的是对学习索引方法进行评估和比较。由于学习索引是一个相对较新的研究领域,需要进行实验和评估来了解不同方法的性能和效果。这个分类中的研究主要包括定义评估指标、设计实验方法以及比较学习索引与传统索引的性能等方面。

学习索引结构有三种:Range Index、Point Index与Existence Index。

Range Index(范围索引):Range Index 是一种学习索引结构,用于高效地支持范围查询。范围查询是指根据某个范围条件检索数据集中满足该条件的数据。传统的索引结构(如 B-树)在范围查询时需要遍历索引树的各个节点,而 Range Index 则通过学习数据集的分布和查询模式,可以更加智能地确定索引节点的选择和访问顺序,从而提高范围查询的性能。

Point Index(点索引):Point Index 是一种学习索引结构,主要用于高效地支持点查询。点查询是指根据给定的键值检索数据集中对应的数据。Point Index 通过学习数据集的分布和查询模式,可以根据查询键值智能地选择索引节点,从而减少不必要的访问和提高点查询的性能。

Existence Index(存在性索引):Existence Index 是一种学习索引结构,用于判断给定键值是否存在于数据集中。存在性查询是指根据给定的键值判断该键值是否存在于数据集中。传统的索引结构(如哈希表)在存在性查询时需要访问索引节点并比较键值,而 Existence Index 利用机器学习方法学习数据集的分布和查询模式,可以更智能地判断键值的存在性,从而提高查询性能。

在这个案例中 ES 引擎中做KV查询的时候,使用了 FST(Finite Stage Transducer)来支持数据的倒排索引查询,在应用的场景遇到了几个问题,比如内存消耗过大,查询时间过长以及吞吐量低。

为了解决该问题,在该案例中采用了经典的 Art index,并且对其进行了相应的优化,比如对节点进行优化,对压缩路径进行优化等。

当在该案例中引入 Art index 并进行优化之后,与现有的 FST 方式对比,系统的利用率和性能普遍得到明显提升

在爆火的 ChatGPT 后,对于这种具有大参数的且有大数据量的大语言模型,有的企业或者组织会遇到一个共同的问题,我已经有大语言模型了,但是就是训练不出来,因为这里所涉及到的优化不仅在框架层,在调度资源层也同样存在。 我们如何利有限的资源去做分布式的大规模训练成了一个巨大挑战。 在生产集群中,大部分的集群的内存、CPU、GPU 利用率通常是比较低的,且任务排队时间较长。

在大语言模型训练中,现阶段大家普遍采用的是同步模式进行训练,采用同步模式训练的原因总结起来有如下几点:

训练效率高:与异步训练相比,同步模式训练可以充分利用并行计算的能力,提高训练效率。在同步模式下,多个计算设备(如 GPU)可以同时进行模型参数更新,每个设备负责处理一部分训练数据。这样可以加快训练速度,提高训练效率。

参数一致性高:同步模式训练确保在每个训练步骤结束时,所有设备上的参数都得到更新,并保持一致。这对于大型语言模型是至关重要的,因为模型的参数需要保持同步以确保正确的预测结果。如果使用异步模式训练,不同设备上的参数更新可能会出现不一致,导致模型性能下降。

内存占用低:同步模式训练可以更有效地管理内存占用。在异步模式下,每个设备都会维护自己的参数副本,导致额外的内存消耗。而同步模式下,参数共享并进行同步更新,减少了内存需求。

算法稳定性高:同步模式训练通常具有更好的数值稳定性。由于同步模式下所有设备在每个训练步骤中都使用相同的参数,可以更好地控制数值计算的稳定性和一致性,减少梯度更新的不稳定性和震荡。

DLRover 在分布式集群上自动训练深度学习模型。它可以帮助模型开发人员专注于模型架构,而无需考虑任何工程方面的东西,比如硬件加速、分布式运行等。现在,它为 K8s/Ray 上的深度学习培训工作提供自动化运维。

从上图中可以看出 DLRover 系统框架分为两块:一部分是 Brain Service,另一部分是 Training Job 部分。 Brain Service 提供了不同的优化策略和一些模型框架,在这里决定了你如何进行优化,如何进行决策策略。Training Job 中有一个 Mater,它负责管理 Jobs,并且会从 Brain Service 中获得一些优化 plan 以及建议。

DLRover 优点以及改善状况

相对传统的 TensorFlow Job(TFJob)需要用户需要使用多少 CPU、多少内存等,DLRover 可以自动弹性伸缩;在 Job 的运行时间方面,当节点比较多的时候,性能优化的改善会更大,从图中可以看出 DLRover 有明显的改善;在资源利用率中,利用率有 20% 左右的提升;当某一个节点出现故障的时候,与传统相比,弹性动态的功能可以达到提出掉有问题的节点。

数据库如何支撑大量数据的AI训练,比如说有百亿参数的训练? 数据库训练模型中,计算节点和训练节点通常在不同位置,一般情况我们会从远程数据存储的数据库中拉去数据,假设在大量高并发同时拉去数据的时候,很有可能会造成数据库宕机。针对该问题有几个策略,一方面是想办法将数据库缓存到训练节点的内存中,做一些调度;另外的做法是将数据库的数据 dump 成文件形式进行训练。

Learned Index 模型是在线训练实时更新的吗? 不是实时更新

LLM 的长处是对任务的生成,对 index 的生成与优化上大模型的优势有哪些? 虽然 LLM 模型主要针对自然语言处理,但是 LLM 依然可以做一些分类或者预测问题,大语言模型具有一定的扩展能力,现阶段大家在思考以及一些团队研究如何使用大语言模型使用一个 index 就可以搞定一切事情。

如何看到国内的大厂都在争先的做大语言模型训练,但是仍然无法做出与ChatGPT 同类型的爆款产品,原因是什么? ChatGPT 之所以功能强大,并不仅仅是因为其模型本身足够庞大。实际上,早在几年前,ChatGPT 就已经开始使用人类反馈强化学习(reinforcement learning from human feedback, RLHF)。然而,国内某些大型语言模型在这方面的训练相对较少。

本文深入探讨了 AI for System 和 System for AI 两个关键领域。在 AI for System 部分,介绍了面向分布式作业的人工智能以及当前企业云计算系统所面临的常见问题和相应解决方案。其中提到了 Google Autopilot Eurosys 2021 方案和 ibaba Rose ICDCS 2019 方案作为解决痛点的示例。还介绍了优化框架 COUGAR 的架构,并给出了流处理作业(Flink)优化和深度学习任务配置的案例。在 AI for Database 部分,讨论了学习索引(Learned Index)的概念、分类和案例,以及华为云中的自适应 Art index 案例。接着,文章转向 System for AI,探讨了该领域面临的挑战,大模型训练方式,并提供了 DLRover 案例。最后,文章对前文讨论的问题进行了总结。通过这些内容,读者可以更好地了解和应用 AI 和系统领域的关键概念和解决方案。

THE END
0.数学在经济学中的运用论文(通用7篇)综上所述,在经济学领域应用数学学科知识点,能促进经济学的全面发展,必须要深度分析数学在经济学中的具体作用,及时了解数学的精髓与基本方法,全面渗透数学思想,全部融入经济领域,促进经济学的全面发展,针对社会发展进程中各类经济现象实施科学而有效的剖析。 jvzq<84yyy4vpsx0eqs0n~sygp5kkwllk1813A6343813;93a3=7;A790jznn
1.科学计算可视化LTD知识百科增长黑武器实际上,可以认为科学计算可视化的数据只是数据可视化处理数据的一部分而已,即数据可视化不仅包括科学计算数据的可视化,还包括工程数据和测量数据的可视化。 (2)应用范围的不同 科学计算可视化的应用范围非常广泛,已从最初的科研领域走到了生产领域,到今天它几乎涉及到了所有能应用计算机的部门。在这里,将简要列举一些jvzquC41nvj/exr1ctzjeuj175=53;5828:99B740jznn
2.智能交通系统的核心技术范文四、应用领域举例 1.智能交通 智能交通系统(ITS)是指将先进的信息技术、数据通讯传输技术、电子控制技术、计算机处理技术等应用于交通运输行业从而形成的一种信息化、智能化、社会化的新型运输系统,它使交通基础设施能发挥最大效能。该技术于上世纪80年代起源于美国,随后各国都积极寻求在这一领域中的发展。 智能交通系统具有以下两个jvzquC41yy}/i€~qq0ipo8mcqyko1;955;8/j}rn
3.我国高性能计算机不断“打榜”应用短板待弥补—新闻—科学网“超算在应用层面的滞后是我们长期以来的一个痛点。”10月18日,2018年全国高性能计算学术年会(HPC 2018)在青岛召开,中国工程院院士、浪潮集团首席科学家王恩东在会上做主题演讲时说,近20年来,我国的高性能计算机不断地在“打榜”,为了能够在性能指标上成为世界第一做了大量的研究性工作,然而在怎么用好超算的命题jvzquC41pg}t0|hkgpifpny0ep5ivvqpgyy0496:13606:>2934tj}r
4.GPU服务器配置方案>>应用领域举例说明: 深度学习和机器学习领域 通过使用GPU服务器进行模型训练和推理,可以大大加速神经网络的计算过程。例如,图像识别、语音识别、自然语言处理等任务都可以从GPU的并行计算能力中受益。 科学领域 许多复杂的计算任务需要处理大量的数据和运行复杂的模型。GPU服务器可以加速这些任务,如天气预测、分子动力学模jvzq<84yyy4jj~nfkct/exr1pg}t1::0jvsm
5.HPCMid为了增强科学计算应用的性能可移植性与开发生产力,针对偏微分方程显式求解器,我们设计了基于Python的领域专用语言,以时间积分、空间离散为界将计算表达与优化实现分离。用户基于物理网格开发串行求解程序,代码工具根据网格类型与计算模板自动完成负载均衡划分,基于性能模型搜索计算核心的全局优化策略,最终生成高性能的并行代码jvzq<84yyy4dcnu/uett0jh0ep5IRLRkf/814;29994qjy
6.50个算力典型应用场景(覆盖24大领域)互联网应用举例50个算力的应用场景日益广泛,从科学研究到日常生活,无处不在。本文将详细介绍算力主要应用的24个领域的50个场景。 一、信息技术与通信 1、智能交通系统 应用场景描述:利用边缘计算和物联网技术实时处理大量交通数据,提高城市交通效率。 案例:北京市交通委员会部署智能交通管理系统,通过实时监控交通流量来调整信号灯配时,缓jvzquC41dnuh0lxfp0tfv8kwjcthjjsi1cxuklqg1fkucrqu13:28<9256
7.北理工物理学院讲座从物理学的发展历史出发,逐步开始介绍计算物理和凝聚态物理,通过举例子,让同学们明白了计算物理作为物理学的第三大分支,是以计算机技术为手段,应用数学方法来对物理问题进行数值分析和数值模拟,并在此基础上阐述了计算凝聚态物理在新能源领域中的应用及挑战。 jvzquC41rjtklx0dkz/gmz0ep5sey~1zune1:>9:;
8.将改变世界的十五大科技成果,这个大会影响你我未来生活“神威·太湖之光”采用全国产综合处理器,是世界首台性能超过10亿亿次并行规模超千万核的划时代的新型超级计算机。下一步超算中心将围绕国家重大需求和国际需求开展高性能计算应用和计算任务,共同为世界科技的创新做出更多工作。 12.SAP与中科院沈自所联合研发的工业4.0智能制造生产线 jvzquC41pg}t0lhvx0ipo872385238691CXUK]o:fppu|SxwkgetxvkE3<23:<0ujznn
9.电气工程的基本概念汇总十篇该课程内容涉及高电压技术领域中的一些基础理论知识、设计计算方法、高电压试验、绝缘测试技术及电力系统过电压等,内容十分丰富,是电气工程技术人才必备的专业技能,更是从事高电压输变电技术及高电压在其他领域应用的一门专业技术。 然而,根据原国家教委提出的《面向21世纪高等教育教学内容与课程体系改革计划》及教育部《jvzquC41yy}/z~jujw4dqv3ep1nbq€jp16?9;;3jvor
10.一种高性能计算和数据中心网络架构:InfiniBand(IB),低延迟、高低延迟:InfiniBand网络的点对点直连结构以及支持RDMA技术,使其具有低延迟的特点,适用于对通信延迟要求较高的应用。 高吞吐量:高传输速率和并行性质使InfiniBand能够支持大规模数据集的高吞吐量传输,对于需要大量数据处理的应用非常重要,例如科学计算、模拟和人工智能等领域。 jvzquC41fg|fnxugt0gmk‚zp0eun1jwvkerf1:9666;8
11.量子计算何时投入实用?光子可能是个关键角色我们瞄准特定应用研制了一款新型的可编程光量子计算芯片,能够进行量子漫步可编程动态模拟,从而支持实现图论问题量子算法,未来可能应用在数据库搜索、模式识别等领域。相对于通用量子计算,这种专用光量子计算芯片有可能可以率先实用化。 强晓刚 军事科学院国防科技创新研究院研究员 量子计算是世界科技前沿的一个重点研究方向,5月7日,《科学》杂志发表 jvzq<84{p0vfqyqg0eun0ls1ID5o487243517:81e5=96=5/56=34A930jznn
12.集成电路辅助设计范文这是一个最广泛,最活跃的应用领域。计算机辅助设计(ComputerAidedDesign,CAD)是利用计算机强有力的计算功能和高效率的图形处理能力,辅助知识劳动者进行工程和产品的设计与分析,以达到理想的目的或取得创新成果的一种技术。它是综合了计算机科学与工程设计方法的最新发展而形成的一门新兴学科。计算机辅助设计技术的发展是与jvzquC41yy}/i€~qq0ipo8mcqyko1;7237=/j}rn