CN116108764B - 光学智能优化方法、装置、设备、介质 - Google Patents

光学智能优化方法、装置、设备、介质 Download PDF

Info

Publication number
CN116108764B
CN116108764B CN202310395541.8A CN202310395541A CN116108764B CN 116108764 B CN116108764 B CN 116108764B CN 202310395541 A CN202310395541 A CN 202310395541A CN 116108764 B CN116108764 B CN 116108764B
Authority
CN
China
Prior art keywords
graph
optimization
algorithm
calculation
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310395541.8A
Other languages
English (en)
Other versions
CN116108764A (zh
Inventor
娄洪伟
盛磊
赵伟超
韩金波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Original Assignee
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun Institute of Optics Fine Mechanics and Physics of CAS filed Critical Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority to CN202310395541.8A priority Critical patent/CN116108764B/zh
Publication of CN116108764A publication Critical patent/CN116108764A/zh
Application granted granted Critical
Publication of CN116108764B publication Critical patent/CN116108764B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及光学智能优化领域,具体提供了一种光学智能优化方法、装置、计算机设备以及可读存储介质,根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图,根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上,根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图,利用图卷积神经网络GCN算法进行任务计算图优化,对所述CPU和所述GPU执行异构并行加速,当优化算法结果满足预设要求完成光学智能优化,通过缩小搜索空间来提升深度学习计算图优化效率,获得更好的计算图优化性能,提升光学智能优化算法的计算效率。

Description

光学智能优化方法、装置、设备、介质
技术领域
本发明涉及光学智能优化领域,特别涉及一种光学智能优化方法、装置、设备及介质。
背景技术
目前光学设计可以抽象地视为在设计空间中的搜索,其中每个可能的设计都由该空间中的一个点表示。设计空间的维数,由自由参数的个数和空间的范围决定,由自由参数的变化范围决定,共同决定了找到满足一组规范的设计的难易程度和绩效目标。随着设计空间维度的增加,本地和全局搜索都变得越来越难以成功。虽然局部搜索往往会陷入次优设计,但全局搜索需要大量的点估计。通常提供单阶改进的计算能力和算法的进步可能不足以应对搜索空间的指数增长,从而导致所谓的“维数灾难”。
因此,最优光子设计要么局限于全局空间的有限搜索,要么是倾向于陷入局部最优的基于梯度的搜索。当前以代理模型形式出现的优化算法的复兴,为基于代理模型的方法带来了有趣的可能性,这些方法可能会克服“维数诅咒”。代理模型的应用在光学薄膜、纳米结构、超表面和集成光子学的设计中显示出了早期的前景。
而随着计算机体系结构和各种新型架构的发展,以及遵循着摩尔定律的技术工艺的进步,集成电路上的性能不断提升和种类不断多样,CPU (Central Processing Unit,中央处理器)、GPU(Graphics Processing Unit,图形处理器)、FPGA(Field Program GateWay,现场可编程逻辑门阵列)、ASIC (Application Specific Integrated Circuit,专用集成电路)、DSP(Digital Signal Processor,数字信号处理器)以及各种异构体系结构产生的运算能力越来越强。因此,基于各种异构体系结构,面向光学优化求解算法的并行加速技术也成为了当前的关注重点。
高效的算法对于解决光学领域所面临的大规模优化问题至关重要。近年来,机器学习领域发展迅速,特别是在图神经网络和深度强化学习领域;这使得许多光学任务的优化性能得到了显著的提高。因此,图神经网络和深度强化学习在处理各种异构体系结构领域中的图结构以及解决图上的组合优化问题,特别是在克服传统方法上的局限性的潜力是巨大的。基于深度学习的光学优化算法可根据特定的算法,寻求定制设计与算法相适应,并能够发挥出硬件设备最大运算能力程序的技术。所以在现阶段为各种计算平台和加速器研发配套的软件工具来实现模型的高性能部署是深度学习领域的一个工作重点,缺乏软件工具硬件就无法发挥其最大能效,也难以得到推广。
将代理模型和多目标优化应用至光学设计中存在许多方面的问题:(1)光学系统性能通常对镜片设计参数的变化非常敏感;(2)虽然自动标注数据,但难以生成大型数据集;(3)光学系统性能要求非常严格,因此模型中的不确定性是不可接受的;(4)一个给定的响应可以通过多个设计来实现,而单个设计有一个唯一的响应(非唯一性)。将代理模型应用于光学设计的第一个挑战是,其可以很容易地训练来预测给定设计的响应,但由于非唯一性问题,反之则不行。
同时,深度学习在各种实际应用中取得了巨大成功,但不同平台通常有不同的功能和特性,要在不同类型的设备上都获得最佳性能非常困难,因为需要基于硬件对模型与运算核心同时进行优化才能充分发挥硬件的性能,因此如何有效提高各种复杂的深度学习模型在 CPU 与 GPU 等硬件设备上的执行效率仍是待解决的一大难题。现有的深度学习系统框架通常将深度学习模型建模为计算图形式,图中的节点是基于硬件加速的预定义基础算子。但随着深度神经网络模型规模越来越大,结构越来越复杂,深度学习模型的训练和推理代价也大幅增加。目前大多采用启发式的算法来搜索子图替换序列,以优化计算图,在面对复杂模型时容易影响其有效性或效率。事实上,现有的子图替换优化方法仍存在以下挑战:
基于代理模型和多目标的光学优化算法,搜索空间大,维度高,时间复杂度高,难以得到全局最优解;
缺乏可拓展性,随着计算图规模增大,搜索效率急剧降低;
难以利用历史的优化结果。
发明内容
有鉴于此,本发明实施例中提供一种光学智能优化方法、装置、计算机设备及可读存储介质。
第一方面,本发明实施例中提供一种光学智能优化方法,包括:
根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图;
根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上;
根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图;
利用图卷积神经网络 GCN算法进行任务计算图优化;
对所述CPU和所述GPU执行异构并行加速;
当优化算法结果满足预设要求完成光学智能优化。
在一种可选的方案中,所述根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图,包括:
基于图神经网络的深度学习计算图子图替换优化框架,构建光学智能优化代理模型和多目标算法的任务计算图;
根据拉丁超立方的试验设计,确定针对光学系统的优化参数,所述优化参数包括样本数、设计空间维度或区间;
构建多个计算图子图,并利用所述多个计算图子图表达光学设计中的系统参数、约束限制。
在一种可选的方案中,所述子图替换规则包含一个源图和一个目标图,其中所述源图
Figure SMS_1
表示为待替换子图的结构,用于映射到计算图中的特定子图;
所述目标图
Figure SMS_2
表示为如何创建新的子图来替换映射的子图,所述源图和所述目标图均满足所述光学系统的约束,所述约束为变量约束或输入输出约束,对于任意的输入均能得到相同的输出,即∀I:/>
Figure SMS_3
(I)=/>
Figure SMS_4
t (I) 。
在一种可选的方案中,所述根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图,包括:
基于子图替换优化搜索方法进行多目标优化算法的任务计算图优化,所述子图替换搜索方法通过放松严格的改进约束来探索复杂图的优化,基于回溯搜索算法来寻找多个最优计算图。
在一种可选的方案中,所述基于子图替换搜索方法使用剪枝的动态规划DP算法,所述DP算法容包含保存子图替换的中间结果的算法,使用动态规划搜索算法逐步优化一个原始计算图数据 X,将运行过程中生成的新图保存下来添加到新图数据
Figure SMS_5
中,在原始图的基础上每进行一次子图替换的过程进行一次数据增强,当新图数据/>
Figure SMS_6
达到所需数量要求时,停止所述DP算法。
在一种可选的方案中,所述利用图卷积神经网络 GCN算法进行任务计算图优化,包括:
针对不同子图替换规则,利用现有深度学习模型的计算图获得带有标签的训练数据集;
对所述训练数据集和子图替换规则集进行迭代训练,生成 GCN 模型集;
将所述现有深度学习框架中待优化的计算图转换为待优化的所述任务计算图;
使用所述GCN 模型集逐个推理得到在所述任务计算图下优化后的可行子图替换规则集;
在过滤后的可行子图替换规则集上使用搜索算法对所述任务计算图进行优化;
将优化后的任务计算图转换回框架计算图,其中所述框架计算图用于存储和组织计算任务的依赖关系和执行顺序。
在一种可选的方案中,所述对所述CPU和所述GPU执行异构并行加速,包括:
在基于所述CPU和所述GPU 的异构硬件平台上利用框架计算图中包含的计算任务流程间的依赖关系和执行顺序,针对所述光学智能优化代理模型算法执行异构并行加速。
第二方面,本发明实施例中提供一种光学智能优化装置,包括:
构建模块,用于根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图;
分配模块,用于根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上;
寻找模块,用于根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图;
优化模块,用于利用图卷积神经网络 GCN算法进行任务计算图优化;
加速模块,用于对所述CPU和所述GPU执行异构并行加速;
判断模块,用于当优化算法结果满足预设要求完成光学智能优化。
第三方面,本发明实施例中提供一种计算机设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的光学智能优化方法。
第四方面,本发明实施例中提供一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行上述的光学智能优化方法。
本发明实施例中提供的光学智能优化方法、装置、计算机设备以及可读存储介质,根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图,根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上,根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图,利用图卷积神经网络 GCN算法进行任务计算图优化,对所述CPU和所述GPU执行异构并行加速,当优化算法结果满足预设要求完成光学智能优化。基于代理模型和多目标优化算法对光学系统的优化流程进行异构并行加速,通过缩小搜索空间来提升深度学习计算图优化效率,能够学习到计算图图结构特征和子图替换信息,对子图集进行筛选,进而更快更好地进行深度学习计算图优化,获得更好的计算图优化性能,提升光学智能优化算法的计算效率。
附图说明
图1为本发明实施例中提供一种光学智能优化方法的流程图;
图2为本发明实施例中提供一种光学智能优化方法中基于图神经网络的深度学习计算图子图替换优化框架的示意图;
图3为本发明实施例中提供一种光学智能优化方法中子图替换规则的示意图;
图4为本发明实施例中提供一种光学智能优化装置的结构框图;
图5为本发明实施例中提供一种计算机设备的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
结合图1所示,本发明实施例中提供一种光学智能优化方法,包括:
S101、根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图;
S102、根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上;
S103、根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图;
S104、利用图卷积神经网络 GCN算法进行任务计算图优化;
S105、对所述CPU和所述GPU执行异构并行加速;
S106、当优化算法结果满足预设要求完成光学智能优化。
本发明实施例中提供的光学智能优化方法,根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图,根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上,根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图,利用图卷积神经网络GCN算法进行任务计算图优化,对所述CPU和所述GPU执行异构并行加速,当优化算法结果满足预设要求完成光学智能优化。基于代理模型和多目标优化算法对光学系统的优化流程进行异构并行加速,通过缩小搜索空间来提升深度学习计算图优化效率,能够学习到计算图图结构特征和子图替换信息,对子图集进行筛选,进而更快更好地进行深度学习计算图优化,获得更好的计算图优化性能,提升光学智能优化算法的计算效率。
结合图2所示,在一些实施例中,在S101中所述根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图,包括:
基于图神经网络的深度学习计算图子图替换优化框架,构建光学智能优化代理模型和多目标算法的任务计算图;
根据拉丁超立方的试验设计,确定针对光学系统的优化参数,所述优化参数包括样本数、设计空间维度或区间;
构建多个计算图子图,并利用所述多个计算图子图表达光学设计中的系统参数、约束限制。
本实施例中提到的多目标算法可以采用多目标遗传算法、多目标蚁群优化算法、多目标粒子群优化算法等,根据需要灵活选择,对此不做限定。
结合图2所示,任务计算图(也称为计算图)是一种表示计算过程的数学表示方法,用于描述程序中各个操作之间的依赖关系。它是一个有向无环图(DAG, directed acyclicgraph),表示数据在计算中的流动。任务计算图中的每个节点表示一个计算,边表示计算之间的数据依赖关系。节点和边一起定义了一组按特定顺序执行的操作,以生成所需的结果。任务计算图图中的节点通常是加法、乘法和激活函数等操作,而边表示从一个节点流向另一个节点的数据。任务计算图在本发明实施例中用于深度学习来定义神经网络的结构。任务计算图可以执行前向传播,即将输入数据通过网络产生输出,或后向传播,即计算梯度以执行优化。
结合图2所示,具体地,根据拉丁超立方的试验设计,确定针对光学系统优化的样本数、设计空间维度及区间等参数。针对光学系统中设计空间维度大(超过10个设计变量)和约束限制严格等特点,本实施例中可构建多个计算图子图,并充分表达光学设计中的系统参数、约束限制等设置。同时,该框架可将光学优化模型的任务计算图子图优化建模成经典的子图匹配问题,把计算图中算子的属性作为特征信息,结合计算图本身的拓扑结构信息,对每种子图替换规则分别建立相应的图神经网络模型。训练好的图神经网络可用于识别和预测子图规则匹配的可行性和位置,高效过滤无效的子图替换规则,极大地缩小了搜索空间。
结合图3所示,在一些实施例中,在S102中所述子图替换规则包含一个源图和一个目标图,其中所述源图
Figure SMS_7
表示为待替换子图的结构,用于映射到计算图中的特定子图,源图
Figure SMS_8
表示为Relu(Conv(A,B) );
所述目标图
Figure SMS_9
表示为如何创建新的子图来替换映射的子图,目标图/>
Figure SMS_10
表示为(Conv(A,B)),所述源图和所述目标图均满足所述光学系统的约束,所述约束为变量约束或输入输出约束,对于任意的输入均能得到相同的输出,即∀I:/>
Figure SMS_11
(I)=/>
Figure SMS_12
(I) 。
在一些实施例中,S103中所述根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图,包括:
基于子图替换优化搜索方法进行多目标优化算法的任务计算图优化,所述子图替换搜索方法通过放松严格的改进约束来探索复杂图的优化,基于回溯搜索算法来寻找多个最优计算图。
具体地,S103中所述基于子图替换搜索方法使用剪枝的动态规划DP算法,所述DP算法容包含保存子图替换的中间结果的算法,使用动态规划搜索算法逐步优化一个原始计算图数据 X,将运行过程中生成的新图保存下来添加到新图数据
Figure SMS_13
中,在原始图的基础上每进行一次子图替换的过程进行一次数据增强,当新图数据/>
Figure SMS_14
达到所需数量要求时,停止所述DP算法,DP算法重用所探索的图替换信息,使得探索无需在整个搜索空间上进行,进一步提高了搜索效率。
在一些实施例中,S104中所述利用图卷积神经网络 GCN算法进行任务计算图优化,可以包括离线训练阶段和在线优化阶段,具体包括:
离线训练阶段:
针对不同子图替换规则,利用现有深度学习模型的计算图获得带有标签的训练数据集;
对所述训练数据集和子图替换规则集进行迭代训练,生成 GCN 模型集;
在线优化阶段:
将所述现有深度学习框架中待优化的计算图转换为待优化的所述任务计算图;
使用所述GCN 模型集逐个推理得到在所述任务计算图下优化后的可行子图替换规则集;
在过滤后的可行子图替换规则集上使用搜索算法对所述任务计算图进行优化;
将优化后的任务计算图转换回框架计算图,其中所述框架计算图用于存储和组织计算任务的依赖关系和执行顺序。
具体地,框架计算图是一个有向无环图,用于组织和管理在计算任务间相互依赖的节点。在框架计算图中,节点代表任务,边代表任务间的依赖关系,并明确指出执行顺序。这种组织方式可以帮助开发人员更好地理解任务间的依赖关系,更好地控制执行顺序,并使任务更加易于调试和维护。
在一种可选的方案中,所述对所述CPU和所述GPU执行异构并行加速,包括:
在基于所述CPU和所述GPU 的异构硬件平台上利用框架计算图中包含的计算任务流程间的依赖关系和执行顺序,针对所述光学智能优化代理模型算法执行异构并行加速,提高大规模光学问题的优化效率。
在一些实施例中,S106、当优化算法结果满足预设要求完成光学智能优化,包括:
判断代理模型优化算法结果是否达到要求,若满足要求则该算法优化计算流程完成,否则继续返回S101继续执行,需要说明的是,预设要求可以是优化后的光学系统波前像差值较优化前的降低10%,可以根据需要进行选择,对此不做限定。
本发明实施例中提供的光学智能优化方法,基于代理模型和多目标优化算法对光学系统的优化流程进行异构并行加速,同时,该方法具备普适性,也可用于光学系统的其他优化算法,可大大提高针对光学系统的优化算法和流程的计算速度;本发明结合机器学习方法,致力于基于异构并行架构实现对大规模光学智能优化代理模型算法的并行加速,该发明基于图神经网络的深度学习计算图子图替换优化方法,提升了子图的替换效率;本发明通过缩小搜索空间来提升深度学习计算图优化效率; 本发明实现了一套兼容主流深度学习系统的计算图优化框架,该框架能够学习到计算图图结构特征和子图替换信息,对子图集进行筛选,进而更快更好地进行深度学习计算图优化,获得更好的计算图优化性能,提升光学智能优化算法的计算效率。
结合图4所示,本发明实施例中提供一种光学智能优化装置,包括:
构建模块401,用于根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图;
分配模块402,用于根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上;
寻找模块403,用于根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图;
优化模块404,用于利用图卷积神经网络 GCN算法进行任务计算图优化;
加速模块405,用于对所述CPU和所述GPU执行异构并行加速;
判断模块406,用于当优化算法结果满足预设要求完成光学智能优化。
相应地,根据本发明的实施例,本发明还提供了一种计算机设备、一种可读存储介质和一种计算机程序产品。
图5为本发明实施例中提供的一种计算机设备12的结构示意图。图5示出了适于用来实现本发明实施方式的示例性计算机设备12的框图。图5显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备12以通用计算设备的形式表现。计算机设备12旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM、DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的光学智能优化方法。
本发明实施例中还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时本申请所有发明实施例提供的光学智能优化方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述的光学智能优化方法。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (8)

1.一种光学智能优化方法,其特征在于,用于对光学设计的智能优化,包括:
根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图;基于图神经网络的深度学习计算图子图替换优化框架,构建光学智能优化代理模型和多目标算法的任务计算图;根据拉丁超立方的试验设计,确定针对光学系统的优化参数,所述优化参数包括样本数、设计空间维度或区间;构建多个计算图子图,并利用所述多个计算图子图表达光学设计中的系统参数、约束限制;
根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上;
根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图;
利用图卷积神经网络 GCN算法进行任务计算图优化;
对所述CPU和所述GPU执行异构并行加速;在基于所述CPU和所述GPU 的异构硬件平台上利用框架计算图中包含的计算任务流程间的依赖关系和执行顺序,针对所述光学智能优化代理模型算法执行异构并行加速;
当优化算法结果满足预设要求完成光学智能优化。
2.根据权利要求1所述的光学智能优化方法,其特征在于,所述子图替换规则包含一个源图和一个目标图,其中所述源图
Figure QLYQS_1
表示为待替换子图的结构,用于映射到计算图中的特定子图;
所述目标图
Figure QLYQS_2
表示为如何创建新的子图来替换映射的子图,所述源图和所述目标图均满足所述光学系统的约束,所述约束为变量约束或输入输出约束,对于任意的输入均能得到相同的输出,即/>
Figure QLYQS_3
3.根据权利要求1所述的光学智能优化方法,其特征在于,所述根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图,包括:
基于子图替换优化搜索方法进行多目标优化算法的任务计算图优化,所述子图替换搜索方法通过放松严格的改进约束来探索复杂图的优化,基于回溯搜索算法来寻找多个最优计算图。
4.根据权利要求3所述的光学智能优化方法,其特征在于,所述基于子图替换搜索方法使用剪枝的动态规划DP算法,所述DP算法容包含保存子图替换的中间结果的算法,使用动态规划搜索算法逐步优化一个原始计算图数据
Figure QLYQS_4
,将运行过程中生成的新图保存下来添加到新图数据/>
Figure QLYQS_5
中,在原始图的基础上每进行一次子图替换的过程进行一次数据增强,当新图数据/>
Figure QLYQS_6
达到所需数量要求时,停止所述DP算法。
5.根据权利要求1所述的光学智能优化方法,其特征在于,所述利用图卷积神经网络GCN算法进行任务计算图优化,包括:
针对不同子图替换规则,利用现有深度学习模型的计算图获得带有标签的训练数据集;
对所述训练数据集和子图替换规则集进行迭代训练,生成 GCN 模型集;
将所述现有深度学习框架中待优化的计算图转换为待优化的所述任务计算图;
使用所述GCN 模型集逐个推理得到在所述任务计算图下优化后的可行子图替换规则集;
在过滤后的可行子图替换规则集上使用搜索算法对所述任务计算图进行优化;
将优化后的任务计算图转换回框架计算图,其中所述框架计算图用于存储和组织计算任务的依赖关系和执行顺序。
6.一种光学智能优化装置,其特征在于,用于对光学设计的智能优化,包括:
构建模块,用于根据预先配置的光学智能优化代理模型算法、试验设计和深度学习模型构建任务计算图;基于图神经网络的深度学习计算图子图替换优化框架,构建光学智能优化代理模型和多目标算法的任务计算图;根据拉丁超立方的试验设计,确定针对光学系统的优化参数,所述优化参数包括样本数、设计空间维度或区间;构建多个计算图子图,并利用所述多个计算图子图表达光学设计中的系统参数、约束限制;
分配模块,用于根据光学系统和代理模型定义子图替换规则,将所述任务计算图按照预设规则分配在中央处理器CPU和图形处理器GPU上;
寻找模块,用于根据子图替换优化搜索方法进行多目标优化,寻找多个最优任务计算图;
优化模块,用于利用图卷积神经网络 GCN算法进行任务计算图优化;
加速模块,用于对所述CPU和所述GPU执行异构并行加速;在基于所述CPU和所述GPU 的异构硬件平台上利用框架计算图中包含的计算任务流程间的依赖关系和执行顺序,针对所述光学智能优化代理模型算法执行异构并行加速;
判断模块,用于当优化算法结果满足预设要求完成光学智能优化。
7.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的光学智能优化方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1至5中任一项所述的光学智能优化方法。
CN202310395541.8A 2023-04-14 2023-04-14 光学智能优化方法、装置、设备、介质 Active CN116108764B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310395541.8A CN116108764B (zh) 2023-04-14 2023-04-14 光学智能优化方法、装置、设备、介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310395541.8A CN116108764B (zh) 2023-04-14 2023-04-14 光学智能优化方法、装置、设备、介质

Publications (2)

Publication Number Publication Date
CN116108764A CN116108764A (zh) 2023-05-12
CN116108764B true CN116108764B (zh) 2023-07-07

Family

ID=86262020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310395541.8A Active CN116108764B (zh) 2023-04-14 2023-04-14 光学智能优化方法、装置、设备、介质

Country Status (1)

Country Link
CN (1) CN116108764B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117350929B (zh) * 2023-11-07 2024-08-06 国网浙江省电力有限公司双创中心 一种基于改进元启发式算法的电力图像增强优化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111768004A (zh) * 2020-06-10 2020-10-13 中国人民解放军军事科学院国防科技创新研究院 一种基于智能计算框架的模型自适应方法及系统
CN112825154A (zh) * 2019-11-20 2021-05-21 阿里巴巴集团控股有限公司 深度学习中在线推理的优化方法、装置及计算机存储介质
CN112836794A (zh) * 2021-01-26 2021-05-25 深圳大学 一种图像神经架构的确定方法、装置、设备及存储介质
CN115357356A (zh) * 2022-08-10 2022-11-18 西安邮电大学 基于计算图优化的算子间并行调度方法、设备和介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020247949A1 (en) * 2019-06-07 2020-12-10 The Regents Of The University Of California General form of the tree alternating optimization (tao) for learning decision trees
CN113781002B (zh) * 2021-09-18 2023-07-21 北京航空航天大学 云边协同网络中基于代理模型和多种群优化的低成本工作流应用迁移方法
CN114153640B (zh) * 2021-11-26 2024-05-31 哈尔滨工程大学 一种基于深度强化学习的系统容错策略方法
CN114357312B (zh) * 2022-03-16 2022-06-10 中南大学 基于图神经网络自动建模的社区发现方法及个性推荐方法
CN114911612B (zh) * 2022-04-29 2024-06-11 中国航空无线电电子研究所 一种面向cpu-gpu异构资源的任务调度方法
CN115659281B (zh) * 2022-11-16 2023-10-27 之江实验室 一种自适应加速算子融合的方法及装置
CN115904666A (zh) * 2022-12-16 2023-04-04 上海交通大学 面向gpu集群的深度学习训练任务调度系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112825154A (zh) * 2019-11-20 2021-05-21 阿里巴巴集团控股有限公司 深度学习中在线推理的优化方法、装置及计算机存储介质
CN111768004A (zh) * 2020-06-10 2020-10-13 中国人民解放军军事科学院国防科技创新研究院 一种基于智能计算框架的模型自适应方法及系统
CN112836794A (zh) * 2021-01-26 2021-05-25 深圳大学 一种图像神经架构的确定方法、装置、设备及存储介质
CN115357356A (zh) * 2022-08-10 2022-11-18 西安邮电大学 基于计算图优化的算子间并行调度方法、设备和介质

Also Published As

Publication number Publication date
CN116108764A (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
Patel et al. A hybrid CNN-LSTM model for predicting server load in cloud computing
CN114862656B (zh) 基于多gpu的分布式深度学习模型训练代价的获取方法
EP3525119B1 (en) Fpga converter for deep learning models
JP2022510121A (ja) 量子コンピューティング・シミュレーションにおける測定のためのゲート融合
US20190130268A1 (en) Tensor radix point calculation in a neural network
Tong et al. A novel task scheduling scheme in a cloud computing environment using hybrid biogeography-based optimization
US11055140B2 (en) Platform for hierarchy cooperative computing
JP7545461B2 (ja) データ処理方法、データ処理装置、電子機器、記憶媒体およびコンピュータプログラム
CN116108764B (zh) 光学智能优化方法、装置、设备、介质
US12079600B2 (en) Visual programming for deep learning
CN110457068A (zh) 用于深度学习加速的非常低精度浮点表示
Dong et al. Characterizing the microarchitectural implications of a convolutional neural network (cnn) execution on gpus
JP2022163051A (ja) 化合物特性予測モデル訓練方法、装置、電子デバイス、記憶媒体及びコンピュータプログラム
CN115293623A (zh) 一种生产调度模型的训练方法、装置、电子设备及介质
Li et al. Research and implementation of parallel artificial fish swarm algorithm based on ternary optical computer
Rojek et al. Performance and scalability analysis of AI-accelerated CFD simulations across various computing platforms
WO2024002753A1 (en) Thermal and performance management
CN116991878A (zh) 基于Q-learning生成分布式执行计划的方法及系统
US20210374628A1 (en) Systems and methods for visual financial modeling
US20220188691A1 (en) Machine Learning Pipeline Generation
CN114564292A (zh) 一种数据的分布式网格化处理方法、装置、设备及介质
CN117242457A (zh) 定位神经网络性能热点
Xiao et al. GAHLS: an optimized graph analytics based high level synthesis framework
CN115516435A (zh) 基于混合存储器的推理计算平台中数据结构的优化布置
Kołodziej et al. Modeling and Simulation in HPC and Cloud Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant