CN111105014B - 一种数据处理方法、设备和计算机可读存储介质 - Google Patents
一种数据处理方法、设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN111105014B CN111105014B CN201911184372.3A CN201911184372A CN111105014B CN 111105014 B CN111105014 B CN 111105014B CN 201911184372 A CN201911184372 A CN 201911184372A CN 111105014 B CN111105014 B CN 111105014B
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- sample data
- structure diagram
- output data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000003860 storage Methods 0.000 title claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims abstract description 157
- 238000010586 diagram Methods 0.000 claims abstract description 143
- 238000005457 optimization Methods 0.000 claims abstract description 130
- 238000012545 processing Methods 0.000 claims abstract description 66
- 238000000034 method Methods 0.000 claims description 66
- 230000015654 memory Effects 0.000 claims description 31
- 239000000463 material Substances 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 9
- 238000013139 quantization Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 14
- 239000010410 layer Substances 0.000 description 33
- 238000013527 convolutional neural network Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 22
- 238000000605 extraction Methods 0.000 description 20
- 238000013461 design Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 239000013585 weight reducing agent Substances 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 2
- 230000017525 heat dissipation Effects 0.000 description 2
- 230000020169 heat generation Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005294 ferromagnetic effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000011343 solid material Substances 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 230000002311 subsequent effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种数据处理方法,所述方法包括:获取样本数据;其中,所述样本数据表示与待优化结构区域对应的特征数据集合;对所述样本数据进行结构优化运算,得到第一结构图;基于第一神经网络对所述样本数据进行处理,得到第一输出数据;其中,所述第一神经网络用于提取所述样本数据的结构特征信息;基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数。本发明实施例还提供了一种数据处理设备和计算机可读存储介质。本发明提供的数据处理方法,可以在保证结构优化效果的情况下,降低运算成本和时间成本。
Description
技术领域
本发明涉及移动电子设备领域,尤其涉及一种数据处理方法、设备及计算机可读存储介质。
背景技术
移动电子设备的轻量化,尤其是移动电子设备的结构优化是目前亟待解决的一个问题,基于有限元(Finite Element Method,FAE)的拓扑优化方法是解决该问题的一种成熟的技术方案。但上述方案实现过程中需要大批量迭代,由此会直接导致运算时间成本过高,而另一方面,市场需求的快速变化对移动电子设备结构优化周期缩短提出了更高的要求。因此,急需一种移动电子设备的结构优化方案,以实现在保证结构优化效果的情况下,还可以降低运算成本和时间成本的目标。
发明内容
有鉴于此,本发明实施例期望提供一种数据处理方法,该方法可以实现在保证结构优化效果的情况下,还可以降低运算成本,缩短优化周期的目的。
为达到上述目的,本发明的技术方案是这样实现的:
一种数据处理方法,所述方法包括:
获取样本数据;其中,所述样本数据表示与待优化结构区域类型对应的特征数据集合;
对所述样本数据进行结构优化运算,得到第一结构图;
基于第一神经网络对所述样本数据进行处理,得到第一输出数据;其中,所述第一神经网络用于提取所述样本数据的结构特征信息;
基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数。
可选的,所述基于第一神经网络对所述样本数据进行处理,得到第一输出数据,包括:
获取所述样本数据的至少两个数据分量;
基于所述第一神经网络的不同输入层分别对所述至少两个数据分量进行处理,得到所述至少两个数据分量的处理结果;
基于所述第一神经网络对所述至少两个数据分量的处理结果进行处理,得到第一输出数据。
可选的,所述至少两个数据分量包括第一数据分量、第二数据分量和第三数据分量;其中,所述第一数据分量用于表示所述样本数据的载荷分量;所述第二数据分量用于表示所述样本数据的边界条件分量;所述第三数据分量用于表示所述样本数据的材料分量。
可选的,所述基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数,包括:
对所述第一输出数据和所述第一结构图进行运算,得到第一运算结果;其中,所述第一运算结果用于表示所述第一输出数据与所述第一结构图的量化差异;
获取预设运算结果;
基于所述第一运算结果与所述预设运算结果的差异,调整所述第一神经网络的网络参数。
可选的,所述基于所述第一运算结果与所述预设运算结果的差异,调整所述第一神经网络的网络参数,包括:
获取预设误差阈值;
若所述第一运算结果与所述预设运算结果的差值大于所述预设误差阈值,调整所述第一神经网络的网络参数。
可选的,所述基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数之后,还包括:
对所述样本数据进行结构优化运算,得到第三结构图;其中,所述第三结构图的分辨率高于所述第一结构图的分辨率;
基于网络参数调整后的所述第一神经网络对所述样本数据进行处理,得到第一优化结构图;
基于第二神经网络对所述第一优化结构图进行处理,得到第二输出数据;
基于所述第二输出数据与所述第三结构图的差异,调整所述第二神经网络的网络参数。
可选的,所述基于所述第二输出数据与所述第三结构图的差异,调整所述第二神经网络的网络参数,包括:
鉴别所述第二输出数据与所述第三结构图,得到鉴别结果;其中,所述鉴别结果用于表示所述第二输出数据与所述第三结构图是否匹配;
若所述鉴别结果表示所述第二输出数据与所述第三结构图不匹配,调整所述第二神经网络的网络参数。
可选的,所述方法还包括:
获取待处理数据;其中,所述待处理数据是待优化结构区域的特征数据集合;
基于参数调整后的所述第一神经网络对所述待处理数据进行处理,得到第二结构图;
基于所述参数调整后的所述第二神经网络对所述第二结构图进行处理,得到第四结构图。
一种数据处理设备,所述设备包括:处理器、存储器和通信总线;
所述通信总线用于实现处理器和存储器之间的通信连接;
所述处理器用于执行存储器中的数据处理方法的程序,以实现以下步骤:
获取样本数据;其中,所述样本数据用于表示与待优化结构区域对应的特征数据集合;
对所述样本数据进行结构优化运算,得到第一结构图;
基于第一神经网络对所述样本数据进行处理,得到第一输出数据;其中,所述第一神经网络用于提取所述样本数据的结构特征信息;
基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数。
一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以上述数据处理方法的步骤。
本发明实施例所提供的数据处理方法,获取样本数据;其中,所述样本数据表示与待优化结构区域类型对应的特征数据集合;对所述样本数据进行结构优化运算,得到第一结构图;基于第一神经网络对所述样本数据进行处理,得到第一输出数据;其中,所述第一神经网络用于提取所述样本数据的结构特征信息;基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数。
因此,本发明实施例提供的数据处理方法,通过样本数据对第一神经网络进行调整,然后基于调整后的第一神经网络执行电子设备的结构优化运算,由此,可以在保证结构优化效果的情况下,还可以降低运算成本。
附图说明
图1为本发明实施例提供的第一种数据处理方法的流程图;
图2为本发明实施例提供的拓扑优化结构流程图;
图3为本发明实施例提供的卷积神经网络的结构优化参数调整流程图;
图4为本发明实施例提供的第二种数据处理方法的流程图;
图5为本发明实施例提供的对样本数据转化处理的原理图;
图6为本发明实施例提供的第三种数据处理方法流程图;
图7为本发明实施例提供的第二神经网络参数调整示意图;
图8为本发明实施例提供的第四种数据处理方法的实现流程图;
图9为本发明实施例提供的数据处理设备的设备结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
应理解,说明书通篇中提到的“本发明实施例”或“前述实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“本发明实施例中”或“在前述实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。在本发明的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,本发明实施例中与其它实施例相同或相应步骤(或概念)的说明,可以参照其它实施例中的描述,此处不再赘述。
随着移动电子设备比如智能手机、平板电脑(portable Android device,PAD)、便携式笔记本(Laptop)的功能越来越强大,性能越来越稳定,移动电子设备的用户在各种场景下使用移动电子设备的频率都越来越高,因此,对移动电子设备的便携性,也就是移动电子设备的轻量化就提出了更高的要求。移动电子设备的轻量化,是指在保证电子设备功能实现的前提下,实现电子设备内部电路结构的轻量化和外壳结构的轻量化,比如,电子设备的自重变轻,电子设备的机身变薄、抗压性更强、形变更小、发热更少、散热更快等。
目前,电子设备的轻量化,主要集中在针对材料的结构优化,比如,采用不同的材料在不同的情况下设计性能更好的结构。
在相关技术中,结构优化需要通过结构优化设计来实现。结构优化设计,是在给定约束条件下,按某种目标(如重量最轻、成本最低、刚度最大等)求出最好的设计方案,曾称为结构最佳设计或结构最优设计,相对于“结构分析”而言,又称“结构综合”;如以结构的重量最小为目标,则称为最小重量设计。
结构优化可分为尺寸优化、形状优化、形貌优化和拓扑优化。
而在结构优化设计中,拓扑优化(topology optimization)是一种结构优化减重的一个重要的工具。拓扑优化的实现,通常需要基于FEA和相关的优化算法来实现。
FAE,是利用数学近似的方法对真实物理系统(几何和载荷工况)进行模拟,其利用简单而又相互作用的元素(即单元),就可以用有限数量的未知量去逼近无限未知量的真实系统。
FAE是用较简单的问题代替复杂问题后再求解。它将求解域看成是由许多称为有限元的小的互连子域组成,对每一单元假定一个合适的(较简单的)近似解,然后推导求解这个域总的满足条件(如结构的平衡条件),从而得到问题的解。因为实际问题被较简单的问题所代替,所以这个解不是准确解,而是近似解。由于大多数实际问题难以得到准确解,而有限元不仅计算精度高,而且能适应各种复杂形状,因而成为行之有效的工程分析手段。
有限元,是那些集合在一起能够表示实际连续域的离散单元。有限元的概念早在几个世纪前就已产生并得到了应用,例如用多边形(有限个直线单元)逼近圆来求得圆的周长,但作为一种方法而被提出,则是最近的事。有限元法最初被称为矩阵近似方法,应用于航空器的结构强度计算,并由于其方便性、实用性和有效性而引起从事力学研究的科学家的浓厚兴趣。经过短短数十年的努力,随着计算机技术的快速发展和普及,有限元方法迅速从结构工程强度分析计算扩展到几乎所有的科学技术领域,成为一种丰富多彩、应用广泛并且实用高效的数值分析方法。
由于FEA的种种优点,进而使得基于FEA的拓扑优化成为一种优化精度高效果好的优化方法。然而,由于FEA计算的数据量大,迭代次数多,所以,基于FEA的拓扑优化的运算量非常大,需要的时间也较长。对于电子产品而言,其设计周期和生命周期都很短,因此需要在短时间内尽可能的实现优化的效果,所以,在电子产品的结构优化过程中,基于FEA的拓扑优化的优势无法得到充分发挥。
而近些年来,随着各种神经网络的成熟和广泛应用,神经网络的优势也越来越明显,神经网络可以根据实际的需要进行网络参数调整,并且,神经网络对于大批量的输入数据而言,其运算量有大幅度的削减,相应地,神经网络的运算时间也较短,并且,由于神经网络类型众多,可调整性好,适应性强,通过神经网络进行数据处理而得到的结果,也往往令人满意。
基于此,本发明实施例提供了一种数据处理方法,该数据处理方法,可以是基于计算机的处理器和数据存储器来实现的。如图1所示,具体地,本发明提供的数据处理方法包括以下步骤:
步骤101、获取样本数据。
其中,样本数据表示与待优化结构区域对应的特征数据集合。
在步骤101中,待优化结构区域,用于表示电子设备需要进行结构优化的物理区域,并且,该物理区域由一定的化学材料组成,该化学材料可以是单一成分的,也可以是多种成分的组合。
在一种实施方式中,待优化结构区域,是指具备一定形状,具有一定面积的区域。
在步骤101中,与待优化结构区域对应的特征数据集合,用于表示与待优化结构的物理区域对应的若干种特征数据的集合。在一种实施方式中,特征数据集合,可以包括第一种类型的特征数据、第二种类型的特征数据以及第三种类型的特征数据中的一种或几种。
在步骤101中,样本数据表征了待优化结构区域对应的特征数据集合,因此,通过采集具有代表性特征的待优化结构的特征数据集合,就可以得到大量的样本数据,这些离散的样本数据,就可以充分的体现出待优化结构区域的各个方面的特性。
具体地,如图2所示,本发明实施例中的样本数据,可以是与图2中的设计域对应的各种数据,比如图2中的载荷、边界条件以及材料分量等。
其中,设计域,是指需要进行结构优化设计的空间;载荷,可以指使结构或构件产生内力和变形的外力及其它因素,比如受热、受冷、受潮或者气压等因素。
边界条件,可以是形变自由度阈值和力的负载度阈值,在实际的分析中,边界条件,还可以是发热速率阈值、散热速度阈值以及发热频率阈值等。
在一种实施方式中,边界条件是可以根据实际需要设定的。具体地,可以根据结构优化的面积、结构优化区域的材料以及成本等因素进行限定。
材料分量,可以是杨氏模量和泊松比等,其中,杨氏模量,是描述固体材料抵抗形变能力的物理量,泊松比,泊松比是指材料在单向受拉或受压时,横向正应变与轴向正应变的绝对值的比值,也叫横向变形系数,它是反映材料横向变形的弹性常数。
步骤102、对样本数据进行结构优化运算,得到第一结构图。
在步骤102中,结构优化运算,可以是基于FEA的拓扑结构优化。相应地,对样本数据进行结构优化运算,就是对与待优化结构区域的样本数据进行拓扑结构优化运算。基于前文中对拓扑结构优化的说明,由此得到的第一结构图,是可以精确的反应出最佳结构优化效果的结构图。
在一种实施方式中,基于FEA的拓扑结构优化,可以是对样本数据基于图2中的拓扑优化代码进行优化计算。
在一种实施方式中,结构优化运算,不限于拓扑结构优化,还可以是其他成熟的结构优化方式。目前连续体拓扑优化方法主要有均匀化方法、变密度法、渐进结构优化法、水平集方法等;离散结构拓扑优化主要是在基结构方法基础上采用不同的优化策略(算法)进行求解,比如程耿东的松弛方法,基于遗传算法的拓扑优化等。
具体地,在一种实施方式中,对样本数据执行拓扑结构优化得到的第一结构图,可以是图2中的低分辨率优化结构图。
需要说明的是,可以对拓扑结构优化的过程进行设定,对同样的样本数据,可以分别得到分辨率不同的优化结构图,如图2中的低分辨率优化结构图和高分辨率优化结构图。
步骤103、基于第一神经网络对样本数据进行处理,得到第一输出数据。
其中,第一神经网络用于提取样本数据的结构特征信息。
在步骤103中,第一神经网络,可以是能够提取出样本数据中的结构特征的神经网络。相应地,基于第一神经网络对样本数据进行处理,可以是对样本数据进行结构特征提取,也就是说,基于第一神经网络,对与待优化结构区域对应的样本数据进行结构优化过程。相应地,得到的第一输出数据,即为基于第一神经网络进行结构优化后的数据。
在一种实施方式中,第一神经网络,可以是卷积神经网络(Convolutional NeuralNetworks,CNN)。
其中,CNN是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。卷积神经网络具有表征学习能力,能够按其阶层结构对输入信息进行平移不变分类,因此也被称为“平移不变人工神经网络。卷积神经网络仿造生物的视知觉机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化特征,例如像素和音频进行学习、有稳定的效果且对数据没有额外的特征工程要求。
一般地,CNN的基本结构包括两层:特征提取层和特征映射层。
由于在CNN中,每个神经元的输入与前一层的局部接受域相连,因此,特征提取层用于提取局部的特征,一旦该局部特征被提取后,它与其它特征间的位置关系也随之被确定下来。其中,卷积层的功能就是对输入CNN的数据进行特征提取。
CNN的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等,此时,特征映射层,采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。
在一种实施方式中,相应地,第一输出数据,可以是卷积神经网络对样本数据进行特征提取和特征映射之后得到的结构优化数据。
具体地,在一种实施方式中,基于CNN对样本数据进行处理,得到第一输出数据,可以通过图3所示的样本数据处理流程图来实现。在图3中,首先将设计域对应的样本数据进行分类,即载荷和边界条件对应的第一类样本数据进行转化,并将转化后的第一类样本数据直接加入到第一神经网络中,并同时将第二类样本数据即材料分量数据加入到第一神经网络中进行计算,得到一张低分辨率预测结构图,即第一输出数据。
在一种实施方式中,可以将不同的样本数据依次输入不同的CNN特征提取层中,并将特征提取的结果进行特征映射,最终得到分辨率预测结构图。
步骤104、基于第一输出数据与第一结构图的差异,调整第一神经网络的网络参数。
在步骤104中,调整第一神经网络的网络参数,可以通过调整第一神经网络特征提取层和/或特征映射层的参数的方式来实现。
在步骤104中,第一输出数据,是CNN输出的低分辨率预测结构图,第一结构图,是基于FEA的拓扑优化之后得到的低分辨率优化结构图。基于前文的说明,可知第一结构图的精确度必然要高于第一输出数据的精确度,但是,由于CNN强大而独特的特征提取功能,并且,基于CNN可以调整和训练的特性,可以基于第一结构图与第一输出数据之间的差异,对CNN进行调整和训练,以使得训练之后的CNN输出的第一输出数据可以无限接近第一结构图。
具体地,在一种实施方式中,如图3所示,基于第一输出数据与第一结构图的差异,调整第一神经网络的参数,可以比较低分辨率预测结构图即第一输出数据,与低分辨率优化结构图即第一结构图之间的绝对误差的方式来实现。
在一种实施方式中,基于第一输出数据与第一结构图的差异,调整第一神经网络的参数的方式,还可以是基于第一输出数据与第一结构图之间的其他误差计算方法,比如加权平均值误差等。
本发明实施例提供的数据处理方法,对样本数据进行结构优化运算,得到第一结构图,然后基于第一神经网络对样本数据进行处理,得到第一输出数据,最后基于第一输出数据与第一结构图的差异,调整第一神经网络的网络参数。因此,在本发明实施例提供的数据处理方法实现的过程中,可以基于样本数据与精确度高的优化结构图之间的差异调整第一神经网络的网络参数,因此,对第一神经网络的网络参数调整,更能反应出样本数据的特性,从而使得后续基于第一神经网络的结构优化更能与实际需求相符合。
基于前述实施例,本发明提出了一种数据处理方法,如图4所示,该数据处理方法包括以下步骤:
步骤401、获取样本数据。
步骤402、对样本数据进行结构优化运算,得到第一结构图。
步骤403、获取样本数据的至少两个数据分量。
在步骤403中,样本数据可以包括至少两个数据分量,如图2以及图3所示,样本数据可以包括载荷分量、边界条件分量以及材料分量中的任意至少两个分量。
在一种方式中,样本数据的至少两个数据分量,可以包括第一数据分量、第二数据分量和第三数据分量,其中,第一数据分量可以用于表示样本数据的载荷分量,第二数据分量可以用于表示样本数据的边界条件分量,第三数据分量可以用于表示样本数据的材料分量。
在一种实施方式中,样本数据的至少两个数据分量,还可以包括除去以上几种数据分量的其他数据分量,比如第一方向的载荷分量,第二方向的载荷分量、第三方向的载荷分量;相应地,还可以包括第一方向的边界条件分量、第二方向的边界条件分量以及第三方向的边界条件分量;相应地,还可以包括第一方向的材料分量、第二方向的材料分量和第三方向的材料分量。
在一种实施方式中,样本数据的数据分量,还可以包括除了材料分量、边界条件分量以及载荷分量之外的其他分量,比如频率响应分量、辐射屏蔽分量等。
步骤404、基于第一神经网络的不同输入层分别对至少两个数据分量进行处理,得到至少两个数据分量的处理结果。
在步骤404中,第一神经网络的不同输入层,具体地,可以是CNN的多个特征提取层。
在一种实施方式中,可以基于样本数据中数据分量的个数来选择和设置CNN的层数,比如图2和图3中,样本数据中数据分量为三个,则可以选择和设置CNN的层数至少为3层。若样本数据中数据分量为4个,或者N个,则可以相应地选择和设置CNN的层数为4个,或者N个,其中N为大于4的整数。
在一种实施方式中,步骤404可以通过图3来实现,首先,将样本数据的第一类的数据分量进行转化,具体转化的过程可以如图5所示。在图5中,以载荷分量中的受力分量为例对数据分量的转化进行了说明。
对待优化结构区域而言,或者对设计域而言,有效的物理区域至少为二维空间,或者,三维空间,那么,在该物理区域中,除了绝对标量,即材料分量之外,其他任何具有二维或三维特性的数据都可以再次分解为对应分量的二维子分量或者,三维子分量。
具体地,如图5所示,可以将载荷分量中的受力分量,分解为x方向力分量,y方向力分量,以及z方向力分量。同时,为了数字运算的方便,需要将待优化结构区域,或者设计域,在不同的分量上离散化,即图5中的一个一个的小型方格,那么,在y方向上,如果某一点有受力,则可以将该点的值设置为1,若该点不会受力,则该点的值设置为0,如图5中上图右下角的黄色部分,最右下角的离散点的值为1,其他区域的值均为0;若某一条线上均会受力,则将该线条上的值均设置为1,其他不会受力的区域可以设置为0,如图5中下图左侧的填充1的线条部分。
当然,在实际的分析过程中,对样本数据任一数据分量的转化都需要根据实际需要而进行设置和调整。图5仅仅是针对图3中转化数据分量这一操作做示例性的解释。
对于绝对标量的样本数据分量,例如材料分量,可以直接加入CNN中。
步骤405、基于第一神经网络对至少两个数据分量的处理结果进行处理,得到第一输出数据。
基于步骤404的说明,在步骤405中,相应地,基于第一神经网络的不同输入层分别对至少两个数据分量进行处理,得到的至少两个数据分量的处理结果,可以是图3中的第一输出数据。
步骤406、对第一输出数据和第一结构图进行运算,得到第一运算结果。
在步骤406中,第一输出数据,是通过第一神经网络对样本数据进行计算的结果,第一结构图,是通过拓扑优化对样本数据结构优化的结果。
第一运算结果,可以用于表示第一输出数据与第一结构图之间的差异,相应地,第一运算结果,还可以用于表示第一神经网络与基于FEA的拓扑优化方法之间的差异。
在一种实施方式中,第一运算结果,可以是与样本数据的个数对应个数的数据集合,还可以是单独一个具体的数据。
在一种实施方式中,第一运算结果,可以是根据一定的算法得到的,比如图3中的平均绝对误差算法,即将第一输出数据与第一结构图中与待优化结构区域或者,设计域对应坐标点上的值分别做平均绝对误差计算,得到一个平均绝对误差矩阵。
步骤407、获取预设运算结果。
在步骤407中,预设运算结果,是第一输出数据与第一结构图之间的预先设定的目标差异。
基于前文中的说明可知,通过调整第一神经网络的网络参数,只能让第一神经网络针对样本数据处理后得到的第一输出数据无限接近第一结构图,但是无法完全相同,因此,可以设定一个第一输出数据与第一结构图之间的误差阈值,即预设运算结果。
在一种实施方式中,预设运算结果,是可以根据不同的结构优化需求设定的。
步骤408、基于第一运算结果与预设运算结果的差异,调整第一神经网络的网络参数。
在步骤408中,第一运算结果与预设运算结果之间的差异,可以是一个整数,即标量,还可以是一个二维或三维的相量,即矩阵。
在一种实施方式中,若第一运算结果与预设运算结果之间的差异明显,则可以以较大的步幅调整第一神经网络的网络参数;反之,则可以以较小的步幅微调第一神经网络的网络参数。
在一种实施方式中,若第一运算结果与预设运算结果之间差异表明某一特征提取层的特征提取效果不明显,则可以有针对性的调整该特征提取层的网络参数;相应地,若上述差异表明某几个特征提取层的特征提取效果不明显,则可以有针对性的调整某几个特征提取层的网络参数。
在一种实施方式中,若第一运算结果与预设运算结果之间差异表明某一特征映射层的特征提取效果不明显,则可以有针对性的调整该特征映射层的网络参数;相应地,若上述差异表明某几个特征映射层的特征提取效果不明显,则可以有针对性的调整某几个特征映射层的网络参数。
在一种实施方式中,还可以根据上述差异的特性对某一个或某几个特征提取层和特征映射层的组合进行调整。
在一种实施方式中,步骤408还可以通过如下方式来实现:
获取预设误差阈值;若第一运算结果与预设运算结果的差值大于所述预设误差阈值,调整所述第一神经网络的网络参数。
其中,预设误差阈值,可以用于表示第一运算结果与预设运算结果之间能够满足需求的误差,具体地,可以是一个能够满足实际使用的需求的一个误差的上限。
在一种实施方式中,若第一预算结果与预设运算结果之间的差值小于预设误差阈值,则停止调整第一神经网络的网络参数,并基于该网络参数执行后续的结构优化计算过程。
在一种实施方式中,若第一运算结果与预设运算结果之间的差值大于预设误差阈值,则可以按照前述实施例中的第一神经网络的网络参数的调整方法,继续对第一神经网络的网络参数进行调整。
在本发明实施例提供的数据处理方法中,通过比较拓扑优化的结构优化结果,即第一结构图与第一神经网络的结构优化结果,即第一输出数据之间的差异,对第一神经网络的网络参数进行调整,可以使得对第一神经网络的调整更加精准,从而保证后续基于第一神经网络进行结构优化的优化结果效果可以保证,并且,还可以降低运算成本,缩短优化周期。
基于前述实施例,本发明提供了一种数据处理方法,如图6所示,该方法包括如下步骤:
步骤601、获取样本数据;
步骤602、对样本数据进行结构优化运算,得到第一结构图;
步骤603、基于第一神经网络对样本数据进行处理,得到第一输出数据;
步骤604、基于第一输出数据与第一结构图的差异,调整第一神经网络的网络参数;
步骤605、对样本数据进行结构优化运算,得到第二结构图。
其中,第二结构图的分辨率高于第一结构图的分辨率。
在步骤605中,对样本数据进行结构优化运算,是通过基于FEA的拓扑结构优化方法进行的,相应地,得到的第二结构图,如图2中右侧的高分辨率优化结构图所示;如图7中的第二结构图。
其中,第二结构图的分辨率高于第一结构图的分辨率。
对于拓扑结构优化方法而言,通过对优化参数的微调,即可以获得不同分辨率的结构优化结果。第一结构图和第二结构图的获得,属于成熟的现有技术,本发明对此不再赘述。
步骤606、基于网络参数调整后的第一神经网络对样本数据进行处理,得到第一优化结构图。
在步骤606中,网络参数调整后的第一神经网络,是可以使得其输出的第一输出数据与第一结构图之间的差异满足预设误差阈值的神经网络。相应地,基于该第一神经网络对样本数据进行处理,得到的第一优化结构图,与第一结构图之间的差异,是可以满足预设误差阈值的。
在一种实施方式中,第一神经网络,可以是参数调整至满足需求的CNN,第一优化结构图,可以是图7中的最左侧的第一优化结构图。
步骤607、基于第二神经网络对第一优化结构图进行处理,得到第二输出数据。
在步骤607中,第二神经网络,可以是具备对低分辨率图片进行处理,得到高分辨率图片的神经网络。
在一种实施方式中,第二神经网络,可以是生成式对抗网络(GAN,GenerativeAdversarial Networks)的生成模型部分。其中,GAN是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。GAN中通常包括两个模块:生成模型(GenerativeModel)和判别模型(Discriminative Model),这两个模块的互相博弈学习,会使得GAN产生相当好的输出。
在原始的GAN理论中,并不要求生成模型和判别模型都是神经网络,只需要是能拟合相应生成和判别的函数即可。但实用中一般均使用深度神经网络作为生成模型和判别模型,因此,又称为生成网络和判别网络。一个优秀的GAN需要有良好的训练方法,否则可能由于神经网络模型的自由性而导致输出不理想。
在实际应用中,判别网络,用于判别一张图片是不是“真实的”,假如它的输入参数是x,x代表一张图片,输出D(x)代表x为真实图片的概率,如果为1,就代表100%是真实的图片,而输出为0,就代表不可能是真实的图片;而生成网络,是一个生成图片的网络,它可以接收一个随机的噪声z,通过这个噪声生成图片,记做G(z)。
在训练过程中,生成网络的目标就是生成尽量真实的图片去欺骗判别网络。而判别网络的目标就是尽量把生成网络生成的图片与真实的图片区分开来。这样,生成网络和判别网络的上述生成并判断的过程就构成了一个动态的“博弈过程”。
在最理想的状态下,生成网络可以生成足以“以假乱真”的图片G(z)。对于判别网络来说,它难以判定生成网络生成的图片究竟是不是真实的,因此D(G(z))=0.5。
在本发明实施例中,第二神经网络,可以是上述生成网络,即图7中的第三神经网络,又称为图片生成器。
在步骤607中,第二神经网络的输入数据为第一优化结构图。相应的,第二神经网络即生成网络,对第一优化结构图进行处理之后,可以得到像素提高了的图片,即第二输出数据。其中,第二输出数据为图7中的第二输出数据,即高分辨率预测结构图。
在图7中可以清楚的看到,经过第二神经网络对第一优化结构图处理之后的第二输出数据,即高分辨率预测结构图的清晰度,要高于第一优化结构图。
步骤608、基于第二输出数据与第二结构图的差异,调整第二神经网络的网络参数。
在步骤608中,基于第二输出数据与第二结构图之间的差异,调整第二神经网络的网络参数,可以采用步骤408中的方法来实现。
在一种实施方式中,步骤608,还可以通过如下方式来实现:
鉴别第二输出数据与第二结构图,得到鉴别结果;若鉴别结果表示第二输出数据与第二结构图不匹配,调整第二神经网络的网络参数;其中,鉴别结果用于表示第二输出数据与第二结构图是否匹配;
其中,鉴别第二输出数据与第二结构图,得到鉴别结果,可以是GAN中的判别网络来实现的。如图7所示,分别将第二输出数据即高分辨率预测结构图,以及第二结构图即高分辨率优化结构图输入至判别网络,判别网络对上述两张图片进行鉴别,得到鉴别结果。
若鉴别结果为0,即伪,则表明第二输出数据与第二结构图不匹配,即生成网络的网络参数不能满足需求,若判别结果为1,即真,则表明第二输出数据与第二结构图匹配,即生成网络的网络参数可以满足需求。
若鉴别结果为0,即伪,则表明需要调整第二神经网络的网络参数。对于GAN网络中的生成网络的网络参数调整属于现有技术,本发明实施例中对此不再赘述。
在本发明实施例中,当对GAN网络中的生成网络的网络参数调整至其输出的第二输出数据与第二结构图匹配后,还可以执行如下步骤:
获取待处理数据;其中,待处理数据是待优化结构区域的特征数据集合;基于参数调整后的第一神经网络对待处理数据进行处理,得到第三结构图;基于参数调整后的第二神经网络对第三结构图进行处理,得到第四结构图。
具体地,待处理数据,是与实际待优化结构区域对应的特征数据集合,上述步骤的实现过程可以如图8所示,在图8中,第一神经网络为参数调整后的第一神经网络,将设计域对应的样本数据输入至第一神经网络,得到第三结构图,其中,第三结构图为低分辨率结构图。再将第三结构图输入至第二神经网络,得到第四结构图,此时,第四结构图为高分辨率结构图。
在图8中,由于第一神经网络和第二神经网络的网络参数都是根据样本数据结构优化的需要进行过调整的,因此,基于第一神经网络和第二神经网络处理之后得到的第四结构图,可以满足实际结构优化的需要。
在本发明实施例提供的数据处理方法中,基于样本数据以及拓扑优化结构优化结果对第一神经网络和第二神经网络的网络参数进行调整,并基于参数调整后的第一神经网络和第二神经网络对样本数据执行结构优化,使得结构优化的运算量更少,优化效果更接近拓扑结构优化的结果,并且可以节省大量的时间成本。
基于前述实施例,本发明实施例提供了一种数据处理设备9,如图9所示,该数据处理设备9,包括处理器91、通信总线93和存储器92,其中,
通信总线93,用于实现处理器91和存储器92之间的通信连接。
处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
获取样本数据;其中,样本数据表示与待优化结构区域对应的特征数据集合;
对样本数据进行结构优化运算,得到第一结构图;
基于第一神经网络对样本数据进行处理,得到第一输出数据;其中,第一神经网络用于提取样本数据的结构特征信息;
基于第一输出数据与第一结构图的差异,调整第一神经网络的网络参数。
在本发明其他实施例中,处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
基于第一神经网络对样本数据进行处理,得到第一输出数据,包括:
获取样本数据的至少两个数据分量;
基于第一神经网络的不同输入层分别对至少两个数据分量进行处理,得到至少两个数据分量的处理结果;
基于第一神经网络对至少两个数据分量的处理结果进行处理,得到第一输出数据。
至少两个数据分量包括第一数据分量、第二数据分量和第三数据分量;其中,第一数据分量用于表示样本数据的载荷分量;第二数据分量用于表示样本数据的边界条件分量;第三数据分量用于表示样本数据的材料分量。
在本发明其他实施例中,处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
基于第一输出数据与第一结构图的差异,调整第一神经网络的网络参数,包括:
对第一输出数据和第一结构图进行运算,得到第一运算结果;其中,第一运算结果用于表示第一输出数据与第一结构图的量化差异;
获取预设运算结果;
基于第一运算结果与预设运算结果的差异,调整第一神经网络的网络参数。
在本发明其他实施例中,处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
基于第一运算结果与预设运算结果的差异,调整第一神经网络的网络参数,包括:
获取预设误差阈值;
若第一运算结果与预设运算结果的差值大于预设误差阈值,调整第一神经网络的网络参数。
在本发明其他实施例中,处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
基于第一输出数据与第一结构图的差异,调整第一神经网络的网络参数之后,还包括:
对样本数据进行结构优化运算,得到第二结构图;其中,第二结构图的分辨率高于第一结构图的分辨率;
基于网络参数调整后的第一神经网络对样本数据进行处理,得到第一优化结构图;
基于第二神经网络对第一优化结构图进行处理,得到第二输出数据;
基于第二输出数据与第二结构图的差异,调整第二神经网络的网络参数。
在本发明其他实施例中,处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
基于第二输出数据与第二结构图的差异,调整第二神经网络的网络参数,包括:
鉴别第二输出数据与第二结构图,得到鉴别结果;其中,鉴别结果用于表示第二输出数据与第二结构图是否匹配;
若鉴别结果表示第二输出数据与第二结构图不匹配,调整第二神经网络的网络参数。
在本发明其他实施例中,处理器91用于执行存储器92中存储的信息处理方法程序,以实现如下步骤:
获取待处理数据;其中,待处理数据是待优化结构区域的特征数据集合;
基于参数调整后的第一神经网络对待处理数据进行处理,得到第三结构图;
基于参数调整后的第二神经网络对第三结构图进行处理,得到第四结构图。
在本发明实施例提供的数据处理设备中,基于样本数据以及拓扑优化结构优化结果对第一神经网络和第二神经网络的网络参数进行调整,并基于参数调整后的第一神经网络和第二神经网络对样本数据执行结构优化,使得结构优化的运算量更少,优化效果更接近拓扑结构优化的结果,并且可以节省大量的时间成本。
基于前述实施例,本发明还提供了一种计算机可读存储介质,该介质存储有一个或多个程序,该一个或多个程序可以被一个或多个处理器执行,以实现前述实施例中所提供的数据处理方法的步骤。
需要说明的是,上述计算机可读存储介质可以是只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种电子设备,如移动电话、计算机、平板设备、个人数字助理等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所描述的方法。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种数据处理方法,所述方法包括:
获取样本数据;其中,所述样本数据表示与待优化结构区域对应的特征数据集合;
对所述样本数据进行结构优化运算,得到第一结构图;
基于第一神经网络对所述样本数据进行处理,得到第一输出数据;其中,所述第一神经网络用于提取所述样本数据的结构特征信息;
基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数。
2.根据权利要求1所述的方法,其特征在于,所述基于第一神经网络对所述样本数据进行处理,得到第一输出数据,包括:
获取所述样本数据的至少两个数据分量;
基于所述第一神经网络的不同输入层分别对所述至少两个数据分量进行处理,得到所述至少两个数据分量的处理结果;
基于所述第一神经网络对所述至少两个数据分量的处理结果进行处理,得到第一输出数据。
3.根据权利要求2所述的方法,其特征在于,所述至少两个数据分量包括第一数据分量、第二数据分量和第三数据分量;其中,所述第一数据分量用于表示所述样本数据的载荷分量;所述第二数据分量用于表示所述样本数据的边界条件分量;所述第三数据分量用于表示所述样本数据的材料分量。
4.根据权利要求1所述的方法,其特征在于,所述基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数,包括:
对所述第一输出数据和所述第一结构图进行运算,得到第一运算结果;其中,所述第一运算结果用于表示所述第一输出数据与所述第一结构图的量化差异;
获取预设运算结果;
基于所述第一运算结果与所述预设运算结果的差异,调整所述第一神经网络的网络参数。
5.根据权利要求4所述的方法,其特征在于,所述基于所述第一运算结果与所述预设运算结果的差异,调整所述第一神经网络的网络参数,包括:
获取预设误差阈值;
若所述第一运算结果与所述预设运算结果的差值大于所述预设误差阈值,调整所述第一神经网络的网络参数。
6.根据权利要求1所述的方法,其特征在于,所述基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数之后,还包括:
对所述样本数据进行结构优化运算,得到第二结构图;其中,所述第二结构图的分辨率高于所述第一结构图的分辨率;
基于网络参数调整后的第一神经网络对所述样本数据进行处理,得到第一优化结构图;
基于第二神经网络对所述第一优化结构图进行处理,得到第二输出数据;
基于所述第二输出数据与所述第二结构图的差异,调整所述第二神经网络的网络参数。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第二输出数据与所述第二结构图的差异,调整所述第二神经网络的网络参数,包括:
鉴别所述第二输出数据与所述第二结构图,得到鉴别结果;其中,所述鉴别结果用于表示所述第二输出数据与所述第二结构图是否匹配;
若所述鉴别结果表示所述第二输出数据与所述第二结构图不匹配,调整所述第二神经网络的网络参数。
8.根据权利要求6或7所述的方法,其特征在于,所述方法还包括:
获取待处理数据;其中,所述待处理数据是待优化结构区域的特征数据集合;
基于参数调整后的所述第一神经网络对所述待处理数据进行处理,得到第三结构图;
基于所述参数调整后的所述第二神经网络对所述第三结构图进行处理,得到第四结构图。
9.一种数据处理设备,其特征在于,所述设备包括:处理器、存储器和通信总线;
所述通信总线用于实现处理器和存储器之间的通信连接;
所述处理器用于执行存储器中的数据处理方法的程序,以实现以下步骤:
获取样本数据;其中,所述样本数据用于表示与待优化结构区域对应的特征数据集合;
对所述样本数据进行结构优化运算,得到第一结构图;
基于第一神经网络对所述样本数据进行处理,得到第一输出数据;其中,所述第一神经网络用于提取所述样本数据的结构特征信息;
基于所述第一输出数据与所述第一结构图的差异,调整所述第一神经网络的网络参数。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1至8中任一项所述的数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911184372.3A CN111105014B (zh) | 2019-11-27 | 2019-11-27 | 一种数据处理方法、设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911184372.3A CN111105014B (zh) | 2019-11-27 | 2019-11-27 | 一种数据处理方法、设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111105014A CN111105014A (zh) | 2020-05-05 |
CN111105014B true CN111105014B (zh) | 2024-05-28 |
Family
ID=70421502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911184372.3A Active CN111105014B (zh) | 2019-11-27 | 2019-11-27 | 一种数据处理方法、设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111105014B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343427B (zh) * | 2021-05-11 | 2022-08-05 | 华中科技大学 | 一种基于卷积神经网络的结构拓扑构型预测方法 |
CN113836291B (zh) * | 2021-09-29 | 2023-08-15 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063291A (zh) * | 2018-07-20 | 2018-12-21 | 西安交通大学 | 机电装备冷却通道结构智能化拓扑优化设计方法 |
CN109117954A (zh) * | 2018-08-13 | 2019-01-01 | 北京理工大学 | 基于混合径向基神经网络的黑箱系统设计优化方法 |
CN109313670A (zh) * | 2016-04-27 | 2019-02-05 | 内部科技有限责任公司 | 在计算机辅助设计应用中生成晶格建议的方法和系统 |
CN109783910A (zh) * | 2018-12-29 | 2019-05-21 | 西安交通大学 | 一种利用生成对抗网络加速的结构优化设计方法 |
CN110276148A (zh) * | 2019-06-27 | 2019-09-24 | 上海交通大学 | 基于自编码器的微结构降维特征提取及重构实现方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7516423B2 (en) * | 2004-07-13 | 2009-04-07 | Kimotion Technologies | Method and apparatus for designing electronic circuits using optimization |
US11676004B2 (en) * | 2017-08-15 | 2023-06-13 | Xilinx, Inc. | Architecture optimized training of neural networks |
-
2019
- 2019-11-27 CN CN201911184372.3A patent/CN111105014B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109313670A (zh) * | 2016-04-27 | 2019-02-05 | 内部科技有限责任公司 | 在计算机辅助设计应用中生成晶格建议的方法和系统 |
CN109063291A (zh) * | 2018-07-20 | 2018-12-21 | 西安交通大学 | 机电装备冷却通道结构智能化拓扑优化设计方法 |
CN109117954A (zh) * | 2018-08-13 | 2019-01-01 | 北京理工大学 | 基于混合径向基神经网络的黑箱系统设计优化方法 |
CN109783910A (zh) * | 2018-12-29 | 2019-05-21 | 西安交通大学 | 一种利用生成对抗网络加速的结构优化设计方法 |
CN110276148A (zh) * | 2019-06-27 | 2019-09-24 | 上海交通大学 | 基于自编码器的微结构降维特征提取及重构实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111105014A (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Clustering discretization methods for generation of material performance databases in machine learning and design optimization | |
Sun et al. | Fast object detection based on binary deep convolution neural networks | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN111105014B (zh) | 一种数据处理方法、设备和计算机可读存储介质 | |
CN111738351A (zh) | 模型训练方法、装置、存储介质及电子设备 | |
CN113177290B (zh) | 基于深度代理模型归一化的卫星组件温度场预测方法 | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
CN115512005A (zh) | 一种数据处理方法及其装置 | |
CN112364974B (zh) | 一种基于激活函数改进的YOLOv3算法 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN111401473A (zh) | 基于注意力机制卷积神经网络的红外目标分类方法 | |
CN117454668B (zh) | 零部件失效概率的预测方法、装置、设备和介质 | |
CN115439708A (zh) | 一种图像数据处理方法和装置 | |
CN115830462B (zh) | 基于循环一致性对抗网络的sar图像重构方法及装置 | |
CN116663388A (zh) | 粮堆温度预测方法、装置、设备及存储介质 | |
CN116721327A (zh) | 一种基于泛化界的神经网络架构搜索方法 | |
CN115545164A (zh) | 光伏发电功率预测方法、系统、设备及介质 | |
CN115471516A (zh) | 基于生成网络的光学-雷达isar图像转换方法及装置 | |
CN111931615B (zh) | 一种机器人目标识别方法、系统、装置和存储介质 | |
Ayzel | Deep neural networks in hydrology: the new generation of universal and efficient models | |
Li et al. | An image-driven uncertainty inverse method for sheet metal forming problems | |
Wang et al. | Variational auto-encoder based approximate bayesian computation uncertian inverse method for sheet metal forming problem | |
EP4325388B1 (en) | Machine-learning for topologically-aware cad retrieval | |
CN112801058B (zh) | Uml图片的识别方法及系统 | |
CN111612139B (zh) | 一种神经网络模型训练方法、系统、设备及计算机介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |