CN115546498B - 一种基于深度学习的流场时变数据的压缩存储方法 - Google Patents

一种基于深度学习的流场时变数据的压缩存储方法 Download PDF

Info

Publication number
CN115546498B
CN115546498B CN202211195748.2A CN202211195748A CN115546498B CN 115546498 B CN115546498 B CN 115546498B CN 202211195748 A CN202211195748 A CN 202211195748A CN 115546498 B CN115546498 B CN 115546498B
Authority
CN
China
Prior art keywords
flow field
time
model
course
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211195748.2A
Other languages
English (en)
Other versions
CN115546498A (zh
Inventor
战庆亮
白春锦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202211195748.2A priority Critical patent/CN115546498B/zh
Publication of CN115546498A publication Critical patent/CN115546498A/zh
Application granted granted Critical
Publication of CN115546498B publication Critical patent/CN115546498B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Abstract

本发明提供一种基于深度学习的流场时变数据的压缩存储方法,包括以下步骤:基于测点的原始流场时程数据的测量;基于深度学习的流场数据特征提取与压缩;基于时程特征编码的流场低维表征与存储;基于编码与解码器的流场时变数据还原技术。本发明采用深度学习方法对流场时变特征进行提取与压缩,与传统采用图像存储等方法具有根本的不同,由于本方法采用了全新的数据类型进行流场存储,克服了传统方法中无法准确保留时变特征的缺点,是一种精度高、时变特征还原准确的方法。

Description

一种基于深度学习的流场时变数据的压缩存储方法
技术领域
本发明涉及技术领域,具体而言,尤其涉及基于流场速度分量时程的水下物体外形识别的深度学习方法。
背景技术
流场数据的获取与分析是多种学科与行业关注的基本问题之一。目前,模型试验、现场实测和数值模拟是流场数据获取的主要途径,然而直接获取与存储高空间分辨率桥面绕流数据仍受到一些限制。一个重要的原因是较高雷诺数的流场数值模拟需要较多的网格来准确计算三维非定常湍流场,整场结果数据的完整存储与分析难以直接实现。
由于流场的空间变化非常复杂,其中包含了大大小小的流动结构,如涡等。并且在高雷诺数情况下流场的时变特征也异常复杂,因此流场数据的存储不但要考虑大空间范围内的多个测点,同时也要保证时变特性的准确保留。
常用的流场降维方法可实现数据的压缩,如本征正交分解方法,其做法是将流场数据分解为有限个非线性特征向量和对应特征值的表征,达到了降维分析的目的;而动态模态分解法方法则对处理时变问题具有更大的优势,从Koopman变换的角度将非线性的时变问题近似为线性变换过程,以此建立低维模型简化流动特征分析的难度。然而这些基于矩阵分解的方法对非线性强的湍流问题研究难度大,主要原因是采用线性变换难以完备地描述非线性湍流特征。
作为处理复杂数据的高效方法,深度学习已经在湍流得到了越来越多的应用。然而,无论采用何种方法建立稀疏测点与整场数据的关联,模型在训练过程中都需要高分辨率的流场快照作为有监督学习的输入数据,因而大大限制了模型的使用价值。
在实测中,我们往往更容易得到测点的流场时程数据,然而这种数据类型是复杂的,难以通过传统数据方法推导其特征进行数据压缩,因此其压缩存储、高保真还原技术尚无,本发明即针对此问题开展。
发明内容
根据上述背景技术中提到的技术问题,而提供一种基于深度学习的流场时变数据的压缩存储方法。本发明主要利用一种基于深度学习的流场时变数据的压缩存储方法,包括以下步骤:
步骤S1:实时获取待测试点的流场时变数据;即对已知流场进行流场时程样本进行测定,构成样本集合;
步骤S2:对所述步骤S1中的所述样本集合进行深度学习模型的训练,提取时程信号的特征并进行特征压缩;
步骤S3:基于所述步骤S2中的压缩特征得到用于流场时程特征低维表征的特征编码数据库;
步骤S4:基于特征编码与解码模型进行流场时变数据的高分辨率还原。较现有技术相比,本发明具有以下优点:
(1)本发明采用流场时程数据进行数据的特征提取,与基于瞬态快照的流动处理方法不同,由于本方法针对已知数据的各样本进行时变特征的提取与压缩,最终形成流场特征表征编码与解码模型,因此可以对时变特征进行特征的高保真还原,客服了其他方法中时变特征难以保留的缺点,是一种数据处理的全新方法;
(2)本方法所采用的数据为流场中的时程,可选择流场的速度时程、压力时程、涡量时程等,因此本方法的数据获取极为方便;
(3)本发明采用以时程信号进行特征提取与特征压缩,与传统流场的图像处理方法不同,由于时程数据处理时的空间分辨率可以较小,因此所需要的总的输入数据量小;同时所构建的深度学习网络参数少,识别计算速度快;
基于上述理由本发明可在流场数据压缩存储与还原等领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明具体实施方式中一种基于深度学习的流场时变数据的压缩存储技术流程图;
图2为本发明实施例中流场测点布置示意图;
图3为本发明中流场数据压缩的模型结构示意图;
图4为本发明实施例中模型误差变化图;
图5为本发明实施例中原始时程数据与还原所得的时程数据;
图6为本发明实施例中原始某一瞬态流场全场数据;
图7为本发明实施例中还原所得的瞬态流场全场数据。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1~7所示,本发明包含一种基于深度学习的流场时变数据的压缩存储技术,下面结合具体实施例进行进一步说明:
作为一种优选的实施方式,在本申请中,所说的深度学习方法具体包含以下步骤:
步骤S1:实时获取待测试点的流场时变数据;即对已知流场进行流场时程样本进行测定,构成样本集合;
步骤S2:对所述步骤S1中的所述样本集合进行深度学习模型的训练,提取时程信号的特征并进行特征压缩;
步骤S3:基于所述步骤S2中的压缩特征得到用于流场时程特征低维表征的特征编码数据库;
步骤S4:基于特征编码与解码模型进行流场时变数据的高分辨率还原。
具体地,步骤S1中基于测点的流场时变数据测量;即对已知流场进行流场时程样本进行测定;具体地,包括以下步骤:
步骤S11:首先确定待压缩的流场,根据应用范围选择某流场;作为一种优选的实施方式,在本实施例中,选择方形物体引发的尾部绕流作为待处理的流场,可以理解为在其他的实施方式中,具体的待处理的流场是按照实际情况决定的,并不固定。
步骤S12:通过风洞试验方法、水洞试验方法或者数值模拟方法,进行流场模拟。在本实施例中,通过数值模拟方法获取流场时程,对于风洞试验与水洞试验以及现场实测同样适用,本实施例中的数值模拟计算模型如图2所示。
步骤S13:选取目标流场,在目标流场的流场区域采用传感器获取流场时程。在本实施例中,每个传感器均可获得流场的顺流速度,本实施例中同时保存了速度分量时程。
步骤S14:移动传感器位置,重复步骤S13,获取更多位置处的速度时程,得到流场样本集W。作为优选的,本实施例中,具体的测点布置如图2所示,共布置了3600个传感器。作为一种优选的实施方式,在本申请中,W中共3600个样本,完成了步骤1中的样本测定。
进一步的,步骤2,对步骤S1中的样本集合W进行深度学习模型的训练,提取时程信号的特征并进行低维表征。
步骤S21:首先构建基于全卷积计算的自编码深度学习网络。本实施例中的模型结构如图3所示;模型输入层为一维流场分量时程信号;对输入层的时程信号进行卷积运算,得到模型的卷积层1;对卷积层1的输出数据再次进行卷积计算,得到模型的卷积层2;对卷积层2的输出数据进行全连接计算,得到模型的编码;对编码进行全连接计算,得到模型的反卷积层1;对反卷积层1的输出数据再次进行反卷积计算,得到模型的反卷积层2;对反卷积层2的输出数据进行反卷积计算,得到模型的输出层;
步骤S22:将流场速度时程W作为输入样本传递给自编码深度学习神经网络中;
作为一种优选的实施方式,本实施例中,将步骤S14中的3600条样本中所有的样本作为训练集,作为模型的输入层变量;
步骤S23:定义模型中单个样本的损失函数L:
对训练集中所有样本的损失值求平均即为总的损失值。其中,O表示模型的输出,即还原的时程,I表示模型的输入,即真实的已知时程,k表示时程的时刻标签,M为时程的长度;
步骤S24:进行迭代训练;步骤S23中的损失函数变小,得到能够表征流场的网络模型参数;
通过反向迭代消除输出的误差,使得模型收敛;本实施例中,共进行了550次迭代,步骤S23中的损失函数即足够小,满足精度要求,至此完成了模型的训练,结果如图4所示;
具体地,所述步骤S21具体采用以下方式实现,包括以下步骤:
步骤S211:模型输入层为一维流场分量时程信号;
步骤S212:对输层的时程信号进行卷积运算,得到模型的卷积层1;
步骤S213:对步骤S212中的输出数据再次进行卷积计算,得到模型的卷积层2;
步骤S214:对步骤S213中的输出数据进行全连接计算,得到模型的编码;
步骤S215:对步骤S214中的编码进行全连接计算,得到模型的反卷积层1;
步骤S216:对步骤S215中的输出数据进行反卷积,得到模型的反卷积层2;
步骤S217:对步骤S216中的输出数据进行反卷积计算,得到模型的输出层。
步骤S3:基于所述步骤S2中的压缩特征得到用于流场时程特征低维表征的特征编码数据库;
步骤S4:基于特征编码与解码模型进行流场时变数据的高分辨率还原。
步骤S31:建立样本时程坐标与所述步骤S2中所述深度学习模型编码的一一对应关系;
步骤S32:通过所述步骤S31中的模型编码、模型编码与坐标的对应关系,同所述步骤S21中的模型参数存储,实现流场的数据压缩。
进一步的,步骤S3,基于所述步骤S2中的压缩特征得到用于流场时程特征低维表征的特征编码数据库;具体地,包括以下的步骤:
步骤S31:建立样本时程坐标与所述步骤S2中所述深度学习模型编码的一一对应关系。
作为优选地,本实施例中,集合W中的各时程的坐标在模拟中进行了保留,模型编码在步骤S24中确定了,保存时程与各模型编码之间的对应关系。
在本实施例中,建立方柱流场测点坐标与编码之间的关系。
步骤S32:通过所述步骤S31中的模型编码、模型编码与坐标的对应关系,同所述步骤S21中的模型参数存储,实现流场的数据压缩。
在本实施例中,对步骤S24中的模型编码、步骤S31中的坐标映射关系与步骤S21中的模型参数进行存储,即为原流场时程数据库的压缩形式;。
进一步的,步骤S4,基于编码预测与低维表征模型的流场时变数据的高分辨率还原,包括以下的步骤:
步骤S41:将待还原的流场坐标在步骤S31的数据库中查找到对应的特征编码。步骤S42:根据计算输出的编码,将此特征编码作为S215中模型的输入,并计算得到步骤S217的模型输出,即为该测点处的流场时程数据还原结果,完成测点处时程样本的生成。
在本实施例中,将步骤S22中任意的测点坐标作为待生成的样本位置,,用来测试模型的精度。
将步骤S42所得到计算结果与步骤S22中已知的真实样本相比较,可检验模型的精度,举例6组样本如图5所示,发现模型准确还原了样本的复杂时变特征;同时,在其他位置处生成更多的样本,并取所有时程样本的任一相同时刻的数值进行可视化,如图6和7所示,结果表明图7中为模型的还原结果,与原始的真实流场瞬态云图高度一致。说明对于复杂的方柱流场,采用本方法可以对时程数据压缩为模型参数,实现了流场大数据压缩,且时变保真率高;在本实施例中,原始流场数据大小为272,756KB,压缩后数据大小为7,029KB,为原始数据的2.53%。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (1)

1.一种基于深度学习的流场时变数据的压缩存储方法,其特征在于,包括以下步骤:
步骤S1:实时获取待测试点的流场时变数据;即对已知流场进行流场时程样本进行测定,构成样本集合;
步骤S2:对所述步骤S1中的所述样本集合进行深度学习模型的训练,提取时程信号的特征并进行特征压缩;
步骤S3:基于所述步骤S2中的压缩特征得到用于流场时程特征低维表征的特征编码数据库;
步骤S4:基于特征编码与解码模型进行流场时变数据的高分辨率还原;
所述步骤S1中还包括以下步骤:
步骤S11:确定待压缩的流场,根据应用范围选择某流场;
步骤S12:根据风洞试验方法、水洞试验方法或者数值模拟方法,进行流场模拟;
步骤S13:选取目标流场,在目标流场的流场区域采用传感器获取流场时程;
步骤S14:移动传感器位置,重复步骤S13,获取更多位置处的速度时程,得到流场样本集W;
所述步骤S2中还包括以下步骤:
步骤S21:构建基于一维全卷积计算的自编码深度学习网络模型;
步骤S22:将流场时程作为输入样本传递给自编码深度学习神经网络中;
步骤S23:定义模型中单个样本的损失函数L:
对训练集中所有样本的损失值求平均即为总的损失值;其中,O表示模型的输出,即还原的时程,I表示模型的输入,即真实的已知时程,k表示时程的时刻标签,M为时程的长度;
步骤S24:进行迭代训练;
所述步骤S21具体采用以下方式实现,包括以下步骤:
步骤S211:模型输入层为一维流场分量时程信号;
步骤S212:对输层的时程信号进行卷积运算,得到模型的卷积层1;
步骤S213:对所述步骤S212中的输出数据再次进行卷积计算,得到模型的卷积层2;
步骤S214:对所述步骤S213中的输出数据进行全连接计算,得到模型的流场时程特征编码;
步骤S215:对所述步骤S214中的编码进行全连接计算,得到模型的反卷积层1;
步骤S216:对所述步骤S215中的输出数据进行反卷积,得到模型的反卷积层2;
步骤S217:对步骤S216中的输出数据进行反卷积计算,得到模型的输出层;
所述步骤S3中还包括以下步骤:
步骤S31:建立样本时程坐标与所述步骤S2中所述深度学习模型编码的一一对应关系;
步骤S32:通过所述步骤S31中的模型编码、模型编码与坐标的对应关系,同所述步骤S21中的模型参数存储,实现流场的数据压缩。
CN202211195748.2A 2022-09-28 2022-09-28 一种基于深度学习的流场时变数据的压缩存储方法 Active CN115546498B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211195748.2A CN115546498B (zh) 2022-09-28 2022-09-28 一种基于深度学习的流场时变数据的压缩存储方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211195748.2A CN115546498B (zh) 2022-09-28 2022-09-28 一种基于深度学习的流场时变数据的压缩存储方法

Publications (2)

Publication Number Publication Date
CN115546498A CN115546498A (zh) 2022-12-30
CN115546498B true CN115546498B (zh) 2023-10-17

Family

ID=84732127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211195748.2A Active CN115546498B (zh) 2022-09-28 2022-09-28 一种基于深度学习的流场时变数据的压缩存储方法

Country Status (1)

Country Link
CN (1) CN115546498B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767679A (zh) * 2020-07-14 2020-10-13 中国科学院计算机网络信息中心 时变矢量场数据的处理方法及装置
CN113537152A (zh) * 2021-08-19 2021-10-22 南京航空航天大学 一种基于深度神经网络的流场状态故障检测方法
CN113822201A (zh) * 2021-09-24 2021-12-21 大连海事大学 基于流场速度分量时程的水下物体外形识别的深度学习方法
CN113901927A (zh) * 2021-10-12 2022-01-07 大连海事大学 一种基于流场压力时程的水下物体外形识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150100609A1 (en) * 2013-10-07 2015-04-09 Brigham Young University Compression of time-varying simulation data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767679A (zh) * 2020-07-14 2020-10-13 中国科学院计算机网络信息中心 时变矢量场数据的处理方法及装置
CN113537152A (zh) * 2021-08-19 2021-10-22 南京航空航天大学 一种基于深度神经网络的流场状态故障检测方法
CN113822201A (zh) * 2021-09-24 2021-12-21 大连海事大学 基于流场速度分量时程的水下物体外形识别的深度学习方法
CN113901927A (zh) * 2021-10-12 2022-01-07 大连海事大学 一种基于流场压力时程的水下物体外形识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
战庆亮等.基于时程深度学习的复杂流场流动特性表征方法.《物理学报》.2022,第71卷(第22期),224701-1--224701-10. *

Also Published As

Publication number Publication date
CN115546498A (zh) 2022-12-30

Similar Documents

Publication Publication Date Title
CN110148103B (zh) 基于联合优化的高光谱和多光谱图像融合方法、计算机可读存储介质、电子设备
CN107644415A (zh) 一种文本图像质量评估方法及设备
CN111122162B (zh) 基于欧氏距离多尺度模糊样本熵的工业系统故障检测方法
CN108399248A (zh) 一种时序数据预测方法、装置及设备
US11443137B2 (en) Method and apparatus for detecting signal features
CN112884001B (zh) 碳钢石墨化自动评级方法和系统
CN111711820A (zh) 一种基于生成对抗网络的裂缝图像压缩采样方法
CN114662414B (zh) 一种基于图小波神经网络模型的油藏生产预测方法
CN113822201B (zh) 基于流场速度分量时程的水下物体外形识别的深度学习方法
CN115601661A (zh) 一种用于城市动态监测的建筑物变化检测方法
CN111753776B (zh) 基于回声状态与多尺度卷积联合模型的结构损伤识别方法
CN112766301A (zh) 一种采油机示功图相似性判断方法
CN104809471A (zh) 一种基于空间光谱信息的高光谱图像残差融合分类方法
CN113901927B (zh) 一种基于流场压力时程的水下物体外形识别方法
CN115205647A (zh) 一种基于注意力机制与多尺度特征融合的植物图像分割方法
CN110889207A (zh) 一种基于深度学习的体系组合模型可信度智能评估方法
CN116823664B (zh) 一种遥感图像云去除方法及系统
CN115546498B (zh) 一种基于深度学习的流场时变数据的压缩存储方法
CN115455838B (zh) 一种面向时程数据的高空间分辨率流场重构方法
Ni et al. Multi-meter intelligent detection and recognition method under complex background
CN111798531A (zh) 一种应用于植株监测的图像深度卷积压缩感知重构方法
CN112417709A (zh) 一种基于纹影图像的动力学模态分析方法
CN111898664B (zh) 一种基于Block-Bootstrap和多阶段聚类的桥梁模态参数自动识别方法
CN115062656B (zh) 一种基于电子鼻信号空间域的茶多酚含量预测方法和装置
CN109903289B (zh) 一种太赫兹图像无损检测的方法、装置以及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant