CN114255183A - 数据与知识联合驱动的智能计算光学成像方法 - Google Patents
数据与知识联合驱动的智能计算光学成像方法 Download PDFInfo
- Publication number
- CN114255183A CN114255183A CN202111550711.2A CN202111550711A CN114255183A CN 114255183 A CN114255183 A CN 114255183A CN 202111550711 A CN202111550711 A CN 202111550711A CN 114255183 A CN114255183 A CN 114255183A
- Authority
- CN
- China
- Prior art keywords
- result
- network
- imaging system
- image enhancement
- optical imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000012634 optical imaging Methods 0.000 title claims description 29
- 238000003384 imaging method Methods 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000007781 pre-processing Methods 0.000 claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000004088 simulation Methods 0.000 claims abstract description 6
- 238000005259 measurement Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 24
- 238000005457 optimization Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 150000001875 compounds Chemical class 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 5
- 238000005094 computer simulation Methods 0.000 claims description 3
- 238000010008 shearing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种协同使用数据与成像系统知识的智能计算成像方法,包括以下步骤:S1:准备标签数据集;S2:使用标签数据优化系统正向模型和图像增强网络;S3:根据所述正向模型搭建成像系统并标定;S4:使用所述标签数据集和标定的正向过程仿真生成训练集;S5:在所述训练集上训练所述神经网络;S6:对待成像场景进行探测,所得结果经预处理后输入所述网络,输出得到图像增强结果;S7:根据所述图像增强结果和标定的正向过程,计算相应的测量结果,并调整所述图像增强网络,最小化计算的测量结果和实际测量结果之间的误差,消除网络输出结果中的伪影;S8:对于新的待测场景,重复S6‑7;本发明能有效解决训练数据获取及神经网络泛化性方面的问题。
Description
技术领域
本发明涉及计算机和光学成像领域,尤其涉及一种数据与知识联合驱动的智能计算光学成像方法。
背景技术
由于现有光电探测器件带宽的限制,传统基于点对“点”直接测量的光学成像技术,仅能对物体的二维空间强度分布实现高采样,而诸如深度、光谱、角度、相位、偏振等高维信息难以获取。另外,为了得到高质量的成像结果,传统成像系统往往需要使用笨重且昂贵的镜头。计算光学成像技术通过设计编码手段,即正向编码过程,将探测器无法直接获取的高维信息编码到可直接探测的强度信号中,然后再设计重构算法从中恢复物体信息,可简化硬件成本、拓宽信息获取维度、提升视觉传感精度。但是,由于探测过程的信息丢失,从编码探测信号中恢复物体信息,是一个典型的病态逆问题。这类问题往往通过迭代优化的方式求解一个与数据拟合项和正则项加权的目标函数,从众多可行解中获取一个最优解。其中,数据拟合项的设计依赖于对成像系统正向过程的建模知识,而正则项需要使用者根据待成像场景满足的先验信息来合理设计。这种方法具有普适性,但是难以处理一些高度病态的逆问题。
近年来,以深度学习为代表的人工智能技术也被广泛用于计算光学成像中,衍生出智能计算光学成像技术。一般地,该技术利用深度神经网络以监督学习的方式从大量带标签的训练数据对中学习隐式先验,训练所得网络可直接用于求解相应成像系统中的病态逆问题,具有成像速度快、无需对正向过程建模、噪声鲁棒性好等优势。但是,基于监督学习的智能计算光学成像技术普遍存在训练数据获取困难、泛化性差等问题,极大的限制了其实际应用。
人工智能技术在人脸识别等问题中,探测信号与标签之间的对应关系是人为给定的。然而,在所关心的计算光学成像的问题中,探测信号与标签之间可以通过系统的正向过程联系起来。现有基于监督学习的计算光学成像方法未有效利用当前问题的独特性。
发明内容
为解决上述技术问题,本发明提出了一种数据与知识联合驱动的智能计算光学成像方法,能够有效解决训练数据获取及神经网络泛化性方面的问题。
为了达到上述目的,本发明采用以下技术方案:
一种数据与知识联合驱动的智能计算光学成像方法,其特点在于,包括以下步骤:
S1:准备标签数据集;
S2:采用数据驱动方法优化成像系统正向模型和图像增强网络;
S3:根据所述的成像系统正向模型搭建实际成像系统,并通过标定板对成像系统正向模型进行标定;
S4:使用所述标签数据集和标定的成像系统正向模型仿真生成训练集ST,公式如下:
S5:在所述训练集ST上训练神经网络,得到更新的图像增强网络;
S6:对待成像场景进行探测,所得结果经预处理后输入所述更新的图像增强网络,输出得到图像增强结果;
S7:根据所述图像增强结果和标定的成像系统正向模型,计算相应的测量结果,并调整所述图像增强网络,最小化计算的测量结果和实际测量结果之间的误差,消除网络输出结果中的伪影,进一步优化图像增强结果;
S8:对于新的待测场景,重复步骤S6至S7。
进一步地,步骤S1中包括:通过开源数据集、使用高精度成像系统对不同类似场景进行收集、使用计算机模拟生成等方式获取标签数据,再通过数据扩充,得到标签数据集记为X={x1,x2,...,xN},其中N为训练数据量。
进一步地,在本发明的一个实施例中,步骤S1中的数据扩充方式包括:旋转、缩放、剪切、尺度变换、对比度变换、加噪声。
进一步地,在本发明的一个实施例中,步骤S2中嵌入的预处理模块为针对当前问题已有的传统图像重构算法,该算法应具有较好的噪声鲁棒性,若没有适用的传统重构算法可不嵌入该预处理模块。
进一步地,在本发明的一个实施例中,步骤S2中的数据驱动方法具体为:通过所述标签数据集训练成像系统正向过程后续深度卷积神经网络中的可学习参数。
进一步地,在本发明的一个实施例中,步骤S2中成像系统正向过程中的可学习参数包括:编码相位板、振幅掩膜、光源的参数、光学系统结构参数。
进一步地,在本发明的一个实施例中,步骤S2中的可学习参数通过反向传播算法同时优化,优化的目标函数为:
式中,xi表示用于训练的标签数据集X中的第i个批次;Hp表示成像系统的正向过程,其中p为可学习参数;f(·)表示所嵌入的传统图像重构算法;Rθ表示深度卷积神经网络,其中θ为网络中的可学习参数;loss{·}表示计算网络输出结果与标签值之间的误差,也包括有关p和θ的正则项;分别表示优化后的网络模型和正向编码过程。
进一步地,在本发明的一个实施例中,步骤S3中的标定过程具体为:根据步骤S2优化所得正向模型搭建成像系统,并通过棋盘格、点阵、圆环、线阵对所搭建的系统进行标定。
进一步地,在本发明的一个实施例中,步骤S3中的标定方法具体为:将标定板的图像通过高成本高精度成像系统采集,然后通过步骤S2中获取的正向过程计算估计的标定板探测结果,优化引入的正向编码参数以最小化估计的标定板探测结果和实际标定板探测结果之间的误差:
式中,表示通过高成本高精度成像系统采集得到标定板的图像;y表示使用搭建的实际系统所采集到的当前标定板的测量结果;表示由优化后的编码参数p*和待标定的参数α组成的探测结果;error{·}表示计算估计的测量值与实际测量值之间的误差;表示标定后的系统正向过程;
进一步地,在本发明的一个实施例中,步骤S4中生成的训练数据集ST具体为:
进一步地,在本发明的一个实施例中,步骤S5中训练神经网络的过程可表示为:
进一步地,在本发明的一个实施例中,步骤S6中对待成像场景进行探测,然后使用步骤S5中获得的神经网络处理所得结果为:
进一步地,在本发明的一个实施例中,步骤S7对步骤S6所得结果做进一步的优化,具体为:
式中,待优化参数的初始值为步骤S5中所得参数θ**;为优化所得网络模型,其输出为最终成像结果;loss{·}表示计算估计的测量值与实际测量值之间的误差;整个过程无需额外获取任何训练数据,仅通过知识驱动网络参数θ**的优化,具有普适性,可消除步骤S6中网络输出结果因泛化性问题导致的伪影。
与现有技术相比,本发明的有益效果:
相比知识驱动的优化算法,本发明通过神经网络在大量数据上学习,同时对编码模式和解码网络模型进行优化,从而引入隐式的数据先验,利于求解计算成像中病态逆问题,具有更高的重构效果和效率;相比数据驱动的智能算法,所提方法通过结合成像系统中的物理模型,通过牺牲一定重构时间,消除网络输出结果中因泛化性问题造成的伪影,同时提升成像质量。为计算成像提供了一种易行、有效、普适的智能编解码方案。
附图说明
图1是本发明步骤S2中对成像系统正向模型和图像增强神经网络联合优化的示意图。
图2是本发明步骤S3中对实际搭建的成像系统的正向模型进行标定的示意图。
图3是本发明步骤S4-S5模拟生成训练数据和训练图像增强网络的示意图。
图4是本发明步骤S6-S7中使用图像增强网络处理待测数据及知识驱动网络微调的示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明,但不应以此限制本发明的保护范围。
一种数据与知识联合驱动的智能计算光学成像方法,具体包括以下步骤:
S1:准备标签数据集:通过开源数据集、使用高精度成像系统对不同类似场景进行收集、使用计算机模拟生成等方式获取标签数据,再通过数据扩充,得到标签数据集记为X={x1,x2,...,xN},其中N为训练数据量。
数据扩充方式包括:旋转、缩放、剪切、尺度变换、对比度变换、加噪声。
S2:使用嵌入预处理模块的数据驱动方法优化成像系统正向模型:
嵌入的预处理模块为针对当前问题已有的传统图像重构算法,具有较好的噪声鲁棒性,若没有适用的传统重构算法可不嵌入该预处理模块。
数据驱动方法具体为:通过所述标签数据集训练成像系统正向过程后续深度卷积神经网络中的可学习参数,包括:编码相位板、振幅掩膜、光源的参数、光学系统结构参数。
可学习参数通过反向传播算法同时优化,优化的目标函数为:
式中,xi表示用于训练的标签数据集X中的第i个批次;Hp表示成像系统的正向过程,其中p为可学习参数;f(·)表示所嵌入的传统图像重构算法;Rθ表示深度卷积神经网络,其中θ为网络中的可学习参数;loss{·}表示计算网络输出结果与标签值之间的误差,也包括有关p和θ的正则项;分别表示优化后的网络模型和正向编码过程。系统正向编码参数的初始化方式具体包括:根据传统经验、随机、按特定分布生成。
图1是本发明步骤S2中对成像系统正向模型和图像增强神经网络联合优化的示意图,由图可见,通过步骤S1中获取的标签数据经过成像系统正向模型计算得到数值计算的测量结果,经传统图像重构算法计算得到预处理结果,然后再输入神经网络得到网络输出结果,最后利用反向传播方式更新成像系统正向模型和神经网络的参数以最小化网络输出和对应标签数据之间的误差。训练结束后将获得一个优化后的成像系统正向模型和一个图像增强网络。
所述的神经网络具体包括:选择合适的网络结构、超参数、代价函数、优化器,以最大化所得图像增强网络在验证集上的表现。
图像增强网络在验证集上表现好坏的评价方法为:计算网络输出结果与真实结果的相似度或图像识别算法的准确率。
S3:根据所述的成像系统正向模型搭建实际成像系统,并通过标定板对实际成像系统进行标定。
标定板包括:棋盘格、点阵、圆环、线阵。
标定方法具体为:将标定板的图像通过高成本高精度成像系统采集,然后通过步骤S2中获取的优化后的成像系统正向模型计算估计的标定板探测结果,优化引入的正向编码参数以最小化估计的标定板探测结果和实际标定板探测结果之间的误差:
式中,表示通过高成本高精度成像系统采集得到标定板的图像;y表示使用搭建的实际成像系统所采集到的当前标定板的测量结果;表示由优化后的编码参数p*和待标定的参数α组成的探测结果;error{·}表示计算估计的测量值与实际测量值之间的误差;表示标定后的系统正向过程;
图2是本发明步骤S3中对搭建的实际成像系统的正向模型进行标定的示意图,由图可见,利用标定板对所搭建的系统的正向过程进行标定,具体标定步骤包括:1)预先选着标定板;2)然后经成像系统探测得到实际探测结果;3)获取标定板的数字图像;4)经成像系统正向模型计算得到估计的探测结果;5)通过迭代更新成像系统正向模型中的施加噪声水平、像差,以最小化实测结果和计算探测结果之间的误差。
S4:使用所述标签数据集和标定的正向过程仿真生成训练集ST具体为:
S5:在所述训练集上训练神经网络,得到图像增强网络;
训练神经网络的过程可表示为:
图3是本发明通过步骤S4-S5模拟生成训练数据并训练图像增强网络的示意图,由图可见,本发明由标定后的模型产生更符合实际的数据训练神经网络,具体包括:1)利用步骤S1中获取的标签数据和步骤S3中标定后的成像系统正向模型生成模拟的探测结果;2)通过传统图像重构算法处理得到预处理结果,与对应标签数据组成训练数据对;3)将预处理结果输入所述步骤S2中所得神经网络,得到网络输出结果;4)通过反向传播更新神经网络参数以最小化网络输出与对应标签数据之间的误差。训练结束后将得到新的图像增强网络,由于使用了标定的正向模型来产生数据,因此更适于处理实际搭建的成像系统所采集的数据。
S6:对待成像场景进行探测,所得结果经预处理后输入所述网络,输出得到图像增强结果为:
S7:根据所述图像增强结果和标定的正向过程,计算相应的测量结果,并调整所述图像增强网络,最小化计算的测量结果和实际测量结果之间的误差,消除网络输出结果中的伪影;具体为:
整个过程无需额外获取任何训练数据,仅通过知识驱动网络参数θ**的优化,具有普适性,可消除步骤S6中网络输出结果因泛化性问题导致的伪影。
图4是本发明通过步骤S6-S7使用图像增强网络处理待测数据及知识驱动网络微调的示意图,由图可见,完成所述步骤S1-S5的准备工作后,本发明获取待测物体图像时具体包括:1)使用所搭建的成像系统对当前待测场景进行成像,得到实测结果;2)将实测结果经传统图像重构算法处理后输入所述步骤S5所得神经网络;3)经神经网络处理得到网络输出;4)网络输出结果经过标定的成像系统正向模型处理得到计算的测量结果;5)通过反向传播算法更新所述神经网络参数,以最小化估计的测量结果与实测结果之间的均方误差。随着迭代的进行,神经网络输出结果因泛化性问题而产生的伪影可被消除,即通过牺牲一定的计算重构时间,以解决神经网络泛化性问题。
S8:对于新的待测场景,重复步骤S6至S7。
本发明优选实施例的一种数据与知识联合驱动的智能计算光学成像方法,首先利用对待测场景的先验知识获取具有相似结构特征的标签数据集,然后利用获取的标签数据对成像系统正向编码过程和图像增强网络进行联合优化,再根据优化的正向编码过程搭建实际的成像系统,而后再对该系统进行标定以确定实际的正向物理模型,再利用标定的正向物理模型产生符合真实环境的模拟数据以训练图像增强网络,然后利用所得网络模型处理真实待测数据,网络输出得到成像结果。考虑到所训练的网络模型必然存在泛化性问题,再将网络输出结果经标定的正向物理模型处理得到估计的计算测量值,然后通过反向传播调整网络权重以最小化计算的测量值和实际测量值之间的均方误差,在此过程中网络输出结果的中因泛化性问题而造成的图像退化将能得到补偿,即通过牺牲算法重构时间,解决神经网络普遍存在的泛化性问题。相比于传统知识驱动的优化算法,所提方法通过神经网络在大量数据上学习,从而引入隐式的数据先验,利于求解病态逆问题。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (13)
1.一种数据与知识联合驱动的智能计算光学成像方法,其特征在于,包括以下步骤:
S1:准备标签数据集;
S2:采用数据驱动方法优化成像系统正向模型和图像增强网络;
S3:根据所述的成像系统正向模型搭建实际成像系统,并通过标定板对成像系统正向模型进行标定;
S4:使用所述标签数据集和标定的成像系统正向模型仿真生成训练集ST,公式如下:
S5:在所述训练集ST上训练神经网络,得到更新的图像增强网络;
S6:对待成像场景进行探测,所得结果经预处理后输入所述更新的图像增强网络,输出得到图像增强结果;
S7:根据所述图像增强结果和标定的成像系统正向模型,计算相应的测量结果,并调整所述图像增强网络,最小化计算的测量结果和实际测量结果之间的误差,消除网络输出结果中的伪影,进一步优化图像增强结果;
S8:对于新的待测场景,重复步骤S6至S7。
2.根据权利要求1所述的智能计算光学成像方法,其特征在于,步骤S1根据待成像场景的特征,通过搜寻开源数据集、使用高精度系统对不同类似场景进行收集、使用计算机模拟生成方式获取标签数据,再通过数据扩充得到标签数据集,记为X={x1,x2,...,xN},其中N为训练数据量。
3.根据权利要求2所述的智能计算光学成像方法,其特征在于,步骤S1中所述的数据扩充方式包括:旋转、缩放、剪切、尺度变换、对比度变换和/或加噪声。
4.根据权利要求1所述的智能计算光学成像方法,其特征在于,步骤S2中所述的数据驱动方法具体是:通过步骤S1获取的标签数据集,经过成像系统正向模型计算得到数值计算的测量结果,经传统图像重构算法计算得到预处理结果,然后再输入神经网络得到网络输出结果,计算网络输出与对应标签数据的误差作为代价函数,最后通过反向传播方式更新成像系统正向模型和神经网络的参数,结束后将获得一个优化后的成像系统正向模型和图像增强网络。
5.根据权利要求4所述的智能计算光学成像方法,其特征在于,所述的传统图像重构算法具体包括:利用当前系统正向编码过程和生成的探测结果,计算估计原始用于生成该探测结果的图像。
8.根据权利要求1所述的智能计算光学成像方法,其特征在于,所述步骤S7,具体是:将步骤S6所得图像增强结果经步骤S3标定的成像系统正向模型,计算得到估计的探测结果,将该探测结果与步骤S3中所得实际探测结果比较,计算得到误差函数,然后调整所述神经网络参数使得该误差函数最小。
9.根据权利要求8所述的智能计算光学成像方法,其特征在于,所述的误差函数的计算方式具体为:均方误差与全变分约束的加权。
10.根据权利要求8所述的智能计算光学成像方法,其特征在于,所述的优化神经网络参数的学习率选择:优先设置为0.01,根据需要手动调整初始数值和衰减模式。
11.根据权利要求8所述的智能计算光学成像方法,其特征在于,优化网络参数的迭代步数设置具体为:当探测信噪比高时迭代步数设置为较大,反之则设置为较小,以网络输出结果的视觉效果最佳为标准,选择迭代步数。
12.根据权利要求11所述的智能计算光学成像方法,其特征在于,所述学习率的手动调整方式具体为:当所得网络输出结果较为平滑时,减小学习率,反之增大学习率,以网络输出结果的视觉效果最佳为标准,选择合适的学习率。
13.根据权利要求1所述的智能计算光学成像方法,其特征在于,步骤S8中对于新的待测场景,在重复步骤S6时,使用步骤S5中训练所获得的网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111550711.2A CN114255183A (zh) | 2021-12-17 | 2021-12-17 | 数据与知识联合驱动的智能计算光学成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111550711.2A CN114255183A (zh) | 2021-12-17 | 2021-12-17 | 数据与知识联合驱动的智能计算光学成像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114255183A true CN114255183A (zh) | 2022-03-29 |
Family
ID=80795606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111550711.2A Pending CN114255183A (zh) | 2021-12-17 | 2021-12-17 | 数据与知识联合驱动的智能计算光学成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114255183A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116823804A (zh) * | 2023-07-21 | 2023-09-29 | 北京化工大学 | 基于知识和数据联合驱动的输电通道安全监测方法 |
-
2021
- 2021-12-17 CN CN202111550711.2A patent/CN114255183A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116823804A (zh) * | 2023-07-21 | 2023-09-29 | 北京化工大学 | 基于知识和数据联合驱动的输电通道安全监测方法 |
CN116823804B (zh) * | 2023-07-21 | 2024-02-09 | 北京化工大学 | 基于知识和数据联合驱动的输电通道安全监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110739070A (zh) | 一种基于3d卷积神经网络的脑疾病诊断方法 | |
CN114119689B (zh) | 基于深度学习的多模态医学图像无监督配准方法及系统 | |
CN112767267B (zh) | 基于仿真偏振带雾场景数据集的图像去雾方法 | |
CN116091786B (zh) | 猪只估重的全息体尺自编码方法、系统、设备及存储介质 | |
CN114445420A (zh) | 编解码结构结合注意力机制的图像分割模型及其训练方法 | |
CN113570658A (zh) | 基于深度卷积网络的单目视频深度估计方法 | |
CN116486408A (zh) | 遥感图像跨域语义分割方法及装置 | |
CN114863209B (zh) | 类别比例引导的无监督领域适应建模方法、系统、设备及介质 | |
CN114255183A (zh) | 数据与知识联合驱动的智能计算光学成像方法 | |
CN116843679B (zh) | 基于深度图像先验框架的pet图像部分容积校正方法 | |
CN116823664B (zh) | 一种遥感图像云去除方法及系统 | |
CN117333750A (zh) | 空间配准与局部全局多尺度的多模态医学图像融合方法 | |
CN117036901A (zh) | 一种基于视觉自注意力模型的小样本微调方法 | |
CN117760571B (zh) | 基于哈特曼探测器的无监督学习波前探测方法 | |
CN116310581A (zh) | 一种半监督变化检测洪涝识别方法 | |
Li et al. | Self-supervised monocular depth estimation via discrete strategy and uncertainty | |
CN112926619B (zh) | 一种高精度水下激光目标识别系统 | |
CN117346864A (zh) | 一种浓密机泥层高度软测量方法 | |
CN117974693B (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN117688365B (zh) | 多模态生物识别门禁系统 | |
Qiu | Image Reconstruction of Tang Sancai Figurines Based on Artificial Intelligence Image Extraction Technology Based on Ration | |
CN117314869A (zh) | 基于人工智能的智能建筑测量系统及方法 | |
Fu et al. | Joint Perceptual Learning for Enhancement and Object Detection in Underwater Scenarios | |
Teng et al. | Unsupervised learning method for underwater concrete crack image enhancement and augmentation based on cross domain translation strategy | |
CN117523614A (zh) | 一种基于融合NAM的YOLOv7人头识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |