CN113962866A - 一种基于物理感知学习的散射成像目标重建方法 - Google Patents

一种基于物理感知学习的散射成像目标重建方法 Download PDF

Info

Publication number
CN113962866A
CN113962866A CN202111575701.4A CN202111575701A CN113962866A CN 113962866 A CN113962866 A CN 113962866A CN 202111575701 A CN202111575701 A CN 202111575701A CN 113962866 A CN113962866 A CN 113962866A
Authority
CN
China
Prior art keywords
target
speckle
data
unknown
scattering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111575701.4A
Other languages
English (en)
Other versions
CN113962866B (zh
Inventor
柏连发
崔倩莹
韩静
郭恩来
张毅
赵壮
朱硕
顾杰
冮顺奎
张明星
施继玲
王晓颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202111575701.4A priority Critical patent/CN113962866B/zh
Publication of CN113962866A publication Critical patent/CN113962866A/zh
Application granted granted Critical
Publication of CN113962866B publication Critical patent/CN113962866B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4084Scaling of whole images or parts thereof, e.g. expanding or contracting in the transform domain, e.g. fast Fourier transform [FFT] domain scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于物理感知学习的散射成像目标重建方法,包括:基于散斑相关的物理先验信息,利用已知目标透过相同散射介质在固定目标和相机位置下的散斑数据进行数据增广和模型训练,而后通过训练好的学习网络对未知散射场景下未知目标位置和相机位置的散斑数据进行目标重建。本发明利用散斑相关在大景深范围下的比例关系进行数据增广,仅通过利用透过一块散射介质下固定目标位置和相机位置的散斑数据进行模型的训练,便可实现对未知散射场景下未知目标位置和相机位置下的复杂目标进行高保真准确重建,同时具有良好的鲁棒性。

Description

一种基于物理感知学习的散射成像目标重建方法
技术领域
本发明涉及一种基于物理感知学习的散射成像目标重建方法,属于散射成像技术领域。
背景技术
透过散射介质对目标进行成像在许多领域依然是一个很具有挑战性的任务,从微观的生物组织成像到宏观的天文观测,散射介质都对人们获取目标信息造成极大的干扰。在现实场景中,目标不同景深位置的分布情况、散射介质的动态变化和系统的稳定性等因素都大大制约着目前散射场景下的成像应用。传统的光学成像已无法满足人们对散射场景下视域拓展的要求,因此基于新体制的计算成像方法被用于散射场景下的目标恢复问题。目前常用的方法有基于波前整形的方法、基于传输矩阵的方法、基于点扩散函数的方法、基于散斑相关的方法和基于数据驱动的深度学习方法。其中,基于波前整形、传输矩阵和点扩散函数的方法对系统的稳定性有较高的要求;基于散斑相关的方法可以适应动态变化的散射场景,但是受限于光学记忆效应的成像视场范围;基于数据驱动的深度学习方法,具有强大的数据挖掘和逆问题优化求解能力,在散射成像领域已取得令人印象深刻的结果。但是纯数据驱动的深度学习方法泛化能力较差,适用的散射场景单一,抗干扰能力有限。
因此在目标分布景深不定、散射介质状态不定和系统稳定性欠缺的情况下,基于物理模型的散射计算成像方法受限于散射场景和目标恢复能力,对散斑数据的进一步挖掘和处理能力有限。深度学习方法可以对获取到的散斑信息进行充分地挖掘,单纯依赖所获取的数据也会导致深度神经网络对学习过的数据大大优于未知场景下获取的数据。如何将物理计算模型和数据驱动模型有效结合起来将有助于解决两者存在的问题。基于物理驱动地深度学习方法已经表明比单纯数据驱动有着更好的泛化能力和目标大景深定位能力。但是同时对未知散射场景下未知位置生物目标进行高效成像依然有待于进一步挖掘。YunzheLi等人针对泛化问题,首先提出了基于纯数据驱动的散射成像和未知位置成像方法,对不同的问题过度依赖于特定的神经网络设计方法,并且需要大量的训练数据来提高网络的泛化能力。
基于此,本发明针对未知散射场景且目标位于未知景深位置的复杂情况下,提出了一种基于物理感知学习的散射成像目标重建方法,可以实现在未知散射场景下,对未知景深位置上的目标进行准确的恢复,同时该方法对散射成像系统的扰动也具有更好的抗干扰能力。
发明内容
发明目的:针对现有技术所存在的问题,本发明提供一种基于物理感知学习的散射成像目标重建方法,仅通过透过一块散射介质且固定目标位置和相机位置的散斑数据进行模型的训练,便可实现对未知散射场景下未知目标位置和相机位置的复杂目标进行高保真准确重建,同时具有良好的鲁棒性。
技术方案:为实现上述目的,本发明提供一种基于物理感知学习的散射成像目标重建方法,包括:基于散斑相关的物理先验信息,利用已知目标透过相同散射介质在固定目标和相机位置下的散斑数据进行数据增广和模型训练,而后通过训练好的学习网络对未知散射场景下未知目标位置和相机位置的散斑数据进行目标重建;
所述学习网络的构建过程具体包括:
步骤1、数据增广过程:对透过相同散射介质在固定目标和相机位置下的散斑数据按位置比例进行缩放,得到不同目标和相机位置下的散斑数据;
步骤2、数据预处理:从缩放后的散斑数据中截取相同大小的散斑进行自相关运算,得到不同目标和相机位置下的散斑自相关图像;
步骤3、模型训练:将得到的散斑自相关图像与对应的目标信息,输入到学习网络中进行模型训练,确定网络结构及相关参数。
进一步的,所述步骤1中散斑数据的缩放比例关系为:
Figure 206475DEST_PATH_IMAGE001
其中,
Figure 528872DEST_PATH_IMAGE002
为散斑数据的缩放比例,
Figure 670003DEST_PATH_IMAGE003
Figure 636822DEST_PATH_IMAGE004
分别为原始的目标和相机位置,
Figure 736365DEST_PATH_IMAGE005
Figure 14900DEST_PATH_IMAGE006
分别为增广的目标和相机位置。
进一步的,所述步骤2中通过二维傅里叶反变换求出散斑图像自相关,具体公式为:
Figure 100667DEST_PATH_IMAGE007
其中,R(x,y)为散斑图像自相关,I(x,y)为散斑图像光强信息,FT为二维傅里叶变换,FT-1为二维傅里叶反变换,
Figure 46627DEST_PATH_IMAGE008
表示自相关运算符。
进一步的,所述学习网络包括4个下采样卷积层和4个上采样卷积层,且对应的下采样卷积层和上采样卷积层之间进行跳层连接,以提升图像质量,每个卷积层包括3*3二维卷积层、Bn层和Relu激活层。
进一步的,所述步骤3中选择Adma作为优化器进行学习网络的训练,并使用NPCC和MSE作为代价函数对学习网络进行约束和优化。
进一步的,所述目标重建过程具体包括:从未知散射场景下未知目标位置和相机位置的散斑数据中截取设定大小的散斑进行自相关运算,并将得到的散斑图像自相关输入到训练好的学习网络中进行目标恢复。
有益效果:本发明所提供的一种基于物理感知学习的散射成像目标重建方法,相对于现有技术,具有以下优点:
基于物理先验指导的学习模型,可以基于散斑相关原理有效地提取不同散射场景中的统计不变量,提高模型在不同散射场景下的泛化能力;基于不同景深下轴向放大率的位置泛化成像,根据物理模型对数据进行的预处理也可以使模型更加适用于未知位置的泛化成像,提高模型对景深位置变化的敏感程度;最后利用神经网络对数据的深度挖掘和拟合能力,实现对未知散射场景下未知景深位置的高保真泛化成像。
附图说明
图1a为本发明实施例中散射成像实验系统的结构示意图,
图中包括:①激光器+旋转介质,②准直透镜+光阑1,③TIR透镜+数字微镜阵列,④散射介质+光阑2,⑤相机+导轨1,⑥导轨2;
图1b为本发明实施例中散射成像实验系统的成像原理图;
图1c为本发明实施例在不同目标位置获取的散斑图、散斑自相关图和重建结果图,
其中目标和散射介质的距离从左往右依次为350、450、550、650mm,从上往下依次为对应目标位置的散斑图、散斑自相关图和重建结果图;
图1d为图1c中散斑自相关图像沿白色虚线的亮度归一化数值分布图;
图2为本发明实施例中学习网络的训练过程和测试过程图;
图3为本发明实施例中测试集中部分目标的重建结果图,其中上面两行是训练时见过的目标(即已知目标)在不同目标和相机位置下的重建结果,下面两行是训练时未见过的目标(即未知目标)在不同目标和相机位置下的重建结果。
具体实施方式
下面将结合附图对本发明的具体实施方式进行描述,更加清楚、完整地阐述本发明的技术方案。
A. 物理基础
在待解决的物理场景下对问题建立数学物理模型,可以帮助神经网络更好的理解数据并提高优化求解效率,因此针对未知散射场景下未知景深位置的目标分布特性,基于散斑相关原理对该场景进行初步的物理分析。
当散射介质的入射光转动一个小的角度时,出射光也随着转动相同的角度,在ME范围内,光通过高度无序的散射介质时的出射光场仍然保留了入射光束所携带的信息。因此,在ME范围内的散射系统看作一个具有空间平移不变性的光学成像系统,此时获取的散斑可以表示为,其中I为获取的散斑图像,O为目标图像,S为系统的PSF(点扩散函数),*为卷积运算符。利用相机采集到的散斑图案自相关,并利用卷积定理可以得到公式:
Figure 458017DEST_PATH_IMAGE009
, (1)
其中
Figure 223847DEST_PATH_IMAGE010
表示自相关运算符。由式 (1)可知,散斑的自相关可以描述为目标自相关与光学散射系统PSF自相关之间的卷积,并由于PSF的自相关
Figure 237940DEST_PATH_IMAGE011
可以近似为
Figure 913772DEST_PATH_IMAGE012
函数,因此公式(1)可以进一步简化为:
Figure 620696DEST_PATH_IMAGE013
, (2)
其中C为计算散斑自相关时产生的背景项,因此散斑自相关与目标自相关一致。在宽谱不同的散射介质和散射环境下,相同目标的自相关形状不会发生改变。在此基础上,可以通过基于散斑相关的物理模型实现散射域连通。
如图1a所示,未知大景深位置散射成像实验系统主要包括:一个激光器(640 nm)和旋转毛玻璃作为非相干光源,经扩束准直透镜照亮在DMD(数字微镜阵列)表面的目标图像,两个光阑的尺寸分别是10mm和8mm,最后利用一个工业相机(Balser, acA1920-155um)对散斑进行记录。
在传统几何光学成像中,系统的横向放大倍率由像的大小和物体的大小比值进行定义,同时等效于像距和物距之前的比值。当传统光学系统中的透镜替换为散射介质时,改变物体的景深位置或成像距离,不会像传统系统中离焦而影响图像的质量,但是系统的放大倍率也会随着改变。如图1b所示,改变散射介质与目标和相机的距离,目标的放大倍率关系可以表示为:
Figure 873823DEST_PATH_IMAGE014
,(3)
这里m1和m2分别是系统的放大倍率,h1和h2分别是不同的物距,u1和u2分别对应不同的像距。因此,探测器靶面获取散斑重建的目标信息与目标与散射介质的距离h和介质与探测器的距离u成比例关系,对应不同比例的目标恢复结果。如图1c所示,当相机与散射介质的距离固定,只改变目标与散射介质之间的距离,获取到的散斑各不相同。不同散斑对应的自相关具有相似的主体结构并存在与距离相关的比例关系,基于传统散斑相关方法对目标进行重建,得到了不同大小的目标重建结果。图1d为散斑自相关图像沿白色虚线归一化后的强度值,通过对比可以更明显的看出不同景深距离对应的自相关结构成比例大小关系。
B. 学习网络
如图2所示,基于物理驱动的大景深介质泛化学习网络,包括数据增广和预处理、模型训练和测试过程。
(a) 数据增广过程:根据目标和相机位置比例对训练集中的散斑数据进行同比例缩放,得到不同目标和相机位置下的散斑数据;
(b) 数据预处理:从缩放后的散斑数据中截取设定大小的散斑作自相关运算,具体包括傅里叶变换、取模、平方以及傅里叶反变换等运算。在计算散斑相关过程中,散斑自相关计算由能谱的二维傅里叶反变换求出:
Figure 566973DEST_PATH_IMAGE015
,(4)
其中,R(x,y)为散斑图像自相关,I(x,y)为散斑图像光强信息,FT为二维傅里叶变换,FT-1为二维傅里叶反变换,
Figure 956366DEST_PATH_IMAGE016
表示自相关运算符。
(c) 数据集构建:从获取的散斑自相关图像中截取设定大小的区域作为网络的输入;
(d) 模型训练:将得到的散斑自相关图像与对应的目标信息,输入到学习网络中进行模型训练,这里的学习网络包括4个下采样卷积层和4个上采样卷积层,且对应的下采样卷积层和上采样卷积层之间进行跳层连接,以提升图像质量,每个卷积层包括3*3二维卷积层、Bn层和Relu激活层。
对应地,(e)、(b) 、(f)、(g)为相应的测试过程(目标重建),即从测试集的散斑数据中截取设定大小的散斑作自相关运算,并从散斑自相关中截取设定大小的区域作为网络的输入,最后通过根据训练集得到具有映射关系的模型对输入的散斑自相关进行目标重建。由此利用散斑相关在大景深范围下的比例关系进行数据增广,仅通过利用透过一块散射介质下固定目标位置和相机位置的散斑数据进行模型的训练,便可实现对未知散射场景下未知目标位置和相机位置下的复杂目标进行高保真准确重建。通过在学习方法中嵌入有效的散射物理模型,可以有效挖掘大景深未知位置散斑中的普适性的规律先验和有效信息,即使使用传统的U-net卷积神经网络也可以对宽谱复杂目标在未知散射场景中进行高质量重建。
网络的训练选择Adma作为优化器,并使用NPCC和MSE作为代价函数对数据模型进行约束和优化。该物理感知深度学习方法的工作环境为:在Ubuntu 16.04系统下的PyTorch1.4.0,1张Titan RTX图形处理单元和i9-9940X中央处理器。
C. 实验和结果
目标数据集类型主要使用Minist和Fashion-Minist两种不同复杂程度的数据集,分别通过三种散射介质进行数据采集。其中字符数据为从Minist中随机选择的两个单字符组合成的一个双字符数据,共1100张,前1000张作为训练时见过的目标,后100张作为训练时未见过的目标。Minist-Fashion目标具有更高的复杂度,同样选择1000张作为训练时见过的目标,100张作为训练时未见过的目标。每帧散斑截取中心512区域作自相关运算,然后截取自相关的中心128区域作为网络的输入。
实验中采用3块不同的磨砂毛玻璃作为散射介质,一块磨砂度220的毛玻璃(索雷博)作为训练介质D1,一块磨砂度120 的毛玻璃(索雷博)和一块磨砂度220的毛玻璃(埃德蒙特)作为未知介质D2和D3,分别具有不同统计特性和不同制造商。
其中训练集和测试集的位置设定如表1所示,训练时只采用透过第一块散射介质(D1)的固定位置,测试时分别对目标位置和相机位置做了移动。只是用一处既定位置便可以对未知散射介质(D2, D3)在未知目标位置和位置相机位置情况下进行高保真准确目标重建。
表 1. 训练集及测试集的位置分布
Figure 709558DEST_PATH_IMAGE017
利用训练后的学习网络对测试集中的散斑数据进行目标重建,部分通过未知散射介质的未知目标和相机位置的目标重建结果如图3所示。可以看出,即使只是用一块散射介质的固定目标和相机位置的散斑数据,便可以对未知散射环境下未知目标位置和相机位置的单散斑进行鲁棒的重建。除了训练过程中见过的目标外,未见过的同类目标也可以相对准确地恢复。同时,随着目标景深位置的拓展,成像大小也等比例减小。从图3中510和600目标位置的重建对比结果可以看出,本方法对大景深未知位置的目标重建像大小也有着很好的感知。
上述具体实施方式仅仅对本发明的优选实施方式进行描述,而并非对本发明的保护范围进行限定。在不脱离本发明设计构思和精神范畴的前提下,本领域的普通技术人员根据本发明所提供的文字描述、附图对本发明的技术方案所作出的各种变形、替代和改进,均应属于本发明的保护范畴。

Claims (6)

1.一种基于物理感知学习的散射成像目标重建方法,其特征在于,包括:基于散斑相关的物理先验信息,利用已知目标透过相同散射介质在固定目标和相机位置下的散斑数据进行数据增广和模型训练,而后通过训练好的学习网络对未知散射场景下未知目标位置和相机位置的散斑数据进行目标重建;
所述学习网络的构建过程具体包括:
步骤1、数据增广过程:对透过相同散射介质在固定目标和相机位置下的散斑数据按位置比例进行缩放,得到不同目标和相机位置下的散斑数据;
步骤2、数据预处理:从缩放后的散斑数据中截取设定大小的散斑进行自相关运算,得到不同目标和相机位置下的散斑图像自相关;
步骤3、模型训练:将得到的散斑图像自相关与对应的目标信息,输入到学习网络中进行模型训练,确定网络结构及相关参数。
2.根据权利要求1所述的一种基于物理感知学习的散射成像目标重建方法,其特征在于,所述步骤1中散斑数据的缩放比例关系为:
Figure 771634DEST_PATH_IMAGE001
其中,
Figure 971671DEST_PATH_IMAGE002
为散斑数据的缩放比例,
Figure 371559DEST_PATH_IMAGE003
Figure 657047DEST_PATH_IMAGE004
分别为原始的目标和相机位置,
Figure 535004DEST_PATH_IMAGE005
Figure 589548DEST_PATH_IMAGE006
分别为增广的目标和相机位置。
3.根据权利要求1所述的一种基于物理感知学习的散射成像目标重建方法,其特征在于,所述步骤2中通过二维傅里叶反变换求出散斑图像自相关,具体公式为:
Figure 425917DEST_PATH_IMAGE007
其中,R(x,y)为散斑图像自相关,I(x,y)为散斑图像光强信息,FT为二维傅里叶变换,FT-1为二维傅里叶反变换,
Figure 198701DEST_PATH_IMAGE008
表示自相关运算符。
4.根据权利要求1所述的一种基于物理感知学习的散射成像目标重建方法,其特征在于,所述学习网络包括4个下采样卷积层和4个上采样卷积层,且对应的下采样卷积层和上采样卷积层之间进行跳层连接,每个卷积层包括3*3二维卷积层、Bn层和Relu激活层。
5.根据权利要求1所述的一种基于物理感知学习的散射成像目标重建方法,其特征在于,所述步骤3中选择Adma作为优化器进行学习网络的训练,并使用NPCC和MSE作为代价函数对学习网络进行约束和优化。
6.根据权利要求1所述的一种基于物理感知学习的散射成像目标重建方法,其特征在于,所述目标重建过程具体包括:从未知散射场景下未知目标位置和相机位置的散斑数据中截取设定大小的散斑进行自相关运算,并将得到的散斑图像自相关输入到训练好的学习网络中进行目标恢复。
CN202111575701.4A 2021-12-22 2021-12-22 一种基于物理感知学习的散射成像目标重建方法 Active CN113962866B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111575701.4A CN113962866B (zh) 2021-12-22 2021-12-22 一种基于物理感知学习的散射成像目标重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111575701.4A CN113962866B (zh) 2021-12-22 2021-12-22 一种基于物理感知学习的散射成像目标重建方法

Publications (2)

Publication Number Publication Date
CN113962866A true CN113962866A (zh) 2022-01-21
CN113962866B CN113962866B (zh) 2023-04-07

Family

ID=79473597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111575701.4A Active CN113962866B (zh) 2021-12-22 2021-12-22 一种基于物理感知学习的散射成像目标重建方法

Country Status (1)

Country Link
CN (1) CN113962866B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114943800A (zh) * 2022-03-18 2022-08-26 山东大学 基于相空间的穿透散射介质目标三维重构方法
CN115631253A (zh) * 2022-12-23 2023-01-20 南京理工大学 基于物理驱动深度学习的光纤无透镜泛化成像方法
CN115984368A (zh) * 2023-01-12 2023-04-18 中国科学院宁波材料技术与工程研究所 基于数据解耦的未知隐藏目标定位方法、系统及存储介质
CN115984405A (zh) * 2023-01-12 2023-04-18 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法
WO2023172305A1 (en) * 2022-03-11 2023-09-14 Massachusetts Institute Of Technology Pupil engineering method to enhance the signal of the real-time determination of particle size distribution in powders

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108535681A (zh) * 2018-02-05 2018-09-14 西安电子科技大学 一种透过散射介质的目标4d跟踪系统及方法
CN110274877A (zh) * 2019-05-21 2019-09-24 西安电子科技大学 一种基于散射介质的3d光谱成像系统及方法
CN111462206A (zh) * 2020-03-24 2020-07-28 合肥的卢深视科技有限公司 一种基于卷积神经网络的单目结构光深度成像方法
CN111563562A (zh) * 2020-07-16 2020-08-21 南京理工大学 基于卷积神经网络的单帧散射图像的彩色目标重建方法
CN111739117A (zh) * 2020-07-20 2020-10-02 南京理工大学 基于卷积神经网络对经散射介质后的物体进行成像的方法
CN112287571A (zh) * 2020-12-31 2021-01-29 南京理工大学 基于物理驱动的散射泛化成像方法和实验方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108535681A (zh) * 2018-02-05 2018-09-14 西安电子科技大学 一种透过散射介质的目标4d跟踪系统及方法
CN110274877A (zh) * 2019-05-21 2019-09-24 西安电子科技大学 一种基于散射介质的3d光谱成像系统及方法
CN111462206A (zh) * 2020-03-24 2020-07-28 合肥的卢深视科技有限公司 一种基于卷积神经网络的单目结构光深度成像方法
CN111563562A (zh) * 2020-07-16 2020-08-21 南京理工大学 基于卷积神经网络的单帧散射图像的彩色目标重建方法
CN111739117A (zh) * 2020-07-20 2020-10-02 南京理工大学 基于卷积神经网络对经散射介质后的物体进行成像的方法
CN112287571A (zh) * 2020-12-31 2021-01-29 南京理工大学 基于物理驱动的散射泛化成像方法和实验方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHUO ZHU等: "Imaging through unknown scattering media based on physics-informed learning", 《PHOTONICS RESEARCH》 *
柏连发等: "新型光谱测量技术发展综述", 《红外与激光工程》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023172305A1 (en) * 2022-03-11 2023-09-14 Massachusetts Institute Of Technology Pupil engineering method to enhance the signal of the real-time determination of particle size distribution in powders
WO2023172304A1 (en) * 2022-03-11 2023-09-14 Massachusetts Institute Of Technology System and method for real-time determination of particle size distributions in dry powders
CN114943800A (zh) * 2022-03-18 2022-08-26 山东大学 基于相空间的穿透散射介质目标三维重构方法
CN115631253A (zh) * 2022-12-23 2023-01-20 南京理工大学 基于物理驱动深度学习的光纤无透镜泛化成像方法
CN115984368A (zh) * 2023-01-12 2023-04-18 中国科学院宁波材料技术与工程研究所 基于数据解耦的未知隐藏目标定位方法、系统及存储介质
CN115984405A (zh) * 2023-01-12 2023-04-18 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法
CN115984405B (zh) * 2023-01-12 2024-03-29 中国科学院宁波材料技术与工程研究所 基于自相关性增强的散射成像方法、系统及模型训练方法

Also Published As

Publication number Publication date
CN113962866B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN113962866B (zh) 一种基于物理感知学习的散射成像目标重建方法
Yue et al. A lidar point cloud generator: from a virtual world to autonomous driving
CN112116576B (zh) 基于偏振结构光成像和改进的缺陷检测方法
CN112287571B (zh) 基于物理驱动的散射泛化成像方法和实验方法
US20180343432A1 (en) Reducing Blur in a Depth Camera System
CN113892127A (zh) 使用神经网络和角点检测器进行角点检测的方法和装置
CN104766270A (zh) 一种基于鱼眼镜头的虚实光照融合方法
WO2018161883A1 (zh) 虚拟光线跟踪方法及光场动态重聚焦显示系统
CN113129232B (zh) 一种基于深度卷积生成对抗网络的弱光散斑成像恢复方法
CN105046649A (zh) 一种去除运动视频中运动物体的全景图拼接方法
CN110135434A (zh) 基于颜色线模型的水下图像质量提升算法
CN112734915A (zh) 一种基于深度学习的多视角立体视觉三维场景重建方法
CN113393548B (zh) 基于深度残差神经网络的非视域成像方法
Agresti et al. Stereo and ToF data fusion by learning from synthetic data
Zhuang et al. A dense stereo matching method based on optimized direction-information images for the real underwater measurement environment
CN104090476B (zh) 用于全息显示的三维场景信息的获取方法
WO2018208687A1 (en) Scanned line angular projection microscopy
Cheng et al. First-photon imaging with independent depth reconstruction
Wang et al. Visual object tracking based on light-field imaging in the presence of similar distractors
Mathai et al. Transparent object reconstruction based on compressive sensing and super-resolution convolutional neural network
CN110766609B (zh) 一种针对ToF相机的景深图超分辨率重建方法
CN112070675A (zh) 一种基于图的正则化光场超分辨率方法和光场显微装置
Mahmood et al. 3D shape recovery from image focus using kernel regression in eigenspace
CN115755383A (zh) 一种透过散射介质非侵入式大视场成像方法及装置
Li et al. Omnidirectional Ring Structured Light Noise Filtering Based On DCGAN Network And Autoencoder

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant