CN113204010A - 非视域目标检测方法、装置和存储介质 - Google Patents
非视域目标检测方法、装置和存储介质 Download PDFInfo
- Publication number
- CN113204010A CN113204010A CN202110277501.4A CN202110277501A CN113204010A CN 113204010 A CN113204010 A CN 113204010A CN 202110277501 A CN202110277501 A CN 202110277501A CN 113204010 A CN113204010 A CN 113204010A
- Authority
- CN
- China
- Prior art keywords
- visual field
- light pulse
- mixed light
- network
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种非视域目标检测方法和装置,用于降低检测成本和提高目标检测的精度,适用场景包括半导体制造业、电子制造业等高精度工业检测的机器视觉应用场景,也用于自动驾驶、安防监控等领域的检测中。方法部分包括:发射相干光脉冲至非视域目标对应的中介面;接收非视域目标返回的漫反射混合光脉冲,漫反射混合光脉冲包含非视域目标的形状信息;根据应用场景对漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲;将标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列;将每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵;将数字矩阵输入至深度学习网络中进行特征提取,以得到非视域目标的特征信息。
Description
技术领域
本发明涉及人工智能、目标检测技术领域,尤其涉及一种非视域目标检测方法、装置和计算机存储介质。
背景技术
基于传统光学成像的目标检测技术已经比较普及,其利用CCD、CMOS等探测器直接获取目标图像,根据图像特征来进行目标检测。然而,传统的光学成像只能对可以看到的物体进行成像,对于光线不能直接到达的区域无法成像,无法对被遮挡目标进行检测。
目前,也有激光距离选通、飞行时间瞬态成像和光子计数探测等非视域成像技术,但上述非视域成像技术方案均对设备要求较高,难以应用到实际非视域目标检测中。
发明内容
本发明提供一种基于深度学习网络的目标检测方法,具体地,提供了一种基于深度学习网络的非视域目标检测方法,用于解决现有技术中非视域目标特征的检测效果较差、成本较高等技术问题。适用场景包括半导体制造业、电子制造业等高精度工业检测的机器视觉应用场景,也可以用于自动驾驶、安防监控、医学影像、抢险救灾、军事侦查等多个领域的非视域目标检测中。
第一方面,提供了一种非视域目标检测方法,所述非视域目标检测方法包括:
发射相干光脉冲至所述非视域目标对应的中介面;
接收所述非视域目标返回的漫反射混合光脉冲,所述漫反射混合光脉冲包含非视域目标的形状信息;
根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲;
将所述标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列;
将所述每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵;
将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
进一步地,所述根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲,包括:
确定捕获所述漫反射混合光脉冲的光电探测器的探测精度和所述非视域目标的大小;
根据所述非视域目标的大小确定所述光电探测器的探测精度是否足够;
若所述光电探测器的探测精度为不够,则通过光脉冲处理设备拉伸所述漫反射混合光脉冲,以得到所述标准漫反射混合光脉冲。
进一步地,所述方法还包括:
若所述光电探测器的探测精度为足够且非视域目标大于预设大小,则通过所述光脉冲处理设备压缩所述漫反射混合光脉冲,得到所述标准漫反射混合光脉冲。
进一步地,所述深度学习网络包括多个不同膨胀率的并行分支膨胀卷积层和对应的并行分支多尺度融合特征提取网络,每个所述并行分支多尺度融合特征提取网络包括多级分辨率由大到小且依次相连的子网络层,且所述子网络层连接至相邻分支的同级网络层的上下级网络层,所述子网络层用于对本分支的上级网络层输出的特征图与所述同级网络层的上级网络层输出的特征图进行融合,并从融合特征中提取新特征作为下一级输入,所述将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息,包括:
通过所述多个不同膨胀率的并行分支膨胀卷积层对所述数字矩阵进行特征提取,以获取多个不同感受野的特征图;
将所述多个不同感受野的特征图对应输入至所述多个并行分支多尺度融合特征提取网络中,以分别获取每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图;
对所述每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行特征融合,得到所述非视域目标的特征信息。
进一步地,所述深度学习网络包括三个不同膨胀率的并行分支膨胀卷积层和三个并行分支多尺度融合特征提取网络,其中,所述三个不同膨胀率的并行分支膨胀卷积层中,膨胀率自上而下依次为1、2和4。
进一步地,所述对所述每个相邻并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行特征融合,得到所述非视域目标的特征信息,包括:
采用如下公式对所述每个相邻并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行特征融合,得到所述非视域目标的特征信息:
进一步地,所述子网络层输出的特征图计算方式如下公式所示:
其中,d表示对应并行分支膨胀卷积层的空洞因子,ω表示卷积参数,xn表示卷积采样点,Δxi表示卷积采样点的间隔,G表示采样网格,Fi表示所述子网络层对上一级网络层输出的特征图与所述同级网络层的上级网络层输出的特征图进行融合得到的融合特征图。
第二方面,提供了一种非视域目标检测装置,所述非视域目标检测装置包括:
发射模块,用于发射相干光脉冲至所述非视域目标对应的中介面;
接收模块,用于接收所述非视域目标返回的漫反射混合光脉冲,所述漫反射混合光脉冲包含非视域目标的形状信息;
预处理模块,用于根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲;
转换模块,用于将所述标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列,并将所述每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵;
特征提取模块,用于将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
第三方面,提供了一种非视域目标检测装置,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述非视域目标检测方法的步骤。
第四方面,提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述非视域目标检测方法的步骤。
上述基于深度学习网络的非视域目标检测方法、装置及存储介质所实现的方案中,在对非视域进行检测过程中,发明人研究发现,由于漫反射混合光脉冲的光速很快,飞行0.3um只需1飞秒,那么对于识别微米级特征的非视域目标(比如半导体表面缺陷)而言,那么就需要飞秒级的光电探测器来捕获光脉冲,以保证检测精度。然而,满足这种时间精度的光电探测器通常价格十分昂贵,而且对硬件设备过高的精度要求会严重制约技术的应用范围。针对此问题,本发明中,可采用一些设备在不改变漫反射混合光脉冲的波形的情况下,利用光脉冲处理设备对漫反射混合光脉冲进行时域拉伸,转化为所需尺度的标准漫反射混合光脉冲,以便于光电探测器捕获光脉冲,极大降低光电探测器的探测要求,例如,不改变漫反射混合光脉冲的波形的情况下,对漫反射混合光脉冲进行时域拉伸,极大降低光电探测器要求,极大的降低了成本。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明中非视域目标检测方法的一流程示意图;
图2是本发明中非视域目标的一检测场景示意图;
图3是本发明中非视域目标的另一检测场景示意图;
图4是本发明中深度学习网络的一网络架构示意图;
图5是本发明中深度学习网络的另一网络架构示意图;
图6是本发明中深度学习网络的一工作过程示意图;
图7是本发明中非视域目标检测装置的一结构示意图;
图8是本发明中计算机设备的一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明还提供了一种基于深度学习网络的非视域目标检测方法,可应用至各种各样的被检测目标的检测场景中,本发明所指的被检测目标可以是指可视域目标或者是非视域目标,本发明不做限定。当被检测目标为可视域目标时,被检测目标对应的深度学习网络输入信息可以是基于传统光学成像方式所获取的图像信息,例如,利用CCD、CMOS等探测器直接获取可视域目标的图像;当被检测目标为非视域目标时,非视域目标对应的深度学习网络的输入信息可以是非视域目标的漫反射混合光脉冲转换得到的数字矩阵,具体本发明不做限定。
需要说明的是,在本发明实施例中,上述非视域目标可以指各应用领域中出现的非视域目标,例如,在电子制造领域,高集成度的工艺流程使得多数元器件要同时组装,导致后续进行质量检测时,元器件之间互相遮挡,CCD、CMOS等工业相机无法拍摄到被遮挡区域,也即非视域目标。又例如,在半导体制造领域,微机电系统(Micro ElectromechanicalSystem,MEMS)体微加工(Bulk Micromachining)的工艺缺陷检测,体微加工是指利用刻蚀(Etching)和光刻等工艺对块硅进行准三维结构的微加工,有选择地去除部分基体或衬底材料,以形成所需要的硅微结构。目前体微加工技术制造的主要产品有:某些压力微传感器、加速度微传感器、微泵、微阀、微沟槽等微传感器、微机械和为机械零件等,这些产品的微结构的显著特点是它们都有可运动的悬臂梁或桥、可振动的膜或硅衬底里的沟槽。体微加工常用的刻蚀(Etching)工艺分为湿法腐蚀和干法腐蚀,根据腐蚀速率的方向性分为各向同性和各向异性腐蚀。腐蚀沟槽的深度、悬臂梁、桥、振动膜的厚度,通过控制腐蚀时间来控制。在刻蚀过程中,会由于刻蚀过度、刻蚀不完全产生一些工艺结构缺陷,或由刻蚀引发的材料内部应力缺陷。由于体微加工通常利用刻蚀工艺产生复杂三维结构,这些工艺缺陷难免会位于三维结构中无法直接观测的位置,比如悬臂梁或悬桥下方,镂空沟槽的角落等非视域目标。
除上述非视域目标之外,还可以是指其他场景下的非视域目标,例如,本发明不仅可以用于半导体制造业、电子制造业等高精度工业检测的机器视觉应用场景,也可以用于自动驾驶、安防监控、医学影像、抢险救灾、军事侦查等多个领域的目标检测中,具体本发明不做限定,也不一一举例说明。
发明人研究发现,在上述非视域目标中,无法通过传统光学成像实现缺陷检测,目前透视成像技术是一种解决被遮挡目标检测的方法,主要有X射线、红外透视、超声透视。但由于X射线成本太高、红外透视只能透视部分材料、超声透视分辨率太低等原因,都有不同程度的应用障碍。而且,现有的非视域成像技术主要有激光距离选通、飞行时间瞬态成像、光子计数探测几种类型,但各自存在分辨率不足、场景泛化能力差、抗干扰能力差、成本昂贵等问题,难以应用到实际目标检测中。对此,本发明实施例中,基于深度学习网络的目标检测方法,下面结合附图1,以非视域目标检测为例,对本发明实施例提供的基于深度学习网络的非视域目标检测方法,进行详细的描述,包括如下步骤:
S11:发射相干光脉冲至非视域目标对应的中介面。
S12:接收非视域目标返回的漫反射混合光脉冲,漫反射混合光脉冲包含非视域目标的形状信息。
S13:根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲。
S14:将所述标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列。
S15:将所述每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵。
S16:将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
下面对上述步骤S11-S16进行详细的描述。如图2所示,脉冲激光器发射相干光脉冲至中介面,经中介面和非视域目标作用,从而产生漫反射混合光脉冲,其中,反射的漫反射混合光脉冲中将包含着非视域目标的形状信息。需要说明的是,这里的中介面指的是脉冲激光器发射的相干光脉冲可直接扫射的区域,通常为位于非视域目标周围的可视域目标。
需要说明的是,具备高时间相干性的脉冲激光器发射相干光脉冲至中介面,由于中介面通常为粗糙表面,入射光将发生一次漫反射,部分一次漫射光在可视目标区域传播,另部分一次漫射光传播至非视域目标,在非视域目标发生二次漫反射,非视域目标的部分二次漫射光再次传播到中介面发生三次漫反射,产生的部分三次漫射光在可视域目标传播。因此,对于某一确定时刻而言,在可视域目标可以观察到的漫反射光,可以视为由脉冲激光器在不同时刻发出的相干光经历不同光路程产生的漫反射光的混合光。再如图2所示,例如,在可视域目标的t时刻观察到的漫反射光,可以包含激光器t1时刻发出的相干光经中介面一次漫反射、非视域二次漫反射、中介面三次漫反射所产生的漫反射光,也包含激光器t2时刻发出的相干光直接经中介面一次漫反射所产生的漫反射光,还包含激光器其他时刻发出的相干光经历不同光路程所产生的漫反射光。需要说明的是,图2所示的漫反射光的反射情况在此仅为示例性说明,具体不做限定。
值得注意的是,虽然各原始相干光在不同时刻从激光器发出,但不同的光路程弥补了时间差,使得最终产生的各漫反射光同时刻被观察到,形成漫反射混合光脉冲。激光器不同时刻发出的相干光具备高度时间相干性,由于漫反射过程会保留部分相干性,因而不同光路程产生的漫反射光会在混合时发生干涉。各漫反射光之间干涉引起的混合光幅度变化与各漫反射光相位差异有关,而相位差异是由不同光路程之间的光程差引起的,即各漫反射过程中光的路程变化决定了混合光中各漫反射光的干涉情况。对于非视域目标而言,当光从其表面不同位置发生漫反射,会产生不同的光路程,并在不同时刻到达可视域区域,在混合光中引起不同的干涉变化,因此,混合光随时间的变化规律中隐含着非视域目标的形状信息。脉冲激光器发射具有一定脉冲宽度的相干光脉冲,接收包含非视域目标信息的漫反射混合光脉冲,后续便可以利用模数转换器将包含非视域目标信息的漫反射混合光脉冲转换为离散数字序列后输入至深度学习网络,通过深度学习网络对离散数字序列进行特征识别便可以实现非视域目标的检测,得到非视域目标的特征信息。
需要说明的是,上述获取漫反射混合光脉冲的过程可应用至各种各样的非视域目标的检测过程中,在此不做限定。例如,如图3所示,以其中的半导体微结构的非视域缺陷为非视域目标为例,使用脉冲激光器发射相干光脉冲,经发射光纤入射到半导体微结构表面,入射光经过微结构表面和非视域缺陷位置的多次漫反射进入接收光纤,接收光纤接收到的漫发射混合光脉冲中携带着非视域缺陷的信息,经过光脉冲处理设备(如时间透镜)预处理后被光电探测器探测,由模数转换器对光电探测器探测得到的漫反射混合光脉冲转化为数字矩阵后输出至处理器,由处理器执行本发明提供的基于深度学习网络的目标检测方法。
另外值得注意的是,通常为了增加检测准确率,脉冲激光器可以发射多次脉冲,接收多个返回脉冲进行联合检测。同时,为了充分收集非视域目标的形状信息,可以调整脉冲发射和脉冲接收的位置和角度进行扫描式检测,具体不做限定。当接收多个检测光脉冲时,将每个光脉冲转换的离散数字序列进行组合,生成数字矩阵,作为深度学习网络输入,进行特征提取和目标检测。
如前述,在得到非视域目标对应的数字矩阵之后,便可将其作为深度学习网络的输入,输入至该深度学习网络中,以便深度学习网络对非视域目标对应的输入信息进行特征提取。
发明人研究发现,由于漫反射混合光脉冲的光速很快,飞行0.3um只需1飞秒,那么对于识别微米级特征的非视域目标(比如半导体表面缺陷)而言,那么就需要飞秒级的光电探测器来捕获光脉冲,以保证检测精度。然而,满足这种时间精度的光电探测器通常价格十分昂贵,而且对硬件设备过高的精度要求会严重制约技术的应用范围。针对此问题,本发明中,可采用一些设备在不改变漫反射混合光脉冲的波形的情况下,利用光脉冲处理设备对漫反射混合光脉冲进行预处理,转化为所需的标准尺度的漫反射混合光脉冲,以便于光电探测器捕获光脉冲,极大降低光电探测器的探测要求,例如,不改变漫反射混合光脉冲的波形的情况下,可对漫反射混合光脉冲进行时域拉伸,极大降低光电探测器要求,极大的降低了成本。
在一些实施例中,由于漫反射混合光脉冲的光速和对光电探测器的特殊情况,本发明实施例可以需确定是否需要对漫反射混合光脉进行拉伸、压缩或不处理,以转化为所需的标准尺度的漫反射混合光脉冲。
其中,在一些实施例中,步骤S13中,也即根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲,具体包括如下步骤:
S131:确定捕获所述漫反射混合光脉冲的光电探测器的探测精度和所述非视域目标的大小。
S132:根据非视域目标的大小确定光电探测器的探测精度是否足够。
S133:若光电探测器的探测精度为不够,则通过光脉冲处理设备拉伸非视域目标返回的漫反射混合光脉冲。
S134:通过光电探测器接收经过拉伸后的漫反射混合光脉冲。
对于步骤S131-S134,需要说明的是,光脉冲处理设备还可以是指的其他可以拉伸或压缩光脉冲的设备,本发明不做限定。其中,根据时空对应性,能够在时域中对光脉冲信号进行二次相位调制的器件都可以称为时间透镜,时间透镜的主要功能是实现时域成像和傅里叶变换。时域成像功能指的能够在保持波形不变的情况下,对输入光脉冲信号进行拉伸和压缩。基于时间透镜可以将光脉冲在时域上进行拉伸,降低对示波器和探测器分辨率的要求,这样可以采用纳秒级或百皮秒量级的探测设备对超高速光信号进行实时测量和表征,极大地降低检测成本。因此,本发明实施例中,在光电探测器的探测精度为不够的情况下,可以采用时间透镜对反射回来的反射混合光脉冲。进行拉伸,以降低后续光电探测器的探测要求,从而降低了光电探测器成本。
S135:若光电探测器的探测精度为足够且非视域目标大于预设大小,则通过光脉冲处理设备压缩非视域目标返回的漫反射混合光脉冲;
S136:通过光电探测器接收经过压缩后的漫反射混合光脉冲。
对于步骤S135-S136,可以看出,一般是在确定光电探测器精度的情况下来决定是否需要压缩或拉伸,其中,压缩也主要针对大型的非视域目标。比如,先确定采用百皮秒量级探测器,如果探测非视域目标的是小目标,探测精度不够,那就通过时间透镜拉伸漫反射混合光脉冲;如果非视域目标是大目标,探测精度也满足要求,那可以调整时间透镜不对漫反射混合光脉冲进行拉伸压缩或不使用时间透镜;如果非视域目标过大,光电探测器的探测精度绰绰有余但返回时间脉冲过长,则可以采用时间透镜进行压缩,当然,此时也可通过降低探测器精度来实现有效数据采样,但对于探测器精度已固定的系统,压缩是一种有效、简便的方法。
也就是说,时间透镜的光脉冲拉伸能力,还可以使得本发明可用于对微尺度特征的非视域目标的探测,另一方面,时间透镜的光脉冲压缩能力也可以用于大尺度特征非视域目标探测。如果需要识别的非视域目标特征尺寸比较大,在米或者分米级别,那么完整捕获目标特征需要的脉冲宽度会比较长,在不改变探测器采样精度的情况下会产生大量的数据,其中大部分细节变化数据对于大尺度特征检测来说是不必要的,利用时间透镜进行光脉冲压缩,可以在时域压缩脉冲宽度,在相同采样精度下只保留宏观特征,也可以极大地提升目标检测数据处理效率。
另外值得注意的是,对于具有不同尺度特征的非视域目标而言,时间透镜还有着标准化的作用,通过建立标准尺度,有利于建立统一性非视域目标检测算法框架,也有利于提升本发明提供的非视域目标检测方法的通用性和适应性。
需要说明的是,在实际应用中,许多场景都对非视域目标的目标检测的细微特征提取能力有着较高的要求。比如,在半导体制造领域,由刻蚀工艺形成的非视域缺陷非常微小,而且特征都体现在材料表面的细节变化中。因此需要深度学习模型具有学习可靠的高分辨率表示的能力,以实现对非视域目标的准确描述,人类视觉具有从复杂背景中快速精准定位微小目标的能力,因此,本发明通过建模人类视觉感知机理,提出基于多维度融合感受野的深度学习网络,可实现高分辨率深度特征提取和非视域目标的目标检测。
其中,本发明深度学习网络可以是指本发明特殊设计的深度学习网络,这里先对本发明提供的深度学习网络进行描述,请一并参阅图4图6所示,本发明提供的深度学习网络包括多个不同膨胀率的并行分支膨胀卷积层和对应数量的并行分支多尺度融合特征提取网络和最后的融合层,各并行分支膨胀卷积层对应连接至对应的各并行分支多尺度融合特征提取网络,各并行分支多尺度融合特征提取网络均连接至融合层,其中,每个并行分支多尺度融合特征提取网络包括多级分辨率由大到小且依次相连的子网络层,且子网络层连接至相邻分支的同级网络层的上下级网络层。具体可如图4所示,每个并行分支多尺度融合特征提取网络可以包括子网络层1、子网络层2、...子网络层N,网络层1-N的提取分辨率自上而下依次减小。例如,假设第一分支与第二分支为相邻分支,对于第一分支网络层1而言,该第一分支子网络层1连接至第一分支膨胀卷积层和第一分支网络层2,且该第一分支子网络层1还连接至相邻分支第二分支膨胀卷积层和第二分支子网络层2;对于第一分支其他子网络层,如第一分支子网络层2而言,该第一分支子网络层2连接至第一分支子网络层1和第一分支子网络层3,且该第二分支子网络层2还连接至第二分支子网络层1和第二分支子网络层3,对于各分支的子网络层3-N,可参阅前述关于第一分支子网络层2的描述,且具体各层网络的连接关系也可以参阅图4所示,这里不再重复说明。
其中,对于每个分支多尺度融合特征提取网络的子网络层而言,子网络层用于对本分支的上级网络层输出的特征图与同级网络层的上级网络层输出的特征图进行融合,并从融合特征中提取新特征作为下一级输入。例如,对于第一分支子网络层1而言,该第一分支子网络层1用于对第一分支膨胀卷积层输出的特征图与第二分支膨胀卷积层输出的特征图进行融合,并从融合特征中提取新特征作为下一级输入,也即作为与第一分支子网络层2的输入以及第二分支子网络层2的输入;对于第一分支其他子网络层,如第一分支子网络层2,该第一分支子网络层2用于对第一分支子网络层1输出的特征图与第二分支子网络层1输出的特征图进行融合,并从融合特征中提取新特征作为第一分支子网络层3和第二分支子网络层3的输入,对于各分支的子网络层3-N,可对应参前述,这里也不再重复说明。
可以看出,本发明可以设置不同倍数膨胀率的膨胀卷积层组成多支并行分支对非视域目标对应的输入信息进行特征提取,使每个分支产生不同的感受野的特征图,需要说明的是,针对非视域目标的具体情况,本发明可以对并行分支膨胀卷积层和对应的并行分支多尺度融合特征提取网络的分支数量做设计,如图4中,可以设置到第M分支,例如,在本发明的一些实施方式中,可以针对多个大中小三种不同尺寸的非视域目标,可以设计三个分别采用不同倍数膨胀率的膨胀卷积组成三支并行分支对非视域目标的输入信息进行特征提取,从而使得每个分支产生不同的感受野的特征图。例如,当膨胀卷积使用3*3大小的卷积核时,各分支产生的感受野边长可以用公式3+2*2*(d-1)表示,其中,d表示膨胀因子。值得注意的是,发明人经过研究实验发现,当三个分支膨胀因子分别为1、2、4时,深度学习网络针对非视域目标为缺陷时的效果极佳,此时,三个分支所对应的感受野大小分别为3*3、7*7、15*15,从这里也可以看出,不同大小感受野可以提取不同细粒度的特征信息用于识别不同大小的缺陷目标。
本发明中,不同倍数膨胀率的膨胀卷积层组成多支并行分支,对应的,还设置有与膨胀卷积层分支数量对应的多个并行分支多尺度融合特征提取网络,可见,本发明提供的深度学习网络整体上采用了并行分支结构,使得各个分支可以获得具有统一表示能力的输入特征信息,这样可以使得模型对于不同细粒度特征信息具有相同的特征提取能力。
再如图6所示,对于每个并行分支多尺度融合特征提取网络而言,从各个分支的一个高分辨率子网络层作为第一级开始,逐步将高分辨率到低分辨率的网络层逐个添加,形成多个级的子网络层,并将相邻分支不同分辨率的上下级子网络层并行连接起来,可以实现多尺度的特征融合。需要说明的是,每个并行分支多尺度融合特征提取网络所设置的多级子网络层的数量这里不做限制,如均设置N个子网络层,具体可以根据应用需求进行配置。
其中,多尺度融合特征提取网络的融合过程可继续参阅图3和图4所示,例如,1a是子网络层1提取出上一级网络层(膨胀卷积层)输出的特征图的过程,1b表示该级子网络层1利用卷积操作对相邻分支上各个通道特征信息进行特征融合,也即该级子网络层1对自身分支膨胀卷积层提取的特征图与相邻分支膨胀卷积层输出的特征图进行特征融合的,得到由不同感受野提取的特征融合后的特征图;2a表示子网络层2提取出自身分支网络层1的特征图和相邻分支网络层1的特征图,2b表示利用卷积操作对自身分支网络层1的特征图和相邻分支网络层1的特征图再次进行特征融合,之后,后续的3a、、3b、4a、4d...Na、Nd,均是后续子网络层的特征融合过程,这里不再重复赘述。可以看出,后续的网络层不断重复进行相邻分支间的多尺度特征融合,实现多尺度并行密集连接,使得每个高分辨率到低分辨率的表示一次又一次地接收来自其他分支并行表示的信息,通过并行多分支的密集连接,实现在整个网络特征提取过程中保持高分辨率的表示,并通过重复的多尺度特征融合,使得每个高分辨率到低分辨率的表示一次又一次地接收来自其他分支并行表示的信息,从而得到丰富的高分辨率表示,使得非视域目标的检测结果更精确。
结合上述深度学习网络,在一实施例中,步骤S16中,也即将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息,具体包括如下步骤:
S161:通过所述多个不同膨胀率的并行分支膨胀卷积层对所述数字矩阵进行特征提取,以获取多个不同感受野的特征图。
S161:将多个不同感受野的特征图对应输入至多个并行分支多尺度融合特征提取网络中,以分别获取每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图。
S163:对所述每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行特征融合,得到所述非视域目标的特征信息。
对于步骤S161,将所述数字矩阵输入至深度学习网络中,首先通过深度学习网络的多个不同膨胀率的并行分支膨胀卷积层对所述数字矩阵进行特征提取,以获取多个不同感受野的特征图。在一些实施例中,多尺度并行密集连接网络包括三个不同膨胀率的并行分支膨胀卷积层和三个并行分支多尺度融合特征提取网络,其中,三个不同膨胀率的并行分支膨胀卷积层中,膨胀率自上而下依次为1、2和4。在该实施例对应的应用场景中,设计了三个分别采用不同倍数膨胀率的膨胀卷积组成三支并行分支对输入数字矩阵进行特征提取,从而使得每个分支产生不同的感受野。
值得说明的是,当使用3*3大小的卷积核时,各分支产生的感受野边长可以用公式3+2*2*(d-1)表示,其中d表示膨胀因子,发明人经过研究实验发现,当三个分支膨胀因子分别为1、2、4时,网络检测缺陷的效果最佳,此时三个分支所对应的感受野大小分别为3*3、7*7、15*15。不同大小感受野可以提取不同细粒度的特征信息用于识别不同大小的缺陷目标,尤其对于半导体缺陷等非视域目标具有较好的检测效果。
对于步骤S162,在得到多个并行分支膨胀卷积层输出的多个不同感受野的特征信息,对应输至相应分支的并行分支多尺度融合特征提取网络中,以通过每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行处理,得到每个并行分支多尺度融合特征提取网络最后输出的多尺度融合特征图。需要说明的是,具体地关于并行分支多尺度融合特征提取网络的工作过程可以参阅前述描述,这里不再重复说明。
对于步骤S163,在得到每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图之后,便能通过融合层对每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行特征融合,得到非视域目标的特征信息。
在一些实施例中,子网络层对上一级网络层输出的特征图与所述同级网络层的上级网络层输出的特征图进行融合得到的融合特征图的过程如下公式所示:
Fi=f(x1)+f(x2);
其中,Fi表示所述子网络层对上一级网络层输出的特征图与所述同级网络层的上级网络层输出的特征图进行融合得到的融合特征图,f(x1),f(x2)表示上一级网络层相邻并行分支输出的特征图,“+”操作表示通过快捷连接将相邻并行分支各个元素相加实现特征融合,将融合后的特征传递到下一层。例如,对于第一分支其他子网络层,如第一分支子网络层2,该第一分支子网络层2用于对第一分支子网络层1输出的特征图f(x1)与第二分支子网络层1输出的特征图f(x2)进行融合,并从融合特征中提取新特征Fi作为第一分支子网络层3和第二分支子网络层3的输入,其他子网络层的处理过程类似,这里不重复描述。
其中,在一实施方式中,各个分支的子网络层特征在相互融合后,需使用各自膨胀率的卷积核进行独立的前向传播,来提取不同分辨率的特征信息,例如,对于一个3*3卷积核的标准二维卷积,可使用常规的网格在输入特征图上进行采样,网格G可以定义为:G={(-1,-1),(-1,0),...,(0,1),(1,1)},对应的,子网络层输出的特征图的计算方式如下公式所示:
其中,d表示对应并行分支膨胀卷积层的空洞因子,ω表示卷积参数,该卷积参数包括每个卷积核对应的权重值,xn表示卷积采样点,Δxi表示卷积采样点的间隔,G表示采样网格,Fi表示子网络层对上一级网络层输出的特征图与相邻分支对应的上级网络层输出的特征图进行融合得到的融合特征图。例如,对于第一分支子网络层1,该第一分支子网络层1输出至下一级网络的特征图可通过上述公式计算得到,此时的Fi表示子网络层1对第一分支膨胀卷积层输出的特征图与第二分支膨胀卷积层输出的特征图进行融合得到的融合特征图。
多尺度融合特征提取网络处理之后,各个并行分支多尺度融合特征提取网络可以得到对应的多尺度融合特征,随后再利用融合层进行再融合,可以实现通过在并行的多分辨率分支中反复交换信息来进行多尺度的重复融合,从而得到非视域目标更为精确的特征信息,融合过程可如结合图6参阅。
其中,在采用如下公式对每个并行分支多尺度融合特征提取网络最后输出的多尺度融合特征图进行特征融合,得到非视域目标的特征信息:
可见,在上述深度学习网络的整个工作过程中,通过在并行的多分辨率分支中反复交换特征信息来进行多尺度的重复融合,通过网络输出的高分辨率表示来非视域目标,这种深度学习网络可以将高分辨率到低分辨率的特征信息并联起来,而不是像大多数现有解决方案那样串联起来,通过从低到高的过程恢复分辨率。同样,该深度学习网络也利用相同深度和相似水平的低分辨率表示来增强高分辨率表示,使得高分辨率表示具有了丰富的高语义特征信息。因此,该方法能够对非视域具有更高的检测准确率。
需要说明的是,上述实施例是以非视域目标检测为例,上述检测方法和深度学习模型也可以应用至可视域目标的检测之中,具体这里不再说明,也不做限定。
综上所示,本发明提供了一种基于深度学习网络的目标检测方法,具体地,也提供了一种基于深度学习网络的非视域目标检测方法,以及基于脉冲激光和光脉冲处理设备的非视域目标检测方法。尤其是针对非视域目标的检测过程中,本发明可利用相干光脉冲的时间相干性,基于不同光程差漫反射光产生干涉的原理,将非视域目标的形状信息调制在返回的漫反射混合光脉冲中,并可以通过时间透镜改变漫反射混合光脉冲时间宽度,实现低成本光电探测器信号采集,而且再通过深度学习网络,实现非视域目标的准确检测,利用时间透镜,实现不同尺度特征非视域目标的准确检测,场景适应性广。
另外,本发明从时域光脉冲波形分析角度出发,基于时间透镜的时域调制作用,可以建立标准尺度非视域目标检测算法框架,具有实际应用快速复制能力。其次,本发明还提出一种基于多尺度并行密集连接的深度学习网络,也即本发明特殊设计的深度学习网络,通过在并行的多分辨率分支中反复交换信息来进行多尺度的重复融合获取高分辨率特征,实现高准确率的非视域或视域目标的检测。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种非视域目标检测装置,该非视域目标检测装置与上述实施例中的非视域目标检测方法一一对应,其中,如图7所示,该目标检测装置包括发射模块101、接收模块102、预处理模块103、转换模块104和特征提取模块105。各功能模块详细说明如下:
发射模块,用于发射相干光脉冲至所述非视域目标对应的中介面;
接收模块,用于接收所述非视域目标返回的漫反射混合光脉冲,所述漫反射混合光脉冲包含非视域目标的形状信息;
预处理模块,用于根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲;
转换模块,用于将所述标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列,并将所述每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵;
特征提取模块,用于将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
关于非视域目标检测装置的具体限定可以参见上文中对于非视域目标检测方法的限定,在此不再赘述。上述非视域目标检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。部分模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部设备,如模数转换器通过网络连接通信。该计算机程序被处理器执行时以实现一种非视域目标检测方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取数字矩阵,其中,所述数字矩阵为标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列所组合而成,所述标准漫反射混合光脉冲为根据应用场景对所述非视域目标返回的漫反射混合光脉冲转换得到,所述非视域目标返回的漫反射混合光脉冲包含非视域目标的形状信息;
将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取数字矩阵,其中,所述数字矩阵为标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列所组合而成,所述标准漫反射混合光脉冲为根据应用场景对所述非视域目标返回的漫反射混合光脉冲转换得到,所述非视域目标返回的漫反射混合光脉冲包含非视域目标的形状信息;
将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种非视域目标检测方法,其特征在于,所述非视域目标检测方法包括:
发射相干光脉冲至所述非视域目标对应的中介面;
接收所述非视域目标返回的漫反射混合光脉冲,所述漫反射混合光脉冲包含非视域目标的形状信息;
根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲;
将所述标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列;
将所述每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵;
将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
2.如权利要求1所述的非视域目标检测方法,其特征在于,所述根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲,包括:
确定捕获所述漫反射混合光脉冲的光电探测器的探测精度和所述非视域目标的大小;
根据所述非视域目标的大小确定所述光电探测器的探测精度是否足够;
若所述光电探测器的探测精度为不够,则通过光脉冲处理设备拉伸所述漫反射混合光脉冲,以得到所述标准漫反射混合光脉冲。
3.如权利要求2所述的非视域目标检测方法,其特征在于,所述方法还包括:
若所述光电探测器的探测精度为足够且非视域目标大于预设大小,则通过所述光脉冲处理设备压缩所述漫反射混合光脉冲,得到所述标准漫反射混合光脉冲。
4.如权利要求1-3任一项所述的非视域目标检测方法,其特征在于,所述深度学习网络包括多个不同膨胀率的并行分支膨胀卷积层和对应的并行分支多尺度融合特征提取网络,每个所述并行分支多尺度融合特征提取网络包括多级分辨率由大到小且依次相连的子网络层,且所述子网络层连接至相邻分支的同级网络层的上下级网络层,所述子网络层用于对本分支的上级网络层输出的特征图与所述同级网络层的上级网络层输出的特征图进行融合,并从融合特征中提取新特征作为下一级输入,所述将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息,包括:
通过所述多个不同膨胀率的并行分支膨胀卷积层对所述数字矩阵进行特征提取,以获取多个不同感受野的特征图;
将所述多个不同感受野的特征图对应输入至所述多个并行分支多尺度融合特征提取网络中,以分别获取每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图;
对所述每个并行分支多尺度融合特征提取网络输出的多尺度融合特征图进行特征融合,得到所述非视域目标的特征信息。
5.如权利要求4所述的非视域目标检测方法,其特征在于,所述深度学习网络包括三个不同膨胀率的并行分支膨胀卷积层和三个并行分支多尺度融合特征提取网络,其中,所述三个不同膨胀率的并行分支膨胀卷积层中,膨胀率自上而下依次为1、2和4。
8.一种非视域目标检测装置,其特征在于,所述非视域目标检测装置包括:
发射模块,用于发射相干光脉冲至所述非视域目标对应的中介面;
接收模块,用于接收所述非视域目标返回的漫反射混合光脉冲,所述漫反射混合光脉冲包含非视域目标的形状信息;
预处理模块,用于根据应用场景对所述漫反射混合光脉冲进行预处理,得到符合所需尺度的标准漫反射混合光脉冲;
转换模块,用于将所述标准漫反射混合光脉冲的每个光脉冲转换为离散数字序列,并将所述每个光脉冲转换对应的离散数字序列进行组合,得到数字矩阵;
特征提取模块,用于将所述数字矩阵输入至深度学习网络中进行特征提取,以得到所述非视域目标的特征信息。
9.一种非视域目标检测装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述非视域目标检测方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述非视域目标检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110277501.4A CN113204010B (zh) | 2021-03-15 | 2021-03-15 | 非视域目标检测方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110277501.4A CN113204010B (zh) | 2021-03-15 | 2021-03-15 | 非视域目标检测方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113204010A true CN113204010A (zh) | 2021-08-03 |
CN113204010B CN113204010B (zh) | 2021-11-02 |
Family
ID=77025425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110277501.4A Active CN113204010B (zh) | 2021-03-15 | 2021-03-15 | 非视域目标检测方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113204010B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113820727A (zh) * | 2021-09-30 | 2021-12-21 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于神经网络的快速定位方法 |
CN113820726A (zh) * | 2021-09-30 | 2021-12-21 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于多维滤波的噪声抑制方法 |
CN113919398A (zh) * | 2021-10-18 | 2022-01-11 | 中国科学院光电技术研究所 | 一种基于深度学习的非视域目标信号辨识方法 |
CN114677443A (zh) * | 2022-05-27 | 2022-06-28 | 深圳智华科技发展有限公司 | 光学定位方法、装置、设备及存储介质 |
CN116229336A (zh) * | 2023-05-10 | 2023-06-06 | 江西云眼视界科技股份有限公司 | 视频移动目标识别方法、系统、存储介质及计算机 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2141579A1 (en) * | 2008-06-27 | 2010-01-06 | National Institute Of Information And Communication Technology | Item display device, item display method, and computer-readable information recording medium for preventing electromagnetic wave leakage of displayed information |
US20130308860A1 (en) * | 2012-05-16 | 2013-11-21 | Katholieke Universiteit Leuven, K.U. Leuven R&D | Feature Detection in Numeric Data |
US20130329581A1 (en) * | 2012-06-07 | 2013-12-12 | Novatek Microelectronics Corp. | Method for positioning mobile device in wireless wide area network |
CN106772428A (zh) * | 2016-12-15 | 2017-05-31 | 哈尔滨工业大学 | 一种无扫描式光子计数非视域三维成像装置及方法 |
US20170317750A1 (en) * | 2012-01-09 | 2017-11-02 | Attochron, Llc | USPL-FSO Lasercom Point-to-Point and Point-to-Multipoint Optical Wireless Communication |
US20180182071A1 (en) * | 2016-12-28 | 2018-06-28 | Dassault Systemes | Depth sensor noise |
CN108268937A (zh) * | 2018-02-13 | 2018-07-10 | 北京旷视科技有限公司 | 一种神经网络及其计算方法、设备和计算机可读介质 |
CN110674866A (zh) * | 2019-09-23 | 2020-01-10 | 兰州理工大学 | 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法 |
EP3654249A1 (en) * | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
CN111340929A (zh) * | 2020-02-20 | 2020-06-26 | 东南大学 | 一种基于光线跟踪算法的非视域成像方法 |
CN111372190A (zh) * | 2020-01-23 | 2020-07-03 | 鹏城实验室 | 移动终端位置追踪的机器学习模型、方法、设备及存储介质 |
CN111462299A (zh) * | 2020-03-02 | 2020-07-28 | 清华大学 | 基于深度学习的非视域飞秒成像三维重建方法及装置 |
CN111694014A (zh) * | 2020-06-16 | 2020-09-22 | 中国科学院西安光学精密机械研究所 | 一种基于点云模型的激光非视域三维成像场景建模方法 |
CN111813532A (zh) * | 2020-09-04 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种基于多任务机器学习模型的图像管理方法及装置 |
CN111967480A (zh) * | 2020-09-07 | 2020-11-20 | 上海海事大学 | 基于权重共享的多尺度自注意力目标检测方法 |
CN112132207A (zh) * | 2020-09-18 | 2020-12-25 | 上海海事大学 | 基于多分支特征映射目标检测神经网络构建方法 |
CN112200766A (zh) * | 2020-09-04 | 2021-01-08 | 杭州电子科技大学 | 基于区域关联神经网络的工业产品表面缺陷检测方法 |
-
2021
- 2021-03-15 CN CN202110277501.4A patent/CN113204010B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2141579A1 (en) * | 2008-06-27 | 2010-01-06 | National Institute Of Information And Communication Technology | Item display device, item display method, and computer-readable information recording medium for preventing electromagnetic wave leakage of displayed information |
US20170317750A1 (en) * | 2012-01-09 | 2017-11-02 | Attochron, Llc | USPL-FSO Lasercom Point-to-Point and Point-to-Multipoint Optical Wireless Communication |
US20130308860A1 (en) * | 2012-05-16 | 2013-11-21 | Katholieke Universiteit Leuven, K.U. Leuven R&D | Feature Detection in Numeric Data |
US20130329581A1 (en) * | 2012-06-07 | 2013-12-12 | Novatek Microelectronics Corp. | Method for positioning mobile device in wireless wide area network |
CN106772428A (zh) * | 2016-12-15 | 2017-05-31 | 哈尔滨工业大学 | 一种无扫描式光子计数非视域三维成像装置及方法 |
US20180182071A1 (en) * | 2016-12-28 | 2018-06-28 | Dassault Systemes | Depth sensor noise |
CN108268937A (zh) * | 2018-02-13 | 2018-07-10 | 北京旷视科技有限公司 | 一种神经网络及其计算方法、设备和计算机可读介质 |
EP3654249A1 (en) * | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
CN110674866A (zh) * | 2019-09-23 | 2020-01-10 | 兰州理工大学 | 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法 |
CN111372190A (zh) * | 2020-01-23 | 2020-07-03 | 鹏城实验室 | 移动终端位置追踪的机器学习模型、方法、设备及存储介质 |
CN111340929A (zh) * | 2020-02-20 | 2020-06-26 | 东南大学 | 一种基于光线跟踪算法的非视域成像方法 |
CN111462299A (zh) * | 2020-03-02 | 2020-07-28 | 清华大学 | 基于深度学习的非视域飞秒成像三维重建方法及装置 |
CN111694014A (zh) * | 2020-06-16 | 2020-09-22 | 中国科学院西安光学精密机械研究所 | 一种基于点云模型的激光非视域三维成像场景建模方法 |
CN111813532A (zh) * | 2020-09-04 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种基于多任务机器学习模型的图像管理方法及装置 |
CN112200766A (zh) * | 2020-09-04 | 2021-01-08 | 杭州电子科技大学 | 基于区域关联神经网络的工业产品表面缺陷检测方法 |
CN111967480A (zh) * | 2020-09-07 | 2020-11-20 | 上海海事大学 | 基于权重共享的多尺度自注意力目标检测方法 |
CN112132207A (zh) * | 2020-09-18 | 2020-12-25 | 上海海事大学 | 基于多分支特征映射目标检测神经网络构建方法 |
Non-Patent Citations (7)
Title |
---|
DONGDONG CHEN 等: "Gated context aggregation network for image dehazing and deraining", 《2019 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV)》 * |
HAO TAN 等: "Deep Learning Based Single-Photon 3D Imaging with Multiple Retur", 《2020 INTERNATIONAL CONFERENCE ON 3D VISION (3DV)》 * |
于亭义 等: "基于深度学习的非视域成像", 《光学学报》 * |
余峥 等: "基于特征融合网络的自然场景文本检测", 《计算机系统应用》 * |
李国栋 等: "非视域成像系统的研究现状和发展趋势", 《导航与控制》 * |
王协 等: "基于多尺度学习与深度卷积神经网络的遥感图像土地利用分类", 《浙江大学学报(理学版)》 * |
高晓源 等: "社会媒体情绪感染模型研究", 《应用心理学》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113820727A (zh) * | 2021-09-30 | 2021-12-21 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于神经网络的快速定位方法 |
CN113820726A (zh) * | 2021-09-30 | 2021-12-21 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于多维滤波的噪声抑制方法 |
CN113820726B (zh) * | 2021-09-30 | 2023-06-13 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于多维滤波的噪声抑制方法 |
CN113820727B (zh) * | 2021-09-30 | 2024-02-02 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于神经网络的快速定位方法 |
CN113919398A (zh) * | 2021-10-18 | 2022-01-11 | 中国科学院光电技术研究所 | 一种基于深度学习的非视域目标信号辨识方法 |
CN113919398B (zh) * | 2021-10-18 | 2023-06-16 | 中国科学院光电技术研究所 | 一种基于深度学习的非视域目标信号辨识方法 |
CN114677443A (zh) * | 2022-05-27 | 2022-06-28 | 深圳智华科技发展有限公司 | 光学定位方法、装置、设备及存储介质 |
CN114677443B (zh) * | 2022-05-27 | 2022-08-19 | 深圳智华科技发展有限公司 | 光学定位方法、装置、设备及存储介质 |
CN116229336A (zh) * | 2023-05-10 | 2023-06-06 | 江西云眼视界科技股份有限公司 | 视频移动目标识别方法、系统、存储介质及计算机 |
CN116229336B (zh) * | 2023-05-10 | 2023-08-18 | 江西云眼视界科技股份有限公司 | 视频移动目标识别方法、系统、存储介质及计算机 |
Also Published As
Publication number | Publication date |
---|---|
CN113204010B (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113204010B (zh) | 非视域目标检测方法、装置和存储介质 | |
Meyer et al. | Lasernet: An efficient probabilistic 3d object detector for autonomous driving | |
CN106780485B (zh) | 基于超像素分割和特征学习的sar图像变化检测方法 | |
US10302424B2 (en) | Motion contrast depth scanning | |
KR102412022B1 (ko) | 큰 오프셋 다이-다이 검사를 위한 다단계 이미지 정렬 방법 | |
US20070189750A1 (en) | Method of and apparatus for simultaneously capturing and generating multiple blurred images | |
JP2010539469A (ja) | 周期パターン照明及びtdiによる結像測定システム | |
CN109636790B (zh) | 一种管路结构的识别方法及装置 | |
KR102089510B1 (ko) | 다-파장 분광장치를 이용한 객체인식 장치 및 그 방법 | |
Kang et al. | High-resolution depth imaging with a small-scale SPAD array based on the temporal-spatial filter and intensity image guidance | |
Prieto et al. | Preparation and enhancement of 3D laser scanner data for realistic coloured BIM models | |
EP3070643B1 (fr) | Procédé et système de reconnaissance d'objets par analyse de signaux d'image numérique d'une scène | |
EP4336255A1 (en) | Incline estimation system, incline estimation method, incline estimation program, semiconductor inspection system, and organism observation system | |
Nagamatsu et al. | Self-calibrated dense 3D sensor using multiple cross line-lasers based on light sectioning method and visual odometry | |
JP2017101977A (ja) | 検査システムおよび検査方法 | |
US20240153120A1 (en) | Method to determine the depth from images by self-adaptive learning of a neural network and system thereof | |
US20230342963A1 (en) | Imaging device, information processing device, imaging method, and information processing method | |
Cassinis et al. | Using colour information in an omnidirectional perception system for autonomous robot localization | |
KR102191743B1 (ko) | 거리 측정 장치 | |
Pashchenko et al. | An algorithm for the visualization of stereo images simultaneously captured with different exposures | |
KR20230036651A (ko) | 라이다 데이터의 다중 좌표계 특징을 사용한 객체 검출 시스템 및 방법 | |
CN113970560A (zh) | 一种基于多传感融合的缺陷三维检测方法 | |
Atif et al. | Boundary based shade detection | |
CN111373222A (zh) | 光投射系统 | |
Rudrappa et al. | Pixel Saturation Applied for Cloud Cover Estimation in Ground based All Sky Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |