CN112102326B - 一种安检ct图像目标物的提取和分割方法 - Google Patents

一种安检ct图像目标物的提取和分割方法 Download PDF

Info

Publication number
CN112102326B
CN112102326B CN202011155832.2A CN202011155832A CN112102326B CN 112102326 B CN112102326 B CN 112102326B CN 202011155832 A CN202011155832 A CN 202011155832A CN 112102326 B CN112102326 B CN 112102326B
Authority
CN
China
Prior art keywords
image
target object
data set
images
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011155832.2A
Other languages
English (en)
Other versions
CN112102326A (zh
Inventor
李春阳
何竞择
张文杰
徐圆飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Hangxing Machinery Manufacturing Co Ltd
Original Assignee
Beijing Hangxing Machinery Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Hangxing Machinery Manufacturing Co Ltd filed Critical Beijing Hangxing Machinery Manufacturing Co Ltd
Priority to CN202011155832.2A priority Critical patent/CN112102326B/zh
Publication of CN112102326A publication Critical patent/CN112102326A/zh
Application granted granted Critical
Publication of CN112102326B publication Critical patent/CN112102326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30112Baggage; Luggage; Suitcase

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种安检CT图像目标物的提取和分割方法,包括:得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。本发明解决了现有技术存在对目标物自动提取和分割的精度不高问题。

Description

一种安检CT图像目标物的提取和分割方法
技术领域
本发明涉及安检CT图像技术领域,尤其涉及一种安检CT图像目标物的提取和分割方法。
背景技术
CT成像技术已成为安检系统中的重要技术,尤其是在机场、车站、海关、码头等重要场所,都采用了CT安检机对旅客行李物品、货物集装箱等进行严格检查。
随着机器学习技术在安检领域的应用,智能安检CT系统已经可以帮助安检员及时、准确的对危险物进行定位和预警,但目前由于深度学习网络对目标物自动提取和分割的精度不高,所以要达到真正的无人值守安检目标还比较遥远,目前提高目标物提取和分割的精度已成为智能安检CT系统亟待解决的问题。
现有CT图像目标提取和分割网络主要有基于切片图像的二维神经网络和基于三维图像的三维神经网络,三维神经要比二维神经网络提取精度高,因为二维神经网络只利用单层切片图像的信息,而三维神经网络利用了多层及整个三维图像信息。但两种方案主要利用的是单一图像信息,对同一目标物多种状态下的关联信息未加利用,因此对目标物自动提取和分割的精度仍然不高。
发明内容
鉴于上述的分析,本发明旨在提供一种安检CT图像目标物的提取和分割方法,以解决现有CT图像目标提取和分割网络存在对目标物自动提取和分割的精度不高问题。
本发明的目的主要是通过以下技术方案实现的:
本发明提供了一种安检CT图像目标物的提取和分割方法,包括以下步骤:
得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;
根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;
将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;
将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;
将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。
进一步地,所述得到已标定的单一目标物的CT图像数据集,具体包括:将目标物体以不同的角度位置通过安检CT机,得到包含该目标物且有不同角度和位置的CT图像,及相应的目标物不同角度位置的CT图像数据集Pi,并根据数据集Pi进行目标物人工标定,其中,Pi∈A,A是所有类型CT图像的域。
进一步地,所述得到已标定的装入箱包目标物的CT图像数据集,具体包括:将目标物以不同位置和叠压关系装入箱包通过安检CT机,得到包含该目标物在箱包中不同位置和叠压关系的CT图像,及相应的目标物不同位置和叠压关系的CT图像数据集Qi,并根据数据集Qi进行目标物人工标定,其中,Qi∈A,A是所有类型CT图像的域。
进一步地,所述根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度,具体包括:
选取图像数据集Pi、Qi的图像,并根据已标定目标物数据提取分割出三维目标物,将提取的目标物图像进行配准;
根据提取的目标物图像将图像数据集Pi、Qi进行两两分组配准,分组图像表为Listi,并计算各组图像的匹配相似度SIMi
进一步地,所述分组图像表Listi为:
Listi={(P1,Qi),(P2,Qi-1),...,(Pi,Q1)}(i=1,2…N);
其中,N为图像两两组合的分组总数。
进一步地,所述计算各组图像的匹配相似度SIMi的具体过程如下:
其中,ai表示图像数据集Pi的图像像素,bi表示图像数据集Qi的图像像素,n为每个图像的像素数,N为图像两两组合的分组总数。
进一步地,将所述匹配相似度进行归一化得到组图像的匹配权重,其公式如下:
其中,ωi为分组图像表Listi中组图像的匹配权重,SIMi(max)为SIMi的最大值,SIMi(min)为SIMi的最小值。
进一步地,根据所述组图像的匹配权重得到CT图像的分组打包数据集,包括:将所述组图像的匹配权重小于预定值的部分数据剔除,并相应删除所述剔除权重索引的组图像,得到分组打包数据集。
进一步地,将所述分组打包数据集输入三维深度神经网络进行网络训练,包括:通过所述分组数据集分配组图像的匹配权重更新所述三维深度神经网络的网络参数完成网络训练。
进一步地,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割,具体包括:利用安检CT机扫描目标物后采集投影测试数据获得所述待提取和分割目标物的安检CT图像,并利用所述网络参数更新后的三维深度神经网络对所述投影测试数据进行处理。
本技术方案有益效果如下:本发明公开了一种安检CT图像目标物的提取和分割方法,该方法利用目标物分组数据关系的目标物提取和分割方法,通过对已标定目标物不同状态图像的配准,得到匹配相似度,根据匹配相似度对分组数据进行加权,将分组加权的打包数据作为三维深度神经网络的输入来训练模型,提高了目标物提取和分割精度。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例的一种安检CT图像目标物的提取和分割方法流程图;
图2为本发明实施例的安检CT图像目标物的提取和分割中的分组打包数据生成方法流程图;
图3为本发明实施例的三维深度神经网络的训练及对安检CT图像目标物的提取和分割的流程图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明的技术构思:采集不同角度目标物和放于箱包中处于不同位置及叠压关系目标物的CT投影数据,对包含标定目标物的样本集进行分组配准,得到标定目标物的匹配权重,以分组加权打包数据作为神经网络的输入进行网络训练,最终得到可以自动提取和分割目标物的网络模型。本发明方法利用多组数据的匹配关系,可以提高复杂环境下目标物的提取和分割准确度。
本发明的一个具体实施例,如图1所示,公开了一种安检CT图像目标物的提取和分割方法,包括以下步骤:
S1,得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;
S2,根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;
S3,将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;
S4,将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;
S5,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。
与现有技术相比,本发明实施例基于三维深度神经网络利用分组数据关系进行目标物提取和分割,即将目标物多种状态数据进行分组加权的神经网络来自动提取和分割目标物,可以通过一种已知状态的目标物预测其相应的位置和边缘,提高目标物提取和分割的精度。
本发明的一个具体实施例,如图2所示,所述得到已标定的单一目标物的CT图像数据集,具体包括:将目标物体以不同的角度位置通过安检CT机,得到包含该目标物且有不同角度和位置的CT图像,及相应的目标物不同角度位置的CT图像数据集Pi,并根据数据集Pi进行目标物人工标定,其中,Pi∈A,A是所有类型CT图像的域。
具体地,将目标物以不同的角度位置通过安检CT机,得到只包含目标物且有不同角度和位置的CT图像,Pi∈A,Pi是目标物不同角度位置的CT图像集,A是所有类型CT图像的域,将Pi数据集进行目标物人工标定。
本发明的一个具体实施例,如图2所示,所述得到已标定的装入箱包目标物的CT图像数据集,具体包括:将目标物以不同位置和叠压关系装入箱包通过安检CT机,得到包含该目标物在箱包中不同位置和叠压关系的CT图像,及相应的目标物不同位置和叠压关系的CT图像数据集Qi,并根据数据集Qi进行目标物人工标定,其中,Qi∈A,A是所有类型CT图像的域。
具体地,将目标物以不同位置和叠压关系装入箱包,得到包含目标物在箱包中不同位置和叠压关系的CT图像,Qi∈A,Qi是目标物不同位置和叠压关系的CT图像集,A是所有类型CT图像的域,将Qi数据集进行目标物人工标定。
其中的叠压关系包括:多个目标物摆放进行采集射线图像时,其位置关系为互相分离或层叠重叠摆放。
本发明的一个具体实施例,如图2所示,所述根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度,具体包括:
选取图像数据集Pi、Qi的图像,并根据已标定目标物数据提取分割出三维目标物,将提取的目标物图像进行配准;
根据提取的目标物图像将图像数据集Pi、Qi进行两两分组配准,分组图像表为Listi,并计算各组图像的匹配相似度SIMi
具体地,将图像集Pi、Qi进行两两分组配准,得到排列组合表,大小为N*N,N为图像两两组合的分组总数,分组表为Listi,计算每组图像的匹配相似度SIMi
本发明的一个具体实施例,所述分组图像表Listi为:
Listi={(P1,Qi),(P2,Qi-1),...,(Pi,Q1)}(i=1,2....N);
其中,N为图像两两组合的分组总数。
本发明的一个具体实施例,所述计算各组图像的匹配相似度SIMi的具体过程如下:
其中,ai表示图像数据集Pi的图像像素,bi表示图像数据集Qi的图像像素,n为每个图像的像素数,N为图像两两组合的分组总数。
本发明的一个具体实施例,将所述匹配相似度进行归一化得到组图像的匹配权重,其公式如下:
其中,ωi为分组图像表Listi中组图像的匹配权重,SIMi(max)为SIMi的最大值,SIMi(min)为SIMi的最小值。
具体地,将相似度SIMi数据归一化到0~1之间,用ωi表示。
本发明的一个具体实施例,如图3所示,根据所述组图像的匹配权重得到CT图像的分组打包数据集,包括:将所述组图像的匹配权重小于预定值的部分数据剔除,并相应删除所述剔除权重索引的组图像,得到分组打包数据集。
具体地,基于实验数据统计分析,预定值选择为0.4。将所述组图像的匹配权重去除权重ωi<0.4的数据,相应删除分组表Listi中对应索引的组图像数据。
本发明的一个具体实施例,如图3所示,将所述分组打包数据集输入三维深度神经网络进行网络训练,包括:通过所述分组数据集分配组图像的匹配权重更新所述三维深度神经网络的网络参数完成网络训练。也就是说,本发明实施例利用了图像间匹配关系信息进行网络训练,增加了三维深度神经网络的预测精度。
其中,三维深度神经网络包括使用3D CNN网络,根据数据集的匹配加权参数,与每层网络的参数做运算,来更新网络参数。
具体地,分组表Listi删除权重索引的组图像进行加权后输入三维深度神经网络,训练该网络,得到精确的三维深度神经网络模型数据。
本发明的一个具体实施例,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割,具体包括:利用安检CT机扫描目标物后采集投影测试数据获得所述待提取和分割目标物的安检CT图像,并利用所述网络参数更新后的三维深度神经网络对所述投影测试数据进行处理。
具体地,测试被检目标物图像时,当目标物被遮挡(如放入箱包行李中)、叠压时,训练好的三维深度神经网络网络模型会根据匹配已有信息预测被遮挡、叠压目标的位置和边缘,从而实现目标物的自动提取和分割。
综上所述,本发明公开了一种安检CT图像目标物的提取和分割方法,包括以下步骤:得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。本发明实施例利用目标物分组数据关系的目标物提取和分割方法,通过对已标定目标物不同状态图像的配准,得到匹配相似度,根据匹配相似度对分组数据进行加权,将分组加权的打包数据作为三维深度神经网络的输入来训练模型,提高了目标物提取和分割精度。
本领域技术人员可以理解,实现上述实施例中方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (6)

1.一种安检CT图像目标物的提取和分割方法,其特征在于,包括以下步骤:
得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;
根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;
将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;
将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;
将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割;
所述得到已标定的单一目标物的CT图像数据集,具体包括:将目标物体以不同的角度位置通过安检CT机,得到包含该目标物且有不同角度和位置的CT图像,及相应的目标物不同角度位置的CT图像数据集Pi,并根据数据集Pi进行目标物人工标定,其中,Pi∈A,A是所有类型CT图像的域;
所述得到已标定的装入箱包目标物的CT图像数据集,具体包括:将目标物以不同位置和叠压关系装入箱包通过安检CT机,得到包含该目标物在箱包中不同位置和叠压关系的CT图像,及相应的目标物不同位置和叠压关系的CT图像数据集Qi,并根据数据集Qi进行目标物人工标定,其中,Qi∈A,A是所有类型CT图像的域;
所述根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度,具体包括:
选取图像数据集Pi、Qi的图像,并根据已标定目标物数据提取分割出三维目标物,将提取的目标物图像进行配准;
根据提取的目标物图像将图像数据集Pi、Qi进行两两分组配准,分组图像表为Listi,并计算各组图像的匹配相似度SIMi
将所述匹配相似度进行归一化得到组图像的匹配权重,其公式如下:
其中,ωi为分组图像表Listi中组图像的匹配权重,SIMi(max)为SIMi的最大值,SIMi(min)为SIMi的最小值。
2.根据权利要求1所述的方法,其特征在于,所述分组图像表Listi为:
Listi={(P1,Qi),(P2,Qi-1),…,(Pi,Q1)}(i=1,2....N);
其中,N为图像两两组合的分组总数。
3.根据权利要求1所述的方法,其特征在于,所述计算各组图像的匹配相似度SIMi的具体过程如下:
其中,ai表示图像数据集Pi的图像像素,bi表示图像数据集Qi的图像像素,n为每个图像的像素数,N为图像两两组合的分组总数。
4.根据权利要求1所述的方法,其特征在于,根据所述组图像的匹配权重得到CT图像的分组打包数据集,包括:将所述组图像的匹配权重小于预定值的部分数据剔除,并相应删除-剔除了权重索引的组图像,得到分组打包数据集。
5.根据权利要求1所述的方法,其特征在于,将所述分组打包数据集输入三维深度神经网络进行网络训练,包括:通过所述分组打包数据集分配组图像的匹配权重更新所述三维深度神经网络的网络参数完成网络训练。
6.根据权利要求5所述的方法,其特征在于,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割,具体包括:利用安检CT机扫描目标物后采集投影测试数据获得所述待提取和分割目标物的安检CT图像,并利用所述网络参数更新后的三维深度神经网络对所述投影测试数据进行处理。
CN202011155832.2A 2020-10-26 2020-10-26 一种安检ct图像目标物的提取和分割方法 Active CN112102326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011155832.2A CN112102326B (zh) 2020-10-26 2020-10-26 一种安检ct图像目标物的提取和分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011155832.2A CN112102326B (zh) 2020-10-26 2020-10-26 一种安检ct图像目标物的提取和分割方法

Publications (2)

Publication Number Publication Date
CN112102326A CN112102326A (zh) 2020-12-18
CN112102326B true CN112102326B (zh) 2023-11-07

Family

ID=73785731

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011155832.2A Active CN112102326B (zh) 2020-10-26 2020-10-26 一种安检ct图像目标物的提取和分割方法

Country Status (1)

Country Link
CN (1) CN112102326B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953418B (zh) * 2023-02-01 2023-11-07 公安部第一研究所 安检ct三维图像中笔记本区域剥离方法、存储介质及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647736A (zh) * 2018-05-16 2018-10-12 南京大学 一种基于感知损失和匹配注意力机制的图像分类方法
CN108875767A (zh) * 2017-12-07 2018-11-23 北京旷视科技有限公司 图像识别的方法、装置、系统及计算机存储介质
CN109685141A (zh) * 2018-12-25 2019-04-26 哈工大机器人(合肥)国际创新研究院 一种基于深度神经网络的机器人物品分拣视觉检测方法
CN110674748A (zh) * 2019-09-24 2020-01-10 腾讯科技(深圳)有限公司 图像数据处理方法、装置、计算机设备以及可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003260B (zh) * 2018-06-28 2021-02-09 深圳视见医疗科技有限公司 Ct图像肺结节检测方法、装置、设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875767A (zh) * 2017-12-07 2018-11-23 北京旷视科技有限公司 图像识别的方法、装置、系统及计算机存储介质
CN108647736A (zh) * 2018-05-16 2018-10-12 南京大学 一种基于感知损失和匹配注意力机制的图像分类方法
CN109685141A (zh) * 2018-12-25 2019-04-26 哈工大机器人(合肥)国际创新研究院 一种基于深度神经网络的机器人物品分拣视觉检测方法
CN110674748A (zh) * 2019-09-24 2020-01-10 腾讯科技(深圳)有限公司 图像数据处理方法、装置、计算机设备以及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
复杂场景图像特征分析与匹配方法研究;杨燕;中国博士学位论文全文数据库 信息科技辑(第01期);1-123 *

Also Published As

Publication number Publication date
CN112102326A (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
CN109784203B (zh) 基于分层传播和激活的弱监督x光图像违禁品检查方法
Su et al. Region segmentation in histopathological breast cancer images using deep convolutional neural network
Meyers et al. Im2Calories: towards an automated mobile vision food diary
CN109636848B (zh) 一种基于无人机的油气管道巡检方法
KR20170058263A (ko) 화물을 검사하는 방법 및 그 시스템
CN106355188A (zh) 图像检测方法及装置
CN109117836A (zh) 一种基于焦点损失函数的自然场景下文字检测定位方法和装置
CN107833213A (zh) 一种基于伪真值自适应法的弱监督物体检测方法
KR20160083099A (ko) 검출 방법 및 그 설비
CN110647802A (zh) 基于深度学习的遥感影像舰船目标检测方法
Mekhalfa et al. Multiclass classification of weld defects in radiographic images based on support vector machines
Hagos et al. ConCORDe-Net: cell count regularized convolutional neural network for cell detection in multiplex immunohistochemistry images
EP3526728B1 (en) System and method for object recognition based estimation of planogram compliance
Yang et al. Insulator identification and self-shattering detection based on mask region with convolutional neural network
CN112102326B (zh) 一种安检ct图像目标物的提取和分割方法
US8467607B1 (en) Segmentation-based feature pooling for object models
Jing et al. Unsupervised oil tank detection by shape-guide saliency model
Li et al. Ship target detection and recognition method on sea surface based on multi-level hybrid network
Yildirim et al. Ship detection in optical remote sensing images using YOLOv4 and Tiny YOLOv4
RoyChowdhury et al. Distinguishing weather phenomena from bird migration patterns in radar imagery
CN105354845A (zh) 一种遥感影像半监督变化检测方法
Varadarajan et al. Weakly Supervised Object Localization on grocery shelves using simple FCN and Synthetic Dataset
CN117058534A (zh) 基于元知识适应迁移网络的少样本遥感图像目标检测方法
CN115272856B (zh) 舰船目标细粒度识别方法及设备
Oumer et al. Appearance learning for 3D pose detection of a satellite at close-range

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant