CN112102326A - 一种安检ct图像目标物的提取和分割方法 - Google Patents
一种安检ct图像目标物的提取和分割方法 Download PDFInfo
- Publication number
- CN112102326A CN112102326A CN202011155832.2A CN202011155832A CN112102326A CN 112102326 A CN112102326 A CN 112102326A CN 202011155832 A CN202011155832 A CN 202011155832A CN 112102326 A CN112102326 A CN 112102326A
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- data set
- matching
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 230000011218 segmentation Effects 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000007689 inspection Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010030 laminating Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30112—Baggage; Luggage; Suitcase
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种安检CT图像目标物的提取和分割方法,包括:得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。本发明解决了现有技术存在对目标物自动提取和分割的精度不高问题。
Description
技术领域
本发明涉及安检CT图像技术领域,尤其涉及一种安检CT图像目标物的提取和分割方法。
背景技术
CT成像技术已成为安检系统中的重要技术,尤其是在机场、车站、海关、码头等重要场所,都采用了CT安检机对旅客行李物品、货物集装箱等进行严格检查。
随着机器学习技术在安检领域的应用,智能安检CT系统已经可以帮助安检员及时、准确的对危险物进行定位和预警,但目前由于深度学习网络对目标物自动提取和分割的精度不高,所以要达到真正的无人值守安检目标还比较遥远,目前提高目标物提取和分割的精度已成为智能安检CT系统亟待解决的问题。
现有CT图像目标提取和分割网络主要有基于切片图像的二维神经网络和基于三维图像的三维神经网络,三维神经要比二维神经网络提取精度高,因为二维神经网络只利用单层切片图像的信息,而三维神经网络利用了多层及整个三维图像信息。但两种方案主要利用的是单一图像信息,对同一目标物多种状态下的关联信息未加利用,因此对目标物自动提取和分割的精度仍然不高。
发明内容
鉴于上述的分析,本发明旨在提供一种安检CT图像目标物的提取和分割方法,以解决现有CT图像目标提取和分割网络存在对目标物自动提取和分割的精度不高问题。
本发明的目的主要是通过以下技术方案实现的:
本发明提供了一种安检CT图像目标物的提取和分割方法,包括以下步骤:
得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;
根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;
将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;
将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;
将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。
进一步地,所述得到已标定的单一目标物的CT图像数据集,具体包括:将目标物体以不同的角度位置通过安检CT机,得到包含该目标物且有不同角度和位置的CT图像,及相应的目标物不同角度位置的CT图像数据集Pi,并根据数据集Pi进行目标物人工标定,其中,Pi∈A,A是所有类型CT图像的域。
进一步地,所述得到已标定的装入箱包目标物的CT图像数据集,具体包括:将目标物以不同位置和叠压关系装入箱包通过安检CT机,得到包含该目标物在箱包中不同位置和叠压关系的CT图像,及相应的目标物不同位置和叠压关系的CT图像数据集Qi,并根据数据集Qi进行目标物人工标定,其中,Qi∈A,A是所有类型CT图像的域。
进一步地,所述根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度,具体包括:
选取图像数据集Pi、Qi的图像,并根据已标定目标物数据提取分割出三维目标物,将提取的目标物图像进行配准;
根据提取的目标物图像将图像数据集Pi、Qi进行两两分组配准,分组图像表为Listi,并计算各组图像的匹配相似度SIMi。
进一步地,所述分组图像表Listi为:
Listi={(P1,Qi),(P2,Qi-1),...,(Pi,Q1)}(i=1,2…N);
其中,N为图像两两组合的分组总数。
进一步地,所述计算各组图像的匹配相似度SIMi的具体过程如下:
其中,ai表示图像数据集Pi的图像像素,bi表示图像数据集Qi的图像像素,n为每个图像的像素数,N为图像两两组合的分组总数。
进一步地,将所述匹配相似度进行归一化得到组图像的匹配权重,其公式如下:
其中,ωi为分组图像表Listi中组图像的匹配权重,SIMi(max)为SIMi的最大值,SIMi(min)为SIMi的最小值。
进一步地,根据所述组图像的匹配权重得到CT图像的分组打包数据集,包括:将所述组图像的匹配权重小于预定值的部分数据剔除,并相应删除所述剔除权重索引的组图像,得到分组打包数据集。
进一步地,将所述分组打包数据集输入三维深度神经网络进行网络训练,包括:通过所述分组数据集分配组图像的匹配权重更新所述三维深度神经网络的网络参数完成网络训练。
进一步地,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割,具体包括:利用安检CT机扫描目标物后采集投影测试数据获得所述待提取和分割目标物的安检CT图像,并利用所述网络参数更新后的三维深度神经网络对所述投影测试数据进行处理。
本技术方案有益效果如下:本发明公开了一种安检CT图像目标物的提取和分割方法,该方法利用目标物分组数据关系的目标物提取和分割方法,通过对已标定目标物不同状态图像的配准,得到匹配相似度,根据匹配相似度对分组数据进行加权,将分组加权的打包数据作为三维深度神经网络的输入来训练模型,提高了目标物提取和分割精度。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分的从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1为本发明实施例的一种安检CT图像目标物的提取和分割方法流程图;
图2为本发明实施例的安检CT图像目标物的提取和分割中的分组打包数据生成方法流程图;
图3为本发明实施例的三维深度神经网络的训练及对安检CT图像目标物的提取和分割的流程图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
本发明的技术构思:采集不同角度目标物和放于箱包中处于不同位置及叠压关系目标物的CT投影数据,对包含标定目标物的样本集进行分组配准,得到标定目标物的匹配权重,以分组加权打包数据作为神经网络的输入进行网络训练,最终得到可以自动提取和分割目标物的网络模型。本发明方法利用多组数据的匹配关系,可以提高复杂环境下目标物的提取和分割准确度。
本发明的一个具体实施例,如图1所示,公开了一种安检CT图像目标物的提取和分割方法,包括以下步骤:
S1,得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;
S2,根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;
S3,将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;
S4,将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;
S5,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。
与现有技术相比,本发明实施例基于三维深度神经网络利用分组数据关系进行目标物提取和分割,即将目标物多种状态数据进行分组加权的神经网络来自动提取和分割目标物,可以通过一种已知状态的目标物预测其相应的位置和边缘,提高目标物提取和分割的精度。
本发明的一个具体实施例,如图2所示,所述得到已标定的单一目标物的CT图像数据集,具体包括:将目标物体以不同的角度位置通过安检CT机,得到包含该目标物且有不同角度和位置的CT图像,及相应的目标物不同角度位置的CT图像数据集Pi,并根据数据集Pi进行目标物人工标定,其中,Pi∈A,A是所有类型CT图像的域。
具体地,将目标物以不同的角度位置通过安检CT机,得到只包含目标物且有不同角度和位置的CT图像,Pi∈A,Pi是目标物不同角度位置的CT图像集,A是所有类型CT图像的域,将Pi数据集进行目标物人工标定。
本发明的一个具体实施例,如图2所示,所述得到已标定的装入箱包目标物的CT图像数据集,具体包括:将目标物以不同位置和叠压关系装入箱包通过安检CT机,得到包含该目标物在箱包中不同位置和叠压关系的CT图像,及相应的目标物不同位置和叠压关系的CT图像数据集Qi,并根据数据集Qi进行目标物人工标定,其中,Qi∈A,A是所有类型CT图像的域。
具体地,将目标物以不同位置和叠压关系装入箱包,得到包含目标物在箱包中不同位置和叠压关系的CT图像,Qi∈A,Qi是目标物不同位置和叠压关系的CT图像集,A是所有类型CT图像的域,将Qi数据集进行目标物人工标定。
其中的叠压关系包括:多个目标物摆放进行采集射线图像时,其位置关系为互相分离或层叠重叠摆放。
本发明的一个具体实施例,如图2所示,所述根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度,具体包括:
选取图像数据集Pi、Qi的图像,并根据已标定目标物数据提取分割出三维目标物,将提取的目标物图像进行配准;
根据提取的目标物图像将图像数据集Pi、Qi进行两两分组配准,分组图像表为Listi,并计算各组图像的匹配相似度SIMi。
具体地,将图像集Pi、Qi进行两两分组配准,得到排列组合表,大小为N*N,N为图像两两组合的分组总数,分组表为Listi,计算每组图像的匹配相似度SIMi。
本发明的一个具体实施例,所述分组图像表Listi为:
Listi={(P1,Qi),(P2,Qi-1),...,(Pi,Q1)}(i=1,2....N);
其中,N为图像两两组合的分组总数。
本发明的一个具体实施例,所述计算各组图像的匹配相似度SIMi的具体过程如下:
其中,ai表示图像数据集Pi的图像像素,bi表示图像数据集Qi的图像像素,n为每个图像的像素数,N为图像两两组合的分组总数。
本发明的一个具体实施例,将所述匹配相似度进行归一化得到组图像的匹配权重,其公式如下:
其中,ωi为分组图像表Listi中组图像的匹配权重,SIMi(max)为SIMi的最大值,SIMi(min)为SIMi的最小值。
具体地,将相似度SIMi数据归一化到0~1之间,用ωi表示。
本发明的一个具体实施例,如图3所示,根据所述组图像的匹配权重得到CT图像的分组打包数据集,包括:将所述组图像的匹配权重小于预定值的部分数据剔除,并相应删除所述剔除权重索引的组图像,得到分组打包数据集。
具体地,基于实验数据统计分析,预定值选择为0.4。将所述组图像的匹配权重去除权重ωi<0.4的数据,相应删除分组表Listi中对应索引的组图像数据。
本发明的一个具体实施例,如图3所示,将所述分组打包数据集输入三维深度神经网络进行网络训练,包括:通过所述分组数据集分配组图像的匹配权重更新所述三维深度神经网络的网络参数完成网络训练。也就是说,本发明实施例利用了图像间匹配关系信息进行网络训练,增加了三维深度神经网络的预测精度。
其中,三维深度神经网络包括使用3D CNN网络,根据数据集的匹配加权参数,与每层网络的参数做运算,来更新网络参数。
具体地,分组表Listi删除权重索引的组图像进行加权后输入三维深度神经网络,训练该网络,得到精确的三维深度神经网络模型数据。
本发明的一个具体实施例,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割,具体包括:利用安检CT机扫描目标物后采集投影测试数据获得所述待提取和分割目标物的安检CT图像,并利用所述网络参数更新后的三维深度神经网络对所述投影测试数据进行处理。
具体地,测试被检目标物图像时,当目标物被遮挡(如放入箱包行李中)、叠压时,训练好的三维深度神经网络网络模型会根据匹配已有信息预测被遮挡、叠压目标的位置和边缘,从而实现目标物的自动提取和分割。
综上所述,本发明公开了一种安检CT图像目标物的提取和分割方法,包括以下步骤:得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。本发明实施例利用目标物分组数据关系的目标物提取和分割方法,通过对已标定目标物不同状态图像的配准,得到匹配相似度,根据匹配相似度对分组数据进行加权,将分组加权的打包数据作为三维深度神经网络的输入来训练模型,提高了目标物提取和分割精度。
本领域技术人员可以理解,实现上述实施例中方法的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读存储介质中。其中,所述计算机可读存储介质为磁盘、光盘、只读存储记忆体或随机存储记忆体等。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种安检CT图像目标物的提取和分割方法,其特征在于,包括以下步骤:
得到已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集;
根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度;
将所述匹配相似度进行归一化得到组图像的匹配权重,并根据所述组图像的匹配权重得到CT图像的分组打包数据集;
将所述分组打包数据集输入三维深度神经网络进行网络训练,得到目标物提取和分割网络模型;
将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割。
2.根据权利要求1所述的方法,其特征在于,所述得到已标定的单一目标物的CT图像数据集,具体包括:将目标物体以不同的角度位置通过安检CT机,得到包含该目标物且有不同角度和位置的CT图像,及相应的目标物不同角度位置的CT图像数据集Pi,并根据数据集Pi进行目标物人工标定,其中,Pi∈A,A是所有类型CT图像的域。
3.根据权利要求1所述的方法,其特征在于,所述得到已标定的装入箱包目标物的CT图像数据集,具体包括:将目标物以不同位置和叠压关系装入箱包通过安检CT机,得到包含该目标物在箱包中不同位置和叠压关系的CT图像,及相应的目标物不同位置和叠压关系的CT图像数据集Qi,并根据数据集Qi进行目标物人工标定,其中,Qi∈A,A是所有类型CT图像的域。
4.根据权利要求1或2或3所述的方法,其特征在于,所述根据所述已标定的单一目标物的CT图像数据集和已标定的装入箱包目标物的CT图像数据集进行分组匹配并计算匹配相似度,具体包括:
选取图像数据集Pi、Qi的图像,并根据已标定目标物数据提取分割出三维目标物,将提取的目标物图像进行配准;
根据提取的目标物图像将图像数据集Pi、Qi进行两两分组配准,分组图像表为Listi,并计算各组图像的匹配相似度SIMi。
5.根据权利要求4所述的方法,其特征在于,所述分组图像表Listi为:
Listi={(P1,Qi),(P2,Qi-1),…,(Pi,Q1)}(i=1,2....N);
其中,N为图像两两组合的分组总数。
8.根据权利要求1所述的方法,其特征在于,根据所述组图像的匹配权重得到CT图像的分组打包数据集,包括:将所述组图像的匹配权重小于预定值的部分数据剔除,并相应删除所述剔除权重索引的组图像,得到分组打包数据集。
9.根据权利要求1所述的方法,其特征在于,将所述分组打包数据集输入三维深度神经网络进行网络训练,包括:通过所述分组数据集分配组图像的匹配权重更新所述三维深度神经网络的网络参数完成网络训练。
10.根据权利要求1或9所述的方法,其特征在于,将待提取和分割目标物的安检CT图像输入所述目标物提取和分割网络模型进行安检CT图像目标物的提取和分割,具体包括:利用安检CT机扫描目标物后采集投影测试数据获得所述待提取和分割目标物的安检CT图像,并利用所述网络参数更新后的三维深度神经网络对所述投影测试数据进行处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011155832.2A CN112102326B (zh) | 2020-10-26 | 2020-10-26 | 一种安检ct图像目标物的提取和分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011155832.2A CN112102326B (zh) | 2020-10-26 | 2020-10-26 | 一种安检ct图像目标物的提取和分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112102326A true CN112102326A (zh) | 2020-12-18 |
CN112102326B CN112102326B (zh) | 2023-11-07 |
Family
ID=73785731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011155832.2A Active CN112102326B (zh) | 2020-10-26 | 2020-10-26 | 一种安检ct图像目标物的提取和分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112102326B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115953418A (zh) * | 2023-02-01 | 2023-04-11 | 公安部第一研究所 | 安检ct三维图像中笔记本区域剥离方法、存储介质及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647736A (zh) * | 2018-05-16 | 2018-10-12 | 南京大学 | 一种基于感知损失和匹配注意力机制的图像分类方法 |
CN108875767A (zh) * | 2017-12-07 | 2018-11-23 | 北京旷视科技有限公司 | 图像识别的方法、装置、系统及计算机存储介质 |
CN109685141A (zh) * | 2018-12-25 | 2019-04-26 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度神经网络的机器人物品分拣视觉检测方法 |
US20200005460A1 (en) * | 2018-06-28 | 2020-01-02 | Shenzhen Imsight Medical Technology Co. Ltd. | Method and device for detecting pulmonary nodule in computed tomography image, and computer-readable storage medium |
CN110674748A (zh) * | 2019-09-24 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置、计算机设备以及可读存储介质 |
-
2020
- 2020-10-26 CN CN202011155832.2A patent/CN112102326B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875767A (zh) * | 2017-12-07 | 2018-11-23 | 北京旷视科技有限公司 | 图像识别的方法、装置、系统及计算机存储介质 |
CN108647736A (zh) * | 2018-05-16 | 2018-10-12 | 南京大学 | 一种基于感知损失和匹配注意力机制的图像分类方法 |
US20200005460A1 (en) * | 2018-06-28 | 2020-01-02 | Shenzhen Imsight Medical Technology Co. Ltd. | Method and device for detecting pulmonary nodule in computed tomography image, and computer-readable storage medium |
CN109685141A (zh) * | 2018-12-25 | 2019-04-26 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度神经网络的机器人物品分拣视觉检测方法 |
CN110674748A (zh) * | 2019-09-24 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置、计算机设备以及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
杨燕: "复杂场景图像特征分析与匹配方法研究", 中国博士学位论文全文数据库 信息科技辑, no. 01, pages 1 - 123 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115953418A (zh) * | 2023-02-01 | 2023-04-11 | 公安部第一研究所 | 安检ct三维图像中笔记本区域剥离方法、存储介质及设备 |
CN115953418B (zh) * | 2023-02-01 | 2023-11-07 | 公安部第一研究所 | 安检ct三维图像中笔记本区域剥离方法、存储介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112102326B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020215985A1 (zh) | 医学影像分割方法、装置、电子设备和存储介质 | |
KR102613438B1 (ko) | 반도체 표본의 딥 러닝 - 기반 검사의 방법 및 그 시스템 | |
Yeum et al. | Vision‐based automated crack detection for bridge inspection | |
Rogers et al. | Automated x-ray image analysis for cargo security: Critical review and future promise | |
CN111563557B (zh) | 一种电力电缆隧道内目标检测的方法 | |
CN110245662A (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
Gu et al. | Automatic and robust object detection in x-ray baggage inspection using deep convolutional neural networks | |
CN109117836A (zh) | 一种基于焦点损失函数的自然场景下文字检测定位方法和装置 | |
US20220244194A1 (en) | Automated inspection method for a manufactured article and system for performing same | |
KR20160083099A (ko) | 검출 방법 및 그 설비 | |
CN108764082A (zh) | 一种飞机目标检测方法、电子设备、存储介质及系统 | |
CN115019182B (zh) | 遥感图像目标细粒度识别方法、系统、设备及存储介质 | |
Pieringer et al. | Flaw detection in aluminium die castings using simultaneous combination of multiple views | |
CN114600155A (zh) | 用于细胞检测和分割的弱监督多任务学习 | |
CN108133235A (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
CN113807231B (zh) | 基于unet下采样卷积神经网络的x光违禁物检测方法 | |
CN112102326A (zh) | 一种安检ct图像目标物的提取和分割方法 | |
Naddaf-Sh et al. | Real‐Time Explainable Multiclass Object Detection for Quality Assessment in 2‐Dimensional Radiography Images | |
CN115082551A (zh) | 一种基于无人机航拍视频的多目标检测的方法 | |
CN109344846A (zh) | 图像特征提取方法和装置 | |
Bush et al. | Deep Neural Networks for visual bridge inspections and defect visualisation in Civil Engineering | |
Yang et al. | YOLOX with CBAM for insulator detection in transmission lines | |
CN115272856B (zh) | 舰船目标细粒度识别方法及设备 | |
Han et al. | M2R-Net: deep network for arbitrary oriented vehicle detection in MiniSAR images | |
CN113887652B (zh) | 基于形态和多示例学习的遥感图像弱小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |