CN110133741A - 一种多视角匹配和跟踪的自动安检方法 - Google Patents

一种多视角匹配和跟踪的自动安检方法 Download PDF

Info

Publication number
CN110133741A
CN110133741A CN201910379334.7A CN201910379334A CN110133741A CN 110133741 A CN110133741 A CN 110133741A CN 201910379334 A CN201910379334 A CN 201910379334A CN 110133741 A CN110133741 A CN 110133741A
Authority
CN
China
Prior art keywords
angle
matching
view
image sequence
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910379334.7A
Other languages
English (en)
Inventor
陈树越
丁静文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN201910379334.7A priority Critical patent/CN110133741A/zh
Publication of CN110133741A publication Critical patent/CN110133741A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本发明公开了一种多视角匹配和跟踪的自动安检方法,该方法由结构估计和目标检测组成,在结构估计部分,首先提取SIFT特征,并采用主成分分析方法对特征进行降维;然后构建视觉词汇树对无序图像进行排序;然后匹配两幅连续图像的关键点,并采用基于采样优化的随机抽样一致算法消除误匹配点;最后使用光束法平差最小化所有重投影误差。在目标检测部分,首先对图像序列进行单视角检测;然后使用匹配和跟踪算法在两个视角、三个视角和个视角的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹;最后对合并的轨迹进行多视角分析,得到图像序列的最终检测结果。本发明有效降低了计算量,提高了危险品检测的精度。

Description

一种多视角匹配和跟踪的自动安检方法
技术领域
本发明涉及安全检查技术、图像处理和计算机视觉技术领域,尤其涉及一种多视角匹配和跟踪的自动安检方法。
背景技术
X光安检对维护火车站、机场等公共场所的安全至关重要。安检图像中物品的外观会受到重叠、遮挡等外界因素的影响,而且由于单视角安检设备成像原理的差异和安检员观察角度的限制,也会造成安检图像的复杂多样化。这样,安检员在浏览X光图像时,很容易造成疲劳,从而大大增加了安检设备的误检率,降低了检测精度。
目前多视角安检设备已经在世界各国广泛使用,一般地,在设备内部布置多套“射线源-探测器组”装置,包括左侧底照源探测模块、正侧侧照源探测模块和右侧底照源探测模块,且分别构成第一视角、第二视角和第三视角,随着包裹沿着传送带移动,各视角逐一形成同一包裹在不同视角上的图像,这样简化了多视角成像方式,各视角互不干扰,降低了复杂性。虽然多视角安检设备能够在一定程度上减少重叠、遮挡带来的干扰,但是安检员需要同时观察几幅不同视角的图像,更容易造成视觉疲劳。另外,多视角安检设备并不廉价,不利于各个交通出行场所的普及。
综上所述,单视角安检设备只能从一个视角观察图像,受重叠、遮挡等因素的干扰较大,并且依靠安检员的观察,很大程度上会对危险品检测的准确率产生影响。多视角安检设备会产生多个视角的图像,凭借安检员同时观察几幅图像,会造成视觉疲劳,而且多视角设备成本较高,不利于被大规模应用。
发明内容
本发明要解决的技术问题是:为了克服现有技术之不足,本发明提供一种采用软、硬件相结合,通过多视角安检设备获取X光图像序列,实现危险品检测的一种多视角匹配和跟踪的自动安检方法。
本发明解决其技术问题所采用的技术方案是:一种多视角匹配和跟踪的自动安检方法,使用多视角安检设备,包括结构估计和目标检测两个步骤。所述的结构估计包括如下操作步骤:通过多视角安检设备获取不同视角的X光图像序列;对X光图像序列进行提取SIFT特征,并采用主成分分析方法对SIFT特征进行降维;构建视觉词汇树,最大化总的相似度,对无序图像进行排序;匹配两幅连续图像的关键点,并采用基于采样优化的随机抽样一致算法消除误匹配点;使用光束法平差最小化所有重投影误差;
所述的目标检测包括如下操作步骤:对X光图像序列进行单视角检测;使用匹配和跟踪算法在两个视角、三个视角和l个视角的的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹;对合并的轨迹进行多视角分析,得到X光图像序列的最终检测结果。
进一步的,对X光图像序列进行提取SIFT特征,并采用主成分分析方法(PCA)对SIFT特征进行降维,包括如下操作过程:确定图像J(x,y)的关键点(假设为n个),针对每个关键点提取SIFT特征,共128维,将其组成特征矩阵X=(x1,x2,...,xn),维数为n×128;计算特征向量的均值,计算特征向量的协方差矩阵,求取协方差矩阵的特征值和特征向量,将最大的k个特征值对应的特征向量ek组成变换矩阵A,其维数为128×k,所述的k的取值决定最终特征向量的维数。本方法选择k=36,即SIFT特征降为36维的PCA-SIFT特征向量。
更进一步的,所述的匹配两幅连续图像的关键点,并采用基于采样优化的随机抽样一致算法消除误匹配点,具有如下操作过程:PCA-SIFT特征被匹配之后,使用基于采样优化的随机抽样一致算法估计两个视角i和i+1的基础矩阵Fi,i+1以消除误匹配点。
再进一步的,所述的使用光束法平差最小化所有重投影误差,包括光束法平差估计3D点和相机矩阵Pi,最小化重投影误差的和
进一步的,所述的对X光图像序列进行单视角检测,包括对X光图像序列进行分割、特征提取和分类。不同的危险品选择适用的单视角检测方法。
所述的使用匹配和跟踪算法在两个视角、三个视角和l个视角的的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹,包括如下操作过程:两个视角的匹配区域(r1,r2)满足相似度约束和位置约束,其中相似性约束满足||yr1-yr2||<ε1,位置约束满足两个条件:和||Xr1-Xr2||<ρ(j-i);三个视角的匹配区域(r1,r2,r3)满足三焦距约束:l个视角的匹配条件使用k-d树评估;最后用矩阵Tl表示l个视角的所有合并的轨迹。
本发明的有益效果是,本发明提供的一种多视角匹配和跟踪的自动安检方法,采用软硬件结合的方式,从硬件设备获取X光图像序列,从软件方法实现自动检测,有效减轻人工工作量,使用主成分分析方法对SIFT特征进行降维,有效降低计算量,并采用基于采样优化的随机抽样一致算法消除误匹配点,提高了匹配的精度。该方法有效提高了检测的精度和速度,很好地保证了实时性,可有效适用于自动安检。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是多视角匹配和跟踪的自动安检方法的流程图。
图2是本发明实施例中多视角匹配和跟踪的自动安检方法的具体流程图。
图3为X光图像序列中不同角度的测试图像。
图4为发明实施例中采用的多视角安检结构图。
图5为含有剃刀刀片的笔袋的X光图像序列。
图中1、铅室隔离系统2、传送带3、X射线发射器4、X射线探测器平面5、ABB-Flexpicker机械手旋转系统6、包裹。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,本发明提供的一种多视角匹配和跟踪的自动安检方法,具有如下步骤:
步骤101:通过多视角安检设备获取不同视角的X光图像序列;
步骤102:对X光图像序列进行提取SIFT特征,并采用主成分分析方法对SIFT特征进行降维;
步骤103:构建视觉词汇树,最大化总的相似度,对无序图像进行排序;
步骤104:匹配两幅连续图像的关键点,并采用基于采样优化的随机抽样一致算法消除误匹配点;
步骤105:使用光束法平差最小化所有重投影误差;
步骤106:对X光图像序列进行单视角检测;
步骤107:使用匹配和跟踪算法在两个视角、三个视角和l个视角的的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹;
步骤108:对合并的轨迹进行多视角分析,得到X光图像序列的最终检测结果。
为使本发明的实施例的目的、技术方案和优点更加清楚,下面结合本发明的附图2,对本发明实施例中的技术方案进行完整清晰的描述:
步骤201:剃刀刀片的测试图像如图3所示,每一行的图像是绕Y轴旋转0°~90°而得,每一列的图像是绕X轴旋转0°~80°而得,每次均旋转10°,得到90幅测试图像,从中挑选m个视角的多个图像序列。根据测试,取4~6个视角的不同的图像序列分别对剃刀刀片和手枪进行实验。
步骤202:使用主成分分析(PCA)方法对128维SIFT特征进行降维,确定图像J(x,y)的关键点(假设为n个),针对每个关键点提取SIFT特征,共128维,将其组成特征矩阵X=(x1,x2,...,xn),维数为n×128,将最大的k个特征值对应的特征向量ek组成变换矩阵A,其维数为128×k,k的取值大小决定最终特征向量的维数,根据Y=AX,X为128维的SIFT特征向量,本方法选择k=36,因此Y为36维的PCA-SIFT特征向量。
步骤203:判断图像是否有序,如果有序,则转至步骤205;如果无序,则转至步骤204;
步骤204:构建视觉词汇树对无序图像进行排序,通过最大化总的相似度∑sim(Ii,Ii+1),i=1,…,m-1将原来的图像序列J1,...,Jm重新排序得到新的图像序列I1,...,Im
步骤205:对于两幅连续图像Ii和Ii+1,关键点被匹配之后,使用基于采样优化的RANSAC算法估计视角i和i+1之间的基础矩阵Fi,i+1以消除外点。如果图像Ii中的关键点k与图像Ii+1中的关键点k′相匹配,此匹配可以被表示为Xi,k→Xi+1,k
步骤206:使用光束法平差估计3D点和相机矩阵Pi,以最小化重投影误差的和
步骤207:对图像序列进行单视角检测,使用自适应隐式形状模型对含有剃刀刀片的图像序列依次进行单视角检测,由于手枪种类较多,形状各异,但手枪触发器大致相同,因此对手枪触发器进行训练,使用滑动窗口方法对含有手枪的图像序列依次进行单视角检测。
步骤208:使用匹配和跟踪算法在两个视角、三个视角和l个视角的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹,包括:两个视角的匹配区域(r1,r2)满足相似度约束和位置约束,其中相似性约束满足||yr1-yr2||<ε1,位置约束满足两个条件:和||Xr1-Xr2||<ρ(j-i);三个视角的匹配区域(r1,r2,r3)满足三焦距约束:l个视角的匹配条件使用k-d树评估;最后用矩阵Tl表示l个视角的所有合并的轨迹。
步骤209:对合并的轨迹进行多视角分析,三维重建点可以在视角中被重新投影,在这些视角中,分割可能无法在所有视角中获得完整的轨迹,的重投影点应与非分割区域的质心相对应,然后计算投影区域的大小作为轨迹中已识别区域大小的平均值,在每个视角中,定义一个以计算的质心为中心的小窗口,然后分析每组跟踪区域,得到图像序列的最终检测结果。
对步骤202中使用PCA方法对SIFT特征进行降维的具体步骤做进一步说明:
1)确定图像的n个关键点,对每个关键点提取128维的SIFT特征,将其组成特征矩阵X=(x1,x2,...,xn),维数为n×128;
2)计算特征向量的均值,即:
3)计算特征向量的协方差矩阵,即:
4)求取协方差矩阵的特征值和特征向量,将特征值从大到小排序;
5)将最大的k个特征值对应的特征向量作为主成分方向,构造128×k维的变换矩阵A,k的大小决定变换矩阵A的维数,选择k=36,即降为36维的PCA-SIFT特征向量。
对步骤205中的基于采样优化的RANSAC算法的具体步骤做进一步说明:
1)匹配的关键点之间的相关性系数d,以此作为先验知识,计算先验概率。
式中,k,l分别是两个互相关窗口的宽度,一般情况下,k=l;I(u,v)是以点(u,v)为中心的灰度平均值。先验概率计算式如下:
2)根据先验概率抽取全部样本数据的最小子集,并估计两个不同视角之间的基础矩阵。
3)验基础矩阵对应的内点数量;
4)如果找到内点数较多的次优模型(模型是指不同视角的图像之间的基础矩阵),则转步骤5);否则,转步骤2)。
5)抽取最大内点集中的最小子集,并估计基础矩阵。
6)检验基础矩阵对应的内点数量,大于原来的则更新内点。
7)如果内点数不再更新,则转步骤8);否则,转步骤5)。
8)找到最优模型,得到相应的内点和最终的基础矩阵。
上述自动安检方法,可基于如图4所示的多视角安检设备实现。多视角安检设备包括由铅室隔离系统1、传送带2、X射线发射器3、X射线探测器平面4和ABB-Flexpicker机械手旋转系统5。当包裹6经过传送带传送到指定位置,机械手握住包裹分别沿着X轴和Y轴旋转,经过X射线发射器投影到X射线探测器平面上,采集到90幅不同视角的图像,从中挑选多个图像序列进行实验。
为了更好地描述本发明提供的多视角检测方法,下面结合对剃刀刀片的多视角检测进行描述:
步骤1:对如图5所示的含有剃刀刀片的笔袋的X光图像序列依次进行SIFT特征提取,并采用PCA将SIFT特征降为36维的PCA-SIFT特征。
步骤2:判断图像是否有序,如果有序,则转至步骤4;如果无序,则转至步骤3;
步骤3:构建视觉词汇树对无序图像进行排序,通过最大化总的相似度∑sim(Ii,Ii+1),i=1,…,5将原来的图像序列J1,...,J6重新排序得到新的图像序列I1,...,I6
步骤4:对于两幅连续图像Ii和Ii+1,关键点被匹配之后,使用基于采样优化的RANSAC算法估计视角i和i+1之间的基础矩阵Fi,i+1以消除外点。
步骤5:使用光束法平差估计3D点和相机矩阵Pi,以最小化重投影误差的和
步骤6:使用自适应隐式形状模型对含有剃刀刀片的笔袋的图像序列依次进行单视角检测。
步骤7:使用匹配和跟踪算法在两个视角、三个视角和l(l≤6)个视角的匹配后合并所有区域以生成6个图像序列中的感兴趣物品的一致轨迹,l个视角的匹配条件使用k-d树评估,最后用矩阵Tl表示l个视角的所有合并的轨迹。
步骤8:对合并的轨迹进行多视角分析,三维重建点可以在视角中被重新投影,在这些视角中,分割可能无法在所有视角中获得完整的轨迹,的重投影点应与非分割区域的质心相对应,然后计算投影区域的大小作为轨迹中已识别区域大小的平均值,在每个视角中,定义一个以计算的质心为中心的小窗口,然后分析每组跟踪区域,得到图像序列的最终检测结果。
对步骤7中的两个视角满足的相似度约束和位置约束条件以及三个视角满足的三焦距约束条件做进一步说明:
相似性约束满足:
||yr1-yr2||<ε1
位置约束满足两个条件:
||Xr1-Xr2||<ρ(j-i)
三焦距约束满足:
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (7)

1.一种多视角匹配和跟踪的自动安检方法,使用多视角安检设备,其特征在于:包括结构估计和目标检测两个步骤;
所述的结构估计包括如下操作步骤:
通过多视角安检设备获取不同视角的X光图像序列;
对X光图像序列进行提取SIFT特征,并采用主成分分析方法对SIFT特征进行降维;
构建视觉词汇树对无序图像进行排序;
匹配两幅连续图像的关键点,并采用基于采样优化的随机抽样一致算法消除误匹配点;
使用光束法平差最小化所有重投影误差;
所述的目标检测包括如下操作步骤:
对X光图像序列进行单视角检测;
使用匹配和跟踪算法在两个视角、三个视角和l个视角的的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹;
对合并的轨迹进行多视角分析,得到X光图像序列的最终检测结果。
2.如权利要求1所述的一种多视角匹配和跟踪的自动安检方法,其特征在于:所述的对X光图像序列进行提取SIFT特征,并采用主成分分析方法对SIFT特征进行降维,包括如下操作过程:确定图像J(x,y)的关键点(假设为n个),针对每个关键点提取SIFT特征,共128维,将其组成特征矩阵X=(x1,x2,...,xn),维数为n×128;计算特征向量的均值,计算特征向量的协方差矩阵,求取协方差矩阵的特征值和特征向量,将最大的k个特征值对应的特征向量ek组成变换矩阵A,其维数为128×k,所述的k的取值决定最终特征向量的维数。
3.如权利要求2所述的一种多视角匹配和跟踪的自动安检方法,其特征在于:k=36,即SIFT特征降为36维的PCA-SIFT特征向量。
4.如权利要求2所述的一种多视角匹配和跟踪的自动安检方法,其特征在于:所述的匹配两幅连续图像的关键点,并采用基于采样优化的随机抽样一致算法消除误匹配点,具有如下操作过程:PCA-SIFT特征被匹配之后,使用基于采样优化的随机抽样一致算法估计两个视角i和i+1的基础矩阵Fi,i+1以消除误匹配点。
5.如权利要求2所述的一种多视角匹配和跟踪的自动安检方法,其特征在于:所述的使用光束法平差最小化所有重投影误差,包括光束法平差估计3D点和相机矩阵Pi,最小化重投影误差的和
6.如权利要求1所述的一种多视角匹配和跟踪的自动安检方法,其特征在于:所述的对X光图像序列进行单视角检测,包括对X光图像序列进行分割、特征提取和分类,不同的危险品选择适用的单视角检测方法。
7.如权利要求1所述的一种多视角匹配和跟踪的自动安检方法,其特征在于:所述的使用匹配和跟踪算法在两个视角、三个视角和l个视角的的匹配后合并所有区域以生成m个图像序列中的感兴趣物品的一致轨迹,包括如下操作过程:两个视角的匹配区域(r1,r2)满足相似度约束和位置约束,其中相似性约束满足||yr1-yr2||<ε1,位置约束满足两个条件:和||Xr1-Xr2||<ρ(j-i);三个视角的匹配区域(r1,r2,r3)满足三焦距约束:l个视角的匹配条件使用k-d树评估;最后用矩阵Tl表示l个视角的所有合并的轨迹。
CN201910379334.7A 2019-05-08 2019-05-08 一种多视角匹配和跟踪的自动安检方法 Pending CN110133741A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910379334.7A CN110133741A (zh) 2019-05-08 2019-05-08 一种多视角匹配和跟踪的自动安检方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910379334.7A CN110133741A (zh) 2019-05-08 2019-05-08 一种多视角匹配和跟踪的自动安检方法

Publications (1)

Publication Number Publication Date
CN110133741A true CN110133741A (zh) 2019-08-16

Family

ID=67576711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910379334.7A Pending CN110133741A (zh) 2019-05-08 2019-05-08 一种多视角匹配和跟踪的自动安检方法

Country Status (1)

Country Link
CN (1) CN110133741A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110765990A (zh) * 2019-12-30 2020-02-07 浙江啄云智能科技有限公司 一种物品智能检测方法及系统、一种计算设备及存储介质
CN111290040A (zh) * 2020-03-12 2020-06-16 安徽启新明智科技有限公司 一种基于图像识别的主动式双视角关联的方法
CN113129314A (zh) * 2021-04-01 2021-07-16 上海市第一人民医院 一种针对肺部阴影智能图像处理方法
CN114742869A (zh) * 2022-06-15 2022-07-12 西安交通大学医学院第一附属医院 基于图形识别的脑部神经外科配准方法及电子设备
WO2023173650A1 (zh) * 2022-03-18 2023-09-21 上海涛影医疗科技有限公司 一种多视角曝光x光影像定位方法和系统
CN117495861A (zh) * 2024-01-02 2024-02-02 同方威视科技江苏有限公司 安检图像查验方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100950776B1 (ko) * 2009-10-16 2010-04-02 주식회사 쓰리디누리 얼굴 인식 방법
CN103400384A (zh) * 2013-07-22 2013-11-20 西安电子科技大学 结合区域匹配和点匹配的大视角图像匹配方法
CN103635937A (zh) * 2011-05-30 2014-03-12 原子能和辅助替代能源委员会 用于在部分已知环境中定位相机和3d重建的方法
CN104820829A (zh) * 2015-05-08 2015-08-05 常州大学 一种新的基于深度数据的人脸识别算法及其在智能权限分配系统中的应用
CN107358200A (zh) * 2017-07-13 2017-11-17 常州大学 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法
CN108537732A (zh) * 2018-04-10 2018-09-14 福州大学 基于pca-sift的快速图像拼接方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100950776B1 (ko) * 2009-10-16 2010-04-02 주식회사 쓰리디누리 얼굴 인식 방법
CN103635937A (zh) * 2011-05-30 2014-03-12 原子能和辅助替代能源委员会 用于在部分已知环境中定位相机和3d重建的方法
CN103400384A (zh) * 2013-07-22 2013-11-20 西安电子科技大学 结合区域匹配和点匹配的大视角图像匹配方法
CN104820829A (zh) * 2015-05-08 2015-08-05 常州大学 一种新的基于深度数据的人脸识别算法及其在智能权限分配系统中的应用
CN107358200A (zh) * 2017-07-13 2017-11-17 常州大学 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法
CN108537732A (zh) * 2018-04-10 2018-09-14 福州大学 基于pca-sift的快速图像拼接方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
万刚 等编著: "《无人机测绘技术及应用》", 31 December 2015 *
董浩: "《基于多视角的X射线图像分析方法研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑 2017/03》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110765990A (zh) * 2019-12-30 2020-02-07 浙江啄云智能科技有限公司 一种物品智能检测方法及系统、一种计算设备及存储介质
CN111290040A (zh) * 2020-03-12 2020-06-16 安徽启新明智科技有限公司 一种基于图像识别的主动式双视角关联的方法
CN113129314A (zh) * 2021-04-01 2021-07-16 上海市第一人民医院 一种针对肺部阴影智能图像处理方法
CN113129314B (zh) * 2021-04-01 2022-08-02 上海市第一人民医院 一种针对肺部阴影智能图像处理方法
WO2023173650A1 (zh) * 2022-03-18 2023-09-21 上海涛影医疗科技有限公司 一种多视角曝光x光影像定位方法和系统
CN114742869A (zh) * 2022-06-15 2022-07-12 西安交通大学医学院第一附属医院 基于图形识别的脑部神经外科配准方法及电子设备
CN114742869B (zh) * 2022-06-15 2022-08-16 西安交通大学医学院第一附属医院 基于图形识别的脑部神经外科配准方法及电子设备
CN117495861A (zh) * 2024-01-02 2024-02-02 同方威视科技江苏有限公司 安检图像查验方法和装置

Similar Documents

Publication Publication Date Title
CN110133741A (zh) 一种多视角匹配和跟踪的自动安检方法
CN110533722B (zh) 一种基于视觉词典的机器人快速重定位方法及系统
Schlegel et al. Proslam: Graph SLAM from a programmer's Perspective
US10304237B2 (en) Method and device for real-time mapping and localization
US10899011B2 (en) Method and system for selecting a preferred robotic grasp of an object-of-interest using pairwise ranking
Krainin et al. Autonomous generation of complete 3D object models using next best view manipulation planning
CN100426317C (zh) 多姿态人脸检测与追踪系统及方法
CN110223348A (zh) 基于rgb-d相机的机器人场景自适应位姿估计方法
CN109682382A (zh) 基于自适应蒙特卡洛和特征匹配的全局融合定位方法
Yin et al. Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments
CN109948415A (zh) 基于背景过滤和尺度预测的光学遥感图像目标检测方法
CN108802840A (zh) 基于人工智能深度学习的自动识别物体的方法及其装置
Zhao et al. Detecting overlapped objects in X-ray security imagery by a label-aware mechanism
CN112101160B (zh) 一种面向自动驾驶场景的双目语义slam方法
CN109781092A (zh) 一种危险化工事故中移动机器人定位与建图方法
CN109949229A (zh) 一种多平台多视角下的目标协同检测方法
Lee et al. Efficient multi-sensor aided inertial navigation with online calibration
Leclerc et al. Self-consistency: A novel approach to characterizing the accuracy and reliability of point correspondence algorithms
Bulanon et al. Determining the 3-D location of the apple fruit during harvest
CN107543539A (zh) 一种无人机的位置信息获取方法及无人机
Kinnari et al. SOS-SLAM: Segmentation for Open-Set SLAM in Unstructured Environments
Dong et al. Ellipse regression with predicted uncertainties for accurate multi-view 3d object estimation
Chen et al. Belief functions clustering for epipole localization
Kim et al. Simultaneous segmentation, estimation and analysis of articulated motion from dense point cloud sequence
CN113177969A (zh) 一种基于运动方向变化的候选种子的点云单目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190816

RJ01 Rejection of invention patent application after publication