CN104809456A - 一种基于二值描述符的三维目标识别方法 - Google Patents

一种基于二值描述符的三维目标识别方法 Download PDF

Info

Publication number
CN104809456A
CN104809456A CN201510262199.XA CN201510262199A CN104809456A CN 104809456 A CN104809456 A CN 104809456A CN 201510262199 A CN201510262199 A CN 201510262199A CN 104809456 A CN104809456 A CN 104809456A
Authority
CN
China
Prior art keywords
point
feature
depth image
unique point
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510262199.XA
Other languages
English (en)
Other versions
CN104809456B (zh
Inventor
李正浩
邓俊文
王东强
韩鹏
龚卫国
李伟红
杨隽莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Chongqing Academy of Science and Technology
Original Assignee
Chongqing University
Chongqing Academy of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University, Chongqing Academy of Science and Technology filed Critical Chongqing University
Priority to CN201510262199.XA priority Critical patent/CN104809456B/zh
Publication of CN104809456A publication Critical patent/CN104809456A/zh
Application granted granted Critical
Publication of CN104809456B publication Critical patent/CN104809456B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于二值描述符的三维目标识别方法,包括三维目标特征描述步骤,所述三维目标特征描述步骤包括以下过程:S1,将三维目标中的网格深度图像Q进行网格分辩率R的计算;S2,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;S3,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp。本发明计算方法简单,特征提取和特征匹配效率高,可快速准确的实现对三维目标的二值化描述。

Description

一种基于二值描述符的三维目标识别方法
技术领域
本发明涉及机器视觉领域,具体涉及一种基于二值描述符的三维目标识别方法。
背景技术
三维目标识别的目标就是在三维场景中正确地识别目标并确定目标的位置与姿态。三维目标识别相比于基于二维图像的目标识别技术有着其独特的技术优势:其一,包含更多的深度信息;其二,特征提取受尺度、旋转和光照的影响小;其三,对目标姿态的估计更精确。有望解决基于二维图像的目标识别中面临的诸多难题。此外,在过去二十年中计算机性能的大幅提升和深度数据传感器成本的降低,使得三维目标识别一直是机器视觉领域里的一大研究热点。
对场景和模型进行特征描述是三维目标识别的核心环节,它决定着三维目标识别算法的效率和准确性。对于存在噪声、遮挡、网格分辨率变化的复杂场景,现有的局部特征描述符已经获得了较高的识别率,如郭裕兰等人提出的“基于旋转投影统计的三维目标描述及识别方法”(发表于国际计算机视觉杂志,2013年第105期)。
然而,现有特征描述方法通常使用一行浮点数向量表征三维局部表面的特征,并且特征向量维度普遍较高。因此,特征匹配的计算量大,对设备计算性能有较高要求,算法应用场景受限;识别过程耗时长,不利于三维目标识别的实时化。
发明内容
为了克服上述现有技术中存在的缺陷,本发明的目的是提供一种计算方法简单,特征提取和特征匹配效率高的三维目标识别方法。
为了实现本发明的上述目的,本发明提供了一种基于二值描述符的三维目标识别方法,包括三维目标特征描述步骤,所述三维目标特征描述步骤包括以下过程:
S1,将三维目标中的网格深度图像Q进行网格分辩率R的计算;
S2,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;
S3,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;
S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp
通过网格分辨率计算与随机均匀采样两个步骤可以快速获得网格深度图像表面上各个特征点,实现对图像的特征检测。对网格深度图像作随机均匀采样,直接获取特征点,不仅计算量小而且简便快捷,实时性好。构建局部参考系不仅有助于提升提取特征的有效性以及计算效率,还有助于提升三维目标识别算法的准确性。
进一步的,步骤S1包括以下步骤:
S1-1,将三维目标中的网格深度图像Q表示为图G=(P,H),其中P={p1,p2,...,pm},表示该网格深度图像Q中的所有顶点,pm为第m个顶点,m为正整数;Η={h1,h2,...,hn},表示该原始点云Q中的所有边,hn为第n条边,n为正整数;
S1-2,对所述网格深度图像Q中所有的边长求平均值,即得到该网格深度图像的网格分辩率R,具体公式为:其中,|hi|为边hi的长度,N表示网格深度图像Q中的边的数量。
网格分辨率是随机均匀采样以及三维特征提取的基准,通过该方法得到的网格分辩率准确度高,而且计算方法简单、快捷。
进一步的,步骤S2包括以下步骤:
S2-1,将网格深度图像Q均匀划分为多个边长为n·R的立体网格,每个立体网格包含有多个顶点P;
S2-2,当立体网格中的顶点P的数量小于τ时,不提取该立体网格的特征点;当立体网格中的顶点P的数量不小于τ时,执行步骤S2-3,τ为预先设定的已知阈值;
S2-3,对顶点P的数量不小于τ的立体网格中的所有顶点P的x,y,z坐标分别求均值,得到第i个立体网格的特征点Pi'的坐标,具体公式为:其中,Pik表示第i个立体网格中第k个顶点。
加入约束条件τ,避免了在网格深度图像Q的边缘或者网格深度图像Q上深度信息缺失的区域附近提取特征点。
对每个立体网格的特征点P'坐标的确定,为后续局部参考系以及特征向量的构建起到重要作用,该计算方法简单,有效,能快速得到特征点P'坐标。
进一步的,步骤S3包括以下步骤:
S3-1,给定特征点P'和支持半径r,建立协方差矩阵C:
其中,Pi为以特征点P'为中心点,半径为r的区域内的点,di=|P'-Pi|为点Pi到特征点P'的距离,表示从点Pi到特征点P'的向量;
S3-2,对协方差矩阵C作特征值分解:CV=EV,其中,
对角矩阵E={λ1,λ2,λ3},λ1,λ2,λ3为特征值且λ1≥λ2≥λ3,矩阵为λ1,λ2,λ3对应的正交特征向量,且为x,y,z轴的坐标基;
S3-3,在特征点P'所在的局部表面上选取离特征点P'最近的g个点,g为奇数;
S3-4,若且i>g/2,则保持v1符号不变,反之,变为由此确定x轴的方向;
S3-5,以步骤S3-4中所述方法确定z轴方向;
S3-6,根据确定y轴方向。
在局部参考系的构建中,对向量的符号的消歧处理,克服了向量符号的不确定性,使得它们的方向与局部表面上点到特征点向量的主体方向保持了一致。
进一步的,步骤S4包括以下步骤:
S4-1,以特征点P'为原点,r为半径,在原始点云Q上截得局部点云Q';
S4-2,将局部点云Q'向局部参考系的xy,yz,zx三个坐标平面投影,得到三个二维的投影点云Q1',Q2'和Q3';
S4-3,对投影点云Q1',Q2'和Q3'作l×l的分块,并统计每个子块中的点的数目,根据子块中的点数分别构造l×l的方阵D1,D2和D3
S4-4,随机选取方阵D1中2u个元素,按先后顺序,每两个元素一组,构建u组测试对,对每组测试对执行如下测试:
T ( i ) = 1 , ifD ( i ) ≥ D ( i ) ′ 0 , others ,
得到一行唯一的u维二值位串其中,D(i),D(i)′分别是第i组测试对的第一和第二个元素;
S4-5,对方阵D2和D3选择与方阵D1位置相同的测试序列,按照步骤S4-4中所述的方法确定二值位串f2和f3
S4-6,依次将f1,f2和f3拼接起来,即得到特征点P'的二值化三维特征fp={f1,f2,f3}。
该方法计算简单,准确性高,能快速计算得到特征点P'的二值化三维特征fp
进一步的,该三维目标识别方法还包括三维目标识别过程,具体包括以下步骤:
第一步,在三维目标场景中,对模型深度图像和场景深度图像分别进行步骤S1和步骤S2,实现对模型深度图像和场景深度图像的特征检测,得到模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj};
第二步,对模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj}中的每一个特征点进行步骤S3和步骤S4,实现对每一个特征点的特征描述,得到模型特征集合和场景特征集合
第三步,将场景特征集合中的特征和模型特征集合中的特征进行特征匹配,即将场景特征集合中的每一特征与模型特征集合中的特征逐一比对,度量两个特征的汉明距离;
第四步,当汉明距离最小且小于预先设定的距离阈值δ时,两个特征点构成一组特征对应,特征匹配结束后,最终得到k组特征对应;
第五步,对这k组特征对应执行三维霍夫投票运算,根据特征对应判断场景中是否存在待识别目标,若存在,则计算该目标在场景中的位置与姿态,完成三维目标的识别。
对三维场景中存在的目标进行正确的辨认并估计目标在场景中的位置与姿态是三维目标识别算法的目的,而本方法首先通过对图像的特征检测和特征描述,然后通过对两个特征的汉明距离的度量得到特征对应,最后通过三维霍夫投票运算简单、有效并且准确的实现了对三维场景中存在的目标进行正确的辨认并估计目标在场景中的位置与姿态。
本发明的有益效果是:以二值位串表示特征向量,占用更小的存储和更少的计算资源,并且该方法计算简单,便于高效运算,利于三维目标识别算法的实时化。在计算机计算性能和存储资源受限的设备上或对算法实时性要求较高的场景中适用性高。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明中特征提取流程图;
图2是本发明中三维目标识别流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明提供了一种基于二值描述符的三维目标识别方法,包括三维目标特征描述步骤和三维目标识别过程,所述三维目标特征描述步骤如图1所示,包括以下过程:
第一步,将三维目标中的网格深度图像Q进行网格分辩率R的计算;
这里对于网格分辨率R的计算有两个步骤:
S1-1,将三维目标中的网格深度图像Q表示为图G=(P,H),其中P={p1,p2,...,pm},表示该网格深度图像Q中的所有顶点,pm为第m个顶点,m为正整数;Η={h1,h2,...,hn},表示该原始点云Q中的所有边,hn为第n条边,n为正整数;
S1-2,对所述网格深度图像Q中所有的边长求平均值,即得到该网格深度图像的网格分辩率R,具体公式为:其中,|hi|为边hi的长度,N表示网格深度图像Q中的边的数量。
网格分辨率是随机均匀采样以及三维特征提取的基准,通过该方法得到的网格分辩率准确度高,而且计算方法简单、快捷。
第二步,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;
特征点P'的坐标获得得可以分为以下两个步骤:
S2-1,将网格深度图像Q均匀划分为多个边长为n·R的立体网格,每个立体网格包含有多个顶点P;
S2-2,当立体网格中的顶点P的数量小于τ时,不提取该立体网格的特征点;当立体网格中的顶点P的数量不小于τ时,执行步骤S2-3,τ为预先设定的已知阈值;
S2-3,对顶点P的数量不小于τ的立体网格中的所有顶点P的x,y,z坐标分别求均值,得到第i个立体网格的特征点Pi'的坐标,具体公式为:其中,Pik表示第i个立体网格中第k个顶点。
第三步,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;
具体可以分为以下步骤:
S3-1,给定特征点P'和支持半径r,建立协方差矩阵C:
其中,Pi为以特征点P'为中心点,半径为r的区域内的点,di=|P'-Pi|为点Pi到特征点P'的距离,表示从点Pi到特征点P'的向量;
S3-2,对协方差矩阵C作特征值分解:CV=EV,其中,
对角矩阵E={λ1,λ2,λ3},λ1,λ2,λ3为特征值且λ1≥λ2≥λ3,矩阵为λ1,λ2,λ3对应的正交特征向量,且为x,y,z轴的坐标基;
S3-3,在特征点P'所在的局部表面上选取离特征点P'最近的g个点,g为奇数;
S3-4,若且i>g/2,则保持v1符号不变,反之,变为由此确定x轴的方向;
S3-5,以步骤S3-4中所述方法确定z轴方向;
S3-6,根据确定y轴方向。
第四步,S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp
具体为以下步骤:
S4-1,以特征点P'为原点,r为半径,在原始点云Q上截得局部点云Q';
S4-2,将局部点云Q'向局部参考系的xy,yz,zx三个坐标平面投影,得到三个二维的投影点云Q1',Q2'和Q3';
S4-3,对投影点云Q1',Q2'和Q3'作l×l的分块,并统计每个子块中的点的数目,根据子块中的点数分别构造l×l的方阵D1,D2和D3
S4-4,随机选取方阵D1中2u个元素,按先后顺序,每两个元素一组,构建u组测试对,对每组测试对执行如下测试:
T ( i ) = 1 , ifD ( i ) ≥ D ( i ) ′ 0 , others ,
得到一行唯一的u维二值位串其中,D(i),D(i)′分别是第i组测试对的第一和第二个元素;
S4-5,对方阵D2和D3选择与方阵D1位置相同的测试序列,按照步骤S4-4中所述的方法确定二值位串f2和f3
S4-6,依次将f1,f2和f3拼接起来,即得到特征点P'的二值化三维特征fp={f1,f2,f3}。
通过网格分辨率计算与随机均匀采样两个步骤可以快速获得点云表面上各个特征点。对原始点云作随机均匀采样,直接获取特征点,不仅计算量小而且简便快捷,实时性好。构建局部参考系不仅有助于提升提取特征的有效性以及计算效率,还有助于提升三维目标识别算法的准确性。
三维目标识别过程,如图2所示,具体包括:
首先,第一步,在三维目标场景中,对模型深度图像和场景深度图像分别进行步骤S1和步骤S2,实现对模型深度图像和场景深度图像的特征检测,得到模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj};并对模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj}中的每一个特征点进行步骤S3和步骤S4,实现对每一个特征点的特征描述,得到模型特征集合 f p = { f p 1 , f p 2 , . . . , f p i } 和场景特征集合 f q = { f q 1 , f q 2 , . . . , f q j } ;
再将场景特征集合中的特征和模型特征集合中的特征进行特征匹配,即将场景特征集合中的每一特征与模型特征集合中的特征逐一比对,度量两个特征的汉明距离。这里对两行二值位串逐位执行异或运算即可求得汉明距离,当然也可以采用现有已知的计算方法计算求得两个特征的汉明距离。
当汉明距离最小且小于预先设定的距离阈值δ时,两个特征点构成一组特征对应,特征匹配结束后,最终得到k组特征对应。
最后对这k组特征对应执行三维霍夫投票运算,根据特征对应判断场景中是否存在待识别目标,若存在,则计算该目标在场景中的位置与姿态,这里的计算方法采用本领域已知的计算方法计算即可,最终完成对三维目标的识别。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (6)

1.一种基于二值描述符的三维目标识别方法,其特征在于,包括三维目标特征描述步骤,所述三维目标特征描述步骤包括以下过程:
S1,将三维目标中的网格深度图像Q进行网格分辩率R的计算;
S2,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;
S3,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;
S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp
2.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S1包括以下步骤:
S1-1,将三维目标中的网格深度图像Q表示为图G=(P,H),其中P={p1,p2,...,pm},表示该网格深度图像Q中的所有顶点,pm为第m个顶点,m为正整数;Η={h1,h2,...,hn},表示该原始点云Q中的所有边,hn为第n条边,n为正整数;
S1-2,对所述网格深度图像Q中所有的边长求平均值,即得到该网格深度图像的网格分辩率R,具体公式为:其中,|hi|为边hi的长度,N表示网格深度图像Q中的边的数量。
3.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S2包括以下步骤:
S2-1,将网格深度图像Q均匀划分为多个边长为n·R的立体网格,每个立体网格包含有多个顶点P;
S2-2,当立体网格中的顶点P的数量小于τ时,不提取该立体网格的特征点;当立体网格中的顶点P的数量不小于τ时,执行步骤S2-3,τ为预先设定的已知阈值;
S2-3,对顶点P的数量不小于τ的立体网格中的所有顶点P的x,y,z坐标分别求均值,得到第i个立体网格的特征点P′i的坐标,具体公式为:其中,Pik表示第i个立体网格中第k个顶点。
4.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S3包括以下步骤:
S3-1,给定特征点P'和支持半径r,建立协方差矩阵C:
其中,Pi为以特征点P'为中心点,半径为r的区域内的点,di=|P'-Pi|为点Pi到特征点P'的距离,表示从点Pi到特征点P'的向量;
S3-2,对协方差矩阵C作特征值分解:CV=EV,其中,
对角矩阵E={λ1,λ2,λ3},λ1,λ2,λ3为特征值且λ1≥λ2≥λ3,矩阵为λ1,λ2,λ3对应的正交特征向量,且为x,y,z轴的坐标基;
S3-3,在特征点P'所在的局部表面上选取离特征点P'最近的g个点,g为奇数;
S3-4,若且i>g/2,则保持v1符号不变,反之,变为由此确定x轴的方向;
S3-5,以步骤S3-4中所述方法确定z轴方向;
S3-6,根据确定y轴方向。
5.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S4包括以下步骤:
S4-1,以特征点P'为原点,r为半径,在原始点云Q上截得局部点云Q';
S4-2,将局部点云Q'向局部参考系的xy,yz,zx三个坐标平面投影,得到三个二维的投影点云Q′1,Q′2和Q′3
S4-3,对投影点云Q′1,Q′2和Q′3作l×l的分块,并统计每个子块中的点的数目,根据子块中的点数分别构造l×l的方阵D1,D2和D3
S4-4,随机选取方阵D1中2u个元素,按先后顺序,每两个元素一组,构建u组测试对,对每组测试对执行如下测试:
T ( i ) = 1 , ifD ( i ) ≥ D ( i ) ′ 0 , other ,
得到一行唯一的u维二值位串其中,D(i),D(i)′分别是第i组测试对的第一个和第二个元素;
S4-5,对方阵D2和D3选择与方阵D1位置相同的测试序列,按照步骤S4-4中所述的方法确定二值位串f2和f3
S4-6,依次将f1,f2和f3拼接起来,即得到特征点P'的二值化三维特征fp={f1,f2,f3}。
6.根据权利要求1-5任意一项所述的基于二值描述符的三维目标识别方法,其特征在于,还包括三维目标识别过程,具体包括以下步骤:
第一步,在三维目标场景中,对模型深度图像和场景深度图像分别进行步骤S1和步骤S2,实现对模型深度图像和场景深度图像的特征检测,得到模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj};
第二步,对模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj}中的每一个特征点进行步骤S3和步骤S4,实现对每一个特征点的特征描述,得到模型特征集合fp={fp1,fp2,...,fpi}和场景特征集合fq={fq1,fq2,...,fqj};
第三步,将场景特征集合中的特征和模型特征集合中的特征进行特征匹配,即将场景特征集合中的每一特征与模型特征集合中的特征逐一比对,度量两个特征的汉明距离;
第四步,当汉明距离最小且小于预先设定的距离阈值δ时,两个特征点构成一组特征对应,特征匹配结束后,最终得到k组特征对应;
第五步,对这k组特征对应执行三维霍夫投票运算,根据特征对应判断场景中是否存在待识别目标,若存在,则计算该目标在场景中的位置与姿态,完成三维目标的识别。
CN201510262199.XA 2015-05-21 2015-05-21 一种基于二值描述符的三维目标识别方法 Expired - Fee Related CN104809456B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510262199.XA CN104809456B (zh) 2015-05-21 2015-05-21 一种基于二值描述符的三维目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510262199.XA CN104809456B (zh) 2015-05-21 2015-05-21 一种基于二值描述符的三维目标识别方法

Publications (2)

Publication Number Publication Date
CN104809456A true CN104809456A (zh) 2015-07-29
CN104809456B CN104809456B (zh) 2017-11-17

Family

ID=53694267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510262199.XA Expired - Fee Related CN104809456B (zh) 2015-05-21 2015-05-21 一种基于二值描述符的三维目标识别方法

Country Status (1)

Country Link
CN (1) CN104809456B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809118A (zh) * 2016-03-03 2016-07-27 重庆中科云丛科技有限公司 三维目标识别方法及装置
CN106096516A (zh) * 2016-06-01 2016-11-09 常州漫道罗孚特网络科技有限公司 一种三维目标跟踪的方法及装置
CN106483577A (zh) * 2015-09-01 2017-03-08 中国航天科工集团第四研究院指挥自动化技术研发与应用中心 一种光学探测装置
CN106886980A (zh) * 2015-12-11 2017-06-23 北京智行者科技有限公司 一种基于三维激光雷达目标识别的点云密度增强的方法
CN107305680A (zh) * 2016-04-21 2017-10-31 上海运青制版有限公司 一种箱包图像设计变形方法
CN108537805A (zh) * 2018-04-16 2018-09-14 中北大学 一种基于特征几何收益的目标识别方法
CN110175498A (zh) * 2018-02-20 2019-08-27 通用汽车环球科技运作有限责任公司 向导航度量地图提供富信息的地图语义
CN110705552A (zh) * 2019-10-11 2020-01-17 沈阳民航东北凯亚有限公司 行李托盘识别方法及装置
CN111931604A (zh) * 2020-07-22 2020-11-13 哈尔滨工业大学(深圳) 基于二值描述符的3d特征提取方法、系统及存储介质
CN112001261A (zh) * 2020-07-28 2020-11-27 哈尔滨工业大学(深圳) 基于toldi描述符的3d特征提取方法、系统及介质
CN113435256A (zh) * 2021-06-04 2021-09-24 华中科技大学 一种基于几何一致性约束的三维目标识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339607A (zh) * 2008-08-15 2009-01-07 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
US8274508B2 (en) * 2011-02-14 2012-09-25 Mitsubishi Electric Research Laboratories, Inc. Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339607A (zh) * 2008-08-15 2009-01-07 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
US8274508B2 (en) * 2011-02-14 2012-09-25 Mitsubishi Electric Research Laboratories, Inc. Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙晓兰等: "基于网格采样的深度图像表面特征提取算法", 《中国图象图形学报》 *
李世飞: "基于深度图像的三维目标识别技术研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106483577A (zh) * 2015-09-01 2017-03-08 中国航天科工集团第四研究院指挥自动化技术研发与应用中心 一种光学探测装置
CN106886980B (zh) * 2015-12-11 2020-08-07 北京智行者科技有限公司 一种基于三维激光雷达目标识别的点云密度增强的方法
CN106886980A (zh) * 2015-12-11 2017-06-23 北京智行者科技有限公司 一种基于三维激光雷达目标识别的点云密度增强的方法
CN105809118A (zh) * 2016-03-03 2016-07-27 重庆中科云丛科技有限公司 三维目标识别方法及装置
CN107305680A (zh) * 2016-04-21 2017-10-31 上海运青制版有限公司 一种箱包图像设计变形方法
CN106096516A (zh) * 2016-06-01 2016-11-09 常州漫道罗孚特网络科技有限公司 一种三维目标跟踪的方法及装置
CN110175498A (zh) * 2018-02-20 2019-08-27 通用汽车环球科技运作有限责任公司 向导航度量地图提供富信息的地图语义
CN110175498B (zh) * 2018-02-20 2023-07-07 通用汽车环球科技运作有限责任公司 向导航度量地图提供富信息的地图语义
CN108537805A (zh) * 2018-04-16 2018-09-14 中北大学 一种基于特征几何收益的目标识别方法
CN108537805B (zh) * 2018-04-16 2021-09-21 中北大学 一种基于特征几何收益的目标识别方法
CN110705552A (zh) * 2019-10-11 2020-01-17 沈阳民航东北凯亚有限公司 行李托盘识别方法及装置
CN110705552B (zh) * 2019-10-11 2022-05-06 沈阳民航东北凯亚有限公司 行李托盘识别方法及装置
CN111931604A (zh) * 2020-07-22 2020-11-13 哈尔滨工业大学(深圳) 基于二值描述符的3d特征提取方法、系统及存储介质
CN112001261A (zh) * 2020-07-28 2020-11-27 哈尔滨工业大学(深圳) 基于toldi描述符的3d特征提取方法、系统及介质
CN113435256A (zh) * 2021-06-04 2021-09-24 华中科技大学 一种基于几何一致性约束的三维目标识别方法及系统
CN113435256B (zh) * 2021-06-04 2022-04-26 华中科技大学 一种基于几何一致性约束的三维目标识别方法及系统

Also Published As

Publication number Publication date
CN104809456B (zh) 2017-11-17

Similar Documents

Publication Publication Date Title
CN104809456A (zh) 一种基于二值描述符的三维目标识别方法
Cham et al. Estimating camera pose from a single urban ground-view omnidirectional image and a 2D building outline map
CN109598290A (zh) 一种基于两级检测相结合的图像小目标检测方法
CN107292949A (zh) 场景的三维重建方法、装置及终端设备
CN105139416A (zh) 一种基于图像信息和深度信息的物体识别方法
CN102074015A (zh) 一种基于二维图像序列的目标对象的三维重建方法
CN103218799A (zh) 用于相机跟踪的方法和设备
CN103593838B (zh) 一种快速互相关灰度图像匹配方法与装置
Belter et al. Improving accuracy of feature-based RGB-D SLAM by modeling spatial uncertainty of point features
CN104778697B (zh) 基于快速定位图像尺度和区域的三维跟踪方法及系统
Li et al. Co-planar parametrization for stereo-SLAM and visual-inertial odometry
Porrill et al. TINA: a 3D vision system for pick and place
CN106096516A (zh) 一种三维目标跟踪的方法及装置
US9042655B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable recording medium
CN112001973A (zh) 基于数字散斑相关的快速三维人头测量方法
Wang et al. Multi-features visual odometry for indoor mapping of UAV
CN103729850B (zh) 一种在全景图中提取直线的方法
Xia et al. Building instance mapping from ALS point clouds aided by polygonal maps
CN113884025B (zh) 增材制造结构光回环检测方法、装置、电子设备和存储介质
Zhong et al. Point cloud splicing based on 3D-Harris operator
Kim et al. Motion estimation for multi-camera systems using global optimization
Kim et al. Semiautomatic building line extraction from Ikonos images through monoscopic line analysis
Tian et al. Efficient ego-motion estimation for multi-camera systems with decoupled rotation and translation
Barath et al. Relative pose solvers using monocular depth
Sui et al. Camera calibration method based on bundle adjustment

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171117

Termination date: 20200521

CF01 Termination of patent right due to non-payment of annual fee