CN104809456A - 一种基于二值描述符的三维目标识别方法 - Google Patents
一种基于二值描述符的三维目标识别方法 Download PDFInfo
- Publication number
- CN104809456A CN104809456A CN201510262199.XA CN201510262199A CN104809456A CN 104809456 A CN104809456 A CN 104809456A CN 201510262199 A CN201510262199 A CN 201510262199A CN 104809456 A CN104809456 A CN 104809456A
- Authority
- CN
- China
- Prior art keywords
- point
- feature
- depth image
- unique point
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于二值描述符的三维目标识别方法,包括三维目标特征描述步骤,所述三维目标特征描述步骤包括以下过程:S1,将三维目标中的网格深度图像Q进行网格分辩率R的计算;S2,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;S3,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp。本发明计算方法简单,特征提取和特征匹配效率高,可快速准确的实现对三维目标的二值化描述。
Description
技术领域
本发明涉及机器视觉领域,具体涉及一种基于二值描述符的三维目标识别方法。
背景技术
三维目标识别的目标就是在三维场景中正确地识别目标并确定目标的位置与姿态。三维目标识别相比于基于二维图像的目标识别技术有着其独特的技术优势:其一,包含更多的深度信息;其二,特征提取受尺度、旋转和光照的影响小;其三,对目标姿态的估计更精确。有望解决基于二维图像的目标识别中面临的诸多难题。此外,在过去二十年中计算机性能的大幅提升和深度数据传感器成本的降低,使得三维目标识别一直是机器视觉领域里的一大研究热点。
对场景和模型进行特征描述是三维目标识别的核心环节,它决定着三维目标识别算法的效率和准确性。对于存在噪声、遮挡、网格分辨率变化的复杂场景,现有的局部特征描述符已经获得了较高的识别率,如郭裕兰等人提出的“基于旋转投影统计的三维目标描述及识别方法”(发表于国际计算机视觉杂志,2013年第105期)。
然而,现有特征描述方法通常使用一行浮点数向量表征三维局部表面的特征,并且特征向量维度普遍较高。因此,特征匹配的计算量大,对设备计算性能有较高要求,算法应用场景受限;识别过程耗时长,不利于三维目标识别的实时化。
发明内容
为了克服上述现有技术中存在的缺陷,本发明的目的是提供一种计算方法简单,特征提取和特征匹配效率高的三维目标识别方法。
为了实现本发明的上述目的,本发明提供了一种基于二值描述符的三维目标识别方法,包括三维目标特征描述步骤,所述三维目标特征描述步骤包括以下过程:
S1,将三维目标中的网格深度图像Q进行网格分辩率R的计算;
S2,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;
S3,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;
S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp。
通过网格分辨率计算与随机均匀采样两个步骤可以快速获得网格深度图像表面上各个特征点,实现对图像的特征检测。对网格深度图像作随机均匀采样,直接获取特征点,不仅计算量小而且简便快捷,实时性好。构建局部参考系不仅有助于提升提取特征的有效性以及计算效率,还有助于提升三维目标识别算法的准确性。
进一步的,步骤S1包括以下步骤:
S1-1,将三维目标中的网格深度图像Q表示为图G=(P,H),其中P={p1,p2,...,pm},表示该网格深度图像Q中的所有顶点,pm为第m个顶点,m为正整数;Η={h1,h2,...,hn},表示该原始点云Q中的所有边,hn为第n条边,n为正整数;
S1-2,对所述网格深度图像Q中所有的边长求平均值,即得到该网格深度图像的网格分辩率R,具体公式为:其中,|hi|为边hi的长度,N表示网格深度图像Q中的边的数量。
网格分辨率是随机均匀采样以及三维特征提取的基准,通过该方法得到的网格分辩率准确度高,而且计算方法简单、快捷。
进一步的,步骤S2包括以下步骤:
S2-1,将网格深度图像Q均匀划分为多个边长为n·R的立体网格,每个立体网格包含有多个顶点P;
S2-2,当立体网格中的顶点P的数量小于τ时,不提取该立体网格的特征点;当立体网格中的顶点P的数量不小于τ时,执行步骤S2-3,τ为预先设定的已知阈值;
S2-3,对顶点P的数量不小于τ的立体网格中的所有顶点P的x,y,z坐标分别求均值,得到第i个立体网格的特征点Pi'的坐标,具体公式为:其中,Pik表示第i个立体网格中第k个顶点。
加入约束条件τ,避免了在网格深度图像Q的边缘或者网格深度图像Q上深度信息缺失的区域附近提取特征点。
对每个立体网格的特征点P'坐标的确定,为后续局部参考系以及特征向量的构建起到重要作用,该计算方法简单,有效,能快速得到特征点P'坐标。
进一步的,步骤S3包括以下步骤:
S3-1,给定特征点P'和支持半径r,建立协方差矩阵C:
其中,Pi为以特征点P'为中心点,半径为r的区域内的点,di=|P'-Pi|为点Pi到特征点P'的距离,表示从点Pi到特征点P'的向量;
S3-2,对协方差矩阵C作特征值分解:CV=EV,其中,
对角矩阵E={λ1,λ2,λ3},λ1,λ2,λ3为特征值且λ1≥λ2≥λ3,矩阵为λ1,λ2,λ3对应的正交特征向量,且为x,y,z轴的坐标基;
S3-3,在特征点P'所在的局部表面上选取离特征点P'最近的g个点,g为奇数;
S3-4,若且i>g/2,则保持v1符号不变,反之,变为由此确定x轴的方向;
S3-5,以步骤S3-4中所述方法确定z轴方向;
S3-6,根据确定y轴方向。
在局部参考系的构建中,对向量的符号的消歧处理,克服了向量符号的不确定性,使得它们的方向与局部表面上点到特征点向量的主体方向保持了一致。
进一步的,步骤S4包括以下步骤:
S4-1,以特征点P'为原点,r为半径,在原始点云Q上截得局部点云Q';
S4-2,将局部点云Q'向局部参考系的xy,yz,zx三个坐标平面投影,得到三个二维的投影点云Q1',Q2'和Q3';
S4-3,对投影点云Q1',Q2'和Q3'作l×l的分块,并统计每个子块中的点的数目,根据子块中的点数分别构造l×l的方阵D1,D2和D3;
S4-4,随机选取方阵D1中2u个元素,按先后顺序,每两个元素一组,构建u组测试对,对每组测试对执行如下测试:
得到一行唯一的u维二值位串其中,D(i),D(i)′分别是第i组测试对的第一和第二个元素;
S4-5,对方阵D2和D3选择与方阵D1位置相同的测试序列,按照步骤S4-4中所述的方法确定二值位串f2和f3;
S4-6,依次将f1,f2和f3拼接起来,即得到特征点P'的二值化三维特征fp={f1,f2,f3}。
该方法计算简单,准确性高,能快速计算得到特征点P'的二值化三维特征fp
进一步的,该三维目标识别方法还包括三维目标识别过程,具体包括以下步骤:
第一步,在三维目标场景中,对模型深度图像和场景深度图像分别进行步骤S1和步骤S2,实现对模型深度图像和场景深度图像的特征检测,得到模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj};
第二步,对模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj}中的每一个特征点进行步骤S3和步骤S4,实现对每一个特征点的特征描述,得到模型特征集合和场景特征集合
第三步,将场景特征集合中的特征和模型特征集合中的特征进行特征匹配,即将场景特征集合中的每一特征与模型特征集合中的特征逐一比对,度量两个特征的汉明距离;
第四步,当汉明距离最小且小于预先设定的距离阈值δ时,两个特征点构成一组特征对应,特征匹配结束后,最终得到k组特征对应;
第五步,对这k组特征对应执行三维霍夫投票运算,根据特征对应判断场景中是否存在待识别目标,若存在,则计算该目标在场景中的位置与姿态,完成三维目标的识别。
对三维场景中存在的目标进行正确的辨认并估计目标在场景中的位置与姿态是三维目标识别算法的目的,而本方法首先通过对图像的特征检测和特征描述,然后通过对两个特征的汉明距离的度量得到特征对应,最后通过三维霍夫投票运算简单、有效并且准确的实现了对三维场景中存在的目标进行正确的辨认并估计目标在场景中的位置与姿态。
本发明的有益效果是:以二值位串表示特征向量,占用更小的存储和更少的计算资源,并且该方法计算简单,便于高效运算,利于三维目标识别算法的实时化。在计算机计算性能和存储资源受限的设备上或对算法实时性要求较高的场景中适用性高。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明中特征提取流程图;
图2是本发明中三维目标识别流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明提供了一种基于二值描述符的三维目标识别方法,包括三维目标特征描述步骤和三维目标识别过程,所述三维目标特征描述步骤如图1所示,包括以下过程:
第一步,将三维目标中的网格深度图像Q进行网格分辩率R的计算;
这里对于网格分辨率R的计算有两个步骤:
S1-1,将三维目标中的网格深度图像Q表示为图G=(P,H),其中P={p1,p2,...,pm},表示该网格深度图像Q中的所有顶点,pm为第m个顶点,m为正整数;Η={h1,h2,...,hn},表示该原始点云Q中的所有边,hn为第n条边,n为正整数;
S1-2,对所述网格深度图像Q中所有的边长求平均值,即得到该网格深度图像的网格分辩率R,具体公式为:其中,|hi|为边hi的长度,N表示网格深度图像Q中的边的数量。
网格分辨率是随机均匀采样以及三维特征提取的基准,通过该方法得到的网格分辩率准确度高,而且计算方法简单、快捷。
第二步,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;
特征点P'的坐标获得得可以分为以下两个步骤:
S2-1,将网格深度图像Q均匀划分为多个边长为n·R的立体网格,每个立体网格包含有多个顶点P;
S2-2,当立体网格中的顶点P的数量小于τ时,不提取该立体网格的特征点;当立体网格中的顶点P的数量不小于τ时,执行步骤S2-3,τ为预先设定的已知阈值;
S2-3,对顶点P的数量不小于τ的立体网格中的所有顶点P的x,y,z坐标分别求均值,得到第i个立体网格的特征点Pi'的坐标,具体公式为:其中,Pik表示第i个立体网格中第k个顶点。
第三步,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;
具体可以分为以下步骤:
S3-1,给定特征点P'和支持半径r,建立协方差矩阵C:
其中,Pi为以特征点P'为中心点,半径为r的区域内的点,di=|P'-Pi|为点Pi到特征点P'的距离,表示从点Pi到特征点P'的向量;
S3-2,对协方差矩阵C作特征值分解:CV=EV,其中,
对角矩阵E={λ1,λ2,λ3},λ1,λ2,λ3为特征值且λ1≥λ2≥λ3,矩阵为λ1,λ2,λ3对应的正交特征向量,且为x,y,z轴的坐标基;
S3-3,在特征点P'所在的局部表面上选取离特征点P'最近的g个点,g为奇数;
S3-4,若且i>g/2,则保持v1符号不变,反之,变为由此确定x轴的方向;
S3-5,以步骤S3-4中所述方法确定z轴方向;
S3-6,根据确定y轴方向。
第四步,S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp。
具体为以下步骤:
S4-1,以特征点P'为原点,r为半径,在原始点云Q上截得局部点云Q';
S4-2,将局部点云Q'向局部参考系的xy,yz,zx三个坐标平面投影,得到三个二维的投影点云Q1',Q2'和Q3';
S4-3,对投影点云Q1',Q2'和Q3'作l×l的分块,并统计每个子块中的点的数目,根据子块中的点数分别构造l×l的方阵D1,D2和D3;
S4-4,随机选取方阵D1中2u个元素,按先后顺序,每两个元素一组,构建u组测试对,对每组测试对执行如下测试:
得到一行唯一的u维二值位串其中,D(i),D(i)′分别是第i组测试对的第一和第二个元素;
S4-5,对方阵D2和D3选择与方阵D1位置相同的测试序列,按照步骤S4-4中所述的方法确定二值位串f2和f3;
S4-6,依次将f1,f2和f3拼接起来,即得到特征点P'的二值化三维特征fp={f1,f2,f3}。
通过网格分辨率计算与随机均匀采样两个步骤可以快速获得点云表面上各个特征点。对原始点云作随机均匀采样,直接获取特征点,不仅计算量小而且简便快捷,实时性好。构建局部参考系不仅有助于提升提取特征的有效性以及计算效率,还有助于提升三维目标识别算法的准确性。
三维目标识别过程,如图2所示,具体包括:
首先,第一步,在三维目标场景中,对模型深度图像和场景深度图像分别进行步骤S1和步骤S2,实现对模型深度图像和场景深度图像的特征检测,得到模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj};并对模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj}中的每一个特征点进行步骤S3和步骤S4,实现对每一个特征点的特征描述,得到模型特征集合 和场景特征集合
再将场景特征集合中的特征和模型特征集合中的特征进行特征匹配,即将场景特征集合中的每一特征与模型特征集合中的特征逐一比对,度量两个特征的汉明距离。这里对两行二值位串逐位执行异或运算即可求得汉明距离,当然也可以采用现有已知的计算方法计算求得两个特征的汉明距离。
当汉明距离最小且小于预先设定的距离阈值δ时,两个特征点构成一组特征对应,特征匹配结束后,最终得到k组特征对应。
最后对这k组特征对应执行三维霍夫投票运算,根据特征对应判断场景中是否存在待识别目标,若存在,则计算该目标在场景中的位置与姿态,这里的计算方法采用本领域已知的计算方法计算即可,最终完成对三维目标的识别。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (6)
1.一种基于二值描述符的三维目标识别方法,其特征在于,包括三维目标特征描述步骤,所述三维目标特征描述步骤包括以下过程:
S1,将三维目标中的网格深度图像Q进行网格分辩率R的计算;
S2,根据计算所得的网格分辨率R对网格深度图像Q进行均匀采样,得到特征点P'的坐标;
S3,根据计算所得的特征点P'的坐标构建局部参考系,并对该局部参考系的x轴、y轴和z轴的方向进行消歧处理;
S4,根据消歧后的局部参考系构建特征向量,得到特征点P'的二值化三维特征fp。
2.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S1包括以下步骤:
S1-1,将三维目标中的网格深度图像Q表示为图G=(P,H),其中P={p1,p2,...,pm},表示该网格深度图像Q中的所有顶点,pm为第m个顶点,m为正整数;Η={h1,h2,...,hn},表示该原始点云Q中的所有边,hn为第n条边,n为正整数;
S1-2,对所述网格深度图像Q中所有的边长求平均值,即得到该网格深度图像的网格分辩率R,具体公式为:其中,|hi|为边hi的长度,N表示网格深度图像Q中的边的数量。
3.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S2包括以下步骤:
S2-1,将网格深度图像Q均匀划分为多个边长为n·R的立体网格,每个立体网格包含有多个顶点P;
S2-2,当立体网格中的顶点P的数量小于τ时,不提取该立体网格的特征点;当立体网格中的顶点P的数量不小于τ时,执行步骤S2-3,τ为预先设定的已知阈值;
S2-3,对顶点P的数量不小于τ的立体网格中的所有顶点P的x,y,z坐标分别求均值,得到第i个立体网格的特征点P′i的坐标,具体公式为:其中,Pik表示第i个立体网格中第k个顶点。
4.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S3包括以下步骤:
S3-1,给定特征点P'和支持半径r,建立协方差矩阵C:
其中,Pi为以特征点P'为中心点,半径为r的区域内的点,di=|P'-Pi|为点Pi到特征点P'的距离,表示从点Pi到特征点P'的向量;
S3-2,对协方差矩阵C作特征值分解:CV=EV,其中,
对角矩阵E={λ1,λ2,λ3},λ1,λ2,λ3为特征值且λ1≥λ2≥λ3,矩阵为λ1,λ2,λ3对应的正交特征向量,且为x,y,z轴的坐标基;
S3-3,在特征点P'所在的局部表面上选取离特征点P'最近的g个点,g为奇数;
S3-4,若且i>g/2,则保持v1符号不变,反之,变为由此确定x轴的方向;
S3-5,以步骤S3-4中所述方法确定z轴方向;
S3-6,根据确定y轴方向。
5.根据权利要求1所述的基于二值描述符的三维目标识别方法,其特征在于,步骤S4包括以下步骤:
S4-1,以特征点P'为原点,r为半径,在原始点云Q上截得局部点云Q';
S4-2,将局部点云Q'向局部参考系的xy,yz,zx三个坐标平面投影,得到三个二维的投影点云Q′1,Q′2和Q′3;
S4-3,对投影点云Q′1,Q′2和Q′3作l×l的分块,并统计每个子块中的点的数目,根据子块中的点数分别构造l×l的方阵D1,D2和D3;
S4-4,随机选取方阵D1中2u个元素,按先后顺序,每两个元素一组,构建u组测试对,对每组测试对执行如下测试:
得到一行唯一的u维二值位串其中,D(i),D(i)′分别是第i组测试对的第一个和第二个元素;
S4-5,对方阵D2和D3选择与方阵D1位置相同的测试序列,按照步骤S4-4中所述的方法确定二值位串f2和f3;
S4-6,依次将f1,f2和f3拼接起来,即得到特征点P'的二值化三维特征fp={f1,f2,f3}。
6.根据权利要求1-5任意一项所述的基于二值描述符的三维目标识别方法,其特征在于,还包括三维目标识别过程,具体包括以下步骤:
第一步,在三维目标场景中,对模型深度图像和场景深度图像分别进行步骤S1和步骤S2,实现对模型深度图像和场景深度图像的特征检测,得到模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj};
第二步,对模型特征点集合p={p1,p2,...,pi}和场景特征点集合q={q1,q2,...qj}中的每一个特征点进行步骤S3和步骤S4,实现对每一个特征点的特征描述,得到模型特征集合fp={fp1,fp2,...,fpi}和场景特征集合fq={fq1,fq2,...,fqj};
第三步,将场景特征集合中的特征和模型特征集合中的特征进行特征匹配,即将场景特征集合中的每一特征与模型特征集合中的特征逐一比对,度量两个特征的汉明距离;
第四步,当汉明距离最小且小于预先设定的距离阈值δ时,两个特征点构成一组特征对应,特征匹配结束后,最终得到k组特征对应;
第五步,对这k组特征对应执行三维霍夫投票运算,根据特征对应判断场景中是否存在待识别目标,若存在,则计算该目标在场景中的位置与姿态,完成三维目标的识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510262199.XA CN104809456B (zh) | 2015-05-21 | 2015-05-21 | 一种基于二值描述符的三维目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510262199.XA CN104809456B (zh) | 2015-05-21 | 2015-05-21 | 一种基于二值描述符的三维目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104809456A true CN104809456A (zh) | 2015-07-29 |
CN104809456B CN104809456B (zh) | 2017-11-17 |
Family
ID=53694267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510262199.XA Expired - Fee Related CN104809456B (zh) | 2015-05-21 | 2015-05-21 | 一种基于二值描述符的三维目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104809456B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809118A (zh) * | 2016-03-03 | 2016-07-27 | 重庆中科云丛科技有限公司 | 三维目标识别方法及装置 |
CN106096516A (zh) * | 2016-06-01 | 2016-11-09 | 常州漫道罗孚特网络科技有限公司 | 一种三维目标跟踪的方法及装置 |
CN106483577A (zh) * | 2015-09-01 | 2017-03-08 | 中国航天科工集团第四研究院指挥自动化技术研发与应用中心 | 一种光学探测装置 |
CN106886980A (zh) * | 2015-12-11 | 2017-06-23 | 北京智行者科技有限公司 | 一种基于三维激光雷达目标识别的点云密度增强的方法 |
CN107305680A (zh) * | 2016-04-21 | 2017-10-31 | 上海运青制版有限公司 | 一种箱包图像设计变形方法 |
CN108537805A (zh) * | 2018-04-16 | 2018-09-14 | 中北大学 | 一种基于特征几何收益的目标识别方法 |
CN110175498A (zh) * | 2018-02-20 | 2019-08-27 | 通用汽车环球科技运作有限责任公司 | 向导航度量地图提供富信息的地图语义 |
CN110705552A (zh) * | 2019-10-11 | 2020-01-17 | 沈阳民航东北凯亚有限公司 | 行李托盘识别方法及装置 |
CN111931604A (zh) * | 2020-07-22 | 2020-11-13 | 哈尔滨工业大学(深圳) | 基于二值描述符的3d特征提取方法、系统及存储介质 |
CN112001261A (zh) * | 2020-07-28 | 2020-11-27 | 哈尔滨工业大学(深圳) | 基于toldi描述符的3d特征提取方法、系统及介质 |
CN113435256A (zh) * | 2021-06-04 | 2021-09-24 | 华中科技大学 | 一种基于几何一致性约束的三维目标识别方法及系统 |
CN118052840A (zh) * | 2024-04-15 | 2024-05-17 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种实时姿态信息计算方法、装置、设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339607A (zh) * | 2008-08-15 | 2009-01-07 | 北京中星微电子有限公司 | 人脸识别方法及系统、人脸识别模型训练方法及系统 |
US8274508B2 (en) * | 2011-02-14 | 2012-09-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images |
-
2015
- 2015-05-21 CN CN201510262199.XA patent/CN104809456B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339607A (zh) * | 2008-08-15 | 2009-01-07 | 北京中星微电子有限公司 | 人脸识别方法及系统、人脸识别模型训练方法及系统 |
US8274508B2 (en) * | 2011-02-14 | 2012-09-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images |
Non-Patent Citations (2)
Title |
---|
孙晓兰等: "基于网格采样的深度图像表面特征提取算法", 《中国图象图形学报》 * |
李世飞: "基于深度图像的三维目标识别技术研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106483577A (zh) * | 2015-09-01 | 2017-03-08 | 中国航天科工集团第四研究院指挥自动化技术研发与应用中心 | 一种光学探测装置 |
CN106886980B (zh) * | 2015-12-11 | 2020-08-07 | 北京智行者科技有限公司 | 一种基于三维激光雷达目标识别的点云密度增强的方法 |
CN106886980A (zh) * | 2015-12-11 | 2017-06-23 | 北京智行者科技有限公司 | 一种基于三维激光雷达目标识别的点云密度增强的方法 |
CN105809118A (zh) * | 2016-03-03 | 2016-07-27 | 重庆中科云丛科技有限公司 | 三维目标识别方法及装置 |
CN107305680A (zh) * | 2016-04-21 | 2017-10-31 | 上海运青制版有限公司 | 一种箱包图像设计变形方法 |
CN106096516A (zh) * | 2016-06-01 | 2016-11-09 | 常州漫道罗孚特网络科技有限公司 | 一种三维目标跟踪的方法及装置 |
CN110175498A (zh) * | 2018-02-20 | 2019-08-27 | 通用汽车环球科技运作有限责任公司 | 向导航度量地图提供富信息的地图语义 |
CN110175498B (zh) * | 2018-02-20 | 2023-07-07 | 通用汽车环球科技运作有限责任公司 | 向导航度量地图提供富信息的地图语义 |
CN108537805A (zh) * | 2018-04-16 | 2018-09-14 | 中北大学 | 一种基于特征几何收益的目标识别方法 |
CN108537805B (zh) * | 2018-04-16 | 2021-09-21 | 中北大学 | 一种基于特征几何收益的目标识别方法 |
CN110705552A (zh) * | 2019-10-11 | 2020-01-17 | 沈阳民航东北凯亚有限公司 | 行李托盘识别方法及装置 |
CN110705552B (zh) * | 2019-10-11 | 2022-05-06 | 沈阳民航东北凯亚有限公司 | 行李托盘识别方法及装置 |
CN111931604A (zh) * | 2020-07-22 | 2020-11-13 | 哈尔滨工业大学(深圳) | 基于二值描述符的3d特征提取方法、系统及存储介质 |
CN112001261A (zh) * | 2020-07-28 | 2020-11-27 | 哈尔滨工业大学(深圳) | 基于toldi描述符的3d特征提取方法、系统及介质 |
CN113435256A (zh) * | 2021-06-04 | 2021-09-24 | 华中科技大学 | 一种基于几何一致性约束的三维目标识别方法及系统 |
CN113435256B (zh) * | 2021-06-04 | 2022-04-26 | 华中科技大学 | 一种基于几何一致性约束的三维目标识别方法及系统 |
CN118052840A (zh) * | 2024-04-15 | 2024-05-17 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种实时姿态信息计算方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104809456B (zh) | 2017-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104809456A (zh) | 一种基于二值描述符的三维目标识别方法 | |
Cham et al. | Estimating camera pose from a single urban ground-view omnidirectional image and a 2D building outline map | |
CN103824080B (zh) | 动态稀疏环境下机器人slam物体状态检测方法 | |
CN107292949A (zh) | 场景的三维重建方法、装置及终端设备 | |
CN102074015A (zh) | 一种基于二维图像序列的目标对象的三维重建方法 | |
CN103218799A (zh) | 用于相机跟踪的方法和设备 | |
Belter et al. | Improving accuracy of feature-based RGB-D SLAM by modeling spatial uncertainty of point features | |
CN103593838B (zh) | 一种快速互相关灰度图像匹配方法与装置 | |
Li et al. | Co-planar parametrization for stereo-SLAM and visual-inertial odometry | |
CN104778697B (zh) | 基于快速定位图像尺度和区域的三维跟踪方法及系统 | |
Porrill et al. | TINA: a 3D vision system for pick and place | |
CN106096516A (zh) | 一种三维目标跟踪的方法及装置 | |
CN112001973A (zh) | 基于数字散斑相关的快速三维人头测量方法 | |
Xia et al. | Building instance mapping from ALS point clouds aided by polygonal maps | |
CN105303554A (zh) | 一种图像特征点的3d重建方法和装置 | |
CN117994484A (zh) | 一种大型建筑预制构件三维图像拼接装置及方法 | |
Zhong et al. | Point cloud splicing based on 3D-Harris operator | |
Wang et al. | Multi-features visual odometry for indoor mapping of UAV | |
CN103729850B (zh) | 一种在全景图中提取直线的方法 | |
CN113884025B (zh) | 增材制造结构光回环检测方法、装置、电子设备和存储介质 | |
Kim et al. | Motion estimation for multi-camera systems using global optimization | |
Kim et al. | Semiautomatic building line extraction from Ikonos images through monoscopic line analysis | |
Tian et al. | Efficient ego-motion estimation for multi-camera systems with decoupled rotation and translation | |
Li et al. | PLPR-SLAM: Indoor RGB-D SLAM Utilizing Point-Line-Plane Features | |
Yu et al. | Accurate line-based relative pose estimation with camera matrices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171117 Termination date: 20200521 |
|
CF01 | Termination of patent right due to non-payment of annual fee |