CN113469195B - 一种基于自适应颜色快速点特征直方图的目标识别方法 - Google Patents

一种基于自适应颜色快速点特征直方图的目标识别方法 Download PDF

Info

Publication number
CN113469195B
CN113469195B CN202110710179.XA CN202110710179A CN113469195B CN 113469195 B CN113469195 B CN 113469195B CN 202110710179 A CN202110710179 A CN 202110710179A CN 113469195 B CN113469195 B CN 113469195B
Authority
CN
China
Prior art keywords
point
point cloud
neighborhood
characteristic
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110710179.XA
Other languages
English (en)
Other versions
CN113469195A (zh
Inventor
邵益平
陈志慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110710179.XA priority Critical patent/CN113469195B/zh
Publication of CN113469195A publication Critical patent/CN113469195A/zh
Application granted granted Critical
Publication of CN113469195B publication Critical patent/CN113469195B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及三维点云处理技术领域,针对现有目标识别技术中手动多次调试邻域半径低效低精度的问题,公开了一种基于自适应颜色快速点特征直方图的目标识别方法,所述方法包括:读取点云数据;数据预处理;获取自适应最优邻域半径;计算法向量;关键点检测;特征提取;特征匹配;误匹配点对剔除。本发明通过与现有的快速点特征直方图(FPFH)特征描述符以及特征提取算法进行比较分析,提出的自适应颜色快速点特征直方图(ACFPFH)特征描述符包含了物体的颜色信息,基于特征熵的自适应邻域特征提取算法给出了邻域半径的选取标准,可获得每个点的最优邻域半径,克服了手动多次调试参数获取邻域半径的随意性,有效提升了目标识别精度和效率。

Description

一种基于自适应颜色快速点特征直方图的目标识别方法
技术领域
本发明涉及三维点云处理技术领域,尤其是涉及一种基于自适应颜色快速点特征直方图的目标识别方法。
背景技术
近年来,目标识别在机器人3D场景感知与导航、无人驾驶、增强现实等重要领域有着广泛应用。在物流领域,将无人驾驶技术引入工业车辆,可大幅度降低人力成本、提高作业效率、缩短物流周期。由于障碍物较多、光照不均、搬运累计误差和人工干预等因素的影响,无人驾驶工业车辆在实际货物搬运过程中存在低效、重复搬运等问题。目标识别是无人驾驶工业车辆的关键技术之一,对仓储环境下的托盘进行精准高效识别,是实现高精度、高可靠、高效率物流仓储系统、构建未来“智能工厂”的重要基石。
当前技术条件下,目标识别主要是通过对比物体的模板点云和深度传感器获取的场景点云,提取点云特征描述符进行特征匹配,并在场景点云中实现目标识别。与点特征直方图、视点特征直方图、方向直方图签名等特征描述符相比,快速点特征直方图(FPFH)只有33个维度,计算空间小且运算速度较快,应用较为广泛。然而,FPFH特征描述符只考虑了物体的几何特性,忽略了物体的颜色信息;现有的FPFH特征描述符计算方法没有考虑邻域半径的选取标准,采用手动多次调试的方法确定邻域半径,效率较低且具有很强的随意性,从而降低目标识别的效率与精度。
已有技术中,Y Tao在论文“Automatic apple recognition based on thefusion of color and 3D feature for robotic fruit picking”(Computers andElectronics in Agriculture,2017,142:388-396)中,将待识别物体的颜色特征引入FPFH特征描述符,在RGB和HSI空间中提取了6个颜色分量来表示每个点的颜色特征,并提出了Color-FPFH特征描述符,但是该方法忽略了特征提取时邻域半径的选取标准。
发明内容
本发明是为了克服现有目标识别技术中手动多次调试邻域半径低效低精度的问题,提出了一种基于自适应颜色快速点特征直方图的目标识别方法,利用邻域协方差矩阵分解得到的特征值计算特征熵,确定特征提取的自适应最优邻域半径,提升目标识别的精度与效率。
为了实现上述目的,本发明采用以下技术方案:
一种基于自适应颜色快速点特征直方图的目标识别方法,所述方法包括下述步骤:
(1)读取点云数据:读取模板点云与场景点云数据;
(2)数据预处理:对读取的场景点云数据进行处理,获得有效的场景点云数据;
(3)获取自适应最优邻域半径:针对模板点云与预处理后的场景点云,基于邻域特征熵计算每个点的自适应最优邻域半径;
(4)计算法向量:模板点云与场景点云中每个点通过knnsearch搜索得到邻域点,依次计算每个点的邻域协方差矩阵,进行特征值分解,取最小特征值对应的特征向量为该点的法向量;
(5)关键点检测:设置固定半径,对每个点进行半径搜索得到邻域点,计算邻域协方差矩阵,并基于矩阵分解的特征值比值筛选出模板点云与场景点云的关键点;
(6)特征提取:利用最优邻域半径确定模板点云与场景点云中每个点的邻域范围,在关键点与其对应的邻域点处建立局部坐标系,得到简化点特征直方图与关键点的快速点特征直方图,形成最终的自适应颜色快速点特征直方图特征描述符;
(7)特征匹配:基于步骤(6)中得到的自适应颜色快速点特征直方图特征值,利用最近邻距离比进行特征匹配,得到模板点云与场景点云的初始匹配点对;
(8)误匹配点对剔除:计算模板点云与场景点云的转换矩阵,基于距离阈值剔除模板点云与场景点云的误匹配点对。
通过Kinect V2获取模板点云与场景点云数据,对场景点云进行预处理,计算模板点云与预处理后的场景点云中每个点的最优邻域半径和法向量,并提取关键点。利用最优邻域半径和法向量计算关键点的自适应颜色快速点特征直方图(ACFPFH)特征描述符,根据ACFPFH特征描述符进行场景点云与模板点云的初始特征匹配,并基于距离阈值剔除误匹配点对。
通过与现有的FPFH特征描述符以及特征提取算法进行比较分析,本发明提出的ACFPFH特征描述符包含了物体的颜色信息,基于特征熵的自适应邻域特征提取算法给出了邻域半径的选取标准,克服了手动多次调试参数获取邻域半径的随意性,可自适应获得每个点的最优邻域半径。增加的颜色分量将特征维度从33维扩展到36维,增强了FPFH的描述性,提高了目标识别精度;邻域半径过小会降低识别精度,邻域半径过大会减慢识别速度,基于最优邻域半径提取特征在识别精度与计算经济性二者之间取得了平衡,可有效提升目标识别精度和效率。
作为优选,所述步骤(1)中,所述模板点云采用离线识别算法,所述场景点云采用在线识别算法;场景点云数据由深度相机采集获取,包括场景物体的空间位置坐标以及颜色信息。
作为优选,所述步骤(2)的处理过程为:剔除采集到的场景点云数据中的噪声点与离群点,得到能够反映真实场景的有效点云数据。
作为优选,所述步骤(3)的自适应邻域获取方式为:确定最小、最大邻域半径及间隔大小,根据邻域协方差矩阵分解得到的特征值计算每个邻域半径对应的邻域特征熵,最小的邻域特征熵对应的邻域半径为最优邻域半径。
作为优选,所述步骤(4)中,计算得到的法向量需要根据指向视点原则重新确定方向,从而保证所有的法向量指向一致。
作为优选,所述步骤(5)中,关键点的检测采用内在形状签名方法。
作为优选,所述步骤(6)中,特征提取的具体过程:a.利用步骤(3)中获得的最优邻域半径确定模板点云与场景点云中每个点的邻域范围;b.在关键点与其对应的邻域点处建立局部坐标系;c.利用局部坐标系,计算查询点与其邻域点的几何关系得到简化点特征直方图;d.根据关键点与邻域点的简化点特征直方图得到关键点的快速点特征直方图;e.将颜色空间的红色分量、绿色分量及蓝色分量引入关键点的快速点特征直方图特征描述符,形成最终的自适应颜色快速点特征直方图特征描述符。
作为优选,所述步骤(6)中,表征的是指查询点法线与其邻域点法线之间的几何关系,关键点的快速点特征直方图值由关键点的简化点特征直方图与其邻域点的简化点特征直方图加权计算得到,权值由关键点与邻域点的距离确定。
作为优选,所述步骤(7)中,特征匹配的具体过程为:利用knnsearch搜索算法在场景点云中找到距离模板点云自适应颜色快速点特征直方图最近及次近的特征描述子自适应颜色快速点特征直方图,二者距离的比值小于阈值d,即可得到初始特征匹配点对;最近距离与次近距离的比值范围为(0,1],因此所述阈值d需满足0<d≤1。
作为优选,所述步骤(8)中,采用随机采样一致性方法计算模板点云与场景点云的变换矩阵,得到转换后的模板点云与场景点云的距离,剔除大于初始特征匹配点对平均距离的误匹配点对,从而保留正确匹配点对,将场景点云中的正确匹配点作为识别目标。
(1)本发明提出一种基于自适应颜色快速点特征直方图的目标识别方法,构建了ACFPFH特征描述符,不仅考虑了目标的颜色信息,且在提取特征时自适应确定最优邻域半径,实现高精度的目标识别;
(2)本发明在保证精度的情况下,采用邻域自适应的特征提取算法,相较手动调整邻域半径的方法,特征提取所需时间减少约59.33%,符合生产节拍要求,有助于实现仓储环境中托盘的实时检测。
附图说明
图1是本发明基于自适应颜色快速点特征直方图的目标识别方法流程图。
图2是实施例1模板点云(2.1)与场景点云(2.2)。
图3是实施例1去噪(3.1)及平面分割(3.2)之后的场景点云。
图4是实施例1模板点云(4.1)与场景点云的关键点(4.2)。
图5是实施例1模板点云与场景点云的初始特征匹配点对。
图6是实施例1模板点云与场景点云的最终特征匹配点对。
图7是实施例1在场景点云中识别出的托盘示意图。
图8是对比例1在场景点云中识别出的托盘示意图。
图9是实施例2模板点云(9.1)与场景点云(9.2)。
图10是实施例2去噪(10.1)及平面分割(10.2)之后的场景点云。
图11是实施例2模板点云(11.1)与场景点云的关键点(11.2)。
图12是实施例2模板点云与场景点云的初始特征匹配点对。
图13是实施例2模板点云与场景点云的最终特征匹配点对。
图14是实施例1在场景点云中识别出的Squirrel示意图。
具体实施方式
下面结合具体实施方式对本发明做进一步的描述。
总实施例
一种基于自适应颜色快速点特征直方图的目标识别方法,所述方法包括下述步骤:
(1)读取点云数据:读取模板点云与场景点云数据;所述模板点云采用离线识别算法,所述场景点云采用在线识别算法;场景点云数据由深度相机采集获取,包括场景物体的空间位置坐标以及颜色信息;
(2)数据预处理:对读取的场景点云数据,剔除采集到的场景点云数据中的噪声点与离群点,得到能够反映真实场景的有效点云数据,获得有效的场景点云数据;
(3)获取自适应最优邻域半径:针对模板点云与预处理后的场景点云,基于邻域特征熵计算每个点的自适应最优邻域半径;具体过程:确定最小、最大邻域半径及间隔大小,根据邻域协方差矩阵分解得到的特征值计算每个邻域半径对应的邻域特征熵,最小的邻域特征熵对应的邻域半径为最优邻域半径;
(4)计算法向量:模板点云与场景点云中每个点通过knnsearch搜索得到邻域点,依次计算每个点的邻域协方差矩阵,进行特征值分解,取最小特征值对应的特征向量为该点的法向量,计算得到的法向量需要根据指向视点原则重新确定方向,从而保证所有的法向量指向一致;
(5)关键点检测:设置固定半径,对每个点进行半径搜索得到邻域点,计算邻域协方差矩阵,并基于矩阵分解的特征值比值筛选出模板点云与场景点云的关键点,关键点的检测采用内在形状签名方法;
(6)特征提取:a.利用步骤(3)中获得的最优邻域半径确定模板点云与场景点云中每个点的邻域范围;b.在关键点与其对应的邻域点处建立局部坐标系;c.利用局部坐标系,计算查询点与其邻域点的几何关系得到简化点特征直方图;d.根据关键点与邻域点的简化点特征直方图得到关键点的快速点特征直方图;e.将颜色空间的红色分量、绿色分量及蓝色分量引入关键点的快速点特征直方图特征描述符,形成最终的自适应颜色快速点特征直方图特征描述符;/>表征的是指查询点法线与其邻域点法线之间的几何关系,关键点的快速点特征直方图值由关键点的简化点特征直方图与其邻域点的简化点特征直方图加权计算得到,权值由关键点与邻域点的距离确定;
(7)特征匹配:基于步骤(6)中得到的自适应颜色快速点特征直方图特征值,利用knnsearch搜索算法在场景点云中找到距离模板点云自适应颜色快速点特征直方图最近及次近的特征描述子自适应颜色快速点特征直方图,二者距离的比值小于阈值d,即可得到初始特征匹配点对;所述阈值d的范围0<d≤1;
(8)误匹配点对剔除:采用随机采样一致性方法计算模板点云与场景点云的变换矩阵,得到转换后的模板点云与场景点云的距离,剔除误匹配点对,所述误匹配点对为大于点云邻域平均距离均值的特征匹配点对。
所述基于自适应颜色快速点特征直方图的目标识别方法的程序编译环境均为MATLAB2018a,编程语言为MATLAB。
实施例1
一种基于自适应颜色快速点特征直方图的目标识别方法,所述方法包括下述步骤
(1)读取点云数据:读取托盘模板点云以及Kinect V2采集到的场景点云,数据为ply格式,包含三维坐标信息以及颜色信息,模板点云有14554个点,场景点云有109794个点,读取结果如图7所示;
(2)点云预处理:设置地面法向量为[0,1,0],墙面法向量为[0,0,1],使用pcfitplane函数,提取出地面及墙面并剔除;
(3)获取自适应邻域:最小邻域半径r_min=0.0085,最大邻域半径r_max=0.018,半径间隔0.0005,计算不同邻域半径对应的特征熵,取最小特征熵对应的半径为特征提取的最优邻域半径。
(4)计算法向量:采用主成分分析(PCA)求取点云法向量,设置邻域点个数k=3,取邻域的中心点坐标作为视点方向,确定法向量的指向。
(5)关键点检测:采用ISS方法获取模板点云与场景点云的关键点,邻域半径为0.0065,两个阈值均设置为0.75。
(6)特征提取:利用步骤(3)中获得的最佳邻域半径确定模板点云与场景点云中每个点的邻域范围;计算查询点与其邻域点间的得到简化的点特征直方图(SPFH);将关键点与邻域点的SPFH加权计算得到关键点的快速点特征直方图(FPFH);引入点云的RGB分量得到ACFPFH特征描述符。
(7)特征匹配:利用knnsearch搜索算法在场景点云中找到距离模板点云ACFPFH最近及次近的特征描述子ACFPFH,设置二者距离的比值阈值th=0.925,即可得到初始特征匹配点对。
(8)误匹配点对剔除:采用RANSAC算法计算模板点云与场景点云的初始变换矩阵,基于变换矩阵与模板点云的原始坐标信息得到转换后的模板点云的坐标信息,计算转换后的模板点云与场景点云的距离并与距离阈值0.08进行比较,小于阈值的匹配点对为最终的特征匹配点对。
对比例1(与实施例1的区别在于,采用固定邻域半径进行特征提取,实现目标识别)一种基于自适应颜色快速点特征直方图的目标识别方法,结合实施例分析本发明提出的邻域自适应相比于现有邻域手动调整的优势与有效益处。为排除其它因素干扰,对比例1所用数据集和实施例1中相同,对比例1中步骤(1)、步骤(2)、步骤(4)至步骤(8)和实施例1中一致,关键点检测参数、特征匹配距离比值阈值、误匹配点对剔除距离阈值均与实施例1相同,步骤(3)中特征提取的邻域半径分别设置为0.012、0.013、0.014,在线特征提取用时分别为116.979s、234.919s、431.292s,而实施例1在线特征提取用时为78.571s,且其识别精度与召回率保持较高水平。对比例1采用固定邻域半径,为了保证所有点得到3个以上的邻域点,从而有效进行特征提取,需要采取较大的邻域半径,使得某些点的邻域范围过大,增加计算时间;实施例1自适应获取最优邻域半径,保证每个点得到最优邻域范围及最经济的计算时间,因此实施例1相比对比例1特征提取用时大幅度减少。
实施例2
一种基于自适应颜色快速点特征直方图的目标识别方法,所述方法包括下述步骤
(1)读取点云数据:读取Kinect数据集中的模板点云“Squirrel000”以及场景点云“scene006”,数据为ply格式,仅包含三维坐标信息,模板点云有7331个点,场景点云有287270个点。
(2)点云预处理:采用pcdenoise函数对场景点云进行去噪处理,并用平面分割的方法剔除墙面。
(3)获取自适应邻域:最小邻域半径r_min=0.0015,最大邻域半径r_max=0.005,半径间隔0.0003,计算不同邻域半径对应的特征熵,取最小特征熵对应的半径为特征提取的最优邻域半径。
(4)计算法向量:采用主成分分析(PCA)求取点云法向量,设置邻域点个数k=3,取邻域的中心点坐标作为视点方向,确定法向量的指向。
(5)关键点检测:采用ISS方法获取模板点云与场景点云的关键点,邻域半径为0.004,两个阈值均设置为0.9。
(6)特征提取:利用步骤(3)中获得的最佳邻域半径确定模板点云与场景点云中每个点的邻域范围;计算查询点与其邻域点间的得到简化的点特征直方图(SPFH);将关键点与邻域点的SPFH加权计算得到关键点的快速点特征直方图(FPFH);引入点云的RGB分量得到CFPFH特征描述符。
(7)特征匹配:利用knnsearch在场景点云中找到距离模板点云CFPFH最近及次近的特征描述子CFPFH,设置二者距离的比值阈值th=0.925,即可得到初始特征匹配点对。
(8)误匹配点对剔除:基于模板点云原始坐标信息对和Kinect数据集中给定的真值变换矩阵[0.99,-0.07,-0.03,-0.08;0.08,0.99,0.05,0.04;0.03,-0.06,0.99,-0.05;0,0,0,1],得到转换后的模板点云的坐标信息,计算转换后的模板点云与场景点云的距离并与距离阈值0.08进行比较,小于阈值的匹配点对为最终的特征匹配点对。
本发明将目标识别流程分为离线与在线部分,离线部分针对模板点云完成相关操作,在线部分先对场景点云进行处理与特征提取,然后进行模板点云与场景点云的特征匹配与误匹配点对剔除,实现目标识别,识别流程如图1所示。图2为实施例1中用Kinect V2采集的托盘模板点云以及包含托盘、纸箱、地面、墙面的场景点云;剔除实施例1中场景点云的离群点,结果如图3.1所示,对剔除离群点后的场景点云进行平面分割,得到剔除墙面及地面的场景点云,如图3.2所示。对模板点云及场景点云提取关键点,模板点云关键点如图4.1所示,场景点云关键点如图4.2所示,可以看出,相较图2.1的模板点云与图3.2的场景点云,点的数量明显减少,加快后续计算效率。计算托盘模板点云及场景点云关键点的ACFPFH特征描述符,并进行特征匹配,结果如图所示,连线为对应匹配点之间的连线,可以看出,存在部分托盘点与纸箱点之间的连线,即为错误匹配点对,进行误匹配点对剔除,得到正确的匹配点对,结果如图6所示。将场景点云中的正确匹配点作为识别结果,如图7所示。图8所示为对比例1中采用固定半径0.013m进行特征提取得到的识别结果,识别得到的正确匹配点明显变少,实施例1中识别到的托盘更为完整,识别效果较优。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效变换,均仍属于本发明技术方案的保护范围。

Claims (8)

1.一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述方法包括下述步骤:
(1)读取点云数据:读取模板点云与场景点云数据;
(2)数据预处理:对读取的场景点云数据进行处理,获得有效的场景点云数据;
(3)获取自适应最优邻域半径:针对模板点云与预处理后的场景点云,基于邻域特征熵计算每个点的自适应最优邻域半径;
(4)计算法向量:模板点云与场景点云中每个点通过knnsearch搜索得到邻域点,依次计算每个点的邻域协方差矩阵,进行特征值分解,取最小特征值对应的特征向量为该点的法向量;
(5)关键点检测:设置固定半径,对每个点进行半径搜索得到邻域点,计算邻域协方差矩阵,并基于矩阵分解的特征值比值筛选出模板点云与场景点云的关键点;
(6)特征提取:利用最优邻域半径确定模板点云与场景点云中每个点的邻域范围,在关键点与其对应的邻域点处建立局部坐标系,得到简化点特征直方图与关键点的快速点特征直方图,形成最终的自适应颜色快速点特征直方图特征描述符;特征提取的具体过程:
a.利用步骤(3)中获得的最优邻域半径确定模板点云与场景点云中每个点的邻域范围;
b.在关键点与其对应的邻域点处建立局部坐标系;
c.利用局部坐标系,计算查询点与其邻域点的几何关系(α,φ,θ),(α,φ,θ)表征的是指查询点法线与其邻域点法线之间的几何关系,关键点的快速点特征直方图值由关键点的简化点特征直方图与其邻域点的简化点特征直方图加权计算得到,权值由关键点与邻域点的距离确定,得到简化点特征直方图;
d.根据关键点与邻域点的简化点特征直方图得到关键点的快速点特征直方图;
e.将颜色空间的红色分量、绿色分量及蓝色分量引入关键点的快速点特征直方图特征描述符,形成最终的自适应颜色快速点特征直方图特征描述符;
(7)特征匹配:基于步骤(6)中得到的自适应颜色快速点特征直方图特征值,利用最近邻距离比进行特征匹配,得到模板点云与场景点云的初始匹配点对;
(8)误匹配点对剔除:计算模板点云与场景点云的转换矩阵,基于距离阈值剔除模板点云与场景点云的误匹配点对。
2.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(1)中,所述模板点云采用离线识别算法,所述场景点云采用在线识别算法;场景点云数据由深度相机采集获取,包括场景物体的空间位置坐标以及颜色信息。
3.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(2)的处理过程为:剔除采集到的场景点云数据中的噪声点与离群点,得到能够反映真实场景的有效点云数据。
4.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(3)的自适应邻域获取方式为:确定最小、最大邻域半径及间隔大小,根据邻域协方差矩阵分解得到的特征值计算每个邻域半径对应的邻域特征熵,最小的邻域特征熵对应的邻域半径为最优邻域半径。
5.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(4)中,计算得到的法向量需要根据指向视点原则重新确定方向,从而保证所有的法向量指向一致。
6.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(5)中,关键点的检测采用内在形状签名方法。
7.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(7)中,特征匹配的具体过程为:利用knnsearch搜索算法在场景点云中找到距离模板点云自适应颜色快速点特征直方图最近及次近的特征描述子自适应颜色快速点特征直方图,二者距离的比值小于阈值d,即可得到初始特征匹配点对;所述阈值d的范围0<d≤1。
8.根据权利要求1所述的一种基于自适应颜色快速点特征直方图的目标识别方法,其特征是,所述步骤(8)中,采用随机采样一致性方法计算模板点云与场景点云的变换矩阵,得到转换后的模板点云与场景点云的距离,剔除误匹配点对,所述误匹配点对为大于点云邻域平均距离均值的特征匹配点对。
CN202110710179.XA 2021-06-25 2021-06-25 一种基于自适应颜色快速点特征直方图的目标识别方法 Active CN113469195B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110710179.XA CN113469195B (zh) 2021-06-25 2021-06-25 一种基于自适应颜色快速点特征直方图的目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110710179.XA CN113469195B (zh) 2021-06-25 2021-06-25 一种基于自适应颜色快速点特征直方图的目标识别方法

Publications (2)

Publication Number Publication Date
CN113469195A CN113469195A (zh) 2021-10-01
CN113469195B true CN113469195B (zh) 2024-02-06

Family

ID=77872857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110710179.XA Active CN113469195B (zh) 2021-06-25 2021-06-25 一种基于自适应颜色快速点特征直方图的目标识别方法

Country Status (1)

Country Link
CN (1) CN113469195B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230136502A1 (en) * 2021-10-29 2023-05-04 Foundation For Research And Business, Seoul Nationaluniversity Of Science And Technology High density virtual content creation system and method
CN114332219B (zh) * 2021-12-27 2023-01-17 机科发展科技股份有限公司 一种基于三维点云处理的托盘定位方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123161A (zh) * 2017-06-14 2017-09-01 西南交通大学 一种基于narf和fpfh的接触网零全网三维重建方法
WO2019100647A1 (zh) * 2017-11-21 2019-05-31 江南大学 一种基于rgb-d相机的物体对称轴检测方法
CN111414924A (zh) * 2020-03-17 2020-07-14 江苏易图地理信息科技股份有限公司 一种顾及最优邻域的点云局部特征提取与分类方法
CN111553409A (zh) * 2020-04-27 2020-08-18 哈尔滨工程大学 一种基于体素形状描述符的点云识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123161A (zh) * 2017-06-14 2017-09-01 西南交通大学 一种基于narf和fpfh的接触网零全网三维重建方法
WO2019100647A1 (zh) * 2017-11-21 2019-05-31 江南大学 一种基于rgb-d相机的物体对称轴检测方法
CN111414924A (zh) * 2020-03-17 2020-07-14 江苏易图地理信息科技股份有限公司 一种顾及最优邻域的点云局部特征提取与分类方法
CN111553409A (zh) * 2020-04-27 2020-08-18 哈尔滨工程大学 一种基于体素形状描述符的点云识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Automatic apple recognition based on thefusion of color and 3D feature for robotic fruit picking;Y Tao;《computers and electronics in agriculture》;全文 *

Also Published As

Publication number Publication date
CN113469195A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
Lin et al. Color-, depth-, and shape-based 3D fruit detection
CN113469195B (zh) 一种基于自适应颜色快速点特征直方图的目标识别方法
CN110021029B (zh) 一种适用于rgbd-slam的实时动态配准方法及存储介质
CN113506318B (zh) 一种车载边缘场景下的三维目标感知方法
CN113269094B (zh) 基于特征提取算法和关键帧的激光slam系统及方法
CN110084830B (zh) 一种视频运动目标检测与跟踪方法
KR101460313B1 (ko) 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법
CN115049700A (zh) 一种目标检测方法及装置
CN109740613B (zh) 一种基于Feature-Shift和预测的视觉伺服控制方法
CN113313701A (zh) 基于形状先验的电动汽车充电口两阶段视觉检测定位方法
CN107895166B (zh) 基于特征描述子的几何哈希法实现目标鲁棒识别的方法
CN113989308A (zh) 一种基于霍夫变换与模板匹配的多边形目标分割方法
CN109635692B (zh) 基于超声波传感器的场景再识别方法
CN116185049A (zh) 基于视觉引导的无人直升机自主着舰方法
Li et al. A hybrid 3dof pose estimation method based on camera and lidar data
CN115034577A (zh) 一种基于虚实边缘匹配的机电产品漏装检测方法
Yang et al. Target position and posture recognition based on RGB-D images for autonomous grasping robot arm manipulation
Romero et al. Topological slam using omnidirectional images: Merging feature detectors and graph-matching
CN113160332A (zh) 一种基于双目视觉的多目标识别与定位方法
CN114549420A (zh) 基于模板匹配的工件识别定位方法
Lee et al. Autonomous salient feature detection through salient cues in an HSV color space for visual indoor simultaneous localization and mapping
Bhuyan et al. Structure‐aware multiple salient region detection and localization for autonomous robotic manipulation
Jin et al. A method for traffic signs detection, tracking and recognition
CN114972495A (zh) 针对纯平面结构的物体的抓取方法、装置及计算设备
Wang et al. Accurate Rapid Grasping of Small Industrial Parts from Charging Tray in Clutter Scenes.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant