CN111310637B - 一种基于尺度不变网络的机器人目标抓取检测方法 - Google Patents
一种基于尺度不变网络的机器人目标抓取检测方法 Download PDFInfo
- Publication number
- CN111310637B CN111310637B CN202010086282.7A CN202010086282A CN111310637B CN 111310637 B CN111310637 B CN 111310637B CN 202010086282 A CN202010086282 A CN 202010086282A CN 111310637 B CN111310637 B CN 111310637B
- Authority
- CN
- China
- Prior art keywords
- target
- grabbing
- scale
- bounding box
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉与智能机器人领域,具体涉及一种基于尺度不变网络的机器人目标抓取检测方法。本发明的目的在于弥补现有抓取检测算法在目标尺度变化适应性和抓取状态多样性表示上的不足,提供一种无需复杂多尺度网络结构和多观测角度样本,能够自适应估计尺度变换因子,提供目标一致性输出,且能够同时表示抓取区域连续分布和多种抓取状态的物体抓取检测方法,本发明能够根据待抓取物体的尺寸及其与相机的实际距离,自适应调整尺度变换因子,获得目标物体的一致性输出,从而保证抓取检测结果在不同尺度下的鲁棒性。
Description
技术领域
本发明属于计算机视觉与智能机器人领域,具体涉及一种基于尺度不变网络的机器人目标抓取检测方法。
背景技术
随着劳动力短缺、人口老龄化加剧等问题的日益严峻,机器人在人类生产、生活中正扮演着越来越重要的角色。由于能够替代人类完成部分家庭任务,家庭服务机器人得到愈加广泛的重视。现有的家庭服务机器人主要集中于教育机器、扫地机器人等,其智能化程度较弱,缺乏有效地感知外界环境的能力,因此很难开展有效的人机交互任务。通过广泛调研,机器人对物体的抓取能力是实现人机交互和家庭服务的重要功能,例如:地面垃圾拾取,为行动不便人士拿取药瓶、衣物,自助桌面整理等。因此,如何从复杂背景中准确定位待抓取物体,并确定可靠的抓取部位(即:抓取检测)便成为实现机器人抓取的重要问题。
然而,现有抓取检测方法大都直接针对视觉传感器采集的光学图像,未考虑其与物体的相对空间位置关系,这会导致观测尺度问题。当相机与物体的距离较远时,观测尺度较小,物体在图像中表现为微小面积,其轮廓特征明显;反之,当相机与物体的距离较近时,观测尺度较大,物体在图像中的有效面积增大,其局部纹理特征明显,抓取区域的提取质量在很大程度上受到观测距离的影响。不难看出,待抓取物体在图像中的成像尺度会对抓取区域的有效提取带来干扰,现有方法通常采用提高训练样本多样性、引入多尺度网络模型等手段提高算法鲁棒性,但上述手段无法从根本上解决算法对尺度的不变性问题。
此外,为充分利用深度学习强大的特征学习和表示能力,现有抓取检测方法通常采用有向矩形框定义末端手爪的抓取姿态,但上述抓取表示方式只能预测有限数量的抓取区域,无法反映真实的连续抓取情况;而基于抓取路径的表示方式利用分布于物体上的一条或多条直线段刻画抓取区域的连续分布,较好地解决了抓取区域的连续表示问题,但一条抓取路径只能对应一种抓取状态。特别地,当物体存在较大形变时,单一抓取状态会产生不同程度的抓取偏差,导致抓取失败。因此,采用一种尺度变换模块,生成待抓取物体的尺度一致性输出,从而保证抓取检测结果对尺度干扰的鲁棒性;同时,引入一种抓取表示方式,具有十分重要的意义。
发明内容
本发明的目的在于弥补现有抓取检测算法在目标尺度变化适应性和抓取状态多样性表示上的不足,提供一种无需复杂多尺度网络结构和多观测角度样本,能够自适应估计尺度变换因子,提供目标一致性输出,且能够同时表示抓取区域连续分布和多种抓取状态的物体抓取检测方法。为解决上述技术问题,本发明采用的技术方案为:
一种基于尺度不变网络的机器人目标抓取检测方法,包括以下步骤:
步骤1,图像采集:利用光学相机采集包含待抓取目标的RGB图像,作为后续步骤的输入信息;
步骤2,特征提取:构建特征提取模块,并将特征提取模块的第30层,即修正线性单元层的输出作为当前图像提取出的特征图;
步骤3,目标定位与缩放:
首先,在步骤2特征图的基础上,通过级联尺寸为MNC×4的全连接层,输出目标空间位置,完成目标定位;
然后,在目标定位结果的基础上,沿每个通道方向应用双线性二次插值等比例放大目标区域,放大倍数为min(M/w,N/h),并对放大后的目标区域进行下采样,使其在每个通道上满足N×M的尺寸要求;
最后,通过C个1×1卷积核将原尺寸映射为N×M×C,完成待抓取目标尺度的放大;
步骤4,四边形抓取表示方式检测:
首先,在步骤3放大后目标特征图的基础上引入锚点机制,对于特征图上的每个像素点,均提取以该像素点为中心的9个矩形框;
然后,采用K均值算法对训练数据集中的真实值进行聚类分析,得到各锚点的尺寸分别为:(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,198),(373,326);
最后,对于每一个锚点,预测其四个顶点与真实四边形各顶点的位置偏移量,分别为{(Δxi,Δyi)|i=1,2,3,4},i表示各顶点的序号,即完成四边形抓取表示方式检测;
步骤5,边界重优化:选取当前四边形的最小外接矩形包围盒,以此为基础进行池化操作,并级联1×1卷积核和全连接层对预测结果的空间位置进行二次优化;引入损失函数对抓取检测模型的精度进行评价,通过损失值的反向传播调整模型参数,迭代运行步骤2-5,直至模型收敛,即完成基于尺度不变网络的机器人目标抓取检测。
进一步,所述步骤2中的特征提取模块由13个卷积层、13个修正线性单元层和4个池化层组成。
再进一步,所述步骤3中在步骤2特征图的基础上,通过级联尺寸为MNC×4的全连接层,输出目标空间位置,完成目标定位,具体为:
第30层网络输出的特征图尺寸为N×M×C,N,M,C分别表示特征图的高度、宽度和通道数,通过级联尺寸为MNC×4的全连接层,达到预测目标位置的目的,输出的四个参数为x,y,w,h,分别表示目标包围盒左上角顶点的横、纵坐标,包围盒的宽度和高度。
更进一步,所述步骤3中在目标定位结果的基础上,沿每个通道方向应用双线性二次插值等比例放大目标区域,放大倍数为min(M/w,N/h),并对放大后的目标区域进行下采样,使其在每个通道上满足N×M的尺寸要求,具体为:
首先,在每个通道上应用双线性二次插值等比例放大包围盒,沿x轴方向的放大倍数为M/w,沿y轴方向的放大倍数为N/h,由于两者通常并不相同,将较小的数值作为当前包围盒的等比例放大倍数;
然后,若M/w<N/h,则沿x轴方向以Nw/Mh为间隔将宽度进行M等分,将每一等分内的1×wN/h×C维参数变换为1×1×wNC/h,则放大后包围盒的尺寸为N×M×wNC/h;若M/w≥N/h,则沿y轴方向以Mh/Nw为间隔将高度进行N等分,将每一等分内的Mh/w×1×C维参数变换为1×1×MhC/w,则放大后包围盒的尺寸为N×M×MhC/w;
最后,通过C个1×1卷积核将原尺寸映射为N×M×C,实现待抓取目标尺度放大的目的。
更进一步,所述步骤4中的9个矩形框具有3种尺度,每个尺度下具有3种长宽比。
更进一步,所述步骤5中最小外接矩形包围盒及损失函数的定义为:
最小外接矩形包围盒的参数为{xout,yout,wout,hout},分别定义为:
xout=min{xi},yout=min{yi},wout=max{xi}-min{xi}+1
hout=max{yi}-min{yi}+1,i=1,2,3,4
其中xi,yi分别表示第i个顶点对应的横、纵坐标;
模型损失L由分类损失Lcls和回归损失Lreg两部分构成,Lcls采用二值交叉熵函数,定义了当前预测区域为真实抓取区域的置信度,Lreg采用SmoothL1函数,用于衡量预测区域与真实抓取区域顶点的位置差异。
综上所述,针对不同任务场景下物体尺度变化剧烈的问题,该技术方案引入一种基于目标定位结果的尺度变换模块,无需大规模训练样本和多尺度网络结构;针对基于规则有向矩形框的抓取表示方式只能表达单一抓取状态的问题,该技术方案提出基于不规则四边形的抓取表示方式,其优点在于不同抓取位置可对应不同的抓取状态。
与现有技术相比,本发明具有以下有益效果:
1.本发明能够根据待抓取物体的尺寸及其与相机的实际距离,自适应调整尺度变换因子,获得目标物体的一致性输出,从而保证抓取检测结果在不同尺度下的鲁棒性;
2.本发明有效克服现有抓取表示方式的不足,能够以一种表示方式同时实现抓取区域连续分布和多种抓取状态的描述。
3.本发明的方法易于实现,其应用价值主要体现在以下几个方面:
1)在物理受限操作环境下有效保证抓取检测精度和鲁棒性;
2)为机器人实际抓取任务提供更丰富、更多样化的抓取选项,提高抓取成功率;
附图说明
图1为本发明的流程图;
图2为不同抓取表示方式的示意图;
图3为本发明的规则锚点矩形框(虚线)至不规则抓取四边形表示(实线)的映射示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
参见图1-3,本发明提出一种基于尺度不变网络的机器人目标抓取检测方法,其主要由图像采集、特征提取、目标定位与缩放、四边形抓取表示方式检测和边界重优化五部分构成。
一种基于尺度不变网络的机器人目标抓取检测方法,包括以下步骤:
步骤1,图像采集:利用光学相机采集包含待抓取目标的RGB图像,作为后续步骤的输入信息;
步骤2,特征提取:构建由13个卷积层、13个修正线性单元层和4个池化层组成的特征提取模块,并将特征提取模块的第30层,即修正线性单元层的输出作为当前图像提取出的特征图;
步骤3,目标定位与缩放:
首先,在步骤2特征图的基础上,通过级联尺寸为MNC×4的全连接层,输出目标空间位置,完成目标定位:第30层网络输出的特征图尺寸为N×M×C,N,M,C分别表示特征图的高度、宽度和通道数,通过级联尺寸为MNC×4的全连接层,达到预测目标位置的目的,输出的四个参数为x,y,w,h,分别表示目标包围盒左上角顶点的横、纵坐标,包围盒的宽度和高度;
然后,在目标定位结果的基础上,沿每个通道方向应用双线性二次插值等比例放大目标区域,放大倍数为min(M/w,N/h),并对放大后的目标区域进行下采样,使其在每个通道上满足N×M的尺寸要求:
首先,为保证物体尺度的一致性,将目标包围盒放大至特征图尺寸,在每个通道上应用双线性二次插值等比例放大包围盒,沿x轴方向的放大倍数为M/w,沿y轴方向的放大倍数为N/h,由于两者通常并不相同,将较小的数值作为当前包围盒的等比例放大倍数;
然后,若M/w<N/h,则沿x轴方向以Nw/Mh为间隔将宽度进行M等分,将每一等分内的1×wN/h×C维参数变换为1×1×wNC/h,则放大后包围盒的尺寸为N×M×wNC/h;若M/w≥N/h,则沿y轴方向以Mh/Nw为间隔将高度进行N等分,将每一等分内的Mh/w×1×C维参数变换为1×1×MhC/w,则放大后包围盒的尺寸为N×M×MhC/w;
最后,通过C个1×1卷积核将原尺寸映射为N×M×C,完成待抓取目标尺度的放大;
步骤4,四边形抓取表示方式检测:
采用多尺度卷积神经网络模型以端到端的方式建立输入图像与输出抓取表示参数之间的映射关系。与传统基于有向矩形框或基于抓取路径的表示方式不同,本发明所采用的抓取表示方式为凸四边形,其优点在于能够在刻画抓取区域连续分布的同时,为不同空间位置的抓取区域赋予不同的抓取状态,实现自适应抓取表示;
首先,为实现抓取检测,在步骤3放大后目标特征图的基础上引入锚点(Anchor)机制,对于特征图上的每个像素点,均提取以该像素点为中心的9个矩形框,所述9个矩形框具有3种尺度,每个尺度下具有3种长宽比;
然后,为加快搜索过程,采用K均值算法对训练数据集中的真实值进行聚类分析,得到各锚点的尺寸分别为:(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,198),(373,326);
最后,对于每一个锚点,预测其四个顶点与真实四边形各顶点的位置偏移量,分别为{(Δxi,Δyi)|i=1,2,3,4},i表示各顶点的序号,即完成四边形抓取表示方式检测;
步骤5,边界重优化:考虑预测的抓取区域为不规则四边形,无法直接进行池化操作,选取当前四边形的最小外接矩形包围盒,以此为基础进行池化操作,并级联1×1卷积核和全连接层对预测结果的空间位置进行二次优化,提高预测区域与真实区域的边界吻合程度;引入损失函数对抓取检测模型的精度进行评价,通过损失值的反向传播调整模型参数,迭代运行步骤2-5,直至模型收敛,模型损失L由分类损失Lcls和回归损失Lreg两部分构成,Lcls采用二值交叉熵函数,定义了当前预测区域为真实抓取区域的置信度,Lreg采用SmoothL1函数,用于衡量预测区域与真实抓取区域顶点的位置差异,即完成基于尺度不变网络的机器人目标抓取检测。
所述最小外接矩形包围盒及损失函数的定义为:
最小外接矩形包围盒的参数为{xout,yout,wout,hout},分别定义为:
xout=min{xi},yout=min{yi},wout=max{xi}-min{xi}+1
hout=max{yi}-min{yi}+1,i=1,2,3,4
其中xi,yi分别表示第i个顶点对应的横、纵坐标;
以上显示和描述了本发明的基本原理和主要特征和本发明的优点,对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (6)
1.一种基于尺度不变网络的机器人目标抓取检测方法,其特征在于:包括以下步骤:
步骤1,图像采集:利用光学相机采集包含待抓取目标的RGB图像,作为后续步骤的输入信息;
步骤2,特征提取:构建特征提取模块,并将特征提取模块的第30层,即修正线性单元层的输出作为当前图像提取出的特征图;
步骤3,目标定位与缩放:
首先,在步骤2特征图的基础上,通过级联尺寸为MNC×4的全连接层,输出目标空间位置,完成目标定位;
然后,在目标定位结果的基础上,沿每个通道方向应用双线性二次插值等比例放大目标区域,放大倍数为min(M/w,N/h),并对放大后的目标区域进行下采样,使其在每个通道上满足N×M的尺寸要求;
最后,通过C个1×1卷积核将原尺寸映射为N×M×C,完成待抓取目标尺度的放大;
N,M,C分别表示特征图的高,度、宽度和通道数;
步骤4,四边形抓取表示方式检测:
首先,在步骤3放大后目标特征图的基础上引入锚点机制,对于特征图上的每个像素点,均提取以该像素点为中心的9个矩形框;
然后,采用K均值算法对训练数据集中的真实值进行聚类分析,得到各锚点的尺寸分别为:(10,13),(16,30),(33,23),(30,61),(62,45),(59,119),(116,90),(156,198),(373,326);
最后,对于每一个锚点,预测其四个顶点与真实四边形各顶点的位置偏移量,分别为{(Δxi,Δyi)|i=1,2,3,4},i表示各顶点的序号,即完成四边形抓取表示方式检测;
输出的四个参数为x,y,w,h,分别表示目标包围盒左上角顶点的横、纵坐标,包围盒的宽度和高度;
步骤5,边界重优化:选取当前四边形的最小外接矩形包围盒,以此为基础进行池化操作,并级联1×1卷积核和全连接层对预测结果的空间位置进行二次优化;引入损失函数对抓取检测模型的精度进行评价,通过损失值的反向传播调整模型参数,迭代运行步骤2-5,直至模型收敛,即完成基于尺度不变网络的机器人目标抓取检测。
2.根据权利要求1所述的基于尺度不变网络的机器人目标抓取检测方法,其特征在于:所述步骤2中的特征提取模块由13个卷积层、13个修正线性单元层和4个池化层组成。
3.根据权利要求1所述的基于尺度不变网络的机器人目标抓取检测方法,其特征在于:所述步骤3中在步骤2特征图的基础上,通过级联尺寸为MNC×4的全连接层,输出目标空间位置,完成目标定位,具体为:
第30层网络输出的特征图尺寸为N×M×C,通过级联尺寸为MNC×4的全连接层,达到预测目标位置的目的。
4.根据权利要求1所述的基于尺度不变网络的机器人目标抓取检测方法,其特征在于:所述步骤3中在目标定位结果的基础上,沿每个通道方向应用双线性二次插值等比例放大目标区域,放大倍数为min(M/w,N/h),并对放大后的目标区域进行下采样,使其在每个通道上满足N×M的尺寸要求,具体为:
首先,在每个通道上应用双线性二次插值等比例放大包围盒,沿x轴方向的放大倍数为M/w,沿y轴方向的放大倍数为N/h,由于两者通常并不相同,将较小的数值作为当前包围盒的等比例放大倍数;
然后,若M/w<N/h,则沿x轴方向以Nw/Mh为间隔将宽度进行M等分,将每一等分内的1×wN/h×C维参数变换为1×1×wNC/h,则放大后包围盒的尺寸为N×M×wNC/h;若M/w≥N/h,则沿y轴方向以Mh/Nw为间隔将高度进行N等分,将每一等分内的Mh/w×1×C维参数变换为1×1×MhC/w,则放大后包围盒的尺寸为N×M×MhC/w;
最后,通过C个1×1卷积核将原尺寸映射为N×M×C,实现待抓取目标尺度放大的目的。
5.根据权利要求1所述的基于尺度不变网络的机器人目标抓取检测方法,其特征在于:所述步骤4中的9个矩形框具有3种尺度,每个尺度下具有3种长宽比。
6.根据权利要求1所述的基于尺度不变网络的机器人目标抓取检测方法,其特征在于:所述步骤5中最小外接矩形包围盒及损失函数的定义为:
最小外接矩形包围盒的参数为{xout,yout,wout,hout},分别定义为:
xout=min{xi},yout=min{yi},wout=max{xi}-min{xi}+1
hout=max{yi}-min{yi}+1,i=1,2,3,4
其中xi,yi分别表示第i个顶点对应的横、纵坐标;
xout,yout分别表示最小外接矩形包围盒左上角顶点的横、纵坐标,wout,hout分别表示最小外接矩形包围盒的宽度和高度;
模型损失L由分类损失Lcls和回归损失Lreg两部分构成,Lcls采用二值交叉熵函数,定义了当前预测区域为真实抓取区域的置信度,Lreg采用SmoothL1函数,用于衡量预测区域与真实抓取区域顶点的位置差异。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086282.7A CN111310637B (zh) | 2020-02-11 | 2020-02-11 | 一种基于尺度不变网络的机器人目标抓取检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086282.7A CN111310637B (zh) | 2020-02-11 | 2020-02-11 | 一种基于尺度不变网络的机器人目标抓取检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111310637A CN111310637A (zh) | 2020-06-19 |
CN111310637B true CN111310637B (zh) | 2022-11-11 |
Family
ID=71146913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010086282.7A Active CN111310637B (zh) | 2020-02-11 | 2020-02-11 | 一种基于尺度不变网络的机器人目标抓取检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310637B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113246140B (zh) * | 2021-06-22 | 2021-10-15 | 沈阳风驰软件股份有限公司 | 一种基于相机测量的多模型工件无序抓取方法及装置 |
CN114022520B (zh) * | 2021-10-12 | 2024-05-28 | 山西大学 | 一种基于卡尔曼滤波与孪生网络的机器人目标跟踪方法 |
CN114296629A (zh) * | 2021-12-28 | 2022-04-08 | 五邑大学 | 一种信号采集方法和系统 |
CN114500873A (zh) * | 2021-12-31 | 2022-05-13 | 浙江大华技术股份有限公司 | 跟踪拍摄系统 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127749A (zh) * | 2016-06-16 | 2016-11-16 | 华南理工大学 | 基于视觉注意机制的目标零件识别方法 |
CN106485746A (zh) * | 2016-10-17 | 2017-03-08 | 广东技术师范学院 | 基于图像无标定的视觉伺服机械手及其控制方法 |
CN106780605A (zh) * | 2016-12-20 | 2017-05-31 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
CN107220601A (zh) * | 2017-05-18 | 2017-09-29 | 西北工业大学 | 一种基于在线置信度判别的目标抓捕点预测方法 |
CN107633199A (zh) * | 2017-08-07 | 2018-01-26 | 浙江工业大学 | 一种基于深度学习的苹果采摘机器人果实目标检测方法 |
CN108171748A (zh) * | 2018-01-23 | 2018-06-15 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
CN108280856A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
CN108960230A (zh) * | 2018-05-31 | 2018-12-07 | 中国科学院自动化研究所 | 基于旋转矩形框的轻量化目标识别方法及装置 |
CN109344717A (zh) * | 2018-09-01 | 2019-02-15 | 哈尔滨工程大学 | 一种多阈值动态统计的深海目标在线检测识别方法 |
CN109461185A (zh) * | 2018-09-10 | 2019-03-12 | 西北工业大学 | 一种适用于复杂场景的机器人目标主动避障方法 |
CN110059662A (zh) * | 2019-04-26 | 2019-07-26 | 山东大学 | 一种深度视频行为识别方法及系统 |
CN110378325A (zh) * | 2019-06-20 | 2019-10-25 | 西北工业大学 | 一种机器人抓取过程中的目标位姿识别方法 |
CN110509273A (zh) * | 2019-08-16 | 2019-11-29 | 天津职业技术师范大学(中国职业培训指导教师进修中心) | 基于视觉深度学习特征的机器人机械手检测及抓取方法 |
CN110599544A (zh) * | 2019-08-08 | 2019-12-20 | 佛山科学技术学院 | 一种基于机器视觉的工件定位方法及装置 |
CN110660104A (zh) * | 2019-09-29 | 2020-01-07 | 珠海格力电器股份有限公司 | 工业机器人视觉识别定位抓取方法、计算机装置以及计算机可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012174406A1 (en) * | 2011-06-15 | 2012-12-20 | University Of Washington | Methods and systems for haptic rendering and creating virtual fixtures from point clouds |
KR102023149B1 (ko) * | 2016-03-03 | 2019-11-22 | 구글 엘엘씨 | 로봇 파지를 위한 심층 기계 학습 방법 및 장치 |
-
2020
- 2020-02-11 CN CN202010086282.7A patent/CN111310637B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127749A (zh) * | 2016-06-16 | 2016-11-16 | 华南理工大学 | 基于视觉注意机制的目标零件识别方法 |
CN106485746A (zh) * | 2016-10-17 | 2017-03-08 | 广东技术师范学院 | 基于图像无标定的视觉伺服机械手及其控制方法 |
CN106780605A (zh) * | 2016-12-20 | 2017-05-31 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于深度学习机器人的目标物抓取位置的检测方法 |
CN107220601A (zh) * | 2017-05-18 | 2017-09-29 | 西北工业大学 | 一种基于在线置信度判别的目标抓捕点预测方法 |
CN107633199A (zh) * | 2017-08-07 | 2018-01-26 | 浙江工业大学 | 一种基于深度学习的苹果采摘机器人果实目标检测方法 |
CN108171748A (zh) * | 2018-01-23 | 2018-06-15 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
CN108280856A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于混合信息输入网络模型的未知物体抓取位姿估计方法 |
CN108960230A (zh) * | 2018-05-31 | 2018-12-07 | 中国科学院自动化研究所 | 基于旋转矩形框的轻量化目标识别方法及装置 |
CN109344717A (zh) * | 2018-09-01 | 2019-02-15 | 哈尔滨工程大学 | 一种多阈值动态统计的深海目标在线检测识别方法 |
CN109461185A (zh) * | 2018-09-10 | 2019-03-12 | 西北工业大学 | 一种适用于复杂场景的机器人目标主动避障方法 |
CN110059662A (zh) * | 2019-04-26 | 2019-07-26 | 山东大学 | 一种深度视频行为识别方法及系统 |
CN110378325A (zh) * | 2019-06-20 | 2019-10-25 | 西北工业大学 | 一种机器人抓取过程中的目标位姿识别方法 |
CN110599544A (zh) * | 2019-08-08 | 2019-12-20 | 佛山科学技术学院 | 一种基于机器视觉的工件定位方法及装置 |
CN110509273A (zh) * | 2019-08-16 | 2019-11-29 | 天津职业技术师范大学(中国职业培训指导教师进修中心) | 基于视觉深度学习特征的机器人机械手检测及抓取方法 |
CN110660104A (zh) * | 2019-09-29 | 2020-01-07 | 珠海格力电器股份有限公司 | 工业机器人视觉识别定位抓取方法、计算机装置以及计算机可读存储介质 |
Non-Patent Citations (5)
Title |
---|
"Extracting and Matching Lines of Low-Textured Region in Close-Range Navigation for Tethered Space Robot";Lu Chen;《IEEE Transactions on Industrial Electronics》;20181107;全文 * |
"Visual Tracking and Grasping of Moving Objects and Its Application to an Industrial Robot";Zhou Zhao et al.;《2017 IEEE International Conference on Real-time Computing and Robotics (RCAR)》;20170718;全文 * |
"基于RGB-D的移动搬运机器人的物体位置检测与姿态估计";郑文钢;《信息科技》;20190515;全文 * |
"基于机器视觉的无人机避障技术研究";王新东;《工程科技Ⅱ辑》;20190215;全文 * |
"机器人视觉系统中物体检测技术的研究与应用";孙雄峰;《信息科技》;20190915;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111310637A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310637B (zh) | 一种基于尺度不变网络的机器人目标抓取检测方法 | |
CN111665842B (zh) | 一种基于语义信息融合的室内slam建图方法及系统 | |
CN107622244B (zh) | 一种基于深度图的室内场景精细化解析方法 | |
Deschaud et al. | A fast and accurate plane detection algorithm for large noisy point clouds using filtered normals and voxel growing | |
CN111695562B (zh) | 一种基于卷积神经网络的机器人自主抓取方法 | |
CN107066916B (zh) | 基于反卷积神经网络的场景语义分割方法 | |
CN111179217A (zh) | 一种基于注意力机制的遥感图像多尺度目标检测方法 | |
CN111553949B (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
KR100612858B1 (ko) | 로봇을 이용하여 사람을 추적하는 방법 및 장치 | |
JP7439153B2 (ja) | 全方位場所認識のためのリフトされたセマンティックグラフ埋め込み | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN110827398A (zh) | 基于深度神经网络的室内三维点云自动语义分割算法 | |
CN108764244B (zh) | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 | |
CN110852233A (zh) | 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统 | |
CN107330922A (zh) | 基于运动信息和区域特征的航拍视频运动目标检测方法 | |
CN111126389A (zh) | 文本检测方法、装置、电子设备以及存储介质 | |
CN111639668A (zh) | 一种基于深度学习的人群密度检测方法 | |
CN109766790B (zh) | 一种基于自适应特征通道的行人检测方法 | |
CN105809716A (zh) | 融合超像素与三维自组织背景减除法的前景提取方法 | |
CN112184816A (zh) | 一种基于电池极耳的锂电池柔性定位方法 | |
CN117011380A (zh) | 一种目标物体的6d位姿估计方法 | |
Ke et al. | Lightweight convolutional neural network-based pedestrian detection and re-identification in multiple scenarios | |
CN112351181A (zh) | 基于cmos芯片和zynq体系的智能相机 | |
CN107025439A (zh) | 基于深度数据的唇部区域特征提取和规范化方法 | |
CN111062924A (zh) | 图像处理方法、装置、终端和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |