CN109064514A - 一种基于投影点坐标回归的六自由度位姿估计算法 - Google Patents

一种基于投影点坐标回归的六自由度位姿估计算法 Download PDF

Info

Publication number
CN109064514A
CN109064514A CN201810717442.6A CN201810717442A CN109064514A CN 109064514 A CN109064514 A CN 109064514A CN 201810717442 A CN201810717442 A CN 201810717442A CN 109064514 A CN109064514 A CN 109064514A
Authority
CN
China
Prior art keywords
characteristic pattern
anchor frame
coordinate
bounding box
subpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810717442.6A
Other languages
English (en)
Other versions
CN109064514B (zh
Inventor
姜志国
张浩鹏
张鑫
赵丹培
谢凤英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201810717442.6A priority Critical patent/CN109064514B/zh
Publication of CN109064514A publication Critical patent/CN109064514A/zh
Application granted granted Critical
Publication of CN109064514B publication Critical patent/CN109064514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于投影点坐标回归的六自由度位姿估计算法,在单步目标检测算法的基础上针对位姿估计问题进行扩展,借鉴BB8算法回归投影点位置的方式,对于每个检测到的感兴趣物体回归三维边界框顶点的投影坐标,再利用EPnP算法计算六自由度位姿参数。本发明提出的卷积神经网络可以针对位姿估计目标进行端到端的训练和预测,提升了算法的计算效率和位姿估计精度,在不需要位姿修正后处理的情况下就能达到当前最优的位姿估计精度,可以实现实时处理,且在多目标场景下,只需要对检测到的每个物体实例进行一次EPnP计算,不需要重复运行算法多次,节省了算法的运行时间。

Description

一种基于投影点坐标回归的六自由度位姿估计算法
技术领域
本发明涉及数字图像处理技术领域,更具体的说是涉及三维立体视觉的数字图像处理技术。
背景技术
确定图像中物体相对于相机的三维平移和旋转变换参数(共六个自由度)是计算机视觉领域的经典问题。近年来,增强现实、自动驾驶以及视觉机器人等新兴应用的发展对六自由度位姿估计提出了更高的精度和速度的需求,学术界也针对这一需求进行了大量的研究工作。就输入数据的形式而言,现有算法主要可以分为基于RGB图像的位姿估计算法和基于RGBD数据的位姿估计算法。其中,基于RGBD数据的位姿估计算法由于深度信息的引入,可以更好地恢复场景结构,然而深度信息的获取需要消耗大量的能量,并且目前商用级别的深度相机所获取的深度信息通常会包含大量噪声和孔洞。因此,基于RGB图像的位姿估计算法在移动端和实时应用领域具有更加广泛的实际应用价值。
传统的基于RGB图像的六自由度位姿估计算法主要依靠关键点和线的匹配来建立图像与三维模型之间的2D-3D特征对应关系,然后基于2D-3D对应关系对投影误差函数进行优化实现对目标姿态参数的估计。这类方法适用于具有丰富纹理信息的物体和高质量图像,能够取得较高的位姿估计精度,然而对于纹理信息较弱的物体和存在遮挡、光照变化的场景,如何有效、准确地估计六自由度相对位姿仍然是一个十分具有挑战性的问题。
近年来,深度学习技术的引入,尤其以卷积神经网络(CNN)为代表,提升了六自由度位姿估计算法的性能。现有算法主要采取两种策略将CNN应用于位姿估计。第一种策略是直接用CNN回归连续的位姿参数或离散的视点位置。这些方法通常用于位姿初始化,需要进一步的位姿修正来提升位姿精度。第二种策略使用CNN预测2D-3D对应关系,既可以是预测二维图像块对应的三维坐标,也可以是预测物体三维模型点对应的二维图像坐标,其得益于卷积神经网络强大的特征学习和表示能力,以BB8算法为代表的第二类方法能够在复杂的、具有挑战性的场景下建立2D-3D对应关系,并且取得了当前最优的六自由度位姿估计精度。
而现有技术以BB8算法为代表,其流程图如图1所示。BB8算法采用多步处理方式,首先利用由粗到精的二级卷积神经网络进行图像分割,将目标与背景进行区分,确定目标的中心位置;在目标的中心周围截取图像块,输入第二个卷积神经网络,回归目标的三维边界框的八个顶点在图像块中的二维坐标;利用EPnP算法根据获得的2D-3D对应关系计算六自由度位姿参数,最后通过一个修正网络进行位姿修正,得到位姿估计结果。
BB8算法采用多步处理方式,导致计算效率较低;多个卷积神经网络分别单独训练,无法针对位姿估计目标进行综合调优,导致位姿估计精度不高;位姿修正过程中涉及图像渲染等操作,计算复杂度高,导致算法的运行速度较慢;对于含有多个目标的场景,BB8算法需要对每一个物体实例进行单独计算,导致算法运行时间大幅提高。
因此,如何提供一种能够提高位姿估计精度和速度的算法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于投影点坐标回归的六自由度位姿估计算法可以针对位姿估计目标进行端到端的训练和预测,使得网络中的所有参数针对位姿估计目标进行综合调优,相比于现有技术BB8算法的多步处理方式,能够在提升计算效率的同时提高位姿估计精度。
为了实现上述目的,本发明采用如下技术方案:
一种基于投影点坐标回归的六自由度位姿估计算法,包括以下步骤:
S1:输入RGB图像,利用目标三维模型计算出目标物体在三个维度上的尺寸信息,得到目标物体三维边界框的八个顶点的坐标;
S2:通过卷积神经网络对RGB图像进行训练,得到六个不同尺度的特征图以及特征图上每个位置的类别、类别得分、二维边界框和投影点坐标回归结果;
S3:对特征图上属于目标的实例,基于步骤S2得到的类别得分和二维边界框进行非极大抑制,得到图像目标实例的类别预测、二维边界框和投影点坐标回归结果;
S4:利用步骤S1的目标物体三维边界框的八个顶点的坐标以及步骤S3中图像目标实例的投影点坐标回归结果得到二维点与三维点之间的对应关系,EPnP算法通过二维点与三维点之间的对应关系计算每一个目标实例相对于相机的六自由度位姿。
本发明提出的卷积神经网络可以针对位姿估计目标进行端到端的训练和预测,取代了BB8算法中的多步处理方式,同时提升了算法的计算效率和位姿估计精度,不需要进行计算复杂度高的位姿修正就可以取得当前最好的位姿估计精度,进一步节省了算法的运行时间,可以实现实时处理(约50fps)。在多目标场景下,只需要对检测到的每个物体实例进行一次EPnP计算,不需要重复运行算法多次,运行时间提升不大。
进一步,通过卷积神经网络对RGB图像进行预测,得到六个不同尺度的特征图上每个位置的类别、类别得分、二维边界框以及投影点坐标回归结果的具体包括以下步骤:
S21:将RGB图像的尺寸调整为300×300像素;
S22:将步骤S21处理后的RGB图像输入残差50层网络,得到六个不同尺寸的特征图;
S23:在特征图上设定预设锚框,并利用卷积层对六个不同尺度的特征图进行目标预测与坐标回归,计算每个特征图上每个位置的类别、二维边界框预测结果以及投影点坐标预测值;
S24:计算预设锚框与每一个目标实例的真值二维边界框之间的交并比,交并比大于0.5的预设锚框作为正样本预设锚框,交并比小于0.4的预设锚框作为负样本预设锚框;
S25:通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3,并计算类别、二维边界框预测结果、投影点坐标预测值分别与训练目标值之间的误差,通过带动量的随机梯度下降法对卷积神经网络中的权重参数进行更新;
S26:若更新次数<45000,则返回至步骤S22中,并利用更新后的权重参数进行下一轮迭代更新;若更新次数等于45000,则迭代更新停止。
上述进一步技术方案的有益效果为:训练是使得卷积神经网络(机器学习算法)针对特定任务实现性能提升的必要手段,训练可以看作一个根据误差梯度调整卷积神经网络中的权重参数使得损失函数逐渐减小的优化过程,训练的目的就是调整权重参数使其更准确地实现类别预测、二维边界框以及投影点坐标回归任务。
进一步,将步骤S21处理后的RGB图像输入残差50层网络,得到六个不同尺寸的特征图具体步骤包括:
S221:将RGB图像输入到残差50层网络Stage 1~Stage 4中,得到的维度为38x38x1024的第一张特征图;
S222:将第一张特征图通过残差50层网络的Stage 5,得到的维度为19x19x2048的第二张特征图;
S223:利用256个1x1卷积对第二张特征图进行卷积,再经过512个3x3的卷积得到维度为10x10x512的第三张特征图;
S224:将第三张特征图依次经过128个1x1的卷积和256个3x3的卷积得到维度为5x5x256的第四张特征图;
S225:将第四张特征图依次经过128个1x1的卷积和256个3x3的卷积得到维度为3x3x256的第五张特征图;
S226:将第五张特征图依次再经过128个1x1的卷积和256个3x3的卷积得到维度为1x1x256的第六张特征图。
进一步,在特征图上设定预设锚框,并利用卷积层对六个不同尺度的特征图进行目标预测与坐标回归,得到每个特征图上每个位置的类别、二维边界框预测结果以及投影点坐标预测值的具体步骤为:
S231:在六个不同尺寸的特征图的每一点生成预设锚框;
S232:对于第i个特征图,i∈{1,2,3,4,5,6},其维度为wi×hi×channeli,经过一组卷积核的个数为Nanchor×(Npt×2+a+C+1)的卷积运算后得到预测结果的维度为wi×hi×[Nanchor×(Npt×2+a+C+1)],其中,Nanchor表示特征图上每一点的预设锚框数目,每一个预设锚框的预测结果是一个长度为Npt×2+a+C+1的向量,Npt×2表示预测出的投影点数目,a=(predbbox_centerx,predbbox_centery,predbbox_width,predbbox_height)表示预测出的二维边界框相对于预设锚框的中心点、宽和高的修正值,C+1=(x0,x1,…,xC)表示预设锚框中目标所属类别的预测,x0表示对背景类别的预测;
S33:假定预设锚框的中心点为(anchorcenterx,anchorcentery),宽和高分别为anchorwidth和anchorheight,每一个投影点的预测修正值为(predptx,predpty),则预测出的投影点坐标计算如下:
根据预测出的二维边界框相对于预设锚框的中心点以及宽高的修正值(predbbox_centerx,predbbox_centery,predbbox_width,predbbox_height),计算预测出的二维边界框的中心点以及宽高,计算公式如下:
利用Softmax函数将输出的的类别预测结果转化为归一化的概率:
通过公式(3)可以判定预设锚框的类别,同时将该类别的概率作为类别得分。
进一步,通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3,并计算类别、二维边界框预测结果和投影点坐标的预测值分别与训练目标值之间的误差,并通过带动量的随机梯度下降法对卷积神经网络中的权重参数进行更新的具体步骤为:
通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3;对于正样本锚框,卷积神经网络训练目标值包括目标类别、二维边界框偏移量以及投影点坐标偏移量;其中,二维边界框中心点坐标、宽和高的偏移量计算公式如下:
其中gtcenterx,gtcentery,gtwidth,gtheight分别表示真值二维边界框中心点的x,y坐标以及宽高,anchorcenterx,anchorcentery,anchorwidth,anchorheight分别表示预设锚框的中心点的x,y坐标以及宽高;
投影点坐标偏移量计算方式如下:
其中gtcoordinatex,gtcoordinatey分别代表投影点x,y坐标的真值;
对于负样本锚框,卷积神经网络训练目标值为类别;
设一组正样本预设预设锚框Pos和负样本预设锚框Neg,训练网络采用的损失函数为:
其中Lconf代表针对分类问题的分量,采用softmax cross entropy损失函数;Lloc代表针对边界框偏移量的分量,采用smooth L1 norm损失函数;Lpt代表针对投影点坐标偏移量的分量,采用smooth L1 norm损失函数;α和β表示权重系数;
利用公式(6)计算卷积神经网络预测值与训练目标值之间的误差,再通过带动量的随机梯度下降法对网络中的权重参数进行更新。
进一步,对特征图上属于目标的实例,基于S2得到的类别得分和二维边界框进行非极大抑制的具体步骤为:
根据卷积神经网络预测出的每一个非背景的目标实例,计算与其同类别的其它二维边界框的交并比;交并比大于0.5时,保留类别得分高的预测,去除类别得分低的预测。
上述进一步技术方案的有益效果:非极大抑制能够去除大量冗余的、相互重叠的预测,只保留置信度最高的一部分预测。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于投影点坐标回归的六自由度位姿估计算法,具有以下优点:
(1)可以对位姿估计目标进行端到端训练,取代现有技术BB8算法中的多步处理方式,使得卷积神经网络可以针对位姿估计目标进行综合调优,能够同时提升计算效率和位姿估计精度;
(2)本发明在不需要位姿修正的情况下就可以得到优于现有技术BB8算法的位姿估计精度,因此降低了算法的计算量,节省运行时间,可以实现实时处理;
(3)在多目标场景下运算时间增加不大,并且对于物体之间的遮挡和场景光照变化具有一定的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为现有BB8算法的流程图。
图2附图为本发明的算法流程图。
图3附图为本发明算法在单目标场景下的位姿估计结果图。
图4附图为本发明算法在多目标场景下的位姿估计结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种端到端训练的卷积神经网络对六自由度位姿估计的算法,使得网络中的所有参数针对位姿估计目标进行综合调优,相比于现有技术BB8算法的多步处理方式,能够在提升计算效率的同时提高位姿估计精度。
本发明与现有技术的位姿估计精度对比结果见表1,在不需要位姿修正的情况下,本发明算法的位姿估计精度就已经明显高于现有技术。也正是由于不需要进行计算复杂度高的位姿修正步骤,本发明算法能够达到较高的运行速度,见表2,约为每秒处理50张图像,可以实现实时处理。
图3与图4展示了本发明算法在单目标场景(LINEMOD数据集)和多目标场景(OCCLUSION数据集)下的位姿估计结果。可以得出,本发明算法对于物体之间的遮挡情况以及场景的光照变化都具有一定的鲁棒性。
表1
表1为本发明与现有技术在LINEMOD数据集上的位姿估计精度对比,表中数值为旋转角度误差小于5°且平移量误差小于5cm的图像数目占测试集中图像总数的百分比,该数值越高表示位姿估计精度越高。
表2
表2为本发明算法与现有技术的运行速度对比。
本发明在单步目标检测算法(SSD)的基础上针对位姿估计问题进行扩展,借鉴BB8算法回归投影点位置的方式,对于每个检测到的感兴趣物体回归三维边界框顶点的投影坐标,再利用EPnP算法计算六自由度位姿参数。其具体步骤为:
S1:输入RGB图像,利用目标三维模型计算出目标物体在三个维度上的尺寸信息,即长、宽、高,进而得到目标物体三维边界框的八个顶点的坐标;
S2:将RGB图像的尺寸调整为300×300像素;
S3:将步骤S21处理后的RGB图像依次输入残差50层网络中的Stage 1~Stage 4和Stage 5,分别得到第一张特征图和第二张特征图,在Stage 5之后添加4组额外的卷积层,第二张特征图依次添加到4组额外的卷积层上进行降采样,依次得到第三张特征图、第四张特征图、第五张特征图和第六张特征图;
残差50层网络包含49个卷积层和最后的一个全连接层,本发明利用49个卷积层(即Stage 1~5),其中,Stage 1包含第一个卷积层,一个批归一化层,一个非线性激活层以及一个最大池化层,本发明去掉最大池化层,以在网络结构中保持较大的空间分辨率;Stage 2~5是由残差块组成,残差块的个数分别为[3,4,6,3],每一个残差块中包含3个卷积层;
具体的:
S31:将RGB图像输入到残差50层网络Stage 1~Stage 4中,得到的维度为38x38x1024的第一张特征图,;
S32:将第一张特征图通过残差50层网络的Stage 5,得到的维度为19x19x2048的第二张特征图;
S33:利用256个1x1卷积对第二张特征图进行卷积,再经过512个3x3的卷积得到维度为10x10x512的第三张特征图;
S34:将第三张特征图依次经过128个1x1的卷积和256个3x3的卷积得到维度为5x5x256的第四张特征图;
S35:将第四张特征图依次经过128个1x1的卷积和256个3x3的卷积得到维度为3x3x256的第五张特征图;
S36:将第五张特征图依次再经过128个1x1的卷积和256个3x3的卷积得到维度为1x1x256的第六张特征图;
S4:在特征图上设定预设锚框,预设锚框是以特征图上每一点为中心、按照一定的尺寸和长宽比例设置的二维边界框结构,用于回归目标真值二维边界框以及投影点坐标。在本发明中,六个不同尺度的特征图上的预设锚框的尺寸分别为[0.1,0.14],[0.2,0.27],[0.37,0.45],[0.54,0.62],[0.71,0.79],[0.88,0.96](均为相对于特征图短边的比例),长宽比例均为1:1,2:1,1:2。。具体地,首先固定一个比例r1,采样2个不同的尺寸s1和s2;然后固定尺寸s1,采样2个长宽比r2和r3,由此在每个特征图的每个位置上生成4个预设锚框。
对于第i个特征图,i∈{1,2,3,4,5,6},其维度为wi×hi×channeli,经过一组卷积核的个数为Nanchor×(Npt×2+a+C+1)的卷积运算后得到预测结果的维度为wi×hi×[Nanchor×(Npt×2+a+C+1)],即在该特征图的wi×hi中的每一个二维空间位置上,对应一个长度为Nanchor×(Npt×2+4+C+1)的预测结果向量,其中,Nanchor表示特征图上每一点的预设锚框数目,在本实施例中,Nanchor=4,每一个预设锚框的预测结果是一个长度为Npt×2+a+C+1的向量,Npt×2表示预测出的投影点数目,在本实施例中,Npt=8,a=(predbbox_centerx,predbbox_centery,predbbox_width,predbbox_height)表示预测出的二维边界框相对于预设锚框的中心点、宽和高的修正值,C+1=(x0,x1,…,xC)表示预设锚框中目标所属类别的预测,x0表示对背景类别的预测;
S5:假定预设锚框的中心点为(anchorcenterx,anchorcentery),宽和高分别为anchorwidth和anchorheight,每一个投影点的预测修正值为(predptx,predpty),则预测出的投影点坐标计算如下:
根据预测出的二维边界框相对于预设锚框的中心点以及宽高的修正值(predbbox_centerx,predbbox_centery,predbbox_width,predbbox_height),计算预测出的二维边界框的中心点以及宽高,计算公式如下:
利用Softmax函数将输出的类别预测转化为归一化的概率:
通过公式(3)可以判定预设锚框的类别,同时将该类别的概率作为类别得分;
S6:计算预设锚框与人为标注的每一个目标实例的真值二维边界框之间的交并比,交并比大于0.5的预设锚框作为正样本预设锚框,交并比小于0.4的预设锚框作为负样本预设锚框;
S7:通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3;具体的,在线难样本挖掘方法是指在迭代训练过程中,执行预测过程后得到卷积神经网络对所有预设锚框的类别、二维边界框预测结果以及投影点坐标预测值,对于所有非正样本的预设锚框,按照卷积神经网络预测出的属于背景的概率升序排序,取排名靠前的一部分作为负样本预设锚框的数目。
对于正样本锚框,卷积神经网络训练目标值包括目标类别、二维边界框偏移量以及投影点坐标偏移量;其中,二维边界框中心点坐标、宽和高的偏移量计算公式如下:
其中gtcenterx,gtcentery,gtwidth,gtheight分别表示边界框真值的中心点的x,y坐标以及宽高,anchorcenterx,anchorcentery,anchorwidth,anchorheight分别表示预设锚框的中心点的x,y坐标以及宽高;
投影点坐标偏移量计算方式如下:
其中gtcoordinatex,gtcoordinatey分别代表投影点x,y坐标的真值;
对于负样本锚框,卷积神经网络训练目标值为类别;
设一组正样本预设预设锚框Pos和负样本预设锚框Neg,训练网络采用的损失函数为:
其中Lconf代表针对分类问题的分量,采用softmax cross entropy损失函数;Lloc代表针对边界框回归的分量,采用smooth L1 norm损失函数;Lpt代表针对投影点坐标回归的分量,采用smooth L1 norm损失函数;α和β表示权重系数,在本实施例中,将α设置为1,β设置为10;
利用公式(6)计算网络预测值与训练目标值之间的误差,再通过带动量的随机梯度下降法对网络中的权重参数进行更新;训练时采用的带动量的随机梯度下降法,初始学习率为0.001,动量为0.9,权重衰减为0.0005,批量大小为8,共迭代更新网络参数45000次,并在第30000次更新和第40000次更新后将学习率降低至原来的十分之一。需要说明的是,卷积神经网络更新的参数是指卷积层中卷积核的取值。
S8:若更新次数<45000,则返回至步骤S3中,并利用更新后的权重参数进行下一轮迭代更新;若更新次数等于45000,则迭代更新停止。
本发明的训练流程为:先执行一次前向传播(RGB图像到步骤S3再到步骤S5),得到网络对于每个特征图上每个位置的类别、二维边界框预测结果以及投影点坐标的预测值,然后利用公式(6)计算卷积神经网络预测值与训练目标值之间的误差,误差包括投影点目标偏移量、二维边界框偏移量和类别误差,再通过带动量的随机梯度下降法对网络中的权重参数进行更新,使得误差减小;接下来进行下一次迭代,即使用更新后的网络参数执行前向传播,计算预测值与目标值的误差,继续更新网络权重参数。
S9:根据卷积神经网络预测出的每一个非背景的目标实例,计算与其同类别的其它二维边界框的交并比;交并比大于0.5时,保留类别得分高的预测,去除类别得分低的预测,得到得到图像目标实例的类别预测、二维边界框和投影点坐标回归结果;
需要说明的是,同类别是指:与特征图上其中一个目标实例为相同类别的二维边界框。
S10:利用步骤S1的目标物体三维边界框的八个顶点的坐标以及步骤S9中图像目标实例的投影点坐标回归结果得到二维点与三维点之间的对应关系,EPnP算法通过二维点与三维点之间的对应关系计算每一个目标实例相对于相机的六自由度位姿。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种基于投影点坐标回归的六自由度位姿估计算法,其特征在于,包括以下步骤:
S1:输入RGB图像,利用目标三维模型计算出目标物体在三个维度上的尺寸信息,得到目标物体三维边界框的八个顶点的坐标;
S2:通过卷积神经网络对RGB图像进行预测,得到六个不同尺度的特征图以及特征图上每个位置的类别、类别得分、二维边界框和投影点坐标回归结果;
S3:对特征图上属于目标的实例,基于步骤S2得到的类别得分和二维边界框进行非极大抑制,得到图像目标实例的类别预测、二维边界框和投影点坐标回归结果;
S4:利用步骤S1的目标物体三维边界框的八个顶点的坐标以及步骤S3中图像目标实例的投影点坐标回归结果得到二维点与三维点之间的对应关系,EPnP算法通过二维点与三维点之间的对应关系计算每一个目标实例相对于相机的六自由度位姿。
2.根据权利要求1所述的一种基于投影点坐标回归的六自由度位姿估计算法,其特征在于,通过卷积神经网络对RGB图像进行预测,得到六个不同尺度的特征图上每个位置的类别、类别得分、二维边界框以及投影点坐标回归结果的具体包括以下步骤:
S21:将RGB图像的尺寸调整为300×300像素;
S22:将步骤S21处理后的RGB图像输入残差50层网络,得到六个不同尺寸的特征图;
S23:在特征图上设定预设锚框,并利用卷积层对六个不同尺度的特征图进行目标预测与坐标回归,计算每个特征图上每个位置的类别、二维边界框预测结果以及投影点坐标预测值;
S24:计算预设锚框与每一个目标实例的真值二维边界框之间的交并比,交并比大于0.5的预设锚框作为正样本预设锚框,交并比小于0.4的预设锚框作为负样本预设锚框;
S25:通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3,并计算类别、二维边界框预测结果和投影点坐标预测值分别与训练目标值之间的误差,通过带动量的随机梯度下降法对卷积神经网络中的权重参数进行更新;
S26:若更新次数<45000,则返回至步骤S22中,并利用更新后的权重参数进行下一轮迭代更新;若更新次数等于45000,则迭代更新停止。
3.根据权利要求2所述的一种基于投影点坐标回归的六自由度位姿估计算法,其特征在于,将步骤S21处理后的RGB图像输入残差50层网络,得到六个不同尺寸的特征图具体步骤包括:
S221:将RGB图像输入到残差50层网络Stage 1~Stage 4中,得到的维度为38x38x1024的第一张特征图;
S222:将第一张特征图通过残差50层网络的Stage 5,得到的维度为19x19x2048的第二张特征图;
S223:利用256个1x1卷积对第二张特征图进行卷积,再经过512个3x3的卷积得到维度为10x10x512的第三张特征图;
S224:将第三张特征图依次经过128个1x1的卷积和256个3x3的卷积得到维度为5x5x256的第四张特征图;
S225:将第四张特征图依次经过128个1x1的卷积和256个3x3的卷积得到维度为3x3x256的第五张特征图;
S226:将第五张特征图依次再经过128个1x1的卷积和256个3x3的卷积得到维度为1x1x256的第六张特征图。
4.根据权利要求3所述的一种基于投影点坐标回归的六自由度位姿估计算法,其特征在于,在特征图上设定预设锚框,并利用卷积层对六个不同尺度的特征图进行目标预测与坐标回归,得到每个特征图上每个位置的类别、二维边界框预测结果以及投影点坐标预测值的具体步骤为:
S231:在六个不同尺寸的特征图的每一点生成预设锚框;
S232:对于第i个特征图,i∈{1,2,3,4,5,6},其维度为wi×hi×channeli,经过一组卷积核的个数为Nanchor×(Npt×2+a+C+1)的卷积运算后得到预测结果的维度为wi×hi×[Nanchor×(Npt×2+a+C+1)],其中,Nanchor表示特征图上每一点的预设锚框数目,每一个预设锚框的预测结果是一个长度为Npt×2+a+C+1的向量,Npt×2表示预测出的投影点数目,a=(predbbox_centerx,predbbox_centery,predbbox_width,predbbox_height)表示预测出的二维边界框相对于预设锚框的中心点、宽和高的修正值,C+1=(x0,x1,…,xC)表示预设锚框中目标所属类别的预测,x0表示对背景类别的预测;
S33:假定预设锚框的中心点为(anchorcenterx,anchorcentery),宽和高分别为anchorwidth和anchorheight,每一个投影点的预测修正值为(predptx,predpty),则预测出的投影点坐标计算如下:
根据预测出的二维边界框相对于预设锚框的中心点以及宽高的修正值(predbbox_centerx,predbbox_centery,predbbox_width,predbbox_height),计算预测出的二维边界框的中心点以及宽高,计算公式如下:
利用Softmax函数将输出的类别预测结果转化为归一化的概率:
通过公式(3)可以判定预设锚框的类别,同时将该类别的概率作为类别得分。
5.根据权利要求4所述的一种基于投影点坐标回归的六自由度位姿估计算法,其特征在于,通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3,并计算类别、二维边界框预测结果和投影点坐标的预测值分别与训练目标值之间的误差,并通过带动量的随机梯度下降法对卷积神经网络中的权重参数进行更新的具体步骤为:
通过在线难样本挖掘的方法使正样本预设锚框与负样本预设锚框的比例为1:3;对于正样本锚框,卷积神经网络训练目标值包括目标类别、二维边界框偏移量以及投影点坐标偏移量;其中,二维边界框中心点坐标、宽和高的偏移量计算公式如下:
其中gtcenterx,gtcentery,gtwidth,gtheight分别表示真值二维边界框中心点的x,y坐标以及宽高,anchorcenterx,anchorcentery,anchorwidth,anchorheight分别表示预设锚框的中心点的x,y坐标以及宽高;
投影点坐标偏移量计算方式如下:
其中gtcoordinatex,gtcoordinatey分别代表投影点x,y坐标的真值;
对于负样本锚框,卷积神经网络训练目标值为类别;
设一组正样本预设预设锚框Pos和负样本预设锚框Neg,训练网络采用的损失函数为:
其中Lconf代表针对分类问题的分量,采用softmaxcross entropy损失函数;Lloc代表针对二维边界框偏移量的分量,采用smoothL1norm损失函数;Lpt代表针对投影点坐标偏移量的分量,采用smoothL1norm损失函数;α和β表示权重系数;
利用公式(6)计算卷积神经网络预测值与训练目标值之间的误差,再通过带动量的随机梯度下降法对网络中的权重参数进行更新。
6.根据权利要求5所述的一种基于投影点坐标回归的六自由度位姿估计算法,其特征在于,对特征图上属于目标的实例,基于步骤S2得到的类别得分和二维边界框进行非极大抑制,得到图像目标实例的类别预测、二维边界框和投影点坐标回归结果的具体步骤为:
根据卷积神经网络预测出的每一个非背景的目标实例,计算与其同类别的其它二维边界框的交并比;交并比大于0.5时,保留类别得分高的预测,去除类别得分低的预测。
CN201810717442.6A 2018-07-03 2018-07-03 一种基于投影点坐标回归的六自由度位姿估计方法 Active CN109064514B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810717442.6A CN109064514B (zh) 2018-07-03 2018-07-03 一种基于投影点坐标回归的六自由度位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810717442.6A CN109064514B (zh) 2018-07-03 2018-07-03 一种基于投影点坐标回归的六自由度位姿估计方法

Publications (2)

Publication Number Publication Date
CN109064514A true CN109064514A (zh) 2018-12-21
CN109064514B CN109064514B (zh) 2022-04-26

Family

ID=64819081

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810717442.6A Active CN109064514B (zh) 2018-07-03 2018-07-03 一种基于投影点坐标回归的六自由度位姿估计方法

Country Status (1)

Country Link
CN (1) CN109064514B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903331A (zh) * 2019-01-08 2019-06-18 杭州电子科技大学 一种基于rgb-d相机的卷积神经网络目标检测方法
CN110072064A (zh) * 2019-06-12 2019-07-30 睿魔智能科技(深圳)有限公司 一种图像拍摄方法、装置、设备以及存储介质
CN110176042A (zh) * 2019-05-31 2019-08-27 北京百度网讯科技有限公司 相机自运动参数估计模型的训练方法、装置及存储介质
CN110322510A (zh) * 2019-06-27 2019-10-11 电子科技大学 一种利用轮廓信息的6d位姿估计方法
CN110378231A (zh) * 2019-06-19 2019-10-25 广东工业大学 基于深度学习的螺母识别定位方法
CN110569719A (zh) * 2019-07-30 2019-12-13 中国科学技术大学 一种动物头部姿态估计方法及系统
CN110930454A (zh) * 2019-11-01 2020-03-27 北京航空航天大学 一种基于边界框外关键点定位的六自由度位姿估计算法
CN111553949A (zh) * 2020-04-30 2020-08-18 张辉 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN111640167A (zh) * 2020-06-08 2020-09-08 上海商汤智能科技有限公司 一种ar合影方法、装置、计算机设备及存储介质
CN111667535A (zh) * 2020-06-04 2020-09-15 电子科技大学 一种针对遮挡场景下的六自由度位姿估计方法
CN112396655A (zh) * 2020-11-18 2021-02-23 哈尔滨工程大学 一种基于点云数据的船舶目标6d位姿估计方法
CN112464743A (zh) * 2020-11-09 2021-03-09 西北工业大学 一种基于多尺度特征加权的小样本目标检测方法
CN112767478A (zh) * 2021-01-08 2021-05-07 北京航空航天大学 一种基于表观指导的六自由度位姿估计方法
CN113221768A (zh) * 2021-05-18 2021-08-06 北京百度网讯科技有限公司 识别模型训练方法、识别方法、装置、设备及存储介质
CN115063789A (zh) * 2022-05-24 2022-09-16 中国科学院自动化研究所 基于关键点匹配的3d目标检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447725A (zh) * 2016-06-29 2017-02-22 北京航空航天大学 基于轮廓点混合特征匹配的空间目标姿态估计方法
CN106683091A (zh) * 2017-01-06 2017-05-17 北京理工大学 一种基于深度卷积神经网络的目标分类及姿态检测方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN107679537A (zh) * 2017-05-09 2018-02-09 北京航空航天大学 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447725A (zh) * 2016-06-29 2017-02-22 北京航空航天大学 基于轮廓点混合特征匹配的空间目标姿态估计方法
CN106683091A (zh) * 2017-01-06 2017-05-17 北京理工大学 一种基于深度卷积神经网络的目标分类及姿态检测方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN107679537A (zh) * 2017-05-09 2018-02-09 北京航空航天大学 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TAEK JUN OH 等: "A practical 6D robot pose estimation using GPS and IMU in outdoor", 《2012 9TH INTERNATIONAL CONFERENCE ON UBIQUITOUS ROBOTS AND AMBIENT INTELLIGENCE (URAI)》 *
张浩鹏 等: "基于姿态加权核回归的航天器姿态估计", 《北京航空航天大学学报》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903331A (zh) * 2019-01-08 2019-06-18 杭州电子科技大学 一种基于rgb-d相机的卷积神经网络目标检测方法
CN110176042A (zh) * 2019-05-31 2019-08-27 北京百度网讯科技有限公司 相机自运动参数估计模型的训练方法、装置及存储介质
CN110072064A (zh) * 2019-06-12 2019-07-30 睿魔智能科技(深圳)有限公司 一种图像拍摄方法、装置、设备以及存储介质
US11736800B2 (en) 2019-06-12 2023-08-22 Remo Tech Co., Ltd. Method, apparatus, and device for image capture, and storage medium
CN110378231A (zh) * 2019-06-19 2019-10-25 广东工业大学 基于深度学习的螺母识别定位方法
CN110322510B (zh) * 2019-06-27 2021-08-27 电子科技大学 一种利用轮廓信息的6d位姿估计方法
CN110322510A (zh) * 2019-06-27 2019-10-11 电子科技大学 一种利用轮廓信息的6d位姿估计方法
CN110569719B (zh) * 2019-07-30 2022-05-17 中国科学技术大学 一种动物头部姿态估计方法及系统
CN110569719A (zh) * 2019-07-30 2019-12-13 中国科学技术大学 一种动物头部姿态估计方法及系统
CN110930454B (zh) * 2019-11-01 2022-11-22 北京航空航天大学 一种基于边界框外关键点定位的六自由度位姿估计算法
CN110930454A (zh) * 2019-11-01 2020-03-27 北京航空航天大学 一种基于边界框外关键点定位的六自由度位姿估计算法
CN111553949A (zh) * 2020-04-30 2020-08-18 张辉 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN111667535A (zh) * 2020-06-04 2020-09-15 电子科技大学 一种针对遮挡场景下的六自由度位姿估计方法
CN111640167A (zh) * 2020-06-08 2020-09-08 上海商汤智能科技有限公司 一种ar合影方法、装置、计算机设备及存储介质
CN112464743A (zh) * 2020-11-09 2021-03-09 西北工业大学 一种基于多尺度特征加权的小样本目标检测方法
CN112464743B (zh) * 2020-11-09 2023-06-02 西北工业大学 一种基于多尺度特征加权的小样本目标检测方法
CN112396655B (zh) * 2020-11-18 2023-01-03 哈尔滨工程大学 一种基于点云数据的船舶目标6d位姿估计方法
CN112396655A (zh) * 2020-11-18 2021-02-23 哈尔滨工程大学 一种基于点云数据的船舶目标6d位姿估计方法
CN112767478B (zh) * 2021-01-08 2022-07-19 北京航空航天大学 一种基于表观指导的六自由度位姿估计方法
CN112767478A (zh) * 2021-01-08 2021-05-07 北京航空航天大学 一种基于表观指导的六自由度位姿估计方法
CN113221768A (zh) * 2021-05-18 2021-08-06 北京百度网讯科技有限公司 识别模型训练方法、识别方法、装置、设备及存储介质
CN115063789A (zh) * 2022-05-24 2022-09-16 中国科学院自动化研究所 基于关键点匹配的3d目标检测方法及装置
CN115063789B (zh) * 2022-05-24 2023-08-04 中国科学院自动化研究所 基于关键点匹配的3d目标检测方法及装置

Also Published As

Publication number Publication date
CN109064514B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
CN109064514A (zh) 一种基于投影点坐标回归的六自由度位姿估计算法
CN109271933B (zh) 基于视频流进行三维人体姿态估计的方法
CN106205126B (zh) 基于卷积神经网络的大规模交通网络拥堵预测方法及装置
CN110223323A (zh) 基于深度特征自适应相关滤波的目标跟踪方法
CN110322510A (zh) 一种利用轮廓信息的6d位姿估计方法
CN108305275A (zh) 主动跟踪方法、装置及系统
CN111141300A (zh) 基于深度强化学习的智能移动平台无地图自主导航方法
CN106250931A (zh) 一种基于随机卷积神经网络的高分辨率图像场景分类方法
CN108876816A (zh) 基于自适应目标响应的目标跟踪方法
CN110309732A (zh) 基于骨架视频的行为识别方法
CN110991362A (zh) 一种基于注意力机制的行人检测模型
CN108986166A (zh) 一种基于半监督学习的单目视觉里程预测方法及里程计
CN110659664B (zh) 一种基于ssd的高精度识别小物体的方法
CN110751039B (zh) 多视图3d人体姿态估计方法及相关装置
CN106373160A (zh) 一种基于深度强化学习的摄像机主动目标定位方法
CN110059605A (zh) 一种神经网络训练方法、计算设备及存储介质
CN110135500A (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN114663496B (zh) 一种基于卡尔曼位姿估计网络的单目视觉里程计方法
CN110334589A (zh) 一种基于空洞卷积的高时序3d神经网络的动作识别方法
CN106372597B (zh) 基于自适应上下文信息的cnn交通检测方法
CN109583509A (zh) 数据生成方法、装置及电子设备
CN109086663A (zh) 基于卷积神经网络的尺度自适应的自然场景文本检测方法
CN110245753A (zh) 一种基于幂指数量化的神经网络压缩方法
CN110363794A (zh) 视频连续帧之间的光流预测方法
CN110444022A (zh) 交通流数据分析模型的构建方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant