CN116524011A - 一种居家环境下机器人对目标位姿的精化方法 - Google Patents

一种居家环境下机器人对目标位姿的精化方法 Download PDF

Info

Publication number
CN116524011A
CN116524011A CN202310458154.4A CN202310458154A CN116524011A CN 116524011 A CN116524011 A CN 116524011A CN 202310458154 A CN202310458154 A CN 202310458154A CN 116524011 A CN116524011 A CN 116524011A
Authority
CN
China
Prior art keywords
target
pose
solving
points
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310458154.4A
Other languages
English (en)
Inventor
陈殿生
罗亚哲
李继婷
李逸飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202310458154.4A priority Critical patent/CN116524011A/zh
Publication of CN116524011A publication Critical patent/CN116524011A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提出一种服务机器人对抓取目标精确估计位姿的实现方法。该实现方法包括以下步骤:首先通过结构化采集系统建立物品的精简匹配集并抑制背景杂波,然后提取目标模板与实际图像的特征并构建匹配点对,之后将二维特征点对高维变换,选择部分点对利用点云配准算法求解潜在变换位姿,最后迭代优化求解最佳变换位姿并规范化为最终的目标位姿。该方法利用了Aruco码标记、OpneCV计算机视觉库、ICP点云配准算法与RANSAC优化算法,以及居家空间结构与物品摆放规则来求解,最终减小了在复杂环境下目标位姿估计的中误差,提升了机器人的识别抓取能力。

Description

一种居家环境下机器人对目标位姿的精化方法
技术领域
本发明属于机器人目标位姿估计技术领域,提出一种居家环境下机器人对目标位姿的精化方法。
背景技术
机器人对目标位姿的精确估计是实现机器人抓取与执行后续操作任务的重要环节,随着机器人传感技术提升与应用范围扩大,视觉型操作机器人逐渐走入日常生活,而对目标的识别抓取是主要技能之一。机器人在抓取操作中,首先需要视觉系统对待抓取物品精确估计位姿,然后转换为机器人抓取位姿,最后规划机械臂的运动轨迹,执行并完成抓取。
但在实际抓取流程中,由于受到复杂居家环境的影响,机器人从对识别目标的位姿估计到最后的抓取规划执行,整个过程往往存在厘米级的累计误差,故导致机器人最终抓取目标失败,应用能力受限。因此本发明提出了一种居家环境下机器人对目标位姿的精化方法,使机器人在杂乱背景与变化光照条件下对物品精确估计位姿与可靠抓取。
发明内容
本发明的目的在于实现一种居家环境下机器人对目标位姿的精化方法,依据目标的鲁棒纹理特征与居家环境先验信息精确估计其位姿,提升机器人识别抓取的可靠性。
一种居家环境下机器人对目标位姿的精化方法包括以下步骤:
换用不同视角与多种类物品,使用结构化ArUco码码板获得目标模板数据集并抑制杂波,其包含三类信息:目标纹理的彩色图、深度图以及当前采集相机下的目标位姿。使用SIFT、ORB等环境鲁棒性较好的纹理识别算法检测该物品每个视角下的目标模板与实际图像并转换为特征描述符。
采用随机数KNN算法,用欧式距离来衡量特征描述符之间的相似度,找出与所有目标模板每一特征点最近的实际图像中的两个关键点。根据求解效率与精度要求,对这三点构成的两个特征描述符距离的比值设定阈值,以判断是否保留该特征点对。统计并降序排列单个目标每一模板的匹配点数,保留前两个匹配点数最多的模板。
利用获得的两个目标模板与实际图像的二维特征点对的像素坐标和其对应的深度值,以及相机内参数,通过相机变换关系求解得到三维匹配点对。
依据求解效率与精度要求,随机或按一定规律选择每个模板上求解位姿模型所需的最小三维匹配点对数。采用改进ICP算法,对选择的少量匹配点对分别归一化,构建目标函数,利用SVD分解方法求解每个模板所选点对的变换位姿。
根据精度要求与得到正确模型的置信概率,同时为了提升求解效率,设定内点数、最小求解点数与每个模板下的匹配点对数三者之间的关系作为终止迭代条件,迭代求解在潜在变换位姿下的两个模板的内点数目。之后对迭代优化得到的两个模板的内点数进行判定,当存在模板的内点数远大于求解点数,且接近模板的匹配点数时,选择最多匹配点的模板的求解位姿并转换到实际相机坐标系下得到目标位姿,当两个模板的内点数都较少时,将两个求解位姿都转换到实际相机坐标系下,然后计算两个位姿间绕空间定轴重合的最小旋转角,取旋转角的中值对应的位姿作为目标位姿。
居家环境下,物品主要放置在具有平面结构的桌面、柜子等水平面上,放置方式根据其主轴与空间z轴的夹角分为水平躺置与竖直放置。因此需要将求得的目标位姿通过手眼标定转换到与空间坐标系重合的机器人基坐标系下,由于识别与标定误差,需要比较两轴夹角与设定阈值的关系,当在阈值范围内时,将目标主轴向空间z轴旋转重合,否则向平行于水平面方向变换,最后得到的为规范化的目标位姿。
附图说明
为了更清楚的说明本发明所涉及的技术方案,下实施例或现有的技术描述中所使用的附图做简单的介绍,显而易见的,下面描述中的附图是本发明的实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中机器人对目标位姿精化的原理流程图;
图2是本发明实施例中构建的采集目标纹理的结构化码板;
图3是本发明实施例中识别物品与目标模板的二维匹配图;
图4是本发明实施例中识别点云与模板点云的三维配准图;
图5是本发明实施例中四个重要坐标系间的变换原理图
图6是本发明实施例中将一般的6DOF目标位姿规范化的原理说明图,其中(a),(c)为将目标主轴向空间z轴转换对齐的原理,(b)为将目标主轴向空间水平面转换对齐的原理。
具体实施方式
下面结合附图和实施例对本发明进行详细说明。以下实施例用于说明本发明,但不用来限制本发明的范围;
一种居家环境下机器人对目标位姿的精化方法,如图1所示,包括以下步骤:
步骤1:利用深度信息识别ArUco码并据此搭建ArUco码码板。由于家用物品的大小不一以及相机视场角所限,需要不同尺度的ArUco码作为数据集采集框架的特征标记,以尽可能多地获取不同种类目标的纹理特征。图2为采用了8个4cm×4cm大小,5×5位标记的ArUco码的码板。首先计算ArUco码角点坐标Pij=(xij,yij,zij)T,然后计算中心坐标Pi,具体计算如公式(1):
(uij,vij)为识别获得的ArUco码角点二维像素坐标,cx,cy,fx,fy为深度相机的内参数,zpixel为获取到的深度图上对应像素的距离值,i表示第i个ArUco码,j表示ArUco码的第j个角点。ArUco码的姿态Ri与码值可由OpenCV计算机视觉库获得;
通过均布四周的ArUco码找到码板中心,然后将目标物品按照语义放置在该中心,找出对该中心具有对称关系的ArUco码对。任意取出其中两对,如对角的四个ArUco码将其编号为[1,2,3,4],中心点坐标分别为[P1,P2,P3,P4],旋转姿态分别为[R1,R2,R3,R4],即可计算该目标中心位姿Pmo与Rmo如式(2):
H=(0,0,h/2)T表示平移向量,h表示目标完整高度,将该模板目标位姿Pmo与Rmo保存到数据集中,同理若选择其他ArUco码对,仍可由其几何关系找到目标中心位姿;
此外,根据码板的四个角端ArUco码,向码板上方平移目标高度得到另外四个点,这8个点可用来分割剔除背景点云。将分割后得到的目标点云转换为像素坐标(ui,vi)对原始彩色图与深度图进行采样,计算如式(3):
根据上述方法,变换码板位置与换用多种类具有丰富纹理的物品,采集目标多个不同方位的标准彩色图,深度图,以及该方位下的变换位姿作为该目标的数据集;
之后用相机采集实际抓取目标的彩色图与深度图,利用SIFT或ORB等特征检测算法提取实际彩色图与数据集中模板彩色图的特征点;
步骤2:对模板数据集与实际目标提取的特征转化为描述符,然后利用随机树KNN算法匹配,即按一定规律随机选择一对特征点的描述符ci与cj,按式(4)计算其距离:
与/>分别表示模板图像与实际图像的特征点的分量,当p=1为两个特征描述符的曼哈顿距离,当p=2表示其欧式距离,当p=∞时,表示求得的各个分量的最大值。一般选择欧式距离作为特征描述符相似的度量,根据上式,将与模板每个特征点距离最小的两个实际图像上的特征点作为对应匹配点,其距离从小到大排序为d1,d2
在所有的匹配点中,由于实际目标背景复杂且特征描述符具有高维性,这两个最小距离可能存在大量的错误匹配,因此求取两个距离的比值d1/d2,当该值较大时,则保留了较多的匹配关系利于迭代优化选择合适的求解点,但求解效率低,当该值较小时,则匹配点较少,匹配精度高,但可能后续难以找到正确的变换位姿,因此需综合考虑筛选,如图3;
步骤3:将获得的两组二维特征点对的像素坐标带入式(1),可以求得对应的两组三维匹配点对,但需要注意的是实际相机内参数可能与采集相机的内参数不同,在转换实际图像的特征点时,需要更改参数;
步骤4:为了求得实际目标与模板之间的变换位姿,尽可能减小错误匹配以及相机点云波动等带来的识别与估计误差,现采用容错能力较强的ICP点云匹配算法估计每个模板的特征点cmi与目标特征点cri的相对位姿R*与t*,以代表两个点云的匹配关系。设实际与模板一共有n对三维匹配对,但为了提高计算效率,选取其中的k对,按式(5)对其进行归一化:
然后构建优化函数如式(6):
采用SVD分解方法求解该优化函数,但由于选择的匹配点对具有随机性,因此当存在数据缺陷时,即选择匹配点对的数量较少或其中含有较多的错误匹配点对时,这种全局最优的求解方法所得到的结果误差较大,一般单独使用ICP算法得到的位置误差可以达到2-3cm。此外,由于深度相机的点云连续性不足,存在空白噪点,此时计算误差将会进一步加大,导致机器人无法进行后续的抓取位姿规划,因此需要对所求得的变换模型进行优化;
步骤5:为了去除错误或误差较大的变换位姿,并降低外在因素导致的不确定性,利用RANSAC迭代算法优化,即根据其隐式条件,存在正确的变换模型,使得一定数量的匹配点满足该模型,剩下的点作为离群点剔除。首先估计要求解模型所需数量的匹配点对,由于需要对ICP求解算法的结果进行迭代优化,因此为提升计算效率,减少每次迭代所需的求解点数,但由旋转矩阵与平移向量共6个自由度知需设定求解点对数大于等于6,使求解模型仍保有一定的容错性。随机选择所确定数量的匹配点对,并利用上述ICP算法求解潜在变换位姿,之后利用精度阈值计算内点数;
为了提升RANSAC算法的效率,设置求解内点数大于最低要求点数与当前最佳内点数的约束条件,若不满足,则立马开始下一次的迭代,否则,按式(7)更新当前迭代次数knew
p为预先设定的希望得到正确模型的先验概率,一般取大于0.9。但在实际的迭代过程中,由于匹配效果以及所设判定内点阈值大小的不确定性,可能会出现上式无法求解的情况,因此,添加修正因子δ,一般取1~2等较小值;
若求得的knew小于当前迭代次数,则更新并保存当前所求解的变换位姿与最大迭代次数。即在求解最佳模型的同时,减少迭代次数以提升效率。若达到迭代次数或所求内点数满足大于2倍求解点数与0.8倍的所有匹配点数n时,可认为当前模型已达到求解上限或满足精度要求,即退出迭代,则把当前保存的变换位姿Rf与tf按式(8)合并为Tf作为最终求解结果输出;
当两个模板的内点数远大于求解点数,且接近模板的匹配点数时,选择最多匹配点的模板的求解位姿并转换到实际相机坐标系下得到目标位姿,当两个模板的内点数都较少时,将两个求解位姿都转换到实际相机坐标系下,然后计算两个位姿间绕空间定轴重合的最小旋转角,取旋转角的中值对应的位姿作为最终的目标位姿,依据该目标位姿,实际点云与模板点云的匹配结果如图4。
步骤6:居家环境下,物品主要放置在具有平面结构的桌面、柜子等水平面上,放置方式根据其主轴与空间z轴的夹角分为水平躺置与竖直放置;
采用ROS机器人开发平台中的easy_handeye功能包完成相机坐标系camera相对于机械臂空间基坐标系root的外参数标定,即位姿变换关系且二者变换关系固定,利用此关系按式(9)将相对于相机的目标位姿Tf转换到机械臂基坐标系下:
转换得到的目标位姿在居家环境下大致可分为两类:一类是竖直摆放,即物品主轴z平行于空间z轴,另一类是水平放置,即物品主轴平行于空间xOy水平面。但由于识别估计误差,实际摆放水平面的微小倾斜,以及手眼标定的精度等因素,实际得到的目标主轴并不严格满足上述两类放置方式。因此需要将目标位姿进一步规范化,整个系统的位姿关系如图5;
一般得到的目标主轴与空间z轴存在角度偏差θ,该偏差与设定阈值Φ的大小将决定不同的规范化方法,如图6所示,若0<θ<Φ或π-Φ<θ<π,则将目标主轴向空间z轴进行重合,若Φ<θ<π-Φ,则将目标主轴向平行于水平面的方向重合。据式(10)求取θ的大小:
在确定主轴规范化方向后,采用旋转向量描述旋转的大小与方向,即绕空间某一轴旋转一定角度后,主轴与空间z轴或xOy平面平行。旋转轴的单位旋转向量nrotate表示为式(11):
对于不同的θ大小,得到最终的旋转向量rrotate为式(12):
之后,通过罗德里格斯公式将旋转向量rrotate转换为旋转矩阵Rr。并按式(13)姿态变换:
Rnormal=Rr·Robject (13)
将规范化后的目标姿态Rnormal与目标坐标系中心位置Pobject合并为用于机器人操作或避障规划的最终目标位姿T
最后需说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (7)

1.一种居家环境下机器人对目标位姿的精化方法,其特征在于,包括以下步骤:
步骤1:对目标的模板数据集与实际相机获取的含有识别目标的彩色图利用特征检测算法提取纹理特征;
步骤2:对提取到的纹理特征利用匹配算法进行特征匹配,筛选过滤出一定数量的二维匹配点对;
步骤3:将二维特征点对进行三维变换;
步骤4:选择部分三维点对,并利用点云配准算法求解点对间的变换位姿;
步骤5:多次选择匹配点对,迭代求解优化变换位姿,直至满足阈值条件或达到迭代上限。
步骤6:根据居家条件,将目标位姿规范化为日常放置位姿。
2.如权利要求1所述的一种居家环境下机器人对目标位姿的精化方法,其特征在于:步骤1所述的目标模板数据集,通过使用结构化ArUco码码板获得,换用不同视角与多种类物品进行采集并抑制杂波,其包含三类信息:目标纹理的彩色图、深度图以及当前采集相机下的目标位姿。特征检测主要使用的是SIFT、ORB等环境鲁棒性较好的纹理识别算法,该物品每一个视角下的目标模板与实际图像都需要进行检测并转换为特征描述符。
3.如权利要求1所述的一种居家环境下机器人对目标位姿的精化方法,其特征在于:步骤2所述的匹配方法主要采用的是随机数KNN算法,用欧式距离来衡量特征描述符之间的相似度,找出与所有目标模板每一特征点最近的实际图像中的两个关键点。根据求解效率与精度要求,对这三点构成的两个特征描述符距离的比值设定阈值,以判断是否保留该特征点对。统计并降序排列单个目标每一模板的匹配点数,取前两个匹配点数最多的模板进行下一步计算。
4.如权利要求1所述的一种居家环境下机器人对目标位姿的精化方法,其特征在于:步骤3所述的特征点高维变换,需要利用获得的两个目标模板与实际图像的二维特征点对的像素坐标和其对应的深度值,以及相机内参数,通过相机变换关系求解得到三维匹配点对。
5.如权利要求1所述的一种居家环境下机器人对目标位姿的精化方法,其特征在于:步骤4所述的求解变换位姿所需要的每个模板上的三维匹配点对可随机选择,也可按照一定规律进行选择,但需要大于求解位姿模型所需的最小点对数,具体设置可依据求解效率与精度要求。点云配准可采用ICP算法,对选择的少量匹配点对分别进行归一化,然后构建目标函数,最后利用SVD分解方法求解每个模板所选点对的变换位姿,由于深度相机存在点云波动与空白噪声,因此所求的位姿仅为目标可能的变换位姿,需要下一步的筛选过滤。
6.如权利要求1所述的一种居家环境下机器人对目标位姿的精化方法,其特征在于:步骤5所述的迭代优化求解变换位姿主要采用的是改进RANSAC算法。根据精度要求与得到正确模型的置信概率,求解在步骤4潜在变换位姿下的两个模板的内点数目,其中,为了提升求解效率,设定内点数、最小求解点数与每个模板下的匹配点对数三者之间的关系作为终止迭代条件。同时,对迭代优化得到的两个模板内点的数量进行判定,当存在模板的内点数远大于求解点数,且接近模板的匹配点数时,选择最多匹配点的模板的求解位姿并转换到实际相机坐标系下得到目标位姿,当两个模板的内点数都较少时,将两个求解位姿都转换到实际相机坐标系下,然后计算两个位姿间绕空间定轴重合的最小旋转角,取旋转角的中值对应的位姿作为最终的目标位姿。
7.如权利要求1所述的一种居家环境下机器人对目标位姿的精化方法,其特征在于:居家环境下,物品主要放置在具有平面结构的桌面、柜子等水平面上,放置方式根据其主轴与空间z轴的夹角分为水平躺置与竖直放置。因此需要将上一步求得的目标位姿通过手眼标定转换到与空间坐标系重合的机器人基坐标系下,由于识别与标定误差,需要比较两轴夹角与设定阈值的关系,当在阈值范围内时,将目标主轴向空间z轴旋转重合,否则向平行于水平面方向变换,最后得到的为规范化的目标位姿。
CN202310458154.4A 2023-04-26 2023-04-26 一种居家环境下机器人对目标位姿的精化方法 Pending CN116524011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310458154.4A CN116524011A (zh) 2023-04-26 2023-04-26 一种居家环境下机器人对目标位姿的精化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310458154.4A CN116524011A (zh) 2023-04-26 2023-04-26 一种居家环境下机器人对目标位姿的精化方法

Publications (1)

Publication Number Publication Date
CN116524011A true CN116524011A (zh) 2023-08-01

Family

ID=87405911

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310458154.4A Pending CN116524011A (zh) 2023-04-26 2023-04-26 一种居家环境下机器人对目标位姿的精化方法

Country Status (1)

Country Link
CN (1) CN116524011A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085422A (zh) * 2017-01-04 2017-08-22 北京航空航天大学 一种基于Xtion设备的多功能六足机器人的远程控制系统
CN108122256A (zh) * 2017-12-25 2018-06-05 北京航空航天大学 一种逼近状态下旋转目标位姿测量的方法
CN110288660A (zh) * 2016-11-02 2019-09-27 北京信息科技大学 一种基于凸松弛全局优化算法的机器人手眼标定方法
US20200237326A1 (en) * 2017-01-24 2020-07-30 Brainlab Ag Determining Rotational Orientation Of A Deep Brain Stimulation Electrode In A Three-Dimensional Image
CN113012230A (zh) * 2021-03-30 2021-06-22 华南理工大学 一种术中ar辅助引导手术导板安放的方法
CN113137971A (zh) * 2021-03-24 2021-07-20 贵州电网有限责任公司 一种适用于即时定位与地图构建的ransac改进方法
EP3874230A1 (fr) * 2018-10-31 2021-09-08 RENAULT s.a.s. Procédé de détermination d'un vecteur de déplacement d'un véhicule automobile, procédé de détermination d'une vitesse du véhicule et véhicule associé
CN115435790A (zh) * 2022-09-06 2022-12-06 视辰信息科技(上海)有限公司 一种视觉定位与视觉里程计位姿融合的方法及系统
CN115570564A (zh) * 2022-09-26 2023-01-06 北京航空航天大学 一种家用服务机器人对目标位姿的识别与规范化方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288660A (zh) * 2016-11-02 2019-09-27 北京信息科技大学 一种基于凸松弛全局优化算法的机器人手眼标定方法
CN107085422A (zh) * 2017-01-04 2017-08-22 北京航空航天大学 一种基于Xtion设备的多功能六足机器人的远程控制系统
US20200237326A1 (en) * 2017-01-24 2020-07-30 Brainlab Ag Determining Rotational Orientation Of A Deep Brain Stimulation Electrode In A Three-Dimensional Image
CN108122256A (zh) * 2017-12-25 2018-06-05 北京航空航天大学 一种逼近状态下旋转目标位姿测量的方法
EP3874230A1 (fr) * 2018-10-31 2021-09-08 RENAULT s.a.s. Procédé de détermination d'un vecteur de déplacement d'un véhicule automobile, procédé de détermination d'une vitesse du véhicule et véhicule associé
CN113137971A (zh) * 2021-03-24 2021-07-20 贵州电网有限责任公司 一种适用于即时定位与地图构建的ransac改进方法
CN113012230A (zh) * 2021-03-30 2021-06-22 华南理工大学 一种术中ar辅助引导手术导板安放的方法
CN115435790A (zh) * 2022-09-06 2022-12-06 视辰信息科技(上海)有限公司 一种视觉定位与视觉里程计位姿融合的方法及系统
CN115570564A (zh) * 2022-09-26 2023-01-06 北京航空航天大学 一种家用服务机器人对目标位姿的识别与规范化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XUWEI HUANG等: "3D Reconstruction Based on Model Registration Using RANSAC-ICP Algorithm", 《TRANSACTIONS ON EDUTAINMENT XI》, 1 January 2015 (2015-01-01), pages 46 - 51 *
吴佳欢等: "基于GPU-SIFT算法的飞行器视觉导航姿态估计关键技术", 计算机测量与控制, vol. 23, no. 4, 30 April 2015 (2015-04-30), pages 1371 - 1374 *
田蔚瀚等: "家庭服务机器人手眼协调系统设计", 《机械工程学报》, vol. 58, no. 5, 31 March 2022 (2022-03-31), pages 69 - 77 *

Similar Documents

Publication Publication Date Title
CN111258313B (zh) 多传感器融合slam系统及机器人
CN104040590B (zh) 用于估计物体的姿态的方法
JP5705147B2 (ja) 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法
Choi et al. Voting-based pose estimation for robotic assembly using a 3D sensor
CN106919944B (zh) 一种基于orb算法的大视角图像快速识别方法
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
CN111862201B (zh) 一种基于深度学习的空间非合作目标相对位姿估计方法
CN111667506B (zh) 一种基于orb特征点的运动估计方法
CN111275763A (zh) 闭环检测系统、多传感器融合slam系统及机器人
CN103136525B (zh) 一种利用广义Hough变换的异型扩展目标高精度定位方法
CN110132284B (zh) 一种基于深度信息的全局定位方法
CN107818598B (zh) 一种基于视觉矫正的三维点云地图融合方法
CN111768447B (zh) 一种基于模板匹配的单目相机物体位姿估计方法及系统
CN112484746B (zh) 一种基于地平面的单目视觉辅助激光雷达里程计方法
CN110992422B (zh) 一种基于3d视觉的药盒姿态估计方法
JP5104248B2 (ja) 物体認識装置およびロボット装置
CN113420590B (zh) 弱纹理环境下的机器人定位方法、装置、设备及介质
CN112734844A (zh) 一种基于正八面体的单目6d位姿估计方法
CN116817920A (zh) 无需三维地图模型的平面移动机器人视觉定位方法及装置
CN116862984A (zh) 一种相机的空间位姿估计方法
CN116630662A (zh) 一种应用于视觉slam的特征点误匹配剔除方法
CN116524011A (zh) 一种居家环境下机器人对目标位姿的精化方法
CN116309882A (zh) 一种面向无人叉车应用的托盘检测和定位方法及系统
CN116309817A (zh) 一种基于rgb-d相机的托盘检测与定位方法
CN114862953A (zh) 一种基于视觉特征和3d激光的移动机器人重定位方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination