CN113808195B - 视觉定位方法、装置及存储介质 - Google Patents

视觉定位方法、装置及存储介质 Download PDF

Info

Publication number
CN113808195B
CN113808195B CN202110989000.9A CN202110989000A CN113808195B CN 113808195 B CN113808195 B CN 113808195B CN 202110989000 A CN202110989000 A CN 202110989000A CN 113808195 B CN113808195 B CN 113808195B
Authority
CN
China
Prior art keywords
label
plane
camera
included angle
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110989000.9A
Other languages
English (en)
Other versions
CN113808195A (zh
Inventor
曹力科
漆一宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leader Technology Hengqin Co ltd
Original Assignee
Leader Technology Hengqin Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leader Technology Hengqin Co ltd filed Critical Leader Technology Hengqin Co ltd
Priority to CN202110989000.9A priority Critical patent/CN113808195B/zh
Publication of CN113808195A publication Critical patent/CN113808195A/zh
Application granted granted Critical
Publication of CN113808195B publication Critical patent/CN113808195B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种视觉定位方法、装置及存储介质。其中方法包括:通过相机采集标签单元的图像,获取所述相机与所述标签平面的距离z;获取图像平面与所述标签平面的夹角α;获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β;获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;根据距离Z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置。本申请的定位方法利用4自由度场景的特殊性,对移动载体进行快速定位,计算量小,适用于计算能力缺乏的场合,可以在低端嵌入式设备中实现快速定位。

Description

视觉定位方法、装置及存储介质
技术领域
本申请涉及计算机领域,尤其涉及视觉定位方法、装置及存储介质。
背景技术
随着移动机器人、无人机以及自动导引运输车(Automated Guided Vehicle,AGV)等的广泛应用,如何对这类载体在平面中进行准确定位是一项迫切的需求。这类载体通常在全球导航卫星系统(Global Navigation Satellite System,GNSS)信号缺失的地方运动,常用的北斗或者全球定位系统(Global Positioning System,GPS)等卫星定位技术无法提供准确位置。
视觉标签定位是在环境中贴上可见的定位标签,通过摄像头拍摄标签,利用机器视觉、图像处理的方法对标签进行解析,以得到相机的位置。而通过视觉标签提供参考位置的技术方案中,使用PnP(Perspective-n-Point)或者迭代最近点算法(Iterative closestpoint,ICP)等算法的计算量偏大,在低端嵌入式设备中很难达到实时运行。
发明内容
本申请提供了一种视觉定位方法、装置及存储介质,以减少计算量实现实时定位。本申请的技术方案如下:
根据本申请实施例的第一方面,提供一种视觉定位方法,包括:
通过相机采集标签单元的图像,其中,所述标签单元上设有至少四个锚点,至少四个所述锚点构成标签平面;所述标签平面的垂线与所述相机所属移动载体的运动平面平行,且所述标签平面的方向垂直于所述运动平面;
获取所述相机与所述标签平面的距离z;
获取图像平面与所述标签平面的夹角α;
获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β;
获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;
根据所述距离z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置。
在本申请的一些实施例中,所述标签单元上设有的锚点个数为至少四个;其中,所述标签单元包括一个标签,所述标签的四个角位置分别设置一个锚点;或者,所述标签单元包括多个标签,所述多个标签中最外侧的四个点处设置四个锚点。
在本申请的一些实施例中,所述获取所述相机与所述标签平面的距离z,包括:
通过第一公式获取所述相机与所述标签平面的距离z;其中,所述第一公式表示如下:
其中,fy为相机的第一焦距,lw0为两个垂直方向的锚点之间的实际长度,lu0为与lw0对应的两个锚点之间的像素长度。
在本申请的一些实施例中,所述获取图像平面与所述标签平面的夹角α,包括:
从所述四个锚点之中选择与相机距离小的两个垂直方向的第一锚点和第二锚点,获取所述第一锚点与第二锚点之间的实际长度lw2,以及对应的像素长度lu2,根据所述第一公式得到所述标签平面距离所述相机平面的最小距离z1;
从所述四个锚点之中选择另两个垂直方向的第三锚点和第四锚点,获取所述第三锚点与第四锚点之间的实际长度lw3,以及对应的像素长度lu3,根据所述第一公式得到所述标签平面距离所述相机平面的最大距离z2;根据所述最小距离z1和所述最大距离z2,通过第二公式获取图像平面与所述标签平面的夹角α,所述第二公式表示如下:
其中,lw1为所述第一锚点与所述第三锚点之间的实际长度,或者第二锚点与第四锚点之间的实际长度。
在本申请的一些实施例中,所述获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β,包括:
通过第三公式获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β,所述第三公式表示如下:
其中,Px为所述图像的像素中心x方向的坐标,wu为所述图像的宽度,fx为所述相机的第二焦距。
在本申请的一些实施例中,所述获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ,包括:
通过第四公式获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ,所述第四公式表示如下:
其中,Py为所述图像的像素中心y方向的坐标,hu为所述图像的像素高度,fy为所述相机的第一焦距。
在本申请的一些实施例中,所述根据所述距离z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置,包括:
根据所述距离z、夹角α、水平夹角β和竖直夹角θ,通过第五公式求解相机在世界坐标系中的位置Pc;所述第五公式表示如下:
Pc=(xo+zsinα-zsinβ,yo+z*tanθ,zo+zcosα)
其中,(x0,yo,zo)为所述标签中心的世界坐标。
根据本申请实施例的第二方面,提供一种视觉快速定位装置,包括:
采集模块,用于采集标签单元的图像,其中,所述标签单元上设有至少四个锚点,至少四个所述锚点构成标签平面;所述标签平面的垂线与所述相机所属移动载体的运动平面平行,且所述标签平面的方向垂直于所述运动平面;
第一获取模块,用于获取所述相机与所述标签平面的距离z;
第二获取模块,用于获取图像平面与所述标签平面的夹角α;
第三获取模块,用于获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β;
第四获取模块,用于获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;
求解模块,用于根据距离Z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置。
根据本申请实施例的第三方面,提供一种视觉快速定位装置,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现上述第一方面所述的视觉定位方法。
根据本申请实施例的第四方面,提供一种存储介质,当所述存储介质中的指令由视觉快速定位装置的处理器执行时,使得所述视觉快速定位装置能够执行上述第一方面所述的视觉定位方法。
根据本申请实施例的第五方面,提供一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,执行上述第一方面所述的视觉定位方法。
本申请实施例提供的视觉定位方法及装置至少带来以下有益效果:
针对标签平面的垂线与相机所属移动载体的运动平面平行,相机视线平行于运动平面,且标签平面的方向垂直于运动平面的场景,利用4自由度场景的特殊性,对相机(移动载体)进行快速定位,相比于现有的PnP或者ICP等方法,不需要优化,计算量小,适用于计算能力缺乏的场合,可以在低端嵌入式设备中实现快速定位。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理,并不构成对本申请的不当限定。
图1是根据一示例性实施例示出的一种视觉定位方法的流程图。
图2是根据一示例性实施例示出的相机成像的投影模型的建模图。
图3是根据一示例性实施例示出的图像平面与标签平面的夹角α建模图。
图4是根据一示例性实施例示出的相机视场角建模图。
图5是根据一示例性实施例示出的一种视觉快速定位装置的框图。
具体实施方式
为了使本领域普通人员更好地理解本申请的技术方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在移动载体在GNSS信号缺失的地方运动,常用的北斗或者GPS等技术无法提供准确位置的场景,定位技术包含有源定位技术和无源定位技术,有源定位技术需要在移动载体之外布置传感器或者相关装置,无源定位技术仅仅依靠自身的传感器进行定位。
无源定位技术用的比较多的是激光同时定位与地图构建SLAM(SimultaneousLocalization And Mapping,SLAM)、视觉SLAM、惯性导航以及他们之间的融合等。在无源定位技术中,惯性导航技术如果需要达到比较高的精度,则需要使用高精度的惯性传感器,成本极高,如果使用低成本的MEMS惯性传感器,则随着时间推移,定位的精度会急速下降。而激光SLAM、视觉SLAM以及它们和惯性传感器的融合定位等技术需要高昂的硬件成本和计算成本,且随着移动载体运动距离的增加,定位精度会降低。
有源定位技术用得比较多的是超宽带(Ultra Wideband,UWB)、蓝牙、无线局域网(Wireless Fidelity,WiFi)、射频识别(Radio Frequency Identification,RFID)、超声波、ZigBee、红外、伪卫星、光学捕捉等技术等。有源定位技术中,蓝牙和WiFi成本较低,但定位的精度也比较低,普遍在米级,而UWB虽然能达到厘米级的定位精度,但需要在空间中布置多个基站或标签,且都需要单独供电,其成本也比较高且对本来的环境会产生影响。其他技术如RFID、ZigBee红外等技术,精度也都在米级,超声波定位则只能在小范围内,伪卫星虽然可以较高精度,但成本高且布置困难,光学运动捕捉可以达到很高的精度,但也需要极高的成本。
此外也有在环境中贴上可见的定位标签,通过摄像头拍摄标签,利用机器视觉、图像处理的方法对标签进行解析,以得到相机的位置。利用视觉标签定位时,可以利用PnP或者ICP等方法来进行定位。如果使用PnP或ICP等方法,迭代优化方法,计算量大,在低端嵌入式设备中很难达到实时运行。
为了解决迭代优化方法计算量大不能满足在低端嵌入式设备中很难达到实时运行的问题,本申请实施例提供一种视觉定位方法及装置。
图1是根据一示例性实施例示出的一种视觉定位方法的流程图。需要说明的是,本申请实施例视觉定位方法用于视觉快速定位装置中,例如,该视觉快速定位装置可以移动机器人、无人机以及AGV小车等移动载体。如图1所示,该视觉定位方法包括以下步骤。
S101,通过相机采集标签单元的图像。
其中,本申请实施例中的标签单元上设有至少四个锚点,至少四个锚点构成标签平面。其中,术语“至少四个”可理解为“四个”或“四个以上”,例如,四个、五个等。为了方便描述,本申请仅对标签单元上设有四个锚点,四个锚点构成标签平面为例进行描述,可以理解,本申请以标签单元上设有四个锚点为示例进行描述,仅是方便本领域技术人员对本申请的理解,并不能够作为对本申请的具体限定。
需要说明的是,在本申请一些实施例中,所述标签单元可为一个标签,所述标签上设有四个定位锚点(即上述锚点),四个定位锚点设置在外周的四个角的位置。在本申请其他实施例中,所述标签单元由多个标签组成,多个标签中最外侧的四个点设为四个定位锚点。
作为一种可能实现方式的示例,以一个标签为例,标签上设有四个锚点,四个锚点构成正方形或者长方形。
需要说明的是,本申请实施例的视觉定位方法适用于所述标签平面的垂线与相机所属移动载体的运动平面平行,且标签的方向垂直于运动平面的情形。例如,移动载体为扫地机器人,扫地机器人在地面内运动,而标签贴在与地面垂直的墙壁上,然后扫地机器人的眼睛(相机)看向标签。针对此种情形,利用4自由度场景的特殊性,对相机(移动载体)进行快速定位。
所述标签平面的垂线与相机所属移动载体的运动平面平行,且标签平面的方向垂直于运动平面。对相机成像的投影模型进行建模如图2所示。在获取的图像平面上得到标签中的四个定位锚点(Pw0-Pw3)对应的Pu0-Pu3,Pu0-Pu3的中心为Pu0
为了求解相机的位姿,需要求得所述相机与所述标签平面的距离z、图像平面与标签平面的夹角α,标签中心与相机坐标系z轴方向的水平夹角β,以及标签中心与相机坐标系z轴方向的竖直夹角θ。
S102,获取所述相机与所述标签平面的距离z。
根据图4所示,γ为相机垂直视场角的一半,相机垂直视场角公式(1)如下所示;
上式(1)中,hu为图像的像素高度,fy为相机的第一焦距;
所述相机与所述标签平面的距离z满足如下公式(2);
上式(2)中,hw为视野内实际能看到的高度;
上式(3)中,lw0为两个垂直方向的锚点之间的实际长度,lu0为与lw0对应的锚点之间的像素长度,hu为图像的像素高度,hw为视野内实际能看到的高度;
将公式(1)、(2)、(3)联合,得到如下公式(4):
S103,获取图像平面与所述标签平面的夹角α。
在一种实现方式中,如图3所示,可对所述图像平面与所述标签平面的夹角α建模,参见图2,锚点Pw0和锚点Pw1为距离相机比较近的两个垂直方向的锚点,锚点Pw2和锚点Pw3为距离相机比较远的两个垂直方向的锚点。建模后,参见图3,Pw0E为标签距离相机平面较近的深度,pw3F为标签距离相机平面较远的深度,(深度指目标点到相机平面的垂直距离),Pw0Pw3的长度为锚点Pw0与锚点Pw3之间的长度lw1,对应的标签锚点的像素长度Pu0Pu3为lu1,B,C分别为Pw0Pw3和Pw3D的中点,则得到如下公式(5):
根据锚点Pw0和锚点Pw1之间的实际长度lw2,以及对应的像素长度lu2,根据上述公式(4)可求得Pw0E;根据锚点Pw2和锚点Pw3之间的实际长度lw3,以及对应的像素长度lu3,根据上述公式(4)可求得Pw3F。
得到Pw0E和Pw3F后,进而求得Pw3D;从而根据如下公式(6)得到α;
S104,获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β。
在标签坐标系下,在x方向,标签中心与相机坐标系z轴方向的水平夹角β满足如下公式(7)所示的关系:
其中,Px为标签中心x方向的的像素坐标,wu为图像的像素宽度,fx指的是相机的第二焦距。因为标签中心点的坐标无法直接测量得到,根据射影变换后直线仍然为直线,则两条直线的交点坐标即为标签中心在像素坐标系的投影。因为四个点的像素坐标都可以测量得到,则其交点坐标即标签中心的像素坐标也可以计算得到。
S105,获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;
与步骤S104同理,根据标签中心的像素坐标y方向的坐标Py,可根据如下公式(8)求得其在y方向与标签的偏差角度θ:
S106,根据所示距离Z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置。
相机在世界坐标系中的位置通过如下公式(9)得到:
Pc=(xo+zsinα-zsinβ,yo+z*tanθ,zo+zcosα) (9)
其中(xo,yo,zo)为所示标签中心的世界坐标,当存在多个标签时,为多个标签的平均中心坐标。
本申请实施例的定位方法可以在计算能力缺乏的场合(如只有低端的嵌入式处理器),利用4自由度场景的特殊性,对相机(载体)进行快速定位,相比于现有的PnP或者ICP等方法,不需要优化,可以在低端嵌入式设备中实现快速定位。
图5是根据一示例性实施例示出的一种视觉快速定位装置框图。参照图5,该装置包括采集模块510、第一获取模块520、第二获取模块530、第三获取模块540、第四获取模块550和求解模块560。
具体的,采集模块510,用于采集标签单元的图像,其中,所述标签单元上设有至少四个锚点,至少四个所述锚点构成标签平面;所述标签平面的垂线与所述相机所属移动载体的运动平面平行,且所述标签平面的方向垂直于所述运动平面;
第一获取模块520,用于获取所述相机与所述标签平面的距离z;
第二获取模块530,用于获取图像平面与所述标签平面的夹角α;
第三获取模块540,用于获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β;
第四获取模块550,用于获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;
求解模块560,用于根据距离Z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置。
关于上述实施例中的视觉快速定位装置,其中各个模块执行操作的具体方式已经在有关视觉定位方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例的视觉快速定位装置利用4自由度场景的特殊性,对相机(移动载体)进行快速定位,计算量小,适用于计算能力缺乏的场合,例如,可以在低端嵌入式设备中实现快速定位。
为了实现上述实施例,本申请还提出了一种视觉快速定位装置,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令时,以实现上述实施例所述的视觉定位方法。
为了实现上述实施例,本申请还提出了一种存储介质,当所述存储介质中的指令由处理器执行时,实现上述实施例所述的视觉定位方法。
为了实现上述实施例,本申请还提出了一种计算机程序产品,当计算机程序产品中的指令由处理器执行时,实现上述实施例所述的视觉定位方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (5)

1.一种视觉定位方法,其特征在于,包括:
通过相机采集标签单元的图像,其中,所述标签单元上设有至少四个锚点,至少四个所述锚点构成标签平面;所述标签平面的垂线与所述相机所属移动载体的运动平面平行,且所述标签平面的方向垂直于所述运动平面;
获取所述相机与所述标签平面的距离z;
获取图像平面与所述标签平面的夹角α;
获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β;
获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;
根据所述距离z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置;
所述获取所述相机与所述标签平面的距离z,包括:
通过第一公式获取所述相机与所述标签平面的距离z;其中,所述第一公式表示如下:
其中,fy为相机的第一焦距,lw0为两个垂直方向的锚点之间的实际长度,lu0为与lw0对应的两个锚点之间的像素长度;
所述获取图像平面与所述标签平面的夹角α,包括:
从所述四个锚点之中选择与相机距离小的两个垂直方向的第一锚点和第二锚点,获取所述第一锚点与第二锚点之间的实际长度lw2,以及对应的像素长度lu2,根据所述第一公式得到所述标签平面距离所述相机平面的最小距离z1;
从所述四个锚点之中选择另两个垂直方向的第三锚点和第四锚点,获取所述第三锚点与第四锚点之间的实际长度lw3,以及对应的像素长度lu3,根据所述第一公式得到所述标签平面距离所述相机平面的最大距离z2;根据所述最小距离z1和所述最大距离z2,通过第二公式获取图像平面与所述标签平面的夹角α,所述第二公式表示如下:
其中,lw1为所述第一锚点与所述第三锚点之间的实际长度,或者为所述第二锚点与所述第四锚点之间的实际长度;
所述获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β,包括:
通过第三公式获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β,所述第三公式表示如下:
其中,Px为所述图像的像素中心x方向的坐标,wu为所述图像的宽度,fx为所述相机的第二焦距;
所述获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ,包括:
通过第四公式获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ,所述第四公式表示如下:
其中,Py为所述图像的像素中心y方向的坐标,hu为所述图像的像素高度,fy为所述相机的第一焦距;
所述根据所述距离z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置,包括:
根据所述距离z、夹角α、水平夹角β和竖直夹角θ,通过第五公式求解相机在世界坐标系中的位置Pc;所述第五公式表示如下:
Pc=(xo+zsinα-zsinβ,yo+z*tanθ,zo+zcosα)
其中,(xo,yo,zo)为所述标签中心的世界坐标。
2.根据权利要求1所述的方法,其特征在于,所述标签单元上设有的锚点个数为四个;其中,所述标签单元包括一个标签,所述标签的四个角位置分别设置一个锚点;或者,所述标签单元包括多个标签,所述多个标签中最外侧的四个点处设置四个锚点。
3.一种视觉快速定位装置,其特征在于,包括:
采集模块,用于采集标签单元的图像,其中,所述标签单元上设有至少四个锚点,至少四个所述锚点构成标签平面;所述标签平面的垂线与相机所属移动载体的运动平面平行,且所述标签平面的方向垂直于所述运动平面;
第一获取模块,用于获取所述相机与所述标签平面的距离z;
第二获取模块,用于获取图像平面与所述标签平面的夹角α;
第三获取模块,用于获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β;
第四获取模块,用于获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ;
求解模块,用于根据所述距离z、夹角α、水平夹角β和竖直夹角θ,求解相机在世界坐标系中的位置;
所述第一获取模块,还用于:
通过第一公式获取所述相机与所述标签平面的距离z;其中,所述第一公式表示如下:
其中,fy为相机的第一焦距,lw0为两个垂直方向的锚点之间的实际长度,lu0为与lw0对应的两个锚点之间的像素长度;
所述第二获取模块,还用于:
从所述四个锚点之中选择与相机距离小的两个垂直方向的第一锚点和第二锚点,获取所述第一锚点与第二锚点之间的实际长度lw2,以及对应的像素长度lu2,根据所述第一公式得到所述标签平面距离所述相机平面的最小距离z1;
从所述四个锚点之中选择另两个垂直方向的第三锚点和第四锚点,获取所述第三锚点与第四锚点之间的实际长度lw3,以及对应的像素长度lu3,根据所述第一公式得到所述标签平面距离所述相机平面的最大距离z2;根据所述最小距离z1和所述最大距离z2,通过第二公式获取图像平面与所述标签平面的夹角α,所述第二公式表示如下:
其中,lw1为所述第一锚点与所述第三锚点之间的实际长度,或者为所述第二锚点与所述第四锚点之间的实际长度;
所述第三获取模块,还用于:
通过第三公式获取所述标签平面的标签中心与相机坐标系z轴方向的水平夹角β,所述第三公式表示如下:
其中,Px为所述图像的像素中心x方向的坐标,wu为所述图像的宽度,fx为所述相机的第二焦距;
所述第四获取模块,还用于:
通过第四公式获取所述标签平面的标签中心与相机坐标系z轴方向的竖直夹角θ,所述第四公式表示如下:
其中,Py为所述图像的像素中心y方向的坐标,hu为所述图像的像素高度,fy为所述相机的第一焦距;
所述求解模块,还用于:
根据所述距离z、夹角α、水平夹角β和竖直夹角θ,通过第五公式求解相机在世界坐标系中的位置Pc;所述第五公式表示如下:
Pc=(xo+zsinα-zsinβ,yo+z*tanθ,zo+zcosα)
其中,(xo,yo,zo)为所述标签中心的世界坐标。
4.一种视觉快速定位装置,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至2中任一项所述的视觉定位方法。
5.一种存储介质,当所述存储介质中的指令由视觉快速定位装置的处理器执行时,使得所述视觉快速定位装置能够执行如权利要求1至2中任一项所述的视觉定位方法。
CN202110989000.9A 2021-08-26 2021-08-26 视觉定位方法、装置及存储介质 Active CN113808195B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110989000.9A CN113808195B (zh) 2021-08-26 2021-08-26 视觉定位方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110989000.9A CN113808195B (zh) 2021-08-26 2021-08-26 视觉定位方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113808195A CN113808195A (zh) 2021-12-17
CN113808195B true CN113808195B (zh) 2024-04-12

Family

ID=78941789

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110989000.9A Active CN113808195B (zh) 2021-08-26 2021-08-26 视觉定位方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113808195B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077809A (zh) * 2014-06-24 2014-10-01 上海交通大学 基于结构性线条的视觉slam方法
CN106441268A (zh) * 2016-08-30 2017-02-22 西安小光子网络科技有限公司 一种基于光标签的定位方法
CN107945234A (zh) * 2016-10-12 2018-04-20 杭州海康威视数字技术股份有限公司 一种立体摄像机外部参数的确定方法及装置
CN108648237A (zh) * 2018-03-16 2018-10-12 中国科学院信息工程研究所 一种基于视觉的空间定位方法
CN208282814U (zh) * 2018-05-15 2018-12-25 北京主线科技有限公司 岸桥下无人驾驶集装箱卡车的测距定位装置
CN109191504A (zh) * 2018-08-01 2019-01-11 南京航空航天大学 一种无人机目标跟踪方法
WO2019080229A1 (zh) * 2017-10-25 2019-05-02 南京阿凡达机器人科技有限公司 基于机器视觉的棋子定位方法、系统、存储介质及机器人
JP6573419B1 (ja) * 2018-09-26 2019-09-11 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd 位置決め方法、ロボット及びコンピューター記憶媒体
CN110455189A (zh) * 2019-08-26 2019-11-15 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN110599541A (zh) * 2019-08-28 2019-12-20 贝壳技术有限公司 一种对多传感器进行标定的方法、装置和存储介质
CN110779491A (zh) * 2019-10-08 2020-02-11 苏州浪潮智能科技有限公司 一种水平面上目标测距的方法、装置、设备及存储介质
CN111833379A (zh) * 2020-07-16 2020-10-27 西安电子科技大学 用单目摄像头追踪移动物体中目标位置的方法
CN111862221A (zh) * 2020-07-31 2020-10-30 广东利元亨智能装备股份有限公司 Uvw平台标定方法、设备、纠偏方法、装置及对位系统
CN112116651A (zh) * 2020-08-12 2020-12-22 天津(滨海)人工智能军民融合创新中心 一种基于无人机单目视觉的地面目标定位方法和系统
CN113191388A (zh) * 2021-03-31 2021-07-30 中国船舶重工集团公司第七一九研究所 用于目标检测模型训练的图像采集系统及样本生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179427A (zh) * 2019-12-24 2020-05-19 深圳市优必选科技股份有限公司 自主移动设备及其控制方法、计算机可读存储介质

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077809A (zh) * 2014-06-24 2014-10-01 上海交通大学 基于结构性线条的视觉slam方法
CN106441268A (zh) * 2016-08-30 2017-02-22 西安小光子网络科技有限公司 一种基于光标签的定位方法
CN107945234A (zh) * 2016-10-12 2018-04-20 杭州海康威视数字技术股份有限公司 一种立体摄像机外部参数的确定方法及装置
WO2019080229A1 (zh) * 2017-10-25 2019-05-02 南京阿凡达机器人科技有限公司 基于机器视觉的棋子定位方法、系统、存储介质及机器人
CN108648237A (zh) * 2018-03-16 2018-10-12 中国科学院信息工程研究所 一种基于视觉的空间定位方法
CN208282814U (zh) * 2018-05-15 2018-12-25 北京主线科技有限公司 岸桥下无人驾驶集装箱卡车的测距定位装置
CN109191504A (zh) * 2018-08-01 2019-01-11 南京航空航天大学 一种无人机目标跟踪方法
JP6573419B1 (ja) * 2018-09-26 2019-09-11 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd 位置決め方法、ロボット及びコンピューター記憶媒体
CN110455189A (zh) * 2019-08-26 2019-11-15 广东博智林机器人有限公司 一种大尺寸物料的视觉定位方法和搬运机器人
CN110599541A (zh) * 2019-08-28 2019-12-20 贝壳技术有限公司 一种对多传感器进行标定的方法、装置和存储介质
CN110779491A (zh) * 2019-10-08 2020-02-11 苏州浪潮智能科技有限公司 一种水平面上目标测距的方法、装置、设备及存储介质
CN111833379A (zh) * 2020-07-16 2020-10-27 西安电子科技大学 用单目摄像头追踪移动物体中目标位置的方法
CN111862221A (zh) * 2020-07-31 2020-10-30 广东利元亨智能装备股份有限公司 Uvw平台标定方法、设备、纠偏方法、装置及对位系统
CN112116651A (zh) * 2020-08-12 2020-12-22 天津(滨海)人工智能军民融合创新中心 一种基于无人机单目视觉的地面目标定位方法和系统
CN113191388A (zh) * 2021-03-31 2021-07-30 中国船舶重工集团公司第七一九研究所 用于目标检测模型训练的图像采集系统及样本生成方法

Also Published As

Publication number Publication date
CN113808195A (zh) 2021-12-17

Similar Documents

Publication Publication Date Title
CN108051002B (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN106338245B (zh) 一种工件非接触移动测量方法
WO2021026850A1 (zh) 一种基于二维码的导航定姿定位方法和系统
Scaramuzza et al. Visual odometry [tutorial]
US9134127B2 (en) Determining tilt angle and tilt direction using image processing
Gonzalez et al. Combined visual odometry and visual compass for off-road mobile robots localization
JP4232167B1 (ja) 対象特定装置、対象特定方法および対象特定プログラム
US10451403B2 (en) Structure-based camera pose estimation system
CN108810473B (zh) 一种在移动平台上实现gps映射摄像机画面坐标的方法及系统
CN108733039A (zh) 一种机器人室内导航定位的方法与装置
US9858669B2 (en) Optimized camera pose estimation system
CN107037403B (zh) 基于增强现实的物体相对定位方法
CN106370160A (zh) 一种机器人室内定位系统和方法
CN106352871A (zh) 一种基于天花板人工信标的视觉室内定位系统和方法
JP2017096813A (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
Bazargani et al. Camera calibration and pose estimation from planes
Glas et al. SNAPCAT-3D: Calibrating networks of 3D range sensors for pedestrian tracking
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN108646760B (zh) 基于单目视觉移动机器人目标跟踪及平台控制系统和方法
CN113808195B (zh) 视觉定位方法、装置及存储介质
CN110853098A (zh) 机器人定位方法、装置、设备及存储介质
Van Hamme et al. Robust visual odometry using uncertainty models
CN112734838A (zh) 一种空间目标定位方法、设备及存储介质
Hager et al. Tutorial tt3: A tutorial on visual servo control

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant