CN111210471A - 一种定位方法、装置及系统 - Google Patents
一种定位方法、装置及系统 Download PDFInfo
- Publication number
- CN111210471A CN111210471A CN201811398055.7A CN201811398055A CN111210471A CN 111210471 A CN111210471 A CN 111210471A CN 201811398055 A CN201811398055 A CN 201811398055A CN 111210471 A CN111210471 A CN 111210471A
- Authority
- CN
- China
- Prior art keywords
- detection
- detection target
- camera
- distance
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种定位方法、装置及系统,用于基于深度相机获取VSLAM定位真值。本申请提供的一种定位方法包括:确定多个检测相机与检测目标的距离数据;所述检测目标为实际检测目标的特征物;根据所述多个检测相机与检测目标的所述距离数据,确定所述检测目标的世界坐标。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种定位方法、装置及系统。
背景技术
目标追踪和定位是机器人研究领域中的重要研究内容。机器人在运动过程中,首先需要准确获取周围环境信息以及自身位置,才能顺利进行路径规划和自主导航等任务,这些功能的实现依赖于视觉同步定位和建图(Visual Simultaneous Localization andMapping,VSLAM)技术。
通常,VSLAM算法输出要与真值比较才能了解算法的效果,例如:定位的精度、轨迹、建图的偏移等,而真值的获取是这一过程的关键。然而,目前评判VSLAM算法效果的方式并没有统一的标准。
发明内容
本申请实施例提供了一种定位方法、装置及系统,用以基于深度相机获取VSLAM定位真值,即本申请中检测目标的世界坐标。
本申请实施例提供的一种定位方法,包括:
确定多个检测相机与检测目标的距离数据;所述检测目标为实际检测目标的特征物;
根据所述多个检测相机与检测目标的所述距离数据,确定所述检测目标的世界坐标。
由于无人车的形状复杂并且特征不够明显,直接通过图像识别来检测和追踪无人车难度较大并且效果不佳,因此,本申请通过在无人车上放置特征物(即检测目标)的方式来识别无人车,简化了检测模型,可以通过追踪特征物间接追踪无人车,比基于检测物本身的目标追踪更加简单易行,且不需要额外的传感器。
可选地,通过如下方式确定每一检测相机与检测目标的距离:
确定检测目标在检测相机输出的彩色图像中的像素点坐标;
基于所述像素点坐标,并根据检测相机输出的深度图像确定检测相机与检测目标的距离;所述深度图像通过检测相机中基于机器人操作系统ROS的图像校准开发包图像校准后与所述彩色图像相对应。
本申请采用的检测相机可以为英特尔公司发布的RealsenseD435深度相机,所述深度相机的深度距离精度大概是1%以内,即1m的误差大概在1cm以内,但并不是所有的像素点都有深度值,所有的深度也并非准确,因此可以通过深度相机的post-processing选项来减少深度图像中不准确的像素点,提高深度值的精度,保证计算结果的准确性;由于本申请采用的深度相机的深度视角比彩色视角更大,所以在深度图像与彩色图像分辨率相同的情况下,彩色图像与深度图像中的像素点并非一一对应,因此还需要图像校准,本申请采用的RealsenseD435深度相机具有图像校准功能。
本申请中的检测相机可以输出彩色图像和深度图像,首先通过所述彩色图像对特征物进行识别,例如识别特征物的形状,通过所识别出的形状选择特征物所在区域;然后根据在所述彩色图像对应的深度图像中读取深度图像中的像素点,得到检测相机与特征物之间的距离。
可选地,通过如下方式确定所述检测目标在检测相机输出的彩色图像中的像素点坐标:
将所述彩色图像转换成OpenCV视觉库中的mat图像存储格式;
将所述彩色图像从所述mat图像存储格式转换成机器视觉集成开发环境Halon中的HImage图像存储格式;
通过Halon中的集成算子确定所述检测目标在检测相机输出的彩色图像中的像素点坐标。
可选地,分别确定三台检测相机与检测目标的距离;
根据每台检测相机与检测目标的距离和所述每台检测相机的位置坐标,采用三边定位算法确定所述检测目标的世界坐标。
本申请通过运动捕捉的ROS节点订阅检测相机的彩色图像和深度图像话题,在深度图像中获取检测相机到特征物的距离,计算机根据深度相机获取相机到特征物的距离,并根据三台相机各自的坐标采用三边定位算法计算出特征物的世界坐标,当采用更多相机检测特征物时,可以采用最小二乘优化法对特征物的世界坐标进行优化。
可选地,该方法还包括:
更新所述检测目标的世界坐标。
本申请通过检测相机不断记录特征物位置即采用不断刷新数据帧的方式来更新特征物的位置。
本申请提供了一种定位装置,包括:
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行:
确定多个检测相机与检测目标的距离数据;所述检测目标为实际检测目标的特征物;
根据所述多个检测相机与检测目标的所述距离数据,确定所述检测目标的世界坐标。
可选地,通过如下方式确定每一检测相机与检测目标的距离:
确定检测目标在检测相机输出的彩色图像中的像素点坐标;
基于所述像素点坐标,并根据检测相机输出的深度图像确定检测相机与检测目标的距离;所述深度图像通过检测相机中基于机器人操作系统ROS的图像校准开发包图像校准后与所述彩色图像相对应。
可选地,通过如下方式确定所述检测目标在检测相机输出的彩色图像中的像素点坐标:
将所述彩色图像转换成OpenCV视觉库中的mat图像存储格式;
将所述彩色图像从所述mat图像存储格式转换成机器视觉集成开发环境Halon中的HImage图像存储格式;
通过Halon中的集成算子确定所述检测目标在检测相机输出的彩色图像中的像素点坐标。
可选地,分别确定三台检测相机与检测目标的距离;
根据每台检测相机与检测目标的距离和所述每台检测相机的位置坐标,采用三边定位算法确定所述检测目标的世界坐标。
可选地,当使用三台以上的检测相机进行测量时,该方法还包括:采用最小二乘算法优化所述检测目标的世界坐标。
可选地,该方法还包括:
更新所述检测目标的世界坐标。
相应地,本申请提供了一种定位系统,该系统包括上述定位装置。
可选地,该系统还包括:多个用来检测与检测目标的距离并发送给所述定位装置的检测相机。
本申请另一实施例提供了一种计算机存储介质,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使所述计算机执行上述任一种方法。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅是本申请的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的检测目标世界坐标计算的流程示意图;
图2为本申请实施例提供的一种定位方法的流程示意图;
图3为本申请实施例提供的一种定位装置的结构示意图;
图4为本申请实施例提供的一种定位系统的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,并不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种定位方法、装置及系统,用于基于深度相机获取VSLAM定位真值。
其中,方法、装置和系统是基于同一申请构思的,由于方法和系统解决问题的原理相似,因此系统和方法的实施可以相互参见,重复之处不再赘述。
本申请实施例涉及的装置可以是终端设备,可以是指向用户提供语音和/或数据连通性的设备,具有无线连接功能的手持式设备、或连接到无线调制解调器的其他处理设备。在不同的系统中,终端设备的名称可能也不相同,例如在5G系统中,终端设备可以称为用户设备(user equipment,UE)。无线终端设备可以经RAN与一个或多个核心网进行通信,无线终端设备可以是移动终端设备,如移动电话(或称为“蜂窝”电话)和具有移动终端设备的计算机,例如,可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语言和/或数据。例如,个人通信业务(personal communicationservice,PCS)电话、无绳电话、会话发起协议(session initiated protocol,SIP)话机、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digitalassistant,PDA)等设备。无线终端设备也可以称为系统、订户单元(subscriber unit)、订户站(subscriber station),移动站(mobile station)、移动台(mobile)、远程站(remotestation)、接入点(access point)、远程终端设备(remote terminal)、接入终端设备(access terminal)、用户终端设备(user terminal)、用户代理(user agent)、用户装置(user device),本申请实施例中并不限定。
下面结合说明书附图对本申请各个实施例进行详细描述。需要说明的是,本申请实施例的展示顺序仅代表实施例的先后顺序,并不代表实施例所提供的技术方案的优劣。
VSLAM技术由定位和建图两个部分组成,与此对应,VSLAM的真值也应当分别从定位和建图两方面入手包含定位和建图两部分,而定位又是第一步也是最重要的一步。现存的VSLAM定位的Benchmark方案包括二维码方案,所述Benchmark为无人车运动轨迹的参考标准,所述二维码方案即在地上贴特征二维码,无人车车体前部有摄像头实时检测这些二维码,通过算法处理为VSLAM提供真值;还包括激光扫描方案,即先在无人车上安装激光扫描装置,提前在场地中扫描来收集场地的精准地图信息,将此信息作为VSLAM的真值等,但是以上方案都存在很多不足之处,比如二维码方案要在场地中繁琐得铺设二维码,可移植性很低,激光扫描方案价格高昂。
目前,有诸多关于目标检测和运动捕捉的发明,比如一种面向智能机器人的目标物体追踪系统,能够准确对待跟踪的目标人物进行识别并持续进行跟踪拍摄,节省了人力物力,在影视作品拍摄中或者比赛直播过程中都具有应用价值。但是,将目标检测和追踪用在机器人领域来评判求解和矫正VSLAM算法真值的应用却很少,而这种需求又是切切实实存在的。
因此,本申请提供了一种使用深度相机进行目标追踪和定位的方法及系统,用于基于深度相机获取VSLAM定位真值从而实现VSLAM无人车的追踪定位测试,具体实施流程参见图1,具体实施内容参见以下实施例:
实施例一、本申请提供的定位方法的硬件系统,包括:
三台深度相机和无人车上的特征物(即检测目标,具体可以根据实际需要设置其形状、颜色、材料等特征),本申请实施例中采用的深度相机为Intel生产的RealSense D435系列深度相机,可以获取0.2m-10m的深度距离,精度可达毫米级,所述相机可以通过特征物的深度图像和彩色图像,通过彩色图像对特征物进行识别,通过深度图像进行距离检测;本申请实施例中采用的特征物为无人车上放置的黄色小球。
实施例二、在RealSense每一帧的彩色图中,通过颜色和形状来准确地检测出特征物的位置,包括:
步骤101、首先Motion Capture节点通过订阅RealSense节点的/camera/color/image_raw话题来获取RealSense的原生彩色图信息,即通过机器人操作系统(RobotOperating System,ROS)中的通信方式(比如,节点A发布一个话题,节点B订阅这个话题进行数据传输,这个话题在本申请实施例中为/camera/color/image_raw话题)进行计算机与深度相机的数据传输,本申请实施例中三组话题的同步使用ROS提供的同步机制;
步骤102、再将图像数据其转换(利用ROS的ros_message和opencv之间的转换桥梁cv_bridge)成OpenCV中的mat格式并在窗口中显示出来;
步骤103、然后,将彩色图像从mat格式转换成Halcon中的HImage格式,所述转换通过编码实现,由于Halcon的HImage图像格式和OpenCV中的mat图像格式都是一个个像素构成,将mat格式的彩色图像分解成r、g、b三张图,然后通过Halcon的GenImage3()函数生成HImage图像格式,并使用Halcon中集成好的算子进行小球识别的工作;其中,在使用Halon识别小球的过程中,首先将彩色图从RGB模型转换成HSV模型,主要基于Halcon中的转换接口实现转换,转换后的HSV模型便于分别从色调(H)和饱和度(S)这两个角度过滤小球的可能位置;之后再通过selectshape算子(Halcon中集成好的算子)进行形状的选择,将selectshape算子的输出结果过滤出的离散区域中近圆度(即与圆形的相似度,其范围是0~1,1表示标准圆,0表示直线,相似度越接近1就越接近圆)较低的区域依次剔除,最后只剩下小球所在的区域,即为所求;其输出是一个个满足选择条件的区域(region),例如,当存在3个区域符合条件,那么selectshape将返回三个区域,接下来根据这三个区域筛选出小球的区域;由于小球的近圆度很高,可以通过hv_Circularity属性来进一步筛选出小球区域;
由于小球可能存在被遮挡或者光线问题的影响,最终筛选出来的小球区域可能不是圆形的,因此通过shape_trans算子(Halcon中集成好的算子)来还原小球所在的圆,然后通过area_center算子(Halcon中集成好的算子)来获取该圆的圆心和半径,用圆心表示小球的中心位置;
本申请实施例中Halcon转换接口的代码具体实现如下:
Decompose3(ho_ImageBall,&ho_Red,&ho_Green,&ho_Blue);
TransFromRgb(ho_Red,ho_Green,ho_Blue,&ho_Hue,&ho_Saturation,&ho_Value,"hsv");
步骤104、当采用少于三台相机识别到小球时,退回步骤101,按顺序执行步骤101至步骤103;当采用等于或大于三台相机识别到小球时,继续执行实施例三的步骤。
实施例三、图像校准。
步骤105、从三张深度图像中获取对应像素点的深度值,得到相机与小球的距离:
首先,使用完成小球检测之后得到小球圆心的像素点行列值在深度图像中寻找对应的像素点并获取对应像素点的值,由于深度图中的像素值一般以mm为单位,所以需要将所述对应像素点的值乘以一定放大倍数,得到以米为单位的相机坐标系的Z值(相机坐标系的X,Y,Z轴中的Z轴坐标);但是,默认情况下,由于RealSense相机的深度视角(FOV)比彩色视角更大,即使在深度图与彩色图分辨率相同的情况下,两幅图中的像素点也不是一一对应的,需要进行图像校准来对齐深度图和彩色图;
RealSense深度相机中基于ROS的realsense开发包,创建realsenes节点,发布彩色图话题和深度图话题中,提供图像校准的功能,但是默认情况下,在多个相机节点同时启动的情况下并不发布对齐后的图像话题;因此,计算机通过修改multi_devices.launch这一文件,使多相机的情况下亦发布对齐后的图像话题,然后订阅/camera/align_depth_to_color话题,得到与彩色图对齐之后的深度图像,该图像与彩色图的像素点是一一对应的,可以直接使用小球检测过程中获取的小球像素点来从深度图中取出深度信息,再转换成以米为单位的深度距离便可以很精确地衡量相机到小球的距离。
特征物世界坐标的确定,包括:
步骤106、当三台相机通过实施例二、实施例三同时检测到小球并获取与小球的有效距离时,通过三边定位算法计算出小球在相机坐标系中的坐标;
本申请实施例还实现了使用Ceres库(一种解决优化问题的C++库)提供的非线性最小二乘优化算法来优化三边定位的计算结果,在只有三台深度相机的情况下是没有优化效果的,当有更多的相机加入到该系统中时,最小二乘优化算法的迭代次数增加,优化效果更加明显;
在计算出小车的坐标之后,通过ROS将该坐标值发送给小车的处理系统,然后小车可以通过该坐标结合自身的当前坐标来做出一些位置的调整,以保证路线的正确性。
综上所述,本申请实施例提供了一种定位方法,参见图2,包括:
S201、确定多个检测相机与检测目标的距离数据;所述检测目标为实际检测目标的特征物;
例如实施例二、实施例三,首先获取检测目标在彩色图像中像素点坐标,通过对检测相机的深度图像和彩色图像校准后再获取与所述彩色图像像素点坐标一一对应的深度图像中的深度值,根据所述深度值确定多个检测相机与检测目标的距离数据;所述获取检测相机与检测目标的距离的过程通过计算机结合OpenCV和Hslcon完成,所述过程包含了距离精度和坐标计算的优化;
S202、根据所述多个检测相机与检测目标的所述距离数据,确定所述检测目标的世界坐标;
例如步骤106中的特征物世界坐标的确定。
本申请实施例提供了一种定位装置,参见图3,包括:
处理器300,用于读取存储器320中的程序,执行下列过程:
确定多个检测相机与检测目标的距离数据;所述检测目标为实际检测目标的特征物;
根据收发机310接收的所述多个检测相机与检测目标的所述距离数据,确定所述检测目标的世界坐标。
可选地,处理器300通过如下方式确定每一检测相机与检测目标的距离:
确定检测目标在检测相机输出的彩色图像中的像素点坐标;
基于所述像素点坐标,并根据检测相机输出的深度图像确定检测相机与检测目标的距离;所述深度图像通过检测相机中基于机器人操作系统ROS的图像校准开发包图像校准后与所述彩色图像相对应。
可选地,处理器300通过如下方式确定所述检测目标在检测相机输出的彩色图像中的像素点坐标:
将所述彩色图像转换成OpenCV视觉库中的mat图像存储格式;
将所述彩色图像从所述mat图像存储格式转换成机器视觉集成开发环境Halon中的HImage图像存储格式;
通过Halon中的集成算子确定所述检测目标在检测相机输出的彩色图像中的像素点坐标。
可选地,处理器300分别确定三台检测相机与检测目标的距离;
根据每台检测相机与检测目标的距离和所述每台检测相机的位置坐标,采用三边定位算法确定所述检测目标的世界坐标。
可选地,当使用三台以上的检测相机进行测量时,处理器300还能采用最小二乘算法优化所述检测目标的世界坐标。
可选地,处理器300更新所述检测目标的世界坐标。
收发机310,用于在处理器300的控制下接收和发送数据。
其中,在图3中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器300代表的一个或多个处理器和存储器320代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机310可以是多个元件,即包括发送机和收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器300负责管理总线架构和通常的处理,存储器320可以存储处理器300在执行操作时所使用的数据。
处理器300可以是中央处埋器(CPU)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或复杂可编程逻辑器件(Complex Programmable Logic Device,CPLD)。
相应的,本申请实施例提供了一种定位系统,参见图4,包括:上述定位装置40,还可以包括多个检测相机、检测目标44、实际检测目标45;
检测相机41、检测相机42、检测相机43,用于检测与所述检测目标14的距离;
检测目标44为实际检测目标45的特征物,用于简化实际检测目标45模型。
本申请实施例提供了一种计算设备,该计算设备具体可以为桌面计算机、便携式计算机、智能手机、平板电脑、个人数字助理(Personal Digital Assistant,PDA)等。该计算设备可以包括中央处理器(Center Processing Unit,CPU)、存储器、输入/输出设备等,输入设备可以包括键盘、鼠标、触摸屏等,输出设备可以包括显示设备,如液晶显示器(Liquid Crystal Display,LCD)、阴极射线管(Cathode Ray Tube,CRT)等。
存储器可以包括只读存储器(ROM)和随机存取存储器(RAM),并向处理器提供存储器中存储的程序指令和数据。在本申请实施例中,存储器可以用于存储本申请实施例提供的任一所述方法的程序。
处理器通过调用存储器存储的程序指令,处理器用于按照获得的程序指令执行本申请实施例提供的任一所述方法。
本申请实施例提供了一种计算机存储介质,用于储存为上述本申请实施例提供的装置所用的计算机程序指令,其包含用于执行上述本申请实施例提供的任一方法的程序。
所述计算机存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
本申请实施例提供的方法可以应用于终端设备,也可以应用于网络设备。
其中,终端设备也可称之为用户设备(User Equipment,简称为“UE”)、移动台(Mobile Station,简称为“MS”)、移动终端(Mobile Terminal)等,可选的,该终端可以具备经无线接入网(Radio Access Network,RAN)与一个或多个核心网进行通信的能力,例如,终端可以是移动电话(或称为“蜂窝”电话)、或具有移动性质的计算机等,例如,终端还可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置。
网络设备可以为基站(例如,接入点),指接入网中在空中接口上通过一个或多个扇区与无线终端通信的设备。基站可用于将收到的空中帧与IP分组进行相互转换,作为无线终端与接入网的其余部分之间的路由器,其中接入网的其余部分可包括网际协议(IP)网络。基站还可协调对空中接口的属性管理。例如,基站可以是GSM或CDMA中的基站(BTS,BaseTransceiver Station),也可以是WCDMA中的基站(NodeB),还可以是LTE中的演进型基站(NodeB或eNB或e-NodeB,evolutional Node B),或者也可以是5G系统中的gNB等。本申请实施例中不做限定。
上述方法处理流程可以用软件程序实现,该软件程序可以存储在存储介质中,当存储的软件程序被调用时,执行上述方法步骤。
综上所述,本申请实施例通过深度相机来获取相机到小球的位置,然后通过三台相机到小球的距离以及三台相机各自的坐标采用三边定位的算法来计算出小球的世界坐标,本申请实施例解决的问题还包括距离精度以及坐标计算的优化,通过本申请实施例提供的定位方法可以将目标检测和追踪用于机器人领域来求解VSLAM算法真值。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种定位方法,其特征在于,该方法包括:
确定多个检测相机与检测目标的距离数据;所述检测目标为实际检测目标的特征物;
根据所述多个检测相机与检测目标的所述距离数据,确定所述检测目标的世界坐标。
2.根据权利要求1所述的方法,其特征在于,通过如下方式确定每一检测相机与检测目标的距离:
确定检测目标在检测相机输出的彩色图像中的像素点坐标;基于所述像素点坐标,并根据检测相机输出的深度图像,确定检测相机与检测目标的距离;所述深度图像通过检测相机中基于机器人操作系统ROS的图像校准开发包图像校准后与所述彩色图像相对应。
3.根据权利要求2所述的方法,其特征在于,通过如下方式确定所述检测目标在检测相机输出的彩色图像中的像素点坐标:
将所述彩色图像转换成OpenCV视觉库中的mat图像存储格式;
将所述彩色图像从所述mat图像存储格式转换成机器视觉集成开发环境Halon中的HImage图像存储格式;
通过Halon中的集成算子确定所述检测目标在检测相机输出的彩色图像中的像素点坐标。
4.根据权利要求1所述的方法,其特征在于,分别确定三台检测相机与检测目标的距离;
根据每台检测相机与检测目标的距离和所述每台检测相机的位置坐标,采用三边定位算法确定所述检测目标的世界坐标。
5.根据权利要求1所述的方法,其特征在于,当使用三台以上的检测相机进行测量时,该方法还包括:采用最小二乘算法优化所述检测目标的世界坐标。
6.根据权利要求1所述的方法,其特征在于,该方法还包括:
更新所述检测目标的世界坐标。
7.一种定位装置,其特征在于,包括:
存储器,用于存储程序指令;
处理器,用于调用所述存储器中存储的程序指令,按照获得的程序执行权利要求1至6任意一项所述的方法。
8.一种定位系统,其特征在于,该系统包括权利要求8所述的定位装置。
9.根据权利要求8所述的系统,其特征在于,该系统还包括:多个用来检测与检测目标的距离并发送给所述定位装置的检测相机。
10.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使所述计算机执行权利要求1至5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811398055.7A CN111210471B (zh) | 2018-11-22 | 2018-11-22 | 一种定位方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811398055.7A CN111210471B (zh) | 2018-11-22 | 2018-11-22 | 一种定位方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111210471A true CN111210471A (zh) | 2020-05-29 |
CN111210471B CN111210471B (zh) | 2023-08-25 |
Family
ID=70787993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811398055.7A Active CN111210471B (zh) | 2018-11-22 | 2018-11-22 | 一种定位方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111210471B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111982094A (zh) * | 2020-08-25 | 2020-11-24 | 北京京东乾石科技有限公司 | 导航方法及其装置和系统以及可移动设备 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014211404A (ja) * | 2013-04-22 | 2014-11-13 | 株式会社ノビテック | モーションキャプチャー方法 |
CN106254854A (zh) * | 2016-08-19 | 2016-12-21 | 深圳奥比中光科技有限公司 | 三维图像的获得方法、装置及系统 |
CN106331672A (zh) * | 2016-08-19 | 2017-01-11 | 深圳奥比中光科技有限公司 | 视点图像的获得方法、装置及系统 |
CN106507302A (zh) * | 2016-11-04 | 2017-03-15 | 南开大学 | 一种基于uwb的三维室内定位系统 |
CN106803920A (zh) * | 2017-03-17 | 2017-06-06 | 广州视源电子科技股份有限公司 | 一种图像处理的方法、装置及智能会议终端 |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
JP2017118396A (ja) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 |
CN106920263A (zh) * | 2017-03-10 | 2017-07-04 | 大连理工大学 | 基于Kinect的无畸变集成成像三维显示方法 |
CN107093171A (zh) * | 2016-02-18 | 2017-08-25 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置、系统 |
CN206804856U (zh) * | 2017-05-11 | 2017-12-26 | 深圳爱络凯寻科技有限公司 | 室内超声波三维定位系统 |
CN107636727A (zh) * | 2016-12-30 | 2018-01-26 | 深圳前海达闼云端智能科技有限公司 | 一种目标检测的方法及装置 |
CN108074260A (zh) * | 2017-11-15 | 2018-05-25 | 深圳市诺龙技术股份有限公司 | 一种目标物体对象定位的方法和装置 |
CN108629756A (zh) * | 2018-04-28 | 2018-10-09 | 东北大学 | 一种Kinect v2深度图像无效点修复方法 |
US10127438B1 (en) * | 2017-08-07 | 2018-11-13 | Standard Cognition, Corp | Predicting inventory events using semantic diffing |
-
2018
- 2018-11-22 CN CN201811398055.7A patent/CN111210471B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014211404A (ja) * | 2013-04-22 | 2014-11-13 | 株式会社ノビテック | モーションキャプチャー方法 |
JP2017118396A (ja) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 |
CN107093171A (zh) * | 2016-02-18 | 2017-08-25 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置、系统 |
CN106254854A (zh) * | 2016-08-19 | 2016-12-21 | 深圳奥比中光科技有限公司 | 三维图像的获得方法、装置及系统 |
CN106331672A (zh) * | 2016-08-19 | 2017-01-11 | 深圳奥比中光科技有限公司 | 视点图像的获得方法、装置及系统 |
CN106507302A (zh) * | 2016-11-04 | 2017-03-15 | 南开大学 | 一种基于uwb的三维室内定位系统 |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN107636727A (zh) * | 2016-12-30 | 2018-01-26 | 深圳前海达闼云端智能科技有限公司 | 一种目标检测的方法及装置 |
CN106920263A (zh) * | 2017-03-10 | 2017-07-04 | 大连理工大学 | 基于Kinect的无畸变集成成像三维显示方法 |
CN106803920A (zh) * | 2017-03-17 | 2017-06-06 | 广州视源电子科技股份有限公司 | 一种图像处理的方法、装置及智能会议终端 |
CN206804856U (zh) * | 2017-05-11 | 2017-12-26 | 深圳爱络凯寻科技有限公司 | 室内超声波三维定位系统 |
US10127438B1 (en) * | 2017-08-07 | 2018-11-13 | Standard Cognition, Corp | Predicting inventory events using semantic diffing |
CN108074260A (zh) * | 2017-11-15 | 2018-05-25 | 深圳市诺龙技术股份有限公司 | 一种目标物体对象定位的方法和装置 |
CN108629756A (zh) * | 2018-04-28 | 2018-10-09 | 东北大学 | 一种Kinect v2深度图像无效点修复方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111982094A (zh) * | 2020-08-25 | 2020-11-24 | 北京京东乾石科技有限公司 | 导航方法及其装置和系统以及可移动设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111210471B (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111983635B (zh) | 位姿确定方法及装置、电子设备和存储介质 | |
CN112258567B (zh) | 物体抓取点的视觉定位方法、装置、存储介质及电子设备 | |
US8644859B2 (en) | Apparatus to provide augmented reality service using location-based information and computer-readable medium and method of the same | |
CN109286946B (zh) | 基于无依托定位的移动通信室内无线网络优化方法和系统 | |
CN106470478B (zh) | 一种定位数据处理方法、装置和系统 | |
CN110926475A (zh) | 一种无人机航点生成方法、装置及电子设备 | |
CN111797189B (zh) | 数据源质量评价方法与装置、设备、计算机可读存储介质 | |
CN107193820B (zh) | 位置信息获取方法、装置及设备 | |
CN111354037A (zh) | 一种定位方法及系统 | |
CN107580120B (zh) | 跑步路线记录方法、移动终端及计算机可读存储介质 | |
CN114943777A (zh) | 图像采集设备的外参的标定方法、装置及电子设备 | |
CN114792469A (zh) | 一种感知系统的测试方法、装置及测试设备 | |
CN111210471B (zh) | 一种定位方法、装置及系统 | |
CN113556680A (zh) | 指纹数据的处理方法、介质和移动机器人 | |
KR20220058846A (ko) | 로봇 포지셔닝 방법 및 장치, 기기, 저장 매체 | |
CN110348369B (zh) | 一种视频场景分类方法、装置、移动终端及存储介质 | |
CN108444475A (zh) | 智能终端及其实现室内导航的方法 | |
US20150350943A1 (en) | Obtaining Information for Radio Channel Modeling | |
CN111292288B (zh) | 一种目标检测及定位的方法及装置 | |
CN110348333A (zh) | 物体检测方法、装置、存储介质及电子设备 | |
CN111738906B (zh) | 室内路网生成方法、装置、存储介质及电子设备 | |
CN113015117B (zh) | 一种用户定位方法、装置、电子设备和存储介质 | |
CN114782496A (zh) | 一种对象的跟踪方法、装置、存储介质及电子装置 | |
CN110348374B (zh) | 车辆检测方法、装置、电子设备及存储介质 | |
CN113932793A (zh) | 三维坐标定位方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230614 Address after: 314400 floor 3, building 5, No. 17, Caohejing Road, Haining Economic Development Zone, Haining City, Jiaxing City, Zhejiang Province Applicant after: ZHEJIANG SINEVA INTELLIGENT TECHNOLOGY Co.,Ltd. Address before: Building 10, jingdongbei science and Technology Park, 18 Kechuang 10th Street, Daxing District, Beijing 100176 Applicant before: BEIJING SINEVA TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |