CN109191529A - 一种基于双目技术的室内可见光自定位系统与方法 - Google Patents
一种基于双目技术的室内可见光自定位系统与方法 Download PDFInfo
- Publication number
- CN109191529A CN109191529A CN201810796136.6A CN201810796136A CN109191529A CN 109191529 A CN109191529 A CN 109191529A CN 201810796136 A CN201810796136 A CN 201810796136A CN 109191529 A CN109191529 A CN 109191529A
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate
- image
- binocular
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Abstract
本发明公开了一种基于双目技术的室内可见光自定位系统与方法,用于通过双目技术实现室内设备的自定位并获得倾角。包括相互协同作业的图像分析系统和自定位系统,图像分析系统包括图像采集模块、摄像头自标定模块、图像处理模块和立体匹配模块,自定位系统包括坐标及倾角计算模块,坐标及倾角计算具体实现过程包括:图像采集、获得摄像机内外参数和匹配点坐标、计算左右摄像头的坐标、计算手持设备的倾角四个步骤。本发明实现了室内设备的高精度实时自定位,在成本、通用性、资源利用率等方面具有优势。
Description
技术领域
本发明涉及一种基于双目技术的室内可见光自定位系统与方法,属于图像处理和可见光 定位技术领域。
背景技术
随着各种综合体类建筑(如大型购物中心、大型交通中转站等)的出现,人们活动空间越 来越庞大和复杂,对定位和导航需求日趋强烈,同时精准营销、智能仓储、机器人、疗养护 理等行业也需要利用定位技术获取特定对象的室内位置信息,目前应用最为广泛的室外无线 电定位系统是GPS或北斗全球定位系统,它是通过在移动终端内置卫星的位置信号接收模块, 利用无线电信号实现室外的高精度定位。但在人们活动较为频繁的家庭、办公室、大型商场 等室内环境以及隧道、地下停车场等特殊环境,由于对空间无线电信号的阻挡及屏蔽效应导 致GPS等传统卫星定位系统难以适用,据统计,现代社会人们80%的时间是在室内活动,并 且随着城市化的发展,各类大型建筑物越来越多,因此室内定位需求日益迫切。
现有的针对该种室内定位需求的定位装置或方法有较多公开内容,例如:中国发明专利 “双目非标定空间定位方法”(CN102622767B)是通过背景差分法获取运动目标中心点的位 置数据;通过摄像机成像原理,计算出运动目标在场景中相对于当前分析画面的拍摄光轴的 角度、方向数据,得出运动点与拍摄点的坐标,其不足之处是:使用背景差分法获取运动目 标中心点的位置数据,易受到光线变化、环境变化、背景变化、场景中物体运动的干扰,且 用运动物体相对于拍摄光轴角度、方向数据来计算其坐标,并不能实现对自身的定位;发明 专利“基于FPGA实现的双目视觉定位装置”(CN201310651555)是通过两个相机采集图像 信息,利用两片SDRAM分别对两幅图像进行缓存,最后在LCD上实时显示两幅图像。在 FPGA内部实现两幅图像的并行处理,经过图像滤波、特征提取等数字图像处理方法获得特 定目标图像位置信息后,利用BP神经网络标定方法确定目标物体的笛卡尔空间位置信息, 虽然定位装置利用BP神经网络标定方法实现二维信息到三维信息之间的非线性变换,无需 确定摄像机的内、外参数,同时可降低摄像机镜头各种畸变及外界噪声的影响,但其实现的 仅是对目标物体的定位,并不能对自身进行定位;发明专利“基于logo的双目视觉室内定位 方法”(CN 106228538A)通过建立logo图像采集的视觉地图数据库等五个步骤可实现定位, 但该种方法存在离线阶段需要在室内长走廊中布置较多的Logo图像,并在光线较好时对Logo 进行拍照,因此实施难度大,另一方面:摄像机距logo的距离是3.5m时,定位误差将达到 0.22m,可见其定位误差较大;发明专利“基于双目相机的空间定位方法及装置”(CN107705333A) 只能获得对自身的定位,不能得到其姿态,且该专利未写出详细的定位算法;发明专利“一 种鱼眼双目视觉立体匹配空间定位方法”(CN107909543A)是用鱼眼相机采集图像,并直接 对未经校正的图像进行立体匹配,但由于实现室内定位需要的采集的图像范围不大,因此对 相机的视角要求不高,普通的相机即可满足要求,同样还存在只能对目标物体的定位,而不 是自定位问题;发明专利“一种基于UWB和双目视觉的导航定位方法”(CN108012325A) 通过通过UWB基站及定位标签来确定叉车的位置,所采用的双目技术仅用于确定得到货架 托盘相对叉车的距离信息和姿态信息,用以调整叉车使其正对货架托盘,没有通过固定的LED 和双目技术确定设备的位置;发明专利“一种基于双目视觉的机械臂目标定位抓取方法”(CN 107767423A)是采用双目技术获取目标物体的三维空间坐标及机械臂末端的状态信息,无法 实现对安装有双目相机机械臂的定位,还需要判断目标物体所在象限;发明专利“一种室内 可见光定位系统”(CN107703485A)的核心为通过采集LED的虚拟坐标与其真实坐标值进 行转换,以确定相机位于真实坐标系下的坐标,从而实现相机的真实定位;发明专利“一种 使用相机的室内可见光异步定位方法”(CN105306141A)通过LED异步发送信号,利用智 能终端的相机进行室内可见光定位。
综上所述,现有的室内可见光定位普遍存在如下两方面的问题:
⑴定位效率不高,无法实时更新在室内的定位:现有的可见光系统和算法设计过于复杂, 无法快速地得到设备的定位。
⑵获得信息受限,无法获得设备的姿态:这些室内可见光定位方法只能设备的位置信息, 无法判断设备是否平衡,无法得到设备的状态,获得的信息较单一,对可见光的资源利用率 低。
⑶通用性不强,需要布设多个LED灯:这些基于室内可见光实现的定位方法绝大部分需 要专门的接收模块接收LED发送的号,在具体实施中设备复杂、可拓展性差,商业应用性 不强。
基于此,一种具有节能降耗、健康安全、布设简单、成本低廉、无电磁干扰等突出优点 的室内可见光自定位系统与方法成为必需,它不仅能实现设备的自定位,还能获得设备的实 时姿态,因此在室内无线定位领域具有良好的应用前景。
发明内容
本发明针对背景技术所述问题,设计一种基于双目技术的室内可见光自定位系统与方法, 可实现安装有双目相机的设备在室内、车内等的快速定位,并获得设备的倾角。基于最小均 方算法的定位由于其计算复杂度低,计算速度快,因此可以对设备进行实时定位。本发明所 述基于双目技术的室内可见光定位系统与方法具有成本低、定位精度高、计算规则明确等的 综合优势。
为达到上述目的,本发明采用技术方案:
一种基于双目技术的室内可见光自定位系统,包括相互协同作业的图像分析系统和自定 位系统;所述图像分析系统包括:信标模块、图像采集模块、相机自标定模块、图像处理模 块、立体匹配模块;所述自定位系统包括:坐标及倾角计算模块;其特征在于:
所述信标模块包括三个固定在上方的LED灯,三个LED灯分布在非同一直线上,且各 LED灯在空间参考坐标系的坐标已知,各LED灯分别工作在设定的频率中;
所述图像采集模块包括安装在手持设备上由左右二个相机组成的双目相机,所述双目相 机用于从两个不同角度同时获得同一物体的图像信息;
所述相机自标定模块用于获得双目相机的内外参数,包括:图像中心、焦距f、镜头畸变 和相机图像坐标系的旋转矩阵和平移矩阵;
所述图像处理模块用于降低噪声对图像质量的影响,增加图像对比度以增强边缘特性, 提高后续两幅图像之间立体匹配的精确度;
所述立体匹配模块用于存储从各LED灯的OOK(On-Off Keying)编码到坐标的映射关 系,通过解码图像中各LED灯的编码信息,找到空间内各LED灯在两幅图像中的匹配点,并获得左右两幅图像上匹配点在图像坐标系中的坐标,设定所述坐标分别为(a,b)和(a',b');
所述坐标及倾角计算模块用于对获得的坐标进行处理,得到左右相机在三维空间坐标系 的坐标,并计算手持设备的倾角;
进一步地,所述双目相机为两个内外参数相同的CMOS相机,双目相机在拍照过程中对 图像像素进行逐行扫描,从而识别并提取图像所中包含的信息。
进一步地,所述坐标及倾角计算模块在工作中具体实现过程包括以下步骤:
第1步,图像采集:
在设定空间内固定安装三个坐标不同且已知具体位置的LED灯,分别为LED1、LED2和LED3,各LED灯在空间直角参考坐标系内的坐标分别为L1(m1,n1,q1)、L2(m2,n2,q2)和 L3(m3,n3,q3);以OOK编码I1、I2、I3对LED1、LED2和LED3进行调制,再对一定的载波 频率f0对编码后的LED进行调制,使得LED的发射频率大于1kHz以保证其变化无法被人眼 察觉,并可以有效地保护视力。若CMOS相机的扫描频率为fs,则LED的载波频率f0为fs/n (n为任意正整数),同时将LED的发射频率与坐标之间的映射关系存储到立体匹配模块中。 在待定位设备上安装两个内外参数相同的相机,使其构成一对双目相机。相机在同一时刻从 不同角度拍摄天花板,得到两张图像分别为左图像和右图像;
第2步,获得相机内外参数和匹配点坐标:
双目相机经过自标定模块的自标定,得到双目相机光轴之间的距离d、相机的焦距f,左 右相机的旋转矩阵R、R',左右相机的平移矩阵T、T'等参数。图像处理模块对图像进行处 理,增加图像的对比度以增强边缘特性。立体匹配模块将两幅图像转化成灰度图并对其模糊 化处理,然后使其通过一个单边OTSU滤波器,找到每个LED灯在图像上的对应子区域并从 中解码得到LEDi(i=1,2,3)在左右两幅图像中的匹配点的坐标分别为Pi(ui,vi)、Pi'(ui',vi');
第3步,计算左右相机的坐标:
设定:左右相机在世界坐标系的坐标分别为S=(x,y,z)、S'=(x',y',z'),由抽象出的双 目相机与各LED灯之间的几何关系,列出包含未知左右相机坐标的方程组分别为:
公式(1)和公式(2)中:将方程组分别整理成AX=B和A'X'=B'的矩阵形式,则有:
其中:A、B、A'、B'是由实际参数确定的已知向量,X、X'为需要求解的未知向量;
通过最小均方算法(Least Mean Square,LMS)或最小二乘法(Least SquareMethod,LS) 求解该矩阵方程,进而得到左右相机的坐标;
第4步,计算手持设备的倾角。
进一步地,第3步中,用LMS算法求解左相机坐标的具体步骤包括:
S1,X(n)表示n次迭代后的估计系数X;
S2,设置步长μ,μ的取值范围为0<μ<2/λmax;其中:λmax是A的自相关矩阵的最大 特征值;
S3,设置初始估计系数X(0)为任意值;
S4,判断是否满足误差项e(n)=B-AX(n)是否为0;若是,则所得的即为左相机的横纵坐 标,根据已求得的横纵坐标可以推算出左相机的z轴坐标至此, 左相机坐标的计算完成;若否,则执行下一步;
S5,更新系数X(n+1)=X(n)+μAHe(n)并循环S4,直到满足最小误差条件;所述AH表示矩阵A的共轭转置。
进一步地,第3步中,用LMS算法求解右相机坐标的具体步骤包括:
U1,X'(n)表示n次迭代后的估计系数X';
U2,设置步长μ',μ'的取值范围为0<μ'<2/λ'max。其中,λ'max是A'的自相关矩阵的最大特征值;
U3,设置初始估计系数X'(0)为任意值;
U4,判断是否满足误差项e'(n)=B'-A'X'(n)是否为0;若是,则所得的即为左相机的横纵 坐标,根据已求得的横纵坐标可以推算出右相机的z轴坐标至 此,左相机坐标的计算完成;若否,则执行下一步;
U5,更新系数X'(n+1)=X'(n)+μ'A'H e'(n)并循环U5,直到满足最小误差条件;所述 A'H表示矩阵A'的共轭转置。
进一步地,第3步中,用LS求解左相机坐标的具体步骤包括:
Q1,残差值e=B-AX,残差的平方f(X)表示为:
f(X)=e2=(B-AX)2=(B-AX)T(B-AX);
Q2,对f(X)求导并令其等于零,即
Q3,得到X的解X=(ATA)-1ATB,根据已求得的横纵坐标可以推算出左相机的z轴坐标至此,左相机坐标的计算完成;
进一步地,第3步中,用LS求解右相机坐标的具体步骤包括:
W1,残差值e'=B'-A'X',残差的平方:
f(X')=e'2=(B'-A'X)2=(B'-A'X')T(B'-A'X');
W2,对f(X')求导并令其等于零,即:
W3,得到X的解X'=(A'T A')-1A'T B',根据已求得的横纵坐标可以推算出右相机的z 轴坐标至此,右相机坐标的计算完成;
进一步地,第4步中,计算相机倾角的具体步骤包括:
V1,令n1=[0,a,0],将其转换成世界坐标系的坐标n1,由[n2,1]=[n1,1]*W计算得到,其 中转换矩阵所述R表示左相机坐标系的旋转矩阵;所述T表示左相机的平移矩 阵。
V2,计算设备的倾角
与现有技术相比,本发明所描述的一种基于双目技术的室内可见光自定位系统与方法, 具有以下优点:
(1)定位效率高,算法简单,可以在室内实现快速实时定位,对设备的硬件要求不高;
(2)通过定位得到的双目相机的坐标计算其倾角,获得设备的姿态信息;
(3)利用双目技术实现高精度的定位,LED的布施简单,仅需要三个LED就可实现自定位。
附图说明
图1显示为本发明中的基于双目技术的室内可见光自定位系统与方法的模块图;
图2显示为本发明中的基于双目技术的室内可见光自定位系统与方法的自定位流程图;
图3显示为本发明中的基于双目技术的室内可见光自定位系统与方法的左相机定位算法 流程图;
图4显示为本发明中的基于双目技术的室内可见光自定位系统与方法的右相机定位算法 流程图;
图5显示为本发明实施例中的室内结构示意图,图中LED1、LED2、LED3分别安装在天花板上的不同位置的LED灯,且各LED灯具体坐标点已预先测得,SMC表示安装有双目相 机的设备。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露 的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加 以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精 神下进行各种修饰或改变。
本发明的一种基于双目技术的室内可见光自定位系统与方法的核心技术思想是基于最小 均方算法实现双目相机的自定位和倾角的计算。为使本发明的技术方案更为清晰,下面将结 合附图进一步的对本发明作详细描述。
图1是本发明中一种基于双目技术的室内可见光自定位系统与方法的模块图,其功能为 通过双目相机采集图像信号,经过相机的自标定、图像处理技术和立体匹配得到匹配点坐标, 计算此双目相机在空间直角参考坐标系的坐标并最终得到设备的定位和倾角。具体地,该基 于双目技术的室内可见光自定位系统与方法包括:图像采集模块、自标定模块、图像处理模 块、立体匹配模块、坐标及倾角计算模块等。
图2是本发明中的一种基于双目技术的室内可见光自定位系统与方法中的自定位流程 图,实现装有双目相机的设备的自定位和倾角计算,具体实现过程包括以下步骤:
第1步,图像采集:
在设定空间内固定安装三个坐标不同且已知具体位置的LED灯,分别为LED1、LED2和LED3,各LED灯在空间直角参考坐标系内的坐标分别为L1(m1,n1,q1)、L2(m2,n2,q2)和 L3(m3,n3,q3)。以OOK(On-Off Keying)编码I1、I2、I3对LED1、LED2和LED3进行调制, 再用一定的载波频率f0对调制后的LED进行调制,使得LED的发射频率大于1kHz以保证其 变化无法被人眼察觉,并可以有效地保护视力。若CMOS相机的扫描频率为fs,则LED的 载波频率f0为fs/n(n为任意正整数),同时将LED的OOK编码与坐标之间的映射关系 存储到立体匹配模块中。在待定位设备上安装两个内外参数相同的相机,使其构成一对双目 相机。相机在同一时刻从不同角度拍摄天花板,得到两张图像分别为左图像和右图像;
第2步,获得摄像机内外参数和匹配点坐标:
双目相机经过自标定模块的自标定,得到双目相机光轴之间的距离d、相机的焦距f,左 右相机的旋转矩阵R、R',左右相机的平移矩阵T、T'等参数。图像处理模块对图像进行处 理,增加图像的对比度以增强边缘特性。立体匹配模块将两幅图像转化成灰度图并对其模糊 化处理,然后使其通过一个单边OTSU滤波器,找到每个LED在图像上的对应子区域并从中 解码得到LEDi(i=1,2,3)在左右两幅图像中的匹配点的坐标分别为Pi(ui,vi)、Pi'(ui',vi');
第3步,计算相机的坐标:
假设左右相机在空间直角参考坐标系的坐标分别为S=(x,y,z)、S'=(x',y',z')。由抽象 出的双目相机与LED之间的几何关系列出包含未知左、右相机坐标的方程组分别为:
其中将方程组分别整 理成AX=B和A'X'=B'的矩阵形式,则有
其中,A、B、A'和B'是由实际参数确定的已知向量,X、X'为需要求解的未知向量。并通过最小均方算法(Least Mean Square,LMS)或最小二乘法(Least Square Method,LS)求解矩阵方程,进而得到左右相机的坐标。
第4步,计算设备的倾角。
进一步地,第3步中,用LMS算法求解左相机坐标的具体步骤包括:
S1,X(n)表示n次迭代后的估计系数X;
S2,设置步长μ,μ的取值范围为0<μ<2/λmax。其中,λmax是A的自相关矩阵的最大 特征值;
S3,设置初始估计系数X(0)为任意值;
S4,判断是否满足误差项e(n)=B-AX(n)是否为0;若是,则所得的即为左相机的横纵坐 标,根据已求得的横纵坐标可以推算出左相机的z轴坐标至此, 左相机坐标的计算完成;若否,则执行下一步;
S5,更新系数X(n+1)=X(n)+μAHe(n)并循环S4,直到满足最小误差条件,其中AH表示矩阵A的共轭转置;
进一步地,第3步中,用LMS算法求解右相机坐标的具体步骤包括:
U1,X'(n)表示n次迭代后的估计系数X';
U2,设置步长μ',μ'的取值范围为0<μ'<2/λ'max。其中,λ'max是A'的自相关矩阵的最大特征值;
U3,设置初始估计系数X'(0)为任意值;
U4,判断是否满足误差项e'(n)=B'-A'X'(n)是否为0;若是,则所得的即为左相机的横纵 坐标,根据已求得的横纵坐标可以推算出右相机的z轴坐标至 此,左相机坐标的计算完成;若否,则执行下一步;
U5,更新系数X'(n+1)=X'(n)+μ'A'H e'(n)并循环U5,直到满足最小误差条件。其中 A'H表示矩阵A'的共轭转置;
进一步地,第3步中,用LS求解左相机坐标的具体步骤包括:
Q1,残差值e=B-AX,残差的平方
f(X)=e2=(B-AX)2=(B-AX)T(B-AX);
Q2,对f(X)求导并令其等于零,即
Q3,得到X的解X=(ATA)-1ATB,根据已求得的横纵坐标可以推算出左相机的z轴坐标 至此,左相机坐标的计算完成。
进一步地,第3步中,用LS求解右相机坐标的具体步骤包括:
W1,残差值e'=B'-A'X',残差的平方
f(X')=e'2=(B'-A'X)2=(B'-A'X')T(B'-A'X');
W2,对f(X')求导并令其等于零,即
W3,得到X的解X'=(A'T A')-1A'TB',根据已求得的横纵坐标可以推算出右相机的z轴 坐标至此,右相机坐标的计算完成。
进一步地,第4步中,计算设备倾角的具体步骤包括:
V1,令n1=[0,a,0],将其转换成世界坐标系的坐标n1,由[n2,1]=[n1,1]*W计算得到,其 中转换矩阵R表示左相机坐标系的旋转矩阵,T表示左相机的平移矩阵。
V2,设备的倾角
下面通过具体的实施例对本发明的基于双目技术的室内可见光自定位系统与方法进行说 明。
在本实施例中,将用简化的实验案例来验证本发明的定位计算方法及倾角计算方法。在 设备(SMC)上安装两个同型号的相机,其内外参数相同,并构成一对双目相机。图5是本 发明实施例中的室内结构示意图,选取室内一点作为坐标原点,天花板上安装有三个坐标已 知的LED灯分别为LED1、LED2和LED3,各LED灯在空间直角参考坐标系内的坐标分别为L1(0.21,2.35,2.80)、L2(2.50,3.75,2.80)和L3(1.30,1.50,2.80),分别以OOK(On-OffKeying) 编码0100、1101、1010对LED1、LED2和LED3进行调制。设定CMOS相机的扫描频率fs=3 kHz,再用1.5kHz的载波频率对调制后的LED进行调制。并将LED频率与坐标之间的映射关系存储到立体匹配模块中。相机在同一时刻从不同角度拍摄天花板,得到两张图像分别为 左图像和右图像;
将相机光心连线的中点坐标视为设备的坐标。令设备做无规则运动。定位装置获得设备 在第j秒(j=1,2,3,4,5,6,7,8,9,10)时的定位Dj:D1=(0.1700,0.3621,0.3648),D2=(0.1976,0.2815,0.4265),D3=(0.2013,0.3984,0.3940),D4=(0.2322,0.4551,0.4603),D5=(0.3762,0.4876,0.3724),D6=(0.3072,0.5293,0.5351),D7=(0.4054,0.5632,0.6290), D8=(0.4012,0.5868,0.6423),D9=(0.4646,0.6038,0.7100),D10=(0.4790,0.6353,0.7182),同时 双目相机捕获图像;
第2步,获得摄像机内外参数和匹配点坐标:
双目相机经过自标定模块的自标定,得到双目相机光轴之间的距离d=0.1、相机的焦距 f=0.028,第js的左右相机的旋转矩阵Rj、Rj'和平移矩阵Tj、Tj'等参数,
T1=[0.1680 0.3165 0.3565]T,T1'=[-0.1680 -0.4165 -0.3565]T,
T2=[0.2026 0.2338 0.4233]T,T2'=[-0.2026 -0.3338 -0.4233]T,
T3=[-0.1046 0.5376 0.2805]T,T3'=[-0.1046 -0.6376 0.2805]T,
T4=[0.0904 -0.1373 -0.6555]T,T4'=[0.0904 0.2373 -0.6555]T,
T5=[0.5690 0.3063 0.2592]T,T5'=[0.5690 -0.4063 0.2592]T,
T6=[0.2047 0.3134 0.6977]T,T6'=[0.2047 -0.4134 0.6977]T,
T7=[-0.1786 0.8109 0.3226]T,T7'=[-0.1786 -0.9109 0.3226]T,
T8=[-0.1933 0.2484 0.8897]T,T8'=[-0.1933 -0.3484 0.8897]T,
T9=[0.4117 0.9012 0.1016]T,T9'=[0.4117 -1.0012 0.1016]T,
T10=[-0.1403 0.5318 0.8892]T,T10'=[-0.1403 -0.6318 0.8892]T,
图像处理模块对图像进行处理,增加图像的对比度以增强边缘特性。立体匹配模块将两 幅图像转化成灰度图并对其模糊化处理,然后使其通过一个单边的OTSU滤波器,找到每个 LED在图像上的对应子区域并从中解码得到LEDi(i=1,2,3)在左右两幅图像中的匹配点的坐标 分别为Pi(ui,vi)、Pi'(ui',vi');将第j秒(j=1,2,3,4,5,6,7,8,9,10)时LEDi在左右图像上的 匹配点坐标分别记作Pi,i(ui,vi)、Pi,i'(ui',vi');
P1,1=(0.0003,0.0251),P1,1'=(0.0003,-0.0239),
P2,1=(0.0125,0.0142),P2,1'=(0.0125,-0.0130),
P3,1=(0.0275,0.0401),P3,1'=(0.0275,-0.0389),
P1,2=(-0.0008,0.0266),P1,2'=(0.0009,-0.0254),
P2,2=(0.0125,0.0150),P2,2'=(0.0130,-0.0138),
P3,2=(0.0293,0.0410),P3,2'=(0.0293,-0.0398),
P1,3=(-0.0831,0.1891),P1,3'=(-0.0831,-0.1824),
P2,3=(-0.0188,0.0368),P2,3'=(-0.0188,-0.0351),
P3,3=(0.0038,0.0546),P3,3'=(0.0038,-0.0533),
P1,4=(-0.0128,0.0184),P1,4'=(-0.0831,-0.0172),
P2,4=(-0.0117,0.0021),P2,4'=(-0.0117,-0.0010),
P3,4=(0.0023,0.0057),P3,4'=(0.0023,-0.0057),
P1,5=(0.0235,0.0745),P1,5'=(-0.0831,-0.0719),
P2,5=(0.0169,-0.0256),P2,5'=(-0.0117,-0.0010),
P3,5=(0.0654,0.0480),P3,5'=(0.0654,-0.0462),
P1,6=(-0.0028,0.0276),P1,6'=(-0.0028,-0.0263),
P2,6=(-0.0008,0.0084),P2,6'=(-0.0008,-0.0073),
P3,6=(0.0152,0.0142),P3,6'=(0.0152,-0.0135),
P1,7=(0.1579,-0.3009),P1,7'=(-0.0028,-0.0263),
P2,7=(-0.0310,0.05447),P2,7'=(-0.0310,-0.0518),
P3,7=(0.0019,0.0945),P3,7'=(0.0019,-0.0923),
P1,8=(-0.0205,0.02790),P1,8'=(-0.0205,-0.0263),
P2,8=(-0.0153,0.0058),P2,8'=(-0.0153,-0.0045),
P3,8=(0.0004,0.0109),P3,8'=(0.0004,-0.0102),
P1,9=(-0.1656,1.1663),P1,9'=([-0.1656,-1.1239),
P2,9=(0.0199,0.0726),P2,9'=(0.0199,-0.0694),
P3,9=(-0.0931,-0.1781),P3,9'=(-0.0931,0.1734),
P1,10=(-0.0278,0.0526),P1,10'=([-0.1656,-0.0502),
P2,10=(-0.0149,0.0153),P2,10'=(-0.0149,-0.0138),
P3,10=(0.0029,0.0224),P3,10'=(0.0029,-0.0215),
第3步,计算相机的坐标:
假设第j秒(j=1,2,3,4,5,6,7,8,9,10)时左右相机的坐标分别为SLj=(xlj,ylj,zlj)、 SRj=(xrj,yrj,zrj)。由抽象出的双目相机与LED之间的几何关系并通过最小均方算法(Least Mean Square,LMS)求解左右相机的坐标。由抽象出的双目相机与LED之间的几何关系列出第j 秒(j=1,2,3,4,5,6,7,8,9,10)时包含未知左相机坐标的方程组分别为:
K1,1=3.1759,K2,1=2.9364,K3,1=4.8119
K1,2=3.1827,K2,2=2.9084,K3,2=4.8277
K1,3=3.0866,K2,3=2.8350,K3,3=4.7053
K1,4=3.0362,K2,4=2.7790,K3,4=4.6436
K1,5=3.1091,K2,5=2.8183,K3,5=4.6155
K1,6=2.9424,K2,6=2.6706,K3,6=4.5270
K1,7=-2.8626,K2,7=2.5676,K3,7=4.4361
K1,8=2.8241,K2,8=2.5179,K3,8=4.3844
K1,9=2.7848,K2,9=2.4677,K3,9=-4.3345
K1,10=2.7503,K2,10=2.4204,K3,10=4.2877
列出第j秒(j=1,2,3,4,5,6,7,8,9,10)时包含未知右相机坐标的方程组分别为:
K1,1'=3.1111,K2,1'=2.8958,K3,1'=4.7435
K1,2'=3.1146,K2,2'=2.8661,K3,2'=4.7571
K1,3'=3.1101,K2,3'=2.8958,K3,3'=4.7409
K1,4=2.9861,K2,4'=2.7739,K3,4'=4.6248
K1,5'=3.0196,K2,5'=2.7578,K3,5'=4.5603
K1,6'=2.8733,K2,6'=2.6436,K3,6'=4.487
K1,7'=-2.7747,K2,7'=2.4890,K3,7'=4.3404
K1,8'=2.7625,K2,8'=2.5020,K3,8'=4.3491
K1,9'=2.6859,K2,9'=2.3777,K3,9'=-4.2469
K1,10'=2.6709,K2,10'=2.3787,K3,10'=4.2262
将第j秒时左、右方程组分别整理成AjXj=Bj和Aj'Xj'=Bj'的矩阵形式,则有
其中,Aj、Aj'、Bj、Bj'是由实际参数确定的已知向量,Xj、Xj'为需要求解的未 知向量。
进一步地,第3步中,用LMS算法求解左相机坐标的具体步骤包括:
S1,Xj(n)表示n次迭代后的估计系数Xj;
S2,设置步长μj=0.1;
S3,设置初始估计系数Xj(j=1,2,3,4,5,6,7,8,9,10)为[0 1]T;
S4,判断是否满足误差项ej(n)=Bj-AjXj(n)是否为0;若是,则所得的即为左相机的横纵 坐标,根据已求得的横纵坐标可以推算出左相机的z轴坐标若否,则执行下一步;
S5,更新系数Xj(n+1)=Xj(n)+μAj Hej(n)并循环S4,直到满足最小误差条件;
至此,左相机坐标的计算完成:
S1=(0.1725,0.3171,0.3603),S2=(0.2010,0.2316,0.4247),
S3=(0.2335,0.3800,0.4239),S4=(0.2676,0.4200,0.4568),
S5=(0.4000,0.4561,0.3417),S6=(0.3359,0.4900,0.5235),
S7=(0.3941,0.5200,0.6065),S8=(0.4300,0.5431,0.6383),
S9=(0.4624,0.5700,0.6732),S10=(0.4965,0.5900,0.7061)。
进一步地,第3步中,用LMS算法求解右相机坐标的具体步骤包括:
U1,Xj'(n)表示n次迭代后的估计系数Xj';
U2,设置步长μj'=0.1(j=1,2,3,4,5,6,7,8,9,10);
U3,设置初始估计系数Xj'(0)=[0 1]T,(j=1,2,3,4,5,6,7,8,9,10);
U4,判断是否满足误差项ej'(n)=Bj'-Aj'Xj'(n),(j=1,2,3,4,5,6,7,8,9,10)是否为0; 若是,则所得的即为左相机的横纵坐标,根据已经求得的横纵坐标可以推算出右相机的z轴 坐标若否,则执行下一步;
U5,更新系Xj'(n+1)=Xj'(n)+μj'Aj'Hej'(n)数并循环U4,直到满足最小误差条件;
至此,右相机坐标的计算完成:
S1′=(0.1683,0.4120,0.3666),S2′=(0.1942,0.3313,0.4282),
S3′=(0.1691,0.4169,0.3641),S4′=(0.1967,0.4902,0.4638),
S5′=(0.3524,0.5191,0.4030),S6′=(0.2785,0.56860.5466),
S7′=(0.4166,0.6064,0.6514),S8′=(0.3724,0.6275,0.6464),
S9′=(0.4669,0.6376,0.7468),S10′=(0.4616,0.6805,0.303)。
由第j秒时左相机的坐标Sj和右相机的坐标Sj'得到设备的坐标hj:
h1=(0.1700,0.3621,0.3648),h2=(0.1976,0.2815,0.4265),h3=(0.2013,0.3984,0.3940), h4=(0.2322,0.4551,0.4603),h5=(0.3762,0.4876,0.3724),h6=(0.3072,0.5293,0.5351), h7=(0.4054,0.5632,0.6290),h8=(0.4012,0.5868,0.6423),h9=(0.4646,0.6038,0.7100), h10=(0.4790,0.6353,0.7182)。
进一步地,第3步中,用LS求解左相机坐标的具体步骤包括:
Q1,残差值e=B-AX,残差的平方
f(X)=e2=(B-AX)2=(B-AX)T(B-AX);
Q2,对f(X)求导并令其等于零,即
Q3,得到X的解X=(ATA)-1ATB,根据已求得的横纵坐标可以推算出左相机的z轴坐标 至此,左相机坐标的计算完成:
S1=(0.1725,0.3171,0.3603),S2=(0.2010,0.2316,0.4247),
S3=(0.2335,0.3800,0.4239),S4=(0.2676,0.4200,0.4568),
S5=(0.4000,0.4561,0.3417),S6=(0.3359,0.4900,0.5235),
S7=(0.3941,0.5200,0.6065),S8=(0.4300,0.5431,0.6383),
S9=(0.4624,0.5700,0.6732),S10=(0.4965,0.5900,0.7061)。
进一步地,第3步中,用LS求解右相机坐标的具体步骤包括:
W1,残差值e'=B'-A'X',残差的平方
f(X')=e'2=(B'-A'X)2=(B'-A'X')T(B'-A'X');
W2,对f(X')求导并令其等于零,即
W3,得到X的解X'=(A'T A')-1A'TB',根据已求得的横纵坐标可以推算出右相机的z轴 坐标至此,右相机坐标的计算完成:
S1′=(0.1683,0.4120,0.3666),S2′=(0.1942,0.3313,0.4282),
S3′=(0.1691,0.4169,0.3641),S4′=(0.1967,0.4902,0.4638),
S5′=(0.3524,0.5191,0.4030),S6′=(0.2785,0.56860.5466),
S7′=(0.4166,0.6064,0.6514),S8′=(0.3724,0.6275,0.6464),
S9′=(0.4669,0.6376,0.7468),S10′=(0.4616,0.6805,0.303)。
此时得到设备的坐标hj':
h1'=(0.1700,0.3621,0.3648),h2'=(0.1976,0.2815,0.4265),h3'=(0.2013,0.3984,0.3940), h4'=(0.2322,0.4551,0.4603),h5'=(0.3762,0.4876,0.3724),h6'=(0.3072,0.5293,0.5351), h7'=(0.4054,0.5632,0.6290),h8'=(0.4012,0.5868,0.6423),h9'=(0.4646,0.6038,0.7100), h10'=(0.4790,0.6353,0.7182)。
进一步地,第4步中,计算设备倾角的具体步骤包括:
V1,令t1=[0,1,0],将其分别转换成js时在世界坐标系的坐标gj,由[gj,1]=[t1,1]*Wj计 算得到,其中转换矩阵
V2,计算设备在第j秒的倾角从而得到θ1=2.7783°,θ2=4.4085°, θ3=25.8477°,θ4=45.3953°,θ5=50.9556°,θ6=38.1990°,θ7=30.1831°,θ8=35.5312°, θ9=47.4994°,θ10=25.1547°。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的, 不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下 在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权 利要求及其等同限定。
Claims (7)
1.一种基于双目技术的室内可见光自定位系统,包括相互协同作业的图像分析系统和自定位系统;所述图像分析系统包括:信标模块、图像采集模块、相机自标定模块、图像处理模块、立体匹配模块;所述自定位系统包括:坐标及倾角计算模块;其特征在于:
所述信标模块包括三个固定在上方的LED灯,三个LED灯分布在非同一直线上,且各LED灯在空间参考坐标系的坐标已知,各LED灯分别工作在设定的频率中;
所述图像采集模块包括:安装在手持设备上由左右二个相机组成的双目相机,所述双目相机用于从两个不同角度同时获得同一物体的图像信息;
所述相机自标定模块用于获得双目相机的内外参数,包括:图像中心、焦距f、镜头畸变和相机图像坐标系的旋转矩阵和平移矩阵;
所述图像处理模块用于降低噪声对图像质量的影响,增加图像对比度以增强边缘特性,提高后续两幅图像之间立体匹配的精确度;
所述立体匹配模块用于存储从各LED灯的OOK(On-Off Keying)编码到坐标的映射关系,通过解码图像中各LED灯的编码信息,找到空间内各LED灯在两幅图像中的匹配点,并获得左右两幅图像上匹配点在图像坐标系中的坐标,设定所述坐标分别为(a,b)和(a',b');
所述坐标及倾角计算模块用于对获得的坐标进行处理,得到左右相机在三维空间坐标系的坐标,并计算手持设备的倾角;
所述双目相机为两个内外参数相同的CMOS相机,双目相机在拍照过程中对图像像素进行逐行扫描,从而识别并提取图像所中包含的信息。
2.一种基于双目技术的室内可见光自定位系统的定位方法,其特征在于:所述坐标及倾角计算模块在工作中具体实现过程包括以下步骤:
第1步,图像采集:
在设定空间内固定安装三个坐标不同且已知具体位置的LED灯,分别为LED1、LED2和LED3,各LED灯在空间直角参考坐标系内的坐标分别为L1(m1,n1,q1)、L2(m2,n2,q2)和L3(m3,n3,q3);以OOK编码I1、I2、I3对LED1、LED2和LED3进行调制,再用一定的载波频率f0对编码后的每个LED灯进行调制,使得每个LED灯的发射频率大于1kHz以保证其变化无法被人眼察觉,并可以有效地保护视力;若CMOS相机的扫描频率为fs,则每个LED灯的载波频率f0为fs/n(n为任意正整数),同时将每个LED灯的OOK编码与坐标之间的映射关系存储到立体匹配模块中;在待定位设备上安装两个内外参数相同的相机,使其构成一对双目相机;相机在同一时刻从不同角度拍摄天花板,得到两张图像分别为左图像和右图像;
第2步,获得相机内外参数和匹配点坐标:
双目相机经过自标定模块的自标定,得到双目相机光轴之间的距离d、相机的焦距f,左右相机的旋转矩阵R、R',左右相机的平移矩阵T、T'等参数;图像处理模块对图像进行处理,增加图像的对比度以增强边缘特性;立体匹配模块将两幅图像转化成灰度图并对其模糊化处理,然后使其通过一个单边OTSU滤波器,找到每个LED灯在图像上的对应子区域并从中解码得到LEDi(i=1,2,3)在左右两幅图像中的匹配点的坐标分别为Pi(ui,vi)、Pi'(ui',vi');
第3步,计算摄像头的坐标:
设定:左右相机在世界坐标系的坐标分别为S=(x,y,z)、S'=(x',y',z'),由抽象出的双目相机与每个LED灯之间的几何关系,列出包含未知左右相机坐标的方程组分别为:
其中:将方程组分别整理成AX=B和A'X'=B'的矩阵形式,则有:
其中:A、B、A'、B'是由实际参数确定的已知向量,X、X'为需要求解的未知向量,并通过最小均方算法(Least Mean Square,LMS)或最小二乘法(Least Square Method,LS)求解该矩阵方程,进而得到左右摄像头的坐标;
第4步,计算设备的倾角。
3.如权利要求2所述一种基于双目技术的室内可见光自定位系统的定位方法,其特征在于:第3步中,用LMS算法求解左相机坐标的具体步骤包括:
S1,X(n)表示n次迭代后的估计系数X;
S2,设置步长μ,μ的取值范围为0<μ<2/λmax;其中:λmax是A的自相关矩阵的最大特征值;
S3,设置初始估计系数X(0)为任意值;
S4,判断是否满足误差项e(n)=B-AX(n)是否为0;若是,则所得的即为左相机的横纵坐标,根据已求得的横纵坐标可以推算出左相机的z轴坐标至此,左相机坐标的计算完成;若否,则执行下一步;
S5,更新系数X(n+1)=X(n)+μAHe(n)并循环S4,直到满足最小误差条件;所述AH表示矩阵A的共轭转置。
4.如权利要求2所述的一种基于双目技术的室内可见光自定位系统的定位方法,其特征在于:第3步中,用LMS算法求解右相机坐标的具体步骤包括:
U1,X'(n)表示n次迭代后的估计系数X';
U2,设置步长μ',μ'的取值范围为0<μ'<2/λ'max,其中,λ'max是A'的自相关矩阵的最大特征值;
U3,设置初始估计系数X'(0)为任意值;
U4,判断是否满足误差项e'(n)=B'-A'X'(n)是否为0;若是,则所得的即为左相机的横纵坐标,根据已求得的横纵坐标可以推算出右相机的z轴坐标至此,左相机坐标的计算完成;若否,则执行下一步;
U5,更新系数X'(n+1)=X'(n)+μ'A'He'(n)并循环U5,直到满足最小误差条件;所述A'H表示矩阵A'的共轭转置。
5.如权利要求2所述的一种基于双目技术的室内可见光自定位系统的定位方法,其特征在于:第3步中,用LS算法求解左相机坐标的具体步骤包括:
Q1,残差值e=B-AX,残差的平方f(X)表示为:
f(X)=e2=(B-AX)2=(B-AX)T(B-AX);
Q2,对f(X)求导并令其等于零,即:
Q3,得到X的解X=(ATA)-1ATB,根据已求得的横纵坐标可以推算出左相机的z轴坐标至此,左相机坐标的计算完成。
6.如权利要求2所述的一种基于双目技术的室内可见光自定位系统的定位方法,其特征在于:第3步中,用LS算法求解右相机坐标的具体步骤包括:
W1,残差值e'=B'-A'X',残差的平方:
f(X')=e'2=(B'-A'X)2=(B'-A'X')T(B'-A'X');
W2,对f(X')求导并令其等于零,即:
W3,得到X的解X'=(A'TA')-1A'TB',根据已求得的横纵坐标可以推算出右相机的z轴坐标至此,右相机坐标的计算完成。
7.如权利要求2所述的一种基于双目技术的室内可见光自定位系统的定位方法,其特征在于:第4步中,计算摄像头倾角的具体步骤包括:
V1,令n1=[0,a,0],将其转换成世界坐标系的坐标n1,由[n2,1]=[n1,1]*W计算得到,其中转换矩阵
V2,设备的倾角
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796136.6A CN109191529A (zh) | 2018-07-19 | 2018-07-19 | 一种基于双目技术的室内可见光自定位系统与方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796136.6A CN109191529A (zh) | 2018-07-19 | 2018-07-19 | 一种基于双目技术的室内可见光自定位系统与方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109191529A true CN109191529A (zh) | 2019-01-11 |
Family
ID=64936301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810796136.6A Pending CN109191529A (zh) | 2018-07-19 | 2018-07-19 | 一种基于双目技术的室内可见光自定位系统与方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109191529A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109990756A (zh) * | 2019-04-11 | 2019-07-09 | 武汉纺织大学 | 一种双目测距方法及系统 |
CN113984081A (zh) * | 2020-10-16 | 2022-01-28 | 北京猎户星空科技有限公司 | 定位方法、装置、自移动设备和存储介质 |
CN113984081B (zh) * | 2020-10-16 | 2024-05-03 | 北京猎户星空科技有限公司 | 定位方法、装置、自移动设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217439A (zh) * | 2014-09-26 | 2014-12-17 | 南京工程学院 | 一种室内视觉定位系统及方法 |
CN105261029A (zh) * | 2015-11-20 | 2016-01-20 | 中国安全生产科学研究院 | 基于双目视觉进行火源定位和灭火的方法及其机器人 |
CN106228538A (zh) * | 2016-07-12 | 2016-12-14 | 哈尔滨工业大学 | 基于logo的双目视觉室内定位方法 |
CN206074001U (zh) * | 2016-09-21 | 2017-04-05 | 旗瀚科技有限公司 | 一种基于3d摄像机的机器人室内定位系统 |
CN107703485A (zh) * | 2017-09-16 | 2018-02-16 | 罗智荣 | 一种室内可见光定位系统 |
-
2018
- 2018-07-19 CN CN201810796136.6A patent/CN109191529A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217439A (zh) * | 2014-09-26 | 2014-12-17 | 南京工程学院 | 一种室内视觉定位系统及方法 |
CN105261029A (zh) * | 2015-11-20 | 2016-01-20 | 中国安全生产科学研究院 | 基于双目视觉进行火源定位和灭火的方法及其机器人 |
CN106228538A (zh) * | 2016-07-12 | 2016-12-14 | 哈尔滨工业大学 | 基于logo的双目视觉室内定位方法 |
CN206074001U (zh) * | 2016-09-21 | 2017-04-05 | 旗瀚科技有限公司 | 一种基于3d摄像机的机器人室内定位系统 |
CN107703485A (zh) * | 2017-09-16 | 2018-02-16 | 罗智荣 | 一种室内可见光定位系统 |
Non-Patent Citations (2)
Title |
---|
MYOUNG-GEUN MOON等: "Indoor Positioning System using LED Lights and a Dual Image Sensor", 《HTTPS://WWW.OSAPUBLISHING.ORG/JOSK/ABSTRACT.CFM?URI=JOSK-19-6-586》 * |
基于成像通信的高精度可见光室内定位方法: "管扬 等", 《中国激光》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109990756A (zh) * | 2019-04-11 | 2019-07-09 | 武汉纺织大学 | 一种双目测距方法及系统 |
CN109990756B (zh) * | 2019-04-11 | 2021-07-27 | 武汉纺织大学 | 一种双目测距方法及系统 |
CN113984081A (zh) * | 2020-10-16 | 2022-01-28 | 北京猎户星空科技有限公司 | 定位方法、装置、自移动设备和存储介质 |
CN113984081B (zh) * | 2020-10-16 | 2024-05-03 | 北京猎户星空科技有限公司 | 定位方法、装置、自移动设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110582798B (zh) | 用于虚拟增强视觉同时定位和地图构建的系统和方法 | |
US20190147647A1 (en) | System and method for determining geo-location(s) in images | |
CN106228538B (zh) | 基于logo的双目视觉室内定位方法 | |
CN109919911B (zh) | 基于多视角光度立体的移动三维重建方法 | |
CN107103056B (zh) | 一种基于局部标识的双目视觉室内定位数据库建立方法及定位方法 | |
CN112118438B (zh) | 摄像系统、移动终端以及三维图像获取方法 | |
CN112381919A (zh) | 信息处理方法、定位方法及装置、电子设备和存储介质 | |
CN106291517A (zh) | 基于位置与视觉信息优化的室内云机器人角度定位方法 | |
CN110443898A (zh) | 一种基于深度学习的ar智能终端目标识别系统及方法 | |
CN111028358B (zh) | 室内环境的增强现实显示方法、装置及终端设备 | |
CN109540144A (zh) | 一种室内定位方法及装置 | |
KR20110080098A (ko) | 위치 기반 정보를 이용한 증강 현실 서비스 장치 및 그 방법 | |
CN107219517A (zh) | 基于led可见光通信的手机安卓相机定位系统及其方法 | |
CN110262507A (zh) | 一种基于5g通信的相机阵列机器人定位方法及装置 | |
CN106127115B (zh) | 一种基于全景和常规视觉的混合视觉目标定位方法 | |
CN110363838A (zh) | 基于多球面相机模型的大视野图像三维重构优化方法 | |
CN108332748A (zh) | 一种室内可见光定位方法及装置 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
CN106370160A (zh) | 一种机器人室内定位系统和方法 | |
CN110060304A (zh) | 一种生物体三维信息采集方法 | |
CN108323238A (zh) | 多目摄像系统、终端设备及机器人 | |
Feng et al. | Visual map construction using RGB-D sensors for image-based localization in indoor environments | |
CN109785373A (zh) | 一种基于散斑的六自由度位姿估计系统及方法 | |
CN110443850A (zh) | 目标对象的定位方法及装置、存储介质、电子装置 | |
CN110059511A (zh) | 一种扫码系统及扫码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190111 |