CN109506624B - 一种基于移动机器人的分布式视觉定位系统及方法 - Google Patents

一种基于移动机器人的分布式视觉定位系统及方法 Download PDF

Info

Publication number
CN109506624B
CN109506624B CN201811285456.1A CN201811285456A CN109506624B CN 109506624 B CN109506624 B CN 109506624B CN 201811285456 A CN201811285456 A CN 201811285456A CN 109506624 B CN109506624 B CN 109506624B
Authority
CN
China
Prior art keywords
module
mobile robot
camera
data
curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811285456.1A
Other languages
English (en)
Other versions
CN109506624A (zh
Inventor
周卫华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taizhou Jingzhi Electromechanical Technology Co ltd
Original Assignee
Taizhou Vocational and Technical College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taizhou Vocational and Technical College filed Critical Taizhou Vocational and Technical College
Priority to CN201811285456.1A priority Critical patent/CN109506624B/zh
Publication of CN109506624A publication Critical patent/CN109506624A/zh
Application granted granted Critical
Publication of CN109506624B publication Critical patent/CN109506624B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明属于移动机器人技术领域,公开了一种基于移动机器人的分布式视觉定位系统及方法,所述基于移动机器人的分布式视觉定位系统包括:供电模块、参数配置模块、环境参数采集模块、主控模块、无线通信模块、集线器、摄像模块、中心控制服务器、驱动模块、显示模块。本发明通过位姿估计模块在Tsai算法求解旋转矩阵R的基础上,改进平移向量T的求解过程,从而提高位姿估计的精度;以及将传统Tsai算法求解平移向量T的过程由迭代计算改为线性计算,从而提高位姿估计的实时性;同时,通过地图创建模块采用QRcode技术表述环境语义特征,提高了语义地图构建的准确度,为实现人机交互和机器人完成语义命令打下良好的基础。

Description

一种基于移动机器人的分布式视觉定位系统及方法
技术领域
本发明属于移动机器人技术领域,尤其涉及一种基于移动机器人的分布式视觉定位系统及方法。
背景技术
移动机器人(Robot)是自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。智能移动机器人,是一个集环境感知、动态决策与规划、行为控制与执行等多功能于一体的综合系统。它集中了传感器技术、信息处理、电子工程、计算机工程、自动化控制工程以及人工智能等多学科的研究成果,代表机电一体化的最高成就,是目前科学技术发展最活跃的领域之一。随着机器人性能不断地完善,移动机器人的应用范围大为扩展,不仅在工业、农业、医疗、服务等行业中得到广泛的应用,而且在城市安全、国防和空间探测领域等有害与危险场合得到很好的应用。因此,移动机器人技术已经得到世界各国的普遍关注。然而,现有移动机器人当相机到特征点的距离增大时,Tsai算法求解旋转矩阵R的精度较高,但求解平移向量T的精度却较低,且其迭代求解平移向量T的过程算法复杂、实时性较低,目前位姿估计的适用范围有限,有待提高;同时,移动机器人视觉传感器容易受到视角和距离的限制,且在大物体阻挡情况下会失效,进而导致定位精度下降,影响语义地图构建的可靠性。
综上所述,现有技术存在的问题是:
(1)现有移动机器人当相机到特征点的距离增大时,Tsai算法求解旋转矩阵R的精度较高,但求解平移向量T的精度却较低,且其迭代求解平移向量T的过程算法复杂、实时性较低,目前位姿估计的适用范围有限,有待提高;目前的温度传感器没有温度补偿,对温度的测量有误差,易造成定位不准确。
(2)移动机器人视觉传感器容易受到视角和距离的限制,且在大物体阻挡情况下会失效,进而导致定位精度下降,影响语义地图构建的可靠性,目前的无线通信模块中的加密不够严谨,易造成信息的泄露。
(3)目前使用的摄像器对环境进行拍摄与监控的过程中在不同的光线下会产生相应的误差,造成监控出现误差,对定位的准确性造成影响。
发明内容
针对现有技术存在的问题,本发明提供了一种基于移动机器人的分布式视觉定位系统及方法。
本发明是这样实现的,一种基于移动机器人的分布式视觉定位方法,所述基于移动机器人的分布式视觉定位方法包括以下步骤:
步骤一,通过供电模块利用蓄电池给移动机器人进行供电,蓄电池采用改进的充电与放电模型;
步骤二,通过参数配置模块利用操作按键对移动机器人初始操作进行配置参数环境;通过环境参数采集模块利用传感器采集室内的温度、湿度数据信息;
步骤三,主控模块通过无线通信模块利用无线发射器接收操作控制指令,并将采集的环境参数数据通过集线器发送到中心控制服务器,无线通信模块对通信信息进行加密;
步骤四,通过摄像模块利用多个摄像器采集多维角度数据通过集线器发送给中心控制服务器,对摄像器进行非线性校正;
步骤五,通过中心控制服务器集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
步骤六,通过驱动模块利用驱动轮给移动机器人提供移动操作;通过显示模块利用显示器显示配置参数数据和环境参数数据。
进一步,所述步骤二的温度传感器的温度修正算法为:
首先,在某一固定的温度下,传感器的输入输出值用多项式函数表示:
Figure BDA0001848932410000031
其中:x是传感器的输出,y是传感器所测量的物理量的真实值,ai根据实验数据利用最小二乘拟合的方法计算;
不同温度下,ai的会发生变化:
Figure BDA0001848932410000032
最终输出则表示为:
Figure BDA0001848932410000033
将所有的bji排成一个列向量:
Figure BDA0001848932410000034
定义一个辅助矩阵:
Figure BDA0001848932410000035
则传感器的经过温度修正后的测量值为:
Figure BDA0001848932410000041
而传感器测量量的真实值为:
Figure BDA0001848932410000042
转换成下面的普通的线性代数方程:
FT·z=FT·F·b;
上式中FT是F的转置。
进一步,所述步骤三的加密的算法为:
设置代表域K的代数闭域为
Figure BDA0001848932410000043
K*=K/{0}为乘法群,且其组成元素均为K中的非零元素,若代数闭域
Figure BDA0001848932410000044
的仿射平面为
Figure BDA0001848932410000045
Figure BDA0001848932410000046
则:
Figure BDA0001848932410000047
已知代数闭域
Figure BDA0001848932410000048
上的仿射平面曲线是由既约多项式
Figure BDA0001848932410000049
中的零点组成的集合:
Figure BDA00018489324100000410
已知C是仿射平面曲线,P=(x,y)为此曲线上的一个点,若条件满足:
Figure BDA00018489324100000411
则P=(x,y)即为C上的奇异点,则曲线C即是奇异曲线,相反,若曲线上的任意点均不能满足上述条件,此曲线即为非奇异曲线;
网络通信中椭圆曲线E的判别公式:
Figure BDA0001848932410000051
式中,仅当δ=0时,该曲线为奇异曲线。
本发明的另一目的在于提供一种实现所述基于移动机器人的分布式视觉定位方法的基于移动机器人的分布式视觉定位系统,所述基于移动机器人的分布式视觉定位系统包括:
供电模块、参数配置模块、环境参数采集模块、主控模块、无线通信模块、集线器、摄像模块、中心控制服务器、驱动模块、显示模块;
供电模块,与主控模块连接,用于通过蓄电池给移动机器人进行供电;
参数配置模块,与主控模块连接,用于通过操作按键对移动机器人初始操作进行配置参数环境;
环境参数采集模块,与主控模块连接,用于通过传感器采集室内的温度、湿度等数据信息;
主控模块,与供电模块、参数配置模块、环境参数采集模块、无线通信模块、驱动模块、显示模块连接,用于通过单片机控制各个模块正常工作;
无线通信模块,与主控模块、集线器连接,用于通过无线发射器接收操作控制指令和发送采集的环境参数数据;
集线器,与无线通信模块、摄像模块、中心控制服务器连接,用于增强无线通信信号;
中心控制服务器,与集线器连接,用于通过多个摄像器采集多维角度数据;
摄像模块,与集线器连接,用于集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
驱动模块,与主控模块连接,用于通过驱动轮给移动机器人提供移动操作;
显示模块,与主控模块连接,用于通过显示器显示配置参数数据和环境参数数据。
进一步,所述中心控制服务器包括位姿估计模块、地图创建模块、定位追踪模块、数据存储模块;
位姿估计模块,用于在Tsai算法求解旋转矩阵R的基础上,改进平移向量T的求解过程;
地图创建模块,用于采用视觉定位与RFID定位相结合的方法构建室内地图;
定位追踪模块,用于根据创建的地图通过定位追踪程序对移动机器人的位置进行定位
数据存储模块,用于通过存储器存储采集的环境参数数据、室内地图数据。
本发明的另一目的在于提供一种应用所述基于移动机器人的分布式视觉定位方法的信息数据处理终端。
本发明的优点及积极效果为:
(1)本发明通过位姿估计模块在Tsai算法求解旋转矩阵R的基础上,改进平移向量T的求解过程,具体是利用了相机焦距和特征点间距离作为冗余信息进行改进,从而提高位姿估计的精度;以及将传统Tsai算法求解平移向量T的过程由迭代计算改为线性计算,从而提高位姿估计的实时性,通过对温度传感器进行温度补偿,提高了温度测量及定位的准确性。
(2)通过地图创建模块在室内地图进行构建时,采用视觉定位与RFID定位相结合的方法,解决了摄像机视界局限和障碍物阻挡等问题,提高了机器人定位的精度;考虑了室内环境下可辨识环境路标缺失带来的语义地图构建困难,采用QRcode技术表述环境语义特征,提高了语义地图构建的准确度,为实现人机交互和机器人完成语义命令打下良好的基础,通过对无线通信模块进行加密处理,避免了信息的泄露。
(3)通过对摄像器进行校正处理,避免了摄像器监控造成的误差,提高了定位的准确性。
附图说明
图1是本发明实施提供的基于移动机器人的分布式视觉定位方法流程图。
图2是本发明实施提供的基于移动机器人的分布式视觉定位系统结构框图;
图2中:1、供电模块;2、参数配置模块;3、环境参数采集模块;4、主控模块;5、无线通信模块;6、集线器;7、摄像模块;8、中心控制服务器;9、驱动模块;10、显示模块。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图及具体实施例对本发明的应用原理作进一步描述。
如图1所示,本发明实施例提供的基于移动机器人的分布式视觉定位方法包括以下步骤:
步骤S101,通过供电模块利用蓄电池给移动机器人进行供电;
步骤S102,通过参数配置模块利用操作按键对移动机器人初始操作进行配置参数环境;通过环境参数采集模块利用传感器采集室内的温度、湿度等数据信息;
步骤S103,主控模块通过无线通信模块利用无线发射器接收操作控制指令,并将采集的环境参数数据通过集线器发送到中心控制服务器;
步骤S104,通过摄像模块利用多个摄像器采集多维角度数据通过集线器发送给中心控制服务器;
步骤S105,通过中心控制服务器集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
步骤S106,通过驱动模块利用驱动轮给移动机器人提供移动操作;通过显示模块利用显示器显示配置参数数据和环境参数数据。
本发明实施例提供的基于移动机器人的分布式视觉定位方法通过参数配置模块利用操作按键对移动机器人初始操作进行配置参数环境;通过环境参数采集模块利用传感器采集室内的温度、湿度等数据信息,温度传感器的温度修正算法为:
首先,在某一固定的温度下,设传感器的输入输出值用多项式函数表示:
Figure BDA0001848932410000081
其中:x是传感器的输出,y是传感器所测量的物理量的真实值,ai可以根据实验数据利用最小二乘拟合的方法计算;
然后考虑温度的影响,不同温度下,上面公式中ai的会发生变化:
Figure BDA0001848932410000082
最终输出则可以表示为:
Figure BDA0001848932410000083
将所有的bji排成一个列向量
Figure BDA0001848932410000084
定义一个辅助矩阵:
Figure BDA0001848932410000085
则传感器的经过温度修正后的测量值为:
Figure BDA0001848932410000091
而传感器测量量的真实值为:
Figure BDA0001848932410000092
转换成下面的普通的线性代数方程:
FT·z=FT·F·b
上式中FT是F的转置;
本发明实施例提供的基于移动机器人的分布式视觉定位方法主控模块通过无线通信模块利用无线发射器接收操作控制指令,并将采集的环境参数数据通过集线器发送到中心控制服务器,无线通信模块对通信信息进行加密,加密算法为:
设置代表域K的代数闭域为
Figure BDA0001848932410000093
K*=K/{0}为乘法群,且其组成元素均为K中的非零元素,若代数闭域
Figure BDA0001848932410000094
的仿射平面为
Figure BDA0001848932410000095
即:
Figure BDA0001848932410000096
Figure BDA0001848932410000097
已知代数闭域
Figure BDA0001848932410000098
上的仿射平面曲线是由既约多项式
Figure BDA0001848932410000099
中的零点组成的集合,即
Figure BDA00018489324100000910
已知C是仿射平面曲线,P=(x,y)为此曲线上的一个点,若条件满足
Figure BDA00018489324100000911
则P=(x,y)即为C上的奇异点,则曲线C即是奇异曲线,相反,若曲线上的任意点均不能满足上述条件,此曲线即为非奇异曲线;
网络通信中椭圆曲线E的判别公式能够描述如下:
Figure BDA0001848932410000101
式中,仅当δ=0时,该曲线为奇异曲线;
当E进行同构时,其性质不变,因此可取其简单类型进行计算,即为标准型加密过程,可以分别描述如下:
若Char(K)≠2,3则y2=x3+a4x+a6
若Char(K)=2,且j≠0则y2+xy=x3+a2x2+a6
若Char(K)=2,且j=0则y2+a3y=x3+a4x+a6
若Char(K)=3,且j≠0则y2=x3+x2+a6
若Char(K)=3,且j≠0则y2=x3+x2+a6
本发明实施例提供的基于移动机器人的分布式视觉定位方法通过摄像模块利用多个摄像器采集多维角度数据通过集线器发送给中心控制服务器,对摄像器进行非线性校正,校正方法为:
(1)测试前把摄像器内部的自动增益开关断开,使摄像器的放大电路处于线性工作状态,设光强监测器测得的光强为A,灰度板某阶梯的透射率为T,则其透射光强E=AT,微型计算机测得的光电信号为V,则V与E之间的关系可表示为:V=BEγ
式中:式中B为常数;V~E曲线反映了摄像器的光电转换特性。
(2)将某一实验点(Vo,Eo)的光电转换系数定为1,则任一实验点(V,E)所对应的光电转换相对系数Kγ为:
Figure BDA0001848932410000102
(3)将所有的实验数据点(Kγ,V)进行曲线拟合,得到Kγ~V曲线,将计算输出的任一光电信号数据,除以其对应的Kγ值,即可得到修正值。
步骤五,通过中心控制服务器集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
步骤六,通过驱动模块利用驱动轮给移动机器人提供移动操作;通过显示模块利用显示器显示配置参数数据和环境参数数据。
如图2所示,本发明提供的基于移动机器人的分布式视觉定位系统包括:供电模块1、参数配置模块2、环境参数采集模块3、主控模块4、无线通信模块5、集线器6、摄像模块7、中心控制服务器8、驱动模块9、显示模块10。
供电模块1,与主控模块4连接,用于通过蓄电池给移动机器人进行供电;
参数配置模块2,与主控模块4连接,用于通过操作按键对移动机器人初始操作进行配置参数环境;
环境参数采集模块3,与主控模块4连接,用于通过传感器采集室内的温度、湿度等数据信息;
主控模块4,与供电模块1、参数配置模块2、环境参数采集模块3、无线通信模块5、驱动模块9、显示模块10连接,用于通过单片机控制各个模块正常工作;
无线通信模块5,与主控模块4、集线器6连接,用于通过无线发射器接收操作控制指令和发送采集的环境参数数据;
集线器6,与无线通信模块5、摄像模块7、中心控制服务器8连接,用于增强无线通信信号;
中心控制服务器8,与集线器6连接,用于通过多个摄像器采集多维角度数据;
摄像模块7,与集线器6连接,用于集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
驱动模块9,与主控模块4连接,用于通过驱动轮给移动机器人提供移动操作;
显示模块10,与主控模块4连接,用于通过显示器显示配置参数数据和环境参数数据。
本发明提供的中心控制服务器8包括位姿估计模块、地图创建模块、定位追踪模块、数据存储模块;
位姿估计模块,用于在Tsai算法求解旋转矩阵R的基础上,改进平移向量T的求解过程;
地图创建模块,用于采用视觉定位与RFID定位相结合的方法构建室内地图;
定位追踪模块,用于根据创建的地图通过定位追踪程序对移动机器人的位置进行定位
数据存储模块,用于通过存储器存储采集的环境参数数据、室内地图数据等。
本发明提供的位姿估计模块估计方法如下:
步骤1、对使用的相机进行标定,得到相机焦距;
步骤2、在相机的当前使用位姿下,对空间中的共面的至少5个特征点进行成像,以特征点中任意一个特征点P0为原点建立世界坐标系,并获取特征点的世界坐标和图像坐标;
步骤3、根据特征点的世界坐标和图像坐标,利用Tsai算法求解相机所在相机坐标系相对于世界坐标系的旋转矩阵R;
步骤4、根据步骤3求得的旋转矩阵R、步骤1标定得到的相机焦距、以及求解得到的特征点之间线段长度,求解相机所在相机坐标系相对于世界坐标系的平移向量T;具体为,
根据特征点在等效成像平面上的投影点坐标、即特征点的图像坐标,选取投影点间的任意一条线段、记线段长度为l,并获取构成该线段的两个投影点对应的两个特征点、记两个特征点分别为P1和P2
将步骤3求得的旋转矩阵R作用于世界坐标系,得到旋转后的新坐标系,该新坐标系平面与相机等效成像平面平行;
根据旋转矩阵R和特征点P1、P2的世界坐标,求解特征点P1、P2在新坐标系中的坐标,进而获取特征点P1、P2在新坐标系平面上的投影点间的线段、记新线段长度为L;
根据线段长度l和新线段长度L、步骤1标定得到的相机焦距、以及步骤2获取的特征点P0的图像坐标,由以下公式求解平移向量T,
Figure BDA0001848932410000131
T=(x0c,y0c,z0c)T
其中,f为相机焦距,x0i、y0i为特征点P0的图像坐标,x0c、y0c、z0c为相机坐标系的相机坐标;
步骤5、根据步骤3求得的旋转矩阵R和步骤4求得的平移向量T,求解相机的位姿参数。
本发明提供的步骤1中的标定采用张正友标定法。
本发明提供的步骤2中的获取特征点的世界坐标和图像坐标,具体为,
在空间中布置一个平面合作目标,该平面合作目标上包含至少5个特征点;
以特征点中任意一个特征点P0为原点建立世界坐标系,通过工具测得特征点的世界坐标;
使用已标定好焦距的相机,在相机的当前使用位姿下,对平面合作目标进行成像;
利用图像处理算法,从相机采集的平面合作目标图像中提取特征点的图像坐标。
本发明提供的地图创建模块创建方法如下:
(1)采集环境图像,实现机器人视觉定位;
移动机器人通过双目视觉传感器采集环境图像,获取人工路标集合;
考虑到极几何约束,基于三角测量原理,利用视差法获取图像中人工路标的深度信息,并计算该路标的全局坐标;
通过拓展卡尔曼滤波算法,对机器人位姿及人工路标的位置进行定位;
(2)利用RFID系统进行机器人接收信号强度值定位;
根据实际参考标签的坐标和阅读器读取的RSS值,求取虚拟参考标签的坐标值和RSS值;选用对数距离路径损耗模型表述虚拟参考标签与实际参考标签上的能量差值随两者距离的变化,获取虚拟标签的RSS值;
基于边界虚拟标签算法确定目标标签的坐标值;
根据目标标签和参考标签RSS值的差来选取最近邻标签;设定阈值,构建模糊地图;对于目标标签来说,由于每个阅读器都有自己对应的一个模糊地图,将多个模糊地图求取交集可以求得最近邻参考标签,从而确定目标标签的坐标;
(3)修正机器人的全局坐标值,并利用自适应谱聚类算法进行地图划分;
修正机器人及人工路标的坐标值;
根据视觉传感器和RFID系统获得的机器人坐标值,利用最小二乘法(LeastSquare,LS)对两者进行修正,得到更加准确的机器人全局坐标值;
利用自适应谱聚类算法,将修正后的机器人坐标集合进行拓扑层划分;
(4)语义信息更新;
机器人判断视界中的红色圆形区域,并利用椭圆拟合方法快速识别和读取QRcode中的语义信息;
根据QRcode中的语义信息,将机器人观测点和相应物品之间进行关联,每个子集的语义拓扑地图可以实时更新;
根据更新的语义信息实时修正拓扑层子地图分类,直至机器人完成遍历性扫描。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于移动机器人的分布式视觉定位方法,其特征在于,所述基于移动机器人的分布式视觉定位方法包括以下步骤:
步骤一,通过供电模块利用蓄电池给移动机器人进行供电,蓄电池采用改进的充电与放电模型;
步骤二,通过参数配置模块利用操作按键对移动机器人初始操作进行配置参数环境;通过环境参数采集模块利用传感器采集室内的温度和湿度数据信息;
步骤三,主控模块通过无线通信模块利用无线发射器接收操作控制指令,并将采集的环境参数数据通过集线器发送到中心控制服务器,无线通信模块对通信信息进行加密;
所述加密的算法为:
设置代表域K的代数闭域为
Figure FDA0003130690780000011
K*=K/{0}为乘法群,且其组成元素均为K中的非零元素,若代数闭域
Figure FDA0003130690780000012
的仿射平面为
Figure FDA0003130690780000013
Figure FDA0003130690780000014
则:
Figure FDA0003130690780000015
已知代数闭域
Figure FDA0003130690780000016
上的仿射平面曲线是由既约多项式
Figure FDA0003130690780000017
中的零点组成的集合:
Figure FDA0003130690780000018
已知C是仿射平面曲线,P=(x,y)为此曲线上的一个点,若条件满足:
Figure FDA0003130690780000019
则P=(x,y)即为C上的奇异点,则曲线C即是奇异曲线,相反,若曲线上的任意点均不能满足上述条件,此曲线即为非奇异曲线;
网络通信中椭圆曲线E的判别公式:
Figure FDA00031306907800000110
式中,仅当δ=0时,该曲线为奇异曲线;
步骤四,通过摄像模块利用多个摄像器采集多维角度数据通过集线器发送给中心控制服务器,对摄像器进行非线性校正;
校正方法为:
(1)测试前把摄像器内部的自动增益开关断开,使摄像器的放大电路处于线性工作状态,设光强监测器测得的光强为A,灰度板某阶梯的透射率为T,则其透射光强E=AT,微型计算机测得的光电信号为V,则V与E之间的关系可表示为:V=BEγ
式中:式中B为常数;V~E曲线反映了摄像器的光电转换特性;
(2)将某一实验点(Vo,Eo)的光电转换系数定为1,则任一实验点(V,E)所对应的光电转换相对系数Kγ为:
Figure FDA0003130690780000021
(3)将所有的实验数据点(Kγ,V)进行曲线拟合,得到Kγ~V曲线,将计算输出的任一光电信号数据,除以其对应的Kγ值,即可得到修正值;
步骤五,通过中心控制服务器集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
步骤六,通过驱动模块利用驱动轮给移动机器人提供移动操作;通过显示模块利用显示器显示配置参数数据和环境参数数据。
2.如权利要求1所述的基于移动机器人的分布式视觉定位方法,其特征在于,所述步骤二的温度传感器的温度修正算法为:
首先,在某一固定的温度下,传感器的输入输出值用多项式函数表示:
Figure FDA0003130690780000022
其中:x是传感器的输出,y是传感器所测量的物理量的真实值,ai根据实验数据利用最小二乘拟合的方法计算;
不同温度下,ai的输出值会发生变化:
Figure FDA0003130690780000031
最终输出则表示为:
Figure FDA0003130690780000032
将所有的bji排成一个列向量:
Figure FDA0003130690780000033
定义一个辅助矩阵:
Figure FDA0003130690780000034
则传感器的经过温度修正后的测量值为:
Figure FDA0003130690780000035
而传感器测量的真实值为:
Figure FDA0003130690780000041
转换成下面的普通的线性代数方程:
FT·z=FT·F·b;
上式中FT是F的转置。
3.一种实现权利要求1所述基于移动机器人的分布式视觉定位方法的基于移动机器人的分布式视觉定位系统,其特征在于,所述基于移动机器人的分布式视觉定位系统包括:
供电模块、参数配置模块、环境参数采集模块、主控模块、无线通信模块、集线器、摄像模块、中心控制服务器、驱动模块、显示模块;
供电模块,与主控模块连接,用于通过蓄电池给移动机器人进行供电;
参数配置模块,与主控模块连接,用于通过操作按键对移动机器人初始操作进行配置参数环境;
环境参数采集模块,与主控模块连接,用于通过传感器采集室内的温度和湿度数据信息;
主控模块,与供电模块、参数配置模块、环境参数采集模块、无线通信模块、驱动模块、显示模块连接,用于通过单片机控制各个模块正常工作;
无线通信模块,与主控模块、集线器连接,用于通过无线发射器接收操作控制指令和发送采集的环境参数数据;
集线器,与无线通信模块、摄像模块、中心控制服务器连接,用于增强无线通信信号;
中心控制服务器,与集线器连接,用于通过多个摄像器采集多维角度数据;
摄像模块,与集线器连接,用于集中处理移动机器人的分布式视觉数据从而进行控制移动机器人的定位操作;
驱动模块,与主控模块连接,用于通过驱动轮给移动机器人提供移动操作;
显示模块,与主控模块连接,用于通过显示器显示配置参数数据和环境参数数据。
4.如权利要求3所述的基于移动机器人的分布式视觉定位系统,其特征在于,所述中心控制服务器包括位姿估计模块、地图创建模块、定位追踪模块和数据存储模块;
位姿估计模块,用于在Tsai算法求解旋转矩阵R的基础上,改进平移向量T的求解过程;
位姿估计模块估计方法如下:
步骤1、对使用的相机进行标定,得到相机焦距;
步骤2、在相机的当前使用位姿下,对空间中的共面的至少5个特征点进行成像,以特征点中任意一个特征点P0为原点建立世界坐标系,并获取特征点的世界坐标和图像坐标;
步骤3、根据特征点的世界坐标和图像坐标,利用Tsai算法求解相机所在相机坐标系相对于世界坐标系的旋转矩阵R;
步骤4、根据步骤3求得的旋转矩阵R、步骤1标定得到的相机焦距、以及求解得到的特征点之间线段长度,求解相机所在相机坐标系相对于世界坐标系的平移向量T;具体为,
根据特征点在等效成像平面上的投影点坐标、即特征点的图像坐标,选取投影点间的任意一条线段、记线段长度为l,并获取构成该线段的两个投影点对应的两个特征点、记两个特征点分别为P1和P2
将步骤3求得的旋转矩阵R作用于世界坐标系,得到旋转后的新坐标系,该新坐标系平面与相机等效成像平面平行;
根据旋转矩阵R和特征点P1、P2的世界坐标,求解特征点P1、P2在新坐标系中的坐标,进而获取特征点P1、P2在新坐标系平面上的投影点间的线段、记新线段长度为L;
根据线段长度l和新线段长度L、步骤1标定得到的相机焦距、以及步骤2获取的特征点P0的图像坐标,由以下公式求解平移向量T,
Figure FDA0003130690780000061
T=(x0c,y0c,z0c)T
其中,f为相机焦距,x0i、y0i为特征点P0的图像坐标,x0c、y0c、z0c为相机坐标系的相机坐标;
步骤5、根据步骤3求得的旋转矩阵R和步骤4求得的平移向量T,求解相机的位姿参数;
地图创建模块,用于采用视觉定位与RFID定位相结合的方法构建室内地图;
定位追踪模块,用于根据创建的地图通过定位追踪程序对移动机器人的位置进行定位;
数据存储模块,用于通过存储器存储采集的环境参数数据、室内地图数据。
5.一种应用权利要求1~2任意一项所述基于移动机器人的分布式视觉定位方法的信息数据处理终端。
CN201811285456.1A 2018-10-31 2018-10-31 一种基于移动机器人的分布式视觉定位系统及方法 Active CN109506624B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811285456.1A CN109506624B (zh) 2018-10-31 2018-10-31 一种基于移动机器人的分布式视觉定位系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811285456.1A CN109506624B (zh) 2018-10-31 2018-10-31 一种基于移动机器人的分布式视觉定位系统及方法

Publications (2)

Publication Number Publication Date
CN109506624A CN109506624A (zh) 2019-03-22
CN109506624B true CN109506624B (zh) 2021-11-02

Family

ID=65747253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811285456.1A Active CN109506624B (zh) 2018-10-31 2018-10-31 一种基于移动机器人的分布式视觉定位系统及方法

Country Status (1)

Country Link
CN (1) CN109506624B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110542484A (zh) * 2019-09-11 2019-12-06 北京海益同展信息科技有限公司 用于温度检测的巡检装置、巡检系统及方法

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006062865A1 (en) * 2004-12-07 2006-06-15 Honeywell International, Inc. Navigation component modeling system and method
CN1894749A (zh) * 2003-12-19 2007-01-10 皇家飞利浦电子股份有限公司 存储设备中的数据内容的存取方法
CN1980122A (zh) * 2006-11-16 2007-06-13 北京尧天网迅科技有限公司 一种提高信息传输安全性的方法
CN101251381A (zh) * 2007-12-29 2008-08-27 武汉理工大学 基于机器视觉的双集装箱定位系统
WO2011045750A1 (en) * 2009-10-12 2011-04-21 Re:Lab S.R.L. Method and system for processing information relating to a vehicle
CN202111802U (zh) * 2010-02-12 2012-01-11 王炳立 多图像传感器的监控设备的校准装置
CN102519450A (zh) * 2011-12-12 2012-06-27 东南大学 一种用于水下滑翔器的组合导航装置及方法
CN103198477A (zh) * 2013-03-25 2013-07-10 沈阳理工大学 一种苹果套袋机器人视觉定位方法
CN104330090A (zh) * 2014-10-23 2015-02-04 北京化工大学 机器人分布式表征智能语义地图创建方法
CN104657981A (zh) * 2015-01-07 2015-05-27 大连理工大学 一种移动机器人运动中三维激光测距数据动态补偿方法
CN104950887A (zh) * 2015-06-19 2015-09-30 重庆大学 基于机器人视觉系统和自主跟踪系统的运输装置
CN105307116A (zh) * 2015-08-07 2016-02-03 浙江海洋学院 一种基于移动机器人的分布式视觉定位系统及方法
CN105678742A (zh) * 2015-12-29 2016-06-15 哈尔滨工业大学深圳研究生院 一种水下相机标定方法
CN105973145A (zh) * 2016-05-19 2016-09-28 深圳市速腾聚创科技有限公司 移动式三维激光扫描系统及移动式三维激光扫描方法
CN106338287A (zh) * 2016-08-24 2017-01-18 杭州国辰牵星科技有限公司 基于天花板的室内移动机器人视觉定位方法
CN106772518A (zh) * 2017-01-19 2017-05-31 北京交通大学 基于移动通信网络的北斗/gps加密终端
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN107255476A (zh) * 2017-07-06 2017-10-17 青岛海通胜行智能科技有限公司 一种基于惯性数据和视觉特征的室内定位方法和装置
JP2017224280A (ja) * 2016-05-09 2017-12-21 ツーアンツ インク.TwoAntz Inc. 視覚的測位によるナビゲーション装置およびその方法
CN107667397A (zh) * 2015-05-20 2018-02-06 德尔福技术有限公司 用于自动更新由多个自动化车辆使用的路线数据的系统
CN107909600A (zh) * 2017-11-04 2018-04-13 南京奇蛙智能科技有限公司 一种基于视觉的无人机实时运动目标分类与检测方法
CN108051031A (zh) * 2017-12-20 2018-05-18 台州职业技术学院 全方位移动机器人的位姿测量方法
CN108510587A (zh) * 2018-02-11 2018-09-07 上海电力学院 一种基于2d激光扫描的室内室外环境建模方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4290694A (en) * 1980-03-07 1981-09-22 Kern Instruments, Inc. Photogrammetric plotting apparatus
JPH0962662A (ja) * 1995-08-18 1997-03-07 Fuji Xerox Co Ltd 文書処理装置
CN100501327C (zh) * 2007-02-07 2009-06-17 北京航空航天大学 可变焦摄像机空间三维位姿的单视测量方法
US20130076773A1 (en) * 2011-09-22 2013-03-28 National Tsing Hua University Nonlinear revision control system and method for images
US9742974B2 (en) * 2013-08-10 2017-08-22 Hai Yu Local positioning and motion estimation based camera viewing system and methods
CN105809702B (zh) * 2016-03-29 2018-05-11 南京航空航天大学 一种基于Tsai算法的改进位姿估计方法
CN106275509B (zh) * 2016-08-19 2019-02-22 浙江大学 一种空间悬浮绳系组合体面内摆动控制方法
CN106371446A (zh) * 2016-12-03 2017-02-01 河池学院 一种室内机器人导航定位系统
CN107525627A (zh) * 2017-09-01 2017-12-29 浙江大学台州研究院 电机转子转动惯量的测试方法

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1894749A (zh) * 2003-12-19 2007-01-10 皇家飞利浦电子股份有限公司 存储设备中的数据内容的存取方法
WO2006062865A1 (en) * 2004-12-07 2006-06-15 Honeywell International, Inc. Navigation component modeling system and method
CN1980122A (zh) * 2006-11-16 2007-06-13 北京尧天网迅科技有限公司 一种提高信息传输安全性的方法
CN101251381A (zh) * 2007-12-29 2008-08-27 武汉理工大学 基于机器视觉的双集装箱定位系统
WO2011045750A1 (en) * 2009-10-12 2011-04-21 Re:Lab S.R.L. Method and system for processing information relating to a vehicle
CN202111802U (zh) * 2010-02-12 2012-01-11 王炳立 多图像传感器的监控设备的校准装置
CN102519450A (zh) * 2011-12-12 2012-06-27 东南大学 一种用于水下滑翔器的组合导航装置及方法
CN103198477A (zh) * 2013-03-25 2013-07-10 沈阳理工大学 一种苹果套袋机器人视觉定位方法
CN104330090A (zh) * 2014-10-23 2015-02-04 北京化工大学 机器人分布式表征智能语义地图创建方法
CN104657981A (zh) * 2015-01-07 2015-05-27 大连理工大学 一种移动机器人运动中三维激光测距数据动态补偿方法
CN107667397A (zh) * 2015-05-20 2018-02-06 德尔福技术有限公司 用于自动更新由多个自动化车辆使用的路线数据的系统
CN104950887A (zh) * 2015-06-19 2015-09-30 重庆大学 基于机器人视觉系统和自主跟踪系统的运输装置
CN105307116A (zh) * 2015-08-07 2016-02-03 浙江海洋学院 一种基于移动机器人的分布式视觉定位系统及方法
CN105678742A (zh) * 2015-12-29 2016-06-15 哈尔滨工业大学深圳研究生院 一种水下相机标定方法
JP2017224280A (ja) * 2016-05-09 2017-12-21 ツーアンツ インク.TwoAntz Inc. 視覚的測位によるナビゲーション装置およびその方法
CN105973145A (zh) * 2016-05-19 2016-09-28 深圳市速腾聚创科技有限公司 移动式三维激光扫描系统及移动式三维激光扫描方法
CN106338287A (zh) * 2016-08-24 2017-01-18 杭州国辰牵星科技有限公司 基于天花板的室内移动机器人视觉定位方法
CN106772518A (zh) * 2017-01-19 2017-05-31 北京交通大学 基于移动通信网络的北斗/gps加密终端
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN107255476A (zh) * 2017-07-06 2017-10-17 青岛海通胜行智能科技有限公司 一种基于惯性数据和视觉特征的室内定位方法和装置
CN107909600A (zh) * 2017-11-04 2018-04-13 南京奇蛙智能科技有限公司 一种基于视觉的无人机实时运动目标分类与检测方法
CN108051031A (zh) * 2017-12-20 2018-05-18 台州职业技术学院 全方位移动机器人的位姿测量方法
CN108510587A (zh) * 2018-02-11 2018-09-07 上海电力学院 一种基于2d激光扫描的室内室外环境建模方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"基于双目视觉的机器人定位技术研究";何佳唯;《中国优秀硕士学位论文全文数据库信息科技辑》;20160620(第02期);全文 *
"辅助移动机器人的分布式视觉定位系统";汪欢等;《中南大学学报(自然科学版)》;20130731;第44卷(第增刊2期);全文 *

Also Published As

Publication number Publication date
CN109506624A (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
CN111536967B (zh) 一种基于ekf的多传感器融合温室巡检机器人跟踪方法
CN103895023B (zh) 一种基于编码方位装置的机械臂末端跟踪测量系统的跟踪测量方法
CN108680156B (zh) 一种多传感器数据融合的机器人定位方法
CN104881029B (zh) 基于一点ransac和fast算法的移动机器人导航方法
CN113074727A (zh) 基于蓝牙与slam的室内定位导航装置及其方法
CN105629970A (zh) 一种基于超声波的机器人定位避障方法
CN104061662A (zh) 一种人体检测方法、装置和空调
US20230236280A1 (en) Method and system for positioning indoor autonomous mobile robot
CN104089649A (zh) 一种室内环境数据采集系统及采集方法
Deng et al. Long-range binocular vision target geolocation using handheld electronic devices in outdoor environment
CN109506624B (zh) 一种基于移动机器人的分布式视觉定位系统及方法
Li et al. Depth camera based remote three-dimensional reconstruction using incremental point cloud compression
Jiafa et al. Target distance measurement method using monocular vision
US10248131B2 (en) Moving object controller, landmark, and moving object control method
Zeng et al. Monocular visual odometry using template matching and IMU
Oh et al. Dynamic EKF-based SLAM for autonomous mobile convergence platforms
Nandkumar et al. Simulation of Indoor Localization and Navigation of Turtlebot 3 using Real Time Object Detection
Adinandra et al. A low cost indoor localization system for mobile robot experimental setup
CN115307641A (zh) 机器人定位方法、装置、机器人和存储介质
Xue et al. Visual-marker based localization for flat-variation scene
Liang et al. An Accurate Visual Navigation Method for Wheeled Robot in Unstructured Outdoor Environment Based on Virtual Navigation Line
CN113836975A (zh) 基于yolov3的双目视觉无人机避障方法
Sun [Retracted] Robot Obstacle Recognition and Target Tracking Based on Binocular Vision
Stanislav et al. Sensors data fusion via bayesian filter
Wang et al. Autonomous Collection System of Substation Patrol Robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221123

Address after: 311611 Room B2160, 2nd Floor, Building 1 (North), No. 368, Liuhe Road, Puyan Street, Binjiang District, Hangzhou, Zhejiang

Patentee after: Hangzhou Yuanshi Intelligent Technology Co.,Ltd.

Address before: 318000 No. 788, Taizhou Economic Development Zone, Zhejiang, Xueyuan Road

Patentee before: TAIZHOU VOCATIONAL & TECHNICAL College

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230726

Address after: Room 415, Building A21, Xingxing Electronics Industrial Park, Hongjia Street, Jiaojiang District, Taizhou City, Zhejiang Province, 318000 (self declaration)

Patentee after: Taizhou Jingzhi Electromechanical Technology Co.,Ltd.

Address before: 311611 Room B2160, 2nd Floor, Building 1 (North), No. 368, Liuhe Road, Puyan Street, Binjiang District, Hangzhou, Zhejiang

Patentee before: Hangzhou Yuanshi Intelligent Technology Co.,Ltd.