CN105931229B - 面向无线相机传感器网络的无线相机传感器位姿标定方法 - Google Patents
面向无线相机传感器网络的无线相机传感器位姿标定方法 Download PDFInfo
- Publication number
- CN105931229B CN105931229B CN201610237917.2A CN201610237917A CN105931229B CN 105931229 B CN105931229 B CN 105931229B CN 201610237917 A CN201610237917 A CN 201610237917A CN 105931229 B CN105931229 B CN 105931229B
- Authority
- CN
- China
- Prior art keywords
- wireless camera
- camera sensor
- wireless
- photo
- photoelectric mark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 239000011159 matrix material Substances 0.000 claims abstract description 44
- 230000000007 visual effect Effects 0.000 claims abstract description 37
- 238000013519 translation Methods 0.000 claims abstract description 14
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 4
- 230000003287 optical effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 230000005622 photoelectricity Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 4
- 241000269913 Pseudopleuronectes americanus Species 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 3
- -1 Acryl Chemical group 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
面向无线相机传感器网络的无线相机传感器位姿标定方法,包括:无人机携带光电标识进入无线相机传感器网络覆盖的区域;当进入某一无线相机传感器的识别范围内,等时间间隔地拍摄若干张含有光电标识的照片;对光电标识进行解码,提取不存在视场重叠的无线相机传感器在三个不同时刻的所拍摄的照片,求解得到该无线相机传感器的位姿信息;存在视场重叠的无线相机传感器进行特征点匹配,计算出本质矩阵并分解得到旋转矩阵;求解得到存在视场重叠的无线相机传感器的位姿信息,确定旋转矩阵及平移向量。本发明方法对于无线相机传感器的标定快速、简介、精准,基于该方法标定后的无线相机传感器网络可被快速应用于灾难救援等需要快速标定相机的情况中。
Description
技术领域
本发明涉及无线相机传感器网络技术领域,具体涉及一种面向无线相机传感器网络的无线相机传感器位姿标定方法。
背景技术
在一些危险性大的灾难中,如随时会引发爆炸的火灾现场、有易燃、易爆或剧毒气体存在的现场、地震后存在易二次倒塌建筑物的现场,施救人员无法深入进行侦察或施救,人们急于探知灾难现场的内部险情,但又无法接近或进入灾难现场。此时,无线相机传感器网络可以帮助救援人员远程了解灾难现场的情况,从而提前有效部署救援力量。
一方面随着传感器网络技术的发展,以无线相机传感器网络为代表的多媒体传感器网络的研究受到了越来越多的学者的重视;另一方面多媒体传感器网络(WMSN)具备安装方便,无须布线等优点,只要进行合理部署,就能对场景进行实时的还原;而且CMOS相机和闪存技术的出现使低成本的WMSN真正投入使用。这些优点使得无线相机传感器网络可以广泛应用在灾难救援现场。然而,在实际的灾难救援的过程中需要快速救援,因此要求在使用无线相机传感器网络之前必须对每一个相机节点进行快速的位姿标定。然而在位姿标定的过程中,必须要通过目标识别一定的校准物才能进行标定,所以还需要解决目标识别的问题。因此如何进行目标识别和位姿标定是解决这个问题的关键。
在目标识别方面首先考虑基于图像的目标识别。现在的图像主要有红外图像、SAR/ISAR图像,极化图像、激光雷达图像和光学图像。因为用于标定摄像机的标志物往往是运动的,所以在摄像机传感网络中获得的往往是运动的光学图像。近年来,运动目标检测与识别研究已经有了很大程度的发展,但因为在视频的采集过程中容易受到环境的影响,比如光照变化、相机抖动、目标尺度变化等,使得需要被检测的目标极易发生形状与尺度的变化,因而导致检测失败;此外,在实际中相同类型的目标物体内部可能会有很大的差异,不同类型的目标物体之间的差异却可能较小,这也使得运动目标检测和识别面临巨大的挑战。其次考虑位置标定问题
综上所述,传感器网络技术应用于灾难救援现场需要解决目标识别问题。然而采用基于传统的运动目标识别的方法往往会因为光照变化、相机抖动、目标尺度变化或者不同类型的目标物体之间的差异较小造成检测失败。因此需要一种新的目标识别方法,同时也需要一种可以应用于灾难现场的快速标定相机的。
发明内容
针对现有技术存在的不足,本发明提供一种面向无线相机传感器网络的无线相机传感器位姿标定方法。
本发明的技术方案是:
一种面向无线相机传感器网络的无线相机传感器位姿标定方法,包括:
步骤1、无人机携带能被无线相机传感器网络中各无线相机传感器识别的光电标识进入无线相机传感器网络覆盖的区域,并遍历无线相机传感器网络内所有无线相机传感器;
步骤2、当携带光电标识的无人机进入某一无线相机传感器的识别范围内,该无线相机传感器启动运行,且等时间间隔地拍摄若干张含有光电标识的照片,直至携带光电标识的无人机飞出该无线相机传感器的识别范围;
步骤3、判断是否所有的无线相机传感器位姿已经被标定完毕:是,则当前无线相机传感器网络的相机传感器位姿标定完毕,结束;否则选取已经启动的无线相机传感器同一时刻所拍摄的照片,转至步骤4;
步骤4、各无线相机传感器对其所拍摄的照片中的光电标识进行解码,判断解码得到的结果与预先识别的内容是否相同:如果相同,则转至步骤5;否则放弃该张照片,选取剩余的照片重新判断其与预先识别的内容是否相同,直至判断完无线相机传感器拍摄的所有照片;
步骤5、判断无线相机传感器之间是否存在视场重叠:如果同一时刻运行的无线相机传感器为一台即同一时刻识别出光电标识的无线相机传感器为一台,则不存在无线相机传感器之间视场重叠,转至步骤6;如果在同一时刻运行的无线相机传感器大于一台,则无线相机传感器之间存在重叠视场,转至步骤7;
步骤6、提取不存在视场重叠的无线相机传感器在三个不同时刻的所拍摄的照片,根据三张照片中光电标识的位置,求解得到该无线相机传感器的位姿信息,完成该无线相机传感器的位姿标定,转至步骤3;
步骤7、存在视场重叠的无线相机传感器进行无线相机传感器间的特征点匹配,计算出本质矩阵并分解,得到无线相机传感器之间的旋转矩阵;
步骤8、取存在视场重叠的任意无线相机传感器所拍摄的三个不同时刻的照片,根据三张照片中光电标识的位置,求解得到存在视场重叠的无线相机传感器的位姿信息;
步骤9、根据步骤8求出的无线相机传感器的位姿信息,通过逆运算计算出存在视场重叠的无线相机传感器间的平移向量,进而确定存在视场重叠的各无线相机传感器的旋转矩阵及平移向量,完成有重叠视场的相机节点的位姿标定,转至步骤3。
所述光电标识的通体为黑色,中央是底色为白色的LED灯,光电标识的黑色背景与白色的LED灯共同构成能被无线相机传感器识别的主动发光的二维码。
遍历无线相机传感器网络内所有无线相机传感器,具体方法如下:
找出无线相机传感器网络所覆盖的区域中相对距离最远的两个无线相机传感器;
以这两个无线相机传感器所构成的线段为对角线,并通过该对角线确定唯一的一个正方形,将该正方形作为无线相机传感器网络的最小监视区域;
以无线相机传感器的最远清晰成像距离为最小刻度,将无线相机传感器网络的最小监视区域分为N2份,INT表示取整,l0表示最小刻度,l表示最小监视区域的边长;
取N2份区域的中心点作为移动光标必经的中心点;
无人机携带移动光标从最小监视区域划分的一个小区域进入,以希尔伯特曲线作为移动光标的移动轨迹遍历整个最小监视区域中移动光标必经的中心点。
无线相机传感器识别光电标识的方法是:无线相机传感器捕获带有光电标识的照片,将其处理为二值图像;从该二值图像中寻找光电标识轮廓,对光电标识轮廓进行解码,从而完成对光电标识的识别。
求解得到无线相机传感器的位姿信息,具体方法如下:
设无线相机传感器的位姿为(x,y),从无线相机传感器在三个不同时刻所拍摄的照片里面取出第一张与第二张照片中光电标识的位置,同理取出第一张与第三张照片中光电标识的位置,分别列两个方程构成如下的方程组:
式中为无线相机传感器的位置,|SP|为模长;为光电标识在前第一张与第二张照片中移动的向量,|SQ|为其模长;为光电标识在第一张与第三张照片中移动的向量,|SR|为模长;α是与之间的角度大小;
从方程组中求解出(x,y)便得到该无线相机传感器的位姿信息,完成该无线相机传感器的位姿标定。
步骤7的具体步骤如下:
步骤7.1、在无人机离开无线相机传感器网络覆盖的区域时,存在视场重叠的各无线相机传感器,在不同时刻重新拍摄一张照片;
步骤7.2、对存在视场重叠的各无线相机传感器所重新拍摄的照片进行FAST特征点提取:判断候选点周围各点的像素值与该候选点的灰度差别是否达到设定阈值,是,则该候选点是一个特征点,否则舍弃;
步骤7.3、利用光流算法表示出存在视场重叠的各无线相机传感器所重新拍摄的照片间的特征点梯度,并根据特征点梯度值进行特征点匹配;
步骤7.4、利用RANSAC算法估计出无线相机传感器间的本质矩阵,并将本质矩阵分解得到无线相机传感器间的旋转矩阵。
本质矩阵分解的方法是:
假定本质矩阵E有两个相同的奇异值和一个零奇异值,则矩阵E能够进行如下SVD分解:
E=Udiag(s2,s2,0)VT
其中,s是无线相机传感器间的平移向量的模长,U,V是正交矩阵,令反对称矩阵旋转矩阵
得到本质矩阵的SVD分解结果E=(USUT)(UZVT)=[t]×R,单位平移向量[t]×=USUT,无线相机传感器间的旋转矩阵R=UZVT。
有益效果:
本发明提供一种面向无线相机传感器网络的无线相机传感器位姿标定方法,该方法对于无线相机传感器的标定快速、简介、精准,基于该方法标定后的无线相机传感器网络可被快速应用于灾难救援等需要快速标定相机的情况中。
1.将易于识别的光电标识与世界绝对坐标已知的无人机相结合作为一个位置已知的参照,简化了无线相机传感器的标定工作。
2.通过希尔伯特曲线规划无人机的路径,使之遍布整个无线相机传感器覆盖的区域,具有较快的遍历速度,使携带光点标识的无人机的飞行路径短,用时短。
3.标定简单,提高了救援效率。本发明根据旋转平移向量进行标定的,而且在前期识别的图像的过程没有使用特征点提取和识别的方法,既减轻了无线相机传感器的运算开销,同时减小了无线相机传感器被标定所用的时间。
4.使用时间长,功耗低。一方面是因为只有无人机经过无线相机传感器的识别范围时,无线相机传感器才会开启进行图像捕捉,另一方面是因为采用二维码作为光电标识减小了运算开销。
5.能够获后的无线相机传感器的准确位姿。本发明对于可能出现的情况分为无线相机传感器存在重叠视场和不存在重叠视场两种情况进行讨论,无重叠视场的情况可以根据无线相机传感器摄取照片直接标定出位姿信息;有重叠的视场先确定无线相机传感器间的相对位置关系,再确定其中任意一个无线相机传感器的绝对坐标,表得到这些无线相机传感器的位姿信息。分类别讨论计算,减少了标定计算量。
附图说明
图1本发明实施例光电标识图案图,(a)是光电标识整体设计图,(b)将光电标识等效为二维码的示意图;
图2本发明实施例携带光电标识的无人机飞行轨迹图;
图3本发明实施例整体流程图。
具体实施方式
下面结合附图对本发明的具体实施方式做详细说明。
将本发明的面向无线相机传感器网络的无线相机传感器位姿标定方法应用于灾难救援现场,当灾难发生的时候,前期或者通过空头的方式向灾难现场投下许多无线相机传感器,因此可以确定无线相机传感器网络所覆盖的大致范围。
一种面向无线相机传感器网络的无线相机传感器位姿标定方法,如图3所示,包括:
步骤1、无人机携带能被无线相机传感器网络中各无线相机传感器识别的光电标识进入无线相机传感器网络覆盖的区域,并遍历无线相机传感器网络内所有无线相机传感器;
为提高光电标识的易被识别性和光照阴影不变性,将光电标识的通体设计为黑色,中央是底色为白色的LED灯,如图1(a)所示,光电标识的黑色背景与白色的LED灯共同构成能被无线相机传感器识别的主动发光的二维码。在光线较好的情况下,黑色与白色可以被无线相机传感器显著地识别出来;在光线较弱的地方,光电标识会让LED灯主动发出白光,因此其易被识别并具有较好的光照阴影不变性。本实施方式的光电标识的外壳由黑色的亚克力板材做成,尺寸为16*16CM,厚度为2CM,体积小、质量轻。在白天或者光照较强的室内,黑色的亚克力板材构成的背景色与本身为白色的LED灯的色差十分明显。在光电标识的背面有若干个用于固定用的小孔,方便将光电标识固定在无人机上,具有一定的便携性。无人机上携带可以确认自身具体位姿的差分GPS,并实时返回自己的具体坐标信息。
在上述二维码中携带无人机编号信息,周围一圈的黑色小正方形构成了二维码的轮廓,是判断图案是否为二维码的标识。判断具有轮廓后对内部的图像进行解码,如将黑色编码为1,白色编码为0,便得到内部一个5*5的矩阵,即无人机的信息(如无人机的编号)。
本实施方式的光电标识中的图案可以等效为图1(b),原本的黑色与白色区域被等效为黑色或者白色的正方形。将黑色的正方形编码为1,白色的正方形编码为0,则光电标识中的二维码所包含的信息为矩阵F,如本例中的解码结果,即信息矩阵为
在灾难现场为了加快救援速度,有时可能需要使用多台无人机同时对无线相机传感器网络内所有无线相机传感器进行标定,此时常在二维码(即信息矩阵F)中携带与无人机编号有关的信息。
遍历无线相机传感器网络内所有无线相机传感器,具体方法如下:
找出无线相机传感器网络所覆盖的区域中相对距离最远的两个无线相机传感器;
以这两个无线相机传感器所构成的线段为对角线,并通过该对角线确定唯一的一个正方形,将该正方形作为无线相机传感器网络的最小监视区域;
以无线相机传感器的最远清晰成像距离为最小刻度,将无线相机传感器网络的最小监视区域分为N2份,INT表示取整,l0表示最小刻度,l表示最小监视区域的边长;
取N2份区域的中心点作为移动光标必经的中心点;
无人机携带光电标识从最小监视区域划分的左上方第一个小区域进入,以希尔伯特曲线作为移动光标的移动轨迹遍历整个最小监视区域中移动光标必经的中心点,无人机携带光电标识的飞行轨迹如图2所示。
步骤2、当携带光电标识的无人机进入某一无线相机传感器的识别范围内,该无线相机传感器启动运行,且等时间间隔地拍摄若干张含有光电标识的照片,直至携带光电标识的无人机飞出该无线相机传感器的识别范围;
等时间间隔地拍摄若干张含有光电标识的照片总张数为n
式中,d为无人机在无线相机传感器的识别范围内飞行的总长度,v为无人机在无线相机传感器的识别范围内飞行的速度。
步骤3、判断是否所有的无线相机传感器位姿已经被标定完毕:是,则当前无线相机传感器网络的相机传感器位姿标定完毕,结束;否则选取已经启动的无线相机传感器同一时刻所拍摄的照片,转至步骤4;
步骤4、各无线相机传感器对其所拍摄的照片中的光电标识进行解码,识别照片中光电标识的外部轮廓,对其内部的信息进行解码,得到光电标识对应二维码所包含的信息,即信息矩阵F,判断解码得到的结果与预先识别的内容是否相同:如果相同,则转至步骤5;否则放弃该张照片,选取剩余的照片重新判断其与预先识别的内容是否相同,直至判断完无线相机传感器拍摄的所有照片;
由于本实施方式所设计的光电标识是一个具有较好几何特征的图形,因此可以确定一个规整的正方形轮廓。无线相机传感器识别光电标识的方法是:无线相机传感器捕获带有光电标识的照片,将其处理为二值图像;从该二值图像中寻找光电标识轮廓,并且只留下像素点数大于带有光电标识的图像矩阵列数1/5的轮廓,对光电标识轮廓进行解码,从而完成对光电标识的识别。
在大多数的灾难救援的过程中,无线相机传感器的内部参数(如焦距等是确定的),本实施方式所用的无线相机传感器在被投放到指定的救援区域之前已经通过传统的张正友标定算法将无线相机传感器的内部参数标定完毕,并且认为这些无线相机传感器的内部参数在工作的过程中不会发生改变和偏移。因此在标定的过程中主要标定的是无线相机传感器的外部参数,即无线相机传感器的位姿(指无线相机传感器位于世界绝对坐标系下的位置和相对地面的角度)。本实施例中在无线相机传感器的标定分为两种不同情况下的标定,即两无线相机传感器间存在重叠视场和不存在重叠视场两种情况进行标定。
步骤5、判断无线相机传感器之间是否存在视场重叠:如果同一时刻运行的无线相机传感器为一台即同一时刻识别出光电标识的无线相机传感器为一台,则不存在无线相机传感器之间视场重叠,转至步骤6;如果在同一时刻运行的无线相机传感器大于一台,则无线相机传感器之间存在重叠视场,转至步骤7;
步骤6、提取不存在视场重叠的无线相机传感器在三个不同时刻的所拍摄的照片,根据三张照片中光电标识的位置,求解得到该无线相机传感器的位姿信息,完成该无线相机传感器的位姿标定,转至步骤3;
求解得到无线相机传感器的位姿信息,具体方法如下:
设无线相机传感器的位姿为(x,y),以光电标识的中间点的世界绝对位置为参考坐标,并将其除以其模长,得到单位参考坐标,从无线相机传感器在三个不同时刻所拍摄的照片里面取出第一张与第二张照片中光电标识的位置,同理取出第一张与第三张照片中光电标识的位置,根据小孔成像原理列出第一张照片中光电标识的参考坐标与第二张照片中光电标识的参考坐标及无线相机传感器间(x,y)的方程,构成如下的方程组:
式中为无线相机传感器的位置,|SP|为模长;为光电标识在前第一张与第二张照片中移动的向量,|SQ|为其模长;为光电标识在第一张与第三张照片中移动的向量,|SR|为模长;α是与之间的角度大小;
从方程组中求解出(x,y)便得到该无线相机传感器的位姿信息,完成该无线相机传感器的位姿标定。
步骤7、存在视场重叠的无线相机传感器进行无线相机传感器间的特征点匹配,计算出本质矩阵并分解,得到无线相机传感器之间的旋转矩阵;
步骤7.1、在无人机离开无线相机传感器网络覆盖的区域时,存在视场重叠的各无线相机传感器,在不同时刻重新拍摄一张照片;此时拍摄的照片不包含无人机及光电标识;
步骤7.2、对存在视场重叠的各无线相机传感器所重新拍摄的照片进行FAST特征点提取:判断候选点周围各点的像素值与该候选点的灰度差别是否达到设定阈值(候选点周围各点的像素值与该候选点的灰度差别是否足够大),是,则该候选点是一个特征点,否则舍弃;
每个候选点是否为特征点可由下面公式判断:
式中,I(x)为以特征点为圆心的圆周上的任意一点像素值,I(p)为候选点像素值,εd为设定阈值,N为以特征点为圆心的圆周上满足上述判断的候选点数,如N=12。
步骤7.3、利用光流算法表示出存在视场重叠的各无线相机传感器所重新拍摄的照片间的特征点梯度,并根据特征点梯度值进行特征点匹配;
步骤7.4、利用RANSAC算法估计出无线相机传感器间的本质矩阵,并将本质矩阵分解得到无线相机传感器间的旋转矩阵。
本质矩阵分解的方法是:
假定本质矩阵E有两个相同的奇异值和一个零奇异值,则矩阵E能够进行如下SVD分解:
E=Udiag(s2,s2,0)VT
其中,s是无线相机传感器间的平移向量的模长,U,V是正交矩阵,令反对称矩阵旋转矩阵
得到本质矩阵的SVD分解结果E=(USUT)(UZVT)=[t]×R,单位平移向量[t]×=USUT,无线相机传感器间的旋转矩阵R=UZVT。
步骤8、取存在视场重叠的任意无线相机传感器所拍摄的三个不同时刻的照片,根据三张照片中光电标识的位置,求解得到存在视场重叠的无线相机传感器的位姿信息(x′0,y′0);
步骤9、根据步骤8求出的无线相机传感器的位姿信息,通过逆运算计算出存在视场重叠的无线相机传感器间的平移向量,进而确定存在视场重叠的各无线相机传感器的旋转矩阵及平移向量,完成有重叠视场的相机节点的位姿标定,转至步骤3。
本实施方式利用Visual Studio和Open CV软件进行了仿真实验。实际情况下,场景中有N个无线相机传感器节点,每个无线相机传感器节点都与其他至少两个无线相机传感器节点有重复的FOV,且每个无线相机传感器节点捕获一帧图像。实验采用了10个无线相机传感器节点,共捕获10帧图像。为简便,实验中的10帧图像由一个无线相机传感器在10处拍摄完成。取前两帧图像对参数进行初始化。对前一帧图像进行FAST特征检测,再对两帧图像采用光流法进行特征点匹配,最后求解[R,t]。之后再取第二、三帧图像,重复上述过程。再取三、四帧图像,重复处理过程。以此类推,直至最后一帧图像处理完。这样就得到了十帧图像中每两帧之间的[R,t]。
Claims (7)
1.一种面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,包括:
步骤1、无人机携带能被无线相机传感器网络中各无线相机传感器识别的光电标识进入无线相机传感器网络覆盖的区域,并遍历无线相机传感器网络内所有无线相机传感器;
步骤2、当携带光电标识的无人机进入某一无线相机传感器的识别范围内,该无线相机传感器启动运行,且等时间间隔地拍摄若干张含有光电标识的照片,直至携带光电标识的无人机飞出该无线相机传感器的识别范围;
步骤3、判断是否所有的无线相机传感器位姿已经被标定完毕:是,则当前无线相机传感器网络的相机传感器位姿标定完毕,结束;否则选取已经启动的无线相机传感器同一时刻所拍摄的照片,转至步骤4;
步骤4、各无线相机传感器对其所拍摄的照片中的光电标识进行解码,判断解码得到的结果与预先识别的内容是否相同:如果相同,则转至步骤5;否则放弃该张照片,选取剩余的照片重新判断其与预先识别的内容是否相同,直至判断完无线相机传感器拍摄的所有照片;步骤5、判断无线相机传感器之间是否存在视场重叠:如果同一时刻运行的无线相机传感器为一台即同一时刻识别出光电标识的无线相机传感器为一台,则不存在无线相机传感器之间视场重叠,转至步骤6;如果在同一时刻运行的无线相机传感器大于一台,则无线相机传感器之间存在重叠视场,转至步骤7;
步骤6、提取不存在视场重叠的无线相机传感器在三个不同时刻的所拍摄的照片,根据三张照片中光电标识的位置,求解得到该无线相机传感器的位姿信息,完成该无线相机传感器的位姿标定,转至步骤3;
步骤7、存在视场重叠的无线相机传感器进行无线相机传感器间的特征点匹配,计算出本质矩阵并分解,得到无线相机传感器之间的旋转矩阵;
步骤8、取存在视场重叠的任意无线相机传感器所拍摄的三个不同时刻的照片,根据三张照片中光电标识的位置,求解得到存在视场重叠的无线相机传感器的位姿信息;
步骤9、根据步骤8求出的无线相机传感器的位姿信息,通过逆运算计算出存在视场重叠的无线相机传感器间的平移向量,进而确定存在视场重叠的各无线相机传感器的旋转矩阵及平移向量,完成有重叠视场的相机节点的位姿标定,转至步骤3。
2.根据权利要求1所述的面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,所述光电标识的通体为黑色,中央是底色为白色的LED灯,光电标识的黑色背景与白色的LED灯共同构成能被无线相机传感器识别的主动发光的二维码。
3.根据权利要求1所述的面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,遍历无线相机传感器网络内所有无线相机传感器,具体方法如下:
找出无线相机传感器网络所覆盖的区域中相对距离最远的两个无线相机传感器;
以这两个无线相机传感器所构成的线段为对角线,并通过该对角线确定唯一的一个正方形,将该正方形作为无线相机传感器网络的最小监视区域;
以无线相机传感器的最远清晰成像距离为最小刻度,将无线相机传感器网络的最小监视区域分为N2份,INT表示取整,l0表示最小刻度,l表示最小监视区域的边长;
取N2份区域的中心点作为移动光标必经的中心点;
无人机携带移动光标从最小监视区域划分的一个小区域进入,以希尔伯特曲线作为移动光标的移动轨迹遍历整个最小监视区域中移动光标必经的中心点。
4.根据权利要求1所述的面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,无线相机传感器识别光电标识的方法是:无线相机传感器捕获带有光电标识的照片,将其处理为二值图像;从该二值图像中寻找光电标识轮廓,对光电标识轮廓进行解码,从而完成对光电标识的识别。
5.根据权利要求1所述的面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,求解得到无线相机传感器的位姿信息,具体方法如下:
设无线相机传感器的位姿为(x,y),从无线相机传感器在三个不同时刻所拍摄的照片里面取出第一张与第二张照片中光电标识的位置,同理取出第一张与第三张照片中光电标识的位置,分别列两个方程构成如下的方程组:
式中为无线相机传感器的位置,|SP|为模长;为光电标识在前第一张与第二张照片中移动的向量,|SQ|为其模长;为光电标识在第一张与第三张照片中移动的向量,|SR|为模长;α是与之间的角度大小;
从方程组中求解出(x,y)便得到该无线相机传感器的位姿信息,完成该无线相机传感器的位姿标定。
6.根据权利要求1所述的面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,步骤7的具体步骤如下:
步骤7.1、在无人机离开无线相机传感器网络覆盖的区域时,存在视场重叠的各无线相机传感器,在不同时刻重新拍摄一张照片;
步骤7.2、对存在视场重叠的各无线相机传感器所重新拍摄的照片进行FAST特征点提取:判断候选点周围各点的像素值与该候选点的灰度差别是否达到设定阈值,是,则该候选点是一个特征点,否则舍弃;
步骤7.3、利用光流算法表示出存在视场重叠的各无线相机传感器所重新拍摄的照片间的特征点梯度,并根据特征点梯度值进行特征点匹配;
步骤7.4、利用RANSAC算法估计出无线相机传感器间的本质矩阵,并将本质矩阵分解得到无线相机传感器间的旋转矩阵。
7.根据权利要求6所述的面向无线相机传感器网络的无线相机传感器位姿标定方法,其特征在于,本质矩阵分解的方法是:
假定本质矩阵E有两个相同的奇异值和一个零奇异值,则矩阵E能够进行如下SVD分解:
E=Udiag(s2,s2,0)VT
其中,s是无线相机传感器间的平移向量的模长,U,V是正交矩阵,令反对称矩阵
旋转矩阵
得到本质矩阵的SVD分解结果E=(USUT)(UZVT)=[t]×R,单位平移向量[t]×=USUT,无线相机传感器间的旋转矩阵R=UZVT。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610237917.2A CN105931229B (zh) | 2016-04-18 | 2016-04-18 | 面向无线相机传感器网络的无线相机传感器位姿标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610237917.2A CN105931229B (zh) | 2016-04-18 | 2016-04-18 | 面向无线相机传感器网络的无线相机传感器位姿标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105931229A CN105931229A (zh) | 2016-09-07 |
CN105931229B true CN105931229B (zh) | 2019-02-05 |
Family
ID=56839193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610237917.2A Expired - Fee Related CN105931229B (zh) | 2016-04-18 | 2016-04-18 | 面向无线相机传感器网络的无线相机传感器位姿标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105931229B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107976668B (zh) * | 2016-10-21 | 2020-03-31 | 法法汽车(中国)有限公司 | 一种确定相机与激光雷达之间的外参数的方法 |
CN107976669B (zh) * | 2016-10-21 | 2020-03-31 | 法法汽车(中国)有限公司 | 一种确定相机与激光雷达之间的外参数的装置 |
CN107808402A (zh) * | 2017-10-31 | 2018-03-16 | 深圳市瑞立视多媒体科技有限公司 | 多相机系统的标定方法、多相机系统及终端设备 |
CN107909600B (zh) * | 2017-11-04 | 2021-05-11 | 南京奇蛙智能科技有限公司 | 一种基于视觉的无人机实时运动目标分类与检测方法 |
PL233219B1 (pl) * | 2017-11-17 | 2019-09-30 | Politechnika Warszawska | Sposób tworzenia siatki kalibracyjnej z wykorzystaniem wyświetlacza o wysokiej rozdzielczości |
CN111833404B (zh) * | 2019-04-23 | 2023-10-31 | 富联精密电子(天津)有限公司 | 摄像机校正系统及摄像机校正方法 |
CN110187402A (zh) * | 2019-05-17 | 2019-08-30 | 北京三快在线科技有限公司 | 一种应用于无人驾驶设备的物体识别方法 |
CN110674792B (zh) * | 2019-10-17 | 2021-12-24 | 河南四建工程有限公司 | 基于神经网络的施工进度监测装置及方法 |
CN113030691B (zh) * | 2019-12-24 | 2022-07-19 | 芯恩(青岛)集成电路有限公司 | 芯片电性测试探针头对位方法、系统、存储介质及终端 |
CN111311682A (zh) * | 2020-02-24 | 2020-06-19 | 卡莱特(深圳)云科技有限公司 | 一种led屏校正过程中的位姿估计方法、装置及电子设备 |
CN111798520B (zh) * | 2020-09-08 | 2020-12-22 | 平安国际智慧城市科技股份有限公司 | 基于卷积神经网络的图像处理方法、装置、设备及介质 |
CN112885097B (zh) * | 2021-02-07 | 2023-01-10 | 云控智行(上海)汽车科技有限公司 | 一种基于跨点位的路侧融合管理方法及系统 |
CN114067058B (zh) * | 2021-11-24 | 2024-04-16 | 哈尔滨工业大学 | 多角度sar立体成像方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103177442A (zh) * | 2013-03-04 | 2013-06-26 | 北京邮电大学 | 一种无重叠视场的相机与二维激光的标定方法 |
CN103824278A (zh) * | 2013-12-10 | 2014-05-28 | 清华大学 | 监控摄像机的标定方法和系统 |
CN103927739A (zh) * | 2014-01-10 | 2014-07-16 | 北京航天飞行控制中心 | 一种基于拼接图像的巡视器定位方法 |
-
2016
- 2016-04-18 CN CN201610237917.2A patent/CN105931229B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103177442A (zh) * | 2013-03-04 | 2013-06-26 | 北京邮电大学 | 一种无重叠视场的相机与二维激光的标定方法 |
CN103824278A (zh) * | 2013-12-10 | 2014-05-28 | 清华大学 | 监控摄像机的标定方法和系统 |
CN103927739A (zh) * | 2014-01-10 | 2014-07-16 | 北京航天飞行控制中心 | 一种基于拼接图像的巡视器定位方法 |
Non-Patent Citations (3)
Title |
---|
Mutidimensional scaling based location calibration for wireless multimedia sensor networks;Rohit Kadam 等;《The 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems》;20101022;第5654-5659页 |
基于无线多媒体传感器网络的目标定位方法;李鉴庭 等;《浙江大学学报(工学版)》;20110131;第45卷(第1期);正文第45-49页 |
目标跟踪WMSN的定位方法与动态分簇研究;唐军;《中国博士学位论文全文数据库 信息科技辑》;20101215;正文第2-3章 |
Also Published As
Publication number | Publication date |
---|---|
CN105931229A (zh) | 2016-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105931229B (zh) | 面向无线相机传感器网络的无线相机传感器位姿标定方法 | |
CN111583136B (zh) | 一种救援场景下自主移动平台同时定位与建图方法 | |
CN107808407B (zh) | 基于双目相机的无人机视觉slam方法、无人机及存储介质 | |
CN103279186B (zh) | 融合光学定位与惯性传感的多目标运动捕捉系统 | |
CN107564062A (zh) | 位姿异常检测方法及装置 | |
Rozantsev et al. | Flight dynamics-based recovery of a UAV trajectory using ground cameras | |
CN108846867A (zh) | 一种基于多目全景惯导的slam系统 | |
CN105469389B (zh) | 一种用于视觉传感器标定的网格球靶标及相应标定方法 | |
CN106981091A (zh) | 人体三维建模数据处理方法及装置 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN108897342A (zh) | 针对快速移动的民用多旋翼无人机的定位跟踪方法及系统 | |
Workman et al. | A pot of gold: Rainbows as a calibration cue | |
CN106504287A (zh) | 基于模板的单目视觉目标空间定位系统 | |
CN110090425A (zh) | 一种中长跑运动的计时方法 | |
CN116030194A (zh) | 一种基于目标检测规避的空地协同实景三维建模优化方法 | |
CN206100245U (zh) | 360度全景深度摄像机 | |
CN104596486B (zh) | 基于目标旋转对称特征的位姿测量方法 | |
CN108510434B (zh) | 通过球幕相机进行三维建模的方法 | |
CN108564654A (zh) | 三维大场景的画面进入方式 | |
Li et al. | A hybrid pose tracking approach for handheld augmented reality | |
Xiang et al. | Mobile robot automatic aiming method based on binocular vision | |
CN104931039B (zh) | 自由空间定位方法及系统 | |
Huang et al. | Research and application of rapid 3D modeling technology based on UAV | |
CN107730584A (zh) | 一种基于航拍技术的全景空间构建系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190205 |