CN109752855A - 一种光斑发射装置和检测几何光斑的方法 - Google Patents
一种光斑发射装置和检测几何光斑的方法 Download PDFInfo
- Publication number
- CN109752855A CN109752855A CN201711088740.5A CN201711088740A CN109752855A CN 109752855 A CN109752855 A CN 109752855A CN 201711088740 A CN201711088740 A CN 201711088740A CN 109752855 A CN109752855 A CN 109752855A
- Authority
- CN
- China
- Prior art keywords
- image
- hot spot
- spot
- geometry
- light spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本申请提出一种光斑发射装置和检测几何光斑的方法,所述光斑发射装置包括:壳体及设置在所述壳体内的透镜、光斑尺寸调节器、光斑形状片、调节导轨和光源;所述光源发出的光投射至所述光斑形状片后经过所述透镜放大形成与所述光斑形状片对应形状的几何光斑;所述调节导轨沿光斑传播方向设置,所述光斑尺寸调节器调节所述光斑形状片和/或光源沿所述导轨移动以调节所述几何光斑的大小,通过一个或者多个光斑发射装置的组合,实现多种虚拟墙模式。解决了视觉虚拟墙定位过程中光斑检测的问题,可提高光斑检测精度。
Description
技术领域
本发明涉及光斑定位领域,具体涉及一种光斑发射装置和检测几何光斑的方法。
背景技术
智能家居日益成为年轻人的一种生活方式,机器人(如扫地机器人)得以进入家庭,将人们从日常家务中解放出来。目前的扫地机器人导航以随机碰撞、惯性导航和激光导航方式为主。随机碰撞、惯性导航清洁效率较低;激光导航成本较高,且激光头损耗较快,难以保证长时间工作。扫地机器人在无人操作的情况下,在某一区域内进行自动清扫可能会进入用户不希望扫地机器人进入的部分区域,比如儿童玩具堆放的区域,扫地机器人进入后可能会将玩具的部分小零件吸入尘盒;再比如有水的阳台间,扫地机器人进入该区域后可能将水吸入机体内,导致机器损坏。由于上述区域的边界通常不存在房门或墙壁等障碍物,因而为了防止扫地机器人进入以上区域,用户可在这些区域设置虚拟墙。
传统的虚拟墙工作范围有限,无法覆盖大场景区域;在扫地机器人内部需要安装专用检测装置对虚拟墙进行识别,且在识别过程中需要对其进行准确对准后,其信息才可用;传统的虚拟墙为局部信息,在进行全局路径规划中,需要不断加入新的虚拟墙信息才能进行下一步的规划,导致规划不够智能、全面。
发明内容
本发明提供一种光斑发射装置和检测几何光斑的方法,增强定位精度的光斑形状及检测方法。
为了实现上述发明目的,本发明采取的技术方案如下:
第一方面,本发明提供一种光斑发射装置,包括:壳体及设置在所述壳体内的透镜、光斑尺寸调节器、光斑形状片、调节导轨和光源;
所述光源发出的光投射至所述光斑形状片后经过所述透镜放大形成与所述光斑形状片对应形状的几何光斑;
所述调节导轨沿光斑传播方向设置,所述光斑尺寸调节器调节所述光斑形状片和/或光源沿所述导轨移动以调节所述几何光斑的大小。
优选地,所述光斑形状片上设置有:定位图案和位置校验图案,所述定位图案用于形成定位光斑供检测装置对所述几何光斑进行定位;所述位置校验图案设置在所述定位图案的几何中心,用于形成校验光斑供检测装置对所述几何光斑进行位置校验。
优选地,所述定位图案所构成的图形绕所述位置校验图案旋转对称,所述定位图案和所述位置校验图案的形状为点、圆形或正方形。
优选地,所述定位图案和所述位置校验图案具有第一类校验线和第二类校验线,所述第一类校验线同时经过位置校验图案的中心以及至少一个定位图案的中心;所述第二类校验线仅经过定位图案的中心且为相应定位图案的对称轴。
优选地,所述定位图案构成的图形包括三个第一正方形,所述三个第一正方形中心位于一个第二正方形的三个顶点且所述第一正方形的边与第二正方形对应的边平行,所述位置校验图案为定位点,所述定位点位于第一正方形的其中一条对角线的延长线上,所述第一正方形的面积小于第二正方形。
第二方面,本发明还提供一种检测几何光斑方法,包括:
采集包含有几何光斑的光斑图像;
确定光斑图像的偏转角度以及几何光斑在所述光斑图像中的位置;
对每个光斑图像进行畸变校正形成局域图像;
对局域图像进行拼接获得全局图像;
根据全局图像中反映的光斑信息确定形成的虚拟墙以限定机器人的活动范围。
优选地,所述光斑信息包括:所述几何光斑的个数信息、每个几何光斑在全局图像中的位置信息以及全部光斑图像的中心点构成的几何形状。
优选地,所述根据全局图像中反映的光斑信息确定形成的虚拟墙以限定机器人的活动范围的步骤包括:在局域图像和全局图像之间进行位置变换获得所述几何光斑在全局图像中的位置信息。
优选地,采集包含有几何光斑的光斑图像还包括:
将采集到的每个光斑图像转换为灰度图像;
对所述灰度图像进行滤波处理后再进行后续步骤。
优选地,对局域图像进行拼接获得全局图像包括:提取不同局域图像中相匹配的特征点并根据相匹配的特征点求解单应性矩阵H获得局域图像在拼接过程中的旋转分量R和平移分量t。
优选地,根据单应性矩阵H对所有局域图像做透视变换,并对相邻两张局域图像的重叠区域进行线性融合完成所有局域图像的拼接,其中透视变换的公式为
线性融合公式为
dst(x,y)=α*src1(x,y)+(1-α)*src2(x,y)
其中(x,y)为像素点在局域图像中的坐标,dst(x,y)为变换后点(x,y)像素点的像素值,α为融合系数。
优选地,确定光斑图像的偏转角度以及几何光斑在所述光斑图像中的位置包括:通过Canny边缘检测算法计算光斑图像的偏转角度。
优选地,采用双阈值法使光斑图像的边缘闭合,并在光斑图像的x轴方向和y轴方向上分别寻找嵌套层数大于2的边缘以确定几何光斑在所述光斑图像中的位置。
优选地,根据第一类校验线和第二类校验线对几何光斑进行角点校验和/或中心点校验。。
本发明和现有技术相比,具有如下有益效果:
1、本发明的技术方案中视觉导航以光斑发射装置投射到天花板或地面的光斑为导航信息来源,因此其虚拟墙实现方式与传统的红外发射虚拟墙有较大的不同,且具有更多的可拓展性。
2、本发明可将光斑发射装置放置于室内任何角落,对周边环境无要求,简化操作。
3、本发明可以通过一个或者多个光斑发射装置的组合,实现多种虚拟墙模式。
4、本发明解决了视觉虚拟墙定位过程中光斑检测的问题,可提高光斑检测精度;
5、本发明所提及的视觉虚拟墙光斑检测方案可大幅度提高光斑定位精度,从而提高视觉虚拟墙的可靠性及扫地机自我定位的准确性,从而提高扫地机的整体性能。
附图说明
图1为本发明实施例的光斑发射装置的结构示意图;
图2为本发明实施例的光斑发射装置的投射示意图;
图3为本发明实施例的典型光斑形状片的示意图;
图4为本发明实施例的典型光斑形状片的示意图;
图5为本发明实施例的典型光斑形状片的示意图;
图6为本发明实施例的典型光斑形状片的示意图;
图7为本发明实施例的典型光斑形状片的示意图;
图8为本发明实施例的典型光斑形状片的示意图;
图9为本发明实施例的优选光斑形状片的示意图;
图10为本发明实施例的光斑形状片校验示意图;
图11为本发明实施例的几何光斑校验示意图;
图12为本发明实施例的几何光斑构成的虚拟墙的示意图;
图13为本发明实施例的检测几何光斑的方法的流程图;
图14为本发明实施例1的光斑检测方法的流程图;
图15为本发明实施例1的预处理流程图;
图16为本发明实施例1的特征点检测示意图;
图17为本发明实施例1的图像处理的示意图;
图18为本发明实施例1的角点校验的示意图。
具体实施方式
为使本发明的发明目的、技术方案和有益效果更加清楚明了,下面结合附图对本发明的实施例进行说明,需要说明的是,在不冲突的情况下,本申请中的实施例和实施例中的特征可以相互任意组合。
如图1所示,本发明实施例提供一种光斑发射装置,包括:壳体及设置在所述壳体内的透镜1、光斑尺寸调节器2、光斑形状片5、调节导轨3和光源4;
所述光源4发出的光投射至所述光斑形状片5后经过所述透镜1放大形成与所述光斑形状片5对应形状的几何光斑;
所述调节导轨3沿光斑传播方向设置,所述光斑尺寸调节器2调节所述光斑形状片5和/或光源4沿所述导轨3移动以调节所述几何光斑的大小。
如图2所示,所述光斑发射装置生成用于机器人视觉导航所需的几何光斑;并将几何光斑投射至天花板,可以调节几何光斑的尺寸和形状或者生成多种尺寸和形状的几何光斑。通过变换光斑形状片5达到变换几何光斑形状的目的,通过调节光斑尺寸调节器2使得光斑形状片5和/或光源4延调节导轨3移动,达到调节几何光斑尺寸的目的。本发明实施例的光斑发射装置可自由变换几何光斑尺寸,生成多种不同投射尺寸的几何光斑,以符合虚拟墙所要限定的区域。本发明实施例可将光斑发射器放置于室内任何角落,对周边环境无要求,简化操作。
视觉导航扫地机器人在使用光斑虚拟墙的过程中,将光斑发射装置放置于室内任何角落,可以通过一个或者多个光斑发射装置的组合,实现多种虚拟墙模式。
所述光斑形状片5上设置有:定位图案11和位置校验图案12,所述定位图案11用于形成定位光斑供检测装置对所述几何光斑进行定位;所述位置校验图案12设置在所述定位图案的几何中心,用于形成校验光斑供检测装置对所述几何光斑进行位置校验。
所述定位图案所构成的图形绕所述位置校验图案旋转对称,所述定位图案和所述位置校验图案的形状为点、圆形或正方形。
所述定位图案和所述位置校验图案具有第一类校验线和第二类校验线,所述第一类校验线同时经过位置校验图案的中心以及至少一个定位图案的中心;所述第二类校验线仅经过定位图案的中心且为相应定位图案的对称轴。
所述光斑形状片5投射至天花板的几何光斑应具有如下特征:
1、在同一直线距离,但从不同角度上观察,由于透视原理,从地面上观测到的几何光斑形状将发生拉伸形变,在不同角度下,该形变应为均匀连续的,即其变化率应为一常数;
2、由于几何光斑组合使用可形成多种技术效果且为应对家具吊顶高低不一的情况,几何光斑形状应该在全面缩放下保持一致,即投影几何光斑具有尺寸不变性;
3、扫地机在地面上运动,从不同角度上观测几何光斑,几何光斑应具有相似的或可辨识的特性,该可辨识的特性包括方向指向、缺口方向或图像特征;
4、由于家居天花板环境较为复杂,可能存在吊顶、斜面等形状,为了保证几何光斑检测的效果,几何光斑形状应支持多重校验的功能。
满足上述1、2特征的单一图案形状包含且不限于:点、圆、正方形。满足特征3、4的光斑可为上述基本形状的饶光斑中心形成的旋转对称组合,如图3至图8所示,所述光斑发射装置投射至天花板的几何光斑具有光斑形状片相应的特征:
投射的几何光斑包括:定位图案和位置校验图案,所述定位图案用于形成定位光斑供检测装置对所述几何光斑进行定位;所述位置校验图案设置在所述定位图案的几何中心,用于形成校验光斑供检测装置对所述几何光斑进行位置校验。
所述定位图案所构成的图形绕所述位置校验图案旋转对称,所述定位图案和所述位置校验图案的形状为点、圆形或正方形。
所述定位图案和所述位置校验图案具有第一类校验线和第二类校验线,所述第一类校验线同时经过位置校验图案的中心以及至少一个定位图案的中心;所述第二类校验线仅经过定位图案的中心且为相应定位图案的对称轴。
优选地,如图9所示,一种典型的所述光斑形状片5的定位图案构成的图形包括三个第一正方形,所述三个第一正方形中心位于一个第二正方形的三个顶点且所述第一正方形的边与第二正方形对应的边平行,所述位置校验图案为定位点,所述定位点位于第一正方形的其中一条对角线的延长线上,所述第一正方形的面积小于第二正方形。
如图10所示,虚线为光斑检测中角点检测后各个角点之间的连线所形成的校验线。其中,根据校验虚线的作用,可将其分为第一类、第二类校验线。第一类校验线用于校验中心位置校验图案的位置,并可以第二类校验线共同作用,实现校验线自校验;第二类校验线用于校验线的自标定。
对应的几何光斑形状由三个用于定位光斑的正方形定位图案及一个用于校核光斑信息的位置校验图案组成。其中,该位置校验图案位于三个正方形对角线的延长线上,因此可用于验证该几何光斑是否得到正常检测;同时,该延长线还可用于定位块的自我校正。
如图11所示,扫地机在地面清扫同时拍摄天花板图案的过程中,由于透视现象,几何光斑进入检测阶段后将出现尺寸缩放及角度变换,而由于几何光斑形状的特殊性,其自校验线之间仍可进行互校验,从而准确提供检验信息,保证光斑图案的有效性和准确性。
如图11所示,由于几何光斑投射至天花板的高度、角度均非固定量,甚至光斑发射装置放置于不平表面,因此投影生成的几何光斑在尺寸、形状上均会产生形变及不一致性。虽然可通过人为调节比例调节器2及摆放位置对其进行调整干预,但本方案所提及的光斑检测方法仍需要应对上述畸变。需要设计一种光斑形状,令其在检测过程中具有尺度不变性,旋转不变性及伪射不变性,即在不同投射高度、观测角度,天花板凹凸的情况下,仍能被检测方法检测识别。如图12所示,位置校验图案还是该几何光斑图案的几何中心,作为经过多次校验后的位置校验图案,可直接用于后续的虚拟墙设置中。根据几何中心之间的位置关系以及数量关系,可实现光斑虚拟墙的功能。
如图13所示,本发明实施例提供一种检测几何光斑方法,包括:
S101、采集包含有几何光斑的光斑图像;
S102、确定光斑图像的偏转角度以及几何光斑在所述光斑图像中的位置;
S103、对每个光斑图像进行畸变校正形成局域图像;
S104、对局域图像进行拼接获得全局图像;
S105、根据全局图像中反映的光斑信息确定形成的虚拟墙以限定机器人的活动范围。
其中,所述光斑信息包括:所述几何光斑的个数信息、每个几何光斑在全局图像中的位置信息以及全部光斑图像的中心点构成的几何形状。
步骤S101中采集包含有几何光斑的光斑图像还包括:
将采集到的每个光斑图像转换为灰度图像;
对所述灰度图像进行滤波处理后再进行后续步骤。
其中,将采集到的每个光斑图像转换为灰度图像包括:
根据光斑图像中R、G、B三基色值换算灰度图像的灰度值Y,其中,Y=0.30R+0.59G+0.11B。
所述的方法还包括:在灰度图像中划分邻域S,根据灰度值对各邻域S内的像素点进行中值滤波获得邻域S内像素点的灰度的中值PM,其中
P1,P2,P3…Pn为邻域S内的像素点的灰度值,PM是邻域S内的像素点的灰度的中值。
步骤S104中对局域图像进行拼接获得全局图像包括:采用ORB特征提取算法对灰度图像进行特征点提取,所述特征点的提取方法为,检测以灰度图像中任一点p为圆心、m个像素点为半径的圆上的n个像素点的灰度值,若其中有s个点的灰度值均大于Ip+T或均小于Ip-T,则判定p为特征点,其中Ip为p点的灰度值,T为预设灰度阈值。
指定灰度强度质心为旋转方向以确定灰度图像的偏转角度θ,其中:建立以特征点p为坐标系原点,在邻域S内计算质心位置C,以特征点p为起点质心C为终点构建向量PC,所述邻域S的矩阵为质心的位置为偏转角度θ=atan2(m01,m10),p∈{0,1},q∈{0,1},I(x,y)为像素点的灰度值。
通过BRIEF算法以任意特征点为中心,在像素点面积为s*s的邻域S内计算并构造出具有旋转不变性的描述子gn(p,θ)=fn(p)|(xi,yi)∈Qθ,其中
计算相邻局域图像中相匹配的特征点的Hamming距离D(X,Y),其中,
X=(x1,x2,…,xn),Y=(y1,y2,…,yn)。
采用贪婪算法查找每个特征点的2个最邻近匹配点,如果某个特征点的最邻近匹配点没有一一对应,则舍弃这一对特征点;同时,如果某个特征点的最邻近距离与次邻近距离的比值小于阈值,也舍弃这一对特征点。
采用RANSAC算法求出原始的单应性矩阵H以匹配特征点,其中
根据单应性矩阵H对所有局域图像做透视变换,并对相邻两张局域图像的重叠区域进行线性融合完成所有局域图像的拼接,其中透视变换的公式为
其中(x,y)为像素点在局域图像中的坐标,dst(x,y)为变换后点(x,y)像素点的像素值。
对相邻两张局域图像的重叠区域进行线性融合,其中,线性融合公式为
dst(x,y)=α*src1(x,y)+(1-α)*src2(x,y)。
确定光斑图像的偏转角度以及几何光斑在所述光斑图像中的位置包括:通过Canny边缘检测算法计算光斑图像的偏转角度β[i,j],其中,
P[i,j]=(f[i,j+1]-f[i,j]+f[i+1,j+1]-f[i+1,j])/2,
Q[i.j]=(f[i,j]-f[i+1,j]+f[i,j+1]-f[i+1,j+1])/2,
采用双阈值法使光斑图像的边缘闭合,并在光斑图像的x轴方向和y轴方向上分别寻找嵌套层数大于2的边缘以确定几何光斑在所述光斑图像中的位置。
根据第一类校验线和第二类校验线对几何光斑进行角点校验和/或中心点校验,所依据的校验公式为:
实施例1
本实施例所描述的光斑检测方法如下:扫地机本体具有摄像模组,在扫地机运动过程中,摄像模组开启,不断收集天花板上的图像(对应图14中步骤201)。图像经过预处理后,可将原始图像转换为清晰的摄像视频灰度帧,从而减少图像失真及颜色变化对后期检测算法的干扰(对应图14中步骤202)。之后,经过畸变校正后的灰度帧流同步一分为二,分别进入全局图像定位拼接(对应图14中步骤203-206)与局部光斑检测。局部光斑检测方法识别校正光斑,并标注其在该帧中的位置(对应图14中步骤207-209);随后将识别到的光斑映射到全局拼接的图像(对应图14中步骤210-212),使其可辅助机器人自定位及全局虚拟墙设置。整体流程如图14所示。
其中,预处理流程如图15所示,过程描述如下:摄像头采集到的二维条码图片是RGB格式的彩色图像(对应图15中步骤301),由红(Red)、绿(Green)、蓝(Blue)三种基本颜色按照一定的比例混合得到,每一种颜色分量有256个灰度级。彩色图像包含了大量识别过程中不需要的色彩信息,这些信息都需要占用存储空间。在计算机中,R、G、B三个分量分别占用一个字节的内存,一个像素至少需要占用三个字节的内存。灰度图像只表示亮度信息,只需要占用一个字节内存。所以,在图像处理过程中,通常都先将彩色图像转换成灰度图像(对应图14中步骤302),这样不但可以减少存储开销,而且可以减少后续图像处理的计算量,加快二维条码识别速度。假设灰度图像中灰度值用Y表示,彩色图像各分量的灰度值分别为R、G、B,那么标准的灰度值Y的计算公式为:
Y=0.30R+0.59G+0.11B
普通CMOS摄像头采集到的二维条码图像中经常会含有一些噪声点,导致图像退化,对后续的条码识别产生严重的干扰,降低条码识别率。针对图像中普遍存在的高斯噪声、椒盐噪声采取了中值滤波降噪处理,能够有效的去除上述几种噪声,保护图像的边缘信息,不会对后续的边缘提取产生很大的影响。
中值滤波具有良好的噪声抑制能力,是一种非线性平滑技术。对于像素点,它统计其领域窗口内所有像素点的灰度值并进行排序,将这个像素点的灰度值设置为排序后的中间值。一般选取窗口像素点个数都为奇数,因此中值滤波的数学表达式如下:
其中,P1,P2,P3,…,Pn为领域内的像素灰度值,PM就是领域内的中值。
窗口选取对图像中值滤波的效果也将产生很大的影响。根据不同的应用场合需要采用不同的采样窗口,常见的采样窗口有十字形、米字型、棱形、矩形等,其中矩形窗口最为常用。本实施例中主要是去定位框图像中含有的椒盐噪声,结合定位框的特性,选用3×3的矩形窗口作为滤波窗口;
中值滤波是通过对邻域内像素的灰度值进行排序,能后选取排序结果的中间值作为该像素点的灰度值来实现的。图像中存在的椒盐噪声一般是随机分散分布的,在较小的领域内通常不会存在多个椒盐噪声,经过排序后,噪声点通常是排在靠前或者靠后的位置,因此,中值点的值比较能代表这个像素点的实际灰度值(对应图14中步骤303)。
拍摄时,由于光源的不确定性,经常会导致拍摄到的图像存在光照不均的现象,图像中靠近光源那边比较明亮,另一边则比较暗,对后续的图像二值化处理产生严重的影响。本实施例中采用了一种自适应亮度均衡化算法(对应图14中步骤304)。
至此,预处理过程完成了视觉畸变校正,灰度化,二值化(对应图14中步骤305),所生成的灰度帧流具有较高的数据一致性与光照一致性,基本满足了后续处理的图像质量要求。
在全局图像定位拼接过程中,采用ORB特征提取算法对灰度帧图像进行特征点提取并计算各特征点的描述子,其步骤包括:
检测以图像任意点p为圆心、3—4个像素为半径的圆上16个像素点(称为M16模板)的灰度值,如图16所示。若M16中有连续n个点的灰度值均大于Ip+t,或均小于Ip-t(其中,Ip为p点灰度值,t为阈值),则判定p为特征点。为提高特征点检测速率与准确性,采用一种分割测试准,令n为12,只需先检测点1、5、9、13的灰度值,只有至少3个点满足上述阈值条件后,才继续检测剩余12个点。
指定强度质心为旋转方向可得到特征点描述符。该过程为:建立以特征点O为坐标系原点,在邻域S内计算质心位置C,以特征点为起点,质心为终点构造向量
邻域S的矩可表示为
式中I(x,y)表示图像的灰度值,x,y∈[-r,r],r为邻域S的半径。则此邻域的质心位置为
到特征点的方向
θ=atan2(m01,m10)
BRIEF是一种以二进制编码为表现形式的局部图像特征描述符。通过BRIEF检测随机响应,可提高描述符的建立速度。BRIEF算法以任意特征点为中心,在像素点面积为s×s的邻域S内定义二进制测试准则:
其中I(x)为平滑处理后的图像邻域S在x=(u,v)T处的灰度值。
对于n个(x,y)测试点对,可定义唯一的二进制准则,所生成的BRIEF描述子即为n维的二进制码串:
描述子本身是无向的,不具有旋转不变性。通过对描述符施加特征点质心方向θ,可在一定程度上解决旋转不变性的问题。在点对(xi,yi)处,对于任意n个二进制准则特征集,可定义2×n阶矩阵:
式中,(xi,yi)表示测试点对,Rθ为以特征点θ方向所对应的旋转矩阵,构造出矩阵S的旋转版本Sθ=SθS。通过该方法可得到具有旋转不变性的描述符:
gn(p,θ)=fn(p)|(xi,yi)∈Qθ
描述符向量中点对之间的相关性会增加匹配难度,需要通过贪婪式搜索来减小相关性并对其约束。
采用RANSAC随机采样一致性匹配算法求出原始的单应性矩阵,其步骤为:对图像中每一个特征点,计算与其对应相邻图像匹配特征点的Hamming距离,Hamming距离是描述两个n长二进制码串X=(x1,x2,…,xn)、Y=(y1,y2,…,yn)之间的距离,其计算公式为
其中表示异或运算。
采用贪婪搜索法查找每个特征点的2个最邻特征点;如果某个特征点的最邻近匹配点,没有一一相互对应,则拒绝这一对匹配点:同时如果某个特征点的最邻近距离与次邻近距离的比值小于某个比例阈值,则拒绝这一对匹配点,通过这样可滤除部分数据外点,提高后续的匹配速度与精度。
对剩余的数据内点,利用RANSAC算法求出单应性矩阵H,单应矩阵通常描述处于共同平面的一些点在两张图像之间的变换关系:
随后,可使用上述所求得的单应性矩阵对灰度图像进行拼接,其过程为:
根据单应性矩阵H对灰度帧图像做透视变换,则有
其中,(x,y)为图像像素点的位置,dst(x,y)为变换后点(x,y)的图像像素值。考虑在局域图像I1和I2有一个经过RANSAC筛选的匹配好的特征点p1,p2,这些点落在天花板图像平面P上,设这个平面满足
nTP+d=0
可得
根据针孔相机模型,我们知道两个特征点p1,p2的像素位置为
s1p1=KP,s2p2=K(RP+t)
因此可得,
于是,可以得到一个直接描述特征点坐标p1和p2之间的变换,把中间这部分称为H,于是:
它的定于与旋转、平移及平面的参数有关。根据匹配点计算H,然后根据数值法或解析法将其分解以计算旋转和平移。把上式子展开可的:
这里的等号是在非零因子下成立的。在实际中处理通常乘以一个非零因子使h33=1。然后根据第3行去掉这个非零引子,于是有
整理得:
h11u1+h12v1+h13-h31u1u1-h32v1u2=u2
h21u1+h22v1+h23-h31u1u1-h32v1u2=v2
这样一组匹配点就可以构造出两项约束,于是自由度为8的单应矩阵可以通过4对匹配特征点算出,即求解一下的线性方程:
通过单应性矩阵H,利用奇异值分解(SVD)可恢复出局域图像拼接过程中的旋转分量R和平移分量t。设H的SVD分解为
H=UΣVT
其中U、V为正交矩阵,Σ为奇异值矩阵。根据E的内在性质,可得Σ=diag(σ,σ,0)。在SVD分解中,对于任意一个E,存在两个可能的R、t与它对应
其中,表示沿Z轴旋转90°得到的旋转矩阵。同时,由于E和-E等价,所以对任意一个t取负号,也会得到同样的结果。本实施例中可将任意一点带入到上式中以检测结果是否正确。之后依次对所有图像进行单应性矩阵变换,完成所有图像的拼接。
经上述步骤后,采用线性融合的方法,对相邻两张图像重叠区域进行线性融合,使其自然过渡,融合公式为
dst(x,y)=α*src1(x,y)+(1-α)*src2(x,y),该线性融合的过程能够解决局域图像在拼接过程中的角度一致性问题以及拼接的边界控制问题,使相邻的两帧局域图像能够以一致的角度进行拼接,并彼此重叠一定区域地实现拼接过程,其中角度的一致性以及重叠区域的大小可以通过姿容系数α进行调节控制。
另一方面,通过局部光斑检测过程进行的有关S102步骤,本实施例可获得几何光斑在当前局部图像中的位置坐标,记为PLocal(x,y,θ);当前局域图像经过RANSAC算法匹配特征点与全局图像拼接后,可获得当前局域图像(Local Frame)与全局图像(Global Frame)之间的位置变换则当前图像中的光斑位置可转换为通过上述步骤,可将局部图像中的几何光斑的位置坐标变换至全局图像中,换算出在全局图像下的几何光斑的位置信息。
在局部光斑检测过程中,由于所输入的灰度帧已经过二值化处理,因此可直接对图像进行处理,其过程如图17所示,其过程描述如下:
通过Canny边缘检测法(对应图17中步骤401),其过程为:关于图像灰度值得梯度可使用一阶有限差分来进行近似,这样就可以得图像在x和y方向上偏导数的两个矩阵。
Canny算法中的所采用的卷积算子为:
其x向、y向的一阶偏导数矩阵,梯度幅值以及梯度方向的数学表达式为:
P[i,j]=(f[i,j+1]-f[i,j]+f[i+1,j+1]-f[i+1,j])/2
Q[i.j]=(f[i,j]-f[i+1,j]+f[i,j+1]-f[i+1,j+1])/2
Canny算法中减少假边缘数量的方法是采用双阈值法(对应图17中步骤402)。选择两个阈值,根据高阈值得到一个边缘图像,这样一个图像含有很少的假边缘,但是由于阈值较高,产生的图像边缘可能不闭合,未解决这样一个问题采用了另外一个低阈值。
在高阈值图像中把边缘链接成轮廓,当到达轮廓的端点时,该算法会在断点的8邻域点中寻找满足低阈值的点,再根据此点收集新的边缘,直到整个图像边缘闭合(对应图17中步骤403)。
经过上述步骤后,可获得值具有轮廓信息的灰度帧,随后,我们可以通过在图像的x轴和y轴方向上,分别寻找嵌套层数大于2的的边缘,并交叉比较其中心点的坐标信息。如果符合上述条件,则可判定已识别出定位框的位置,根据定位框的中心坐标,可对其进行区分(对应图17中步骤404)。
上述过程后,可得到定位框的角点信息(方形),如图18所示。由于在光斑投射与检测过程中,光斑的形状、尺寸均会产生一定的形变,因此提出一种角点校验法及中心点校验法对所述光斑进行位置和形状校核(对应图17中步骤405)。
分别对三组边框求上述公式,并且分别比较其斜率,设定阈值门限值。如果3对斜率差值均在阈值门限值内,则认为,该光斑图案符合完整性要求,可用于下一步的中心点校验。
中心点校验过程中,由上述步骤中的边框检测中可获取中心点C的位置。在校核过程中,L[0]L[3]所连直线段延长线与M[1]O[2]所连直线段延长线会有一交点,设为C’,通过验证比较实际中心点与延长线中心点之间的欧氏距离,可验证光斑图像中的中心点是否处于正常工作位置,如果其不处于正常工作位置,则舍弃该点;反之,则将该点通过坐标系转换可加入到全局图像定位拼接过程中。
上述流程完成后,光斑可在全局坐标系下实现表示。当扫地机在地面进行清扫时,不断收集天花板上的光斑位置、尺寸信息,加入到全局天花板图像中。光斑的组合信息可用于扫地机虚拟墙的构建,限定扫地机清扫区域。扫地机的中心位置可近似认为是单张局部图像的中心位置,因此,在单帧灰度帧中,可获得局部区域中扫地机与光斑之间的相对位置信息;同时,由于局部图像经过坐标系变换后,可映射到全局天花板图像中,因此,扫地机的局部坐标系因而也可转换为全局坐标系下。根据三角定位法,以多个光斑位置为基准,可对扫地机的自我位置有一个有效估计,提高定位精度。
虽然本发明所揭示的实施方式如上,但其内容只是为了便于理解本发明的技术方案而采用的实施方式,并非用于限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所揭示的核心技术方案的前提下,可以在实施的形式和细节上做任何修改与变化,但本发明所限定的保护范围,仍须以所附的权利要求书限定的范围为准。
Claims (14)
1.一种光斑发射装置,其特征在于,包括:壳体及设置在所述壳体内的透镜、光斑尺寸调节器、光斑形状片、调节导轨和光源;
所述光源发出的光投射至所述光斑形状片后经过所述透镜放大形成与所述光斑形状片对应形状的几何光斑;
所述调节导轨沿光斑传播方向设置,所述光斑尺寸调节器调节所述光斑形状片和/或光源沿所述导轨移动以调节所述几何光斑的大小。
2.如权利要求1所述的光斑发射装置,其特征在于:所述光斑形状片上设置有:定位图案和位置校验图案,所述定位图案用于形成定位光斑供检测装置对所述几何光斑进行定位;所述位置校验图案设置在所述定位图案的几何中心,用于形成校验光斑供检测装置对所述几何光斑进行位置校验。
3.如权利要求2所述的光斑发射装置,其特征在于:所述定位图案所构成的图形绕所述位置校验图案旋转对称,所述定位图案和所述位置校验图案的形状为点、圆形或正方形。
4.如权利要求1-3中任一项所述的光斑发射装置,其特征在于,所述定位图案和所述位置校验图案具有第一类校验线和第二类校验线,所述第一类校验线同时经过位置校验图案的中心以及至少一个定位图案的中心;所述第二类校验线仅经过定位图案的中心且为相应定位图案的对称轴。
5.如权利要求1-3中任一项所述的光斑发射装置,其特征在于:所述定位图案构成的图形包括三个第一正方形,所述三个第一正方形中心位于一个第二正方形的三个顶点且所述第一正方形的边与第二正方形对应的边平行,所述位置校验图案为定位点,所述定位点位于第一正方形的其中一条对角线的延长线上,所述第一正方形的面积小于第二正方形。
6.一种检测权利要求1-5中任一项所述的几何光斑方法,其特征在于:包括:
采集包含有几何光斑的光斑图像;
确定光斑图像的偏转角度以及几何光斑在所述光斑图像中的位置;
对每个光斑图像进行畸变校正形成局域图像;
对局域图像进行拼接获得全局图像;
根据全局图像中反映的光斑信息确定形成的虚拟墙以限定机器人的活动范围。
7.如权利要求6所述的方法,其特征在于:所述光斑信息包括:所述几何光斑的个数信息、每个几何光斑在全局图像中的位置信息以及全部光斑图像的中心点构成的几何形状。
8.如权利要求7所述的方法,其特征在于:所述根据全局图像中反映的光斑信息确定形成的虚拟墙以限定机器人的活动范围的步骤包括:在局域图像和全局图像之间进行位置变换获得所述几何光斑在全局图像中的位置信息。
9.如权利要求6-8中任一项所述的方法,其特征在于:采集包含有几何光斑的光斑图像还包括:
将采集到的每个光斑图像转换为灰度图像;
对所述灰度图像进行滤波处理后再进行后续步骤。
10.如权利要求9所述的方法,其特征在于:对局域图像进行拼接获得全局图像包括:提取不同局域图像中相匹配的特征点并根据相匹配的特征点求解单应性矩阵H获得局域图像在拼接过程中的旋转分量R和平移分量t。
11.如权利要求10所述的方法,其特征在于,根据单应性矩阵H对所有局域图像做透视变换,并对相邻两张局域图像的重叠区域进行线性融合完成所有局域图像的拼接,其中透视变换的公式为
线性融合公式为
dst(x,y)=α*src1(x,y)+(1-α)*src2(x,y)
其中(x,y)为像素点在局域图像中的坐标,dst(x,y)为变换后点(x,y)像素点的像素值,α为融合系数。
12.如权利要求6-8、10-11中任一项所述的方法,其特征在于,确定光斑图像的偏转角度以及几何光斑在所述光斑图像中的位置包括:通过Canny边缘检测算法计算光斑图像的偏转角度。
13.如权利要求12所述的方法,其特征在于,采用双阈值法使光斑图像的边缘闭合,并在光斑图像的x轴方向和y轴方向上分别寻找嵌套层数大于2的边缘以确定几何光斑在所述光斑图像中的位置。
14.如权利要求13所述的方法,其特征在于,根据第一类校验线和第二类校验线对几何光斑进行角点校验和/或中心点校验。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711088740.5A CN109752855A (zh) | 2017-11-08 | 2017-11-08 | 一种光斑发射装置和检测几何光斑的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711088740.5A CN109752855A (zh) | 2017-11-08 | 2017-11-08 | 一种光斑发射装置和检测几何光斑的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109752855A true CN109752855A (zh) | 2019-05-14 |
Family
ID=66399697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711088740.5A Pending CN109752855A (zh) | 2017-11-08 | 2017-11-08 | 一种光斑发射装置和检测几何光斑的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109752855A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110969656A (zh) * | 2019-12-10 | 2020-04-07 | 长春精仪光电技术有限公司 | 一种基于机载设备激光光束光斑大小的检测方法 |
CN111008607A (zh) * | 2019-12-11 | 2020-04-14 | 南京航空航天大学 | 一种视觉伺服飞机舱门缝隙自动化激光扫描方法和系统 |
CN111310818A (zh) * | 2020-02-10 | 2020-06-19 | 贝壳技术有限公司 | 特征描述子确定方法、装置及计算机可读存储介质 |
CN111582270A (zh) * | 2020-04-24 | 2020-08-25 | 哈尔滨工业大学 | 基于高精度的桥梁区域视觉靶标特征点的识别追踪方法 |
CN112528714A (zh) * | 2019-09-19 | 2021-03-19 | 北京七鑫易维信息技术有限公司 | 基于单光源的注视点估计方法、系统、处理器及设备 |
CN112686842A (zh) * | 2020-12-21 | 2021-04-20 | 苏州炫感信息科技有限公司 | 一种光斑检测方法、装置、电子设备及可读存储介质 |
CN112883986A (zh) * | 2021-03-08 | 2021-06-01 | 山西支点科技有限公司 | 一种复杂背景下的静态红外靶灯识别方法 |
CN113218306A (zh) * | 2021-04-28 | 2021-08-06 | 大连理工大学 | 一种基于fpga的光斑位置探测系统与方法 |
CN115638737A (zh) * | 2022-10-26 | 2023-01-24 | 天府兴隆湖实验室 | 入射光调整装置及光力臂检测装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006023831A (ja) * | 2004-07-06 | 2006-01-26 | Nippon Telegr & Teleph Corp <Ntt> | 移動体検出方法及びシステム |
CN104898677A (zh) * | 2015-06-29 | 2015-09-09 | 厦门狄耐克物联智慧科技有限公司 | 一种机器人的导航系统及其方法 |
CN105865406A (zh) * | 2015-01-12 | 2016-08-17 | 金宝电子工业股份有限公司 | 扫地机定位系统及其定位方法 |
CN106231971A (zh) * | 2014-02-28 | 2016-12-14 | 三星电子株式会社 | 清扫机器人及包含于此的远程控制器 |
JP2017134834A (ja) * | 2016-01-27 | 2017-08-03 | 鴻海精密工業股▲ふん▼有限公司 | コンピュータビジョン位置決めシステム及び方法 |
-
2017
- 2017-11-08 CN CN201711088740.5A patent/CN109752855A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006023831A (ja) * | 2004-07-06 | 2006-01-26 | Nippon Telegr & Teleph Corp <Ntt> | 移動体検出方法及びシステム |
CN106231971A (zh) * | 2014-02-28 | 2016-12-14 | 三星电子株式会社 | 清扫机器人及包含于此的远程控制器 |
CN105865406A (zh) * | 2015-01-12 | 2016-08-17 | 金宝电子工业股份有限公司 | 扫地机定位系统及其定位方法 |
CN104898677A (zh) * | 2015-06-29 | 2015-09-09 | 厦门狄耐克物联智慧科技有限公司 | 一种机器人的导航系统及其方法 |
JP2017134834A (ja) * | 2016-01-27 | 2017-08-03 | 鴻海精密工業股▲ふん▼有限公司 | コンピュータビジョン位置決めシステム及び方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528714A (zh) * | 2019-09-19 | 2021-03-19 | 北京七鑫易维信息技术有限公司 | 基于单光源的注视点估计方法、系统、处理器及设备 |
CN110969656A (zh) * | 2019-12-10 | 2020-04-07 | 长春精仪光电技术有限公司 | 一种基于机载设备激光光束光斑大小的检测方法 |
CN111008607A (zh) * | 2019-12-11 | 2020-04-14 | 南京航空航天大学 | 一种视觉伺服飞机舱门缝隙自动化激光扫描方法和系统 |
CN111310818A (zh) * | 2020-02-10 | 2020-06-19 | 贝壳技术有限公司 | 特征描述子确定方法、装置及计算机可读存储介质 |
CN111582270A (zh) * | 2020-04-24 | 2020-08-25 | 哈尔滨工业大学 | 基于高精度的桥梁区域视觉靶标特征点的识别追踪方法 |
CN112686842A (zh) * | 2020-12-21 | 2021-04-20 | 苏州炫感信息科技有限公司 | 一种光斑检测方法、装置、电子设备及可读存储介质 |
CN112883986A (zh) * | 2021-03-08 | 2021-06-01 | 山西支点科技有限公司 | 一种复杂背景下的静态红外靶灯识别方法 |
CN112883986B (zh) * | 2021-03-08 | 2022-06-28 | 山西支点科技有限公司 | 一种复杂背景下的静态红外靶灯识别方法 |
CN113218306A (zh) * | 2021-04-28 | 2021-08-06 | 大连理工大学 | 一种基于fpga的光斑位置探测系统与方法 |
CN115638737A (zh) * | 2022-10-26 | 2023-01-24 | 天府兴隆湖实验室 | 入射光调整装置及光力臂检测装置 |
CN115638737B (zh) * | 2022-10-26 | 2024-03-19 | 天府兴隆湖实验室 | 入射光调整装置及光力臂检测装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109752855A (zh) | 一种光斑发射装置和检测几何光斑的方法 | |
CN111126304B (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
Chen et al. | Sports camera calibration via synthetic data | |
CN106650630B (zh) | 一种目标跟踪方法及电子设备 | |
CN105023010B (zh) | 一种人脸活体检测方法及系统 | |
Rogez et al. | Mocap-guided data augmentation for 3d pose estimation in the wild | |
CN109615611B (zh) | 一种基于巡检影像的绝缘子自爆缺陷检测方法 | |
CN108717531B (zh) | 基于Faster R-CNN的人体姿态估计方法 | |
CN106875444B (zh) | 一种目标物定位方法及装置 | |
US8300935B2 (en) | Method and system for the detection and the classification of events during motion actions | |
US8218858B2 (en) | Enhanced object reconstruction | |
JP4284664B2 (ja) | 三次元形状推定システム及び画像生成システム | |
Medioni et al. | Identifying noncooperative subjects at a distance using face images and inferred three-dimensional face models | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
US20150243031A1 (en) | Method and device for determining at least one object feature of an object comprised in an image | |
CN104463899B (zh) | 一种目标对象检测、监控方法及其装置 | |
Tang et al. | ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans | |
CN106897697A (zh) | 一种基于可视化编译器的人物和姿势检测方法 | |
CN104952063A (zh) | 用于在真实环境的视图中表示虚拟对象的方法和系统 | |
CN110175558A (zh) | 一种人脸关键点的检测方法、装置、计算设备及存储介质 | |
JP6352208B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
CN106155299B (zh) | 一种对智能设备进行手势控制的方法及装置 | |
Bandlow et al. | Fast image segmentation, object recognition and localization in a robocup scenario | |
CN109993090B (zh) | 基于级联回归森林和图像灰度特征的虹膜中心定位方法 | |
JP2012113438A (ja) | 姿勢推定装置および姿勢推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190514 |
|
RJ01 | Rejection of invention patent application after publication |