CN110320523B - 跟随机器人的目标定位装置及方法 - Google Patents
跟随机器人的目标定位装置及方法 Download PDFInfo
- Publication number
- CN110320523B CN110320523B CN201910605145.7A CN201910605145A CN110320523B CN 110320523 B CN110320523 B CN 110320523B CN 201910605145 A CN201910605145 A CN 201910605145A CN 110320523 B CN110320523 B CN 110320523B
- Authority
- CN
- China
- Prior art keywords
- target
- infrared image
- heating
- heating strip
- positioning device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000010438 heat treatment Methods 0.000 claims abstract description 98
- 230000005855 radiation Effects 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000012935 Averaging Methods 0.000 claims abstract description 7
- 229920000049 Carbon (fiber) Polymers 0.000 claims description 5
- 239000004917 carbon fiber Substances 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 5
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007797 corrosion Effects 0.000 description 2
- 238000005260 corrosion Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J2005/0077—Imaging
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了跟随机器人的目标定位装置及方法。跟随机器人的目标定位装置,包括设置在目标上的热辐射模块;红外图像采集模块;激光扫描模块;数据处理模块,用于检测红外图像中发热条的边缘曲线;将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;在红外图像的目标方向处识别出目标的整体轮廓;统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置。
Description
技术领域
本公开属于机器人技术领域,尤其涉及一种跟随机器人的目标定位装置及方法。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
跟随行走作为典型的人机配合工作方式,能够使机器人在工厂、大型超市、仓储物流等环境中跟随人的移动而移动,并配合人类完成物资运输、障碍清除、应急救援等任务。跟随机器人的技术发展依靠人体目标识别技术的支持,现常见的人体目标识别方法主要为基于视觉信息或基于激光信息的两种识别方式。机器人在复杂环境中跟随行进时,视觉传感器易受到外部遮挡、尺度变化以及弱光照等问题引入的干扰,而单纯的激光传感器由于感知信息过于简单,获取目标的特征较少,同样不利于人体运动目标的识别。
现有文献中,专利201810471298.2提出了一种机器人的目标跟随方法及装置,其利用Kinect相机作为感知传感器,通过获取的深度点云数据对人体进行分析与识别。该方法从深度图像中提取人体骨骼示意图,进而确认图像中有没有人物目标,然后再将获取到的骨骼信息与预先存储的跟随目标的骨骼信息进行匹配,判断是否锁定目标。该种方式利用了Kinect相机及其自带的骨架分析功能,一定程度上可实现目标识别。发明人发现,该方法的缺陷为:首先,Kinect相机对环境光非常敏感,只能用于室内场景,在室外环境下受太阳光影响比较大。其次,骨架特征常用于人体姿态检测,但若作为目标识别的特征信息,其识别准确率较低。
专利201611155557.8提出了一种实体目标的跟随方法及机器人。为了更加容易的检测到实体目标的位置和特征点,该文献提出可以在实体目标上安装自身具有方便被识别的特征,例如视觉的色彩信息,可反射光线、超声波等在实体表面。其所述技术要求目标佩戴特定的反射标志,从而有利于机器人对目标的识别。发明人发现,其列举的特征选择方式为机器人领域的常用方法,且要求在实体表面佩戴,这使得目标与周围环境的色彩反差较大,交互友好性变差。
发明内容
为了解决上述问题,本公开的第一个方面提供一种跟随机器人的目标定位装置,其通过发热条宽度及安装距离的调节,可实现不同热辐射标志之间的特征区分,从而可实现多目标识别。
为了实现上述目的,本公开采用如下技术方案:
一种跟随机器人的目标定位装置,包括:
热辐射模块,其设置在待定位目标上;所述热辐射模块包括绝缘层,所述绝缘层上设置有若干个发热条;所有发热条尺寸相同,平行设置且间隔相等;
红外图像采集模块,其用于采集红外图像;
激光扫描模块,其用于采集现场场景深度点云数据;
数据处理模块,其用于:
接收红外图像及现场场景深度点云数据;
检测红外图像中发热条的边缘曲线;
将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;
利用发热条间距与发热条宽度的比值与预设范围比较,来判断是否找到热辐射模块;
当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;
将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;
在红外图像的目标方向处识别出目标的整体轮廓;
统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置。
本公开的第二个方面提供一种跟随机器人的目标定位装置的定位方法。
一种跟随机器人的目标定位装置的定位方法,包括:
接收红外图像及现场场景深度点云数据;
检测红外图像中发热条的边缘曲线;
将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;
利用发热条间距与发热条宽度的比值与预设范围比较,来判断是否找到热辐射模块;
当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;
将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;
在红外图像的目标方向处识别出目标的整体轮廓;
统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置。
本公开的有益效果是:
(1)本公开利用红外图像,求取红外图像中发热条的边缘曲线,将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;利用发热条间距与发热条宽度的比值与预设范围比较,来判断是否找到热辐射模块;当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;在红外图像的目标方向处识别出目标的整体轮廓;统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置,其能够实现高精度、强鲁棒性的移动机器人目标识别与定位。
(2)本公开通过发热条宽度及安装距离的调节,可实现不同热辐射标志之间的特征区分,从而可实现多目标识别。
(3)本公开避免了传统色彩图像识别方式易受室外光照变化影响的缺点,可适用于室内及室外环境,具有良好的环境适应性。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是本公开实施例的一种跟随机器人的目标定位装置结构示意图。
图2是本公开实施例的热辐射模块结构示意图。
图3是本公开实施例的一种跟随机器人的目标定位装置定位方法流程图。
其中,1-发热条;2-绝缘层;3-1第一温度传感;3-2第二温度传感;4-导线;5-电极条;6-接线端子;7-集线束;8-微处理器。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
图1是本公开实施例的一种跟随机器人的目标定位装置结构示意图。
如图1所示,本实施例的一种跟随机器人的目标定位装置,包括:
热辐射模块,其用来产生热辐射;
红外图像采集模块,其用来采集热辐射产生的红外图像;
激光扫描模块,其用来采集现场场景深度点云数据;
数据处理模块,其与红外图像采集模块和激光扫描模块分别相连,用来接收热辐射产生的红外图像和现场场景深度点云数据,并对目标进行定位。
其中,在本公开实施例中,所有发热条均处于加热状态。
红外视频图像和其他视频图像相比,因其背景简单、干扰物较少,更有利于目标检测。
本实施例将红外图像与现场场景深度点云数据相结合,通过对红外图像机芯分析,得到目标在红外图像上的方向信息,进而再结合现场场景深度点云数据,得到目标的距离信息,最终得到目标的准确定位。
具体地,本实施例的热辐射模块设置在待定位目标上。如图2所示,所述热辐射模块包括绝缘层2,所述绝缘层2上设置有若干个发热条1;所有发热条1尺寸相同,平行设置且间隔相等;
在每个发热条1内且沿发热条长度方向均匀布置有碳纤维发热丝,碳纤维发热丝的两端分别与电极条相连,所述电极条5通过导线4与接线端子6相连。
具体地,碳纤维发热丝为发热元件,其具有强度高、密度小、易弯折、柔软性好及耐腐蚀等特点。
在本实施例中,绝缘层选用绝缘衬布来实现,发热条通过绝缘胶水固定于绝缘衬布上,从而有利于发热条整体物理结构的稳定,可满足作为热辐射模块时的反复佩戴要求。
在具体实施中,接线端子6通过集线束7与微处理器8相连。
为便于热红外相机图像下发热条与环境背景的区分,实时调节发热条温度Tf,使其等于(10℃+Tc)。
为了达到上述目的,每个发热条上均设置有第一温度传感器3-1,所述第一温度传感器用于检测各个发热条上的温度并传送至微处理器。所述绝缘层上还设置有第二温度传感器3-2,所述第二温度传感器用于检测绝缘层的温度Tc并传送至微处理器。
在本实施例中,热辐射模块中包含两个发热条,这两个发热条尺寸完全一样,特规定其宽度为D,且两个发热条之间的安装距离为L。
在本实施例中,红外图像采集模块采用红外相机来实现。
激光扫描模块采用激光扫描仪来实现。
在具体实施中,数据处理模块的数据处理过程,如图3所示:
S101:接收红外图像及现场场景深度点云数据;
S102:检测红外图像中发热条的边缘曲线;
其中,检测红外图像中发热条的边缘曲线的过程为:
对红外图像中每个像素点的灰度值做二值化处理,得到第一单位色位图;
对第一单位色位图进行去噪处理,得到第二单位色位图;
例如:通过开运算对所述第一单色位图进行去噪处理,得到第二单色位图。开运算在计算机视觉和图像处理领域中是基本的形态学噪点消除模块,是指对图像先进行腐蚀运算后进行膨胀运算的一种图像处理方法,能够对图像进行去噪,有效降低图像噪声对本发明图像识别的影响。
采用多连通方式对第二单位色位图进行分割,得到发热条的边缘曲线。
例如:采用四连通对第二单色位图进行分割,得到图像发热条的边沿曲线,且结果准确、清晰。
其中,单色位图是指图像中所有像素点的色彩值只有0和1,降低灰度对图像识别的影响。
S103:将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;
S104:利用发热条间距与发热条宽度的比值δ=L/D与预设范围比较,来判断是否找到热辐射模块;
S105:当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;
S106:将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;
S107:在红外图像的目标方向处识别出目标的整体轮廓;
具体地,选取目标的形状特征作为第一级识别分类特征,目标的占空比特征作为第二级识别分类特征,基于网格划分和局部描述的目标边缘特征作为人体目标第三级识别分类特征对目标的整体轮廓进行识别。
以目标为人为例:
红外图像中人体目标没有颜色信息,纹理细节又非常少,大部分的有用信息都集中在人体的形状以及边缘轮廓上。为了能够更全面、准确的识别红外人体目标,本发明按照由全局到局部的思路采用3种特征逐步提取目标的所有像素信息。
(a)目标形状特征
目标的形状特征是最简单最直接的全局特征,选取目标的形状特征对候选目标进行第一级识别分类。设候选目标的长宽比为R,从而可以将异常区域剔除,而且最大限度地保留有用信息,因此属于粗分类。
(b)目标占空比特征
采用目标的占空比特征作为第二级识别分类特征。
目标的占空比特征描述的是目标在候选区域内的分布情况,考虑到人体目标的分布均匀性,将人体目标样本等分成4个子区域,考查每个区域属于人体的像素在子区域的占有率,最后串联成长度为4的特征向量。
(c)目标边缘特征
采用基于网格划分和局部描述的目标边缘特征作为人体目标第三级识别分类特征。网格划分的方法解决了图像中因目标大小不同而导致的采用固定窗日大小描述目标不准确问题。与一般的对提取出的目标图像归一化成固定尺寸的方法相比,避免了大量耗时的插值运算,以及人体目标在归一化后产生形状畸变的问题。
由于人体目标周围小范围内可能有光晕现象存在,直接采用边缘检测方法提取出的边缘轮廓会存在边缘断裂、局部边缘缺失等现象,因此本发明不直接采用边缘检测的方法提取目标边缘特征,而是采用划分网格后网格内部的局部梯度分布描述作为特征提取的方法以获取目标的局部边缘特征。
经过上述三步特征检测则可对目标完整的红外图像信息进行识别。
S108:统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置。
本实施例通过发热条宽度及安装距离的调节,可实现不同热辐射标志之间的特征区分,从而可实现多目标识别。
本实施例避免了传统色彩图像识别方式易受室外光照变化影响的缺点,可适用于室内及室外环境,具有良好的环境适应性。
实施例二
本实施例的跟随机器人的目标定位装置的定位方法,包括:
接收红外图像及现场场景深度点云数据;
检测红外图像中发热条的边缘曲线;
其中,检测红外图像中发热条的边缘曲线的过程为:
对红外图像中每个像素点的灰度值做二值化处理,得到第一单位色位图;
对第一单位色位图进行去噪处理,得到第二单位色位图;
采用多连通方式对第二单位色位图进行分割,得到发热条的边缘曲线。
将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;
利用发热条间距与发热条宽度的比值与预设范围比较,来判断是否找到热辐射模块;
当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;
将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;
在红外图像的目标方向处识别出目标的整体轮廓;
其中,选取目标的形状特征作为第一级识别分类特征,目标的占空比特征作为第二级识别分类特征,基于网格划分和局部描述的目标边缘特征作为人体目标第三级识别分类特征对目标的整体轮廓进行识别。
统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (8)
1.一种跟随机器人的目标定位装置,其特征在于,包括:
热辐射模块,其设置在待定位目标上;所述热辐射模块包括绝缘层,所述绝缘层上设置有若干个发热条;所有发热条尺寸相同,平行设置且间隔相等;
红外图像采集模块,其用于采集红外图像;
激光扫描模块,其用于采集现场场景深度点云数据;
数据处理模块,其用于:
接收红外图像及现场场景深度点云数据;
检测红外图像中发热条的边缘曲线;
将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;
利用发热条间距与发热条宽度的比值与预设范围比较,来判断是否找到热辐射模块;
当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;
将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;
在红外图像的目标方向处识别出目标的整体轮廓;
统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置;
在所述数据处理模块中,检测红外图像中发热条的边缘曲线的过程为:
对红外图像中每个像素点的灰度值做二值化处理,得到第一单位色位图;
对第一单位色位图进行去噪处理,得到第二单位色位图;
采用多连通方式对第二单位色位图进行分割,得到发热条的边缘曲线。
2.如权利要求1所述的跟随机器人的目标定位装置,其特征在于,在每个发热条内且沿发热条长度方向均匀布置有碳纤维发热丝,碳纤维发热丝的两端分别与电极条相连,所述电极条通过导线与接线端子相连。
3.如权利要求2所述的跟随机器人的目标定位装置,其特征在于,接线端子通过集线束与微处理器相连。
4.如权利要求3所述的跟随机器人的目标定位装置,其特征在于,每个发热条上均设置有第一温度传感器,所述第一温度传感器用于检测各个发热条上的温度并传送至微处理器。
5.如权利要求3所述的跟随机器人的目标定位装置,其特征在于,所述绝缘层上还设置有第二温度传感器,所述第二温度传感器用于检测绝缘层的温度并传送至微处理器。
6.如权利要求1所述的跟随机器人的目标定位装置,其特征在于,在所述数据处理模块中,选取目标的形状特征作为第一级识别分类特征,目标的占空比特征作为第二级识别分类特征,基于网格划分和局部描述的目标边缘特征作为人体目标第三级识别分类特征对目标的整体轮廓进行识别。
7.一种如权利要求1-6中任一项所述的跟随机器人的目标定位装置的定位方法,其特征在于,包括:
接收红外图像及现场场景深度点云数据;
检测红外图像中发热条的边缘曲线;
将发热条边缘曲线上所有像素坐标值求平均值,得到发热条的中心坐标,进而得到发热条宽度及发热条间距;
利用发热条间距与发热条宽度的比值与预设范围比较,来判断是否找到热辐射模块;
当寻找到热辐射模块时,对所有发热条中心点坐标计算平均值,将此平均值作为目标的图像坐标,进而求得目标在红外图像下的方向信息;
将现场场景深度点云数据映射到红外图像,得到红外图像所有元素对应的距离信息;
在红外图像的目标方向处识别出目标的整体轮廓;
统计目标像素对应的所有距离信息并进行平均值计算,得到目标的位置;
检测红外图像中发热条的边缘曲线的过程为:
对红外图像中每个像素点的灰度值做二值化处理,得到第一单位色位图;
对第一单位色位图进行去噪处理,得到第二单位色位图;
采用多连通方式对第二单位色位图进行分割,得到发热条的边缘曲线。
8.如权利要求7所述的跟随机器人的目标定位装置的定位方法,其特征在于,选取目标的形状特征作为第一级识别分类特征,目标的占空比特征作为第二级识别分类特征,基于网格划分和局部描述的目标边缘特征作为人体目标第三级识别分类特征对目标的整体轮廓进行识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910605145.7A CN110320523B (zh) | 2019-07-05 | 2019-07-05 | 跟随机器人的目标定位装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910605145.7A CN110320523B (zh) | 2019-07-05 | 2019-07-05 | 跟随机器人的目标定位装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110320523A CN110320523A (zh) | 2019-10-11 |
CN110320523B true CN110320523B (zh) | 2020-12-11 |
Family
ID=68122885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910605145.7A Active CN110320523B (zh) | 2019-07-05 | 2019-07-05 | 跟随机器人的目标定位装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110320523B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7375624B2 (ja) * | 2020-03-11 | 2023-11-08 | 株式会社デンソー | 測距装置 |
CN112083434B (zh) * | 2020-09-09 | 2023-12-29 | 上海有个机器人有限公司 | 一种基于激光的机器人检测方法以及装置 |
CN112287831B (zh) * | 2020-10-29 | 2022-11-04 | 齐鲁工业大学 | 基于编码热红外标志的跟随机器人多目标识别系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06344294A (ja) * | 1993-06-07 | 1994-12-20 | Ishikawajima Harima Heavy Ind Co Ltd | ロボットの遠隔操作方法および装置 |
CN105527960A (zh) * | 2015-12-18 | 2016-04-27 | 燕山大学 | 一种基于领航跟随的移动机器人编队控制方法 |
CN108536145A (zh) * | 2018-04-10 | 2018-09-14 | 深圳市开心橙子科技有限公司 | 一种使用机器视觉进行智能跟随的机器人系统及运行方法 |
CN108549088A (zh) * | 2018-04-27 | 2018-09-18 | 科沃斯商用机器人有限公司 | 基于机器人的定位方法、设备、系统及存储介质 |
CN109079794A (zh) * | 2018-09-18 | 2018-12-25 | 广东省智能制造研究所 | 一种基于人体姿态跟随的机器人控制与示教方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101667037B (zh) * | 2008-09-03 | 2011-08-31 | 中国科学院自动化研究所 | 一种基于可行通道的机器人目标追踪方法 |
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
KR101907548B1 (ko) * | 2016-12-23 | 2018-10-12 | 한국과학기술연구원 | 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법 |
CN106933096B (zh) * | 2017-03-14 | 2020-12-18 | 广州幻境科技有限公司 | 一种为第三方提供空间定位信息的自跟随机器人装置及方法 |
CN108673501B (zh) * | 2018-05-17 | 2022-06-07 | 中国科学院深圳先进技术研究院 | 一种机器人的目标跟随方法及装置 |
-
2019
- 2019-07-05 CN CN201910605145.7A patent/CN110320523B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06344294A (ja) * | 1993-06-07 | 1994-12-20 | Ishikawajima Harima Heavy Ind Co Ltd | ロボットの遠隔操作方法および装置 |
CN105527960A (zh) * | 2015-12-18 | 2016-04-27 | 燕山大学 | 一种基于领航跟随的移动机器人编队控制方法 |
CN108536145A (zh) * | 2018-04-10 | 2018-09-14 | 深圳市开心橙子科技有限公司 | 一种使用机器视觉进行智能跟随的机器人系统及运行方法 |
CN108549088A (zh) * | 2018-04-27 | 2018-09-18 | 科沃斯商用机器人有限公司 | 基于机器人的定位方法、设备、系统及存储介质 |
CN109079794A (zh) * | 2018-09-18 | 2018-12-25 | 广东省智能制造研究所 | 一种基于人体姿态跟随的机器人控制与示教方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110320523A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110320523B (zh) | 跟随机器人的目标定位装置及方法 | |
CN112906694B (zh) | 变电站倾斜式指针式仪表图像的读数矫正系统及方法 | |
CN109300161B (zh) | 一种基于双目视觉的定位方法及装置 | |
CN103149087B (zh) | 一种基于随动视窗与数字图像的非接触式实时应变测量方法 | |
KR101339026B1 (ko) | 열화상 카메라 가시성 개선 방법 및 장치 | |
CN109325959B (zh) | 一种基于Hough变换的提取红外图像细节的方法及其应用 | |
CN110263662B (zh) | 一种基于分级的人体轮廓关键点和关键部位识别方法 | |
KR101868483B1 (ko) | 영상 대조에 따른 두개의 에지 블러 파라미터 예측 방법 | |
CN101588480B (zh) | 一种多智能体视觉伺服协调控制方法 | |
CN103729631A (zh) | 一种基于视觉的连接器表面特征自动识别方法 | |
CN113591597B (zh) | 一种基于热成像的智慧治安信息系统 | |
CN106709529B (zh) | 一种光伏电池色差分类的视觉检测方法 | |
CN110298334B (zh) | 基于热红外图像处理的跟踪机器人多目标识别装置 | |
CN113536895A (zh) | 一种圆盘指针表计识别方法 | |
CN102682435B (zh) | 基于空间相对高度信息的多聚焦图像边缘检测方法 | |
US9727780B2 (en) | Pedestrian detecting system | |
CN109658359B (zh) | 大气悬浮物检测系统及其检测方法 | |
CN109241932B (zh) | 一种基于运动方差图相位特征的热红外人体动作识别方法 | |
CN103337080A (zh) | 基于梯度方向Hausdorff 距离的红外图像和可见光图像配准技术 | |
CN107045630A (zh) | 一种基于rgbd的行人检测和身份识别方法及系统 | |
KR101520293B1 (ko) | 시각 집중에 의한 관심객체 검지와 포렌식 영상 획득 스케쥴링 방법 및 시스템 | |
CN111063145A (zh) | 电子围栏智能处理器 | |
CN108898080B (zh) | 一种基于山脊线邻域评价模型的裂缝连接方法 | |
CN110322508A (zh) | 一种基于计算机视觉的辅助定位方法 | |
CN115810161A (zh) | 一种变电站火灾识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220615 Address after: Room zt1269, science and technology building, No. 45, Zhaitang street, Mentougou District, Beijing 101300 (cluster registration) Patentee after: Beijing Huaxin Youdao Technology Co.,Ltd. Address before: 250353 University Road, Changqing District, Ji'nan, Shandong Province, No. 3501 Patentee before: Qilu University of Technology Patentee before: Institute of automation, Shandong Academy of Sciences |
|
TR01 | Transfer of patent right |