CN108858186A - 一种小车对红外物体检测、识别及跟踪方法 - Google Patents
一种小车对红外物体检测、识别及跟踪方法 Download PDFInfo
- Publication number
- CN108858186A CN108858186A CN201810538787.5A CN201810538787A CN108858186A CN 108858186 A CN108858186 A CN 108858186A CN 201810538787 A CN201810538787 A CN 201810538787A CN 108858186 A CN108858186 A CN 108858186A
- Authority
- CN
- China
- Prior art keywords
- value
- tracking
- infrared
- width
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,图像传感器识别到小车B上的目标物后返回其中心点的初始坐标,并测量出下一帧数据中心坐标;将得到偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升降的PD控制中,得到电机的输出值;小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度,并知道物体此时的面积大小,通过采集数据来拟合出物体离图像传感器的距离值;小车知晓与红外物体的距离以及红外物体是否向下运动,当面积值小于一定值时,则判断红外物体向下运动;由于物体倾斜,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正。
Description
技术领域
本发明涉及一种运动目标识别跟踪方法,尤其是涉及一种小车对红外物体检测及跟踪的方 案。
背景技术
随着德国工业4.0的兴起,越来越多的生产领域提出了高风险、高强度的环境要求,因而 出现了“机器人”这个研究方向,试图让机器人代替人类作业。目前已经广泛应用于农业、工 业、科技、国防等各个领域。而在机器人领域,机器人的动态跟踪一直是热点并且棘手的问题, 要跟踪机器人首先得知道机器人的运动姿态,这就离不开传感器。
基于视觉传感器的机器人小车运动识别跟踪,有极高的优越性,并且研究成果可扩展到运 动目标识别跟踪。同时运动目标识别跟踪也是目前视觉领域研究的热点问题,随着计算机技术 不断发展运动目标跟踪技术也由此取得了很大的进步。
目前对于红外物体的检测与跟踪识别率较低,抗干扰性较弱,影响检测及跟踪效果。
发明内容
本发明为解决目前对于红外物体的检测与跟踪识别率较低、抗干扰性较弱的问题,提供了 一种小车对红外物体检测及跟踪的方案,能够使小车完成对红外物体的检测及跟踪,同时能够 自主改变小车的运动,并且识别率高,抗干扰性强。
本发明所采用的技术方案:
一种小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,其用X坐 标跟踪旋转方向,用Y坐标跟踪升降方向;图像传感器识别到小车B上的目标物后返回其中心 点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差 △X,△Y;将偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升 降的PD控制中,得到电机的输出值;小车运动时,图像传感器根据物体在图像坐标系下的中心 坐标,获得物体的宽度和高度,并知道物体此时的面积大小,由于物体越近,面积就越大,物 体越远,面积就越小,因此,我们通过采集数据来拟合出物体离图像传感器的距离值;
小车知晓与红外物体的距离以及红外物体是否向下运动,通过用面积值可以判断,当面积 值小于一定值时,则判断红外物体向下运动;由于物体倾斜,物体在摄像头XOY平面坐标系下 会有一定的倾斜角度,导致其返回的面积数据会发生变化,通过将此时摄像头识别的图形面积 进行计算,可对物体面积进行校正。
本发明的有益效果:
1、本发明小车对红外物体检测、识别及跟踪方法,能够使小车完成对红外物体的检测及跟 踪,同时能够自主改变小车的运动,并且识别率高,抗干扰性强。
2、本发明小车对红外物体检测、识别及跟踪方法,可以持续对红外物体的坐标进行检测, 具有高识别率和强抗干扰能力,并且能够对物体进行跟踪,并通过调节实现角度跟踪。
附图说明
图1为识别跟踪闭环控制框图;
图2分别为同一距离下,0°时刻和非0°时刻的面积示意图;
图3为转换模型示意图;
图4为PID主要原理图;
图5为识别跟踪闭环控制算法结构图;
图6为丢图示意图;
图7为识别跟踪算法整体框图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。应当理解,此处所描 述的具体实例仅仅用以解释本发明,并不用于限定本发明。
实施例1
参见图1,本发明小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算 法,其用X坐标跟踪旋转方向,用Y坐标跟踪升降方向;图像传感器识别到小车B上的目标物 后返回其中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可 得到偏差△X,△Y;将偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y 输入施力升降的PD控制中,得到电机的输出值;
小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度, 并知道物体此时的面积大小,由于物体越近,面积就越大,物体越远,面积就越小,因此,我 们通过采集数据来拟合出物体离图像传感器的距离值;
小车知晓与红外物体的距离以及红外物体是否向下运动,通过用面积值可以判断,当面积 值小于一定值时,则判断红外物体向下运动;
由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积 数据会发生变化,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正。
图1为识别跟踪闭环控制框图,参照图1,图像传感器识别到小车B上的目标物后返回其 中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差 ΔX,ΔY。将偏差ΔX输入到施力水平的PD控制中,得到舵机的输出值,将偏差ΔY输入施力升 降的PD控制中,得到电机的输出值。
由于图像传感器可以返回物体的宽度和高度,也就是能够知道物体此时的面积大小。众所 周知,物体越近,面积就越大,物体越远,面积就越小,正是所谓的“近大远小”。所以,我们 可以采集数据来拟合出物体离图像传感器的距离值。
实施例2
参见图1、图2,本实施例的小车对红外物体检测、识别及跟踪方法,与实施例1的不同之 处在于:由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的 面积数据会发生变化,再加上距离的变化,会同时改变摄像头返回的面积值。
图2为同一距离下,0°时刻和非0°时刻的面积示意图。
同一距离下,物体在0°时刻和非0°时刻的面积不同,物体在摄像头XOY平面坐标系下会 有一定的倾斜角度,导致其返回的面积数据会发生变化,再加上距离的变化,会同时改变摄像 头返回的面积值;图3为转换模型示意图,由于知道实物在图像传感器摄像头XOY平面坐标系 下的倾斜角度α、宽度P_Height、高度P_Width,可以通过这种转换模型建立如式3-1和3-2 所示的理论关系式,得出0°时刻的宽度Z_Height和高度Z_Width,以及0°时刻的面积值 Z_Area;
Z_Height×sin α+Z_Width×cos α=P_Height 式3-1
Z_Height×cos α+Z_Width×sin α=P_Width 式3-2
α、P_Height、P_Width均是已知量,Z_Height和Z_Width才是需要求的两个量,两个方程两个未知数,可以将式3-1、式3-2推导成以下结果:
则0°时刻的面积值Z_Area为:Z_Area=Z_Height×Z_Width (式3-5)。
实施例3
参见图1~图4,本实施例的小车对红外物体检测、识别及跟踪方法,与实施例2的不同之 处在于:PID控制器中,r(t)为设定目标值,即需要达到的X,Y目标值;c(t)为实际输出值,即 实际得到的X,Y坐标值;e(t)为系统偏差值,即e(t)=r(t)-c(t);u(t)为控制量,即PID调节 参数整定的公式:
PID控制器中,控制器的输出与设定的偏差值成比例关系,当系统出现偏差时,比例P的调 节能减少偏差。该调节简单快速,可加快调节。但若P值过大,会降低系统稳定性,造成不稳 定,留有余差。积分I能消除P剩下的余差,提高无差度。偏差存在时间越短,积分作用越强, 但调节缓慢,波动加大,系统稳定性降低。微分D反映偏差的变化速率,能消除系统滞后现象, 超前调节,但容易引起系统振荡。
通过PD调节实现功能,则将式(4..1)改为
u(t)=p×e(t)+D×Le(t)-e(t-1)] (4.2)
式(4.2)中e(t-1)即为上一次的偏差值。
图5为识别跟踪算法整体框图。我们设定的理想目标值为r(t)=(x0,y0),图像传感器识别 到机器人B上的红外LED阵列后返回的实际值为c(t)=(x1,y1),则可得到偏差ex(t)=x0- x1、ey(t)=y0-y1;
将偏差ex(t)输入到施力水平的PD控制中,得到舵机的输出值,将偏差ey(t)输入施力升降 的PD控制中,得到电机的输出值。
图4为PID主要原理图。P即为比例(Proportional)、I为积分(Integral)、D为微 分(Derivative)。
实施例4
本实施例的小车对红外物体检测、识别及跟踪方法,与前述各实施例不同的是:对于偶然 出现的图像丢失现象,需要得知此时视觉传感器是否捕获了图像,若确实发生丢失现象,上位 机需要告知下位机,让下位机进行特殊处理,在while(1)函数里,不断扫描丢图前保留的物体 宽度、高度值,判断是从哪个方向丢图。
图6为丢图示意图,丢图意味着目标物从图像中丢失,示意图中的4种情况认为属于丢图。
方框1为即将丢图。方框2为丢图临界。方框3为部分丢图。方框4为完全丢图。
实施例5
本实施例的小车对红外物体检测、识别及跟踪方法,与前述各实施例不同的是:红外LED 阵列是对称的,所以可以通过红外LED阵列在视觉传感器视野下的长宽比值来排除一些干扰。
红外LED阵列在视觉传感器视野下长:宽接近1:1。由此,可以在软件上首先判断视觉传 感器接收到的数据值其长/宽是否在1~1.1之间,是则可以判断为我们需要的数据,不是则舍 弃,下位机将不进行处理。
图7为识别跟踪算法整体框图。小车跟踪物体的整个运动过程中,目标识别物的坐标应是 平缓变化的,所以需要对视觉传感器接收到的数据进行递推中值滤波,滤除一些突变值。
递推中值滤波的主要思想是把连续N个(N为奇数)采样值看成一个队列,队列长度固定 为N。每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据。再把N 次采样值按大小排序,取中间值为有效值。
本发明小车对红外物体检测及跟踪的方案,实现了小车对红外物体的距离和角度进行检测 和跟踪。上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,在本发明的精神 和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (9)
1.一种小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,用X坐标跟踪旋转方向,用Y坐标跟踪升降方向;图像传感器识别到小车B上的目标物后返回其中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差ΔX,ΔY;将偏差ΔX输入到施力水平的PD控制中,得到舵机的输出值,将偏差ΔY输入施力升降的PD控制中,得到电机的输出值;其特征在于:
小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度,并知道物体此时的面积大小,由于物体越近,面积就越大,物体越远,面积就越小,因此,我们通过采集数据来拟合出物体离图像传感器的距离值;
小车知晓与红外物体的距离以及红外物体是否向下运动,通过用面积值可以判断,当面积值小于一定值时,则判断红外物体向下运动;
由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正。
2.根据权利要求1所述的小车对红外物体检测、识别及跟踪方法,其特征在于:同一距离下,物体在0°时刻和非0°时刻的面积不同,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,再加上距离的变化,会同时改变摄像头返回的面积值;由于知道实物在图像传感器摄像头XOY平面坐标系下的倾斜角度α、宽度P_Height、高度P_Width,通过如式3-1和3-2所示的理论关系式建立转换模型,得出0°时刻的宽度Z_Height和高度Z_Width,以及0°时刻的面积值Z_Area;
Z_Height×sinα+Z_Width×cosα=P_Height 式3-1
Z_Height×cosα+Z_Width×sinα=P_Width 式3-2
α、P_Height、P_Width均是已知量,Z_Height和Z_Width才是需要求的两个量,两个方程两个未知数,可以将式3-1、式3-2推导成以下结果:
则0°时刻的面积值Z_Area为:Z_Area=Z_Height×Z_Width (式3-5)。
3.根据权利要求1或2所述的小车对红外物体检测、识别及跟踪方法,其特征在于:PID控制器中,r(t)为设定目标值,即需要达到的X,Y目标值;c(t)为实际输出值,即实际得到的X,Y坐标值;e(t)为系统偏差值,即e(t)=r(t)-c(t);u(t)为控制量,即PID调节参数整定的公式:
控制器的输出与设定的偏差值成比例关系,当系统出现偏差时,比例P的调节能减少偏差,积分I能消除P剩下的余差,提高无差度,微分D反映偏差的变化速率,能消除系统滞后现象;
通过PD调节实现功能,则将式(4..1)改为
u(t)=P×e(t)+D×[e(t)-e(t-1)] (4.2)
式(4.2)中e(t-1)即为上一次的偏差值;
我们设定的理想目标值为r(t)=(x0,y0),图像传感器识别到机器人B上的红外LED阵列后返回的实际值为c(t)=(x1,y1),则可得到偏差ex(t)=x0-x1、ey(t)=y0-y1;
将偏差ex(t)输入到施力水平的PD控制中,得到舵机的输出值,将偏差ey(t)输入施力升降的PD控制中,得到电机的输出值。
4.根据权利要求3所述的小车对红外物体检测、识别及跟踪方法,其特征在于:小车跟踪物体的整个运动过程中,目标识别物的坐标是平缓变化的,所以需要对图像传感器接收到的数据进行递推中值滤波,滤除一些突变值:所述的递推中值滤波主要是把连续N个采样值看成一个队列,队列长度固定为N,N为奇数;每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据;再把N次采样值按大小排序,取中间值为有效值。
5.根据权利要求1或2所述的小车对红外物体检测、识别及跟踪方法,其特征在于:小车跟踪物体的整个运动过程中,目标识别物的坐标是平缓变化的,所以需要对图像传感器接收到的数据进行递推中值滤波,滤除一些突变值:所述的递推中值滤波主要是把连续N个采样值看成一个队列,队列长度固定为N,N为奇数;每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据;再把N次采样值按大小排序,取中间值为有效值。
6.根据权利要求5所述的小车对红外物体检测、识别及跟踪方法,其特征在于:对于偶然出现的图像丢失现象,需要得知此时视觉传感器是否捕获了图像,若确实发生丢失现象,上位机需要告知下位机,让下位机进行特殊处理,在while(1)函数里,不断扫描丢图前保留的物体宽度、高度值,判断是从哪个方向丢图。
7.根据权利要求1、2或4所述的小车对红外物体检测、识别及跟踪方法,其特征在于:对于偶然出现的图像丢失现象,需要得知此时视觉传感器是否捕获了图像,若确实发生丢失现象,上位机需要告知下位机,让下位机进行特殊处理,在while(1)函数里,不断扫描丢图前保留的物体宽度、高度值,判断是从哪个方向丢图。
8.根据权利要求7所述的小车对红外物体检测、识别及跟踪方法,其特征在于:由于红外LED阵列是对称的,可以通过物体红外LED阵列在图像传感器视野下的长宽比值来排除一些干扰;红外LED阵列在视觉传感器视野下长:宽接近1∶1;由此,首先判断视觉传感器接收到的数据值其长/宽是否在1~1.1之间,如是则可以判断为我们需要的数据,不是则舍弃,下位机将不进行处理,然后通过PD调节实现对机器人的角度跟踪。
9.根据权利要求1、2、4或6所述的小车对红外物体检测、识别及跟踪方法,其特征在于:由于红外LED阵列是对称的,所以可以通过物体红外LED阵列在图像传感器视野下的长宽比值来排除一些干扰;红外LED阵列在视觉传感器视野下长:宽接近1∶1;由此,首先判断视觉传感器接收到的数据值其长/宽是否在1~1.1之间,如是则可以判断为我们需要的数据,不是则舍弃,下位机将不进行处理,然后通过PD调节实现对机器人的角度跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810538787.5A CN108858186B (zh) | 2018-05-30 | 2018-05-30 | 一种小车对红外物体检测、识别及跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810538787.5A CN108858186B (zh) | 2018-05-30 | 2018-05-30 | 一种小车对红外物体检测、识别及跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108858186A true CN108858186A (zh) | 2018-11-23 |
CN108858186B CN108858186B (zh) | 2021-05-07 |
Family
ID=64335789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810538787.5A Active CN108858186B (zh) | 2018-05-30 | 2018-05-30 | 一种小车对红外物体检测、识别及跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108858186B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1133945A (ja) * | 1997-07-22 | 1999-02-09 | Oki Electric Ind Co Ltd | 直交型3軸ロボットの制御方法とその直交型3軸ロボット |
CN101372098A (zh) * | 2007-08-23 | 2009-02-25 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
CN102422333A (zh) * | 2009-04-28 | 2012-04-18 | 本田技研工业株式会社 | 车辆周围监测装置 |
CN102663770A (zh) * | 2012-03-15 | 2012-09-12 | 天津理工大学 | 基于三重粒子的粒子滤波视觉目标跟踪方法 |
CN204667140U (zh) * | 2015-04-10 | 2015-09-23 | 南昌航空大学 | 一种智能家居控制装置 |
US20160184997A1 (en) * | 2014-12-25 | 2016-06-30 | Keyence Corporation | Image Processing Apparatus, Image Processing System, Image Processing Method, And Computer Program |
CN107016367A (zh) * | 2017-04-06 | 2017-08-04 | 北京精英智通科技股份有限公司 | 一种跟踪控制方法及跟踪控制系统 |
CN107750643A (zh) * | 2017-10-25 | 2018-03-06 | 重庆工商大学 | 草莓采摘机器人的视觉系统 |
CN107972065A (zh) * | 2016-10-21 | 2018-05-01 | 和硕联合科技股份有限公司 | 机械手臂定位方法及应用其的系统 |
-
2018
- 2018-05-30 CN CN201810538787.5A patent/CN108858186B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1133945A (ja) * | 1997-07-22 | 1999-02-09 | Oki Electric Ind Co Ltd | 直交型3軸ロボットの制御方法とその直交型3軸ロボット |
CN101372098A (zh) * | 2007-08-23 | 2009-02-25 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
CN102422333A (zh) * | 2009-04-28 | 2012-04-18 | 本田技研工业株式会社 | 车辆周围监测装置 |
CN102663770A (zh) * | 2012-03-15 | 2012-09-12 | 天津理工大学 | 基于三重粒子的粒子滤波视觉目标跟踪方法 |
US20160184997A1 (en) * | 2014-12-25 | 2016-06-30 | Keyence Corporation | Image Processing Apparatus, Image Processing System, Image Processing Method, And Computer Program |
CN204667140U (zh) * | 2015-04-10 | 2015-09-23 | 南昌航空大学 | 一种智能家居控制装置 |
CN107972065A (zh) * | 2016-10-21 | 2018-05-01 | 和硕联合科技股份有限公司 | 机械手臂定位方法及应用其的系统 |
CN107016367A (zh) * | 2017-04-06 | 2017-08-04 | 北京精英智通科技股份有限公司 | 一种跟踪控制方法及跟踪控制系统 |
CN107750643A (zh) * | 2017-10-25 | 2018-03-06 | 重庆工商大学 | 草莓采摘机器人的视觉系统 |
Non-Patent Citations (1)
Title |
---|
刘瑜 等: "《数字图像处理与图像通信实验》", 31 December 2008 * |
Also Published As
Publication number | Publication date |
---|---|
CN108858186B (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023056670A1 (zh) | 复杂光照条件下基于视触融合的机械臂自主移动抓取方法 | |
Zhang et al. | Vision-based target-following guider for mobile robot | |
CN104597905B (zh) | 磁导航agv的路径跟踪方法 | |
CN112589232B (zh) | 一种基于独立纠偏型深度学习的焊缝跟踪方法及装置 | |
US8019475B2 (en) | Routing apparatus for autonomous mobile unit | |
WO2017041225A1 (zh) | 一种机器人跟随方法 | |
CN109394095A (zh) | 一种机器人运动地毯偏移的控制方法、芯片及清洁机器人 | |
CN111047531B (zh) | 一种基于单目视觉的仓储机器人室内定位方法 | |
CN109389093A (zh) | 基于人脸识别的面向型追踪方法 | |
Cheng et al. | Person-following for telepresence robots using web cameras | |
CN108858186A (zh) | 一种小车对红外物体检测、识别及跟踪方法 | |
CN108170160A (zh) | 一种利用单目视觉和机载传感器旋翼无人机自主抓取方法 | |
CN111340846B (zh) | 一种多特征融合的抗遮挡目标跟踪方法 | |
Luber et al. | Learning to detect and track people in rgbd data | |
Wang et al. | Autonomous pallet localization and picking for industrial forklifts based on the line structured light | |
Zhu et al. | Unmanned Vehicle Route Tracking Method Based on Video Image Processing. | |
WO2022161271A1 (zh) | 斜坡定位校正方法、装置、机器人及可读存储介质 | |
CN115562304A (zh) | 一种基于深度点云的移动机器人视觉伺服控制方法和系统 | |
Brandt et al. | Controlled active exploration of uncalibrated environments | |
CN115457075A (zh) | 一种基于sac-pid的移动机器人目标跟随方法 | |
Zhang et al. | Autonomous following indoor omnidirectional mobile robot | |
Udsatid et al. | Human position tracking for side by side walking mobile robot using foot positions | |
CN106960440A (zh) | 基于物体图像特征点像素空间位置组合控制方法 | |
Lippiello et al. | Monocular eye-in-hand robotic ball catching with parabolic motion estimation | |
Huang et al. | Gray object recognition and angle measurement method based on mean shift to overhead crane systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |