CN108858186B - 一种小车对红外物体检测、识别及跟踪方法 - Google Patents
一种小车对红外物体检测、识别及跟踪方法 Download PDFInfo
- Publication number
- CN108858186B CN108858186B CN201810538787.5A CN201810538787A CN108858186B CN 108858186 B CN108858186 B CN 108858186B CN 201810538787 A CN201810538787 A CN 201810538787A CN 108858186 B CN108858186 B CN 108858186B
- Authority
- CN
- China
- Prior art keywords
- value
- area
- trolley
- data
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,图像传感器识别到小车B上的目标物后返回其中心点的初始坐标,并测量出下一帧数据中心坐标;将得到偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升降的PD控制中,得到电机的输出值;小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度,并知道物体此时的面积大小,通过采集数据来拟合出物体离图像传感器的距离值;小车知晓与红外物体的距离以及红外物体是否向下运动,当面积值小于一定值时,则判断红外物体向下运动;由于物体倾斜,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正。
Description
技术领域
本发明涉及一种运动目标识别跟踪方法,尤其是涉及一种小车对红外物体检测及跟踪的方案。
背景技术
随着德国工业4.0的兴起,越来越多的生产领域提出了高风险、高强度的环境要求,因而出现了“机器人”这个研究方向,试图让机器人代替人类作业。目前已经广泛应用于农业、工业、科技、国防等各个领域。而在机器人领域,机器人的动态跟踪一直是热点并且棘手的问题,要跟踪机器人首先得知道机器人的运动姿态,这就离不开传感器。
基于视觉传感器的机器人小车运动识别跟踪,有极高的优越性,并且研究成果可扩展到运动目标识别跟踪。同时运动目标识别跟踪也是目前视觉领域研究的热点问题,随着计算机技术不断发展运动目标跟踪技术也由此取得了很大的进步。
目前对于红外物体的检测与跟踪识别率较低,抗干扰性较弱,影响检测及跟踪效果。
发明内容
本发明为解决目前对于红外物体的检测与跟踪识别率较低、抗干扰性较弱的问题,提供了一种小车对红外物体检测及跟踪的方案,能够使小车完成对红外物体的检测及跟踪,同时能够自主改变小车的运动,并且识别率高,抗干扰性强。
本发明所采用的技术方案:
一种小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,其用X坐标跟踪旋转方向,用Y坐标跟踪升降方向;图像传感器识别到小车B上的目标物后返回其中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差△X,△Y;将偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升降的PD控制中,得到电机的输出值;小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度,并知道物体此时的面积大小,由于物体越近,面积就越大,物体越远,面积就越小,因此,通过采集数据来拟合出物体离图像传感器的距离值;
小车知晓与红外物体的距离以及红外物体是否向下运动,通过用面积值可以判断,当面积值小于一定值时,则判断红外物体向下运动;由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正。
同一距离下,物体在0°时刻和非0°时刻的面积不同,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,再加上距离的变化,会同时改变摄像头返回的面积值;由于知道实物在图像传感器摄像头XOY平面坐标系下的倾斜角度d、宽度P_Height、高度P_Width,通过如式3-1和3-2所示的理论关系式建立转换模型,得出0°时刻的宽度Z_Height和高度Z_Width,以及0°时刻的面积值Z_Area;
Z_Height×sinα+Z_Width×cosα=P_Height 式(3-1)
Z_Height×cosα+Z_Width×sinα=P_Width 式(3-2)
α、P_Height、P_Width均是已知量,Z_Height和Z_Width才是需要求的两个量,两个方程两个未知数,可以将式3-1、式3-2推导成以下结果:
则0°时刻的面积值Z_Area为:Z_Area=Z_Height×Z_Width 式(3-5)。
PID控制器中,r(t)为设定目标值,即需要达到的X,Y目标值;c(t)为实际输出值,即实际得到的X,Y坐标值;e(t)为系统偏差值,即e(t)=r(t)-c(t)u(t)为控制量,即PID调节参数整定的公式:
控制器的输出与设定的偏差值成比例关系,当系统出现偏差时,比例P的调节能减少偏差,积分I能消除P剩下的余差,提高无差度,微分D反映偏差的变化速率,能消除系统滞后现象;
通过PD调节实现功能,则将式(4.1)改为
u(t)=P×e(t)+D×[e(t)-e(t-1)] 式(4.2)
式(4.2)中e(t-1)即为上一次的偏差值;
设定的理想目标值为r(t)=(x0,y0),图像传感器识别到机器人B上的红外LED阵列后返回的实际值为c(t)=(x1,y1),则可得到偏差ex(t)=x0-x1、ey(t)=y0-y1;
将偏差ex(t)输入到施力水平的PD控制中,得到舵机的输出值,将偏差ey(t)输入施力升降的PD控制中,得到电机的输出值。
小车跟踪物体的整个运动过程中,目标识别物的坐标是平缓变化的,所以需要对图像传感器接收到的数据进行递推中值滤波,滤除一些突变值:所述的递推中值滤波主要是把连续N个采样值看成一个队列,队列长度固定为N,N为奇数;每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据;再把N次采样值按大小排序,取中间值为有效值。
通过物体红外LED阵列在图像传感器视野下的长宽比值来排除干扰;红外LED阵列在视觉传感器视野下长:宽接近1∶1;由此,首先判断视觉传感器接收到的数据值其长/宽是否在1~1.1之间,如是则可以判断为需要的数据,不是则舍弃,下位机将不进行处理,然后通过PD调节实现对机器人的角度跟踪。
本发明的有益效果:
1、本发明小车对红外物体检测、识别及跟踪方法,能够使小车完成对红外物体的检测及跟踪,同时能够自主改变小车的运动,并且识别率高,抗干扰性强。
2、本发明小车对红外物体检测、识别及跟踪方法,可以持续对红外物体的坐标进行检测,具有高识别率和强抗干扰能力,并且能够对物体进行跟踪,并通过调节实现角度跟踪。
附图说明
图1为识别跟踪闭环控制框图;
图2分别为同一距离下,0°时刻和非0°时刻的面积示意图;
图3为转换模型示意图;
图4为PID主要原理图;
图5为识别跟踪闭环控制算法结构图;
图6为丢图示意图;
图7为识别跟踪算法整体框图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。应当理解,此处所描述的具体实例仅仅用以解释本发明,并不用于限定本发明。
实施例1
参见图1,本发明小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,其用X坐标跟踪旋转方向,用Y坐标跟踪升降方向;图像传感器识别到小车B上的目标物后返回其中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差△X,△Y;将偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升降的PD控制中,得到电机的输出值;
小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度,并知道物体此时的面积大小,由于物体越近,面积就越大,物体越远,面积就越小,因此,通过采集数据来拟合出物体离图像传感器的距离值;
小车知晓与红外物体的距离以及红外物体是否向下运动,通过用面积值可以判断,当面积值小于一定值时,则判断红外物体向下运动;
由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正。
图1为识别跟踪闭环控制框图,参照图1,图像传感器识别到小车B上的目标物后返回其中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差△X,△Y。将偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升降的PD控制中,得到电机的输出值。
由于图像传感器可以返回物体的宽度和高度,也就是能够知道物体此时的面积大小。众所周知,物体越近,面积就越大,物体越远,面积就越小,正是所谓的“近大远小”。所以,可以采集数据来拟合出物体离图像传感器的距离值。
实施例2
参见图1、图2,本实施例的小车对红外物体检测、识别及跟踪方法,与实施例1的不同之处在于:由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,再加上距离的变化,会同时改变摄像头返回的面积值。
图2为同一距离下,0°时刻和非0°时刻的面积示意图。
同一距离下,物体在0°时刻和非0°时刻的面积不同,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,再加上距离的变化,会同时改变摄像头返回的面积值;图3为转换模型示意图,由于知道实物在图像传感器摄像头XOY平面坐标系下的倾斜角度α、宽度P_Height、高度P_Width,可以通过这种转换模型建立如式3-1和3-2所示的理论关系式,得出0°时刻的宽度Z_Height和高度Z_Width,以及0°时刻的面积值Z_Area;
Z_Height×sinα+Z_Width×cosα=P_Height 式(3-1)
Z_Height×cosα+Z_Width×sinα=P_Width 式(3-2)
d、P_Height、P_Width均是已知量,Z_Height和Z_Width才是需要求的两个量,两个方程两个未知数,可以将式3-1、式3-2推导成以下结果:
则0°时刻的面积值Z_Area为:Z_Area=Z_Height×Z_Width 式(3-5)。
实施例3
参见图1~图4,本实施例的小车对红外物体检测、识别及跟踪方法,与实施例2的不同之处在于:PID控制器中,r(t)为设定目标值,即需要达到的X,Y目标值;c(t)为实际输出值,即实际得到的X,Y坐标值;e(t)为系统偏差值,即e(t)=r(t)-c(t);u(t)为控制量,即PID调节参数整定的公式:
PID控制器中,控制器的输出与设定的偏差值成比例关系,当系统出现偏差时,比例P的调节能减少偏差。该调节简单快速,可加快调节。但若P值过大,会降低系统稳定性,造成不稳定,留有余差。积分I能消除P剩下的余差,提高无差度。偏差存在时间越短,积分作用越强,但调节缓慢,波动加大,系统稳定性降低。微分D反映偏差的变化速率,能消除系统滞后现象,超前调节,但容易引起系统振荡。
通过PD调节实现功能,则将式(4.1)改为
u(t)=P×e(t)+D×[e(t)-e(t-1)] 式(4.2)
式(4.2)中e(t-1)即为上一次的偏差值。
图5为识别跟踪算法整体框图。设定的理想目标值为r(t)=(x0,y0),图像传感器识别到机器人B上的红外LED阵列后返回的实际值为c(t)=(x1,y1),则可得到偏差ex(t)=x0-x1、ey(t)=y0-y1;
将偏差ex(t)输入到施力水平的PD控制中,得到舵机的输出值,将偏差ey(t)输入施力升降的PD控制中,得到电机的输出值。
图4为PID主要原理图。P即为比例(Proportional)、I为积分(Integral)、D为微分(Derivative)。
实施例4
本实施例的小车对红外物体检测、识别及跟踪方法,与前述各实施例不同的是:对于偶然出现的图像丢失现象,需要得知此时视觉传感器是否捕获了图像,若确实发生丢失现象,上位机需要告知下位机,让下位机进行特殊处理,在while(1)函数里,不断扫描丢图前保留的物体宽度、高度值,判断是从哪个方向丢图。
图6为丢图示意图,丢图意味着目标物从图像中丢失,示意图中的4种情况认为属于丢图。
方框1为即将丢图。方框2为丢图临界。方框3为部分丢图。方框4为完全丢图。
实施例5
本实施例的小车对红外物体检测、识别及跟踪方法,与前述各实施例不同的是:红外LED阵列是对称的,所以可以通过红外LED阵列在视觉传感器视野下的长宽比值来排除一些干扰。
红外LED阵列在视觉传感器视野下长:宽接近1:1。由此,可以在软件上首先判断视觉传感器接收到的数据值其长/宽是否在1~1.1之间,是则可以判断为我们需要的数据,不是则舍弃,下位机将不进行处理。
图7为识别跟踪算法整体框图。小车跟踪物体的整个运动过程中,目标识别物的坐标应是平缓变化的,所以需要对视觉传感器接收到的数据进行递推中值滤波,滤除一些突变值。
递推中值滤波的主要思想是把连续N个(N为奇数)采样值看成一个队列,队列长度固定为N。每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据。再把N次采样值按大小排序,取中间值为有效值。
本发明小车对红外物体检测及跟踪的方案,实现了小车对红外物体的距离和角度进行检测和跟踪。上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (5)
1.一种小车对红外物体检测、识别及跟踪方法,采用目标识别跟踪闭环控制算法,用X坐标跟踪旋转方向,用Y坐标跟踪升降方向;图像传感器识别到小车B上的目标物后返回其中心点的初始坐标(X0,Y0),图像传感器测量出的下一帧数据中心坐标为(X1,Y1),则可得到偏差△X,△Y;将偏差△X输入到施力水平的PD控制中,得到舵机的输出值,将偏差△Y输入施力升降的PD控制中,得到电机的输出值;其特征在于:
小车运动时,图像传感器根据物体在图像坐标系下的中心坐标,获得物体的宽度和高度,并知道物体此时的面积大小,由于物体越近,面积就越大,物体越远,面积就越小,因此,通过采集数据来拟合出物体离图像传感器的距离值;
小车知晓与红外物体的距离以及红外物体是否向下运动,通过用面积值可以判断,当面积值小于一定值时,则判断红外物体向下运动;
由于物体倾斜,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,通过将此时摄像头识别的图形面积进行计算,可对物体面积进行校正;
同一距离下,物体在0°时刻和非0°时刻的面积不同,物体在摄像头XOY平面坐标系下会有一定的倾斜角度,导致其返回的面积数据会发生变化,再加上距离的变化,会同时改变摄像头返回的面积值;由于知道实物在图像传感器摄像头XOY平面坐标系下的倾斜角度α、宽度P_Height、高度P_Width,通过如式3-1和3-2所示的理论关系式建立转换模型,得出0°时刻的宽度Z_Height和高度Z_Width,以及0°时刻的面积值Z_Area;
Z_Height×sinα+Z_Width×cosα=P_Height 式(3-1)
Z_Height×cosα+Z_Width×sinα=P_Width 式(3-2)
α、P_Height、P_Width均是已知量,Z_Height和Z_Width才是需要求的两个量,两个方程两个未知数,可以将式3-1、式3-2推导成以下结果:
则0°时刻的面积值Z_Area为:Z_Area=Z_Height×Z_Width 式(3-5)。
2.根据权利要求1所述的小车对红外物体检测、识别及跟踪方法,其特征在于:PID控制器中,r(t)为设定目标值,即需要达到的X,Y目标值;c(t)为实际输出值,即实际得到的X,Y坐标值;e(t)为系统偏差值,即e(t)=r(t)-c(t);u(t)为控制量,即PID调节参数整定的公式:
控制器的输出与设定的偏差值成比例关系,当系统出现偏差时,比例P的调节能减少偏差,积分I能消除P剩下的余差,提高无差度,微分D反映偏差的变化速率,能消除系统滞后现象;
通过PD调节实现功能,则将式(4.1)改为
u(t)=P×e(t)+D×[e(t)-e(t-1)] 式(4.2)
式(4.2)中e(t-1)即为上一次的偏差值;
设定的理想目标值为r(t)=(x0,y0),图像传感器识别到机器人B上的红外LED阵列后返回的实际值为c(t)=(x1,y1),则可得到偏差ex(t)=x0-x1、ey(t)=y0-y1;
将偏差ex(t)输入到施力水平的PD控制中,得到舵机的输出值,将偏差ey(t)输入施力升降的PD控制中,得到电机的输出值。
3.根据权利要求2所述的小车对红外物体检测、识别及跟踪方法,其特征在于:小车跟踪物体的整个运动过程中,目标识别物的坐标是平缓变化的,所以需要对图像传感器接收到的数据进行递推中值滤波,滤除一些突变值:所述的递推中值滤波主要是把连续N个采样值看成一个队列,队列长度固定为N,N为奇数;每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据;再把N次采样值按大小排序,取中间值为有效值。
4.根据权利要求1所述的小车对红外物体检测、识别及跟踪方法,其特征在于:小车跟踪物体的整个运动过程中,目标识别物的坐标是平缓变化的,所以需要对图像传感器接收到的数据进行递推中值滤波,滤除一些突变值:所述的递推中值滤波主要是把连续N个采样值看成一个队列,队列长度固定为N,N为奇数;每当采样到一个新数据时,即放入队尾,实行先进先出的原则,舍弃原队首数据;再把N次采样值按大小排序,取中间值为有效值。
5.根据权利要求2所述的小车对红外物体检测、识别及跟踪方法,其特征在于:通过物体红外LED阵列在图像传感器视野下的长宽比值来排除干扰;红外LED阵列在视觉传感器视野下长∶宽接近1∶1;由此,首先判断视觉传感器接收到的数据值其长/宽是否在1~1.1之间,如是则可以判断为需要的数据,不是则舍弃,下位机将不进行处理,然后通过PD调节实现对机器人的角度跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810538787.5A CN108858186B (zh) | 2018-05-30 | 2018-05-30 | 一种小车对红外物体检测、识别及跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810538787.5A CN108858186B (zh) | 2018-05-30 | 2018-05-30 | 一种小车对红外物体检测、识别及跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108858186A CN108858186A (zh) | 2018-11-23 |
CN108858186B true CN108858186B (zh) | 2021-05-07 |
Family
ID=64335789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810538787.5A Active CN108858186B (zh) | 2018-05-30 | 2018-05-30 | 一种小车对红外物体检测、识别及跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108858186B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1133945A (ja) * | 1997-07-22 | 1999-02-09 | Oki Electric Ind Co Ltd | 直交型3軸ロボットの制御方法とその直交型3軸ロボット |
CN101372098A (zh) * | 2007-08-23 | 2009-02-25 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
CN102422333A (zh) * | 2009-04-28 | 2012-04-18 | 本田技研工业株式会社 | 车辆周围监测装置 |
CN102663770A (zh) * | 2012-03-15 | 2012-09-12 | 天津理工大学 | 基于三重粒子的粒子滤波视觉目标跟踪方法 |
CN204667140U (zh) * | 2015-04-10 | 2015-09-23 | 南昌航空大学 | 一种智能家居控制装置 |
CN107016367A (zh) * | 2017-04-06 | 2017-08-04 | 北京精英智通科技股份有限公司 | 一种跟踪控制方法及跟踪控制系统 |
CN107750643A (zh) * | 2017-10-25 | 2018-03-06 | 重庆工商大学 | 草莓采摘机器人的视觉系统 |
CN107972065A (zh) * | 2016-10-21 | 2018-05-01 | 和硕联合科技股份有限公司 | 机械手臂定位方法及应用其的系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6486678B2 (ja) * | 2014-12-25 | 2019-03-20 | 株式会社キーエンス | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
-
2018
- 2018-05-30 CN CN201810538787.5A patent/CN108858186B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1133945A (ja) * | 1997-07-22 | 1999-02-09 | Oki Electric Ind Co Ltd | 直交型3軸ロボットの制御方法とその直交型3軸ロボット |
CN101372098A (zh) * | 2007-08-23 | 2009-02-25 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
CN102422333A (zh) * | 2009-04-28 | 2012-04-18 | 本田技研工业株式会社 | 车辆周围监测装置 |
CN102663770A (zh) * | 2012-03-15 | 2012-09-12 | 天津理工大学 | 基于三重粒子的粒子滤波视觉目标跟踪方法 |
CN204667140U (zh) * | 2015-04-10 | 2015-09-23 | 南昌航空大学 | 一种智能家居控制装置 |
CN107972065A (zh) * | 2016-10-21 | 2018-05-01 | 和硕联合科技股份有限公司 | 机械手臂定位方法及应用其的系统 |
CN107016367A (zh) * | 2017-04-06 | 2017-08-04 | 北京精英智通科技股份有限公司 | 一种跟踪控制方法及跟踪控制系统 |
CN107750643A (zh) * | 2017-10-25 | 2018-03-06 | 重庆工商大学 | 草莓采摘机器人的视觉系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108858186A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107544550B (zh) | 一种基于视觉引导的无人机自动着陆方法 | |
CN106403924B (zh) | 基于深度摄像头的机器人快速定位与姿态估计方法 | |
CN111805547B (zh) | 一种轨迹动态跟踪实现方法 | |
CN108304001A (zh) | 一种人脸检测跟踪方法、球机头部转动控制方法及球机 | |
KR20070108815A (ko) | 바닥 영상 정보를 이용하여 청소용 로봇 및 로봇의 제어방법 | |
CN107009357A (zh) | 一种基于nao机器人抓取物体的方法 | |
CN108858186B (zh) | 一种小车对红外物体检测、识别及跟踪方法 | |
CN114770461B (zh) | 一种基于单目视觉的移动机器人及其自动抓取方法 | |
Li et al. | A mobile robotic arm grasping system with autonomous navigation and object detection | |
Ding et al. | The detection of non-cooperative targets in space by using 3D point cloud | |
Shi et al. | An underwater pipeline tracking system for amphibious spherical robots | |
CN110046626A (zh) | 基于pico算法的图像智能学习动态跟踪系统及方法 | |
CN111145216B (zh) | 一种视频图像目标的跟踪方法 | |
CN114280925B (zh) | 基于单目视觉的可变杆长倒立摆目标捕捉控制方法及系统 | |
CN116185049A (zh) | 基于视觉引导的无人直升机自主着舰方法 | |
CN106303453A (zh) | 一种基于高速球机的主动式跟踪方法 | |
CN113822946A (zh) | 一种基于计算机视觉的机械臂抓取方法 | |
Huang et al. | Gray object recognition and angle measurement method based on mean shift to overhead crane systems | |
Zhang et al. | Robot-Aided Aiming Coordinate Positioning System Based on Vision and Infrared | |
Guo et al. | Research on Mobile Robot Vision Navigation Algorithm | |
Nurrohmah et al. | Real-Time Ball Speed Stabilization Acquisition using Low Pass Filter on Robot Soccer ERSOW | |
Mu et al. | A robotic grasping algorithm based on simplified image and deep convolutional neural network | |
Chen et al. | Design of an Unordered Gripping System Based on 3D Vision | |
Huang et al. | A Grasping Posture Judgment Algorithm Based on Feature Circumscribed Rectangle | |
CN111986258B (zh) | 基于点云法矢方向聚类伺服的机器人定位控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |