CN108161938A - 一种机器人中的视觉跟踪方法及系统 - Google Patents
一种机器人中的视觉跟踪方法及系统 Download PDFInfo
- Publication number
- CN108161938A CN108161938A CN201711445855.5A CN201711445855A CN108161938A CN 108161938 A CN108161938 A CN 108161938A CN 201711445855 A CN201711445855 A CN 201711445855A CN 108161938 A CN108161938 A CN 108161938A
- Authority
- CN
- China
- Prior art keywords
- image
- value
- target
- robot
- grey level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人中的视觉跟踪方法及系统,其方法包括:基于机器人本体上的视觉系统进行图像采集;对采集后的图像进行滤波处理;根据预设参数对滤波处理后的图像进行图像分割;基于目标数据库获取目标物体的特征识别数据;基于特征识别数据完成对目标物体的定位。通过本发明实施例,通过针对性的目标建立相匹配的目标模板,实现相应搜索过程,达到对目标本体的视觉跟踪效果。
Description
技术领域
本发明涉及机器人技术领域,具体涉及一种机器人中的视觉跟踪方法及系统。
背景技术
随着机器人技术的不断发展,越来越多的机器人开始替代人类执行各种任务。机器人是自动控制机器(Robot)的俗称,自动控制机器包括一切模拟人类行为或思想与模拟其他生物的机械(如机器狗,机器猫等)。狭义上对机器人的定义还有很多分类法及争议,有些电脑程序甚至也被称为机器人。在当代工业中,机器人指能自动执行任务的人造机器装置,用以取代或协助人类工作。理想中的高仿真机器人是高级整合控制论、机械电子、计算机与人工智能、材料学和仿生学的产物,目前科学界正在向此方向研究开发,但是机器人远程控制还不完善,大数据的应用还没有普及,机器人的数据采集还处于离线状态,机器人深度学习也来自于本机数据的储存。
目标跟踪是计算机视觉研究领域中重要的基础问题之一,在监控、运动估计、人机交互等方面具有非常广泛的应用。近年来出现的许多跟踪算法在一定的场景下能够较好的跟踪目标物体,如粒子滤波、Boosting算法、L1跟踪算法等。但是,由于视频是一个复杂场景下的时序图像序列,复杂场景包括了光照变化、遮挡、动作变形、背景杂乱、目标尺度变化等,因此,构建一个自适应的目标表达模型以便得到鲁棒的跟踪算法,是目前跟踪领域的研究热点,也是难点问题。如何较好实现机器人技术中的视觉跟踪方法,需要针对图像采集的图像进行处理和建立合适的目标模型来完成相应搜索。
发明内容
本发明提供了一种机器人中的视觉跟踪方法及系统,通过针对性的目标建立相匹配的目标模板,实现相应搜索过程,达到对目标本体的视觉跟踪效果。
本发明提供了一种机器人中的视觉跟踪方法,所述方法包括:
基于机器人本体上的视觉系统进行图像采集;
对采集后的图像进行滤波处理;
根据预设参数对滤波处理后的图像进行图像分割;
基于目标数据库获取目标物体的特征识别数据;
基于特征识别数据完成对目标物体的定位。
所述根据视觉系统中预设的参数进行图像分割包括:
创建灰度直方图;
确认分割阈值;
将灰度值与阈值进行比较;
对灰度直方图进行二值化处理;
对灰度直方图进行检索轮廓;
填充包围轮廓。
所述创建灰度直方图包括:
计算原图像的累积直方图;
计算规定直方图的累积直方图;
计算两累积直方图的差值的绝对值;
根据累积直方图差值建立灰度级的映射。
所述对灰度直方图进行二值化处理包括:
采用高斯函数对灰度直方图进行卷积处理,得到平滑模板;
将灰度直方图中的像素值与平滑模板相减获取差异值;
采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值;
基于最大类间方差值将灰度直方图中的背景部分进行分割处理。
所述采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值包括:
基于预先设置的迭代次数从阈值初始值零值开始递减进行迭代过程;
在每一次的迭代过程中,基于阈值与差异值进行二值化处理,并获取所述差异值所对应的原像素值和二值化处理后的二值化值;基于原像素值和二值化值计算出类间方差值,并在迭代过程中形成一个类间方差值集合;
在迭代过程结束之后,采取遍历方法获取类间方差值集合中的最大类间方差值。
所述完成对目标物体的定位包括:
基于特征识别数据创建目标追踪模型;
基于目标追求模型在分割后的图像中寻找相匹配的目标模块;
提取分割后的图像所对应的目标模块边缘;
搜索所对应目标模块中的目标物体;
基于目标追踪模型判断是否找到目标物体;
计算目标物体所对应的目标位置。
相应的,本发明还提供了一种应用于机器人中的视觉跟踪系统,所述系统包括:
图像采集模块,用于基于机器人本体上的视觉系统进行图像采集;
图像滤波模块,用于对采集后的图像进行滤波处理;
图像分割模块,用于根据预设参数对滤波处理后的图像进行图像分割;
特征数据模块,用于基于目标数据库获取目标物体的特征识别数据;
特征识别模块,用于基于特征识别数据完成对目标物体的定位。
所述图像分割模块用于创建灰度直方图;确认分割阈值;将灰度值与阈值进行比较;对灰度直方图进行二值化处理;对灰度直方图进行检索轮廓;填充包围轮廓。
所述特征识别模块用于基于特征识别数据创建目标追踪模型;基于目标追求模型在分割后的图像中寻找相匹配的目标模块;提取分割后的图像所对应的目标模块边缘;搜索所对应目标模块中的目标物体;基于目标追踪模型判断是否找到目标物体;计算目标物体所对应的目标位置。
在本发明中,对采集的图像进行滤波处理,并实现采集图像的灰度直方图的创建过程,对灰度直方图进行二值化处理,提取更符合目标模型的整体轮廓,为后续目标搜索达到相匹配的维度模板。通过对灰度直方图采用阈值二值化算法,能避免由于图像模糊或复杂的图像背景信息引起的二值化图像分割失败,实现精确地把目标和背景部分分割开来,从而有利于后期对目标部分的快速定位,以及通过模板匹配机制能够快速匹配出相应的目标物体。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的机器人中的视觉跟踪方法流程图;
图2是本发明实施例中的根据视觉系统中预设的参数进行图像分割方法流程图;
图3是本发明实施例中的创建灰度直方图方法流程图;
图4是本发明实施例中的对灰度直方图进行二值化处理方法流程图;
图5是本发明实施例中的采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值方法流程图;
图6是本发明实施例中的完成对目标物体的定位方法流程图;
图7是本发明实施例中的应用于机器人中的视觉跟踪系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
相应的,图1示出了本发明实施例中的机器人中的视觉跟踪方法流程图,包括如下步骤:
S101、基于机器人本体上的视觉系统进行图像采集;
图像采集技术可以基于CCD技术实现,CCD(Charge Coupled Device)即电荷祸合器件是基于金属一氧化物一半导体技术的光电转换器件,由很多光敏像元组成即在P型(或N型)硅衬底的表面用氧化方法形成一层厚度约0.切m的二氧化硅再在二氧化硅上蒸镀一层金属膜,并用光刻的方法制成栅状电极。CCD的基本工作步骤为:把入射光子转变成电荷,把这些电荷转移到输出放大器上,并把电荷转变成电压或电流信号,使这些电压或电流能被传感器外的电路感知。当栅极施加正偏压后,空穴被排斥,产生耗尽区,偏压继续增加,耗尽区将进一步向半导体内延伸,将半导体电子吸引到表面,形成一层极薄但电荷浓度很高的反型层。CCD中电荷从一个位置转移到另一个位置,在开始时刻,有一些电荷存储在偏压为10V的第一个电极下的势阱中,其它电极上均加有大于阑值的较低电压。经过一定时刻后,各电极上的电压发生变化,电荷包向右移动。将按一定规律变化的电压(如外部的时钟电压)加到CCD各电极上,电极下的电荷包就沿半导体表面按一定方向转移到输出端,实现图像的自扫描,从而将照射在CCD上的光学图像转换成电信号图像,直接显示图像全貌。
S102、对采集后的图像进行滤波处理;
图像滤波,即在尽量保留图像细节特征的条件下对目标图像的噪声进行抑制,是图像预处理中不可缺少的操作,其处理效果的好坏将直接影响到后续图像处理和分析的有效性和可靠性。由于成像系统、传输介质和记录设备等的不完善,数字图像在其形成、传输记录过程中往往会受到多种噪声的污染。另外,在图像处理的某些环节当输入的像对象并不如预想时也会在结果图像中引入噪声。这些噪声在图像上常表现为一引起较强视觉效果的孤立像素点或像素块。一般,噪声信号与要研究的对象不相关它以无用的信息形式出现,扰乱图像的可观测信息。对于数字图像信号,噪声表为或大或小的极值,这些极值通过加减作用于图像像素的真实灰度值上,对图像造成亮、暗点干扰,极大降低了图像质量,影响图像复原、分割、特征提取、图像识别等后继工作的进行。要构造一种有效抑制噪声的滤波器必须考虑两个基本问题:能有效地去除目标和背景中的噪声;同时,能很好地保护图像目标的形状、大小及特定的几何和拓扑结构特征。
S103、根据预设参数对滤波处理后的图像进行图像分割;
具体的,图2示出了本发明实施例中的根据视觉系统中预设的参数进行图像分割方法流程图,包括如下步骤:
S201:创建灰度直方图;
具体的,图3示出了本发明实施例中的创建灰度直方图方法流程图,包括如下步骤:
S301、计算原图像的累积直方图;
S302、计算规定直方图的累积直方图;
S303、计算两累积直方图的差值的绝对值;
S304、根据累积直方图差值建立灰度级的映射。
S202、确认分割阈值;
S203、将灰度值与阈值进行比较;
S204、对灰度直方图进行二值化处理;
具体的,图4示出了本发明实施例中的对灰度直方图进行二值化处理方法流程图,包括如下步骤:
S401、采用高斯函数对灰度直方图进行卷积处理,得到平滑模板;
S402、将灰度直方图中的像素值与平滑模板相减获取差异值;
S403、采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值;
具体的,图5示出了本发明实施例中的采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值方法流程图,具体包括如下步骤:
S501、基于预先设置的迭代次数从阈值初始值零值开始递减进行迭代过程;
S502、在每一次的迭代过程中,基于阈值与差异值进行二值化处理,并获取所述差异值所对应的原像素值和二值化处理后的二值化值;
S503、基于原像素值和二值化值计算出类间方差值,并在迭代过程中形成一个类间方差值集合;
S504、在迭代过程结束之后,采取遍历方法获取类间方差值集合中的最大类间方差值。
S404、基于最大类间方差值将灰度直方图中的背景部分进行分割处理
S205、对灰度直方图进行检索轮廓;
S206、填充包围轮廓。
S104、基于目标数据库获取目标物体的特征识别数据;
S105、基于特征识别数据完成对目标物体的定位。
具体的,图6示出了本发明实施例中的完成对目标物体的定位方法流程图,包括如下步骤:
S601、基于特征识别数据创建目标追踪模型;
S602、基于目标追求模型在分割后的图像中寻找相匹配的目标模块;
S603、提取分割后的图像所对应的目标模块边缘;
S604、搜索所对应目标模块中的目标物体;
S605、基于目标追踪模型判断是否找到目标物体,若没有找到目标对象则返回到S604中继续搜索,若找到目标物体则进入S606;
S606、计算目标物体所对应的目标位置。
具体的,图7示出了本发明实施例中的机器人中的视觉跟踪系统结构示意图,该系统包括:
图像采集模块,用于基于机器人本体上的视觉系统进行图像采集;
图像滤波模块,用于对采集后的图像进行滤波处理;
图像分割模块,用于根据预设参数对滤波处理后的图像进行图像分割;
特征数据模块,用于基于目标数据库获取目标物体的特征识别数据;
特征识别模块,用于基于特征识别数据完成对目标物体的定位。
具体实施过程中,该图像分割模块用于创建灰度直方图;确认分割阈值;将灰度值与阈值进行比较;对灰度直方图进行二值化处理;对灰度直方图进行检索轮廓;填充包围轮廓。
具体实施过程中,该创建灰度直方图包括:计算原图像的累积直方图;计算规定直方图的累积直方图;计算两累积直方图的差值的绝对值;根据累积直方图差值建立灰度级的映射。
具体实施过程中,对灰度直方图进行二值化处理包括:采用高斯函数对灰度直方图进行卷积处理,得到平滑模板;将灰度直方图中的像素值与平滑模板相减获取差异值;采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值;基于最大类间方差值将灰度直方图中的背景部分进行分割处理。
具体实施过程中,该采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值包括:基于预先设置的迭代次数从阈值初始值零值开始递减进行迭代过程;在每一次的迭代过程中,基于阈值与差异值进行二值化处理,并获取所述差异值所对应的原像素值和二值化处理后的二值化值;基于原像素值和二值化值计算出类间方差值,并在迭代过程中形成一个类间方差值集合;在迭代过程结束之后,采取遍历方法获取类间方差值集合中的最大类间方差值。
具体实施过程中,该特征识别模块用于基于特征识别数据创建目标追踪模型;基于目标追求模型在分割后的图像中寻找相匹配的目标模块;提取分割后的图像所对应的目标模块边缘;搜索所对应目标模块中的目标物体;基于目标追踪模型判断是否找到目标物体;计算目标物体所对应的目标位置。
综上,对采集的图像进行滤波处理,并实现采集图像的灰度直方图的创建过程,对灰度直方图进行二值化处理,提取更符合目标模型的整体轮廓,为后续目标搜索达到相匹配的维度模板。通过对灰度直方图采用阈值二值化算法,能避免由于图像模糊或复杂的图像背景信息引起的二值化图像分割失败,实现精确地把目标和背景部分分割开来,从而有利于后期对目标部分的快速定位,以及通过模板匹配机制能够快速匹配出相应的目标物体。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
以上对本发明实施例所提供的机器人中的视觉跟踪方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种机器人中的视觉跟踪方法,其特征在于,所述方法包括:
基于机器人本体上的视觉系统进行图像采集;
对采集后的图像进行滤波处理;
根据预设参数对滤波处理后的图像进行图像分割;
基于目标数据库获取目标物体的特征识别数据;
基于特征识别数据完成对目标物体的定位。
2.如权利要求1所述的机器人中的视觉跟踪的方法,其特征在于,所述根据视觉系统中预设的参数进行图像分割包括:
创建灰度直方图;
确认分割阈值;
将灰度值与阈值进行比较;
对灰度直方图进行二值化处理;
对灰度直方图进行检索轮廓;
填充包围轮廓。
3.如权利要求2所述的机器人中的视觉跟踪的方法,其特征在于,所述创建灰度直方图包括:
计算原图像的累积直方图;
计算规定直方图的累积直方图;
计算两累积直方图的差值的绝对值;
根据累积直方图差值建立灰度级的映射。
4.如权利要求3所述的机器人中的视觉跟踪的方法,其特征在于,所述对灰度直方图进行二值化处理包括:
采用高斯函数对灰度直方图进行卷积处理,得到平滑模板;
将灰度直方图中的像素值与平滑模板相减获取差异值;
采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值;
基于最大类间方差值将灰度直方图中的背景部分进行分割处理。
5.如权利要求4所述的机器人中的视觉跟踪的方法,其特征在于,所述采用阈值二值化算法对获取的差异值进行迭代过程获得最大类间方差值包括:
基于预先设置的迭代次数从阈值初始值零值开始递减进行迭代过程;
在每一次的迭代过程中,基于阈值与差异值进行二值化处理,并获取所述差异值所对应的原像素值和二值化处理后的二值化值;
基于原像素值和二值化值计算出类间方差值,并在迭代过程中形成一个类间方差值集合;
在迭代过程结束之后,采取遍历方法获取类间方差值集合中的最大类间方差值。
6.如权利要求1至5任一项所述的机器人中的视觉跟踪的方法,其特征在于,所述完成对目标物体的定位包括:
基于特征识别数据创建目标追踪模型;
基于目标追求模型在分割后的图像中寻找相匹配的目标模块;
提取分割后的图像所对应的目标模块边缘;
搜索所对应目标模块中的目标物体;
基于目标追踪模型判断是否找到目标物体;
计算目标物体所对应的目标位置。
7.一种应用于机器人中的视觉跟踪系统,其特征在于,所述系统包括:
图像采集模块,用于基于机器人本体上的视觉系统进行图像采集;
图像滤波模块,用于对采集后的图像进行滤波处理;
图像分割模块,用于根据预设参数对滤波处理后的图像进行图像分割;
特征数据模块,用于基于目标数据库获取目标物体的特征识别数据;
特征识别模块,用于基于特征识别数据完成对目标物体的定位。
8.如权利要求7所述的应用于机器人中的视觉跟踪系统,其特征在于,所述图像分割模块用于创建灰度直方图;确认分割阈值;将灰度值与阈值进行比较;对灰度直方图进行二值化处理;对灰度直方图进行检索轮廓;填充包围轮廓。
9.如权利要求8所述的应用于机器人中的视觉跟踪系统,其特征在于,所述特征识别模块用于基于特征识别数据创建目标追踪模型;基于目标追求模型在分割后的图像中寻找相匹配的目标模块;提取分割后的图像所对应的目标模块边缘;搜索所对应目标模块中的目标物体;基于目标追踪模型判断是否找到目标物体;计算目标物体所对应的目标位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711445855.5A CN108161938A (zh) | 2017-12-27 | 2017-12-27 | 一种机器人中的视觉跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711445855.5A CN108161938A (zh) | 2017-12-27 | 2017-12-27 | 一种机器人中的视觉跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108161938A true CN108161938A (zh) | 2018-06-15 |
Family
ID=62518466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711445855.5A Pending CN108161938A (zh) | 2017-12-27 | 2017-12-27 | 一种机器人中的视觉跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108161938A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020034500A1 (zh) * | 2018-08-14 | 2020-02-20 | 珠海市一微半导体有限公司 | 一种基于二值化算法的加速控制系统、芯片及机器人 |
CN111275056A (zh) * | 2020-02-12 | 2020-06-12 | 中国人民解放军海军航空大学 | 用于计算目标脱靶量的目标识别软件系统及目标识别系统 |
CN112792821A (zh) * | 2021-04-01 | 2021-05-14 | 北京科技大学 | 惯性辅助长曝光下的运动机器人视觉去模糊的方法及系统 |
CN113804218A (zh) * | 2021-08-26 | 2021-12-17 | 中国科学院沈阳自动化研究所 | 一种电缆隧道检测机器人定位导航能力测试方法 |
CN117644516A (zh) * | 2024-01-09 | 2024-03-05 | 中核四川环保工程有限责任公司 | 一种基于图像处理的核废弃物处理监控机器人 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102339462A (zh) * | 2010-07-23 | 2012-02-01 | 北京东方泰坦科技股份有限公司 | 基于遥感图像变化检测算法的投资项目智能搜索技术 |
CN104688184A (zh) * | 2014-12-05 | 2015-06-10 | 南京航空航天大学 | 可见光皮肤图像的静脉显像方法 |
CN104899589A (zh) * | 2015-05-12 | 2015-09-09 | 广州中大数码科技有限公司 | 一种采用阈值二值化算法实现二维条码预处理的方法 |
-
2017
- 2017-12-27 CN CN201711445855.5A patent/CN108161938A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102339462A (zh) * | 2010-07-23 | 2012-02-01 | 北京东方泰坦科技股份有限公司 | 基于遥感图像变化检测算法的投资项目智能搜索技术 |
CN104688184A (zh) * | 2014-12-05 | 2015-06-10 | 南京航空航天大学 | 可见光皮肤图像的静脉显像方法 |
CN104899589A (zh) * | 2015-05-12 | 2015-09-09 | 广州中大数码科技有限公司 | 一种采用阈值二值化算法实现二维条码预处理的方法 |
Non-Patent Citations (4)
Title |
---|
李莉等: "适于路面破损图像处理的边缘检测方法", 《同济大学学报》 * |
李阳: ""基于视觉的移动机器人运动目标跟踪技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
查志强: "复杂背景下的快速车牌识别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
韩静,吴俊林: "CCD 传感器工作原理及光强分布的测量", 《陕西师范大学学报(自然科学版)》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020034500A1 (zh) * | 2018-08-14 | 2020-02-20 | 珠海市一微半导体有限公司 | 一种基于二值化算法的加速控制系统、芯片及机器人 |
US11269796B2 (en) | 2018-08-14 | 2022-03-08 | Amicro Semiconductor Co., Ltd. | Acceleration control system based on binarization algorithm, chip, and robot |
CN111275056A (zh) * | 2020-02-12 | 2020-06-12 | 中国人民解放军海军航空大学 | 用于计算目标脱靶量的目标识别软件系统及目标识别系统 |
CN112792821A (zh) * | 2021-04-01 | 2021-05-14 | 北京科技大学 | 惯性辅助长曝光下的运动机器人视觉去模糊的方法及系统 |
CN112792821B (zh) * | 2021-04-01 | 2021-06-25 | 北京科技大学 | 惯性辅助长曝光下的运动机器人视觉去模糊的方法及系统 |
CN113804218A (zh) * | 2021-08-26 | 2021-12-17 | 中国科学院沈阳自动化研究所 | 一种电缆隧道检测机器人定位导航能力测试方法 |
CN117644516A (zh) * | 2024-01-09 | 2024-03-05 | 中核四川环保工程有限责任公司 | 一种基于图像处理的核废弃物处理监控机器人 |
CN117644516B (zh) * | 2024-01-09 | 2024-06-11 | 中核四川环保工程有限责任公司 | 一种基于图像处理的核废弃物处理监控机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108161938A (zh) | 一种机器人中的视觉跟踪方法及系统 | |
Zefri et al. | Developing a deep learning-based layer-3 solution for thermal infrared large-scale photovoltaic module inspection from orthorectified big UAV imagery data | |
Khan et al. | A survey of the vision transformers and their CNN-transformer based variants | |
CN110097050B (zh) | 行人检测方法、装置、计算机设备及存储介质 | |
CN108734109B (zh) | 一种面向图像序列的视觉目标跟踪方法及系统 | |
Liu et al. | Using unsupervised deep learning technique for monocular visual odometry | |
Sun et al. | Weakly-supervised DCNN for RGB-D object recognition in real-world applications which lack large-scale annotated training data | |
Ansari | A review on SIFT and SURF for underwater image feature detection and matching | |
CN107798329B (zh) | 基于cnn的自适应粒子滤波目标跟踪方法 | |
Yu et al. | Collaborative learning classification model for PCBs defect detection against image and label uncertainty | |
Zhu et al. | A lightweight encoder–decoder network for automatic pavement crack detection | |
Singh et al. | Performance analysis of object detection algorithms for robotic welding applications in planar environment | |
Gao et al. | Synergizing low rank representation and deep learning for automatic pavement crack detection | |
Rivas-Lopez et al. | Optoelectronics in machine vision-based theories and applications | |
Hu et al. | Multiple Faces Tracking Using Feature Fusion and Neural Network in Video. | |
CN108198186A (zh) | 一种在五轴机器人基于视觉跟踪实现喷漆的方法及系统 | |
Cai et al. | Unfeatured weld positioning technology based on neural network and machine vision | |
Dong et al. | Dense Connected Edge Feature Enhancement Network for Building Edge Detection from High Resolution Remote Sensing Imagery | |
Sim et al. | Effects of video filters for learning an action recognition model for construction machinery from simulated training data | |
CN113920020A (zh) | 一种基于深度生成模型的人体点云实时修复方法 | |
Zhang et al. | Dynamic Semantics SLAM Based on Improved Mask R-CNN | |
Mohammed et al. | Artificial Neural Network as a Decision-Makers for Stereo Matching | |
Sunandini et al. | Significance of Atrous Spatial Pyramid Pooling (ASPP) in Deeplabv3+ for Water Body Segmentation | |
Pajares et al. | Stereo matching using Hebbian learning | |
Wang et al. | So-perm: Pose estimation and robust measurement for small objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180615 |