CN113421287A - 一种基于视觉主动目标跟踪的机器人及其控制方法、系统 - Google Patents
一种基于视觉主动目标跟踪的机器人及其控制方法、系统 Download PDFInfo
- Publication number
- CN113421287A CN113421287A CN202110807203.1A CN202110807203A CN113421287A CN 113421287 A CN113421287 A CN 113421287A CN 202110807203 A CN202110807203 A CN 202110807203A CN 113421287 A CN113421287 A CN 113421287A
- Authority
- CN
- China
- Prior art keywords
- target object
- visual
- robot
- camera
- historical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000000007 visual effect Effects 0.000 claims abstract description 89
- 230000004927 fusion Effects 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000006403 short-term memory Effects 0.000 claims description 5
- 230000007787 long-term memory Effects 0.000 claims description 4
- 239000013307 optical fiber Substances 0.000 claims 2
- 230000002787 reinforcement Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000036632 reaction speed Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种基于视觉主动目标跟踪的机器人及其控制方法、系统。机器人上搭载有视觉系统,视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,相机云台用于对机器人视野中出现的目标对象进行检测,基于视觉主动目标跟踪的机器人控制方法包括:根据检测到的视野中出现的目标对象,提取目标对象的运动特征图像;基于视觉主动跟踪模型,根据目标对象的运动特征图像,对目标对象的运动进行预判,以对机器人本体和/或相机云台的位姿进行调整。籍此,由视觉主动跟踪模型通过强化学习对跟踪的目标对象的运动做出预判,从而控制机器人本体和/或相机云台根据预判提前做出调整,有效避免跟踪延时。
Description
技术领域
本申请涉及机器人控制技术领域,特别涉及一种基于视觉主动目标跟踪的机器人及其控制方法、系统。
背景技术
机器人对目标对象的跟踪在智能跟随(跟随目标自主移动)、智能监控(基于运动识别,自动化监测一个场景以检测可以行为)、视觉导航(计算拍摄物体的运动轨迹)等应用场景有着广大的需求。
传统的实现方法是将图像中的目标跟踪和相机控制分成两个独立的任务,这导致系统在进行联调优化时变得繁琐复杂,要单独实现这两个任务的代价也是高昂的,既需要大量人工标注目标位置用于训练跟踪模块,也需要在真实系统中通过试错整定相机控制器参数。此外,传统的视觉跟踪方法仅仅专注于从连续帧中提取出关于目标的2D包围框,而没有考虑如何主动控制机器人和其相机云台的移动,属于“被动”跟踪,这将在跟踪物体时导致延时。
因此,需要提供一种针对上述现有技术不足的改进技术方案。
发明内容
本申请的目的在于提供一种基于视觉主动目标跟踪的机器人及其控制方法、系统,以解决或缓解上述现有技术中存在的问题。
为了实现上述目的,本申请提供如下技术方案:
本申请提供了一种基于视觉主动目标跟踪的机器人控制方法,所述机器人上搭载有视觉系统,所述视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,所述相机云台用于对所述机器人视野中出现的目标对象进行检测,所述基于视觉主动目标跟踪的机器人控制方法包括:步骤S101、根据检测到的视野中出现的目标对象,提取所述目标对象的运动特征图像;步骤S102、基于所述视觉主动跟踪模型,根据所述目标对象的运动特征图像,对所述目标对象的运动进行预判,以对所述机器人本体和/或所述相机云台的位姿进行调整。
可选的,所述相机云台对检测到的视野中出现的目标对象进行拍摄,得到所述目标对象的拍摄图片;对应的,步骤S101具体为:基于卷积神经网络,对所述目标对象的拍摄图片进行特征提取,得到所述目标对象的运动特征图像。
可选的,在步骤S102中,基于所述视觉主动跟踪模型,根据所述目标对象的运动特征,对所述目标对象的运动进行预判,得到所述机器人本体和所述相机云台的调整策略;对所述调整策略与预设策略阈值进行对比,根据对比结果对所述机器人本体和/或所述相机云台的位姿进行调整。
可选的,所述预设策略阈值小于等于所述相机云台的调整范围;对应的,所述对所述调整策略与预设策略阈值进行对比,根据对比结果对所述机器人本体和/或所述相机云台的位姿进行调整,包括:响应于所述对比结果小于等于所述预设策略阈值,则根据所述调整策略对所述相机云台的位姿进行调整;响应于所述对比结果大于所述相机云台的调整范围,则根据所述调整策略同时对所述机器人本体和所述相机云台的位姿进行调整。
可选的,在步骤S101之前,还包括:对所述相机云台的历史拍摄图像进行特征提取,得到历史观测特征;其中,所述历史观测特征为对应的所述历史拍摄图像中拍摄对象的特征图像,所述历史拍摄图像有多个,每个所述历史拍摄图像对应一个所述历史观测特征;对多个所述历史观测特征进行融合,得到融合特征;其中,所述融合特征包含所述历史拍摄图像中拍摄对象的时序特征,所述时序特征包括所述历史拍摄图像中拍摄对象的速度和移动方向;根据所述融合特征,基于演员评论家算法构建所述视觉主动跟踪模型。
可选的,所述对所述相机云台的历史拍摄图像进行特征提取,得到历史观测特征,具体为:基于卷积神经网络,对所述相机云台的历史拍摄图像进行特征提取,得到所述历史观测特征。
可选的,所述对多个所述历史观测特征进行融合,得到融合特征,具体为:基于长短期记忆人工神经网络,对多个所述历史观测特征进行融合,得到所述融合特征。
本申请实施例还提供一种基于视觉主动目标跟踪的机器人控制系统,所述机器人上搭载有视觉系统,所述视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,所述相机云台用于对所述机器人视野中出现的目标对象进行检测,所述基于视觉主动目标跟踪的机器人控制系统包括:特征提取单元,配置为根据检测到的视野中出现的目标对象,提取所述目标对象的运动特征图像;位姿调整单元,配置为基于所述视觉主动跟踪模型,根据所述目标对象的运动特征图像,对所述目标对象的运动进行预判,以对所述机器人本体和/或所述相机云台的位姿进行调整。
本申请实施例还提供一种基于视觉主动目标跟踪的机器人,所述基于视觉主动目标跟踪的机器人上部署有上述任一实施例所述的基于视觉主动目标跟踪的机器人控制方法。
与最接近的现有技术相比,本申请实施例的技术方案具有如下有益效果:
本申请实施例提供的技术方案中,在机器人上搭载有视觉系统,所述视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,视觉系统中部署有多自由度的相机云台及视觉主动跟踪模型,相机云台用于对所述机器人视野中出现的目标对象进行检测,当通过视觉系统检测到机器人的视野中出现目标对象时,对目标对象进行图像拍摄,并根据目标对象的拍摄图片提取目标对象的运动特征;然后,将运动特征输入视觉主动跟踪模型,对目标对象的运动进行预判,以便及时的对机器人本体和/或相机云台的位姿进行调整,籍此,由视觉主动跟踪模型通过强化学习对跟踪的目标对象的运动做出预判,从而控制机器人本体和/或相机云台根据预判提前做出调整,有效避免跟踪延时。
在此过程中,一方面,根据机器人的视觉系统对目标对象的跟踪结果来控制机器人本体和/或相机云台,不再需要通过人工调整机器人本体和/或相机云台,在减少人力成本的同时大幅度提高了机器人本体和相机云台的反应速度;另一方面,通过主动控制调整机器人本体和/或相机云台的运动、姿态,大幅提升拍摄视野,减少相机需求数量,提高拍摄灵活性。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。其中:
图1为根据本申请的一些实施例提供的一种基于视觉主动目标跟踪的机器人控制方法的流程示意图;
图2为根据本申请的一些实施例提供的一种基于视觉主动目标跟踪的机器人控制方法的逻辑示意图;
图3为根据本申请的一些实施例提供的基于演员评论家算法构建视觉主动跟踪模型的流程示意图;
图4为根据本申请的一些实施例提供的一种基于视觉主动目标跟踪的机器人控制系统。
具体实施方式
下面将参考附图并结合实施例来详细说明本申请。各个示例通过本申请的解释的方式提供而非限制本申请。实际上,本领域的技术人员将清楚,在不脱离本申请的范围或精神的情况下,可在本申请中进行修改和变型。例如,示为或描述为一个实施例的一部分的特征可用于另一个实施例,以产生又一个实施例。因此,所期望的是,本申请包含归入所附权利要求及其等同物的范围内的此类修改和变型。
在本申请实施例中,机器人上搭载有视觉系统,在视觉系统中部署有多自由度的相机云台以及视觉主动跟踪模型,所述相机云台用于对所述机器人视野中出现的目标对象进行检测。
示例性方法
图1为根据本申请的一些实施例提供的一种基于视觉主动目标跟踪的机器人控制方法的流程示意图;如图1所示,该基于视觉主动目标跟踪的机器人控制方法包括:
步骤S101、根据检测到的视野中出现的目标对象,提取目标对象的运动特征图像;
在本申请实施例中,机器人通过视觉系统实现对目标对象的跟踪,通过机器人本体的位姿和/或相机云台的位姿的调整,实现对视野中出现的目标对象进行图像拍摄。具体的,通过控制机器人本体的位置及姿态的改变,实现对机器人本体的位姿调整,相机云台部署在机器人本体上,随机器人本体的位置和姿态的变化而变换;通过控制多自由度的相机云台的姿态,实现对相机云台的姿态调整。籍此,通过主动控制,调整机器人本体和相机云台的运动、姿态的协同,大幅提升拍摄视野,减少相机需求数量,提高拍摄灵活性。
在本申请实施例中,通过相机云台对监测到的视野中出现的目标对象进行拍摄,得到目标对象的拍摄图像,然后,对拍摄图片中的运动特征进行提取,得到拍摄图片的运动特征图像。具体的,基于卷积神经网络,对目标对象的拍摄图像进行特征提取,得到目标对象的运动特征图像。
在本申请实施例中,由基于卷积神经网络(ConvNet)结构的观测编码器对目标对象的拍摄图像进行特征向量提取,得到目标对象的运动特征图像。具体的,由卷积层和池化层对目标对象的拍摄图像进行特征向量提取,由全链接层对提取到的特征向量进行合并,得到目标对象的运动特征图像。
步骤S102、基于视觉主动跟踪模型,根据目标对象的运动特征图像,对目标对象的运动进行预判,以对机器人本体和/或相机云台的位姿进行调整。
具体的,基于视觉主动跟踪模型,根据目标对象的运动特征图像,对目标对象的运动进行预判,得到机器人本体和相机云台的调整策略。
在本申请实施例中,将目标对象的运动特征图像输入视觉主动跟踪模型,经过计算分析,视觉主动跟踪模型对目标对象的动作趋势进行判断,输出为预判结果,作为机器人或云台相机的控制信号,使机器人本体和/或云台相机做出相应的位移(比如云台相机或机器人本体向上转动25度,向左转动15度等),以便更好的跟踪目标对象。
在一些可选实施例中,对调整策略与预设策略阈值进行对比,根据对比结果对机器人本体和/或相机云台的位姿进行调整。具体的,响应于对比结果小于等于预设策略阈值,则根据调整策略对相机云台的位姿进行调整;响应于对比结果大于相机云台的调整范围,则根据调整策略同时对机器人本体和相机云台的位姿进行调整。
在本申请实施例中,预设策略阈值小于等于相机云台的调整范围。当调整策略与预设策略阈值的比较结果小于等于预设策略阈值时,通过相机云台的自由度即可满足调整策略,因而,根据调整策略对相机云台的位姿进行调整即可;当调整策略与预设策略阈值的比较结果大于预设策略阈值时,通过相机云台的自由度不能满足调整策略,实现不了调整策略要达到的目标,因而,通过机器人本体的位姿调整与相机云台的位姿调整相协同,使满足调整策略的需求,达到调整策略的目的。
在一些可选实施例中,通过相机云台的历史拍摄图像,基于演员评论家算法构建视觉主动跟踪模型。如图3所示,基于演员评论家算法构建视觉主动跟踪模型包括:
步骤S301、对相机云台的历史拍摄图像进行特征提取,得到历史观测特征;其中,历史观测特征为对应的历史拍摄图像中拍摄对象的特征图像,历史拍摄图像有多个,每个历史拍摄图像对应一个历史观测特征;
在本申请实施例中,基于卷积神经网络,对相机云台的历史拍摄图像进行特征提取,得到历史观测特征。具体步骤、流程请参考上述步骤S101中得到目标对象的运动特征图像的步骤、流程,在此不再一一赘述。
步骤S302、对多个历史观测特征进行融合,得到融合特征;其中,融合特征包含历史拍摄图像中拍摄对象的时序特征,时序特征包括历史拍摄图像中拍摄对象的速度和移动方向;
具体的,基于长短期记忆人工神经网络(Long Short-Term Memory,简称LSTM),对多个历史观测特征进行融合,得到融合特征。融合特征为长短期记忆人工神经网络对多个历史观测特征进行融合输出的时序特征。
在本申请实施例中,通过将多个历史拍摄图像中拍摄对象的特征图像(历史观测特征)输入时序编码器基于长短期记忆人工神经网络(LSTM)结构的中,由时序编码器对多个历史拍摄图像中拍摄对象的特征图像进行融合,即可得到拍摄对象的融合特征。在此,需要说明的是,拍摄对象和目标对象可以为同一物体,也可以为同一类的不同物体。
在本申请实施例中,通过拍摄对象的时序特征(拍摄对象的速度、方向等)对视觉主动跟踪模型进行训练,使训练完成的视觉主动跟踪模型不但能够对目标对象进行有效识别和定位,同时可以对目标对象下一步的动作进行有效预判。
步骤S303、根据融合特征,基于演员评论家算法构建视觉主动跟踪模型。
在本申请实施例中,在基于演员评论家算法构建的视觉主动跟踪模型中包括演员网络和评论家网络,演员网络和评论家网络共享时序编码器的输出(融合特征)。当融合特征的动作空间离散时,演员网络根据融合特征输出拍摄对象的每种动作的概率;让融合特征的动作空间连续时,演员网络输出拍摄对象的每一维动作的平均值和标准差,并用高斯分布来表示拍摄对象的动作分布。评论家网络通过价值函数来计算演员网络输出的策略梯度,实现演员网络和评论家网络的更新。其中,价值函数代表期望的累计奖赏值。
在本申请实施例中,利用不完全零和的奖赏函数,鼓励相机云台和目标对象在一定范围内进行零和博弈,当目标对象到达一定距离外时给予其额外的惩罚。在观测范围内,目标对象与相机云台进行零和博弈,即奖赏函数为相机云台的奖赏,直接取负;在观测范围外,将在原来的基础上得到一个额外的惩罚项,惩罚项的取值取决于目标对象与相机云台的观测边界的距离。
在本申请实施例中,视觉主动跟踪模型基于对抗博弈的跟踪框架构建,鼓励跟踪器(相机云台)和目标对象在一定范围内进行博弈,当目标到达一定距离外时时给予其额外的惩罚。通过不断的对抗博弈训练,使视觉主动跟踪模型针对跟踪策略学会更优的对抗策略。
在本申请实施例中,训练完成后的视觉主动跟踪模型,根据目标对象的拍摄突现实现对目标对象的动作进行预判,将相应的控制信号发送至机器人的控制部分,对机器人本体和/或相机云台进行控制,实现机器人本体和/或相机云台的位姿的调整。
在本申请实施例中,通过相机云台对目标对象进行图像拍摄,提取目标对象的运动特征图像;将拍摄对象的历史观测特征、相机云台对目标对象的观测特征(运动特征图像)、以及相机云台的动作输出特征进行融合,作为训练完成的视觉主动跟踪模型中LSTM网络的输入,得到目标对象的时序特征,以便对目标对象下一步的动作趋势进行预判。
在本申请实施例中,在机器人上搭载有视觉系统,视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,视觉系统中部署有多自由度的相机云台及视觉主动跟踪模型,相机云台用于对机器人视野中出现的目标对象进行检测,当通过视觉系统检测到机器人的视野中出现目标对象时,对目标对象进行图像拍摄,并根据目标对象的拍摄图片提取目标对象的运动特征;然后,将运动特征输入视觉主动跟踪模型,对目标对象的运动进行预判,以便及时的对机器人本体和/或相机云台的位姿进行调整,籍此,由视觉主动跟踪模型通过强化学习对跟踪的目标对象的运动做出预判,从而控制机器人本体和/或相机云台根据预判提前做出调整,有效避免跟踪延时。
在此过程中,一方面,根据机器人的视觉系统对目标对象的跟踪结果来控制机器人本体和/或相机云台,不再需要通过人工调整机器人本体和/或相机云台,在减少人力成本的同时大幅度提高了机器人本体和相机云台的反应速度;另一方面,通过主动控制调整机器人本体和/或相机云台的运动、姿态,大幅提升拍摄视野,减少相机需求数量,提高拍摄灵活性。
示例性系统
图4为根据本申请的一些实施例提供的一种基于视觉主动目标跟踪的机器人控制系统;如图4所示,该基于视觉主动目标跟踪的机器人控制系统包括:特征提取单元401和位姿调整单元402。特征提取单元401配置为根据检测到的视野中出现的目标对象,提取目标对象的运动特征图像;位姿调整单元402配置为基于视觉主动跟踪模型,根据目标对象的运动特征图像,对目标对象的运动进行预判,以对机器人本体和/或相机云台的位姿进行调整。
在本申请实施例中,机器人上搭载有视觉系统,视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,相机云台用于对机器人视野中出现的目标对象进行检测。
在一些可选实施例中,相机云台对检测到的视野中出现的目标对象进行拍摄,得到目标对象的拍摄图片;对应的,特征提取单元401进一步配置为基于卷积神经网络,对目标对象的拍摄图片进行特征提取,得到目标对象的运动特征图像。
在一些可选实施例中,位姿调整单元402包括:策略生成子单元和调整子单元。策略生成子单元配置为基于视觉主动跟踪模型,根据目标对象的运动特征,对目标对象的运动进行预判,得到机器人本体和/或相机云台的调整策略;调整子单元配置为对调整策略与预设策略阈值进行对比,根据对比结果对机器人本体和/或相机云台的位姿进行调整。
在一些可选实施例中,预设策略阈值小于等于相机云台的调整范围;对应的,调整子单元进一步配置为:响应于对比结果小于等于预设策略阈值,则根据调整策略对相机云台的位姿进行调整;响应于对比结果大于相机云台的调整范围,则根据调整策略同时对机器人本体和相机云台的位姿进行调整。
在一些可选实施例中,该基于视觉主动目标跟踪的机器人控制系统还包括:特征观测单元、特征融合单元和模型构建单元。特征观测单元配置为对相机云台的历史拍摄图像进行特征提取,得到历史观测特征;其中,历史观测特征为对应的历史拍摄图像中拍摄对象的特征图像,历史拍摄图像有多个,每个历史拍摄图像对应一个历史观测特征;特征融合单元配置为对多个历史观测特征进行融合,得到融合特征;其中,融合特征包含历史拍摄图像中拍摄对象的时序特征,时序特征包括历史拍摄图像中拍摄对象的速度和移动方向;模型构建子单元配置为根据融合特征,基于演员评论家算法构建视觉主动跟踪模型。
在一些可选实施例中,特征观测单元进一步配置为基于卷积神经网络,对相机云台的历史拍摄图像进行特征提取,得到历史观测特征。
在一些可选实施例中,特征融合单元进一步配置为基于长短期记忆人工神经网络,对多个历史观测特征进行融合,得到融合特征。
本申请实施例提供的基于视觉主动目标跟踪的机器人控制系统能够实现上述任一所述的基于视觉主动目标跟踪的机器人控制方法实施例的步骤、流程,并达到相同的有益效果,在此不再一一赘述。
本申请实施例还提供一种基于视觉主动目标跟踪的机器人,该于视觉主动目标跟踪的机器人上部署有上述任一所述的基于视觉主动目标跟踪的机器人控制方法。
以上所述仅为本申请的优选实施例,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (9)
1.一种基于视觉主动目标跟踪的机器人控制方法,其特征在于,所述机器人上搭载有视觉系统,所述视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,所述相机云台用于对所述机器人视野中出现的目标对象进行检测,所述基于视觉主动目标跟踪的机器人控制方法包括:
步骤S101、根据检测到的视野中出现的目标对象,提取所述目标对象的运动特征图像;
步骤S102、基于所述视觉主动跟踪模型,根据所述目标对象的运动特征图像,对所述目标对象的运动进行预判,以对所述机器人本体和/或所述相机云台的位姿进行调整。
2.根据权利要求1所述的基于视觉主动目标跟踪的机器人控制方法,其特征在于,所述相机云台对检测到的视野中出现的目标对象进行拍摄,得到所述目标对象的拍摄图片;
对应的,
步骤S101具体为:基于卷积神经网络,对所述目标对象的拍摄图片进行特征提取,得到所述目标对象的运动特征图像。
3.根据权利要求1所述的基于视觉主动目标跟踪的机器人控制方法,其特征在于,在步骤S102中,
基于所述视觉主动跟踪模型,根据所述目标对象的运动特征,对所述目标对象的运动进行预判,得到所述机器人本体和所述相机云台的调整策略;
对所述调整策略与预设策略阈值进行对比,根据对比结果对所述机器人本体和/或所述相机云台的位姿进行调整。
4.根据权利要求3所述的基于视觉主动目标跟踪的机器人控制方法,其特征在于,所述预设策略阈值小于等于所述相机云台的调整范围;
对应的,
所述对所述调整策略与预设策略阈值进行对比,根据对比结果对所述机器人本体和/或所述相机云台的位姿进行调整,包括:
响应于所述对比结果小于等于所述预设策略阈值,则根据所述调整策略对所述相机云台的位姿进行调整;
响应于所述对比结果大于所述相机云台的调整范围,则根据所述调整策略同时对所述机器人本体和所述相机云台的位姿进行调整。
5.根据权利要求1-4任一所述的基于视觉主动目标跟踪的机器人控制方法,其特征在于,在步骤S101之前,还包括:
对所述相机云台的历史拍摄图像进行特征提取,得到历史观测特征;其中,所述历史观测特征为对应的所述历史拍摄图像中拍摄对象的特征图像,所述历史拍摄图像有多个,每个所述历史拍摄图像对应一个所述历史观测特征;
对多个所述历史观测特征进行融合,得到融合特征;其中,所述融合特征包含所述历史拍摄图像中拍摄对象的时序特征,所述时序特征包括所述历史拍摄图像中拍摄对象的速度和移动方向;
根据所述融合特征,基于演员评论家算法构建所述视觉主动跟踪模型。
6.根据权利要求5所述的基于视觉主动目标跟踪的机器人控制方法,其特征在于,所述对所述相机云台的历史拍摄图像进行特征提取,得到历史观测特征,具体为:
基于卷积神经网络,对所述相机云台的历史拍摄图像进行特征提取,得到所述历史观测特征。
7.根据权利要求5所述的基于视觉主动目标跟踪的机器人控制方法,其特征在于,所述对多个所述历史观测特征进行融合,得到融合特征,具体为:
基于长短期记忆人工神经网络,对多个所述历史观测特征进行融合,得到所述融合特征。
8.一种基于视觉主动目标跟踪的机器人控制系统,其特征在于,所述机器人上搭载有视觉系统,所述视觉系统部署有多自由度的相机云台及视觉主动跟踪模型,所述相机云台用于对所述机器人视野中出现的目标对象进行检测,所述基于视觉主动目标跟踪的机器人控制系统包括:
特征提取单元,配置为根据检测到的视野中出现的目标对象,提取所述目标对象的运动特征图像;
位姿调整单元,配置为基于所述视觉主动跟踪模型,根据所述目标对象的运动特征图像,对所述目标对象的运动进行预判,以对所述机器人本体和/或所述相机云台的位姿进行调整。
9.一种基于视觉主动目标跟踪的机器人,其特征在于,所述基于视觉主动目标跟踪的机器人上部署有权利要求1-7任一所述的基于视觉主动目标跟踪的机器人控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110807203.1A CN113421287A (zh) | 2021-07-16 | 2021-07-16 | 一种基于视觉主动目标跟踪的机器人及其控制方法、系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110807203.1A CN113421287A (zh) | 2021-07-16 | 2021-07-16 | 一种基于视觉主动目标跟踪的机器人及其控制方法、系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113421287A true CN113421287A (zh) | 2021-09-21 |
Family
ID=77721795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110807203.1A Pending CN113421287A (zh) | 2021-07-16 | 2021-07-16 | 一种基于视觉主动目标跟踪的机器人及其控制方法、系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421287A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
US20140347475A1 (en) * | 2013-05-23 | 2014-11-27 | Sri International | Real-time object detection, tracking and occlusion reasoning |
CN108305275A (zh) * | 2017-08-25 | 2018-07-20 | 深圳市腾讯计算机系统有限公司 | 主动跟踪方法、装置及系统 |
CN109785385A (zh) * | 2019-01-22 | 2019-05-21 | 中国科学院自动化研究所 | 视觉目标跟踪方法及系统 |
US20190236447A1 (en) * | 2018-01-30 | 2019-08-01 | Imubit Israel Ltd. | Controller training based on historical data |
CN110310329A (zh) * | 2018-03-27 | 2019-10-08 | 精工爱普生株式会社 | 操作显示设备的方法、信息处理系统及非暂时性存储介质 |
CN110569795A (zh) * | 2018-03-13 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置以及相关设备 |
CN111027677A (zh) * | 2019-12-02 | 2020-04-17 | 西安电子科技大学 | 基于深度确定性策略梯度ddpg的多机动目标跟踪方法 |
CN111414012A (zh) * | 2020-04-08 | 2020-07-14 | 深圳市千乘机器人有限公司 | 一种巡检机器人区域检索与云台校正方法 |
CN111462229A (zh) * | 2020-03-31 | 2020-07-28 | 普宙飞行器科技(深圳)有限公司 | 基于无人机的目标拍摄方法、拍摄装置及无人机 |
CN112119627A (zh) * | 2019-08-14 | 2020-12-22 | 深圳市大疆创新科技有限公司 | 基于云台的目标跟随方法、装置、云台和计算机存储介质 |
CN112116630A (zh) * | 2020-08-19 | 2020-12-22 | 上海闪马智能科技有限公司 | 目标跟踪的方法 |
-
2021
- 2021-07-16 CN CN202110807203.1A patent/CN113421287A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
US20140347475A1 (en) * | 2013-05-23 | 2014-11-27 | Sri International | Real-time object detection, tracking and occlusion reasoning |
CN108305275A (zh) * | 2017-08-25 | 2018-07-20 | 深圳市腾讯计算机系统有限公司 | 主动跟踪方法、装置及系统 |
US20190236447A1 (en) * | 2018-01-30 | 2019-08-01 | Imubit Israel Ltd. | Controller training based on historical data |
CN110569795A (zh) * | 2018-03-13 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置以及相关设备 |
CN110310329A (zh) * | 2018-03-27 | 2019-10-08 | 精工爱普生株式会社 | 操作显示设备的方法、信息处理系统及非暂时性存储介质 |
CN109785385A (zh) * | 2019-01-22 | 2019-05-21 | 中国科学院自动化研究所 | 视觉目标跟踪方法及系统 |
CN112119627A (zh) * | 2019-08-14 | 2020-12-22 | 深圳市大疆创新科技有限公司 | 基于云台的目标跟随方法、装置、云台和计算机存储介质 |
CN111027677A (zh) * | 2019-12-02 | 2020-04-17 | 西安电子科技大学 | 基于深度确定性策略梯度ddpg的多机动目标跟踪方法 |
CN111462229A (zh) * | 2020-03-31 | 2020-07-28 | 普宙飞行器科技(深圳)有限公司 | 基于无人机的目标拍摄方法、拍摄装置及无人机 |
CN111414012A (zh) * | 2020-04-08 | 2020-07-14 | 深圳市千乘机器人有限公司 | 一种巡检机器人区域检索与云台校正方法 |
CN112116630A (zh) * | 2020-08-19 | 2020-12-22 | 上海闪马智能科技有限公司 | 目标跟踪的方法 |
Non-Patent Citations (1)
Title |
---|
王思强: ""对抗场景中的意图理解与决策设计方法研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106598046B (zh) | 机器人躲避控制方法和装置 | |
Huang et al. | Learning to capture a film-look video with a camera drone | |
CN111246091B (zh) | 一种动态自动曝光控制方法和装置及电子设备 | |
US9924104B2 (en) | Background-differential extraction device and background-differential extraction method | |
CN105120146A (zh) | 一种利用无人机进行运动物体自动锁定拍摄装置及拍摄方法 | |
CN106973221B (zh) | 基于美学评价的无人机摄像方法和系统 | |
CN101379825A (zh) | 自动跟踪设备和自动跟踪方法 | |
Zhang et al. | Modular deep q networks for sim-to-real transfer of visuo-motor policies | |
CN112653844A (zh) | 一种摄像头云台转向自适应跟踪调节方法 | |
CN116755474A (zh) | 一种无人机用电力巡线方法及系统 | |
CN113232019A (zh) | 机械臂控制方法、装置、电子设备及存储介质 | |
CN110977966A (zh) | 一种基于虚拟场景训练的机器人避障方法 | |
CN108122243B (zh) | 用于机器人检测运动物体的方法 | |
CN110445982B (zh) | 一种基于六自由度设备的追踪拍摄方法 | |
Sarkar et al. | Planning robot motion using deep visual prediction | |
CN113421287A (zh) | 一种基于视觉主动目标跟踪的机器人及其控制方法、系统 | |
CN205490869U (zh) | 运动目标捕捉与跟踪设备 | |
CN115345901B (zh) | 一种动物运动行为预测方法、系统及摄像系统 | |
Deguchi et al. | A goal oriented just-in-time visual servoing for ball catching robot arm | |
Wang et al. | Hand movement prediction based collision-free human-robot interaction | |
Zhu et al. | Human following for wheeled robot with monocular pan-tilt camera | |
Arakawa et al. | Exploration of reinforcement learning for event camera using car-like robots | |
CN116117786A (zh) | 高视觉可见性下机械臂轨迹规划方法及系统 | |
JP7397001B2 (ja) | ロボットカメラソフトウェアと制御装置 | |
Mori et al. | Tracking and catching of 3D flying target based on GAG strategy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |