CN109977884A - 目标跟随方法和装置 - Google Patents

目标跟随方法和装置 Download PDF

Info

Publication number
CN109977884A
CN109977884A CN201910247797.8A CN201910247797A CN109977884A CN 109977884 A CN109977884 A CN 109977884A CN 201910247797 A CN201910247797 A CN 201910247797A CN 109977884 A CN109977884 A CN 109977884A
Authority
CN
China
Prior art keywords
target
model
sample
follows
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910247797.8A
Other languages
English (en)
Other versions
CN109977884B (zh
Inventor
尚云
刘洋
华仁红
王毓玮
冯卓玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yida Turing Technology Co Ltd
Original Assignee
Beijing Yida Turing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yida Turing Technology Co Ltd filed Critical Beijing Yida Turing Technology Co Ltd
Priority to CN201910247797.8A priority Critical patent/CN109977884B/zh
Publication of CN109977884A publication Critical patent/CN109977884A/zh
Application granted granted Critical
Publication of CN109977884B publication Critical patent/CN109977884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种目标跟随方法和装置,其中方法包括:基于跟随设备上装设的视觉传感装置获取当前图像;将当前图像输入至目标跟随模型,获取目标跟随模型输出的当前动作指令;其中,目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;基于当前动作指令控制跟随设备进行目标跟随。本发明实施例提供的方法和装置,计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,降低了人力成本和时间成本损耗,提高了模型训练效率。

Description

目标跟随方法和装置
技术领域
本发明实施例涉及计算机视觉技术领域,尤其涉及一种目标跟随方法和装置。
背景技术
目标跟随在视觉导航、行为识别、智能交通、环境监测、战场侦察军事打击等众多领域有非常广泛的研究和应用。
现有的目标跟随方法,通过需要在检测和识别跟随目标同时,判断前方是否存在障碍物并获取障碍物的相对位置。随即基于目标检测结果和障碍物检测结果,进行动作规划,从而达到跟随目的。其中,跟随目标的检测识别通常采用深度学习方法实现,障碍物的检测则通常基于立体视觉技术实现。
然而在跟随目标检测之前,需要手动标注大量的目标检测数据,工作量大,人力成本和时间成本高。此外,由于立体视觉技术极其复杂,需要消耗大量的计算资源,常常需要加设加速设备才能够保证障碍物检测的实时性。
发明内容
本发明实施例提供一种目标跟随方法和装置,用以解决现有的目标跟随方法需要手动标注目标检测数据且算法复杂,导致大量的人力、时间和计算资源消耗的问题。
第一方面,本发明实施例提供一种目标跟随方法,包括:
基于跟随设备上装设的视觉传感装置获取当前图像;
将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;
基于所述当前动作指令控制所述跟随设备进行目标跟随。
第二方面,本发明实施例提供一种目标跟随装置,包括:
图像获取单元,用于基于跟随设备上装设的视觉传感装置获取当前图像;
指令获取单元,用于将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;
目标跟随单元,用于基于所述当前动作指令控制所述跟随设备进行目标跟随。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑指令,以执行如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种目标跟随方法和装置,通过将当前图像输入至目标跟随模型,获取当前动作指令进行自动目标跟随和避障,在实际运行中计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在目标跟随模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,极大地降低了人力成本和时间成本损耗,提高了模型训练效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的目标跟随方法的流程示意图;
图2为本发明另一实施例提供的目标跟随方法的流程示意图;
图3为本发明实施例提供的目标跟随装置的结构示意图;
图4为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有的目标跟随方法中,跟随目标检测和障碍物检测是独立进行的。在执行跟随目标检测之前,需要手动标注大量的目标检测数据进行模型训练,工作量极大。而障碍物检测过程中应用的立体视觉技术极其复杂,需要消耗大量的计算资源,常常需要加设加速设备才能够保证障碍物检测的实时性。因而,现有的目标跟随方法需要消耗大量人力、时间以及计算资源,实时性差。为了解决上述问题,本发明实施例提供了一种目标跟随方法。图1为本发明实施例提供的目标跟随方法的流程示意图,如图1所示,该方法包括:
步骤110,基于跟随设备上装设的视觉传感装置获取当前图像。
具体地,跟随设备可以是任意需要在行进过程中执行目标跟随任务的设备,例如无人机、移动机器人等。视觉传感装置可以是单目视觉传感装置,也可以是集成有两个或者多个视觉传感装置的双目视觉传感装置或多目视觉传感装置。视觉传感装置具体可以是CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)相机,还可以是红外相机,或者是CMOS相机和红外相机相结合,本发明实施例对此不作具体限定。
视觉传感装置装设在跟随设备上,用于采集跟随设备行进路径的前方图像。当前图像即视觉传感装置采集得到的当前时刻跟随设备行进路径的前方图像。
步骤120,将当前图像输入至目标跟随模型,获取目标跟随模型输出的当前动作指令;其中,目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的。
具体地,目标跟随模型用于基于当前图像检测跟随目标,分析当前时刻前往跟随目标的动作路径以及动作路径上是否存在障碍物,如果存在障碍物如何进行避障。将当前图像输入至目标跟随模型后,可以得到目标跟随模型输出的当前动作指令,此处当前动作指令用于指示当前时刻跟随设备需要执行的动作,当前动作指令具体可用于指示当前时刻应当执行的移动方向,还可用于指示当前时刻应当执行的角速度和线速度等,本发明实施例对此不作具体限定。
另外,在执行步骤120之前,还可预先训练得到目标跟随模型,具体可通过如下方式训练得到:首先,收集大量样本图像、样本动作指令和样本标识;其中,样本图像是在通过手动控制跟随设备进行目标跟随的过程中,通过装设在跟随设备上的视觉传感装置采集得到的用于表征跟随设备行进路径前方环境的图像。样本动作指令是在采集样本图像的时刻手动控制跟随设备执行的动作指令,样本动作指令可以包括采集样本图像的时刻手动控制跟随设备执行的移动方向、角速度和线速度中的至少一种。样本标识用于指示在采集样本图像的时刻跟随设备基于样本动作指令行进的结果,包括是否成功执行目标跟随和是否成功避开障碍物。例如,跟随设备基于样本动作指令行进过程中,保持对跟随目标的跟随状态,且成功避开障碍物,则样本标识为正,跟随设备基于样本动作指令行进过程中,跟丢跟随目标,或撞上障碍物,则样本标识为负。再例如,样本标识包括样本跟随标识和样本避障标识,跟随设备基于样本动作指令行进过程中,保持对跟随目标的跟随状态,则样本跟随标识为正,跟丢跟随目标,则样本跟随标识为负,成功避开障碍物,则样本避障标识为正,撞上障碍物,则样本避障标识为负,本发明实施例对此不作具体限定。
随即基于样本图像、样本动作指令和样本标识对初始模型进行训练,从而得到同时具备目标跟随和避障功能的目标跟随模型。其中,初始模型可以是单一神经网络模型,也可以是多个神经网络模型的组合,本发明实施例不对初始模型的类型和结构作具体限定。
步骤130,基于当前动作指令控制跟随设备进行目标跟随。
具体地,在获取目标跟随模型输出的当前动作指令后,基于当前动作指令控制跟随设备的动作,进而实现跟随设备的自动目标跟随和避障。
本发明实施例提供的方法,通过将当前图像输入至目标跟随模型,获取当前动作指令进行自动目标跟随和避障,在实际运行中计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在目标跟随模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,极大地降低了人力成本和时间成本损耗,提高了模型训练效率。
现有的目标跟随方法通常采用双目相机进行障碍物检测,但是双目相机的成本高昂,基于双目相机采集的数据进行视觉计算也非常复杂。基于上述实施例,该方法中,视觉传感装置为单目视觉传感装置。
具体地,单目视觉传感装置即单目摄像装置,具体可以是单个摄像头或者航拍相机等,本发明实施例不对此作具体限定。通过单目视觉传感装置采集当前图像,相比传统的双目相机,成本更加低廉。
基于上述任一实施例,步骤120之前还包括:
步骤101,基于样本图像、样本动作指令和样本标识分别对若干个初始模型进行训练。
具体地,在获取目标跟随模型的过程中,可以预先设置若干个初始模型,不同的初始模型可以是相同结构下的相同类型的神经网络模型,也可以具备不同的结构,还可以是不同类型的神经网络模型,本发明实施例对此不作具体限定。将样本图像、样本动作指令和样本标识作为训练集,分别对若干个初始模型进行训练,进而得到若干个各不相同的训练后的初始模型。此处,每一初始模型对应训练集可以相同,也可以不同,本发明实施例对此不作具体限定。
步骤102,从所有训练后的初始模型中选取目标跟随模型。
具体地,在得到若干个训练后的初始模型中,从上述所有训练后的初始模型中选取目标跟随模型。此处,目标跟随模型的选取依据可以是每一训练后的初始模型的准确率,还可以是每一训练后的初始模型的准确率以及模型规模等因素,本发明实施例对此不作具体限定。
本发明实施例提供的方法,通过从若干个训练后的初始模型中选取目标跟随模型,保证了目标跟随模型的准确率和运行效率,为实现准确实时的跟随设备自动执行目标跟随和避障奠定了基础。
基于上述任一实施例,步骤102具体包括:
步骤1021,将测试图像输入任一训练后的初始模型,获取该训练后的初始模型输出的测试动作指令。
具体地,测试图像是在通过手动控制跟随设备进行目标跟随的过程中,通过装设在跟随设备上的视觉传感装置采集得到的用于表征跟随设备行进路径前方环境的图像,测试图像用于对训练后的初始模型进行测试。测试动作指令是训练后的初始模型基于测试图像输出的动作指令。
步骤1022,基于测试动作指令与测试图像对应的预设动作指令,获取该训练后的初始模型的测试结果。
具体地,测试图像对应的预设动作指令是在采集测试图像的时刻手动控制跟随设备执行的动作指令。在得到训练后的初始模型输出的测试动作指令后,将测试动作指令与预设动作指令进行比较,从而获取训练后的初始模型的测试结果,此处测试结果用于表征训练后的初始模型的准确率。例如,当预设动作指令均为成功实现目标跟随和避障的动作指令时,测试动作指令与预设动作指令相一致的比率越高,则训练后的初始模型的准确率越高,测试结果越好。又例如,当预设动作指令中包含成功实现目标跟随和避障的动作指令和未成功实现目标跟随和避障的动作指令时,则测试动作指令与成功实现目标跟随和避障的动作指令相一致的比率越高,与未成功实现目标跟随和避障的动作指令相一致的比率越低,测试结果越好。
步骤1023,基于每一训练后的初始模型的测试结果,从所有训练后的初始模型中选取目标跟随模型。
具体地,在得到每一训练后的初始模型的测试结果后,从所有训练后的初始模型中选取测试结果最好的训练后的初始模型作为目标跟随模型。
本发明实施例提供的方法,基于每一训练后的初始模型的测试结果选取目标跟随模型,能够有效提高目标跟随模型的准确率。
基于上述任一实施例,步骤101之前还包括:对样本图像进行预处理;预处理包括去均值。
具体地,在将样本图像应用于初始模型的训练之前,需要对样本图像进行预处理。此处,预处理包括去均值,还可以包括归一化、PCA(principal components analysis,主成分分析)降维等。其中,通过对样本图像进行去均值,即对样本图像中的每一像素移除像素均值,从而凸显个体差异,加速模型收敛。
基于上述任一实施例,步骤130之后还包括:基于优化图像、优化动作指令和优化标识对目标跟随模型进行训练。
具体地,在跟随设备自动执行目标跟随和避障过程中,可以记录当前图像以及基于当前图像获取的当前动作指令,以及跟随设备基于当前动作指令行进的结果。在跟随设备运行结束后,将记录的当前图像作为优化图像,当前动作指令作为优化动作指令,基于当前动作指令行进的结果为优化标识。进一步地,优化图像是跟随设备在自动执行目标跟随和避障期间通过装设在避障设备上的视觉传感装置获取的用于表征跟随设备行进路径前方环境的图像,优化动作指令为原目标跟随模型基于优化图像输出的动作指令,优化标识用于指示基于优化动作指令进行目标跟随和避障的结果。
基于上述优化图像、优化图像对应的优化动作指令和优化避障标识对避障模型进行迭代调优,能够进一步提高避障模型的准确率,弥补避障模型漏洞。尤其是在目标跟随失败或者避障失败的情况下,可以将目标跟随失败或者避障失败时对应的优化图像、优化动作指令和优化标识分别作为漏洞图像、漏洞动作指令和漏洞标识。此处,漏洞图像是跟随设备在目标跟随失败或者避障失败期间通过装设在跟随设备上的视觉传感装置获取的用于表征跟随设备动作路径前方环境的图像,漏洞动作指令为原目标跟随模型基于漏洞图像输出的导致目标跟随失败或避障失败的动作指令,漏洞标识为目标跟随失败或避障失败。基于漏洞图像、漏洞动作指令和漏洞标识对目标跟随模型进行训练更新,能够有效弥补漏洞,进一步提高目标跟随模型的性能。
基于上述任一实施例,当前动作指令包括线速度和角速度。对应地,样本动作指令也包括线速度和角速度。在手动控制跟随设备,获取包含样本图像、样本动作指令和样本标识的训练集时,可以根据样本图像中观测到的跟随目标与跟随设备之间的距离远近,调节跟随设备的线速度和角速度,例如若跟随目标与跟随设备之间的距离大于预设距离,则增大线速度和/或角速度,若跟随目标和跟随设备之间的距离小于预设距离,则减小线速度和/或角速度。也就是说,在训练集中,针对不同样本图像中跟随目标与跟随设备之间距离的区别,对应的样本动作指令中的线速度与角速度也不同。因而,在实际应用中,基于当前图像中跟随目标与跟随设备之间距离的区别,目标跟随模型输出的当前动作指令中的线速度与角速度也不相同。
基于上述任一实施例,图2为本发明另一实施例提供的目标跟随方法的流程示意图,如图2所示,该方法中,跟随设备为行走机器人,该方法包括如下步骤:
步骤210,样本采集。
收集大量样本图像、样本动作指令和样本标识;其中,样本图像是在通过手动控制行走机器人进行目标跟随的过程中,通过装设在行走机器人上的视觉传感装置采集得到的用于表征行走机器人行进路径前方环境的图像。样本动作指令是在采集样本图像的时刻手动控制行走机器人执行的动作指令,样本动作指令包括采集样本图像的时刻手动控制行走机器人执行的角速度和线速度。样本标识用于指示在采集样本图像的时刻行走机器人基于样本动作指令行进的结果,包括是否成功执行目标跟随和是否成功避开障碍物。行走机器人基于样本动作指令行进过程中,保持对跟随目标的跟随状态,且成功避开障碍物,则样本标识为正,行走机器人基于样本动作指令行进过程中,跟丢跟随目标,或撞上障碍物,则样本标识为负。
随后执行步骤220。
步骤220,模型训练。
为了提高训练的速度与精度,对每一样本图像进行去均值。随后,基于去均值后的样本图像以及样本动作指令和样本标识对若干个不同结构的初始模型进行训练。训练结束后,通过包含有测试图像和测试图像对应的预设动作指令的测试集测试每个训练后的初始模型,并从中挑选出一个准确率最高、效果最好的训练后的初始模型作为目标跟随模型。
随后执行步骤230。
步骤230,迭代调优。
在得到目标跟随模型后,判断是否需要对目标跟随模型进行调优迭代。
如果需要进行调优迭代,则将目标跟随模型运用在自动目标跟随和避障过程中,获取在线的优化图像,以及优化动作指令和优化标识。此处,优化图像是行走机器人在自动执行目标跟随和避障期间通过装设在避障设备上的视觉传感装置获取的用于表征行走机器人行进路径前方环境的图像,优化动作指令为原目标跟随模型基于优化图像输出的动作指令,优化标识用于指示基于优化动作指令进行目标跟随和避障的结果。随后执行步骤220,基于优化图像,以及优化动作指令和优化标识对目标跟随模型进行训练,实现目标跟随模型的迭代优化。
如果不需要进行调优迭代,则执行步骤240。
步骤240,系统部署。
将单目视觉传感模块装设在行走机器人上,完成行走机器人目标跟随系统部署。此处,单目视觉传感模块是海康USB摄像头。获取单目视觉传感模块采集的当前图像,并将当前图像输入至目标跟随模型,获取目标跟随模型输出的当前动作指令,基于当前动作指令控制行走机器人进行自动目标跟随。
本发明实施例提供的方法,通过将当前图像输入至目标跟随模型,获取当前动作指令进行自动目标跟随和避障,在实际运行中计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在目标跟随模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,极大地降低了人力成本和时间成本损耗,提高了模型训练效率。此外,通过单目视觉传感装置采集当前图像,相比传统的双目相机,成本更加低廉。
基于上述任一实施例,对该方法进行了实验。实验场景为室内,大小为30m*15m,跟随设备为行走机器人,跟随目标为目标人物。实验过程中,首先进行样本采集工作,利用海康USB摄像头采集样本图像,并记录样本动作指令和样本标识。基于上述样本图像、样本动作指令和样本标识对初始模型进行训练,得到目标跟随模型。之后基于目标跟随模型控制行走机器人进行人身跟随,实验结果是在场景有变化的情况下,行走机器人均可以正确、及时地跟随目标人物进行运动,并在成功绕障后继续跟随目标人物运动。且该方法对环境的复杂度、光照的变化等具有很好的鲁棒性,目标跟随能够保持较高的准确率。
基于上述任一实施例,对该方法进行了实验。实验场景为变电站,大小为200m*100m,跟随设备为行走机器人,跟随目标为目标人物。实验过程中,首先进行样本采集工作,利用海康USB摄像头采集样本图像,并记录样本动作指令和样本标识。基于上述样本图像、样本动作指令和样本标识对初始模型进行训练,得到目标跟随模型。之后基于目标跟随模型控制行走机器人进行人身跟随,实验结果是行走机器人在各个场景下都可以正确、及时地跟随目标人物进行运动,并在成功绕障后继续跟随目标人物运动。且该方法对环境的复杂度、光照的变化等具有很好的鲁棒性,目标跟随能够保持较高的准确率。
基于上述任一实施例,对该方法进行了实验。实验场景为室外场景,包含平坦的马路、凹凸不平的土路、茂密的小树林、空旷的类似田径场的场地,实验区域的大小为1000m*1000m。实验过程中,首先进行样本采集工作,利用海康USB摄像头采集样本图像,并记录样本动作指令和样本标识。基于上述样本图像、样本动作指令和样本标识对初始模型进行训练,得到目标跟随模型。之后基于目标跟随模型控制行走机器人进行人身跟随,实验结果是行走机器人在各个场景下都可以正确、及时地跟随目标人物进行运动,并在成功绕障后继续跟随目标人物运动。且该方法对环境的复杂度、光照的变化等具有很好的鲁棒性,目标跟随能够保持较高的准确率。
基于上述任一实施例,图3为本发明实施例提供的目标跟随装置的结构示意图,如图3所示,该装置包括图像获取单元310、指令获取单元320和目标跟随单元330;
其中,图像获取单元310用于基于跟随设备上装设的视觉传感装置获取当前图像;
指令获取单元320用于将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;
目标跟随单元330用于基于所述当前动作指令控制所述跟随设备进行目标跟随。
本发明实施例提供的装置,通过将当前图像输入至目标跟随模型,获取当前动作指令进行自动目标跟随和避障,在实际运行中计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在目标跟随模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,极大地降低了人力成本和时间成本损耗,提高了模型训练效率。
基于上述任一实施例,所述视觉传感装置为单目视觉传感装置。
基于上述任一实施例,该装置还包括模型训练单元和模型选取单元;
其中,模型训练单元用于基于所述样本图像、所述样本动作指令和所述样本标识分别对若干个初始模型进行训练;
模型选取单元用于从所有训练后的所述初始模型中选取所述目标跟随模型。
基于上述任一实施例,模型选取单元具体用于:
将测试图像输入任一训练后的所述初始模型,获取所述任一训练后的初始模型输出的测试动作指令;
基于所述测试动作指令与所述测试图像对应的预设动作指令,获取所述任一训练后的初始模型的测试结果;
基于每一所述训练后的初始模型的测试结果,从所有所述训练后的初始模型中选取所述目标跟随模型。
基于上述任一实施例,该装置还包括预处理单元;
预处理单元用于对所述样本图像进行预处理;所述预处理包括去均值。
基于上述任一实施例,该装置还包括优化单元;
优化单元用于基于优化图像、优化动作指令和优化标识对所述目标跟随模型进行训练。
基于上述任一实施例,所述当前动作指令包括线速度和角速度。
图4为本发明实施例提供的电子设备的实体结构示意图,如图4所示,该电子设备可以包括:处理器(processor)401、通信接口(Communications Interface)402、存储器(memory)403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信。处理器401可以调用存储在存储器403上并可在处理器401上运行的计算机程序,以执行上述各实施例提供的目标跟随方法,例如包括:基于跟随设备上装设的视觉传感装置获取当前图像;将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;基于所述当前动作指令控制所述跟随设备进行目标跟随。
此外,上述的存储器403中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的目标跟随方法,例如包括:基于跟随设备上装设的视觉传感装置获取当前图像;将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;基于所述当前动作指令控制所述跟随设备进行目标跟随。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种目标跟随方法,其特征在于,包括:
基于跟随设备上装设的视觉传感装置获取当前图像;
将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;
基于所述当前动作指令控制所述跟随设备进行目标跟随。
2.根据权利要求1所述的方法,其特征在于,所述视觉传感装置为单目视觉传感装置。
3.根据权利要求1所述的方法,其特征在于,所述将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令,之前还包括:
基于所述样本图像、所述样本动作指令和所述样本标识分别对若干个初始模型进行训练;
从所有训练后的所述初始模型中选取所述目标跟随模型。
4.根据权利要求3所述的方法,其特征在于,所述从所有训练后的所述初始模型中选取所述目标跟随模型,具体包括:
将测试图像输入任一训练后的所述初始模型,获取所述任一训练后的初始模型输出的测试动作指令;
基于所述测试动作指令与所述测试图像对应的预设动作指令,获取所述任一训练后的初始模型的测试结果;
基于每一所述训练后的初始模型的测试结果,从所有所述训练后的初始模型中选取所述目标跟随模型。
5.根据权利要求3所述的方法,其特征在于,所述基于所述样本图像、所述样本动作指令和所述样本标识分别对若干个初始模型进行训练,之前还包括:
对所述样本图像进行预处理;所述预处理包括去均值。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述基于所述当前动作指令控制所述跟随设备进行目标跟随,之后还包括:
基于优化图像、优化动作指令和优化标识对所述目标跟随模型进行训练。
7.根据权利要求1至5中任一项所述的方法,其特征在于,所述当前动作指令包括线速度和角速度。
8.一种目标跟随装置,其特征在于,包括:
图像获取单元,用于基于跟随设备上装设的视觉传感装置获取当前图像;
指令获取单元,用于将所述当前图像输入至目标跟随模型,获取所述目标跟随模型输出的当前动作指令;其中,所述目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;
目标跟随单元,用于基于所述当前动作指令控制所述跟随设备进行目标跟随。
9.一种电子设备,其特征在于,包括处理器、通信接口、存储器和总线,其中,处理器,通信接口,存储器通过总线完成相互间的通信,处理器可以调用存储器中的逻辑指令,以执行如权利要求1至7任一所述的方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一所述的方法。
CN201910247797.8A 2019-03-29 2019-03-29 目标跟随方法和装置 Active CN109977884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910247797.8A CN109977884B (zh) 2019-03-29 2019-03-29 目标跟随方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910247797.8A CN109977884B (zh) 2019-03-29 2019-03-29 目标跟随方法和装置

Publications (2)

Publication Number Publication Date
CN109977884A true CN109977884A (zh) 2019-07-05
CN109977884B CN109977884B (zh) 2021-05-11

Family

ID=67081509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910247797.8A Active CN109977884B (zh) 2019-03-29 2019-03-29 目标跟随方法和装置

Country Status (1)

Country Link
CN (1) CN109977884B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111053564A (zh) * 2019-12-26 2020-04-24 上海联影医疗科技有限公司 医疗设备的移动控制方法及医疗设备
CN115344051A (zh) * 2022-10-17 2022-11-15 广州市保伦电子有限公司 一种智能跟随小车的视觉跟随方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010138431A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for tracking a model
CN106444753A (zh) * 2016-09-20 2017-02-22 智易行科技(武汉)有限公司 基于人工神经网络的人体态势判断智能跟随方法
CN107230219A (zh) * 2017-05-04 2017-10-03 复旦大学 一种单目机器人上的目标人发现与跟随方法
CN107562053A (zh) * 2017-08-30 2018-01-09 南京大学 一种基于模糊q学习的六足机器人避障方法
CN107818333A (zh) * 2017-09-29 2018-03-20 爱极智(苏州)机器人科技有限公司 基于深度信念网络的机器人避障行为学习和目标搜索方法
CN108255175A (zh) * 2017-12-29 2018-07-06 北京韧达科控自动化技术有限公司 旅行箱
CN108829137A (zh) * 2018-05-23 2018-11-16 中国科学院深圳先进技术研究院 一种机器人目标追踪的避障方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010138431A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Systems and methods for tracking a model
CN106444753A (zh) * 2016-09-20 2017-02-22 智易行科技(武汉)有限公司 基于人工神经网络的人体态势判断智能跟随方法
CN107230219A (zh) * 2017-05-04 2017-10-03 复旦大学 一种单目机器人上的目标人发现与跟随方法
CN107562053A (zh) * 2017-08-30 2018-01-09 南京大学 一种基于模糊q学习的六足机器人避障方法
CN107818333A (zh) * 2017-09-29 2018-03-20 爱极智(苏州)机器人科技有限公司 基于深度信念网络的机器人避障行为学习和目标搜索方法
CN108255175A (zh) * 2017-12-29 2018-07-06 北京韧达科控自动化技术有限公司 旅行箱
CN108829137A (zh) * 2018-05-23 2018-11-16 中国科学院深圳先进技术研究院 一种机器人目标追踪的避障方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111053564A (zh) * 2019-12-26 2020-04-24 上海联影医疗科技有限公司 医疗设备的移动控制方法及医疗设备
CN111053564B (zh) * 2019-12-26 2023-08-18 上海联影医疗科技股份有限公司 医疗设备的移动控制方法及医疗设备
CN115344051A (zh) * 2022-10-17 2022-11-15 广州市保伦电子有限公司 一种智能跟随小车的视觉跟随方法及装置

Also Published As

Publication number Publication date
CN109977884B (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
EP3405845B1 (en) Object-focused active three-dimensional reconstruction
US9836653B2 (en) Systems and methods for capturing images and annotating the captured images with information
Broggi et al. Visual perception of obstacles and vehicles for platooning
US11694432B2 (en) System and method for augmenting a visual output from a robotic device
CN108446585A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN109159113B (zh) 一种基于视觉推理的机器人作业方法
Fan et al. Dynamicfilter: an online dynamic objects removal framework for highly dynamic environments
CN111178170B (zh) 一种手势识别方法和一种电子设备
CN108089695A (zh) 一种控制可移动设备的方法和装置
CN109977884A (zh) 目标跟随方法和装置
CN114091515A (zh) 障碍物检测方法、装置、电子设备和存储介质
Wu et al. An end-to-end solution to autonomous driving based on xilinx fpga
Baisware et al. Review on recent advances in human action recognition in video data
CN112733971B (zh) 扫描设备的位姿确定方法、装置、设备及存储介质
CN106408593A (zh) 一种基于视频的车辆跟踪方法及装置
Sun et al. Real-time and fast RGB-D based people detection and tracking for service robots
Sujiwo et al. Robust and accurate monocular vision-based localization in outdoor environments of real-world robot challenge
CN111126279B (zh) 一种手势互动方法及手势互动装置
CN109901589A (zh) 移动机器人控制方法和装置
Parlange et al. Leveraging single-shot detection and random sample consensus for wind turbine blade inspection
CN109993106A (zh) 避障方法和装置
Luo et al. Highly Accurate and Reliable Tracker for UAV-Based Herd Monitoring
Maruyama et al. Visual Explanation of Deep Q-Network for Robot Navigation by Fine-tuning Attention Branch
Lakshan Blind navigation in outdoor environments: Head and torso level thin-structure based obstacle detection
Huang et al. Real-Time Vision-Based River Detection and Lateral Shot Following for Autonomous UAVs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant