CN112207821B - 视觉机器人的目标搜寻方法及机器人 - Google Patents

视觉机器人的目标搜寻方法及机器人 Download PDF

Info

Publication number
CN112207821B
CN112207821B CN202010997615.1A CN202010997615A CN112207821B CN 112207821 B CN112207821 B CN 112207821B CN 202010997615 A CN202010997615 A CN 202010997615A CN 112207821 B CN112207821 B CN 112207821B
Authority
CN
China
Prior art keywords
target
image
detection
visual
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010997615.1A
Other languages
English (en)
Other versions
CN112207821A (zh
Inventor
于峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Aoyou Intelligent Technology Co ltd
Original Assignee
Dalian Aoyou Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Aoyou Intelligent Technology Co ltd filed Critical Dalian Aoyou Intelligent Technology Co ltd
Priority to CN202010997615.1A priority Critical patent/CN112207821B/zh
Publication of CN112207821A publication Critical patent/CN112207821A/zh
Application granted granted Critical
Publication of CN112207821B publication Critical patent/CN112207821B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明提供了视觉机器人的目标搜寻方法及机器人,涉及机器人搜寻技术领域。所述方法包括步骤:获取搜寻目标信息;所述搜寻目标信息包括目标特征和所属目标类型;启动视觉相机拍摄以获取视野图像,根据前述所属目标类型对应的目标检测神经网络模型的检测图像尺寸要求,对视野图像进行预处理以生成检测图像,将检测图像输入到前述对应的目标检测神经网络模型进行目标检测;所述检测图像是由分辨率不同的、且与视野图像相关的多个图像拼接而成;获取目标检测结果,根据前述目标特征判断目标检测结果中是否有搜寻目标。本发明在保证远近目标搜寻的实时准确性的基础上,降低了远近目标搜寻对设备算力的要求。

Description

视觉机器人的目标搜寻方法及机器人
技术领域
本发明涉及机器人搜寻技术领域。
背景技术
通过智能移动机器人对目标进行搜寻被广泛地应用在搜救服务、场景监控和 对象寻找、目标探测等领域,具有广泛应用前景。
移动机器人对目标的搜寻可能会涉及计算机视觉和模式识别等多个领域。其 中,对于计算机视觉,目的是模拟人类视觉机制,计算视觉场景中信息的重要程 度,提取图像中感兴趣的显著性特征或目标物体特征。机器人基于视觉进行目标 搜寻的过程通常包括图像采集、目标检测和目标确认。随着人工智能和深度学习 技术的快速发展,基于卷积神经网络(CNN)算法的目标检测方法得到了广泛应 用。相较于传统的机器视觉方法,卷积神经网络在大数据的训练下,从大量数据 中学习出有用的特征,具有速度快、精度高、成本低等优势。
然而,一方面,虽然卷积神经网络算法提高了跟踪的实时准确性,但由于卷 积神经网络基于目标检测算法通常包含大量计算密集型运算,对实时检测算力和 带宽的要求很高。另一方面,人们在使用视觉机器人对目标进行搜寻时,通常期 望机器人不仅对近处目标有较好的搜寻能力,而且对远处目标具有较好的搜寻能 力。卷积神经网络模型中为了检测不同远近距离的目标,目前常用的方法是:对 原始图像进行多尺度缩放,生成多尺度金字塔图像组,然后对不同尺度的输入图 像分别检测;具体的,在检测近处目标时,在缩小的图像上检测;在检测远处目 标时,在高分辨率的大尺寸图像上检测。由于需要为每级图像尺度设计训练神经 网络,对设备的算力和带宽提出了更高要求。如何在保证远近目标搜寻的实时准 确性的基础上,降低目标实时搜寻对设备算力的要求,是当前亟待解决的技术问 题。
发明内容
本发明的目的在于:克服现有技术的不足,提供了一种视觉机器人的目标搜 寻方法及机器人。本发明针对搜寻目标的所属目标类型设置了不同的目标检测神 经网络模型,在检测目标时可以仅针对搜寻目标所属类型进行目标检测;同时, 通过分辨率不同的、且与视野图像相关的多个图像拼接形成检测图像以匹配目标 检测神经网络模型的检测尺寸,大分辨率图像适合搜寻近处目标,小分辨率图像 适合搜寻远处目标,无需对不同尺度的输入图像分别检测,在保证远近目标搜寻 的实时准确性的基础上,降低了远近目标搜寻对设备算力的要求。
为实现上述目标,本发明提供了如下技术方案:
一种视觉机器人的目标搜寻方法,包括步骤:
获取搜寻目标信息;所述搜寻目标信息包括目标特征和所属目标类型,不同 的目标类型对应有不同的目标检测神经网络模型;
启动视觉相机拍摄以获取视野图像,根据前述所属目标类型对应的目标检测 神经网络模型的检测图像尺寸要求,对视野图像进行预处理以生成检测图像,将 检测图像输入到前述对应的目标检测神经网络模型进行目标检测;所述检测图像 是由分辨率不同的、且与视野图像相关的多个图像拼接而成;
获取目标检测结果,根据前述目标特征判断目标检测结果中是否有搜寻目 标。
进一步,在判定有搜寻目标的情况下,启动视觉机器人的跟随模式,对前述 搜寻目标进行跟随;否则,调整视觉相机的拍摄角度向左或向右旋转预设角度, 重新获取视野图像后,进行前述目标检测的过程。
优选的,所述搜寻目标为人,所述目标特征为人脸特征信息,在跟随模式下, 将所述人脸特征作为识别特征构建视觉跟踪器;以及,对应所述跟随模式设置有 第一跟随距离,在跟随过程中与所述目标保持所述第一跟随距离。
优选的,在跟随过程中,获取目标的图像,识别目标的衣着特征信息、装扮 特征信息、携带物品特征信息和/或步态特征信息作为目标附加信息,将所述目 标附加信息发送至视觉跟踪器进行搜寻目标信息更新。
另一方面,所述搜寻目标为车辆,所述目标特征为车辆ID信息,在跟随模 式下,将所述车辆ID信息作为识别特征构建视觉跟踪器;以及,对应所述跟随 模式设置有第一跟随距离,在跟随过程中与所述目标保持所述第一跟随距离。
另一方面,所述视觉相机为单目视觉相机或双目立体视觉相机;在跟随过程 中,保持所述目标位于视野中心区域;
当跟随目标偏离时,通过控制机器人进行旋转来补偿偏移量,或者通过控制 机器人上安装的视觉相机旋转来补偿偏移量,并调整跟随方位。
另一方面,通过视觉机器人的显示结构输出视觉相机拍摄的实时视野图像, 在目标检测结果中有搜寻目标的情况下,将检测出的搜寻目标映射到前述实时画 面中进行标识输出;
以及,将包含搜寻目标的实时视野图像发送至关联用户所在的远程终端进行 输出显示。
另一方面,通过所述远程终端上的即时通信工具、短视频工具和/或直播工 具输出前述实时视野图像。
另一方面,对视野图像进行预处理以生成检测图像步骤包括:
将视野图像作为原始分辨率图像,对原始分辨率图像按两个压缩比例进行压 缩处理以获得分辨率不同的两个全局映射图像;其中,分辨率小的全局映射图像 的尺寸应小于检测图像的要求尺寸,分辨率大的全局映射图大于检测图像的要求 尺寸;
选取分辨率小的全局映射图作为检测图像的第一拼接图,用检测图像的尺寸 减去前述第一拼接图的尺寸以获取剩余区域的尺寸;
根据剩余区域的尺寸的大小设置一个或多个截取框,通过所述截取框在分辨 率大的全局映射图的边缘区域获取大分辨率的边缘局部图像,将所述边缘局部图 像填充到前述剩余区域进行拼接,形成检测图像。
本发明还提供了一种视觉机器人,设置有视觉相机,还包括如下结构:
信息采集模块,用于获取搜寻目标信息;所述搜寻目标信息包括目标特征和 所属目标类型,不同的目标类型对应有不同的目标检测神经网络模型;
目标检测模块,用于启动视觉相机拍摄以获取视野图像,根据前述所属目标 类型对应的目标检测神经网络模型的检测图像尺寸要求,对视野图像进行预处理 以生成检测图像,将检测图像输入到前述对应的目标检测神经网络模型进行目标 检测;所述检测图像是由分辨率不同的、且与视野图像相关的多个图像拼接而成;
目标搜寻模块,用于获取目标检测结果,根据前述目标特征判断目标检测结 果中是否有搜寻目标。
本发明由于采用以上技术方案,与现有技术相比,具有以下的优点和积极效 果:针对搜寻目标的所属目标类型设置了不同的目标检测神经网络模型,在检测 目标时可以仅针对搜寻目标所属类型进行目标检测;同时,通过分辨率不同的、 且与视野图像相关的多个图像拼接形成检测图像以匹配目标检测神经网络模型 的检测尺寸,大分辨率图像适合搜寻近处目标,小分辨率图像适合搜寻远处目标, 无需对不同尺度的输入图像分别检测,在保证远近目标搜寻的实时准确性的基础 上,降低了远近目标搜寻对设备算力的要求。
附图说明
图1为本发明实施例提供的视觉机器人的目标搜寻方法的流程图。
图2为本发明实施例提供的确定搜寻目标的信息传输图。
具体实施方式
以下结合附图和具体实施例对本发明公开的视觉机器人的目标搜寻方法及 机器人作进一步详细说明。应当注意的是,下述实施例中描述的技术特征或者技 术特征的组合不应当被认为是孤立的,它们可以被相互组合从而达到更好的技术 效果。在下述实施例的附图中,各附图所出现的相同标号代表相同的特征或者部 件,可应用于不同实施例中。因此,一旦某一项在一个附图中被定义,则在随后 的附图中不需要对其进行进一步讨论。附图均仅用以配合说明书所揭示的内容, 以供熟悉此技术的人士了解与阅读,并非用以限定发明可实施的限定条件,任何 结构的修饰、比例关系的改变或大小的调整,在不影响发明所能产生的功效及所 能达成的目的下,均应落在发明所揭示的技术内容所能涵盖的范围内。
实施例
参见图1和图2所示,为本发明提供的一种基于视觉的机器人跟随方法。
所述方法包括步骤:
一种视觉机器人的目标搜寻方法,包括步骤:
步骤1,获取搜寻目标信息。
所述搜寻目标信息包括目标特征和所属目标类型,不同的目标类型对应有不 同的目标检测神经网络模型,不同的目标检测神经网络模型设置有固定的检测图 像尺寸要求。
步骤2,根据所属目标类型对应的目标检测神经网络模型,检测视野图像中 的同一类型的目标。
启动视觉相机拍摄以获取视野图像,根据前述所属目标类型对应的目标检测 神经网络模型的检测图像尺寸要求,对视野图像进行预处理以生成检测图像,将 检测图像输入到前述对应的目标检测神经网络模型进行目标检测;所述检测图像 是由分辨率不同的、且与视野图像相关的多个图像拼接而成。
所述视野图像,即通过视觉相机拍摄的原始图像数据,也可以称为视野输入 图像(原始输入图像)。
步骤3,确定搜寻目标。获取目标检测结果,根据前述目标特征判断目标检 测结果中是否有搜寻目标。
进一步,步骤3之后还可以包括步骤:在判定有搜寻目标的情况下,启动视 觉机器人的跟随模式,对前述搜寻目标进行跟随。
以及,在判定没有搜寻目标的情况下,调整视觉相机的拍摄角度向左或向右 旋转预设角度,重新获取视野图像后,进行前述目标检测的过程,如下:对视野 图像进行预处理以生成检测图像,将检测图像输入到前述对应的目标检测神经网 络模型进行目标检测;所述检测图像是由分辨率不同的、且与视野图像相关的多 个图像拼接而成;获取目标检测结果,根据前述目标特征判断目标检测结果中是 否有搜寻目标。
所述旋转预设角度,可以根据所述视觉相机的类型来设置。
本实施例中视觉相机可以为单目视觉相机、双目立体视觉相机、多目(三目 及以上)立体视觉相机和全景视觉相机。一般来说,目数越多,获取的信息量越 大,检测率越高,但算法处理时间也会增长,实时性也降低;反之,越好目数越 小,算法处理时间短,实时性也越好。考虑到设备算力和实时性要求,优选为单 目视觉相机或双目立体视觉相机。对应单目视觉相机,所述旋转预设角度优选范 围为60度-120度之间;对于双目立体视觉相机,所述旋转预设角度优选范围为 120度-180度之间。
本实施例中,针对不同的目标类型对应有不同的目标检测神经网络模型,不 同的目标检测神经网络模型设置有固定的检测图像尺寸要求。作为举例而非限 制,比如所述目标类型具体可以为人、车辆、狗、无人机、鱼类等各种需要搜寻 的运动目标。对应于不同目标,可以通过图像库进行模型训练以得到适用于不同 目标的目标检测神经网络模型。
优选的实施方式中,所述搜寻目标为人。
此时,所述目标特征优选为人脸特征信息,在跟随模式下,将所述人脸特征 作为识别特征构建视觉跟踪器;以及,对应所述跟随模式设置有第一跟随距离, 在跟随过程中与所述目标保持所述第一跟随距离。此时,机器人在跟随目标时候, 可以先基于人脸的侧部特征和/或面部五官特征进行跟随目标的确认,在确认跟 随目标后,获取该目标的其它特征——比如步态特征、衣着特征等——以便于从 其它方位进行跟随。
具体的,在跟随过程中,再通过人脸特征确认目标后,可以获取跟随目标的 图像,识别目标的衣着特征信息、装扮特征信息、携带物品特征信息和/或步态 特征信息作为目标附加信息,将所述目标附加信息发送至视觉跟踪器进行搜寻目 标信息更新,并调整跟踪方位。优选的,还可以将跟踪距离调整为第二跟踪距离, 所述第二跟随距离大于第一跟随距离。
在另一优选实施方式中,所述搜寻目标为车辆。
此时,所述目标特征为车辆ID信息,在跟随模式下,将所述车辆ID信息作 为识别特征构建视觉跟踪器;以及,对应所述跟随模式设置有第一跟随距离,在 跟随过程中与所述目标保持所述第一跟随距离。与前述实施方式类似,机器人在 跟随目标时候,可以先基于车辆ID信息进行跟随目标的确认,在确认跟随目标 后,获取该目标的其它特征——比如颜色、外观、尺寸特征等作为目标附加信息, 将所述目标附加信息发送至视觉跟踪器进行搜寻目标信息更新,以便于从其它方 位进行跟随。
在跟随过程中,最好保持所述目标位于视野中心区域。当跟随目标偏离时, 通过控制机器人进行旋转来补偿偏移量,或者通过控制机器人上安装的视觉相机 旋转来补偿偏移量,并调整跟随方位。
通过采用上述技术方案,机器人可以先基于具有显著性特征(五官特征)的、 易于确认目标身份的人脸特征确定跟随目标,再通过跟随目标的其他特征进行后 方跟随,便于调整跟随方位,降低跟丢概率。
本实施例中,还可以通过视觉机器人的显示结构输出视觉相机拍摄的实时视 野图像,在目标检测结果中有搜寻目标的情况下,将检测出的搜寻目标映射到前 述实时画面中进行标识输出。
进一个,还可以将包含搜寻目标的实时视野图像发送至关联用户所在的远程 终端进行输出显示。
所述远程终端,优选的采用手机、平板电脑、佩戴式智能终端——比如智能 眼镜和智能手表等。如此,便于远程用户辅助机器人进行目标跟踪。
优选的,机器人跟随过程中可以启动录像功能,并将录像的视频数据存储在 关联的存储器或云端服务器中,并定期发送至前述用户的终端上。进一步,用户 还可以通过终端发送实时查阅指令至机器人,机器人根据所述实时查阅指令将当 前的实时视频数据或截图发送至所述用户的终端。
优选的,通过前述远程终端——比如手机——上的即时通信工具、短视频工 具和/或直播工具输出前述实时视野图像。
本实施例中,组成所述检测图像的多个拼接图像的分辨率可以均不同。作为 举例而非限制,比如检测图像包括3个拼接图像,3个拼接图像的分辨率均不相 同。
或者,组成所述检测图像的多个拼接图像中,部分拼接图像的分辨率相同。 作为举例而非限制,比如检测图像包括3个拼接图像,其中2个拼接图像的分辨 率取自同一分辨率的图像,两者的分辨率相同。另外1个拼接图像的分辨率与前 述二者不同。
在一个优选的实施方式中,对视野图像进行预处理以生成检测图像步骤可以 如下:
将视野图像作为原始分辨率图像,对原始分辨率图像按两个压缩比例进行压 缩处理以获得分辨率不同的两个全局映射图像;其中,分辨率小的全局映射图像 的尺寸应小于检测图像的要求尺寸,分辨率大的全局映射图大于检测图像的要求 尺寸;
选取分辨率小的全局映射图作为检测图像的第一拼接图,用检测图像的尺寸 减去前述第一拼接图的尺寸以获取剩余区域的尺寸;
根据剩余区域的尺寸的大小设置一个或多个截取框,通过所述截取框在分辨 率大的全局映射图的边缘区域获取大分辨率的边缘局部图像,将所述边缘局部图 像填充到前述剩余区域进行拼接,形成检测图像。
前述截取框是固定的,对于每帧图像,只在分辨率大的全局映射图的固定的 边缘区域获取大分辨率的边缘局部图像,截取框的形状和尺寸与剩余区域的尺寸 适配,且截取框的尺寸大于行人检测神经网络模型的最小检测尺寸。
具体的,截取框的形状可以根据需要设置为矩形框、L型框、冂型框(开口 可以向上、向下、向左或向右)和口型框。
优选的,截取框设置为矩形框,根据剩余区域的形状,矩形框可以设置为多 个,所述多个矩形截取框能够通过边缘拼接组成剩余区域的形状。
所述固定的边缘区域,可以是左边边缘区域、右边边缘区域、上边边缘区域 和/或下边边缘区域,优选为右边边缘区域和/或上边边缘区域。由于在相机拍摄 图像时,由视野中心向外延伸,远处小目标位于图像边缘区域的概率要大于其位 于图像中间区域(视野中心区域或靠近视野中心区域)的概率,即在图像边缘区 域检测到远处小目标的可能性大于在图像中间区域检测到远处小目标的可能性 (图像中间区域更容易检测到近处大目标),因此在通过分辨率小的全局映射图 检测近处大目标时,可以通过截取分辨率大的全局映射图的边缘区域的局部图像 来增加对可能位于边缘处的远处小目标的检测率。
所述检测图像是固定的输入尺寸,输入行人检测神经网络模型的检测图像的 尺寸需要与前述固定的输入尺寸一致。根据检测图像的剩余区域的尺寸,可以设 置一个或多个截取框在分辨率大的全局映射图的边缘区域获取局部图像(位于截 取框中的图像即为截取的局部图像)。通过采用固定尺寸的检测图像,可以显著 简化行人检测神经网络模型的模型训练和模型设计复杂度。
作为举例而非限制,比如视野图像的宽高尺寸为1000*1000像素,即原始分 辨率图像的分辨率为1000*1000像素,检测图像要求的输入尺寸为540*360像素, 对原始分辨率图像按两个压缩比例进行压缩处理(宽高等比例压缩)获得分辨率 不同的两个全局映射图像,分别为300*300像素(压缩比例为0.3)和600*600 像素(压缩比例为0.6),前者的尺寸小于检测图像的要求尺寸,后者的尺寸大 于检测图像的要求尺寸。
将分辨率为300*300像素的全局映射图作为第一拼接图,然后根据检测图像 的尺寸540*360像素,在第一拼接图的边缘用大分辨率(600*600像素)的局部 图像进行剩余区域的拼接填充。拼接填充规则可以由系统默认或用户个性化设 置,比如可以将拼接填充规则设置为:相比于左侧边缘优先基于第一拼接图的右 边边缘拼接填充局部图像,以及相比于上边边缘优先基于第一拼接图的下边边缘 拼接填充局部图像。上述剩余区域尺寸为L型,可以设置2个矩形截取框,作为 举例,比如2个矩形截取框的宽高尺寸分别为240*360像素和300*60像素, 240*360截取框中的截取图像(来自于600*600像素的大分辨率图像)拼接到第 一拼接图的左边边缘,满足检测图像的540的宽度要求(300+240=540),300*60 截取框中的截取图像(也来自于600*600像素的大分辨率图像)拼接到第一拼接 图的下边边缘进行填充,满足检测图像的360的高度要求(300+60=360),构造 了符合检测图像尺寸要求的拼接图像。
需要说明的是,根据剩余区域尺寸的形状和检测需要,可以设置更多个矩形 截取框,只要多个矩形截取框能够通过边缘拼接组成剩余区域的形状即可。但优 选的,在设置拼接的矩形截取框的个数时,基于“使参与拼接的矩形框最少”的 规则设置矩形框的个数。
在另一个优选的实施方式中,对视野图像进行预处理以生成检测图像步骤如 下:
将视野图像作为原始分辨率图像,判定原始分辨率图像的尺寸大于检测图像 的要求尺寸时,对原始分辨率图像按压缩比例进行压缩处理以获得小分辨率的全 局映射图像,所述小分辨率的全局映射图像的尺寸应小于检测图像的要求尺寸。
选取小分辨率的全局映射图作为检测图像的第一拼接图,用检测图像的尺寸 减去前述第一拼接图的尺寸以获取剩余区域的尺寸。
根据剩余区域的尺寸的大小设置一个或多个截取框,通过所述截取框在原始 分辨率图像的边缘区域获取大分辨率的边缘局部图像,将所述边缘局部图像填充 到前述剩余区域进行拼接,形成检测图像。
在本实施例的另一实施方式中,还可以将前述固定的截取框设置为能够按规 则移动的滑动框。具体的,所述滑动框(或称滑动窗)能够按照预设的移动规则 按帧在指定图像上移动到不同的位置,比如从指定图像的左上角开始,按从左往 右从上往下顺序匀速扫描全图,也可以按照用户设定的顺序扫描全图,也可以是 按随机移动规则扫描全图。如此,可以实现对大分辨率图像的完整检测。
此时,对视野图像进行预处理以生成检测图像步骤可以如下:
将视野图像作为原始分辨率图像,对原始分辨率图像按两个压缩比例进行压 缩处理以获得分辨率不同的两个全局映射图像;其中,分辨率小的全局映射图像 的尺寸应小于检测图像的要求尺寸,分辨率大的全局映射图大于检测图像的要求 尺寸。
选取分辨率小的全局映射图作为检测图像的第一拼接图,用检测图像的尺寸 减去前述第一拼接图的尺寸以获取剩余区域的尺寸。
根据剩余区域的尺寸的大小设置一个或多个滑动框,所述滑动框能够按照预 设的移动规则按帧在分辨率大的全局映射图上移动到不同的位置,通过所述截取 框在分辨率大的全局映射图上获取该全局映射图的局部图像,将所述局部图像填 充到前述剩余区域进行拼接,形成检测图像。
本发明还提供了可以进行目标搜寻的视觉机器人,其设置有视觉相机。所述 视觉机器人还包括如下结构:
信息采集模块,用于获取搜寻目标信息;所述搜寻目标信息包括目标特征和 所属目标类型,不同的目标类型对应有不同的目标检测神经网络模型。
目标检测模块,用于启动视觉相机拍摄以获取视野图像,根据前述所属目标 类型对应的目标检测神经网络模型的检测图像尺寸要求,对视野图像进行预处理 以生成检测图像,将检测图像输入到前述对应的目标检测神经网络模型进行目标 检测;所述检测图像是由分辨率不同的、且与视野图像相关的多个图像拼接而成。
目标搜寻模块,用于获取目标检测结果,根据前述目标特征判断目标检测结 果中是否有搜寻目标。
所述目标搜寻模块还被配置为:在判定没有搜寻目标的情况下,调整视觉相 机的拍摄角度向左或向右旋转预设角度,重新获取视野图像后,进行前述目标检 测的过程,如下:对视野图像进行预处理以生成检测图像,将检测图像输入到前 述对应的目标检测神经网络模型进行目标检测;所述检测图像是由分辨率不同 的、且与视野图像相关的多个图像拼接而成;获取目标检测结果,根据前述目标 特征判断目标检测结果中是否有搜寻目标。
所述旋转预设角度,可以根据所述视觉相机的类型来设置。
本实施例中视觉相机可以为单目视觉相机、双目立体视觉相机、多目(三目 及以上)立体视觉相机和全景视觉相机。一般来说,目数越多,获取的信息量越 大,检测率越高,但算法处理时间也会增长,实时性也降低;反之,越好目数越 小,算法处理时间短,实时性也越好。考虑到设备算力和实时性要求,优选为单 目视觉相机或双目立体视觉相机。对应单目视觉相机,所述旋转预设角度优选范 围为60度-120度之间;对于双目立体视觉相机,所述旋转预设角度优选范围为 120度-180度之间。
本实施例中,针对不同的目标类型对应有不同的目标检测神经网络模型,不 同的目标检测神经网络模型设置有固定的检测图像尺寸要求。作为举例而非限 制,比如所述目标类型具体可以为人、车辆、狗、无人机、鱼类等各种需要搜寻 的运动目标。对应于不同目标,可以通过图像库进行模型训练以得到适用于不同 目标的目标检测神经网络模型。
其它技术特征参见在前实施例,所述电路模块可以被配置为执行在前实施例 中描述的信息传输和信息处理功能,在此不再赘述。
在上面的描述中,在本公开内容的目标保护范围内,各组件可以以任意数目 选择性地且操作性地进行合并。另外,像“包括”、“囊括”以及“具有”的术语 应当默认被解释为包括性的或开放性的,而不是排他性的或封闭性,除非其被明 确限定为相反的含义。虽然已出于说明的目的描述了本公开内容的示例方面,但 是本领域技术人员应当意识到,上述描述仅是对本发明较佳实施例的描述,并非 对本发明范围的任何限定,本发明的优选实施方式的范围包括另外的实现,其中 可以不按所述出现或讨论的顺序来执行功能。本发明领域的普通技术人员根据上 述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。

Claims (9)

1.一种视觉机器人的目标搜寻方法,其特征在于包括步骤:
获取搜寻目标信息;所述搜寻目标信息包括目标特征和所属目标类型,不同的目标类型对应有不同的目标检测神经网络模型;
启动视觉相机拍摄以获取视野图像,根据前述所属目标类型对应的目标检测神经网络模型的检测图像尺寸要求,对视野图像进行预处理以生成检测图像,将检测图像输入到前述对应的目标检测神经网络模型进行目标检测;所述检测图像是由分辨率不同的、且与视野图像相关的多个图像拼接而成;
获取目标检测结果,根据前述目标特征判断目标检测结果中是否有搜寻目标;
其中,对视野图像进行预处理以生成检测图像步骤包括:
将视野图像作为原始分辨率图像,对原始分辨率图像按两个压缩比例进行压缩处理以获得分辨率不同的两个全局映射图像;其中,分辨率小的全局映射图像的尺寸小于检测图像的要求尺寸,分辨率大的全局映射图的尺寸大于检测图像的要求尺寸;
选取分辨率小的全局映射图作为检测图像的第一拼接图,用检测图像的尺寸减去前述第一拼接图的尺寸以获取剩余区域的尺寸;
根据剩余区域的尺寸的大小设置一个或多个截取框,通过所述截取框在分辨率大的全局映射图的边缘区域获取大分辨率的边缘局部图像,将所述边缘局部图像填充到前述剩余区域进行拼接,形成检测图像。
2.根据权利要求1所述的目标搜寻方法,其特征在于:在判定有搜寻目标的情况下,启动视觉机器人的跟随模式,对前述搜寻目标进行跟随;否则,调整视觉相机的拍摄角度向左或向右旋转预设角度,重新获取视野图像后,进行前述目标检测的过程。
3.根据权利要求2所述的目标搜寻方法,其特征在于:所述搜寻目标为人,所述目标特征为人脸特征信息,在跟随模式下,将所述人脸特征作为识别特征构建视觉跟踪器;以及,对应所述跟随模式设置有第一跟随距离,在跟随过程中与所述目标保持所述第一跟随距离。
4.根据权利要求3所述的目标搜寻方法,其特征在于:在跟随过程中,获取目标的图像,识别目标的衣着特征信息、装扮特征信息、携带物品特征信息和/或步态特征信息作为目标附加信息,将所述目标附加信息发送至视觉跟踪器进行搜寻目标信息更新。
5.根据权利要求2所述的目标搜寻方法,其特征在于:所述搜寻目标为车辆,所述目标特征为车辆ID信息,在跟随模式下,将所述车辆ID信息作为识别特征构建视觉跟踪器;以及,对应所述跟随模式设置有第一跟随距离,在跟随过程中与所述目标保持所述第一跟随距离。
6.根据权利要求4或5所述的目标搜寻方法,其特征在于:所述视觉相机为单目视觉相机或双目立体视觉相机;在跟随过程中,保持所述目标位于视野中心区域;
当跟随目标偏离时,通过控制机器人进行旋转来补偿偏移量,或者通过控制机器人上安装的视觉相机旋转来补偿偏移量,并调整跟随方位。
7.根据权利要求1所述的目标搜寻方法,其特征在于:通过视觉机器人的显示结构输出视觉相机拍摄的实时视野图像,在目标检测结果中有搜寻目标的情况下,将检测出的搜寻目标映射到前述实时视野图像中进行标识输出;
以及,将包含搜寻目标的实时视野图像发送至关联用户所在的远程终端进行输出显示。
8.根据权利要求7所述的目标搜寻方法,其特征在于:通过所述远程终端上的即时通信工具、短视频工具和/或直播工具输出前述实时视野图像。
9.一种根据权利要求1所述方法的视觉机器人,设置有视觉相机,其特征在于还包括如下结构:
信息采集模块,用于获取搜寻目标信息;所述搜寻目标信息包括目标特征和所属目标类型,不同的目标类型对应有不同的目标检测神经网络模型;
目标检测模块,用于启动视觉相机拍摄以获取视野图像,根据前述所属目标类型对应的目标检测神经网络模型的检测图像尺寸要求,对视野图像进行预处理以生成检测图像,将检测图像输入到前述对应的目标检测神经网络模型进行目标检测;所述检测图像是由分辨率不同的、且与视野图像相关的多个图像拼接而成;
目标搜寻模块,用于获取目标检测结果,根据前述目标特征判断目标检测结果中是否有搜寻目标。
CN202010997615.1A 2020-09-21 2020-09-21 视觉机器人的目标搜寻方法及机器人 Active CN112207821B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010997615.1A CN112207821B (zh) 2020-09-21 2020-09-21 视觉机器人的目标搜寻方法及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010997615.1A CN112207821B (zh) 2020-09-21 2020-09-21 视觉机器人的目标搜寻方法及机器人

Publications (2)

Publication Number Publication Date
CN112207821A CN112207821A (zh) 2021-01-12
CN112207821B true CN112207821B (zh) 2021-10-01

Family

ID=74049797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010997615.1A Active CN112207821B (zh) 2020-09-21 2020-09-21 视觉机器人的目标搜寻方法及机器人

Country Status (1)

Country Link
CN (1) CN112207821B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113799118B (zh) * 2021-04-01 2022-11-01 金陵科技学院 一种基于机器视觉和运动控制的煤矿搜救机器人
CN113536945B (zh) * 2021-06-21 2024-04-12 清华大学 一种面向盲人的物体寻找系统及方法
CN113716001B (zh) * 2021-11-04 2022-01-18 单县多米石墨烯科技有限公司 一种基于石墨烯电刷供电的水下机器人系统
CN113924861A (zh) * 2021-11-05 2022-01-14 广东省农业科学院蔬菜研究所 一种用于温室大棚栽培蔬菜的自动采收系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225226A (zh) * 2015-09-02 2016-01-06 电子科技大学 一种基于图像分割的级联可变形部件模型目标检测方法
CN107959787A (zh) * 2016-10-17 2018-04-24 杭州海康威视数字技术股份有限公司 一种图像处理方法及装置
CN108985225A (zh) * 2018-07-13 2018-12-11 北京猎户星空科技有限公司 焦点跟随方法、装置、电子设备及存储介质
CN109977813A (zh) * 2019-03-13 2019-07-05 山东沐点智能科技有限公司 一种基于深度学习框架的巡检机器人目标定位方法
CN110348418A (zh) * 2019-07-17 2019-10-18 上海商汤智能科技有限公司 目标跟踪方法及装置、智能移动设备和存储介质
CN111308993A (zh) * 2020-02-13 2020-06-19 青岛联合创智科技有限公司 一种基于单目视觉的人体目标跟随方法
CN111368755A (zh) * 2020-03-09 2020-07-03 山东大学 一种基于视觉的四足机器人行人自主跟随方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027972B (zh) * 2015-07-30 2022-03-15 北京市商汤科技开发有限公司 用于对象跟踪的系统和方法
US20180161986A1 (en) * 2016-12-12 2018-06-14 The Charles Stark Draper Laboratory, Inc. System and method for semantic simultaneous localization and mapping of static and dynamic objects

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225226A (zh) * 2015-09-02 2016-01-06 电子科技大学 一种基于图像分割的级联可变形部件模型目标检测方法
CN107959787A (zh) * 2016-10-17 2018-04-24 杭州海康威视数字技术股份有限公司 一种图像处理方法及装置
CN108985225A (zh) * 2018-07-13 2018-12-11 北京猎户星空科技有限公司 焦点跟随方法、装置、电子设备及存储介质
CN109977813A (zh) * 2019-03-13 2019-07-05 山东沐点智能科技有限公司 一种基于深度学习框架的巡检机器人目标定位方法
CN110348418A (zh) * 2019-07-17 2019-10-18 上海商汤智能科技有限公司 目标跟踪方法及装置、智能移动设备和存储介质
CN111308993A (zh) * 2020-02-13 2020-06-19 青岛联合创智科技有限公司 一种基于单目视觉的人体目标跟随方法
CN111368755A (zh) * 2020-03-09 2020-07-03 山东大学 一种基于视觉的四足机器人行人自主跟随方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
视频监控系统中相关图像处理技术的研究与实现;杨源飞;《中国优秀硕士学位论文全文数据库 信息科技辑》;20120115(第1期);第1-54页 *

Also Published As

Publication number Publication date
CN112207821A (zh) 2021-01-12

Similar Documents

Publication Publication Date Title
CN112207821B (zh) 视觉机器人的目标搜寻方法及机器人
CN110866480B (zh) 对象的跟踪方法及装置、存储介质、电子装置
CN111462311B (zh) 全景图生成方法及装置、存储介质
CN111935393A (zh) 拍摄方法、装置、电子设备和存储介质
CN106981078B (zh) 视线校正方法、装置、智能会议终端及存储介质
CN110009675B (zh) 生成视差图的方法、装置、介质及设备
US10545215B2 (en) 4D camera tracking and optical stabilization
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
CN112419233B (zh) 一种数据标注方法、装置、设备以及计算机可读存储介质
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
CN114943773A (zh) 相机标定方法、装置、设备和存储介质
CN113610865B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
US11328436B2 (en) Using camera effect in the generation of custom synthetic data for use in training an artificial intelligence model to produce an image depth map
CN108564654B (zh) 三维大场景的画面进入方式
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
CN112132864B (zh) 基于视觉的机器人跟随方法及跟随机器人
CN111385481A (zh) 图像处理方法及装置、电子设备及存储介质
CN112312041B (zh) 基于拍摄的图像校正方法、装置、电子设备及存储介质
CN114119701A (zh) 图像处理方法及其装置
CN115294207A (zh) 智慧校园监控视频与三维gis模型的融合调度系统及方法
CN114882106A (zh) 位姿确定方法和装置、设备、介质
CN109379577B (zh) 一种虚拟视点的视频生成方法、装置及设备
CN111145361A (zh) 一种裸眼3d显示视觉提升方法
CN113011212A (zh) 图像识别方法、装置及车辆
CN115294508B (zh) 一种基于静态空间三维重构的跟焦方法、系统及摄像系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant