CN110736465A - 导航方法、装置、机器人及计算机可读存储介质 - Google Patents

导航方法、装置、机器人及计算机可读存储介质 Download PDF

Info

Publication number
CN110736465A
CN110736465A CN201911126006.2A CN201911126006A CN110736465A CN 110736465 A CN110736465 A CN 110736465A CN 201911126006 A CN201911126006 A CN 201911126006A CN 110736465 A CN110736465 A CN 110736465A
Authority
CN
China
Prior art keywords
data
group
robot
image
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911126006.2A
Other languages
English (en)
Other versions
CN110736465B (zh
Inventor
支涛
陈波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yunji Technology Co Ltd
Original Assignee
Beijing Yunji Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yunji Technology Co Ltd filed Critical Beijing Yunji Technology Co Ltd
Priority to CN201911126006.2A priority Critical patent/CN110736465B/zh
Publication of CN110736465A publication Critical patent/CN110736465A/zh
Application granted granted Critical
Publication of CN110736465B publication Critical patent/CN110736465B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本申请提供了一种导航方法、装置、机器人及计算机可读存储介质,其中,该导航方法应用于机器人,该导航方法包括:采集机器人可视范围内的图像数据,图像数据中包括第一图像组及第二数据组;将第一图像组进行图像语义分割处理,确定出语义分割图组;根据语义分割图组和第二数据组对第二数据组中的各张图像中的各个目标物进行标记,以得到区别指导图;根据区别指导图控制机器人的动作。

Description

导航方法、装置、机器人及计算机可读存储介质
技术领域
本申请涉及机器人控制技术领域,具体而言,涉及一种导航方法、装置、机器人及计算机可读存储介质。
背景技术
目前,机器人导航一般方法是实时探测环境,从而实现对周边环境的物体进行跟踪,在跟踪到有障碍物时,可以根据障碍物的所在位置调整行驶路线,从而规避障碍物,但是由于现实的环境复杂,这种处理方式已不能实现准确的导航。
发明内容
有鉴于此,本申请实施例的目的在于提供一种导航方法、装置、机器人及计算机可读存储介质。能够达到提高机器人的导航的准确性的效果。
第一方面,本发明实施例提供一种导航方法,应用于机器人,所述导航方法包括:
采集所述机器人可视范围内的图像数据,所述图像数据中包括第一图像组及第二数据组;
将所述第一图像组进行图像语义分割处理,确定出语义分割图组;
根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图;
根据所述区别指导图控制所述机器人的动作。
在可选的实施方式中,所述根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图的步骤,包括:
将所述第二数据组中的各数据投影至所述语义分割图组的对应的语义分割图中;
根据所述第二数据组中的各数据像投影在语义分割图中的目标位置,以及所述语义分割图中的所述目标位置中的对象确定出所述第二数据组中的各数据对应的各个目标物的类型;
根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图。
本申请实施例提供的导航方法,还可以通过将第二数据组中的数据投影到已经通过语义分割处理好的语义分割图,从而可以确定出第二数据组中的各个目标物的类型,从而可以根据目标物的类型对第二数据组中的各个图像中的目标物的类型确定出的区别指导图可以更好地指导机器人的动作。
在可选的实施方式中,所述根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图的步骤,包括:
确定出所述第二数据组中的各数据对应的目标物的类型属于静态物的目标物对应的静态数据;
将所述静态数据进行标记,以得到静态标记数据;
根据所述静态标记数据得到第一类区别指导图。
本申请实施例提供的导航方法,还可以确定出第二数据组中的静态物,对静态物进行区别标识,从而可以使机器人能够第一类区别指导图的基础上有效指导机器人规避静态物的阻碍。
在可选的实施方式中,所述根据所述静态标记数据得到第一类区别指导图的步骤,包括:
确定所述静态标记数据中的固有静态数据,所述固有静态数据表征非障碍数据;
将所述静态标记数据中的固有静态数据进行过滤处理,得到静态过滤标记数据;
将所述静态过滤标记数据进行融合,得到第一类区别指导图。
本申请实施例提供的导航方法,还可以对可能不会形成障碍的固有静态区域进行过滤处理,从而减少需要机器人规避的障碍,提高机器人的行驶效率。
在可选的实施方式中,所述根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图的步骤,还包括:
确定出所述第二数据组中的各数据对应的目标物的类型属于动态物的目标物对应的动态数据;
将所述动态数据进行标记,以得到动态标记数据;
根据所述动态标记数据得到第二类区别指导图。
本申请实施例提供的导航方法,还可以确定出第二数据组中的动态物,对动态物进行区别标识,从而可以使机器人能够第一类区别指导图的基础上有效指导机器人规避动态物的阻碍。
在可选的实施方式中,所述根据所述区别指导图控制所述机器人的动作的步骤,包括:
当所述区别指导图为所述第一类区别指导图时,则控制所述机器人向远离所述第一类区别指导图中的目标物的位置的方向移动。
本申请实施例提供的导航方法,还可以就静态的障碍物提供有针对性的导航方式,从而可以提高机器人的行驶准确率。
在可选的实施方式中,所述根据所述区别指导图控制所述机器人的动作的步骤,包括:
当所述区别指导图为所述第二类区别指导图时,则当机器人移动至所述第二类区别指导图中的目标物的位置处时停止行驶并输出提示消息。
本申请实施例提供的导航方法,还可以就动态的障碍物提供有针对性的导航方式,从而可以提高机器人的行驶准确率。
第二方面,本发明实施例提供一种导航装置,应用于机器人,所述导航装置包括:
采集模块,用于采集所述机器人可视范围内的图像数据,所述图像数据中包括第一图像组及第二数据组;
处理模块,用于将所述第一图像组进行图像语义分割处理,确定出语义分割图组;
得到模块,用于根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图;
控制模块,用于根据所述区别指导图控制所述机器人的动作。
第三方面,本发明实施例提供一种机器人,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当机器人运行时,所述机器可读指令被所述处理器执行时执行如前述实施方式任一所述的方法的步骤。
第四方面,本发明实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如前述实施方式任一所述的方法的步骤。
本申请实施例提供的导航方法、装置、机器人及计算机可读存储介质,采用图像语义分割的处理方法先将图像中的对象进行语义分类,从而可以确定出图像中的各种类型的对象,再基于确定出图像中的各种类型的对象的图对另外的图进行标记可以得到区别指导图,根据该区别指导图对机器人进行导航,从而可以有针对性地对机器人进行导航,从而使机器人能够适应各类环境。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的机器人的方框示意图。
图2为本申请实施例提供的导航方法的流程图。
图3为本申请实施例提供的导航方法的步骤203的详细流程图。
图4为本申请实施例提供的实例中的机器人所处的一环境示意图。
图5为本申请实施例提供的实例中的机器人所处的另一环境示意图。
图6为本申请实施例提供的实例中的机器人所处的另一环境示意图。
图7为本申请实施例提供的导航方法的步骤203的详细流程图。
图8为本申请实施例提供的导航方法的步骤203的详细流程图。
图9为本申请实施例提供的实例中的机器人所处的另一环境示意图。
图10为本申请实施例提供的导航装置的功能模块示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例一
为便于对本实施例进行理解,首先对执行本申请实施例所公开的导航方法的机器人进行详细介绍。
如图1所示,是机器人的方框示意图。机器人100可以包括存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116、采集单元117。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对机器人100的结构造成限定。例如,机器人100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
上述的存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116及采集单元117各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。上述的处理器113用于执行存储器中存储的可执行模块。
其中,存储器111可以是,但不限于,随机存取存储器(Random Access Memory,简称RAM),只读存储器(Read Only Memory,简称ROM),可编程只读存储器(ProgrammableRead-Only Memory,简称PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,简称EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,简称EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,本申请实施例任一实施例揭示的过程定义的机器人100所执行的方法可以应用于处理器113中,或者由处理器113实现。
上述的处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(digital signalprocessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述的外设接口114将各种输入/输出装置耦合至处理器113以及存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
上述的输入输出单元115用于提供给用户输入数据。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
上述的显示单元116在机器人100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
上述的采集单元117用于采集机器人100周边的环境数据。采集单元117可以包括:激光雷达、深度相机、RGB(red green blue中文称:红绿蓝)摄像头等采集设备。示例性地,该环境数据可以是图像数据、雷达数据。其中,图像数据可以包括三通道彩色图像、深度图像等。
本实施例中的机器人100可以用于执行本申请实施例提供的各个方法中的各个步骤。下面通过几个实施例详细描述导航方法的实现过程。
实施例二
请参阅图2,是本申请实施例提供的导航方法的流程图。下面将对图2所示的具体流程进行详细阐述。
步骤201,采集所述机器人可视范围内的图像数据。
可选地,图像数据中包括第一图像组及第二数据组。
第一图像组可以包括多张第一类图像。示例性地,第一类图像可以是三通道彩色图像。
示例性地,第二数据组可以包括多张第二类图像。示例性地,第二类图像可以是雷达数据构成的图像、深度图像等能够表征采集设备与采集到的对象的距离的图像。示例性地,雷达数据构成的图像中可包括像素表示机器人与目标物的距离的数据点。
可选地,上述第一图像组中的图像可以与第二数据组中的数据对应。示例性地,第一图像组的图像可以由第一采集设备采集,第二数据组的图像可以由第二采集设备采集。在每一需要采集图像的时刻,第一采集设备采集机器人周边的第一图像,第二采集设备采集机器人周边的第二数据。
可选地,上述第一图像组中的图像数量可以比第二数据组中的图像数量少,但第二数据组中的每张图像可以在第一图像组有时间对应的图像。示例性地,在每一需要采集图像的时刻,第一采集设备采集机器人周边的较大范围的第一图像,第二采集设备采集机器人多张局部的第二图像。多张局部的第二图像可以对应在第一图像中的一局部区域。
示例性地,上述的可视范围内可以根据采集设备能采集到的角度确定。例如,若采集设备是广角摄像头,则可以对应采集较大范围内的图像数据,例如,可以采集到视角为94-118度范围内的图像数据。若采集设备是普通摄像头,则仅可以采集较小范围的图像数据,例如,可以采集到视角为60-84度范围内的图像数据。若采集设备是鱼眼摄像头,则可以采集更大范围的图像数据,例如,可以采集到视角为220-230度范围内的图像数据。
步骤202,将所述第一图像组进行图像语义分割处理,确定出语义分割图组。
示例性地,步骤202的语义分割流程可以描述为:首先,将第一组图像中的各张图像输入一语义分割模型;其次,语义分割模型中的分类器对第一组图像中的各张图像中的各个对象进行分类处理,确定出分类图;再次,将该分类图进行后续处理。
可选地,上述的语义分割模型可以是一CNN(Convolutional Neural Networks,中文称:卷积神经网络)模型。
步骤203,根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图。
可选地,可以对第二数据组中的图像中的目标物进行标记,从而区别出第二数据组中的图像中的目标物中的动态物和静态物。
可选地,也可以将第二数据组中的数据进行分离,分离出数据对应的静态物和动态物。示例性地,可以将第二数据组中的每一帧数据中的动态物提取成一张图,将第二数据组中的每一帧数据中的动态物提取成一张图。示例性地,可以将第二数据组中的所有帧数据中的动态物提取成一张图,将第二数据组中的所有帧数据对应的动态物提取成一张图。
在一种实施方式中,如图3所示,步骤203可以包括以下步骤。
步骤2031,将所述第二数据组中的各数据投影至所述语义分割图组的对应的语义分割图中。
示例性地,语义分割图组可以包括多张对应不同时间的图像。图像中的每一像素点可以表征机器人所在环境中的一空间坐标,图像中的一局部图像可以表征机器人所在环境中的一物体。
示例性地,可以将第二数据组中的数据投射至对应时间的语义分割图上,根据各个数据点在语义分割图的位置,则可以确定出各个数据点表征的目标物。示例性地,第一时间第一采集设备采集了第一类图像A,第二采集设备采集了第二数据B。示例性地,第二采集设备可以是激光雷达,第二数据B包括激光雷达扫描到的数据点,每一数据点可以表示扫描到的目标物与该第二采集设备的距离。示例性地,第二采集设备可以是深度相机,第二数据B包括深度相机扫描到的图像数据,每一图像的像素值可以表示扫描到的目标物与该第二采集设备的距离。第一类图像A经过语义分割处理得到语义分割图A’。
示例性地,由于第二数据B每一数据点可以表征一机器人所在环境中的空间位置,因此,可以将第二数据B按照其实际表示的空间位置投射至语义分割图A’中。
步骤2032,根据所述第二数据组中的各数据像投影在语义分割图中的目标位置,以及所述语义分割图中的所述目标位置中的对象确定出所述第二数据组中的各数据对应的各个目标物的类型。
其中,第一类图像A经过语义分割处理得到语义分割图A’,语义分割图A’中所包含的每一对象可以使用不同的颜色区别标注。例如,人物使用桃红色标注、桌子使用绿色标注、墙面使用蓝色标注、地面使用灰色标注等。可以将第二数据B按照实际的空间坐标投射至语义分割图A’上。示例性地,若第二数据B中的一数据点投射至语义分割图A’中的桃红色区域,则将该第二数据B中的该数据表征人。示例性地,若第二数据B中的一数据点投射至语义分割图A’中的灰色区域,则将该第二数据B中的该数据表征地面。
步骤2033,根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图。
示例性地,若第二数据B中的一数据点表征一可移动的物体,例如,人、动物等,则可以将该数据点标记为动态物。示例性地,若第二数据B中的一数据点表征一静态的物体,例如,桌子、柱子等,则可以将该数据点标记为静态物。
可选地,上述的区别指导图可以是一帧数据,该一帧数据中包括静态目标物的数据点和动态目标物的数据点,每一目标物对应携带有目标物的类型的标识。
如图4所示,图中所示的位置P1、位置P2以及位置P3分别标记三处目标物。示例性地,P1处对应的标记可以是动态物,例如,人、动物等。P2处对应的标记可以是静态物,例如,柱子、桌子等。P3处对应的标记也可以是静态物,例如,墙面、栏杆等。图示中的其它数据点也可以表示一些静态物,图中未一一标记。通过标记图4所示的一帧数据可以作为区别指导。示例性地,图4所示的数据点可以表示雷达数据点,每一数据点的像素可以表示机器人的当前位置与目标物的距离。
可选地,如图5和6所示,上述的区别指导图可以是两帧数据,其中一帧数据仅包括所有的静态目标物对应的数据点,另一帧数据仅包括所有的动态目标物对应的数据点。
在一种实施方式中,如图7所示,步骤203可以包括以下步骤。
步骤2034,确定出所述第二数据组中的各数据对应的目标物的类型属于静态物的目标物对应的静态数据。
可选地,步骤2034可实现方式可以按照步骤2031和步骤2032实现。通过确定出第二数据组中的各数据对应的目标物的类型。
步骤2035,将所述静态数据进行标记,以得到静态标记数据。
示例性地,如图4所示,图示中的静态数据可以是P2和P3所表示的数据区域。
步骤2036,根据所述静态标记数据得到第一类区别指导图。
示例性地,图4中的未被标记的数据点可以表征静态数据。如图5所示,步骤2036可以被实施为:将静态标记数据合并成一帧数据,可以得到一帧仅包含静态数据的一帧指导图。
由于不是每一静止的物体都可能对机器人的行驶造成障碍,基于此考虑,还可以将非障碍物进行过滤,从而可以为机器人导航提供更有用的指导图。
可选地,步骤2036可以包括:确定所述静态标记数据中的固有静态数据;将所述静态标记数据中的固有静态数据进行过滤处理,得到静态过滤标记数据;将所述静态过滤标记数据进行融合,得到第一类区别指导图。
其中,固有静态数据表征非障碍数据。
可选地,可以预先设定固有静态物。示例性地,固有静态物可以表征不会对机器人的行驶造成障碍的物体,例如,天花板、平滑地面等。
示例性地,上述的确定所述静态标记数据中的固有静态数据可以被实施为:将筛选的被标记为固有静态物的静态标记数据作为固有静态数据。
通过将不会对机器人的行驶造成障碍的固有静态物进行过滤处理,可以为机器人的导航提供更准确的指导图,减少由于将地面等物识别为障碍物而导致的错误导航。
在一种实施方式中,如图8所示,步骤203可以包括以下步骤。
步骤2037,确定出所述第二数据组中的各数据对应的目标物的类型属于动态物的目标物对应的动态数据。
可选地,步骤2037可实现方式可以按照步骤2031和步骤2032实现。通过确定出第二数据组中的各数据对应的目标物的类型。
步骤2038,将所述动态数据进行标记,以得到动态标记数据。
步骤2039,根据所述动态标记数据得到第二类区别指导图。
示例性地,图4中的未被标记的数据点可以表征静态数据。如图5所示,步骤2039可以被实施为:将动态标记数据合并成一帧数据,可以得到一帧仅包含动态数据的一帧指导图。
步骤204,根据所述区别指导图控制所述机器人的动作。
如图9所示,图9示出了一实例中的机器人的所在的环境示意图。图示中R1表示一机器人,P1表示一人,C1表示一柱子,D1表示机器人R1所需要行驶的目的地,T1表示机器人可行走的巷道。其中,柱子C1和人P1都是机器人行驶过程中的障碍物。
在现有的处理方式中,若遇到障碍物则机器人则反向行驶。在图9的实例中,机器人R1则会在柱子C1和人P1之间振荡多次,直到其中一障碍物消失,机器人才能行驶到目的地D1。这种处理方式可能会导致机器人多行驶一些不必要行驶的路。基于此研究本实施例中,针对不同的障碍物可以采用不同的控制方式,下面通过几种实施方式分别就不同的障碍物机器人对应执行的控制进行描述。
在一种实施方式中,步骤204可以包括:当所述区别指导图为所述第一类区别指导图时,则控制所述机器人向远离所述第一类区别指导图中的目标物的位置的方向移动。
由于当机器人遇到的障碍物为静态物,障碍物本身不能避让机器人,则需要机器人绕开障碍物行驶。可选地,机器人可以通过反向行驶,从而避开障碍物。可选地,机器人可以通过左右转弯行驶,从而避开障碍物。
示例性地,如图9所示,若在巷道中机器人R1遇到障碍物柱子C1,由于柱子C1并不会因为机器人R1的到来而改变位置,且巷道T1的宽度较窄,则此时可以控制机器人R1反向行驶,从而避开障碍物柱子C1。
在一种实施方式中,步骤204可以包括:当所述区别指导图为所述第二类区别指导图时,则当机器人移动至所述第二类区别指导图中的目标物的位置处时停止行驶并输出提示消息。
由于当机器人遇到的障碍物为动态物,障碍物本身可以避让机器人,则可以提示障碍物避让。
可选地,可以以语音输出的方式输出语音提示消息。例如,可以输出语音消息“请注意避让”。可选地,可以以动画的方式输出视频提示消息。
可选地,机器人还可以停止行驶,等待障碍物离开。
根据本实施例中的导航方法,先通过语义分割对采集到的图像中的对象进行分类,再根据雷达数据与语义分割后的图像匹配,从而可以确定雷达数据中的各个数据点表示的目标物,从而可以实现可以区别动态物体和静态物体。进一步地,以雷达数据作为指导导航的数据,针对不同类别的障碍物采用不同的导航方式,从而可以减少机器人的振荡,从而可以提高机器人的导航的准确率。
实施例三
基于同一申请构思,本申请实施例中还提供了与导航方法对应的导航装置,由于本申请实施例中的装置解决问题的原理与实施例二提供的导航方法的实施例相似,因此本实施例中的装置的实施可以参见上述方法的实施例中的描述,重复之处不再赘述。
请参阅图10,是本申请实施例提供的导航装置的功能模块示意图。本实施例中的导航装置中的各个模块用于执行上述方法实施例中的各个步骤。本实施例中的导航装置可以包括:采集模块301、处理模块302、得到模块303及控制模块304;其中,
采集模块301,用于采集所述机器人可视范围内的图像数据,所述图像数据中包括第一图像组及第二数据组;
处理模块302,用于将所述第一图像组进行图像语义分割处理,确定出语义分割图组;
得到模块303,用于根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图;
控制模块304,用于根据所述区别指导图控制所述机器人的动作。
一种可能的实施方式中,得到模块303,还用于:
将所述第二数据组中的各数据投影至所述语义分割图组的对应的语义分割图中;
根据所述第二数据组中的各数据像投影在语义分割图中的目标位置,以及所述语义分割图中的所述目标位置中的对象确定出所述第二数据组中的各数据对应的各个目标物的类型;
根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图。
一种可能的实施方式中,得到模块303,还用于:
确定出所述第二数据组中的各数据对应的目标物的类型属于静态物的目标物对应的静态数据;
将所述静态数据进行标记,以得到静态标记数据;
根据所述静态标记数据得到第一类区别指导图。
一种可能的实施方式中,得到模块303,还用于:
确定所述静态标记数据中的固有静态数据,所述固有静态数据表征非障碍数据;
将所述静态标记数据中的固有静态数据进行过滤处理,得到静态过滤标记数据;
将所述静态过滤标记数据进行融合,得到第一类区别指导图。
一种可能的实施方式中,得到模块303,还用于:
确定出所述第二数据组中的各数据对应的目标物的类型属于动态物的目标物对应的动态数据;
将所述动态数据进行标记,以得到动态标记数据;
根据所述动态标记数据得到第二类区别指导图。
一种可能的实施方式中,控制模块304,还可以用于:
当所述区别指导图为所述第一类区别指导图时,则控制所述机器人向远离所述第一类区别指导图中的目标物的位置的方向移动。
一种可能的实施方式中,控制模块304,还可以用于:
当所述区别指导图为所述第二类区别指导图时,则当机器人移动至所述第二类区别指导图中的目标物的位置处时停止行驶并输出提示消息。
此外,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的导航方法的步骤。
本申请实施例所提供的导航方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的导航方法的步骤,具体可参见上述方法实施例,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种导航方法,其特征在于,应用于机器人,所述导航方法包括:
采集所述机器人可视范围内的图像数据,所述图像数据中包括第一图像组及第二数据组;
将所述第一图像组进行图像语义分割处理,确定出语义分割图组;
根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图;
根据所述区别指导图控制所述机器人的动作。
2.根据权利要求1所述的方法,其特征在于,所述第二数据组中的数据为雷达数据;所述根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图的步骤,包括:
将所述第二数据组中的各数据投影至所述语义分割图组的对应的语义分割图中;
根据所述第二数据组中的各数据像投影在语义分割图中的目标位置,以及所述语义分割图中的所述目标位置中的对象确定出所述第二数据组中的各数据对应的各个目标物的类型;
根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图的步骤,包括:
确定出所述第二数据组中的各数据对应的目标物的类型属于静态物的目标物对应的静态数据;
将所述静态数据进行标记,以得到静态标记数据;
根据所述静态标记数据得到第一类区别指导图。
4.根据权利要求3所述的方法,其特征在于,所述根据所述静态标记数据得到第一类区别指导图的步骤,包括:
确定所述静态标记数据中的固有静态数据,所述固有静态数据表征非障碍数据;
将所述静态标记数据中的固有静态数据进行过滤处理,得到静态过滤标记数据;
将所述静态过滤标记数据进行融合,得到第一类区别指导图。
5.根据权利要求3所述的方法,其特征在于,所述根据所述第二数据组中的各张图像中的各个目标物的类型对所述第二数据组中的各数据进行标记,以得到区别指导图的步骤,还包括:
确定出所述第二数据组中的各数据对应的目标物的类型属于动态物的目标物对应的动态数据;
将所述动态数据进行标记,以得到动态标记数据;
根据所述动态标记数据得到第二类区别指导图。
6.根据权利要求5所述的方法,其特征在于,所述根据所述区别指导图控制所述机器人的动作的步骤,包括:
当所述区别指导图为所述第一类区别指导图时,则控制所述机器人向远离所述第一类区别指导图中的目标物的位置的方向移动。
7.根据权利要求5所述的方法,其特征在于,所述根据所述区别指导图控制所述机器人的动作的步骤,包括:
当所述区别指导图为所述第二类区别指导图时,则当机器人移动至所述第二类区别指导图中的目标物的位置处时停止行驶并输出提示消息。
8.一种导航装置,其特征在于,应用于机器人,所述导航装置包括:
采集模块,用于采集所述机器人可视范围内的图像数据,所述图像数据中包括第一图像组及第二数据组;
处理模块,用于将所述第一图像组进行图像语义分割处理,确定出语义分割图组;
得到模块,用于根据所述语义分割图组和所述第二数据组对所述第二数据组中的各数据中对应的各个目标物进行区别处理,以得到区别指导图;
控制模块,用于根据所述区别指导图控制所述机器人的动作。
9.一种机器人,其特征在于,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当机器人运行时,所述机器可读指令被所述处理器执行时执行如权利要求1至7任一所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至7任一所述的方法的步骤。
CN201911126006.2A 2019-11-15 2019-11-15 导航方法、装置、机器人及计算机可读存储介质 Active CN110736465B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911126006.2A CN110736465B (zh) 2019-11-15 2019-11-15 导航方法、装置、机器人及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911126006.2A CN110736465B (zh) 2019-11-15 2019-11-15 导航方法、装置、机器人及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110736465A true CN110736465A (zh) 2020-01-31
CN110736465B CN110736465B (zh) 2021-01-08

Family

ID=69273093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911126006.2A Active CN110736465B (zh) 2019-11-15 2019-11-15 导航方法、装置、机器人及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110736465B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348029A (zh) * 2021-01-08 2021-02-09 禾多科技(北京)有限公司 局部地图调整方法、装置、设备和计算机可读介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102973395A (zh) * 2012-11-30 2013-03-20 中国舰船研究设计中心 一种多功能智能导盲方法、处理器及其装置
CN105182979A (zh) * 2015-09-23 2015-12-23 上海物景智能科技有限公司 一种移动机器人障碍物检测及避让方法和系统
CN106780735A (zh) * 2016-12-29 2017-05-31 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN107689075A (zh) * 2017-08-30 2018-02-13 北京三快在线科技有限公司 导航地图的生成方法、装置及机器人
CN108152831A (zh) * 2017-12-06 2018-06-12 中国农业大学 一种激光雷达障碍物识别方法及系统
CN108344414A (zh) * 2017-12-29 2018-07-31 中兴通讯股份有限公司 一种地图构建、导航方法及装置、系统
CN109163731A (zh) * 2018-09-18 2019-01-08 北京云迹科技有限公司 一种语义地图构建方法及系统
CN109239720A (zh) * 2018-10-18 2019-01-18 清华大学苏州汽车研究院(吴江) 一种智能激光雷达装置、系统及其数据处理方法
CN109271990A (zh) * 2018-09-03 2019-01-25 北京邮电大学 一种针对rgb-d图像的语义分割方法及装置
CN109556617A (zh) * 2018-11-09 2019-04-02 同济大学 一种自动建图机器人的地图要素提取方法
CN109634279A (zh) * 2018-12-17 2019-04-16 武汉科技大学 基于激光雷达与单目视觉的物体定位方法
CN110275540A (zh) * 2019-07-01 2019-09-24 湖南海森格诺信息技术有限公司 用于扫地机器人的语义导航方法及其系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102973395A (zh) * 2012-11-30 2013-03-20 中国舰船研究设计中心 一种多功能智能导盲方法、处理器及其装置
CN105182979A (zh) * 2015-09-23 2015-12-23 上海物景智能科技有限公司 一种移动机器人障碍物检测及避让方法和系统
CN106780735A (zh) * 2016-12-29 2017-05-31 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN107689075A (zh) * 2017-08-30 2018-02-13 北京三快在线科技有限公司 导航地图的生成方法、装置及机器人
CN108152831A (zh) * 2017-12-06 2018-06-12 中国农业大学 一种激光雷达障碍物识别方法及系统
CN108344414A (zh) * 2017-12-29 2018-07-31 中兴通讯股份有限公司 一种地图构建、导航方法及装置、系统
CN109271990A (zh) * 2018-09-03 2019-01-25 北京邮电大学 一种针对rgb-d图像的语义分割方法及装置
CN109163731A (zh) * 2018-09-18 2019-01-08 北京云迹科技有限公司 一种语义地图构建方法及系统
CN109239720A (zh) * 2018-10-18 2019-01-18 清华大学苏州汽车研究院(吴江) 一种智能激光雷达装置、系统及其数据处理方法
CN109556617A (zh) * 2018-11-09 2019-04-02 同济大学 一种自动建图机器人的地图要素提取方法
CN109634279A (zh) * 2018-12-17 2019-04-16 武汉科技大学 基于激光雷达与单目视觉的物体定位方法
CN110275540A (zh) * 2019-07-01 2019-09-24 湖南海森格诺信息技术有限公司 用于扫地机器人的语义导航方法及其系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348029A (zh) * 2021-01-08 2021-02-09 禾多科技(北京)有限公司 局部地图调整方法、装置、设备和计算机可读介质

Also Published As

Publication number Publication date
CN110736465B (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
Possatti et al. Traffic light recognition using deep learning and prior maps for autonomous cars
US11017244B2 (en) Obstacle type recognizing method and apparatus, device and storage medium
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
JP6672212B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
CN111695402B (zh) 用于标注3d点云数据中人体姿态的工具和方法
US20230014725A1 (en) Map generation device, map generation method, and map generation ocmputer program
JP6092527B2 (ja) ユーザ凝視データに基づいた時空間データのセグメント化
US20160147915A1 (en) Systems and Methods for Detecting and Modeling Curb Curves in Complex Urban Scenes
KR102629036B1 (ko) 로봇 및 그의 제어 방법
KR20210074364A (ko) 교차로 상태 검출방법, 장치, 전자장치 및 차량
TW201937405A (zh) 物件標示系統及方法
WO2019097595A1 (ja) 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
KR20200087354A (ko) 자율주행용 데이터 라벨링 장치 및 방법
CN110736465B (zh) 导航方法、装置、机器人及计算机可读存储介质
US20210357763A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
Sirbu et al. Real-time line matching based speed bump detection algorithm
Markelic et al. The driving school system: Learning basic driving skills from a teacher in a real car
Rebai et al. Road intersection detection and classification using hierarchical SVM classifier
US11835359B2 (en) Apparatus, method and computer program for generating map
Tas et al. High-definition map update framework for intelligent autonomous transfer vehicles
Kovács Single image visual obstacle avoidance for low power mobile sensing
Yang et al. Unsupervised video object segmentation for enhanced SLAM-based localization in dynamic construction environments
JP2007280151A (ja) 画像解析装置、画像解析方法及びプログラム
Hodges Deep learning based vision for driverless vehicles in hazy environmental conditions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Room 201, building 4, courtyard 8, Dongbeiwang West Road, Haidian District, Beijing

Patentee after: Beijing Yunji Technology Co.,Ltd.

Address before: Room 201, building 4, courtyard 8, Dongbeiwang West Road, Haidian District, Beijing

Patentee before: BEIJING YUNJI TECHNOLOGY Co.,Ltd.