CN113500600B - 一种智能机器人 - Google Patents

一种智能机器人 Download PDF

Info

Publication number
CN113500600B
CN113500600B CN202110807732.1A CN202110807732A CN113500600B CN 113500600 B CN113500600 B CN 113500600B CN 202110807732 A CN202110807732 A CN 202110807732A CN 113500600 B CN113500600 B CN 113500600B
Authority
CN
China
Prior art keywords
view image
robot body
image collector
intelligent robot
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110807732.1A
Other languages
English (en)
Other versions
CN113500600A (zh
Inventor
李振
吴雄锋
王健威
曹鹏
程昊天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Gaussian Automation Technology Development Co Ltd
Original Assignee
Shanghai Gaussian Automation Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Gaussian Automation Technology Development Co Ltd filed Critical Shanghai Gaussian Automation Technology Development Co Ltd
Priority to CN202110807732.1A priority Critical patent/CN113500600B/zh
Publication of CN113500600A publication Critical patent/CN113500600A/zh
Application granted granted Critical
Publication of CN113500600B publication Critical patent/CN113500600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及智能设备技术领域,具体公开了一种智能机器人。本发明提供的智能机器人,在机器人本体上设置前平视图像采集器用于智能检测行人、汽车等比较高的障碍物,前斜视图像采集器用于检测地板上的低矮障碍物,且能采集到地面及以下的图像信息,防止智能机器人跌落;在机器人本体两侧设置的侧视图像采集器,增强了智能机器人的侧面感知能力,保证智能机器人转弯时的安全,且侧视图像采集器的采集范围与前平视图像采集器、前斜视图像采集器的采集范围均有交集,实现无检测盲区,且多个图像采集器能同时采集到一个障碍物的信息,使得此障碍物的置信度上升,提高了地图标记和路径规划的精确性。

Description

一种智能机器人
技术领域
本发明涉及智能设备技术领域,尤其涉及一种智能机器人。
背景技术
智能移动机器人,是一种集环境感知、动态决策与规划、行为控制与执行等多功能为一体的智能化程度很高的装置,已广泛在商场、超市、场馆等公共位置运行。
机器人通过传感器来感知周围环境,常用的传感器有激光雷达、摄像头、毫米波雷达、超声波雷达等。但是,现有技术中的智能机器人还不能全方位全场景的检测外部图像数据,检测盲区比较大,进而导致对地图的标记和路径的规划不精确。因此,亟需提供一种智能机器人以解决上述技术问题。
发明内容
本发明的目的在于提供一种智能机器人,实现全方位全场景的检测外部数据,实现无检测盲区,提高了地图标记和路径规划的精确性。
为达此目的,本发明采用以下技术方案:
本发明提供的智能机器人,包括:
机器人本体;
前平视图像采集器,在智能机器人前进的方向,所述前平视图像采集器设置于所述机器人本体的前侧;
前斜视图像采集器,设置于所述机器人本体上且置于所述前平视图像采集器的下方,所述前斜视图像采集器的采集端向下倾斜设置;
侧视图像采集器,所述机器人本体的两侧均设置所述侧视图像采集器,且两个所述侧视图像采集器对称设置,所述侧视图像采集器的采集端向下倾斜且与所述前平视图像采集器的采集端呈夹角设置。
作为上述的智能机器人的一种优选技术方案,所述前平视图像采集器设置于所述机器人本体前侧的中间位置,且所述前平视图像采集器与所述机器人本体的底部之间的距离为所述机器人本体前侧高度的70%-90%。
作为上述的智能机器人的一种优选技术方案,所述前平视图像采集器的采集端向下倾斜0°-5°。
作为上述的智能机器人的一种优选技术方案,所述前斜视图像采集器设置于所述机器人本体前侧的中间位置,且所述前斜视图像采集器与所述机器人本体的底部之间的距离为所述机器人本体前侧高度的55%-75%。
作为上述的智能机器人的一种优选技术方案,所述前斜视图像采集器的采集端向下倾斜45°-55°。
作为上述的智能机器人的一种优选技术方案,所述侧视图像采集器与所述机器人本体的底部之间的距离为所述机器人本体前侧高度的75%-95%,两个所述侧视图像采集器的间距为所述机器人本体底部长度的40%-60%。
作为上述的智能机器人的一种优选技术方案,所述侧视图像采集器的采集端在水平方向上与所述前平视图像采集器的采集端的夹角为25°-35°,且所述侧视图像采集器的采集端向下倾斜5°-15°。
作为上述的智能机器人的一种优选技术方案,还包括后平视图像采集器,在所述智能机器人前进的方向,所述后平视图像采集器设置于所述机器人本体的后侧。
作为上述的智能机器人的一种优选技术方案,所述后平视图像采集器设置于所述机器人本体后侧的中间位置,且所述后平视图像采集器与所述机器人本体的底部之间的距离为所述机器人本体后侧高度的45%-65%。
作为上述的智能机器人的一种优选技术方案,所述机器人本体的前侧高度为800mm-1100mm,所述机器人本体的后侧高度为850mm-1200mm,所述机器人本体的底部长度为520mm-720mm。
作为上述的智能机器人的一种优选技术方案,所述前平视图像采集器、前斜视图像采集器及侧视图像采集器均为深度摄像头。
本发明的有益效果:
本发明提供的智能机器人,在机器人本体上设置前平视图像采集器用于智能检测行人、汽车等比较高的障碍物,前斜视图像采集器用于检测地板上的低矮障碍物,且能采集到地面及以下的图像信息,防止智能机器人跌落,前平视图像采集器与前斜视图像采集器配合使用能增强智能机器人对行进前方环境的感知能力;在机器人本体两侧设置的侧视图像采集器,增强了智能机器人的侧面感知能力,保证智能机器人转弯时的安全,且侧视图像采集器的采集范围与前平视图像采集器、前斜视图像采集器的采集范围均有交集,实现无检测盲区,且多个图像采集器能同时采集到一个障碍物的信息,使得此障碍物的置信度上升,提高了地图标记和路径规划的精确性。
附图说明
图1是本发明实施例一中的一种智能机器人地图的更新方法的流程图;
图2是本发明实施例提供的智能机器人的前视图;
图3是本发明实施例提供的智能机器人的前平视图像采集器、前斜视图像采集器及后平视图像采集器的扫描范围平面示意图;
图4是本发明实施例提供的智能机器人的前平视图像采集器、前斜视图像采集器及后平视图像采集器的扫描范围平面示意图;
图5是本发明实施例提供的智能机器人的后视图;
图6a是本发明实施例一中的对视野范围进行切片分层的示意图;
图6b是本发明实施例一中的擦除障碍物标记的示意图;
图7是本发明实施例二中的一种智能机器人地图的更新装置的结构示意图;
图8是本发明实施例三中的一种计算机设备的结构示意图;
图9是本发明实施例五中的一种芯片的结构示意图。
图中:
1、机器人本体;2、前平视图像采集器;3、前斜视图像采集器;4、侧视图像采集器;5、后平视图像采集器;6、防跌落传感器;7、前平视2D激光雷达;8、前部气压防碰撞传感器;9、单线激光雷达;10、顶视RGB摄像头;11、超声波传感器。
具体实施方式
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案做进一步的详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,除非另有明确的规定和限定,术语“相连”、“连接”、“固定”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
针对现有技术中智能机器人还不能全方位全场景的检测外部图像数据,检测盲区比较大,进而导致对地图的标记和路径的规划不精确的问题,本实施例提供了一种智能机器人以解决上述技术问题。
实施例一
图1为本发明实施例一提供的一种智能机器人地图的更新方法的流程图,本实施例可适用于对智能机器人中的地图进行更新的情况,该方法可以由智能机器人地图的更新装置来执行。
本实施例中的智能机器人设置有多摄像头,且多摄像头至少包括:前平视摄像头、前斜视摄像头、左侧摄像头和右侧摄像头之一。具体地,如图2、图3和图4所示,本实施例提供的智能机器人包括机器人本体1、前平视图像采集器2、前斜视图像采集器3和侧视图像采集器4。在智能机器人前进的方向,前平视图像采集器2设置于机器人本体1的前侧,以用于智能检测行人、汽车等比较高的障碍物。前斜视图像采集器3设置于机器人本体1上且置于前平视图像采集器2的下方,前斜视图像采集器3的采集端向下倾斜设置。前斜视图像采集器3用于检测地板上的低矮障碍物,且能采集到地面及以下的图像信息,防止智能机器人跌落,且前平视图像采集器2与前斜视图像采集器3配合使用能增强智能机器人对行进前方环境的感知能力。机器人本体1的两侧均设置有侧视图像采集器4,且两个侧视图像采集器4对称设置,侧视图像采集器4的采集端向下倾斜且与前平视图像采集器2的采集端呈夹角设置。两个侧视图像采集器4增强了智能机器人侧面感知能力,保证智能机器人转弯时的安全,且侧视图像采集器4的采集范围与前平视图像采集器2、前斜视图像采集器3的采集范围均有交集,实现无检测盲区,且多个图像采集器能同时采集到一个障碍物的信息,使得此障碍物的置信度上升,提高了地图标记和路径规划的精确性。
本实施例提供的智能机器人的机器人本体1的前侧高度为800mm-1100mm,机器人本体1的后侧高度为850mm-1200mm,机器人本体1的底部长度为520mm-720mm。但是机器人本体1的前侧高度、后侧高度以及底部长度不局限于上述尺寸,在此不作具体限定。
在本实施例中,前平视图像采集器2设置于机器人本体1前侧的中间位置,使检测范围由机器人本体1的中间位置向两侧扩展,确保智能机器人前方障碍物检测的精确性。前平视图像采集器2与机器人本体1的底部之间的距离为机器人本体1前侧高度的70%-90%,以适应检测比较高的障碍物。根据本实施例提供的机器人本体1的前侧高度,前平视图像采集器2与机器人本体1的底部之间的距离为670mm-850mm,前平视图像采集器2与机器人本体1的底部之间的距离优选为670mm、680mm、690mm、700mm、710mm、720mm、730mm、740mm、750mm、760mm、770mm、780、790mm、800mm、810mm、820mm、830mm、840mm或850mm,在此不作具体限定。
进一步地,前平视图像采集器2的采集端向下倾斜0°-5°,优选向下倾斜0°、1°、2°、3°、4°或5°,以更好地与前斜视图像采集传感器3配合使用,进一步地提高智能机器人对行进前方环境的感知能力。前平视图像采集器2设置的位置,如高度、角度等是需要与前斜视图像采集器3、侧视图像采集器4配合使用,以消除检测盲区。
本实施例中前平视图像采集器2优选深度摄像头,具有采集精度高、采集范围广等优点。在本实施例中,深度摄像头的型号优选为大白摄像头,其具有红外镜头和RGB镜头,可获取红外图像、深度图像和RGB图像。
图3是智能机器人的前平视图像采集器、前斜视图像采集器及后平视图像采集器的扫描范围平面示意图。图4是本发明实施例提供的智能机器人的前平视图像采集器、前斜视图像采集器及后平视图像采集器的扫描范围平面示意图。在本实施例中,结合图3和图4所示,侧视图像采集器4与机器人本体1的底部之间的距离为机器人本体1前侧高度的75%-95%,两个侧视图像采集器4的间距为机器人本体1底部长度的40%-60%,以使侧视图像采集器4的检测范围能覆盖到智能机器人的侧前方。根据本实施例提供的机器人本体1的前侧高度,侧视图像采集器4与机器人本体1的底部之间的距离为713mm-903mm。优选地,侧视图像采集器4与机器人本体1的底部之间的距离为720mm、725mm、730mm、735mm、740mm、745mm、750mm、755mm、760mm、765mm、770mm、775mm、780mm、785mm、790mm或795mm。根据本实施例提供的机器人本体1的底部长度,两个侧视图像采集器4的间距为248mm-372mm。优选地,两个侧视图像采集器4的间距为280mm、285mm、290mm、295mm、300mm、305mm、310mm、315mm、320mm、325mm或330mm,在此不作具体限定。
进一步地,侧视图像采集器4的采集端在水平方向上与前平视图像采集器2的采集端的夹角为25°-35°,且侧视图像采集器4的采集端向下倾斜5°-15°,使侧视图像采集器4与前平视图像采集器2、前斜视图像采集器3之间均具有交集,以消除检测盲区。优选地,侧视图像采集器4的采集端在水平方向上与前平视图像采集器2的采集端的夹角为25°、26°、27°、28°、29°、30°、31°、32°、33°、34°或35°,侧视图像采集器4的采集端向下倾斜5°、6°、7°、8°、9°、10°、11°、12°、13°、14°或15°,在此不作具体限定。
本实施例中侧视图像采集器4优选深度摄像头,具有采集精度高、采集范围广等优点。在本实施例中,深度摄像头的型号优选为大白摄像头,其具有红外镜头和RGB镜头,可获取红外图像、深度图像和RGB图像。
在本实施例中,如图4所示,为了确保前斜视图像采集器3与侧视图像采集器4、前平视图像采集器2均有交集,以消除检测盲区,前斜视图像采集器3设置于机器人本体1前侧的中间位置,使检测范围由机器人本体1的中间位置向两侧扩展,确保智能机器人前方障碍物检测的精确性。前斜视图像采集器3与机器人本体1的底部之间的距离为机器人本体1前侧高度的55%-75%,确保前斜视图像采集器3能检测到地面及以下的图像,以消除低矮障碍物检测的盲区及实现智能机器人的防跌落功能,确保前斜视图像采集器3与侧视图像采集器4、前平视图像采集器2均有交集,解决了现有技术中设置在智能机器人上的激光传感器、超声波传感器等存在检测盲区的问题。根据本实施例提供的机器人本体1前侧的高度,前斜视图像采集器3与机器人本体1的底部之间的距离为522mm-712mm。优选地,前斜视图像采集器3与机器人本体1的底部之间的距离为610mm、615mm、620mm、625mm或630mm,在此不作具体限定。
进一步地,前斜视图像采集器3的采集端向下倾斜45°-55°,以便能更精确地采集到地面及以下的图像。优选地,前斜视图像采集器3的采集端向下倾斜45°、46°、47°、48°、49°、50°、51°、52°、53°、54°或55°。前斜视图像采集器3设置的位置,如高度、角度等是需要与侧视图像采集器4配合使用,以消除检测盲区。
本实施例中前斜视图像采集器3优选深度摄像头,具有采集精度高、采集范围广等优点。在本实施例中,深度摄像头的型号优选为大白摄像头,其具有红外镜头和RGB镜头,可获取红外图像、深度图像和RGB图像。
在本实施例中,如图4和图5所示,智能机器人还包括后平视图像采集器5,在智能机器人前进的方向,后平视图像采集器5设置于机器人本体1的后侧,即与前平视图像采集器2相对的一侧。后平视图像采集器5主要是在智能机器人去充电桩充电时,用于检测充电桩的位置,使智能机器人的充电口与充电桩上的充电口连接,且在智能机器人后退的过程中检测是否有障碍物。
后平视图像采集器5、前平视图像采集器2、前斜视图像采集器3和两个侧视图像采集器4相互配合使用,覆盖了不同的高度、角度和范围,实现了智能机器人在前进、后退、转向时的多方位的图像采集。
进一步地,后平视图像采集器5设置于机器人本体1后侧的中间位置,且后平视图像采集器5与机器人本体1底部之间的距离为机器人本体1后侧高度的45%-65%,以便能准确采集到充电桩位置的信息,且将后平视图像采集器5设置于机器人本体1后侧的中间位置,便于智能机器人的充电口与充电桩上的充电口精准对位。根据本实施例提供的机器人本体1的后侧高度,后平视图像采集器5与机器人本体1底部之间的距离为464mm-669mm。后平视图像采集器5与机器人本体1底部之间的距离优选为595mm、597mm、599mm或601mm,在此不作具体限定。
再进一步地,本实施例中的后平视图像采集器5为深度摄像头,具有采集精度高、采集范围广等优点。在本实施例中,深度摄像头的型号优选为大白摄像头,其具有红外镜头和RGB镜头,可获取红外图像、深度图像和RGB图像。
在本实施例中,参见图2所示,机器人本体1上还设有防跌落传感器6,防跌落传感器6设置在前斜视图像采集器3的下方,且位于机器人本体1的中间位置,用于检测地面障碍物的信息。防跌落传感器6优选为激光传感器。防跌落传感器6检测的信息与前斜视图像采集器3采集的信息结合,以得到更多的障碍物数据,进而得到带有更多障碍物信息的地图数据。
在防跌落传感器6的下方还依次设有前平视2D激光雷达7、前部气压防碰撞传感器8和底部RFID传感器(图中未示出)。其中前平视2D激光雷达7用于获取智能机器人前方的2D地图信息。前部气压防碰撞传感器8用于检测障碍物信号,以避免智能机器人与障碍物发生碰撞。底部RFID传感器设置于机器人本体1的底部,以检测智能机器人底部的路况。前平视2D激光雷达7、前部气压防碰撞传感器8和底部RFID传感器与防跌落传感器6、前斜视图像采集器3结合,得到更多的障碍物信息,进一步地提高了障碍物检测的准确性。
在机器人本体1的两侧还设有单线激光雷达9,且单线激光雷达9设置在侧视图像采集器4远离前平视图像采集器2的一侧,且置于侧视图像采集器4的斜上方。机器人本体1的顶部还设有顶视RGB摄像头10。沿机器人本体1的周向还均布有超声波传感器11。
在本实施例中,获得激光雷达数据中的2D地图信息、图像数据的障碍物信息,将视频图像中的障碍物数据投影到地图数据中,根据两者的交集得到带有更多信息的地图数据。将激光数据、图像数据、超声波数据、前部气压防碰撞传感器8的数据、顶视RGB摄像头10的数据融合,得到更多障碍物的信息,最终能获得更高精度的自动驾驶的场景数据,以为自动驾驶提供精确的地图标记和路径规划。
如图1所示,本发明实施例提供的智能机器人地图的更新方法包括如下步骤:
步骤110,获取多摄像头采集的视觉数据。
其中,视觉数据可以包括深度数据、红外数据及RGB数据。本实施例中,设置于智能机器人上的多摄像头实施采集视野范围内的图像,从而获得视觉数据。
步骤120,对多个视觉数据进行融合,获得智能机器人当前所处的环境数据。
本实施例中,多摄像头的视野范围(或者采集范围)均有交集,在视觉数据上体现为视觉数据具有重叠区域,因此,需要对多个视觉数据进行融合,以获得智能机器人所处的环境数据。对多个视觉数据进行融合的方式可以是:对多个视觉数据的重叠区域按照设定算法进行融合,再与非重叠区域进行拼接。
具体的,对多个视觉数据进行融合,获得智能机器人当前的环境数据的方式可以是:确定多个视觉数据的重叠区域;根据各视觉数据的置信度对重叠区域进行融合,获得合并后的环境数据。
具体的,对多个视觉数据进行融合的过程可以是:对多个视觉数据分别进行特征点检测以获取特征点算子,根据特征点算子进行特征匹配,以得到特征匹配对,对得到的特征匹配对进行提取,得到鲁棒的特征匹配对,并根据鲁棒的特征匹配对进行图像拼接,从而可以稳定地消除相邻图像的重叠区域,以获得环境数据。
本实施例中,根据各视觉数据的置信度对重叠区域进行融合的方式可以是:采用尺度不变特征转换算法(Scale-invariant Feature Transform,SIFT)对多个视觉数据分别进行特征点检测以获取特征点算子,然后采用最优节点优先算法(Best BinFirst,BBF)对特征点算子进行特征匹配,以得到特征匹配组,再然后采用随机抽样一致性算法(RandomSample Consensus,RANSAC,)对得到的特征匹配组进行提取,得到鲁棒的特征匹配组,特征匹配组对应的像素点区域即为重叠区域。
在获得鲁棒的特征匹配组后,根据各视觉数据的置信度对鲁棒的特征匹配组中的至少两个匹配特征进行加权求和,获得目标特征,目标特征对应的区域即为融合后的重叠区域。最后将非重叠区域和重叠区域进行拼接,获得环境数据。本实施例中,将各视觉数据进行融合,可以实现无盲区检测,提高鲁棒性。
步骤130,根据环境数据对当前地图进行更新。
其中,对当前地图更新的方式可以包括:将检测到窄坑区域标记于当前地图中,对移走的障碍物在当前地图中的标记进行分层擦除,将识别到的新的障碍物标记于当前地图以及当所处地面发生变化时,重新计算当前地图中的地面参数。
本实施例中,智能机器人在运行过程中,需要根据当前地图进行路径规划,根据规划的路径行驶至目的地。当前地图是通过对智能机器人所处环境扫描构建的地图,标记有环境中存在的障碍物等信息,当所处环境发生变化时,需要对当前地图进行更新,才能保证路径规划的准确性。
具体的,根据环境数据当前地图进行更新的方式可以是:提取环境数据中的地面像素点云;将地面像素点云中高度值小于第一设定值的点云,确定为目标地面点;对目标地面点进行聚类,获得目标地面点组;将包含的目标地面点数量大于第二设定值的目标地面点组对应的区域确定为窄坑区域;将窄坑区域标记于当前地图。
其中,环境数据由像素点云组成,每个像素点携带有坐标信息及高度信息,可以根据高度信息提取地面像素点云,将高度小于一定值的像素点作为地面像素点。目标地面点可以理解为高度小于当前地面的像素点。
本实施例中,提取环境数据中的地面像素点云的方式可以是:将环境数据的像素点云转换为鸟瞰图;根据各像素点的高度值从鸟瞰图中提取地面像素点云。
其中,鸟瞰图可以是根据透视原理,利用高视点透视法从高处某一点俯视地面起伏绘制成的立体图。在获得鸟瞰图后,将将高度小于一定值的像素点从鸟瞰图中提取出来,获得地面像素点云。
其中,目标地面点组中包含多个目标地面点。本实施例中,对目标地面点进行聚类的方式可以是,将距离小于设定值的目标地面点聚为一类。当目标地面组包含的目标地面点数量大于第二设定值时,该目标地面组对应的区域构成一窄坑区域,若智能机器人从该窄坑区域上行走,会跌落。因此,需要将该窄坑区域标记于当前地图,使得智能机器人在路径规划时可以绕过该窄坑区域。
可选的,提取环境数据中的地面像素点云之后,还包括如下步骤:拟合地面像素点云;若参与拟合的地面像素点云数量占地面像素点总量的比例小于设定阈值,则根据地面像素点云重新计算地面参数。
其中,可以采用随机抽样一致算法(RANdom SAmple Consensus,RANSAC)对地面像素点云进行拟合。当参与拟合的地面像素点云数量占地面像素点总量的比例小于设定阈值时,表明智能机器人当前所处的环境存在多个平面(例如:机器人处于存在台阶的环境中),此时需要根据地面像素点云重新计算地面参数,并将重新计算出的地面参数更新至当前地图中。
本实施例中,根据地面像素点云重新计算地面参数可以采用现有的拟合算法实现,此处不做限定。
具体的,根据环境数据对当前地图进行更新的方式可以是:根据环境数据和当前地图确定待擦除障碍物;对环境数据对应的视野范围按照设定高度进行切片,获得多个分层区域;根据各分层区域所处的高度确定擦除范围;按照擦除范围将待擦除障碍物的标记从当前地图中擦除。
其中,待擦除障碍物可以理解为在当前地图中包含有该障碍物的标记,而在环境数据中不包含该障碍物的像素点,此时可以表明该障碍物已被移除。其中,设定高度可以设置为10-20cn之间的任意值。擦除范围可以是各分层区域的视野范围围成的区域,即擦除范围由当前摄像头的视野范围决定。示例性的,图6a是本发明实施例中对视野范围进行切片分层的示意图。如图6a所示,三角形围成的区域为摄像头的视野范围,对该视野范围进行切片,获得多个分层区域,每个分层区域的擦除范围为边界a、边界b以及分层面围成的区域。
本实施例中,按照擦除范围将待擦除障碍物从当前地图中擦除的过程可以是:根据高度信息确定待擦除障碍物所处的分层区域,确定为目标分层区域;将目标分层区域对应的擦除范围内的待擦除障碍物的标记从当前地图中擦除。
其中,高度信息为障碍物的高度信息。将目标分层区域对应的擦除范围内的待擦除障碍物的标记从当前地图中擦除可以理解为将落入擦除范围的障碍物的标记擦除,保留未落入擦除范围的障碍物的标记。示例性的,图6b为擦除障碍物标记的示意图,如图6b所示,虚线围成的椭圆为待擦除物体,该待擦除物体处于下面三个分层区域中,其中,白色区域落入下面三个分层区域的擦除范围,阴影区域未落入下面三个分层区域的擦除范围,因此,在擦除时,只需将白色区域对应的障碍物标记擦除,阴影区域对应的障碍物标记保留。这样做的好处避免用整个视野范围来擦除标记导致的不精确问题误擦除标记。
具体的,根据环境数据对当前地图进行更新的方式可以是:获取环境数据中的物体高度;若物体距离智能机器人小于设定距离阈值且物体高度大于第一高度阈值,则物体为障碍物;若物体距离智能机器人大于设定距离阈值且物体高度大于第二高度阈值,则物体为障碍物;将障碍物标记于当前地图中。
其中,第一高度阈值小于第二高度阈值。其中,设定阈值设置为0.8m-1m之间的任意值。第一高度阈值可以设置为1cm,第二高度阈值可以设置为3cm。示例性的,假设设定阈值取0.8m,则对于距离智能机器人0.8m以内的物体,若高度大于1cm,则将该物体确定为障碍物,对于距离智能机器人0.8m以外的物体,若高度大于3cm,则将该物体确定为障碍物。这样做的好处是可以准确的识别到低矮障碍物。
本实施例的技术方案,获取所述多摄像头采集的视觉数据;对多个所述视觉数据进行融合,获得所述智能机器人当前所处的环境数据;根据所述环境数据对当前地图进行更新。本发明实施例提供的地图更新方法,通过设置于智能机器人上多个摄像头采集的环境数据对当前地图进行更新,可以提高地图更新的准确性,从而提高机器人行驶过程中的安全性。
实施例二
图7是本发明实施例二提供的一种智能机器人地图的更新装置的结构示意图。所述智能机器人设置有多摄像头,如图7所示,该装置包括:
视觉数据获取模块210,用于获取所述多摄像头采集的视觉数据;
环境数据获取模块220,用于对多个所述视觉数据进行融合,获得所述智能机器人当前所处的环境数据;
地图更新模块230,用于根据所述环境数据对当前地图进行更新。
可选的,所述多摄像头至少包括:前平视摄像头、前斜视摄像头、左侧摄像头和右侧摄像头之一;环境数据获取模块220,还用于:
确定多个所述视觉数据的重叠区域;
根据各视觉数据的置信度对所述重叠区域进行融合,获得合并后的环境数据。
可选的,地图更新模块230,还用于:
提取所述环境数据中的地面像素点云;
将所述地面像素点云中高度值小于第一设定值的点云,确定为目标地面点;
对所述目标地面点进行聚类,获得目标地面点组;
将包含的目标地面点数量大于第二设定值的目标地面点组对应的区域确定为窄坑区域;
将所述窄坑区域标记于所述当前地图。
可选的,地图更新模块230,还用于:
将所述环境数据的像素点云转换为鸟瞰图;
根据各像素点的高度值从所述鸟瞰图中提取地面像素点云。
可选的,地图更新模块230,还用于:
拟合所述地面像素点云;
若参与拟合的地面像素点云数量占地面像素点总量的比例小于设定阈值,则根据所述地面像素点云重新计算地面参数。
可选的,地图更新模块230,还用于:
根据所述环境数据和所述当前地图确定待擦除障碍物;
对所述环境数据对应的视野范围按照设定高度进行切片,获得多个分层区域;
根据各分层区域所处的高度确定擦除范围;
按照所述擦除范围将所述待擦除障碍物的标记从所述当前地图中擦除。
可选的,地图更新模块230,还用于:
根据高度信息确定所述待擦除障碍物所处的分层区域,确定为目标分层区域;
将所述目标分层区域对应的擦除范围内的待擦除障碍物的标记从所述当前地图中擦除。
可选的,地图更新模块230,还用于:
获取所述环境数据中的物体高度;
若所述物体距离所述智能机器人小于设定距离阈值且所述物体高度大于第一高度阈值,则所述物体为障碍物;
若所述物体距离所述智能机器人大于所述设定距离阈值且所述物体高度大于第二高度阈值,则所述物体为障碍物;其中,第一高度阈值小于第二高度阈值;
将所述障碍物标记于所述当前地图中。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
实施例三
图8为本发明实施例三提供的一种计算机设备的结构示意图。图8示出了适于用来实现本发明实施方式的计算机设备312的框图。图8显示的计算机设备312仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备312是典型的智能机器人地图的更新功能的计算设备。
如图8所示,计算机设备312以通用计算设备的形式表现。计算机设备312的组件可以包括但不限于:一个或者多个处理器316,存储装置328,连接不同系统组件(包括存储装置328和处理器316)的总线318。
总线318表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器316或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线、微通道体系结构(Micro Channel Architecture,MCA)总线、增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备312典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备312访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置328可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)330和/或高速缓存存储器332。计算机设备312可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统334可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线318相连。存储装置328可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块326的程序336,可以存储在例如存储装置328中,这样的程序模块326包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块326通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备312也可以与一个或多个外部设备314(例如键盘、指向设备、摄像头、显示器324等)通信,还可与一个或者多个使得用户能与该计算机设备312交互的设备通信,和/或与使得该计算机设备312能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口322进行。并且,计算机设备312还可以通过网络适配器320与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网(Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器320通过总线318与计算机设备312的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备312使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays ofIndependent Disks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器316通过运行存储在存储装置328中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的智能机器人地图的更新方法。
实施例四
本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例中的智能机器人地图的更新方法。本发明上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取所述多摄像头采集的视觉数据;对多个所述视觉数据进行融合,获得所述智能机器人当前所处的环境数据;根据所述环境数据对当前地图进行更新。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
实施例五
图9为本申请实施例五提供的一种芯片的结构示意图。芯片900包括一个或多个处理器901以及接口电路902。可选的,芯片900还可以包含总线903。
其中:
处理器901可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器901中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器901可以是通用处理器、数字通信器(DSP)、专用集成电路((ASIC)、现场可编程门阵列((FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件、MCU、MPU、CPU或者协处理器中的一个或多个。可以实现或者执行本申请实施例中的公开的各方法、步骤。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
接口电路902可以用于数据、指令或者信息的发送或者接收,处理器901可以利用接口电路902接收的数据、指令或者其它信息,进行加工,可以将加工完成信息通过接口电路902发送出去。
可选的,芯片900还包括存储器,存储器可以包括只读存储器和随机存取存储器,并向处理器901提供操作指令和数据。存储器的一部分还可以包括非易失性随机存取存储器(NVRAM)。
可选的,存储器存储了可执行软件模块或者数据结构,处理器901可以通过调用存储器存储的操作指令(该操作指令可存储在操作系统中),执行相应的操作。
可选的,芯片900可以使用在本申请实施例涉及的目标检测装置中。可选的,接口电路902可用于输出处理器901的执行结果。关于本申请的一个或多个实施例提供的目标检测方法可参考前述各个实施例,这里不再赘述。
需要说明的,处理器901、接口电路902各自对应的功能既可以通过硬件设计实现,也可以通过软件设计来实现,还可以通过软硬件结合的方式来实现,这里不作限制。
显然,本发明的上述实施例仅仅是为了清楚说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (11)

1.一种智能机器人,其特征在于,包括:
机器人本体(1);
前平视图像采集器(2),在智能机器人前进的方向,所述前平视图像采集器(2)设置于所述机器人本体(1)的前侧;
前斜视图像采集器(3),设置于所述机器人本体(1)上且置于所述前平视图像采集器(2)的下方,所述前斜视图像采集器(3)的采集端向下倾斜设置;
侧视图像采集器(4),所述机器人本体(1)的两侧均设置所述侧视图像采集器(4),且两个所述侧视图像采集器(4)对称设置,所述侧视图像采集器(4)的采集端向下倾斜且与所述前平视图像采集器(2)的采集端呈夹角设置;
所述前平视图像采集器(2)、前斜视图像采集器(3)、侧视图像采集器(4)采集的视觉数据;对多个所述视觉数据进行融合,获得智能机器人当前所处的环境数据;根据所述环境数据对当前地图进行更新;
其中,根据所述环境数据当前地图进行更新,包括:
提取所述环境数据中的地面像素点云;
将所述地面像素点云中高度值小于第一设定值的点云,确定为目标地面点;
对所述目标地面点进行聚类,获得目标地面点组;
将包含的目标地面点数量大于第二设定值的目标地面点组对应的区域确定为窄坑区域;
将所述窄坑区域标记于所述当前地图。
2.根据权利要求1所述的智能机器人,其特征在于,所述前平视图像采集器(2)设置于所述机器人本体(1)前侧的中间位置,且所述前平视图像采集器(2)与所述机器人本体(1)的底部之间的距离为所述机器人本体(1)前侧高度的70%-90%。
3.根据权利要求1所述的智能机器人,其特征在于,所述前平视图像采集器(2)的采集端向下倾斜0°-5°。
4.根据权利要求1所述的智能机器人,其特征在于,所述前斜视图像采集器(3)设置于所述机器人本体(1)前侧的中间位置,且所述前斜视图像采集器(3)与所述机器人本体(1)的底部之间的距离为所述机器人本体(1)前侧高度的55%-75%。
5.根据权利要求1所述的智能机器人,其特征在于,所述前斜视图像采集器(3)的采集端向下倾斜45°-55°。
6.根据权利要求1所述的智能机器人,其特征在于,所述侧视图像采集器(4)与所述机器人本体(1)的底部之间的距离为所述机器人本体(1)前侧高度的75%-95%,两个所述侧视图像采集器(4)的间距为所述机器人本体(1)底部长度的40%-60%。
7.根据权利要求1所述的智能机器人,其特征在于,所述侧视图像采集器(4)的采集端在水平方向上与所述前平视图像采集器(2)的采集端的夹角为25°-35°,且所述侧视图像采集器(4)的采集端向下倾斜5°-15°。
8.根据权利要求1所述的智能机器人,其特征在于,还包括后平视图像采集器(5),在所述智能机器人前进的方向,所述后平视图像采集器(5)设置于所述机器人本体(1)的后侧。
9.根据权利要求8所述的智能机器人,其特征在于,所述后平视图像采集器(5)设置于所述机器人本体(1)后侧的中间位置,且所述后平视图像采集器(5)与所述机器人本体(1)的底部之间的距离为所述机器人本体(1)后侧高度的45%-65%。
10.根据权利要求2、4、6或9所述的智能机器人,其特征在于,所述机器人本体(1)的前侧高度为800mm-1100mm,所述机器人本体(1)的后侧高度为850mm-1200mm,所述机器人本体(1)的底部长度为520mm-720mm。
11.根据权利要求1所述的智能机器人,其特征在于,所述前平视图像采集器(2)、前斜视图像采集器(3)及侧视图像采集器(4)均为深度摄像头。
CN202110807732.1A 2021-07-16 2021-07-16 一种智能机器人 Active CN113500600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110807732.1A CN113500600B (zh) 2021-07-16 2021-07-16 一种智能机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110807732.1A CN113500600B (zh) 2021-07-16 2021-07-16 一种智能机器人

Publications (2)

Publication Number Publication Date
CN113500600A CN113500600A (zh) 2021-10-15
CN113500600B true CN113500600B (zh) 2023-08-29

Family

ID=78013205

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110807732.1A Active CN113500600B (zh) 2021-07-16 2021-07-16 一种智能机器人

Country Status (1)

Country Link
CN (1) CN113500600B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203429A (ja) * 2013-04-10 2014-10-27 トヨタ自動車株式会社 地図生成装置、地図生成方法及び制御プログラム
CN107792219A (zh) * 2016-09-06 2018-03-13 夏普株式会社 移动车辆
CN109828588A (zh) * 2019-03-11 2019-05-31 浙江工业大学 一种基于多传感器融合的机器人室内路径规划方法
CN110795523A (zh) * 2020-01-06 2020-02-14 中智行科技有限公司 车辆定位方法、装置以及智能车辆
WO2020077481A1 (en) * 2018-10-15 2020-04-23 Lingdong Technology (Beijing) Co. Ltd Self-driving vehicle system with steerable camera and indicator
CN111251271A (zh) * 2020-03-17 2020-06-09 青岛大学 一种旋转激光雷达及室内地图构建和定位的slam机器人
CN210909998U (zh) * 2019-08-15 2020-07-03 纳恩博(北京)科技有限公司 配送机器人
CN111958594A (zh) * 2020-07-30 2020-11-20 国网智能科技股份有限公司 一种语义智能变电站巡视作业机器人系统及方法
CN112014830A (zh) * 2020-09-17 2020-12-01 苏州三六零机器人科技有限公司 雷达激光的反射滤除方法、扫地机器人、设备及存储介质
CN112132929A (zh) * 2020-09-01 2020-12-25 北京布科思科技有限公司 一种基于深度视觉和单线激光雷达的栅格地图标记方法
CN112835064A (zh) * 2020-12-31 2021-05-25 上海蔚建科技有限公司 一种建图定位方法、系统、终端及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE524783T1 (de) * 2004-03-27 2011-09-15 Harvey Koselka Autonomer persönlicher dienstroboter

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203429A (ja) * 2013-04-10 2014-10-27 トヨタ自動車株式会社 地図生成装置、地図生成方法及び制御プログラム
CN107792219A (zh) * 2016-09-06 2018-03-13 夏普株式会社 移动车辆
WO2020077481A1 (en) * 2018-10-15 2020-04-23 Lingdong Technology (Beijing) Co. Ltd Self-driving vehicle system with steerable camera and indicator
CN109828588A (zh) * 2019-03-11 2019-05-31 浙江工业大学 一种基于多传感器融合的机器人室内路径规划方法
CN210909998U (zh) * 2019-08-15 2020-07-03 纳恩博(北京)科技有限公司 配送机器人
CN110795523A (zh) * 2020-01-06 2020-02-14 中智行科技有限公司 车辆定位方法、装置以及智能车辆
CN111251271A (zh) * 2020-03-17 2020-06-09 青岛大学 一种旋转激光雷达及室内地图构建和定位的slam机器人
CN111958594A (zh) * 2020-07-30 2020-11-20 国网智能科技股份有限公司 一种语义智能变电站巡视作业机器人系统及方法
CN112132929A (zh) * 2020-09-01 2020-12-25 北京布科思科技有限公司 一种基于深度视觉和单线激光雷达的栅格地图标记方法
CN112014830A (zh) * 2020-09-17 2020-12-01 苏州三六零机器人科技有限公司 雷达激光的反射滤除方法、扫地机器人、设备及存储介质
CN112835064A (zh) * 2020-12-31 2021-05-25 上海蔚建科技有限公司 一种建图定位方法、系统、终端及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伍明.正文.《未知环境下移动机器人目标跟踪理论与方法》.2018, *

Also Published As

Publication number Publication date
CN113500600A (zh) 2021-10-15

Similar Documents

Publication Publication Date Title
CN109271944B (zh) 障碍物检测方法、装置、电子设备、车辆及存储介质
US11367217B2 (en) Image processing method and apparatus, and related device
CN112417967B (zh) 障碍物检测方法、装置、计算机设备和存储介质
US11798173B1 (en) Moving point detection
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
JP2020518785A (ja) 車道の決定方法、装置及び記憶媒体
EP3208635A1 (en) Vision algorithm performance using low level sensor fusion
CN111542860A (zh) 用于自主车辆的高清地图的标志和车道创建
US20100097455A1 (en) Clear path detection using a vanishing point
US11625851B2 (en) Geographic object detection apparatus and geographic object detection method
CN111797187A (zh) 地图数据的更新方法、装置、电子设备和存储介质
CN111814752B (zh) 室内定位实现方法、服务器、智能移动设备、存储介质
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
CN112947419B (zh) 避障方法、装置及设备
Goga et al. Fusing semantic labeled camera images and 3D LiDAR data for the detection of urban curbs
CN111415374A (zh) 一种用于景区人流量监控和管理的kvm系统及方法
CN111967396A (zh) 障碍物检测的处理方法、装置、设备及存储介质
WO2023179028A1 (zh) 一种图像处理方法、装置、设备及存储介质
CN113535877B (zh) 智能机器人地图的更新方法、装置、设备、介质及芯片
CN111353453A (zh) 用于车辆的障碍物检测方法和装置
CN114494618A (zh) 地图的生成方法、装置、电子设备及存储介质
WO2022166606A1 (zh) 一种目标检测方法及装置
Arora et al. Static map generation from 3D LiDAR point clouds exploiting ground segmentation
CN113500600B (zh) 一种智能机器人
Nitsch et al. 3d ground point classification for automotive scenarios

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant