CN114077252B - 机器人碰撞障碍区分装置及方法 - Google Patents

机器人碰撞障碍区分装置及方法 Download PDF

Info

Publication number
CN114077252B
CN114077252B CN202111369635.5A CN202111369635A CN114077252B CN 114077252 B CN114077252 B CN 114077252B CN 202111369635 A CN202111369635 A CN 202111369635A CN 114077252 B CN114077252 B CN 114077252B
Authority
CN
China
Prior art keywords
obstacle
collidable
barrier
information
collision value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111369635.5A
Other languages
English (en)
Other versions
CN114077252A (zh
Inventor
任国全
蔡云飞
王子航
王怀光
吴定海
范红波
唐香珺
李晓磊
周景涛
王凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Army Engineering University of PLA
Original Assignee
Nanjing University of Science and Technology
Army Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology, Army Engineering University of PLA filed Critical Nanjing University of Science and Technology
Priority to CN202111369635.5A priority Critical patent/CN114077252B/zh
Publication of CN114077252A publication Critical patent/CN114077252A/zh
Application granted granted Critical
Publication of CN114077252B publication Critical patent/CN114077252B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • G05D1/0263Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic strips
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种机器人碰撞障碍区分装置及方法,装置包括:图像场景采集单元,用于采集图像数据并发送;距离测量单元,用于探测障碍物的位置和体积信息,生成点云数据并发送;数据处理控制单元,用于对点云数据进行处理,建立周围环境地图,在实时显示当前位置,更新障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将障碍物的距离和体积信息与图像数据相融合,得到障碍物的具体种类和性质信息,判断障碍物为可碰撞障碍或不可碰撞障碍物,在为可碰撞障碍物时无需做出避障处理,否则及时进行避障处理;惯性导航单元,用于提供速度、偏转角和位置信息;移动搭载平台,用于搭载其他单元。

Description

机器人碰撞障碍区分装置及方法
技术领域
本发明涉及计算机技术领域,尤其是涉及一种机器人碰撞障碍区分装置及方法。
背景技术
随着无人车自动驾驶技术的飞速发展,目前无人车已经能够对道路障碍物进行有效识别并合理避障。但是对于可碰撞障碍物,比如草、泡沫塑料、灌木丛等目标无法进行有效识别。对于这些可碰撞障碍物,目前的自动驾驶技术只能做到识别并避障,但是我们希望无人越野车无需避障,直接从可碰撞障碍上开过去。
对于完全依赖点云进行目标障碍物的识别技术,仅仅可以识别出障碍物的大小、体积、距离等性质,无法判断出障碍物究竟是何物,比如同样大小的人与泡沫塑料,人属于不可碰撞障碍而泡沫塑料属于可碰撞障碍,点云识别无法做出准确区分。而对于完全依赖图像进行目标障碍物的识别技术,虽然可以识别出目标是何物,但是无法得知目标物的距离和大小,肯定也无法做出准确的处理。
发明内容
本发明的目的在于提供一种机器人碰撞障碍区分装置及方法,旨在解决现有技术中的上述问题。
本发明提供一种机器人碰撞障碍区分装置,设置于轮式机器人平台,包括:
图像场景采集单元,安装在移动搭载平台的车体尾部的位置,用于在数据处理控制单元的控制下,基于惯性导航单元提供的信息采集障碍物的图像数据并发送到数据处理控制单元;
距离测量单元,安装在移动搭载平台的车体前方的位置,用于基于惯性导航单元提供的信息,通过发射的激光束探测障碍物的位置和体积信息,生成点云数据,将所述点云数据发送到所述数据处理控制单元;
数据处理控制单元,安装在移动搭载平台的车体中间的位置,用于对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息,根据所述障碍物的具体种类和性质信息判断障碍物为可碰撞障碍或不可碰撞障碍物,在判断为可碰撞障碍物时无需做出避障处理,否则应及时进行避障处理;
惯性导航单元,安装在移动搭载平台的车体中间的位置,用于为所述图像场景采集单元和所述距离测量单元提供速度、偏转角和位置信息;
移动搭载平台,设置于所述轮式机器人平台上,用于搭载所述机器人碰撞障碍区分装置的其他单元。
本发明提供一种机器人碰撞障碍区分方法,用于上述的机器人碰撞障碍区分装置,该方法包括:
在数据处理控制单元的控制下,通过图像场景采集单元基于惯性导航单元提供的信息采集障碍物的图像数据并发送到数据处理控制单元;
基于惯性导航单元提供的信息,通过距离测量单元发射的激光束探测障碍物的位置和体积信息,生成点云数据,将所述点云数据发送到所述数据处理控制单元;
通过数据处理控制单元对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息,根据所述障碍物的具体种类和性质信息判断障碍物为可碰撞障碍或不可碰撞障碍物,在判断为可碰撞障碍物时无需做出避障处理,否则应及时进行避障处理。
采用本发明实施例,将点云识别和图像识别相融合,可以精确识别出可碰撞障碍,对于草、灌木丛等可碰撞障碍无需做出避障行为,可以用于越野车在山坡上自动驾驶等障碍物复杂的情况下的选择性避障处理。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的机器人碰撞障碍区分装置的示意图;
图2是本发明实施例的架构原理示意图;
图3是本发明实施例的机器人碰撞障碍区分方法的流程图。
具体实施方式
为了解决现有技术中的上述问题,本发明实施例提供了一种新型的道路特征识别方式,具体针对可碰撞障碍和不可碰撞障碍之间的区分。是一种利用点云对道路障碍目标的距离和体积进行识别的基础上,再结合图像目标识别获取目标的真实场景,二者相互融合以此判断出目标的类别,是否属于可碰撞目标。
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。此外,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
装置实施例
根据本发明实施例,提供了一种机器人碰撞障碍区分装置,设置于轮式机器人平台,图1是本发明实施例的机器人碰撞障碍区分装置的示意图,如图1所示,根据本发明实施例的机器人碰撞障碍区分装置具体包括:
图像场景采集单元10,安装在移动搭载平台的车体尾部的位置,用于在数据处理控制单元的控制下,基于惯性导航单元提供的信息采集障碍物的图像数据并发送到数据处理控制单元;图像场景采集单元10为:摄像机。
距离测量单元12,安装在移动搭载平台的车体前方的位置,用于基于惯性导航单元提供的信息,通过发射的激光束探测障碍物的位置和体积信息,生成点云数据,将所述点云数据发送到所述数据处理控制单元;所述距离测量单元12为:激光雷达;
数据处理控制单元14,安装在移动搭载平台的车体中间的位置,用于对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息,根据所述障碍物的具体种类和性质信息判断障碍物为可碰撞障碍或不可碰撞障碍物,在判断为可碰撞障碍物时无需做出避障处理,否则应及时进行避障处理;所述数据处理控制单元14为:工控机;
数据处理控制单元14具体用于:
根据从所述距离测量单元获取的所述点云数据建立无人车周围的环境地图,并标记出障碍物的坐标位置,在建立起周围环境地图的基础上,调用图像场景采集单元采集周围真实的场景信息,为含有障碍物的关键图片打上包含坐标信息以及图像场景采集单元中摄像头对应的角度信息的标签,并随着前进,实时更新环境地图和图片相关的坐标信息和角度信息;对每一个识别到的障碍物赋予其相应的属性,利用所述距离测量单元得到障碍物距离轮式机器人平台的位置、方向、以及高度信息,利用图像场景采集单元采集到的障碍物实时的真实状态,将每一张图片对应一个无人车实时的位姿信息,并将这些数据全部存储到数据库中。
对于每一个时刻,根据所述距离测量单元获取到的障碍物的距离和偏转角度,调取这一时刻图像场景采集单元捕获到的同一角度的实时状态,利用目标识别技术识别出该障碍物的具体种类,将每一时刻每一障碍物计算一个碰撞值,其中,若碰撞值为1则代表可以碰撞,若碰撞值为0则代表不可碰撞,需要进行避障处理,并根据不同的障碍物类型,分为完全可碰撞障碍、不完全可碰撞障碍、不可碰撞障碍和未识别障碍四大类。
在障碍物被识别为完全可碰撞障碍物时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过车身高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为不可碰撞即0,其余部分作为可碰撞障碍物,将其碰撞值置为可碰撞即1;若障碍物最大高度都没有超过车身高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不完全可碰撞障碍时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过了车轮无法跨越的高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为0,其余部分作为可碰撞障碍物,将其碰撞值置为1,若障碍物最大高度都没有超过车轮无法跨越的高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不可碰撞障碍时,则无需计算直接将碰撞值置为0;
在障碍物被识别为未识别障碍物,则无需计算直接将碰撞值置为0。
惯性导航单元16,安装在移动搭载平台的车体中间的位置,用于为所述图像场景采集单元和所述距离测量单元提供速度、偏转角和位置信息;所述惯性导航单元16为一下至少之一:里程计、陀螺仪、加速度计;
移动搭载平台18,设置于所述轮式机器人平台上,用于搭载所述机器人碰撞障碍区分装置的其他单元。
以下结合附图,对本发明实施例的上述技术方案进行详细说明。
如图1所示,在本发明实施例中,无人车的车体的总体设计分为五大部分,车体最前方是激光雷达,用以发射激光束来探测障碍物的位置、体积等特征。惯性导航系统用以提供速度、偏转角和位置等信息。工控机将传感器采集到的数据进行处理,控制车体的行动。摄像机安装在车体偏后的位置,摄像头和平台之间为一个高度、俯仰角、水平偏角均可调的支架,可以根据需要和任务的不同自动调整摄像机的角度,俯仰角调节范围为[-45,45],水平偏角调节范围为[-60,60],高度调节范围为[50cm,100cm]。
图2是本发明实施例的架构原理示意图,如图2所示,首先无人车利用激光雷达传感器采集无人车周围的环境信息,然后将采集到的点云数据发送给工控机进行处理,从而建立起无人车周围环境地图,并可以实时地刷新自己的位置,更新地图以及图上的障碍物信息。与此同时,记录下以下关键信息:障碍物坐标,转角处,边角处等。
当利用激光雷达建立起无人车周围环境的实时场景地图之后,对于检测到的障碍物,调用摄像头采集目标障碍物的具体信息,将激光雷达得到的距离、体积等数据和摄像头采集到的图像数据相融合,得到障碍物的具体种类、性质等信息。依此将障碍物划分为可碰撞障碍和不可碰撞障碍物。若是可碰撞障碍物则无需做出避障处理,否则应及时做出避障处理。
在本发明实施例中,通过激光雷达采集到的数据建立无人车周围的环境地图,与此同时,标记出障碍物的坐标位置。在建立起周围环境地图的基础上,调用摄像头采集无人车周围真实的场景信息,给含有障碍物的关键的图片打上标签,标签包含坐标信息以及摄像头对应的角度信息。随着无人车的前进,环境地图和图片相关的坐标信息和角度信息也实时地发生改变。对每一个识别到的障碍物赋予其相应的属性,利用激光雷达得到障碍物距离无人车的位置、方向、高度等信息,利用摄像机采集到的障碍物实时的真实状态,每一张图片对应一个无人车实时的位姿信息,将这些数据全部存储到数据库之中。
对于每一个时刻,利用激光雷达获取到的障碍物的距离和偏转角度,调取这一时刻摄像头捕获到的同一角度的实时状态,利用目标识别技术识别出该障碍物的具体种类。每一时刻每一障碍物均有一个碰撞值,若碰撞值为1则代表可以碰撞,若碰撞值为0则代表不可碰撞,需要进行避障处理。根据不同的障碍物类型,分为完全可碰撞障碍、不完全可碰撞障碍、不可碰撞障碍和未识别障碍四大类。对于每一种障碍物分别做以下处理:
①若障碍物被识别为完全可碰撞障碍物,再利用激光雷达数据获取到障碍物的长、宽、高度,对于其高度超过车身高度(高于摄像头高度)的部分看做不可碰撞障碍物,将这一部分看做新的障碍物,碰撞值置为0(不可碰撞),其余部分看做可碰撞障碍物,将其碰撞值置为1(可碰撞)。若障碍物最大高度都没有超过车身高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1(可碰撞)。
②若障碍物被识别为不完全可碰撞障碍,再利用激光雷达数据获取到障碍物的长、宽、高度,对于其高度超过了无人车车轮无法跨越的高度的部分看做不可碰撞障碍物,将这一部分看做新的障碍物,碰撞值置为0(不可碰撞),其余部分看做可碰撞障碍物,将其碰撞值置为1(可碰撞)。若障碍物最大高度都没有超过无人车车轮无法跨越的高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1(可碰撞)。
③若障碍物被识别为不可碰撞障碍,则无需计算直接将碰撞值置为0(不可碰撞)。
④若障碍物被识别为未识别障碍物,则无需计算直接将碰撞值置为0(不可碰撞)。
在本发明实施例中,障碍物的分类方法及其碰撞规避如下:
①完全可碰撞障碍物:
指障碍物本身十分脆弱,并且障碍物没有任何经济价值,无需担心障碍物损害。而且碰撞无法对无人车造成任何威胁,不会损伤无人车。例如:草、厨余垃圾、塑料袋等障碍物。对于这一类障碍物,需要考虑到障碍物对摄像头的影响,是否会遮挡住摄像头,若其高度低于摄像头高度则无需做出避障处理,否则依然需要做出避障处理。
②不完全可碰撞障碍物:
多指障碍物本身比较坚硬,不容易被撞坏,并且障碍物没有任何经济价值;或者障碍物具有一定经济价值但是障碍物完全无法被撞坏。例如:坚硬的台阶、土块、石头等障碍物。对于这一类障碍物,需要考虑车身是否能跨过障碍物的高度,如果障碍物的高度低于车身能够跨过的高度,则无需做出避障处理,否则无人车需要做出避障处理。
③不可碰撞障碍物:
指无人车一定不能碰撞的障碍物。例如:行人、车辆、动物等障碍物。对于这一类障碍物,无人车无需计算,必须要做出避障处理,并且需要和障碍物保持一定的安全距离。
④未识别障碍物:
指无人车“不认识”的障碍物,未学习过该障碍物的信息,或者障碍物的形状无法让无人车确认是哪一类障碍物,则归到未识别障碍物之中。对于这一类障碍物,无人车按照不可碰撞障碍物进行处理,依然要做出避障处理。
从上述技术方案可以看出,本发明实施例提供一种新型的无人车对可碰撞障碍和不可碰撞障碍的识别方法,该方法将点云识别和图像识别相融合,可以精确识别出可碰撞障碍,对于草、灌木丛等可碰撞障碍无需做出避障行为,可以用于越野车在山坡上自动驾驶等障碍物复杂的情况下的选择性避障处理。
本发明实施例利用激光雷达传感器采集无人车周围的环境信息,然后将采集到的点云数据发送给工控机进行处理,从而建立起无人车周围环境地图,并可以实时地刷新自己的位置,更新地图以及图上的障碍物信息。与此同时,记录下一下关键信息:障碍物坐标,转角处,边角处等。调用摄像头采集目标障碍物的具体信息,将激光雷达得到的距离、体积等数据和摄像头采集到的图像数据相融合,得到障碍物的具体种类、性质等信息。依此将障碍物划分为可碰撞障碍和不可碰撞障碍物。
对于障碍物识别的方法,本发明实施例给出了障碍物的具体分类方法,分为四大类:①完全可碰撞障碍物②不完全可碰撞障碍物③不可碰撞障碍物④未识别障碍物。
对于识别出的每一类障碍物,给出了具体的障碍物识别方法:①对于完全可碰撞障碍物,其高度超过车身高度(高于摄像头高度)的部分看做不可碰撞障碍物,将这一部分看做新的障碍物,碰撞值置为0(不可碰撞),其余部分看做可碰撞障碍物,将其碰撞值置为1(可碰撞)。若障碍物最大高度都没有超过车身高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1(可碰撞)。②对于不完全可碰撞障碍,其高度超过了无人车车轮无法跨越的高度的部分看做不可碰撞障碍物,将这一部分看做新的障碍物,碰撞值置为0(不可碰撞),其余部分看做可碰撞障碍物,将其碰撞值置为1(可碰撞)。若障碍物最大高度都没有超过无人车车轮无法跨越的高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1(可碰撞)。③对于不可碰撞障碍,则无需计算直接将碰撞值置为0(不可碰撞)。④对于未识别障碍物,则无需计算直接将碰撞值置为0(不可碰撞)。
综上所述,本发明实施例提出了一个无人车自动驾驶中区分可碰撞与非可碰撞障碍的一种新方法。该方法首先以点云的方式构建出无人车周围的环境场景地图,接着根据得到的位置坐标和角度信息,调用摄像头采集图像,获取实时的具体障碍物图像,以此判定是否可碰撞并做出相应处理。本发明实施例将点云和图像相结合,利用激光雷达和摄像头相结合的方法,既弥补了点云无法采集障碍物图像信息,看不到真实场景的缺点,也弥补了图像无法获取障碍物的距离、大小体积等信息的缺点。将二者融合起来,完美规避了二者的缺陷,使得无人车可以对障碍物的碰撞性做出判断,并继而做出相应的处理。
此外,本发明实施例的技术方案将点云和图像识别技术相结合,利用点云获取目标的距离和大小,再用图像识别技术获取目标的种类,两者融合就可以相对准确地对障碍物做出区分,来识别出是可碰撞障碍还是不可碰撞障碍。此外,利用点云技术先发现目标位置,再调用摄像头捕获障碍物画面也更加的方便。
方法实施例
根据本发明实施例,提供了一种机器人碰撞障碍区分方法,用于上述机器人碰撞障碍区分装置,图3是本发明实施例的机器人碰撞障碍区分方法的流程图,如图3所示,根据本发明实施例的机器人碰撞障碍区分方法具体包括:
步骤301,在数据处理控制单元的控制下,通过图像场景采集单元基于惯性导航单元提供的信息采集障碍物的图像数据并发送到数据处理控制单元;
步骤302,基于惯性导航单元提供的信息,通过距离测量单元发射的激光束探测障碍物的位置和体积信息,生成点云数据,将所述点云数据发送到所述数据处理控制单元;
步骤303,通过数据处理控制单元对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息,根据所述障碍物的具体种类和性质信息判断障碍物为可碰撞障碍或不可碰撞障碍物,在判断为可碰撞障碍物时无需做出避障处理,否则应及时进行避障处理。
步骤303具体包括如下处理:
根据从所述距离测量单元获取的所述点云数据建立无人车周围的环境地图,并标记出障碍物的坐标位置,在建立起周围环境地图的基础上,调用图像场景采集单元采集周围真实的场景信息,为含有障碍物的关键图片打上包含坐标信息以及图像场景采集单元中摄像头对应的角度信息的标签,并随着前进,实时更新环境地图和图片相关的坐标信息和角度信息;对每一个识别到的障碍物赋予其相应的属性,利用所述距离测量单元得到障碍物距离轮式机器人平台的位置、方向、以及高度信息,利用图像场景采集单元采集到的障碍物实时的真实状态,将每一张图片对应一个无人车实时的位姿信息,并将这些数据全部存储到数据库中。
对于每一个时刻,根据所述距离测量单元获取到的障碍物的距离和偏转角度,调取这一时刻图像场景采集单元捕获到的同一角度的实时状态,利用目标识别技术识别出该障碍物的具体种类,将每一时刻每一障碍物计算一个碰撞值,其中,若碰撞值为1则代表可以碰撞,若碰撞值为0则代表不可碰撞,需要进行避障处理,并根据不同的障碍物类型,分为完全可碰撞障碍、不完全可碰撞障碍、不可碰撞障碍和未识别障碍四大类。
在障碍物被识别为完全可碰撞障碍物时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过车身高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为不可碰撞即0,其余部分作为可碰撞障碍物,将其碰撞值置为可碰撞即1;若障碍物最大高度都没有超过车身高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不完全可碰撞障碍时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过了车轮无法跨越的高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为0,其余部分作为可碰撞障碍物,将其碰撞值置为1,若障碍物最大高度都没有超过车轮无法跨越的高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不可碰撞障碍时,则无需计算直接将碰撞值置为0;
在障碍物被识别为未识别障碍物,则无需计算直接将碰撞值置为0。
本发明实施例是与上述装置实施例对应的方法实施例,各个步骤的具体操作可以参照装置实施例的描述进行理解,在此不再赘述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪30年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。

Claims (8)

1.一种机器人碰撞障碍区分装置,其特征在于,设置于轮式机器人平台,包括:
图像场景采集单元,安装在移动搭载平台的车体尾部的位置,用于在数据处理控制单元的控制下,基于惯性导航单元提供的信息采集障碍物的图像数据并发送到数据处理控制单元;
距离测量单元,安装在移动搭载平台的车体前方的位置,用于基于惯性导航单元提供的信息,通过发射的激光束探测障碍物的位置和体积信息,生成点云数据,将所述点云数据发送到所述数据处理控制单元;
数据处理控制单元,安装在移动搭载平台的车体中间的位置,用于对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息,根据所述障碍物的具体种类和性质信息判断障碍物为可碰撞障碍或不可碰撞障碍物,在判断为可碰撞障碍物时无需做出避障处理,否则应及时进行避障处理;
所述数据处理控制单元具体用于:
在障碍物被识别为完全可碰撞障碍物时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过车身高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为不可碰撞即0,其余部分作为可碰撞障碍物,将其碰撞值置为可碰撞即1;若障碍物最大高度都没有超过车身高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不完全可碰撞障碍时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过了车轮无法跨越的高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为0,其余部分作为可碰撞障碍物,将其碰撞值置为1,若障碍物最大高度都没有超过车轮无法跨越的高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不可碰撞障碍时,则无需计算直接将碰撞值置为0;
在障碍物被识别为未识别障碍物,则无需计算直接将碰撞值置为0;
惯性导航单元,安装在移动搭载平台的车体中间的位置,用于为所述图像场景采集单元和所述距离测量单元提供速度、偏转角和位置信息;
移动搭载平台,设置于所述轮式机器人平台上,用于搭载所述机器人碰撞障碍区分装置的其他单元。
2.根据权利要求1所述的装置,其特征在于,所述数据处理控制单元具体用于:
根据从所述距离测量单元获取的所述点云数据建立无人车周围的环境地图,并标记出障碍物的坐标位置,在建立起周围环境地图的基础上,调用图像场景采集单元采集周围真实的场景信息,为含有障碍物的关键图片打上包含坐标信息以及图像场景采集单元中摄像头对应的角度信息的标签,并随着前进,实时更新环境地图和图片相关的坐标信息和角度信息;对每一个识别到的障碍物赋予其相应的属性,利用所述距离测量单元得到障碍物距离轮式机器人平台的位置、方向、以及高度信息,利用图像场景采集单元采集到的障碍物实时的真实状态,将每一张图片对应一个无人车实时的位姿信息,并将这些数据全部存储到数据库中。
3.根据权利要求1所述的装置,其特征在于,所述数据处理控制单元具体用于:
对于每一个时刻,根据所述距离测量单元获取到的障碍物的距离和偏转角度,调取这一时刻图像场景采集单元捕获到的同一角度的实时状态,利用目标识别技术识别出该障碍物的具体种类,将每一时刻每一障碍物计算一个碰撞值,其中,若碰撞值为1则代表可以碰撞,若碰撞值为0则代表不可碰撞,需要进行避障处理,并根据不同的障碍物类型,分为完全可碰撞障碍、不完全可碰撞障碍、不可碰撞障碍和未识别障碍四大类。
4.根据权利要求1所述的装置,其特征在于,
所述距离测量单元为:激光雷达;
所述惯性导航单元为一下至少之一:里程计、陀螺仪、加速度计;
所述数据处理控制单元为:工控机;
图像场景采集单元为:摄像机。
5.一种机器人碰撞障碍区分方法,其特征在于,用于上述权利要求1至4中任一项所述的机器人碰撞障碍区分装置,所述方法包括:
在数据处理控制单元的控制下,通过图像场景采集单元基于惯性导航单元提供的信息采集障碍物的图像数据并发送到数据处理控制单元;
基于惯性导航单元提供的信息,通过距离测量单元发射的激光束探测障碍物的位置和体积信息,生成点云数据,将所述点云数据发送到所述数据处理控制单元;
通过数据处理控制单元对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息,根据所述障碍物的具体种类和性质信息判断障碍物为可碰撞障碍或不可碰撞障碍物,在判断为可碰撞障碍物时无需做出避障处理,否则应及时进行避障处理,具体包括:
在障碍物被识别为完全可碰撞障碍物时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过车身高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为不可碰撞即0,其余部分作为可碰撞障碍物,将其碰撞值置为可碰撞即1;若障碍物最大高度都没有超过车身高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不完全可碰撞障碍时,利用从所述距离测量单元获取到障碍物的长、宽、以及高度,对于其高度超过了车轮无法跨越的高度的部分作为不可碰撞障碍物,将这一部分作为新的障碍物,碰撞值置为0,其余部分作为可碰撞障碍物,将其碰撞值置为1,若障碍物最大高度都没有超过车轮无法跨越的高度,则将此障碍物视为可碰撞障碍物,碰撞值置为1;
在障碍物被识别为不可碰撞障碍时,则无需计算直接将碰撞值置为0;
在障碍物被识别为未识别障碍物,则无需计算直接将碰撞值置为0。
6.根据权利要求5所述的方法,其特征在于,通过数据处理控制单元对所述点云数据进行处理,建立轮式机器人平台周围环境地图,在地图上实时显示当前位置,更新地图以及图上的障碍物信息,并记录障碍物的关键信息具体包括:
根据从所述距离测量单元获取的所述点云数据建立无人车周围的环境地图,并标记出障碍物的坐标位置,在建立起周围环境地图的基础上,调用图像场景采集单元采集周围真实的场景信息,为含有障碍物的关键图片打上包含坐标信息以及图像场景采集单元中摄像头对应的角度信息的标签,并随着前进,实时更新环境地图和图片相关的坐标信息和角度信息;对每一个识别到的障碍物赋予其相应的属性,利用所述距离测量单元得到障碍物距离轮式机器人平台的位置、方向、以及高度信息,利用图像场景采集单元采集到的障碍物实时的真实状态,将每一张图片对应一个无人车实时的位姿信息,并将这些数据全部存储到数据库中。
7.根据权利要求5所述的方法,其特征在于,对于检测到的障碍物,调用摄像头采集该障碍物的图像数据,将所述距离测量单元获取的障碍物的距离和体积信息与摄像头采集到的图像数据相融合,得到障碍物的具体种类和性质信息具体包括:
对于每一个时刻,根据所述距离测量单元获取到的障碍物的距离和偏转角度,调取这一时刻图像场景采集单元捕获到的同一角度的实时状态,利用目标识别技术识别出该障碍物的具体种类,将每一时刻每一障碍物计算一个碰撞值,其中,若碰撞值为1则代表可以碰撞,若碰撞值为0则代表不可碰撞,需要进行避障处理,并根据不同的障碍物类型,分为完全可碰撞障碍、不完全可碰撞障碍、不可碰撞障碍和未识别障碍四大类。
8.根据权利要求5所述的方法,其特征在于,
所述距离测量单元为:激光雷达;
所述惯性导航单元为一下至少之一:里程计、陀螺仪、加速度计;
所述数据处理控制单元为:工控机;
图像场景采集单元为:摄像机。
CN202111369635.5A 2021-11-16 2021-11-16 机器人碰撞障碍区分装置及方法 Active CN114077252B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111369635.5A CN114077252B (zh) 2021-11-16 2021-11-16 机器人碰撞障碍区分装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111369635.5A CN114077252B (zh) 2021-11-16 2021-11-16 机器人碰撞障碍区分装置及方法

Publications (2)

Publication Number Publication Date
CN114077252A CN114077252A (zh) 2022-02-22
CN114077252B true CN114077252B (zh) 2023-09-12

Family

ID=80283925

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111369635.5A Active CN114077252B (zh) 2021-11-16 2021-11-16 机器人碰撞障碍区分装置及方法

Country Status (1)

Country Link
CN (1) CN114077252B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115792911B (zh) * 2022-12-15 2024-03-08 淮阴师范学院 一种基于毫米波雷达的障碍物监测识别方法
CN115880673B (zh) * 2023-02-22 2023-05-26 西南石油大学 一种基于计算机视觉的避障方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574376A (zh) * 2014-12-24 2015-04-29 重庆大学 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法
CN106737653A (zh) * 2015-11-20 2017-05-31 哈尔滨工大天才智能科技有限公司 一种机器人视觉中障碍物刚柔性的判别方法
JP2019021202A (ja) * 2017-07-20 2019-02-07 株式会社Ihi 移動ロボットの制御装置と制御方法
CN109829367A (zh) * 2018-12-24 2019-05-31 杨昌兵 一种无人驾驶障碍识别管理系统及方法
CN110362077A (zh) * 2019-07-03 2019-10-22 上海交通大学 无人驾驶车辆紧急避险决策系统、方法及介质
CN111700544A (zh) * 2020-05-07 2020-09-25 苏州品坤智能科技有限公司 一种智能清洁机器人的防碰撞控制系统及其控制方法
CN112415998A (zh) * 2020-10-26 2021-02-26 珠海市一微半导体有限公司 一种基于tof摄像头的障碍物分类避障控制系统
CN113467450A (zh) * 2021-07-01 2021-10-01 北京小狗吸尘器集团股份有限公司 无人机器控制方法、装置、计算机设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100523367B1 (ko) * 2000-10-26 2005-10-20 마츠시다 덴코 가부시키가이샤 장해물 회피기능을 가지는 자율이동장치
CN110850859B (zh) * 2018-08-01 2023-03-07 深圳市优必选科技有限公司 一种机器人及其避障方法和避障系统
CN109634286B (zh) * 2019-01-21 2021-06-25 傲基科技股份有限公司 割草机器人视觉避障方法、割草机器人和可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574376A (zh) * 2014-12-24 2015-04-29 重庆大学 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法
CN106737653A (zh) * 2015-11-20 2017-05-31 哈尔滨工大天才智能科技有限公司 一种机器人视觉中障碍物刚柔性的判别方法
JP2019021202A (ja) * 2017-07-20 2019-02-07 株式会社Ihi 移動ロボットの制御装置と制御方法
CN109829367A (zh) * 2018-12-24 2019-05-31 杨昌兵 一种无人驾驶障碍识别管理系统及方法
CN110362077A (zh) * 2019-07-03 2019-10-22 上海交通大学 无人驾驶车辆紧急避险决策系统、方法及介质
CN111700544A (zh) * 2020-05-07 2020-09-25 苏州品坤智能科技有限公司 一种智能清洁机器人的防碰撞控制系统及其控制方法
CN112415998A (zh) * 2020-10-26 2021-02-26 珠海市一微半导体有限公司 一种基于tof摄像头的障碍物分类避障控制系统
CN113467450A (zh) * 2021-07-01 2021-10-01 北京小狗吸尘器集团股份有限公司 无人机器控制方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于双多线激光雷达的非结构化环境负障碍感知技术;蔡云飞等;自动化学报;第44卷(第3期);569-576 *

Also Published As

Publication number Publication date
CN114077252A (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN111619560B (zh) 车辆控制方法及装置
CN113554698B (zh) 车辆位姿信息生成方法、装置及电子设备、存储介质
Garcia et al. Sensor fusion methodology for vehicle detection
CN114077252B (zh) 机器人碰撞障碍区分装置及方法
US20200211395A1 (en) Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle
CN113561963B (zh) 一种泊车方法、装置及车辆
KR102266996B1 (ko) 이미지센서와 함께 회전 감지용 센서 또는 위치 센서를 장착한 모바일 시스템에서의 객체인식영역 제한 방법 및 장치
CN111873989B (zh) 车辆控制方法及装置
CN113256716B (zh) 一种机器人的控制方法及机器人
CN111288971B (zh) 一种视觉定位方法及装置
US11443151B2 (en) Driving assistant system, electronic device, and operation method thereof
CN112799411A (zh) 一种无人驾驶设备的控制方法及装置
EP4272185A1 (en) Image semantic segmentation for parking space detection
CN112818968A (zh) 一种目标物分类方法及装置
US11113566B2 (en) Image processing system, method, and apparatus specifying an object included in a captured image outside a vehicle
CN113642616B (zh) 一种基于环境数据的训练样本的生成方法及装置
US20210302991A1 (en) Method and system for generating an enhanced field of view for an autonomous ground vehicle
CN114495065A (zh) 一种目标物识别的方法及装置
CN114047763B (zh) 无人车区分碰撞障碍物的系统、方法、装置及电子设备
CN117382593B (zh) 一种基于激光点云过滤的车辆紧急制动方法和系统
CN113302108A (zh) 用于运行车辆的方法、装置、计算机程序和计算机程序产品
JP2020067818A (ja) 画像選択装置及び画像選択方法
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles
US20240127694A1 (en) Method for collision warning, electronic device, and storage medium
CN114877903A (zh) 一种融合交通实景信息的车道级路径规划方法、系统、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant