CN108628318B - 拥堵环境检测方法、装置、机器人及存储介质 - Google Patents

拥堵环境检测方法、装置、机器人及存储介质 Download PDF

Info

Publication number
CN108628318B
CN108628318B CN201810689025.5A CN201810689025A CN108628318B CN 108628318 B CN108628318 B CN 108628318B CN 201810689025 A CN201810689025 A CN 201810689025A CN 108628318 B CN108628318 B CN 108628318B
Authority
CN
China
Prior art keywords
area
congestion
actual
sensor
current observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810689025.5A
Other languages
English (en)
Other versions
CN108628318A (zh
Inventor
梁嘉俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Original Assignee
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shiyuan Electronics Thecnology Co Ltd filed Critical Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority to CN201810689025.5A priority Critical patent/CN108628318B/zh
Publication of CN108628318A publication Critical patent/CN108628318A/zh
Application granted granted Critical
Publication of CN108628318B publication Critical patent/CN108628318B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Abstract

本发明公开了一种拥堵环境检测方法、装置、机器人及存储介质,涉及机器人技术领域。其包括:通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;利用内置传感器在实际空间中采集的实际空间位置数据确定当前观测区域内的实际可识别面积;根据实际可识别面积和理论可识别面积确定当前观测区域的拥堵环境检测结果。采用上述方案可以解决现有的拥堵环境检测方法需要大量计算量的技术问题,实现快速准确的确定拥堵环境检测结果。

Description

拥堵环境检测方法、装置、机器人及存储介质
技术领域
本发明涉及机器人技术领域,尤其涉及一种拥堵环境检测方法、装置、机器人及存储介质。
背景技术
机器人是指可以自动执行工作的机器装置。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。移动机器人是指通过定位技术,在不需要全球定位系统(Global Positioning System,GPS)的情况下能够自主导航定位并移动的机器人。其中,移动机器人按照结构划分时,可以包括:轮式机器人、多足机器人以及室内或者特征场地运行的自动驾驶汽车等。移动机器人按照用途划分时,可以包括扫地机器人、迎宾机器人、送餐机器人、自动导引运输车(Automated Guided Vehicle,AGV)以及具备自主导航功能的教育机器人等。
一般而言,机器人在实际空间内自主导航定位时,如果实际空间中存在未知障碍物,会使机器人已建立的观测模型失效,进而导致系统出错。为了保证实际空间存在未知障碍物时机器人准确导航及定位,需要确定实际空间的拥堵环境。在实现本发明的过程中,发明人发现现有技术存在如下缺陷:现有的拥堵环境检测方法需要依赖大量的计算,对机器人的系统要求很高。
发明内容
有鉴于此,本发明实施例提供一种拥堵环境检测方法、装置、机器人及存储介质,以解决现有的拥堵环境检测方法需要大量计算量的技术问题。
第一方面,本发明实施例提供了一种拥堵环境检测方法,包括:
通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;
利用内置传感器在实际空间中采集的实际空间位置数据确定所述当前观测区域内的实际可识别面积;
根据所述实际可识别面积和所述理论可识别面积确定所述当前观测区域的拥堵环境检测结果。
第二方面,本发明实施例还提供了一种拥堵环境检测装置,包括:
第一面积确定模块,用于通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;
第二面积确定模块,用于利用内置传感器在实际空间中采集的实际空间位置数据确定所述当前观测区域内的实际可识别面积;
检测结果确定模块,用于根据所述实际可识别面积和所述理论可识别面积确定所述当前观测区域的拥堵环境检测结果。
第三方面,本发明实施例还提供了一种机器人,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
内置传感器,用于采集实际空间位置数据;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例所述的拥堵环境检测方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例所述的拥堵环境检测方法。
上述提供的拥堵环境检测方法、装置、机器人及存储介质,通过已知障碍物环境地图确定当前观测区域的理论可识别面积,理论可识别面积表示内置传感器在已知障碍物环境地图中的理论可识别区域的大小,并通过内置传感器采集的实际空间位置数据确定当前观测区域的实际可识别面积,实际可识别面积表示内置传感器在实际空间中的实际可识别区域的大小,根据理论可识别面积和实际可识别面积确定当前观测区域是否存在未知障碍物,进而确定拥堵环境检测结果的技术方案,可以实现快速、准确的确定拥堵环境检测结果,计算一次实际可识别面积和理论可识别面积即可得到拥堵环境检测结果,无需大量计算量,对机器人系统要求低,且可以避免由于未知障碍物使得机器人系统出错、无法准确移动的情况。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为现有技术中机器人所在实际空间对应的已知障碍物地图;
图2为图1中区域1内的粒子分布情况;
图3为本发明实施例一提供的一种拥堵环境检测方法的流程图;
图4为激光传感器在理想空间内的扫描面积示意图;
图5为本发明实施例一提供的一种栅格地图示意图;
图6为本发明实施例一提供的一种已知障碍物环境地图示意图;
图7为本发明实施例一提供的连线示意图;
图8为本发明实施例二提供的一种拥堵环境检测方法的流程图;
图9为本发明实施例二提供的一种实际空间的二维平面示意图;
图10为图9中二维平面示意图的激光扫描数据;
图11为图10中激光扫描数据在笛卡尔坐标系下的线形图;
图12为本发明实施例三提供的一种拥堵环境检测装置的结构示意图;
图13为本发明实施例四提供的一种机器人的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
一般而言,拥堵环境检测方法通常采用下述两种方式:
方式一、粒子滤波定位算法。其具体为:图1为现有技术中机器人所在实际空间对应的已知障碍物地图。截取其中一个区域1,图2为区域1内的粒子分布情况。根据图2可以看出区域1内分布了大量且密集的粒子11。进一步的,获取机器人内置传感器在实际空间中采集到的激光数据,并计算障碍物分布地图中根据粒子样本集合确定的粒子位置数据,确认激光数据与粒子位置数据的匹配程度,其中,匹配程度越高,说明粒子所在的实际空间与障碍物分布地图的重合度越高。根据匹配程度可以确定粒子样本集合的权重值,其中,权重值越低,说明实际空间的未知障碍物越多,环境越拥堵。这类方法需要计算粒子样本集合的权重,如果实际空间面积增大,对应需要的粒子样本集合的数量也增大,这样会消耗大量的计算资源。
方式二、通过费雪(Fisher)信息矩阵检测拥堵环境情况。其具体为:构造动态Fisher信息矩阵,根据机器人内置传感器扫描到实际空间内已知概率栅格和未知概率栅格的事件确定当前实际空间的拥堵环境情况。其中,已知栅格是指对应位置与机器人之间的实际距离信息和理论距离信息相同,其中,实际距离信息是指根据内置传感器扫描得到的该位置与机器人的距离信息,理论距离信息是指根据障碍物分布地图确定的该位置与机器人的距离信息。换言之,已知栅格是指该位置处的障碍物是已知的。未知栅格是指对应位置与机器人之间的实际距离信息和理论距离信息不同,即该位置处的障碍物是未知的。根据已知栅格、未知栅格以及动态Fisher信息矩阵便可以确定拥堵环境检测结果。举例而言,构建3×3的动态Fisher信息矩阵,并根据如下公式计算机器人移动后通过内置传感器采集的一帧信息,并得到未知障碍物的距离信息:
Figure BDA0001712446170000051
其中,机器人内置传感器采集到的一帧信息中包括n个方向上的障碍物实际距离信息,i表示为第i个方向,1≤i≤n。机器人移动后位姿数据变化量为(Δx,Δy,Δθ),第i个方向上实际距离信息和第i个方向上理论距离信息差值为ΔriE,如果实际距离信息与理论距离信息相同,则ΔriE为0。σi为第i个方向上ΔriE的方差,si为第i个方向实际距离信息与理论距离信息相匹配的概率。根据公式(1)便可以确定内置传感器采集一帧数据时得到的未知障碍物的距离信息。根据上述描述可知,当采用Fisher信息矩阵检测拥堵环境情况时,需要计算一帧数据中n个方向的距离信息,此时,求解运算量是n次矩阵运算的求和,即需要连续进行矩阵运算,并不利于系统的稳定性。
综上可知,现有技术在确定拥堵环境时,一般需要大量的计算量,对机器人系统要求很高。有鉴于此,本发明实施例提供一种无需大量计算量、简单、快速进行拥堵环境检测的技术方案。具体如下:
实施例一
图3为本发明实施例一提供的一种拥堵环境检测方法的流程图。本实施例提供的拥堵环境检测方法可以由拥堵环境检测装置执行,该拥堵环境检测装置可以通过软件和/或硬件的方式实现,并集成在机器人中,其中,机器人包括但不限定于移动机器人。
一般而言,机器人内部设置有至少一个内置传感器,该内置传感器可以采集机器人当前所在的环境数据,环境数据可以体现当前环境中障碍物与机器人的相对位置。其中,每个内置传感器均有对应的采集角度范围和采集距离,也可以理解为每个传感器均有一定的扫描面积。内置传感器可以是视觉传感器、超声传感器以及激光传感器中的至少一种,本实施例以激光传感器为例进行示例性描述。在实际应用中,激光传感器在每个单位角度上均发射一束激光簇,当激光簇遇到障碍物后发射回激光雷达中心,激光雷达中心根据激光簇发射时间以及接收时间便可以确定障碍物与激光雷达中心的相对距离。同时,根据采集方向确定障碍物与激光雷达中心的相对角度。其中,单位角度的具体值可以根据实际情况设定,如单位角度为1°,那么每隔1°发射一束激光簇。如果单位角度为0.5°,那么每隔0.5°发射一束激光簇。在不存在障碍物时,激光传感器的激光覆盖区域便可以确定为激光传感器的当前观测区域,其可以体现激光传感器的最大采集距离和采集角度范围。图4为激光传感器在理想空间内的扫描面积示意图,即激光传感器的当前观测区域。根据图4可知,在不存在障碍物时,激光传感器中的激光雷达中心12可以扫描到270°范围内最大采集距离为A米的区域。
进一步的,拥堵环境是指:机器人所处的室内环境中存在大量的未知障碍物时,使得环境可运动空间范围变小。未知障碍物为已知障碍物环境地图中没有示出的障碍物。
具体的,参考图3,本实施例提供的拥堵环境检测方法具体包括:
S110、通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积。
其中,已知障碍物环境地图表示当前环境中已知障碍物的分布情况。以当前环境为室内环境为例,根据已知障碍物地图可以获取到墙壁及其他实际物体的大小和位置,进而可以确定机器人的移动区域。当机器人执行本实施例提供的方法时,默认已经存储有已知障碍物环境地图,已知障碍物环境地图的具体获取途径本实施例不作限定。进一步的,已知障碍物环境地图优选为栅格地图。栅格地图是指在空间和亮度上都已经离散化了的图像,在机器人学中,栅格地图是把环境划分成一系列栅格,其中每一栅格给定一个可能值,表示该栅格被占据的概率。一般而言,栅格地图也称为概率栅格地图。在栅格地图中,通过颜色深度表明对应的可能值,栅格的可能值越大对应的颜色深度越大。在本实施例中,栅格被占据的含义为该栅格对应的实际空间中存在障碍物,每个栅格仅有两种情况:一、存在障碍物;二、不存在障碍物。对应的栅格地图中仅存在两种类型,一是表示存在障碍物的类型,二是表示不存在障碍物的类型。例如,图5为本发明实施例一提供的一种栅格地图示意图,参考图5,黑色区域13表示存在障碍物,剩余区域表示不存在障碍物,根据栅格地图便可以明确机器人所处室内环境的已知障碍物分布情况。
可选的,为了便于数据计算,本实施例中将已知障碍物环境地图设定为二维坐标地图,其中,每个栅格作为一个位置点均存在对应的二维坐标。二维坐标系的原点位置可以根据实际情况设定,优选将已知障碍物环境地图中的全部位置点均设于第一象限中。具体的,参考图5所示的栅格地图,设定二维坐标系原点I的位置后,栅格地图中的全部位置点均位于第一象限中,且每个位置点均有对应的二维坐标(xi,yi),其中,1≤i≤N,N为栅格地图的坐标点的总数量。图5中仅示出了部分存在障碍物的二维坐标。
进一步的,理论可识别面积为理论可识别区域的面积。理论可识别区域为基于已知障碍物环境地图确定的当前观测区域中机器人内置传感器可以识别到的区域。一般而言,该区域内不存在障碍物。例如,在已知障碍物环境地图中模拟激光传感器发射激光,此时,激光可以覆盖的区域便为激光传感器可以识别的区域。
可选的,确定理论可识别面积的方法可以是:在已知障碍物环境地图中,模拟机器人内置传感器工作,并确认内置传感器在各信号采集方向上的信号临界位置点,根据信号临界位置点计算当前观测区域内的理论可识别面积。其中,信号临界位置点为已知障碍物环境地图中内置传感器在当前信号采集方向发射的信号理论可以达到的最远位置,如果该采集方向上存在障碍物,那么信号临界位置点为距离机器人最近的障碍物位置点,如果该采集方向上不存在障碍物,那么信号临界位置点为内置传感器的最大采集距离对应的位置点。根据信号临界位置点便可以确定出理论可识别区域,进而可以计算得到理论可识别面积。
还可选的,计算理论可识别面积的方法还可以是:确定当前观测区域在已知障碍物环境地图中的边界点,将边界点与机器人当前所在位置点进行连线,用该连线模拟内置传感器某个采集方向发射的信号,如果连线上存在障碍物位置点,则将该障碍物位置点确定为信号临界位置点。如果连线上不存在障碍物位置点,则将该位置点确定为信号临界位置点。将确定的信号临界位置点进行连线,可以得到一个区域,该区域便可以作为理论可识别区域,并可以计算理论可识别区域的面积。例如,图6为本发明实施例一提供的一种已知障碍物环境地图。其中,一个方格代表一个栅格,即一个位置点。机器人16所在位置如图6所示,根据机器人16的激光传感器的扫描面积可以确定当前观测区域14。当前观测区域14中颜色较深的栅格15作为障碍物位置点,其余栅格作为非障碍物位置点。当前观测区域14的各边界点的大小与已知障碍物环境地图中栅格大小相同。分别取当前观测区域14上边界点141、边界点142和边界点143,将边界点141、边界点142和边界点143分别与机器人16所在位置点进行连线。图7为本发明实施例一提供的连线示意图。参考图7,边界点141与机器人16所在位置点的连线没有经过障碍物位置点,此时,将边界点141作为信号临界位置点。边界点142与机器人16所在位置点的连线仅经过一个障碍物位置点151,此时,将障碍物位置点151作为信号临界位置点。边界点143与机器人16所在位置点的连线经过障碍物位置点152和障碍物位置点153,此时,将距离机器人16最近的障碍物位置点152作为该信号临界位置点。采用上述方法便可以确定出全部信号临界位置点。
具体的,根据理论可识别区域计算理论可识别面积的具体计算方式本实施例不作限定。例如,获取信号临界位置点的临界二维坐标,并将临界二维坐标转换成临界极坐标,其中,极坐标系的极点为机器人所在位置点,此时,可以将理论可识别区域分割成多个很小的扇形区域,并根据临界极坐标确定各扇形区域的面积,进而得到理论可识别面积。又如,获取各区域临界点的临界二维坐标,并将理论可识别区域分割成多个子区域,根据临界二维坐标计算每个子区域的面积,进而得到理论可识别面积,为了便于计算,每个子区域优选为:矩形、正方形或者正多边形。
S120、利用内置传感器在实际空间中采集的实际空间位置数据确定当前观测区域内的实际可识别面积。
考虑到机器人在移动过程中,实际空间内可能出现了新的障碍物,即未知障碍物,此时,机器人可移动空间与已知障碍物环境地图中的可移动空间并不同。为了使机器人安全的移动,需要确定实际空间是否因为未知障碍物而变得拥挤。因此,需要确定当前观测区域中内置传感器的实际可识别面积。
一般而言,实际可识别面积为实际可识别区域的面积。实际可识别区域为实际空间中机器人内置传感器可以识别到的区域。一般而言,该区域内不存在障碍物。例如,机器人在实际空间中通过激光传感器向当前观测区域发射激光,该激光实际可以覆盖的区域便为激光传感器实际上可以识别的区域。
示例性的,实际空间位置数据为内置传感器发射的激光簇实际到达的边界点位置数据,其包括相对距离和相对角度。具体的,内置传感器在某个采集方向上发射一束激光簇,如果在该采集方向上接收到了激光簇,则确定该激光簇实际上到达障碍物后被反射回来。此时,根据采集方向确定障碍物与机器人的相对角度,同时根据激光簇的发射时间和接收时间确定障碍物与机器人的相对距离。如果在该采集方向上未接收到激光簇,则确认该采集方向上不存在障碍物,此时,激光簇实际到达的边界点与机器人的相对距离为内置传感器的最大采集距离。例如,内置传感器确定某个采集方向与机器人的相对角度为θ1,且该方向上激光簇到达的位置与机器人的相对距离为a,则确定实际空间位置数据为(a,θ1)。如果该方向上存在两个障碍物,且相对距离分别为a和b,a<b,那么通过内置传感器仅能识别到距离为a的障碍物,即实际空间位置数据为(a,θ1)。又如,内置传感器的最大采集距离为b,且在相对角度为θ2的方向上发射激光簇后并未接收到激光簇,此时,可以确定实际空间位置数据为(b,θ2)。
进一步的,根据实际空间位置数据将内置传感器实际可识别区域分成多个很小的扇形区域,并分别求出每个扇形区域的面积,将计算得到的面积和值作为实际可识别面积。一般而言,实际空间位置数据可以认为是以机器人所在位置为极点的极坐标,根据极坐标便可以计算出每个扇形区域的面积。
S130、根据实际可识别面积和理论可识别面积确定当前观测区域的拥堵环境检测结果。
具体的,根据实际可识别面积和理论可识别面积可以确定当前观测区域中未知障碍物存在的可能性,进而得到拥堵环境检测结果。其中,如果实际可识别面积与理论可识别面积近似相等,则确定当前观测区域中机器人实际可直线移动的区域与理论可直线移动的区域相等,进而确定当前观测区域的拥堵环境检测结果为不存在未知障碍物,机器人可以根据已知障碍物环境地图进行移动。如果实际可识别面积小于理论可识别面积,则可以确定当前观测区域中机器人实际可直线移动区域小于理论可直线移动区域,进而确定当前观测区域的拥堵环境检测结果为存在未知障碍物。此时,机器人可以选择一个更为安全的导航速度。可选的,根据内置传感器采集的实际空间位置数据可以确定障碍物的相对位置,进而在移动过程中,机器人可以根据相对位置确定移动路径和移动速度。
在实际应用中,还存在一类情况:已知障碍物环境地图中障碍物是可移动的。在机器人移动过程中,已知障碍物环境地图中的障碍物移动出当前观测区域,这样会导致实际可识别面积大于理论可识别面积。此时,机器人默认当前观测区域的障碍物变少,可直线移动区域变大,进而可以采用一个更高的导航速度进行移动。
本实施例提供的技术方案,通过已知障碍物环境地图确定当前观测区域的理论可识别面积,理论可识别面积表示内置传感器在已知障碍物环境地图中的理论可识别区域大小,并通过内置传感器采集的实际空间位置数据确定当前观测区域的实际可识别面积,实际可识别面积表示内置传感器在实际空间中的实际可识别区域大小,根据理论可识别面积和实际可识别面积确定当前观测区域是否存在未知障碍物,进而确定拥堵环境检测结果的技术方案,可以实现快速、准确的确定拥堵环境检测结果,计算一次实际可识别面积和理论可识别面积即可得到拥堵环境检测结果,无需大量计算量,对机器人系统要求低,且可以避免由于未知障碍物使得机器人系统出错、无法准确移动的情况。
实施例二
图8为本发明实施例二提供的一种拥堵环境检测方法的流程图。本实施例是在上述实施例的基础上进行具体化。具体的,参考图8,本实施例提供的拥堵环境检测方法具体包括:
S201、利用即时定位与地图构建算法构建已知障碍物环境地图。
在本实施例中,已知障碍物环境地图为栅格地图。其中,即时定位与地图构建(simultaneous localization and mapping,SLAM)算法可以使机器人在未知环境中进行导航时构架环境地图并确定自身在地图中的位置,利用SLAM算法构建已知障碍物环境地图的具体方式本实施例不作限定。如根据里程计和内置传感器确定的数据以及预先输入的障碍物位置数据或者机器人可选的位姿数据绘制已知障碍物环境地图。其中,位姿数据为机器人在已知障碍物环境地图中的位置和姿态数据。
可选的,默认已知障碍物环境地图在一次拥堵环境检测过程中不变。当结束一次拥堵环境检测后,可以根据拥堵环境检测结果更新已知障碍物环境地图。
S202、在已知障碍物环境地图中,基于机器人所在位置点模拟启动内置传感器。
具体的,机器人在已知障碍物环境地图中模拟启动内置传感器。由于机器人明确自身在已知障碍物环境地图中的位置点以及内置传感器的采集角度范围和最大采集距离,所以机器人模拟启动内置传感器后,可以基于已知障碍物环境地图确定当前观测区域,同时在当前观测区域内模拟发射激光簇。
S203、确定内置传感器在当前观测区域内各信号采集方向上的信号临界位置点。
示例性的,在已知障碍物环境地图中,模拟内置传感器在当前观测区域内发射激光簇后,可以模拟出各激光簇的传播路径,进而根据传播路径可以确定激光簇的信号临界位置点。具体的,由于激光簇是无法穿过障碍物的,如果已知障碍物环境地图中某个采集方向上存在障碍物,则说明该激光簇的传播路径为到达障碍物所在的位置点后反射回机器人所在位置处,此时,信号临界位置点为障碍物所在位置点。如果当前观测区域内某个采集角度上不存在障碍物,则说明该激光簇的传播路径为到达最大采集距离所在的位置点,此时,信号临界位置点为最大采集距离所在的位置点。
S204、根据信号临界位置点计算当前观测区域内的理论可识别面积。
示例性的,确定全部信号临界位置点后,全部信号临界位置点围城的区域便是在已知障碍物环境地图中模拟内置传感器发射激光时各激光簇应该经过的区域,即内置传感器在当前观测区域中的理论可识别区域。
具体的,该步骤具体包括:
S2041、确定信号临界位置点的临界二维坐标。
具体的,预先在已知障碍物环境地图中建立二维坐标系,且已知障碍物环境地图全部位于第一象限内,此时,每个理论可识别区域均有对应的临界二维坐标。为了便于后续描述,按照采集方向为临界二维坐标标号,以使相邻采集方向的标号数值连续,其中,标号过程也可以理解为对临界二维坐标建立索引的过程。例如,采集角度范围为270°,角度单位为1°,共有270个临界二维坐标,则设定最左端的激光簇对应的临界二维坐标标号为1,最右端的激光簇对应的临界二维坐标标号为270,且各临界二维坐标的标号由左向右依次递增。
S2042、将临界二维坐标投影到极坐标系中,以得到临界极坐标。
其中,极坐标系的极点为机器人在已知障碍物环境地图中的位置点。
具体的,理论可识别面积通常为不规则多边形,为了准确的计算不规则多边形的面积,本实施例中以机器人所在位置点作为极点建立极坐标系,并将临界二维坐标投影到极坐标系中,得到对应的临界极坐标。其中,投影公式可以为:
Figure BDA0001712446170000141
其中,机器人所在位置点的二维坐标为(x,y)。当前共有m个临界二维坐标,其中,(xn,yn)表示标号为n的临界二维坐标,1≤n≤m,(xn,yn)对应的临界极坐标为(rn,θn)。进一步的,根据公式(2)便可以得到全部临界二维坐标对应的临界极坐标。
S2043、根据临界极坐标计算当前观测区域内的理论可识别面积。
具体的,根据临界极坐标和机器人所在位置点可以将理论可识别区域分成多个扇形,并可以计算出每个扇形的面积。将计算得到的全部面积相加,便可以得到理论可识别面积。其中,理论可识别面积的计算公式参考如下:
Figure BDA0001712446170000151
其中,共有m个临界极坐标,(r,θi)为标号为i的临界极坐标,θi-1表示标号为i-1的临界极坐标中的角度数据,1≤i≤m,其对应的扇形角度为θii-1,扇形半径为ri,扇形面积为
Figure BDA0001712446170000152
根据公式(3)可以确定理论可识别面积。
S205、记录内置传感器在实际空间中采集一帧信号得到的实际空间位置数据。
其中,实际空间位置数据包括距离参数和角度参数。
示例性的,内置传感器在实际空间中向当前观测区域发射激光簇时,每个采集方向均发射一束激光簇。根据激光簇的反射情况可以确定障碍物与机器人的相对位置。其中,内置传感器某一时刻发射激光簇后,确认激光簇接收的情况,并根据接收情况得到一帧信号。具体的,如果某个采集方向对应的传播路径上存在障碍物,激光簇遇到障碍物后会原路反射回内置传感器,此时,内置传感器根据激光发射时间、激光接收时间以及激光速度便可以确定障碍物与机器人的距离参数,并根据采集方向和机器人的位置方向确定角度参数。如果某个采集方向上未接收到反射激光簇,则说明该采集方向对应的传播路径上不存在障碍物,此时,将最大采集距离作为距离参数,并根据采集方向和机器人的位置方向确定角度参数。根据上述方式可以得到每个采集方向对应的实际空间位置数据。
进一步的,根据临界二维坐标的标号规则为每个采集方向得到的实际空间位置数据进行标号,以使同一采集方向上的实际空间位置数据与临界二维坐标的标号相同。这样可以避免由于角度误差引起的同一采集方向上实际空间位置数据与临界二维坐标不相关的问题。
S206、基于内置传感器的最大采集距离修正距离参数。
考虑到某个采集方向发射的激光簇遇到障碍物后发生了镜面反射,内置传感器在其他采集方向上接收到了该激光簇,使得内置传感器得到的距离参数大于最大采集距离,这样会导致最终得到的实际可识别面积对应的区域范围超出当前观测区域,使得拥堵环境的检测结果不准确。为了防止上述情况发生,本实施例中对距离参数进行修正,当距离参数大于最大采集距离时,将距离参数修正为最大采集距离。一般而言,镜面反射后,内置传感器得到的距离参数均会大于最大采集距离。
进一步的,该步骤具体包括:
S2061、判断距离参数是否大于内置传感器的最大采集距离。如果距离参数大于内置传感器的最大采集距离,则执行S2062,如果距离参数小于或等于最大采集距离,则执行S2063。
其中,如果距离参数超过最大采集距离,则说明当前采集方向上接收的激光簇为镜面反射得到的激光簇,此时,执行S2062。如果距离参数等于或小于最大采集距离,则说明当前采集方向上接收准确的激光簇,或者没有接收到激光簇,此时,执行S2063。
S2062、将最大采集距离与设定高斯噪声参数相加得到的结果作为修正后的距离参数。
具体的,当前采集方向上接收的激光簇为镜面反射得到的激光簇说明当前观测区域内该采集方向不存在障碍物。如果存在障碍物,内置传感器会先接收到基于障碍物反射的激光簇,并以最先接收的激光簇作为接收信号。采集方向不存在障碍物时,将最大采集距离作为距离参数。进一步的,考虑到实际情况中存在高斯噪声,为了避免高斯噪声对接收信号的干扰,将设定高斯噪声参数与最大采集距离的和值作为修正后的距离参数。其中,设定高斯噪声参数的具体值可以根据实际情况设定,加入设定高斯噪声参数后可以消除由于高斯噪声带来的干扰。
S2063、将距离参数与设定高斯噪声参数相加得到的结果作为修正后的距离参数。
示例性的,当前采集方向上接收准确的激光簇说明该采集方向上存在障碍物。此时,采用测量得到的距离参数,并将距离参数与设定高斯噪声参数的和值作为修正后的距离参数,以消除实际情况中由于高斯噪声带来的干扰。
具体的,根据S2062和S2063的描述可知修正后的距离参数的确定公式如下:
Figure BDA0001712446170000171
其中,r″n表示标号为n的实际空间位置数据对应的修正后的距离参数,r′n表示标号为n的实际空间位置数据中的距离参数,n与公式(2)中n相同。Q表示设定高斯噪声参数。Rmax表示最大采集距离。
S207、根据修正后的距离参数和角度参数计算当前观测区域的实际可识别面积。
进一步的,根据角度参数可以将当前观测区域分成多个扇形区域,分别计算每个扇形区域的面积,并将计算结果相加以得到实际可识别面积。其中,在计算实际可识别面积时,可参考公式(3),其中,θi表示标号为i的角度参数,ri表示标号为i的修正后的距离参数,θi-1表示标号为i-1的角度参数,共有m个采集方向。
S208、计算实际可识别面积与理论可识别面积的比值,以得到当前观测区域的拥堵因子。
具体的,拥堵因子计算公式为:
k=S'/S (5)
其中,k为拥堵因子,S'为实际可识别面积,S为理论可识别面积。根据拥堵因子可以确定当前观测区域的实际拥堵状况,即是否存在未知障碍物,进而为机器人后续设计定位、避障等策略提供参考。具体参考下述步骤:
S209、判断拥堵因子是否小于拥堵阈值。如果拥堵因子小于拥堵阈值,则执行S210。如果拥堵因子大于或等于所述拥堵阈值,则执行S211。
示例性的,拥堵阈值为确定环境是否拥堵的临界值,其具体值可以根据实际情况设定,本实施例中将拥堵阈值设为1。具体的,如果拥堵因子小于1,则说明实际可识别面积小于理论可识别面积,即实际的当前观测区域中存在未知障碍物,使内置传感器的激光覆盖区域相较于理论可识别面积变小,此时执行S210。如果拥堵因子等于1,则说明实际可识别面积等于理论可识别面积,即实际的当前观测区域与已知障碍物环境地图中的当前观测区域构图接近,此时,执行S220。如果拥堵因子大于1,则说明实际可识别面积大于理论可识别面积,即当前观测区域中内置传感器的激覆盖区域相较于理论可识别面积变大,此时,执行S220。
S210、根据拥堵因子确定拥堵级别。
具体的,由于当前观测区域存在未知障碍物,因此,机器人在移动的过程中需要更为安全的导航速度。其中,拥堵因子与拥堵级别成反比,拥堵级别表示当前观测区域的拥堵程度。拥堵因子越大说明未知障碍物阻挡机器人移动区域越大,拥堵级别越高,机器人在导航时,需要越慢的导航速度。
S211、确定当前观测区域未产生拥堵。
具体的,当前观测区域未产生拥堵时,机器人按照已规划的导航速度继续行驶。其中,当拥堵因子大于1时,机器人也可以提高导航速度行驶。
下面对本实施例提供的拥护环境检测方法进行示例性描述:
图9为本发明实施例二提供的一种实际空间的二维平面示意图。其中,机器人21位于墙体22围城的室内空间中,墙体22为已知障碍物。该室内空间中存在未知障碍物23,图9中示例性的示出7个未知障碍物。进一步的,机器人21的激光传感器发射激光簇,区域24为激光覆盖区域,即实际识别区域。进一步的,图10为图9中二维平面示意图的激光扫描数据。其中,第一激光数据25为在已知障碍物环境地图中模拟激光传感器采集到的激光数据,第二激光数据26为激光传感器在实际空间中采集到的激光数据。进一步的,根据第一激光数据25可以确定临界二维坐标,进而得到临界极坐标,并根据临界极坐标确定理论可识别面积。根据第二激光数据26可以确定实际位置数据,进而得到实际可识别面积。为了直观的描述角度和距离信息,将理论激光数据和实际采集到的激光数据投影到笛卡尔坐标系上,其投影结果如图11所示。其中,横坐标代表激光簇采集方向的标号,纵坐标代表对应激光的观测距离。第一线条27为激光传感器实际采集得到的数据,第二线条28为激光传感器理论采集得到的数据,两类数据与横坐标围成的空间即代表对应的识别区域。从图11可以看出,由于图9的实际空间中存在7个障碍物,因此图11中第一线条27在相应的方向上存在凹槽,即障碍物后方的区域被遮挡,使得实际可识别面积小于理论可识别面积。进一步的,根据实际可识别面积和理论可识别面积得到拥堵因子,进而根据拥堵因子使机器人在一个更为安全的导航速度内行驶。
本实施例提供的技术方案,通过SLAM算法构建已知障碍物环境地图,并在已知障碍物环境地图中模拟机器人启动内置传感器,确定当前观测区域内各信号采集方向上的信号临界位置点,根据信号临界位置点计算理论可识别面积,并记录内置传感器在实际空间中采集的实际空间位置数据,修正实际空间位置数据中的距离参数后确定实际可识别面积,进而得到拥堵因子,并根据拥堵因子确定拥堵环境检测结果的技术手段,实现了快速准确的检测拥堵环境,无需大量继续,仅计算内置传感器得到的一帧数据,同时可以避免由于角度误差带来的数据不相关问题,提高检测的鲁棒性。
实施例三
图12为本发明实施例三提供的一种拥堵环境检测装置的结构示意图。参考图12,拥堵环境检测装置包括:第一面积确定模块301、第二面积确定模块302以及检测结果确定模块303。
其中,第一面积确定模块301,用于通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;第二面积确定模块302,用于利用内置传感器在实际空间中采集的实际空间位置数据确定当前观测区域内的实际可识别面积;检测结果确定模块303,用于根据实际可识别面积和理论可识别面积确定当前观测区域的拥堵环境检测结果。
本实施例提供的技术方案,通过已知障碍物环境地图确定当前观测区域的理论可识别面积,理论可识别面积表示内置传感器在已知障碍物环境地图中的理论可识别区域大小,并通过内置传感器采集的实际空间位置数据确定当前观测区域的实际可识别面积,实际可识别面积表示内置传感器在实际空间中的实际可识别区域大小,根据理论可识别面积和实际可识别面积确定当前观测区域是否存在未知障碍物,进而确定拥堵环境检测结果的技术方案,可以实现快速、准确的确定拥堵环境检测结果,计算一次实际可识别面积和理论可识别面积即可得到拥堵环境检测结果,无需大量计算量,对机器人系统要求低,且可以避免由于未知障碍物使得机器人系统出错、无法准确移动的情况。
在上述实施例的基础上,第一面积确定模块301包括:模拟单元,用于在已知障碍物环境地图中,基于机器人所在位置点模拟启动内置传感器;临界位置确定单元,用于确定内置传感器在当前观测区域内各信号采集方向上的信号临界位置点;计算单元,用于根据信号临界位置点计算当前观测区域内的理论可识别面积。
在上述实施例的基础上,计算单元包括:坐标确定子单元,用于确定信号临界位置点的临界二维坐标;投影子单元,用于将临界二维坐标投影到极坐标系中,以得到临界极坐标,极坐标系的极点为机器人在已知障碍物环境地图中的位置点;理论面积计算子单元,用于根据临界极坐标计算当前观测区域内的理论可识别面积。
在上述实施例的基础上,第二面积确定模块302包括:数据记录单元,用于记录内置传感器在实际空间中采集一帧信号得到的实际空间位置数据,所述实际空间位置数据包括距离参数和角度参数;修正单元,用于基于内置传感器的最大采集距离修正距离参数;实际面积计算单元,用于根据修正后的距离参数和角度参数计算当前观测区域的实际可识别面积。
在上述实施例的基础上,修正单元包括:第一相加子单元,用于如果距离参数大于内置传感器的最大采集距离,则将最大采集距离与设定高斯噪声参数相加得到的结果作为修正后的距离参数;第二相加子单元,用于如果距离参数小于或等于最大采集距离,则将距离参数与设定高斯噪声参数相加得到的结果作为修正后的距离参数。
在上述实施例的基础上,检测结果确定模块303包括:比值确定单元,用于计算实际可识别面积与理论可识别面积的比值,以得到当前观测区域的拥堵因子;第一结果确定单元,用于如果拥堵因子小于拥堵阈值,则根据拥堵因子确定当前观测区域的拥堵级别,拥堵因子与拥堵级别成反比;第二结果确定单元,用于如果拥堵因子大于或等于拥堵阈值,则确定当前观测区域未产生拥堵。
在上述实施例的基础上,还包括:地图构建模块,用于通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积之前,利用即时定位与地图构建算法构建已知障碍物环境地图,已知障碍物环境地图为栅格地图。
本实施例提供的拥堵环境检测装置可用于执行上述任意实施例提供的拥堵环境检测方法,具备相应的功能和有益效果。
实施例四
图13为本发明实施例四提供的一种机器人的结构示意图。如图13所示,该机器人包括处理器40、存储器41、输入装置42、输出装置43以及内置传感器44;机器人中处理器40的数量可以是一个或多个,图13中以一个处理器40为例;机器人中的处理器40、存储器41、输入装置42、输出装置43以及内置传感器44可以通过总线或其他方式连接,图13中以通过总线连接为例。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明任意实施例所述的拥堵环境检测方法对应的程序指令/模块(例如,拥堵环境检测装置中的第一面积确定模块301、第二面积确定模块302以及检测结果确定模块303)。处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行机器人的各种功能应用以及数据处理,即实现上述的拥堵环境检测方法。
存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据机器人的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至机器人。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置42可用于接收输入的数字或字符信息,以及产生与机器人的用户设置以及功能控制有关的键信号输入。输出装置43可包括显示屏等显示设备、扬声器以及蜂鸣器等音频设备。内置传感器44可用于采集实际空间位置数据。机器人还包括移动装置(图为示),该移动装置用于使机器人进行移动。
本实施例提供的机器人可以用于执行上述任意实施例提供的拥堵环境检测方法,具备相应的功能和有益效果。
实施例五
本发明实施例五提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种拥堵环境检测方法,其具体包括:
通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;
利用内置传感器在实际空间中采集的实际空间位置数据确定当前观测区域内的实际可识别面积;
根据实际可识别面积和理论可识别面积确定当前观测区域的拥堵环境检测结果。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的拥堵环境检测方法操作,还可以执行本发明任意实施例所提供的拥堵环境检测方法中的相关操作,且具备相应的功能和有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是机器人,个人计算机,服务器,或者网络设备等)执行本发明任意实施例所述的拥堵环境检测方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种拥堵环境检测方法,其特征在于,包括:
通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;
利用内置传感器在实际空间中采集的实际空间位置数据确定所述当前观测区域内的实际可识别面积;
根据所述实际可识别面积和所述理论可识别面积确定所述当前观测区域的拥堵环境检测结果;其中,所述拥堵环境检测结果用于表示所述当前观测区域内未知障碍物的存在情况。
2.根据权利要求1所述的拥堵环境检测方法,其特征在于,所述通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积包括:
在已知障碍物环境地图中,基于机器人所在位置点模拟启动内置传感器;
确定所述内置传感器在当前观测区域内各信号采集方向上的信号临界位置点;
根据所述信号临界位置点计算所述当前观测区域内的理论可识别面积。
3.根据权利要求2所述的拥堵环境检测方法,其特征在于,所述根据所述信号临界位置点计算所述当前观测区域内的理论可识别面积包括:
确定所述信号临界位置点的临界二维坐标;
将所述临界二维坐标投影到极坐标系中,以得到临界极坐标,所述极坐标系的极点为所述机器人在已知障碍物环境地图中的位置点;
根据所述临界极坐标计算所述当前观测区域内的理论可识别面积。
4.根据权利要求1所述的拥堵环境检测方法,其特征在于,所述利用内置传感器在实际空间中采集的实际空间位置数据确定所述当前观测区域内的实际可识别面积包括:
记录内置传感器在实际空间中采集一帧信号得到的实际空间位置数据,所述实际空间位置数据包括距离参数和角度参数;
基于所述内置传感器的最大采集距离修正所述距离参数;
根据修正后的距离参数和所述角度参数计算所述当前观测区域的实际可识别面积。
5.根据权利要求4所述的拥堵环境检测方法,其特征在于,所述基于所述内置传感器的最大采集距离修正所述距离参数包括:
如果所述距离参数大于所述内置传感器的最大采集距离,则将所述最大采集距离与设定高斯噪声参数相加得到的结果作为修正后的距离参数;
如果所述距离参数小于或等于所述最大采集距离,则将所述距离参数与所述设定高斯噪声参数相加得到的结果作为修正后的距离参数。
6.根据权利要求1所述的拥堵环境检测方法,其特征在于,所述根据所述实际可识别面积和所述理论可识别面积确定所述当前观测区域的拥堵环境检测结果包括:
计算所述实际可识别面积与所述理论可识别面积的比值,以得到所述当前观测区域的拥堵因子;
如果所述拥堵因子小于拥堵阈值,则根据所述拥堵因子确定所述当前观测区域的拥堵级别,所述拥堵因子与所述拥堵级别成反比;
如果所述拥堵因子大于或等于所述拥堵阈值,则确定所述当前观测区域未产生拥堵。
7.根据权利要求1所述的拥堵环境检测方法,其特征在于,所述通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积之前,还包括:
利用即时定位与地图构建算法构建已知障碍物环境地图,所述已知障碍物环境地图为栅格地图。
8.一种拥堵环境检测装置,其特征在于,包括:
第一面积确定模块,用于通过已知障碍物环境地图确定内置传感器在当前观测区域内的理论可识别面积;
第二面积确定模块,用于利用内置传感器在实际空间中采集的实际空间位置数据确定所述当前观测区域内的实际可识别面积;
检测结果确定模块,用于根据所述实际可识别面积和所述理论可识别面积确定所述当前观测区域的拥堵环境检测结果;其中,所述拥堵环境检测结果用于表示所述当前观测区域内未知障碍物的存在情况。
9.一种机器人,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
内置传感器,用于采集实际空间位置数据;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的拥堵环境检测方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7中任一所述的拥堵环境检测方法。
CN201810689025.5A 2018-06-28 2018-06-28 拥堵环境检测方法、装置、机器人及存储介质 Active CN108628318B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810689025.5A CN108628318B (zh) 2018-06-28 2018-06-28 拥堵环境检测方法、装置、机器人及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810689025.5A CN108628318B (zh) 2018-06-28 2018-06-28 拥堵环境检测方法、装置、机器人及存储介质

Publications (2)

Publication Number Publication Date
CN108628318A CN108628318A (zh) 2018-10-09
CN108628318B true CN108628318B (zh) 2021-10-22

Family

ID=63689382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810689025.5A Active CN108628318B (zh) 2018-06-28 2018-06-28 拥堵环境检测方法、装置、机器人及存储介质

Country Status (1)

Country Link
CN (1) CN108628318B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109343524A (zh) * 2018-10-12 2019-02-15 深圳蓝胖子机器人有限公司 一种机器人、机器人集群及其控制方法
CN110851102A (zh) * 2019-10-09 2020-02-28 重庆特斯联智慧科技股份有限公司 输出音量控制方法及装置、电子设备及介质
CN110826511B (zh) * 2019-11-12 2020-11-27 云和县新马玩具有限公司 儿童房屋拥挤检测系统及方法
CN111429520B (zh) * 2020-03-02 2023-11-03 广州视源电子科技股份有限公司 负障碍物检测方法、装置、终端设备和存储介质
US11875572B2 (en) 2020-03-25 2024-01-16 Ali Corporation Space recognition method, electronic device and non-transitory computer-readable storage medium
CN113446971B (zh) * 2020-03-25 2023-08-08 扬智科技股份有限公司 空间识别方法,电子装置和非暂态计算机可读存储介质
CN114199251B (zh) * 2021-12-03 2023-09-15 江苏集萃智能制造技术研究所有限公司 一种机器人的防碰撞定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577834A (zh) * 2012-08-06 2014-02-12 现代自动车株式会社 产生用于识别障碍物的分类器的方法和系统
CN107703948A (zh) * 2017-11-14 2018-02-16 上海理工大学 基于自适应动态窗口的移动机器人局部动态路径规划方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4857926B2 (ja) * 2006-06-13 2012-01-18 トヨタ自動車株式会社 自律移動装置
EP2316705B1 (en) * 2009-10-28 2012-06-20 Honda Research Institute Europe GmbH Behavior-based learning of visual characteristics from real-world traffic scenes for driver assistance systems
CN105573318B (zh) * 2015-12-15 2018-06-12 中国北方车辆研究所 基于概率分析的环境构建方法
CN105955258B (zh) * 2016-04-01 2018-10-30 沈阳工业大学 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
CN106909145B (zh) * 2017-02-22 2020-01-14 武汉理工大学 无人航道测量船障碍物实时感知避障系统与方法
CN107730881A (zh) * 2017-06-13 2018-02-23 银江股份有限公司 基于深度卷积神经网络的交通拥堵视觉检测系统
CN107526360B (zh) * 2017-09-26 2020-08-21 河南科技学院 一种未知环境下排爆机器人多阶自主导航探测系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577834A (zh) * 2012-08-06 2014-02-12 现代自动车株式会社 产生用于识别障碍物的分类器的方法和系统
CN107703948A (zh) * 2017-11-14 2018-02-16 上海理工大学 基于自适应动态窗口的移动机器人局部动态路径规划方法

Also Published As

Publication number Publication date
CN108628318A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
CN108628318B (zh) 拥堵环境检测方法、装置、机器人及存储介质
CN110023867B (zh) 用于机器人绘图的系统和方法
CN108290294B (zh) 移动机器人及其控制方法
US9329598B2 (en) Simultaneous localization and mapping for a mobile robot
WO2017028653A1 (zh) 一种移动机器人室内自建地图的方法和系统
US6728608B2 (en) System and method for the creation of a terrain density model
CN110858076B (zh) 一种设备定位、栅格地图构建方法及移动机器人
US20200233061A1 (en) Method and system for creating an inverse sensor model and method for detecting obstacles
CN113741438A (zh) 路径规划方法、装置、存储介质、芯片及机器人
CN111881239A (zh) 构建方法、构建装置、智能机器人及可读存储介质
CN112526993A (zh) 栅格地图更新方法、装置、机器人及存储介质
US11506511B2 (en) Method for determining the position of a vehicle
JP2009223757A (ja) 自律移動体、その制御システム、自己位置推定方法
CN115494834A (zh) 机器人路径规划方法、装置及机器人
Panagoda et al. Moving robots in unknown environments using potential field graphs
CN112964263B (zh) 自动建图方法、装置、移动机器人及可读存储介质
WO2016158683A1 (ja) 地図作成装置、自律走行体、自律走行体システム、携帯端末、地図作成方法、地図作成プログラム及びコンピュータ読み取り可能な記録媒体
CN113158779A (zh) 一种行走方法、装置和计算机存储介质
Murphy et al. Using incomplete online metric maps for topological exploration with the gap navigation tree
Yee et al. Autonomous mobile robot navigation using 2D LiDAR and inclined laser rangefinder to avoid a lower object
Horváth et al. Probabilistic occupancy grid map building for Neobotix MP500 robot
CN113503877A (zh) 机器人分区地图建立方法、装置及机器人
Almanza-Ojeda et al. Occupancy map construction for indoor robot navigation
CN113446971A (zh) 空间识别方法,电子装置和非暂态计算机可读存储介质
Pfaff et al. Navigation in combined outdoor and indoor environments using multi-level surface maps

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant