CN111402326A - 障碍物的检测方法、装置、无人车及存储介质 - Google Patents

障碍物的检测方法、装置、无人车及存储介质 Download PDF

Info

Publication number
CN111402326A
CN111402326A CN202010175370.4A CN202010175370A CN111402326A CN 111402326 A CN111402326 A CN 111402326A CN 202010175370 A CN202010175370 A CN 202010175370A CN 111402326 A CN111402326 A CN 111402326A
Authority
CN
China
Prior art keywords
obstacle
distance
unmanned vehicle
grounding point
control decision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010175370.4A
Other languages
English (en)
Other versions
CN111402326B (zh
Inventor
潘杰
秦硕
张浩悦
尚子钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010175370.4A priority Critical patent/CN111402326B/zh
Publication of CN111402326A publication Critical patent/CN111402326A/zh
Application granted granted Critical
Publication of CN111402326B publication Critical patent/CN111402326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • G06T3/08
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本申请公开了障碍物的检测方法、装置、无人车及存储介质,涉及自动驾驶技术领域。本申请中的方法的具体实现方案为:采集包含障碍物的图像;从图像中识别出障碍物的接地点;根据所述接地点与无人车之间的距离,生成控制决策;根据所述控制决策行驶。本申请可以准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。

Description

障碍物的检测方法、装置、无人车及存储介质
技术领域
本申请涉及数据处理技术领域中的自动驾驶技术,尤其涉及一种障碍物的检测方法、装置、无人车及存储介质。
背景技术
随着计算机、图像处理以及无线通信等技术的进步,目前汽车行业正朝着智能化方向发展,而自动驾驶则是汽车智能化发展的重点。自动驾驶控制中,经常需要对障碍物进行检测,进而根据障碍物与自动驾驶车辆之间的距离做出驾驶决策。
现有技术中,一般采用视觉感知技术,获取到图像中障碍物的中心点,然后将中心点投影到车身,然后利用相似三角形换算出障碍物到自动驾驶车辆之间的距离。
但是,上述方法中图像障碍物的中心点并不是障碍物的实际接地点,因此其计算出来的距离存在误差,从而影响自动驾驶决策的准确性。
发明内容
本申请提供一种障碍物的检测方法、装置、无人车及存储介质,可以准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
第一方面,本申请实施例提供一种障碍物的检测方法,所述方法包括:
采集包含障碍物的图像;
从图像中识别出障碍物的接地点;
根据所述接地点与无人车之间的距离,生成控制决策;
根据所述控制决策行驶。
本实施例中,通过检测障碍物的真实接地点,然后根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹。
在一种可能的设计中,所述从图像中识别出障碍物的接地点,包括:
通过三分支网络识别图像中障碍物的接地点,其中,所述三分支网络包括:第一分支网络、第二分支网络、第三分支网络;所述第一分支网络用于识别出图像中障碍物的边界框;所述第二分支网络用于识别出边界框的中心区域和障碍物的类别;所述第三分支网络用于根据所述障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
本实施例中,通过三分支网络分别检测出障碍物的边界框、边界框的中心区域和障碍物的类别,并根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。从而可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹,提高驾驶体验。
在一种可能的设计中,在根据所述接地点与无人车之间的距离,生成控制决策之前,还包括:
测量所述接地点与无人车之间的距离。
本实施例中,可以基于障碍物的接地点来测量障碍物与无人车之间的距离,从而使得检测的距离更加真实,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,所述测量所述接地点与无人车之间的距离,包括:
将所有所述接地点投影至3D世界坐标系下,得到所述接地点的三维坐标;
根据所述接地点的三维坐标,生成所述障碍物的3D轮廓;
测量无人车与所述障碍物的3D轮廓之间的距离。
本实施例中,通过将接地点投影转换至3D世界坐标系下,然后在3D世界坐标系下绘制出障碍物的3D轮廓,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,根据所述接地点与无人车之间的距离,生成控制决策,包括:
当所述接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当所述接地点与无人车之间的距离不大于所述第一预设值,时,则生成刹车决策;
当所述接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
本实施例中,通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全。
第二方面,本申请实施例提供一种障碍物的检测方法,所述方法包括:
采集包含障碍物的图像;
从图像中识别出障碍物的接地点和类别;
根据所述障碍物的接地点,确定所述障碍物的分布区域;
根据所述障碍物的类别,以及所述障碍物的分布区域,生成控制决策;
根据所述控制决策行驶。
本实施例中,通过检测障碍物的真实接地点,然后根据真实接地点确定障碍物的分布区域,根据障碍物的分布区域以及障碍物的类别,生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹。
在一种可能的设计中,所述从图像中识别出障碍物的接地点和类别,包括:
通过三分支网络识别图像中障碍物的接地点,其中,所述三分支网络包括:第一分支网络、第二分支网络、第三分支网络;所述第一分支网络用于识别出图像中障碍物的边界框;所述第二分支网络用于识别出边界框的中心区域和障碍物的类别;所述第三分支网络用于根据所述障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
本实施例中,通过三分支网络分别检测出障碍物的边界框、边界框的中心区域和障碍物的类别,并根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。从而可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹,提高驾驶体验。
在一种可能的设计中,所述根据所述障碍物的类别,以及所述障碍物的分布区域,生成控制决策,包括:
若所述障碍物为静态障碍物,且所述障碍物位于可行驶区域内,则根据所述可行驶区域的边界点生成控制决策;
若所述障碍物位于可行驶区域之外,则不生成控制决策;
若所述障碍物为动态障碍物,且所述障碍物位于可行驶区域内,则根据所述接地点与无人车之间的距离,生成控制决策。
本实施例中,当静态障碍物位于可行驶区域时,可以检测出可行驶区域的边界点,将该边界点发送给自动驾驶车辆,以便于做出驾驶决策。当动态障碍物位于可行驶区域外时,不进行决策控制;当动态障碍物位于可行驶区域内时,根据所述动态障碍物的接地点与自动驾驶车辆之间的距离,生成控制决策,从而能够减少动态障碍物的误检问题。
在一种可能的设计中,在根据所述接地点与无人车之间的距离,生成控制决策之前,还包括:
测量所述接地点与无人车之间的距离。
本实施例中,可以基于障碍物的接地点来测量障碍物与无人车之间的距离,从而使得检测的距离更加真实,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,所述测量所述接地点与无人车之间的距离,包括:
将所有所述接地点投影至3D世界坐标系下,得到所述接地点的三维坐标;
根据所述接地点的三维坐标,生成所述障碍物的3D轮廓;
测量无人车与所述障碍物的3D轮廓之间的距离。
本实施例中,通过将接地点投影转换至3D世界坐标系下,然后在3D世界坐标系下绘制出障碍物的3D轮廓,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,根据所述接地点与无人车之间的距离,生成控制决策,包括:
当所述接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当所述接地点与无人车之间的距离不大于所述第一预设值,时,则生成刹车决策;
当所述接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
本实施例中,通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全。
第三方面,本申请实施例提供一种障碍物的检测装置,所述装置包括:
采集模块,用于采集包含障碍物的图像;
识别模块,用于从图像中识别出障碍物的接地点;
处理模块,用于根据所述接地点与无人车之间的距离,生成控制决策;
控制模块,用于根据所述控制决策行驶。
本实施例中,通过检测障碍物的真实接地点,然后根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹。
在一种可能的设计中,所述识别模块,具体用于:
通过三分支网络识别图像中障碍物的接地点,其中,所述三分支网络包括:第一分支网络、第二分支网络、第三分支网络;所述第一分支网络用于识别出图像中障碍物的边界框;所述第二分支网络用于识别出边界框的中心区域和障碍物的类别;所述第三分支网络用于根据所述障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
本实施例中,通过三分支网络分别检测出障碍物的边界框、边界框的中心区域和障碍物的类别,并根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。从而可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹,提高驾驶体验。
在一种可能的设计中,还包括:测量模块,用于:
测量所述接地点与无人车之间的距离。
本实施例中,可以基于障碍物的接地点来测量障碍物与无人车之间的距离,从而使得检测的距离更加真实,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,所述测量模块,具体用于:
将所有所述接地点投影至3D世界坐标系下,得到所述接地点的三维坐标;
根据所述接地点的三维坐标,生成所述障碍物的3D轮廓;
测量无人车与所述障碍物的3D轮廓之间的距离。
本实施例中,通过将接地点投影转换至3D世界坐标系下,然后在3D世界坐标系下绘制出障碍物的3D轮廓,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,所述处理模块,具体用于:
当所述接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当所述接地点与无人车之间的距离不大于所述第一预设值,时,则生成刹车决策;
当所述接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
本实施例中,通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全。
第四方面,本申请实施例提供一种障碍物的检测装置,所述装置包括:
采集模块,用于采集包含障碍物的图像;
识别模块,用于从图像中识别出障碍物的接地点和类别;
确定模块,用于根据所述障碍物的接地点,确定所述障碍物的分布区域;
处理模块,用于根据所述障碍物的类别,以及所述障碍物的分布区域,生成控制决策;
控制模块,用于根据所述控制决策行驶。
本实施例中,通过检测障碍物的真实接地点,然后根据真实接地点确定障碍物的分布区域,根据障碍物的分布区域以及障碍物的类别,生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹。
在一种可能的设计中,所述识别模块,具体用于:
通过三分支网络识别图像中障碍物的接地点,其中,所述三分支网络包括:第一分支网络、第二分支网络、第三分支网络;所述第一分支网络用于识别出图像中障碍物的边界框;所述第二分支网络用于识别出边界框的中心区域和障碍物的类别;所述第三分支网络用于根据所述障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
本实施例中,通过三分支网络分别检测出障碍物的边界框、边界框的中心区域和障碍物的类别,并根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。从而可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹,提高驾驶体验。
在一种可能的设计中,所述处理模块,具体用于:
若所述障碍物为静态障碍物,且所述障碍物位于可行驶区域内,则根据所述可行驶区域的边界点生成控制决策;
若所述障碍物位于可行驶区域之外,则不生成控制决策;
若所述障碍物为动态障碍物,且所述障碍物位于可行驶区域内,则根据所述接地点与无人车之间的距离,生成控制决策。
本实施例中,当静态障碍物位于可行驶区域时,可以检测出可行驶区域的边界点,将该边界点发送给自动驾驶车辆,以便于做出驾驶决策。当动态障碍物位于可行驶区域外时,不进行决策控制;当动态障碍物位于可行驶区域内时,根据所述动态障碍物的接地点与自动驾驶车辆之间的距离,生成控制决策,从而能够减少动态障碍物的误检问题。
在一种可能的设计中,还包括:测量模块,用于:
测量所述接地点与无人车之间的距离。
本实施例中,可以基于障碍物的接地点来测量障碍物与无人车之间的距离,从而使得检测的距离更加真实,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,所述测量模块,具体用于:
将所有所述接地点投影至3D世界坐标系下,得到所述接地点的三维坐标;
根据所述接地点的三维坐标,生成所述障碍物的3D轮廓;
测量无人车与所述障碍物的3D轮廓之间的距离。
本实施例中,通过将接地点投影转换至3D世界坐标系下,然后在3D世界坐标系下绘制出障碍物的3D轮廓,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,所述处理模块,具体用于:
当所述接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当所述接地点与无人车之间的距离不大于所述第一预设值,时,则生成刹车决策;
当所述接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
本实施例中,通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全。
第五方面,本申请提供一种无人车,包括:处理器和存储器;存储器中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如第一方面中任一项所述的障碍物的检测方法。
第六方面,本申请提供一种无人车,包括:处理器和存储器;存储器中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如第二方面中任一项所述的障碍物的检测方法。
第七方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述的障碍物的检测方法。
第八方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第二方面中任一项所述的障碍物的检测方法。
第九方面,本申请实施例提供一种程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第一方面中任一所述的障碍物的检测方法。
第十方面,本申请实施例提供一种程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第二方面中任一所述的障碍物的检测方法。
上述申请中的一个实施例具有如下优点或有益效果:可以准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。因为采用采集包含障碍物的图像;从图像中识别出障碍物的接地点;根据所述接地点与无人车之间的距离,生成控制决策;根据所述控制决策行驶的技术手段,所以克服了无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是可以实现本申请实施例的障碍物的检测方法的原理示意图;
图2是根据本申请第一实施例的示意图;
图3是根据本申请实施例的第一分支网络的原理示意图;
图4是根据本申请实施例的三分支网络识别接地点的效果示意图;
图5是根据本申请第二实施例的示意图;
图6是根据本申请第三实施例的示意图;
图7是根据本申请第四实施例的示意图;
图8是用来实现本申请实施例的无人车的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
随着计算机、图像处理以及无线通信等技术的进步,目前汽车行业正朝着智能化方向发展,而自动驾驶则是汽车智能化发展的重点。自动驾驶控制中,经常需要对障碍物进行检测,进而根据障碍物与自动驾驶车辆之间的距离做出驾驶决策。现有技术中,一般采用视觉感知技术,获取到图像中障碍物的中心点,然后将中心点投影到车身,然后利用相似三角形换算出障碍物到自动驾驶车辆之间的距离。但是,上述方法中图像障碍物的中心点并不是障碍物的实际接地点,因此其计算出来的距离存在误差,从而影响自动驾驶决策的准确性。
针对上述技术问题,本申请提供一种障碍物的检测方法、装置、无人车及存储介质,可以准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。本申请提供的方法可以应用于自动驾驶、巡航、自动泊车等等应用场景。
图1是可以实现本申请实施例的障碍物的检测方法的原理示意图,如图1所示,以自动驾驶应用场景为例,在同一车道和相邻车道上都有一辆车辆在行驶。自动驾驶车辆通过自带的图像采集设备采集周围的环境图像。根据三分支网络,可以在图像中可以识别出障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点等等。最后,可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,然后根据该距离所处的取值范围生成驾驶决策,生成不同的控制决策。当接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;当接地点与无人车之间的距离不大于第一预设值,时,则生成刹车决策;当接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。例如,自动驾驶车辆与障碍物之间的距离在第一预设值与第二预设值之间,此时障碍物对车辆存在影响,车辆可采取的减速决策较多,可以采取降低供油量(燃油车)、供电量(电动车)、刹车制动等等控制指令。
应用上述方法克服了无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
图2是根据本申请第一实施例的示意图,如图2所示,本实施例中的方法可以包括:
S101、采集包含障碍物的图像。
本实施例中,可以通过车辆自带的图像采集设备采集包含障碍物的图像。例如,对于自动驾驶的车辆,可以通过车辆本身的摄像头采集道路边的图像。这部分图像中的行人、机动车、道路隔离护栏等等都可以是障碍物,因此可以将这部分图像本发明中,以供驾驶决策使用。
需要说明的是,本实施例不限定图像采集设备的种类,本领域的技术人员可以根据实际情况增加或者减少图像采集设备的种类。例如,也可以通过与车机系统通信连接的行车记录仪来采集道路边的场景图像。
S102、从图像中识别出障碍物的接地点。
本实施例中,可以通过三分支网络识别图像中障碍物的接地点,其中,三分支网络包括:第一分支网络、第二分支网络、第三分支网络;第一分支网络用于识别出图像中障碍物的边界框;第二分支网络用于识别出边界框的中心区域和障碍物的类别;第三分支网络用于根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
具体地,三分支网络包括:第一分支网络、第二分支网络、第三分支网络。其中,第一分支网络用于识别出图像中障碍物的边界框;第二分支网络用于识别出边界框的中心区域和障碍物的类别;第三分支网络用于根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。在一次训练循环中,神经网络前向传播后,三个分支与groundtruth计算出损失函数loss,使用反向传播计算出神经网络参数的梯度,并对参数进行更新。图3是根据本申请实施例的第一分支网络的原理示意图,如图3所示,第一分支网路用于预测障碍物框内的一点到上下左右边界的像素距离,在图中分别用t(top)、b(bottom)、l(left)、r(right)来表示,分支网络使用smooth_L1 loss作为损失函数。第二分支网路用于预测障碍物的中心区域以及类别。障碍物包围框内所有的点都算做正样本。中心区域的预测目标是centerness,另外对包含框区域内的所有点进行分类(人、车、锥筒、禁停牌等),使用cross entropy loss作为损失函数。相对应的回归该点到框四个方向的距离(l,t,r,b)。为了降低离中心点较远点的分数,计算其相应的衰减系数。计算表达式为:
Figure BDA0002410637020000121
第三分支网路用于根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。第三分支网路输出了5个变量,包括:sfs_pt,emb,pt_res,pt_cls,x_offset,y_offset。sfs_pt用于表示接地点在图像当中每一列的位置;emb用于表示embedding输出;pt_res用于表示采样后的偏移量;pt_cls用于表示接地点的类别;x_offset,y_offset用于表示接地点距离障碍物中心的横纵坐标偏移。其中,sfs_pt是一个二分类,使用cross entropy loss作为损失函数;embedding采用discriminative loss使同一障碍物内的loss最小,跨障碍物的loss最大;pt_res,x_offset,y_offset分别代表采样后的偏移量和接地点距离障碍物中心的横纵坐标偏移,使用smooth l1 loss作为损失函数。图4是根据本申请实施例的三分支网络识别接地点的原理示意图,如图4所示,以自动驾驶或者巡航等应用场景为例,当发现前车变道时,第一分支网路通过障碍物(前车)上任意一点到到上下左右边界的像素距离,得到障碍物的边界框(如虚线框所示)。第二分支网络对边界框内的障碍物进行识别,得到障碍物的类别为动态障碍物,甚至可以标注为行驶中的机动车。第三分支网络进一步识别出障碍物的中心店和接地点,图中接地点以黑色点表示,中心店以圆圈表示。
S103、根据接地点与无人车之间的距离,生成控制决策。
本实施例中,当接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;当接地点与无人车之间的距离不大于第一预设值,时,则生成刹车决策;当接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
具体地,可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,然后根据该距离所处的取值范围生成驾驶决策,生成不同的控制决策。例如,自动驾驶车辆与障碍物之间的距离在第一预设值与第二预设值之间,此时障碍物对车辆存在影响,车辆可采取的减速决策较多,可以采取降低供油量(燃油车)、供电量(电动车)、刹车制动等等控制指令。通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全,提升驾驶体验。
可选地,在根据接地点与无人车之间的距离,生成控制决策之前,还包括:测量接地点与无人车之间的距离。
具体地,可以将所有接地点投影至3D世界坐标系下,得到接地点的三维坐标。然后,根据接地点的三维坐标,生成障碍物的3D轮廓,并测量无人车与障碍物的3D轮廓之间的距离。根据这种方式,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
S104、根据控制决策行驶。
本实施例中,根据控制决策,车机系统可以控制对应的机构动作,使得车辆根据控制决策行驶。因此,本实施例中的方法可以应用于自动驾驶、巡航、自动泊车等等应用场景中,可以克服无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
本实施例,通过采集包含障碍物的图像;从图像中识别出障碍物的接地点;根据接地点与无人车之间的距离,生成控制决策;根据控制决策行驶。从而可以克服无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
图5是根据本申请第二实施例的示意图;如图5所示,本实施例中的方法可以包括:
S201、采集包含障碍物的图像。
S202、从图像中识别出障碍物的接地点和类别。
本实施例中,可以通过三分支网络识别图像中障碍物的接地点,其中,三分支网络包括:第一分支网络、第二分支网络、第三分支网络;第一分支网络用于识别出图像中障碍物的边界框;第二分支网络用于识别出边界框的中心区域和障碍物的类别;第三分支网络用于根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
具体地,三分支网络的实现原理参照第一实施例,此处不再赘述。需要说明的是,本实施例中将障碍物的类别分为静态障碍物和动态障碍物。静态障碍物可以是隔离护栏、建筑物、静止停放的车辆等等。动态障碍物可以是行驶中的其他车辆、行人等等。
S203、根据障碍物的接地点,确定障碍物的分布区域。
本实施例中,可以将接地点投影到3D世界坐标,即可表示障碍物的边界,从而可以用于判断障碍物是否位于可行驶区域内。例如,障碍物边界靠近主车的一侧就是可行驶区域。
S204、根据障碍物的类别,以及障碍物的分布区域,生成控制决策。
本实施例中,若障碍物为静态障碍物,且障碍物位于可行驶区域内,则根据可行驶区域的边界点生成控制决策;若障碍物位于可行驶区域之外,则不生成控制决策;若障碍物为动态障碍物,且障碍物位于可行驶区域内,则根据接地点与无人车之间的距离,生成控制决策。
具体地,若障碍物位于可行驶区域之外,障碍物对车辆不造成任何影响,则不生成控制决策。若障碍物为静态障碍物,且障碍物位于可行驶区域内,由于静态障碍物的位置不会发生变化,因此可以根据可行驶区域的边界点生成控制决策。若障碍物为动态障碍物,且障碍物位于可行驶区域内,则根据接地点与无人车之间的距离生成控制决策。对于动态障碍物的处理方式,可以参照第一实施例,此处不再赘述。
S205、根据控制决策行驶。
本实施例中,步骤S201、步骤S205的具体实现过程和技术原理请参见图2所示的方法中步骤S101、步骤S104中的相关描述,此处不再赘述。
本实施例,通过采集包含障碍物的图像;从图像中识别出障碍物的接地点和类别;根据障碍物的接地点,确定障碍物的分布区域;根据障碍物的类别,以及障碍物的分布区域,生成控制决策;根据控制决策行驶。从而可以克服无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
图6是根据本申请第三实施例的示意图;如图6所示,本实施例中的装置可以包括:
采集模块31,用于采集包含障碍物的图像;
识别模块32,用于从图像中识别出障碍物的接地点;
处理模块33,用于根据接地点与无人车之间的距离,生成控制决策;
控制模块34,用于根据控制决策行驶。
本实施例中,通过检测障碍物的真实接地点,然后根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹。
在一种可能的设计中,识别模块32,具体用于:
通过三分支网络识别图像中障碍物的接地点,其中,三分支网络包括:第一分支网络、第二分支网络、第三分支网络;第一分支网络用于识别出图像中障碍物的边界框;第二分支网络用于识别出边界框的中心区域和障碍物的类别;第三分支网络用于根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
本实施例中,通过三分支网络分别检测出障碍物的边界框、边界框的中心区域和障碍物的类别,并根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。从而可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹,提高驾驶体验。
在一种可能的设计中,还包括:测量模块35,用于:
测量接地点与无人车之间的距离。
本实施例中,可以基于障碍物的接地点来测量障碍物与无人车之间的距离,从而使得检测的距离更加真实,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,测量模块35,具体用于:
将所有接地点投影至3D世界坐标系下,得到接地点的三维坐标;
根据接地点的三维坐标,生成障碍物的3D轮廓;
测量无人车与障碍物的3D轮廓之间的距离。
本实施例中,通过将接地点投影转换至3D世界坐标系下,然后在3D世界坐标系下绘制出障碍物的3D轮廓,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,处理模块33,具体用于:
当接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当接地点与无人车之间的距离不大于第一预设值,时,则生成刹车决策;
当接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
本实施例中,通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全。
本实施例的障碍物的检测装置,可以执行图2所示方法中的技术方案,其具体实现过程和技术原理参见图2所示方法中的相关描述,此处不再赘述。
本实施例,通过采集包含障碍物的图像;从图像中识别出障碍物的接地点;根据接地点与无人车之间的距离,生成控制决策;根据控制决策行驶。从而可以克服无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
图7是根据本申请第四实施例的示意图;如图7所示,本实施例中的装置可以包括:
采集模块41,用于采集包含障碍物的图像;
识别模块42,用于从图像中识别出障碍物的接地点和类别;
确定模块43,用于根据障碍物的接地点,确定障碍物的分布区域;
处理模块44,用于根据障碍物的类别,以及障碍物的分布区域,生成控制决策;
控制模块45,用于根据控制决策行驶。
本实施例中,通过检测障碍物的真实接地点,然后根据真实接地点确定障碍物的分布区域,根据障碍物的分布区域以及障碍物的类别,生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹。
在一种可能的设计中,识别模块42,具体用于:
通过三分支网络识别图像中障碍物的接地点,其中,三分支网络包括:第一分支网络、第二分支网络、第三分支网络;第一分支网络用于识别出图像中障碍物的边界框;第二分支网络用于识别出边界框的中心区域和障碍物的类别;第三分支网络用于根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
本实施例中,通过三分支网络分别检测出障碍物的边界框、边界框的中心区域和障碍物的类别,并根据障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。从而可以根据真实接地点获取自动驾驶车辆与障碍物之间的距离,根据该距离生成驾驶决策,从而可以提高驾驶决策的准确性,减少因为测距不准造成的点刹,提高驾驶体验。
在一种可能的设计中,处理模块44,具体用于:
若障碍物为静态障碍物,且障碍物位于可行驶区域内,则根据可行驶区域的边界点生成控制决策;
若障碍物位于可行驶区域之外,则不生成控制决策;
若障碍物为动态障碍物,且障碍物位于可行驶区域内,则根据接地点与无人车之间的距离,生成控制决策。
本实施例中,当静态障碍物位于可行驶区域时,可以检测出可行驶区域的边界点,将该边界点发送给自动驾驶车辆,以便于做出驾驶决策。当动态障碍物位于可行驶区域外时,不进行决策控制;当动态障碍物位于可行驶区域内时,根据动态障碍物的接地点与自动驾驶车辆之间的距离,生成控制决策,从而能够减少动态障碍物的误检问题。
在一种可能的设计中,还包括:测量模块46,用于:
测量接地点与无人车之间的距离。
本实施例中,可以基于障碍物的接地点来测量障碍物与无人车之间的距离,从而使得检测的距离更加真实,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,测量模块46,具体用于:
将所有接地点投影至3D世界坐标系下,得到接地点的三维坐标;
根据接地点的三维坐标,生成障碍物的3D轮廓;
测量无人车与障碍物的3D轮廓之间的距离。
本实施例中,通过将接地点投影转换至3D世界坐标系下,然后在3D世界坐标系下绘制出障碍物的3D轮廓,从而可以检测出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验。
在一种可能的设计中,处理模块44,具体用于:
当接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当接地点与无人车之间的距离不大于第一预设值,时,则生成刹车决策;
当接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
本实施例中,通过接地点与无人车之间的距离所处的取值范围,生成不同的控制决策,从而可以保证驾驶安全。
本实施例的障碍物的检测装置,可以执行图5所示方法中的技术方案,其具体实现过程和技术原理参见图5所示方法中的相关描述,此处不再赘述。
本实施例,通过采集包含障碍物的图像;从图像中识别出障碍物的接地点和类别;根据障碍物的接地点,确定障碍物的分布区域;根据障碍物的类别,以及障碍物的分布区域,生成控制决策;根据控制决策行驶。从而可以克服无法准确获取障碍物与无人车之间的真实距离,使得控制决策不准确的技术问题,通过准确地识别出障碍物的接地点,从而测量出无人车与障碍物之间的真实距离,使得生成的控制决策更加精准,提高驾驶体验的技术效果。
图8是用来实现本申请实施例的无人车的框图;如图8所示,是根据本申请实施例的图8无人车的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该无人车包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的图8无人车的障碍物的检测方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的图8无人车的障碍物的检测方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的图8无人车的障碍物的检测方法对应的程序指令/模块。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的图8无人车的障碍物的检测方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图8无人车的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至图8无人车。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图8无人车还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与图8无人车的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、GPU(图形处理器)、FPGA(现场可编程门阵列)设备、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (17)

1.一种障碍物的检测方法,其特征在于,所述方法包括:
采集包含障碍物的图像;
从图像中识别出障碍物的接地点;
根据所述接地点与无人车之间的距离,生成控制决策;
根据所述控制决策行驶。
2.根据权利要求1所述的方法,其特征在于,所述从图像中识别出障碍物的接地点,包括:
通过三分支网络识别图像中障碍物的接地点,其中,所述三分支网络包括:第一分支网络、第二分支网络、第三分支网络;所述第一分支网络用于识别出图像中障碍物的边界框;所述第二分支网络用于识别出边界框的中心区域和障碍物的类别;所述第三分支网络用于根据所述障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
3.根据权利要求1所述的方法,其特征在于,在根据所述接地点与无人车之间的距离,生成控制决策之前,还包括:
测量所述接地点与无人车之间的距离。
4.根据权利要求3所述的方法,其特征在于,所述测量所述接地点与无人车之间的距离,包括:
将所有所述接地点投影至3D世界坐标系下,得到所述接地点的三维坐标;
根据所述接地点的三维坐标,生成所述障碍物的3D轮廓;
测量无人车与所述障碍物的3D轮廓之间的距离。
5.根据权利要求1-4中任一项所述的方法,其特征在于,根据所述接地点与无人车之间的距离,生成控制决策,包括:
当所述接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当所述接地点与无人车之间的距离不大于所述第一预设值,时,则生成刹车决策;
当所述接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
6.一种障碍物的检测方法,其特征在于,包括:
采集包含障碍物的图像;
从图像中识别出障碍物的接地点和类别;
根据所述障碍物的接地点,确定所述障碍物的分布区域;
根据所述障碍物的类别,以及所述障碍物的分布区域,生成控制决策;
根据所述控制决策行驶。
7.根据权利要求6所述的方法,其特征在于,所述从图像中识别出障碍物的接地点和类别,包括:
通过三分支网络识别图像中障碍物的接地点,其中,所述三分支网络包括:第一分支网络、第二分支网络、第三分支网络;所述第一分支网络用于识别出图像中障碍物的边界框;所述第二分支网络用于识别出边界框的中心区域和障碍物的类别;所述第三分支网络用于根据所述障碍物的类别、边界框,以及边界框的中心区域,识别出障碍物的接地点。
8.根据权利要求7所述的方法,其特征在于,所述根据所述障碍物的类别,以及所述障碍物的分布区域,生成控制决策,包括:
若所述障碍物为静态障碍物,且所述障碍物位于可行驶区域内,则根据所述可行驶区域的边界点生成控制决策;
若所述障碍物位于可行驶区域之外,则不生成控制决策;
若所述障碍物为动态障碍物,且所述障碍物位于可行驶区域内,则根据所述接地点与无人车之间的距离,生成控制决策。
9.根据权利要求6所述的方法,其特征在于,在根据所述接地点与无人车之间的距离,生成控制决策之前,还包括:
测量所述接地点与无人车之间的距离。
10.根据权利要求9所述的方法,其特征在于,所述测量所述接地点与无人车之间的距离,包括:
将所有所述接地点投影至3D世界坐标系下,得到所述接地点的三维坐标;
根据所述接地点的三维坐标,生成所述障碍物的3D轮廓;
测量无人车与所述障碍物的3D轮廓之间的距离。
11.根据权利要求6-10中任一项所述的方法,其特征在于,根据所述接地点与无人车之间的距离,生成控制决策,包括:
当所述接地点与无人车之间的距离大于第一预设值,且小于第二预设值时,则生成减速决策;
当所述接地点与无人车之间的距离不大于所述第一预设值,时,则生成刹车决策;
当所述接地点与无人车之间的距离不小于第二预设值时,则不生成控制决策。
12.一种障碍物的检测装置,其特征在于,所述装置包括:
采集模块,用于采集包含障碍物的图像;
识别模块,用于从图像中识别出障碍物的接地点;
处理模块,用于根据所述接地点与无人车之间的距离,生成控制决策;
控制模块,用于根据所述控制决策行驶。
13.一种障碍物的检测装置,其特征在于,所述装置包括:
采集模块,用于采集包含障碍物的图像;
识别模块,用于从图像中识别出障碍物的接地点和类别;
确定模块,用于根据所述障碍物的接地点,确定所述障碍物的分布区域;
处理模块,用于根据所述障碍物的类别,以及所述障碍物的分布区域,生成控制决策;
控制模块,用于根据所述控制决策行驶。
14.一种无人车,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
15.一种无人车,其特征在于,包括:至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求6-11中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
17.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求6-11中任一项所述的方法。
CN202010175370.4A 2020-03-13 2020-03-13 障碍物的检测方法、装置、无人车及存储介质 Active CN111402326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010175370.4A CN111402326B (zh) 2020-03-13 2020-03-13 障碍物的检测方法、装置、无人车及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010175370.4A CN111402326B (zh) 2020-03-13 2020-03-13 障碍物的检测方法、装置、无人车及存储介质

Publications (2)

Publication Number Publication Date
CN111402326A true CN111402326A (zh) 2020-07-10
CN111402326B CN111402326B (zh) 2023-08-25

Family

ID=71413337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010175370.4A Active CN111402326B (zh) 2020-03-13 2020-03-13 障碍物的检测方法、装置、无人车及存储介质

Country Status (1)

Country Link
CN (1) CN111402326B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111858979A (zh) * 2020-07-23 2020-10-30 北京京东乾石科技有限公司 数据库构建方法和装置、障碍物识别方法、装置和系统
CN113052009A (zh) * 2021-03-02 2021-06-29 北京经纬恒润科技股份有限公司 一种车辆防撞方法、模型训练方法及装置
CN113820698A (zh) * 2021-09-13 2021-12-21 广州小鹏自动驾驶科技有限公司 障碍物测距方法、装置、电子设备及可读介质
CN115147809A (zh) * 2022-06-30 2022-10-04 阿波罗智能技术(北京)有限公司 一种障碍物检测方法、装置、设备以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106485233A (zh) * 2016-10-21 2017-03-08 深圳地平线机器人科技有限公司 可行驶区域检测方法、装置和电子设备
CN108596058A (zh) * 2018-04-11 2018-09-28 西安电子科技大学 基于计算机视觉的行车障碍物测距方法
CN109084724A (zh) * 2018-07-06 2018-12-25 西安理工大学 一种基于双目视觉的深度学习障碍物测距方法
CN109532743A (zh) * 2018-12-11 2019-03-29 北京百度网讯科技有限公司 无人驾驶车辆的控制方法、装置、设备和存储介质
CN109740484A (zh) * 2018-12-27 2019-05-10 斑马网络技术有限公司 道路障碍物识别的方法、装置及系统
CN110246183A (zh) * 2019-06-24 2019-09-17 百度在线网络技术(北京)有限公司 车轮接地点检测方法、装置及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106485233A (zh) * 2016-10-21 2017-03-08 深圳地平线机器人科技有限公司 可行驶区域检测方法、装置和电子设备
CN108596058A (zh) * 2018-04-11 2018-09-28 西安电子科技大学 基于计算机视觉的行车障碍物测距方法
CN109084724A (zh) * 2018-07-06 2018-12-25 西安理工大学 一种基于双目视觉的深度学习障碍物测距方法
CN109532743A (zh) * 2018-12-11 2019-03-29 北京百度网讯科技有限公司 无人驾驶车辆的控制方法、装置、设备和存储介质
CN109740484A (zh) * 2018-12-27 2019-05-10 斑马网络技术有限公司 道路障碍物识别的方法、装置及系统
CN110246183A (zh) * 2019-06-24 2019-09-17 百度在线网络技术(北京)有限公司 车轮接地点检测方法、装置及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111858979A (zh) * 2020-07-23 2020-10-30 北京京东乾石科技有限公司 数据库构建方法和装置、障碍物识别方法、装置和系统
CN113052009A (zh) * 2021-03-02 2021-06-29 北京经纬恒润科技股份有限公司 一种车辆防撞方法、模型训练方法及装置
CN113820698A (zh) * 2021-09-13 2021-12-21 广州小鹏自动驾驶科技有限公司 障碍物测距方法、装置、电子设备及可读介质
CN113820698B (zh) * 2021-09-13 2024-04-16 广州小鹏自动驾驶科技有限公司 障碍物测距方法、装置、电子设备及可读介质
CN115147809A (zh) * 2022-06-30 2022-10-04 阿波罗智能技术(北京)有限公司 一种障碍物检测方法、装置、设备以及存储介质
CN115147809B (zh) * 2022-06-30 2023-09-22 阿波罗智能技术(北京)有限公司 一种障碍物检测方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN111402326B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN111402326A (zh) 障碍物的检测方法、装置、无人车及存储介质
KR102032070B1 (ko) 깊이 맵 샘플링을 위한 시스템 및 방법
US11017244B2 (en) Obstacle type recognizing method and apparatus, device and storage medium
CN111860319B (zh) 车道线的确定方法、定位精度的评测方法、装置、设备
US20190005667A1 (en) Ground Surface Estimation
CN102073846B (zh) 基于航拍图像的交通信息获取方法
US9396553B2 (en) Vehicle dimension estimation from vehicle images
EP3968266B1 (en) Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
CN111310840B (zh) 数据融合处理方法、装置、设备和存储介质
CN111666876A (zh) 用于检测障碍物的方法、装置、电子设备和路侧设备
CN112927303B (zh) 一种基于车道线的自动驾驶车载相机位姿估计方法及系统
CN113091757B (zh) 地图生成方法和装置
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
CN111767853A (zh) 车道线检测方法和装置
CN112668428A (zh) 车辆变道的检测方法、路侧设备、云控平台和程序产品
CN111339877B (zh) 盲区的长度检测方法、装置、电子设备及存储介质
CN110866504A (zh) 标注数据的获取方法、装置和设备
Głowacz et al. Video detection algorithm using an optical flow calculation method
CN114815851A (zh) 机器人跟随方法、装置、电子设备以及存储介质
CN111337898A (zh) 激光点云的处理方法、装置、设备及存储介质
Zhang et al. Real-time obstacle detection based on stereo vision for automotive applications
CN112528846A (zh) 障碍物检测的测评方法、装置、设备以及存储介质
CN114596706B (zh) 路侧感知系统的检测方法及装置、电子设备和路侧设备
CN112651535A (zh) 局部路径规划方法、装置、存储介质、电子设备及车辆
CN115147809A (zh) 一种障碍物检测方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant