CN109543600A - 一种实现可行驶区域检测方法及系统和应用 - Google Patents
一种实现可行驶区域检测方法及系统和应用 Download PDFInfo
- Publication number
- CN109543600A CN109543600A CN201811388213.0A CN201811388213A CN109543600A CN 109543600 A CN109543600 A CN 109543600A CN 201811388213 A CN201811388213 A CN 201811388213A CN 109543600 A CN109543600 A CN 109543600A
- Authority
- CN
- China
- Prior art keywords
- image
- region detection
- data
- detection method
- drivable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于人工智能技术领域,公开了一种实现可行驶区域检测方法及系统和应用;包括:通过激光雷达和视觉传感器同时采集道路环境数据,利用激光采集的点云数据进行车辆,行人等障碍物以及道路检测,将激光数据反向投影到视觉传感器采集的图像数据中,在图像中标记出可行驶区域像素;利用双向长短期记忆网络和条件随机场方法训练出语义分割模型;在应用时,通过视觉传感器接收图像,利用训练出的语义分割模型对图像进行像素标注,找出可行驶区域。通过本发明,解决了相关技术中对激光雷达和大量精确标注的训练图像的依赖问题,进而达到了提高基于视觉的环境感知能力的效果。
Description
技术领域
本发明属于无人驾驶及人工智能技术领域,尤其涉及一种实现可行驶区域检测方法及系统和应用。
背景技术
目前,业内常用的现有技术是这样的:传统无人驾驶主要通过激光雷达来揣测前方障碍物信息,虽然激光雷达能准确揣测车辆前方物体的距离信息,但激光设备造价高昂,一台64线激光雷达市面价达60万人民币以上。因此,过高的成本限制了无人驾驶技术的推广。近年来,以视觉信息为主的无人驾驶汽车利用深度学习方法来完成车辆对道路环境的感知与理解,取得了很大的进步。然而当前无人驾驶技术中的信息感知技术大多依赖于深度学习方法,这些方法在训练模型时需要大量已标注好的训练样本数据。不同于图像分类任务,图像检测任务需要精确的标注每个像素的类别标签,因此,需要耗费巨大的人力和物力进行标注。
综上所述,现有技术存在的问题是:当前无人驾驶技术中的信息感知技术大多依赖于深度学习方法在训练模型时需要大量已标注好的训练样本数据;不同于图像分类任务,图像检测任务需要精确的标注每个像素的类别标签,耗费巨大的人力和物力进行标注。
解决上述技术问题的难度和意义:解决上述问题的难度在于现有图像分类识别方法都是基于监督学习方法需要有标注的训练样本,而无监督的学习分类方法的分类准确性较差。提出的方案无需人为地对训练图像进行标注,从而能提供更多的有效训练数据,降低无人驾驶系统设备成本,从而让无人驾驶技术更快地应用到生活中。
发明内容
针对现有技术存在的问题,本发明提供了一种实现可行驶区域检测方法及系统和应用。
本发明是这样实现的,一种实现可行驶区域检测方法,所述实现可行驶区域检测方法包括以下步骤:
步骤一,通过激光雷达和视觉传感器同时采集点云数据和图像;
步骤二,利用点云数据进行障碍物检测和识别,检测出可行驶区域;
步骤三,将障碍物信息融合到图像中,完成图像训练样本自动标注;
步骤四,利用双向长短期记忆网络和条件随机场进行模型训练;
步骤五,通过视觉传感器采集图像,利用训练好的模型对图像进行可行驶区域检测;
步骤六,通过形态学方法,去除孤立的可行驶区域和非行驶区域。
进一步,所述实现可行驶区域检测方法通过激光雷达和视觉传感器采集道路环境数据,利用激光采集的点云数据进行障碍物以及道路检测。
进一步,所述实现可行驶区域检测方法将激光数据反向投影到视觉传感器采集的图像数据中,在图像中标记出可行驶区域和不可行驶区域。
进一步,利用全卷积网络得到图像中每个像素的向量表示。
进一步,所述实现可行驶区域检测方法以大小为M*N的窗口,0<M,N<图像的长和宽,将窗口内的每个像素的向量表示从左上角到右下角依次输入前向长短期记忆网络;同时,将窗口内的每个像素的向量表示从右下角到左上角依次输入反向长短期记忆网络,得到每个像素的状态输出向量;
将一个窗口内所有像素的状态输出向量输入进条件随机场,通过反向维特比方法解码每个像素所处的类别。
进一步,所述实现可行驶区域检测方法通过对比条件随机场方法输出分类标签与激光数据融合的标签进行对比,得到模型误差,通过反向传播算法更新长短期记忆网络的参数;通过视觉传感器接收图像,利用训练出的语义分割模型对图像进行像素标注,找出可行驶区域。
本发明的另一目的在于提供一种实现所述实现可行驶区域检测方法的实现可行驶区域检测系统,所述实现可行驶区域检测系统包括:
第一采集模块,用于采集激光数据;
第二采集模块,用于采集图像数据;
第一处理模块,对采集的点云数据进行障碍物检测和识别;
第一转换模块,将点云数据中的障碍物信息投影到图像中;
第二处理模块,训练图像的可行驶区域检测模型;
第三处理模块,利用训练的可行驶区域检测模型对采集的图像进行可行驶区域检测。
本发明的另一目的在于提供一种实现所述实现可行驶区域检测方法的实现可行驶区域检测系统,所述实现可行驶区域检测系统包括:
第一采集模块,用于采集图像数据;
第一处理模块,利用训练的可行驶区域检测模型对采集的图像进行可行驶区域检测。
本发明的另一目的在于提供一种应用所述实现可行驶区域检测方法的无人驾驶控制系统。
本发明的另一目的在于提供一种应用所述实现可行驶区域检测方法的地面无人移动机器人。
综上所述,本发明的优点及积极效果为:与相关技术相比,本发明实施例的技术方案包括:通过激光雷达和视觉传感器同时采集点云数据和图像,利用点云数据进行障碍物检测和识别;将障碍物信息融合到图像中,完成图像训练样本自动标;利用双向长短期记忆网络和条件随机场进行模型训练;在无人驾驶交通工具上通过视觉传感器采集图像,利用训练好的模型对图像进行可行驶区域检测,为车辆路径规划提供信息。
通过本发明实施例的方案,通过激光雷达数据投影图像来完成训练数据的标注,通过双向长短期记忆网络和条件随机场模型来完成可行驶区域的检测。
附图说明
图1是本发明实施例提供的实现可行驶区域检测方法流程图。
图2是本发明实施例提供实现可行驶区域检测方法实现流程图。
图3是本发明实施例提供另一种实现可行驶区域检测(训练)的流程图。
图4是本发明实施例提供训练端结构组成示意图。
图5是本发明实施例提供应用端结构组成示意图。
图6是本发明实施例在校园道路上检测结果。
图7是本发明实施例在高速道路上检测结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对当前无人驾驶技术中的信息感知技术大多依赖于深度学习方法在训练模型时需要大量已标注好的训练样本数据;耗费巨大的人力和物力进行标注的问题。通过本发明实施例的方案,通过激光雷达数据投影图像来完成训练数据的标注,通过双向长短期记忆网络和条件随机场模型来完成可行驶区域的检测。
下面结合附图对本发明的应用原理作详细的描述。
如图1所示,本发明实施例提供的实现可行驶区域检测方法包括以下步骤:
S101:通过激光雷达和视觉传感器同时采集点云数据和图像;
S102:利用点云数据进行障碍物检测和识别,检测出可行驶区域;
S103:将障碍物信息融合到图像中,完成图像训练样本自动标注;
S104:利用双向长短期记忆网络和条件随机场进行模型训练;
S105:通过视觉传感器采集图像,利用训练好的模型对图像进行可行驶区域检测;
S106:通过形态学方法,去除孤立的可行驶区域和非行驶区域。
本发明实施例提供的实现可行驶区域检测系统(训练端)包括:
第一采集模块1-1,用于采集激光数据;
第二采集模块,用于采集图像数据;
第一处理模块,对采集的点云数据进行障碍物检测和识别;
第一转换模块,将点云数据中的障碍物信息投影到图像中;
第二处理模块,训练图像的可行驶区域检测模型;
第三处理模块,利用训练的可行驶区域检测模型对采集的图像进行可行驶区域检测。
本发明的实施例还提供了一种可行驶区域检测装置(应用端),包括:
第一采集模块,用于采集图像数据;
第一处理模块,利用训练的可行驶区域检测模型对采集的图像进行可行驶区域检测。
下面结合附图对本发明的应用原理作进一步的描述。
实施例1
如图3所示,本发明实施例提供实现可行驶区域检测方法包括:
步骤一,通过激光雷达和视觉传感器同时采集点云数据和图像,将激光雷达和视觉传感器安装于无人驾驶汽车或地面移动机器人平台中,通过驾驶人为操控汽车或机器人平台在道路环境中移动,通过激光采集道路环境的点云数据,同时通过视觉传感器采集道路环境的图像信息。
步骤二,利用点云数据进行障碍物检测和识别,包括:
激光采集的数据,依据高度h和反射率信息γ,通过其中,1表示可行驶点,0表示不可行驶点。高度阀值可以依据汽车或机器人平台的底盘高度来优化地选取决定,反射率通过道路环境来进一步优选决定。然后,通过K均值聚类算法将所有点云数据聚类成可行驶区域或非可行驶区域。
步骤三,将点云数据投影到图像中,利用公式pimg=KGppcl,将点云数据投影到图像平面,其中ppcl表示点云数据,pimg表示摄像机坐标系图像中的点。G为相机与激光数据的坐标转换矩阵,K为相机的内参矩阵。在本实施例中,矩阵G具有如下形式:
其中R是3×3的矩阵,由3个不相关的角元素组成,相对位移t是3×1的向量,含有3个参数。通过提取特征最小二乘法来求解。
在本实施例中,相机内参矩阵K具有如下形式:
矩阵中fx,fy分别为相机x和y轴方向上的焦距,cx和cy分别为x,y轴光心的位置。
内外参矩阵的乘积KG也被称为为投影矩阵,混合了内参和外参而成。其内外参标定可采用张正友标定法,或Tsai的经典两步法进行标定。具体可以采用本领域技术人员的公知技术实现,并不用于限定本发明的保护范围,这里不再赘述。
步骤四,利用深度全卷积模型进行训练
将激光点云数据和对应的标签投影到对应的图像像素中后,利用像素和对应的标签可进行深度学习的训练。
本实施例中将图像先输入进全卷积神经网络FCN中,最后通过上采样,得到与输入图像大小一致的特征映射,提取每个像素的高维特征向量表示。
然后,以M*N为大小的滑动窗为单位,将滑动窗内的像素的特征向量从左上角到右下角依次输入进前向LSTM网络,将滑动窗内像素的特征向量从右下角到左上角依次输入进反向LSTM网络,最后通过CRF解码,得到每个像素的语义标签0(不可行驶)或1(可以行驶)。
步骤五,利用训练好的模型对采集的新图像进行可行驶区域检测;
在仅装备有视觉传感器而没有装备激光雷达的无人驾驶交通工具中,通过视觉传感器采集道路环境信息图像,利用训练好的模型对图像进行分析,得出可行驶区域,从而为路径规划模块提供重要信息。
实施例2:利用训练好的数据,对高速路和校园内部道路进行可行驶区域检测先采用Velodyne公司的64线激光雷达和普通彩色相机采集道路信息,通过标定后将激光分割的道路信息映射到图像中,构成训练数据,再对FCN-8全卷积网络结构和双向长短期记忆网络对进行训练,其深度学习的网络参数和CRF参数通过随机梯度下降法进行训练(SGD),批大小设置为50,权重衰减因子为0.0005。整个网络通过tensorflow1.0平台实现。最后,利用视觉相机采集校园内部道路和高速路这两组道路图像,利用训练好的全卷积网络和双向长短期记忆网络模型对其进行可行驶区域的分割。其分割后的结果如图6和7。其检测结果图中用深黑色表示检测到的可行驶区域。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种实现可行驶区域检测方法,其特征在于,所述实现可行驶区域检测方法包括以下步骤:
步骤一,通过激光雷达和视觉传感器同时采集点云数据和图像;
步骤二,利用点云数据进行障碍物检测和识别,检测出可行驶区域;
步骤三,将障碍物信息融合到图像中,完成图像训练样本自动标注;
步骤四,利用双向长短期记忆网络和条件随机场进行模型训练;
步骤五,通过视觉传感器采集图像,利用训练好的模型对图像进行可行驶区域检测;
步骤六,通过形态学方法,去除孤立的可行驶区域和非行驶区域。
2.如权利要求1所述的实现可行驶区域检测方法,其特征在于,所述实现可行驶区域检测方法通过激光雷达和视觉传感器采集道路环境数据,利用激光采集的点云数据进行障碍物以及道路检测。
3.如权利要求1所述的实现可行驶区域检测方法,其特征在于,所述实现可行驶区域检测方法将激光数据反向投影到视觉传感器采集的图像数据中,在图像中标记出可行驶区域和不可行驶区域。
4.如权利要求3所述的实现可行驶区域检测方法,其特征在于,利用全卷积网络得到图像中每个像素的向量表示。
5.如权利要求1所述的实现可行驶区域检测方法,其特征在于,所述实现可行驶区域检测方法利用全卷积网络得到每个像素的特征信息的向量表示,然后以大小为M*N的窗口,0<M,N<图像的长和宽,将窗口内的每个像素的向量表示从左上角到右下角依次输入前向长短期记忆网络;同时,将窗口内的每个像素的向量表示从右下角到左上角依次输入反向长短期记忆网络,得到每个像素的状态输出向量;
将一个窗口内所有像素的状态输出向量输入进条件随机场,通过反向维特比方法解码每个像素所处的类别。
6.如权利要求1所述的实现可行驶区域检测方法,其特征在于,所述实现可行驶区域检测方法通过对比条件随机场方法输出分类标签与激光数据融合的标签进行对比,得到模型误差,通过反向传播算法更新长短期记忆网络的参数;通过视觉传感器接收图像,利用训练出的语义分割模型对图像进行像素标注,找出可行驶区域。
7.一种实现权利要求1所述实现可行驶区域检测方法的实现可行驶区域检测系统,其特征在于,所述实现可行驶区域检测系统包括:
第一采集模块,用于采集激光数据;
第二采集模块,用于采集图像数据;
第一处理模块,对采集的点云数据进行障碍物检测和识别;
第一转换模块,将点云数据中的障碍物信息投影到图像中;
第二处理模块,训练图像的可行驶区域检测模型;
第三处理模块,利用训练的可行驶区域检测模型对采集的图像进行可行驶区域检测。
8.一种实现权利要求1所述实现可行驶区域检测方法的实现可行驶区域检测系统,其特征在于,所述实现可行驶区域检测系统包括:
第一采集模块,用于采集图像数据;
第一处理模块,利用训练的可行驶区域检测模型对采集的图像进行可行驶区域检测。
9.一种应用权利要求1~5任意一项所述实现可行驶区域检测方法的无人驾驶控制系统。
10.一种应用权利要求1~5任意一项所述实现可行驶区域检测方法的地面无人移动机器人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811388213.0A CN109543600A (zh) | 2018-11-21 | 2018-11-21 | 一种实现可行驶区域检测方法及系统和应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811388213.0A CN109543600A (zh) | 2018-11-21 | 2018-11-21 | 一种实现可行驶区域检测方法及系统和应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109543600A true CN109543600A (zh) | 2019-03-29 |
Family
ID=65848826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811388213.0A Pending CN109543600A (zh) | 2018-11-21 | 2018-11-21 | 一种实现可行驶区域检测方法及系统和应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543600A (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110006488A (zh) * | 2019-04-09 | 2019-07-12 | 北京百度网讯科技有限公司 | 真值获取方法、车辆感知装置的检测方法及相关设备 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN110341621A (zh) * | 2019-07-10 | 2019-10-18 | 北京百度网讯科技有限公司 | 一种障碍物检测方法及装置 |
CN110378196A (zh) * | 2019-05-29 | 2019-10-25 | 电子科技大学 | 一种结合激光点云数据的道路视觉检测方法 |
CN110991489A (zh) * | 2019-11-11 | 2020-04-10 | 苏州智加科技有限公司 | 一种驾驶数据的标注方法、装置及系统 |
CN111966108A (zh) * | 2020-09-02 | 2020-11-20 | 成都信息工程大学 | 基于导航系统的极端天气无人驾驶控制系统 |
CN112115889A (zh) * | 2020-09-23 | 2020-12-22 | 成都信息工程大学 | 基于视觉的智能车运动目标检测方法 |
WO2020253764A1 (zh) * | 2019-06-18 | 2020-12-24 | 华为技术有限公司 | 确定行驶区域信息的方法及装置 |
CN112241662A (zh) * | 2019-07-17 | 2021-01-19 | 杭州海康威视数字技术股份有限公司 | 一种检测可行驶区域的方法及装置 |
CN112487872A (zh) * | 2020-11-10 | 2021-03-12 | 河北工业大学 | 智能割草机器人的避障控制方法及控制系统 |
CN112578405A (zh) * | 2020-10-29 | 2021-03-30 | 上汽大众汽车有限公司 | 一种基于激光雷达点云数据去除地面的方法及系统 |
CN112731436A (zh) * | 2020-12-17 | 2021-04-30 | 浙江大学 | 基于点云上采样的多模态数据融合可行驶区域检测方法 |
CN112733922A (zh) * | 2021-01-04 | 2021-04-30 | 上海高仙自动化科技发展有限公司 | 一种确定禁行区域的方法、装置、机器人及存储介质 |
CN112863183A (zh) * | 2021-01-14 | 2021-05-28 | 深圳尚桥信息技术有限公司 | 一种交通流数据融合方法及系统 |
CN113269130A (zh) * | 2021-06-11 | 2021-08-17 | 国电瑞源(西安)智能研究院有限公司 | 一种基于人工神经网络的视觉路径搜寻方法 |
CN113343875A (zh) * | 2021-06-18 | 2021-09-03 | 深圳亿嘉和科技研发有限公司 | 一种用于机器人的可行驶区域感知方法 |
CN113421217A (zh) * | 2020-03-02 | 2021-09-21 | 北京京东乾石科技有限公司 | 可行驶区域检测方法和装置 |
WO2021226776A1 (zh) * | 2020-05-11 | 2021-11-18 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
WO2022007859A1 (zh) * | 2020-07-08 | 2022-01-13 | 深圳市速腾聚创科技有限公司 | 激光雷达参数调整方法、装置及激光雷达 |
CN114155258A (zh) * | 2021-12-01 | 2022-03-08 | 苏州思卡信息系统有限公司 | 一种公路施工围封区域的检测方法 |
CN116385949A (zh) * | 2023-03-23 | 2023-07-04 | 广州里工实业有限公司 | 一种移动机器人的区域检测方法、系统、装置及介质 |
CN116863432A (zh) * | 2023-09-04 | 2023-10-10 | 之江实验室 | 基于深度学习的弱监督激光可行驶区域预测方法和系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650705A (zh) * | 2017-01-17 | 2017-05-10 | 深圳地平线机器人科技有限公司 | 区域标注方法、装置和电子设备 |
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN107292253A (zh) * | 2017-06-09 | 2017-10-24 | 西安交通大学 | 一种道路行驶区域的视觉检测方法 |
CN107862293A (zh) * | 2017-09-14 | 2018-03-30 | 北京航空航天大学 | 基于对抗生成网络的雷达生成彩色语义图像系统及方法 |
CN108037515A (zh) * | 2017-12-27 | 2018-05-15 | 清华大学苏州汽车研究院(吴江) | 一种激光雷达和超声波雷达信息融合系统及方法 |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
CN108256413A (zh) * | 2017-11-27 | 2018-07-06 | 科大讯飞股份有限公司 | 可通行区域检测方法及装置、存储介质、电子设备 |
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
-
2018
- 2018-11-21 CN CN201811388213.0A patent/CN109543600A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650705A (zh) * | 2017-01-17 | 2017-05-10 | 深圳地平线机器人科技有限公司 | 区域标注方法、装置和电子设备 |
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
CN107292253A (zh) * | 2017-06-09 | 2017-10-24 | 西安交通大学 | 一种道路行驶区域的视觉检测方法 |
CN107862293A (zh) * | 2017-09-14 | 2018-03-30 | 北京航空航天大学 | 基于对抗生成网络的雷达生成彩色语义图像系统及方法 |
CN108256413A (zh) * | 2017-11-27 | 2018-07-06 | 科大讯飞股份有限公司 | 可通行区域检测方法及装置、存储介质、电子设备 |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
CN108037515A (zh) * | 2017-12-27 | 2018-05-15 | 清华大学苏州汽车研究院(吴江) | 一种激光雷达和超声波雷达信息融合系统及方法 |
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110006488A (zh) * | 2019-04-09 | 2019-07-12 | 北京百度网讯科技有限公司 | 真值获取方法、车辆感知装置的检测方法及相关设备 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN110096059B (zh) * | 2019-04-25 | 2022-03-01 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN110378196A (zh) * | 2019-05-29 | 2019-10-25 | 电子科技大学 | 一种结合激光点云数据的道路视觉检测方法 |
CN110378196B (zh) * | 2019-05-29 | 2022-08-02 | 电子科技大学 | 一种结合激光点云数据的道路视觉检测方法 |
US11698459B2 (en) | 2019-06-18 | 2023-07-11 | Huawei Technologies Co., Ltd. | Method and apparatus for determining drivable region information |
WO2020253764A1 (zh) * | 2019-06-18 | 2020-12-24 | 华为技术有限公司 | 确定行驶区域信息的方法及装置 |
US20220108552A1 (en) | 2019-06-18 | 2022-04-07 | Huawei Technologies Co., Ltd. | Method and Apparatus for Determining Drivable Region Information |
CN110341621A (zh) * | 2019-07-10 | 2019-10-18 | 北京百度网讯科技有限公司 | 一种障碍物检测方法及装置 |
CN112241662B (zh) * | 2019-07-17 | 2024-03-19 | 杭州海康威视数字技术股份有限公司 | 一种检测可行驶区域的方法及装置 |
CN112241662A (zh) * | 2019-07-17 | 2021-01-19 | 杭州海康威视数字技术股份有限公司 | 一种检测可行驶区域的方法及装置 |
CN110991489A (zh) * | 2019-11-11 | 2020-04-10 | 苏州智加科技有限公司 | 一种驾驶数据的标注方法、装置及系统 |
CN113421217A (zh) * | 2020-03-02 | 2021-09-21 | 北京京东乾石科技有限公司 | 可行驶区域检测方法和装置 |
WO2021226776A1 (zh) * | 2020-05-11 | 2021-11-18 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
WO2022007859A1 (zh) * | 2020-07-08 | 2022-01-13 | 深圳市速腾聚创科技有限公司 | 激光雷达参数调整方法、装置及激光雷达 |
CN111966108A (zh) * | 2020-09-02 | 2020-11-20 | 成都信息工程大学 | 基于导航系统的极端天气无人驾驶控制系统 |
CN112115889A (zh) * | 2020-09-23 | 2020-12-22 | 成都信息工程大学 | 基于视觉的智能车运动目标检测方法 |
CN112115889B (zh) * | 2020-09-23 | 2022-08-30 | 成都信息工程大学 | 基于视觉的智能车运动目标检测方法 |
CN112578405A (zh) * | 2020-10-29 | 2021-03-30 | 上汽大众汽车有限公司 | 一种基于激光雷达点云数据去除地面的方法及系统 |
CN112578405B (zh) * | 2020-10-29 | 2023-03-10 | 上汽大众汽车有限公司 | 一种基于激光雷达点云数据去除地面的方法及系统 |
CN112487872A (zh) * | 2020-11-10 | 2021-03-12 | 河北工业大学 | 智能割草机器人的避障控制方法及控制系统 |
CN112731436B (zh) * | 2020-12-17 | 2024-03-19 | 浙江大学 | 基于点云上采样的多模态数据融合可行驶区域检测方法 |
CN112731436A (zh) * | 2020-12-17 | 2021-04-30 | 浙江大学 | 基于点云上采样的多模态数据融合可行驶区域检测方法 |
CN112733922A (zh) * | 2021-01-04 | 2021-04-30 | 上海高仙自动化科技发展有限公司 | 一种确定禁行区域的方法、装置、机器人及存储介质 |
CN112863183B (zh) * | 2021-01-14 | 2022-04-08 | 深圳尚桥信息技术有限公司 | 一种交通流数据融合方法及系统 |
CN112863183A (zh) * | 2021-01-14 | 2021-05-28 | 深圳尚桥信息技术有限公司 | 一种交通流数据融合方法及系统 |
CN113269130B (zh) * | 2021-06-11 | 2024-08-06 | 国电瑞源(西安)智能研究院有限公司 | 一种基于人工神经网络的视觉路径搜寻方法 |
CN113269130A (zh) * | 2021-06-11 | 2021-08-17 | 国电瑞源(西安)智能研究院有限公司 | 一种基于人工神经网络的视觉路径搜寻方法 |
CN113343875A (zh) * | 2021-06-18 | 2021-09-03 | 深圳亿嘉和科技研发有限公司 | 一种用于机器人的可行驶区域感知方法 |
CN114155258A (zh) * | 2021-12-01 | 2022-03-08 | 苏州思卡信息系统有限公司 | 一种公路施工围封区域的检测方法 |
CN116385949B (zh) * | 2023-03-23 | 2023-09-08 | 广州里工实业有限公司 | 一种移动机器人的区域检测方法、系统、装置及介质 |
CN116385949A (zh) * | 2023-03-23 | 2023-07-04 | 广州里工实业有限公司 | 一种移动机器人的区域检测方法、系统、装置及介质 |
CN116863432A (zh) * | 2023-09-04 | 2023-10-10 | 之江实验室 | 基于深度学习的弱监督激光可行驶区域预测方法和系统 |
CN116863432B (zh) * | 2023-09-04 | 2023-12-22 | 之江实验室 | 基于深度学习的弱监督激光可行驶区域预测方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543600A (zh) | 一种实现可行驶区域检测方法及系统和应用 | |
CN108960183B (zh) | 一种基于多传感器融合的弯道目标识别系统及方法 | |
EP4152204A1 (en) | Lane line detection method, and related apparatus | |
Bar Hillel et al. | Recent progress in road and lane detection: a survey | |
Dewangan et al. | Driving behavior analysis of intelligent vehicle system for lane detection using vision-sensor | |
Wu et al. | Applying a functional neurofuzzy network to real-time lane detection and front-vehicle distance measurement | |
CN111169468B (zh) | 一种自动泊车的系统及方法 | |
Guo et al. | Robust road detection and tracking in challenging scenarios based on Markov random fields with unsupervised learning | |
Shim et al. | An autonomous driving system for unknown environments using a unified map | |
WO2021076914A1 (en) | Geospatial object geometry extraction from imagery | |
CN113126115B (zh) | 基于点云的语义slam方法、装置、电子设备和存储介质 | |
CN105426861A (zh) | 车道线确定方法及装置 | |
CN111860227A (zh) | 训练轨迹规划模型的方法、装置和计算机存储介质 | |
Zhang et al. | End to end video segmentation for driving: Lane detection for autonomous car | |
CN107194343B (zh) | 基于位置相关的卷积与Fire模型的红绿灯检测方法 | |
CN111754388B (zh) | 一种建图方法及车载终端 | |
AU2021255130B2 (en) | Artificial intelligence and computer vision powered driving-performance assessment | |
Li et al. | Lane marking quality assessment for autonomous driving | |
Fernandez et al. | A Hybrid Vision‐Map Method for Urban Road Detection | |
CN111098850A (zh) | 一种自动停车辅助系统及自动泊车方法 | |
KR102316818B1 (ko) | 도로 네트워크를 갱신하는 방법 및 장치 | |
Raguraman et al. | Intelligent drivable area detection system using camera and LiDAR sensor for autonomous vehicle | |
Wang et al. | Lane detection algorithm based on temporal–spatial information matching and fusion | |
Golovnin et al. | Video processing method for high-definition maps generation | |
Ho et al. | Localization on freeways using the horizon line signature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190329 |