CN115223119A - 一种可行驶区域检测方法与系统 - Google Patents
一种可行驶区域检测方法与系统 Download PDFInfo
- Publication number
- CN115223119A CN115223119A CN202210670545.8A CN202210670545A CN115223119A CN 115223119 A CN115223119 A CN 115223119A CN 202210670545 A CN202210670545 A CN 202210670545A CN 115223119 A CN115223119 A CN 115223119A
- Authority
- CN
- China
- Prior art keywords
- scene
- area
- travelable
- vehicle
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims description 25
- 230000011218 segmentation Effects 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000003062 neural network model Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000007621 cluster analysis Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012946 outsourcing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
Abstract
本发明涉及一种可行驶区域检测方法与系统,包括:接收车载摄像头采集的当前前方环境图像;将当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,特征共享网络用于提取当前前方环境图像的图像特征,场景识别分支网络用于识别图像特征获得场景识别结果,道路分割分支网络用于识别图像特征获得道路分割结果;根据道路分割结果确定可行驶区域和可选行驶区域;根据场景识别结果、可行驶区域和可选行驶区域确定当前场景下的车辆可以行驶的区域。本发明能够进行单向车道场景和双向车道场景的可行驶区域的检测。
Description
技术领域
本发明涉及可行驶区域检测技术领域,具体涉及一种可行驶区域检测方法与系统。
背景技术
随着我国交通事业的发展,交通事故愈发严重,造成了巨额损失。智能网联汽车的出现,大大提高了行车安全性。其中,可行驶区域检测技术可以帮助智能网联汽车识别前方可行驶的道路区域,是智能网联汽车环境感知中的一项重要技术。
目前,可行驶区域检测方法大多基于语义分割技术来检测,通过语义分割网络检测出前方道路图像中的道路像素点,以此作为可行驶区域。对于双向车道来说,逆向车道虽然存在道路像素点,但不是可行驶区域,所以仅仅依靠道路像素点来判断可行驶区域会产生误判。
发明内容
本发明的目的在于提出一种可行驶区域检测方法与系统,能够进行单向车道场景和双向车道场景的可行驶区域的检测。
为实现上述目的,本发明的第一个实施方式提出一种可行驶区域检测方法,所述方法包括:
接收车载摄像头采集的当前前方环境图像;
将所述当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;其中,所述多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,所述特征共享网络用于提取所述当前前方环境图像的图像特征,所述场景识别分支网络用于识别所述图像特征获得所述场景识别结果,所述道路分割分支网络用于识别所述图像特征获得所述道路分割结果;
根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2;
根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z。
优选地,所述根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z,包括:
当所述场景识别结果为高速公路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述可选行驶区域Z2。
优选地,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
其中,所述根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z,包括:
当所述场景识别结果为城市道路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述右侧可选行驶区域Z22。
优选地,所述根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z,包括:
当所述场景识别结果为除高速公路场景和城市道路场景以外的其他场景时,确定当前场景下的车辆可以行驶的区域Z仅包括所述可行驶区域Z1。
优选地,所述根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2,包括:
基于预设的DBSCAN密度聚类算法对所述道路分割结果进行聚类分析,并根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2。
优选地,所述根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2,包括:
当根据聚类分析结果得到的可行驶区域Z1和可选行驶区域Z2存在重叠区域时,将该可行驶区域Z1中的该重叠区域删除得到最终的可行驶区域Z1。
优选地,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
其中,所述根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2,包括:
当左侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为左侧可选行驶区域Z21;
当右侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为右侧可选行驶区域Z22。
作为同一发明构思,与上述方法对应,本发明的第二个实施方式提出一种可行驶区域检测系统,所述系统包括:
图像接收单元,用于接收车载摄像头采集的当前前方环境图像;
图像识别单元,用于将所述当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;其中,所述多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,所述特征共享网络用于提取所述当前前方环境图像的图像特征,所述场景识别分支网络用于识别所述图像特征获得所述场景识别结果,所述道路分割分支网络用于识别所述图像特征获得所述道路分割结果;
区域细分单元,用于根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2;
决策单元,用于根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z。
优选地,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
所述决策单元,具体用于:
当所述场景识别结果为高速公路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述可选行驶区域Z2。
当所述场景识别结果为城市道路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述右侧可选行驶区域Z22。
当所述场景识别结果为除高速公路场景和城市道路场景以外的其他场景时,确定当前场景下的车辆可以行驶的区域Z仅包括所述可行驶区域Z1。
优选地,所述区域细分单元,具体用于:
基于预设的DBSCAN密度聚类算法对所述道路分割结果进行聚类分析,并根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2。
本发明的方法与系统至少具有以下有益效果:
车辆行驶过程中,将车辆的前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;所述道路分割结果为基于语义分割技术来检测得到,通过语义分割技术检测出前方道路图像中的道路像素点,以此作为道路分割结果。对于单向车道来说,该道路分割结果直接用作可行驶区域是比较可靠的,但对于双向车道来说,逆向车道也存在道路像素点,但逆向车道不是可行驶区域,所以双向车道情况下,仅仅依靠该道路分割结果来判断可行驶区域会产生误判;因此,本发明对该道路分割结果进一步进行分割为可行驶区域Z1和可选行驶区域Z2,并结合了场景识别结果进行综合决策,来确定当前场景下的车辆可以行驶的区域Z;因此,本发明的方法与系统能够进行单向车道场景和双向车道场景的可行驶区域的检测,提高可行驶区域的检测可靠性。
本发明的其它特征和优点将在随后的说明书中阐述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种可行驶区域检测方法的流程图。
图2为本发明实施例中多任务神经网络模型的原理图。
图3为本发明实施例中可行驶区域Z1和可选行驶区域Z2重叠的示意图。
图4为本发明实施例中高速道路场景下的聚类分析结果示意图。
图5为本发明实施例中一种可行驶区域检测系统的框架图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。另外,为了更好的说明本发明,在下文的具体实施例中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本发明同样可以实施。在一些实例中,对于本领域技术人员熟知的手段未作详细描述,以便于凸显本发明的主旨。
本发明一实施例提出一种可行驶区域检测方法,参阅图1,本实施例的方法包括以下步骤:
步骤S10、接收车载摄像头采集的当前前方环境图像;
具体而言,所述车载摄像头安装于车辆前部,用于在车辆行驶过程中采集车辆前前方环境图像;
步骤S20、将所述当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;其中,所述多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,所述特征共享网络用于提取所述当前前方环境图像的图像特征,所述场景识别分支网络用于识别所述图像特征获得所述场景识别结果,所述道路分割分支网络用于识别所述图像特征获得所述道路分割结果;
具体而言,本实施例的多任务神经网络模型的原理如图2所示,所述多任务神经网络模型在训练过程中,可以使用BDD100k数据集的样本数据进行训练;其中,所述特征共享网络可以采用卷积神经网络CNN进行图像特征的提取,提取后的图像特征同步输入所述场景识别分支网络和所述道路分割分支网络;
其中,所述场景识别分支网络被训练为能够根据所述图像特征识别车辆前方环境是何种场景,例如是高速公路场景、住宅区域场景、城市道路场景,至于停车场、加油站、隧道及其他未定义的场景,统一定义为其他场景;
其中,所述道路分割分支网络为基于语义分割技术实现,通过语义分割技术检测出前方道路图像中的道路像素点,检测到的多个道路像素点会形成一个图像的局部区域,以此作为道路分割结果;
步骤S30、根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2;
具体而言,对于单向车道来说,该道路分割结果直接用作可行驶区域是比较可靠的,但对于双向车道来说,逆向车道也存在道路像素点,但逆向车道不是可行驶区域,所以双向车道情况下,仅仅依靠道路分割结果来判断可行驶区域会产生误判;因此,本实施例对所述道路分割结果进一步进行分割为可行驶区域Z1和可选行驶区域Z2,并在后续的步骤S40中结合了所述场景识别结果进行综合决策,来确定当前场景下的车辆可以行驶的区域Z,提高可行驶区域检测的可靠性;
步骤S40、根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z。
举例而言,本实施例的方法可以通过运行植入车载终端的算法来完成,即,在车辆行驶过程中,所述车载摄像头采集车辆的当前前方环境图像,并发送给所述车载终端,所述车载终端运行该算法,对所述当前前方环境图像进行处理得到当前场景下的车辆可以行驶的区域Z。
在一些更具体的实施例中,所述步骤S40,包括:
步骤S401、当所述场景识别结果为高速公路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述可选行驶区域Z2;
需说明的是,所述可行驶区域Z1指的是可信度较高的允许通行的区域,无论在何种场景下,所述可行驶区域Z1都是可以行驶通过的区域;所述可选行驶区域Z2指的是原则上是可以通过的,但在复杂的场景下,仍存在可能误识别的情况,需要根据具体的场景进行判断其是否为可以行驶通过的区域;
具体而言,在高速公路场景,其为一种典型的单向车道场景,所述车载摄像头实际上在拍摄时,基本上是不会拍摄到逆向车道的,即使拍摄到一小部分,在步骤S2的处理后,得出的可行驶区域或可选行驶区域都不会包含逆向车道的部分;因此,此时的所述可行驶区域Z1和所述可选行驶区域Z2均为可以行驶通过的区域。
在一些更具体的实施例中,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
其中,所述步骤S40,包括:
步骤S402、当所述场景识别结果为城市道路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述右侧可选行驶区域Z22;
具体而言,对于城市道路场景,包含双向和多车道场景,为了避免将逆向车道误判为可行使区域,只可在所述可行驶区域Z1和所述右侧可选行驶区域Z22行驶通过。
在一些更具体的实施例中,所述步骤S40,包括:
步骤S403、当所述场景识别结果为除高速公路场景和城市道路场景以外的其他场景时,确定当前场景下的车辆可以行驶的区域Z仅包括所述可行驶区域Z1;
所述其他场景例如是住宅区域场景,其中,双向或单车道的街道均被标记为住宅场景,为了避免将逆向车道误判为可行使区域,只可在所述可行驶区域Z1进行行驶通过。
在一些更具体的实施例中,所述步骤S30,包括:
基于预设的DBSCAN密度聚类算法对所述道路分割结果进行聚类分析,并根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2;
其中,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
具体而言,DBSCAN(Density-Based Spatial Clustering of Applications withNoise,基于密度的抗噪聚类方法)是一种基于密度的聚类算法,这类密度聚类算法一般假定类别可以通过样本分布的紧密程度决定;同一类别的样本,他们之间紧密相连,也就是说,在该类别任意样本周围不远处一定有同类别的样本存在;通过将紧密相连的样本划为一类,这样就得到了一个聚类类别;通过将所有各组紧密相连的样本划为各个不同的类别,就得到了最终的所有聚类类别结果;基于以上原理,本实施例利用DBSCAN密度聚类算法所述道路分割结果进行聚类分析,根据同一类别的像素点画出外包多边形获取区域级道路分割结果,示例如图3所示,左边多边形区域是可行使区域,右边多边形区域是可选行驶区域,一般来说,基于摄像头视角识别得到的可行驶区域大多是一个不规则的多边形区域;
如图4所示是高速道路场景(High way)下的聚类分析结果;由于在高速道路场景下,车辆行驶的自我车道与其他车道之间会明确的车道线,因此,经过上面的聚类分析,如果车辆行驶在中间车道,如图4所示那样,则车辆所在车道会被聚类为可行驶区域Z1,其他的车道则会被归为可选行驶区域Z2。
在一些更具体的实施例中,所述根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2,包括:
为了保证自我车道行车安全,当根据聚类分析结果得到的可行驶区域Z1和可选行驶区域Z2存在重叠区域时,将该可行驶区域Z1中的该重叠区域删除得到最终的可行驶区域Z1。
在一些更具体的实施例中,所述根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2,包括:
当左侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为左侧可选行驶区域Z21;
当右侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为右侧可选行驶区域Z22。
与上述实施例所述的方法对应,本发明另一实施例提出一种可行驶区域检测系统,其包括多个功能单元,所述多个功能单元可以用于执行上述实施例所述的方法的对应步骤;参阅图5,本实施例的系统包括:
图像接收单元1,用于接收车载摄像头采集的当前前方环境图像;
图像识别单元2,用于将所述当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;其中,所述多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,所述特征共享网络用于提取所述当前前方环境图像的图像特征,所述场景识别分支网络用于识别所述图像特征获得所述场景识别结果,所述道路分割分支网络用于识别所述图像特征获得所述道路分割结果;
区域细分单元3,用于根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2;
决策单元4,用于根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z。
在一些更具体的实施例中,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
所述决策单元4,具体用于:
当所述场景识别结果为高速公路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述可选行驶区域Z2。
当所述场景识别结果为城市道路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述右侧可选行驶区域Z22。
当所述场景识别结果为除高速公路场景和城市道路场景以外的其他场景时,确定当前场景下的车辆可以行驶的区域Z仅包括所述可行驶区域Z1。
在一些更具体的实施例中,所述区域细分单元3,具体用于:
基于预设的DBSCAN密度聚类算法对所述道路分割结果进行聚类分析,并根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2;
其中,当根据聚类分析结果得到的可行驶区域Z1和可选行驶区域Z2存在重叠区域时,将该可行驶区域Z1中的该重叠区域删除得到最终的可行驶区域Z1;
其中,当左侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为左侧可选行驶区域Z21;
其中,当右侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为右侧可选行驶区域Z22。
以上所描述的实施例的系统仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现实施例的系统的方案的目的。
需说明的是,上述实施例的系统与上述实施例的方法对应,因此,上述实施例的系统未详述部分可以参阅上述实施例的方法的内容得到,即上述实施例的方法记载的具体步骤内容可以理解为上述实施例的系统所能够实现的功能,此处不再赘述。
并且,上述实施例的系统若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中,因此作为另一个实施例,本发明还提出一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述实施例所述可行驶区域检测方法的步骤。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种可行驶区域检测方法,其特征在于,所述方法包括:
接收车载摄像头采集的当前前方环境图像;
将所述当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;其中,所述多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,所述特征共享网络用于提取所述当前前方环境图像的图像特征,所述场景识别分支网络用于识别所述图像特征获得所述场景识别结果,所述道路分割分支网络用于识别所述图像特征获得所述道路分割结果;
根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2;
根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z。
2.根据权利要求1所述的可行驶区域检测方法,其特征在于,所述根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z,包括:
当所述场景识别结果为高速公路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述可选行驶区域Z2。
3.根据权利要求1所述的可行驶区域检测方法,其特征在于,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
其中,所述根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z,包括:
当所述场景识别结果为城市道路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述右侧可选行驶区域Z22。
4.根据权利要求1所述的可行驶区域检测方法,其特征在于,所述根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z,包括:
当所述场景识别结果为除高速公路场景和城市道路场景以外的其他场景时,确定当前场景下的车辆可以行驶的区域Z仅包括所述可行驶区域Z1。
5.根据权利要求1~4中任一项所述的可行驶区域检测方法,其特征在于,所述根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2,包括:
基于预设的DBSCAN密度聚类算法对所述道路分割结果进行聚类分析,并根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2。
6.根据权利要求5所述的可行驶区域检测方法,其特征在于,所述根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2,包括:
当根据聚类分析结果得到的可行驶区域Z1和可选行驶区域Z2存在重叠区域时,将该可行驶区域Z1中的该重叠区域删除得到最终的可行驶区域Z1。
7.根据权利要求5所述的可行驶区域检测方法,其特征在于,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
其中,所述根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2,包括:
当左侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为左侧可选行驶区域Z21;
当右侧存在至少两个可选行驶区域时,获取该至少两个可选行驶区域的质心坐标和所述可行驶区域Z1的质心坐标PZ1,并将该至少两个可选行驶区域的质心坐标与所述PZ1进行比较,保留质心坐标与所述PZ1最近的其中一个可选行驶区域作为右侧可选行驶区域Z22。
8.一种可行驶区域检测系统,其特征在于,包括:
图像接收单元,用于接收车载摄像头采集的当前前方环境图像;
图像识别单元,用于将所述当前前方环境图像输入预先训练好的多任务神经网络模型进行处理输出场景识别结果和道路分割结果;其中,所述多任务神经网络模型包括特征共享网络、场景识别分支网络和道路分割分支网络,所述特征共享网络用于提取所述当前前方环境图像的图像特征,所述场景识别分支网络用于识别所述图像特征获得所述场景识别结果,所述道路分割分支网络用于识别所述图像特征获得所述道路分割结果;
区域细分单元,用于根据所述道路分割结果确定可行驶区域Z1和可选行驶区域Z2;
决策单元,用于根据所述场景识别结果、所述可行驶区域Z1和所述可选行驶区域Z2确定当前场景下的车辆可以行驶的区域Z。
9.根据权利要求1所述的可行驶区域检测系统,其特征在于,所述可选行驶区域Z2包括左侧可选行驶区域Z21和右侧可选行驶区域Z22;
所述决策单元,具体用于:
当所述场景识别结果为高速公路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述可选行驶区域Z2。
当所述场景识别结果为城市道路场景时,确定当前场景下的车辆可以行驶的区域Z包括所述可行驶区域Z1和所述右侧可选行驶区域Z22。
当所述场景识别结果为除高速公路场景和城市道路场景以外的其他场景时,确定当前场景下的车辆可以行驶的区域Z仅包括所述可行驶区域Z1。
10.根据权利要求8或9所述的可行驶区域检测系统,其特征在于,所述区域细分单元,具体用于:
基于预设的DBSCAN密度聚类算法对所述道路分割结果进行聚类分析,并根据聚类分析结果确定可行驶区域Z1和可选行驶区域Z2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210670545.8A CN115223119A (zh) | 2022-06-15 | 2022-06-15 | 一种可行驶区域检测方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210670545.8A CN115223119A (zh) | 2022-06-15 | 2022-06-15 | 一种可行驶区域检测方法与系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115223119A true CN115223119A (zh) | 2022-10-21 |
Family
ID=83607350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210670545.8A Pending CN115223119A (zh) | 2022-06-15 | 2022-06-15 | 一种可行驶区域检测方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223119A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170278402A1 (en) * | 2016-03-25 | 2017-09-28 | Toyota Jidosha Kabushiki Kaisha | Understanding Road Scene Situation and Semantic Representation of Road Scene Situation for Reliable Sharing |
CN108985194A (zh) * | 2018-06-29 | 2018-12-11 | 华南理工大学 | 一种基于图像语义分割的智能车辆可行驶区域的识别方法 |
CN109241855A (zh) * | 2018-08-10 | 2019-01-18 | 西安交通大学 | 基于立体视觉的智能车辆可行驶区域探测方法 |
CN109993082A (zh) * | 2019-03-20 | 2019-07-09 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
CN110969104A (zh) * | 2019-11-22 | 2020-04-07 | 国网安徽省电力有限公司检修分公司 | 基于二值化网络检测可行驶区域的方法、系统及存储介质 |
CN111055852A (zh) * | 2019-12-20 | 2020-04-24 | 浙江吉利汽车研究院有限公司 | 一种用于自动驾驶的感兴趣目标搜索区域确定方法 |
CN111310574A (zh) * | 2020-01-17 | 2020-06-19 | 清华大学 | 一种车载视觉实时多目标多任务联合感知方法和装置 |
CN112639821A (zh) * | 2020-05-11 | 2021-04-09 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
WO2021233154A1 (zh) * | 2020-05-20 | 2021-11-25 | 华为技术有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
-
2022
- 2022-06-15 CN CN202210670545.8A patent/CN115223119A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170278402A1 (en) * | 2016-03-25 | 2017-09-28 | Toyota Jidosha Kabushiki Kaisha | Understanding Road Scene Situation and Semantic Representation of Road Scene Situation for Reliable Sharing |
CN108985194A (zh) * | 2018-06-29 | 2018-12-11 | 华南理工大学 | 一种基于图像语义分割的智能车辆可行驶区域的识别方法 |
CN109241855A (zh) * | 2018-08-10 | 2019-01-18 | 西安交通大学 | 基于立体视觉的智能车辆可行驶区域探测方法 |
CN109993082A (zh) * | 2019-03-20 | 2019-07-09 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
CN110969104A (zh) * | 2019-11-22 | 2020-04-07 | 国网安徽省电力有限公司检修分公司 | 基于二值化网络检测可行驶区域的方法、系统及存储介质 |
CN111055852A (zh) * | 2019-12-20 | 2020-04-24 | 浙江吉利汽车研究院有限公司 | 一种用于自动驾驶的感兴趣目标搜索区域确定方法 |
CN111310574A (zh) * | 2020-01-17 | 2020-06-19 | 清华大学 | 一种车载视觉实时多目标多任务联合感知方法和装置 |
CN112639821A (zh) * | 2020-05-11 | 2021-04-09 | 华为技术有限公司 | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 |
WO2021233154A1 (zh) * | 2020-05-20 | 2021-11-25 | 华为技术有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
段建民;李龙杰;郑凯华;: "基于车载4线激光雷达的前方道路可行驶区域检测", 汽车技术, no. 02, 24 February 2016 (2016-02-24), pages 59 - 66 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636161B2 (en) | Image recognition system | |
CN107766821B (zh) | 基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统 | |
TWI430212B (zh) | 利用多特徵自動集群法之異常行為偵測系統與方法 | |
CN106295541A (zh) | 车辆类型识别方法及系统 | |
CN102479327B (zh) | 目标识别系统,以及用于汽车的障碍识别系统和方法 | |
KR102089298B1 (ko) | 범용 문자 시퀀스 검출을 통한 다국적 차량번호판 인식 시스템 및 그 방법 | |
CN109753949B (zh) | 一种基于深度学习的多视窗交通标志检测方法 | |
CN106951898B (zh) | 一种车辆候选区域推荐方法及系统、电子设备 | |
CN108960074B (zh) | 基于深度学习的小尺寸行人目标检测方法 | |
KR102073929B1 (ko) | 블록체인망을 이용한 차량의 비상 상황 로그 시스템 | |
CN110119726A (zh) | 一种基于YOLOv3模型的车辆品牌多角度识别方法 | |
CN107909012B (zh) | 一种基于视差图的实时车辆跟踪检测方法与装置 | |
CN111178286B (zh) | 姿态轨迹预测方法、装置及电子设备 | |
Park et al. | Real-time signal light detection | |
CN112101374B (zh) | 基于surf特征检测和isodata聚类算法的无人机障碍物检测方法 | |
CN113033463A (zh) | 减速带检测方法、装置、电子设备及存储介质 | |
CN103679214A (zh) | 基于在线面积估计和多特征决策融合的车辆检测方法 | |
Xiong et al. | Vehicle re-identification with image processing and car-following model using multiple surveillance cameras from urban arterials | |
CN114694060B (zh) | 一种道路抛洒物检测方法、电子设备及存储介质 | |
US20200174488A1 (en) | False target removal device and method for vehicles and vehicle including the device | |
CN113297939B (zh) | 障碍物检测方法、系统、终端设备及存储介质 | |
CN113537170A (zh) | 一种交通路况智能监测方法和计算机可读存储介质 | |
CN112507867A (zh) | 一种基于EDLines线特征的车道线检测方法 | |
CN115223119A (zh) | 一种可行驶区域检测方法与系统 | |
JP2001256485A (ja) | 車種判別システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |