CN114663397A - 可行驶区域的检测方法、装置、设备及存储介质 - Google Patents
可行驶区域的检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114663397A CN114663397A CN202210289051.5A CN202210289051A CN114663397A CN 114663397 A CN114663397 A CN 114663397A CN 202210289051 A CN202210289051 A CN 202210289051A CN 114663397 A CN114663397 A CN 114663397A
- Authority
- CN
- China
- Prior art keywords
- detection model
- detection
- image
- network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 384
- 238000012549 training Methods 0.000 claims description 136
- 238000012937 correction Methods 0.000 claims description 49
- 238000013139 quantization Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 12
- 230000004048 modification Effects 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000004888 barrier function Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 229910000831 Steel Inorganic materials 0.000 description 3
- 239000004568 cement Substances 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000010959 steel Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种可行驶区域的检测方法、装置、设备及存储介质,涉及人工智能技术领域,具体涉及深度学习、计算机视觉等技术领域,可应用于智能泊车场景下。具体实现方案为:获取车辆的检测图像,其中,所述检测图像为包含路面区域的图像;将检测图像输入至第一检测模型中,以确定所述检测图像中的各个障碍物边缘关键点;对所述各个障碍物边缘关键点进行连线,以确定所述路面区域对应的可行驶区域。由此,使得第一检测模型能够并且具有更高的检测精度、准确度和特征表达能力,使得生成的可行驶区域更加准确可靠,满足了泊车系统的安全性需求。
Description
技术领域
本公开涉及人工智能技术领域,具体涉及深度学习、计算机视觉等技术领域,可应用于智能泊车场景下,尤其涉及可行驶区域的检测方法、装置、设备及存储介质。
背景技术
近年来,随着新能源汽车的崛起,自动驾驶技术迅速发展,其中智能泊车技术作为关键一环,可以帮助没有经验的驾驶员解决泊车难的问题,保证泊车过程的便捷性和舒适性,而对可行驶区域的检测是智能泊车的基础。相关技术中,可以基于深度学习的算法模型对路面区域的障碍物进行检测,以分辨可行驶区域。
但是当前算法模型精度不高,很容易丢失细长、微小障碍物的样本信息,对整个泊车系统的安全性造成了严重危害。
发明内容
本公开提供了一种可行驶区域的检测方法、装置、电子设备、存储介质及计算机程序产品。
根据本公开的第一方面,提供了一种可行驶区域的检测方法,包括:
获取车辆的检测图像,其中,所述检测图像为包含路面区域的图像;
将所述检测图像输入至第一检测模型中,以确定所述检测图像中的各个障碍物边缘关键点;
对所述各个障碍物边缘关键点进行连线,以确定所述路面区域对应的可行驶区域。
根据本公开的第二方面,提供了一种可行驶区域的检测装置,包括:
第一获取模块,用于获取车辆的检测图像,其中,所述检测图像为包含路面区域的图像;
第一确定模块,用于将所述检测图像输入至第一检测模型中,以确定所述检测图像中的各个障碍物边缘关键点;
第二确定模块,用于对所述各个障碍物边缘关键点进行连线,以确定所述路面区域对应的可行驶区域。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;
以及与至少一个处理器通信连接的存储器;
其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面所述的可行驶区域的检测方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面所述的可行驶区域的检测方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面所述的可行驶区域的检测方法。
本公开实施例中,首先获取车辆的检测图像,其中,检测图像为包含路面区域的图像,然后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,最后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,由于第一检测模型与第二检测模型经过了联合训练,且第一检测模型为第二检测模型的学生模型,因而使得第一检测模型能够并且具有更高的检测精度、准确度和特征表达能力。也即,通过第一检测模型输出的障碍物边缘关键点更加的精确和可靠,从而在对障碍物边缘关键点进行连线之后,能够得到一个有效且准确可靠的可行驶区域,进而满足了整个泊车系统的安全性需求。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开一实施例提出的可行驶区域的检测方法的流程示意图;
图2是本公开又一实施例提出的可行驶区域的检测方法的流程示意图;
图3是本公开又一实施例提出的可行驶区域的检测方法的流程示意图;
图4是本公开又一实施例提出的可行驶区域的检测方法的流程示意图;
图5是本公开又一实施例提出的可行驶区域的检测方法的流程示意图;
图6是本公开一实施例提出的可行驶区域的检测装置的结构框图;
图7示出了可以用来实施本公开的实施例的可行驶区域的检测方法的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开涉及人工智能技术领域,具体涉及计算机视觉和深度学习技术领域,可应用于智能泊车场景下。
其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
计算机视觉,指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。
智能泊车是指将无线通信技术、深度学习技术、计算机视觉技术、移动终端技术、GPS定位技术、GIS技术等综合应用于城市停车位的采集、管理、查询、预订与导航服务,实现停车位资源的实时更新、查询、预订与导航服务一体化,实现停车位资源利用率的最大化、停车场利润的最大化和车主停车服务的最优化。
其中,需要说明的是,本实施例的可行驶区域的检测方法的执行主体为可行驶区域的检测装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在车辆的电子设备中,也可以是车端的服务器,下面以可行驶区域的检测装置作为执行主体来对本公开提出的可行驶区域的检测方法进行说明,以下简称为“装置”。
图1是本公开一实施例提出的可行驶区域的检测方法的流程示意图。
如图1所示,该可行驶区域的检测方法,包括:
步骤S101:获取车辆的检测图像,其中,检测图像为包含路面区域的图像。
本公开中,车辆可以为新能源车辆,在此不做限定。
其中,检测图像可以为待检测的车辆环境图像,在检测图像中可以包含有车辆所在的路面区域。从而之后该装置可以对检测图像进行检测,以识别车辆所在路面区域中的可行驶区域。
可选的,检测图像可以是对车辆采集的图像进行一定的处理而生成的。比如,该装置可以首先基于车辆上的环视摄像头,采集车辆周围的环境图像。其中,环视摄像头可以是安装在车辆车身上各个方向的摄像头,比如车身前、车身后、车身左、车身右、车身左前、车身左后、车身右前、车身右后,在此不进行限定。之后,该装置可以将各个方向的环境图像进行拼接,以获取当前车辆周围全方向的路面区域图像,并将该路面区域图像作为检测图像。
或者,该装置也可以将车辆基于车身外的摄像装置所采集的任一方向的路面区域图像作为检测图像,在此不进行限定。可以理解的是,可以将车身前的摄像装置采集的图像作为检测图像,从而之后该装置基于该检测图像识别车身前的可行驶区域。
步骤S102:将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点。
其中,第一检测模型可以为与第二检测模型联合训练生成后的检测模型,且第一检测模型为第二检测模型的学生模型。
需要说明的是,第二检测模型为第一检测模型的教师模型,具有良好的性能,通过将第一检测模型和第二检测模型进行联合训练,能够使得第一检测模型的性能和效果更加接近第二检测模型,不仅可以大大的节省计算资源和模型的复杂度,还可以保障模型的准确度。
可以理解的是,学生模型可以为尚未达到可用状态的神经网络,可以通过教师模型对其网络参数进行更新、训练,以使其达到可用状态。教师网络可以为已经训练完成的神经网络,或者也可以为已完成训练,还可以和学生模型同时学习的神经网络等,本公开对此不做限定。
另外,教师模型和学生模型可以具有相同的网络结构和网络层数,网络宽度可以相同,或者也可以不同,本公开对此不做限定。本公开中的第一检测模型,也即为以第二检测模型作为教师模型,且与第二检测模型进行联合训练所获得的学生模型。
其中,路面区域可以包含可行驶区域和不可行驶区域,由于路面区域中的障碍物阻碍,会对车辆的行驶造成很大的妨碍,因而可以将没有障碍物的区域作为可行驶区域。
其中,障碍物可以为锥桶、路障、施工围挡、工地正门、告示牌、水泥区域、玻璃渣滓、路面凹陷、挡车切路闸、建筑物盆栽、钢筋等等,在此不进行限定。
对于路面上的各种障碍物,其在路面上都有一定的范围,也即为占有一定的面积,本公开中,可以通过第一检测模型对包含路面区域的检测图像进行检测,以识别路面区域中障碍物的边缘,并通过标注关键点对障碍物所在的区域边界进行划分。
步骤S103:对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。
具体的,在确定了检测图像中的各个障碍物边缘关键点之后,可以基于各个关键点进行连线,从而可以确定路面区域中障碍物的边界,进而可以生成路面区域中对应的可行驶区域。
可以理解的是,在确定了可行驶区域之后,该装置可以将包含可行驶区域的图像信息发送给车内预设的泊车系统,以使泊车系统根据可行驶区域确定目前可以移动的范围并选择待泊车的位置。
本公开实施例中,首先获取车辆的检测图像,其中,检测图像为包含路面区域的图像,然后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,最后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,由于第一检测模型与第二检测模型经过了联合训练,且第一检测模型为第二检测模型的学生模型,因而使得第一检测模型能够并且具有更高的检测精度、准确度和特征表达能力。也即,通过第一检测模型输出的障碍物边缘关键点更加的精确和可靠,从而在对障碍物边缘关键点进行连线之后,能够得到一个有效且准确可靠的可行驶区域,进而满足了整个泊车系统的安全性需求。
图2是本公开又一实施例提出的可行驶区域的检测方法的流程示意图。
如图2所示,该可行驶区域的检测方法,包括:
步骤S201:获取车辆的检测图像,其中,检测图像为包含路面区域的图像。
需要说明的是,步骤S201的具体实现方式可以参照上述实施例,在此不进行赘述。
步骤S202:获取训练样本。
其中,训练样本可以为训练用的图像数据集。
本公开中,训练样本中的样本图像可以为包含车辆所在路面区域的图像。需要说明的是,该训练样本可以用于对第二检测模型进行训练,也可以用于对第一检测模型和第二检测模型进行联合训练。
步骤S203:获取第二检测模型,其中,第二检测模型为预训练获得的第一检测模型的教师模型。
其中,第二检测模型可以为教师模型,需要说明的是,教师模型的网络层次较多,且参数量较大,性能较高。
作为一种可能实现的方式,本公开可以选取ResNeXt-101残差结构的残差神经网络作为初始教师模型,其中,初始教师模型包括骨架网络层、特征融合层、检测头层作为教师模型。进一步地,还需要为初始教师模型设置网络参数,比如可以在骨架网络层部分使用在ImageNet数据集上预训练的32比特的权重参数,在此不进行限定。
进一步地,在为初始教师模型设置网络参数之后,还可以基于训练样本对初始教师模型进行预训练,也即在将训练样本输入初始教师模型之后,可以根据预测结果与标注结果之间的差异,对初始教师模型进行修正,从而生成第二检测模型。
步骤S204:基于训练样本,对所述第一检测模型与第二检测模型进行联合训练,以对第一检测模型进行修正。
作为一种可能实现的方式,在对第一检测模型以及第二检测模型进行联合训练之前,还可以对第一检测模型进行量化,以使得第一检测模型更加轻量化,从而可以提高第一检测模型的运算速度。
可选的,可以对第一检测模型中任一网络层的权重参数进行量化,或者也可以对第一检测模型中的各个网络层的权重参数均进行量化。其中,量化的方式不限于对权重参数进行二值化、三值化等。
需要说明的是,通过对权重参数进行量化可以降低权重和输出的精度从而加速模型,进而能够大幅的降低网络的内存大小和访问次数。
具体的,可以将训练样本分别输入至量化后的第一检测模型与第二检测模型中,以获取量化后的第一检测模型和第二检测模型的交叉熵损失以及相对熵损失,然后根据随机梯度下降算法基于交叉熵损失以及相对熵损失对第一检测模型进行修正。
步骤S205:将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点。
步骤S206:对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。
需要说明的是,步骤S205、S206的具体实现方式可以参照上述实施例,在此不进行赘述。
本公开实施例中,该装置首先获取车辆的检测图像,其中,检测图像为包含路面区域的图像,之后获取训练样本以及获取第二检测模型,其中,第二检测模型为预训练获得的第一检测模型的教师模型,然后基于训练样本,对所述第一检测模型与第二检测模型进行联合训练,以对第一检测模型进行修正,之后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,最后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,可以以第二检测模型,也即教师模型作为第一检测模型的目标,并将第一检测模型训练为能够达到第二检测模型的性能和精度的模型,在对检测图像进行检测时降低了模型的复杂度和计算量,大大地节省了计算资源且能够满足高实时性的要求。因此,在采用训练得到的可行驶区域的第一检测模型处理路面区域的图像时,能够识别分辨出更为准确和可靠的障碍物边缘关键点的特征。
图3是本公开又一实施例提出的可行驶区域的检测方法的流程示意图。
如图3所示,该可行驶区域的检测方法,包括:
步骤S301:获取车辆的检测图像,其中,检测图像为包含路面区域的图像。
需要说明的是,步骤S301的具体实现方式可以参照上述实施例,在此不进行赘述。
步骤S302:获取所述车辆的车体外各个方向的环境图像。
具体的,可以通过安装在车外的环视摄像头获取安装在车身各个方向的环境图像,比如前、后、左、右,在此不进行限定。
步骤S303:获取所述环境图像中的障碍物在所述路面区域的边缘关键点的标注信息。
在获取车辆的车体外的各个方向的环境图像之后,还需要获取环境图像中对各个障碍物所在路面区域的边缘关键点的标注信息,比如障碍物所在路面区域的边缘关键点标注的位置,以及该位置的坐标信息。
需要说明的是,标注信息可以是在采集到环境图像之后人为标注的标签,比如障碍物的类别以及位置。
步骤S304:将具有所述标注信息的所述各个方向的环境图像进行拼接,以生成全方向的拼接图像。
其中,全方向的拼接图像也即为鸟瞰图(Bird Eye View,BEV)。
需要说明的是,在生成全方向的拼接图像之后,该装置还可以对全方向的拼接图像中已标注的各个所述边缘关键点的坐标进行坐标变换,从而使得各个标注点的坐标能够归在同一个坐标系中。
举例来说,若当前具有标注信息的各个方向的环境图像包括方向A的图像a,方向B的图像b,方向C的图像c,方向D的图像d,且方向A与方向B和方向D相邻,方向B与方向A和方向C相邻,方向C与方向B和方向D相邻,方向D与方向C和方向A相邻。则该装置可以将图像a、b、c、d依次拼接,也即为a-b-c-d-a,从而构成全方向的拼接图像。
需要说明的是,上述举例仅为一种示意性说明,本公开在此不进行限定。
步骤S305:对全方向的拼接图像进行数据增强处理,以生成训练样本。
可以理解的是,通过对全方向的拼接图像进行数据增强(Data Augmentation)处理,可以获取更多的训练数据,从而能够适用于数据量较少且数据质量不高但对算法精度和实时性要求比极高的情形。
作为一种可能实现的方式,该装置首先可以保持全方向的拼接图像的长宽比例并对拼接图像进行缩小或者放大处理,以生成多个训练图像,然后对训练图像随机进行预调整,并将预调整后的所述多个训练图像作为训练样本,其中,所述训练样本的图像分辨率大于第一阈值且小于第二阈值。
其中,第一阈值可以为训练样本的图像分辨率的最低值,第二阈值可以为训练样本的图像分辨率的最高值。也即,需要保证使得训练样本的图像分辨率处于第一阈值和第二阈值之间的区间里,从而使得训练样本能够满足训练需求,避免训练样本尺寸过度处理,比如过大造成的训练时间较长,以及过于缩放造成的特征丢失。
可选的,本公开中第一阈值可以为544*544像素,第二阈值可以为872*872像素,在此不进行限定。
需要说明的是,保持全方向的拼接图像的长宽比例,也即是说在对图像进行缩放时,需要保持图像的长和宽之间按照一定的比例不变。由此,可以避免图像发生畸变、挤压、伸展、扭曲等变形。
具体的,在对拼接图像进行缩小或者放大处理时可以按照任一伸缩或者放大比例,对拼接图像进行操作,从而产生批量的训练图像。
可选的,所述预调整包括以下调整的至少一项:亮度调整、对比度调整、色彩饱和度调整、色调调整以及锐度调整。
需要说明的是,该装置可以对训练图像的图像亮度、对比度、色彩饱和度以及色调、锐度进行随机的调节,也即可以任意的改变,必须调高或者调低,在此不进行限定。另外,还可以对训练图像进行旋转、翻转等几何变换,在此不做限定。
通过对训练图像进行各类方式的预调整可以有效地对当前的训练图像进行扩充,获得更多的数据样本。本公开中,可以将对训练图像扩充后的数据集作为训练样本。
步骤S306:获取第二检测模型,其中,第二检测模型为预训练获得的第一检测模型的教师模型。
步骤S307:基于训练样本,对所述第一检测模型与第二检测模型进行联合训练,以对第一检测模型进行修正。
步骤S308:将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点。
步骤S309:对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。
需要说明的是,步骤S306、S307、S308、S309的具体实现方式可以参照上述任一实施例,在此不进行赘述。
本公开实施例中,该装置首先获取所述车辆的车体外各个方向的环境图像,然后获取所述环境图像中的障碍物在所述路面区域的边缘关键点的标注信息,之后将具有所述标注信息的所述各个方向的环境图像进行拼接,以生成全方向的拼接图像,然后对所述全方向的拼接图像进行数据增强处理,以生成训练样本,获取第二检测模型,其中,第二检测模型为预训练获得的第一检测模型的教师模型,之后基于训练样本,对所述第一检测模型与第二检测模型进行联合训练,以对第一检测模型进行修正,然后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,最后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,可以将各个方向的环境图像进行拼接,使得不同视角的头像最后能归到同一视角,无缝拼接成一个宽视野的鸟瞰图,也即全方向的拼接图像,通过对第一检测模型进行模型蒸馏训练可以帮助算法过滤脏数据,并在数据量较少的情况下,最大限度的挖掘模型可利用的潜在有效信息,且使得第一检测模型接近教师模型高检测性能的同时,满足高实时性要求,因此,在采用训练得到的可行驶区域的第一检测模型处理路面区域的图像时,能够识别分辨出更为准确和可靠的障碍物边缘关键点的特征。
图4是本公开又一实施例提出的可行驶区域的检测方法的流程示意图。
如图4所示,该可行驶区域的检测方法,包括:
步骤S401:获取车辆的检测图像,其中,检测图像为包含路面区域的图像。
步骤S402:获取训练样本。
需要说明的是,步骤S401、S402的具体实现方式可以参照上述实施例,在此不进行赘述。
步骤S403:为第一残差网络设置第一网络参数,以建立初始教师网络。
其中,第一残差网络可以为用于建立初始教师网络的网络,可选的,本公开中,可以选用ResNeXt-101残差结构的网络,在此不进行限定。
可以理解的是,ResNeXt-101残差结构的残差网络的网络结构比较简明,且计算量较200层的ResNet网络小,但准确度较高。
其中,第一网络参数可以为为第一残差网络设置的网络参数,比如每层的权重参数,或者,也可以为其他的超参数。
其中,第一残差网络的骨架网络层可以部分使用在ImageNet数据集上预训练的32比特的权重参数。
其中,初始教师网络可以为对第一残差网络设置好第一网络参数的神经网络。需要说明的是,该初始教师网络为尚未训练完成的网络,在对初级教师网络训练完成之后,可以作为教师模型去训练学生模型,以使学生模型能够学习到教师模型的性能和效果。
步骤S404:基于所述训练样本,对所述初始教师网络进行训练,以生成第二检测模型。
作为一种可能实现的方式,该装置可以首先将训练样本输入至初始教师网络的骨架网络层中,以提取各级语义特征,然后基于所述初始教师网络的特征融合层,将所述各级语义特征进行融合,之后将融合后的所述各级语义特征输入至所述初始教师网络的检测头层,以生成预测结果,然后根据预测结果和训练样本中的标注结果之间的损失值,对初始教师网络进行修正,以生成所述第二检测模型。
具体的,在将训练样本输入至初始教师网络的骨架网络层之后,骨架网络层可以检测出训练样本中每一个目标,也即障碍物所在的位置,并用矩形框将目标所在的位置框出,并对每个障碍物进行姿态估计,从而输出每个障碍物所对应的各个语义特征。之后,可以基于特征融合层将障碍物的各级语义特征进行融合,以生成融合后的特征。
进一步地,可以将融合后的特征输入至初始教师网络的检测头层,以对融合后的各级特征每个位置上对障碍物关键点进行回归和分类,从而获得本次的预测结果。然后,可以对本次的预测结果计算损失函数,基于损失函数得到误差后进行反向传播,更新初始教师网络的权重参数,完成一次训练。
需要说明的是,在生成第二检测模型时,可以对初始教师网络进行重复训练,直至初始教师网络收敛,也即最后基于损失函数得到的误差小于一定值,则可以认为当前的模型为可用的模型,进而可以作为第二检测模型。也即说明,此时的第二检测模型的精度、准确度和效果可以达到一个可靠的程度。
可选的,在根据预测结果和训练样本中的标注结果之间的差异,对初始教师网络进行修正时,可以通过以下方式:该装置可以首先确定预测结果与训练样本中的标注结果之间的损失值,然后基于损失值,对初始教师网络中各网络层的权重参数进行更新,以生成第二检测模型。
其中,损失值可以为分类标签之间的误差值,以及回归损失。该装置可以基于该损失值确定待修正的权重参数的修正梯度,之后根据该修正梯度对各网络层的权重参数进行更新,以生成第二检测模型。或者,也可以只对其中的部分网络层进行修正,比如可以通过KL散度运算更新骨架网络层32比特的权重参数,在此不进行限定。
步骤S405:为第二残差网络设置第二网络参数,以建立初始学生网络。
其中,第二残差网络可以为ResNeXt-50残差结构的神经网络。
其中,第二网络参数可以为对第二残差网络设置的网络参数,其中第二残差网络的骨架网络层部分使用在ImageNet数据集上预训练的待量化的16比特的权重参数。可以理解的是,第二网络参数比第一网络参数的参数量更少。
其中,初始学生网络为尚未训练达到可用状态的神经网络,在生成初始学生网络之后,还需要对初始学生网络进行量化加速,从而使得初始学生网络更加的轻量化。
步骤S406:根据预设的权重量化模型以及所述第二检测模型的权重参数,确定所述初始学生网络对应的量化权重参数。
其中,量化权重参数可以对初始学生网络量化后的权重。
其中,权重量化模型可以为预先设定的数学模型,用于根据第二检测模型的权重参数,确定当前初始学生网络量化后的权重。
其中,权重参数可以为第二检测模型每一层对应的权重。
可选的,可以通过以下权重量化模型确定初始学生网络对应的量化权重参数:
其中,w为第二检测模型的权重参数,wq为量化权重参数,tanh用于将权重映射到[-1,1],Q为量化超参数。
步骤S407:基于量化权重参数,对所述初始学生网络进行量化,以生成所述第一检测模型。
具体的,在确定了量化权重参数之后,即可对初始学生网络模型进行量化,以获得量化后的模型。具体的,可以对初始学生网络骨骼网络层16比特的权重参数进行量化。
步骤S408:基于训练样本,对所述第一检测模型与第二检测模型进行联合训练,以对第一检测模型进行修正。
步骤S409:将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点。
步骤S410:对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。
需要说明的是,步骤S407、S408、S409、S410的具体实现方式可以参照上述任一实施例,在此不进行赘述。
本公开实施例中,该装置首先获取车辆的检测图像,之后获取训练样本并为第一残差网络设置第一网络参数,以建立初始教师网络,之后基于所述训练样本,对所述初始教师网络进行训练,以生成所述第二检测模型,然后为第二残差网络设置第二网络参数,以建立初始学生网络,之后根据预设的权重量化模型以及所述第二检测模型的权重参数,确定所述初始学生网络对应的量化权重参数,然后基于所述量化权重参数,对所述初始学生网络进行量化,以生成所述第一检测模型,之后基于训练样本,对所述第一检测模型与第二检测模型进行联合训练,以对第一检测模型进行修正,然后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,最后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,在对第一检测模型与第二检测模型联合训练之前,首先根据教师模型和学生模型的特点,根据不同的权重参数以及不同的残差网络结构,建立起对应的初始教师网络和初始学生网络,之后对初始教师网络进行训练和修正,使得初始教师网络可以成为高精度、高性能的,可供学习的第二检测模型。通过对初始学生网络进行量化,减轻了初始学生网络的模型复杂度,提高了计算能力和计算速度,满足了实时性需求。因而,在采用训练得到的可行驶区域的第一检测模型处理路面区域的图像时,能够更快地识别分辨出更为准确和可靠的障碍物边缘关键点。
图5是本公开又一实施例提出的可行驶区域的检测方法的流程示意图。
如图5所示,该可行驶区域的检测方法,包括:
步骤S501:获取车辆的检测图像,其中,检测图像为包含路面区域的图像。
步骤S502:获取训练样本。
步骤S503:获取第二检测模型,其中,所述第二检测模型为预训练获得的第一检测模型的教师模型;
需要说明的是,步骤S501、S502、S503的具体实现方式可以参照上述任一实施例,在此不进行赘述。
步骤S504:将训练样本分别输入所述第一检测模型和所述第二检测模型,以获取所述第一检测模型的第一输出概率以及所述第二检测模型的第二输出概率。
其中,第一输出概率可以为当前第一检测模型预测障碍物的概率分布。
其中,第二输出概率可以为当前第二检测模型预测障碍物的概率分布。
可以理解的是,由于第二输出概率是第二检测模型输出的,也即教师模型输出的,因而第二输出概率更加接近当前的训练样本图像中各个障碍物真实的分布。
举例来说,当前的任一训练样本中包含了锥桶、钢筋、挡板、施工牌等障碍物,以x1、x2、x3、x4分别代表锥桶、钢筋、挡板、施工牌,则以p(x)来代表第一检测模型的第一输出概率,p(x)={0.7,0.1,0.2,0},以q(x)来代表第二检测模型的第二输出概率,q(x)={1,0,0,0}。
步骤S505:根据所述第一输出概率与所述第二输出概率的差异,确定所述第一检测模型对应的第一修正梯度。
可选的,本公开中,可以通过KL散度(Kullback–Leibler divergence),也即相对熵损失函数来衡量第一输出概率与第二输出概率之间的差异。
在根据KL散度确定出第一输出概率与第二输出概率的差异后,可以根据该差异,确定出第一检测模型的第一修正梯度,之后再根据第一检测模型各层对应的网络参数,可以使用反向传播逐层确定出第一检测模型中各层对应的第一修正梯度。
步骤S506:获取所述第一检测模型输出的第一软标签及所述第二检测模型输出的第二软标签。
其中,第一软标签,可以为第一检测模型输出的预测的各个障碍物的分类标签及各自对应的概率值;第二软标签,可以为第二检测模型输出的预测的各个障碍物的分类标签及各自对应的概率值。
本公开实施例中,将训练样本分别输入到第一检测模型、第二检测模型中,经过第一检测模型的逐层处理,可以得到第一检测模型输出的第一软标签,经过第二检测模型的逐层处理,可以得到第二检测模型输出的第二软标签。
步骤S507:根据第一软标签与第二软标签的差异,确定所述第一检测模型对应的第二修正梯度。
其中,确定第一软标签与第二软标签的差异时,可以有多种方式。
比如,可以通过交叉熵损失函数来衡量第一软标签与第二软标签的差异。
或者,还可以使用曼哈顿距离公式确定出第一软标签与第二软标签的差异,或者也可以使用欧氏距离公式确定出第一软标签与第二软标签的差异等。可以理解的是,上述确定第一软标签与第二软标签的差异的方式,并不仅限于曼哈顿距离公式、欧氏距离公式等。
举例来说,第一检测模型输出的第一软标签为:分类1:锥桶、对应的概率为0.15,分类2:告示牌、对应的概率为0.05,分类3:钢筋水泥地、对应的概率为0.7,分类4:施工痕迹、对应的概率为0.1。第二检测模型输出的第二软标签为:分类1:锥桶、对应的概率为0.05,分类2:告示牌、对应的概率为0.05,分类3:钢筋水泥地、对应的概率为0.8,分类4:施工痕迹、对应的概率为0.1。
比如,使用欧氏距离公式,确定出第一软标签与第二软标签的差异为:
或者,使用曼哈顿距离公式,确定出第一软标签与第二软标签的差异为:d2=|0.15-0.05|+|0.05-0.05|+|0.7-0.8|+|0.1-0.1|=0.2。
需要说明的是,上述示例只是举例说明,不能作为对本公开实施例中第一软标签、第二软标签中各个分类标签及其对应的概率值以及第一软标签与第二软标签的差异等的限定。
另外,确定出第一软标签与第二软标签的差异后,可以根据该差异,确定出第一检测模型的第二修正梯度,之后再根据第一检测模型各层对应的网络参数,可以使用反向传播逐层确定出第一检测模型中各层对应的第二修正梯度。
需要说明的是,第一软标签,为训练样本经过第一检测模型中逐层处理后输出的结果,第二软标签,为训练样本经过第二检测模型中逐层处理后输出的结果,从而根据第一软标签与第二软标签的差异、以及第一检测模型各层的网络参数,所确定出的第一检测模型中各层对应的第二修正梯度,充分考虑到了全局信息,从而该第二修正梯度更加准确、可靠。
步骤S508:基于所述第一修正梯度及所述第二修正梯度,对所述第一检测模型进行修正。
其中,将第二修正梯度、第一修正梯度进行融合的方式可以有多种,比如可以为直接融合,或者也可以根据权重进行融合等等,本公开对此不做限定。
比如,确定出第一检测模型中的骨架网络层对应的第二修正梯度为+0.05、第一修正梯度为-0.01,将二者直接进行融合时,得到的结果为+0.04,之后可以将第一检测模型中的骨架网络层的网络参数上调0.04。
或者,根据第一修正梯度、第二修正梯度及各修正梯度分别对应的权重进行融合时,其中,各修正梯度分别对应的权重可以为提前设定好的数值,本公开对此不做限定。
比如说,第一检测模型中的骨架网络层对应的第一修正梯度为-0.06、第二修正梯度为+0.03,设定好的第一修正梯度对应的权重为0.3,第二修正梯度对应的权重为0.7,根据权重对第一修正梯度、第二修正梯度进行融合时,得到的结果为+0.003,之后可以将第一检测模型中的骨架网络层的网络参数上调0.003。
需要说明的是,上述示例只是举例说明,不能作为对本公开实施例中,对第一检测模型中的骨架网络层修正的限定。
可以理解的是,在对第一检测模型中的骨架网络层的网络参数进行修正之后,可以根据确定出的第一检测模型中的其余各层对应的第二修正梯度,对其余各层的网络参数逐层进行修正。
或者,还可以基于第二修正梯度及第一修正梯度,对第一检测模型中的骨架网络层及骨架网络层至检测头层间的各个网络层的网络参数进行修正,之后再基于第二修正梯度,对学生网络中的骨架网络层至检测头层间的各个网络层的网络参数进行修正。
步骤S509:将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,其中,第一检测模型为第二检测模型的学生模型,且第一检测模型与第二检测模型联合训练。
步骤S510:对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。
本公开实施例中,该装置首先获取训练样本,之后获取第二检测模型,其中,所述第二检测模型为预训练获得的第一检测模型的教师模型,然后将所述训练样本分别输入所述第一检测模型和所述第二检测模型,以获取所述第一检测模型的第一输出概率以及所述第二检测模型的第二输出概率,之后根据所述第一输出概率与所述第二输出概率的差异,确定所述第一检测模型对应的第一修正梯度,然后获取所述第一检测模型输出的第一软标签及所述第二检测模型输出的第二软标签,之后根据所述第一软标签与所述第二软标签的差异,确定所述第一检测模型对应的第二修正梯度,然后基于所述第一修正梯度及所述第二修正梯度,对所述第一检测模型进行修正,之后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,然后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,在对第一检测模型进行训练时,既考虑到了局部信息,又关注到了全局信息,从而可使得训练生成的第一检测模型,具有和第二检测模型更加相似的特征,并且具有更好的学习能力和特征表达能力,从而第一检测模型的效果和性能得到了极大提升。
图6是本公开一实施例提出的可行驶区域的检测装置的结构框图。
如图6所示,该可行驶区域的检测装置,包括第一获取模块610、第一确定模块620以及第二确定模块630。
其中,第一获取模块610,用于获取车辆的检测图像,其中,所述检测图像为包含路面区域的图像;
第一确定模块620,用于将所述检测图像输入至第一检测模型中,以确定所述检测图像中的各个障碍物边缘关键点;
第二确定模块630,用于对所述各个障碍物边缘关键点进行连线,以确定所述路面区域对应的可行驶区域。
可选的,在所述将所述检测图像输入至第一检测模型中之前,还包括:
第二获取模块,用于获取训练样本;
第三获取模块,用于获取第二检测模型,其中,所述第二检测模型为预训练获得的第一检测模型的教师模型;
修正模块,用于基于所述训练样本,对所述第一检测模型与所述第二检测模型进行联合训练,以对所述第一检测模型进行修正。
可选的,所述第二获取模块,包括:
第一获取单元,用于获取所述车辆的车体外各个方向的环境图像;
第二获取单元,用于获取所述环境图像中的障碍物在所述路面区域的边缘关键点的标注信息;
第一生成单元,用于将具有所述标注信息的所述各个方向的环境图像进行拼接,以生成全方向的拼接图像;
第二生成单元,用于对所述全方向的拼接图像进行数据增强处理,以生成训练样本。
可选的,所述第二生成单元,具体用于:
保持所述全方向的拼接图像的长宽比例,对所述拼接图像进行缩小或者放大处理,以生成多个训练图像;
对所述训练图像随机进行预调整,并将预调整后的所述多个训练图像作为训练样本;
其中,所述训练样本的图像分辨率大于第一阈值且小于第二阈值。
可选的,所述预调整包括以下调整的至少一项:
亮度调整;
对比度调整;
色彩饱和度调整;
色调调整;
锐度调整。
可选的,所述第二生成单元,还用于:
对所述全方向的拼接图像中已标注的各个所述边缘关键点的坐标进行坐标变换。
可选的,所述修正模块,具体用于:
将所述训练样本分别输入所述第一检测模型和所述第二检测模型,以获取所述第一检测模型的第一输出概率以及所述第二检测模型的第二输出概率;
根据所述第一输出概率与所述第二输出概率的差异,确定所述第一检测模型对应的第一修正梯度;
获取所述第一检测模型输出的第一软标签及所述第二检测模型输出的第二软标签;
根据所述第一软标签与所述第二软标签的差异,确定所述第一检测模型对应的第二修正梯度;
基于所述第一修正梯度及所述第二修正梯度,对所述第一检测模型进行修正。
可选的,所述第三获取模块,包括:
建立单元,用于为第一残差网络设置第一网络参数,以建立初始教师网络;
第三生成单元,用于基于所述训练样本,对所述初始教师网络进行训练,以生成所述第二检测模型。
可选的,所述初始教师网络包括骨架网络层、特征融合层以及检测头层,所述第三生成单元,包括:
提取子单元,用于将所述训练样本输入至所述初始教师网络的骨架网络层中,以提取各级语义特征;
融合子单元,用于基于所述初始教师网络的特征融合层,将所述各级语义特征进行融合;
输入子单元,用于将融合后的所述各级语义特征输入至所述初始教师网络的检测头层,以生成预测结果;
修正子单元,用于根据所述预测结果和所述训练样本中的标注结果之间的损失值,对所述初始教师网络进行修正,以生成所述第二检测模型。
可选的,所述修正子单元,具体用于:
确定所述预测结果与所述训练样本中的标注结果之间的损失值;
基于所述损失值,对所述初始教师网络中各网络层的权重参数进行更新,以生成所述第二检测模型。
可选的,所述修正模块,还用于:
为第二残差网络设置第二网络参数,以建立初始学生网络;
根据预设的权重量化模型以及所述第二检测模型的权重参数,确定所述初始学生网络对应的量化权重参数;
基于所述量化权重参数,对所述初始学生网络进行量化,以生成所述第一检测模型。
本公开实施例中,首先获取车辆的检测图像,其中,检测图像为包含路面区域的图像,然后将检测图像输入至第一检测模型中,以确定检测图像中的各个障碍物边缘关键点,最后对各个障碍物边缘关键点进行连线,以确定路面区域对应的可行驶区域。由此,由于第一检测模型与第二检测模型经过了联合训练,且第一检测模型为第二检测模型的学生模型,因而使得第一检测模型能够并且具有更高的检测精度、准确度和特征表达能力。也即,通过第一检测模型输出的障碍物边缘关键点更加的精确和可靠,从而在对障碍物边缘关键点进行连线之后,能够得到一个有效且准确可靠的可行驶区域,进而满足了整个泊车系统的安全性需求。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的可行驶区域的检测方法的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其它设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,举例而言,可行驶区域的检测方法,或者可行驶区域的检测方法。举例而言,在一些实施例中,可行驶区域的检测方法,或者可行驶区域的检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。
在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的可行驶区域的检测方法,或者可行驶区域的检测方法的一个或多个步骤。备选地,在其它实施例中,计算单元701可以通过其它任何适当的方式(举例而言,借助于固件)而被配置为执行可行驶区域的检测方法,或者可行驶区域的检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(举例而言,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(举例而言,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;举例而言,提供给用户的反馈可以是任何形式的传感反馈(举例而言,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(举例而言,作为数据服务器)、或者包括中间件部件的计算系统(举例而言,应用服务器)、或者包括前端部件的计算系统(举例而言,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(举例而言,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。举例而言,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其它因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (27)
1.一种可行驶区域的检测方法,其特征在于,包括:
获取车辆的检测图像,其中,所述检测图像为包含路面区域的图像;
将所述检测图像输入至第一检测模型中,以确定所述检测图像中的各个障碍物边缘关键点;
对所述各个障碍物边缘关键点进行连线,以确定所述路面区域对应的可行驶区域。
2.根据权利要求1所述的方法,其特征在于,其中,所述第一检测模型为第二检测模型的学生模型,且所述第一检测模型与所述第二检测模型联合训练。
3.根据权利要求1所述的方法,其特征在于,在所述将所述检测图像输入至第一检测模型中之前,还包括:
获取训练样本;
获取第二检测模型,其中,所述第二检测模型为预训练获得的第一检测模型的教师模型;
基于所述训练样本,对所述第一检测模型与所述第二检测模型进行联合训练,以对所述第一检测模型进行修正。
4.根据权利要求3所述的方法,其特征在于,所述获取训练样本,包括:
获取所述车辆的车体外各个方向的环境图像;
获取所述环境图像中的障碍物在所述路面区域的边缘关键点的标注信息;
将具有所述标注信息的所述各个方向的环境图像进行拼接,以生成全方向的拼接图像;
对所述全方向的拼接图像进行数据增强处理,以生成训练样本。
5.根据权利要求4所述的方法,其特征在于,所述对所述全方向的拼接图像进行数据增强处理,以生成训练样本,包括:
保持所述全方向的拼接图像的长宽比例,对所述拼接图像进行缩小或者放大处理,以生成多个训练图像;
对所述训练图像随机进行预调整,并将预调整后的所述多个训练图像作为训练样本;
其中,所述训练样本的图像分辨率大于第一阈值且小于第二阈值。
6.根据权利要求5所述的方法,其特征在于,所述预调整包括以下调整的至少一项:
亮度调整;
对比度调整;
色彩饱和度调整;
色调调整;
锐度调整。
7.根据权利要求4所述的方法,其特征在于,在所述对所述全方向的拼接图像进行数据增强处理之前,还包括:
对所述全方向的拼接图像中已标注的各个所述边缘关键点的坐标进行坐标变换。
8.根据权利要求3所述的方法,其特征在于,所述基于所述训练样本,对所述第一检测模型与所述第二检测模型进行联合训练,以对所述第一检测模型进行修正,包括:
将所述训练样本分别输入所述第一检测模型和所述第二检测模型,以获取所述第一检测模型的第一输出概率以及所述第二检测模型的第二输出概率;
根据所述第一输出概率与所述第二输出概率的差异,确定所述第一检测模型对应的第一修正梯度;
获取所述第一检测模型输出的第一软标签及所述第二检测模型输出的第二软标签;
根据所述第一软标签与所述第二软标签的差异,确定所述第一检测模型对应的第二修正梯度;
基于所述第一修正梯度及所述第二修正梯度,对所述第一检测模型进行修正。
9.根据权利要求3所述的方法,其特征在于,所述获取第二检测模型,包括:
为第一残差网络设置第一网络参数,以建立初始教师网络;
基于所述训练样本,对所述初始教师网络进行训练,以生成所述第二检测模型。
10.根据权利要求9所述的方法,其特征在于,所述初始教师网络包括骨架网络层、特征融合层以及检测头层,所述基于初始训练样本集,对所述初始教师网络进行训练,以生成所述第二检测模型,包括:
将所述训练样本输入至所述初始教师网络的骨架网络层中,以提取各级语义特征;
基于所述初始教师网络的特征融合层,将所述各级语义特征进行融合;
将融合后的所述各级语义特征输入至所述初始教师网络的检测头层,以生成预测结果;
根据所述预测结果和所述训练样本中的标注结果之间的损失值,对所述初始教师网络进行修正,以生成所述第二检测模型。
11.根据权利要求10所述的方法,其特征在于,所述根据所述预测结果和所述训练样本中的标注结果之间的差异,对所述初始教师网络进行修正,以生成所述第二检测模型,包括:
确定所述预测结果与所述训练样本中的标注结果之间的损失值;
基于所述损失值,对所述初始教师网络中各网络层的权重参数进行更新,以生成所述第二检测模型。
12.根据权利要求8所述的方法,其特征在于,在所述将所述训练样本分别输入所述第一检测模型和所述第二检测模型之前,还包括:
为第二残差网络设置第二网络参数,以建立初始学生网络;
根据预设的权重量化模型以及所述第二检测模型的权重参数,确定所述初始学生网络对应的量化权重参数;
基于所述量化权重参数,对所述初始学生网络进行量化,以生成所述第一检测模型。
13.一种可行驶区域的检测装置,其特征在于,包括:
第一获取模块,用于获取车辆的检测图像,其中,所述检测图像为包含路面区域的图像;
第一确定模块,用于将所述检测图像输入至第一检测模型中,以确定所述检测图像中的各个障碍物边缘关键点,其中,所述第一检测模型为第二检测模型的学生模型,且所述第一检测模型与所述第二检测模型联合训练;
第二确定模块,用于对所述各个障碍物边缘关键点进行连线,以确定所述路面区域对应的可行驶区域。
14.根据权利要求13所述的装置,其特征在于,其中,所述第一检测模型为第二检测模型的学生模型,且所述第一检测模型与所述第二检测模型联合训练。
15.根据权利要求14所述的装置,其特征在于,在所述将所述检测图像输入至第一检测模型中之前,还包括:
第二获取模块,用于获取训练样本;
第三获取模块,用于获取第二检测模型,其中,所述第二检测模型为预训练获得的第一检测模型的教师模型;
修正模块,用于基于所述训练样本,对所述第一检测模型与所述第二检测模型进行联合训练,以对所述第一检测模型进行修正。
16.根据权利要求15所述的装置,其特征在于,所述第二获取模块,包括:
第一获取单元,用于获取所述车辆的车体外各个方向的环境图像;
第二获取单元,用于获取所述环境图像中的障碍物在所述路面区域的边缘关键点的标注信息;
第一生成单元,用于将具有所述标注信息的所述各个方向的环境图像进行拼接,以生成全方向的拼接图像;
第二生成单元,用于对所述全方向的拼接图像进行数据增强处理,以生成训练样本。
17.根据权利要求16所述的装置,其特征在于,所述第二生成单元,具体用于:
保持所述全方向的拼接图像的长宽比例,对所述拼接图像进行缩小或者放大处理,以生成多个训练图像;
对所述训练图像随机进行预调整,并将预调整后的所述多个训练图像作为训练样本;
其中,所述训练样本的图像分辨率大于第一阈值且小于第二阈值。
18.根据权利要求17所述的装置,其特征在于,所述预调整包括以下调整的至少一项:
亮度调整;
对比度调整;
色彩饱和度调整;
色调调整;
锐度调整。
19.根据权利要求16所述的装置,其特征在于,所述第二生成单元,还用于:
对所述全方向的拼接图像中已标注的各个所述边缘关键点的坐标进行坐标变换。
20.根据权利要求15所述的装置,其特征在于,所述修正模块,具体用于:
将所述训练样本分别输入所述第一检测模型和所述第二检测模型,以获取所述第一检测模型的第一输出概率以及所述第二检测模型的第二输出概率;
根据所述第一输出概率与所述第二输出概率的差异,确定所述第一检测模型对应的第一修正梯度;
获取所述第一检测模型输出的第一软标签及所述第二检测模型输出的第二软标签;
根据所述第一软标签与所述第二软标签的差异,确定所述第一检测模型对应的第二修正梯度;
基于所述第一修正梯度及所述第二修正梯度,对所述第一检测模型进行修正。
21.根据权利要求15所述的装置,其特征在于,所述第三获取模块,包括:
建立单元,用于为第一残差网络设置第一网络参数,以建立初始教师网络;
第三生成单元,用于基于所述训练样本,对所述初始教师网络进行训练,以生成所述第二检测模型。
22.根据权利要求21所述的装置,其特征在于,所述初始教师网络包括骨架网络层、特征融合层以及检测头层,所述第三生成单元,包括:
提取子单元,用于将所述训练样本输入至所述初始教师网络的骨架网络层中,以提取各级语义特征;
融合子单元,用于基于所述初始教师网络的特征融合层,将所述各级语义特征进行融合;
输入子单元,用于将融合后的所述各级语义特征输入至所述初始教师网络的检测头层,以生成预测结果;
修正子单元,用于根据所述预测结果和所述训练样本中的标注结果之间的损失值,对所述初始教师网络进行修正,以生成所述第二检测模型。
23.根据权利要求22所述的装置,其特征在于,所述修正子单元,具体用于:
确定所述预测结果与所述训练样本中的标注结果之间的损失值;
基于所述损失值,对所述初始教师网络中各网络层的权重参数进行更新,以生成所述第二检测模型。
24.根据权利要求20所述的装置,其特征在于,所述修正模块,还用于:
为第二残差网络设置第二网络参数,以建立初始学生网络;
根据预设的权重量化模型以及所述第二检测模型的权重参数,确定所述初始学生网络对应的量化权重参数;
基于所述量化权重参数,对所述初始学生网络进行量化,以生成所述第一检测模型。
25.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-12中任一项所述的方法。
26.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-12中任一项所述的方法。
27.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-12中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210289051.5A CN114663397B (zh) | 2022-03-22 | 2022-03-22 | 可行驶区域的检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210289051.5A CN114663397B (zh) | 2022-03-22 | 2022-03-22 | 可行驶区域的检测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114663397A true CN114663397A (zh) | 2022-06-24 |
CN114663397B CN114663397B (zh) | 2023-05-23 |
Family
ID=82030859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210289051.5A Active CN114663397B (zh) | 2022-03-22 | 2022-03-22 | 可行驶区域的检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114663397B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115345321A (zh) * | 2022-10-19 | 2022-11-15 | 小米汽车科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN116052122A (zh) * | 2023-01-28 | 2023-05-02 | 广汽埃安新能源汽车股份有限公司 | 一种可行驶空间的检测方法、装置、电子设备及存储介质 |
CN116486377A (zh) * | 2023-04-26 | 2023-07-25 | 小米汽车科技有限公司 | 可行驶区域的生成方法及装置 |
CN117058657A (zh) * | 2023-09-05 | 2023-11-14 | 上海保隆汽车科技(武汉)有限公司 | 汽车可行驶区域识别方法、深度学习模型构建方法和装置 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140086477A1 (en) * | 2012-09-24 | 2014-03-27 | Ricoh Company, Ltd. | Method and device for detecting drivable region of road |
WO2018072908A1 (en) * | 2016-10-17 | 2018-04-26 | Connaught Electronics Ltd. | Controlling a vehicle for human transport with a surround view camera system |
CN109117690A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
CN110084086A (zh) * | 2018-12-11 | 2019-08-02 | 安徽江淮汽车集团股份有限公司 | 一种基于视觉传感器的自动驾驶车辆可行驶区域检测方法 |
US20190286153A1 (en) * | 2018-03-15 | 2019-09-19 | Nvidia Corporation | Determining drivable free-space for autonomous vehicles |
US20190340447A1 (en) * | 2018-05-02 | 2019-11-07 | Tusimple, Inc. | Curb detection by analysis of reflection images |
CN110766762A (zh) * | 2019-10-22 | 2020-02-07 | 广州四为电子科技有限公司 | 一种全景泊车的标定方法及标定系统 |
CN110969071A (zh) * | 2019-06-13 | 2020-04-07 | 北京中科慧眼科技有限公司 | 一种基于可行驶区域的障碍物检测方法、装置及系统 |
CN111209832A (zh) * | 2019-12-31 | 2020-05-29 | 华瑞新智科技(北京)有限公司 | 变电站巡检机器人辅助避障训练方法、设备及介质 |
CN111369439A (zh) * | 2020-02-29 | 2020-07-03 | 华南理工大学 | 基于环视的自动泊车车位识别全景环视图像实时拼接方法 |
CN111723728A (zh) * | 2020-06-18 | 2020-09-29 | 中国科学院自动化研究所 | 基于双向交互网络的行人搜索方法、系统、装置 |
CN112417973A (zh) * | 2020-10-23 | 2021-02-26 | 西安科锐盛创新科技有限公司 | 一种基于车联网的无人驾驶系统 |
CN112560693A (zh) * | 2020-12-17 | 2021-03-26 | 华中科技大学 | 基于深度学习目标检测的高速公路异物识别方法和系统 |
CN113033774A (zh) * | 2021-03-10 | 2021-06-25 | 北京百度网讯科技有限公司 | 图处理网络模型的训练方法、装置、电子设备和存储介质 |
CN113033411A (zh) * | 2021-03-26 | 2021-06-25 | 北京理工大学 | 基于分割与注意力机制的地面语义认知方法 |
CN114120260A (zh) * | 2020-09-01 | 2022-03-01 | 广州汽车集团股份有限公司 | 可行驶区域识别方法及其系统、计算机设备、存储介质 |
-
2022
- 2022-03-22 CN CN202210289051.5A patent/CN114663397B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140086477A1 (en) * | 2012-09-24 | 2014-03-27 | Ricoh Company, Ltd. | Method and device for detecting drivable region of road |
WO2018072908A1 (en) * | 2016-10-17 | 2018-04-26 | Connaught Electronics Ltd. | Controlling a vehicle for human transport with a surround view camera system |
CN109117690A (zh) * | 2017-06-23 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 可行驶区域检测方法、装置、设备及存储介质 |
US20190286153A1 (en) * | 2018-03-15 | 2019-09-19 | Nvidia Corporation | Determining drivable free-space for autonomous vehicles |
US20190340447A1 (en) * | 2018-05-02 | 2019-11-07 | Tusimple, Inc. | Curb detection by analysis of reflection images |
CN110084086A (zh) * | 2018-12-11 | 2019-08-02 | 安徽江淮汽车集团股份有限公司 | 一种基于视觉传感器的自动驾驶车辆可行驶区域检测方法 |
CN110969071A (zh) * | 2019-06-13 | 2020-04-07 | 北京中科慧眼科技有限公司 | 一种基于可行驶区域的障碍物检测方法、装置及系统 |
CN110766762A (zh) * | 2019-10-22 | 2020-02-07 | 广州四为电子科技有限公司 | 一种全景泊车的标定方法及标定系统 |
CN111209832A (zh) * | 2019-12-31 | 2020-05-29 | 华瑞新智科技(北京)有限公司 | 变电站巡检机器人辅助避障训练方法、设备及介质 |
CN111369439A (zh) * | 2020-02-29 | 2020-07-03 | 华南理工大学 | 基于环视的自动泊车车位识别全景环视图像实时拼接方法 |
CN111723728A (zh) * | 2020-06-18 | 2020-09-29 | 中国科学院自动化研究所 | 基于双向交互网络的行人搜索方法、系统、装置 |
CN114120260A (zh) * | 2020-09-01 | 2022-03-01 | 广州汽车集团股份有限公司 | 可行驶区域识别方法及其系统、计算机设备、存储介质 |
CN112417973A (zh) * | 2020-10-23 | 2021-02-26 | 西安科锐盛创新科技有限公司 | 一种基于车联网的无人驾驶系统 |
CN112560693A (zh) * | 2020-12-17 | 2021-03-26 | 华中科技大学 | 基于深度学习目标检测的高速公路异物识别方法和系统 |
CN113033774A (zh) * | 2021-03-10 | 2021-06-25 | 北京百度网讯科技有限公司 | 图处理网络模型的训练方法、装置、电子设备和存储介质 |
CN113033411A (zh) * | 2021-03-26 | 2021-06-25 | 北京理工大学 | 基于分割与注意力机制的地面语义认知方法 |
Non-Patent Citations (6)
Title |
---|
BOHAN ZHUANG等: "Towards Effective Low-bitwidth Convolutional Neural Networks", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
JIE FU等: "Role-Wise Data Augmentation for Knowledge Distillation", 《ARXIV.ORG》 * |
周苏;易然;郑淼;: "基于知识蒸馏的车辆可行驶区域分割算法研究", 汽车技术 * |
孙其功: "《深度神经网络FPGA设计与实现》", 31 October 2020, 西安:西安电子科技大学出版社 * |
赵春晖等: "《视频图像运动目标分析》", 30 June 2011, 北京:国防工业出版社 * |
陈立潮等: "引入辅助损失的多场景车道线检测", 《中国图象图形学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115345321A (zh) * | 2022-10-19 | 2022-11-15 | 小米汽车科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN116052122A (zh) * | 2023-01-28 | 2023-05-02 | 广汽埃安新能源汽车股份有限公司 | 一种可行驶空间的检测方法、装置、电子设备及存储介质 |
CN116486377A (zh) * | 2023-04-26 | 2023-07-25 | 小米汽车科技有限公司 | 可行驶区域的生成方法及装置 |
CN116486377B (zh) * | 2023-04-26 | 2023-12-26 | 小米汽车科技有限公司 | 可行驶区域的生成方法及装置 |
CN117058657A (zh) * | 2023-09-05 | 2023-11-14 | 上海保隆汽车科技(武汉)有限公司 | 汽车可行驶区域识别方法、深度学习模型构建方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114663397B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114663397B (zh) | 可行驶区域的检测方法、装置、设备及存储介质 | |
CN110793544B (zh) | 路侧感知传感器参数标定方法、装置、设备及存储介质 | |
CN113674421B (zh) | 3d目标检测方法、模型训练方法、相关装置及电子设备 | |
CN113377888B (zh) | 训练目标检测模型和检测目标的方法 | |
CN110390261B (zh) | 目标检测方法、装置、计算机可读存储介质及电子设备 | |
US20210295546A1 (en) | Satellite image processing method, network training method, related devices and electronic device | |
CN114743178B (zh) | 道路边缘线生成方法、装置、设备及存储介质 | |
CN116188893A (zh) | 基于bev的图像检测模型训练及目标检测方法和装置 | |
CN114140759A (zh) | 高精地图车道线位置确定方法、装置及自动驾驶车辆 | |
CN113298910A (zh) | 生成交通标志线地图的方法、设备和存储介质 | |
CN112906946B (zh) | 道路信息提示方法、装置、设备、存储介质和程序产品 | |
WO2024093641A1 (zh) | 多模态融合的高精地图要素识别方法、装置、设备及介质 | |
CN114494782B (zh) | 图像处理方法、模型训练方法、相关装置及电子设备 | |
CN114419564B (zh) | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 | |
CN114429631A (zh) | 三维对象检测方法、装置、设备以及存储介质 | |
CN113591569A (zh) | 障碍物检测方法、装置、电子设备以及存储介质 | |
CN113205131A (zh) | 图像数据的处理方法、装置、路侧设备和云控平台 | |
CN115240171B (zh) | 道路结构感知方法及装置 | |
CN113361524B (zh) | 图像处理方法及装置 | |
CN114625984B (zh) | 兴趣点验证方法、装置、电子设备及存储介质 | |
CN116485906B (zh) | 参数处理方法、装置、设备以及存储介质 | |
CN114219907B (zh) | 三维地图生成方法、装置、设备以及存储介质 | |
CN112507951B (zh) | 指示灯识别方法、装置、设备、路侧设备和云控平台 | |
CN116663329B (zh) | 自动驾驶仿真测试场景生成方法、装置、设备及存储介质 | |
US20220230343A1 (en) | Stereo matching method, model training method, relevant electronic devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |