CN116626670B - 自动驾驶模型的生成方法、装置、车辆及存储介质 - Google Patents
自动驾驶模型的生成方法、装置、车辆及存储介质 Download PDFInfo
- Publication number
- CN116626670B CN116626670B CN202310877832.0A CN202310877832A CN116626670B CN 116626670 B CN116626670 B CN 116626670B CN 202310877832 A CN202310877832 A CN 202310877832A CN 116626670 B CN116626670 B CN 116626670B
- Authority
- CN
- China
- Prior art keywords
- target
- data set
- verification
- sensor
- automatic driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 141
- 238000012795 verification Methods 0.000 claims abstract description 115
- 238000002372 labelling Methods 0.000 claims abstract description 51
- 238000001514 detection method Methods 0.000 claims description 71
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Evolutionary Computation (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开提出一种自动驾驶模型的生成方法、装置、车辆及存储介质,涉及自动驾驶技术领域。所述方法包括:获取初始训练数据集,包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的;基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;基于预设的验证数据集,对候选自动驾驶模型进行验证,以获取验证结果;基于验证结果,对初始训练数据集进行更新,以获取目标训练数据集;基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。由此,可以减少了数据标注的人力及时间,提高生成自动驾驶模型的效率。
Description
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种自动驾驶模型的生成方法、装置、车辆及存储介质。
背景技术
自动驾驶技术依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让车辆可以在没有任何人类主动的操作下,实现自动驾驶。其中,车辆执行自动驾驶任务是通过预设的自动驾驶模型实现的,即信息采集设备实时采集当前的场景信息,利用自动驾驶模型对场景信息进行处理,以向驾驶设备输出响应的驾驶指令。
相关技术中,往往需要大量的标注数据,对自动驾驶模型进行训练。但是,大量的标注数据需要耗费较多的人力及时间,从而导致生成自动驾驶模型的效率较低。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
本公开第一方面实施例提出了一种自动驾驶模型的生成方法,包括:
获取初始训练数据集,其中,所述初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,所述标注数据为基于目标传感器采集的第二样本数据生成的;
基于所述初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
基于预设的验证数据集,对所述候选自动驾驶模型进行验证,以获取验证结果;
基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集;
基于所述目标训练数据集,对所述初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
本公开第二方面实施例提出了一种自动驾驶模型的生成装置,包括:
获取模块,用于获取初始训练数据集,其中,所述初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,所述标注数据为基于目标传感器采集的第二样本数据生成的;
训练模块,用于基于所述初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
验证模块,用于基于预设的验证数据集,对所述候选自动驾驶模型进行验证,以获取验证结果;
更新模块,用于基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集;
生成模块,用于基于所述目标训练数据集,对所述初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
本公开第三方面实施例提出了一种车辆,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:如本公开第一方面实施例提出的自动驾驶模型的生成方法的步骤。
本公开第四方面实施例提出了一种计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种自动驾驶模型的生成方法,所述方法包括:
获取初始训练数据集,其中,所述初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,所述标注数据为基于目标传感器采集的第二样本数据生成的;
基于所述初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
基于预设的验证数据集,对所述候选自动驾驶模型进行验证,以获取验证结果;
基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集;
基于所述目标训练数据集,对所述初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
本公开提供的自动驾驶模型的生成方法、装置、车辆及存储介质,存在如下有益效果:
本公开实施例中,获取初始训练数据集,初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的,之后基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型,进而基于预设的验证数据集,对候选自动驾驶模型进行验证,以获取验证结果,基于验证结果,对初始训练数据集进行更新,以获取目标训练数据集,最后基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。由此,可以基于目标传感器采集的数据,自动生成标注数据,并对基于初始训练数据集,生成的候选自动驾驶模型进行验证,以对初始训练数据集中的问题数据进行更新,进而基于更新后的目标训练数据集,生成目标自动驾驶模型,从而减少了人力及时间,提高了生成自动驾驶模型的效率。
本公开附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本公开的实践了解到。
附图说明
本公开上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本公开一实施例所提供的一种自动驾驶模型的生成方法的流程示意图;
图2为本公开另一实施例所提供的一种自动驾驶模型的生成方法的流程示意图;
图3为本公开一实施例所提供的自动驾驶模型的生成装置的结构示意图;
图4示出了适于用来实现本公开实施方式的示例性电子设备的框图。
具体实施方式
下面详细描述本公开的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本公开,而不能理解为对本公开的限制。
下面参考附图描述本公开实施例的自动驾驶模型的生成方法、装置、车辆及存储介质。
图1为本公开实施例所提供的一种自动驾驶模型的生成方法的流程示意图。
本公开实施例以该自动驾驶模型的生成方法被配置于自动驾驶模型的生成装置中来举例说明,该自动驾驶模型的生成装置可以应用于任一车辆中,以使该车辆可以执行自动驾驶模型的生成功能。
如图1所示,该自动驾驶模型的生成方法可以包括以下步骤:
步骤101,获取初始训练数据集,其中,初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的。
其中,第一样本数据,可以为车辆在不同驾驶场景行驶的过程中,车辆的相机传感器采集的图像数据。
第一样本数据对应的标注数据可以为,根据相机传感器采集的第一样本图像的时刻,目标传感器采集的第二样本数据生成的。即第一样本数据的采集时刻,与用于生成对应的标注数据的第二样本数据的采集时刻相同。
其中,目标传感器与待生成的目标自动驾驶模型的类型相对应,因此,可以根据待生成的目标自动驾驶模型对应的目标类型,确定目标传感器。
在一些可能的实现方式中,在目标类型为障碍物检测模型的情况下,确定目标传感器为激光雷达传感器和毫米波雷达传感器。
进一步地,获取同一时刻相机传感器采集的第一样本数据、第二样本数据中包含的激光雷达传感器采集的点云数据、毫米波雷达传感器采集的信号数据,之后对激光雷达传感器采集的点云数据,进行障碍物检测,以获取障碍物检测结果,进而根据毫米波雷达采集的信号数据,确定障碍物检测结果中每个障碍物对应的运行速度,最后将述障碍物检测结果及每个障碍物对应的运行速度,确定为第一样本数据对应的标注数据。
由此,可以根据激光雷达传感器和毫米波雷达传感器采集的第二样本数据,自动生成第一样本数据对应的标注数据,从而可以避免耗费较多的人力及时间进行数据标注,提高了第一样本数据的标注效率。
可选地,可以采用预先训练好的障碍物检测模型等,对激光雷达传感器采集的点云数据,进行障碍物检测,以获取障碍物检测结果。其中,障碍物检测结果中可以包括障碍物的大小、朝向、位置。
进一步的,还可以根据毫米波雷达传感器采集的信号数据,确定障碍物的运行速度,并将运动速度也作为标注数据,即第一样本数据对应的标注数据中包含障碍物的大小、朝向、位置、运行速度等信息。
需要说明的是,由于点云数据的障碍物检测结果比较准确,因此,可以将点云数据的障碍物检测,确定为标注数据。进一步的,还可以根据毫米波雷达传感器采集的信号数据,确定障碍物的运行速度,并将运动速度也作为标注数据,从而可以将激光雷达传感器与毫米波雷达传感器之间的优势进行互补,提高了标注数据的多样性。
在一些可能的实现方式中,在目标类型为车道线检测模型的情况下,确定目标传感器为定位传感器和地图传感器。
进一步地,获取同一时刻相机传感器采集的第一样本数据、第二样本数据中定位传感器采集的定位数据,地图传感器对应的地图数据,之后根据定位数据及地图数据,确定自动驾驶设备周围的目标地图,进而对目标地图进行车道线检测,以获取车道线检测结果,最后将车道线检测结果,确定为第一样本数据对应的标注数据。
由此,可以根据定位传感器和地图传感器采集的第二样本数据,自动生成第一样本数据对应的标注数据,从而可以避免耗费较多的人力及时间进行数据标注,提高了第一样本数据的标注效率。
其中,地图数据可以为高精地图(High Definition Map,HD Map)。由于高精地图非常准确,因此,可以对高精地图进行车道线检测,并将车道线检测结果确定为标注数据。
进一步的,由于高精地图非常大,可以结合定位传感器采集的自动驾驶设备当前的定位数据,确定自动驾驶设备周围的目标地图,进而只需对目标地图进行车道线检测,以获取标注数据。
可选地,可以采用预先训练好的车道线检测模型等,对目标地图的进行车道线检测,以获取车道线检测结果。其中,车道线检测结果中可以包括车道线的类型、车道线的位置等。
需要说明的是,由于点云数据的障碍物检测结果比较准确,因此,可以将点云数据的障碍物检测,确定为标注数据。进一步的,还可以根据毫米波雷达传感器采集的信号数据,确定障碍物的运行速度,并将运动速度也作为标注数据,从而可以将激光雷达传感器与毫米波雷达传感器之间的优势进行互补,提高了标注数据的多样性。
在一些可能的实现方式中,需要将不同传感器的结果通过标定进行相互转换至第一样本数据对应的坐标系下。如将障碍物检测结果、车道线检测感知结果等转换至第一样本图像对应的图像坐标系下,以获取第一样本数据对应的标注数据。
步骤102,基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型。
其中,初始自动驾驶模型可以为未经训练的初始模型。初始自动驾驶模型的结构可以基于待生成的目标自动驾驶模型的目标类型进行确定。
比如,待生成的目标自动驾驶模型的目标类型为障碍物检测模型,初始自动驾驶模型的结构可以为基于区域的卷积神经网络(Faster Region-based ConvolutionalNeural Network,Faster R-CNN)、单次检测多框架(Single Shot MultiBox Detector,SSD)等。
比如,待生成的目标自动驾驶模型的目标类型为车道线检测模型,则初始自动驾驶模型的结构可以为残差网络(Residual Network,ResNet),视觉几何组网络(VisualGeometry Group Net,VGGNet)等。
步骤103,基于预设的验证数据集,对候选自动驾驶模型进行验证,以获取验证结果。
需要说明的是,由于第一样本数据对应的标注数据为基于目标传感器采集的第二样本数据自动生成的,标注数据的质量无法确定,从而可能会导致生成的候选自动驾驶模型的性能无法确定。由此,可以基于验证数据集、对候选自动驾驶模型进行验证,以确定生成的候选自动驾驶模型的性能。
在一些可能的实现方式中,验证数据集中可以包含相机传感器采集的验证图像,及人工标注的数据。进而将验证图像输入候选自动驾驶模型中,以获取预测结果,进而将预测结果与标注的数据之间的差异,确定为验证结果。
在一些可能的实现方式中,验证数据集中可以包含相机传感器采集的验证图像,及目标传感器采集的验证数据。从而,可以将验证数据集中相机传感器采集的验证图像,输入候选自动驾驶模型,以获取验证图像对应的预测结果,之后对验证数据集中目标传感器采集的验证数据进行目标检测,以获取目标检测结果,最后根据同一时刻相机传感器采集的验证图像对应的预测结果,与目标传感器采集的验证数据对应的目标检测结果之间的差异,确定验证结果。
举例来说,若目标传感器为激光雷达传感器和毫米波雷达传感器,则对激光雷达传感器采集的验证数据及毫米波雷达传感器采集的验证数据,进行目标检测,以获取目标检测结果(即障碍物检测结果及障碍物的速度),进而根据候选自动驾驶模型预测的验证图像对应的预测结果,与目标检测结果之间的差异,确定验证结果。
在一些可能的实现方式中,可以将差异大于第一阈值的验证图像,确定为候选自动驾驶模型,预测结果较差的图像。即将差异大于第一阈值的验证图像,确定为验证结果。
步骤104,基于验证结果,对初始训练数据集进行更新,以获取目标训练数据集。
在一些可能的实现方式中,可以先确定差异大于第一阈值的验证图像与初始训练数据集第一样本数据之间的相似度,将相似度大于相似度阈值的第一样本数据对应的标注数据进行更新。比如,可以通过人工标注的方式,获取准确的标注数据。
步骤105,基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
本公开实施例中,在对初始训练数据集进行更新之后,目标训练数据集中各第一样本数据对应的标注数据均较为准确,因此,可以基于目标训练数据集,对初始自动驾驶模型进行重新训练,以生成目标自动驾驶模型。
在一些可能的实现方式中,还可以对目标自动驾驶模型进行验证,进而基于对应的验证结果,对目标训练数据集进行更新,并基于更新后的目标训练数据集,对初始自动驾驶模型进行训练。由此,反复迭代,直至生成性能较高的自动驾驶模型。
本公开实施例中,获取初始训练数据集,初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的,之后基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型,进而基于预设的验证数据集,对候选自动驾驶模型进行验证,以获取验证结果,基于验证结果,对初始训练数据集进行更新,以获取目标训练数据集,最后基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。由此,可以基于目标传感器采集的数据,自动生成标注数据,并对基于初始训练数据集,生成的候选自动驾驶模型进行验证,以对初始训练数据集中的问题数据进行更新,进而基于更新后的目标训练数据集,生成目标自动驾驶模型,从而减少了人力及时间,提高了生成自动驾驶模型的效率。
图2为本公开一实施例所提供的一种自动驾驶模型的生成方法的流程示意图,如图2所示,该自动驾驶模型的生成方法可以包括以下步骤:
步骤201,获取初始训练数据集,其中,初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的。
步骤202,基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型。
步骤203,将验证数据集中相机传感器采集的验证图像,输入候选自动驾驶模型,以获取验证图像对应的预测结果。
步骤204,对验证数据集中目标传感器采集的验证数据进行目标检测,以获取目标检测结果。
其中,步骤201至步骤204的具体实现形式,可参照本公开中其他各实施例中的详细描述,此处不再具体赘述。
步骤205,将验证数据集中预测结果与目标检测结果之间的差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像。
其中,第一阈值可以用于判断候选自动驾驶模型对验证图像的预测结果是否准确。若差异小于或等于第一阈值,表示候选自动驾驶模型对验证图像的预测结果较为准确,若差异大于第一阈值,表示候选自动驾驶模型对验证图像的预测结果准确度较差。可能是初始数据训练集中的标注数据不准确导致的。
因此,可以将差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像,进而对目标图像进行分析,以对初始训练数据集进行更新。
步骤206,基于每张目标图像对应的驾驶场景,对目标图像集进行划分,以获取每个驾驶场景对应的子目标图像集。
在一些可能的是实现方式中,可以对目标图像集中的目标图像进行分析,以确定候选自动驾驶设备对哪些驾驶场景下的图像预测结果较差。具体的,可以基于预设的场景识别模型,对每张目标图像进行场景识别,以获取每张目标图像对应的驾驶场景,进而基于每张目标图像对应的驾驶场景,对目标图像集进行划分,以获取每个驾驶场景对应的子目标图像集。其中,每个子目标图像集中的目标图像对应的驾驶场景相同。
步骤207,将子目标图像集中目标图像的数量大于第二阈值对应的驾驶场景,确定为目标场景。
其中,第二阈值可以为预先设置的数据,比如,第二阈值可以为5、可以为10。或者,也可以根据初始训练数据集中,每个驾驶场景对应的第一样本数据的数量进行确定。本公开对此不做限定。
可以理解的是,若子目标图像集中目标图像的数量大于第二阈值,候选自动驾驶模型对对应的驾驶场景下的图像的预测结果比较差,因此,可以将对应的驾驶场景,确定为目标场景。从而可以基于目标场景,对初始训练数据集进行更新。
步骤208,将目标场景,确定为验证结果。
步骤209,将初始训练数据集中驾驶场景与目标场景相同的第一样本数据,确定为目标样本数据。
步骤210,对目标样本数据对应的标注数据进行更新,以获取目标训练数据集。
需要说明的是,若候选自动驾驶模型对目标场景下的图像的预测结果较差,则表示初始训练数据集中与目标场景相同的第一样本数据的标注数据准确度较差。因此,在确定了候选自动驾驶模型预测效果较差的目标场景之后,即可从初始训练数据集中,确定与目标场景相同的目标样本数据,进而对目标样本数据对应的标注数据进行更新,以获取目标训练数据集。从而提高了目标训练数据集中第一样本数据对应的标注数据的准确性,进而可以基于目标训练数据集,生成性能较好的目标自动驾驶模型。
步骤211,基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
本公开实施例中,在基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型之后,将验证数据集中相机传感器采集的验证图像,输入候选自动驾驶模型,以获取验证图像对应的预测结果,对验证数据集中目标传感器采集的验证数据进行目标检测,以获取目标检测结果,将验证数据集中预测结果与目标检测结果之间的差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像,之后基于每个驾驶场景分别对应的目标图像的数量,确定目标场景,进而将初始训练数据集中驾驶场景与目标场景相同的第一样本数据,确定为目标样本数据,对目标样本数据对应的标注数据进行更新,以获取目标训练数据集,最后基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。由此,可以基于候选自动驾驶模型对验证数据集的验证,确定初始训练数据集中标注数据较差的目标场景,进而对目标场景对应的目标样本数据对应的标注数据进行更新,进而基于更新后的目标训练数据集,生成目标自动驾驶模型,从而可以准确地对初始训练数据集进行更新,提高了生成的目标训练数据集的准确性,进一步提高了生成自动驾驶模型的效率。
为了实现上述实施例,本公开还提出一种自动驾驶模型的生成装置。
图3为本公开实施例所提供的自动驾驶模型的生成装置的结构示意图。
如图3所示,该自动驾驶模型的生成装置300可以包括:
获取模块301,用于获取初始训练数据集,其中,初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的;
训练模块302,用于基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
验证模块303,用于基于预设的验证数据集,对候选自动驾驶模型进行验证,以获取验证结果;
更新模块304,用于基于验证结果,对初始训练数据集进行更新,以获取目标训练数据集;
生成模块305,用于基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
在一些可能的实现方式中,验证模块303,用于:
将验证数据集中相机传感器采集的验证图像,输入候选自动驾驶模型,以获取验证图像对应的预测结果;
对验证数据集中目标传感器采集的验证数据进行目标检测,以获取目标检测结果;
根据同一时刻相机传感器采集的验证图像对应的预测结果,与目标传感器采集的验证数据对应的目标检测结果之间的差异,确定验证结果。
在一些可能的实现方式中,验证模块303,用于:
将验证数据集中预测结果与目标检测结果之间的差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像;
基于每张目标图像对应的驾驶场景,对目标图像集进行划分,以获取每个驾驶场景对应的子目标图像集;
将子目标图像集中目标图像的数量大于第二阈值对应的驾驶场景,确定为目标场景;
将目标场景,确定为验证结果。
在一些可能的实现方式中,更新模块304,用于:
将初始训练数据集中驾驶场景与目标场景相同的第一样本数据,确定为目标样本数据;
对目标样本数据对应的标注数据进行更新,以获取目标训练数据集。
在一些可能的实现方式中,还包括确定模块,用于:
根据待生成的目标自动驾驶模型对应的目标类型,确定目标传感器。
在一些可能的实现方式中,还包括确定模块,用于:
在目标类型为障碍物检测模型的情况下,确定目标传感器为激光雷达传感器和毫米波雷达传感器;或者,
在目标类型为车道线检测模型的情况下,确定目标传感器为定位传感器和地图传感器。
在一些可能的实现方式中,还包括获取模块301,用于:
获取同一时刻相机传感器采集的第一样本数据、第二样本数据中包含的激光雷达传感器采集的点云数据、毫米波雷达传感器采集的信号数据;
对激光雷达传感器采集的点云数据,进行障碍物检测,以获取障碍物检测结果;
根据毫米波雷达采集的信号数据,确定障碍物检测结果中每个障碍物对应的运行速度;
将障碍物检测结果及每个障碍物对应的运行速度,确定为第一样本数据对应的标注数据。
在一些可能的实现方式中,还包括获取模块301,用于:
获取同一时刻相机传感器采集的第一样本数据、第二样本数据中定位传感器采集的定位数据,地图传感器对应的地图数据;
根据定位数据及地图数据,确定自动驾驶设备周围的目标地图;
对目标地图进行车道线检测,以获取车道线检测结果;
将车道线检测结果,确定为第一样本数据对应的标注数据。
本公开实施例中的上述各模块的功能及具体实现原理,可参照上述各方法实施例,此处不再赘述。
本公开实施例的自动驾驶模型的生成装置,获取初始训练数据集,初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,标注数据为基于目标传感器采集的第二样本数据生成的,之后基于初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型,进而基于预设的验证数据集,对候选自动驾驶模型进行验证,以获取验证结果,基于验证结果,对初始训练数据集进行更新,以获取目标训练数据集,最后基于目标训练数据集,对初始自动驾驶模型进行训练,以生成目标自动驾驶模型。由此,可以基于目标传感器采集的数据,自动生成标注数据,并对基于初始训练数据集,生成的候选自动驾驶模型进行验证,以对初始训练数据集中的问题数据进行更新,进而基于更新后的目标训练数据集,生成目标自动驾驶模型,从而减少了人力及时间,提高了生成自动驾驶模型的效率。
图4是一示例性实施例示出的一种车辆的功能框图示意图。例如,车辆400可以是混合动力车辆,也可以是非混合动力车辆、电动车辆、燃料电池车辆或者其他类型的车辆。车辆400可以是自动驾驶车辆、半自动驾驶车辆或者非自动驾驶车辆。
参照图4,车辆400可包括各种子系统,例如,信息娱乐系统410、感知系统420、决策控制系统430、驱动系统440以及计算平台450。其中,车辆400还可以包括更多或更少的子系统,并且每个子系统都可包括多个部件。另外,车辆400的每个子系统之间和每个部件之间可以通过有线或者无线的方式实现互连。
在一些实施例中,信息娱乐系统410可以包括通信系统,娱乐系统以及导航系统等。感知系统420可以包括若干种传感器,用于感测车辆400周边的环境的信息。例如,感知系统420可包括全球定位系统(全球定位系统可以是GPS系统,也可以是北斗系统或者其他定位系统)、惯性测量单元(inertial measurement unit,IMU)、激光雷达、毫米波雷达、超声雷达以及摄像装置。
决策控制系统430可以包括计算系统、整车控制器、转向系统、油门以及制动系统。驱动系统440可以包括为车辆400提供动力运动的组件。在一个实施例中,驱动系统440可以包括引擎、能量源、传动系统和车轮。引擎可以是内燃机、电动机、空气压缩引擎中的一种或者多种的组合。引擎能够将能量源提供的能量转换成机械能量。
车辆400的部分或所有功能受计算平台450控制。计算平台450可包括至少一个处理器451和存储器452,处理器451可以执行存储在存储器452中的指令453。
处理器451可以是任何常规的处理器,诸如商业可获得的CPU。处理器还可以包括诸如图像处理器(Graphic Process Unit,GPU),现场可编程门阵列(Field ProgrammableGate Array,FPGA)、片上系统(System on Chip,SOC)、专用集成芯片(ApplicationSpecific Integrated Circuit,ASIC)或它们的组合。
存储器452可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
除了指令453以外,存储器452还可存储数据,例如道路地图,路线信息,车辆的位置、方向、速度等数据。存储器452存储的数据可以被计算平台450使用。在本公开实施例中,处理器451可以执行指令453,以完成上述的自动驾驶模型的生成方法的全部或部分步骤。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的自动驾驶模型的生成方法的步骤。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本公开的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本公开的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本公开的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本公开各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本公开的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本公开的限制,本领域的普通技术人员在本公开的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (9)
1.一种自动驾驶模型的生成方法,其特征在于,包括:
获取初始训练数据集,其中,所述初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,所述标注数据为基于目标传感器采集的第二样本数据生成的;
基于所述初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
将验证数据集中所述相机传感器采集的验证图像,输入所述候选自动驾驶模型,以获取所述验证图像对应的预测结果;
对所述验证数据集中所述目标传感器采集的验证数据进行目标检测,以获取目标检测结果;
将所述验证数据集中所述预测结果与所述目标检测结果之间的差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像;
基于每张所述目标图像对应的驾驶场景,对所述目标图像集进行划分,以获取每个驾驶场景对应的子目标图像集;
将所述子目标图像集中目标图像的数量大于第二阈值对应的驾驶场景,确定为目标场景;
将所述目标场景,确定为验证结果;
基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集;
基于所述目标训练数据集,对所述初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集,包括:
将所述初始训练数据集中驾驶场景与所述目标场景相同的第一样本数据,确定为目标样本数据;
对所述目标样本数据对应的标注数据进行更新,以获取所述目标训练数据集。
3.根据权利要求1所述的方法,其特征在于,在所述获取初始训练数据集之前,还包括:
根据待生成的目标自动驾驶模型对应的目标类型,确定所述目标传感器。
4.根据权利要求3所述的方法,其特征在于,所述根据待生成的目标自动驾驶模型对应的目标类型,确定所述目标传感器,包括:
在所述目标类型为障碍物检测模型的情况下,确定所述目标传感器为激光雷达传感器和毫米波雷达传感器;或者,
在所述目标类型为车道线检测模型的情况下,确定所述目标传感器为定位传感器和地图传感器。
5.根据权利要求4所述的方法,其特征在于,所述获取初始训练数据集,包括:
获取同一时刻所述相机传感器采集的第一样本数据、所述第二样本数据中包含的所述激光雷达传感器采集的点云数据、所述毫米波雷达传感器采集的信号数据;
对所述激光雷达传感器采集的点云数据,进行障碍物检测,以获取障碍物检测结果;
根据所述毫米波雷达采集的信号数据,确定所述障碍物检测结果中每个障碍物对应的运行速度;
将所述障碍物检测结果及每个所述障碍物对应的运行速度,确定为所述第一样本数据对应的标注数据。
6.根据权利要求4所述的方法,其特征在于,所述获取初始训练数据集,包括:
获取同一时刻所述相机传感器采集的第一样本数据、所述第二样本数据中所述定位传感器采集的定位数据,所述地图传感器对应的地图数据;
根据所述定位数据及所述地图数据,确定自动驾驶设备周围的目标地图;
对所述目标地图进行车道线检测,以获取车道线检测结果;
将所述车道线检测结果,确定为所述第一样本数据对应的标注数据。
7.一种自动驾驶模型的生成方法装置,其特征在于,所述装置包括:
获取模块,用于获取初始训练数据集,其中,所述初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,所述标注数据为基于目标传感器采集的第二样本数据生成的;
训练模块,用于基于所述初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
验证模块,用于将验证数据集中所述相机传感器采集的验证图像,输入所述候选自动驾驶模型,以获取所述验证图像对应的预测结果;
对所述验证数据集中所述目标传感器采集的验证数据进行目标检测,以获取目标检测结果;
将所述验证数据集中所述预测结果与所述目标检测结果之间的差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像;
基于每张所述目标图像对应的驾驶场景,对所述目标图像集进行划分,以获取每个驾驶场景对应的子目标图像集;
将所述子目标图像集中目标图像的数量大于第二阈值对应的驾驶场景,确定为目标场景;
将所述目标场景,确定为验证结果;
更新模块,用于基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集;
生成模块,用于基于所述目标训练数据集,对所述初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
8.一种车辆,其特征在于,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:实现权利要求1-6中任一项所述方法的步骤。
9.一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种自动驾驶模型的生成方法,所述方法包括:
获取初始训练数据集,其中,所述初始训练数据集中包括相机传感器采集的第一样本数据、及对应的标注数据,所述标注数据为基于目标传感器采集的第二样本数据生成的;
基于所述初始训练数据集,对初始自动驾驶模型进行训练,以获取候选自动驾驶模型;
将验证数据集中所述相机传感器采集的验证图像,输入所述候选自动驾驶模型,以获取所述验证图像对应的预测结果;
对所述验证数据集中所述目标传感器采集的验证数据进行目标检测,以获取目标检测结果;
将所述验证数据集中所述预测结果与所述目标检测结果之间的差异大于第一阈值对应的验证图像,确定为目标图像集中的目标图像;
基于每张所述目标图像对应的驾驶场景,对所述目标图像集进行划分,以获取每个驾驶场景对应的子目标图像集;
将所述子目标图像集中目标图像的数量大于第二阈值对应的驾驶场景,确定为目标场景;
将所述目标场景,确定为验证结果;
基于所述验证结果,对所述初始训练数据集进行更新,以获取目标训练数据集;
基于所述目标训练数据集,对所述初始自动驾驶模型进行训练,以生成目标自动驾驶模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310877832.0A CN116626670B (zh) | 2023-07-18 | 2023-07-18 | 自动驾驶模型的生成方法、装置、车辆及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310877832.0A CN116626670B (zh) | 2023-07-18 | 2023-07-18 | 自动驾驶模型的生成方法、装置、车辆及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116626670A CN116626670A (zh) | 2023-08-22 |
CN116626670B true CN116626670B (zh) | 2023-11-03 |
Family
ID=87617312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310877832.0A Active CN116626670B (zh) | 2023-07-18 | 2023-07-18 | 自动驾驶模型的生成方法、装置、车辆及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116626670B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117681892B (zh) * | 2024-02-02 | 2024-05-14 | 中国科学院自动化研究所 | 面向矿区场景的自动驾驶数据选择方法和装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978955A (zh) * | 2019-03-11 | 2019-07-05 | 武汉环宇智行科技有限公司 | 一种联合激光点云与图像的高效标注方法 |
CN110070139A (zh) * | 2019-04-28 | 2019-07-30 | 吉林大学 | 面向自动驾驶环境感知的小样本在环学习系统和方法 |
CN110163904A (zh) * | 2018-09-11 | 2019-08-23 | 腾讯大地通途(北京)科技有限公司 | 对象标注方法、移动控制方法、装置、设备及存储介质 |
CN110427827A (zh) * | 2019-07-08 | 2019-11-08 | 辽宁工程技术大学 | 一种多尺度感知及全局规划下的自主驾驶网络 |
CN111639524A (zh) * | 2020-04-20 | 2020-09-08 | 中山大学 | 一种自动驾驶图像语义分割优化方法 |
CN112348122A (zh) * | 2020-12-03 | 2021-02-09 | 苏州挚途科技有限公司 | 可行驶区域的标注方法、装置和电子设备 |
CN115393684A (zh) * | 2022-10-27 | 2022-11-25 | 松立控股集团股份有限公司 | 一种基于自动驾驶场景多模态融合的抗干扰目标检测方法 |
CN115984791A (zh) * | 2022-12-19 | 2023-04-18 | 北京百度网讯科技有限公司 | 自动驾驶感知模型的生成方法、装置及电子设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180373980A1 (en) * | 2017-06-27 | 2018-12-27 | drive.ai Inc. | Method for training and refining an artificial intelligence |
KR20230009157A (ko) * | 2021-07-08 | 2023-01-17 | 현대모비스 주식회사 | 영상인식 카메라 시스템 및 이의 영상 인식률 검증 방법 |
-
2023
- 2023-07-18 CN CN202310877832.0A patent/CN116626670B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163904A (zh) * | 2018-09-11 | 2019-08-23 | 腾讯大地通途(北京)科技有限公司 | 对象标注方法、移动控制方法、装置、设备及存储介质 |
CN109978955A (zh) * | 2019-03-11 | 2019-07-05 | 武汉环宇智行科技有限公司 | 一种联合激光点云与图像的高效标注方法 |
CN110070139A (zh) * | 2019-04-28 | 2019-07-30 | 吉林大学 | 面向自动驾驶环境感知的小样本在环学习系统和方法 |
CN110427827A (zh) * | 2019-07-08 | 2019-11-08 | 辽宁工程技术大学 | 一种多尺度感知及全局规划下的自主驾驶网络 |
CN111639524A (zh) * | 2020-04-20 | 2020-09-08 | 中山大学 | 一种自动驾驶图像语义分割优化方法 |
CN112348122A (zh) * | 2020-12-03 | 2021-02-09 | 苏州挚途科技有限公司 | 可行驶区域的标注方法、装置和电子设备 |
CN115393684A (zh) * | 2022-10-27 | 2022-11-25 | 松立控股集团股份有限公司 | 一种基于自动驾驶场景多模态融合的抗干扰目标检测方法 |
CN115984791A (zh) * | 2022-12-19 | 2023-04-18 | 北京百度网讯科技有限公司 | 自动驾驶感知模型的生成方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116626670A (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12012102B2 (en) | Method for determining a lane change indication of a vehicle | |
CN116626670B (zh) | 自动驾驶模型的生成方法、装置、车辆及存储介质 | |
CN115878494B (zh) | 自动驾驶软件系统的测试方法、装置、车辆及存储介质 | |
CN116486377B (zh) | 可行驶区域的生成方法及装置 | |
CN116343174A (zh) | 目标检测方法、装置、车辆和存储介质 | |
US11745766B2 (en) | Unseen environment classification | |
US11820427B2 (en) | Lane keeping assist system of vehicle and lane keeping method using the same | |
CN115223015A (zh) | 模型训练方法、图像处理方法、装置和车辆 | |
CN116499488B (zh) | 目标融合方法、装置、车辆及存储介质 | |
CN115900771B (zh) | 信息确定的方法、装置、车辆及存储介质 | |
CN116767224B (zh) | 确定可行驶区域的方法、装置、车辆、及存储介质 | |
CN116659529B (zh) | 数据检测方法、装置、车辆及存储介质 | |
CN116819964B (zh) | 模型优化方法、模型优化装置、电子设备、车辆和介质 | |
CN117128976B (zh) | 道路中心线的获取方法、装置、车辆和存储介质 | |
CN116563812B (zh) | 目标检测方法、装置、存储介质及车辆 | |
CN116968726B (zh) | 记忆泊车方法和装置、车辆、计算机可读取存储介质 | |
CN115661798B (zh) | 确定目标区域的方法、装置、车辆及存储介质 | |
US11938939B1 (en) | Determining current state of traffic light(s) for use in controlling an autonomous vehicle | |
CN118428060A (zh) | 仿真测试方法、装置、车辆和存储介质 | |
US20230024799A1 (en) | Method, system and computer program product for the automated locating of a vehicle | |
US20230143958A1 (en) | System for neural architecture search for monocular depth estimation and method of using | |
CN117167152A (zh) | 自动驾驶车辆的油门控制方法、装置、车辆和介质 | |
CN116902007A (zh) | 自动驾驶车辆的转向控制方法、装置、车辆和介质 | |
CN117197765A (zh) | 图像识别方法、装置、电子设备及介质 | |
CN117002527A (zh) | 车辆控制的方法、装置、车辆及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |