CN117215316B - 基于协同控制与深度学习的驾驶环境感知的方法和系统 - Google Patents
基于协同控制与深度学习的驾驶环境感知的方法和系统 Download PDFInfo
- Publication number
- CN117215316B CN117215316B CN202311481170.1A CN202311481170A CN117215316B CN 117215316 B CN117215316 B CN 117215316B CN 202311481170 A CN202311481170 A CN 202311481170A CN 117215316 B CN117215316 B CN 117215316B
- Authority
- CN
- China
- Prior art keywords
- external
- deep learning
- target
- data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000008447 perception Effects 0.000 title abstract description 5
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 12
- 238000000692 Student's t-test Methods 0.000 claims description 11
- 238000012353 t test Methods 0.000 claims description 11
- 238000007689 inspection Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000013524 data verification Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 claims description 3
- 101150049349 setA gene Proteins 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及识别模式的方法或装置,具体涉及基于协同控制与深度学习的驾驶环境感知的方法和系统;包括以下步骤:S1构建驾驶平台、S2系统启动、S3数据采集、S4特征识别、S5数据验证、S6规避导航、S7构建自主模型;本发明通过调用已经训练好的开源深度学习模型作为早期模型,克服了早期数据量过小,模型训练精度较低的问题,本发明对目标物体进行了多次拍摄和识别,并利用t检验对识别结果进行了验证,以作为相应的规避控制,本发明通过t检验构造了自主的数据集,持续对深度学习的初始模型进行训练,当训练得到的自主模型的识别置信度高于外部开源模型时,进行替换,可以得到具有高度专用性、高度适应性的模型,具备更佳的目标识别和规划避障能力。
Description
技术领域
本发明涉及识别模式的方法或装置,具体涉及基于协同控制与深度学习的驾驶环境感知的方法和系统。
背景技术
自动驾驶的四大核心技术分别为环境感知、精确定位、路径规划、线控执行。实际的自动驾驶汽车面对的路况远比实验室仿真或者试车场的情况要复杂得多,因此,在行车过程中,自动驾驶汽车需要准确识别周边环境,尤其是动态环境的精准识别。环境感知指的是通过摄像头、传感器、雷达对自动驾驶行为的参与方环境的监控以及信息获取,完整的环境感知技术方案需要多方的信息协调构成。
深度学习是机器学习的一种,其概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。研究深度学习的动机在于建立模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,深度学历在处理大量、模糊数据时具有显著优势。
传统的驾驶辅助技术是基于声光电传感器对车辆内外环境进行检测,然后根据预设的规则执行相关操作,存在缺乏灵活性、对外部变化响应较差等问题。随着人工智能技术、智能辅助驾驶技术的不断发展,如何实现基于人工智能的辅助驾驶,以提高交通运输领域的高效性、安全性、智能性,越来越成为当前的热点研究课题,现有技术中也存在针对上述课题的研究成果。
公开号为CN109444912B的中国专利公开了基于协同控制与深度学习的驾驶环境感知方法和系统;具体公开了:包括激光发射模块、光学接收模块、激光测距模块、主控制器、协同控制模块和数据处理中心,由光学接收模块采集可见光和红外视频图像;协同控制模块处理多传感器返回的数据,完成对运动物体高精度的测速、测距测量,同时控制多传感器的数据采集和与数据处理中心通信;数据处理中心对目标进行三维重建,再将三维数据传入深度学习网络对目标分类识别,最后在监控区域内对目标进行实时定位和追踪,实现驾驶环境的感知和监控,克服了传统系统分辨率低、探测距离短的缺点,具有全天候、远距离、高精度测量的特点。
公开号为CN113269040A的中国专利公开了一种结合图象识别与激光雷达点云分割的驾驶环境感知方法;具体公开了:包括:(1)在真实道路上,收集地面激光雷达点云数据和图像数据。(2)使用收集的图像数据作为参考,将激光雷达点云数据与图像数据进行标定,标记收集的激光雷达点云数据。(3)初始化点云分割网络,对标记的激光雷达点云数据进行训练,更新网络参数。(4)将训练好的网络移植到无人车工控机中,获得点云所属物体的类别。(5)对图像数据进行识别。(6)对分割后的激光雷达点云数据与图像识别后的图像数据进行融合,获取道路和物体所在的准确位置;本发明实时感知环境,克服了图像识别在天气不好、光线较差的情况下识别效果不佳的缺点。
公开号为CN111142091B的中国专利公开了一种融合车载信息的自动驾驶系统激光雷达在线标定方法,具体公开了:一种端到端的激光雷达外参在线标定方法,避免复杂的数学模型推导和优化,避免使用额外设备,利用深度卷积神经网络的数据分析能力处理激光雷达的点云数据和车辆ECU数据,在线实时估计出激光雷达的外参误差,从而实现对激光雷达外参的实时修正,提升自动驾驶系统环境感知功能的准确性和稳定性,保证自动驾驶系统的行车安全。
然而:以上述专利为代表的现有技术仍然存在以下问题:
(1)基于传统深度学习或卷积算法对光学摄像头所拍摄的外部环境图像进行特征识别,对硬件算力的要求较高;并且在低可见度天气条件下,深度学习的学习参数容易受到雨雾衍射光等因素的影响,造成学习得到的模型失准,识别精度降低。
(2)基于传统深度学习算法或者深度学习标准算法框架所进行的模型训练,需要依赖于样本数据的数量和精度,当样本数据较少时,模型训练的精度较低,并且,当样本数据本身存在误差时,该误差的影响会被代入所训练得到的模型,而基于该模型得到的判定结果也会存在模型误差,而所述模型误差再被融入训练样本数据之后,会造成模型的循环误差不断增大,最终造成模型的“甩尾失真”。
(3)传统的用于车辆辅助控制的数据在被采集之后,不会进行数据处理,或者仅进行简单的滤波、除杂等处理,目的仅仅在于提高数据精度,而不会对数据的可靠性进行验证,这类数据直接用于深度学习时,会将数据自带的误差引入深度学习的样本集或测试集,造成模型训练和测试的偏差。
发明内容
为实现本发明的目的,本发明通过以下技术方案实现:基于协同控制与深度学习的驾驶环境感知方法,包括以下步骤:
S1、构建驾驶平台;所述驾驶平台包括基于驾驶需求确定的车辆、摄像设备集合、运动传感器、时序器和中央处理器;其中,/>表示第/>个摄像设备;
所述中央处理器预先搭载有深度学习外部模型,所述深度学习外部模型是基于开源的初始模型,通过调用外部的驾驶图像数据作为训练集和测试集训练得到的;
所述深度学习外部模型包含初始外部目标数据集合,其中,/>表示共n个外部目标中的第k个外部目标的初始外部目标数据,/>表示针对第k个外部目标识别的置信度;/>表示针对第k个外部目标识别的标准差;
S2、系统启动;所述驾驶平台上电,所述时序器启动,所述运动传感器启动并记录车辆的运动向量,其中,/>和/>分别表示车辆在x方向和y方向上的速度分量;
S3、数据采集;所述摄像设备集合拍摄目标区域以采集图像数据;得到外部目标图像数据集合/>,其中,/>表示通过第/>个摄像设备在/>时刻对第/>个外部目标所采集的图像数据;
S4、特征识别;基于深度学习外部模型对外部目标图像数据集合进行模式识别,得到识别目标数据集合/>,其中,/>为外部目标序号,/>表示识别目标数据,/>表示通过第/>个摄像设备在/>时刻针对第/>个外部目标/>取得的图像数据进行识别的置信度;
S5、数据验证;基于t检验对所述识别目标数据集合进行验证;判定所述识别目标数据集合/>是否等同于初始外部目标数据/>;
其中,表示序号为/>的初始外部目标数据;/>表示针对第j个外部目标识别的置信度;/>表示针对第j个外部目标识别的标准差;
若是,则向中央处理器输出“肯定”的判定结果并将该识别目标数据集合标记为置信数据,若否,则向中央处理器输出“疑似”的判定结果并舍弃该识别目标数据集合;
S6、规避导航;根据所述判定结果对车辆进行规避导航;
S7、构建自主模型;基于置信数据对所述初始模型进行训练,得到自主模型。
进一步的,步骤S3具体包括:
S31、基于时序的目标数据采集;所述摄像设备集合自初始时刻/>开始,在车辆运动过程中,以预设的时间间隔/>对目标区域进行拍照;
S32、得到针对外部目标的外部目标图像数据集合/>,其中,包括初始图像数据/>,表示在初始时刻/>时得到的数据;/>为任意/>时刻的图像数据,且满足,/>为时间间隔个数,/>为预设的时间间隔;
S33、基于向量寻的算法对目标区域进行追踪拍摄;包括:
S331、确定目标区域初始向量;在初始时刻以摄像设备/>为原点,确定目标区域坐标/>,得到目标区域初始向量/>;
S332、确定车辆坐标向量;利用积分器对运动传感器的检测值进行积分,得到车辆坐标向量,其中,/>和/>分别表示车辆在t时刻的x坐标和y坐标,满足:
S333、寻的追踪拍摄;确定任意时刻目标区域的位置向量/>,调动摄像头进行寻的追踪拍摄;满足:/>。
进一步的,步骤S5具体包括:
S51、确定样本和总体;
调取所述识别目标数据集合作为样本/>,调取所述深度学习外部模型中针对同一外部目标的初始外部目标数据/>作为总体/>;
S52、建立检验假设和确定检验水准;
建立假设:
双侧检验,确定检验水平;
S53、计算t检验值:
其中,表示通过第/>个摄像设备在/>时刻针对第/>个外部目标/>取得的图像数据进行识别的置信度的均值;/>表示样本/>的个数,/>表示样本自由度;
S54、判定;
基于t检验值和样本自由度查询界值表,确定P值,判定P值与检验水平/>,确定是否接受零假设/>;
若,则接收零假设/>,判定所述识别目标数据集合/>等同于初始外部目标数据/>,向中央处理器输出“肯定”的判定结果并将所述识别目标数据集合标记为置信数据;
若否,则向中央处理器输出“疑似”的判定结果并舍弃所述识别目标数据集合。
进一步的,所述检验水平。
进一步的,在步骤S7中,当置信数据的数量足以使训练出的自主模型针对外部目标识别的置信度大于所述深度学习外部模型的置信度时,所述中央处理器弃用所述深度学习外部模型而换用自主模型。
进一步的,所述摄像设备为具备测距功能的可见光摄像头。
进一步的,所述摄像设备为具备测距功能的红外摄像头。
进一步的,所述摄像设备为具备测距功能的激光摄像头。
进一步的,所述车辆为无人智能小车、客车、货车、AGV小车中的任一种。
本发明还提供了一种基于协同控制与深度学习的驾驶环境感知系统,用于执行所述的基于协同控制与深度学习的驾驶环境感知方法。
本发明的有益效果为:
(1)相比于传统的依赖历史数据自主训练深度学习模型的方法,本发明通过调用已经训练好的开源深度学习模型作为早期模型,克服了早期数据量过小,模型训练精度较低的问题。
(2)相比于利用摄像头直接拍摄目标物体进行识别的传统方法,本发明对目标物体进行了多次拍摄和识别,并利用t检验对识别结果进行了验证,只有通过验证的结果才作为可信的识别结果发送至中央处理器,对于未通过验证的结果,作为存疑结果发动至中央处理器,以作为相应的规避控制,例如,车辆对于固定物和行人,应当做出不同的规避策略,对于路桩等固定物,可以采取相对激进的规避策略,以较近的距离经过,而对于行人,应当采取较保守的规避策略,以较大的距离经过,对于存疑的目标物,可以采取倾向保守的规避策略,以保证安全。
(3)本发明通过t检验构造了自主的数据集,持续对深度学习的初始模型进行训练,当训练得到的自主模型的识别置信度高于外部开源模型时,进行替换,可以得到具有高度专用性、高度适应性的模型,具备更佳的目标识别和规划避障能力。
附图说明
图1为本发明的方法流程示意图。
具体实施方式
为了加深对本发明的理解,下面将结合实施例对本发明做进一步详述,本实施例仅用于解释本发明,并不构成对本发明保护范围的限定。
具体实施例一,
根据图1所示,本实施例提供了一种基于协同控制与深度学习的驾驶环境感知方法,包括以下步骤:
S1、构建驾驶平台;所述驾驶平台包括基于驾驶需求确定的车辆、摄像设备集合、运动传感器、时序器和中央处理器;其中,/>表示第/>个摄像设备;
所述中央处理器预先搭载有深度学习外部模型,所述深度学习外部模型是基于开源的初始模型,通过调用外部的驾驶图像数据作为训练集和测试集训练得到的;
所述深度学习外部模型包含初始外部目标数据集合,其中,/>表示共n个外部目标中的第k个外部目标的初始外部目标数据,/>表示针对第k个外部目标识别的置信度;/>表示针对第k个外部目标识别的标准差;
S2、系统启动;所述驾驶平台上电,所述时序器启动,所述运动传感器启动并记录车辆的运动向量,其中,/>和/>分别表示车辆在x方向和y方向上的速度分量;
S3、数据采集;所述摄像设备集合拍摄目标区域以采集图像数据;得到外部目标图像数据集合/>,其中,/>表示通过第/>个摄像设备在/>时刻对第/>个外部目标所采集的图像数据;具体包括:
S31、基于时序的目标数据采集;所述摄像设备集合自初始时刻/>开始,在车辆运动过程中,以预设的时间间隔/>对目标区域进行拍照;
S32、得到针对外部目标的外部目标图像数据集合/>,其中,包括初始图像数据/>,表示在初始时刻/>时得到的数据;/>为任意/>时刻的图像数据,且满足,/>为时间间隔个数,/>为预设的时间间隔;
S33、基于向量寻的算法对目标区域进行追踪拍摄;包括:
S331、确定目标区域初始向量;在初始时刻以摄像设备/>为原点,确定目标区域坐标/>,得到目标区域初始向量/>;
S332、确定车辆坐标向量;利用积分器对运动传感器的检测值进行积分,得到车辆坐标向量,其中,/>和/>分别表示车辆在t时刻的x坐标和y坐标,满足:
S333、寻的追踪拍摄;确定任意时刻目标区域的位置向量/>,调动摄像头进行寻的追踪拍摄;满足:/>;
S4、特征识别;基于深度学习外部模型对外部目标图像数据集合进行模式识别,得到识别目标数据集合/>,其中,/>为外部目标序号,/>表示识别目标数据,/>表示通过第/>个摄像设备在/>时刻针对第/>个外部目标/>取得的图像数据进行识别的置信度;
S5、数据验证;基于t检验对所述识别目标数据集合进行验证;判定所述识别目标数据集合/>是否等同于初始外部目标数据/>;
其中,表示序号为/>的初始外部目标数据;/>表示针对第j个外部目标识别的置信度;/>表示针对第j个外部目标识别的标准差;
若是,则向中央处理器输出“肯定”的判定结果并将该识别目标数据集合标记为置信数据,若否,则向中央处理器输出“疑似”的判定结果并舍弃该识别目标数据集合;
S6、规避导航;根据所述判定结果对车辆进行规避导航;
S7、构建自主模型;基于置信数据对所述初始模型进行训练,得到自主模型;当置信数据的数量足以使训练出的自主模型针对外部目标识别的置信度大于所述深度学习外部模型的置信度时,所述中央处理器弃用所述深度学习外部模型而换用自主模型。
进一步的,步骤S5具体包括:
S51、确定样本和总体;
调取所述识别目标数据集合作为样本/>,调取所述深度学习外部模型中针对同一外部目标的初始外部目标数据/>作为总体/>;
S52、建立检验假设和确定检验水准;
建立假设:
双侧检验,确定检验水平;
S53、计算t检验值:
其中,表示通过第/>个摄像设备在/>时刻针对第/>个外部目标/>取得的图像数据进行识别的置信度的均值;/>表示样本/>的个数,/>表示样本自由度;
S54、判定;
基于t检验值和样本自由度查询界值表,确定P值,判定P值与检验水平/>,确定是否接受零假设/>;
若,则接收零假设/>,判定所述识别目标数据集合/>等同于初始外部目标数据/>,向中央处理器输出“肯定”的判定结果并将所述识别目标数据集合标记为置信数据;
若否,则向中央处理器输出“疑似”的判定结果并舍弃所述识别目标数据集合。
进一步的,所述检验水平。
在步骤S7中,
所述摄像设备为具备测距功能的激光摄像头。
所述车辆为无人智能小车、客车、货车、AGV小车中的任一种。
具体实施例二,
本发明提供了一种基于协同控制与深度学习的驾驶环境感知系统,用于执行所述的基于协同控制与深度学习的驾驶环境感知方法。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.基于协同控制与深度学习的驾驶环境感知方法,其特征在于,包括以下步骤:
S1、构建驾驶平台;所述驾驶平台包括基于驾驶需求确定的车辆、摄像设备集合、运动传感器、时序器和中央处理器;其中,/>表示第/>个摄像设备;
所述中央处理器预先搭载有深度学习外部模型,所述深度学习外部模型是基于开源的初始模型,通过调用外部的驾驶图像数据作为训练集和测试集训练得到的;
所述深度学习外部模型包含初始外部目标数据集合;其中,/>表示共n个外部目标中的第k个外部目标的初始外部目标数据,/>表示针对第k个外部目标识别的置信度;/>表示针对第k个外部目标识别的标准差;
S2、系统启动;所述驾驶平台上电,所述时序器启动,所述运动传感器启动并记录车辆的运动向量,其中,/>和/>分别表示车辆在x方向和y方向上的速度分量;
S3、数据采集;所述摄像设备集合拍摄目标区域以采集图像数据;得到外部目标图像数据集合/>,其中,/>表示通过第/>个摄像设备在/>时刻对第/>个外部目标所采集的图像数据;
S4、特征识别;基于深度学习外部模型对外部目标图像数据集合进行模式识别,得到识别目标数据集合/>,其中,/>为外部目标序号,/>表示针对第j个外部目标的识别目标数据,/>表示通过第/>个摄像设备在/>时刻针对第/>个外部目标/>取得的图像数据进行识别的置信度;
S5、数据验证;基于t检验对所述识别目标数据集合进行验证;判定所述识别目标数据集合/>是否等同于初始外部目标数据/>;
其中,表示序号为/>的初始外部目标数据;/>表示针对第j个外部目标识别的置信度;/>表示针对第j个外部目标识别的标准差;
若是,则向中央处理器输出“肯定”的判定结果并将该识别目标数据集合标记为置信数据,若否,则向中央处理器输出“疑似”的判定结果并舍弃该识别目标数据集合;
S6、规避导航;根据所述判定结果对车辆进行规避导航;
S7、构建自主模型;基于置信数据对所述初始模型进行训练,得到自主模型。
2.根据权利要求1所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:步骤S3具体包括:
S31、基于时序的目标数据采集;所述摄像设备集合自初始时刻/>开始,在车辆运动过程中,以预设的时间间隔/>对目标区域进行拍照;
S32、得到针对外部目标的外部目标图像数据集合/>,其中,包括初始图像数据,表示在初始时刻/>时得到的数据;/>为任意/>时刻的图像数据,且满足/>,/>为时间间隔个数,/>为预设的时间间隔;
S33、基于向量寻的算法对目标区域进行追踪拍摄;包括:
S331、确定目标区域初始向量;在初始时刻以摄像设备/>为原点,确定目标区域坐标,得到目标区域初始向量/>;
S332、确定车辆坐标向量;利用积分器对运动传感器的检测值进行积分,得到车辆坐标向量,其中,/>和/>分别表示车辆在t时刻的x坐标和y坐标,满足:
;
S333、寻的追踪拍摄;确定任意时刻目标区域的位置向量/>,调动摄像头进行寻的追踪拍摄;满足:/>。
3.根据权利要求1或2所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:步骤S5具体包括:
S51、确定样本和总体;
调取所述识别目标数据集合作为样本/>,调取所述深度学习外部模型中针对同一外部目标的初始外部目标数据/>作为总体/>;
S52、建立检验假设和确定检验水准;
建立假设:
;
双侧检验,确定检验水平;
S53、计算t检验值:
;
其中,表示通过第/>个摄像设备在/>时刻针对第/>个外部目标/>取得的图像数据进行识别的置信度的均值;/>表示样本/>的个数,/>表示样本自由度;
S54、判定;
基于t检验值和样本自由度查询界值表,确定P值,判定P值与检验水平/>,确定是否接受零假设/>;
若,则接收零假设/>,判定所述识别目标数据集合/>等同于初始外部目标数据/>,向中央处理器输出“肯定”的判定结果并将所述识别目标数据集合标记为置信数据;
若否,则向中央处理器输出“疑似”的判定结果并舍弃所述识别目标数据集合。
4.根据权利要求3所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:所述检验水平。
5.根据权利要求4所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:在步骤S7中,当置信数据的数量足以使训练出的自主模型针对外部目标识别的置信度大于所述深度学习外部模型的置信度时,所述中央处理器弃用所述深度学习外部模型而换用自主模型。
6.根据权利要求5所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:所述摄像设备为具备测距功能的可见光摄像头。
7.根据权利要求5所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:所述摄像设备为具备测距功能的红外摄像头。
8.根据权利要求5所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:所述摄像设备为具备测距功能的激光摄像头。
9.根据权利要求5-7任一项所述的基于协同控制与深度学习的驾驶环境感知方法,其特征在于:所述车辆为无人智能小车、客车、货车、AGV小车中的任一种。
10.基于协同控制与深度学习的驾驶环境感知系统,其特征在于,用于执行如权利要求1-9任一项所述的基于协同控制与深度学习的驾驶环境感知方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481170.1A CN117215316B (zh) | 2023-11-08 | 2023-11-08 | 基于协同控制与深度学习的驾驶环境感知的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311481170.1A CN117215316B (zh) | 2023-11-08 | 2023-11-08 | 基于协同控制与深度学习的驾驶环境感知的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117215316A CN117215316A (zh) | 2023-12-12 |
CN117215316B true CN117215316B (zh) | 2024-02-13 |
Family
ID=89042976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311481170.1A Active CN117215316B (zh) | 2023-11-08 | 2023-11-08 | 基于协同控制与深度学习的驾驶环境感知的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117215316B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117706942B (zh) * | 2024-02-05 | 2024-04-26 | 四川大学 | 一种环境感知与自适应驾驶辅助电子控制方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101078935A (zh) * | 2007-06-28 | 2007-11-28 | 华南农业大学 | 基于神经网络的农业机械路径跟踪控制方法 |
US10007269B1 (en) * | 2017-06-23 | 2018-06-26 | Uber Technologies, Inc. | Collision-avoidance system for autonomous-capable vehicle |
GB201903421D0 (en) * | 2019-03-13 | 2019-04-24 | Jaguar Land Rover Ltd | Vehicle control system |
CN110406530A (zh) * | 2019-07-02 | 2019-11-05 | 宁波吉利汽车研究开发有限公司 | 一种自动驾驶方法、装置、设备和车辆 |
CN111696373A (zh) * | 2019-03-15 | 2020-09-22 | 北京图森智途科技有限公司 | 车队协同感知方法、车队协同控制方法和系统 |
CN116913071A (zh) * | 2023-07-17 | 2023-10-20 | 江苏安必行无线科技有限公司 | 一种基于车路云协同的自动驾驶车辆编队方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10183679B2 (en) * | 2016-06-28 | 2019-01-22 | Volkswagen Aktiengesellschaft | Apparatus, system and method for personalized settings for driver assistance systems |
CN111133447B (zh) * | 2018-02-18 | 2024-03-19 | 辉达公司 | 适于自主驾驶的对象检测和检测置信度的方法和系统 |
WO2019241022A1 (en) * | 2018-06-13 | 2019-12-19 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
-
2023
- 2023-11-08 CN CN202311481170.1A patent/CN117215316B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101078935A (zh) * | 2007-06-28 | 2007-11-28 | 华南农业大学 | 基于神经网络的农业机械路径跟踪控制方法 |
US10007269B1 (en) * | 2017-06-23 | 2018-06-26 | Uber Technologies, Inc. | Collision-avoidance system for autonomous-capable vehicle |
GB201903421D0 (en) * | 2019-03-13 | 2019-04-24 | Jaguar Land Rover Ltd | Vehicle control system |
CN111696373A (zh) * | 2019-03-15 | 2020-09-22 | 北京图森智途科技有限公司 | 车队协同感知方法、车队协同控制方法和系统 |
CN110406530A (zh) * | 2019-07-02 | 2019-11-05 | 宁波吉利汽车研究开发有限公司 | 一种自动驾驶方法、装置、设备和车辆 |
CN116913071A (zh) * | 2023-07-17 | 2023-10-20 | 江苏安必行无线科技有限公司 | 一种基于车路云协同的自动驾驶车辆编队方法 |
Non-Patent Citations (7)
Title |
---|
Co-Optimizing Sensing and Deep Machine Learning in Automotive Cyber-Physical Systems;Joydeep Dey等;2022 25th Euromicro Conference on Digital System Design (DSD);第308-315页 * |
Sensing and Machine Learning for Automotive Perception: A Review;Ashish Pandharipande等;IEEE Sensors Journal;第23卷(第11期);第11097-11115页 * |
基于YOLOv3的自然路况信息识别研究;田锋;雷印杰;邓棋;;计算机应用研究(第S1期);第391-393页 * |
基于深度强化学习的密集动态环境导航避障;唐俊等;现代计算机;第29卷(第07期);第54-58页 * |
基于自然驾驶数据的车辆驾驶风险辨识及控制研究;孙川;中国博士学位论文全文数据库工程科技Ⅱ辑(第02(2019)期);第C035-8页 * |
基于道路环境信息识别的车辆自动避撞控制研究;丁滔;中国优秀硕士学位论文全文数据库工程科技Ⅱ辑(第03(2023)期);第C035-237页 * |
网联自动驾驶环境下信号交叉口环保驾驶控制研究;姜慧夫;中国博士学位论文全文数据库工程科技Ⅱ辑(第01(2019)期);第C035-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117215316A (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229366B (zh) | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN108596081B (zh) | 一种基于雷达和摄像机融合的车辆行人探测方法 | |
CN105678689B (zh) | 高精地图数据配准关系确定方法及装置 | |
CN113359097B (zh) | 一种毫米波雷达和相机联合标定的方法 | |
CN110866887A (zh) | 一种基于多传感器的目标态势融合感知方法和系统 | |
CN109815300B (zh) | 一种车辆定位方法 | |
CN111968048B (zh) | 电力巡检少样本图像数据增强方法及系统 | |
CN113516664A (zh) | 一种基于语义分割动态点的视觉slam方法 | |
CN117215316B (zh) | 基于协同控制与深度学习的驾驶环境感知的方法和系统 | |
CN114758504B (zh) | 一种基于滤波校正的网联车超速预警方法及系统 | |
CN105608417A (zh) | 交通信号灯检测方法及装置 | |
CN113936198A (zh) | 低线束激光雷达与相机融合方法、存储介质及装置 | |
CN114155501A (zh) | 一种无人车在烟雾遮挡环境下的目标检测方法 | |
CN112150448B (zh) | 图像处理方法、装置及设备、存储介质 | |
CN113532499B (zh) | 无人系统的传感器安全性检测方法、设备及存储介质 | |
CN107796373A (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN111274862A (zh) | 用于产生车辆的周围环境的标签对象的设备和方法 | |
CN115457130A (zh) | 一种基于深度关键点回归的电动汽车充电口检测定位方法 | |
CN113011285A (zh) | 车道线检测方法、装置、自动驾驶车辆及可读存储介质 | |
CN113554705B (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
JP2021026683A (ja) | 距離推定装置 | |
CN113988197A (zh) | 基于多相机、多激光雷达的联合标定及目标融合检测方法 | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
CN117419719A (zh) | 一种融合imu的三维激光雷达定位与建图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |