CN110687905A - 一种基于多传感技术融合一体的无人驾驶智能车 - Google Patents
一种基于多传感技术融合一体的无人驾驶智能车 Download PDFInfo
- Publication number
- CN110687905A CN110687905A CN201910858109.1A CN201910858109A CN110687905A CN 110687905 A CN110687905 A CN 110687905A CN 201910858109 A CN201910858109 A CN 201910858109A CN 110687905 A CN110687905 A CN 110687905A
- Authority
- CN
- China
- Prior art keywords
- camera
- vehicle body
- camera assembly
- central processing
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005516 engineering process Methods 0.000 title claims abstract description 16
- 230000010354 integration Effects 0.000 title claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000005259 measurement Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000004891 communication Methods 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 abstract description 5
- 239000000284 extract Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Abstract
本发明公开了一种基于多传感技术融合一体的无人驾驶智能车,包括车辆本体、视觉传感器、测量型传感器、神经网络计算单元、5G通信模块、定位模块、中央处理器和驱动控制器,神经网络计算单元对视觉传感器和测量型传感器构建的3D地图进行学习,对环境中的对象提取特征进行识别,通过特征对比,对重复出现对象能够直接识别,从而减小中央处理器的图像处理负担。
Description
技术领域
本发明涉及智能导航设备领域,特别是一种基于多传感技术融合一体的无人驾驶智能车。
背景技术
随着新能源汽车的兴起,无人驾驶领域的技术也得到了一定程度的发展,通常来说,无人驾驶依靠车辆上的多个摄像头和雷达获取周围环境,从而为车辆控制系统提供数据参考从而定制路线,因此可以看出,要实现足够优秀的无人驾驶能力,无论是对摄像头和雷达的数量,还是对车辆控制系统的性能,都有相当高的要求,目前无人驾驶车辆基本上是实时取景实时处理的,在摄像头和雷达的数量较多的情况下,车辆控制系统的负担较大。
发明内容
为解决上述问题,本发明的目的在于提供一种基于多传感技术融合一体的无人驾驶智能车,利用神经网络计算单元自动学习对象特征,能够在新环境下直接识别已学习的对象,保持摄像头和雷达的数量的同时,减小车辆控制系统的负担。
本发明解决其问题所采用的技术方案是:
一种基于多传感技术融合一体的无人驾驶智能车,包括:
车辆本体,作为载具承载控制系统和根据指令移动;
视觉传感器,用于获取所述车辆本体周围的环境图像,形成二维环境图像信息;
测量型传感器,用于发射和接收波形信号,测量所述车辆本体与周围的环境之间的距离;
神经网络计算单元,用于根据所述视觉传感器和测量型传感器自主学习周围环境中各种对象的特征,从而在新环境下直接识别已学习的对象;
5G通信模块,用于连接5G基站信号,进行互联网接入和5G高精度定位;
定位模块,用于进行GPS等定位,结合所述5G通信模块提高定位精度;
中央处理器,用于接收和处理各种控制信息,并且发送控制指令;
驱动控制器,用于接收所述中央处理器的运动指令并驱动所述车辆本体移动;
所述视觉传感器包括至少四个摄像头并按所述车辆本体的前后左右四个方向分布,所述测量型传感器设置在所述车辆本体上并朝向所述车辆本体的前进方向,所述视觉传感器和测量型传感器分别连接所述中央处理器的图像处理引脚,所述神经网络计算单元连接所述中央处理器的协处理引脚,所述5G通信模块和定位模块分别连接所述中央处理器的定位引脚,所述驱动控制器连接所述中央处理器的驱动引脚;
所述视觉传感器和测量型传感器对所述车辆本体周围的环境进行3D地图构建,所述中央处理器根据3D地图获取移动路径并控制所述车辆本体移动,同时所述神经网络计算单元对3D地图中的对象提取特征进行学习,帮助中央处理器快速识别当前环境中已学习的对象。
进一步,所述视觉传感器包括前方摄像头总成、左侧摄像头总成、右侧摄像头总成和后视摄像头,所述前方摄像头总成朝向所述车辆本体的前进方向,所述后视摄像头设置在所述车辆本体的尾部并与前方摄像头总成的朝向方向相反,所述左侧摄像头总成和右侧摄像头总成分别设置在所述车辆本体的两侧并分别朝向左侧和右侧。
进一步,所述前方摄像头总成包括鱼眼摄像头、中距变焦摄像头和长焦摄像头,所述鱼眼摄像头、中距变焦摄像头和长焦摄像头按一字并排设置。
进一步,所述左侧摄像头总成包括左前侧摄像头和左后侧摄像头,所述右侧摄像头总成包括右前侧摄像头和右后侧摄像头,所述左前侧摄像头和右前侧摄像头分别设置在所述车辆本体的左右两个B柱上,所述左后侧摄像头和右后侧摄像头分别设置在所述车辆本体的左右两个翼子板上。
进一步,所述左前侧摄像头和右前侧摄像头分别往所述前方摄像头总成的方向倾斜,所述左后侧摄像头和右后侧摄像头分别往所述后视摄像头的方向倾斜。
进一步,所述左前侧摄像头和左后侧摄像头的覆盖范围存在重叠部分,所述右前侧摄像头和右后侧摄像头的覆盖范围存在重叠部分。
进一步,所述车辆本体还包括便于所述视觉传感器在昏暗环境下工作的探照灯,所述探照灯设置在所述前方摄像头总成、左侧摄像头总成、右侧摄像头总成和后视摄像头的位置旁边。
进一步,所述测量型传感器包括毫米波雷达和超声波雷达,所述毫米波雷达和超声波雷达均设置在所述车辆本体上并朝向所述车辆本体的前进方向。
本发明实施例中提供的一个或多个技术方案,至少具有如下有益效果:神经网络计算单元对视觉传感器和测量型传感器构建的3D地图进行学习,对环境中的对象提取特征进行识别,通过特征对比,对重复出现对象能够直接识别,从而减小中央处理器的图像处理负担。
附图说明
下面结合附图和实施例对本发明作进一步说明。
图1是本发明实施例的模块连接示意图;
图2是本发明实施例的前方摄像头总成的模块关系图;
图3是本发明实施例的左侧摄像头总成的模块关系图;
图4是本发明实施例的右侧摄像头总成的模块关系图;
图5是本发明实施例的车辆本体的结构示意图;
图6是本发明实施例的前方摄像头总成的结构示意图;
图7是本发明实施例的前方摄像头总成的视觉范围示意图;
图8是本发明实施例的左前侧摄像头和右前侧摄像头的视觉范围示意图;
图9是本发明实施例的左后侧摄像头和右后侧摄像头的视觉范围示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。
参照图1,本发明的一个实施例提供了一种基于多传感技术融合一体的无人驾驶智能车,包括:
车辆本体1,作为载具承载控制系统和根据指令移动;
视觉传感器,用于获取所述车辆本体1周围的环境图像,形成二维环境图像信息;
测量型传感器500,用于发射和接收波形信号,测量所述车辆本体1与周围的环境之间的距离;
神经网络计算单元,用于根据所述视觉传感器和测量型传感器500自主学习周围环境中各种对象的特征,从而在新环境下直接识别已学习的对象;
5G通信模块,用于连接5G基站信号,进行互联网接入和5G高精度定位;
定位模块,用于进行GPS等定位,结合所述5G通信模块提高定位精度;
中央处理器,用于接收和处理各种控制信息,并且发送控制指令;
驱动控制器,用于接收所述中央处理器的运动指令并驱动所述车辆本体1移动;
所述视觉传感器和测量型传感器500分别连接所述中央处理器的图像处理引脚,所述神经网络计算单元连接所述中央处理器的协处理引脚,所述5G通信模块和定位模块分别连接所述中央处理器的定位引脚,所述驱动控制器连接所述中央处理器的驱动引脚;
所述视觉传感器和测量型传感器500对所述车辆本体1周围的环境进行3D地图构建,所述中央处理器根据3D地图获取移动路径并控制所述车辆本体1移动,同时所述神经网络计算单元对3D地图中的对象提取特征进行学习,帮助中央处理器快速识别当前环境中已学习的对象。
参照图5,在本实施例中,所述视觉传感器为了能够对周围环境进行观察,需要分布在所述车辆本体1的四个方向,所述视觉传感器包括前方摄像头总成100、左侧摄像头总成200、右侧摄像头总成300和后视摄像头400,所述前方摄像头总成100朝向所述车辆本体1的前进方向,所述后视摄像头400设置在所述车辆本体1的尾部并与前方摄像头总成100的朝向方向相反,所述左侧摄像头总成200和右侧摄像头总成300分别设置在所述车辆本体1的两侧并分别朝向左侧和右侧。
虽然车辆的四个方向分别设置摄像头是较为常规的手段,但是每个摄像头的焦距不同,同时的四个摄像头组成的阵列的覆盖范围可能无法覆盖车辆周边360度,因此也就造成了目前无人驾驶体验较差的其中一个原因。
参照图2和图6,基于上述原因,在本实施例中,所述前方摄像头总成100包括鱼眼摄像头110、中距变焦摄像头120和长焦摄像头130,所述鱼眼摄像头110、中距变焦摄像头120和长焦摄像头130按一字并排设置。参照图7,鱼眼摄像头110用于大角度拍摄图像,在图7中以A1范围表示,弥补中距变焦摄像头120和长焦摄像头130拍摄角度不足的问题,覆盖前方的左右边缘,而中距变焦摄像头120作为常规摄像头负责车辆本体1前方近距离的图像,在图7中以A2范围表示,同时考虑到高速运动下车辆本体1需要提前预判,长焦摄像头130能够对远处图像进行拍摄,在图7中以A3范围表示,因此三个摄像头协调工作可以让中央处理器获得更多图像信息,从而作出合理的控制。
参照图3和图4,所述左侧摄像头总成200包括左前侧摄像头210和左后侧摄像头220,所述右侧摄像头总成300包括右前侧摄像头310和右后侧摄像头320,所述左前侧摄像头210和右前侧摄像头310分别设置在所述车辆本体1的左右两个B柱上,所述左后侧摄像头220和右后侧摄像头320分别设置在所述车辆本体1的左右两个翼子板上,所述左前侧摄像头210和右前侧摄像头310分别往所述前方摄像头总成100的方向倾斜,所述左后侧摄像头220和右后侧摄像头320分别往所述后视摄像头400的方向倾斜,所述左前侧摄像头210和左后侧摄像头220的覆盖范围存在重叠部分,所述右前侧摄像头310和右后侧摄像头320的覆盖范围存在重叠部分。参照图8和图9,左右两侧的摄像头方案相同,且左前侧摄像头210和左后侧摄像头220是对称的,由于左前侧摄像头210和左后侧摄像头220的覆盖范围(分别以B1和B2表示),以及右前侧摄像头310和右后侧摄像头320的覆盖范围(分别以C1和C2表示),各自都有重叠的地方,可以照顾车辆本体1侧向的绝大部分情况。
所述车辆本体1还包括便于所述视觉传感器在昏暗环境下工作的探照灯,所述探照灯设置在所述前方摄像头总成100、左侧摄像头总成200、右侧摄像头总成300和后视摄像头400的位置旁边。
所述测量型传感器500包括毫米波雷达和超声波雷达,所述毫米波雷达和超声波雷达均设置在所述车辆本体1上并朝向所述车辆本体1的前进方向。
本发明实施例区别于常规的无人驾驶车辆,本发明中视觉传感器和测量型传感器500结合构建3D地图,同时结合5G通信模块和定位模块,可以得到非常准确的地图信息,降低车辆控制系统负担的常规方法是减小摄像头数量或降低摄像头质量等,但这无疑破坏了无人驾驶的体验,因此在保持足够的摄像头和雷达数量的基础上,对于道路上行走的人和车辆、路边的指示标志等有特定特征的对象,由神经网络计算单元识别并学习,能够让中央处理器快速识别当前环境中以前出现过的对象,如快速识别行人的轮廓,减小了中央处理器的负担。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,都应属于本发明的保护范围。
Claims (8)
1.一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:包括
车辆本体(1),作为载具承载控制系统和根据指令移动;
视觉传感器,用于获取所述车辆本体(1)周围的环境图像,形成二维环境图像信息;
测量型传感器(500),用于发射和接收波形信号,测量所述车辆本体(1)与周围的环境之间的距离;
神经网络计算单元,用于根据所述视觉传感器和测量型传感器(500)自主学习周围环境中各种对象的特征,从而在新环境下直接识别已学习的对象;
5G通信模块,用于连接5G基站信号,进行互联网接入和5G高精度定位;
定位模块,用于进行GPS等定位,结合所述5G通信模块提高定位精度;
中央处理器,用于接收和处理各种控制信息,并且发送控制指令;
驱动控制器,用于接收所述中央处理器的运动指令并驱动所述车辆本体(1)移动;
所述视觉传感器包括至少四个摄像头并按所述车辆本体(1)的前后左右四个方向分布,所述测量型传感器(500)设置在所述车辆本体(1)上并朝向所述车辆本体(1)的前进方向,所述视觉传感器和测量型传感器(500)分别连接所述中央处理器的图像处理引脚,所述神经网络计算单元连接所述中央处理器的协处理引脚,所述5G通信模块和定位模块分别连接所述中央处理器的定位引脚,所述驱动控制器连接所述中央处理器的驱动引脚;
所述视觉传感器和测量型传感器(500)对所述车辆本体(1)周围的环境进行3D地图构建,所述中央处理器根据3D地图获取移动路径并控制所述车辆本体(1)移动,同时所述神经网络计算单元对3D地图中的对象提取特征进行学习,帮助中央处理器快速识别当前环境中已学习的对象。
2.根据权利要求1所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述视觉传感器包括前方摄像头总成(100)、左侧摄像头总成(200)、右侧摄像头总成(300)和后视摄像头(400),所述前方摄像头总成(100)朝向所述车辆本体(1)的前进方向,所述后视摄像头(400)设置在所述车辆本体(1)的尾部并与前方摄像头总成(100)的朝向方向相反,所述左侧摄像头总成(200)和右侧摄像头总成(300)分别设置在所述车辆本体(1)的两侧并分别朝向左侧和右侧。
3.根据权利要求2所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述前方摄像头总成(100)包括鱼眼摄像头(110)、中距变焦摄像头(120)和长焦摄像头(130),所述鱼眼摄像头(110)、中距变焦摄像头(120)和长焦摄像头(130)按一字并排设置。
4.根据权利要求2所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述左侧摄像头总成(200)包括左前侧摄像头(210)和左后侧摄像头(220),所述右侧摄像头总成(300)包括右前侧摄像头(310)和右后侧摄像头(320),所述左前侧摄像头(210)和右前侧摄像头(310)分别设置在所述车辆本体(1)的左右两个B柱上,所述左后侧摄像头(220)和右后侧摄像头(320)分别设置在所述车辆本体(1)的左右两个翼子板上。
5.根据权利要求4所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述左前侧摄像头(210)和右前侧摄像头(310)分别往所述前方摄像头总成(100)的方向倾斜,所述左后侧摄像头(220)和右后侧摄像头(320)分别往所述后视摄像头(400)的方向倾斜。
6.根据权利要求5所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述左前侧摄像头(210)和左后侧摄像头(220)的覆盖范围存在重叠部分,所述右前侧摄像头(310)和右后侧摄像头(320)的覆盖范围存在重叠部分。
7.根据权利要求2所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述车辆本体(1)还包括便于所述视觉传感器在昏暗环境下工作的探照灯,所述探照灯设置在所述前方摄像头总成(100)、左侧摄像头总成(200)、右侧摄像头总成(300)和后视摄像头(400)的位置旁边。
8.根据权利要求1所述的一种基于多传感技术融合一体的无人驾驶智能车,其特征在于:所述测量型传感器(500)包括毫米波雷达和超声波雷达,所述毫米波雷达和超声波雷达均设置在所述车辆本体(1)上并朝向所述车辆本体(1)的前进方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910858109.1A CN110687905A (zh) | 2019-09-11 | 2019-09-11 | 一种基于多传感技术融合一体的无人驾驶智能车 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910858109.1A CN110687905A (zh) | 2019-09-11 | 2019-09-11 | 一种基于多传感技术融合一体的无人驾驶智能车 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110687905A true CN110687905A (zh) | 2020-01-14 |
Family
ID=69108972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910858109.1A Pending CN110687905A (zh) | 2019-09-11 | 2019-09-11 | 一种基于多传感技术融合一体的无人驾驶智能车 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110687905A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101293539A (zh) * | 2008-04-15 | 2008-10-29 | 上海中为智能机器人有限公司 | 模块化便携式移动机器人系统 |
US20090058066A1 (en) * | 2007-03-02 | 2009-03-05 | Honda Motor Co., Ltd. | Fender supporting structure of two-wheeled motor vehicle |
CN103389103A (zh) * | 2013-07-03 | 2013-11-13 | 北京理工大学 | 一种基于数据挖掘的地理环境特征地图构建与导航方法 |
CN105518656A (zh) * | 2013-08-09 | 2016-04-20 | 行为识别系统公司 | 用于多传感器数据融合的认知神经语言学行为辨识系统 |
CN106056628A (zh) * | 2016-05-30 | 2016-10-26 | 中国科学院计算技术研究所 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
WO2016174725A1 (ja) * | 2015-04-28 | 2016-11-03 | 株式会社日立製作所 | 計算機及びニューラルネットワークを用いた演算方法 |
CN106840179A (zh) * | 2017-03-07 | 2017-06-13 | 中国科学院合肥物质科学研究院 | 一种基于多传感器信息融合的智能车定位方法 |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
US20190026597A1 (en) * | 2017-07-24 | 2019-01-24 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
CN109732592A (zh) * | 2018-12-26 | 2019-05-10 | 珠海市众创芯慧科技有限公司 | 一种无人搬运智能机器人控制系统 |
CN109945858A (zh) * | 2019-03-20 | 2019-06-28 | 浙江零跑科技有限公司 | 用于低速泊车驾驶场景的多传感融合定位方法 |
CN110109482A (zh) * | 2019-06-14 | 2019-08-09 | 上海应用技术大学 | 基于ssd神经网络的目标跟踪系统 |
-
2019
- 2019-09-11 CN CN201910858109.1A patent/CN110687905A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090058066A1 (en) * | 2007-03-02 | 2009-03-05 | Honda Motor Co., Ltd. | Fender supporting structure of two-wheeled motor vehicle |
CN101293539A (zh) * | 2008-04-15 | 2008-10-29 | 上海中为智能机器人有限公司 | 模块化便携式移动机器人系统 |
CN103389103A (zh) * | 2013-07-03 | 2013-11-13 | 北京理工大学 | 一种基于数据挖掘的地理环境特征地图构建与导航方法 |
CN105518656A (zh) * | 2013-08-09 | 2016-04-20 | 行为识别系统公司 | 用于多传感器数据融合的认知神经语言学行为辨识系统 |
WO2016174725A1 (ja) * | 2015-04-28 | 2016-11-03 | 株式会社日立製作所 | 計算機及びニューラルネットワークを用いた演算方法 |
CN106056628A (zh) * | 2016-05-30 | 2016-10-26 | 中国科学院计算技术研究所 | 基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
CN106840179A (zh) * | 2017-03-07 | 2017-06-13 | 中国科学院合肥物质科学研究院 | 一种基于多传感器信息融合的智能车定位方法 |
US20190026597A1 (en) * | 2017-07-24 | 2019-01-24 | GM Global Technology Operations LLC | Deeply integrated fusion architecture for automated driving systems |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
CN109732592A (zh) * | 2018-12-26 | 2019-05-10 | 珠海市众创芯慧科技有限公司 | 一种无人搬运智能机器人控制系统 |
CN109945858A (zh) * | 2019-03-20 | 2019-06-28 | 浙江零跑科技有限公司 | 用于低速泊车驾驶场景的多传感融合定位方法 |
CN110109482A (zh) * | 2019-06-14 | 2019-08-09 | 上海应用技术大学 | 基于ssd神经网络的目标跟踪系统 |
Non-Patent Citations (3)
Title |
---|
宋维堂等: "基于智能车辆的多传感器数据融合算法研究与分析综述", 《现代交通技术》, no. 03, 26 June 2012 (2012-06-26) * |
张新钰等: "基于深度学习的自动驾驶技术综述", 《清华大学学报(自然科学版)》, no. 04, 15 April 2018 (2018-04-15) * |
王超: "基于卷积神经网络优化算法的列车智能测试系统技术研究", 《铁路计算机应用》, no. 05, 25 May 2019 (2019-05-25) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112639821B (zh) | 一种车辆可行驶区域检测方法、系统以及采用该系统的自动驾驶车辆 | |
Schamm et al. | On-road vehicle detection during dusk and at night | |
US8305431B2 (en) | Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images | |
US11195028B2 (en) | Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries | |
Gavrila et al. | Real time vision for intelligent vehicles | |
CN113490863A (zh) | 雷达辅助的单个图像三维深度重建 | |
CN109116846B (zh) | 一种自动驾驶方法、装置、计算机设备和存储介质 | |
JP2019067345A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
Kim et al. | Vision-based real-time obstacle segmentation algorithm for autonomous surface vehicle | |
CN110580044A (zh) | 基于智能感知的无人船全自动航行异构系统 | |
CN109657638A (zh) | 障碍物定位方法、装置和终端 | |
Kim et al. | Craft: Camera-radar 3d object detection with spatio-contextual fusion transformer | |
CN212220188U (zh) | 地下停车场融合定位系统 | |
EP3965005A1 (en) | Target detection method and device | |
Jeong et al. | End-to-end learning of image based lane-change decision | |
CN111736613A (zh) | 智能驾驶控制方法、装置、系统及存储介质 | |
CN114556249A (zh) | 用于预测车辆轨迹的系统和方法 | |
CN110780287A (zh) | 基于单目相机的测距方法及测距系统 | |
CN110750153A (zh) | 一种无人驾驶车辆的动态虚拟化装置 | |
CN114295099B (zh) | 基于单目摄像头的测距方法、车载测距设备以及存储介质 | |
TWI680898B (zh) | 近距離障礙物之光達偵測裝置及其方法 | |
Kim et al. | An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing | |
CN110687905A (zh) | 一种基于多传感技术融合一体的无人驾驶智能车 | |
CN102137247A (zh) | 全周鸟瞰图像距离界面产生方法与系统 | |
CN110727269A (zh) | 车辆控制方法及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200114 |