CN111857131B - 一种全局式自动驾驶方法、系统以及车载终端 - Google Patents
一种全局式自动驾驶方法、系统以及车载终端 Download PDFInfo
- Publication number
- CN111857131B CN111857131B CN202010570900.5A CN202010570900A CN111857131B CN 111857131 B CN111857131 B CN 111857131B CN 202010570900 A CN202010570900 A CN 202010570900A CN 111857131 B CN111857131 B CN 111857131B
- Authority
- CN
- China
- Prior art keywords
- dynamic
- vehicle
- dynamic model
- regional
- urban
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000003068 static effect Effects 0.000 claims abstract description 37
- 238000012544 monitoring process Methods 0.000 claims description 70
- 238000012806 monitoring device Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 4
- 239000013589 supplement Substances 0.000 claims description 2
- 230000001502 supplementing effect Effects 0.000 claims description 2
- 239000000758 substrate Substances 0.000 claims 1
- 238000012545 processing Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Abstract
本发明公开了一种全局式自动驾驶方法、系统以及车载终端,方法包括:车载终端将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的包含静态物件和动态物件的城市3D动态模型的一部分,以及接收中央控制系统推送过来城市3D动态模型;车载终端根据所述城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶,本发明不仅可以降低车载终端的计算负担,而且可以实现全局式的自动驾驶控,安全性可以得到充分的保障。
Description
技术领域
本发明涉及交通领域,尤其涉及一种全局式自动驾驶方法、系统以及车载终端。
背景技术
自动驾驶技术是当前的研究热点。自动驾驶依靠人工智能,可以在没有人主动操作的情况下,让计算机自动安全地操作机动车。自动驾驶不仅可以将人从费神费力的驾驶操作中解放出来,而且由于计算机的精确性、响应速度及可重复性远远超过人类,因而可以大大提升机动车的安全性,减少交通事故。
当前的自动驾驶技术主要是车载终端控制,车载终端自行模拟人在驾驶机动车时的一切行为。即让车辆像人一样感知周围环境及道路状况,规划行驶路线,做出相关分析判断和决策,完成诸如加油、刹车、转向等等一系列操作,这种方案对车载终端的要求很高而,而且车载终端只能进行短距离内的预测,无法实现全局式的自动驾驶,安全性得不到保障。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种全局式自动驾驶方法、系统以及车载终端。
本发明解决其技术问题所采用的技术方案是:
一方面,构造一种全局式自动驾驶方法,方法包括:
车载终端将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的包含静态物件和动态物件的城市3D动态模型的一部分,以及接收中央控制系统推送过来城市3D动态模型;
车载终端根据所述城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶。
优选地,所述的根据预测结果进行自动驾驶,包括:根据静态物件和动态物件的预测结果规划行车路径,以及根据动态物件的预测结果控制自身的车速。
优选地,所述方法还包括:基于所述中央控制系统以及多个分别与所述中央控制系统连接的区域子系统实现所述城市3D动态模型;
所述城市3D动态模型的实现包括:每一区域子系统通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;中央控制系统从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型。
所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料。
优选地,所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级,所述区域子系统在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
优选地,所述方法还包括:所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低。
优选地,所述方法还包括:区域子系统、中央控制系统分别根据各自的区域3D动态模型、城市3D动态模型的结果,反馈需要补充图像数据的位置,并提示在补充图像数据的位置新增摄像头。
二方面构造一种车载终端,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
车载终端将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的包含静态物件和动态物件的城市3D动态模型的一部分,以及接收中央控制系统推送过来城市3D动态模型;
根据所述城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶。
三方面构造一种全局式自动驾驶系统,包括:
所述的车载终端;
多个区域子系统,每一区域子系统用于通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
中央控制系统,所述多个区域子系统分别与所述中央控制系统连接,所述中央控制系统用于从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型,并将所述城市3D动态模型推送给各个车载终端。
本发明的全局式自动驾驶方法、系统以及车载终端,具有以下有益效果:本发明中车载终端根据城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶,不仅可以降低车载终端的计算负担,而且可以实现全局式的自动驾驶控,安全性可以得到充分的保障。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图:
图1是本发明全局式自动驾驶方法的示意图;
图2是城市3D动态模型实现的方法示意图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的典型实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
如图1,本发明总的思路是:构造一种全局式自动驾驶方法,包括:
S101:车载终端将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的包含静态物件和动态物件的城市3D动态模型的一部分,以及接收中央控制系统推送过来城市3D动态模型;
S102:车载终端根据所述城市3D动态模型和自身的位置信息、以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶。
由于车载终端是根据城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶,不仅可以降低车载终端的计算负担,而且可以实现全局式的自动驾驶控,安全性可以得到充分的保障。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明,应当理解本发明实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互组合。
实施例一
本实施例公开了一种中央控制式自动驾驶方法,所述方法包括城市3D动态模型实现步骤和自动驾驶控制步骤,该两个步骤是并行的。城市3D动态模型实现步骤主要是维护城市3D动态模型,自动驾驶控制步骤实现自动驾驶控制。下面对该两个步骤进行详细阐述。
1)城市3D动态模型实现步骤,参考图2,具体包括如下的步骤S201和步骤S202:
S201:每一区域子系统通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
我们可以将选定的城市区域划分为多个区域,每一个区域内具有多种维度的监控设备,每一个区域配置一个区域子系统来负责该区域的多种维度的监控设备的数据收集工作、数据分析工作以及区域3D动态模型的实现。
其中,所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料。其中,公共设施监控摄像头可以是道路、公园等配置的摄像头,物联网图像传感器可以是各种桥梁监控设备、电网监控设备等。本发明基于上面提到的多种维度的监控设备,可以实现多面向、多角度、的协同观测。
由于各种监控设备的视频数据可能存在冲突,所以基于现实生活中的各种监控设备的可信度,本发明对各种视频数据定义了优先级。具体来说,所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级。在定义了优先级的基础上,所述区域子系统在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
考虑到不同的场所环境变化的概率相差较大,所以可以按即时性需求更新资料,因此,所述方法还包括:所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低。例如建物不变,不需要即时更新,而交通监控需求用视频即时贴图,合成进3D场景中。
优选地,还可以随需要新增摄像头,透过演算法,增强该区域的即时性,因此,所述方法还包括:各个区域子系统分别根据各自的区域3D动态模型的结果,反馈需要补充图像数据的位置,并输出在补充图像数据的位置新增摄像头的提示信息。比如说,对于某些监控死角可以建议新增摄像头。再比如对于某些对即时性要求高的位置可以新增摄像头。
区域子系统可以包括AI图像处理服务器、3D即时建模图形处理服务器实现。AI图像处理服务器负责识别空间中的各种动态物件和静态物件,以及物件的具体特征,比如汽车特征追踪、特征标注、车牌识别、人脸识别、动作特征识别、污染物识別、光谱特征识別等。3D即时建模图形处理服务器负责角度反算、重叠拼接、三维贴图,实现3D即时建模。然后将3D即时建模图形处理服务器、AI图像处理服务器的处理结果进行实时整合,即得到区域3D动态模型。
S202:中央控制系统从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型。
中央控制系统同时与各个区域的区域子系统分别连接,中央控制系统可以直接从各个区域子系统调取各个区域的区域3D动态模型,然后整合得到整个城市的城市3D动态模型。
在整合过程中,可能存在盲区,因此,所述方法还包括:中央控制系统分别根据城市3D动态模型的结果,反馈需要补充图像数据的位置,并输出在补充图像数据的位置新增摄像头的提示信息。比如说两个相邻的区域,在整合拼接位置可能存在盲点,因此可以建议再此位置新增摄像头。
可以理解的是,本发明中提到的区域3D动态模型、城市3D动态模型都是动态的3D模型,这些模型携带了时间、空间的关联信息。
可以理解的是,步骤S201和S202各自本身都是持续性进行的步骤,实际上是同时执行的。
2)自动驾驶控制步骤,包括:
S301:车载终端接收中央控制系统推送过来的包含静态物件和动态物件的城市3D动态模型;
需要说明的是,车载终端在获取推送的模型之前,还要将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的城市3D动态模型的一部分。
S302:车载终端根据所述城市3D动态模型和自身的位置信息、以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶。
其中,所述的根据预测结果进行自动驾驶,包括:根据静态物件和动态物件的预测结果规划行车路径,以及根据动态物件的预测结果控制自身的车速。
一方面,车载终端可以根据所述城市3D动态模型的路况和自身的目的位置信息,规划车载终端的行驶路径。规划车载终端的行驶路径可以参考既有的导航技术,再此不做赘述。
二方面,车载终端自己采集的视频信息可以作为驾驶用预判资料的参考,例如,可以根据自己采集的视频信息,校正车载终端在所述城市3D动态模型中的位置和方位以及周围的其他物件的存在情况,并根据所规划的行驶路径和校正后的位置、方位以及周围的其他物件的存在情况,对车载终端的速度、转向进行控制。
理论上车载终端知道了自己的位置后即可确定自己在3D动态模型中的周围环境状况,但是3D动态模型有可能有误差,比如说有可能3D动态模型中对周围的物件的存在情况有误差,车载的具体位置比如车行道有误差等,为了保证可靠性,本发明中,车载终端还会根据自身采集的视频信息对自己的具体位置、方位以及周围的其他物件的情况进行校正,在校正后对车载终端的速度、转向进行控制。比如说,在距离前方车载终端距离较大时控制车载终端加速,在距离前方车载终端距离较小时控制车载终端减速或者控制车载终端切换车行道,等等。
本实施例中,由于车载终端通过3D动态模型可以知晓全局范围内的交通状况,所以车载终端可以预测到全局的交通状况,可以实现更稳定可靠的预测,进而可以实现全局式自动驾驶。
实施例二
本实施例公开了一种车载终端,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
接收中央控制系统推送过来的包含静态物件和动态物件的城市3D动态模型;
根据所述城市3D动态模型和自身的位置信息、以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶。
更多内容可以参考实施例一部分的车载终端部分的内容,此处不再赘述。
实施例三
本实施例公开了一种全局式自动驾驶系统,包括:
如实施例二的车载终端;
多个区域子系统,每一区域子系统用于通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
中央控制系统,所述多个区域子系统分别与所述中央控制系统连接,所述中央控制系统用于从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型,并将所述城市3D动态模型推送给各个车载终端。
综上所述,本发明的全局式自动驾驶方法、系统以及车载终端,具有以下有益效果:本发明中车载终端根据城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶,不仅可以降低车载终端的计算负担,而且可以实现全局式的自动驾驶控,安全性可以得到充分的保障。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (7)
1.一种全局式自动驾驶方法,其特征在于,方法包括:
车载终端将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的包含静态物件和动态物件的城市3D动态模型的一部分,以及接收中央控制系统推送过来城市3D动态模型;
车载终端根据所述城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶;
所述方法还包括:基于所述中央控制系统以及多个分别与所述中央控制系统连接的区域子系统实现所述城市3D动态模型;
所述城市3D动态模型的实现包括:将选定的城市区域划分为多个区域,每一个区域内具有多种维度的监控设备,每一个区域配置一个区域子系统,每一区域子系统通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;中央控制系统从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型;
所述方法还包括:所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低。
2.根据权利要求1所述的方法,其特征在于,所述的根据预测结果进行自动驾驶,包括:根据静态物件和动态物件的预测结果规划行车路径,以及根据动态物件的预测结果控制自身的车速。
3.根据权利要求1所述的方法,其特征在于,
所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料。
4.根据权利要求3所述的方法,其特征在于,所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级,所述区域子系统在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:区域子系统、中央控制系统分别根据各自的区域3D动态模型、城市3D动态模型的结果,反馈需要补充图像数据的位置,并提示在补充图像数据的位置新增摄像头。
6.一种车载终端,其特征在于,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
将自身采集的视频信息上传给中央控制系统作为中央控制系统所维护的包含静态物件和动态物件的城市3D动态模型的一部分,以及接收中央控制系统推送过来城市3D动态模型;
根据所述城市3D动态模型、自身的位置信息以及自身的车载摄像头所采集的视频信息,对预设距离内的静态物件和动态物件的情况进行预测,根据预测结果进行自动驾驶;
其中,所述城市3D动态模型是基于所述中央控制系统以及多个分别与所述中央控制系统连接的区域子系统实现;
所述城市3D动态模型的实现包括:将选定的城市区域划分为多个区域,每一个区域内具有多种维度的监控设备,每一个区域配置一个区域子系统,每一区域子系统通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;中央控制系统从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型;
其中,所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低。
7.一种全局式自动驾驶系统,其特征在于,包括:
如权利要求6所述的车载终端;
多个区域子系统,每一区域子系统用于通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
中央控制系统,所述多个区域子系统分别与所述中央控制系统连接,所述中央控制系统用于从各个区域子系统获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型,并将所述城市3D动态模型推送给各个车载终端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010570900.5A CN111857131B (zh) | 2020-06-19 | 2020-06-19 | 一种全局式自动驾驶方法、系统以及车载终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010570900.5A CN111857131B (zh) | 2020-06-19 | 2020-06-19 | 一种全局式自动驾驶方法、系统以及车载终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111857131A CN111857131A (zh) | 2020-10-30 |
CN111857131B true CN111857131B (zh) | 2024-01-12 |
Family
ID=72987422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010570900.5A Active CN111857131B (zh) | 2020-06-19 | 2020-06-19 | 一种全局式自动驾驶方法、系统以及车载终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111857131B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100011874A (ko) * | 2008-07-24 | 2010-02-03 | 한국전자통신연구원 | 3차원 공간정보를 통합한 도시 관리 시스템 구축장치 및 방법 |
KR20170083233A (ko) * | 2016-01-08 | 2017-07-18 | 서울대학교산학협력단 | 지도 기반 이동체 움직임 의도 판단을 활용한 주행 지원 시스템 |
JP2018206359A (ja) * | 2017-06-01 | 2018-12-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 通信方法、路側機および通信システム |
KR20190078454A (ko) * | 2017-12-26 | 2019-07-04 | 경희대학교 산학협력단 | 분산 클라우드 기반의 자율주행 시스템 및 방법 |
KR20190109608A (ko) * | 2018-02-23 | 2019-09-26 | 한국철도기술연구원 | 네트워크 이용한 자율주행차량 제어 장치 및 그 방법 |
DE102018204704A1 (de) * | 2018-03-28 | 2019-10-02 | Zf Friedrichshafen Ag | System zum Überwachen eines Überwachungsbereichs |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9335178B2 (en) * | 2014-01-28 | 2016-05-10 | GM Global Technology Operations LLC | Method for using street level images to enhance automated driving mode for vehicle |
KR102374919B1 (ko) * | 2017-10-16 | 2022-03-16 | 주식회사 만도모빌리티솔루션즈 | 자율주행 지원 장치 및 방법 |
-
2020
- 2020-06-19 CN CN202010570900.5A patent/CN111857131B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100011874A (ko) * | 2008-07-24 | 2010-02-03 | 한국전자통신연구원 | 3차원 공간정보를 통합한 도시 관리 시스템 구축장치 및 방법 |
KR20170083233A (ko) * | 2016-01-08 | 2017-07-18 | 서울대학교산학협력단 | 지도 기반 이동체 움직임 의도 판단을 활용한 주행 지원 시스템 |
JP2018206359A (ja) * | 2017-06-01 | 2018-12-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 通信方法、路側機および通信システム |
KR20190078454A (ko) * | 2017-12-26 | 2019-07-04 | 경희대학교 산학협력단 | 분산 클라우드 기반의 자율주행 시스템 및 방법 |
KR20190109608A (ko) * | 2018-02-23 | 2019-09-26 | 한국철도기술연구원 | 네트워크 이용한 자율주행차량 제어 장치 및 그 방법 |
DE102018204704A1 (de) * | 2018-03-28 | 2019-10-02 | Zf Friedrichshafen Ag | System zum Überwachen eines Überwachungsbereichs |
Also Published As
Publication number | Publication date |
---|---|
CN111857131A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10586458B2 (en) | Hybrid trip planning for autonomous vehicles | |
US11222389B2 (en) | Coordinating on-demand transportation with autonomous vehicles | |
CN111061261B (zh) | 使用标准导航地图与基于车辆的先前轨迹确定的车道配置的自动驾驶方法 | |
US20200209857A1 (en) | Multimodal control system for self driving vehicle | |
US20210024095A1 (en) | Method and device for controlling autonomous driving of vehicle, medium, and system | |
JP2021502914A (ja) | 自律走行車に用いられるトンネルに基づく計画システム | |
CN113535743B (zh) | 无人驾驶地图实时更新方法、装置、电子设备、存储介质 | |
CN111259712B (zh) | 用于车辆行为预测的压缩环境特征的表示 | |
US11391587B1 (en) | Assessing the impact of blockages on autonomous vehicle services | |
CN110942665A (zh) | 一种车辆的定位方法、车载设备及存储介质 | |
CN111402387A (zh) | 从用于导航自主车辆的高清晰度地图的点云中移除短时点 | |
JP2021054393A (ja) | 車両のuターン経路を決定する方法、装置、デバイスおよび媒体 | |
EP4198454A1 (en) | Illumination-dependent navigation routes for vehicles | |
CN113692373A (zh) | 自动驾驶车辆服务的滞留和范围分析 | |
US20240017719A1 (en) | Mapping method and apparatus, vehicle, readable storage medium, and chip | |
US20220289253A1 (en) | Method for evaluating autonomous driving system, apparatus and storage medium | |
CN113665577A (zh) | 操作机动车辆的方法 | |
CN111857131B (zh) | 一种全局式自动驾驶方法、系统以及车载终端 | |
CN111857132B (zh) | 一种中央控制式自动驾驶方法、系统以及中央控制系统 | |
CN114882464B (zh) | 多任务模型训练方法、多任务处理方法、装置及车辆 | |
CN111427331B (zh) | 无人驾驶车辆的感知信息展示方法、装置和电子设备 | |
US20220065647A1 (en) | Autonomous vehicle planned route prediction | |
US11845469B2 (en) | Yellow light durations for autonomous vehicles | |
JP2021076593A (ja) | 構築及び位置特定技術分野に焦点を当てた動的マップ生成 | |
CN111063214A (zh) | 一种车辆的定位方法、车载设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |