CN111880533A - 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 - Google Patents
驾驶场景重构方法、装置、系统、车辆、设备及存储介质 Download PDFInfo
- Publication number
- CN111880533A CN111880533A CN202010685995.5A CN202010685995A CN111880533A CN 111880533 A CN111880533 A CN 111880533A CN 202010685995 A CN202010685995 A CN 202010685995A CN 111880533 A CN111880533 A CN 111880533A
- Authority
- CN
- China
- Prior art keywords
- information
- vehicle
- driving
- road
- road traffic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000006870 function Effects 0.000 claims description 51
- 230000002159 abnormal effect Effects 0.000 claims description 37
- 230000006855 networking Effects 0.000 claims description 30
- 230000010354 integration Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 21
- 238000010276 construction Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 8
- 230000005856 abnormality Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请提出一种驾驶场景重构方法、装置、系统、车辆、电子设备及计算机可读存储介质。驾驶场景重构方法,包括:获取传感器信息、车联网信息和地图信息中的道路交通情况信息;对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;基于整合后的道路交通情况信息,重构自车的驾驶场景。该驾驶场景重构方法,融合了传感器信息、车联网信息和地图信息,丰富了自动驾驶车辆周围环境的信息来源,而且,结合了道路交通情况信息,使得重构的驾驶场景更接近于真实的驾驶环境,可以为驾驶员提供更有效的辅助作用,提升驾驶的安全性。
Description
技术领域
本申请涉及自动驾驶技术领域,尤其涉及一种驾驶场景重构方法、装置、系统、车辆、电子设备及计算机可读存储介质。
背景技术
自动驾驶汽车又称无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。随着自动驾驶水平越来越高,驾驶员的职责逐步转化为监控者。驾驶场景重构系统可以更好地为驾驶员提供车辆周边情况,使得驾驶员在放松的状态下可以清晰地了解车辆周边情况。同时,在非自动驾驶模式下,自动驾驶所采用的传感器等部件正常工作,可以实现场景重构,为驾驶员提供驾驶辅助。
目前,驾驶场景重构系统提供的驾驶场景信息有限,降低了自动驾驶体验,存在自动驾驶隐患。
发明内容
本申请实施例提供一种自动驾驶重构方法、装置、系统、车辆、电子设备及计算机可读存储介质,以解决相关技术存在的问题,技术方案如下:
第一方面,本申请实施例提供了一种驾驶场景重构方法,包括:
获取传感器信息、车联网信息和地图信息中的道路交通情况信息;
对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;
基于整合后的道路交通情况信息,重构自车的驾驶场景。
第二方面,本申请实施例提供了一种驾驶场景重构装置,包括:
获取模块,用于获取传感器信息、车联网信息和地图信息中的道路交通情况信息;
整合模块,用于对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;
重构模块,用于基于整合后的道路交通情况信息,重构自车的驾驶场景。
第三方面,本申请实施例提供了一种驾驶场景重构系统,包括以上所述的驾驶场景重构装置,所述系统还包括:
传感器,与所述驾驶场景重构装置连接,用于采集并向所述驾驶场景重构装置输出传感器信息;
车联网装置,与所述驾驶场景重构装置连接,用于向所述驾驶场景重构装置输出车联网信息;
地图装置,与所述驾驶场景重构装置连接,用于向所述驾驶场景重构装置输出地图信息;
显示装置,与所述驾驶场景重构装置连接,用于从所述驾驶场景重构装置接收重构后的驾驶场景的数据,显示重构后的驾驶场景。
第四方面,本申请实施例提供了一种车辆,包括以上所述的驾驶场景重构装置,或者,包括以上所述的驾驶场景重构系统。
第五方面,本申请实施例提供了一种电子设备,该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,以使至少一个处理器能够执行上述驾驶场景重构方法。
第六方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储计算机指令,当计算机指令在计算机上运行时,上述各方面任一种实施方式中的方法被执行。
上述技术方案中的优点或有益效果至少包括:
该驾驶场景重构方法,融合了传感器信息、车联网信息和地图信息,丰富了自动驾驶车辆周围环境的信息来源,而且,结合了道路交通情况信息,使得重构的驾驶场景更接近于真实的驾驶环境,可以为驾驶员提供更有效的辅助作用,提升驾驶的安全性。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本申请进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本申请公开的一些实施方式,而不应将其视为是对本申请范围的限制。
图1为一示例性实施例的驾驶场景重构系统的框图示意图;
图2示出了图1中控制器的处理过程;
图3示出了处理器所处理的信息类型;
图4为根据本申请一实施例的驾驶场景重构方法的流程示意图;
图5为根据本申请一实施例的驾驶场景重构方法中道路交通情况信息的示意图;
图6为根据本申请一实施例的驾驶场景重构方法中目标信息的示意图;
图7为根据本申请一实施例的驾驶场景重构方法重构出的驾驶场景的示意图;
图8为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图;
图9为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图;
图10为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图;
图11为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图;
图12为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图;
图13为根据本申请一实施例的驾驶场景重构装置的结构框图;
图14为根据本申请一实施例的驾驶场景重构装置的获取模块的结构框图;
图15为根据本申请一实施例的驾驶场景重构装置的整合模块的结构框图;
图16为根据本申请一实施例的驾驶场景重构系统的结构框图;
图17为根据本申请一实施例的电子设备的结构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本申请的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
高级驾驶辅助系统(Advanced Driver Assistant System,ADAS)传感器,可以通过各种车载传感器收集车内外的环境数据,进行静、动态物体的辨识、侦测与追踪等技术上的处理,从而让驾驶者在最快的时间察觉可能发生的危险,并采取相应的措施,以提升驾乘安全性。
传感器包括但不限于一个或多个图像采集设备(例如摄像机)、惯性测量单元、雷达等。图像采集设备可以用来采集自动驾驶车辆周围环境的目标信息、道路标识信息和车道线信息。惯性测量单元可以基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达可以利用无线电信号来感测自动驾驶车辆的本地环境内的目标、道路标识。除感测目标之外,雷达单元可以另外感测目标的速度和/或前进方向。图像采集设备可以包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。例如,图像采集设备可以是静物摄像机和/或视频摄像机。摄像机可以包括红外线摄像机。摄像机可以是机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器还可以包括例如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)等。音频传感器可以被配置为从自动驾驶车辆周围的环境中采集声音。转向传感器可以被配置为感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可集成为集成式油门/制动传感器。
V2X(vehicle to everything,车联万物,或称为车联网)即车对外界的信息交换。V2X通信是车联网中实现环境感知、信息交互与协同控制的重要关键技术。其采用各种通信技术实现车与车(Vehicle-To-Vehicle,简称V2V)、车与路(Vehicle-To-Infrastructure,简称V2I)和车与人(Vehicle-To-Person,简称V2P)互连互通,并在信息网络平台上对信息进行提取、共享等有效利用,对车辆进行有效的管控和提供综合服务。从而获得实时路况、道路标识信息、车道线信息、目标信息等一系列道路交通情况信息,从而提高驾驶安全性、减少拥堵、提高交通效率、提供车载娱乐信息等。
在本申请实施例中的自动驾驶场景重构过程中,不仅可以获取来自ADAS传感器的传感器信息,还可以获取来自V2X的车联网信息,最终获得的周围环境信息丰富,能够反映出真实的驾驶环境,从而提高自动驾驶安全性,提升了自动驾驶体验。
图1为一示例性实施例的驾驶场景重构系统的框图示意图。如图1所示,传感器、V2X和地图装置采集车辆周围信息后,控制器可以接收来自传感器的原始数据,控制器还可以接收来自V2X的道路信息(也称作车道线信息)、交通标志信息(也称作道路标识信息)、周边车辆或/和行人等交通参与者信息(也称作目标信息)等,控制器还可以接收来自地图装置的道路信息(也称作车道线信息)、交通标志信息(也称作道路标识信息)、自车位置信息、导航信息(也称作导航路径规划信息)等。控制器接收来自传感器信息、车联网信息和地图信息的信息后,从接收到的信息中获取道路交通情况信息,并对道路交通情况信息进行整合,将整合后的道路交通情况信息例如车道线信息、交通标志信息(也称作道路标识信息)、目标信息(包括目标的类型、方向、位置、报警等)和自车运动轨迹等传输给仪表控制器。仪表控制器将接收到的信息处理成驾驶场景的数据,并将驾驶场景的数据传输给仪表显示装置来显示重构后的驾驶场景。
在一种实施方式中,道路交通情况信息可以包括道路标识信息、车道线信息、道路交通异常情况信息、拥堵状况信息、道路交通场景信息、导航路径规划信息、目标信息等。目标包括自车周围的车辆、行人等交通参与者。
图2示出了图1中控制器的处理过程,图3示出了控制器所处理的信息类型。如图2所示,示例性地,传感器可以包括雷达和图像采集设备等。雷达可以利用无线电信号来感测自动驾驶车辆周围环境中的目标信息和道路标识信息,而生成点云数据例如点云图。图像采集设备例如摄像头可以用来采集周围环境中的道路标识、车道线和目标等,而生成视频流。如图2所示,示例性地,控制器可以包括分类处理模块和信息融合模块(也成为整合模块)。分类处理模块可以包括目标信息识别模块、交通信息识别模块(也称作道路交通情况信息识别模块)、功能报警模块。控制器接收来自雷达的点云图、摄像头的视频流、V2X的信息和地图装置的信息后,目标信息识别模块从控制器接收的信息中识别出目标信息,并将目标信息传输给信息融合模块;交通信息识别模块从控制器接收的信息中识别出道路交通情况信息,并将道路交通情况信息传输给信息融合模块;功能报警模块从控制器接收到的信息中识别出功能报警信息,并将功能报警信息传输给信息融合模块(也称作整合模块)。信息融合模块将接收到的目标信息、道路交通情况信息、功能报警信息分别进行整合,输出整合后的目标信息、道路交通情况信息、功能报警信息。
如图3所示,示例性地,目标识别模块可以识别出目标的类型、坐标、朝向等信息。交通信息识别模块可以识别出交通灯的位置和当前状态、限速标志的数值和位置、车道线的类型和坐标、道路交通场景、道路交通异常情况、最优化的道路路径规划等。功能报警模块可以包括自动驾驶等级、前向碰撞预警、紧急制动预警、交叉路口碰撞预警、盲区预警、变道预警、限速预警、车道保持预警、紧急车道保持、后向碰撞预警、后方交叉路口碰撞预警、开门预警、左转辅助、闯红灯预警、逆向超车预警、车辆失控预警、异常车辆预警、弱势交通参与者预警等。
信息融合模块将功能报警信息和目标信息相结合,将自动驾驶等级、车道保持状态和车道线信息相结合,将导航路径规划与自车运动相结合,输出整合后的目标信息、道路交通情况信息、功能报警信息。
如图3所示,示例性地,目标信息可以包括:
目标状态:无、有、报警等级1、报警等级2、报警等级3等;
目标类型:例如,轿车、越野车SUV、小客车、大客车、小货车、大货车、摩托车、两轮车、大人、小孩等;
目标朝向:例如,向前、向后、向左、向右等;
坐标:横坐标、纵坐标等。
如图3所示,示例性地,车道线信息可以包括:
状态:无、有、报警、自适应巡航(Adaptive Cruise Control,ACC)、自动驾驶等级L2、自动驾驶等级L3、自动驾驶等级L4等;
类型:实线、虚线、双黄线、路沿、道路边沿等;
参数:A0、A1、A2、A3(车道线方程:y=a0+a1*x+a2*x2+a3*x3)。
本领域技术人员可以理解,A0、A1、A2、A3均为自车道左侧车道线多项式系数,其中,A0表示自车中心到车道线的横向距离,正值表示车道线在左边;A1表示自车相对车道线的航向角,正值表示车道线逆时针;A2表示车道线曲率,正值表示车道线向左弯曲;A3表示车道线曲率变化率,正值表示车道线向左弯曲。控制器从传感器信息或V2X信息中获得车道线信息后,可以得到A0、A1、A2、A3的数值。在显示装置上绘制车道线时,依据车道线方程绘制车道线,从而在重构的驾驶场景中可以显示出与实际车道线一致的车道线。
如图3所示,示例性地,交通信息可以包括:
车道数:1、2、3、4、5、6、7、8等;
当前所处车道:左1、左2、右1、右2等;
路径规划方向:无、直行、左拐、右拐、左前方、右前方、掉头等
限速信息状态:无、有、报警
限速值:5、10、15……130;
交通灯状态:无、红灯、黄灯、绿灯、倒计时等;
交通灯坐标:横坐标、纵坐标;
道路交通场景:匝道、十字路口、道路合并、道路分叉、丁字路口等。
基于传感器信息、车联网信息和地图信息,本申请提出了一种基于实际交通的驾驶场景重构方法。
图4为根据本申请一实施例的驾驶场景重构方法的流程示意图。如图1所示,该驾驶场景重构方法可以包括:
S101、获取传感器信息、车联网信息和地图信息中的道路交通情况信息;
S102、对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;
S103、基于整合后的道路交通情况信息,重构自车的驾驶场景。
本申请的驾驶场景重构方法,融合了来自ADAS传感器的传感器信息、来自V2X的车联网信息和地图信息,丰富了自动驾驶车辆周围环境的信息来源,而且,该驾驶场景重构方法,结合了道路交通情况信息,从而,重构的驾驶场景更接近于真实的驾驶环境,更符合自动驾驶状态下和普通驾驶状态下用户的实际需求,可以为驾驶员提供更有效的辅助作用,提升驾驶的安全性。
本领域技术人员可以理解,驾驶场景重构方法中,实时获取传感器信息、车联网信息和地图信息中的道路交通情况信息,对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;基于整合后的道路交通情况信息,实时重构自车的驾驶场景。从而,重构出的驾驶场景可以实时地展示了自车所处的周围环境。
图5为根据本申请一实施例的驾驶场景重构方法中道路交通情况信息的示意图。
在一种实施方式中,在S101中,获取传感器信息中的道路交通情况信息,可以包括:接收来自雷达的点云数据,并解析该点云数据得到道路标识信息。
在一种实施方式中,在S101中,获取传感器信息中的道路交通情况信息,可以包括:接收来自图像采集设备的视频流,并解析该视频流得到道路标识信息和车道线信息。
示例性地,如图5所示,道路标识信息可以包括红路灯信息(也称作交通灯信息)、限速标志信息等。交通灯信息可以包括交通灯的状态、交通灯的位置等。限速标志信息可以包括限速标志的数值、限速标志的位置等。例如,城市道路的某个路段的限速标志的数值为50,表示该路段最高限速50km/h。
本领域技术人员可以理解,道路标识信息并不限于交通灯信息和限速标志信息,还可以包括例如掉头标志、直行标志、转向标志等可以被识别的标志。
车道线信息可以包括自车所处车道的信息、周边车辆所处车道的信息、车道线的颜色信息、车道线的类型信息和车道线的位置信息中的至少之一。例如,车道线的颜色包括白色、黄色等颜色。车道线的类型包括实线、虚线、双黄线、路沿等。车道线的位置信息可以为车道线的坐标信息,与车道线的位置对应。本领域技术人员可以理解,车道线可以确定车道,因此,车道线信息可以反映出车道数量、自车所处车道以及周边车辆所处车道。
在一种实施方式中,在S101中,获取车联网信息中的道路交通情况信息,可以包括:获取来自车载单元和/或路侧单元的道路标识信息、车道线信息、道路交通异常情况信息和拥堵状况信息中的至少之一。
在一种实施方式中,如图5所示,V2X通信的装置可以包括车载单元(On BoardUnit,OBU)、路侧单元(Road Side Unit,RSU)中的至少之一。车联网信息的来源为车载单元(OBU)、路侧单元(RSU)中的至少之一。通过V2X通信,可以获得道路标识信息、车道线信息、道路交通异常情况信息和拥堵状况信息中的至少之一。道路交通异常情况信息可以包括道路施工信息、异常车辆信息和紧急车辆信息中的至少之一。从而,通过车联网信息,可以根据道路交通异常情况信息和拥堵状况信息规划最优的自车的行驶路线,高效到达目的地。
在一种实施方式中,在S101中,获取地图信息中的道路交通情况信息,可以包括:从地图信息获取道路标识信息、车道线信息、道路交通场景信息和导航路径规划信息中的至少之一。
例如,地图信息可以来自北斗导航系统或GPS导航系统。地图信息中可以包括道路标识信息、车道线信息、道路交通场景信息和导航路径规划信息等信息。为了获取道路交通情况信息,可以从地图信息中获取道路标识信息、车道线信息、道路交通场景信息和导航路径规划信息中的至少之一。道路交通场景信息可以包括十字路口信息、道路合并信息、道路分叉信息、匝道信息等道路信息。导航路径规划信息包括由始发地至目的地的行驶路径信息。本领域技术人员可以理解,地图信息中,可以提供多个由始发地至目的地的行驶路径信息,导航路径规划信息可以包括多个由始发地至目的地的行驶路径信息。
示例性地,如图5所示,从地图信息中获取的道路交通情况信息,包括:自车与周边车辆所处的车道、车道线的类型和坐标、红绿灯的位置、自车距离匝道、交叉口等的距离、导航路径规划信息等。
传感器信息、车联网信息和地图信息中可能存在重复的信息,例如,传感器信息、车联网信息和地图信息中均包括道路标识信息。当分别从传感器信息、车联网信息和地图信息中获取道路标识信息后,可以对道路标识信息进行整合,从而,选择出用于重构驾驶场景的最优的道路标识信息。为了获取最优的道路交通情况信息,示例性地,如图5所示,在S102中,对传感器信息、车联网信息和地图信息中的道路交通情况信息进行整合,可以包括以下之一:
对传感器信息、车联网信息和地图信息中的道路标识信息进行整合;
对传感器信息、车联网信息和地图信息中的车道线信息进行整合;
对地图信息中的道路交通场景信息进行整合;
对车联网信息中的道路交通异常情况信息进行筛选和整合;
将车联网信息中的拥堵状况信息和地图信息中的导航路径规划信息结合,得到优化的导航路径规划信息。
传感器信息中,可以从雷达的点云数据中解析出道路标识信息,例如,限速标志的位置、交通灯的位置等;可以从图像采集设备的视频流中解析出道路标识信息,例如,限速标志的位置、限速数值、交通灯的位置、交通灯的状态(红灯亮或绿灯亮或黄灯亮)等。车联网信息中包括道路标识信息,例如,限速标志的位置、限速数值、交通灯的位置、交通灯的状态等。地图信息中包括道路标识信息,例如,交通灯的位置、限速数值等。
本领域技术人员可以理解,传感器信息、车联网信息、地图信息各自所采集的信息的精确度可能不同,例如,雷达的点云数据中的限速标志的位置、交通灯的位置相较于图像采集设备的视频流中的限速标志的位置、交通灯的位置的精度更高;雷达的点云数据中不包含限速数值、交通灯状态等。
在一种实施方式中,对传感器信息、车联网信息和地图信息中的道路标识信息进行整合,可以包括,对传感器信息、车联网信息和地图信息中的道路标识信息进行筛选、选择、融合。输出整合后道路标识信息可以包括:红绿灯的位置、当前状态;限速标志的数值、位置等。
对于从传感器信息、车联网信息和地图信息中获取的重复的道路标识信息,可以选择精度最优的信息作为整合后的信息。例如,可以从传感器信息、车联网信息和地图信息中均获取交通灯的位置信息,那么,选择精度最优的交通灯的位置信息作为整合后的交通灯的位置信息。例如,雷达的点云数据中的交通灯的位置信息精度最优,那么,选择从雷达的点云数据中解析出的交通灯的位置信息作为整合后的交通灯位置信息。
对于从传感器信息、车联网信息和地图信息中获取的仅有一项的道路标识信息,可以直接采用该信息作为整合后的信息。例如,传感器信息、车联网信息和地图信息中,只有从图像采集设备的视频流中可以解析出交通灯的状态,那么,直接采用从图像采集设备的视频流中解析出交通灯的状态作为整合后的交通灯的状态。
对于本领域技术人员而言,传感器信息、车联网信息和地图信息中各个信息的精度可以是已知的,在信息整合过程中,可以直接设定信息的来源,或者,通过模型对信息进行筛选、选择、融合。对传感器信息、车联网信息和地图信息中的限速标志的位置、限速数值、交通灯的位置、交通灯的状态等信息进行整合后,得到整合后的限速标志的位置、限速数值、交通灯的位置、交通灯的状态,并作为整合后的道路标识信息。
传感器信息中,可以从图像采集设备的视频流中解析出车道线信息,例如,车道线的颜色(白色或黄色等)、车道线的类型(虚线或实线或路沿等)、车道线的位置等信息。车联网信息中包括自车所处车道的信息、周边车辆所处车道的信息等。地图信息中包括自车所处车道的信息、周边车辆所处车道的信息、车道线的类型、车道线的位置等信息。
在一种实施方式中,对传感器信息、车联网信息和地图信息中的车道线信息进行整合,可以包括,对传感器信息、车联网信息和地图信息中的车道线信息进行筛选、选择、融合。输出整合后的车道线的类型、坐标等。
对于从传感器信息、车联网信息和地图信息中获取的重复的车道线信息,可以选择精度最优的信息作为整合后的信息。例如,可以从传感器信息和地图信息中均获取到车道线的类型和车道线的位置,那么,选择精度最优的车道线的类型和车道线的位置作为整合后的车道线的类型和车道线的位置。例如,从图像采集设备的视频流中解析出的车道线的类型精度最优,那么,选择从图像采集设备的视频流中解析出的车道线的类型作为整合后的车道线的类型;地图信息中获取的车道线的位置精度最优,那么,选择从地图信息中获取的车道线的位置作为整合后的车道线位置。
对于从传感器信息、车联网信息和地图信息中获取的仅有一项的道路标识信息,可以直接采用该信息作为整合后的信息。例如,传感器信息、车联网信息和地图信息中,只有从图像采集设备的视频流中可以解析出车道线的颜色,那么,直接采用从图像采集设备的视频流中解析出的车道线颜色作为整合后的车道线颜色。
对于本领域技术人员而言,传感器信息、车联网信息和地图信息中各个信息的精度可以是已知的,在信息整合过程中,可以直接设定信息的来源,或者,通过模型对信息进行筛选、选择、融合。对传感器信息、车联网信息和地图信息中的自车所处车道的信息、周边车辆所处车道的信息、车道线的类型、车道线的颜色、车道线的位置等信息进行整合后,得到整合后的自车所处车道的信息、周边车辆所处车道的信息、车道线的类型、车道线的颜色、车道线的位置等信息,并作为整合后的车道线信息。
在一种实施方式中,对地图信息中的道路交通场景信息进行整合,可以直接采用地图信息中的道路交通场景信息作为整合后的道路交通场景信息。道路交通场景信息可以包括十字路口信息、道路合并信息、道路分叉信息、匝道信息等道路信息。可以将从地图信息中获取的十字路口信息、道路合并信息、道路分叉信息、匝道信息等道路信息作为整合后的道路交通场景信息。
在一种实施方式中,对车联网信息中的道路交通异常情况信息进行筛选和整合,可以包括:对来自多个路侧单元的道路交通异常情况信息进行筛选、选择、融合,获得对自车的行驶产生影响的道路交通异常情况信息。本领域技术人员可以理解,自车可以与多个路侧单元进行通讯,从而,可以获得来自多个路侧单元的道路交通异常情况信息。通过对道路交通异常情况信息进行整合后,可以获得对自车的行驶产生影响的道路交通异常情况信息,从而有利于对车辆的行驶路线做出预测。例如,道路交通异常情况信息可以包括道路施工信息、异常车辆信息、紧急车辆信息等。可以将从车联网信息中获取的道路施工信息、异常车辆信息、紧急车辆信息等进行筛选和整合后作为整合后的道路交通异常情况信息。例如,异常车辆可以包括故障车辆、失控车辆等。紧急车辆可以包括救护车、消防车、警车等。
在一种实施方式中,将车联网信息中的拥堵状况信息和地图信息中的导航路径规划信息结合,得到优化的导航路径规划信息,可以包括,从地图信息中可以得到多个由始发地至目的地的导航路径规划信息,结合车联网信息中的拥堵状况信息,可以摒弃受拥堵状况影响的导航路径规划信息,从而,得到优化的导航路径规划信息,可以更加高效地到达目的地。
在一种实施方式中,在S103中,基于整合后的道路交通情况信息,重构自车的驾驶场景,可以包括:
基于整合后的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息和优化的导航路径规划信息中的至少之一,重构自车的驾驶场景。
整合后的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息和优化的导航路径规划信息,均为优化后的信息,从而重构后的自车的驾驶场景更加接近于真实的驾驶环境,为驾驶员提供有效的辅助。
本领域技术人员可以理解,得到道路交通情况信息后,可以采用本领域的常规的重构技术重构自车的驾驶场景,在此,不再对重构自车的驾驶场景的重构过程进行详细描述。
在一种实施方式中,驾驶场景重构方法,还可以包括:
获取传感器信息和车联网信息中的目标信息;
对传感器信息和车联网信息中的目标信息进行整合;
基于整合后的道路交通情况信息和整合后的目标信息,重构自车的驾驶场景。
本领域技术人员可以理解,车辆的周围环境,除了周围的道路交通情况外,车辆周围还有很多目标(车辆或行人),这些目标的类型、方向、位置等也会对自车的驾驶产生影响。基于整合后的道路交通情况信息和整合后的目标信息,重构自车的驾驶场景,从而,得到的驾驶场景中,不仅可以反映道路交通情况,而且还反映出自车周围的目标信息,这样的驾驶场景更加符合真实的驾驶环境,并且,车辆周围的目标还可以对驾驶员起到预警的作用,使得驾驶员对碰撞危险可以进行预判,更好地提高驾驶的安全性。
在一种实施方式中,目标信息可以包括目标的尺寸信息、目标的类型信息(例如,车辆及车辆类型,或者,行人及行人类型)、目标的方向信息(例如,向前、向后、向左、向右)、目标的位置信息(例如,目标相对于自车的横坐标、纵坐标)等。车辆类型可以包括轿车、越野车、小客车、大客车、小货车、大货车、摩托车、两轮车等类型。行人类型可以包括大人、小孩等。
在一种实施方式中,获取传感器信息中的目标信息,可以包括以下至少一种:
接收来自雷达的点云数据,并解析该点云数据得到目标信息;
接收来自图像采集设备的视频流,并解析该视频流得到目标信息。
图6为根据本申请一实施例的驾驶场景重构方法中目标信息的示意图。在一种实施方式中,如图6所示,从雷达的点云数据中得到的目标信息可以包括目标的尺寸、目标的位置和目标的方向等信息。从图像采集设备的视频流中得到的目标信息可以包括目标的尺寸、目标的类型、目标的位置和目标的方向等信息。
在一种实施方式中,获取车联网信息中的目标信息,可以包括:
获取来自车载单元和/或路侧单元的目标信息。
从车联网信息中得到的目标信息,可以包括目标的类型、目标的位置、目标的方向等信息。
在一种实施方式中,对传感器信息和车联网信息中的目标信息进行整合,可以包括:对传感器信息和车联网信息中的目标信息进行筛选、对应、选择。输出整合后的目标类型、坐标、朝向(也称作方向)等。对于从传感器信息和车联网信息中得到的重复的目标信息,可以选择精度最优的信息作为整合后的信息。例如,从雷达的点云数据、图像采集设备的视频流和车联网信息中均可以获取到目标的位置信息。从雷达的点云数据中获取到的目标的位置信息精确度更高,那么,将从雷达的点云数据中获取到的目标的位置信息作为整合后的目标的位置信息。从车联网信息中获取到的目标的方向信息精确度更高,那么,将从车联网信息中获取到的目标的方向信息作为整合后的目标的方向信息。
对于本领域技术人员而言,传感器信息和车联网信息中的目标信息的精确度是已知的,从而,在信息整合过程中,可以直接设定信息的来源,或者,通过模型对信息进行筛选、对应、选择、融合。对传感器信息和车联网信息中的目标的尺寸、目标的类型、目标的位置和目标的方向等信息进行整合后,得到整合后的目标的尺寸、目标的类型、目标的位置和目标的方向等信息,并作为整合后的目标信息。
在一种实施方式中,驾驶场景重构方法,还可以包括:接收重构后的驾驶场景的数据,显示重构后的驾驶场景。这样,就可以将重构后的驾驶场景呈现在出来。
图7为根据本申请一实施例的驾驶场景重构方法重构出的驾驶场景的示意图。在一种实施方式中,整合后的道路交通情况信息包括自车所处的车道、左侧车道、右侧车道、车道线颜色、车道线类型和位于车道上的目标等。重构出的驾驶场景如图7所示,从图7中可以看出,驾驶场景包括自车11、自车11所处的车道、自车11的左侧车道、自车11的右侧车道、左侧车道上的相关目标、右侧车道上的相关目标以及车道线(颜色、类型)。驾驶场景中不仅显示了相关目标,而且还显示出目标的方向,例如车辆12的方向、车辆13的方向均可以从驾驶场景中清晰地获得。
在一种实施方式中,驾驶场景中可以仅包括与自车最相关的目标,例如,驾驶场景中可以显示自车前方3个目标、自车后方1个目标、自车左侧和右侧各1个目标的类型、方向和位置。
在一种实施方式中,驾驶场景中可以包括自车前方3个目标、自车后方1个目标、自车左侧和右侧各1个、自车左侧后方1个目标、自车左侧前方1个目标、自车右侧后方1个目标、自车右侧前方1个目标的类型、方向和位置。
这样的方式,可以在驾驶场景中显示出与自车最相关的目标信息,避免显示与自车相关性较弱的目标,使得显示画面更简洁、清晰,使得驾驶员有更多注意去关注最相关的目标,提高了驾驶员的体验,避免了显示冗余。
本领域技术人员可以理解,车辆在行驶过程中,有时候车辆周围并不存在相关目标,例如,自车的前方可能在几公里范围内都不存在车辆。为了避免显示的场景距离过大,在一种实施方式中,驾驶场景中可以包括位于自车一定范围内的车辆、行人。例如,目标可以为与自车横向距离在X1、纵向距离在Y1范围内的车辆、行人。横向距离X1和纵向距离Y1的数值可以根据实际需要确定。
图8为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图。图8所示的驾驶场景中,包括十字路口、与自车11所处的车道相垂直的车道以及位于该垂直车道上的车辆12和车辆13、限速标志14、交通灯15以及自车周围相关目标。图8所示的驾驶场景中不仅显示了相关目标,而且还显示出目标的方向,例如车辆12的车头朝向、车辆13的车头朝向均可以从驾驶场景中清晰地获得。
当自车位于丁字路口时,驾驶场景中可以包括丁字路口、与自车所处的车道相垂直的车道以及位于该垂直车道上的车辆、限速标志、交通灯以及自车周围相关目标。
图9为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图。图9所示的驾驶场景中,包括车道合并。自车11所在车道有其他车辆汇入,驾驶场景显示车道合并、汇入车道以及合并后车道上的相关车辆。
在一种实施方式中,当车辆驶入分叉车道时,驾驶场景中可以显示道路分叉信息、分叉车道和与自车位于同一车道的其他目标信息。
本领域技术人员可以理解,车辆有时会行驶在最左侧车道,那么,位于车辆左侧的车道即为对向车道。在一种实施方式中,驾驶场景中还可以包括对向车道信息。通常,对象车道不会对驾驶产生影响,在驾驶场景中,可以将对向车道显示为预定颜色例如灰色,并且不显示对向车道目标信息。本领域技术人员可以理解,在实际驾驶中,对象车道的目标通常不会对驾驶产生影响,所以,将对向车道显示为预定颜色,以及不显示对向车道目标信息,更加符合驾驶习惯,避免驾驶员关注不相关的道路交通情况信息。
在图7、图8和图9中,显示的目标为具体的车辆样式。本领域技术人员可以理解,可以从传感器信息和/或车联网信息中获取目标的轮廓信息,并对轮廓信息进行处理,使得驾驶场景中可以显示目标的具体样式。在另一个实施方式中,可以为常用的目标(车辆或行人)建立专用的目标模型库,可以从传感器信息和/或车联网信息中获取目标的类型,然后,从目标模型库中调取对应的目标模型呈现在驾驶场景中。例如,目标模型库中包括奔驰车的模型,当从图像采集装置中解析出奔驰车的车标时,便可以从目标模型库中调取奔驰车的模型,从而,将奔驰车的模型显示在驾驶场景中。
在一种实施方式中,实时获取传感器信息、车联网信息和地图信息中的道路交通情况信息、目标信息,从而,重构的驾驶场景中可以实时反馈车辆的周围环境状况,可以实时显示车辆的驾驶场景,更加接近于车辆的真实驾驶场景。
在一种实施方式中,可以将道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息、拥堵状况信息和导航路径规划信息结合,得到最优化的导航路径规划信息,并且,可以拟合出车辆行驶的最佳路线。
在一种实施方式中,根据拟合出的车辆行驶的最佳路线和自车所处车道,可以在驾驶场景中显示出车辆的下一步行驶路径和运动方向,可以通过箭头等方式在驾驶场景中指示出车辆的下一步运动方向(例如,左转、右转、掉头、变道、左前方或右前方等),使得重构的驾驶场景更真实、可靠,为驾驶员提供有效的辅助。
图10为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图。如图10所示,驾驶场景中显示出自车11的下一步行驶路径和运动方向(左转),并采用箭头的方式指示出。
图11为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图。如图11所示,驾驶场景中显示出自车11的下一步行驶路径和运动方向(变道),并采用箭头的方式指示出。
图12为根据本申请另一实施例的驾驶场景重构方法重构出的驾驶场景的示意图。如图12所示,驾驶场景中显示出自车11的下一步行驶路径和运动方向(右转进入匝道),并采用箭头的方式指示出。
本领域技术人员可以理解,目前,自动驾驶可以分为六个自动驾驶等级,分别为:L0(无自动化),由人类驾驶者全权驾驶汽车,在行驶过程中可以得到警告;L1(驾驶支持),通过驾驶环境对方向盘和加速减速中的一项操作提供支持,其余由人类操作;L2(部分自动化),通过驾驶环境对方向盘和加速减速中的多项操作提供支持,其余由人类操作;L3(有条件自动化),由无人驾驶系统完成所有的驾驶操作,根据系统要求,人类提供适当的应答;L4(高度自动化),由无人驾驶系统完成所有的驾驶操作,根据系统要求,人类不一定提供所有的应答,限定道路和环境条件;L5(完全自动化),由无人驾驶系统完成所有的驾驶操作,可能的情况下,人类接管,不限定道路和环境条件。自动驾驶等级不同,需要驾驶员的参与度不同。
在驾驶过程中,为了向驾驶员实时提醒车辆所处的驾驶等级,在一种实施方式中,驾驶场景重构方法,还可以包括:
提取自车的自动驾驶等级信息和等级提示信息;
基于整合后的道路交通情况信息、自动驾驶等级信息和等级提示信息,重构自车的驾驶场景。
通过提取自车的自动驾驶等级信息和等级提示信息,基于整合后的道路交通情况信息、自动驾驶等级信息和等级提示信息,重构自车的驾驶场景,可以在驾驶场景中明显地区分不同的驾驶等级,使得驾驶员更真切地感受不同驾驶等级的差异和变化,使得驾驶员可以实时地把握驾驶参与度。
在一种实施方式中,等级提示信息可以包括颜色信息、声音信息、闪烁信息等中的至少一种。例如,等级提示信息可以为颜色信息,自动驾驶等级与颜色信息对应,一个自动驾驶等级对应一种颜色。示例性地,可以将驾驶场景的背景颜色显示为与自动驾驶等级相对应的颜色。例如,当自动驾驶等级为L1时,驾驶场景的背景颜色显示为浅蓝色;当自动驾驶等级为L2时,驾驶场景的背景颜色显示为浅绿色;当自动驾驶等级为L3时,驾驶场景的背景颜色显示为浅紫色。
在一种实施方式中,可以将自车的颜色显示为与自动驾驶等级相对应的颜色。
在一种实施方式中,可以将车道线颜色显示为与自动驾驶等级相对应的颜色。
在一种实施方式中,等级提示信息可以为声音信息,自动驾驶等级与声音信息对应,一个自动驾驶等级对应一种声音。
本领域技术人员可以理解,等级提示信息的展示并不限于以上方式,只要重构的驾驶场景可以通过展示等级提示信息使得驾驶员感受车辆的驾驶等级,均在本申请所保护的范围内。
在一种实施方式中,等级提示信息可以为场景中显示的内容,通过设置场景中显示不同的内容体现不同的驾驶等级。示例性地,可以通过设置驾驶场景中显示的道路交通情况信息的元素种类或个数来体现不同的驾驶等级。例如,在L0驾驶等级时,重构出的驾驶场景中可以显示出所有的实时道路交通情况信息;在L1驾驶等级时,如果仅有横向控制功能,可以只显示车道线信息,如果仅有纵向控制功能,可以仅显示位于自车前侧或后侧的目标(例如车辆);在L2驾驶等级时,可以同时显示车道线信息、前侧目标和后侧目标;在L3驾驶等级时,可以同时显示车道线信息、前侧目标、后侧目标和道路变化情况;在L4驾驶等级时,凸出显示自车,其他元素简化显示;在L5驾驶等级时,可以仅显示自车,同时,驾驶场景中可以增加具有娱乐、会议、游戏等环节的场景。
本领域技术人员可以理解,自动驾驶可以分为多个自动驾驶功能。例如,自动驾驶功能中包括无横纵向控制;车道保持辅助系统(Lane Keep Assist,LKA)、车道居中辅助系统(Lane Center Assist,LCA),仅有纵向控制;高速路驾驶辅助(Highway Assist,HWA),即有横纵向控制,且驾驶员可以脱手脱脚;交通拥堵驾驶功能(Traffic Jam Pilot,TJP),即有横纵向控制,且驾驶员可以脱手脱脚脱眼。
在驾驶过程中,为了向驾驶员实时提醒车辆所采用的驾驶功能,在一种实施方式中,驾驶场景重构方法,还可以包括:
提取自车的自动驾驶功能信息和功能提示信息;
基于整合后的道路交通情况信息、自动驾驶功能信息和功能提示信息,重构自车的驾驶场景。
这样的驾驶场景重构方法,可以在驾驶场景中明显地区分不同的驾驶功能,使得驾驶员更真切地感受不同的驾驶功能的差异和变化,使得驾驶员可以实时地把握驾驶参与度。
在一种实施方式中,功能提示信息可以包括巡航速度信息、车道线颜色信息、声音信息、闪烁信息等中的至少一种。例如,可以采用巡航速度信息作为纵向控制功能的提示信息,可以采用车道线颜色信息作为横向控制功能的提示信息。采用巡航速度的变化来体现纵向控制功能,可以采用车道线颜色变化来体现横向控制功能。例如,无横纵向控制时,车道线颜色显示为白色;HWA功能时,车道线颜色显示为红色;TJP功能时,车道线颜色显示为黄色。
本领域技术人员可以理解,功能提示信息的展示并不限于以上方式,只要重构的驾驶场景可以通过展示功能提示信息使得驾驶员感受车辆的驾驶功能,均在本申请所保护的范围内。
本申请的驾驶场景重构方法,可以实时获取传感器信息、车联网信息和地图信息中的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息、目标信息和优化后的导航路径规划信息,并且对这些信息进行整合,基于整合后的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息、目标信息和优化的导航路径规划信息,重构自车的驾驶场景。从而,重构出的驾驶场景,可以根据自车所处的道路实际环境,自适应地调节驾驶场景的内容,并且向用户展示与自车自动驾驶任务最相关的信息,例如,可以向用户展示出交通灯、交通灯的状态、限速标志及数值、自车所处车道、周围车辆所处车道、车道线的颜色和类型等;当道路交通场景变化时,可以根据自车所处道路的实际情况,向用户展示十字路口、道路合并、道路分叉或匝道等;当驾驶场景中显示对向车道信息时,可以将对向车道显示为灰色,并且不显示对象车道目标信息;当自车所处环境中,存在会影响行驶的道路施工、异常车辆或紧急车辆等时,重构的驾驶场景中会显示出道路施工、异常车辆或紧急车辆等;并且,自车的行驶路径为最优的行驶路径。总之,本申请的驾驶场景重构方法,融合了来自ADAS传感器的传感器信息、来自V2X的车联网信息和地图信息,丰富了自动驾驶车辆周围环境的信息来源,而且,该驾驶场景重构方法,结合了道路交通情况信息和自车周围的目标信息,从而,重构的驾驶场景可以实时反映自车当前的真实驾驶环境,更符合自动驾驶状态下和普通驾驶状态下用户的实际需求,可以为驾驶员提供更有效的辅助作用,提升驾驶的安全性。
需要说明的是,尽管已经列举了道路交通情况信息的详细内容,但本领域技术人员能够理解,道路交通情况信息并不限于所列举的内容。事实上,用户完全可根据个人喜好和/或实际应用场景灵活设定从传感器信息、车联网信息和地图信息中获取的道路交通情况信息的内容,只要采用本申请的驾驶场景重构方法来重构自车的驾驶场景均在本申请的保护范围之内。
图13为根据本申请一实施例的驾驶场景重构装置的结构框图。本申请实施例还提供了一种驾驶场景重构装置,如图13所示,该驾驶场景重构装置,可以包括:
获取模块21,用于获取传感器信息、车联网信息和地图信息中的道路交通情况信息;
整合模块22,与获取模块21连接,用于对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;
重构模块23,与整合模块22连接,用于基于整合后的道路交通情况信息,重构自车的驾驶场景。
图14为根据本申请一实施例的驾驶场景重构装置的获取模块的结构框图。在一种实施方式中,如图14所示,获取模块21可以包括以下至少之一:
点云数据获取子模块211,用于接收来自雷达的点云数据,并解析所述点云数据得到道路标识信息;
视频流获取子模块212,用于接收来自图像采集设备的视频流,并解析所述视频流得到道路标识信息和车道线信息。
在一种实施方式中,获取模块21可以包括:
车联网信息获取子模块213,用于获取来自车载单元和/或路侧单元的道路标识信息、车道线信息、道路交通异常情况信息和拥堵状况信息中的至少之一。
在一种实施方式中,获取模块21可以包括:
地图信息获取子模块214,用于从地图信息获取道路标识信息、车道线信息、道路交通场景信息和导航路径规划信息中的至少之一。
图15为根据本申请一实施例的驾驶场景重构装置的整合模块的结构框图。在一种实施方式中,如图15所示,整合模块22包括以下至少之一:
道路标识信息整合子模块221,用于对所述传感器信息、所述车联网信息和所述地图信息中的道路标识信息进行整合;
车道线信息整合子模块222,用于对所述传感器信息、所述车联网信息和所述地图信息中的车道线信息进行整合;
场景信息整合子模块223,用于对地图信息中的道路交通场景信息进行整合;
异常情况信息整合子模块224,用于对车联网信息中的道路交通异常情况信息进行筛选和整合;
导航路径优化子模块225,用于将车联网信息中的拥堵状况信息和所述地图信息中的导航路径规划信息结合,得到优化的导航路径规划信息。
在一种实施方式中,道路标识信息包括交通灯信息和/或限速标志信息。
在一种实施方式中,车道线信息包括自车所处车道的信息、周边车辆所处车道的信息、车道线的颜色信息、车道线的类型信息和车道线的位置信息中的至少之一。
在一种实施方式中,道路交通场景信息包括十字路口信息、道路合并信息、道路分叉信息和匝道信息中的至少之一。
在一种实施方式中,道路交通异常情况信息包括道路施工信息、异常车辆信息和紧急车辆信息中的至少之一。
在一种实施方式中,重构模块23用于基于整合后的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息和优化的导航路径规划信息中的至少之一,重构自车的驾驶场景。
在一种实施方式中,获取模块21还用于获取所述传感器信息和所述车联网信息中的目标信息;整合模块22还用于对所述传感器信息和所述车联网信息中的目标信息进行整合;重构模块23用于基于整合后的道路交通情况信息和整合后的目标信息,重构自车的驾驶场景。
在一种实施方式中,目标信息包括目标的尺寸信息、类型信息、位置信息和方向信息中的至少之一。
在一种实施方式中,如图13所示,驾驶场景重构装置还可以包括:
提取模块24,用于提取自车的自动驾驶等级信息和等级提示信息;
重构模块23用于基于整合后的道路交通情况信息、自动驾驶等级信息和等级提示信息,重构自车的驾驶场景。
在一种实施方式中,驾驶场景重构装置还可以包括:
提取模块24,用于提取自车的自动驾驶功能信息和功能提示信息;
重构模块23用于基于整合后的道路交通情况信息、自动驾驶功能信息和功能提示信息,重构自车的驾驶场景。
本申请实施例中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
图16为根据本申请一实施例的驾驶场景重构系统的结构框图。本申请实施例还提供了一种驾驶场景重构系统,如图16所示,该驾驶场景重构系统,包括以上所述的驾驶场景重构装置20,驾驶场景重构系统还可以包括:
传感器31,与驾驶场景重构装置20中连接,用于采集并向驾驶场景重构装置20输出传感器信息;
车联网装置32,与驾驶场景重构装置20连接,用于向驾驶场景重构装置输出车联网信息;
地图装置33,与驾驶场景重构装置20连接,用于向驾驶场景重构装置输出地图信息;
显示装置34,与所述驾驶场景重构装置连接,用于从所述驾驶场景重构装置接收重构后的驾驶场景的数据,显示重构后的驾驶场景。
在一种实施方式中,传感器21、车联网装置32、地图装置33均与驾驶场景重构装置20中的获取模块21连接。显示装置34可以与驾驶场景重构装置20中的重构装置连接。本领域技术人员可以理解,“连接”为电气连接,可以为CAN连接,或者可以为WIFI连接,或者可以为网络连接等。
在一种实施方式中,驾驶场景重构装置可以为控制器,控制器集成有获取模块、整合模块、提取模块和重构模块。显示装置可以为车辆中的具有显示功能的仪表控制器。在一种实施方式中,控制器集成有获取模块、整合模块、提取模块。显示装置可以为车辆中的具有显示功能的仪表控制器,仪表控制器可以实现重构模块的功能和显示的功能。
本申请实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
本申请实施例还提供了一种车辆,在一种实施方式中,车辆可以包括以上所述的驾驶场景重构装置。在一种实施方式中,车辆可以包括以上所述的驾驶场景重构系统。
图17为根据本申请一实施例的电子设备的结构框图。本申请实施例还提供了一种电子设备,如图17所示,该电子设备包括:至少一个处理器920,以及与至少一个处理器920通信连接的存储器910。存储器910内存储有可被至少一个处理器920执行的指令。指令被至少一个处理器920执行。处理器920执行该指令时实现上述实施例中的驾驶场景重构方法。存储器910和处理器920的数量可以为一个或多个。该电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
该电子设备还可以包括通信接口930,用于与外界设备进行通信,进行数据交互传输。各个设备利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器920可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,图17中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器910、处理器920及通信接口930集成在一块芯片上,则存储器910、处理器920及通信接口930可以通过内部接口完成相互间的通信。
应理解的是,上述处理器可以是中央处理器(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者是任何常规的处理器等。值得说明的是,处理器可以是支持进阶精简指令集机器(Advanced RISC Machines,ARM)架构的处理器。
本申请实施例提供了一种计算机可读存储介质(如上述的存储器910),其存储有计算机指令,该程序被处理器执行时实现本申请实施例中提供的方法。
可选的,存储器910可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据驾驶场景重构方法的电子设备的使用所创建的数据等。此外,存储器910可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器910可选包括相对于处理器920远程设置的存储器,这些远程存储器可以通过网络连接至驾驶场景重构方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或多个(两个或两个以上)用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分。并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。
应理解的是,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。上述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。该存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (32)
1.一种驾驶场景重构方法,其特征在于,包括:
获取传感器信息、车联网信息和地图信息中的道路交通情况信息;
对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;
基于整合后的道路交通情况信息,重构自车的驾驶场景。
2.根据权利要求1所述的方法,其特征在于,获取传感器信息中的道路交通情况信息,包括以下至少之一:
接收来自雷达的点云数据,并解析所述点云数据得到道路标识信息;
接收来自图像采集设备的视频流,并解析所述视频流得到道路标识信息和车道线信息。
3.根据权利要求1所述的方法,其特征在于,获取车联网信息中的道路交通情况信息,包括:
获取来自车载单元和/或路侧单元的道路标识信息、车道线信息、道路交通异常情况信息和拥堵状况信息中的至少之一。
4.根据权利要求1所述的方法,其特征在于,获取地图信息中的道路交通情况信息,包括:
从地图信息获取道路标识信息、车道线信息、道路交通场景信息和导航路径规划信息中的至少之一。
5.根据权利要求1所述的方法,其特征在于,对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合,包括以下至少之一:
对所述传感器信息、所述车联网信息和所述地图信息中的道路标识信息进行整合;
对所述传感器信息、所述车联网信息和所述地图信息中的车道线信息进行整合;
对所述地图信息中的道路交通场景信息进行整合;
对所述车联网信息中的道路交通异常情况信息进行筛选和整合;
将所述车联网信息中的拥堵状况信息和所述地图信息中的导航路径规划信息结合,得到优化的导航路径规划信息。
6.根据权利要求2至5中任一项所述的方法,其特征在于,所述道路标识信息包括交通灯信息和/或限速标志信息。
7.根据权利要求2至5中任一项所述的方法,其特征在于,所述车道线信息包括自车所处车道的信息、周边车辆所处车道的信息、车道线的颜色信息、车道线的类型信息和车道线的位置信息中的至少之一。
8.根据权利要求4或5所述的方法,其特征在于,所述道路交通场景信息包括十字路口信息、道路合并信息、道路分叉信息和匝道信息中的至少之一。
9.根据权利要求3或5所述的方法,其特征在于,所述道路交通异常情况信息包括道路施工信息、异常车辆信息和紧急车辆信息中的至少之一。
10.根据权利要求1至5中任一项所述的方法,其特征在于,基于整合后的道路交通情况信息,重构自车的驾驶场景,包括:
基于整合后的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息和优化的导航路径规划信息中的至少之一,重构自车的驾驶场景。
11.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
获取所述传感器信息和所述车联网信息中的目标信息;
对所述传感器信息和所述车联网信息中的目标信息进行整合;
基于整合后的道路交通情况信息和整合后的目标信息,重构自车的驾驶场景。
12.根据权利要求11所述的方法,其特征在于,所述目标信息包括目标的尺寸信息、类型信息、位置信息和方向信息中的至少之一。
13.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
提取自车的自动驾驶等级信息和等级提示信息;
基于整合后的道路交通情况信息、自动驾驶等级信息和等级提示信息,重构自车的驾驶场景。
14.根据权利要求1至5中任一项所述的方法,其特征在于,所述方法还包括:
提取自车的自动驾驶功能信息和功能提示信息;
基于整合后的道路交通情况信息、自动驾驶功能信息和功能提示信息,重构自车的驾驶场景。
15.一种驾驶场景重构装置,其特征在于,包括:
获取模块,用于获取传感器信息、车联网信息和地图信息中的道路交通情况信息;
整合模块,用于对所述传感器信息、所述车联网信息和所述地图信息中的道路交通情况信息进行整合;
重构模块,用于基于整合后的道路交通情况信息,重构自车的驾驶场景。
16.根据权利要求15所述的装置,其特征在于,所述获取模块包括以下至少之一:
点云数据获取子模块,用于接收来自雷达的点云数据,并解析所述点云数据得到道路标识信息;
视频流获取子模块,用于接收来自图像采集设备的视频流,并解析所述视频流得到道路标识信息和车道线信息。
17.根据权利要求15所述的装置,其特征在于,所述获取模块包括:
车联网信息获取子模块,用于获取来自车载单元和/或路侧单元的道路标识信息、车道线信息、道路交通异常情况信息和拥堵状况信息中的至少之一。
18.根据权利要求15所述的装置,其特征在于,所述获取模块包括:
地图信息获取子模块,用于从地图信息获取道路标识信息、车道线信息、道路交通场景信息和导航路径规划信息中的至少之一。
19.根据权利要求15所述的装置,其特征在于,所述整合模块包括以下至少之一:
道路标识信息整合子模块,用于对所述传感器信息、所述车联网信息和所述地图信息中的道路标识信息进行整合;
车道线信息整合子模块,用于对所述传感器信息、所述车联网信息和所述地图信息中的车道线信息进行整合;
场景信息整合子模块,用于对所述地图信息中的道路交通场景信息进行整合;
异常情况信息整合子模块,用于对所述车联网信息中的道路交通异常情况信息进行筛选和整合;
导航路径优化子模块,用于将所述车联网信息中的拥堵状况信息和所述地图信息中的导航路径规划信息结合,得到优化的导航路径规划信息。
20.根据权利要求16至19中任一项所述的装置,其特征在于,所述道路标识信息包括交通灯信息和/或限速标志信息。
21.根据权利要求16至19中任一项所述的装置,其特征在于,所述车道线信息包括自车所处车道的信息、周边车辆所处车道的信息、车道线的颜色信息、车道线的类型信息和车道线的位置信息中的至少之一。
22.根据权利要求18或19所述的装置,其特征在于,所述道路交通场景信息包括十字路口信息、道路合并信息、道路分叉信息和匝道信息中的至少之一。
23.根据权利要求17或19所述的装置,其特征在于,所述道路交通异常情况信息包括道路施工信息、异常车辆信息和紧急车辆信息中的至少之一。
24.根据权利要求15至19中任一项所述的装置,其特征在于,所述重构模块用于基于整合后的道路标识信息、车道线信息、道路交通场景信息、道路交通异常情况信息和优化的导航路径规划信息中的至少之一,重构自车的驾驶场景。
25.根据权利要求15至19中任一项所述的装置,其特征在于,
所述获取模块还用于获取所述传感器信息和所述车联网信息中的目标信息;
所述整合模块还用于对所述传感器信息和所述车联网信息中的目标信息进行整合;
所述重构模块用于基于整合后的道路交通情况信息和整合后的目标信息,重构自车的驾驶场景。
26.根据权利要求25所述的装置,其特征在于,所述目标信息包括目标的尺寸信息、类型信息、位置信息和方向信息中的至少之一。
27.根据权利要求15至19中任一项所述的装置,其特征在于,所述装置还包括:
提取模块,用于提取自车的自动驾驶等级信息和等级提示信息;
所述重构模块用于基于整合后的道路交通情况信息、自动驾驶等级信息和等级提示信息,重构自车的驾驶场景。
28.根据权利要求15至19中任一项所述的装置,其特征在于,所述装置还包括:
提取模块,用于提取自车的自动驾驶功能信息和功能提示信息;
所述重构模块用于基于整合后的道路交通情况信息、自动驾驶功能信息和功能提示信息,重构自车的驾驶场景。
29.一种驾驶场景重构系统,其特征在于,包括权利要求15至28中任一项所述的驾驶场景重构装置,所述系统还包括:
传感器,与所述驾驶场景重构装置连接,用于采集并向所述驾驶场景重构装置输出传感器信息;
车联网装置,与所述驾驶场景重构装置连接,用于向所述驾驶场景重构装置输出车联网信息;
地图装置,与所述驾驶场景重构装置连接,用于向所述驾驶场景重构装置输出地图信息;
显示装置,与所述驾驶场景重构装置连接,用于从所述驾驶场景重构装置接收重构后的驾驶场景的数据,显示重构后的驾驶场景。
30.一种车辆,其特征在于,包括权利要求15至28中任一项所述的驾驶场景重构装置,或者,包括权利要求29所述的驾驶场景重构系统。
31.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-14中任一项所述的方法。
32.一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机指令,所述计算机指令被处理器执行时实现如权利要求1-14中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010685995.5A CN111880533B (zh) | 2020-07-16 | 2020-07-16 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
PCT/CN2021/085226 WO2022012094A1 (zh) | 2020-07-16 | 2021-04-02 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010685995.5A CN111880533B (zh) | 2020-07-16 | 2020-07-16 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111880533A true CN111880533A (zh) | 2020-11-03 |
CN111880533B CN111880533B (zh) | 2023-03-24 |
Family
ID=73155618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010685995.5A Active CN111880533B (zh) | 2020-07-16 | 2020-07-16 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111880533B (zh) |
WO (1) | WO2022012094A1 (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560253A (zh) * | 2020-12-08 | 2021-03-26 | 中国第一汽车股份有限公司 | 驾驶场景的重构方法、装置、设备及存储介质 |
CN112590670A (zh) * | 2020-12-07 | 2021-04-02 | 安徽江淮汽车集团股份有限公司 | 三车道环境显示方法、装置、设备及存储介质 |
CN112612287A (zh) * | 2020-12-28 | 2021-04-06 | 清华大学 | 一种自动驾驶汽车局部路径规划系统、方法、介质及设备 |
CN113033684A (zh) * | 2021-03-31 | 2021-06-25 | 浙江吉利控股集团有限公司 | 一种车辆预警方法、装置、设备及存储介质 |
CN113460086A (zh) * | 2021-06-30 | 2021-10-01 | 重庆长安汽车股份有限公司 | 自动驾驶进入匝道的控制系统、方法、车辆及存储介质 |
CN113547979A (zh) * | 2021-07-01 | 2021-10-26 | 深圳元戎启行科技有限公司 | 车辆行为信息提示方法、装置、计算机设备和存储介质 |
CN113706870A (zh) * | 2021-08-30 | 2021-11-26 | 广州文远知行科技有限公司 | 一种拥堵场景下主车换道数据的收集方法及相关设备 |
CN113947893A (zh) * | 2021-09-03 | 2022-01-18 | 网络通信与安全紫金山实验室 | 一种自动驾驶车辆行车场景还原方法及系统 |
WO2022012094A1 (zh) * | 2020-07-16 | 2022-01-20 | 华人运通(上海)自动驾驶科技有限公司 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
CN114013452A (zh) * | 2021-09-29 | 2022-02-08 | 江铃汽车股份有限公司 | 自动驾驶控制方法、系统、可读存储介质及车辆 |
CN114104002A (zh) * | 2021-12-21 | 2022-03-01 | 华人运通(江苏)技术有限公司 | 自动驾驶系统监控方法、装置、设备和存储介质 |
CN114170803A (zh) * | 2021-12-15 | 2022-03-11 | 阿波罗智联(北京)科技有限公司 | 路侧感知系统和交通控制方法 |
CN114291102A (zh) * | 2021-12-13 | 2022-04-08 | 浙江华锐捷技术有限公司 | 辅助驾驶策略融合方法、系统、车辆和可读存储介质 |
CN114435403A (zh) * | 2022-02-22 | 2022-05-06 | 重庆长安汽车股份有限公司 | 一种基于环境信息的导航定位校核系统及方法 |
CN115115779A (zh) * | 2022-06-28 | 2022-09-27 | 重庆长安汽车股份有限公司 | 一种道路场景重构方法、系统、设备和介质 |
CN115237121A (zh) * | 2022-06-21 | 2022-10-25 | 重庆长安汽车股份有限公司 | 基于场景重构的远程召唤方法、系统及可读存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114413952B (zh) * | 2022-01-29 | 2023-06-16 | 重庆长安汽车股份有限公司 | 一种汽车仪表场景重构的测试方法 |
CN114513887A (zh) * | 2022-02-15 | 2022-05-17 | 遥相科技发展(北京)有限公司 | 一种基于车联网的驾驶辅助方法及系统 |
CN115474176B (zh) * | 2022-08-22 | 2024-03-08 | 武汉大学 | 自动驾驶地图中车-路-云三端数据的交互方法及设备 |
CN115523939B (zh) * | 2022-09-21 | 2023-10-20 | 合肥工业大学智能制造技术研究院 | 一种基于认知地图的驾驶信息可视化系统 |
CN115727855A (zh) * | 2022-11-29 | 2023-03-03 | 长城汽车股份有限公司 | 智能驾驶路径学习方法、自动巡航方法、相关设备及车辆 |
CN116052454A (zh) * | 2023-01-06 | 2023-05-02 | 中国第一汽车股份有限公司 | 车辆行驶数据确定方法、装置及电子设备 |
CN116046014B (zh) * | 2023-03-31 | 2023-06-30 | 小米汽车科技有限公司 | 道线规划方法、装置、电子设备及可读存储介质 |
CN116608879A (zh) * | 2023-05-19 | 2023-08-18 | 亿咖通(湖北)技术有限公司 | 信息显示方法、设备、存储介质及程序产品 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107533800A (zh) * | 2015-03-24 | 2018-01-02 | 日本先锋公司 | 地图信息存储装置、自动驾驶控制装置、控制方法、程序及存储介质 |
US20190130765A1 (en) * | 2017-10-31 | 2019-05-02 | Cummins Inc. | Sensor fusion and information sharing using inter-vehicle communication |
CN110069064A (zh) * | 2019-03-19 | 2019-07-30 | 驭势科技(北京)有限公司 | 一种自动驾驶系统升级的方法、自动驾驶系统及车载设备 |
CN110083163A (zh) * | 2019-05-20 | 2019-08-02 | 三亚学院 | 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统 |
CN110126810A (zh) * | 2018-02-09 | 2019-08-16 | 本田技研工业株式会社 | 自动驾驶车辆以及车辆控制方法 |
CN110232257A (zh) * | 2019-07-02 | 2019-09-13 | 吉林大学 | 一种自动驾驶测试场景的构建方法及其难度系数计算方法 |
CN110758243A (zh) * | 2019-10-31 | 2020-02-07 | 的卢技术有限公司 | 一种车辆行驶过程中的周围环境显示方法和系统 |
CN110926487A (zh) * | 2018-09-19 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 辅助驾驶方法、辅助驾驶系统、计算设备及存储介质 |
CN111402588A (zh) * | 2020-04-10 | 2020-07-10 | 河北德冠隆电子科技有限公司 | 基于时空轨迹重构异常道路高精地图快速生成系统与方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111880533B (zh) * | 2020-07-16 | 2023-03-24 | 华人运通(上海)自动驾驶科技有限公司 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
-
2020
- 2020-07-16 CN CN202010685995.5A patent/CN111880533B/zh active Active
-
2021
- 2021-04-02 WO PCT/CN2021/085226 patent/WO2022012094A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107533800A (zh) * | 2015-03-24 | 2018-01-02 | 日本先锋公司 | 地图信息存储装置、自动驾驶控制装置、控制方法、程序及存储介质 |
US20190130765A1 (en) * | 2017-10-31 | 2019-05-02 | Cummins Inc. | Sensor fusion and information sharing using inter-vehicle communication |
CN110126810A (zh) * | 2018-02-09 | 2019-08-16 | 本田技研工业株式会社 | 自动驾驶车辆以及车辆控制方法 |
CN110926487A (zh) * | 2018-09-19 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 辅助驾驶方法、辅助驾驶系统、计算设备及存储介质 |
CN110069064A (zh) * | 2019-03-19 | 2019-07-30 | 驭势科技(北京)有限公司 | 一种自动驾驶系统升级的方法、自动驾驶系统及车载设备 |
CN110083163A (zh) * | 2019-05-20 | 2019-08-02 | 三亚学院 | 一种用于自动驾驶汽车的5g c-v2x车路云协同感知方法及系统 |
CN110232257A (zh) * | 2019-07-02 | 2019-09-13 | 吉林大学 | 一种自动驾驶测试场景的构建方法及其难度系数计算方法 |
CN110758243A (zh) * | 2019-10-31 | 2020-02-07 | 的卢技术有限公司 | 一种车辆行驶过程中的周围环境显示方法和系统 |
CN111402588A (zh) * | 2020-04-10 | 2020-07-10 | 河北德冠隆电子科技有限公司 | 基于时空轨迹重构异常道路高精地图快速生成系统与方法 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022012094A1 (zh) * | 2020-07-16 | 2022-01-20 | 华人运通(上海)自动驾驶科技有限公司 | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 |
CN112590670A (zh) * | 2020-12-07 | 2021-04-02 | 安徽江淮汽车集团股份有限公司 | 三车道环境显示方法、装置、设备及存储介质 |
CN112560253B (zh) * | 2020-12-08 | 2023-02-24 | 中国第一汽车股份有限公司 | 驾驶场景的重构方法、装置、设备及存储介质 |
CN112560253A (zh) * | 2020-12-08 | 2021-03-26 | 中国第一汽车股份有限公司 | 驾驶场景的重构方法、装置、设备及存储介质 |
CN112612287B (zh) * | 2020-12-28 | 2022-03-15 | 清华大学 | 一种自动驾驶汽车局部路径规划系统、方法、介质及设备 |
CN112612287A (zh) * | 2020-12-28 | 2021-04-06 | 清华大学 | 一种自动驾驶汽车局部路径规划系统、方法、介质及设备 |
CN113033684A (zh) * | 2021-03-31 | 2021-06-25 | 浙江吉利控股集团有限公司 | 一种车辆预警方法、装置、设备及存储介质 |
CN113460086A (zh) * | 2021-06-30 | 2021-10-01 | 重庆长安汽车股份有限公司 | 自动驾驶进入匝道的控制系统、方法、车辆及存储介质 |
CN113547979A (zh) * | 2021-07-01 | 2021-10-26 | 深圳元戎启行科技有限公司 | 车辆行为信息提示方法、装置、计算机设备和存储介质 |
CN113706870A (zh) * | 2021-08-30 | 2021-11-26 | 广州文远知行科技有限公司 | 一种拥堵场景下主车换道数据的收集方法及相关设备 |
CN113947893A (zh) * | 2021-09-03 | 2022-01-18 | 网络通信与安全紫金山实验室 | 一种自动驾驶车辆行车场景还原方法及系统 |
CN114013452A (zh) * | 2021-09-29 | 2022-02-08 | 江铃汽车股份有限公司 | 自动驾驶控制方法、系统、可读存储介质及车辆 |
CN114013452B (zh) * | 2021-09-29 | 2024-02-06 | 江铃汽车股份有限公司 | 自动驾驶控制方法、系统、可读存储介质及车辆 |
CN114291102A (zh) * | 2021-12-13 | 2022-04-08 | 浙江华锐捷技术有限公司 | 辅助驾驶策略融合方法、系统、车辆和可读存储介质 |
CN114170803A (zh) * | 2021-12-15 | 2022-03-11 | 阿波罗智联(北京)科技有限公司 | 路侧感知系统和交通控制方法 |
CN114170803B (zh) * | 2021-12-15 | 2023-06-16 | 阿波罗智联(北京)科技有限公司 | 路侧感知系统和交通控制方法 |
CN114104002A (zh) * | 2021-12-21 | 2022-03-01 | 华人运通(江苏)技术有限公司 | 自动驾驶系统监控方法、装置、设备和存储介质 |
CN114104002B (zh) * | 2021-12-21 | 2023-11-21 | 华人运通(江苏)技术有限公司 | 自动驾驶系统监控方法、装置、设备和存储介质 |
CN114435403B (zh) * | 2022-02-22 | 2023-11-03 | 重庆长安汽车股份有限公司 | 一种基于环境信息的导航定位校核系统及方法 |
CN114435403A (zh) * | 2022-02-22 | 2022-05-06 | 重庆长安汽车股份有限公司 | 一种基于环境信息的导航定位校核系统及方法 |
CN115237121A (zh) * | 2022-06-21 | 2022-10-25 | 重庆长安汽车股份有限公司 | 基于场景重构的远程召唤方法、系统及可读存储介质 |
CN115115779A (zh) * | 2022-06-28 | 2022-09-27 | 重庆长安汽车股份有限公司 | 一种道路场景重构方法、系统、设备和介质 |
CN115115779B (zh) * | 2022-06-28 | 2024-07-26 | 重庆长安汽车股份有限公司 | 一种道路场景重构方法、系统、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022012094A1 (zh) | 2022-01-20 |
CN111880533B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111880533B (zh) | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 | |
CN111915915A (zh) | 驾驶场景重构方法、装置、系统、车辆、设备及存储介质 | |
CN109426256B (zh) | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 | |
US11312372B2 (en) | Vehicle path prediction | |
US10457294B1 (en) | Neural network based safety monitoring system for autonomous vehicles | |
CN110371114B (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
DE102021117456A1 (de) | Systeme und verfahren zur risikobewertung und gerichteten warnung bei fussgängerüberwegen | |
JP2019053574A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP7526795B2 (ja) | 自動運転装置、車両制御方法 | |
DE112018004507T5 (de) | Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm | |
JP2020053046A (ja) | 交通情報を表示するための運転者支援システム及び方法 | |
JP6906052B2 (ja) | 車両の方向転換時のバーチャネルカメラの向きを調整するための方法およびシステム | |
US20220073104A1 (en) | Traffic accident management device and traffic accident management method | |
EP3627110B1 (en) | Method for planning trajectory of vehicle | |
CN109952491B (zh) | 生成由车辆的感知系统检测的对象的表示的方法和系统 | |
CN112825127B (zh) | 生成用于自动驾驶标记的紧密2d边界框的方法 | |
WO2021193099A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN110949389A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
CN117836184A (zh) | 用于自主车辆的互补控制系统 | |
CN115520100A (zh) | 汽车电子后视镜系统及车辆 | |
JP7183438B2 (ja) | 運転支援装置、運転支援方法及びプログラム | |
Bejgam | Brief study and review on the next revolutionary autonomous vehicle technology | |
US20210291736A1 (en) | Display control apparatus, display control method, and computer-readable storage medium storing program | |
US20220092313A1 (en) | Method for deep neural network functional module deduplication | |
US20210284195A1 (en) | Obstacle prediction system for autonomous driving vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |