CN116337102A - 基于数字孪生技术的无人驾驶环境感知与导航方法 - Google Patents
基于数字孪生技术的无人驾驶环境感知与导航方法 Download PDFInfo
- Publication number
- CN116337102A CN116337102A CN202310319686.XA CN202310319686A CN116337102A CN 116337102 A CN116337102 A CN 116337102A CN 202310319686 A CN202310319686 A CN 202310319686A CN 116337102 A CN116337102 A CN 116337102A
- Authority
- CN
- China
- Prior art keywords
- data
- vehicle
- road
- digital twin
- road condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000005516 engineering process Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 131
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000004088 simulation Methods 0.000 claims description 14
- 238000010276 construction Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 7
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 230000009977 dual effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 239000000523 sample Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000008447 perception Effects 0.000 abstract description 13
- 238000001914 filtration Methods 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003245 coal Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- -1 mine Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明的一种基于数字孪生技术的无人驾驶环境感知与导航方法,属于无人驾驶环境感知技术领域。包括:S100、获取数据;S200、全景拼接;S300、识别分类;S400、数据处理得到基础路况数据和高级路况数据;S500、发送基础路况数据和高级路况数据给行驶中的无人驾驶车辆;S600、构建数字孪生动画数据;S700、无人驾驶车辆计算机接收并处理数字孪生逻辑数据。在道路上设有探测杆用于获取车辆和路段数据,探测杆关联动态追踪算法建立该车辆与路段车辆的对应关系,从中筛选出车辆在路况信息中的具体位置,最后基于交通数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,实现环境感知与实时导航规划。
Description
技术领域
本发明属于无人驾驶环境感知技术领域,具体来说是一种基于数字孪生技术的无人驾驶环境感知与导航方法。
背景技术
现有无人驾驶车辆利用车载多传感器(摄像头、激光雷达、毫米波雷达、超声波雷达)实现周围环境的感知,由于现阶段激光雷达的成本高昂,难以在经济型车辆上配置部署;而毫米波雷达的探测精度、探测距离与自身的体积、功率技术指标存在直接关系,受无人驾驶车辆自身电源、载重、尺寸的限制,高精度、高探测距离的毫米波雷达难以在常规的乘用车、工程车辆中配置使用;摄像头成本相对低廉,且技术较成熟,但摄像头容易受自身视线以及环境光的影响,在前方存在遮挡物或黑夜、雾天等特殊场景下将影响无人驾驶车辆的环境感知准确度;超声波雷达成本低廉,但探测距离较短,且精度有限。因此,现有的无人驾驶环境感知技术方法受一些因素影响,在探测准确度、探测距离技术指标方面存在瓶颈,而在实际部署应用中的成本与效益指标方面存在矛盾。
经过检索,中国发明专利:一种基于数字孪生的无人驾驶运动规划方法(公开号为:CN113359709A,公开日为2021-09-07),该申请案的方法包括:获取车辆周围的环境数据及车身姿态数据;根据环境数据及车身姿态数据构建数字孪生驾驶场景;生成多种紧急事件模拟驾驶场景,并分别对多种紧急事件模拟驾驶场景进行规划得到多个分别对应的规划结果;将数字孪生驾驶场景与多种紧急事件模拟驾驶场景进行实时匹配,得到匹配紧急事件模拟驾驶场景;将匹配紧急事件模拟驾驶场景对应的规划结果传送到车辆。通过预先生成多种紧急事件模拟驾驶场景并生成相应的运动规划结果,直接匹配同步到车辆中,提高无人驾驶系统在面对紧急事件时的反应灵敏度,提高无人驾驶系统的安全性与可靠性。但是该申请案的不足之处在于容易受到环境数据采集不准确的影响,提高准确度又存在设备成本太高的问题。
发明内容
1.发明要解决的技术问题
本发明的目的在于解决现有的现有无人驾驶车辆通过车载传感器进行收集环境数据存在容易受到环境数据采集不准确的影响,提高准确度又存在设备成本太高的问题。
2.技术方案
为达到上述目的,本发明提供的技术方案为:
本发明的一种基于数字孪生技术的无人驾驶环境感知与导航方法,所述方法包括如下步骤:
S100、获取数据;
S200、全景拼接;
S300、识别分类;
S400、数据处理得到基础路况数据和高级路况数据;
S500、发送基础路况数据和高级路况数据给行驶中的无人驾驶车辆;
S600、构建数字孪生动画数据;
S700、无人驾驶车辆计算机接收并处理数字孪生逻辑数据。
优选的,所述步骤S100中的获取数据具体为:
在车辆行驶的道路两旁或工程施工区域设置探测杆,所述探测杆顶端设有探测装置,所述探测装置包括包括激光雷达和/或摄像头和/或毫米波雷达。
优选的,所述步骤S200中的全景拼接具体为:
将多个不同区域的探测杆按照采集区域建立关联关系,进一步将若干探测杆上的激光雷达采集到的点云数据进行合成,详细为按照静态固定场景标识物的坐标拼接,将多个区域的点云数据图合成为一张全景点云数据图,静态和动态的物体都在全景点云数据图中实时展现。
优选的,所述步骤S300中的识别分类为车型分类、动态追踪的数据融合算法,具体包括:
基于图像识别算法对图像数据进行识别分类得到路况车型数据,按照时间序列截图方式处理图像数据以截取不同时刻的图片,图像识别算法分类某一时刻的车型分布,并结合同一时刻的点云图,按照参照物坐标及位置分布次序建立车辆融合对应关系及车型分类,实现点云数据中的车型分类。
优选的,所述步骤S400具体为
将激光雷达采集到的点云数据进行处理,提取其中对道路行驶构成障碍的物体即障碍物,并按照障碍物的俯瞰轮廓(或障碍物在地面的俯视投影轮廓)及坐标位置标识,标识坐标后的障碍物数据为基础路况数据;将步骤S300得到的路况车型数据与基础路况数据融合,为基础路况数据中的车辆轮廓赋予车型信息,此数据为高级路况数据。
优选的,所述步骤S500具体为
区域数据中心的交通数字孪生服务系统将基础路况数据、高级路况数据发给行驶中的无人驾驶车辆,所述无人驾驶车辆有两种获取基础路况数据及高级路况数据的方式,其一是基于自身的坐标,只接收自身周围半径范围内的路况数据,其二是基于路段位置提交查看申请,交通数字孪生服务系统基于申请请求发送对应数据。
优选的,所述步骤S600具体为
构建数字孪生动画数据,基于数字孪生技术,将全景点云数据图转换为数字孪生仿真动画,并反映车辆轮廓尺寸及车型;同时,构建数字孪生逻辑数据,即车型、轮廓尺寸、相对坐标位置;设计数字孪生仿真车型库,构建分类更全面的仿真车型数据。
优选的,所述步骤S700具体为
无人驾驶车辆计算机接收并处理数字孪生逻辑数据,并与车辆自身的环境感知传感器数据融合,最终决策车辆的具体操控;数字孪生仿真动画数据提供给无人驾驶车辆的安全员或副驾驶及乘客观看,或提供给高级辅助驾驶车辆作为参考。
优选的,还包括用于获取路况云数据的探测杆关联动态追踪算法,具体为:
将道路按通行顺序分为若干个路段,每个路段内设有一个探测杆,且相邻路段的探测杆的探测区域设有重叠区域,所述探测杆的摄像头拍摄范围为所属路段的全部区域或与相邻路段的重叠区域;摄像头采集重叠区域内的坐标位置的车辆数据,将该数据用于坐标位置的车型识别,同时下一相邻路段的重叠区域的摄像头采集该车辆的数据,并计算获得车辆轮廓及坐标,则基于摄像头的数据识别结果赋予该坐标轮廓车辆的车型,当该车辆驶向下一路段时,下一路段的激光雷达继续追踪,始终追踪记录该车辆的坐标轮廓数据并保持之前探测到的车型数据。
优选的,首先获取预请求路况信息车辆的坐标位置,进一步获取该车辆所属路段周围半径内所有车辆坐标信息,进一步将该车辆坐标与所在路段周围所有车辆的坐标进行融合,从而建立该车辆与路段车辆的对应关系,从中筛选出该车辆在路况信息中的具体位置,最后基于交通数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,从而实现环境感知与实时导航规划;同时,车辆也可发送请求,查看非该车辆坐标位置区域的路况信息,从而规划导航路线。
优选的,探测杆的探测重叠区域的大小设定基于道路相位车道的宽度、道路容纳最大车辆的长度、探测杆的单次探测时间与探测周期,用ndi代替直行车道数量,用nli代替左拐车道数量,用nri代替右拐车道数量,则路段重叠区域的宽度WOS需符合如下条件
WOS≥ndi·wd+nli·wl+nri·wr。
优选的,当车道为双向路时,重叠区域可以按照单向路的重叠方式计算设定,即一个双向路段分别用两组探测杆探测各个方向路段,或用一个探测杆覆盖两个方向的车道,当用一个探测杆时,则WOS应符合如下条件,
WOS≥2(ndi·wd+nli·wl+nri·wr);
设单向路的行车及应急停车区域宽度为Rws,双向路的行车及应急停车区域为Rwdual;
当一个探测杆覆盖一段单向路时,则WOS应符合如下条件,
ndi·wd+nli·wl+nri·wr≤WOS≤Rws;
当一个探测杆覆盖一段双向路时,则WOS应符合如下条件,
2(ndi·wd+nli·wl+nri·wr)≤WOS≤Rwdual。
优选的,所述路段重叠区域的长度LOS应符合如下条件,
RSPj×(fTPi+SPi)+VLmaxv≤LOS≤kpa[RSPj×(fTPi+SPi)+VLmaxv],1≤kpa≤2;
其中kpa是重叠区域长度调节系数,道路容纳最大车辆的长度VLmaxv是指允许在该路段行驶的车辆的最大车型长度,探测杆的单次探测时间SPi是指探测一次并完成对覆盖区域车辆的信息扫描所消耗的时间,探测周期fTPi是指探测杆每隔多长时间探测一次,该段道路的最大时速为RSPj
优选的,所述方法采用交通数字孪生服务系统进行:
所述交通数字孪生服务系统包括总部数据中心、区域数据中心和若干个环境感知现场服务器,所述环境感知现场服务器设置于道路区域附近,并接收该道路区的探测杆数据,并将探测杆按照道路相位及邻接关系编码建立连续序列关系,以探测杆序列关系建立相应路段的车辆信息关系;所述环境感知现场服务器以探测杆序列关系建立相应路段的车辆信息关系,每一路段的车辆信息以时间、轮廓坐标建立路况基础数据信息表,以时间、轮廓坐标、车型建立路况高级数据信息表;并发送给区域数据中心,所述区域数据中心将多个环境感知现场服务器数据按照道路相位及邻接关系建立对应关系并将数据发送给总部数据中心,所述总部数据中心将若干区域数据中心数据建立邻接关系。
3.有益效果
采用本发明提供的技术方案,与现有技术相比,具有如下有益效果:
本发明的一种基于数字孪生技术的无人驾驶环境感知与导航方法,所述方法包括如下步骤:S100、获取数据;S200、全景拼接;S300、识别分类;S400、数据处理得到基础路况数据和高级路况数据;S500、发送基础路况数据和高级路况数据给行驶中的无人驾驶车辆;S600、构建数字孪生动画数据;S700、无人驾驶车辆计算机接收并处理数字孪生逻辑数据。通过在道路上设有探测杆用于获取车辆和路段数据,并通过探测杆关联动态追踪算法建立该车辆与路段车辆的对应关系,从中筛选出该车辆在路况信息中的具体位置,最后基于交通数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,从而实现环境感知与实时导航规划;同时,车辆也可发送请求,查看非该车辆坐标位置区域的路况信息,从而规划导航路线。
附图说明
图1为本发明的一种基于数字孪生技术的无人驾驶环境感知与导航方法采用的系统结构示意图
图2为本发明的车辆行驶道路及路况云数据采集设备部署示意图;
图3为本发明的车辆与交通数字孪生服务系统的通信架构示意图;
图4为本发明的于数字孪生技术的无人驾驶导航方法逻辑架构示意图。
示意图中的标号说明:
100、总部数据中心;200、区域数据中心;300、环境感知现场服务器;
1、摄像头;2、激光雷达一;3、激光雷达二;4、车辆;
A、探测杆的道路数据采集设备;B、交通数据孪生服务系统;C、通信基站;D、车载模块。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
实施例1
参照图1,本实施例的一种基于数字孪生技术的无人驾驶环境感知与导航方法,所述方法包括如下步骤:
S100、获取数据;
S200、全景拼接;
S300、识别分类;
S400、数据处理得到基础路况数据和高级路况数据;
S500、发送基础路况数据和高级路况数据给行驶中的无人驾驶车辆;
S600、构建数字孪生动画数据;
S700、无人驾驶车辆计算机接收并处理数字孪生逻辑数据。
本发明的方法通过在道路上设有探测杆用于获取车辆和路段数据,并通过探测杆关联动态追踪算法建立该车辆与路段车辆的对应关系,从中筛选出该车辆在路况信息中的具体位置,最后基于交通数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,从而实现环境感知与实时导航规划;同时,车辆也可发送请求,查看非该车辆坐标位置区域的路况信息,从而规划导航路线。
所述步骤S100中的获取数据具体为:
在车辆行驶的道路两旁或工程施工区域设置探测杆,所述探测杆顶端设有探测装置,所述探测装置包括激光雷达和/或摄像头和/或毫米波雷达,探测杆部署在车辆行驶的道路两旁或工程施工区域,如煤炭、矿山、石油、建筑等施工区域以及港口集装箱的装卸区均为工程施工区域。探测装置的有效探测范围覆盖道路或工程施工区域的设定半径或长宽区域,半径或长宽区域的大小基于探测装置的探测距离与探测精度技术参数,同时满足探测角度无死角的要求。本实施例设覆盖区域Acover为圆形,即半径为rdet的圆形区域面积Srdet,Srdet=πrdet 2,若覆盖区域为长为Ldet宽为Wdet矩形,矩形区域面积SLWdet,SLWdet=L×W;设探测杆的有效探测精度为accdet,在一个探测杆覆盖的任意区域(任意形状)中,满足有效探测精度accdet的坐标点集合为Aacc={(xi,yj)|i=1,2,…;j=1,2,…},Aacc可以是任意几何形状的区域。从Aacc中切割一块圆形Srdet或矩形SLWdet区域即上述中的覆盖区域Acover,圆形Srdet或矩形SLWdet的最大值即是Acover的最优坐标区域。
所述步骤S200中的全景拼接具体为:
将多个不同区域的探测杆按照采集区域建立关联关系,进一步将若干探测杆上的激光雷达采集到的点云数据进行合成,详细为按照静态固定场景标识物的坐标拼接,将多个区域的点云数据图合成为一张全景点云数据图,静态和动态的物体都在全景点云数据图中实时展现。
所述步骤S300中的识别分类为车型分类、动态追踪的数据融合算法,具体包括:
基于图像识别算法对图像数据进行识别分类得到路况车型数据,按照时间序列截图方式处理图像数据以截取不同时刻的图片,图像识别算法分类某一时刻的车型分布,并结合同一时刻的点云图,按照参照物坐标及位置分布次序建立车辆融合对应关系及车型分类,实现点云数据中的车型分类。
基于图像识别算法(如卷积神经网络)对图像数据进行识别分类,将图像数据中的车辆按照具体车型(卡车、轿车、越野车、皮卡、道路清洁车、垃圾运载车、危险品罐车、消防车、警车、救护车;挖掘机、推土机、运载车、装卸机)进行分类,分类后的数据称为路况车型数据。按照时间序列截图方式处理图像数据以截取不同时刻的图片,图像识别算法分类某一时刻的车型分布,并结合同一时刻的点云图,按照参照物坐标及位置分布次序建立车辆融合对应关系及车型分类,实现点云数据中的车型分类。截图时间或选取图片的确定,以车型能够识别为准,例如当车辆处于等待交通信号灯时的静止状态或低速行驶状态时截取图片,以保证图像识别准确。
在激光雷达或摄像头受环境(雾霾天、路灯照射下路况光度不均匀的黑夜等)影响造成探测精度受限时,借助毫米波雷达探测数据,毫米波雷达用于连续追踪车辆坐标,基于同一时间(激光雷达、毫米波雷达、摄像头都能够发挥探测精度的时刻)同一坐标的激光雷达探测数据与毫米波雷达数据、摄像头数据结合以确定车型,进一步基于激光雷达或毫米波雷达追踪车辆。车型识别后的数据也称为路况车型数据。
所述步骤S400具体为
将激光雷达采集到的点云数据进行处理,提取其中对道路行驶构成障碍的物体即障碍物,并按照障碍物的俯瞰轮廓(或障碍物在地面的俯视投影轮廓)及坐标位置标识,标识坐标后的障碍物数据为基础路况数据;将步骤S300得到的路况车型数据与基础路况数据融合,为基础路况数据中的车辆轮廓赋予车型信息,此数据为高级路况数据。
所述步骤S500具体为
区域数据中心的交通数字孪生服务系统将基础路况数据、高级路况数据发给行驶中的无人驾驶车辆,所述无人驾驶车辆有两种获取基础路况数据及高级路况数据的方式,其一是基于自身的坐标,只接收自身周围半径范围内的路况数据,其二是基于路段位置提交查看申请,交通数字孪生服务系统基于申请请求发送对应数据。
所述步骤S600具体为
构建数字孪生动画数据,基于数字孪生技术,将全景点云数据图转换为数字孪生仿真动画,并反映车辆轮廓尺寸及车型;同时,构建数字孪生逻辑数据,即车型、轮廓尺寸、相对坐标位置;设计数字孪生仿真车型库,构建分类更全面的仿真车型数据。
所述步骤S700具体为
无人驾驶车辆计算机接收并处理数字孪生逻辑数据,并与车辆自身的环境感知传感器数据融合,最终决策车辆的具体操控;数字孪生仿真动画数据提供给无人驾驶车辆的安全员或副驾驶及乘客观看,或提供给高级辅助驾驶车辆作为参考。
还包括用于获取路况云数据的探测杆关联动态追踪算法,具体为:
将道路按通行顺序分为若干个路段,每个路段内设有一个探测杆,且相邻路段的探测杆的探测区域设有重叠区域,所述探测杆的摄像头拍摄范围为所属路段的全部区域或与相邻路段的重叠区域;摄像头采集重叠区域内的坐标位置的车辆数据,将该数据用于坐标位置的车型识别,同时下一相邻路段的重叠区域的摄像头采集该车辆的数据,并计算获得车辆轮廓及坐标,则基于摄像头的数据识别结果赋予该坐标轮廓车辆的车型,当该车辆驶向下一路段时,下一路段的激光雷达继续追踪,始终追踪记录该车辆的坐标轮廓数据并保持之前探测到的车型数据。探测杆的探测重叠区域的大小设定基于道路相位车道的宽度、道路容纳最大车辆的长度、探测杆的单次探测时间与探测周期。相位车道在此是同一条道路上允许车辆向同一方向行驶的车道,包括直行、左拐、右拐。相位车道的宽度是指同一个相位车道上所有直行、左拐、右拐的车道宽度的和(简称“宽度和”),重叠区域的宽度设定应大于等于该路段的宽度和。
假设一路段为单向路,包括:两个直行车道d1、d2,两个左拐车道l1、l2,一个右拐车道r1,d1、d2的宽度均为wd,l1、l2的宽度均为wl,r1的宽度为wr,则该路段重叠区域的宽度WOS应符合如下条件,WOS≥2wd+2wl+wr。为了进一步泛化,用ndi代替直行车道数量,用nli代替左拐车道数量,用nri代替右拐车道数量,则WOS应符合如下条件,WOS≥ndi·wd+nli·wl+nri·wr。
当车道为双向路(道路中间分开,两边相反行驶方向)时,重叠区域既可以按照单向路的重叠方式计算设定,即一个双向路段分别用两组探测杆探测各个方向路段,也可以用一个探测杆覆盖两个方向的车道,若用一个探测杆,则WOS应符合如下条件,WOS≥2(ndi·wd+nli·wl+nri·wr);设单向路的行车及应急停车区域宽度为Rws,双向路的行车及应急停车区域为Rwdual。一个探测杆覆盖一段单向路时,则WOS应符合如下条件,ndi·wd+nli·wl+nri·wr≤WOS≤Rws;一个探测杆覆盖一段双向路时,则WOS应符合如下条件,2(ndi·wd+nli·wl+nri·wr)≤WOS≤Rwdual。道路容纳最大车辆的长度VLmaxv是指允许在该路段行驶的车辆的最大车型长度,探测杆的单次探测时间SPi是指探测一次并完成对覆盖区域车辆的信息扫描所消耗的时间,探测周期fTPi是指探测杆每隔多长时间探测一次。
该段道路的最大时速为RSPj,该路段重叠区域的长度LOS应符合如下条件,RSPj×(fTPi+SPi)+VLmaxv≤LOS≤kpa[RSPj×(fTPi+SPi)+VLmaxv],1≤kpa≤2,kpa是重叠区域长度调节系数,kpa的具体取值基于随机设置一个数并观察其实际效果的回归方法决定,或基于机器学习算法以全部经过该路段的车辆都能被探测到且被探测到的重复率最低为最佳值训练获得。
首先获取预请求路况信息车辆的坐标位置,进一步获取该车辆所属路段周围半径内所有车辆坐标信息,进一步将该车辆坐标与所在路段周围所有车辆的坐标进行融合,从而建立该车辆与路段车辆的对应关系,从中筛选出该车辆在路况信息中的具体位置,最后基于交通数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,从而实现环境感知与实时导航规划;同时,车辆也可发送请求,查看非该车辆坐标位置区域的路况信息,从而规划导航路线。
动态目标追踪就是指在连续的数据序列中,建立跟踪目标的位置关系并获得目标的运动轨迹,基于目标在上一帧的位置特征,预测其在下一帧中的位置以及轮廓尺寸。目前已知的基于激光雷达点云数据的目标追踪算法主要分为生成式和判别式两类,传统的滤波算法追踪属于生成式,最新的深度学习算法追踪属于判别式。下面具体介绍各种追踪算法,以及不同算法在点云目标追踪中存在的问题。生成式,建立目标模型或者提取目标特征,利用目标模型的外观表征在实时场景中进行目标的相似性搜索,以最接近目标外观表征为准,从而在一定误差内锁定相似目标。判别式,通过对比目标模型和场景信息的差异,将复合目标模型特征的目标提取出来,从而得到实时场景中的目标位置。目前生成式算法主要包括均值漂移、卡尔曼滤波、粒子滤波、核相关滤波。均值漂移是基于概率密度分布,使目标的搜索一直沿着概率梯度上升的方向,迭代收敛到概率分布的峰值上。卡尔曼滤波,通过检测或者其他方式得到目标的观测位置,并根据运动方程从上一时刻的位置信息预测当前时刻的位置信息,将观测结果和预测结果进行加权平均得到最终的目标位置信息。粒子滤波,对目标基于粒子分布进行建模,定义一种相似度度量来确定与目标之间的匹配程度。然后按照高斯分布撒粒子,统计其相似度来确定目标可能的位置信息。核相关滤波,通过设计一个滤波模板,利用该模板与目标候选区域做相关运算,最大输出响应的位置即为当前帧的位置信息。判别式追踪的典型算法是深度学习,利用卷积神经网络将目标从背景中提取出来,利用其对目标强大的特征抽象能力以及对目标运动过程的拟合能力实现跟踪任务。均值漂移和卡尔曼滤波算法实现简单,但是参数调节麻烦,鲁棒性一般;滤波类算法跟踪速度较快,深度学习类方法精度较高,但是对硬件资源有一定要求。
本发明在结合上述公知的判别式和生成式算法基础上,同时发明设计了一种探测杆关联动态追踪算法,作为道路多传感联动获取路况云数据的具体实现算法,具体为:
假设一段道路按顺序依次分为A、B、C、D四段,车辆按照从A到B,再到C,最后到D的方向行驶,即A→B→C→D,路段A、B、C、D依次部署探测杆P1、P2、P3、P4,每个路段的探测杆分别负责本路段的路况数据采集即探测杆A的激光雷达(或结合毫米波雷达)追踪A路段车辆轮廓及坐标,以此类推,且每两个相邻路段的两个探测杆的探测范围存在部分重叠,按照车辆在路段中的行驶顺序即A→B→C→D,重叠区域分别为DAB、DBC、DCD。重叠区域DAB、DBC、DCD中必须存在相应两个路段探测杆的激光雷达或毫米波雷达的探测重叠,且必须存在至少一个路段的探测杆部署了摄像头,若仅有从A到B再到C最后到D即A→B→C→D的车行相位,则A路段或DAB重叠区域必须被A路段探测杆的摄像头覆盖。假设在DAB重叠区域,摄像头采集到坐标位置的车辆数据,则该数据用于坐标位置的车型识别,车型识别通过上述判别式或生成式(或两者的结合)算法并按照分类方式(卡车、轿车、越野车、皮卡、道路清洁车、垃圾运载车、危险品罐车、消防车、警车、救护车;挖掘机、推土机、运载车、装卸机)计算获得,与此同时,P1、P2的两个(或两组)激光雷达也在DAB探测到了该坐标位置的车辆,并计算获得车辆轮廓及坐标,则基于摄像头的数据识别结果赋予该坐标轮廓车辆的车型,当该车辆驶向路段B时,P2的激光雷达继续追踪,始终追踪记录该车辆的坐标轮廓数据并保持之前探测到的车型数据。以此类推,当车辆驶向路段C、D时,依是同理,即:关联路段探测杆接续探测追踪车辆,同一车辆全路段追踪;一次摄像头数据采集,车型信息全路段通用。
所述方法采用交通数字孪生服务系统进行:
所述交通数字孪生服务系统包括总部数据中心100、区域数据中心200和若干个环境感知现场服务器300,所述环境感知现场服务器300设置于道路区域附近,并接收该道路区的探测杆数据,并将探测杆按照道路相位及邻接关系编码建立连续序列关系,以探测杆序列关系建立相应路段的车辆信息关系;所述环境感知现场服务器300以探测杆序列关系建立相应路段的车辆信息关系,每一路段的车辆信息以时间、轮廓坐标建立路况基础数据信息表,以时间、轮廓坐标、车型建立路况高级数据信息表;并发送给区域数据中心200,所述区域数据中心200将多个环境感知现场服务器数据按照道路相位及邻接关系建立对应关系并将数据发送给总部数据中心100,所述总部数据中心100将若干区域数据中心数据建立邻接关系。
如图1所示,环境感知现场服务器300部署在道路区域附近,并接收该道路区的探测杆数据,并将探测杆按照道路相位及邻接关系编码建立连续序列关系,以探测杆序列关系建立相应路段的车辆信息关系,每一路段的车辆信息以时间、轮廓坐标建立路况基础数据信息表,以时间、轮廓坐标、车型建立路况高级数据信息表。环境感知现场服务器300将路况基础数据信息表与路况高级数据信息表发送给区域数据中心200,区域数据中心200负责将多个环境感知现场服务器300数据按照道路相位及邻接关系建立对应关系。同理,总部数据100中心将若干区域数据中心数据200建立邻接关系。同时,总部数据中心100部署有大型数据存储阵列,负责全部交通路况数据的存储。
此外,运行在环境感知现场服务器300的融合探测系统负责向该区域的车辆发送路况数据,与此同时,运行在区域数据中心200的交通数字孪生服务系统负责将跨区域的路况信息发送到相应的环境感知现场服务器300,运行在总部数据中心100的交通数字孪生服务系统负责跨区域(更大范围区域)的路况数据关联。交通数字孪生服务系统还负责运算车辆动态追踪算法、车型识别算法。
参照图2,图2是车辆行驶道路及路况云数据采集设备部署示意图,其中线段ad、eh分别是道路的两条边沿,虚线段ij是车道线,所分成的两个车道均为自左向右行驶,数字1是摄像头,数字2、3分别是激光雷达一和激光雷达二,数字4是车辆;激光雷达一负责采集路段acge区域的车辆采集,激光雷达二负责采集路段bdhf区域的车辆采集,bcgf区域是两个激光雷达1和2的重叠采集区域。两个数据基于基准物作为参考坐标进行融合,并基于车型数据库建立实时路段的车型(含尺寸轮廓)、坐标数据,车辆4的车型得以确定,当车辆4行驶至bcgf区域时,激光雷达一和激光雷达二的数据基于车辆坐标进行融合,当车辆4驶入cdhg区域时,车辆4的车型数据同步进入到该路段的采集数据中,而无需再基于摄像头识别。
参照图3,道路探测杆的数据采集设备A(激光雷达数据、摄像头数据、毫米波雷达)获取数据,并发向数字孪生服务系统B,数字孪生服务系统B将激光雷达数据与摄像头数据进行融合,再将融合后的数据转化为三维动画数据、环境简数据,将路段坐标与车辆坐标进行融合,融合后的数据通过通信基站C发送给车载模块D,车载模块D默认情况下获取自身周围的路况环境信息。
参照图4,其中步骤S1为获取本车辆的坐标位置;步骤S2为获取路段所有车辆的坐标位置;步骤S3为本车辆坐标与所在路段所有车辆的坐标进行融合,即建立本车辆与路段车辆的对应关系;步骤S4为本车辆基于数字孪生服务系统发来的数据,感知周围环境状况。具体为首先获取预请求路况信息车辆的坐标位置,进一步获取该车辆所属路段周围半径内所有车辆坐标信息,进一步将该车辆坐标与所在路段周围所有车辆的坐标进行融合,从而建立该车辆与路段车辆的对应关系,从中筛选出该车辆在路况信息中的具体位置,最后基于数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,从而实现环境感知与实时导航规划。同时,车辆也可发送请求,查看非该车辆坐标位置区域的路况信息,从而规划导航路线。
本发明将路况云数据转换为环境简数据,环境简数据是将路况云数据转化为车辆计算机系统能够快速处理的路况动态数据,路况动态数据是指相对于本车辆坐标的车辆、行人、不明物体的描述数据,描述数据在此具体是指行驶道路周围环境中车辆、行人、不明物体的相对坐标、车辆尺寸轮廓及车型数据。
本发明将无人驾驶车辆自身(车载传感器)探测到的周围环境数据(道路场景物体、车辆、行人)与环境简数据融合,生成为一张以坐标为边界划分的环境感知合并数据(简称感知合并数据),再将感知合并数据与高精度地图融合,生成一张以车辆自身为中心的周围环境全景图,该全景图动态实时变化。
本发明将以时间为序列的多张周围环境全景图转换为仿真路况数据即环境感知三维动画,并将车辆自身位置坐标与动画坐标融合,环境感知三维动画供驾驶者或乘客观看,起到辅助驾驶及查看路况环境的作用。
以上所述实施例仅表达了本发明的某种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制;应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围;因此,本发明专利的保护范围应以所附权利要求为准。
Claims (14)
1.一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述方法包括如下步骤:
S100、获取数据;
S200、全景拼接;
S300、识别分类;
S400、数据处理得到基础路况数据和高级路况数据;
S500、发送基础路况数据和高级路况数据给行驶中的无人驾驶车辆;
S600、构建数字孪生动画数据;
S700、无人驾驶车辆计算机接收并处理数字孪生逻辑数据。
2.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S100中的获取数据具体为:
在车辆行驶的道路两旁或工程施工区域设置探测杆,所述探测杆顶端设有探测装置,所述探测装置包括包括激光雷达和/或摄像头和/或毫米波雷达。
3.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S200中的全景拼接具体为:
将多个不同区域的探测杆按照采集区域建立关联关系,进一步将若干探测杆上的激光雷达采集到的点云数据进行合成,详细为按照静态固定场景标识物的坐标拼接,将多个区域的点云数据图合成为一张全景点云数据图,静态和动态的物体都在全景点云数据图中实时展现。
4.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S300中的识别分类为车型分类、动态追踪的数据融合算法,具体包括:
基于图像识别算法对图像数据进行识别分类得到路况车型数据,按照时间序列截图方式处理图像数据以截取不同时刻的图片,图像识别算法分类某一时刻的车型分布,并结合同一时刻的点云图,按照参照物坐标及位置分布次序建立车辆融合对应关系及车型分类,实现点云数据中的车型分类。
5.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S400具体为
将激光雷达采集到的点云数据进行处理,提取其中对道路行驶构成障碍的物体即障碍物,并按照障碍物的俯瞰轮廓(或障碍物在地面的俯视投影轮廓)及坐标位置标识,标识坐标后的障碍物数据为基础路况数据;将步骤S300得到的路况车型数据与基础路况数据融合,为基础路况数据中的车辆轮廓赋予车型信息,此数据为高级路况数据。
6.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S500具体为
区域数据中心的交通数字孪生服务系统将基础路况数据、高级路况数据发给行驶中的无人驾驶车辆,所述无人驾驶车辆有两种获取基础路况数据及高级路况数据的方式,其一是基于自身的坐标,只接收自身周围半径范围内的路况数据,其二是基于路段位置提交查看申请,交通数字孪生服务系统基于申请请求发送对应数据。
7.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S600具体为
构建数字孪生动画数据,基于数字孪生技术,将全景点云数据图转换为数字孪生仿真动画,并反映车辆轮廓尺寸及车型;同时,构建数字孪生逻辑数据,即车型、轮廓尺寸、相对坐标位置;设计数字孪生仿真车型库,构建分类更全面的仿真车型数据。
8.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述步骤S700具体为
无人驾驶车辆计算机接收并处理数字孪生逻辑数据,并与车辆自身的环境感知传感器数据融合,最终决策车辆的具体操控;数字孪生仿真动画数据提供给无人驾驶车辆的安全员或副驾驶及乘客观看,或提供给高级辅助驾驶车辆作为参考。
9.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,还包括用于获取路况云数据的探测杆关联动态追踪算法,具体为:
将道路按通行顺序分为若干个路段,每个路段内设有一个探测杆,且相邻路段的探测杆的探测区域设有重叠区域,所述探测杆的摄像头拍摄范围为所属路段的全部区域或与相邻路段的重叠区域;摄像头采集重叠区域内的坐标位置的车辆数据,将该数据用于坐标位置的车型识别,同时下一相邻路段的重叠区域的摄像头采集该车辆的数据,并计算获得车辆轮廓及坐标,则基于摄像头的数据识别结果赋予该坐标轮廓车辆的车型,当该车辆驶向下一路段时,下一路段的激光雷达继续追踪,始终追踪记录该车辆的坐标轮廓数据并保持之前探测到的车型数据。
10.根据权利要求8所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于:首先获取预请求路况信息车辆的坐标位置,进一步获取该车辆所属路段周围半径内所有车辆坐标信息,进一步将该车辆坐标与所在路段周围所有车辆的坐标进行融合,从而建立该车辆与路段车辆的对应关系,从中筛选出该车辆在路况信息中的具体位置,最后基于交通数字孪生服务系统发来的路况基础数据和路况高级数据感知周围路况环境,从而实现环境感知与实时导航规划;同时,车辆也可发送请求,查看非该车辆坐标位置区域的路况信息,从而规划导航路线。
11.根据权利要求9所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于:探测杆的探测重叠区域的大小设定基于道路相位车道的宽度、道路容纳最大车辆的长度、探测杆的单次探测时间与探测周期,用ndi代替直行车道数量,用nli代替左拐车道数量,用nri代替右拐车道数量,则路段重叠区域的宽度WOS需符合如下条件
WOS≥ndi·wd+nli·wl+nri·wr。
12.根据权利要求11所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于:当车道为双向路时,重叠区域可以按照单向路的重叠方式计算设定,即一个双向路段分别用两组探测杆探测各个方向路段,或用一个探测杆覆盖两个方向的车道,
当用一个探测杆时,则WOS应符合如下条件,
WOS≥2(ndi·wd+nli·wl+nri·wr);
设单向路的行车及应急停车区域宽度为Rws,双向路的行车及应急停车区域为Rwdual;
当一个探测杆覆盖一段单向路时,则WOS应符合如下条件,
ndi·wd+nli·wl+nri·wr≤WOS≤Rws;
当一个探测杆覆盖一段双向路时,则WOS应符合如下条件,
2(ndi·wd+nli·wl+nri·wr)≤WOS≤Rwdual。
13.根据权利要求11所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于:所述路段重叠区域的长度LOS应符合如下条件,
RSPj×(fTPi+SPi)+VLmaxv≤LOS≤kpa[RSPj×(fTPi+SPi)+VLmaxv],1kpa≤2;
其中kpa是重叠区域长度调节系数,道路容纳最大车辆的长度VLmaxv是指允许在该路段行驶的车辆的最大车型长度,探测杆的单次探测时间SPi是指探测一次并完成对覆盖区域车辆的信息扫描所消耗的时间,探测周期fTPi是指探测杆每隔多长时间探测一次,该段道路的最大时速为RSPj。
14.根据权利要求1所述的一种基于数字孪生技术的无人驾驶环境感知与导航方法,其特征在于,所述方法采用交通数字孪生服务系统进行:
所述交通数字孪生服务系统包括总部数据中心(100)、区域数据中心(200)和若干个环境感知现场服务器(300),所述环境感知现场服务器(300)设置于道路区域附近,并接收该道路区的探测杆数据,并将探测杆按照道路相位及邻接关系编码建立连续序列关系,以探测杆序列关系建立相应路段的车辆信息关系;所述环境感知现场服务器(300)以探测杆序列关系建立相应路段的车辆信息关系,每一路段的车辆信息以时间、轮廓坐标建立路况基础数据信息表,以时间、轮廓坐标、车型建立路况高级数据信息表;并发送给区域数据中心(200),所述区域数据中心(200)将多个环境感知现场服务器数据按照道路相位及邻接关系建立对应关系并将数据发送给总部数据中心(100),所述总部数据中心(100)将若干区域数据中心数据建立邻接关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310319686.XA CN116337102A (zh) | 2023-03-29 | 2023-03-29 | 基于数字孪生技术的无人驾驶环境感知与导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310319686.XA CN116337102A (zh) | 2023-03-29 | 2023-03-29 | 基于数字孪生技术的无人驾驶环境感知与导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116337102A true CN116337102A (zh) | 2023-06-27 |
Family
ID=86877019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310319686.XA Pending CN116337102A (zh) | 2023-03-29 | 2023-03-29 | 基于数字孪生技术的无人驾驶环境感知与导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116337102A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117148848A (zh) * | 2023-10-27 | 2023-12-01 | 上海伯镭智能科技有限公司 | 一种无人驾驶车辆智能避障方法及系统 |
CN117828899A (zh) * | 2024-03-04 | 2024-04-05 | 沈阳展播智慧科技有限公司 | 结合三维车身建模的道路环境感知方法及装置 |
CN118097605A (zh) * | 2024-04-25 | 2024-05-28 | 华能信息技术有限公司 | 无人驾驶矿车数据的管理方法 |
-
2023
- 2023-03-29 CN CN202310319686.XA patent/CN116337102A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117148848A (zh) * | 2023-10-27 | 2023-12-01 | 上海伯镭智能科技有限公司 | 一种无人驾驶车辆智能避障方法及系统 |
CN117148848B (zh) * | 2023-10-27 | 2024-01-26 | 上海伯镭智能科技有限公司 | 一种无人驾驶车辆智能避障方法及系统 |
CN117828899A (zh) * | 2024-03-04 | 2024-04-05 | 沈阳展播智慧科技有限公司 | 结合三维车身建模的道路环境感知方法及装置 |
CN117828899B (zh) * | 2024-03-04 | 2024-05-07 | 沈阳展播智慧科技有限公司 | 结合三维车身建模的道路环境感知方法及装置 |
CN118097605A (zh) * | 2024-04-25 | 2024-05-28 | 华能信息技术有限公司 | 无人驾驶矿车数据的管理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11885910B2 (en) | Hybrid-view LIDAR-based object detection | |
Zhao et al. | Detection and tracking of pedestrians and vehicles using roadside LiDAR sensors | |
US11940290B2 (en) | Virtual stop line mapping and navigation | |
US20220101600A1 (en) | System and Method for Identifying Travel Way Features for Autonomous Vehicle Motion Control | |
CN110531376B (zh) | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 | |
Yu et al. | A study on recent developments and issues with obstacle detection systems for automated vehicles | |
US20180349746A1 (en) | Top-View Lidar-Based Object Detection | |
US20220035378A1 (en) | Image segmentation | |
CN101966846B (zh) | 通过物体检测优化的检测车辆行驶的畅通路径的方法 | |
CN113313154A (zh) | 一体化融合多传感器自动驾驶智能感知装置 | |
CN116337102A (zh) | 基于数字孪生技术的无人驾驶环境感知与导航方法 | |
KR20190069384A (ko) | 자율 주행을 위한 스파스 맵(sparse map)의 크라우드소싱과 배포 및 차선 측정 | |
CN115552200A (zh) | 用于生成重要性占据栅格地图的方法和系统 | |
JP7024610B2 (ja) | 検知装置及び検知システム | |
US11703335B2 (en) | Coordinating and learning maps dynamically | |
DE112021002680T5 (de) | Systeme und verfahren zum erkennen einer offenen tür | |
CN113743171A (zh) | 目标检测方法及装置 | |
DE102022102189A1 (de) | Multimodales Segmentierungsnetz für ein verbessertes semantisches Labelingbei einer Kartenerzeugung | |
Moras et al. | Drivable space characterization using automotive lidar and georeferenced map information | |
DE102022100413A1 (de) | Objekterkennung unter verwendung von radar-und-lidar-zusammenführung | |
CN116337101A (zh) | 基于数字孪生技术的无人驾驶环境感知与导航系统 | |
Rana et al. | The perception systems used in fully automated vehicles: a comparative analysis | |
CN116635919A (zh) | 物体跟踪装置以及物体跟踪方法 | |
Wu | Data processing algorithms and applications of LiDAR-enhanced connected infrastructure sensing | |
CN115985109B (zh) | 一种无人驾驶矿车环境感知方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |