CN114814825B - 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 - Google Patents
一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 Download PDFInfo
- Publication number
- CN114814825B CN114814825B CN202210294772.5A CN202210294772A CN114814825B CN 114814825 B CN114814825 B CN 114814825B CN 202210294772 A CN202210294772 A CN 202210294772A CN 114814825 B CN114814825 B CN 114814825B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- running state
- radar
- algorithm
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于雷达和视频融合的车辆轨迹感知与状态提取方法,涉及雷达和视频融合技术,用于解决现有技术中缺少对长距离车辆连续轨迹的分析和车辆加减速等其他状态的识别的技术问题;本发明采用多层耦合智能分析算法,融合毫米波雷达和视频数据,提取车辆号牌、位置、速度等特征数据,准确标签车辆号牌及其对应的特征参数,弥补雷达或视频单一方式识别特定车辆和分析车辆长距离连续轨迹和状态方面的不足,提高车辆运行参数的计算精度;通过缩短时间更新间隔,提高车辆运行参数分析的时效性;根据每种车辆运行状态的样本数据,自学习获得状态阈值,再根据实时采集的车辆特征数据,提高车辆运行状态研判精度。
Description
技术领域
本发明属于交通流信息感知领域,涉及雷达和视频融合技术,具体是一种基于雷达和视频融合的车辆轨迹感知与状态提取方法。
背景技术
城市快速路交织区因车辆合流时行驶速度、轨迹等突然变化,容易产生安全隐患和交通拥堵。因此,需要分析快速路交织区车辆行驶轨迹和状态,识别危险、不规范的驾驶行为和交通堵点位置,有利于优化快速路交通组织,规范快速路交织区车辆的驾驶行为,预防和缓解快速路拥堵,保障交通安全。
现有的车辆轨迹感知与状态提取方法主要采用视频或雷达的单一方式分析车辆轨迹:视频图像处理方式通过深度学习算法识别车辆,将车辆打上标签,然后通过视频图像处理算法判别车辆是否变道,对车辆变道行为进行抓拍。雷达探测方式则通过卡尔曼滤波器跟踪车辆的状态,包括位置、速度、加速度等,使用包含噪声的观测值估计和识别车辆的位置,再通过航迹处理算法提取车辆运行的轨迹。
现有车辆轨迹感知与状态提取方法中,采用视频图像处理方式受限于视频检测范围和图像质量,主要对小于75米的近距离车辆变道行为进行分析,缺少对长距离车辆连续轨迹的分析和车辆加减速等其他状态的识别。采用雷达探测方式主要是对车辆的连续轨迹进行分析,缺少车辆标签,无法识别车牌和对特定车辆进行状态和轨迹跟踪。
为此,提出一种基于雷达和视频融合的车辆轨迹感知与状态提取方法。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种基于雷达和视频融合的车辆轨迹感知与状态提取方法,解决了现有技术中缺少对长距离车辆连续轨迹的分析和车辆加减速等其他状态的识别的技术问题;本发明采用多层耦合智能分析算法,融合毫米波雷达和视频数据,提取车辆号牌、位置、速度等特征数据,准确标签车辆号牌及其对应的特征参数,弥补雷达或视频单一方式识别特定车辆和分析车辆长距离连续轨迹和状态方面的不足,提高车辆运行参数的计算精度;通过缩短时间更新间隔,提高车辆运行参数分析的时效性;根据每种车辆运行状态的样本集合,自学习获得状态阈值,再根据实时采集的车辆特征数据,提高车辆运行状态研判精度。
为实现上述目的,根据本发明的第一方面的实施例提出一种基于雷达和视频融合的车辆轨迹感知与状态提取方法,包括以下步骤:
选择快速路交织区上游、下游P1-P2米处作为检测点,安装毫米波雷达和视频检测器,获取通过该检测点的每个车辆位置、速度、车型、号牌等作为样本集合,记为:
Q={x|x=x1,x2......xn};
其中,x代表每个车辆的位置L、速度V、车型S、号牌ID的样本子集,即x=(l,v,s,id);
设计多层耦合智能分析算法C;
采用多层耦合算法融合分析毫米波雷达和视频检测器采集的车辆样本集合,识别车辆特征,感知车辆运行轨迹;
设计车辆运行状态研判算法M;
将连续时间标签下采集的的车辆特征数据集Q2输入车辆运行状态研判算法M,计算获得车辆的运行状态,输出车辆变道、加速、减速、停车、逆行等运行状态集合Λ,并存储到车辆运行状态主题数据库。
优选的,其中位置L、速度V、车型S、号牌ID分别标记为:
L={l|l=l1,l2......ln};
V={v|v=v1,v2......vn};
S={s|s=s1,s2......sn};
ID={id|id=id1,id2.......idn};
l代表一个采集周期内,检测点采集的所有车辆的经纬度坐标;
v代表一个采集周期内,通过检测点的所有车辆的地点车速,单位km/h;
s代表一个采集周期内,通过检测点的所有车辆的车型;
id代表一个采集周期内,通过检测点的所有车辆的号牌。
优选的,设计多层耦合智能分析算法C的过程包括以下:
第一层耦合算法记为C1:基于检测器所在路段ID,耦合雷达、视频检测的车辆数据,提取和存储车辆基础特征数据,记为:
第二层耦合算法记为C2:设置时间更新间隔设置为30ms,基于空间经纬度坐标和时间标签,耦合GIS地图和车辆的时空位置数据,提取和存储时空维度下车辆运行特征数据,记为:
其中,T代表时间标签。
优选的,采用多层耦合算法融合分析毫米波雷达和视频检测器采集的车辆样本集合,识别车辆特征,感知车辆运行轨迹;过程包括以下步骤:
步骤1:将雷达和视频检测的样本集合输入多层耦合智能分析算法C中的第一层耦合算法C1,生成映射数据集Q1;
步骤2:将映射数据集Q1迭代到第二层耦合算法C2中,生成时间标签下的特征数据集Q2。
优选的,设计车辆运行状态研判算法M,具体的步骤如下:
步骤1:将车辆运行状态划分为m种类型,每种类型,设置对应类型的阈值λ;
步骤2:取每种类型车辆运行状态的已知样本集合输入深度学习算法模型,训练学习得到每种类型车辆运行状态的对应阈值ψ;
根据计算的阈值ψ,选取一个最大值阈值ψ2和最小值阈值ψ1,设置阈值范围,构建车辆运行状态研判算法M,记为:
M:ψ1≤ψ<ψ2,ψ∈Λ
其中,当车辆特征数据满足ψ1≤ψ<ψ2时,判别车辆属于某种运行状态Λ;反之,则不属于车辆运行状态Λ。
优选的,所述车辆运行状态划分为变道、加速、减速、停车、逆行。
优选的,将变道车辆的样本集合集Lt={lt|lt=l1t,l2t,......,lnt}带入学习模型M1,计算车辆变道运行状态的阈值;学习模型M1,记为:
同理,可以推算出车辆加速、减速、停车、逆行等各种运行状态的阈值。
与现有技术相比,本发明的有益效果是:
1、采用多层耦合智能分析算法,融合毫米波雷达和视频数据,提取车辆号牌、位置、速度等特征数据,准确标签车辆号牌及其对应的特征参数,弥补雷达或视频单一方式识别特定车辆和分析车辆长距离连续轨迹和状态方面的不足,提高车辆运行参数的计算精度。同时,通过缩短时间更新间隔,提高车辆运行参数分析的时效性。
2、采用车辆运行状态研判算法,根据每种车辆运行状态的样本集合,自学习获得状态阈值,确定阈值范围后,再根据实时采集的车辆特征数据,自动判别车辆变道、加速、减速、停车、逆行等运行状态,提高车辆运行状态研判精度。
附图说明
图1为本发明的流程图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
现有车辆轨迹感知与状态提取方法中,采用视频图像处理方式受限于视频检测范围和图像质量,主要对小于75米的近距离车辆变道行为进行分析,缺少对长距离车辆连续轨迹的分析和车辆加减速等其他状态的识别。采用雷达探测方式主要是对车辆的连续轨迹进行分析,缺少车辆标签,无法识别车牌和对特定车辆进行状态和轨迹跟踪。
本发明提供的方法包括:
在快速路交织区安装毫米波雷达检测器和视频检测器,获取每个车辆的位置、速度、车型和图像、号牌数据的样本集合;
设计多层耦合智能分析算法;
采用多层耦合算法融合分析毫米波雷达和视频检测器采集的车辆样本集合,识别车辆特征,在线感知车辆运行轨迹;
设计车辆运行状态研判算法;
采用车辆运行状态研判算法,提取车辆变道、加速、减速、停车、逆行等运行状态信息。
本方法根据车辆自身特征及其运行数据,在线计算及判别车辆行驶轨迹和运行状态,为交通管理者准确掌握快速路交织区交通运行状态,规范车辆驾驶行为,制定交通组织优化方案提供技术支持。
如图1所示,本申请第一方面实施例提供了一种基于雷达和视频融合的车辆轨迹感知与状态提取方法,具体包括以下步骤:
选择快速路交织区上游、下游约100-150米处作为检测点,安装毫米波雷达和视频检测器,获取通过该检测点的每个车辆位置、速度、车型、号牌等作为样本集合,记为:
Q={x|x=x1,x2......xn};
其中,x代表每个车辆的位置L、速度V、车型S、号牌ID的样本子集,即x=(l,v,s,id);
且其中位置L、速度V、车型S、号牌ID分别标记为:
L={l|l=l1,l2......ln};
V={v|v=v1,v2......vn};
S={s|s=s1,s2......sn};
ID={id|id=id1,id2......idn};
需要进一步解释说明的是,l代表一个采集周期内,检测点采集的所有车辆的经纬度坐标;
v代表一个采集周期内,通过检测点的所有车辆的地点车速,单位km/h;
s代表一个采集周期内,通过检测点的所有车辆的车型;
id代表一个采集周期内,通过检测点的所有车辆的号牌。
设计多层耦合智能分析算法C,具体的,设计多层耦合智能分析算法C的过程包括以下:
第一层耦合算法记为C1:基于检测器所在路段ID,耦合雷达、视频检测的车辆数据,提取和存储车辆基础特征数据,例如:车辆ID、位置、速度、号牌、车型等,记为:
第二层耦合算法记为C2:设置时间更新间隔设置为30ms,基于空间经纬度坐标和时间标签,耦合GIS地图和车辆的时空位置数据,提取和存储时空维度下车辆运行特征数据,例如:每辆车在时空标签下的位置(精度设置为厘米级)、速度、轨迹等,记为:
其中,T代表时间标签。
采用多层耦合算法融合分析毫米波雷达和视频检测器采集的车辆样本集合,识别车辆特征,感知车辆运行轨迹;
步骤1:将雷达和视频检测的样本集合Q={x|x=x1,x2.....xn}输入多层耦合智能分析算法C中的第一层耦合算法C1,生成映射数据集Q1;
步骤2:将映射数据集Q1迭代到第二层耦合算法C2中,生成时间标签下的特征数据集Q2;
设计车辆运行状态研判算法M,具体的步骤如下:
步骤1:将车辆运行状态划分为变道、加速、减速、停车、逆行等m种类型,每种类型,设置对应类型的阈值λ;
步骤2:取每种类型车辆运行状态的已知样本集合输入深度学习算法模型,训练学习得到每种类型车辆运行状态的对应阈值ψ。
例如:将变道车辆的样本集合集Lt={lt|lt=l1t,l2t,......,lnt}带入学习模型M1,计算车辆变道运行状态的阈值;学习模型M1,记为:
同理,可以推算出车辆加速、减速、停车、逆行等各种运行状态的阈值;
步骤3:根据计算的阈值ψ,选取一个最大值阈值ψ2和最小值阈值ψ1,设置阈值范围,构建车辆运行状态研判算法M,记为:
M:ψ1≤ψ<ψ2,ψ∈Λ
其中,当车辆特征数据满足ψ1≤ψ<ψ2时,判别车辆属于某种运行状态Λ;反之,则不属于车辆运行状态Λ。
将连续时间标签下采集的的车辆特征数据集Q2输入车辆运行状态研判算法M,计算获得车辆的运行状态,输出车辆变道、加速、减速、停车、逆行等运行状态集合Λ,并存储到车辆运行状态主题数据库。
上述公式均是去除量纲取其数值计算,公式是由采集大量数据进行软件模拟得到最接近真实情况的一个公式,公式中的预设参数和预设阈值由本领域的技术人员根据实际情况设定或者大量数据模拟获得。
本发明的工作原理:本发明一种基于雷达和视频融合的车辆轨迹感知与状态提取方法包括在快速路交织区安装毫米波雷达检测器和视频检测器,获取每个车辆的位置、速度、车型和图像、号牌数据的样本集合;设计多层耦合智能分析算法;采用多层耦合算法融合分析毫米波雷达和视频检测器采集的车辆样本集合,识别车辆特征,在线感知车辆运行轨迹;设计车辆运行状态研判算法;采用车辆运行状态研判算法,提取车辆变道、加速、减速、停车、逆行等运行状态信息。本方法根据车辆自身特征及其运行数据,在线计算及判别车辆行驶轨迹和运行状态,为交通管理者准确掌握快速路交织区交通运行状态,规范车辆驾驶行为,制定交通组织优化方案提供技术支持。
以上实施例仅用以说明本发明的技术方法而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方法进行修改或等同替换,而不脱离本发明技术方法的精神和范围。
Claims (3)
1.一种基于雷达和视频融合的车辆轨迹感知与状态提取方法,其特征在于,包括以下步骤:
选择快速路交织区上游、下游P1-P2米处作为检测点,安装毫米波雷达和视频检测器,获取通过该检测点的每个车辆位置、速度、车型、号牌等作为样本集合,记为:
Q={x|x=x1,x2……xn};
其中,x代表每个车辆的位置L、速度V、车型S、号牌ID的样本子集,即x=(l,v,s,id);
其中位置L、速度V、车型S、号牌ID分别标记为:
L={l|l=l1,l2……ln};
V={v|v=v1,v2……vn};
S={s|s=s1,s2……sn};
ID={id|id=id1,id2……idn};
l代表一个采集周期内,检测点采集的所有车辆的经纬度坐标;
v代表一个采集周期内,通过检测点的所有车辆的地点车速,单位km/h;
s代表一个采集周期内,通过检测点的所有车辆的车型;
id代表一个采集周期内,通过检测点的所有车辆的号牌;
设计多层耦合智能分析算法C;
第一层耦合算法记为C1:基于检测器所在路段ID,耦合雷达、视频检测的车辆数据,提取和存储车辆基础特征数据,记为:
第二层耦合算法记为C2:设置时间更新间隔设置为30ms,基于空间经纬度坐标和时间标签,耦合GIS地图和车辆的时空位置数据,提取和存储时空维度下车辆运行特征数据,记为:
其中,T代表时间标签;
采用多层耦合算法融合分析毫米波雷达和视频检测器采集的车辆样本集合,识别车辆特征,感知车辆运行轨迹;
步骤1:将毫米波雷达和视频检测器的样本集合输入多层耦合智能分析算法C中的第一层耦合算法C1,生成映射数据集Q1;
步骤2:将映射数据集Q1迭代到第二层耦合算法C2中,生成时间标签下的特征数据集Q2;
设计车辆运行状态研判算法M;
步骤1:将车辆运行状态划分为m种类型,设置对应类型的阈值λ;
步骤2:取每种类型车辆运行状态的已知样本集合输入深度学习算法模型,训练学习得到每种类型车辆运行状态的对应阈值ψ;
根据计算的阈值ψ,选取一个最大值阈值ψ2和最小值阈值ψ1,设置阈值范围,构建车辆运行状态研判算法M,记为:
M:ψ1≤ψ<ψ2,ψ∈Λ
其中,当车辆特征数据满足ψ1≤ψ<ψ2时,判别车辆属于某种运行状态Λ;反之,则不属于车辆运行状态Λ;
将连续时间标签下采集的车辆特征数据集Q2输入车辆运行状态研判算法M,计算获得车辆的运行状态,输出车辆变道、加速、减速、停车、逆行运行状态集合Λ,并存储到车辆运行状态主题数据库。
2.根据权利要求1所述的一种基于雷达和视频融合的车辆轨迹感知与状态提取方法,其特征在于,所述车辆运行状态划分为变道、加速、减速、停车、逆行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210294772.5A CN114814825B (zh) | 2022-03-23 | 2022-03-23 | 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210294772.5A CN114814825B (zh) | 2022-03-23 | 2022-03-23 | 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114814825A CN114814825A (zh) | 2022-07-29 |
CN114814825B true CN114814825B (zh) | 2023-04-07 |
Family
ID=82531051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210294772.5A Active CN114814825B (zh) | 2022-03-23 | 2022-03-23 | 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114814825B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948523A (zh) * | 2019-03-18 | 2019-06-28 | 中国汽车工程研究院股份有限公司 | 一种基于视频与毫米波雷达数据融合的目标物识别方法及其应用 |
CN110570664A (zh) * | 2019-09-23 | 2019-12-13 | 山东科技大学 | 一种高速公路交通事件自动检测系统 |
CN114023068A (zh) * | 2021-11-09 | 2022-02-08 | 合肥工业大学设计院(集团)有限公司 | 一种短距离交织区交通流短时预测与主动控制系统及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7676087B2 (en) * | 2006-09-20 | 2010-03-09 | Delphi Technologies, Inc. | Method for identifying vehicles in electronic images |
US10082562B1 (en) * | 2018-04-27 | 2018-09-25 | Lyft, Inc. | Simultaneous object detection and data transfer with a vehicle radar |
CN110208793B (zh) * | 2019-04-26 | 2022-03-11 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶系统、方法、终端和介质 |
CN110542898A (zh) * | 2019-06-18 | 2019-12-06 | 同济大学 | 一种基于雷达组群的车辆行为连续跟踪探测系统及方法 |
CN110532896B (zh) * | 2019-08-06 | 2022-04-08 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
CN112946628A (zh) * | 2021-02-08 | 2021-06-11 | 江苏中路工程技术研究院有限公司 | 一种基于雷达与视频融合的道路运行状态检测方法及系统 |
CN114200442B (zh) * | 2021-12-10 | 2024-04-05 | 合肥工业大学 | 一种基于毫米波雷达和视觉的道路目标检测与关联方法 |
-
2022
- 2022-03-23 CN CN202210294772.5A patent/CN114814825B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948523A (zh) * | 2019-03-18 | 2019-06-28 | 中国汽车工程研究院股份有限公司 | 一种基于视频与毫米波雷达数据融合的目标物识别方法及其应用 |
CN110570664A (zh) * | 2019-09-23 | 2019-12-13 | 山东科技大学 | 一种高速公路交通事件自动检测系统 |
CN114023068A (zh) * | 2021-11-09 | 2022-02-08 | 合肥工业大学设计院(集团)有限公司 | 一种短距离交织区交通流短时预测与主动控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114814825A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Trafficnet: An open naturalistic driving scenario library | |
CN109410586A (zh) | 一种基于多元数据融合的交通状态检测方法 | |
CN108255151A (zh) | 一种无人驾驶车辆的测评系统 | |
CN115081508B (zh) | 一种基于交通数字孪生的交通运行风险平行仿真系统 | |
CN103971523A (zh) | 一种山区道路交通安全动态预警系统 | |
CN106340205A (zh) | 交通监控方法及交通监控装置 | |
Zaki et al. | Automated analysis of pedestrians’ nonconforming behavior and data collection at an urban crossing | |
CN106956680A (zh) | 一种电动汽车驾驶行为识别分析方法 | |
CN111949896A (zh) | 基于轨迹大数据的轨迹异常检测方法 | |
CN111666859A (zh) | 一种危险驾驶行为识别方法 | |
Amini et al. | Development of a conflict risk evaluation model to assess pedestrian safety in interaction with vehicles | |
CN114882069A (zh) | 基于lstm网络和注意力机制的出租车轨迹异常检测方法 | |
Singh et al. | Driver behaviour modelling of vehicles at signalized intersection with heterogeneous traffic | |
CN106504542A (zh) | 车速智能监控方法和系统 | |
CN116153082B (zh) | 一种基于机器视觉的高速公路路况采集分析处理系统 | |
CN114814825B (zh) | 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法 | |
CN116434520A (zh) | 一种基于全息感知的行人过街碰撞风险预警方法及系统 | |
CN116061953A (zh) | 一种基于行驶轨迹数据的货车危险驾驶行为判别评价方法 | |
CN110956072B (zh) | 一种基于大数据分析的驾驶技能培训方法 | |
CN113128847A (zh) | 一种基于激光雷达的出入口匝道实时风险预警系统及方法 | |
CN106354883A (zh) | 一种视频信息结构组织方法和系统 | |
CN112686127A (zh) | 基于gm-hmm的驾驶员超车意图识别方法 | |
Yuan et al. | Real-time long-range road estimation in unknown environments | |
Wang et al. | Driver modeling based on vehicular sensing data | |
Zhang et al. | Detecting driver distractions using a deep learning approach and multi-source naturalistic driving data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |