CN109633621A - 一种车载环境感知系统数据处理方法 - Google Patents
一种车载环境感知系统数据处理方法 Download PDFInfo
- Publication number
- CN109633621A CN109633621A CN201811596589.0A CN201811596589A CN109633621A CN 109633621 A CN109633621 A CN 109633621A CN 201811596589 A CN201811596589 A CN 201811596589A CN 109633621 A CN109633621 A CN 109633621A
- Authority
- CN
- China
- Prior art keywords
- target
- radar
- camera
- vehicle
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 12
- 230000001953 sensory effect Effects 0.000 title abstract 2
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 16
- 238000011156 evaluation Methods 0.000 claims description 14
- 238000000034 method Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 5
- 238000007635 classification algorithm Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 5
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种车载环境感知系统数据处理方法,步骤1:通过雷达和摄像头分别采集并计算车辆环境信息;步骤2:分别统计摄像头和雷达的目标识别率,设为α和β,将α、β传入融合单元用步骤3中的融合评价函数计算目标得分;步骤3:设计融合评价函数;步骤4:设判断融合后的目标是否可信的阈值为T,如果f(x)≥T,则认为融合后的目标可信;否则,认为目标不可信,丢弃该目标;步骤5:将摄像头和雷达采集到的关于融合后目标的所有信息输出给下一级系统。本发明可行性强,融合评价函数设计简便实用、计算量小,融合结果经过阈值判定筛选,剔除粗大误差,增强融合结果可靠性。
Description
技术领域
本发明属于汽车领域,涉及一种车载环境感知系统数据处理方法。
背景技术
在汽车上安装一套检测准确度高的高级驾驶辅助系统(ADAS)或者自动紧急制动系统(AEB)很有必要,而环境感知系统就成为其中关键的一步。目前市场上很多相关产品设计,有基于单个传感器实现的,也有基于多个传感器融合实现的,单个传感器实现的环境感知系统都存在各自的弊端,比多传感器融合实现的环境感知系统识别精度要低。本发明是将毫米波雷达速度分辨率高、恶劣天气抗干扰性能好等优点和摄像头角度分辨率高、目标分类信息明确等优点相结合而设计的环境感知系统融合方法及结果筛选方法,使得识别结果具有高精度、高准确率。现有融合方法主要有随机类(加权平均法、贝叶斯估计等)和人工智能类(神经网络、模糊逻辑推理等)两大类。
现有车载环境感知系统数据融合涉及到的权重值大都是根据人为经验估计而定的,冗余数据利用率不高。另外,融合结果未经取舍直接输出到下一级,使得结果容易被坏的融合数据感染。
发明内容
为了克服以上问题,本发明提供了可靠性更高的一种车载环境感知系统数据处理方法。
一种车载环境感知系统数据处理方法,包括如下步骤:
步骤1:通过雷达和摄像头分别采集并计算车辆环境信息;
步骤2:分别统计摄像头和雷达的目标识别率,设为α和β,将α、β传入融合单
元用步骤3中的融合评价函数计算目标得分;
步骤3:设计融合评价函数如下:
其中f(x)为融合后目标的得分值,f1(x)为摄像头识别到该目标的得分值,f2(x)为雷达识别到同一目标的得分值,α为摄像头的目标识别率,β为雷达的目标识别率;
步骤4:设判断融合后的目标是否可信的阈值为T,如果f(x)≥T,则认为融合后的目标可信;否则,认为目标不可信,丢弃该目标;
步骤5:将摄像头和雷达采集到的关于融合后目标的所有信息输出给下一级系统。
优选的,步骤1具体为:在同一辆车前挡风玻璃上安装摄像头感知单元,在其前保险杠中央安装雷达感知单元,同时在车辆静止以及行驶过程中采集大量数据(采集雷达点云数据以及所在环境中目标所在位置、类型(人或者车或者其他)的真实数据,需要通过大量数据分析雷达点云数据的准确性,数据量越大,统计结果越接近真实值);摄像头感知单元采集到的数据通过图像运算单元(连接在摄像头后端的一个运算单元,专门用于对摄像采集到的图像进行分析计算)进行计算:图像运算单元使用传统的机器学习方法,通过训练样本提取特征(特征包含图像颜色3通道特征、六个方向梯度特征、梯度幅值特征),通过Adaboost或者SVM分类算法检测车辆或者行人;雷达感知单元采集到的数据通过雷达回波运算单元计算出目标方位角、速度、距离等信息。
更优选的,步骤1中雷达为毫米波雷达。
通过坐标系标定法将摄像头检测到的目标和雷达检测到的同一目标对应起来,然后利用卷积神经网络CNN算法进行数据融合,得到融合目标O。
所述融合为:将图像颜色3通道特征、六个方向梯度特征、梯度幅值特征、目标方位角、速度、距离、类型都作为卷积神经网络CNN算法的输入数据,经过计算之后输出融合目标O的类型、具体坐标位置、速度、加速度、转向角及角加速度信息。
优选的,步骤2:仅使用车辆上的摄像头采集几百万张甚至几千万张车辆行驶过程中的道路状况街景图,组成一个测试集,假设该数据集中一共有M个待检目标,待检目标为车辆或者行人,然后使用图像计算单元检测目标,并统计检测到的目标个数,假设统计检测到的正确目标个数为N,则计算摄像头的目标识别率α=N/M(式一);同理,仅使用毫米波雷达在几百万甚至几千万帧的雷达数据中检测目标,假设共有R个待检目标,检测到的正确目标个数为K,则雷达的目标识别率β=K/R(式二);将α、β传入融合单元用步骤3中的融合评价函数计算目标得分;
步骤3:设计融合评价函数如下:
其中f(x)为融合后目标的得分值,f1(x)为摄像头识别到该目标的得分值,f2(x)为雷达识别到同一目标的得分值,α为摄像头的目标识别率,β为雷达的目标识别率;将(式一)(式二)带入(式三),即可得到融合后目标O的实际得分值。
步骤4中阈值T是根据大量测试数据计算而定:
先设置阈值T=0.8,然后用此融合系统去识别行人、车辆,如果有时候识别行人是行人、车辆是车辆、但有时候将车辆识别成行人、将木桩或其他障碍物识别成车辆,且误识别率高达到50%,则重新调整T=0.9,此时如果前方有行人或者车辆却没检测到,则说明阈值T设置的太大了,然后重新调整T=0.85,此时如果行人车辆都能检测到,且正确率高达96%,则最终将阈值T确定为0.85;
或是根据经验值估计而定:
根据以往单个摄像头的正确识别目标的得分f1(x)得知车辆能正确识别且识别率达到98%的得分在0.9,而行人能正确识别且识别率到达98%的得分在0.7,而根据以往单个雷达的正确识别目标的得分f2(x)得知车辆能正确识别且识别率达到98%的得分在0.98,而行人能正确识别且识别率到达98%的得分在0.6,则阈值T=(0.9+0.7+0.98+0.6)/4=0.795,则最终将阈值T确定为0.795。
优选的,步骤5中信息包括目标位置、大小、类型、运动状态。
步骤5所述融合后的下一级系统:对于做ACC(自适应巡航系统)、AEB(自动紧急刹车系统),融合后的下一级系统是指决策规划单元;对于做自动驾驶功能,融合后的下一级系统可以是指二维或者三维构图单元,然后结合导航单元绘制当前车辆周边实时街景图、也可以是指决策规划单元。综上所述,下一级系统可以统称为:信息综合处理单元,就是把融合信息和导航单元以及其他单元的信息综合处理,给出决策,然后控制车辆的动力以及转向系统。
下面对本发明做进一步的说明:
步骤1:分别将摄像头感知单元和毫米波雷达(以下简称雷达)感知单元安装在同一辆车上的适当位置,同时采集大量数据,摄像头采集到的数据通过图像运算单元计算出目标相关信息,雷达采集到的数据通过雷达回波运算单元计算出目标相关信息。
步骤2:分别统计摄像头和雷达的目标识别率,设为α和β,将α、β传入融合单元用步骤3中的融合评价函数计算目标得分。
步骤3:设计融合评价函数如下:
其中f(x)为融合后目标的得分值,f1(x)为摄像头识别到该目标的得分值,f2(x)为雷达识别到同一目标的得分值,α为摄像头的目标识别率,β为雷达的目标识别率。
步骤4:设判断融合后的目标是否可信的阈值为T,如果f(x)≥T,则认为融合后的目标可信;否则,认为目标不可信,丢弃该目标。阈值T可以是根据大量测试数据计算而定,也可以是根据经验值估计而定。
步骤5:将摄像头和雷达采集到的关于融合后目标的所有信息(包括目标位置、大小、类型、运动状态等)输出给下一级系统。
本发明大大提高了辅助驾驶系统识别障碍物的准确度与位置精确度、以及环境适应性等。概率评价函数设计简便实用、计算量小,提高了系统实时性。整个系统相比其他多传感器融合方案而言,融合结果经过阈值判定筛选,剔除粗大误差,增强了系统可靠性。具有以下优点:
1、本发明设计的权重值是根据大量测试数据得出的目标识别率归一化后确定的分配各传感器对融合目标的贡献值,可行性强。
2、融合评价函数设计简便实用、计算量小。
3、融合结果经过阈值判定筛选,剔除粗大误差,增强融合结果可靠性。
附图说明
图1本发明的方法流程图。
具体实施方式
下面采用实施例对本发明做进一步说明,但应理解本发明并非仅限于以下实施例范围。
实施例1
步骤1:在同一辆车前挡风玻璃上安装一个摄像头感知单元,在其前保险杠中央安装一个毫米波雷达感知单元,同时在车辆静止以及行驶过程中采集大量数据。
摄像头采集到的数据通过图像运算单元计算出目标相关信息,图像运算单元使用传统的机器学习方法,通过训练样本提取特征,通过Adaboost或者SVM分类算法检测车辆或者行人。雷达采集到的数据通过雷达回波运算单元计算出目标方位角、速度、距离等信息。通过坐标系标定法将摄像头检测到的目标和雷达检测到的同一目标对应起来,然后利用卷积神经网络CNN算法进行数据融合,得到融合目标O,目标O是否是想要检测到的障碍物,就需要通过下面步骤3中所述的目标得分值来判断,得分高于判定阈值T的则认为是目标,否则不是。
步骤2:仅使用车辆上的摄像头采集几百万张甚至几千万张车辆行驶过程中的道路状况街景图,组成一个测试集,假设该数据集中一共有M个待检目标(车辆或者行人),然后使用图像计算单元检测目标,并统计检测到的目标个数,假设统计检测到的正确目标个数为N,则计算摄像头的目标识别率α=N/M(式一);同理,仅使用毫米波雷达在几百万甚至几千万帧的雷达数据中检测目标,假设共有R个待检目标,检测到的正确目标个数为K,则雷达的目标识别率β=K/R(式二)。将α、β传入融合单元用步骤3中的融合评价函数计算目标得分。
步骤3:设计融合评价函数如下:
其中f(x)为融合后目标的得分值,f1(x)为摄像头识别到该目标的得分值,f2(x)为雷达识别到同一目标的得分值,α为摄像头的目标识别率,β为雷达的目标识别率。将(式一)(式二)带入(式三),即可得到融合后目标O的实际得分值。
步骤4:设判断融合后的目标是否可信的阈值为T,如果f(x)≥T,则认为融合后的目标可信;否则,认为目标不可信,丢弃该目标。阈值T可以是根据大量测试数据计算而定,也可以是根据经验值估计而定。
其中,
根据大量测试数据计算而定:
先设置阈值T=0.8,然后用此融合系统去识别行人、车辆,如果有时候识别行人是行人、车辆是车辆、但有时候将车辆识别成行人、将木桩或其他障碍物识别成车辆,且误识别率高达到50%,则重新调整T=0.9,此时如果前方有行人或者车辆却没检测到,则说明阈值T设置的太大了,然后重新调整T=0.85,此时如果行人车辆都能检测到,且正确率高达96%,则最终将阈值T确定为0.85;
或根据经验值估计而定:
根据以往单个摄像头的正确识别目标的得分f1(x)得知车辆能正确识别且识别率达到98%的得分在0.9,而行人能正确识别且识别率到达98%的得分在0.7,而根据以往单个雷达的正确识别目标的得分f2(x)得知车辆能正确识别且识别率达到98%的得分在0.98,而行人能正确识别且识别率到达98%的得分在0.6,则阈值T=(0.9+0.7+0.98+0.6)/4=0.795,则最终将阈值T确定为0.795。
步骤5:将摄像头和雷达采集到的关于融合后目标的所有信息(包括目标位置、大小、类型、运动状态等)输出给下一级系统。
下一级系统为:对于做ACC(自适应巡航系统)、AEB(自动紧急刹车系统),融合后的下一级系统是指决策规划单元;对于做自动驾驶功能,融合后的下一级系统可以是指二维或者三维构图单元,然后结合导航单元绘制当前车辆周边实时街景图、也可以是指决策规划单元。综上所述,下一级系统可以统称为:信息综合处理单元,就是把融合信息和导航单元以及其他单元的信息综合处理,给出决策,然后控制车辆的动力以及转向系统。
Claims (6)
1.一种车载环境感知系统数据处理方法,其特征在于:包括如下步骤:
步骤1:通过雷达和摄像头分别采集并计算车辆环境信息;
步骤2:分别统计摄像头和雷达的目标识别率,设为α和β,将α、β传入融合单元用步骤3中的融合评价函数计算目标得分;
步骤3:设计融合评价函数如下:
其中f(x)为融合后目标的得分值,f1(x)为摄像头识别到该目标的得分值,f2(x)为雷达识别到同一目标的得分值,α为摄像头的目标识别率,β为雷达的目标识别率;
步骤4:设判断融合后的目标是否可信的阈值为T,如果f(x)≥T,则认为融合后的目标可信;否则,认为目标不可信,丢弃该目标;
步骤5:将摄像头和雷达采集到的关于融合后目标的所有信息输出给下一级系统。
2.根据权利要求1所述的车载环境感知系统数据处理方法,其特征在于:步骤1具体为:在同一辆车前挡风玻璃上安装摄像头感知单元,在其前保险杠中央安装雷达感知单元,同时在车辆静止以及行驶过程中采集大量数据;摄像头感知单元采集到的数据通过图像运算单元进行计算:图像运算单元使用传统的机器学习方法,通过训练样本提取特征,通过Adaboost或者SVM分类算法检测车辆或者行人;雷达感知单元采集到的数据通过雷达回波运算单元计算出目标方位角、速度、距离等信息。
3.根据权利要求1或2所述的车载环境感知系统数据处理方法,其特征在于:步骤1中雷达为毫米波雷达。
4.根据权利要求1所述的车载环境感知系统数据处理方法,其特征在于:步骤2:仅使用车辆上的摄像头采集几百万张甚至几千万张车辆行驶过程中的道路状况街景图,组成一个测试集,假设该数据集中一共有M个待检目标,待检目标为车辆或者行人,然后使用图像计算单元检测目标,并统计检测到的目标个数,假设统计检测到的正确目标个数为N,则计算摄像头的目标识别率α=N/M(式一);同理,仅使用毫米波雷达在几百万甚至几千万帧的雷达数据中检测目标,假设共有R个待检目标,检测到的正确目标个数为K,则雷达的目标识别率β=K/R(式二);将α、β传入融合单元用步骤3中的融合评价函数计算目标得分;
步骤3:设计融合评价函数如下:
其中f(x)为融合后目标的得分值,f1(x)为摄像头识别到该目标的得分值,f2(x)为雷达识别到同一目标的得分值,α为摄像头的目标识别率,β为雷达的目标识别率;将(式一)(式二)带入(式三),即可得到融合后目标O的实际得分值。
5.根据权利要求1所述的车载环境感知系统数据处理方法,其特征在于:步骤4中阈值T是根据大量测试数据计算而定:
先设置阈值T=0.8,然后用此融合系统去识别行人、车辆,如果有时候识别行人是行人、车辆是车辆、但有时候将车辆识别成行人、将木桩或其他障碍物识别成车辆,且误识别率高达到50%,则重新调整T=0.9,此时如果前方有行人或者车辆却没检测到,则说明阈值T设置的太大了,然后重新调整T=0.85,此时如果行人车辆都能检测到,且正确率高达96%,则最终将阈值T确定为0.85;
或根据经验值估计而定:
根据以往单个摄像头的正确识别目标的得分f1(x)得知车辆能正确识别且识别率达到98%的得分在0.9,而行人能正确识别且识别率到达98%的得分在0.7,而根据以往单个雷达的正确识别目标的得分f2(x)得知车辆能正确识别且识别率达到98%的得分在0.98,而行人能正确识别且识别率到达98%的得分在0.6,则阈值T=(0.9+0.7+0.98+0.6)/4=0.795,则最终将阈值T确定为0.795。
6.根据权利要求1所述的车载环境感知系统数据处理方法,其特征在于:步骤5中信息包括目标位置、大小、类型、运动状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811596589.0A CN109633621A (zh) | 2018-12-26 | 2018-12-26 | 一种车载环境感知系统数据处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811596589.0A CN109633621A (zh) | 2018-12-26 | 2018-12-26 | 一种车载环境感知系统数据处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109633621A true CN109633621A (zh) | 2019-04-16 |
Family
ID=66077635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811596589.0A Pending CN109633621A (zh) | 2018-12-26 | 2018-12-26 | 一种车载环境感知系统数据处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109633621A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110161505A (zh) * | 2019-05-21 | 2019-08-23 | 一汽轿车股份有限公司 | 一种基于毫米波雷达后防撞预警方法 |
CN110443138A (zh) * | 2019-07-05 | 2019-11-12 | 东南大学 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
WO2020244522A1 (en) * | 2019-06-03 | 2020-12-10 | Byton Limited | Traffic blocking detection |
CN112419717A (zh) * | 2020-11-13 | 2021-02-26 | 中国第一汽车股份有限公司 | 目标管理方法、装置、车辆及存储介质 |
CN113012470A (zh) * | 2021-03-18 | 2021-06-22 | 中国第一汽车股份有限公司 | 一种前碰撞预警系统的报警方法及参数实时调校方法 |
CN113257021A (zh) * | 2020-02-13 | 2021-08-13 | 宁波吉利汽车研究开发有限公司 | 一种车辆安全预警方法及系统 |
CN114523985A (zh) * | 2022-04-24 | 2022-05-24 | 新石器慧通(北京)科技有限公司 | 基于传感器的感知结果的无人车运动决策方法及装置 |
CN114594464A (zh) * | 2022-05-10 | 2022-06-07 | 合肥智辉空间科技有限责任公司 | 一种基于毫米波传感技术的人体存在检测方法及系统 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324936A (zh) * | 2013-05-24 | 2013-09-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
CN103679214A (zh) * | 2013-12-20 | 2014-03-26 | 华南理工大学 | 基于在线面积估计和多特征决策融合的车辆检测方法 |
US20140142800A1 (en) * | 2012-11-16 | 2014-05-22 | GM Global Technology Operations LLC | Method and apparatus for state of health estimation of object sensing fusion system |
EP2788838A1 (en) * | 2011-12-09 | 2014-10-15 | Nokia Corporation | Method and apparatus for identifying a gesture based upon fusion of multiple sensor signals |
CN104215935A (zh) * | 2014-08-12 | 2014-12-17 | 电子科技大学 | 一种基于决策加权融合的雷达炮弹目标识别方法 |
CN105372654A (zh) * | 2015-12-14 | 2016-03-02 | 财团法人车辆研究测试中心 | 障碍物分类可靠度量化的方法 |
KR20170022709A (ko) * | 2015-08-21 | 2017-03-02 | 현대자동차주식회사 | 차량 정보 기반 센서퓨전 시스템 |
CN107202983A (zh) * | 2017-05-19 | 2017-09-26 | 深圳佑驾创新科技有限公司 | 基于图像识别和毫米波雷达融合的自动刹车方法和系统 |
KR20180007412A (ko) * | 2016-07-13 | 2018-01-23 | 한국전자통신연구원 | 멀티센서 기반의 융합형 물체 감지 장치 및 방법 |
CN107783106A (zh) * | 2016-08-25 | 2018-03-09 | 大连楼兰科技股份有限公司 | 无人机与障碍物之间的数据融合方法 |
CN107918386A (zh) * | 2017-10-25 | 2018-04-17 | 北京汽车集团有限公司 | 用于车辆的多传感器数据融合方法、装置及车辆 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN108960083A (zh) * | 2018-06-15 | 2018-12-07 | 北京邮电大学 | 基于多传感器信息融合的自动驾驶目标分类方法及系统 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及系统 |
CN109061569A (zh) * | 2018-08-03 | 2018-12-21 | 中国人民解放军战略支援部队信息工程大学 | 一种时空信息融合的目标检测方法及系统 |
-
2018
- 2018-12-26 CN CN201811596589.0A patent/CN109633621A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2788838A1 (en) * | 2011-12-09 | 2014-10-15 | Nokia Corporation | Method and apparatus for identifying a gesture based upon fusion of multiple sensor signals |
US20140142800A1 (en) * | 2012-11-16 | 2014-05-22 | GM Global Technology Operations LLC | Method and apparatus for state of health estimation of object sensing fusion system |
CN103324936A (zh) * | 2013-05-24 | 2013-09-25 | 北京理工大学 | 一种基于多传感器融合的车辆下边界检测方法 |
CN103679214A (zh) * | 2013-12-20 | 2014-03-26 | 华南理工大学 | 基于在线面积估计和多特征决策融合的车辆检测方法 |
CN104215935A (zh) * | 2014-08-12 | 2014-12-17 | 电子科技大学 | 一种基于决策加权融合的雷达炮弹目标识别方法 |
KR20170022709A (ko) * | 2015-08-21 | 2017-03-02 | 현대자동차주식회사 | 차량 정보 기반 센서퓨전 시스템 |
CN105372654A (zh) * | 2015-12-14 | 2016-03-02 | 财团法人车辆研究测试中心 | 障碍物分类可靠度量化的方法 |
KR20180007412A (ko) * | 2016-07-13 | 2018-01-23 | 한국전자통신연구원 | 멀티센서 기반의 융합형 물체 감지 장치 및 방법 |
CN107783106A (zh) * | 2016-08-25 | 2018-03-09 | 大连楼兰科技股份有限公司 | 无人机与障碍物之间的数据融合方法 |
CN107202983A (zh) * | 2017-05-19 | 2017-09-26 | 深圳佑驾创新科技有限公司 | 基于图像识别和毫米波雷达融合的自动刹车方法和系统 |
CN107918386A (zh) * | 2017-10-25 | 2018-04-17 | 北京汽车集团有限公司 | 用于车辆的多传感器数据融合方法、装置及车辆 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN108960083A (zh) * | 2018-06-15 | 2018-12-07 | 北京邮电大学 | 基于多传感器信息融合的自动驾驶目标分类方法及系统 |
CN109061569A (zh) * | 2018-08-03 | 2018-12-21 | 中国人民解放军战略支援部队信息工程大学 | 一种时空信息融合的目标检测方法及系统 |
CN108983219A (zh) * | 2018-08-17 | 2018-12-11 | 北京航空航天大学 | 一种交通场景的图像信息和雷达信息的融合方法及系统 |
Non-Patent Citations (3)
Title |
---|
LI-WEI FONG: "Multisensor Data Fusion with Estimated Weights", 《IEEE ISIE 2006》 * |
吴宪等: "基于毫米波雷达与摄像头融合的目标跟踪研究基于毫米波雷达与摄像头融合的目标跟踪研究", 《机电一体化》 * |
王艳平: "多传感器信息融合技术在移动机器人障碍探测中的应用", 《信息化研究》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110161505A (zh) * | 2019-05-21 | 2019-08-23 | 一汽轿车股份有限公司 | 一种基于毫米波雷达后防撞预警方法 |
WO2020244522A1 (en) * | 2019-06-03 | 2020-12-10 | Byton Limited | Traffic blocking detection |
CN110443138A (zh) * | 2019-07-05 | 2019-11-12 | 东南大学 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
CN110443138B (zh) * | 2019-07-05 | 2021-10-19 | 东南大学 | 基于车载毫米波雷达联合svm和cnn多目标分类方法 |
CN113257021A (zh) * | 2020-02-13 | 2021-08-13 | 宁波吉利汽车研究开发有限公司 | 一种车辆安全预警方法及系统 |
CN113257021B (zh) * | 2020-02-13 | 2022-12-23 | 宁波吉利汽车研究开发有限公司 | 一种车辆安全预警方法及系统 |
CN112419717A (zh) * | 2020-11-13 | 2021-02-26 | 中国第一汽车股份有限公司 | 目标管理方法、装置、车辆及存储介质 |
CN112419717B (zh) * | 2020-11-13 | 2022-03-11 | 中国第一汽车股份有限公司 | 目标管理方法、装置、车辆及存储介质 |
CN113012470A (zh) * | 2021-03-18 | 2021-06-22 | 中国第一汽车股份有限公司 | 一种前碰撞预警系统的报警方法及参数实时调校方法 |
CN114523985A (zh) * | 2022-04-24 | 2022-05-24 | 新石器慧通(北京)科技有限公司 | 基于传感器的感知结果的无人车运动决策方法及装置 |
CN114594464A (zh) * | 2022-05-10 | 2022-06-07 | 合肥智辉空间科技有限责任公司 | 一种基于毫米波传感技术的人体存在检测方法及系统 |
CN114594464B (zh) * | 2022-05-10 | 2022-08-09 | 合肥智辉空间科技有限责任公司 | 一种基于毫米波传感技术的人体存在检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109633621A (zh) | 一种车载环境感知系统数据处理方法 | |
CN111382768B (zh) | 多传感器数据融合方法和装置 | |
CN104573646B (zh) | 基于激光雷达和双目相机的车前行人检测方法及系统 | |
CN107609522B (zh) | 一种基于激光雷达和机器视觉的信息融合车辆检测系统 | |
CN107972662B (zh) | 一种基于深度学习的车辆前向碰撞预警方法 | |
CN105892471B (zh) | 汽车自动驾驶方法和装置 | |
CN106096525B (zh) | 一种复合型车道识别系统及方法 | |
US9767368B2 (en) | Method and system for adaptive ray based scene analysis of semantic traffic spaces and vehicle equipped with such system | |
CN109919074B (zh) | 一种基于视觉感知技术的车辆感知方法及装置 | |
CN112700470B (zh) | 一种基于交通视频流的目标检测和轨迹提取方法 | |
CN102765365B (zh) | 基于机器视觉的行人检测方法及行人防撞预警系统 | |
US9429650B2 (en) | Fusion of obstacle detection using radar and camera | |
CN107031661A (zh) | 一种基于盲区相机输入的变道预警方法及系统 | |
CN108960083B (zh) | 基于多传感器信息融合的自动驾驶目标分类方法及系统 | |
Pyo et al. | Front collision warning based on vehicle detection using CNN | |
CN113432615B (zh) | 基于多传感器融合可驾驶区域的检测方法、系统和车辆 | |
CN115034324A (zh) | 一种多传感器融合感知效能增强方法 | |
CN115657002A (zh) | 基于交通毫米波雷达的车辆运动状态估计方法 | |
CN108256418B (zh) | 一种基于红外成像的行人预警方法及系统 | |
CN114296095A (zh) | 自动驾驶车辆的有效目标提取方法、装置、车辆及介质 | |
KR20210122101A (ko) | 객체를 분류하는 레이더 장치 및 방법 | |
US11269059B2 (en) | Locating and/or classifying objects based on radar data, with improved reliability at different distances | |
JPH11142168A (ja) | 環境認識装置 | |
CN112085101A (zh) | 一种高性能高可靠的环境融合感知方法及系统 | |
EP3786845A1 (en) | Difficulty-adaptive training for machine learning modules |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20211022 |