CN112232421B - 一种基于多维融合技术的道路场景目标检测方法及系统 - Google Patents

一种基于多维融合技术的道路场景目标检测方法及系统 Download PDF

Info

Publication number
CN112232421B
CN112232421B CN202011119635.5A CN202011119635A CN112232421B CN 112232421 B CN112232421 B CN 112232421B CN 202011119635 A CN202011119635 A CN 202011119635A CN 112232421 B CN112232421 B CN 112232421B
Authority
CN
China
Prior art keywords
data
vehicle
time
target
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011119635.5A
Other languages
English (en)
Other versions
CN112232421A (zh
Inventor
高洪波
何希
李智军
朱菊萍
郝正源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202011119635.5A priority Critical patent/CN112232421B/zh
Publication of CN112232421A publication Critical patent/CN112232421A/zh
Application granted granted Critical
Publication of CN112232421B publication Critical patent/CN112232421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/257Belief theory, e.g. Dempster-Shafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种基于多维融合技术的道路场景目标检测方法及系统,包括:步骤M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;步骤M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;步骤M3:将数据集D1按照空域融合规则进行处理,得到数据集D2;步骤M4:将数据集D2按照D‑S融合规则进行融合,得到道路场景目标检测结果并将道路场景目标检测结果输出给接收显示系统;本发明降低了车辆在行驶过程中目标检测错误或不准确的概率,有效地提高了驾驶人及车辆的安全性,并确保了道路交通的正常运行。

Description

一种基于多维融合技术的道路场景目标检测方法及系统
技术领域
本发明涉及智能驾驶技术领域,具体地,涉及一种基于多维融合技术的道路场景目标检测方法及系统,更为具体地,涉及一种基于空、时域多维融合技术的道路场景目标检测方法。
背景技术
智能驾驶技术代表了一个国家科研实力和工业发展水平,具体为控制智能车辆行驶,让驾驶活动中常规的、持久且疲劳的操作自动完成,驾驶人仅仅做高级的目的性操作,能够极大地提高智能交通系统的效率和安全性,并增强我国在智能交通系统方面以及汽车相关产业方面的核心竞争力。
随着智能驾驶技术的发展,车辆所行驶的道路场景是一个值得研究的重点。车辆在驾驶过程中的安全性和高效性,与其驾驶过程中的道路场景变化息息相关。其中,对道路场景目标的检测作为驾驶车辆的必要条件之一,对于车辆的驾驶安全和行驶效率有着十分重要的影响。如何准确、及时地检测驾驶车辆周围的道路场景目标,成为了智能驾驶技术研究的关键问题之一。
专利文献CN110263786A(申请号:201910549482.9)公开了一种基于特征维度融合的道路多目标识别系统及方法,包括:用于提取道路场景图像特征的全卷积网络单元;用于对提取到的特征进行初步目标位置预测的目标位置回归单元,用于融合道路场景图像外观特征的对称式融合网络单元,用于将融合后得到的特征利用区域位置热图表示空间信息的区域位置热图单元,用于将初步的目标位置预测结果与热图进行融合得到最终检测结果的融合单元。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于多维融合技术的道路场景目标检测方法及系统。
根据本发明提供的一种基于多维融合技术的道路场景目标检测方法,包括:
步骤M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;
步骤M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;
步骤M3:将数据集D1按照空域融合规则进行处理,得到数据集D2;
步骤M4:将数据集D2按照D-S融合规则进行融合,得到D-S融合规则的结果,并将D-S融合规则的结果与目标特征的概率阈值进行比较,得到道路场景目标检测结果,并将道路场景目标检测结果输出给接收显示系统;
所述数据集D1是所有车载传感器的累积数据Dt,c的数据集;而任意一个车载传感器的累积数据Dt,c是车载传感器对待检测目标的任意特征的累积概率值的集合;
所述数据集D2指所有车载传感器的累积数据Di,C的数据集;
所述时域融合规则是从时间维度上提高目标的准确性及检测精度;
所述空域融合规则是基于所有车载传感器结果,从空间维度上提高目标的准确性及检测精度;
所述D-S融合规则是降低数据之间的冲突程度,进而提高数据融合收敛的速度。
优选地,所述步骤M2中时域融合规则包括:
t时刻,对任意一个车载传感器i的累积数据Dt,C中所包含当前待检测的道路场景目标的任意特征Xik的累积概率值计算表达式为:
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (1)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n;mt,C(Xik)为车载传感器i在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为车载传感器i在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A(Xik)为车载传感器i在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间相似度系数,0<λi<1,μi为冲突系数,μi=1-λi
所述相似度系数λi的计算公式如下:
任意一个车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间的相似度系数λi为:
Figure BDA0002731556340000031
其中,
Figure BDA0002731556340000032
Kt,t-1表示t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值;
其中,
Figure BDA0002731556340000033
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合;mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数;
Figure BDA0002731556340000034
为特征Xik在t时刻的实时数据Dt,A与特征Xik在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure BDA0002731556340000035
为对应的Pignistic概率函数。
优选地,所述步骤M3中空域融合规则包括:
将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
预设任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均大于强相似度阈值FS,则标记当前任意的一个数据为强相似度数据;
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均小于FW,则标记当前任意的一个数据为弱相似度数据;除了上述强相似度数据和弱相似度数据,则标记为一般相似度数据;
将强相似度数据保留,弱相似度数据丢弃,一般相似度数据根据求得的一般相似度数据数据集期望值来修正。
优选地,所述环形数据序列中任意两个相邻数据间的相似度系数Φi,j表达式如下:
Figure BDA0002731556340000036
其中,
Figure BDA0002731556340000037
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure BDA0002731556340000038
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure BDA0002731556340000039
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
优选地,所述一般相似度数据根据求得的一般相似度数据数据集期望值来修正包括:
根据各个车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);
支持度的计算公式如下:
Figure BDA0002731556340000041
式中,
Figure BDA0002731556340000042
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度;Ki,j
Figure BDA0002731556340000043
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离;
将单个数据Di,C的支持度与所有数据支持度之和相比,得到当前单个数据的权值ωi
权值的计算公式如下:
Figure BDA0002731556340000044
通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算公式如下:
Figure BDA0002731556340000045
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure BDA0002731556340000046
根据本发明提供的一种基于多维融合技术的道路场景目标检测系统,包括:
模块M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;
模块M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;
模块M3:将数据集D1按照空域融合规则进行处理,得到数据集D2;
模块M4:将数据集D2按照D-S融合规则进行融合,得到D-S融合规则的结果,并将D-S融合规则的结果与目标特征的概率阈值进行比较,得到道路场景目标检测结果,并将道路场景目标检测结果输出给接收显示系统;
所述数据集D1是所有车载传感器的累积数据Dt,c的数据集;而任意一个车载传感器的累积数据Dt,c是车载传感器对待检测目标的任意特征的累积概率值的集合;
所述数据集D2指所有车载传感器的累积数据Di,C的数据集;
所述时域融合规则是从时间维度上提高目标的准确性及检测精度;
所述空域融合规则是基于所有车载传感器结果,从空间维度上提高目标的准确性及检测精度;
所述D-S融合规则是降低数据之间的冲突程度,进而提高数据融合收敛的速度。
优选地,所述模块M2中时域融合规则包括:
t时刻,对任意一个车载传感器i的累积数据Dt,C中所包含当前待检测的道路场景目标的任意特征Xik的累积概率值计算表达式为:
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (1)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n;mt,C(Xik)为车载传感器i在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为车载传感器i在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A(Xik)为车载传感器i在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间相似度系数,0<λi<1,μi为冲突系数,μi=1-λi
所述相似度系数λi的计算公式如下:
任意一个车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间的相似度系数λi为:
Figure BDA0002731556340000051
其中,
Figure BDA0002731556340000052
Kt,t-1表示t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值;
其中,
Figure BDA0002731556340000053
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合;mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数;
Figure BDA0002731556340000054
为特征Xik在t时刻的实时数据Dt,A与特征Xik在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure BDA0002731556340000055
为对应的Pignistic概率函数。
优选地,所述模块M3中空域融合规则包括:
将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
预设任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均大于强相似度阈值FS,则标记当前任意的一个数据为强相似度数据;
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均小于FW,则标记当前任意的一个数据为弱相似度数据;除了上述强相似度数据和弱相似度数据,则标记为一般相似度数据;
将强相似度数据保留,弱相似度数据丢弃,一般相似度数据根据求得的一般相似度数据数据集期望值来修正。
优选地,所述环形数据序列中任意两个相邻数据间的相似度系数Φi,j表达式如下:
Figure BDA0002731556340000061
其中,
Figure BDA0002731556340000062
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure BDA0002731556340000063
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure BDA0002731556340000064
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
优选地,所述一般相似度数据根据求得的一般相似度数据数据集期望值来修正包括:
根据各个车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);
支持度的计算公式如下:
Figure BDA0002731556340000065
式中,
Figure BDA0002731556340000066
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度;Ki,j
Figure BDA0002731556340000067
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离;
将单个数据Di,C的支持度与所有数据支持度之和相比,得到当前单个数据的权值ωi
权值的计算公式如下:
Figure BDA0002731556340000071
通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算公式如下:
Figure BDA0002731556340000072
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure BDA0002731556340000073
与现有技术相比,本发明具有如下的有益效果:
1、本发明提出了一种较完善的多维信息融合技术,即通过时域、空域信息融合规则处理道路场景上与待检测目标有关的数据,再按照D-S融合规则进行融合,最终分析得到目标检测结果,不仅实时性较好,还提高了目标的准确性及检测精度;
2、本发明提出了一种更精确的目标检测方法,降低了车辆行驶过程中目标检测错误或不准确的概率,避免了主车辆在道路上行驶时由于目标检测有误而产生的安全隐患,有效地提高了驾驶人及车辆的安全性,确保了道路交通的正常运行。
3、本发明通过采用多维信息融合技术,消除了多个车载传感器采集数据间的冲突较高问题,进而提高了数据融合收敛的速度,从而增强了系统识别道路场景目标的实时性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为一种基于空、时域多维融合技术的道路场景目标检测方法的流程示意图;
图2为将上述数据集D1按照空域融合规则进行处理,得到数据集D2的流程示意图;
图3为一般相似度数据以求其数据集期望值来修正的流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
本发明的目的在于克服现有技术存在的不足或缺陷,以帮助检测在车辆行驶过程中道路场景的重要目标,提高车辆运行的安全性与高效性,避免因目标检测结果错误而带来的安全隐患。
实施例1
根据本发明提供的一种基于多维融合技术的道路场景目标检测方法,如图1所示,包括:
步骤M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;
步骤M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;
步骤M3:将数据集D1按照空域融合规则进行处理,得到数据集D2,如图2所示;
步骤M4:将数据集D2按照D-S融合规则进行融合,得到道路场景目标检测结果并将道路场景目标检测结果输出给接收显示系统;
所述道路场景目标检测包括主车辆正常行驶在道路上,并主动检测以主车辆为中心的有效区域内的所有重要目标,即由主车辆上多个车载传感器通过空、时域多维融合技术分析待检测目标,进而识别目标,输出检测结果,再通过空、时域多维融合技术分析有效区域内下一个重要的待检测目标,进而识别目标,输出检测结果。主车辆在行驶过程中不断重复上述步骤。
所述数据集D1是所有车载传感器的累积数据Dt,c的数据集;而任意一个车载传感器的累积数据Dt,c是车载传感器对待检测目标的任意特征的累积概率值的集合;
所述数据集D2包括强相似度数据和修正后的一般相似度数据;
所述时域融合规则是针对当前待检测的道路场景目标的特征,通过累积概率值计算表达式计算主车辆任意一个车载传感器i的累积数据,进而得出t时刻主车辆每个车载传感器对当前待检测目标的特征集合的累积概率值,即数据集D1;从时间维度上提高了目标的准确性及检测精度。
所述空域融合规则是将数据集D1中的累积数据任意排序,且首尾相连构成一个环形数据序列,计算任意两个相邻数据间的相似度系数,并与相似度阈值比较,从而标记数据的相似度强弱,进而得出主车辆所有车载传感器对当前待检测目标的特征相似度、修正后的一般相似度累积概率值,即数据集D2,如图3所述。作用是基于所有车载传感器结果,从空间维度上提高了目标的准确性及检测精度。
所述D-S融合规则是针对当前待检测的道路场景目标的特征,计算主车辆不同车载传感器对当前待检测目标的特征集合的基本概率值,并分别与目标特征的概率阈值进行比较,进而得到场景目标检测结果。作用是降低了数据之间的冲突程度,进而提高了数据融合收敛的速度。
具体地,所述步骤M2中时域融合规则包括:
t时刻,对任意一个车载传感器i的累积数据Dt,C中所包含当前待检测的道路场景目标的任意特征Xik的累积概率值计算表达式为:
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (1)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n;mt,C(Xik)为车载传感器i在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为车载传感器i在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A(Xik)为车载传感器i在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间相似度系数,0<λi<1,μi为冲突系数,μi=1-λi
所述相似度系数λi的计算公式如下:
任意一个车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间的相似度系数λi为:
Figure BDA0002731556340000091
其中,
Figure BDA0002731556340000092
Kt,t-1表示t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值;
其中,
Figure BDA0002731556340000093
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合;mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数;
Figure BDA0002731556340000094
为特征Xik在t时刻的实时数据Dt,A与特征Xik在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure BDA0002731556340000101
为对应的Pignistic概率函数。
具体地,所述步骤M3中空域融合规则包括:
将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
预设任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均大于强相似度阈值FS,则标记当前任意的一个数据为强相似度数据;
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均小于FW,则标记当前任意的一个数据为弱相似度数据;除了上述强相似度数据和弱相似度数据,则标记为一般相似度数据;
将强相似度数据保留,弱相似度数据丢弃,一般相似度数据根据求得的一般相似度数据数据集期望值来修正。
具体地,所述环形数据序列中任意两个相邻数据间的相似度系数Φi,j表达式如下:
Figure BDA0002731556340000102
其中,
Figure BDA0002731556340000103
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure BDA0002731556340000104
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure BDA0002731556340000105
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
具体地,所述一般相似度数据根据求得的一般相似度数据数据集期望值来修正包括:
根据各个车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);支持度的计算公式如下:
Figure BDA0002731556340000106
式中,
Figure BDA0002731556340000107
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度;Ki,j
Figure BDA0002731556340000108
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离;
将单个数据Di,C的支持度与所有数据支持度之和相比,得到当前单个数据的权值ωi;权值的计算公式如下:
Figure BDA0002731556340000111
通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算公式如下:
Figure BDA0002731556340000112
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure BDA0002731556340000113
由上述公式求得,数据集中一般相似度数据Di,C的每一个特征mi,C(Xik)的期望值都由上式求得,求得的期望值用来替代mi,C(Xik),i为任意一个车载传感器,Di,C={mi,C(Xi1),mi,C(Xi2),…}。所有的一般相似度数据的期望值一起构成
Figure BDA0002731556340000114
根据本发明提供的一种基于多维融合技术的道路场景目标检测系统,包括:
模块M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;
模块M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;
模块M3:将数据集D1按照空域融合规则进行处理,得到数据集D2;
模块M4:将数据集D2按照D-S融合规则进行融合,得到道路场景目标检测结果并将道路场景目标检测结果输出给接收显示系统;
所述道路场景目标检测包括主车辆正常行驶在道路上,并主动检测以主车辆为中心的有效区域内的所有重要目标,即由主车辆上多个车载传感器通过空、时域多维融合技术分析待检测目标,进而识别目标,输出检测结果,再通过空、时域多维融合技术分析有效区域内下一个重要的待检测目标,进而识别目标,输出检测结果。主车辆在行驶过程中不断重复上述模块。
所述数据集D1是所有车载传感器的累积数据Dt,c的数据集;而任意一个车载传感器的累积数据Dt,c是车载传感器对待检测目标的任意特征的累积概率值的集合;
所述数据集D2包括强相似度数据和修正后的一般相似度数据;
所述时域融合规则是针对当前待检测的道路场景目标的特征,通过累积概率值计算表达式计算主车辆任意一个车载传感器i的累积数据,进而得出t时刻主车辆每个车载传感器对当前待检测目标的特征集合的累积概率值,即数据集D1;从时间维度上提高了目标的准确性及检测精度。
所述空域融合规则是将数据集D1中的累积数据任意排序,且首尾相连构成一个环形数据序列,计算任意两个相邻数据间的相似度系数,并与相似度阈值比较,从而标记数据的相似度强弱,进而得出主车辆所有车载传感器对当前待检测目标的特征相似度、修正后的一般相似度累积概率值,即数据集D2。作用是基于所有车载传感器结果,从空间维度上提高了目标的准确性及检测精度。
所述D-S融合规则是针对当前待检测的道路场景目标的特征,计算主车辆不同车载传感器对当前待检测目标的特征集合的基本概率值,并分别与目标特征的概率阈值进行比较,进而得到场景目标检测结果。作用是降低了数据之间的冲突程度,进而提高了数据融合收敛的速度。
具体地,所述模块M2中时域融合规则包括:
t时刻,对任意一个车载传感器i的累积数据Dt,C中所包含当前待检测的道路场景目标的任意特征Xik的累积概率值计算表达式为:
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (1)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n;mt,C(Xik)为车载传感器i在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为车载传感器i在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A(Xik)为车载传感器i在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间相似度系数,0<λi<1,μi为冲突系数,μi=1-λi
所述相似度系数λi的计算公式如下:
任意一个车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间的相似度系数λi为:
Figure BDA0002731556340000121
其中,
Figure BDA0002731556340000122
Kt,t-1表示t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值;
其中,
Figure BDA0002731556340000123
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合;mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数;
Figure BDA0002731556340000131
为特征Xik在t时刻的实时数据Dt,A与特征Xik在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure BDA0002731556340000132
为对应的Pignistic概率函数。
具体地,所述模块M3中空域融合规则包括:
将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
预设任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均大于强相似度阈值FS,则标记当前任意的一个数据为强相似度数据;
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均小于FW,则标记当前任意的一个数据为弱相似度数据;除了上述强相似度数据和弱相似度数据,则标记为一般相似度数据;
将强相似度数据保留,弱相似度数据丢弃,一般相似度数据根据求得的一般相似度数据数据集期望值来修正。
具体地,所述环形数据序列中任意两个相邻数据间的相似度系数Φi,j表达式如下:
Figure BDA0002731556340000133
其中,
Figure BDA0002731556340000134
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure BDA0002731556340000135
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure BDA0002731556340000136
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
具体地,所述一般相似度数据根据求得的一般相似度数据数据集期望值来修正包括:
根据各个车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);支持度的计算公式如下:
Figure BDA0002731556340000137
式中,
Figure BDA0002731556340000138
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度;Ki,j
Figure BDA0002731556340000141
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离;
将单个数据Di,C的支持度与所有数据支持度之和相比,得到当前单个数据的权值ωi
权值的计算公式如下:
Figure BDA0002731556340000142
通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算公式如下:
Figure BDA0002731556340000143
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure BDA0002731556340000144
由上述公式求得,数据集中一般相似度数据Di,C的每一个特征mi,C(Xik)的期望值都由上式求得,求得的期望值用来替代mi,C(Xik),i为任意一个车载传感器,Di,C={mi,C(Xi1),mi,C(Xi2),…}。所有的一般相似度数据的期望值一起构成
Figure BDA0002731556340000145
实施例2
实施例2是实施例1的变化例
为了更进一步说明本发明的特征,请参阅以下有关本发明的详细说明与附图。所附图仅供参考与说明之用,并非用来对本发明的保护范围加以限制。
如图1所示,本实施例公开了一种基于空、时域多维融合技术的道路场景目标检测方法,包括如下步骤S00~S30:
S00、多个车载传感器分别对目标区域数据进行采集,得到各自的实时数据;
S10、将上述各自的实时数据按照时域融合规则进行处理,得到数据集D1;
S20、将上述数据集D1按照空域融合规则进行处理,得到数据集D2;
S30、将数据集D2按照D-S融合规则进行融合,得出检测结果并其将输出给下一级系统。
需要说明的是,主车辆的检测系统组成如下:
主车辆的检测系统包括车载传感器模块、与车载传感器模块相连的信息处理模块,即所述信息处理模块包括处理器、存储器、收发器,所述车载传感器包括但不限于视觉传感器、雷达传感器和超声波传感器等。
需要进一步说明的是,检测系统的下一级系统是接收显示系统,此系统与检测系统的信息处理模块相连,不断接收并显示来自检测系统信息处理模块的对当前待检测目标的检测结果。
主车辆检测过程如下:
主车辆正常行驶在道路上,并主动检测以主车辆为中心的有效区域内的所有重要目标,即由主车辆上多个车载传感器通过空、时域多维融合技术分析待检测目标,进而识别目标,输出检测结果,再通过空、时域多维融合技术分析有效区域内下一个重要的待检测目标,进而识别目标,输出检测结果。主车辆在行驶过程中不断重复上述步骤。
具体来说,所述多个车载传感器分别对目标区域数据进行采集,得到各自的实时数据,包括:
主车辆的车载传感器在t时刻采集其传感器网络中所有节点测量的数据作为各个车载传感器的实时数据Dt,A,并且依据各个车载传感器的性能参数按照一定概率规则给实时数据Dt,A分配实时概率初值。
具体来说,所述将上述各自的实时数据按照时域融合规则进行处理,得到数据集D1,包括:
将各个车载传感器的实时数据Dt,A按照时域自适应加权融合规则进行融合,得到t时刻的累积数据Dt,C,并将所有车载传感器的累积数据组合起来进而得到数据集D1。
需要说明的是,在经典的D-S理论中,假定X1k和X2k为2个不同车载传感器采集到当前目标部分的实时特征,且k=1,2,则理论冲突值K的计算如下:
Figure BDA0002731556340000151
可知,理论冲突值K越接近1,表明2个数据间的冲突越大;K越接近0,表明数据间的冲突越小。然而在实际应用中,K并不能很好地度量2个数据间的冲突程度。例如,数据D1,A和D2,A的基本概率赋值函数分别为:m1(X11)=0.7,m1(X12)=0.3和m2(X21)=0.7,m2(X22)=0.3,其中,
Figure BDA0002731556340000152
则通过式(1)计算得出K=0.42,可以看出2个完全相同数据的冲突值K并不等于零。由此可得出结论,仅靠冲突值K表征数据间的冲突程度是不准确的。
为了改进上述缺陷,引入了Pignistic概率距离来修正冲突值,则数据D1,A和D2,A之间的Pignistic概率距离表达式为:
Figure BDA0002731556340000153
式中,
Figure BDA0002731556340000154
为数据Dj,A在目标的特征集合上的Pignistic概率函数,其中,Xik为目标的特征,k=1,2,…,n,Θ为目标的特征集合,经Pignistic概率距离修正后数据D1,A和D2,A之间的冲突值为:
Figure BDA0002731556340000161
可知,对应的相似度系数为:
λ1,2=1-μ1,2 (4)
需要说明的是,时域自适应加权融合规则如下:
t时刻,对主车辆任意一个车载传感器i的累积数据Dt,C中所包含目标的任意特征Xik的累积概率值计算表达式为
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (5)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n,mt,C(Xik)为该车载传感器在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为该车载传感器在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A(Xik)为该车载传感器在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为该车载传感器在t时刻的实时数据与其在t-1时刻的累积数据之间相似度系数*0<λi<1),μi为冲突系数,μi=1-λi
由上述概念可得,任意一个车载传感器i在t时刻的实时数据与其在t-1时刻的累积数据之间的相似度系数λi为:
Figure BDA0002731556340000162
式中,
Figure BDA0002731556340000163
为t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值。其中,
Figure BDA0002731556340000164
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合,mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数。
Figure BDA0002731556340000165
为特征Xik在t时刻的实时数据Dt,A与其在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure BDA0002731556340000166
为对应的Pignistic概率函数。
具体来说,所述将上述数据集D1按照空域融合规则进行处理,得到数据集D2,如图2所示,包括以下步骤S200~S202:
S200、将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
S201、假定任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW,若此环形数据序列中的某一个数据与其前一个数据的相似度系数φ1,2及与其后一个数据的相似度系数φ1,3均大于FS,则标记该数据为强相似度数据;若均小于FW,则标记该数据为弱相似度数据;其余的数据则标记为一般相似度数据;
S202、将强相似度数据保留,弱相似度数据丢弃,一般相似度数据以求其数据集期望值来修正。
需要说明的是,数据集D1中两个相邻数据间的相似度系数φi计算过程如下:
Figure BDA0002731556340000171
式中,
Figure BDA0002731556340000172
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure BDA0002731556340000173
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure BDA0002731556340000174
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
需要进一步说明的是,所述一般相似度数据以求其数据集期望值来修正,如图3所示,包括以下步骤S1~S3:
S1、根据车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);支持度的计算由下式可得:
Figure BDA0002731556340000175
式中,
Figure BDA0002731556340000176
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度。Ki,j
Figure BDA0002731556340000177
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离。
S2、将单个数据Di,C的支持度与所有数据支持度之和相比,得到该数据的权值ωi
权值的计算由下式可得:
Figure BDA0002731556340000178
S3、通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算由下式可得:
Figure BDA0002731556340000179
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure BDA0002731556340000186
具体来说,所述将上述数据集D2按照D-S融合规则进行融合,得出检测结果并将其输出给下一级系统,包括:
D-S融合规则如下:
假定目标区域中每个车载传感器检测到当前待检测目标有3个特征Xx1,Xx2和Xx3,则对于数据集D2中的任意2个累积数据Di,C={mi,C(Xi1),mi,C(Xi2),mi,C(Xi3)}Dj,C={mj,C(Xj1),mj,C(Xj2),mj,C(Xj3)}进行D-S融合处理,表达式如下:
Figure BDA0002731556340000181
Figure BDA0002731556340000182
Figure BDA0002731556340000183
式中,x=i或j,
Figure BDA0002731556340000184
Figure BDA0002731556340000185
皆为D-S理论计算冲突值。
假定目标特征的概率阈值为0.9,将上述特征的概率值与0.9进行比较,若有部分特征的概率值大于或等于0.9,则再将这些特征的概率值进行相互比较,选出其中概率值最大的特征,并将其对应的目标检测结果输出给下一级系统,即接收显示系统;若所有特征的概率值皆小于0.9,则返回步骤S00,进行下一时刻的对此当前待检测目标的检测。
需要说明的是,步骤S00中实时数据Dt,A的实时概率初值依据各个车载传感器的性能特性,一般不超过0.9,所以可将目标特征的概率阈值设定为0.9,从而主车辆至少需要经过2次目标检测过程,才能得出精确的检测结果。
首先,本实施例采用时域自适应加权融合规则,解决了数据间的冲突程度高而带来融合结果不理想的问题,也避免了用加权融合方法而人为设定权值不合理的现象。然后,采用空域修正冲突数据融合规则,对t时刻车载传感器采集到的累积数据,即对经时域融合规则处理的数据集进行处理,并用期望值对其修正,加快了D-S融合结果的收敛速度,提高了检测结果的准确性和有效性。最后,采用D-S融合规则处理空域修正后的数据,得出待检测目标的检测结果并将其输出给下一级系统。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (6)

1.一种基于多维融合技术的道路场景目标检测方法,其特征在于,包括:
步骤M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;
步骤M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;
步骤M3:将数据集D1按照空域融合规则进行处理,得到数据集D2;
步骤M4:将数据集D2按照D-S融合规则进行融合,得到D-S融合规则的结果,并将D-S融合规则的结果与目标特征的概率阈值进行比较,得到道路场景目标检测结果,并将道路场景目标检测结果输出给接收显示系统;
所述数据集D1是所有车载传感器的累积数据Dt,c的数据集;而任意一个车载传感器的累积数据Dt,c是车载传感器对待检测目标的任意特征的累积概率值的集合;
所述数据集D2指所有车载传感器的累积数据Di,C的数据集;
所述时域融合规则是从时间维度上提高目标的准确性及检测精度;
所述空域融合规则是基于所有车载传感器结果,从空间维度上提高目标的准确性及检测精度;
所述D-S融合规则是降低数据之间的冲突程度,进而提高数据融合收敛的速度;
所述步骤M2中时域融合规则包括:
t时刻,对任意一个车载传感器i的累积数据Dt,C中所包含当前待检测的道路场景目标的任意特征Xik的累积概率值计算表达式为:
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (1)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n;mt,C(Xik)为车载传感器i在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为车载传感器i在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A(Xik)为车载传感器i在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间相似度系数,0<λi<1,μi为冲突系数,μi=1-λi
所述相似度系数λi的计算公式如下:
任意一个车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间的相似度系数λi为:
Figure FDA0003681379080000021
其中,
Figure FDA0003681379080000022
Kt,t-1表示t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值;
其中,
Figure FDA0003681379080000023
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合;mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数;
Figure FDA0003681379080000024
为特征Xik在t时刻的实时数据Dt,A与特征Xik在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure FDA0003681379080000025
为对应的Pignistic概率函数;
所述步骤M3中空域融合规则包括:
将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
预设任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均大于强相似度阈值FS,则标记当前任意的一个数据为强相似度数据;
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均小于FW,则标记当前任意的一个数据为弱相似度数据;除了上述强相似度数据和弱相似度数据,则标记为一般相似度数据;
将强相似度数据保留,弱相似度数据丢弃,一般相似度数据根据求得的一般相似度数据数据集期望值来修正。
2.根据权利要求1所述的基于多维融合技术的道路场景目标检测方法,其特征在于,所述环形数据序列中任意两个相邻数据间的相似度系数Φi,j表达式如下:
Figure FDA0003681379080000031
其中,
Figure FDA0003681379080000032
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure FDA0003681379080000033
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure FDA0003681379080000034
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
3.根据权利要求1所述的基于多维融合技术的道路场景目标检测方法,其特征在于,所述一般相似度数据根据求得的一般相似度数据数据集期望值来修正包括:
根据各个车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);
支持度的计算公式如下:
Figure FDA0003681379080000035
式中,
Figure FDA0003681379080000036
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度;Ki,j
Figure FDA0003681379080000037
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离;
将单个数据Di,C的支持度与所有数据支持度之和相比,得到当前单个数据的权值ωi
权值的计算公式如下:
Figure FDA0003681379080000038
通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算公式如下:
Figure FDA0003681379080000041
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure FDA0003681379080000042
4.一种基于多维融合技术的道路场景目标检测系统,其特征在于,包括:
模块M1:多个车载传感器分别对各自的目标区域数据进行采集,得到各自目标区域的实时数据;
模块M2:将各自目标区域的实时数据按照时域融合规则进行处理,得到数据集D1;
模块M3:将数据集D1按照空域融合规则进行处理,得到数据集D2;
模块M4:将数据集D2按照D-S融合规则进行融合,得到D-S融合规则的结果,并将D-S融合规则的结果与目标特征的概率阈值进行比较,得到道路场景目标检测结果,并将道路场景目标检测结果输出给接收显示系统;
所述数据集D1是所有车载传感器的累积数据Dt,c的数据集;而任意一个车载传感器的累积数据Dt,c是车载传感器对待检测目标的任意特征的累积概率值的集合;
所述数据集D2指所有车载传感器的累积数据Di,C的数据集;
所述时域融合规则是从时间维度上提高目标的准确性及检测精度;
所述空域融合规则是基于所有车载传感器结果,从空间维度上提高目标的准确性及检测精度;
所述D-S融合规则是降低数据之间的冲突程度,进而提高数据融合收敛的速度;
所述模块M2中时域融合规则包括:
t时刻,对任意一个车载传感器i的累积数据Dt,C中所包含当前待检测的道路场景目标的任意特征Xik的累积概率值计算表达式为:
mt,C(Xik)=λimt-1,C(Xik)+μimt,A(Xik) (1)
式中,Xik为t时刻车载传感器i在目标区域中所采集目标的任意特征,k=1,2,…,n;mt,C(Xik)为车载传感器i在t时刻的累积数据Dt,C中对应特征Xik的累积概率值,mt-1,C(Xik)为车载传感器i在t-1时刻的累积数据Dt-1,C中对应特征Xik的累积概率值,mt,A)Xik)为车载传感器i在t时刻的实时数据Dt,A中对应特征Xik的实时概率值,λi为车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间相似度系数,0<λi<1,μi为冲突系数,μi=1-λi
所述相似度系数λi的计算公式如下:
任意一个车载传感器i在t时刻的实时数据与车载传感器i在t-1时刻的累积数据之间的相似度系数λi为:
Figure FDA0003681379080000051
其中,
Figure FDA0003681379080000052
Kt,t-1表示t时刻车载传感器i在目标区域中所采集的目标特征Xik的实时数据Dt,A与目标特征Xik在t-1时刻的累积数据Dt-1,C之间的D-S理论冲突值;
其中,
Figure FDA0003681379080000053
n为车载传感器i采集的目标特征总数,Θ为目标的特征集合;mt,A,mt-1,C分别为与特征Xik的实时数据、累积数据对应的基本概率赋值函数;
Figure FDA0003681379080000054
为特征Xik在t时刻的实时数据Dt,A与特征Xik在t-1时刻的累积数据Dt-1,C的改进的Pignistic概率距离,其中,k=1,2,…,n,
Figure FDA0003681379080000055
为对应的Pignistic概率函数;
所述模块M3中空域融合规则包括:
将数据集D1中的累积数据Dt,C任意排序,且首尾相连构成一个环形数据序列,并计算任意两个相邻数据间的相似度系数φ;
预设任意两个数据间的强相似度阈值和弱相似度阈值分别为FS和FW
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均大于强相似度阈值FS,则标记当前任意的一个数据为强相似度数据;
当环形数据序列中的任意一个数据与前一个数据的相似度系数φ1,2及当前任意一个数据与后一个数据的相似度系数φ1,3均小于FW,则标记当前任意的一个数据为弱相似度数据;除了上述强相似度数据和弱相似度数据,则标记为一般相似度数据;
将强相似度数据保留,弱相似度数据丢弃,一般相似度数据根据求得的一般相似度数据数据集期望值来修正。
5.根据权利要求4所述的基于多维融合技术的道路场景目标检测系统,其特征在于,所述环形数据序列中任意两个相邻数据间的相似度系数Φi,j表达式如下:
Figure FDA0003681379080000061
其中,
Figure FDA0003681379080000062
为t时刻车载传感器i在目标区域中所采集的目标特征
Figure FDA0003681379080000063
的累积数据Di,C与t时刻车载传感器j在目标区域中所采集的目标特征
Figure FDA0003681379080000064
的累积数据Dj,C之间的D-S理论冲突值,其中,k1=1,2,…,n,k2=1,2,…,m,n为车载传感器i采集的目标特征总数,m为车载传感器j采集的目标特征总数。
6.根据权利要求4所述的基于多维融合技术的道路场景目标检测系统,其特征在于,所述一般相似度数据根据求得的一般相似度数据数据集期望值来修正包括:
根据各个车载传感器数据之间的相似度系数计算出单个数据Di,C的支持度Sup(Di,C);
支持度的计算公式如下:
Figure FDA0003681379080000065
式中,
Figure FDA0003681379080000066
其中,i=1,2,…n且i≠j,Sup(Di,C)称为全体数据对数据Di,C的支持度;Ki,j
Figure FDA0003681379080000067
分别是数据Di,C和Dj,C之间的D-S理论冲突值和改进的Pignistic概率距离;
将单个数据Di,C的支持度与所有数据支持度之和相比,得到当前单个数据的权值ωi
权值的计算公式如下:
Figure FDA0003681379080000071
通过加权求和方式分别计算期望,最后得到数据集的期望值;
期望值的计算公式如下:
Figure FDA0003681379080000072
其中,Xik∈Θ,k=1,2,…,n,以此来构造数据集期望
Figure FDA0003681379080000073
CN202011119635.5A 2020-10-19 2020-10-19 一种基于多维融合技术的道路场景目标检测方法及系统 Active CN112232421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011119635.5A CN112232421B (zh) 2020-10-19 2020-10-19 一种基于多维融合技术的道路场景目标检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011119635.5A CN112232421B (zh) 2020-10-19 2020-10-19 一种基于多维融合技术的道路场景目标检测方法及系统

Publications (2)

Publication Number Publication Date
CN112232421A CN112232421A (zh) 2021-01-15
CN112232421B true CN112232421B (zh) 2022-10-04

Family

ID=74118661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011119635.5A Active CN112232421B (zh) 2020-10-19 2020-10-19 一种基于多维融合技术的道路场景目标检测方法及系统

Country Status (1)

Country Link
CN (1) CN112232421B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104965199A (zh) * 2015-07-28 2015-10-07 中国人民解放军海军航空工程学院 雷达视频运动目标特征融合判定方法
CN107908598A (zh) * 2017-11-24 2018-04-13 东北电力大学 基于ds证据理论的oplc故障定位方法
CN110726990A (zh) * 2019-09-23 2020-01-24 江苏大学 一种基于ds-gnn算法的多传感器融合方法
CN111192240A (zh) * 2019-12-23 2020-05-22 北京航空航天大学 一种基于随机接入记忆的遥感图像目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104965199A (zh) * 2015-07-28 2015-10-07 中国人民解放军海军航空工程学院 雷达视频运动目标特征融合判定方法
CN107908598A (zh) * 2017-11-24 2018-04-13 东北电力大学 基于ds证据理论的oplc故障定位方法
CN110726990A (zh) * 2019-09-23 2020-01-24 江苏大学 一种基于ds-gnn算法的多传感器融合方法
CN111192240A (zh) * 2019-12-23 2020-05-22 北京航空航天大学 一种基于随机接入记忆的遥感图像目标检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Improved Measure of Evidence Conflict Based on Pignistic Probability Distance》;Huan Liu等;《2016 5th International Conference on Computer Science and Network Technology (ICCSNT)》;20161231;第252-256页 *
《Research on Multi-source Detection Method of Underwater Target Based on Improved Evidence Theory》;Longtao Fan等;《2018 5th International Conference on Information Science and Control Engineering》;20181231;第482-485页 *
《基于DS证据理论的空间目标融合识别方法研究》;洪昭艺;《中国优秀硕士学位论文全文数据库 信息科技辑 》;20111215(第S2期);第I138-1759页 *
《改进的DS 证据舰船融合检测研究》;陈博等;《计算机工程与应用》;20101231;第46卷(第28期);第222-224页 *

Also Published As

Publication number Publication date
CN112232421A (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
US11100793B2 (en) System and method for detection and quantification of irregular traffic congestion
JP2016075905A5 (zh)
CN112782743B (zh) 一种车辆定位方法、装置、计算机设备及存储介质
US11092692B2 (en) Apparatus and method for recognizing location in autonomous vehicle
CN107862863B (zh) 一种交通数据质量提升的方法及装置
US20230228593A1 (en) Method, device and system for perceiving multi-site roadbed network and terminal
EP3514648B1 (en) Method and apparatus for detecting a boundary in an envi-ronment of an object
CN111483464B (zh) 基于路侧单元的动态自动驾驶换道方法、设备、存储介质
CN114973195A (zh) 基于多信息融合的车辆追踪方法、装置及系统
CN112232421B (zh) 一种基于多维融合技术的道路场景目标检测方法及系统
CN112801024B (zh) 一种检测信息处理方法和装置
US20200257910A1 (en) Method for automatically identifying parking areas and/or non-parking areas
CN114067224A (zh) 一种基于多传感器数据融合的无人机集群目标数量检测方法
WO2022062019A1 (zh) 一种地图匹配方法、装置、电子设备和存储介质
US20230314169A1 (en) Method and apparatus for generating map data, and non-transitory computer-readable storage medium
CN115049996B (zh) 基于证据推理规则的双传感器目标检测融合方法和系统
CN113870754B (zh) 一种面板检测电子信号缺陷判定的方法和系统
CN112598314B (zh) 智能驾驶汽车的感知置信度确定方法、装置、设备及介质
CN113255820B (zh) 落石检测模型训练方法、落石检测方法及相关装置
CN115270930A (zh) 基于ds证据理论的目标融合方法、装置、车辆及介质
CN115114494A (zh) 一种Freespace边缘点的处理方法以及装置
WO2022161891A1 (en) Method for determining the encoder architecture of a neural network
CN113205552A (zh) 一种目标检测方法、装置、电子设备及存储介质
CN107330105B (zh) 一种相似图像检索算法的鲁棒性评测方法及装置
KR101937218B1 (ko) 운전자 수용성 평가 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant