CN104778722A - 一种传感器的数据融合方法 - Google Patents
一种传感器的数据融合方法 Download PDFInfo
- Publication number
- CN104778722A CN104778722A CN201510124927.0A CN201510124927A CN104778722A CN 104778722 A CN104778722 A CN 104778722A CN 201510124927 A CN201510124927 A CN 201510124927A CN 104778722 A CN104778722 A CN 104778722A
- Authority
- CN
- China
- Prior art keywords
- target
- moving target
- sensor
- angular displacement
- weighted value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种传感器的数据融合方法。该方法包括:使用可见光传感器和红外传感器分别获得运动目标的可见光图像和红外图像;从可见光图像和红外图像中分别提取当前的运动目标位置;使用改进的α-β滤波算法对运动目标进行目标轨迹预测,得到目标预测轨迹;根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值;根据各个传感器输出的角偏差量及其相应的加权值,确定融合后的输出角偏差量。通过使用本发明所提供的传感器的数据融合方法,从而有效地避免了噪声干扰产生的虚假目标判决对融合检测结果的影响。
Description
技术领域
本发明涉及信息传输与处理技术领域,特别涉及一种传感器的数据融合方法。
背景技术
数据融合的基本原理是充分利用多个传感器资源,通过对这些传感器及其观测信息的合理支配和使用,把多个传感器的冗余和互补信息依据某种准则来进行组合,以获得对被测对象的一致性解释或描述。信息融合的基本目标是:通过数据组合而不是出现在输入信息中的任何个别元素,推导出更多信息。这是最佳协同作用的结果,即利用多个传感器共同或联合操作的优势,提高传感器系统的有效性。
要解决多传感器跟踪信息的融合问题,使多路视频的目标跟踪信息有效融合,主要在于如何对各路视频处理得到的角偏差信号进行加权处理。设N路视频跟踪器输出的角偏差量分别为Δω1,Δω2,…,ΔωN,第i路视频输出量的加权值为Wi,则视频跟踪信息融合后的输出角偏差量为:
在现有技术中的常用的融合算法中,加权值按目标信噪比确定,设N路视频图像的信噪比分别为SNR1,SNR2,…,SNRN,则第i路视频输出量的加权值Wi为:
由上可知,现有技术中的数据融合算法采用信噪比作为加权值,而在复杂干扰环境下,干扰的信噪比有时会在目标之上,因此按信噪比作为加权值来融合并不可靠。
发明内容
有鉴于此,本发明提供一种传感器的数据融合方法,从而可以有效地避免了噪声干扰产生的虚假目标判决对融合检测结果的影响。
本发明的技术方案具体是这样实现的:
一种自传感器的数据融合方法,该方法包括:
使用可见光传感器和红外传感器分别获得运动目标的可见光图像和红外图像;
从可见光图像和红外图像中分别提取当前的运动目标位置;
使用改进的α-β滤波算法对运动目标进行目标轨迹预测,得到目标预测轨迹;
根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值;
根据各个传感器输出的角偏差量及其相应的加权值,确定融合后的输出角偏差量。
较佳的,所述从可见光图像和红外图像中分别提取当前的运动目标位置包括:
利用转塔方位和俯仰角数据,结合转塔位置和目标在图像中的相对位置,获得运动目标在可见光图像和红外图像中的绝对位置。
较佳的,所述使用改进的α-β滤波算法对运动目标进行目标轨迹预测包括:
根据目标运动模型建立目标状态方程及测量方程;
将当前的运动目标位置作为目标轨迹预测的测量值,使用改进的α-β滤波算法获得当前运动目标的目标预测轨迹。
较佳的,所述根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值包括:
计算运动目标在可见光图像中当前的绝对位置与目标预测轨迹中的预测位置的第一距离,以及运动目标在红外图像中当前的绝对位置与目标预测轨迹中的预测位置的第二距离;
根据所述第一距离和第二距离确定各个传感器输出的角偏差量的加权值。
较佳的,通过如下所述的公式计算得到所述第一距离和第二距离:
其中,a为所述第一距离;b为所述第二距离;XTV(k)和XIR(k)分别是运动目标在可见光图像和红外图像中第k时刻的绝对位置;是根据目标预测轨迹由第k-1时刻预测第k时刻的运动目标的预测位置;“||”表示求模操作。
较佳的,通过如下所述的公式确定各个传感器输出的角偏差量的加权值:
其中,WTV为可见光传感器输出的角偏差量的加权值,WIR为红外传感器输出的角偏差量的加权值。
较佳的,通过如下所述的公式确定融合后的输出角偏差量:
Δω=WTV·Δω1+WIR·Δω2
其中,Δω为融合后的输出角偏差量,Δω1为可见光传感器输出的角偏差量,Δω2为红外传感器输出的角偏差量。
如上可见,在本发明中的传感器的数据融合方法中,使用了两种传感器,可以从两种传感器获取的图像中分别提取当前的运动目标位置,并使用改进的α-β滤波算法对运动目标进行目标轨迹预测,得到目标预测轨迹,然后再根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值,最后再根据上述的加权值确定融合后的输出角偏差量。由于上述的加权值是根据目标预测轨迹来确定的,因此可以充分利用目标飞行轨迹平滑,而干扰物的轨迹不会和目标轨迹重合的特点,有效地避免了由于噪声干扰产生的虚假目标判决对最终融合检测结果的影响,大大提高融合后的数据的可靠性。
附图说明
图1为本发明实施例中的传感器的数据融合方法的流程示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
本实施例提供了一种传感器的数据融合方法。
图1为本发明实施例中的传感器的数据融合方法的流程示意图。如图1所示,本发明实施例中的传感器的数据融合方法主要包括如下所述的步骤:
步骤101,使用可见光传感器和红外传感器分别获得运动目标的可见光图像和红外图像。
在本发明的技术方案中,使用了两种传感器:可见光传感器和红外传感器,因此可以使用这两种传感器分别获得运动目标的可见光图像和红外图像。
步骤102,从可见光图像和红外图像中分别提取当前的运动目标位置。
在本发明的技术方案中,可以使用多种方法从可见光图像和红外图像中分布提取当前的目标位置,以下将以其中的一种具体实施方式为例,对本发明的技术方案进行详细的介绍。
例如,较佳的,在本发明的具体实施例中,所述从可见光图像和红外图像中分别提取当前的运动目标位置包括:
利用转塔方位和俯仰角数据,结合转塔位置和目标在图像中的相对位置,获得运动目标在可见光图像和红外图像中的绝对位置。
步骤103,使用改进的α-β滤波算法对运动目标进行目标轨迹预测,得到目标预测轨迹。
较佳的,在本发明的具体实施例中,所述使用改进的α-β滤波算法对运动目标进行目标轨迹预测包括:
根据目标运动模型建立目标状态方程及测量方程,将当前的运动目标位置作为目标轨迹预测的测量值,使用改进的α-β滤波算法获得当前运动目标的目标预测轨迹。
步骤104,根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值。
由于多个传感器会产生多个备选的测量值(即输出的角偏差量),因此在本发明的技术方案中,需要对多个测量值进行加权后才能得到滤波输入测量值。所以,在本步骤中,将需要为各个传感器输出的角偏差量分别确定相应的加权值。
较佳的,在本发明的具体实施例中,所述根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值包括:
步骤41,计算运动目标在可见光图像中当前的绝对位置与目标预测轨迹中的预测位置的第一距离,以及运动目标在红外图像中当前的绝对位置与目标预测轨迹中的预测位置的第二距离。
例如,较佳的,在本发明的具体实施例中,可以通过如下所述的公式计算得到上述的第一距离和第二距离:
其中,a为所述第一距离;b为所述第二距离;XTV(k)和XIR(k)分别是运动目标在可见光图像和红外图像中第k时刻的绝对位置,即二维目标位置(x,y);而则是根据目标预测轨迹由第k-1时刻预测第k时刻的运动目标的预测位置,即二维目标轨迹“||”表示求模操作。
步骤42,根据所述第一距离和第二距离确定各个传感器输出的角偏差量的加权值。
例如,较佳的,在本发明的具体实施例中,可以通过如下所述的公式确定各个传感器输出的角偏差量的加权值:
其中,WTV为可见光传感器输出的角偏差量的加权值,WIR为红外传感器输出的角偏差量的加权值。
根据上述公式可知,运动目标的绝对位置距离上一帧的预测位置(即当前的预测位置)越近,则加权值越大,反之则越小。
步骤105,根据各个传感器输出的角偏差量及其相应的加权值,确定融合后的输出角偏差量。
例如,较佳的,在本发明的具体实施例中,可以通过如下所述的公式确定融合后的输出角偏差量:
Δω=WTV·Δω1+WIR·Δω2
其中,Δω为融合后的输出角偏差量,Δω1为可见光传感器输出的角偏差量,Δω2为红外传感器输出的角偏差量。
综上可知,在本发明中的传感器的数据融合方法中,使用了两种传感器,可以从两种传感器获取的图像中分别提取当前的运动目标位置,并使用改进的α-β滤波算法对运动目标进行目标轨迹预测,得到目标预测轨迹,然后再根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值,最后再根据上述的加权值确定融合后的输出角偏差量。由于上述的加权值是根据目标预测轨迹来确定的,因此可以充分利用目标飞行轨迹平滑,而干扰物的轨迹不会和目标轨迹重合的特点,有效地避免了由于噪声干扰产生的虚假目标判决对最终融合检测结果的影响,大大提高融合后的数据的可靠性。
另外,本发明中的传感器的数据融合方法可以适用于光电跟踪系统,例如,在复杂背景下双传感器的目标跟踪系统,该系统的图像信号处理器硬件平台可以采用TI公司生产的TMS320C6416DSP构建。此外,本发明中的传感器的数据融合方法可以通过编程转化为相应的软件代码,例如,转化后的软件代码可以采用TMS320C6416DSP专用C语言和专用汇编语言混合编程实现,经编译后固化在图像信号处理器硬件上,加电后DSP自动加载程序运行。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (7)
1.一种自传感器的数据融合方法,其特征在于,该方法包括:
使用可见光传感器和红外传感器分别获得运动目标的可见光图像和红外图像;
从可见光图像和红外图像中分别提取当前的运动目标位置;
使用改进的α-β滤波算法对运动目标进行目标轨迹预测,得到目标预测轨迹;
根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值;
根据各个传感器输出的角偏差量及其相应的加权值,确定融合后的输出角偏差量。
2.根据权利要求1所述的方法,其特征在于,所述从可见光图像和红外图像中分别提取当前的运动目标位置包括:
利用转塔方位和俯仰角数据,结合转塔位置和目标在图像中的相对位置,获得运动目标在可见光图像和红外图像中的绝对位置。
3.根据权利要求2所述的方法,其特征在于,所述使用改进的α-β滤波算法对运动目标进行目标轨迹预测包括:
根据目标运动模型建立目标状态方程及测量方程;
将当前的运动目标位置作为目标轨迹预测的测量值,使用改进的α-β滤波算法获得当前运动目标的目标预测轨迹。
4.根据权利要求3所述的方法,其特征在于,所述根据运动目标在可见光图像和红外图像中的绝对位置以及目标预测轨迹确定各个传感器输出的角偏差量的加权值包括:
计算运动目标在可见光图像中当前的绝对位置与目标预测轨迹中的预测位置的第一距离,以及运动目标在红外图像中当前的绝对位置与目标预测轨迹中的预测位置的第二距离;
根据所述第一距离和第二距离确定各个传感器输出的角偏差量的加权值。
5.根据权利要求4所述的方法,其特征在于,通过如下所述的公式计算得到所述第一距离和第二距离:
其中,a为所述第一距离;b为所述第二距离;XTV(k)和XIR(k)分别是运动目标在可见光图像和红外图像中第k时刻的绝对位置;是根据目标预测轨迹由第k-1时刻预测第k时刻的运动目标的预测位置;“||”表示求模操作。
6.根据权利要求5所述的方法,其特征在于,通过如下所述的公式确定各个传感器输出的角偏差量的加权值:
其中,WTV为可见光传感器输出的角偏差量的加权值,WIR为红外传感器输出的角偏差量的加权值。
7.根据权利要求6所述的方法,其特征在于,通过如下所述的公式确定融合后的输出角偏差量:
Δω=WTV·Δω1+WIR·Δω2
其中,Δω为融合后的输出角偏差量,Δω1为可见光传感器输出的角偏差量,Δω2为红外传感器输出的角偏差量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510124927.0A CN104778722A (zh) | 2015-03-20 | 2015-03-20 | 一种传感器的数据融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510124927.0A CN104778722A (zh) | 2015-03-20 | 2015-03-20 | 一种传感器的数据融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104778722A true CN104778722A (zh) | 2015-07-15 |
Family
ID=53620168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510124927.0A Pending CN104778722A (zh) | 2015-03-20 | 2015-03-20 | 一种传感器的数据融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104778722A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107241776A (zh) * | 2017-07-18 | 2017-10-10 | 中南民族大学 | 一种混合时延敏感分簇的无线传感器网络数据融合方法 |
CN109461168A (zh) * | 2018-10-15 | 2019-03-12 | 腾讯科技(深圳)有限公司 | 目标对象的识别方法和装置、存储介质、电子装置 |
CN111912295A (zh) * | 2020-06-22 | 2020-11-10 | 中国人民解放军63850部队 | 一种弹道落点预测系统 |
WO2021195895A1 (zh) * | 2020-03-30 | 2021-10-07 | 深圳市大疆创新科技有限公司 | 红外图像处理方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101285686A (zh) * | 2008-05-29 | 2008-10-15 | 中国农业大学 | 一种农业机械导航分级定位的方法和系统 |
CN101655561A (zh) * | 2009-09-14 | 2010-02-24 | 南京莱斯信息技术股份有限公司 | 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法 |
CN102176220A (zh) * | 2011-01-17 | 2011-09-07 | 深圳大学 | 一种同平台配置的雷达与红外传感器进行空间配准的方法 |
US20130135444A1 (en) * | 2006-05-31 | 2013-05-30 | Mobileye Technologies Limited | Fusion of Far Infrared and Visible Images in Enhanced Obstacle Detection in Automotive Applications |
CN104376546A (zh) * | 2014-10-27 | 2015-02-25 | 北京环境特性研究所 | 基于dm642的三路图像金字塔融合算法的实现方法 |
-
2015
- 2015-03-20 CN CN201510124927.0A patent/CN104778722A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130135444A1 (en) * | 2006-05-31 | 2013-05-30 | Mobileye Technologies Limited | Fusion of Far Infrared and Visible Images in Enhanced Obstacle Detection in Automotive Applications |
CN101285686A (zh) * | 2008-05-29 | 2008-10-15 | 中国农业大学 | 一种农业机械导航分级定位的方法和系统 |
CN101655561A (zh) * | 2009-09-14 | 2010-02-24 | 南京莱斯信息技术股份有限公司 | 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法 |
CN102176220A (zh) * | 2011-01-17 | 2011-09-07 | 深圳大学 | 一种同平台配置的雷达与红外传感器进行空间配准的方法 |
CN104376546A (zh) * | 2014-10-27 | 2015-02-25 | 北京环境特性研究所 | 基于dm642的三路图像金字塔融合算法的实现方法 |
Non-Patent Citations (1)
Title |
---|
翟翌立 等: "多传感器数据自 适应加权融合估计算法的研究", 《计量学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107241776A (zh) * | 2017-07-18 | 2017-10-10 | 中南民族大学 | 一种混合时延敏感分簇的无线传感器网络数据融合方法 |
CN107241776B (zh) * | 2017-07-18 | 2019-03-22 | 中南民族大学 | 一种混合时延敏感分簇的无线传感器网络数据融合方法 |
CN109461168A (zh) * | 2018-10-15 | 2019-03-12 | 腾讯科技(深圳)有限公司 | 目标对象的识别方法和装置、存储介质、电子装置 |
CN109461168B (zh) * | 2018-10-15 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 目标对象的识别方法和装置、存储介质、电子装置 |
US11443498B2 (en) | 2018-10-15 | 2022-09-13 | Tencent Technology (Shenzhen) Company Limited | Target object recognition method and apparatus, storage medium, and electronic device |
WO2021195895A1 (zh) * | 2020-03-30 | 2021-10-07 | 深圳市大疆创新科技有限公司 | 红外图像处理方法、装置、设备及存储介质 |
CN111912295A (zh) * | 2020-06-22 | 2020-11-10 | 中国人民解放军63850部队 | 一种弹道落点预测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106255899B (zh) | 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置 | |
CN104778722A (zh) | 一种传感器的数据融合方法 | |
US20140172296A1 (en) | Systems and methods for navigation | |
CN113096397B (zh) | 基于毫米波雷达与视频检测的交通拥堵分析方法 | |
KR102604453B1 (ko) | 레이더 데이터의 자동 라벨링 방법 및 시스템 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN107193011A (zh) | 一种用于快速计算无人驾驶车感兴趣区域内车辆速度的方法 | |
CN103171552A (zh) | 基于avm俯视图的停车辅助系统 | |
CN103649994A (zh) | 用于投影体监测的方法和装置 | |
WO2009019695A3 (en) | Method and system to perform optical moving object detection and tracking over a wide area | |
CN101661104A (zh) | 基于雷达/红外量测数据坐标转换的目标跟踪方法 | |
US9815480B2 (en) | Method and device for monitoring the function of a driver assistance system | |
CN106574961A (zh) | 使用多个物体检测单元的物体识别装置 | |
KR102132242B1 (ko) | 스테레오 카메라 보정 시스템 | |
KR102014228B1 (ko) | 솔라 블라인드 자외광 신호에 따른 경로 검측 시스템 | |
CN106500846A (zh) | 一种红外成像系统的非均匀性校正方法 | |
CN104092991A (zh) | 针对目标跟踪控制的图像信号综合处理装置及实现方法 | |
CN117274749B (zh) | 一种基于4d毫米波雷达和图像的融合3d目标检测方法 | |
CN114332158A (zh) | 一种基于相机和激光雷达融合的3d实时多目标跟踪方法 | |
CN111830470A (zh) | 联合标定方法及装置、目标对象检测方法、系统及装置 | |
Wang et al. | mvil-fusion: Monocular visual-inertial-lidar simultaneous localization and mapping in challenging environments | |
Li et al. | An efficient image-guided-based 3D point cloud moving object segmentation with transformer-attention in autonomous driving | |
CN107924570A (zh) | 用于机动车辆的视觉系统和控制视觉系统的方法 | |
CN203968271U (zh) | 一种针对目标跟踪控制的图像信号综合处理装置 | |
CN104463947A (zh) | 一种人体骨骼建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150715 |