CN109947750B - 一种基于耦合建模的多领域数据清洗及学习方法 - Google Patents

一种基于耦合建模的多领域数据清洗及学习方法 Download PDF

Info

Publication number
CN109947750B
CN109947750B CN201810809701.8A CN201810809701A CN109947750B CN 109947750 B CN109947750 B CN 109947750B CN 201810809701 A CN201810809701 A CN 201810809701A CN 109947750 B CN109947750 B CN 109947750B
Authority
CN
China
Prior art keywords
data
scene
depth
field
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810809701.8A
Other languages
English (en)
Other versions
CN109947750A (zh
Inventor
陈哲
李臣明
石爱业
徐立中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN201810809701.8A priority Critical patent/CN109947750B/zh
Publication of CN109947750A publication Critical patent/CN109947750A/zh
Application granted granted Critical
Publication of CN109947750B publication Critical patent/CN109947750B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于耦合建模的多领域数据清洗及学习方法,提取多领域数据并通过数据清洗及学习方法实现对场景内容的识别与探测。采集并计算同一场景中多领域数据;以多领域数据之间的耦合建模进行相互校验,实现数据清洗;以领域自适应学习机制在同一框架下进行多领域数据的学习和融合,形成统一框架下的多领域联合场景模型,对场景目标探测。本发明能够稳定、可靠地用于复杂条件下的知识学习及目标探测,能够充分挖掘场景信息,具有较好的噪声抑制效果且运算效率较高。

Description

一种基于耦合建模的多领域数据清洗及学习方法
技术领域
本发明涉及一种模式识别方法,具体的是指一种基于耦合建模的多领域数据清洗及学习方法,用于目标探测。
背景技术
在高散射、强衰减环境中的模式识别及目标探测方法一直是相关领域中长期困扰的难题。首先,散射环境会导致目标信息严重衰减,难以准确辨识出目标同背景间差异。其次,散射环境会对目标的表观特征产生干扰,目标特征发生严重畸变,并同虚假目标信息相互混叠。为了克服这一难题,已有的方法多采用预处理的方法以抑制环境噪声,增强目标特征。但是,大量的研究和测试发现这种依赖于预处理的策略存在诸多不足。由于现有图像预处理难以准确的恢复出场景目标信息,在恢复过程中易产生误差,而这种误差又会进而传递至模式识别阶段,形成严重的误差传递现象,更加降低了目标探测的准确率,如图4所示。
虽然散射环境对目标探测造成了许多困难,但是其也提供了一种新的有价值的线索。在散射环境中散射强度同场景深度成正比,深度越大散射成分越强。因此,可根据散射强度有效估计场景深度。对于这一任务,可采用暗信道估计模型加以实现,该模型能够在单目成像数据中估计场景中每一点的散射光强度并进而得到相应点的深度数据。由于目标同背景间的深度差异,深度数据为散射环境中场景学习及目标探测提供了一种有别于常规的新线索。然而,暗信道估计模型对于零星的噪声点极为敏感,导致深度数据估计中严重误差,降低了场景学习及探测的准确率。
本发明考虑到深度数据对场景学习及目标探测的贡献,综合利用色彩领域及深度领域数据对场景进行学习。同时,鉴于深度数据估计过程中所可能产生的误差,本发明采用一种基于耦合建模的方法对多领域数据进行清洗。此外,考虑到数据清洗所导致的色彩领域及深度领域数据间的不平衡性,采用领域自适应学习策略,形成从深度领域到色彩领域的领域自适应学习,形成统一框架下的多领域场景模型。基于该模型探测场景中目标。
发明内容
发明目的:针对散射环境中目标探测所存在的困难,本发明提供一种多源数据清洗及学习方法,能够充分利用散射环境成像数据,主要包括色彩领域数据及深度领域数据,以多领域学习方法建立场景模型,探测场景目标。
技术方案:一种散射环境中基于耦合建模的多领域数据清洗及学习方法,包括训练和探测两个阶段
训练阶段:
步骤一:针对散射环境中的单目成像数据计算深度数据,形成深度领域的场景数据,并同色彩领域的场景数据组合,共同构成同一场景的多领域数据,即色彩数据及深度数据。
步骤二:采用耦合建模方法,对多领域数据进行清洗,删除误差数据。
步骤三:采用清洗后的多领域数据对场景进行建模,形成同一场景色彩及深度领域的两个场景模型。
步骤四:采用领域自适应学习方法,对两个场景模型进行联合训练,形成统一框架下的多领域联合场景模型。
探测阶段:
步骤一:针对散射环境中的单目成像数据计算深度数据,形成深度领域的场景数据,并同色彩领域的场景数据共同构成同一场景的多领域数据。
步骤二:采用耦合建模方法,对多领域数据进行清洗,抑制数据中的错误信息;
步骤三:将多领域数据输入统一框架下的多领域联合场景模型,输出场景目标探测结果。
相比较现有散射环境中的目标探测方法,本发明所公开方法能够在同一场景单目成像条件下充分挖掘场景信息,形成深度领域数据及色彩领域数据。创新性利用耦合建模的数据清洗方法对深度领域数据进行清洗,并采用领域自适应的学习策略建立统一框架下的多领域联合场景模型。基于这一模型,在探测阶段考虑深度数据估计误差,在数据清洗后,自动选择模型融合策略,以多领域数据及多领域联合场景模型综合探测场景目标。
附图说明
图1是本发明实施例的场景学习的流程图;
图2是本发明天空光抑制及深度数据计算结果;第一行:原始场景数据,第二行:天空光判断结果,第三行:深度数据;第一、三列:水下散射环境;第二、四列:雾天散射环境;
图3是数据清洗结果;
图4是本发明实施例目标探测结果比较;第一列:原始场景数据,第二列:基于ST-GMM的目标探测结果,第三列:基于Vibe的目标探测结果,第四列:基于DECOLOR的目标探测结果,第五列:基于本发明方法的目标探测结果;第一、二行:水下散射环境目标探测结果;第三至八行:雾天散射环境中目标探测结果。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明所公开方法的总体流程,如图1所示,以能见度小于50m的浓雾天气及水下环境为散射环境的典型例证。在该两种例证中,由于空气及水中悬浮颗粒物对光线的散射及折射作用,形成了典型的散射环境。通过对散射环境中原始场景成像数据的计算,得到色彩领域数据及深度领域数据,其中深度领域中所包含的深度数据计算如下:
在散射环境中,通过抑制天空光成分并基于暗信道先验模型估计场景深度数据,形成场景每一点的深度数据,构成深度领域数据:
步骤一,计算场景全局强度-位置关系特征,得到场景中每个点同强度最大点间的空间欧式距离:
Figure BDA0001738805020000031
其中,D(x,m)为点x和全局强度最大点m间的欧式距离,x=[x1,x2]和m=[m1,m2]为相应点的空间坐标。
计算场景每个点的信道方差特征,得到RGB同强度间的方差:
Figure BDA0001738805020000032
其中,
Figure BDA0001738805020000033
为综合信道强度,
Figure BDA0001738805020000034
为单一信道强度对应RGB空间中色彩强度
Figure BDA0001738805020000035
Figure BDA0001738805020000041
Figure BDA0001738805020000042
Figure BDA0001738805020000043
为单一信道的方差。
步骤二,计算场景天空光的决策函数为全局强度-位置关系特征同信道方差特征间的耦合关系:
Figure BDA0001738805020000044
建立阈值函数:
Figure BDA0001738805020000045
其中,corr2()为二维矩阵的互相关计算,T为天空光判断的阈值,典型值设置为0.75,当LSkylight=1时为天空光区域,LSkylight=0为非天空光区域,以此抑制天空光成分;
步骤三,在天空光区域,其深度距离为最大值;在非天空光区域以暗信道模型估计每一个点的场景深度:
Figure BDA0001738805020000046
其中,w为调制权重,典型值设置为0.8,y∈Ωx为以x点为中心的邻域,
Figure BDA0001738805020000047
为y点在c颜色信道上的强度值,Ac为自然背景光在c颜色信道上的强度值,c∈{r,g,b}为RGB三信道。
至此,完成了场景深度领域中深度数据计算,计算结果如图2所示。
通过多领域数据间的耦合建模对散射环境中所得数据进行清洗以保证数据的正确性:
步骤一,分别计算原始场景色彩数据间的相关性及深度数据间的相关性:
Figure BDA0001738805020000048
其中,Rt和R′t分别为色彩数据间的相关性及深度数据间的相关性,
Figure BDA0001738805020000049
Figure BDA00017388050200000410
分别为t-1和t时刻色彩数据,dt-1和dt分别为t-1和t时刻深度数据。
步骤二,比较计算两种相关性Rt和R′t,若R′t<λRt(其中λ为调制参数,典型值设置为0.9)则认为深度数据ψt存在误差,将其删除,否则保存该深度数据。
至此,完成了对场景深度数据的清洗,数据清洗结果如图3所示。
采用清洗后的多领域数据对散射环境中的场景进行建模,基于核密度估计模型分别采用色彩数据及深度数据对同一场景进行建模:
对于色彩数据,其场景模型为:
Figure BDA0001738805020000051
其中
Figure BDA0001738805020000052
为历史时刻x点处色彩数据样本,N为历史时刻x点处色彩数据样本的数量,
Figure BDA0001738805020000053
为t时刻x点处色彩数据样本,
Figure BDA0001738805020000054
为t时刻
Figure BDA0001738805020000055
样本属于场景
Figure BDA0001738805020000056
的概率,K()为核函数。
对于深度数据,其场景模型为:
Figure BDA0001738805020000057
其中
Figure BDA0001738805020000058
为历史时刻x点处深度数据样本,M为历史时刻x点处深度数据样本的数量,
Figure BDA0001738805020000059
为t时刻x点处深度数据样本,
Figure BDA00017388050200000510
为t时刻
Figure BDA00017388050200000511
样本属于场景
Figure BDA00017388050200000512
的概率,K()为核函数。
至此,完成了散射环境中基于多领域数据的场景建模。
对散射环境中两个场景模型进行联合训练,形成统一框架下的多领域联合场景模型:
步骤一,加权融合基于色彩数据及深度数据的场景模型,形成多领域场景模型:
Figure BDA00017388050200000513
其中,P(xt|Bt)为多领域场景模型,wc、wd分别为色彩数据、深度数据场景模型的权重,且wc+wd=1。
步骤二,数据清洗后,由于深度数据样本数量小于或等于色彩数据样本,仅以色彩领域数据训练样本及标定样本为基础对多领域场景模型Bt进行训练,形成从深度领域到色彩领域的领域自适应学习。
至此,完成了对散射环境中多领域场景模型的训练。
在探测阶段,按照上述技术策略构建散射环境中色彩及深度领域数据并完成数据清洗。
若深度领域数据存在误差,则删除该深度领域数据,仅保留色彩领域数据;在此情况下,设置wc=1,wd=0;多领域场景模型变换为以色彩领域数据为基础的场景模型,忽略深度数据场景模型:
Figure BDA0001738805020000061
否则,以训练得到的权重基于多领域场景模型(公式9)对目标进行探测。
至此,完成了在浓雾天气及水下散射环境中目标的探测,探测结果及与其他方法的比较如图4所示。

Claims (6)

1.一种基于耦合建模的多领域数据清洗及学习方法,其特征在于,包括训练阶段和探测阶段:
训练阶段包括如下步骤:
步骤一,针对散射环境中的单目成像数据计算深度数据,形成深度领域的场景数据;并同色彩领域的场景数据共同构成同一场景的多领域数据,即色彩数据及深度数据;
步骤二,采用耦合建模方法,对多领域数据进行清洗,删除误差数据;
步骤三,采用清洗后的多领域数据对场景进行建模,形成对同一场景色彩及深度领域的两个场景模型;
步骤四,采用领域自适应学习方法,对两个场景模型进行联合训练,形成统一框架下的多领域联合场景模型;
探测阶段包括如下步骤:
步骤一,针对散射环境中的单目成像数据计算深度数据,形成深度领域的场景数据;并同色彩领域的场景数据共同构成同一场景的多领域数据;
步骤二,采用耦合建模方法,对多领域数据进行清洗,删除误差数据;
步骤三,将多领域数据输入统一框架下的多领域联合场景模型,输出探测结果。
2.如权利要求1所述的一种基于耦合建模的多领域数据清洗及学习方法,其特征在于,同一场景基于单目成像构造多领域数据,在散射环境中,通过抑制天空光成分并基于暗信道先验模型估计场景深度数据,形成深度领域的场景数据;并同色彩领域的场景数据共同构成同一场景的多领域数据具体包括如下步骤:
步骤一,计算全局强度-位置关系特征,得到场景中每个点同强度最大点间的空间欧式距离:
Figure FDA0002782215160000011
其中,D(x,m)为点x和全局强度最大点m间的欧式距离,x=[x1,x2]和m=[m1,m2]为相应点的空间坐标;
计算RGB同强度间的方差得到信道方差特征:
Figure FDA0002782215160000012
其中,
Figure FDA0002782215160000021
为综合信道强度,
Figure FDA0002782215160000022
为单一信道强度对应RGB空间中三信道色彩强度
Figure FDA0002782215160000023
为单一信道的方差;
步骤二,计算天空光的决策函数为全局强度-位置关系特征同信道方差特征间的耦合关系:
Figure FDA0002782215160000024
建立阈值函数:
Figure FDA0002782215160000025
其中,T为天空光判断的阈值,当LSkylight=1时为天空光区域,LSkylight=0为非天空光区域,以此抑制天空光成分;
步骤三,在天空光区域,其深度距离为最大值;在非天空光区域以暗信道模型估计每一个点的场景深度数据:
Figure FDA0002782215160000026
其中,w为调制权重,y∈Ωx为以x为中心的邻域,
Figure FDA0002782215160000027
为y点在颜色信道c上的强度值,Ac为自然背景光在颜色信道c上的强度值,c∈{r,g,b}为RGB三信道。
3.如权利要求1所述的一种基于耦合建模的多领域数据清洗及学习方法,其特征在于,考虑到色彩数据同深度数据间的一致性,通过多领域数据间的耦合建模对数据进行清洗以保证数据的正确性,具体包括如下步骤:
步骤一,分别计算原始场景色彩数据间的相关性及深度数据间的相关性:
Figure FDA0002782215160000028
其中,Rt和R′t分别为色彩数据间及深度数据间的相关性,
Figure FDA0002782215160000029
Figure FDA00027822151600000210
为t-1和t时刻色彩数据,dt-1和dt为t-1和t时刻深度数据;
步骤二,比较计算两种相关性Rt和R′t,若R′t<λRt,λ为调制参数,则认为深度数据样本ψt存在误差,将其删除,否则保存该深度数据样本;完成数据清洗。
4.如权利要求1所述的一种基于耦合建模的多领域数据清洗及学习方法,其特征在于,采用清洗后的多领域数据对场景进行建模,形成对同一场景色彩及深度领域的两个场景模型;基于核密度估计模型分别采用色彩数据及深度数据对同一场景进行建模:
对于色彩数据,其场景模型为:
Figure FDA0002782215160000031
其中
Figure FDA0002782215160000032
为历史时刻x点处色彩数据样本,N为历史时刻x点处色彩数据样本的数量,
Figure FDA0002782215160000033
为t时刻x点处色彩数据样本,
Figure FDA0002782215160000034
为t时刻
Figure FDA0002782215160000035
样本属于场景
Figure FDA0002782215160000036
的概率,K()为核函数;
对于深度数据,其场景模型为:
Figure FDA0002782215160000037
其中
Figure FDA0002782215160000038
为历史时刻x点处深度数据样本,M为历史时刻x点处深度数据样本的数量,
Figure FDA0002782215160000039
为t时刻x点处深度数据样本,
Figure FDA00027822151600000310
为t时刻
Figure FDA00027822151600000311
样本属于场景
Figure FDA00027822151600000312
的概率,K()为核函数。
5.如权利要求4所述的一种基于耦合建模的多领域数据清洗及学习方法,其特征在于,采用领域自适应学习方法,对两个场景模型进行联合训练,形成统一框架下的多领域联合场景模型,包括如下步骤:
步骤一,加权融合基于色彩数据及深度数据的场景模型,形成多领域场景模型:
Figure FDA00027822151600000313
其中,P(xt|Bt)为多领域场景模型,wc、wd分别为色彩数据、深度数据场景模型的权重,且wc+wd=1;
步骤二,数据清洗后,由于深度数据样本数量小于或等于色彩数据样本,以色彩数据所对应的训练样本及标定样本为基础对多领域场景模型Bt进行训练,形成从深度领域到色彩领域的领域自适应学习。
6.如权利要求5所述的一种基于耦合建模的多领域数据清洗及学习方法,其特征在于,在探测阶段,首先构建色彩及深度领域数据,进一步对数据清洗;
清洗后,若深度领域数据存在误差,则删除该深度领域数据,仅保留色彩领域数据;在此情况下,设置wc=1,wd=0;多领域场景模型变换为以色彩领域数据为基础的场景模型,忽略深度数据场景模型:
Figure FDA0002782215160000041
否则,以训练得到色彩数据、深度数据场景模型的权重,基于多领域联合场景模型对目标进行探测。
CN201810809701.8A 2018-07-23 2018-07-23 一种基于耦合建模的多领域数据清洗及学习方法 Active CN109947750B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810809701.8A CN109947750B (zh) 2018-07-23 2018-07-23 一种基于耦合建模的多领域数据清洗及学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810809701.8A CN109947750B (zh) 2018-07-23 2018-07-23 一种基于耦合建模的多领域数据清洗及学习方法

Publications (2)

Publication Number Publication Date
CN109947750A CN109947750A (zh) 2019-06-28
CN109947750B true CN109947750B (zh) 2021-02-05

Family

ID=67006316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810809701.8A Active CN109947750B (zh) 2018-07-23 2018-07-23 一种基于耦合建模的多领域数据清洗及学习方法

Country Status (1)

Country Link
CN (1) CN109947750B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723486B (zh) * 2021-08-23 2022-07-29 水利部交通运输部国家能源局南京水利科学研究院 一种离心泵多模态监测数据清洗及特征融合提取方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930773A (zh) * 2016-04-13 2016-09-07 中国农业大学 动作识别方法及装置
CN106127379A (zh) * 2016-06-22 2016-11-16 中智城信息科技(苏州)有限公司 一种基于灯联网传感器群和云计算的智慧城市组建方法
CN107818586A (zh) * 2017-10-10 2018-03-20 河海大学 一种基于多特征耦合模型的目标探测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9009435B2 (en) * 2012-08-13 2015-04-14 International Business Machines Corporation Methods and systems for data cleanup using physical image of files on storage devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930773A (zh) * 2016-04-13 2016-09-07 中国农业大学 动作识别方法及装置
CN106127379A (zh) * 2016-06-22 2016-11-16 中智城信息科技(苏州)有限公司 一种基于灯联网传感器群和云计算的智慧城市组建方法
CN107818586A (zh) * 2017-10-10 2018-03-20 河海大学 一种基于多特征耦合模型的目标探测方法

Also Published As

Publication number Publication date
CN109947750A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
CN109615611B (zh) 一种基于巡检影像的绝缘子自爆缺陷检测方法
CN111209952B (zh) 基于改进ssd和迁移学习的水下目标检测方法
CN104392468B (zh) 基于改进视觉背景提取的运动目标检测方法
WO2016062159A1 (zh) 图像匹配方法及手机应用测试平台
WO2017049994A1 (zh) 一种高光谱图像角点检测方法与系统
WO2015010451A1 (zh) 一种从单幅图像检测道路的方法
CN107330861B (zh) 基于扩散距离高置信度信息的图像显著性物体检测方法
Peng et al. Model and context‐driven building extraction in dense urban aerial images
Debese et al. Multibeam echosounder data cleaning through a hierarchic adaptive and robust local surfacing
CN110006444B (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
CN113052872B (zh) 一种基于声呐图像的水下运动目标跟踪方法
CN112085055A (zh) 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法
Vlaminck et al. Obstacle detection for pedestrians with a visual impairment based on 3D imaging
CN113610141B (zh) 自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统
CN112308921A (zh) 一种基于语义和几何的联合优化动态slam方法
Gwon et al. Development of a side scan sonar module for the underwater simulator
CN113743385A (zh) 一种无人船水面目标检测方法、装置及无人船
CN109947750B (zh) 一种基于耦合建模的多领域数据清洗及学习方法
CN108681691A (zh) 一种基于无人水面艇的海上船艇快速检测方法
CN110930384A (zh) 基于密度信息的人群计数方法、装置、设备以及介质
Plagemann et al. A nonparametric learning approach to range sensing from omnidirectional vision
CN114463624A (zh) 一种应用于城市管理监督的违章建筑物检测方法及装置
Guo et al. Surface defect detection of civil structures using images: Review from data perspective
CN112329677B (zh) 基于特征融合的遥感图像河道目标检测方法和装置
CN112767267B (zh) 基于仿真偏振带雾场景数据集的图像去雾方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant