CN109919973A - 基于多特征联合的多视角目标关联方法、系统及介质 - Google Patents
基于多特征联合的多视角目标关联方法、系统及介质 Download PDFInfo
- Publication number
- CN109919973A CN109919973A CN201910122646.XA CN201910122646A CN109919973A CN 109919973 A CN109919973 A CN 109919973A CN 201910122646 A CN201910122646 A CN 201910122646A CN 109919973 A CN109919973 A CN 109919973A
- Authority
- CN
- China
- Prior art keywords
- target
- detection
- space
- color histogram
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000001514 detection method Methods 0.000 claims abstract description 161
- 238000012549 training Methods 0.000 claims abstract description 25
- 229910052739 hydrogen Inorganic materials 0.000 claims description 69
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000007689 inspection Methods 0.000 abstract 3
- 230000009191 jumping Effects 0.000 description 12
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于多特征联合的多视角目标关联方法、系统及介质,包括:模型训练步骤:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;目标检测步骤:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征;目标跟踪步骤:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟;目标关联步骤:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧fim‑1关联目标的距离是否在预设范围内。本发明采用了HSV空间颜色直方图特征,在视角较大时仍具有较好的稳健性。
Description
技术领域
本发明涉及图像处理、目标识别领域,具体地,涉及基于多特征联合的多视角目标关联方法、系统及介质。
背景技术
在信息化战场中,陆空联合进行态势感知和精确打击,对提升联合作战能力及打赢信息化战争具有重要意义。发现、识别目标并进行准确关联是致胜的前提。随着无人机系统、传感器技术等的快速发展,探测手段、获取方式呈现多样化,目标信息更丰富。通常地面采用高分辨率相机获取图像信息,无人机搭载视频传感器采集目标动态信息。由于目标存在多分辨率、多视角性,使得地面目标和空中目标的准确关联成为研究的难点。
图像目标关联通常采用匹配的方式,利用DoG、Harris、SIFT、ASIFT等检测子提取特征,采用SIFT描述子对特征进行描述,实现目标匹配。但该方法在视角变化较大的情况下,特征描述不稳健,误匹配度较高。同时由于获取的关键点数目较多、处理速度较慢,不能满足实时性要求。
专利文献CN106527496A(申请号:201710023941.0)公开了一种面向无人机航拍图像序列的空中目标快速跟踪方法,其步骤是:假设当前时钟为T,那么t时刻的观测集可以表示为Z(t),i∈{1,2,…T},t时刻的观测数则表示为Mk=|Z(t)|,数据关联过程可以描述为寻找集合Z到轨道集Tr的分割方案;从无人机航拍图像序列中获得轨道集,选中某个特定时间,将轨道集分解成轨道;在帧A中选择目标,使用基于滑动时间窗的MHT算法聚类轮廓,构造目标对象。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于多特征联合的多视角目标关联方法、系统及介质。
根据本发明提供的一种基于多特征联合的多视角目标关联方法,包括:
模型训练步骤:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;
目标检测步骤:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征,根据深度特征进行分类,获得候选目标群{Hi},i=1,2,3,…,下标i表示序号,对目标T和候选目标群{Hi},进行HSV空间的颜色直方图提取,联合深度特征及颜色直方图匹配,获得{Hi}中与目标T的匹配度最大的目标H检及其匹配度M检;
第一关联判断步骤:对当前帧图像fim,判定前一帧图像fim-1是否关联到目标T,若不是,进入第二关联判断步骤继续执行;若是,则进入目标跟踪步骤继续执行;
第二关联判断步骤:给定关联阈值δ,判断是否M检≥δ,若是,则判定目标T和H检关联,并用H检对TLD目标跟踪算法进行初始化,进入流程终止判断步骤继续执行;否则,则判定目标T在当前帧fim内没有关联目标,进入流程终止判断步骤继续执行;
目标跟踪步骤:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟,更新获得的检测目标H检及匹配度M检,进入目标位置关联步骤继续执行;
目标位置关联步骤:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧 fim-1关联目标的距离是否在预设范围内:若是,则判定当前帧关联到有效目标,进入第二关联判断步骤继续执行;若不是,则判定当前帧未关联到有效目标,进入流程终止判断步骤继续执行;
流程终止判断步骤:判断当前帧图像fim是否为最后一帧图像,若是,结束流程;否则,则读取下一帧图像,返回目标检测步骤继续执行。
优选地,所述目标检测步骤包括:
候选目标群获取步骤:根据获得的训练后模型,对当前帧fim进行目标检测,提取相应的深度特征,根据深度特征进行分类得到候选目标群{Hi};
RGB转HSV步骤:将目标T的RGB颜色空间的颜色信息[R,G,B]转换为HSV颜色空间的颜色信息[H,S,V];
颜色直方图分布转化步骤:根据获得的[H,S,V]信息,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV};
匹配度计算步骤:设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为比较T和Hi的直方图差异,获得匹配度Mi;
最大匹配度目标获取步骤:对于候选目标群{Hi}中每一个候选目标Hi,根据获得的其与目标T的匹配度Mi,则M检=max(Mi),H检=arg max(Mi)。
优选地,所述RGB转HSV步骤:
转换方法如下:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
R,G,B∈[0,1]
其中,
Cmax表示[R,G,B]三色通道中最大值;
Cmin表示[R,G,B]三色通道中最小值;
R表示红色(Red)通道;
G表示绿色(Green)通道;
B表示蓝色(Blue)通道;
H表示色调(Hue);
S表示饱和度(Saturation);
V表示明度(Value);
所述颜色直方图分布转化步骤:
将[H,S,V]空间每个通道等分为8个颜色区间,计算获得H、S、V空间的颜色直方图分布ZH、ZS、ZV,{ZH,ZS,ZV}表示[H,S,V]空间的颜色直方图分布,计算方法如下:
设H空间像素点总数为NH,依次统计落在第i个区间内像素点个数NHi,i= 1,2,3,...,8,令则为H空间颜色直方图分布;
设S空间像素点总数为NS,依次统计落在第i个区间内像素点个数NSi,i= 1,2,3,...,8,令则为S空间颜色直方图分布;
设V空间像素点总数为NV,依次统计落在第i个区间内像素点个数NVi,i= 1,2,3,...,8,令则为V空间颜色直方图分布;
所述匹配度计算步骤:
计算公式如下:
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的巴氏距离;
Mi表示匹配度,Z1、Z2越相似,匹配度越高,则M越接近于1;
分别表示Z1目标在H,S,V空间颜色直方图分布的均值;
分别表示Z2目标在H,S,V空间颜色直方图分布的均值;
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值;
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值;
N表示直方图总块数。
优选地,所述目标位置关联步骤:
设H检的中心位置坐标为{xi,yi},前一帧fim-1关联目标中心位置坐标为 {xi-1,yi-1},
判断D是否小于预设阈值:若是,则判定当前帧关联到有效目标,进入第二关联判断步骤继续执行;若不是,则判定当前帧未关联到有效目标,进入流程终止判断步骤继续执行。
根据本发明提供的一种基于多特征联合的多视角目标关联系统,包括:
模型训练模块:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;
目标检测模块:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征,根据深度特征进行分类,获得候选目标群{Hi},i=1,2,3,…,下标i表示序号,对目标T和候选目标群{Hi}进行HSV空间的颜色直方图提取,联合深度特征及颜色直方图匹配,获得{Hi}中与目标T的匹配度最大的目标H检及其匹配度M检;
第一关联判断模块:对当前帧图像fim,判定前一帧图像fim-1是否关联到目标T,若不是,则调用第二关联判断模块;若是,则调用目标跟踪模块;
第二关联判断模块:给定关联阈值δ,判断是否M检≥δ,若是,则判定目标T和H检关联,并用H检对TLD目标跟踪算法进行初始化,调用流程终止判断模块;否则,则判定目标T在当前帧fim内没有关联目标,调用流程终止判断模块;
目标跟踪模块:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟,更新获得的检测目标H检及匹配度M检,调用目标位置关联模块;
目标位置关联模块:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧 fim-1关联目标的距离是否在预设范围内:若是,则调用第二关联判断模块;若不是,则判定当前帧未关联到有效目标,调用流程终止判断模块;
流程终止判断模块:判断当前帧图像fim是否为最后一帧图像,若是,结束流程;否则,则读取下一帧图像,调用目标检测模块。
优选地,所述目标检测模块包括:
候选目标群获取模块:根据获得的训练后模型,对当前帧fim进行目标检测,提取相应的深度特征,根据深度特征进行分类得到候选目标群{Hi};
RGB转HSV模块:将目标T的RGB颜色空间的颜色信息[R,G,B]转换为HSV颜色空间的颜色信息[H,S,V];
颜色直方图分布转化模块:根据获得的[H,S,V]信息,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV};
匹配度计算模块:设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为比较T和Hi的直方图差异,获得匹配度Mi;
最大匹配度目标获取模块:对于候选目标群{Hi}中每一个候选目标Hi,根据获得的其与目标T的匹配度Mi,则M检=max(Mi),H检=arg max(Mi)。
优选地,所述RGB转HSV模块:
转换方法如下:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
R,G,B∈[0,1]
其中,
Cmax表示[R,G,B]三色通道中最大值;
Cmin表示[R,G,B]三色通道中最小值;
R表示红色(Red)通道;
G表示绿色(Green)通道;
B表示蓝色(Blue)通道;
H表示色调(Hue);
S表示饱和度(Saturation);
V表示明度(Value);
所述颜色直方图分布转化模块:
将[H,S,V]空间每个通道等分为8个颜色区间,计算获得H、S、V空间的颜色直方图分布ZH、ZS、ZV,{ZH,ZS,ZV}表示[H,S,V]空间的颜色直方图分布,计算方法如下:
设H空间像素点总数为NH,依次统计落在第i个区间内像素点个数NHi,i= 1,2,3,...,8,令则为H空间颜色直方图分布;
设S空间像素点总数为NS,依次统计落在第i个区间内像素点个数NSi,i= 1,2,3,...,8,令则为S空间颜色直方图分布;
设V空间像素点总数为NV,依次统计落在第i个区间内像素点个数NVi,i= 1,2,3,...,8,令则为V空间颜色直方图分布。
优选地,所述匹配度计算模块:
计算公式如下:
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的巴氏距离;
Mi表示候选目标Hi与目标T的匹配度,Z1、Z2越相似,匹配度越高,则Mi越接近于1;
分别表示Z1目标在H,S,V空间颜色直方图分布的均值;
分别表示Z2目标在H,S,V空间颜色直方图分布的均值;
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值;
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值;
N表示直方图总块数。
优选地,所述目标位置关联模块:
设H检的中心位置坐标为{xi,yi},前一帧fim-1关联目标中心位置坐标为 {xi-1,yi-1},
判断D是否小于预设阈值:若是,则判定当前帧关联到有效目标,调用第二关联判断模块;若不是,则判定当前帧未关联到有效目标,调用流程终止判断模块。
根据本发明提供的一种存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现上述任一项所述的基于多特征联合的多视角目标关联方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
1、本发明采用了HSV空间颜色直方图特征,在视角较大时仍具有较好的稳健性。
2、本发明针对所需识别的特定目标,通过在线学习更新模型使其对于待识别目标有更好的识别表现。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明提供的目标关联流程示意图。
图2为本发明提供的目标检测流程示意图。
图3为本发明提供的多特征匹配流程示意图。
图4为本发明提供的TLD跟踪匹配流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的一种基于多特征联合的多视角目标关联方法,包括:
模型训练步骤:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;进一步地,预训练选择在ImageNet数据集上进行,训练所选取的网络结构为yolo-v3的网络结构(参见JosephRedmon和Ali Farhad所著的《YOLOv3:An Incremental Improvement》),针对所需识别的特定目标,通过fine-tune的方法进行在线学习,更新模型使其对于待识别目标有更好的识别表现。
目标检测步骤:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征,根据深度特征进行分类,获得候选目标群{Hi},i=1,2,3,…,下标i表示序号,对目标T和候选目标群{Hi},进行HSV空间的颜色直方图提取,联合深度特征及颜色直方图匹配,获得{Hi}中与目标T的匹配度最大的目标H检及其匹配度M检;
第一关联判断步骤:对当前帧图像fim,判定前一帧图像fim-1是否关联到目标T,若不是,进入第二关联判断步骤继续执行;若是,则进入目标跟踪步骤继续执行;
第二关联判断步骤:给定关联阈值δ,判断是否M检≥δ,若是,则判定目标T和H检关联,并用H检对TLD目标跟踪算法进行初始化,进入流程终止判断步骤继续执行;否则,则判定目标T在当前帧fim内没有关联目标,进入流程终止判断步骤继续执行;
目标跟踪步骤:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟,更新获得的检测目标H检及匹配度M检,进入目标位置关联步骤继续执行;
目标位置关联步骤:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧 fim-1关联目标的距离是否在预设范围内:若是,则判定当前帧关联到有效目标,进入第二关联判断步骤继续执行;若不是,则判定当前帧未关联到有效目标,进入流程终止判断步骤继续执行;
流程终止判断步骤:判断当前帧图像fim是否为最后一帧图像,若是,结束流程;否则,则读取下一帧图像,返回目标检测步骤继续执行。
具体地,所述目标检测步骤包括:
候选目标群获取步骤:根据获得的训练后模型,对当前帧fim进行目标检测,提取相应的深度特征,根据深度特征进行分类得到候选目标群{Hi};
RGB转HSV步骤:将目标T的RGB颜色空间的颜色信息[R,G,B]转换为HSV颜色空间的颜色信息[H,S,V];
颜色直方图分布转化步骤:根据获得的[H,S,V]信息,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV};
匹配度计算步骤:设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为比较T和Hi的直方图差异,获得匹配度Mi;
最大匹配度目标获取步骤:对于候选目标群{Hi}中每一个候选目标Hi,根据获得的其与目标T的匹配度Mi,则M检=max(Mi),H检=arg max(Mi)。
具体地,所述RGB转HSV步骤:
转换方法如下:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
R,G,B∈[0,1]
其中,
Cmax表示[R,G,B]三色通道中最大值;
Cmin表示[R,G,B]三色通道中最小值;
R表示红色(Red)通道;
G表示绿色(Green)通道;
B表示蓝色(Blue)通道;
H表示色调(Hue);
S表示饱和度(Saturation);
V表示明度(Value);
所述颜色直方图分布转化步骤:
将[H,S,V]空间每个通道等分为8个颜色区间,计算获得H、S、V空间的颜色直方图分布ZH、ZS、ZV,{ZH,ZS,ZV}表示[H,S,V]空间的颜色直方图分布,计算方法如下:
设H空间像素点总数为NH,依次统计落在第i个区间内像素点个数NHi,i= 1,2,3,...,8,令则为H空间颜色直方图分布;
设S空间像素点总数为NS,依次统计落在第i个区间内像素点个数NSi,i=1,2,3,...,8,令则为S空间颜色直方图分布;
设V空间像素点总数为NV,依次统计落在第i个区间内像素点个数NVi,i= 1,2,3,...,8,令则为V空间颜色直方图分布;
所述匹配度计算步骤:
计算公式如下:
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的巴氏距离;
Mi表示匹配度,Z1、Z2越相似,匹配度越高,则M越接近于1;
分别表示Z1目标在H,S,V空间颜色直方图分布的均值;
分别表示Z2目标在H,S,V空间颜色直方图分布的均值;
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值;
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值;
N表示直方图总块数。
具体地,所述目标位置关联步骤:
设H检的中心位置坐标为{xi,yi},前一帧fim-1关联目标中心位置坐标为 {xi-1,yi-1},
判断D是否小于预设阈值:若是,则判定当前帧关联到有效目标,进入第二关联判断步骤继续执行;若不是,则判定当前帧未关联到有效目标,进入流程终止判断步骤继续执行。
本发明提供的基于多特征联合的多视角目标关联系统,可以通过本发明给的基于多特征联合的多视角目标关联方法的步骤流程实现。本领域技术人员可以将所述基于多特征联合的多视角目标关联方法,理解为所述基于多特征联合的多视角目标关联系统的一个优选例。
根据本发明提供的一种基于多特征联合的多视角目标关联系统,包括:
模型训练模块:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;
目标检测模块:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征,根据深度特征进行分类,获得候选目标群{Hi},i=1,2,3,…,下标i表示序号,对目标T和候选目标群{Hi}进行HSV空间的颜色直方图提取,联合深度特征及颜色直方图匹配,获得{Hi}中与目标T的匹配度最大的目标H检及其匹配度M检;
第一关联判断模块:对当前帧图像fim,判定前一帧图像fim-1是否关联到目标T,若不是,则调用第二关联判断模块;若是,则调用目标跟踪模块;
第二关联判断模块:给定关联阈值δ,判断是否M检≥δ,若是,则判定目标T和H检关联,并用H检对TLD目标跟踪算法进行初始化,调用流程终止判断模块;否则,则判定目标T在当前帧fim内没有关联目标,调用流程终止判断模块;
目标跟踪模块:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟,更新获得的检测目标H检及匹配度M检,调用目标位置关联模块;
目标位置关联模块:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧fim-1关联目标的距离是否在预设范围内:若是,则调用第二关联判断模块;若不是,则判定当前帧未关联到有效目标,调用流程终止判断模块;
流程终止判断模块:判断当前帧图像fim是否为最后一帧图像,若是,结束流程;否则,则读取下一帧图像,调用目标检测模块。
具体地,所述目标检测模块包括:
候选目标群获取模块:根据获得的训练后模型,对当前帧fim进行目标检测,提取相应的深度特征,根据深度特征进行分类得到候选目标群{Hi};
RGB转HSV模块:将目标T的RGB颜色空间的颜色信息[R,G,B]转换为HSV颜色空间的颜色信息[H,S,V];
颜色直方图分布转化模块:根据获得的[H,S,V]信息,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV};
匹配度计算模块:设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为比较T和Hi的直方图差异,获得匹配度Mi;
最大匹配度目标获取模块:对于候选目标群{Hi}中每一个候选目标Hi,根据获得的其与目标T的匹配度Mi,则M检=max(Mi),H检=arg max(Mi)。
具体地,所述RGB转HSV模块:
转换方法如下:
Cmax=max(R,G,B)
Cmin=mmin(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
R,G,B∈[0,1]
其中,
Cmax表示[R,G,B]三色通道中最大值;
Cmin表示[R,G,B]三色通道中最小值;
R表示红色(Red)通道;
G表示绿色(Green)通道;
B表示蓝色(Blue)通道;
H表示色调(Hue);
S表示饱和度(Saturation);
V表示明度(Value);
所述颜色直方图分布转化模块:
将[H,S,V]空间每个通道等分为8个颜色区间,计算获得H、S、V空间的颜色直方图分布ZH、ZS、ZV,{ZH,ZS,ZV}表示[H,S,V]空间的颜色直方图分布,计算方法如下:
设H空间像素点总数为NH,依次统计落在第i个区间内像素点个数NHi,i= 1,2,3,...,8,令则为H空间颜色直方图分布;
设S空间像素点总数为NS,依次统计落在第i个区间内像素点个数NSi,i= 1,2,3,...,8,令则为S空间颜色直方图分布;
设V空间像素点总数为NV,依次统计落在第i个区间内像素点个数NVi,i= 1,2,3,...,8,令则为V空间颜色直方图分布。
具体地,所述匹配度计算模块:
计算公式如下:
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的巴氏距离;
Mi表示候选目标Hi与目标T的匹配度,Z1、Z2越相似,匹配度越高,则Mi越接近于1;
分别表示Z1目标在H,S,V空间颜色直方图分布的均值;
分别表示Z2目标在H,S,V空间颜色直方图分布的均值;
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值;
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值;
N表示直方图总块数。
具体地,所述目标位置关联模块:
设H检的中心位置坐标为{xi,yi},前一帧fim-1关联目标中心位置坐标为 {xi-1,yi-1},
判断D是否小于预设阈值:若是,则判定当前帧关联到有效目标,调用第二关联判断模块;若不是,则判定当前帧未关联到有效目标,调用流程终止判断模块。
根据本发明提供的一种存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现上述任一项所述的基于多特征联合的多视角目标关联方法的步骤。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
下面通过优选例,对本发明进行更为具体地说明。
优选例1:
为了解决空地多视角目标关联问题,本发明旨在提供一种基于多特征联合的关联方法,先采用基于端到端的目标检测方法,快速检测目标,基于深度特征获得候选目标群,由于HSV空间颜色直方图特征在视角较大时仍具有较好的稳健性,故利用HSV空间颜色直方图特征进行图像目标和视频目标匹配,同时视频目标采用TLD 跟踪关联,联合多特征匹配结果和跟踪关联结果获得最终的目标关联。
本发明主要分为目标检测,多特征匹配,TLD跟踪,联合关联四个部分,该方法详细流程为:
第一步骤,在数据集上进行目标类别模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新模型。
第二步骤,对当前帧fim进行目标检测,提取相应的深度特征,根据特征进行分类得到候选目标群{Hi}(i=1,2,3,…)。对目标T和候选目标群Hi进行HSV空间颜色直方图提取,联合深度特征及颜色直方图匹配,获得匹配度最大的目标H检,匹配度为 M检。
第三步骤,对当前帧fim,判定前一帧fim-1是否关联到目标,如果没有,跳转至第四步骤;如果前一帧fim-1关联到目标,则跳转至第五步骤。
第四步骤,给定关联阈值δ,如果M检≥δ,认为目标T和H检关联,并用H检对TLD 跟踪进行初始化;如果M检<δ,则目标T在当前帧fim内没有关联目标。判断当前帧 fim是否为最后一帧,如果是,跳转至第七步骤;如果不是,则读取下一帧,跳转至第二步骤。
第五步骤,使用TLD方法得到跟踪目标G跟。联合深度特征及颜色直方图匹配,获得T和G跟间匹配度M跟。比较M检与M跟大小,如果M跟>M检,则将跟踪目标G跟作为检测目标H检,并将M跟赋值给M检。
第六步骤,判断H检是否在前一帧fim-1关联目标附近,如果在附近,则跳转至第四步骤;如果不在附近,则认为当前帧未关联到有效目标,同时判断当前帧fim是否为最后一帧,如果是,跳转至第七步骤;如果不是,则读取下一帧,跳转至第二步骤。
第七步骤,结束所有流程。
优选例2:
为使本发明的目的、技术方案和优点更加清楚,下面结合流程图对本发明进行进一步说明。
如图1所示,表示基于多特征联合的多视角目标关联方法的流程图,下面将逐步进行详细说明。
第一步骤,在数据集上进行目标类别模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新模型。
本步骤中预训练选择在较为常用,数据量较大,类别较多的ImageNet数据集上进行。训练所选取的网络结构为yolo-v3的网络结构(参见Joseph Redmon和Ali Farhad所著的《YOL0v3:An Incremental Improvement》)。
针对所需识别的特定目标,通过fine-tune的方法进行在线学习,更新模型使其对于待识别目标有更好的识别表现。
第二步骤,对当前帧fim进行目标检测,提取相应的深度特征,根据特征进行分类得到候选目标群{Hi}(i=1,2,3,…)。对目标T和候选目标群Hi进行HSV空间颜色直方图提取,联合深度特征及颜色直方图匹配,获得匹配度最大的目标H检,匹配度为 M检。
如图2所示,说明了目标检测的流程。本步骤根据第一步中模型对进入系统的单帧图像进行特征提取,由于同一帧图像中可能存在多个与待识别目标同类别的目标,通过网络分类建立候选目标群。
本步骤中主要涉及HSV空间颜色直方图提取方法与匹配方法。以目标T为例,设[R,G,B]为T的RGB空间颜色信息,将[R,G,B]转换为HSV空间颜色信息[H,S,V],转换如下:
设R,G,B∈[0,1],计算:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
其中,
Cmax表示[R,G,B]三色通道中最大值。
Cmin表示[R,G,B]三色通道中最小值。
R表示红色(Red)通道。
G表示绿色(Green)通道。
B表示蓝色(Blue)通道。
H表示色调(Hue)。
S表示饱和度(Saturation)。
V表示明度(Value)。
获得[H,S,V]信息后,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV}。转化方法如下:将[H,S,V]空间每个通道等分为8个颜色区间,以H空间为例,设像素点总数为N,依次统计落在第i个区间内像素点个数Ni(i=1,...,8),令则 为H空间颜色直方图分布。按照这样的方法分别获得S、V空间的颜色直方图分布ZS、ZV。{ZH,ZS,ZV}则代表[H,S,V]空间的颜色直方图分布。
设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为
比较T和Hi的直方图差异,这里使用BHATTACHARYYA距离(参见A.Bhattacharyya所著的《0n a measure of divergence between two statistical populations definedby their probability distributions》(Bulletin of the Calcutta MathematicalSociety 35:99-109.MR00103))进行比较得到匹配度M,计算公式如下,其取值范围为0-1,越接近1说明匹配度越高。如图3所示,说明了特征匹配的流程。
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的BHATTACHARYYA距离。dH(Z1|Z2)越小,表明Z1、Z2在H通道越相似。dS(Z1|Z2)、 dV(Z1|Z2)亦然。
M表示匹配度,Z1、Z2越相似,匹配度越高,则M越接近于1。
分别表示Z1目标H,S,V空间颜色直方图分布的均值。
分别表示Z2目标H,S,V空间颜色直方图分布的均值。
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值。
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值。
N表示直方图总块数。
对于候选目标群{Hi}(i=1,2,3,…)中每一个Hi,按照上述方法获得其与目标T的匹配度Mi,则M检=max(Mi),H检=argmax(Mi)。
第三步骤,对当前帧fim,判定前一帧fim-1是否关联到目标,如果没有,跳转至第四步骤;如果前一帧fim-1关联到目标,则跳转至第五步骤。
第四步骤,给定关联阈值δ,如果M检≥δ,认为目标T和H检关联,并用H检对TLD 跟踪进行初始化;如果M检<δ,则目标T在当前帧fim内没有关联目标。判断当前帧 fim是否为最后一帧,如果是,跳转至第七步骤;如果不是,则读取下一帧,跳转至第二步骤。
第三、四步骤判断当前帧fim是否存在被检测到的目标、以及TLD是否被初始化并据此确定读取下一帧进行处理,或是通过TLD匹配得到结果。
第五步骤,使用TLD方法(即Tracking-Learning-Derection目标跟踪方法) 得到跟踪目标G跟。采用上述HSV空间颜色直方图提取方法与匹配方法,获得T和G跟的匹配度M跟。比较M检与M跟大小,如果M跟>M检,则将跟踪目标G跟作为检测目标 H检,并将M跟赋值给M检。如图4所示,TLD跟踪匹配方法进行筛选,得到匹配度最高的目标。
第六步骤,判断H检是否在前一帧fim-1关联目标附近,设H检的中心位置坐标为 {xi,yi},前一帧fim-1关联目标中心位置坐标为{xi-1,yi-1}。设 若D<50,则认为H检在前一帧fim-1关联目标附近,跳转至第四步骤;若D≥50,则认为当前帧未关联到有效目标,同时判断当前帧fim是否为最后一帧,如果是,跳转至第七步骤;如果不是,则读取下一帧,跳转至第二步骤。
本步骤为增强系统的鲁棒性,将上述步骤所得到的检测结果与前一帧的结果进行比较。只有同时满足了位置偏差不大和匹配度大于阈值的条件,才将此结果作为当前帧的最终检测结果。
第七步骤,结束所有流程。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (10)
1.一种基于多特征联合的多视角目标关联方法,其特征在于,包括:
模型训练步骤:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;
目标检测步骤:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征,根据深度特征进行分类,获得候选目标群{Hi},i=1,2,3,…,下标i表示序号,对目标T和候选目标群{Hi},进行HSV空间的颜色直方图提取,联合深度特征及颜色直方图匹配,获得{Hi}中与目标T的匹配度最大的目标H检及其匹配度M检;
第一关联判断步骤:对当前帧图像fim,判定前一帧图像fim-1是否关联到目标T,若不是,进入第二关联判断步骤继续执行;若是,则进入目标跟踪步骤继续执行;
第二关联判断步骤:给定关联阈值δ,判断是否M检≥δ,若是,则判定目标T和H检关联,并用H检对TLD目标跟踪算法进行初始化,进入流程终止判断步骤继续执行;否则,则判定目标T在当前帧fim内没有关联目标,进入流程终止判断步骤继续执行;
目标跟踪步骤:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟,更新获得的检测目标H检及匹配度M检,进入目标位置关联步骤继续执行;
目标位置关联步骤:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧fim-1关联目标的距离是否在预设范围内:若是,则判定当前帧关联到有效目标,进入第二关联判断步骤继续执行;若不是,则判定当前帧未关联到有效目标,进入流程终止判断步骤继续执行;
流程终止判断步骤:判断当前帧图像fim是否为最后一帧图像,若是,结束流程;否则,则读取下一帧图像,返回目标检测步骤继续执行。
2.根据权利要求1所述的基于多特征联合的多视角目标关联方法,其特征在于,所述目标检测步骤包括:
候选目标群获取步骤:根据获得的训练后模型,对当前帧fim进行目标检测,提取相应的深度特征,根据深度特征进行分类得到候选目标群{Hi};
RGB转HSV步骤:将目标T的RGB颜色空间的颜色信息[R,G,B]转换为HSV颜色空间的颜色信息[H,S,V];
颜色直方图分布转化步骤:根据获得的[H,S,V]信息,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV};
匹配度计算步骤:设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为比较T和Hi的直方图差异,获得匹配度Mi;
最大匹配度目标获取步骤:对于候选目标群{Hi}中每一个候选目标Hi,根据获得的其与目标T的匹配度Mi,则M检=max(Mi),H检=argmax(Mi)。
3.根据权利要求2所述的基于多特征联合的多视角目标关联方法,其特征在于,所述RGB转HSV步骤:
转换方法如下:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
R,G,B∈[0,1]
其中,
Cmax表示[R,G,B]三色通道中最大值;
Cmin表示[R,G,B]三色通道中最小值;
R表示红色(Red)通道;
G表示绿色(Green)通道;
B表示蓝色(Blue)通道;
H表示色调(Hue);
S表示饱和度(Saturation);
V表示明度(Value);
所述颜色直方图分布转化步骤:
将[H,S,V]空间每个通道等分为8个颜色区间,计算获得H、S、V空间的颜色直方图分布ZH、ZS、ZV,{ZH,ZS,ZV}表示[H,S,V]空间的颜色直方图分布,计算方法如下:
设H空间像素点总数为NH,依次统计落在第i个区间内像素点个数NHi,i=1,2,3,…,8,令则为H空间颜色直方图分布;
设S空间像素点总数为NS,依次统计落在第i个区间内像素点个数NSi,i=1,2,3,…,8,令则为S空间颜色直方图分布;
设V空间像素点总数为NV,依次统计落在第i个区间内像素点个数NVi,i=1,2,3,…,8,令则为V空间颜色直方图分布;
所述匹配度计算步骤:
计算公式如下:
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的巴氏距离;
Mi表示匹配度,Z1、Z2越相似,匹配度越高,则M越接近于1;
分别表示Z1目标在H,S,V空间颜色直方图分布的均值;
分别表示Z2目标在H,S,V空间颜色直方图分布的均值;
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值;
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值;
N表示直方图总块数。
4.根据权利要求3所述的基于多特征联合的多视角目标关联方法,其特征在于,所述目标位置关联步骤:
设H检的中心位置坐标为{xi,yi},前一帧fim-1关联目标中心位置坐标为{xi-1,yi-1},
判断D是否小于预设阈值:若是,则判定当前帧关联到有效目标,进入第二关联判断步骤继续执行;若不是,则判定当前帧未关联到有效目标,进入流程终止判断步骤继续执行。
5.一种基于多特征联合的多视角目标关联系统,其特征在于,包括:
模型训练模块:在数据集上进行目标模型的预训练,进行图像目标检测,设目标为T,根据目标T进行在线学习更新目标模型,获得训练后模型;
目标检测模块:根据获得的训练后模型,对当前帧图像fim进行目标检测,提取深度特征,根据深度特征进行分类,获得候选目标群{Hi},i=1,2,3,…,下标i表示序号,对目标T和候选目标群{Hi}进行HSV空间的颜色直方图提取,联合深度特征及颜色直方图匹配,获得{Hi}中与目标T的匹配度最大的目标H检及其匹配度M检;
第一关联判断模块:对当前帧图像fim,判定前一帧图像fim-1是否关联到目标T,若不是,则调用第二关联判断模块;若是,则调用目标跟踪模块;
第二关联判断模块:给定关联阈值δ,判断是否M检≥δ,若是,则判定目标T和H检关联,并用H检对TLD目标跟踪算法进行初始化,调用流程终止判断模块;否则,则判定目标T在当前帧fim内没有关联目标,调用流程终止判断模块;
目标跟踪模块:使用TLD目标跟踪算法获得跟踪目标G跟,联合深度特征及颜色直方图匹配,获得目标T和跟踪目标G跟间的匹配度M跟,更新获得的检测目标H检及匹配度M检,调用目标位置关联模块;
目标位置关联模块:根据更新后的检测目标H检及匹配度M检,判断H检与前一帧fim-1关联目标的距离是否在预设范围内:若是,则调用第二关联判断模块;若不是,则判定当前帧未关联到有效目标,调用流程终止判断模块;
流程终止判断模块:判断当前帧图像fim是否为最后一帧图像,若是,结束流程;否则,则读取下一帧图像,调用目标检测模块。
6.根据权利要求5所述的基于多特征联合的多视角目标关联系统,其特征在于,所述目标检测模块包括:
候选目标群获取模块:根据获得的训练后模型,对当前帧fim进行目标检测,提取相应的深度特征,根据深度特征进行分类得到候选目标群{Hi};
RGB转HSV模块:将目标T的RGB颜色空间的颜色信息[R,G,B]转换为HSV颜色空间的颜色信息[H,S,V];
颜色直方图分布转化模块:根据获得的[H,S,V]信息,按照3个通道转化成颜色直方图分布{ZH,ZS,ZV};
匹配度计算模块:设目标T的HSV空间颜色直方图分布为候选目标Hi的HSV空间颜色直方图分布为比较T和Hi的直方图差异,获得匹配度Mi;
最大匹配度目标获取模块:对于候选目标群{Hi}中每一个候选目标Hi,根据获得的其与目标T的匹配度Mi,则M检=max(Mi),H检=argmax(Mi)。
7.根据权利要求6所述的基于多特征联合的多视角目标关联系统,其特征在于,所述RGB转HSV模块:
转换方法如下:
Cmax=max(R,G,B)
Cmin=min(R,G,B)
Δ=Cmax-Cmin
若H<0,则令H增加360°
V=Cmax
R,G,B∈[0,1]
其中,
Cmax表示[R,G,B]三色通道中最大值;
Cmin表示[R,G,B]三色通道中最小值;
R表示红色(Red)通道;
G表示绿色(Green)通道;
B表示蓝色(Blue)通道;
H表示色调(Hue);
S表示饱和度(Saturation);
V表示明度(Value);
所述颜色直方图分布转化模块:
将[H,S,V]空间每个通道等分为8个颜色区间,计算获得H、S、V空间的颜色直方图分布ZH、ZS、ZV,{ZH,ZS,ZV}表示[H,S,V]空间的颜色直方图分布,计算方法如下:
设H空间像素点总数为NH,依次统计落在第i个区间内像素点个数NHi,i=1,2,3,…,8,令则为H空间颜色直方图分布;
设S空间像素点总数为NS,依次统计落在第i个区间内像素点个数NSi,i=1,2,3,…,8,令则为S空间颜色直方图分布;
设V空间像素点总数为NV,依次统计落在第i个区间内像素点个数NVi,i=1,2,3,…,8,令则为V空间颜色直方图分布。
8.根据权利要求7所述的基于多特征联合的多视角目标关联系统,其特征在于,所述匹配度计算模块:
计算公式如下:
其中,
dH(Z1|Z2)、dS(Z1|Z2)、dV(Z1|Z2)分别表示Z1和Z2在H,S,V空间颜色直方图分布的巴氏距离;
Mi表示候选目标Hi与目标T的匹配度,Z1、Z2越相似,匹配度越高,则Mi越接近于1;
分别表示Z1目标在H,S,V空间颜色直方图分布的均值;
分别表示Z2目标在H,S,V空间颜色直方图分布的均值;
分别表示Z1目标在H,S,V空间中第i个颜色区间的颜色直方图值;
分别表示Z2目标在H,S,V空间中第i个颜色区间的颜色直方图值;
N表示直方图总块数。
9.根据权利要求8所述的基于多特征联合的多视角目标关联系统,其特征在于,所述目标位置关联模块:
设H检的中心位置坐标为{xi,yi},前一帧fim-1关联目标中心位置坐标为{xi-1,yi-1},
判断D是否小于预设阈值:若是,则判定当前帧关联到有效目标,调用第二关联判断模块;若不是,则判定当前帧未关联到有效目标,调用流程终止判断模块。
10.一种存储有计算机程序的计算机可读存储介质,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的基于多特征联合的多视角目标关联方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910122646.XA CN109919973B (zh) | 2019-02-19 | 2019-02-19 | 基于多特征联合的多视角目标关联方法、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910122646.XA CN109919973B (zh) | 2019-02-19 | 2019-02-19 | 基于多特征联合的多视角目标关联方法、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109919973A true CN109919973A (zh) | 2019-06-21 |
CN109919973B CN109919973B (zh) | 2020-11-17 |
Family
ID=66961776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910122646.XA Active CN109919973B (zh) | 2019-02-19 | 2019-02-19 | 基于多特征联合的多视角目标关联方法、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109919973B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111739645A (zh) * | 2020-05-14 | 2020-10-02 | 上海依智医疗技术有限公司 | 一种免疫相关性肺炎预测模型的训练方法 |
CN113421340A (zh) * | 2021-06-24 | 2021-09-21 | 百特利德(大连)科技有限公司 | 一种点群数据特定目标数据提取的自动建模方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1619593A (zh) * | 2004-12-09 | 2005-05-25 | 上海交通大学 | 基于多特征信息融合的视频运动目标自适应跟踪方法 |
CN102063625A (zh) * | 2010-12-10 | 2011-05-18 | 浙江大学 | 一种用于多视角下多目标追踪的改进型粒子滤波方法 |
CN104217428A (zh) * | 2014-08-22 | 2014-12-17 | 南京邮电大学 | 一种融合特征匹配和数据关联的视频监控多目标跟踪方法 |
CN106022266A (zh) * | 2016-05-20 | 2016-10-12 | 北京格灵深瞳信息技术有限公司 | 一种目标跟踪方法及装置 |
CN107707899A (zh) * | 2017-10-19 | 2018-02-16 | 中科创达软件股份有限公司 | 包含运动目标的多视角图像处理方法、装置及电子设备 |
-
2019
- 2019-02-19 CN CN201910122646.XA patent/CN109919973B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1619593A (zh) * | 2004-12-09 | 2005-05-25 | 上海交通大学 | 基于多特征信息融合的视频运动目标自适应跟踪方法 |
CN102063625A (zh) * | 2010-12-10 | 2011-05-18 | 浙江大学 | 一种用于多视角下多目标追踪的改进型粒子滤波方法 |
CN104217428A (zh) * | 2014-08-22 | 2014-12-17 | 南京邮电大学 | 一种融合特征匹配和数据关联的视频监控多目标跟踪方法 |
CN106022266A (zh) * | 2016-05-20 | 2016-10-12 | 北京格灵深瞳信息技术有限公司 | 一种目标跟踪方法及装置 |
CN107707899A (zh) * | 2017-10-19 | 2018-02-16 | 中科创达软件股份有限公司 | 包含运动目标的多视角图像处理方法、装置及电子设备 |
Non-Patent Citations (4)
Title |
---|
XUFENGQIMING: "基于特征融合与联合决策的视频跟踪算法研究", 《道客巴巴》 * |
YU XIANG ET AL.: "Learning to Track: Online Multi-object Tracking by Decision Making", 《IEEE》 * |
聂烜 等: "一种用于多目标跟踪的特征关联方法", 《计算机应用研究》 * |
顾超 等: "基于颜色直方图和深度信息的CamShift目标跟踪算法", 《佳木斯大学学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111739645A (zh) * | 2020-05-14 | 2020-10-02 | 上海依智医疗技术有限公司 | 一种免疫相关性肺炎预测模型的训练方法 |
CN111739645B (zh) * | 2020-05-14 | 2024-01-30 | 北京深睿博联科技有限责任公司 | 一种免疫相关性肺炎预测模型的训练方法 |
CN113421340A (zh) * | 2021-06-24 | 2021-09-21 | 百特利德(大连)科技有限公司 | 一种点群数据特定目标数据提取的自动建模方法及系统 |
CN113421340B (zh) * | 2021-06-24 | 2023-12-05 | 百特利德(大连)科技有限公司 | 一种点群数据特定目标数据提取的自动建模方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109919973B (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106845374B (zh) | 基于深度学习的行人检测方法及检测装置 | |
CN107240124B (zh) | 基于时空约束的跨镜头多目标跟踪方法及装置 | |
EP2426642B1 (en) | Method, device and system for motion detection | |
CN104282020B (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN104793620B (zh) | 基于视觉特征捆绑和强化学习理论的避障机器人 | |
CN110264493B (zh) | 一种针对运动状态下的多目标对象追踪方法和装置 | |
CN104598883B (zh) | 一种多摄像机监控网络中目标再识别的方法 | |
CN106023257B (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN113239813B (zh) | 一种基于三阶级联架构的YOLOv3的远景目标检测方法 | |
CN108346160A (zh) | 基于视差图背景差法和Meanshift结合的多运动目标跟踪方法 | |
CN110006444B (zh) | 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法 | |
CN107240118B (zh) | 一种基于rgb颜色直方图的判别式跟踪方法 | |
CN109753945B (zh) | 目标主体识别方法、装置、存储介质和电子设备 | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
CN112818905B (zh) | 一种基于注意力和时空信息的有限像素车辆目标检测方法 | |
Mazzeo et al. | HSV and RGB color histograms comparing for objects tracking among non overlapping FOVs, using CBTF | |
CN106203439B (zh) | 基于标志物多特征融合的无人机自动寻的着陆方法 | |
Haner et al. | Combining foreground/background feature points and anisotropic mean shift for enhanced visual object tracking | |
CN109919973B (zh) | 基于多特征联合的多视角目标关联方法、系统及介质 | |
Stone et al. | Forward looking anomaly detection via fusion of infrared and color imagery | |
Alvarado-Robles et al. | An approach for shadow detection in aerial images based on multi-channel statistics | |
CN107045630B (zh) | 一种基于rgbd的行人检测和身份识别方法及系统 | |
CN107103301B (zh) | 视频目标时空最大稳定性判别性颜色区域匹配方法和系统 | |
Zhang et al. | An optical flow based moving objects detection algorithm for the UAV | |
CN113689459B (zh) | 动态环境下基于gmm结合yolo实时跟踪与建图方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |