CN109087334A - 基于显著语境稀疏表示的目标追踪方法 - Google Patents

基于显著语境稀疏表示的目标追踪方法 Download PDF

Info

Publication number
CN109087334A
CN109087334A CN201810635733.0A CN201810635733A CN109087334A CN 109087334 A CN109087334 A CN 109087334A CN 201810635733 A CN201810635733 A CN 201810635733A CN 109087334 A CN109087334 A CN 109087334A
Authority
CN
China
Prior art keywords
formula
target
mapping
image
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810635733.0A
Other languages
English (en)
Other versions
CN109087334B (zh
Inventor
王彦波
戴波
罗旺
梅峰
欧阳柳
姚杨
姚一杨
叶伟静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Zhejiang Electric Power Co Ltd
NARI Group Corp
Information and Telecommunication Branch of State Grid Zhejiang Electric Power Co Ltd
Original Assignee
State Grid Zhejiang Electric Power Co Ltd
NARI Group Corp
Information and Telecommunication Branch of State Grid Zhejiang Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Zhejiang Electric Power Co Ltd, NARI Group Corp, Information and Telecommunication Branch of State Grid Zhejiang Electric Power Co Ltd filed Critical State Grid Zhejiang Electric Power Co Ltd
Priority to CN201810635733.0A priority Critical patent/CN109087334B/zh
Publication of CN109087334A publication Critical patent/CN109087334A/zh
Application granted granted Critical
Publication of CN109087334B publication Critical patent/CN109087334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了基于显著语境稀疏表示的目标追踪方法,属于图像处理领域,包括提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理;对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解,对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用前述内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果。通过将目标对象被提取为一个显著特征映射,用稀疏表示和显著的语境校正部分遮挡和突然运动的目标,本方法计算简单,提升了目标追踪的有效性和准确性,抗干扰能力也大大提高。

Description

基于显著语境稀疏表示的目标追踪方法
技术领域
本发明属于图像处理领域,特别涉及基于显著语境稀疏表示的目标追踪方法。
背景技术
目标跟踪在视频监控、威胁检测、复合安全、人机交互等众多应用中发挥着至关重要的作用,近年来已经取得了大量的进展。一般来说,一个跟踪算法使用一个外观模型来表示对象,并用对象表示来评估预测的图像补丁。此外,还应用动态模型来不断地计算目标的状态。
通过对视觉信息的过滤和选择,可以有效地提高跟踪程序。Itti L等人首先提出基于显著性视觉注意力模型,用于快速场景分析。Wu Y等人提倡在稀疏编码的特征空间中寻找合适的度量标准,提出一种基于度量的结构外观模型,以便更准确地匹配不同的外观。Mei X将稀疏表示扩展到对象跟踪,然而由于该方法可以利用l_1最小化公式处理每个粒子的最小值,计算量较大,且随着目标和背景之间的模糊性越来越大,可能会导致跟踪失败。现有技术中由于光照变化、遮挡、尺度变化和背景杂波等因素影响,鲁棒性和抗干扰能力较弱。
发明内容
为了解决现有技术中存在的缺点和不足,本发明提供了基于显著语境稀疏表示的目标追踪方法,用于提升跟踪的稳定性。
为了达到上述技术目的,本发明提供了基于显著语境稀疏表示的目标追踪方法,所述目标追踪方法,包括:
步骤一,提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理;
步骤二,对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解;
步骤三,对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用步骤一和步骤二的内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果。
可选的,所述提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理,包括:
将图像分解为一组特征映射,从特征映射中提取颜色映射CRG,CBY、亮度映射Ι和局部方向映射O,O的计算公式如公式1所示
O(θ)=‖IG0(θ)‖+||IGπ/2(θ)|| 公式1
其中G(.)代表Gabor过滤器,θ是局部方向;
获取中心区域与周围区域的对比:利用不同空间尺度的图像的差分来模拟对比度,处理公式如公式2所示
Fl(c,s)=|Fl(c)ΘFl(s)| 公式2
其中Fl(c)代表中部区域特性,Fl(s)代表周边区域特性,Θ的意思是用相同的大小插入这两个图像,并计算每个像素的差分;
使用归一化函数N(.)和跨尺度加法运算,将各特征的获得的映射分别进行融合,以实现规模的统一,处理公式如公式3所示
Mk=αN(Ik)+βN(Ck)+γN(Ok) 公式3
其中Ik,Ck,Ok表示第k个坐标系中的颜色、亮度和方向特征显著性映射,α,β,γ,为权重因子,用于减轻图像质量、图像噪声或其他元素的干扰。
可选的,所述对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解,包括:
将跟踪问题转换为稀疏表示的最可能的补丁,并通过公式4的小模板处理部分遮挡:
其中y表示当前帧中的图像补丁,T表示包含目标模板的矩阵,B=[T,I]由T和I组成的矩阵组合,表示由a和e组成的向量的组合,a是目标系数向量,e是表示被破坏或遮挡的y中的像素点的误差向量;
对公式4通过一个正则化最小二乘问题来求解,处理公式如公式5所示
其中‖·‖1和‖·‖2表示的范数;
对目标外观建模并处理遮挡:将显著的约束引入到正则化的稀疏表示中,用显著特征向量对追踪的目标外观进行建模,并对遮挡问题进行处理,处理公式如公式6所示
其中S代表显著映射中的显著特征向量的一个矩阵,I表示单位矩阵;
对公式6遵循追踪器的方法进行最优化求解,处理公式如公式7所示,式中λ是正则化系数,
可选的,所述对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用步骤一和步骤二的内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果,包括:
对两个连续帧之间的目标运动仿射变换建模,并利用对角线协方差矩阵进行随机游走,形成状态转换;
在没有遮挡的情况下,从目标物体的子空间生成图像观测yk,用每个观测到的图像补片的重构误差来计算观测的可能性,计算公式如公式8所示
如果出现重遮挡和跟踪漂移,用步骤一和步骤二的方法计算当前帧的可视显著性映射,并在显著性图中检测显著性yi表示由xi建立的图像补丁,区域R={R1,R2,…,Rn},再与每个Ri的目标模板进行比较,匹配最可能的Rm和来自周围区域的样品,xi表示运动状态变量x的第I个样本,ai表示第i个目标系数向量,p(yi|xi)表示通过状态xi中估计观察的yi的可能性,S代表显著映射中的显著特征向量的一个矩阵;
初始化目标模板,将每个对象模板都与执行更新的重要权重相关联。
本发明提供的技术方案带来的有益效果是:
通过将目标对象被提取为一个显著特征映射,用稀疏表示和显著的语境校正部分遮挡和突然运动的目标,本方法计算简单,提升了目标追踪的有效性和准确性,抗干扰能力也大大提高。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于显著语境稀疏表示的目标追踪方法的流程示意图。
具体实施方式
为使本发明的结构和优点更加清楚,下面将结合附图对本发明的结构作进一步地描述。
实施例一
本发明提供了基于显著语境稀疏表示的目标追踪方法,如图1所示,所述目标追踪方法,包括:
步骤一,提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理;
步骤二,对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解;
步骤三,对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用步骤一和步骤二的内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果。
在实施中,本发明提出一种基于稀疏表示的有效和自适应跟踪算法。在跟踪方法中,目标对象被提取为一个显著特征映射,用稀疏表示和显著的语境校正部分遮挡和突然运动的目标,提升了目标追踪的有效性和准确性,抗干扰能力大大提高。
可选的,所述提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理,包括:
将图像分解为一组特征映射,从特征映射中提取颜色映射CRG,CBY、亮度映射Ι和局部方向映射O,O的计算公式如公式1所示
O(θ)=‖IG0(θ)‖+||IGπ/2(θ)|| 公式1
其中G(.)代表Gabor过滤器,θ是局部方向;
获取中心区域与周围区域的对比:利用不同空间尺度的图像的差分来模拟对比度,处理公式如公式2所示
Fl(c,s)=|Fl(c)ΘFl(s)| 公式2
其中Fl(c)代表中部区域特性,Fl(s)代表周边区域特性,Θ的意思是用相同的大小插入这两个图像,并计算每个像素的差分;
使用归一化函数N(.)和跨尺度加法运算,将各特征的获得的映射分别进行融合,以实现规模的统一,处理公式如公式3所示
Mk=αN(Ik)+βN(Ck)+γN(Ok) 公式3
其中Ik,Ck,Ok表示第k个坐标系中的颜色、亮度和方向特征显著性映射,α,β,γ,为权重因子,用于减轻图像质量、图像噪声或其他元素的干扰。
在实施中,提取图像特征:使用一组8个具有地面真实对象位置的具有挑战性的图像序列,将图像分解为一组特征映射,从这些特征中提取颜色映射CRG,CBY、亮度映射I和局部方向映射O,O的计算公式如下:
O(θ)=‖IG0(θ)‖+|IGπ/2(θ)|| 公式1
其中G(.)代表Gabor过滤器,θ是局部方向。
获取中心区域与周围区域的对比:利用不同空间尺度的图像的差分来模拟对比度,处理公式如下:
Fl(c,s)=|Fl(c)ΘFl(s)| 公式2
其中Fl(c)代表中部区域特性,Fl(s)代表周边区域特性,Θ的意思是用相同的大小插入这两个图像,并计算每个像素的差分。
融合特征:使用归一化函数N(.)和跨尺度加法运算,将各特征的获得的映射分别进行融合,处理公式如下:
Mk=αN(Ik)+βN(Ck)+γN(Ok) 公式3
其中Ik,Ck,Ok表示第k个坐标系中的颜色、亮度和方向特征显著性映射,α,β,γ,为权重因子,用于减轻图像质量、图像噪声或其他元素的干扰。
可选的,所述对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解,包括:
将跟踪问题转换为稀疏表示的最可能的补丁,并通过公式4的小模板处理部分遮挡:
其中y表示当前帧中的图像补丁,T表示包含目标模板的矩阵,B=[T,I]由T和I组成的矩阵组合,表示由a和e组成的向量的组合,a是目标系数向量,e是表示被破坏或遮挡的y中的像素点的误差向量;
对公式4通过一个正则化最小二乘问题来求解,处理公式如公式5所示
其中‖·‖1和‖·‖2表示的范数;
对目标外观建模并处理遮挡:将显著的约束引入到正则化的稀疏表示中,用显著特征向量对追踪的目标外观进行建模,并对遮挡问题进行处理,处理公式如公式6所示
其中S代表显著映射中的显著特征向量的一个矩阵,I表示单位矩阵;
对公式6遵循追踪器的方法进行最优化求解,处理公式如公式7所示
可选的,所述对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用步骤一和步骤二的内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果,包括:
对两个连续帧之间的目标运动仿射变换建模,并利用对角线协方差矩阵进行随机游走,形成状态转换;
在没有遮挡的情况下,从目标物体的子空间生成图像观测yk,用每个观测到的图像补片的重构误差来计算观测的可能性,计算公式如公式8所示
如果出现重遮挡和跟踪漂移,用步骤一和步骤二的方法计算当前帧的可视显著性映射,并在显著性图中检测显著性yi表示由xi建立的图像补丁,区域R={R1,R2,…,Rn},再与每个Ri的目标模板进行比较,匹配最可能的Rm和来自周围区域的样品,xi表示运动状态变量x的第I个样本,ai表示第i个目标系数向量,p(yi|xi)表示通过状态xi中估计观察的yi的可能性,S代表显著映射中的显著特征向量的一个矩阵;
初始化目标模板,将每个对象模板都与执行更新的重要权重相关联。
上述文中,追踪器:追踪器是一个候选区域,它由目标和平凡模板的稀疏组合来表示,稀疏性是通过求解最小化问题来实现的。
本发明提供了基于显著语境稀疏表示的目标追踪方法,包括提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理;对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解;,对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用前述内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果。通过将目标对象被提取为一个显著特征映射,用稀疏表示和显著的语境校正部分遮挡和突然运动的目标,本方法计算简单,提升了目标追踪的有效性和准确性,抗干扰能力也大大提高。
上述实施例中的各个序号仅仅为了描述,不代表各部件的组装或使用过程中的先后顺序。
以上所述仅为本发明的实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.基于显著语境稀疏表示的目标追踪方法,其特征在于,所述目标追踪方法,包括:
步骤一,提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理;
步骤二,对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解;
步骤三,对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用步骤一和步骤二的内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果。
2.根据权利要求1所述的基于显著语境稀疏表示的目标追踪方法,其特征在于,所述提取样本图像的特征映射,分别对中心区域和边缘区域的特征映射,将得到的特征映射进行融合处理,包括:
将图像分解为一组特征映射,从特征映射中提取颜色映射CRG,CBY、亮度映射I和局部方向映射O,O的计算公式如公式1所示
O(θ)=||IG0(θ)||+||IGπ/2(θ)|| 公式1
其中G(.)代表Gabor过滤器,θ是局部方向;
获取中心区域与周围区域的对比:利用不同空间尺度的图像的差分来模拟对比度,处理公式如公式2所示
Fl(c,s)=|Fl(c)ΘFl(s)| 公式2
其中Fl(c)代表中部区域特性,Fl(s)代表周边区域特性,Θ的意思是用相同的大小插入这两个图像,并计算每个像素的差分;
使用归一化函数N(.)和跨尺度加法运算,将各特征的获得的映射分别进行融合,以实现规模的统一,处理公式如公式3所示
Mk=αN(Ik)+βN(Ck)+γN(Ok) 公式3
其中Ik,Ck,Ok表示第k个坐标系中的颜色、亮度和方向特征显著性映射,α,β,γ,为权重因子,用于减轻图像质量、图像噪声或其他元素的干扰。
3.根据权利要求1所述的基于显著语境稀疏表示的目标追踪方法,其特征在于,所述对融合后的图像进行稀疏处理,基于处理后的图像进行遮挡求解,包括:
将跟踪问题转换为稀疏表示的最可能的补丁,并通过公式4的小模板处理部分遮挡:
其中y表示当前帧中的图像补丁,并将其规范化,使其与模板具有相同的大小,T表示包含目标模板的矩阵,B=[T,I]由T和I组成的矩阵组合,定示由a和e组成的向量的组合,a是目标系数向量,e是表示被破坏或遮挡的y中的像素点的误差向量;
对公式4通过一个正则化最小二乘问题来求解,处理公式如公式5所示
其中||.||1和||.||2表示的范数;
对目标外观建模并处理遮挡:将显著的约束引入到正则化的稀疏表示中,用显著特征向量对追踪的目标外观进行建模,并对遮挡问题进行处理,处理公式如公式6所示
其中S代表显著映射中的显著特征向量的一个矩阵,I表示单位矩阵;
对公式6遵循追踪器的方法进行最优化求解,处理公式如公式7所示,式中λ是正则化系数,
4.根据权利要求1所述的基于显著语境稀疏表示的目标追踪方法,其特征在于,所述对待测视频中的两个连续帧进行建模,基于已建立的模型进行遮挡判断,当判断出现遮挡时,使用步骤一和步骤二的内容计算当前帧的可视显著性映射,在得到的显著性图中与每个目标模板进行比较,选取权重最高的目标模板作为追踪结果,包括:
对两个连续帧之间的目标运动仿射变换建模,并利用对角线协方差矩阵进行随机游走,形成状态转换;
在没有遮挡的情况下,从目标物体的子空间生成图像观测yk,用每个观测到的图像补片的重构误差来计算观测的可能性,计算公式如公式8所示
如果出现重遮挡和跟踪漂移,用步骤一和步骤二的方法计算当前帧的可视显著性映射,并在显著性图中检测显著性yi表示由xi建立的图像补丁,区域R={R1,R2,...,Rn},再与每个Ri的目标模板进行比较,匹配最可能的Rm和来自周围区域的样品,xi表示运动状态变量x的第I个样本,ai表示第i个目标系数向量,p(yi|xi)表示通过状态xi中估计观察的yi的可能性,S代表显著映射中的显著特征向量的一个矩阵;
初始化目标模板,将每个对象模板都与执行更新的重要权重相关联。
CN201810635733.0A 2018-06-20 2018-06-20 基于显著语境稀疏表示的目标追踪方法 Active CN109087334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810635733.0A CN109087334B (zh) 2018-06-20 2018-06-20 基于显著语境稀疏表示的目标追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810635733.0A CN109087334B (zh) 2018-06-20 2018-06-20 基于显著语境稀疏表示的目标追踪方法

Publications (2)

Publication Number Publication Date
CN109087334A true CN109087334A (zh) 2018-12-25
CN109087334B CN109087334B (zh) 2020-06-30

Family

ID=64840076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810635733.0A Active CN109087334B (zh) 2018-06-20 2018-06-20 基于显著语境稀疏表示的目标追踪方法

Country Status (1)

Country Link
CN (1) CN109087334B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816694A (zh) * 2019-01-28 2019-05-28 北京旷视科技有限公司 目标跟踪方法、装置及电子设备
CN110555405A (zh) * 2019-08-30 2019-12-10 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
CN104637052A (zh) * 2015-01-22 2015-05-20 西南交通大学 基于目标引导显著性检测的对象跟踪方法
US9213899B2 (en) * 2014-03-24 2015-12-15 International Business Machines Corporation Context-aware tracking of a video object using a sparse representation framework
US20180137649A1 (en) * 2016-11-14 2018-05-17 Nec Laboratories America, Inc. Accurate object proposals by tracking detections

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213899B2 (en) * 2014-03-24 2015-12-15 International Business Machines Corporation Context-aware tracking of a video object using a sparse representation framework
CN104637052A (zh) * 2015-01-22 2015-05-20 西南交通大学 基于目标引导显著性检测的对象跟踪方法
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
US20180137649A1 (en) * 2016-11-14 2018-05-17 Nec Laboratories America, Inc. Accurate object proposals by tracking detections

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZELUN WANG 等: "Visual tracking based on online sparse feature learning", 《IMAGE AND VISION COMPUTING》 *
胡正平 等: "基于视觉显著图的结构反稀疏在线目标跟踪", 《信号处理》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816694A (zh) * 2019-01-28 2019-05-28 北京旷视科技有限公司 目标跟踪方法、装置及电子设备
CN110555405A (zh) * 2019-08-30 2019-12-10 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备
CN110555405B (zh) * 2019-08-30 2022-05-06 北京迈格威科技有限公司 目标跟踪方法及装置、存储介质和电子设备

Also Published As

Publication number Publication date
CN109087334B (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN105069746B (zh) 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
Chen et al. A hierarchical model incorporating segmented regions and pixel descriptors for video background subtraction
Li et al. Adaptive pyramid mean shift for global real-time visual tracking
CN105550678A (zh) 基于全局显著边缘区域的人体动作特征提取方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN112784736B (zh) 一种多模态特征融合的人物交互行为识别方法
CN103871039B (zh) 一种sar图像变化检测差异图生成方法
CN105976330A (zh) 一种嵌入式雾天实时视频稳像方法
CN107767400A (zh) 基于层次化显著性分析的遥感图像序列动目标检测方法
CN109460764A (zh) 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法
CN110598613B (zh) 一种高速公路团雾监测方法
CN103617413B (zh) 一种在图像中识别物体的方法
Qi et al. FTC-Net: Fusion of transformer and CNN features for infrared small target detection
CN108681711A (zh) 一种面向移动机器人的自然路标提取方法
Lian et al. A novel method on moving-objects detection based on background subtraction and three frames differencing
Bu et al. Mask-CDNet: A mask based pixel change detection network
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
Liu et al. Image edge recognition of virtual reality scene based on multi-operator dynamic weight detection
Chen et al. A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery
CN117274515A (zh) 基于ORB和NeRF映射的视觉SLAM方法及系统
Lin et al. Infrared dim and small target detection based on U-Transformer
CN109087334A (zh) 基于显著语境稀疏表示的目标追踪方法
CN105844667A (zh) 一种紧凑颜色编码的结构化目标跟踪方法
CN104616034B (zh) 一种烟雾检测方法
CN113034371A (zh) 一种基于特征嵌入的红外与可见光图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant