CN110363197B - 基于改进视觉背景提取模型的视频感兴趣区域提取方法 - Google Patents

基于改进视觉背景提取模型的视频感兴趣区域提取方法 Download PDF

Info

Publication number
CN110363197B
CN110363197B CN201910546553.XA CN201910546553A CN110363197B CN 110363197 B CN110363197 B CN 110363197B CN 201910546553 A CN201910546553 A CN 201910546553A CN 110363197 B CN110363197 B CN 110363197B
Authority
CN
China
Prior art keywords
algorithm
region
model
adaptive
distance threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910546553.XA
Other languages
English (en)
Other versions
CN110363197A (zh
Inventor
郭树强
宋人杰
张元东
姜万昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin Power Supply Co Of State Grid Jilinsheng Electric Power Supply Co
Northeast Electric Power University
Original Assignee
Jilin Power Supply Co Of State Grid Jilinsheng Electric Power Supply Co
Northeast Dianli University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin Power Supply Co Of State Grid Jilinsheng Electric Power Supply Co, Northeast Dianli University filed Critical Jilin Power Supply Co Of State Grid Jilinsheng Electric Power Supply Co
Priority to CN201910546553.XA priority Critical patent/CN110363197B/zh
Publication of CN110363197A publication Critical patent/CN110363197A/zh
Application granted granted Critical
Publication of CN110363197B publication Critical patent/CN110363197B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明是一种基于改进视觉背景提取模型的视频感兴趣区域提取方法,其特点是,包括:提出一种基于时空域的自适应数量阈值确定算法;基于时空域相关性根据视频帧列不同场景对人眼贡献率大小,提出一种基于时空域的自适应距离阈值确定算法;根据自适应数量阈值和自适应距离阈值确定前景分割阶段公式,采用切比雪夫距离衡量当前像素点与背景模型中像素点的差异,根据提出的区域场景复杂度计算公式计算所述场景复杂度获得模型的动态更新方式。能够消除目标空洞并加快消除鬼影,提高模型在动态场景下的适应性和鲁棒性。

Description

基于改进视觉背景提取模型的视频感兴趣区域提取方法
技术领域
本发明涉及视频感兴趣区域提取技术领域,一种基于改进视觉背景提取模型的视频感兴趣区域提取方法。
背景技术
随着计算机视觉领域的不断发展,感兴趣区域提取广泛应用于行人检测、目标跟踪等领域。根据人类视觉系统特性表明,人眼对于视频帧中的纹理丰富的区域即感兴趣区域(ROI)关注度更高,如视频中的运动目标,而纹理平坦的区域即非感兴趣区域(RONI)对人眼的贡献率较低。目前,对于图像中的ROI提取方法主要采用视觉注意模型,如Itti模型。Itti模型作为经典的提取模型具有处理视觉信息快、显著度认知能力高等诸多优点。
但Itti模型对ROI的提取主要应用于静态图片,且模型提取过程的计算量较大,不能满足实时性应用需求。目前,针对连续视频帧ROI的提取方法主要采用背景建模算法,背景建模算法具有实时性高、检测目标精确等优点,经典的背景建模算法主要是视觉背景提取模型(VIBE)算法,其显著优势是背景模型简单、计算量小,且具有较好的鲁棒性,在运动目标检测领域应用较为广泛。
VIBE算法提取视频中的运动目标区域较为精确,但模型并不加以区分纹理复杂度高的区域和背景区域,即不能准确提取视频中的ROI,且VIBE算法采用固定的阈值难以适应动态场景变化,采用全局随机更新更新周期方式容易出现目标空洞和虚假目标、消除鬼影时间较长等问题,最终影响检测的精度和效率。
发明内容
本发明的目的是克服了现有VIBE算法存在的不足,提供了一种基于改进视觉背景提取模型的视频感兴趣区域提取方法。在前景分割阶段,基于时空相关性,引入均值绝对偏差(MAD)来表征纹理复杂度,并结合提出的判断准则1和算法1获得动态的自适应数量阈值,适应动态视频场景的变化。基于时空域相关性依据不同场景对人眼贡献率的大小,引入方差并结合提出的算法2获得自适应距离阈值,由自适应数量阈值和自适应距离阈值确定的前景分割模型分割视频帧的ROI和背景区域,消除模型更新阶段误检信息传播的概率。在背景模型更新阶段,引入区域场景复杂度结合判断准则2动态调节模型更新方式,有效消除目标空洞并加快消除鬼影,增强模型对动态场景的适应性和鲁棒性。
本发明的目的是由以下技术方案来实现的:一种基于改进视觉背景提取模型的视频感兴趣区域提取方法,其特征是,它包括以下步骤:
(1)提出一种基于时空域的自适应数量阈值确定算法,所述自适应数量阈值由MAD结合判断准则1和提出的算法1确定。计算当前像素点及其邻域的MAD2和背景模型帧对应位置处的MAD1,基于MAD1和MAD2根据判断准则1对当前帧进行第一步分割,基于MAD1和MAD2采用算法1确定自适应数量阈值。
其中MAD的计算公式为:
Figure BDA0002103809550000021
判断准则1为:
Figure BDA0002103809550000022
MAD2为当前像素点与邻域像素点的均值绝对偏差。MAD1为当前像素点与邻域在对应背景模型中对应位置处像素点的均值绝对偏差。
算法1为:
Figure BDA0002103809550000023
Figure BDA0002103809550000024
(2)基于时空域相关性根据视频帧列不同场景对人眼贡献率大小,提出一种基于时空域的自适应距离阈值确定算法,所述自适应距离阈值由方差结合算法2确定,计算当前像素点邻域像素及对应背景模型帧中的方差,定义局部距离阈值D2,基于方差采用算法2计算自适应距离阈值。
计算定义的局部距离阈值D2
Figure BDA0002103809550000031
算法2为:
Figure BDA0002103809550000032
(3)根据自适应数量阈值和自适应距离阈值确定前景分割阶段公式,采用切比雪夫距离衡量当前像素点与背景模型中像素点的差异。
其中自适应阈值前景分割公式为:
Figure BDA0002103809550000033
(4)基于时空域统计信息提出一种基于区域场景复杂度的模型动态更新算法,根据提出的区域场景复杂度计算公式计算所述场景复杂度,基于所述区域场景复杂度采用设计的判断准则2获得模型的动态更新方式。
其中提出的区域场景复杂度计算公式为:
Figure BDA0002103809550000034
判断准则2为:
Figure BDA0002103809550000035
发明的基于改进视觉背景提取模型的视频感兴趣区域提取方法与原VIBE算法相比的有益效果是:构建了视频感兴趣区域提取的前景分割阶段模型,提出了基于时空域的自适应数量阈值确定算法,基于MAD采用判断准则1和提出的算法1确定自适应数量阈值;提出了基于时空域的自适应距离阈值确定算法,基于方差采用提出的算法2确定自适应距离阈值,由自适应数量阈值和自适应距离阈值确定前景分割模型,该模型可提取当前帧ROI并消除模型更新阶段交界处误检信息传播概率;构建基于判断准则2的模型动态更新方式,消除目标空洞并加快消除鬼影,提高模型在动态场景下的适应性和鲁棒性。
附图说明
下面结合附图及具体实施实例对本发明再作进一步详细说明。
图1为一种基于改进视觉背景提取模型的视频感兴趣区域提取方法的流程框图。
图2为VIBE前景分割阶段示意图。
具体实施方式
下面结合附图对本发明的一种基于改进视觉背景提取模型的视频感兴趣区域提取方法作详细描述。
参照图1,一种基于改进视觉背景提取模型的视频感兴趣区域提取方法,包括如下步骤:
(1)所述基于时空域的自适应数量阈值确定算法步骤是:
针对原VIBE模型采用全局数量阈值在前景分割阶段难以适应动态场景的变化,提出基于时空域的自适应数量阈值确定算法,引入MAD表征视频帧列的纹理复杂度,基于MAD采用提出的判断准则1对当前帧进行第一步分割,基于MAD采用提出的算法1确定自适应数量阈值ηN提高模型适应动态视频场景的能力。
计算当前像素点及其邻域像素的MAD,定义为MAD2,计算当前像素点对应背景模型帧位置处的MAD,定义为MAD1,算法将视频帧分成8×8大小的块进行处理,MAD计算公式为:
Figure BDA0002103809550000041
M,N分别为当前处理视频帧块的宽和高,p(i,j)为当前像素点的像素值,aυg为当前帧块的平均像素值。
基于MAD1和MAD2,根据提出的判断准则1对视频的第二帧进行分割,对视频第一帧采用原VIBE算法进行初始化。
判断准则1为:
Figure BDA0002103809550000051
/>
所述判断准则1可表述为:当结果为true时,则为运动区域;否则,为背景区域和纹理复杂度高的区域;在第二帧及以后帧按判断准则1进行分割时,当结果为true时,则该区域为背景区域和纹理复杂度高的区域,否则,为背景区域。
基于MAD1和MAD2的算法1依据为:VIBE算法全局数量阈值为2,若当前像素与背景模型中的像素满足全局阈值的个数大于等于2时,则判断为背景区域或纹理复杂度高的区域,可以理解为当满足条件个数为1或0时,则为运动区域,因为出现0或1的概率随机,则这里二者出现的概率相等。
算法1为:
Figure BDA0002103809550000052
Figure BDA0002103809550000053
β是一个随机数,这里β∈(3,20),算法1的实现过程可表述为:在对第二帧进行前景分割时,根据判断准则1当结果为false时,由算法1的第一个式子确定自适应数量阈值ηN,在对第三帧及以后帧进行前景分割时,当结果为true时,由算法1的第二个式子确定自适应数量阈值ηN
(2)所述基于时空域的自适应数量阈值确定算法步骤是:
针对原VIBE算法采用全局距离阈值难以适应动态场景变化,提出一种基于时空域的自适应距离阈值确定算法,引入方差作为调整距离阈值的平衡因子,定义局部距离阈值,基于全局距离阈值和局部距离阈值确定自适应距离阈值。
计算当前像素点及其邻域像素点的方差,定义为σ2,计算当前像素点及其对应背景模型中像素点的方差,定义为σ1
VIBE算法采用全局固定阈值进行前景分割,全局距离阈值D1=20,这里定义局部距离阈值D2
Figure BDA0002103809550000061
N为当前像素点8邻域中像素点的个数,υ(x,y)为当前像素点,υi为8邻域中的任意一个像素点,|*|为当前像素点与其邻域的曼哈顿距离,即局部距离阈值由当前点与其8邻域中所有像素点距离的均值获得。
基于全局距离阈值D1和局部距离阈值D2,采用提出的算法2确定自适应距离阈值TN
算法2为:
Figure BDA0002103809550000062
(3)所述基于自适应数量阈值ηN和自适应距离阈值TN的视频感兴趣区域提取公式为:
Figure BDA0002103809550000063
CD(x,y)表示当前像素点与其背景像素点的切比雪夫距离。
参照图2,结合上述步骤即可完成前景分割阶段视频感兴趣区域的提取,并消除背景模型更新阶段交界处误检信息传播的概率,提高检测精度。
(4)所述基于区域场景复杂度的模型动态更新算法步骤是:
基于时空域统计信息提出一种基于区域场景复杂度的模型动态更新算法,合理设计区域场景复杂度计算公式,基于区域场景复杂度采用提出的判断准则2得到模型的动态更新方式。
将当前视频帧按8×8大小块进行分割,分块统计每个区域中背景像素所占的比例来衡量区域场景复杂度。
Figure BDA0002103809550000064
*{BG}为区域内背景像素点的个数,*{FG}为区域内感兴趣区域像素点的个数。
随着场景的变化,在Pj发生变化的区域其更新周期Uj也发生变化,各区域的动态更新周期Uj为:
判断准则2为:
Figure BDA0002103809550000071
U为全局更新周期,ρ为区域场景复杂度阈值,由对应的背景模型区域中协方差得到,在统计学知识里,协方差代表变量之间的相关性,这里用来衡量像素点灰度值之间的相关性或像素点间明暗程度的大小,具体计算方法是在对应背景模型区域中随机抽取十组像素点,每组两个像素点来计算协方差。
上述更新方式可表述为:当Pj大于等于阈值ρ时,动态更新周期与全局更新周期成比例关系,否则,此时背景模型需要立即更新。
综上所述,本发明的基于改进视觉背景提取模型的视频感兴趣区域提取方法,基于时空域相关性采用提出的判断准则1和算法1确定自适应数量阈值,增强模型适应动态场景的能力;基于时空域相关性采用提出的算法2确定自适应距离阈值,由自适应数量阈值和自适应距离阈值确定前景分割阶段的分割公式,完成视频感兴趣区域的提取,降低模型更新阶段交界处误检信息传播的概率;基于区域场景复杂度采用提出的判断准则2确定模型的动态更新方式,消除目标空洞并加快消除鬼影,增强模型对动态视频场景的适应性和鲁棒性。
以上所述,仅仅为本发明的具体实施方式,但本发明的适用范围不仅仅局限于此,任何熟悉该领域技术的人员根据本发明的技术方案得出的其他实施方式也同样属于本发明所保护的范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (1)

1.一种基于改进视觉背景提取模型的视频感兴趣区域提取方法,其特征是,它包括如下步骤:
(1)基于时空域的自适应数量阈值确定算法:
针对原VIBE模型采用全局数量阈值在前景分割阶段难以适应动态场景的变化,提出基于时空域的自适应数量阈值确定算法,引入MAD表征视频帧列的纹理复杂度,基于MAD采用提出的判断准则1对当前帧进行第一步分割,基于MAD采用提出的算法1确定自适应数量阈值ηN提高模型适应动态视频场景的能力;
计算当前像素点及其邻域像素的MAD,定义为MAD2,计算当前像素点对应背景模型帧位置处的MAD,定义为MAD1,算法将视频帧分成8×8大小的块进行处理,MAD计算公式为:
Figure FDA0004108636700000011
M,N分别为当前处理视频帧块的宽和高,p(i,j)为当前像素点的像素值,avg为当前帧块的平均像素值;
基于MAD1和MAD2,根据提出的判断准则1对视频的第二帧进行分割,对视频第一帧采用原VIBE算法进行初始化;
判断准则1为:
Figure FDA0004108636700000012
所述判断准则1表述为:当结果为true时,则为运动区域;否则,为背景区域和纹理复杂度高的区域;在第二帧及以后帧按判断准则1进行分割时,当结果为true时,则该区域为背景区域和纹理复杂度高的区域,否则,为背景区域;
基于MAD1和MAD2的算法1依据为:VIBE算法全局数量阈值为2,若当前像素与背景模型中的像素满足全局阈值的个数大于等于2时,则判断为背景区域或纹理复杂度高的区域,能够理解为当满足条件个数为1或0时,则为运动区域,因为出现0或1的概率随机,则二者出现的概率相等;
算法1为:
Figure FDA0004108636700000021
Figure FDA0004108636700000022
β是一个随机数,这里β∈(3,20),算法1的实现过程表述为:在对第二帧进行前景分割时,根据判断准则1当结果为false时,由算法1的第一个式子确定自适应数量阈值ηN,在对第三帧及以后帧进行前景分割时,当结果为true时,由算法1的第二个式子确定自适应数量阈值ηN
(2)基于时空域的自适应距离阈值确定算法:
针对原VIBE算法采用全局距离阈值难以适应动态场景变化,提出一种基于时空域的自适应距离阈值确定算法,引入方差作为调整距离阈值的平衡因子,定义局部距离阈值,基于全局距离阈值和局部距离阈值确定自适应距离阈值;
计算当前像素点及其邻域像素点的方差,定义为σ2,计算当前像素点及其对应背景模型中像素点的方差,定义为σ1
VIBE算法采用全局固定阈值进行前景分割,全局距离阈值D1=20,定义局部距离阈值D2
Figure FDA0004108636700000023
N为当前像素点8邻域中像素点的个数,v(x,y)为当前像素点,vi为8邻域中的任意一个像素点,|*|为当前像素点与其邻域的曼哈顿距离,即局部距离阈值由当前点与其8邻域中所有像素点距离的均值获得;
基于全局距离阈值D1和局部距离阈值D2,采用提出的算法2确定自适应距离阈值TN
算法2为:
Figure FDA0004108636700000024
(3)基于自适应数量阈值ηN和自适应距离阈值TN的视频感兴趣区域提取公式为:
Figure FDA0004108636700000031
CD(x,y)表示当前像素点与其背景像素点的切比雪夫距离;
(4)基于区域场景复杂度的模型动态更新算法:
基于时空域统计信息提出一种基于区域场景复杂度的模型动态更新算法,合理设计区域场景复杂度计算公式,基于区域场景复杂度采用提出的判断准则2得到模型的动态更新方式;
将当前视频帧按8×8大小块进行分割,分块统计每个区域中背景像素所占的比例来衡量区域场景复杂度;
Figure FDA0004108636700000032
*{BG}为区域内背景像素点的个数,*{FG}为区域内感兴趣区域像素点的个数;
随着场景的变化,在Pj发生变化的区域其更新周期Uj也发生变化,各区域的动态更新周期Uj为:
判断准则2为:
Figure FDA0004108636700000033
U为全局更新周期,ρ为区域场景复杂度阈值,由对应的背景模型区域中协方差得到,用来衡量像素点灰度值之间的相关性或像素点间明暗程度的大小,具体计算方法是在对应背景模型区域中随机抽取十组像素点,每组两个像素点来计算协方差;当Pj大于等于阈值ρ时,动态更新周期与全局更新周期成比例关系,否则,此时背景模型需要立即更新。
CN201910546553.XA 2019-06-22 2019-06-22 基于改进视觉背景提取模型的视频感兴趣区域提取方法 Active CN110363197B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910546553.XA CN110363197B (zh) 2019-06-22 2019-06-22 基于改进视觉背景提取模型的视频感兴趣区域提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910546553.XA CN110363197B (zh) 2019-06-22 2019-06-22 基于改进视觉背景提取模型的视频感兴趣区域提取方法

Publications (2)

Publication Number Publication Date
CN110363197A CN110363197A (zh) 2019-10-22
CN110363197B true CN110363197B (zh) 2023-05-23

Family

ID=68215879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910546553.XA Active CN110363197B (zh) 2019-06-22 2019-06-22 基于改进视觉背景提取模型的视频感兴趣区域提取方法

Country Status (1)

Country Link
CN (1) CN110363197B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815673A (zh) * 2020-06-23 2020-10-23 四川虹美智能科技有限公司 运动目标检测方法、装置及可读介质
CN113095160B (zh) * 2021-03-23 2022-09-30 中国大唐集团科学技术研究院有限公司华东电力试验研究院 基于人工智能和5g的电力系统人员安全行为识别方法及系统
CN117351197A (zh) * 2023-12-04 2024-01-05 北京联影智能影像技术研究院 图像分割方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1988653A (zh) * 2005-12-21 2007-06-27 中国科学院自动化研究所 基于视觉特性的夜间目标检测和跟踪方法
CN108805897A (zh) * 2018-05-22 2018-11-13 安徽大学 一种改进的运动目标检测vibe算法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298144B1 (en) * 1998-05-20 2001-10-02 The United States Of America As Represented By The National Security Agency Device for and method of detecting motion in an image
KR101076272B1 (ko) * 2010-01-08 2011-10-26 한국과학기술원 분산 비디오 코딩을 위한 픽셀 도메인 기반의 관심영역 추출방법 및 컴퓨터 판독가능 매체
CN106096499A (zh) * 2016-05-26 2016-11-09 天津艾思科尔科技有限公司 一种视频图像中星月图案检测的方法及系统
CN106056062B (zh) * 2016-05-27 2017-11-03 东南大学 一种基于自适应局部特征背景模型的车辆检测方法
CN106651782A (zh) * 2016-09-26 2017-05-10 江苏科海智能系统有限公司 一种面向ViBe的前景鬼影消除方法
CN107481267A (zh) * 2017-08-14 2017-12-15 华南理工大学 一种基于双目视觉的摄像投影交互系统及方法
CN108510517B (zh) * 2018-04-04 2021-06-08 重庆邮电大学 一种自适应的视觉背景提取方法及装置
CN109903266B (zh) * 2019-01-21 2022-10-28 深圳市华成工业控制股份有限公司 一种基于样本窗的双核密度估计实时背景建模方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1988653A (zh) * 2005-12-21 2007-06-27 中国科学院自动化研究所 基于视觉特性的夜间目标检测和跟踪方法
CN108805897A (zh) * 2018-05-22 2018-11-13 安徽大学 一种改进的运动目标检测vibe算法

Also Published As

Publication number Publication date
CN110363197A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
WO2021012757A1 (zh) 基于全景多路4k视频图像的实时目标检测跟踪方法
CN110363197B (zh) 基于改进视觉背景提取模型的视频感兴趣区域提取方法
CN107968946B (zh) 视频帧率提升方法及装置
KR102153607B1 (ko) 영상에서의 전경 검출 장치 및 방법
US20100098331A1 (en) System and method for segmenting foreground and background in a video
CN104616290A (zh) 一种统计矩阵模型和自适应阈值相结合的目标检测算法
CN112184759A (zh) 一种基于视频的运动目标检测与跟踪方法及系统
CN108876820B (zh) 一种基于均值漂移的遮挡条件下移动目标追踪方法
CN106991686B (zh) 一种基于超像素光流场的水平集轮廓跟踪方法
CN111260684A (zh) 基于帧差法和背景差分法结合的前景像素提取方法及系统
CN106327488B (zh) 一种自适应的前景检测方法及其检测装置
CN109345472A (zh) 一种复杂场景的红外运动小目标检测方法
CN101957997A (zh) 一种动态场景中基于区域均值核密度估计的运动目标检测方法
CN109919053A (zh) 一种基于监控视频的深度学习车辆停车检测方法
CN112561946B (zh) 一种动态目标检测方法
CN106952294A (zh) 一种基于rgb‑d数据的视频跟踪方法
JP7096175B2 (ja) オブジェクト抽出方法および装置
CN104715480A (zh) 一种基于统计背景模型的目标检测方法
CN111460964A (zh) 一种广电传输机房低照度条件下运动目标检测方法
Liu et al. Moving target detection based on improved ghost suppression and adaptive visual background extraction
Zhang et al. Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model
CN110322479B (zh) 一种基于时空显著性的双核kcf目标跟踪方法
CN104537637A (zh) 一种单幅静态图像深度估计方法及装置
Li et al. Image object detection algorithm based on improved Gaussian mixture model
Wu et al. Adaptive Detection of Moving Vehicle Based on On-line Clustering.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Guo Shuqiang

Inventor after: Song Renjie

Inventor after: Zhang Yuandong

Inventor after: Jiang Wanchang

Inventor before: Song Renjie

Inventor before: Guo Shuqiang

Inventor before: Zhang Yuandong

Inventor before: Jiang Wanchang

CB03 Change of inventor or designer information
TA01 Transfer of patent application right

Effective date of registration: 20230504

Address after: 132012, Changchun Road, Jilin, Jilin, 169

Applicant after: NORTHEAST DIANLI University

Applicant after: JILIN POWER SUPPLY COMPANY OF STATE GRID JILINSHENG ELECTRIC POWER SUPPLY Co.

Address before: 132012, Changchun Road, Jilin, Jilin, 169

Applicant before: NORTHEAST DIANLI University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant