CN110796073A - 一种无纹理场景视频中对特定目标区域的侦测方法和装置 - Google Patents

一种无纹理场景视频中对特定目标区域的侦测方法和装置 Download PDF

Info

Publication number
CN110796073A
CN110796073A CN201911032771.8A CN201911032771A CN110796073A CN 110796073 A CN110796073 A CN 110796073A CN 201911032771 A CN201911032771 A CN 201911032771A CN 110796073 A CN110796073 A CN 110796073A
Authority
CN
China
Prior art keywords
video
type
value
texture
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911032771.8A
Other languages
English (en)
Other versions
CN110796073B (zh
Inventor
张睿
应振根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quzhou University
Original Assignee
Quzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quzhou University filed Critical Quzhou University
Priority to CN201911032771.8A priority Critical patent/CN110796073B/zh
Publication of CN110796073A publication Critical patent/CN110796073A/zh
Application granted granted Critical
Publication of CN110796073B publication Critical patent/CN110796073B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种无纹理场景视频中对特定目标区域的侦测方法和装置,该方法和装置综合利用无纹理视频中的颜色、轮廓和动态性等不同时空信息构建视频场景区域类型描述器,以此对特定目标区域进行侦测和确定,该视频场景区域类型描述器各个信息通道上的特征提取和计算方法简单高效、实时性好,视频样本学习效率高,并可实现实时在线训练;此外,该方法和装置在计算视频场景区域类型描述器各通道的类型值时,还引入了并行计算的方法,显著地提高了方法的整体运算效率,从而克服了现有方法实施在无纹理视频中对特定目标区域检测时运算效率低、实时性差,甚至会失效性的问题。

Description

一种无纹理场景视频中对特定目标区域的侦测方法和装置
技术领域
本发明涉及视频的技术领域,特别涉及一种无纹理场景视频中对特定目标区域的侦测方法和装置。
背景技术
随着视觉移动机器人、无人驾驶、无人机等技术的蓬勃发展,基于视觉的场景分析技术的重要性日益凸显。特定目标区域的检测和辨识是基于视觉的场景分析中的一项关键技术,因为对特定目标区域(如常见障碍物)检测和辨识结果的好坏,将直接影响移动机器人、无人驾驶、无人机等设备的运行模式与运行安全性。
由于无人驾驶、无人机等设备通常运行在较高的速度下,因此对运行中产生的实时视频数据的分析与处理效率要求较高。现有的面向自然场景视频的特定目标区域检测方法存在以下一些缺陷:第一、现有方法不适用于无纹理视频的分析,现有的部分方法需要依赖视频场景中的纹理信息进行分析,但是现实世界的场景类型变化多样,许多场景几乎不存在任何纹理特征被提取利用;第二、现有方法对视频特征的提取和处理完全是基于如深度学习等高运算复杂度的机器学习方法,计算耗时较长,其实时性不够好;第三、大多数基于机器学习的方法依赖于有较大样本数量的有监督学习训练过程,训练过程非常耗时,无法进行实时的在线训练;第四、现有的某些方法没有充分利用视频中的场景动态信息。
发明内容
针对现有技术存在的缺陷,本发明提供一种无纹理场景视频中对特定目标区域的侦测方法和装置,该方法和装置综合利用无纹理视频中的颜色、轮廓和动态性等不同时空信息构建视频场景区域类型描述器,以此对特定目标区域进行侦测和确定,该视频场景区域类型描述器各个信息通道上的特征提取和计算方法简单高效、实时性好,视频样本学习效率高,并可实现实时在线训练;此外,该方法和装置在计算视频场景区域类型描述器各通道的类型值时,还引入了并行计算的方法,显著地提高了方法的整体运算效率,从而克服了现有方法实施在无纹理视频中对特定目标区域检测时运算效率低、实时性差,甚至会失效性的问题。
本发明提供一种无纹理场景视频中对特定目标区域的侦测方法,其特征在于,包括如下步骤:
步骤S1,构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器;
步骤S2,将包含特定目标区域的视频样本输入至所述视频场景区域类型描述器,以输出获得关于所述特定目标区域的类型向量;
步骤S3,将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量;
步骤S4,获取所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度,若所述匹配度大于或者等于预设匹配度阈值,则确定所述每一图像帧当前的场景区域为所述特定目标区域;
进一步,在所述步骤S1中,构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器具体包括,
步骤S101,构建关于所述无纹理视频中的颜色信息通道,具体为,
S101A,将所述无纹理视频的某一图像帧进行从RGB颜色空间到HSI颜色空间的转换处理,其中,色调H的取值范围为[0°,360°],饱和度S和强度I的取值范围均为[0,1];
S101B,将所述色调H对应的域值划分为如下6个子集:H1=[30°,90°)、H2=[90°,150°)、H3=[150°,210°)、H4=[210°,270°)、H5=[270°,330°)和H6=[330°,360°]∪[0°,30°),以将所述某一图像帧对应的像素点进行关于所述6个子集的分类处理;
S101C,根据所述分类处理的结果,将所述某一图像帧的每一个像素点进行归一化与量化处理,以获得每一个像素点对应的颜色类型值H(i,j)|t,其中,所述颜色类型值H(i,j)|t的计算结果如下式(1)
Figure BDA0002250612980000031
在所述式(1)中,H(i,j)|t表示所述某一图像帧在坐标(i,j)处的像素点的颜色类型值;
步骤S102,构建关于所述无纹理视频中的轮廓信息通道,具体为,
S102A,通过Hough变换算法计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第一轮廓特征值shough(i,j)|t,其中,所述第一轮廓特征值shough(i,j)|t满足下面式(2)
S102B,通过Canny算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第二轮廓特征值scanny(i,j)︱t,其中,所述第二轮廓特征值scanny(i,j)︱t满足下面式(3)
Figure BDA0002250612980000042
S102C,通过Isotropic Sobel算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第三轮廓特征值ssobel(i,j)|t,其中,所述第三轮廓特征值ssobel(i,j)|t满足下面式(4)
Figure BDA0002250612980000043
S102D,根据下面式(5),对所述第一轮廓特征值shough(i,j)|t、所述第二轮廓特征值scanny(i,j)︱t和所述第三轮廓特征值ssobel(i,j)|t进行求交集运算处理,以得到所述轮廓类型值S(i,j)|t
Figure BDA0002250612980000044
步骤S103,构建关于所述无纹理视频中的动态性信息通道,具体为,
S103A,基于HSI颜色空间的亮度I通道,构建关于所述无纹理视频的某一图像帧在亮度I通道中每一个像素点的混合高斯背景模型GMM;
S103B,在所述亮度I通道上,统计每一个像素点对应的显著性强度值变化的次数,其中,所述显著性强度值变化是指像素点的强度值变化幅度超出其对应的混合高斯背景模型GMM所限定的强度值正常变化范围;
S103C,在所述亮度I通道上,根据下面式(6),获取每一个像素点的近期动态特征值
Figure BDA0002250612980000051
在上述式(6)中,
Figure BDA0002250612980000052
为所述无纹理视频在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的次数,D(i,j)为在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的频率,即D(i,j)为在所述亮度I通道上处于坐标(i,j)处的像素点对应的近期动态特征值,并且满足100≤t-k≤20000;
S103D,根据下面式(7),对所述近期动态特征值D(i,j)进行量化处理,以得到所述动态性类型值D(i,j)|t
Figure BDA0002250612980000053
步骤S104,将所述颜色类型值、所述轮廓类型值和所述动态性类型值进行串联,以构建得到所述视频场景区域类型描述器;
进一步,在所述步骤S2中,将包含特定目标区域的视频样本输入至所述视频场景区域类型描述器,以输出获得关于所述特定目标区域的类型向量具体包括,
步骤S201,选取一有且仅有一个典型的特定目标区域的视频样本;
步骤S202,将所述视频样本以逐帧图像的方式输入所述视频场景区域类型描述器,对每一帧图像的特定目标区域中的各个像素点逐一计算得到其对应的类型向量,在对所有像素点的类型向量进行平均向量计算处理,并将所述平均向量计算处理得到的平均向量作为对应帧图像中特定目标区域的类型向量;
进一步,在所述步骤S3中,将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量具体包括,
步骤S301,将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器后,所述视频场景区域类型描述器基于并行计算模式,同步地计算得到所述无纹理视频的某一图像帧中每一个像素点的颜色类型值、轮廓类型值和动态性类型值;
步骤S302,将每一个像素点的颜色类型值、轮廓类型值和动态性类型值串联组合成相应的类型向量,同时将具有相同类型向量的像素点归为同一个场景区域,以此分割获得若干场景区域,并且每一个场景区域具有相同且唯一的类型向量;
进一步,在所述步骤S4中,获取所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度,若所述匹配度大于或者等于预设匹配度阈值,则确定所述每一图像帧当前的场景区域为所述特定目标区域具体包括,
步骤S401,根据下式(8),计算所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度M
Figure BDA0002250612980000071
在上述式(8)中,H(i,j)|t、S(i,j)|t、D(i,j)|t分别为所述无纹理视频的某一图像帧中场景区域的颜色类型值、轮廓类型值和动态性类型值,H(i,j)′、S(i,j)′、D(i,j)′分别为所述视频样本中特定目标区域的类型向量对应的颜色类型值、轮廓类型值和动态性类型值,所述匹配度M的取值范围是[0%,100%],当所述匹配度M=100%时,表示所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间完全匹配;
步骤S402,将所述预设匹配度阈值设为85%,若所述匹配度M大于或者等于85%,则确定所述某一图像帧当前的场景区域为所述特定目标区。
本发明还提供一种无纹理场景视频中对特定目标区域的侦测装置,其特征在于,所述装置包括:
视频场景区域类型描述器构建模块,其用于构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器;
类型向量获取模块,其用于将包含特定目标区域的视频样本输入至所述视频场景区域类型描述器,以输出获得关于所述特定目标区域的类型向量;
场景区域分割模块,其用于将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量;
匹配度计算模块,其用于获取所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度;
匹配确定模块,其用于根据所述匹配度与预设匹配度阈值之间的关系,确定所述某一图像帧当前的场景区域是否为所述特定目标区域;
进一步,所述视频场景区域类型描述器构建模块包括颜色信息通道构建子模块、轮廓信息通道构建子模块、动态性信息通道构建子模块和串联构建子模块;其中,
所述颜色信息通道构建子模块用于构建关于所述无纹理视频中的颜色信息通道,具体为,
S101A,将所述无纹理视频的某一图像帧进行从RGB颜色空间到HSI颜色空间的转换处理,其中,色调H的取值范围为[0°,360°],饱和度S和强度I的取值范围均为[0,1];
S101B,将所述色调H对应的域值划分为如下6个子集:H1=[30°,90°)、H2=[90°,150°)、H3=[150°,210°)、H4=[210°,270°)、H5=[270°,330°)和H6=[330°,360°]∪[0°,30°),以将所述某一图像帧对应的像素点进行关于所述6个子集的分类处理;
S101C,根据所述分类处理的结果,将所述某一图像帧的每一个像素点进行归一化与量化处理,以获得每一个像素点对应的颜色类型值H(i,j)|t,其中,所述颜色类型值H(i,j)|t的计算结果如下式(1)
Figure BDA0002250612980000081
在所述式(1)中,H(i,j)|t表示所述某一图像帧在坐标(i,j)处的像素点的颜色类型值;
所述轮廓信息通道构建子模块用于构建关于所述无纹理视频中的轮廓信息通道,具体为,
S102A,通过Hough变换算法计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第一轮廓特征值shough(i,j)|t,其中,所述第一轮廓特征值shough(i,j)|t满足下面式(2)
Figure BDA0002250612980000091
S102B,通过Canny算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第二轮廓特征值scanny(i,j)︱t,其中,所述第二轮廓特征值scanny(i,j)︱t满足下面式(3)
Figure BDA0002250612980000092
S102C,通过Isotropic Sobel算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第三轮廓特征值ssobel(i,j)|t,其中,所述第三轮廓特征值ssobel(i,j)|t满足下面式(4)
Figure BDA0002250612980000093
S102D,根据下面式(5),对所述第一轮廓特征值shough(i,j)|t、所述第二轮廓特征值scanny(i,j)︱t和所述第三轮廓特征值ssobel(i,j)|t进行求交集运算处理,以得到所述轮廓类型值S(i,j)|t
所述动态性信息通道构建子模块用于构建关于所述无纹理视频中的动态性信息通道,具体为,
S103A,基于HSI颜色空间的亮度I通道,构建关于所述无纹理视频的某一图像帧在亮度I通道中每一个像素点的混合高斯背景模型GMM;
S103B,在所述亮度I通道上,统计每一个像素点对应的显著性强度值变化的次数,其中,所述显著性强度值变化是指像素点的强度值变化幅度超出其对应的混合高斯背景模型GMM所限定的强度值正常变化范围;
S103C,在所述亮度I通道上,根据下面式(6),获取每一个像素点的近期动态特征值
Figure BDA0002250612980000101
在上述式(6)中,
Figure BDA0002250612980000102
为所述无纹理视频在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的次数,D(i,j)为在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的频率,即D(i,j)为在所述亮度I通道上处于坐标(i,j)处的像素点对应的近期动态特征值,并且满足100≤t-k≤20000;
S103D,根据下面式(7),对所述近期动态特征值D(i,j)进行量化处理,以得到所述动态性类型值D(i,j)|t
所述串联构建子模块用于将所述颜色类型值、所述轮廓类型值和所述动态性类型值进行串联,以构建得到所述视频场景区域类型描述器;
进一步,所述类型向量获取模块包括视频样本选取子模块和类型向量计算子模块;其中,
所述视频样本选取子模块用于选取一有且仅有一个典型的特定目标区域的视频样本;
所述类型向量计算子模块用于将所述视频样本以逐帧图像的方式输入所述视频场景区域类型描述器,对每一帧图像的特定目标区域中的各个像素点逐一计算得到其对应的类型向量,在对所有像素点的类型向量进行平均向量计算处理,并将所述平均向量计算处理得到的平均向量作为对应帧图像中特定目标区域的类型向量;
进一步,所述场景区域分割模块包括实时类型值计算子模块和分割处理子模块;其中,
所述实时类型值计算子模块用于将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器后,所述视频场景区域类型描述器基于并行计算模式,同步地计算得到所述无纹理视频的某一图像帧中每一个像素点的颜色类型值、轮廓类型值和动态性类型值;
所述分割处理子模块用于将每一个像素点的颜色类型值、轮廓类型值和动态性类型值串联组合成相应的类型向量,同时将具有相同类型向量的像素点归为同一个场景区域,以此分割获得若干场景区域,并且每一个场景区域具有相同且唯一的类型向量;
进一步,所述匹配度计算模块获取所述匹配度具体为,
根据下式(8),计算所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度M
Figure BDA0002250612980000121
在上述式(8)中,H(i,j)|t、S(i,j)|t、D(i,j)|t分别为所述无纹理视频的某一图像帧中场景区域的颜色类型值、轮廓类型值和动态性类型值,H(i,j)′、S(i,j)′、D(i,j)′分别为所述视频样本中特定目标区域的类型向量对应的颜色类型值、轮廓类型值和动态性类型值,所述匹配度M的取值范围是[0%,100%],当所述匹配度M=100%时,表示所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间完全匹配;
所述匹配确定模块确定所述某一图像帧当前的场景区域是否为所述特定目标区域具体为,
将所述预设匹配度阈值设为85%,若所述匹配度M大于或者等于85%,则确定所述某一图像帧当前的场景区域为所述特定目标区。
相比于现有技术,该无纹理场景视频中对特定目标区域的侦测方法和装置综合利用无纹理视频中的颜色、轮廓和动态性等不同时空信息构建视频场景区域类型描述器,以此对特定目标区域进行侦测和确定,该视频场景区域类型描述器各个信息通道上的特征提取和计算方法简单高效、实时性好,视频样本学习效率高,并可实现实时在线训练;此外,该方法和装置在计算视频场景区域类型描述器各通道的类型值时,还引入了并行计算的方法,显著地提高了方法的整体运算效率,从而克服了现有方法实施在无纹理视频中对特定目标区域检测时运算效率低、实时性差,甚至会失效性的问题。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种无纹理场景视频中对特定目标区域的侦测方法的流程示意图。
图2为本发明提供的一种无纹理场景视频中对特定目标区域的侦测方法中HSI颜色空间的模型示意图。
图3为本发明提供的一种无纹理场景视频中对特定目标区域的侦测方法中场景视频的示意图。
图4为本发明提供的一种无纹理场景视频中对特定目标区域的侦测装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,为本发明实施例提供的一种无纹理场景视频中对特定目标区域的侦测方法的流程示意图。该无纹理场景视频中对特定目标区域的侦测方法包括如下步骤:
步骤S1,构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器;
步骤S2,将包含特定目标区域的视频样本输入至该视频场景区域类型描述器,以输出获得关于该特定目标区域的类型向量;
步骤S3,将该无纹理视频的某一图像帧输入至该视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量;
步骤S4,获取该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间的匹配度,若该匹配度大于或者等于预设匹配度阈值,则确定该每一图像帧当前的场景区域为该特定目标区域。
优选地,在该步骤S1中,构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器具体包括,
步骤S101,构建关于该无纹理视频中的颜色信息通道,具体为,
S101A,将该无纹理视频的某一图像帧进行从RGB颜色空间到HSI颜色空间的转换处理,在RGB颜色空间中,R表示红色、G表示绿色、B表示蓝色,在HSI颜色空间中,H表示色调、S表示饱和度、I表示强度,其中,色调H的取值范围为[0°,360°],饱和度S和强度I的取值范围均为[0,1];
S101B,将该色调H对应的域值划分为如下6个子集:H1=[30°,90°)、H2=[90°,150°)、H3=[150°,210°)、H4=[210°,270°)、H5=[270°,330°)和H6=[330°,360°]∪[0°,30°),以将该某一图像帧对应的像素点进行关于该6个子集的分类处理,其中,H1代表红色色调区域、H2品红色色调区域、H3蓝色色调区域、H4青色色调区域、H5绿色色调区域、H6黄色色调区域,相应地,该6个子集对应的颜色空间分布模型对应于图2所示的HSI颜色空间的模型示意图;
S101C,根据该分类处理的结果,将该某一图像帧的每一个像素点进行归一化与量化处理,以获得每一个像素点对应的颜色类型值H(i,j)|t,其中,该颜色类型值H(i,j)|t的计算结果如下式(1)
Figure BDA0002250612980000151
在该式(1)中,H(i,j)|t表示该某一图像帧在坐标(i,j)处的像素点的颜色类型值;
步骤S102,构建关于该无纹理视频中的轮廓信息通道,具体为,
S102A,通过Hough变换算法计算该无纹理视频的某一图像帧的图像轮廓,以得到该某一图像帧内坐标(i,j)处的像素点的第一轮廓特征值shough(i,j)|t,其中,该第一轮廓特征值shough(i,j)|t满足下面式(2)
Figure BDA0002250612980000152
S102B,通过Canny算子计算该无纹理视频的某一图像帧的图像轮廓,以得到该某一图像帧内坐标(i,j)处的像素点的第二轮廓特征值scanny(i,j)︱t,其中,该第二轮廓特征值scanny(i,j)︱t满足下面式(3)
Figure BDA0002250612980000161
S102C,通过Isotropic Sobel算子计算该无纹理视频的某一图像帧的图像轮廓,以得到该某一图像帧内坐标(i,j)处的像素点的第三轮廓特征值ssobel(i,j)|t,其中,该第三轮廓特征值ssobel(i,j)|t满足下面式(4)
Figure BDA0002250612980000162
S102D,根据下面式(5),对该第一轮廓特征值shough(i,j)|t、该第二轮廓特征值scanny(i,j)︱t和该第三轮廓特征值ssobel(i,j)|t进行求交集运算处理,以得到该轮廓类型值S(i,j)|t
Figure BDA0002250612980000163
步骤S103,构建关于该无纹理视频中的动态性信息通道,具体为,
S103A,基于HSI颜色空间的亮度I通道,构建关于该无纹理视频的某一图像帧在亮度I通道中每一个像素点的混合高斯背景模型GMM;
S103B,在该亮度I通道上,统计每一个像素点对应的显著性强度值变化的次数,其中,该显著性强度值变化是指像素点的强度值变化幅度超出其对应的混合高斯背景模型GMM所限定的强度值正常变化范围;
S103C,在该亮度I通道上,根据下面式(6),获取每一个像素点的近期动态特征值
Figure BDA0002250612980000171
在上述式(6)中,
Figure BDA0002250612980000172
为该无纹理视频在该亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的次数,D(i,j)为在该亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的频率,即D(i,j)为在该亮度I通道上处于坐标(i,j)处的像素点对应的近期动态特征值,并且满足100≤t-k≤20000;
S103D,根据下面式(7),对该近期动态特征值D(i,j)进行量化处理,以得到该动态性类型值D(i,j)|t
Figure BDA0002250612980000173
步骤S104,将该颜色类型值、该轮廓类型值和该动态性类型值进行串联,以构建得到该视频场景区域类型描述器。
优选地,在该步骤S2中,将包含特定目标区域的视频样本输入至该视频场景区域类型描述器,以输出获得关于该特定目标区域的类型向量具体包括,
步骤S201,选取一有且仅有一个典型的特定目标区域的视频样本;
步骤S202,将该视频样本以逐帧图像的方式输入该视频场景区域类型描述器,对每一帧图像的特定目标区域中的各个像素点逐一计算得到其对应的类型向量,在对所有像素点的类型向量进行平均向量计算处理,并将该平均向量计算处理得到的平均向量作为对应帧图像中特定目标区域的类型向量。
优选地,在该步骤S3中,将该无纹理视频的某一图像帧输入至该视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量具体包括,
步骤S301,将该无纹理视频的某一图像帧输入至该视频场景区域类型描述器后,该视频场景区域类型描述器基于并行计算模式,同步地计算得到该无纹理视频的某一图像帧中每一个像素点的颜色类型值、轮廓类型值和动态性类型值;
步骤S302,将每一个像素点的颜色类型值、轮廓类型值和动态性类型值串联组合成相应的类型向量,同时将具有相同类型向量的像素点归为同一个场景区域,以此分割获得若干场景区域,并且每一个场景区域具有相同且唯一的类型向量。
优选地,在该步骤S4中,获取该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间的匹配度,若该匹配度大于或者等于预设匹配度阈值,则确定该每一图像帧当前的场景区域为该特定目标区域具体包括,
步骤S401,根据下式(8),计算该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间的匹配度M
Figure BDA0002250612980000181
在上述式(8)中,H(i,j)|t、S(i,j)|t、D(i,j)|t分别为该无纹理视频的某一图像帧中场景区域的颜色类型值、轮廓类型值和动态性类型值,H(i,j)′、S(i,j)′、D(i,j)′分别为该视频样本中特定目标区域的类型向量对应的颜色类型值、轮廓类型值和动态性类型值,该匹配度M的取值范围是[0%,100%],当该匹配度M=100%时,表示该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间完全匹配;
步骤S402,将该预设匹配度阈值设为85%,若该匹配度M大于或者等于85%,则确定该某一图像帧当前的场景区域为该特定目标区。
具体如图3所示的场景视频,该场景视频的帧率为25帧/秒,时长为15分钟的幼儿园场景的高清视频,其时间跨度长,场景内容复杂,场景纹理和轮扣信息丰富多样,,但是缺少纹理信息,该无纹理场景视频中对特定目标区域的侦测方法能够显著地提高其整体运算效率,从而提高对视频复杂场景区域分割的有效性、正确性和运算效率。
参阅图4,为本发明实施例提供的一种无纹理场景视频中对特定目标区域的侦测装置的结构示意图。该无纹理场景视频中对特定目标区域的侦测装置包括:
视频场景区域类型描述器构建模块,其用于构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器;
类型向量获取模块,其用于将包含特定目标区域的视频样本输入至该视频场景区域类型描述器,以输出获得关于该特定目标区域的类型向量;
场景区域分割模块,其用于将该无纹理视频的某一图像帧输入至该视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量;
匹配度计算模块,其用于获取该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间的匹配度;
匹配确定模块,其用于根据该匹配度与预设匹配度阈值之间的关系,确定该某一图像帧当前的场景区域是否为该特定目标区域。
优选地,该视频场景区域类型描述器构建模块包括颜色信息通道构建子模块、轮廓信息通道构建子模块、动态性信息通道构建子模块和串联构建子模块;其中,
该颜色信息通道构建子模块用于构建关于该无纹理视频中的颜色信息通道,具体为,
S101A,将该无纹理视频的某一图像帧进行从RGB颜色空间到HSI颜色空间的转换处理,其中,色调H的取值范围为[0°,360°],饱和度S和强度I的取值范围均为[0,1];
S101B,将该色调H对应的域值划分为如下6个子集:H1=[30°,90°)、H2=[90°,150°)、H3=[150°,210°)、H4=[210°,270°)、H5=[270°,330°)和H6=[330°,360°]∪[0°,30°),以将该某一图像帧对应的像素点进行关于该6个子集的分类处理;
S101C,根据该分类处理的结果,将该某一图像帧的每一个像素点进行归一化与量化处理,以获得每一个像素点对应的颜色类型值H(i,j)|t,其中,该颜色类型值H(i,j)|t的计算结果如下式(1)
Figure BDA0002250612980000201
在该式(1)中,H(i,j)|t表示该某一图像帧在坐标(i,j)处的像素点的颜色类型值;
该轮廓信息通道构建子模块用于构建关于该无纹理视频中的轮廓信息通道,具体为,
S102A,通过Hough变换算法计算该无纹理视频的某一图像帧的图像轮廓,以得到该某一图像帧内坐标(i,j)处的像素点的第一轮廓特征值shough(i,j)|t,其中,该第一轮廓特征值shough(i,j)|t满足下面式(2)
Figure BDA0002250612980000211
S102B,通过Canny算子计算该无纹理视频的某一图像帧的图像轮廓,以得到该某一图像帧内坐标(i,j)处的像素点的第二轮廓特征值scanny(i,j)︱t,其中,该第二轮廓特征值scanny(i,j)︱t满足下面式(3)
Figure BDA0002250612980000212
S102C,通过Isotropic Sobel算子计算该无纹理视频的某一图像帧的图像轮廓,以得到该某一图像帧内坐标(i,j)处的像素点的第三轮廓特征值ssobel(i,j)|t,其中,该第三轮廓特征值ssobel(i,j)|t满足下面式(4)
Figure BDA0002250612980000213
S102D,根据下面式(5),对该第一轮廓特征值shough(i,j)|t、该第二轮廓特征值scanny(i,j)︱t和该第三轮廓特征值ssobel(i,j)|t进行求交集运算处理,以得到该轮廓类型值S(i,j)|t
Figure BDA0002250612980000214
该动态性信息通道构建子模块用于构建关于该无纹理视频中的动态性信息通道,具体为,
S103A,基于HSI颜色空间的亮度I通道,构建关于该无纹理视频的某一图像帧在亮度I通道中每一个像素点的混合高斯背景模型GMM;
S103B,在该亮度I通道上,统计每一个像素点对应的显著性强度值变化的次数,其中,该显著性强度值变化是指像素点的强度值变化幅度超出其对应的混合高斯背景模型GMM所限定的强度值正常变化范围;
S103C,在该亮度I通道上,根据下面式(6),获取每一个像素点的近期动态特征值
Figure BDA0002250612980000221
在上述式(6)中,
Figure BDA0002250612980000222
为该无纹理视频在该亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的次数,D(i,j)为在该亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的频率,即D(i,j)为在该亮度I通道上处于坐标(i,j)处的像素点对应的近期动态特征值,并且满足100≤t-k≤20000;
S103D,根据下面式(7),对该近期动态特征值D(i,j)进行量化处理,以得到该动态性类型值D(i,j)|t
Figure BDA0002250612980000223
该串联构建子模块用于将该颜色类型值、该轮廓类型值和该动态性类型值进行串联,以构建得到该视频场景区域类型描述器。
优选地,该类型向量获取模块包括视频样本选取子模块和类型向量计算子模块;其中,
该视频样本选取子模块用于选取一有且仅有一个典型的特定目标区域的视频样本;
该类型向量计算子模块用于将该视频样本以逐帧图像的方式输入该视频场景区域类型描述器,对每一帧图像的特定目标区域中的各个像素点逐一计算得到其对应的类型向量,在对所有像素点的类型向量进行平均向量计算处理,并将该平均向量计算处理得到的平均向量作为对应帧图像中特定目标区域的类型向量。
优选地,该场景区域分割模块包括实时类型值计算子模块和分割处理子模块;其中,
该实时类型值计算子模块用于将该无纹理视频的某一图像帧输入至该视频场景区域类型描述器后,该视频场景区域类型描述器基于并行计算模式,同步地计算得到该无纹理视频的某一图像帧中每一个像素点的颜色类型值、轮廓类型值和动态性类型值;
该分割处理子模块用于将每一个像素点的颜色类型值、轮廓类型值和动态性类型值串联组合成相应的类型向量,同时将具有相同类型向量的像素点归为同一个场景区域,以此分割获得若干场景区域,并且每一个场景区域具有相同且唯一的类型向量。
优选地,该匹配度计算模块获取该匹配度具体为,
根据下式(8),计算该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间的匹配度M
Figure BDA0002250612980000231
在上述式(8)中,H(i,j)|t、S(i,j)|t、D(i,j)|t分别为该无纹理视频的某一图像帧中场景区域的颜色类型值、轮廓类型值和动态性类型值,H(i,j)′、S(i,j)′、D(i,j)′分别为该视频样本中特定目标区域的类型向量对应的颜色类型值、轮廓类型值和动态性类型值,该匹配度M的取值范围是[0%,100%],当该匹配度M=100%时,表示该每一个场景区域具有的类型向量与该特定目标区域的类型向量之间完全匹配;
该匹配确定模块确定该某一图像帧当前的场景区域是否为该特定目标区域具体为,
将该预设匹配度阈值设为85%,若该匹配度M大于或者等于85%,则确定该某一图像帧当前的场景区域为该特定目标区。
从上述实施例的内容可知,该无纹理场景视频中对特定目标区域的侦测方法和装置综合利用无纹理视频中的颜色、轮廓和动态性等不同时空信息构建视频场景区域类型描述器,以此对特定目标区域进行侦测和确定,该视频场景区域类型描述器各个信息通道上的特征提取和计算方法简单高效、实时性好,视频样本学习效率高,并可实现实时在线训练;此外,该方法和装置在计算视频场景区域类型描述器各通道的类型值时,还引入了并行计算的方法,显著地提高了方法的整体运算效率,从而克服了现有方法实施在无纹理视频中对特定目标区域检测时运算效率低、实时性差,甚至会失效性的问题。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种无纹理场景视频中对特定目标区域的侦测方法,其特征在于,包括如下步骤:
步骤S1,构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器;
步骤S2,将包含特定目标区域的视频样本输入至所述视频场景区域类型描述器,以输出获得关于所述特定目标区域的类型向量;
步骤S3,将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量;
步骤S4,获取所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度,若所述匹配度大于或者等于预设匹配度阈值,则确定所述每一图像帧当前的场景区域为所述特定目标区域。
2.如权利要求1所述的无纹理场景视频中对特定目标区域的侦测方法,其特征在于:
在所述步骤S1中,构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器具体包括,
步骤S101,构建关于所述无纹理视频中的颜色信息通道,具体为,
S101A,将所述无纹理视频的某一图像帧进行从RGB颜色空间到HSI颜色空间的转换处理,其中,色调H的取值范围为[0°,360°],饱和度S和强度I的取值范围均为[0,1];
S101B,将所述色调H对应的域值划分为如下6个子集:H1=[30°,90°)、H2=[90°,150°)、H3=[150°,210°)、H4=[210°,270°)、H5=[270°,330°)和H6=[330°,360°]∪[0°,30°),以将所述某一图像帧对应的像素点进行关于所述6个子集的分类处理;
S101C,根据所述分类处理的结果,将所述某一图像帧的每一个像素点进行归一化与量化处理,以获得每一个像素点对应的颜色类型值H(i,j)|t,其中,所述颜色类型值H(i,j)|t的计算结果如下式(1)
Figure FDA0002250612970000021
在所述式(1)中,H(i,j)|t表示所述某一图像帧在坐标(i,j)处的像素点的颜色类型值;
步骤S102,构建关于所述无纹理视频中的轮廓信息通道,具体为,
S102A,通过Hough变换算法计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第一轮廓特征值shough(i,j)|t,其中,所述第一轮廓特征值shough(i,j)|t满足下面式(2)
S102B,通过Canny算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第二轮廓特征值scanny(i,j)︱t,其中,所述第二轮廓特征值scanny(i,j)︱t满足下面式(3)
Figure FDA0002250612970000031
S102C,通过Isotropic Sobel算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第三轮廓特征值ssobel(i,j)|t,其中,所述第三轮廓特征值ssobel(i,j)|t满足下面式(4)
Figure FDA0002250612970000032
S102D,根据下面式(5),对所述第一轮廓特征值shough(i,j)|t、所述第二轮廓特征值scanny(i,j)︱t和所述第三轮廓特征值ssobel(i,j)|t进行求交集运算处理,以得到所述轮廓类型值S(i,j)|t
Figure FDA0002250612970000033
步骤S103,构建关于所述无纹理视频中的动态性信息通道,具体为,
S103A,基于HSI颜色空间的亮度I通道,构建关于所述无纹理视频的某一图像帧在亮度I通道中每一个像素点的混合高斯背景模型GMM;
S103B,在所述亮度I通道上,统计每一个像素点对应的显著性强度值变化的次数,其中,所述显著性强度值变化是指像素点的强度值变化幅度超出其对应的混合高斯背景模型GMM所限定的强度值正常变化范围;
S103C,在所述亮度I通道上,根据下面式(6),获取每一个像素点的近期动态特征值
Figure FDA0002250612970000041
在上述式(6)中,
Figure FDA0002250612970000042
为所述无纹理视频在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的次数,D(i,j)为在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的频率,即D(i,j)为在所述亮度I通道上处于坐标(i,j)处的像素点对应的近期动态特征值,并且满足100≤t-k≤20000;
S103D,根据下面式(7),对所述近期动态特征值D(i,j)进行量化处理,以得到所述动态性类型值D(i,j)|t
Figure FDA0002250612970000043
步骤S104,将所述颜色类型值、所述轮廓类型值和所述动态性类型值进行串联,以构建得到所述视频场景区域类型描述器。
3.如权利要求1所述的无纹理场景视频中对特定目标区域的侦测方法,其特征在于:
在所述步骤S2中,将包含特定目标区域的视频样本输入至所述视频场景区域类型描述器,以输出获得关于所述特定目标区域的类型向量具体包括,
步骤S201,选取一有且仅有一个典型的特定目标区域的视频样本;
步骤S202,将所述视频样本以逐帧图像的方式输入所述视频场景区域类型描述器,对每一帧图像的特定目标区域中的各个像素点逐一计算得到其对应的类型向量,在对所有像素点的类型向量进行平均向量计算处理,并将所述平均向量计算处理得到的平均向量作为对应帧图像中特定目标区域的类型向量。
4.如权利要求1所述的无纹理场景视频中对特定目标区域的侦测方法,其特征在于:
在所述步骤S3中,将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量具体包括,
步骤S301,将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器后,所述视频场景区域类型描述器基于并行计算模式,同步地计算得到所述无纹理视频的某一图像帧中每一个像素点的颜色类型值、轮廓类型值和动态性类型值;
步骤S302,将每一个像素点的颜色类型值、轮廓类型值和动态性类型值串联组合成相应的类型向量,同时将具有相同类型向量的像素点归为同一个场景区域,以此分割获得若干场景区域,并且每一个场景区域具有相同且唯一的类型向量。
5.如权利要求1所述的无纹理场景视频中对特定目标区域的侦测方法,其特征在于:
在所述步骤S4中,获取所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度,若所述匹配度大于或者等于预设匹配度阈值,则确定所述每一图像帧当前的场景区域为所述特定目标区域具体包括,
步骤S401,根据下式(8),计算所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度M
Figure FDA0002250612970000061
在上述式(8)中,H(i,j)|t、S(i,j)|t、D(i,j)|t分别为所述无纹理视频的某一图像帧中场景区域的颜色类型值、轮廓类型值和动态性类型值,H(i,j)′、S(i,j)′、D(i,j)′分别为所述视频样本中特定目标区域的类型向量对应的颜色类型值、轮廓类型值和动态性类型值,所述匹配度M的取值范围是[0%,100%],当所述匹配度M=100%时,表示所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间完全匹配;
步骤S402,将所述预设匹配度阈值设为85%,若所述匹配度M大于或者等于85%,则确定所述某一图像帧当前的场景区域为所述特定目标区。
6.一种无纹理场景视频中对特定目标区域的侦测装置,其特征在于,所述装置包括:
视频场景区域类型描述器构建模块,其用于构建关于无纹理视频中的颜色信息、轮廓信息和动态性信息的三通道的视频场景区域类型描述器;
类型向量获取模块,其用于将包含特定目标区域的视频样本输入至所述视频场景区域类型描述器,以输出获得关于所述特定目标区域的类型向量;
场景区域分割模块,其用于将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器,以分割获得若干场景区域,其中,每一个场景区域分别具有相应的类型向量;
匹配度计算模块,其用于获取所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度;
匹配确定模块,其用于根据所述匹配度与预设匹配度阈值之间的关系,确定所述某一图像帧当前的场景区域是否为所述特定目标区域。
7.如权利要求6所述的无纹理场景视频中对特定目标区域的侦测装置,其特征在于:
所述视频场景区域类型描述器构建模块包括颜色信息通道构建子模块、轮廓信息通道构建子模块、动态性信息通道构建子模块和串联构建子模块;其中,
所述颜色信息通道构建子模块用于构建关于所述无纹理视频中的颜色信息通道,具体为,
S101A,将所述无纹理视频的某一图像帧进行从RGB颜色空间到HSI颜色空间的转换处理,其中,色调H的取值范围为[0°,360°],饱和度S和强度I的取值范围均为[0,1];
S101B,将所述色调H对应的域值划分为如下6个子集:H1=[30°,90°)、H2=[90°,150°)、H3=[150°,210°)、H4=[210°,270°)、H5=[270°,330°)和H6=[330°,360°]∪[0°,30°),以将所述某一图像帧对应的像素点进行关于所述6个子集的分类处理;
S101C,根据所述分类处理的结果,将所述某一图像帧的每一个像素点进行归一化与量化处理,以获得每一个像素点对应的颜色类型值H(i,j)|t,其中,所述颜色类型值H(i,j)|t的计算结果如下式(1)
在所述式(1)中,H(i,j)|t表示所述某一图像帧在坐标(i,j)处的像素点的颜色类型值;
所述轮廓信息通道构建子模块用于构建关于所述无纹理视频中的轮廓信息通道,具体为,
S102A,通过Hough变换算法计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第一轮廓特征值shough(i,j)|t,其中,所述第一轮廓特征值shough(i,j)|t满足下面式(2)
Figure FDA0002250612970000082
S102B,通过Canny算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第二轮廓特征值scanny(i,j)︱t,其中,所述第二轮廓特征值scanny(i,j)︱t满足下面式(3)
Figure FDA0002250612970000091
S102C,通过Isotropic Sobel算子计算所述无纹理视频的某一图像帧的图像轮廓,以得到所述某一图像帧内坐标(i,j)处的像素点的第三轮廓特征值ssobel(i,j)|t,其中,所述第三轮廓特征值ssobel(i,j)|t满足下面式(4)
Figure FDA0002250612970000092
S102D,根据下面式(5),对所述第一轮廓特征值shough(i,j)|t、所述第二轮廓特征值scanny(i,j)︱t和所述第三轮廓特征值ssobel(i,j)|t进行求交集运算处理,以得到所述轮廓类型值S(i,j)|t
Figure FDA0002250612970000093
所述动态性信息通道构建子模块用于构建关于所述无纹理视频中的动态性信息通道,具体为,
S103A,基于HSI颜色空间的亮度I通道,构建关于所述无纹理视频的某一图像帧在亮度I通道中每一个像素点的混合高斯背景模型GMM;
S103B,在所述亮度I通道上,统计每一个像素点对应的显著性强度值变化的次数,其中,所述显著性强度值变化是指像素点的强度值变化幅度超出其对应的混合高斯背景模型GMM所限定的强度值正常变化范围;
S103C,在所述亮度I通道上,根据下面式(6),获取每一个像素点的近期动态特征值
Figure FDA0002250612970000101
在上述式(6)中,
Figure FDA0002250612970000102
为所述无纹理视频在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的次数,D(i,j)为在所述亮度I通道上从图像帧k到另一图像帧t之间的时间中处于坐标(i,j)处的像素点对应的显著性强度变化的频率,即D(i,j)为在所述亮度I通道上处于坐标(i,j)处的像素点对应的近期动态特征值,并且满足100≤t-k≤20000;
S103D,根据下面式(7),对所述近期动态特征值D(i,j)进行量化处理,以得到所述动态性类型值D(i,j)|t
所述串联构建子模块用于将所述颜色类型值、所述轮廓类型值和所述动态性类型值进行串联,以构建得到所述视频场景区域类型描述器。
8.如权利要求6所述的无纹理场景视频中对特定目标区域的侦测装置,其特征在于:
所述类型向量获取模块包括视频样本选取子模块和类型向量计算子模块;其中,
所述视频样本选取子模块用于选取一有且仅有一个典型的特定目标区域的视频样本;
所述类型向量计算子模块用于将所述视频样本以逐帧图像的方式输入所述视频场景区域类型描述器,对每一帧图像的特定目标区域中的各个像素点逐一计算得到其对应的类型向量,在对所有像素点的类型向量进行平均向量计算处理,并将所述平均向量计算处理得到的平均向量作为对应帧图像中特定目标区域的类型向量。
9.如权利要求6所述的无纹理场景视频中对特定目标区域的侦测装置,其特征在于:
所述场景区域分割模块包括实时类型值计算子模块和分割处理子模块;其中,
所述实时类型值计算子模块用于将所述无纹理视频的某一图像帧输入至所述视频场景区域类型描述器后,所述视频场景区域类型描述器基于并行计算模式,同步地计算得到所述无纹理视频的某一图像帧中每一个像素点的颜色类型值、轮廓类型值和动态性类型值;
所述分割处理子模块用于将每一个像素点的颜色类型值、轮廓类型值和动态性类型值串联组合成相应的类型向量,同时将具有相同类型向量的像素点归为同一个场景区域,以此分割获得若干场景区域,并且每一个场景区域具有相同且唯一的类型向量。
10.如权利要求6所述的无纹理场景视频中对特定目标区域的侦测装置,其特征在于:
所述匹配度计算模块获取所述匹配度具体为,
根据下式(8),计算所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间的匹配度M
Figure FDA0002250612970000121
在上述式(8)中,H(i,j)|t、S(i,j)|t、D(i,j)|t分别为所述无纹理视频的某一图像帧中场景区域的颜色类型值、轮廓类型值和动态性类型值,H(i,j)′、S(i,j)′、D(i,j)′分别为所述视频样本中特定目标区域的类型向量对应的颜色类型值、轮廓类型值和动态性类型值,所述匹配度M的取值范围是[0%,100%],当所述匹配度M=100%时,表示所述每一个场景区域具有的类型向量与所述特定目标区域的类型向量之间完全匹配;
所述匹配确定模块确定所述某一图像帧当前的场景区域是否为所述特定目标区域具体为,
将所述预设匹配度阈值设为85%,若所述匹配度M大于或者等于85%,则确定所述某一图像帧当前的场景区域为所述特定目标区。
CN201911032771.8A 2019-10-28 2019-10-28 一种无纹理场景视频中对特定目标区域的侦测方法和装置 Active CN110796073B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911032771.8A CN110796073B (zh) 2019-10-28 2019-10-28 一种无纹理场景视频中对特定目标区域的侦测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911032771.8A CN110796073B (zh) 2019-10-28 2019-10-28 一种无纹理场景视频中对特定目标区域的侦测方法和装置

Publications (2)

Publication Number Publication Date
CN110796073A true CN110796073A (zh) 2020-02-14
CN110796073B CN110796073B (zh) 2021-05-25

Family

ID=69441584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911032771.8A Active CN110796073B (zh) 2019-10-28 2019-10-28 一种无纹理场景视频中对特定目标区域的侦测方法和装置

Country Status (1)

Country Link
CN (1) CN110796073B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113030147A (zh) * 2021-03-16 2021-06-25 谱天(天津)生物科技有限公司 一种基于长期监测下尿液代谢物指标的评估方法
CN113112480A (zh) * 2021-04-16 2021-07-13 北京文安智能技术股份有限公司 视频场景变换检测方法、存储介质和电子设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101017591A (zh) * 2007-02-06 2007-08-15 重庆大学 基于生物传感和图像信息融合的视频安防监控方法
CN102509078A (zh) * 2011-10-28 2012-06-20 北京安控科技股份有限公司 基于视频分析的烟火检测装置
CN102620766A (zh) * 2012-04-11 2012-08-01 天津市市政工程设计研究院 地下道路交通标志动态视认性评价方法
CN102662949A (zh) * 2012-02-27 2012-09-12 安科智慧城市技术(中国)有限公司 一种基于多特征融合的指定目标检索方法及系统
CN103903280A (zh) * 2014-03-28 2014-07-02 哈尔滨工程大学 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法
US20140228123A1 (en) * 2009-05-29 2014-08-14 Microsoft Corporation Device for identifying and tracking multiple humans over time
US20140253922A1 (en) * 2010-10-21 2014-09-11 Spectrasensors, Inc. Dynamic Reconstruction Of A Calibration State Of An Absorption Spectrometer
CN104134222A (zh) * 2014-07-09 2014-11-05 郑州大学 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN104408745A (zh) * 2014-11-18 2015-03-11 北京航空航天大学 一种基于视频图像的实时烟雾场景检测方法
CN105741322A (zh) * 2016-02-01 2016-07-06 衢州学院 一种基于视频特征层融合的视场区域分割方法
US20160379061A1 (en) * 2012-09-12 2016-12-29 Avigilon Fortress Corporation Methods, devices and systems for detecting objects in a video
CN108133491A (zh) * 2017-12-29 2018-06-08 重庆锐纳达自动化技术有限公司 一种实现动态目标跟踪的方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101017591A (zh) * 2007-02-06 2007-08-15 重庆大学 基于生物传感和图像信息融合的视频安防监控方法
US20140228123A1 (en) * 2009-05-29 2014-08-14 Microsoft Corporation Device for identifying and tracking multiple humans over time
US20140253922A1 (en) * 2010-10-21 2014-09-11 Spectrasensors, Inc. Dynamic Reconstruction Of A Calibration State Of An Absorption Spectrometer
CN102509078A (zh) * 2011-10-28 2012-06-20 北京安控科技股份有限公司 基于视频分析的烟火检测装置
CN102662949A (zh) * 2012-02-27 2012-09-12 安科智慧城市技术(中国)有限公司 一种基于多特征融合的指定目标检索方法及系统
CN102620766A (zh) * 2012-04-11 2012-08-01 天津市市政工程设计研究院 地下道路交通标志动态视认性评价方法
US20160379061A1 (en) * 2012-09-12 2016-12-29 Avigilon Fortress Corporation Methods, devices and systems for detecting objects in a video
CN103903280A (zh) * 2014-03-28 2014-07-02 哈尔滨工程大学 一种改进水平集目标提取的子块权重Mean-Shift跟踪方法
CN104134222A (zh) * 2014-07-09 2014-11-05 郑州大学 基于多特征融合的车流监控图像检测和跟踪系统及方法
CN104408745A (zh) * 2014-11-18 2015-03-11 北京航空航天大学 一种基于视频图像的实时烟雾场景检测方法
CN105741322A (zh) * 2016-02-01 2016-07-06 衢州学院 一种基于视频特征层融合的视场区域分割方法
CN108133491A (zh) * 2017-12-29 2018-06-08 重庆锐纳达自动化技术有限公司 一种实现动态目标跟踪的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ABIMAEL GUZMÁN-PANDO等: ""Detection of Dynamic Objects in Videos Using LBSP and Fuzzy Gray Level Difference Histograms"", 《2019 IEEE INTERNATIONAL CONFERENCE ON FUZZY SYSTEMS (FUZZ-IEEE)》 *
杨柳等: ""城市火灾视频监控目标区域图像准确检测仿真"", 《计算机仿真》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113030147A (zh) * 2021-03-16 2021-06-25 谱天(天津)生物科技有限公司 一种基于长期监测下尿液代谢物指标的评估方法
CN113112480A (zh) * 2021-04-16 2021-07-13 北京文安智能技术股份有限公司 视频场景变换检测方法、存储介质和电子设备
CN113112480B (zh) * 2021-04-16 2024-03-29 北京文安智能技术股份有限公司 视频场景变换检测方法、存储介质和电子设备

Also Published As

Publication number Publication date
CN110796073B (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
CN112966646B (zh) 基于双路模型融合的视频分割方法、装置、设备及介质
CN107944359A (zh) 基于视频的火焰检测方法
CN111666834A (zh) 一种基于图像识别技术的森林火灾自动监测识别系统及方法
CN109886210A (zh) 一种交通图像识别方法、装置、计算机设备和介质
CN112037365B (zh) 面向行车记录仪基于边缘计算的车辆火灾事故检测报警系统
Le et al. Real time traffic sign detection using color and shape-based features
CN110796073B (zh) 一种无纹理场景视频中对特定目标区域的侦测方法和装置
Sanchez-Cuevas et al. A comparison of color models for color face segmentation
CN112733914B (zh) 一种基于支持向量机的水下目标视觉识别分类方法
CN108062554B (zh) 一种车辆年检标签颜色的识别方法及装置
CN107273866A (zh) 一种基于监控系统的人体异常行为识别方法
CN113901911B (zh) 图像识别、模型训练方法、装置、电子设备及存储介质
CN112395972B (zh) 一种基于无人机图像处理的电力系统绝缘子串识别方法
CN111815528A (zh) 基于卷积模型和特征融合的恶劣天气图像分类增强方法
CN104966054A (zh) 无人机可见光图像中的弱小目标检测方法
CN113065568A (zh) 目标检测、属性识别与跟踪方法及系统
CN116052090A (zh) 图像质量评估方法、模型训练方法、装置、设备及介质
CN114332071A (zh) 一种基于前景信息增强的视频异常检测方法
Zhengming et al. Skin detection in color images
CN110866460B (zh) 一种复杂场景视频中特定目标区域的侦测方法和装置
CN111582278B (zh) 人像分割方法、装置及电子设备
CN110826445B (zh) 一种无色彩场景视频中对特定目标区域的侦测方法和装置
CN110910398B (zh) 一种基于决策层融合的视频复杂场景区域分割方法和装置
CN110910399B (zh) 一种基于决策层融合的无纹理场景区域分割方法和装置
CN112613452A (zh) 人员越线识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant