CN110826446B - 无纹理场景视频的视场区域分割方法及装置 - Google Patents

无纹理场景视频的视场区域分割方法及装置 Download PDF

Info

Publication number
CN110826446B
CN110826446B CN201911033542.8A CN201911033542A CN110826446B CN 110826446 B CN110826446 B CN 110826446B CN 201911033542 A CN201911033542 A CN 201911033542A CN 110826446 B CN110826446 B CN 110826446B
Authority
CN
China
Prior art keywords
video
pixel point
characteristic value
value
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911033542.8A
Other languages
English (en)
Other versions
CN110826446A (zh
Inventor
张睿
张雪莲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quzhou University
Original Assignee
Quzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quzhou University filed Critical Quzhou University
Priority to CN201911033542.8A priority Critical patent/CN110826446B/zh
Publication of CN110826446A publication Critical patent/CN110826446A/zh
Application granted granted Critical
Publication of CN110826446B publication Critical patent/CN110826446B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本公开是关于无纹理场景视频的视场区域分割方法及装置。该方法包括:获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值;获取所述视频中每个像素点的综合轮廓特征值;获取所述视频中每个像素点的近期动态性特征值;根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量;根据所述综合视觉特征向量对所述视频中的视场进行区域分割。该技术方案结合综合轮廓特征值的综合视觉特征向量能够对无纹理场景视频的视场进行有效分割,提高了视场区域分割的效果。

Description

无纹理场景视频的视场区域分割方法及装置
技术领域
本公开涉及视频处理技术领域,尤其涉及一种无纹理场景视频的视场区域分割方法及装置。
背景技术
随着平安城市、平安校园建设的普及,对高清智能视频监控技术的需求也日益增长,因此智能高效视频分析技术的重要性日益凸显。对视频中的视场进行区域分割是智能视频监控中的一项关键底层技术,视场区域分割结果的好坏将直接决定上层的场景异常变化检测,以及对场景内目标物体追踪、识别的可靠性与准确性。
相关技术中,将每个像素点的RGB颜色空间的颜色特征向量和HSV颜色空间的颜色特征向量进行串联,生成每个像素点的双颜色空间的颜色特征向量,再将每个像素点的双颜色空间的颜色特征向量、每个像素点的纹理特征以及动态性特征进行融合,最终根据融合后得到的特征对视频中的视场进行区域分割。
但上述技术中,融合后的特征中包含纹理特征信息,而有很多场景几乎没有纹理特征可以被提取利用,若采用上述方法对无纹理场景的视场进行分割,则会导致视场分割效果差。
发明内容
为克服相关技术中存在的问题,本公开实施例提供一种无纹理场景视频的视场区域分割方法及装置。所述技术方案如下:
根据本公开实施例的第一方面,提供一种无纹理场景视频的视场区域分割方法,包括:
获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值;
获取所述视频中每个像素点的综合轮廓特征值;
获取所述视频中每个像素点的近期动态性特征值;
根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量;
根据所述综合视觉特征向量对所述视频中的视场进行区域分割。
本公开的实施例提供的技术方案可以包括以下有益效果:根据获取的每个像素点在HSI颜色空间中的色调特征值和强度特征值、每个像素点的综合轮廓特征值和近期动态性特征值生成每个像素点对应的综合视觉特征向量。这样,结合综合轮廓特征值的综合视觉特征向量能够对无纹理场景视频的视场进行有效分割,提高了视场区域分割的效果。
在一个实施例中,所述获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值包括:
将所述视频的RGB颜色空间转换为所述HSI颜色空间;
将所述HSI颜色空间中的色调的值域划分为第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6
根据所述第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6对所述视频中所有像素点的色调值进行归一化和量化,得到每个所述像素点的色调特征值
Figure GDA0002559527560000021
对所述视频中所有像素点的强度值进行量化,得到每个所述像素点的强度特征值
Figure GDA0002559527560000031
其中,H(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的色调特征值,I(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的强度特征值,H1=[30°,90°),H2=[90°,150°),H3=[150°,210°),H4=[210°,270°),H5=[270°,330°),H6=[330°,360°]+[0°,30°)。
在一个实施例中,所述获取所述视频中每个像素点的综合轮廓特征值包括:
基于所述HSI颜色空间的S通道,采用Hough变换计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第一轮廓特征值
Figure GDA0002559527560000032
基于所述HSI颜色空间的H通道,采用Canny算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第二轮廓特征值
Figure GDA0002559527560000033
基于所述HSI颜色空间的I通道,采用IsotropicSobel算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第三轮廓特征值
Figure GDA0002559527560000034
对所述第一轮廓特征值、所述第二轮廓特征值和所述第三轮廓特征值求交集,生成所述视频在第t帧内坐标(i,j)处的像素点的综合轮廓特征值
Figure GDA0002559527560000035
在一个实施例中,所述获取所述视频中每个像素点的近期动态性特征值包括:
对所述视频在强度通道中的每个像素点构建GMM模型;
根据所述GMM模型确定所述视频中每个像素点上发生的显著性强度值变化的次数;
根据所述视频中每个像素点上发生的显著性强度值变化的次数确定每个所述像素点的近期动态性特征值
Figure GDA0002559527560000041
其中,
Figure GDA0002559527560000042
表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的次数,D(i,j)|t表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点的近期动态性特征值,100≤t-k≤20000。
在一个实施例中,所述根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量包括:
将所述每个像素点在HSI颜色空间中的色调特征值和强度特征值、综合轮廓特征值、近期动态性特征值依次排列,生成每个像素点对应的综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t);其中,f(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的综合视觉特征向量;
所述根据所述综合视觉特征向量对所述视频中的视场进行区域分割包括:
对当前视频帧内所有像素点生成的所述综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)进行聚类分析;
将通过所述聚类分析被归为一类的综合视觉特征向量所对应的像素点划分为同一个区域,使得所述视频中的视场区域被分割。
根据本公开实施例的第二方面,提供一种无纹理场景视频的视场区域分割装置,包括:
第一获取模块,用于获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值;
第二获取模块,用于获取所述视频中每个像素点的综合轮廓特征值;
第三获取模块,用于获取所述视频中每个像素点的近期动态性特征值;
生成模块,用于根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量;
分割模块,用于根据所述综合视觉特征向量对所述视频中的视场进行区域分割。
本公开的实施例提供的技术方案可以包括以下有益效果:根据获取的每个像素点在HSI颜色空间中的色调特征值和强度特征值、每个像素点的综合轮廓特征值和近期动态性特征值生成每个像素点对应的综合视觉特征向量。这样,结合综合轮廓特征值的综合视觉特征向量能够对无纹理场景视频的视场进行有效分割,提高了视场区域分割的效果。
在一个实施例中,所述第一获取模块包括转换子模块、第一划分子模块、第一量化子模块和第二量化子模块;
转换子模块,用于将所述视频的RGB颜色空间转换为所述HSI颜色空间;
第一划分子模块,用于将所述HSI颜色空间中的色调的值域划分为第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6
第一量化子模块,用于根据所述第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6对所述视频中所有像素点的色调值进行归一化和量化,得到每个所述像素点的色调特征值
Figure GDA0002559527560000061
第二量化子模块,用于对所述视频中所有像素点的强度值进行量化,得到每个所述像素点的强度特征值
Figure GDA0002559527560000062
其中,H(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的色调特征值,I(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的强度特征值,H1=[30°,90°),H2=[90°,150°),H3=[150°,210°),H4=[210°,270°),H5=[270°,330°),H6=[330°,360°]+[0°,30°)。
在一个实施例中,所述第二获取模块包括第一确定子模块、第二确定子模块、第三确定子模块和第一生成子模块;
所述第一确定子模块,用于基于所述HSI颜色空间的S通道,采用Hough变换计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第一轮廓特征值
Figure GDA0002559527560000063
所述第二确定子模块,用于基于所述HSI颜色空间的H通道,采用Canny算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第二轮廓特征值
Figure GDA0002559527560000064
所述第三确定子模块,用于基于所述HSI颜色空间的I通道,采用IsotropicSobel算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第三轮廓特征值
Figure GDA0002559527560000071
所述第一生成子模块,用于对所述第一轮廓特征值、所述第二轮廓特征值和所述第三轮廓特征值求交集,生成所述视频在第t帧内坐标(i,j)处的像素点的综合轮廓特征值
Figure GDA0002559527560000072
在一个实施例中,所述第三获取模块包括构建子模块、第四确定子模块和第五确定子模块;
所述构建子模块,用于对所述视频在强度通道中的每个像素点构建GMM模型;
所述第四确定子模块,用于根据所述GMM模型确定所述视频中每个像素点上发生的显著性强度值变化的次数;
所述第五确定子模块,用于根据所述视频中每个像素点上发生的显著性强度值变化的次数确定每个所述像素点的近期动态性特征值
Figure GDA0002559527560000073
其中,
Figure GDA0002559527560000074
表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的次数,D(i,j)|t表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点的近期动态性特征值,100≤t-k≤20000。
在一个实施例中,所述生成模块包括第二生成子模块,所述分割模块包括分析子模块和第二划分子模块;
所述第二生成子模块,用于将所述每个像素点在HSI颜色空间中的色调特征值和强度特征值、综合轮廓特征值、近期动态性特征值依次排列,生成每个像素点对应的综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t);其中,f(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的综合视觉特征向量;
所述分析子模块,用于对当前视频帧内所有像素点生成的所述综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)进行聚类分析;
所述第二划分子模块,用于将通过所述聚类分析被归为一类的综合视觉特征向量所对应的像素点划分为同一个区域,使得所述视频中的视场区域被分割。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的无纹理场景视频的视场区域分割方法的流程图。
图2是根据一示例性实施例示出的无纹理场景视频的视场区域分割方法的流程图。
图2a是根据一示例性实施例示出的HSI颜色空间的模型示意图。
图3是根据一示例性实施例示出的无纹理场景视频的视场区域分割方法的流程图。
图4是根据一示例性实施例示出的无纹理场景视频的视场区域分割方法的流程图。
图5是根据一示例性实施例示出的场景视频的示意图。
图6是根据一示例性实施例示出的无纹理场景视频的视场区域分割方法的流程图。
图7是根据一示例性实施例示出的无纹理场景视频的视场区域分割装置的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供的技术方案涉及终端设备,该终端设备可以为用户使用的手机、平板电脑、笔记本电脑、台式电脑以及其他具有处理功能的设备,本公开实施例对此不做限定。相关技术中,将每个像素点的RGB颜色空间的颜色特征向量和HSV颜色空间的颜色特征向量进行串联,生成每个像素点的双颜色空间的颜色特征向量,再将每个像素点的双颜色空间的颜色特征向量、每个像素点的纹理特征以及动态性特征进行融合,最终根据融合后得到的特征对视频中的视场进行区域分割。但上述技术中,融合后的特征中包含纹理特征信息,而有很多场景几乎没有纹理特征可以被提取利用,若采用上述方法对无纹理场景的视场进行分割,则会导致视场分割效果差。本公开实施例提供的技术方案中,根据获取的每个像素点在HSI颜色空间中的色调特征值和强度特征值、每个像素点的综合轮廓特征值和近期动态性特征值生成每个像素点对应的综合视觉特征向量。这样,结合综合轮廓特征值的综合视觉特征向量能够对无纹理场景视频的视场进行有效分割,提高了视场区域分割的效果。
图1是根据一示例性实施例示出的一种无纹理场景视频的视场区域分割方法的流程图,如图1所示,该无纹理场景视频的视场区域分割方法包括以下步骤101至步骤105:
在步骤101中,获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值。
其中,HSI颜色空间中的H表示色调,色调H的取值范围为[0°,360°],HSI颜色空间中的S表示饱和度,饱和度S的取值范围为[0,1],HSI颜色空间中的I表示强度,强度I的取值范围为[0,1]。
可选的,如图2所示,步骤101具体包括以下步骤1011至步骤1014:
在步骤1011中,将所述视频的RGB颜色空间转换为所述HSI颜色空间。
其中,RGB颜色空间中的R表示红色,G表示绿色,B表示蓝色。
示例的,对视频中的每个像素点生成一个基于RGB颜色空间的颜色特征向量,然后再将基于RGB颜色空间的颜色特征向量转换为对应的基于HSI颜色空间的特征向量,即得到视频的HSI颜色空间。
在步骤1012中,将所述HSI颜色空间中的色调的值域划分为第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6
其中,H1=[30°,90°),代表红色调区域;H2=[90°,150°),代表品红色调区域;H3=[150°,210°),代表蓝色色调区域;H4=[210°,270°),代表青色色调区域;H5=[270°,330°),代表绿色色调区域;H6=[330°,360°]+[0°,30°),代表黄色色调区域,这样,视频中的任何一个像素点的色调,都会隶属于H1~H6中的某一个子集,即将视频中的像素值按照色调值划分,可以被划分为上述六类,如图2a所示,其为HSI颜色空间的模型示意图。
在步骤1013中,根据所述第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6对所述视频中所有像素点的色调值进行归一化和量化,得到每个所述像素点的色调特征值
Figure GDA0002559527560000111
示例的,将色调值属于第一子集H1的像素点的色调特征值赋值为0,将色调值属于第二子集H2的像素点的色调特征值赋值为0.2,将色调值属于第三子集H3的像素点的色调特征值赋值为0.4,将色调值属于第四子集H4的像素点的色调特征值赋值为0.6,将色调值属于第五子集H5的像素点的色调特征值赋值为0.8,将色调值属于第六子集H6的像素点的色调特征值赋值为1.0。
在步骤1014中,对所述视频中所有像素点的强度值进行量化,得到每个所述像素点的强度特征值
Figure GDA0002559527560000112
其中,H(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的色调特征值,I(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的强度特征值。
示例的,将强度值属于[0,0.2)之间的像素点的强度特征值赋值为0,将强度值属于[0.2,0.4)之间的像素点的强度特征值赋值为0.2,将强度值属于[0.4,0.6)之间的像素点的强度特征值赋值为0.4,将强度值属于[0.6,0.8)之间的像素点的强度特征值赋值为0.6,将强度值属于[0.8,1.0)之间的像素点的强度特征值赋值为0.8,将强度值属于1的像素点的强度特征值赋值为1.0。
在步骤102中,获取所述视频中每个像素点的综合轮廓特征值。
可选的,如图3所示,步骤102具体包括以下步骤1021至步骤1024:
在步骤1021中,基于所述HSI颜色空间的S通道,采用Hough(霍夫)变换计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第一轮廓特征值
Figure GDA0002559527560000121
其中,具体采用Hough变换对第一图像轮廓的计算方法可参考现有技术中的相关内容,在此不再赘述。
在步骤1022中,基于所述HSI颜色空间的H通道,采用Canny(边缘检测)算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第二轮廓特征值
Figure GDA0002559527560000122
其中,具体采用Canny算子对第二图像轮廓的计算方法可参考现有技术中的相关内容,在此不再赘述。
在步骤1023中,基于所述HSI颜色空间的I通道,采用IsotropicSobel(索贝尔)算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第三轮廓特征值
Figure GDA0002559527560000123
其中,具体采用IsotropicSobel算子对第二图像轮廓的计算方法可参考现有技术中的相关内容,在此不再赘述。
在步骤1024中,对所述第一轮廓特征值、所述第二轮廓特征值和所述第三轮廓特征值求交集,生成所述视频在第t帧内坐标(i,j)处的像素点的综合轮廓特征值
Figure GDA0002559527560000124
在步骤103中,获取所述视频中每个像素点的近期动态性特征值。
其中,获取视频中每个像素点的近期动态性特征值是指获取从视频第一帧到预设帧内每个像素点的动态性特征值。
可选的,如图4所示,步骤103具体包括以下步骤1031至步骤1033:
在步骤1031中,对所述视频在强度通道中的每个像素点构建GMM(高斯混合模型,GaussianMixtureModel)模型。
其中,具体构建GMM模型的方法可参考现有技术中的相关内容,在此不再赘述。
在步骤1032中,根据所述GMM模型确定所述视频中每个像素点上发生的显著性强度值变化的次数。
其中,显著性强度值是指像素点的强度值变化幅度超出该像素点上GMM模型所设定的像素强度值的正常变化范围。
在步骤1033中,根据所述视频中每个像素点上发生的显著性强度值变化的次数确定每个所述像素点的近期动态性特征值
Figure GDA0002559527560000131
其中,
Figure GDA0002559527560000132
表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的次数,D(i,j)|t∈[0,1]表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的频率,D(i,j)|t表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点的近期动态性特征值,100≤t-k≤20000。
示例的,以一个帧率为25帧/秒,时长为15分钟的视频为例,如图5所示,该视频时间跨度长,场景颜色信息丰富多样,但是缺少纹理信息,假设设定100秒(即2500帧)的时间跨度为近期,则在近期动态性D(i,j)|t的计算中,将有k=t-2500,D(i,j)|t的数值表征了在过去100秒的时间跨度内,视场中该空间位置上场景变化的频繁程度,D(i,j)|t的数值高,则表示视频中该像素点处的场景剧烈变化很频繁,D(i,j)|t的数值低,则表示视频中该像素点处的较少场景出现剧烈变化。每个像素点近期动态性特征的计算是为了更准确地获得对当前时刻视频帧动态性的描述,从而使得对当前视频帧的视场分割更准确。
需要说明的是,本公开对步骤101、步骤102和步骤103的执行顺序不做限定,可以同时执行步骤101、步骤102和步骤103,也可以先执行步骤101、步骤102和步骤103中的任一步骤。
在步骤104中,根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量。
可选的,将所述每个像素点在HSI颜色空间中的色调特征值和强度特征值、综合轮廓特征值、近期动态性特征值依次排列,生成每个像素点对应的综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)。
其中,f(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的综合视觉特征向量。
在步骤105中,根据所述综合视觉特征向量对所述视频中的视场进行区域分割。
可选的,如图6所示,步骤105具体包括以下步骤1051和步骤1052:
在步骤1051中,对当前视频帧内所有像素点生成的所述综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)进行聚类分析。
其中,聚类分析采用的是Mean-Shift(均值漂移)聚类算法,具体聚类分析方法可参考现有技术中的相关内容,在此不再赘述。
在步骤1052中,将通过所述聚类分析被归为一类的综合视觉特征向量所对应的像素点划分为同一个区域,使得所述视频中的视场区域被分割。
本实施例中,综合利用了视频的像素点的颜色特征、轮廓特征和动态性特征,将HSI颜色空间中的色调的值域进行了划分限定,将像素值动态性的统计时间跨度进行了限定,只计算最近一段时间内的像素点的近期动态性特征值,能够准确反映当前时刻视频帧中的像素值动态性,缩短了生成的综合视觉特征向量的维度,从而减少了聚类分析的运算量,缩短了视频的视场区域分割的时间;可以应用于无纹理场景长视频的视场分割中。
本公开实施例提供一种无纹理场景视频的视场区域分割方法,根据获取的每个像素点在HSI颜色空间中的色调特征值和强度特征值、每个像素点的综合轮廓特征值和近期动态性特征值生成每个像素点对应的综合视觉特征向量。这样,结合综合轮廓特征值的综合视觉特征向量能够对无纹理场景视频的视场进行有效分割,提高了视场区域分割的效果;另外,还将每个像素点在HSI颜色空间中的色调特征值和强度特征值的数量和值域进行了限定,将像素值动态性的统计时间进行了限定,提高了计算像素值动态性的准确性,可以应用于长视频的场景中。
下述为本公开装置实施例,可以用于执行本公开方法实施例。
图7是根据一示例性实施例示出的一种无纹理场景视频的视场区域分割装置70的结构示意图,该装置70可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。如图7所示,该视场区域分割50包括第一获取模块701、第二获取模块702、第三获取模块703、生成模块704和分割模块705。
其中,第一获取模块701,用于获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值。
第二获取模块702,用于获取所述视频中每个像素点的综合轮廓特征值。
第三获取模块703,用于获取所述视频中每个像素点的近期动态性特征值。
生成模块704,用于根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量。
分割模块705,用于根据所述综合视觉特征向量对所述视频中的视场进行区域分割。
在一个实施例中,所述第一获取模块701包括转换子模块、第一划分子模块、第一量化子模块和第二量化子模块。
其中,转换子模块,用于将所述视频的RGB颜色空间转换为所述HSI颜色空间。
第一划分子模块,用于将所述HSI颜色空间中的色调的值域划分为第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6
第一量化子模块,用于根据所述第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6对所述视频中所有像素点的色调值进行归一化和量化,得到每个所述像素点的色调特征值
Figure GDA0002559527560000161
第二量化子模块,用于对所述视频中所有像素点的强度值进行量化,得到每个所述像素点的强度特征值
Figure GDA0002559527560000162
其中,H(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的色调特征值,I(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的强度特征值,H1=[30°,90°),H2=[90°,150°),H3=[150°,210°),H4=[210°,270°),H5=[270°,330°),H6=[330°,360°]+[0°,30°)。
在一个实施例中,所述第二获取模块702包括第一确定子模块、第二确定子模块、第三确定子模块和第一生成子模块。
其中,所述第一确定子模块,用于基于所述HSI颜色空间的S通道,采用Hough变换计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第一轮廓特征值
Figure GDA0002559527560000171
所述第二确定子模块,用于基于所述HSI颜色空间的H通道,采用Canny算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第二轮廓特征值
Figure GDA0002559527560000172
所述第三确定子模块,用于基于所述HSI颜色空间的I通道,采用IsotropicSobel算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第三轮廓特征值
Figure GDA0002559527560000173
所述第一生成子模块,用于对所述第一轮廓特征值、所述第二轮廓特征值和所述第三轮廓特征值求交集,生成所述视频在第t帧内坐标(i,j)处的像素点的综合轮廓特征值
Figure GDA0002559527560000174
在一个实施例中,所述第三获取模块703包括构建子模块、第四确定子模块和第五确定子模块。
其中,所述构建子模块,用于对所述视频在强度通道中的每个像素点构建GMM模型。
所述第四确定子模块,用于根据所述GMM模型确定所述视频中每个像素点上发生的显著性强度值变化的次数。
所述第五确定子模块,用于根据所述视频中每个像素点上发生的显著性强度值变化的次数确定每个所述像素点的近期动态性特征值
Figure GDA0002559527560000181
其中,
Figure GDA0002559527560000182
表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的次数,D(i,j)|t表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点的近期动态性特征值,100≤t-k≤20000。
在一个实施例中,所述生成模块704包括第二生成子模块,所述分割模块705包括分析子模块和第二划分子模块。
其中,所述第二生成子模块,用于将所述每个像素点在HSI颜色空间中的色调特征值和强度特征值、综合轮廓特征值、近期动态性特征值依次排列,生成每个像素点对应的综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t);其中,f(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的综合视觉特征向量。
所述分析子模块,用于对当前视频帧内所有像素点生成的所述综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)进行聚类分析。
所述第二划分子模块,用于将通过所述聚类分析被归为一类的综合视觉特征向量所对应的像素点划分为同一个区域,使得所述视频中的视场区域被分割。
本公开实施例提供一种无纹理场景视频的视场区域分割装置,根据获取的每个像素点在HSI颜色空间中的色调特征值和强度特征值、每个像素点的综合轮廓特征值和近期动态性特征值生成每个像素点对应的综合视觉特征向量。这样,结合综合轮廓特征值的综合视觉特征向量能够对无纹理场景视频的视场进行有效分割,提高了视场区域分割的效果。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (4)

1.一种无纹理场景视频的视场区域分割方法,其特征在于,包括:
获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值;
获取所述视频中每个像素点的综合轮廓特征值;
获取所述视频中每个像素点的近期动态性特征值;
根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量;
根据所述综合视觉特征向量对所述视频中的视场进行区域分割;
所述获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值包括:
将所述视频的RGB颜色空间转换为所述HSI颜色空间;
将所述HSI颜色空间中的色调的值域划分为第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6
根据所述第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6对所述视频中所有像素点的色调值进行归一化和量化,得到每个所述像素点的色调特征值
Figure FDA0002559527550000011
对所述视频中所有像素点的强度值进行量化,得到每个所述像素点的强度特征值
Figure FDA0002559527550000012
其中,H(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的色调特征值,I(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的强度特征值,H1=[30°,90°),H2=[90°,150°),H3=[150°,210°),H4=[210°,270°),H5=[270°,330°),H6=[330°,360°]+[0°,30°);
所述获取所述视频中每个像素点的综合轮廓特征值包括:
基于所述HSI颜色空间的S通道,采用Hough变换计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第一轮廓特征值
Figure FDA0002559527550000021
基于所述HSI颜色空间的H通道,采用Canny算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第二轮廓特征值
Figure FDA0002559527550000022
基于所述HSI颜色空间的I通道,采用Isotropic Sobel算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第三轮廓特征值
Figure FDA0002559527550000023
对所述第一轮廓特征值、所述第二轮廓特征值和所述第三轮廓特征值求交集,生成所述视频在第t帧内坐标(i,j)处的像素点的综合轮廓特征值
Figure FDA0002559527550000024
所述获取所述视频中每个像素点的近期动态性特征值包括:
对所述视频在强度通道中的每个像素点构建GMM模型;
根据所述GMM模型确定所述视频中每个像素点上发生的显著性强度值变化的次数;
根据所述视频中每个像素点上发生的显著性强度值变化的次数确定每个所述像素点的近期动态性特征值
Figure FDA0002559527550000031
其中,
Figure FDA0002559527550000032
表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的次数,D(i,j)|t表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点的近期动态性特征值,100≤t-k≤20000;
其中,显著性强度值变化 是指像素点的强度值变化幅度超出该像素点上GMM模型所设定的像素强度值的正常变化范围。
2.根据权利要求1所述的方法,其特征在于,所述根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量包括:
将所述每个像素点在HSI颜色空间中的色调特征值和强度特征值、综合轮廓特征值、近期动态性特征值依次排列,生成每个像素点对应的综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t);其中,f(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的综合视觉特征向量;
所述根据所述综合视觉特征向量对所述视频中的视场进行区域分割包括:
对当前视频帧内所有像素点生成的所述综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)进行聚类分析;
将通过所述聚类分析被归为一类的综合视觉特征向量所对应的像素点划分为同一个区域,使得所述视频中的视场区域被分割。
3.一种无纹理场景视频的视场区域分割装置,其特征在于,包括:
第一获取模块,用于获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值;
第二获取模块,用于获取所述视频中每个像素点的综合轮廓特征值;
第三获取模块,用于获取所述视频中每个像素点的近期动态性特征值;
生成模块,用于根据所述每个像素点的综合轮廓特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量;
分割模块,用于根据所述综合视觉特征向量对所述视频中的视场进行区域分割;
所述第一获取模块包括转换子模块、第一划分子模块、第一量化子模块和第二量化子模块;
转换子模块,用于将所述视频的RGB颜色空间转换为所述HSI颜色空间;
第一划分子模块,用于将所述HSI颜色空间中的色调的值域划分为第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6
第一量化子模块,用于根据所述第一子集H1、第二子集H2、第三子集H3、第四子集H4、第五子集H5和第六子集H6对所述视频中所有像素点的色调值进行归一化和量化,得到每个所述像素点的色调特征值
Figure FDA0002559527550000041
第二量化子模块,用于对所述视频中所有像素点的强度值进行量化,得到每个所述像素点的强度特征值
Figure FDA0002559527550000042
其中,H(i,j)t表示所述视频在第t帧时在坐标(i,j)处的像素点的色调特征值,I(i,j)t表示所述视频在第t帧时在坐标(i,j)处的像素点的强度特征值,H1=[30°,90°),H2=[90°,150°),H3=[150°,210°),H4=[210°,270°),H5=[270°,330°),H6=[330°,360°]+[0°,30°);
所述第二获取模块包括第一确定子模块、第二确定子模块、第三确定子模块和第一生成子模块;
所述第一确定子模块,用于基于所述HSI颜色空间的S通道,采用Hough变换计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第一轮廓特征值
Figure FDA0002559527550000051
所述第二确定子模块,用于基于所述HSI颜色空间的H通道,采用Canny算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第二轮廓特征值
Figure FDA0002559527550000052
所述第三确定子模块,用于基于所述HSI颜色空间的I通道,采用Isotropic Sobel算子计算所述视频第t帧内的图像轮廓,得到第t帧内坐标(i,j)处的像素点的第三轮廓特征值
Figure FDA0002559527550000053
所述第一生成子模块,用于对所述第一轮廓特征值、所述第二轮廓特征值和所述第三轮廓特征值求交集,生成所述视频在第t帧内坐标(i,j)处的像素点的综合轮廓特征值
Figure FDA0002559527550000054
所述第三获取模块包括构建子模块、第四确定子模块和第五确定子模块;
所述构建子模块,用于对所述视频在强度通道中的每个像素点构建GMM模型;
所述第四确定子模块,用于根据所述GMM模型确定所述视频中每个像素点上发生的显著性强度值变化的次数;
所述第五确定子模块,用于根据所述视频中每个像素点上发生的显著性强度值变化的次数确定每个所述像素点的近期动态性特征值
Figure FDA0002559527550000061
其中,
Figure FDA0002559527550000062
表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点上发生的显著性强度值变化的次数,D(i,j)|t表示所述视频在强度通道上从第k帧到第t帧的时间段内在坐标(i,j)处的像素点的近期动态性特征值,100≤t-k≤20000;
其中,显著性强度值变化 是指像素点的强度值变化幅度超出该像素点上GMM模型所设定的像素强度值的正常变化范围。
4.根据权利要求3所述的装置,其特征在于,所述生成模块包括第二生成子模块,所述分割模块包括分析子模块和第二划分子模块;
所述第二生成子模块,用于将所述每个像素点在HSI颜色空间中的色调特征值和强度特征值、综合轮廓特征值、近期动态性特征值依次排列,生成每个像素点对应的综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t);其中,f(i,j)|t表示所述视频在第t帧时在坐标(i,j)处的像素点的综合视觉特征向量;
所述分析子模块,用于对当前视频帧内所有像素点生成的所述综合视觉特征向量f(i,j)|t=(H(i,j)|t,I(i,j)|t,S(i,j)|t,D(i,j)|t)进行聚类分析;
所述第二划分子模块,用于将通过所述聚类分析被归为一类的综合视觉特征向量所对应的像素点划分为同一个区域,使得所述视频中的视场区域被分割。
CN201911033542.8A 2019-10-28 2019-10-28 无纹理场景视频的视场区域分割方法及装置 Active CN110826446B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911033542.8A CN110826446B (zh) 2019-10-28 2019-10-28 无纹理场景视频的视场区域分割方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911033542.8A CN110826446B (zh) 2019-10-28 2019-10-28 无纹理场景视频的视场区域分割方法及装置

Publications (2)

Publication Number Publication Date
CN110826446A CN110826446A (zh) 2020-02-21
CN110826446B true CN110826446B (zh) 2020-08-21

Family

ID=69551139

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911033542.8A Active CN110826446B (zh) 2019-10-28 2019-10-28 无纹理场景视频的视场区域分割方法及装置

Country Status (1)

Country Link
CN (1) CN110826446B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101551823A (zh) * 2009-04-20 2009-10-07 浙江师范大学 一种综合多特征图像检索方法
CN102289680A (zh) * 2011-09-02 2011-12-21 北京新媒传信科技有限公司 图像中肤色区域的分割方法和装置
CN102663391A (zh) * 2012-02-27 2012-09-12 安科智慧城市技术(中国)有限公司 一种图像的多特征提取与融合方法及系统
CN105741322A (zh) * 2016-02-01 2016-07-06 衢州学院 一种基于视频特征层融合的视场区域分割方法
CN107155100A (zh) * 2017-06-20 2017-09-12 国家电网公司信息通信分公司 一种基于图像的立体匹配方法及装置
CN108053410A (zh) * 2017-12-11 2018-05-18 厦门美图之家科技有限公司 运动目标分割方法及装置
CN108280409A (zh) * 2018-01-09 2018-07-13 浙江工业大学 一种基于多特征融合的大空间视频烟雾检测方法
CN108829711A (zh) * 2018-05-04 2018-11-16 上海得见计算机科技有限公司 一种基于多特征融合的图像检索方法
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101551823A (zh) * 2009-04-20 2009-10-07 浙江师范大学 一种综合多特征图像检索方法
CN102289680A (zh) * 2011-09-02 2011-12-21 北京新媒传信科技有限公司 图像中肤色区域的分割方法和装置
CN102663391A (zh) * 2012-02-27 2012-09-12 安科智慧城市技术(中国)有限公司 一种图像的多特征提取与融合方法及系统
CN105741322A (zh) * 2016-02-01 2016-07-06 衢州学院 一种基于视频特征层融合的视场区域分割方法
CN107155100A (zh) * 2017-06-20 2017-09-12 国家电网公司信息通信分公司 一种基于图像的立体匹配方法及装置
CN108053410A (zh) * 2017-12-11 2018-05-18 厦门美图之家科技有限公司 运动目标分割方法及装置
CN108280409A (zh) * 2018-01-09 2018-07-13 浙江工业大学 一种基于多特征融合的大空间视频烟雾检测方法
CN108829711A (zh) * 2018-05-04 2018-11-16 上海得见计算机科技有限公司 一种基于多特征融合的图像检索方法
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Multi-feature Fusion Method Applied in Texture Image Segmentation";Hui Du 等;《2018 14th International Conference on Computational Intelligence and Security (CIS)》;20181119;第1-5页 *
"基于多特征融合的花卉图像检索";柯逍 等;《计算机科学》;20101115;第37卷(第11期);第282-286页 *

Also Published As

Publication number Publication date
CN110826446A (zh) 2020-02-21

Similar Documents

Publication Publication Date Title
Lee et al. Towards a full-reference quality assessment for color images using directional statistics
US9426449B2 (en) Depth map generation from a monoscopic image based on combined depth cues
CN103699532B (zh) 图像颜色检索方法和系统
US8805065B2 (en) Image processing apparatus and image processing method
Seo et al. Novel PCA-based color-to-gray image conversion
An et al. CBIR based on adaptive segmentation of HSV color space
US20160217575A1 (en) Model-less background estimation for foreground detection in video sequences
CN104951742A (zh) 敏感视频的检测方法和系统
Lee et al. Color image enhancement using histogram equalization method without changing hue and saturation
Jose et al. A novel method for color face recognition using KNN classifier
CN113963041A (zh) 一种图像纹理识别方法及系统
CN105426816A (zh) 一种处理人脸图像的方法及装置
CN111950563A (zh) 一种图像匹配方法、装置以及计算机可读存储介质
Zangana et al. A new algorithm for human face detection using skin color tone
CN108647605B (zh) 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
Zhang et al. A novel color space based on RGB color barycenter
CN110796073B (zh) 一种无纹理场景视频中对特定目标区域的侦测方法和装置
CN110826446B (zh) 无纹理场景视频的视场区域分割方法及装置
US20030179824A1 (en) Hierarchical video object segmentation based on MPEG standard
Tan et al. Gesture segmentation based on YCb'Cr'color space ellipse fitting skin color modeling
CN108537771B (zh) 基于hsv的mc-siltp运动目标检测方法
Lee et al. Towards anovel perceptual color difference metric using circular processing of hue components
CN114820707A (zh) 一种用于摄像头目标自动追踪的计算方法
CN109558506B (zh) 一种基于颜色聚合向量的图像检索方法
CN113095147A (zh) 皮肤区域检测方法、系统、图像处理终端和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant