CN110807783A - 一种面向无彩色长视频的高效视场区域分割方法及装置 - Google Patents
一种面向无彩色长视频的高效视场区域分割方法及装置 Download PDFInfo
- Publication number
- CN110807783A CN110807783A CN201911033540.9A CN201911033540A CN110807783A CN 110807783 A CN110807783 A CN 110807783A CN 201911033540 A CN201911033540 A CN 201911033540A CN 110807783 A CN110807783 A CN 110807783A
- Authority
- CN
- China
- Prior art keywords
- video
- pixel point
- characteristic value
- value
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向无彩色长视频的高效视场区域分割方法及装置,用以用于对无彩色长视频进行高效视场区域分割。所述方法包括:计算视频中每个像素点的复合纹理特征值;计算视频中每个像素点的综合轮廓特征值;计算视频中每个像素点的近期动态性特征值;将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量;对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。该方法适用于处理时间跨度大的无彩色长视频,计算效率高、准确性高。
Description
技术领域
本发明涉及视频处理技术领域,特别涉及一种面向无彩色长视频的高效视场区域分割方法及装置。
背景技术
视觉传感器目前在我们生产和生活的诸多领域中扮演了重要角色,对智能视频分析技术的需求也相应地在快速增长。对视频中的视场进行区域分割是智能视频监控中的一项关键底层技术,视场区域分割结果的好坏将直接决定上层的场景异常变化检测,以及对场景内目标物体追踪、识别的可靠性与准确性。
目前,常用的图像区域分割方法如基于颜色特征的方法或基于纹理特征的方法等均未考虑视频的动态性特征和视频内容的时变性。为解决该问题,虽然本领域中已有提出综合利用了视频像素点时间维度上的动态性特征以及空间维度上的颜色特征和纹理特征来进行视频的视场区域分割的方法。但是,现实应用中存在大量无彩色的视频数据,无彩色视频的生成主要有两大来源,一个是黑白单通道相机,另一个是红外相机,这两类相机产生的视频都只有亮度信息而无彩色信息,即视频中根本没有颜色特征可以被提取利用,因此面对无彩色视频时,上述这种方法就失效了。此外,这种方法中计算的像素点的动态性特征是整个视频时间跨度内的平均值,这只适用于短时长的视频,不适合处理时间跨度大的长视频,若用于处理时间跨度大的长视频,则该方法运算量过大、计算效率低,将该方法用于长视频的分析还可以会导致结果准确性降低。
发明内容
本发明提供一种面向无彩色长视频的高效视场区域分割方法及装置,用于解决现有的综合利用视频像素点的动态性特征以及颜色特征和纹理特征来进行视频的视场区域分割的方法不适用于分析无彩色长视频的问题,本发明不仅适用于处理时间跨度大的无彩色长视频,还能够减少视场区域分割时的运算量,提高计算效率和结果准确性。
本发明提供一种面向无彩色长视频的高效视场区域分割方法,包括以下步骤:
计算视频中每个像素点的复合纹理特征值;
计算视频中每个像素点的综合轮廓特征值;
计算视频中每个像素点的近期动态性特征值;
将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量;
对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。
在一个实施例中,所述复合纹理特征值、综合轮廓特征值、近期动态性特征值的维度均为1且值域在预定范围内。
在一个实施例中,所述计算视频中每个像素点的综合轮廓特征值,包括:
使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值;
使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值;
使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值;
通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求交集,生成视频第t帧内每个像素点的第一类综合轮廓特征值;
通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求并集,生成视频第t帧内每个像素点的第二类综合轮廓特征值;
其中,所述将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量,包括:将视频中每个像素点的亮度特征值、复合纹理特征值、两类综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量。
其中,第t帧内像素点(i,j)的第一轮廓特征值shough(i,j)|t的计算公式如下:
第t帧内像素点(i,j)的第二轮廓特征值scanny(i,j)|t的计算公式如下:
第t帧内像素点(i,j)的第三轮廓特征值ssobel(i,j)|t的计算公式如下:
第t帧内每个像素点的第一类综合轮廓特征值S1(i,j)|t的计算公式如下:
第t帧内每个像素点的第二类综合轮廓特征值S2(i,j)|t的计算公式如下:
在一个实施例中,所述计算视频中每个像素点的复合纹理特征值,包括:
使用原始LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;
使用圆形LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;
根据预定第一加权系数和第二加权系数,计算所述视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t与第二纹理特征值W2(i,j)|t的加权平均值,得到视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t;
对视频第t帧内所有像素点的复合纹理特征值进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
在一个实施例中,所述计算视频中每个像素点的近期动态性特征值,包括:
对视频中的每一个像素点构建混合高斯背景模型;
统计视频中每一个像素点上发生的显著性强度值变化的次数;显著性强度值变化定义为:像素点的强度值变化幅度超出该像素点上背景模型所设定的像素强度值正常变化范围;
根据预定量化规则对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值;
其中,代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的次数;D(i,j)|t代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的频率,即像素点(i,j)的近期动态性,100≤t-k≤20000;所述量化规则中量化后的像素点的近期动态性的值域为[0,1]。
本发明还提供一种面向无彩色长视频的高效视场区域分割装置,包括:
复合纹理特征值计算模块,用于计算视频中每个像素点的复合纹理特征值;
综合轮廓特征值计算模块,用于计算视频中每个像素点的综合轮廓特征值;
近期动态性特征值计算模块,用于计算视频中每个像素点的近期动态性特征值;
融合模块,用于将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量;
分割模块,用于对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。
在一个实施例中,所述复合纹理特征值计算模块计算得到的视频中每个像素点的复合纹理特征值的维度均为1且值域在预定范围内;
所述综合轮廓特征值计算模块计算得到的视频中每个像素点的综合轮廓特征值的维度均为1且值域在所述预定范围内;
所述近期动态性特征值计算模块计算得到的视频中每个像素点的近期动态性特征值的维度均为1且值域在所述预定范围内。
在一个实施例中,所述综合轮廓特征值计算模块,包括:
第一轮廓特征值计算单元,用于使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值;其中,第t帧内像素点(i,j)的第一轮廓特征值shough(i,j)|t的计算公式如下:
第二轮廓特征值计算单元,用于使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值;其中,第t帧内像素点(i,j)的第二轮廓特征值scanny(i,j)|t的计算公式如下:
第三轮廓特征值计算单元,用于使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值;其中,第t帧内像素点(i,j)的第三轮廓特征值ssobel(i,j)|t的计算公式如下:
第一类综合轮廓特征值生成单元,用于通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求交集,生成视频第t帧内每个像素点的第一类综合轮廓特征值;其中,第t帧内每个像素点的第一类综合轮廓特征值S1(i,j)|t的计算公式如下:
第二类综合轮廓特征值生成单元,用于通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求并集,生成视频第t帧内每个像素点的第二类综合轮廓特征值;其中,第t帧内每个像素点的第二类综合轮廓特征值S2(i,j)|t的计算公式如下:
其中,所述融合模块,具体用于将视频中每个像素点的亮度特征值、复合纹理特征值、两类综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量。
在一个实施例中,所述复合纹理特征值计算模块,包括:
第一纹理特征值计算单元,用于使用原始LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;
第二纹理特征值计算单元,用于使用圆形LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;
复合纹理特征值计算单元,用于根据预定第一加权系数和第二加权系数,计算所述视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t与第二纹理特征值W2(i,j)|t的加权平均值,得到视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t;
归一化单元,用于对视频第t帧内所有像素点的复合纹理特征值进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
在一个实施例中,所述近期动态性特征值计算模块,包括:
构建单元,用于对视频中的每一个像素点构建混合高斯背景模型;
统计单元,用于统计视频中每一个像素点上发生的显著性强度值变化的次数;显著性强度值变化定义为:像素点的强度值变化幅度超出该像素点上背景模型所设定的像素强度值正常变化范围;
量化单元,用于根据预定量化规则对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值;
其中,代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的次数;D(i,j)|t代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的频率,即像素点(i,j)的近期动态性,100≤t-k≤20000;所述量化规则中量化后的像素点的近期动态性的值域为[0,1]。
现有的对彩色视频进行视场区域分割的方法中,仅颜色特征就占了6个维度,向量维度越大计算复杂度越高,耗时越长。本发明提供的面向无彩色长视频的高效视场区域分割方法和装置,综合利用了视频像素点的亮度特征、纹理特征、轮廓特征和近期动态性特征,通过使用亮度特征来代替传统方法中的颜色特征,可以极大地减少特征层融合后的特征向量维度,降低计算复杂度提高运算效率。此外,该方法通过使用轮廓特征,能够补偿无彩色特征分割的准确性。再一方面,该方法在计算动态性特征时对像素点动态性的统计时间跨度进行了限定,计算量小,分割效率高,分割准确性高。此外,本发明还可对特征值的维度及值域进行约束,能够显著地减少特征层融合后的向量维度,能够进一步减少计算量,提高运算效率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种面向无彩色长视频的高效视场区域分割方法的流程图;
图2为图1中步骤S1的方法流程图;
图3为图1中步骤S2的方法流程图;
图4为图1中步骤S3的方法流程图;
图5为本发明实施例中一个待分析红外视频的截图;
图6为本发明实施例中采用的原始LBP算子的示意图;
图7为本发明实施例中采用的圆形LBP算子的示意图;
图8为本发明实施例中一种面向无彩色长视频的高效视场区域分割装置的结构示意图;
图9为本发明一种综合轮廓特征值计算模块12的结构示意图;
图10为本发明一种复合纹理特征值计算模块11的结构示意图;
图11为本发明一种近期动态性特征值计算模块13的结构示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1为本发明实施例中一种面向无彩色长视频的高效视场区域分割方法的流程图。如图1所示,该方法包括以下步骤S1-S4:
S1:计算视频中每个像素点的复合纹理特征值;
其中,每个像素点的复合纹理特征值由该像素点的一个或多个纹理特征值计算得到。在一可选实施例中,将复合纹理特征值的维度约束为1,并将复合纹理特征值的值域约束在预定范围内。优选地,设定所述预定范围为[0,1]。
S2:计算视频中每个像素点的综合轮廓特征值;
其中,所述每个像素点的综合轮廓特征值由该像素点的一个或多个轮廓特征值计算得到。在一可选实施例中,将综合轮廓特征值的维度约束为1,并将综合轮廓特征值的值域约束在所述预定范围内。
优选地,此步骤中计算视频中每个像素点的两类综合轮廓特征值。
S3:计算视频中每个像素点的近期动态性特征值;
本实施例中,发明人发现视频像素点的长期动态性的平均值反而会影响分析的准确性,因此对于时间跨度长的长视频,本发明中只计算最近一段时间内的像素点的动态性特征的平均值。具体地址,每帧视频的每个像素点的近期动态性特征值由当前帧及其之前预定数量帧计算得到。
在一可选实施例中,将近期动态性特征值的维度约束为1,并将近期动态性特征值的值域也约束在所述预定范围内。
S4:将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量。
具体地,对于每个像素点,可将该像素点的亮度特征值、复合纹理特征值、综合轮廓特征值、近期动态性特征值分别作为该像素点的综合视觉特征向量的不同列元素,例如:将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值、近期动态性特征值分别作为1-4列元素,得到该像素点的综合视觉特征向量。
进一步地,若步骤S2中计算了计算视频中每个像素点的两类综合轮廓特征值,则步骤S4中将视频中每个像素点的亮度特征值、复合纹理特征值、第一类综合轮廓特征值、第二类综合轮廓特征值、近期动态性特征值分别作为1-5列元素,得到该像素点的综合视觉特征向量。
S5:对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。
本实施例提供的技术方案,综合利用了视频像素点的亮度特征、纹理特征、轮廓特征和近期动态性特征,通过使用亮度特征来代替传统方法中的颜色特征,可以极大地减少特征层融合后的特征向量维度,降低计算复杂度提高运算效率。此外,该方法通过使用轮廓特征,能够补偿无彩色特征分割的准确性。再一方面,该方法在计算动态性特征时对像素点动态性的统计时间跨度进行了限定,计算量小,分割效率高,分割准确性高。此外,本发明还可对特征值的维度及值域进行约束,能够显著地减少特征层融合后的向量维度,能够进一步减少计算量,提高运算效率。
在一可选实施例中,如图2所示,步骤S1可以包括以下步骤S101-S104:
S101:使用原始LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;
S102:使用圆形LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;
S103:根据预定第一加权系数和第二加权系数,计算所述视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t与第二纹理特征值W2(i,j)|t的加权平均值,得到视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t;
优选地,第一加权系数为0.6,第二加权系数为0.4时能够具有更为准确的分割结果,视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t根据以下公式(1)进行计算:
W(i,j)|t=0.6×W1(i,j)|t+0.4×W2(i,j)|t (1)
S104:对视频第t帧内所有像素点的复合纹理特征值进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
其中,归一化时使W(i,j)|t的值域为[0,1]。本步骤中,归一化后,采用视频第t帧内各像素点的归一化的复合纹理特征值来代替上一步骤中计算的视频第t帧内所有像素点的实际复合纹理特征值,进行后期的特征融合计算,便于提升聚类的效率。
图2所示实施例,通过将第一纹理特征值和第二纹理特征值进行加权求和,不仅将复合纹理特征值的维度限定为1,还限定了复合纹理特征值的值域在预定范围[0,1]内,能够在后期融合特征值时显著减少了特征层融合后的向量维度。
在一可选实施例中,如图3所示,步骤S2可以包括以下步骤S201-S205:
S201:使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值shough(i,j)|t;
其中,第t帧内像素点(i,j)的第一轮廓特征值shough(i,j)|t的计算公式如下:
S202:使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值sanny(i,j)|t;
其中,第t帧内像素点(i,j)的第二轮廓特征值scanny(i,j)|t的计算公式如下:
S203:使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值ssobel(i,j)|t;
其中,第t帧内像素点(i,j)的第三轮廓特征值ssobel(i,j)|t的计算公式如下:
S204:通过对所述视频第t帧内每个像素点的第一轮廓特征值shough(i,j)|t、第二轮廓特征值sanny(i,j)|t、第三轮廓特征值ssobel(i,j)|t求交集,生成视频第t帧内每个像素点的第一类综合轮廓特征值S1(i,j)|t;
其中,第t帧内像素点(i,j)的第一类综合轮廓特征值S1(i,j)|t的计算公式如下:
S205:通过对所述视频第t帧内每个像素点的第一轮廓特征值shough(i,j)|t、第二轮廓特征值scanny(i,j)|t、第三轮廓特征值ssobel(i,j)|t求并集,生成视频第t帧内每个像素点的第二类综合轮廓特征值S2(i,j)|t;
其中,第t帧内像素点(i,j)的第二类综合轮廓特征值S2(i,j)|t的计算公式如下:
图3所示实施例中,计算三类轮廓特征并将每类综合轮廓特征值的维度约束为1(每类综合轮廓特征值为0或1),且其值域也约束为[0,1],将三类轮廓特征通过与或运算分别总合成第一类、第二类综合轮廓特征,相对于直接使用三类轮廓特征进行特征融合的方法,后期融合的特征向量维度减少了1维,不仅能够减少后期视场分割的计算量,而且提高了轮廓提取结果的可靠性。
在一可选实施例中,如图4所示,步骤S3可以包括以下步骤S301-S304:
S301:对视频中的每一个像素点构建混合高斯背景模型。
S302:统计视频中每一个像素点上发生的显著性强度值变化的次数;
其中,显著性强度值变化定义为:像素点的强度值变化幅度超出该像素点上背景模型所设定的像素强度值正常变化范围。
S303:计算视频中每一个像素点的近期动态性;
其中,像素点(i,j)的近期动态性计算公式为:
其中,代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的次数;D(i,j)|t代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的频率,即像素点(i,j)的近期动态性,100≤t-k≤20000。
S304:根据预定量化规则对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值。
其中,所述量化规则中规定量化后的像素点的近期动态性的值域为[0,1]。
优选地,采用的量化规则可以如下公式(8)所示:
图4所示实施例中,将动态性量化成三个值“0、0.5、1”,实际上就是将动态性按照强度划分为“低、中、高”三个等级,通过对像素点的近期动态性的进一步量化,能够进一步简化后期特征融合时的计算。
下面采用一个具体的实施例,对图1~图4中任一个所示方法实施例的技术方案进行详细说明。
本实施例以一个分辨率为1280*720,帧率为30帧/秒,时长为20分钟的红外视频为例,视频截图见图5。该视频时间跨度长,场景纹理和轮廓信息丰富多样,但是缺少彩色信息。采用本发明提供的方法,按照以下步骤(1)-(5)对该视频可以进行高效分割:
(1)计算视频中每个像素点的复合纹理特征值。具体地:首先,使用如图6所示的原始LBP算子计算视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;其次,使用如图7所示的圆形LBP算子计算视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;然后,求视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t:最后,对视频第t帧内所有像素点的复合纹理特征值W(i,j)|t进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
(2)计算视频中每个像素点的两类综合轮廓特征值。具体地:首先,使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值shough(i,j)|t;然后,使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值scanny(i,j)|t;其次,使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值ssobel(i,j)|t;再次,根据公式(5)求得视频第t帧内像素点(i,j)的第一类综合轮廓特征值S1(i,j)|t,根据公式(6)求得视频第t帧内像素点(i,j)的第二类综合轮廓特征值S2(i,j)|t。
(3)计算视频中每个像素点的近期动态性特征值。具体地:首先对视频每一个像素点构建混合高斯背景模型;然后统计视频中每一个像素点上发生的显著性强度值变化的次数;最后,根据公式(7)计算视频中每一个像素点的近期动态性,图1所示的视频的帧率为30帧/秒,设定100秒(即3000帧)的时间跨度为近期,则在近期动态性D(i,j)|t的计算中,将有k=t-3000。D(i,j)|t的数值表征了在过去的100秒内,视场中该空间位置上场景变化的频繁程度,D(i,j)|t的数值高即表示视频中该像素点处的场景剧烈变化很频繁,D(i,j)|t的数值低则表示视频中该像素点处的较少出现场景剧烈变化;最后,根据公司(8)对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值。
(4)将视频中每个像素点的亮度特征值I(i,j)|t、归一化的复合纹理特征值W(i,j)|t、第一类综合轮廓特征值S1(i,j)|t、第二类综合轮廓特征值S2(i,j)|t和量化后的近期动态性特征值D(i,j)|t依次排列,生成该像素点的综合视觉特征向量f(i,j)|t,如下:
f(i,j)|t=(I(i,j)|t,W(i,j)|t,S1(i,j)|t,S2(i,j)|t,D(i,j)|t);
(5)对每幅视频帧t中所有像素点的综合视觉特征向量f(i,j)|t进行Mean-Shift聚类,将同类像素点归入同一区域从而完成视场区域分割。
对应于上述实施例提供的一种面向无彩色长视频的高效视场区域分割方法,本发明实施例还提供一种面向无彩色长视频的高效视场区域分割装置,如图8所示,包括:
复合纹理特征值计算模块11,用于计算视频中每个像素点的复合纹理特征值;
综合轮廓特征值计算模块12,用于计算视频中每个像素点的综合轮廓特征值;
近期动态性特征值计算模块13,用于计算视频中每个像素点的近期动态性特征值;
融合模块14,用于将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量;
分割模块15,用于对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
在一可选实施例中,复合纹理特征值计算模块11计算得到的视频中每个像素点的复合纹理特征值的维度均为1且值域在预定范围内;综合轮廓特征值计算模块12计算得到的视频中每个像素点的综合轮廓特征值的维度均为1且值域在所述预定范围内;近期动态性特征值计算模块13计算得到的视频中每个像素点的近期动态性特征值的维度均为1且值域在所述预定范围内。
在一可选实施例中,综合轮廓特征值计算模块12,具体用于计算计算视频中每个像素点的两类综合轮廓特征值;融合模块14,具体用于将视频中每个像素点的亮度特征值、复合纹理特征值、两类综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量。
图9为本发明一种综合轮廓特征值计算模块12的结构示意图,如图9所示,综合轮廓特征值计算模块12可以包括:
第一轮廓特征值计算单元121,用于使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值;其中,第t帧内像素点(i,j)的第一轮廓特征值shough(i,j)|t的计算公式如前文的公式(2)所示,此处不再赘述;
第二轮廓特征值计算单元122,用于使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值;其中,第t帧内像素点(i,j)的第二轮廓特征值scanny(i,j)|t的计算公式如前文的公式(3)所示,此处不再赘述:
第三轮廓特征值计算单元123,用于使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值;其中,第t帧内像素点(i,j)的第三轮廓特征值ssobel(i,j)|t的计算公式如前文的公式(4)所示,此处不再赘述;
第一类综合轮廓特征值生成单元124,用于通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求交集,生成视频第t帧内每个像素点的第一类综合轮廓特征值;其中,第t帧内每个像素点的第一类综合轮廓特征值S1(i,j)|t的计算公式如前文的公式(5)所示,此处不再赘述;
第二类综合轮廓特征值生成单元125,用于通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求并集,生成视频第t帧内每个像素点的第二类综合轮廓特征值;其中,第t帧内每个像素点的第二类综合轮廓特征值S2(i,j)|t的计算公式如前文的公式(6)所示,此处不再赘述。
图9装置,可以用于执行图2所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图10为本发明一种复合纹理特征值计算模块11的结构示意图,如图10所示,复合纹理特征值计算模块11可以包括:
第一纹理特征值计算单元111,用于使用原始LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;
第二纹理特征值计算单元112,用于使用圆形LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;
复合纹理特征值计算单元113,用于根据预定第一加权系数和第二加权系数,计算所述视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t与第二纹理特征值W2(i,j)|t的加权平均值,得到视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t;复合纹理特征值可优选采用前文的公式(1)计算,此处不再赘述;
归一化单元114,用于对视频第t帧内所有像素点的复合纹理特征值进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
图10装置,可以用于执行图3所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图11为本发明一种近期动态性特征值计算模块13的结构示意图,如图11所示,近期动态性特征值计算模块13可以包括:
构建单元131,用于对视频中的每一个像素点构建混合高斯背景模型;
统计单元132,用于统计视频中每一个像素点上发生的显著性强度值变化的次数;显著性强度值变化定义为:像素点的强度值变化幅度超出该像素点上背景模型所设定的像素强度值正常变化范围;
近期动态性计算单元133,用于计算视频中每一个像素点的近期动态性,所述像素点的近期动态性计算公式可见前文的公式(7),此处不再赘述;
量化单元134,用于根据预定量化规则对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值;优选地,量化规则可见前文的公式(8),此处不再赘述。
图11装置,可以用于执行图4所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种面向无彩色长视频的高效视场区域分割方法,其特征在于,包括以下步骤:
计算视频中每个像素点的复合纹理特征值;
计算视频中每个像素点的综合轮廓特征值;
计算视频中每个像素点的近期动态性特征值;
将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量;
对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。
2.如权利要求1所述的面向无彩色长视频的高效视场区域分割方法,其特征在于,所述复合纹理特征值、综合轮廓特征值、近期动态性特征值的维度均为1且值域在预定范围内。
3.如权利要求1或2所述的面向无彩色长视频的高效视场区域分割方法,其特征在于,所述计算视频中每个像素点的综合轮廓特征值,包括:
使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值;
使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值;
使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值;
通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求交集,生成视频第t帧内每个像素点的第一类综合轮廓特征值;
通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求并集,生成视频第t帧内每个像素点的第二类综合轮廓特征值;
其中,所述将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量,包括:将视频中每个像素点的亮度特征值、复合纹理特征值、两类综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量。
其中,第t帧内像素点(i,j)的第一轮廓特征值shough(i,j)|t的计算公式如下:
第t帧内像素点(i,j)的第二轮廓特征值scanny(i,j)|t的计算公式如下:
第t帧内像素点(i,j)的第三轮廓特征值ssobel(i,j)|t的计算公式如下:
第t帧内每个像素点的第一类综合轮廓特征值S1(i,j)|t的计算公式如下:
第t帧内每个像素点的第二类综合轮廓特征值S2(i,j)|t的计算公式如下:
4.如权利要求1或2所述的面向无彩色长视频的高效视场区域分割方法,其特征在于,所述计算视频中每个像素点的复合纹理特征值,包括:
使用原始LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;
使用圆形LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;
根据预定第一加权系数和第二加权系数,计算所述视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t与第二纹理特征值W2(i,j)|t的加权平均值,得到视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t;
对视频第t帧内所有像素点的复合纹理特征值进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
5.如权利要求1或2所述的面向无彩色长视频的高效视场区域分割方法,其特征在于,所述计算视频中每个像素点的近期动态性特征值,包括:
对视频中的每一个像素点构建混合高斯背景模型;
统计视频中每一个像素点上发生的显著性强度值变化的次数;显著性强度值变化定义为:像素点的强度值变化幅度超出该像素点上背景模型所设定的像素强度值正常变化范围;
根据预定量化规则对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值;
6.一种面向无彩色长视频的高效视场区域分割装置,其特征在于,包括:
复合纹理特征值计算模块,用于计算视频中每个像素点的复合纹理特征值;
综合轮廓特征值计算模块,用于计算视频中每个像素点的综合轮廓特征值;
近期动态性特征值计算模块,用于计算视频中每个像素点的近期动态性特征值;
融合模块,用于将视频中每个像素点的亮度特征值、复合纹理特征值、综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量;
分割模块,用于对每幅视频帧中所有像素点的综合视觉特征向量进行聚类分析,将同类像素点归入同一区域,完成视场区域分割。
7.如权利要求6所述的面向无彩色长视频的高效视场区域分割装置,其特征在于,所述复合纹理特征值计算模块计算得到的视频中每个像素点的复合纹理特征值的维度均为1且值域在预定范围内;
所述综合轮廓特征值计算模块计算得到的视频中每个像素点的综合轮廓特征值的维度均为1且值域在所述预定范围内;
所述近期动态性特征值计算模块计算得到的视频中每个像素点的近期动态性特征值的维度均为1且值域在所述预定范围内。
8.如权利要求6或7所述的面向无彩色长视频的高效视场区域分割装置,其特征在于,所述综合轮廓特征值计算模块,包括:
第一轮廓特征值计算单元,用于使用Hough变换计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第一轮廓特征值;其中,第t帧内像素点(i,j)的第一轮廓特征值shough(i,j)|t的计算公式如下:
第二轮廓特征值计算单元,用于使用Canny算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第二轮廓特征值;其中,第t帧内像素点(i,j)的第二轮廓特征值scanny(i,j)|t的计算公式如下:
第三轮廓特征值计算单元,用于使用Isotropic Sobel算子计算视频第t帧内的图像轮廓,进而求出视频第t帧内每个像素点的第三轮廓特征值;其中,第t帧内像素点(i,j)的第三轮廓特征值ssobel(i,j)|t的计算公式如下:
第一类综合轮廓特征值生成单元,用于通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求交集,生成视频第t帧内每个像素点的第一类综合轮廓特征值;其中,第t帧内每个像素点的第一类综合轮廓特征值S1(i,j)|t的计算公式如下:
第二类综合轮廓特征值生成单元,用于通过对所述视频第t帧内每个像素点的第一轮廓特征值、第二轮廓特征值、第三轮廓特征值求并集,生成视频第t帧内每个像素点的第二类综合轮廓特征值;其中,第t帧内每个像素点的第二类综合轮廓特征值S2(i,j)|t的计算公式如下:
其中,所述融合模块,具体用于将视频中每个像素点的亮度特征值、复合纹理特征值、两类综合轮廓特征值和近期动态性特征值融合,得到该像素点的综合视觉特征向量。
9.如权利要求6或7所述的面向无彩色长视频的高效视场区域分割装置,其特征在于,所述复合纹理特征值计算模块,包括:
第一纹理特征值计算单元,用于使用原始LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t;
第二纹理特征值计算单元,用于使用圆形LBP算子计算视频第t帧内像素点(i,j)的LBP纹理值,作为视频第t帧内像素点(i,j)的第二纹理特征值W2(i,j)|t;
复合纹理特征值计算单元,用于根据预定第一加权系数和第二加权系数,计算所述视频第t帧内像素点(i,j)的第一纹理特征值W1(i,j)|t与第二纹理特征值W2(i,j)|t的加权平均值,得到视频第t帧内像素点(i,j)的复合纹理特征值W(i,j)|t;
归一化单元,用于对视频第t帧内所有像素点的复合纹理特征值进行归一化,得到视频第t帧内各像素点的归一化的复合纹理特征值。
10.如权利要求6或7所述的面向无彩色长视频的高效视场区域分割装置,其特征在于,所述近期动态性特征值计算模块,包括:
构建单元,用于对视频中的每一个像素点构建混合高斯背景模型;
统计单元,用于统计视频中每一个像素点上发生的显著性强度值变化的次数;显著性强度值变化定义为:像素点的强度值变化幅度超出该像素点上背景模型所设定的像素强度值正常变化范围;
量化单元,用于根据预定量化规则对计算得到的像素点的近期动态性进行量化,得到像素点的近期动态性特征值;
其中,代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的次数;D(i,j)|t代表视频从第k帧到第t帧的一段时间内像素点(i,j)上发生的显著性强度值变化的频率,即像素点(i,j)的近期动态性,100≤t-k≤20000;所述量化规则中量化后的像素点的近期动态性的值域为[0,1]。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911033540.9A CN110807783B (zh) | 2019-10-28 | 2019-10-28 | 一种面向无彩色长视频的高效视场区域分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911033540.9A CN110807783B (zh) | 2019-10-28 | 2019-10-28 | 一种面向无彩色长视频的高效视场区域分割方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110807783A true CN110807783A (zh) | 2020-02-18 |
CN110807783B CN110807783B (zh) | 2023-07-18 |
Family
ID=69489346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911033540.9A Active CN110807783B (zh) | 2019-10-28 | 2019-10-28 | 一种面向无彩色长视频的高效视场区域分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110807783B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741322A (zh) * | 2016-02-01 | 2016-07-06 | 衢州学院 | 一种基于视频特征层融合的视场区域分割方法 |
CN107730487A (zh) * | 2017-09-27 | 2018-02-23 | 浙江大华技术股份有限公司 | 一种图像检测方法及装置 |
CN108009542A (zh) * | 2017-11-01 | 2018-05-08 | 华中农业大学 | 油菜大田环境下杂草图像分割方法 |
CN108805186A (zh) * | 2018-05-29 | 2018-11-13 | 北京师范大学 | 一种基于多维显著特征聚类的sar图像圆形油库检测方法 |
CN110309687A (zh) * | 2019-07-05 | 2019-10-08 | 华中科技大学 | 一种二维码图像的校正方法及校正装置 |
EP3553700A2 (en) * | 2018-04-12 | 2019-10-16 | Orbital Insight, Inc. | Remote determination of containers in geographical region |
-
2019
- 2019-10-28 CN CN201911033540.9A patent/CN110807783B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741322A (zh) * | 2016-02-01 | 2016-07-06 | 衢州学院 | 一种基于视频特征层融合的视场区域分割方法 |
CN107730487A (zh) * | 2017-09-27 | 2018-02-23 | 浙江大华技术股份有限公司 | 一种图像检测方法及装置 |
CN108009542A (zh) * | 2017-11-01 | 2018-05-08 | 华中农业大学 | 油菜大田环境下杂草图像分割方法 |
EP3553700A2 (en) * | 2018-04-12 | 2019-10-16 | Orbital Insight, Inc. | Remote determination of containers in geographical region |
CN108805186A (zh) * | 2018-05-29 | 2018-11-13 | 北京师范大学 | 一种基于多维显著特征聚类的sar图像圆形油库检测方法 |
CN110309687A (zh) * | 2019-07-05 | 2019-10-08 | 华中科技大学 | 一种二维码图像的校正方法及校正装置 |
Non-Patent Citations (3)
Title |
---|
AYAKO SHIJI ET AL: "Color image segmentation method using watershed algorithm and contour information" * |
GONG WEIGUO ET AL: "Foreground segmentation under sudden illumination changes by feature fusion" * |
王媛媛: "基于多特征的口腔正畸图像检索的研究" * |
Also Published As
Publication number | Publication date |
---|---|
CN110807783B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109151501B (zh) | 一种视频关键帧提取方法、装置、终端设备及存储介质 | |
Bora | Importance of image enhancement techniques in color image segmentation: A comprehensive and comparative study | |
US10979622B2 (en) | Method and system for performing object detection using a convolutional neural network | |
CN109753913B (zh) | 计算高效的多模式视频语义分割方法 | |
US10034005B2 (en) | Banding prediction for video encoding | |
CN111797653B (zh) | 基于高维图像的图像标注方法和装置 | |
CN112966646B (zh) | 基于双路模型融合的视频分割方法、装置、设备及介质 | |
Xu et al. | Visual quality assessment by machine learning | |
US9025868B2 (en) | Method and system for image processing to determine a region of interest | |
US9075876B2 (en) | Search method for video clip | |
US20120237126A1 (en) | Apparatus and method for determining characteristic of motion picture | |
US9940543B2 (en) | Control of computer vision pre-processing based on image matching using structural similarity | |
CN110807783B (zh) | 一种面向无彩色长视频的高效视场区域分割方法及装置 | |
US20230342986A1 (en) | Autoencoder-based segmentation mask generation in an alpha channel | |
Zhang et al. | Blind image quality assessment based on local quantized pattern | |
KR20140138046A (ko) | 픽처를 처리하기 위한 방법 및 디바이스 | |
Tsai et al. | Real-time automatic multilevel color video thresholding using a novel class-variance criterion | |
CN114611565A (zh) | 数据处理方法、装置、设备和存储介质 | |
CN113557522A (zh) | 基于相机统计的图像帧预处理 | |
CN110826445B (zh) | 一种无色彩场景视频中对特定目标区域的侦测方法和装置 | |
Kekre et al. | Colorization of grayscale images using LBG VQ codebook for different color spaces | |
CN112614116B (zh) | 一种用于数字图像的篡改检测方法和系统 | |
CN110826446B (zh) | 无纹理场景视频的视场区域分割方法及装置 | |
CN107480617B (zh) | 一种肤色检测自适应单位分析方法和系统 | |
Larabi et al. | Special Section Guest Editorial: Perceptually Driven Visual Information Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |