CN104636495B - 一种基于内容的视频检索方法 - Google Patents
一种基于内容的视频检索方法 Download PDFInfo
- Publication number
- CN104636495B CN104636495B CN201510097904.5A CN201510097904A CN104636495B CN 104636495 B CN104636495 B CN 104636495B CN 201510097904 A CN201510097904 A CN 201510097904A CN 104636495 B CN104636495 B CN 104636495B
- Authority
- CN
- China
- Prior art keywords
- video
- mrow
- piecemeal
- image
- msub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于内容的视频检索方法,该方法包括:采用自适应边缘检测算法提取视频图像的边缘,得到边缘二值图像;对视频区域进行分块,计算当前分块的白色像素所占比重;计算分块后的黑块数量,若黑块数量大于预设阈值,则通过基于边缘特征的视频分割方法提取视频目标进行检索,并比较图像间的欧氏距离。本发明一种基于内容的视频检索方法,对目标与背景存在区分的视频图像实现了较好的检索结果,提高了准确率。
Description
技术领域
本发明涉及视频图像检索,特别涉及一种基于内容的视频检索方法。
背景技术
基于内容的视频检索通过提取视频图像特征进行特征匹配来达到检索的目的。现有技术大多为基于底层特征的检索。由于底层特征难以表现人对视频中目标的主观概念,而人能识别视频含义这个过程需要大量的生活经验和推理,故目前视频的底层特征和高层语义特征还存在着较大的断层带,在提高视频检索准确率及检索速度方面还不足以推广应用。例如,不同的视频具有不同的特性,故如果只针对视频的某一种特性进行特征提取,则检索结果精确度会受到影响。
因此,针对相关技术中所存在的上述问题,目前尚未提出有效的解决方案。
发明内容
为解决上述现有技术所存在的问题,本发明提出了一种基于内容的视频检索方法,包括:
采用自适应边缘检测算法提取视频图像的边缘,得到边缘二值图像;
对视频区域进行分块,即将边缘二值图像分成4×4小块;
完成分块后,将每一个小块中颜色为白色的像素的数量除以当前小块的总像素数量,得到当前分块的白色像素所占比重;
将不大于预设阈值的白色像素所占比重小块确定为黑块,计算分块后的黑块数量;
若视频中的黑块数量大于预设阈值,则通过基于边缘特征的视频分割方法提取视频目标进行检索;
计算待检索视频图像和目标视频图像间的欧氏距离;
其中计算待检索视频图像和目标视频图像间的欧氏距离进一步包括:
(1)将待检测视频q和目标视频图像t均按4×4方式分块,根据两视频中对应分块的颜色空间向量直方图计算两视频中每个对应分块间的欧氏距离:
其中hq和ht分别表示待检索视频图像和目标视频图像的颜色空间向量直方图,下标ij表示视频被分块后位于第i行第j列小块,m表示量化后颜色值;
(2)设置待检索视频第i行第j列的分块对应的权值ωij,通过计算出边缘分块视频的白点比例矩阵后,将矩阵中每个元素进行正则化,即将每个元素的数值除以最大元素的数值,得到每个分块的权值;
(3)在计算出各个对应分块之间颜色空间向量直方图和检索视频各分块对应权值后,计算出待检测视频和目标视频图像间的加权距离:
附图说明
图1是根据本发明实施例的基于内容的视频检索方法的流程图。
具体实施方式
下文与图示本发明原理的附图一起提供对本发明一个或者多个实施例的详细描述。结合这样的实施例描述本发明,但是本发明不限于任何实施例。本发明的范围仅由权利要求书限定,并且本发明涵盖诸多替代、修改和等同物。在下文描述中阐述诸多具体细节以便提供对本发明的透彻理解。出于示例的目的而提供这些细节,并且无这些具体细节中的一些或者所有细节也可以根据权利要求书实现本发明。
本发明的一方面提供了一种基于内容的视频检索方法。图1是根据本发明实施例的基于内容的视频检索方法流程图。基于此,本发明将视频图像的颜色特征以及边缘特征相结合,将视频分为三种类型,并结合视频的颜色直方图以及梯度直方图,使用不同的方法来分割具有不同特性的视频。然后,将视频图像分成多个块,计算欧氏距离时,根据其不同特征,自适应地给出每块图像的特征权重。
一般情况下获取的图像都是在RGB空间中进行描述,但RGB空间结构并不符合人类对颜色的主观判断。而HSV颜色空间由色调、饱和度和亮度3个分量组成,与人眼的视觉特性比较接近。因此,为了更符合人眼的视觉特性,经常需要做颜色空间转换,将RGB图像转换成HSV图像。
目前,大多数图像均以真彩色的格式存储。事实上,一幅图像中实际包含的颜色数目只是全部颜色数的一个很小子集。为了节约存储空间以及减少计算复杂度,可以对HSV空间进行非等间隔量化。本发明采用如下量化方法:
首先,把色调H空间分为8份,饱和度S和亮度V空间分别分为3份,即H=
1,h∈[316°,359°]∪[0°,20°]
2,h∈[21°,40°]
3,h∈[41°,75°]
4,h∈[76°,155°]
5,h∈[156°,190°]
6,h∈[191°,270°]
7,h∈[271°,295°]
8,h∈[296°,315°]
S=
1,s∈[0,0.2)
2,s∈[0.2,0.7)
3,s∈[0.7,1]
V=
1,v∈[0,0.2)
2,v∈[0.2,0.7)
3,v∈[0.7,1]
然后,按照上述量化级,将3个颜色分量合成特征向量,如下式所示:
L=9H+3S+V
这样,H、S、V三个分量便可以在颜色空间向量上体现。根据上式,L的取值范围为[13,14,…,84]。经量化,可有效减少计算量。将此量化结果形成直方图形式,即可得到颜色空间向量直方图。
得到视频的颜色空间向量直方图,即可确定一阈值,利用视频中目标区域和背景区域的颜色差异进行图像分割。本发明采用以下方法来确定颜色空间向量直方图的全局阈值,设th为所要求的阈值,可将颜色空间向量直方图分为两个区域A区域和B区域,则A和B两区域的类间方差σ2的计算公式为:σ2=pA(ωA-ω0)2+pB(ωB-ω0)2
其中,pA和pB为A,B颜色出现的概率;ωA和ωB分别为A区域和B区域的颜色值均值;ω0为图像的总颜色值均值。迭代求出使σ2最大时的th值T即为所求的最佳全局阈值,进而可将视频中目标与背景分割开来。
基于颜色空间向量直方图的视频分割的具体步骤如下:
(1)求出原视频的颜色空间向量直方图及其最佳全局分割阈值T。
(2)将原视频中的背景设置为黑色。由于不同的视频颜色分布不同,因此采用两类方案之一:
①保留颜色空间向量直方图中拥有最多像素的颜色值所在的半区(例如,如果拥有最多像素的颜色值小于T,则保留颜色值小于等于T的像素的颜色,而将颜色值大于T的像素的颜色均设置为黑色)。
②去除颜色空间向量直方图中拥有最多像素的颜色值所在的半区,将此半区颜色值对应的像素设置为黑色。
从视频的颜色空间向量直方图中可知,若阈值取值得当,两种方法均可较好地将原视频中目标与背景分割。
但是,单纯通过基于颜色的方法很难将主色较为分散视频中的目标与背景分割开来,这也是基于视频颜色特征的视频分割方法在应用上的局限性。传统的边缘检测算法使用的阈值需要人为确定,不具备自适应能力。本发明利用改进的边缘检测算法提取视频的边缘特征并进行视频分割,可以更好地适应实际应用。
首先获取梯度直方图:若一幅灰度图像包含N个像素,图像的梯度值经等间隔量化后取值范围为[0,1,…,100],则梯度直方图H定义为<h1,h2,…,hN>,其中,hi为大小为i的梯度在整幅图像中所拥有的像素数占整幅图像总像素数的比例。
得到梯度直方图后,便可以计算边缘检测算法中所要用到的高低阈值。高阈值th必须在梯度直方图中的非边缘区域以外选取,否则将给结果带来很多虚假边缘。
采用最大类间方差自动取阈值法可以得到满意的视频分割结果,同时可计算出最佳全局阈值T,以及A区域和B区域梯度值的均值μA、μB和方差σA 2、σB 2。根据均值和方差的概率统计意义,利用μA、σA 2或者μB、σB 2计算出非边缘区域的范围。利用μA和σA 2确定非边缘区域进而自适应确定高低阈值的方法更好。在一个实施例中,当高阈值th=μA+2.5σA 2和低阈值tl=μA-0.3σA 2时,自适应边缘检测算子边缘检测效果最为理想。
根据本发明的可选实施例,在边缘检测算法中还可以根据以下过程获取改进的边缘检测算子:
(1)用高斯滤波器平滑图像。(2)用高斯函数的一阶偏导数计算平滑后的图像计算其梯度的幅值和方向并进行非极大值抑制。(3)用低阈值Tl得弱边缘E1,用高阈值Th得强边缘E,显然E1包含E。(4)E1中仅保留与E有连通关系的连通分量作为输出边缘E。
σ2的选取应该根据图像的实际情况进行自动获取。采用可根据图像的局部方差来调整滤波器输出的自适应滤波对图像进行平滑。将最小方差也作为参数σ2的恒定因子,参数σ2定义如下:
Emin=min(E),
σ2=E/Emin 2,
其中:f(i,j)、A、E、σ为图像像素、N×N窗口内的均值、方差和高斯滤波器参数;Emin为整个图像中的最小方差。
此时,任一窗口内的高斯函数可定义为:G(x,y)=12π(E/Emin)2exp(-(x2+y2)/2(E/Emin))2。
采用一个半径为1的圆形结构元素对候选边缘点进行膨胀运算,先解决经过非最大值抑制后得到的候选边缘点不连续的问题。只要选择合适的双阈值就能闭合边缘。通过搜索类间方差最大值,得到最优阈值,作为边缘检测算法的高阈值,再利用公式Tl=0.5Th确定低阈值。这样既有效地解决抑制噪声和保留精细边缘之间的矛盾,又得到理想的边缘图像。
1)选择一个近似值Tn作为图像f(x,y)的初始阈值:Tn=(fmin+fmax)/2,其中fmin为最小灰度值,fmax为最大灰度值。
2)根据阈值Tn把图像分成目标区域R1和背景区域R2,并计算这2个区域出现的概率ω1(t)、ω2(t),均值μ1(t)、μ2(t)和方差E1(t)、E(t):
其中pi为灰度值为i的概率。
3)计算类内方差Ei,类间方差E0,继而得到总体方差Et:Ei=ω1(t)E1(t)+ω2(t)E2(t),
E0=ω1(t)ω2(t)(μ1(t)-μ2(t))2,
Et=Ei+E0。
4)计算类间方差与总体方差之比sn=E0/Et。
5)若sn<sn-1,迭代结束,此时阈值为最优阈值。否则计算新阈值Tn+1=(μ1(t)+μ2(t))/2,转到步骤2)。
对于背景与目标明显分离且背景较为平滑的视频图像,通过上述处理方法可以很好地将目标从视频中分割开来。然而,如果视频背景较为粗糙或者整张图没有明显的目标与背景之分,则此方法效果不佳。所以,基于边缘的视频分割方法同样存在其应用上的局限性。
颜色和边缘都是视频的重要特征,两者的有机结合可以大大提高视频检索的准确率。首先根据视频特点采用不同的方法进行分割,然后将视频分成4×4小块,自适应设置每个分块的权值ωij,以加权的颜色空间向量直方图为特征,进行相似度匹配,实现视频检索。
基于颜色特征的视频分割方法以及基于边缘特征的视频分割方法可以互为补充。但是,上述两种方法有个共同的局限,即无法处理那些没有明显目标与背景之分的视频,对于此类视频,本发明将采用全局处理方式。
确定基于边缘特征的视频分割方法适用范围的步骤如下:
(1)提取视频图像边缘。采用自适应边缘检测算法提取视频的边缘,得到边缘二值图像。
(2)视频分块,即将边缘图像分成4×4小块。
(3)计算每一个分块的白色像素所占比重。分块后,将每一个小块中颜色为白色的像素的数量除以当前小块的总像素数量,即得这一分块的白色像素所占比重。
(4)计算分块后的黑块数量。有些分块的白色像素所占比重极小,总体呈现黑色。在一个实施例中,本发明将白色像素所占比重不大于2%的小块确定为黑块。
(5)通过黑块数量确定是否使用基于边缘特征的视频分割方法。将黑块数量大于预设阈值的视频通过基于边缘特征的视频分割方法提取视频目标。
确定基于颜色特征的视频分割方法适用范围的步骤如下:
(1)计算视频颜色空间向量直方图。
(2)通过颜色空间向量直方图确定是否使用基于颜色特征的视频分割方法。直方图中各颜色对应像素比例的方差可以在一定程度上体现出颜色分布的均匀程度,方差越大,主色越集中。在一个优选的实施例中,确定基于颜色特征的视频分割方法适用范围为颜色空间向量直方图方差σ2≥16的视频。
在两种方式均可对同一视频进行分割的时候,基于边缘特征的视频分割方法往往有更好的分割效果。所以,当两种分割方法可以分割同一幅视频的时候,本发明均使用基于边缘特征的视频分割方法。对于两种分割方法适用范围均不满足的视频,本发明不对其进行视频分割,而是进行全局处理。
设q和t分别为待检索视频图像和目标视频图像,hq和ht分别表示待检索视频图像和目标视频图像的颜色空间向量直方图。D2(q,t)表示待检索视频图像和目标视频图像间的欧氏距离。计算步骤如下:
(1)将待检测视频和目标视频图像均按4×4方式分块,根据两视频中对应分块的颜色空间向量直方图计算两视频中每个对应分块间的欧氏距离。计算公式如下:
其中,下标ij表示视频被分块后位于第i行第j列小块,m表示量化后颜色值。
(2)设置检索视频中每个分块的权值ωij。
①对于通过全局方式进行处理的视频:在视频分成4×4块后,将视频分为A、B、C三个区域,区域A为视频的中心部分,受关注程度最高;区域B为边缘部分,受关注程度小于A区域;区域C为四个顶点,受关注程度最低。本发明的权值设置为,A区域:1;B区域:0.6;C区域:0.2。
②对于通过基于边缘特征分割的视频:通过计算出边缘分块视频的白点比例矩阵后,将矩阵中每个元素进行正则化,即将每个元素的数值除以最大元素的数值,可得到每个分块的权值。
③对于通过基于颜色特征分割的视频:对检索视频进行分割,将分割后的视频进行4×4分块。计算视频中各个分块彩色像素数量的比例,然后,将彩色像素数量矩阵中每个元素进行正则化处理。
(3)计算待检测视频与目标视频图像间的加权距离。在计算出各个对应分块之间颜色空间向量直方图和检索视频各分块对应权值后,通过以下公式即可计算出待检测视频和目标视频图像间的距离:
其中,D2(q,t)为待检索视频和目标视频图像间的加权距离;D2ij(q,t)为待检索视频和目标视频图像第i行第j列对应分块间的欧氏距离;ωij为待检索视频第i行第j列的分块对应的权值。
综上所述,本发明提出了一种基于内容的视频检索方法,对目标与背景存在区分的视频图像实现了较好的检索结果。
显然,本领域的技术人员应该理解,上述的本发明的各模块或各步骤可以用通用的计算系统来实现,它们可以集中在单个的计算系统上,或者分布在多个计算系统所组成的网络上,可选地,它们可以用计算系统可执行的程序代码来实现,从而,可以将它们存储在存储系统中由计算系统来执行。这样,本发明不限制于任何特定的硬件和软件结合。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (1)
1.一种基于内容的视频检索方法,其特征在于,包括:
将视频图像的颜色特征以及边缘特征相结合,根据视频所属类型,使用不同的方法来分割具有不同特性的视频;然后将视频图像分成多个块,在计算待检索视频图像和目标视频图像的欧氏距离时,根据其不同特征自适应地给出每块图像的特征权重;
所述根据视频所属类型,使用不同的方法来分割具有不同特性的视频,进一步包括:采用自适应边缘检测算法提取视频图像的边缘,得到边缘二值图像;
对视频区域进行分块,即将边缘二值图像分成4×4小块;
完成分块后,将每一个小块中颜色为白色的像素的数量除以当前小块的总像素数量,得到当前分块的白色像素所占比重;
将不大于预设阈值的白色像素所占比重小于阈值的块确定为黑块,计算分块后的黑块数量;
若视频中的黑块数量大于预设阈值,则通过基于边缘特征的视频分割方法提取视频目标进行检索;
所述计算待检索视频图像和目标视频图像间的欧氏距离,进一步包括:
(1)将待检测视频q和目标视频图像t均按4×4方式分块,根据两视频中对应分块的颜色空间向量直方图计算两视频中每个对应分块间的欧氏距离:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mn>2</mn>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>13</mn>
</mrow>
<mn>84</mn>
</munderover>
<msup>
<mrow>
<mo>|</mo>
<mrow>
<msub>
<mi>h</mi>
<mrow>
<mi>q</mi>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>m</mi>
<mo>&rsqb;</mo>
<mo>-</mo>
<msub>
<mi>h</mi>
<mrow>
<mi>t</mi>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mi>m</mi>
<mo>&rsqb;</mo>
</mrow>
<mo>|</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
</msup>
</mrow>
其中hq和ht分别表示待检索视频图像和目标视频图像的颜色空间向量直方图,下标ij表示视频被分块后位于第i行第j列小块,m表示量化后颜色值;
(2)设置待检索视频第i行第j列的分块对应的权值ωij,通过计算出边缘分块视频的白点比例矩阵后,将矩阵中每个元素进行正则化,即将每个元素的数值除以最大元素的数值,得到每个分块的权值;
(3)在计算出各个对应分块之间颜色空间向量直方图和检索视频各分块对应权值后,计算出待检测视频和目标视频图像间的加权距离:
<mrow>
<msub>
<mi>D</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>4</mn>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>4</mn>
</munderover>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<msub>
<mi>D</mi>
<mrow>
<mn>2</mn>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
1
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510097904.5A CN104636495B (zh) | 2015-03-05 | 2015-03-05 | 一种基于内容的视频检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510097904.5A CN104636495B (zh) | 2015-03-05 | 2015-03-05 | 一种基于内容的视频检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104636495A CN104636495A (zh) | 2015-05-20 |
CN104636495B true CN104636495B (zh) | 2017-11-03 |
Family
ID=53215241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510097904.5A Active CN104636495B (zh) | 2015-03-05 | 2015-03-05 | 一种基于内容的视频检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104636495B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105528579B (zh) * | 2015-12-04 | 2019-01-18 | 中国农业大学 | 基于图像识别的奶牛养殖关键过程视频提取方法及系统 |
CN117634711B (zh) * | 2024-01-25 | 2024-05-14 | 北京壁仞科技开发有限公司 | 张量维度切分方法、系统、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853071A (zh) * | 2010-05-13 | 2010-10-06 | 重庆大学 | 基于视觉的手势识别方法及系统 |
CN103546667A (zh) * | 2013-10-24 | 2014-01-29 | 中国科学院自动化研究所 | 一种面向海量广播电视监管的自动新闻拆条方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002041634A2 (en) * | 2000-11-14 | 2002-05-23 | Koninklijke Philips Electronics N.V. | Summarization and/or indexing of programs |
-
2015
- 2015-03-05 CN CN201510097904.5A patent/CN104636495B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853071A (zh) * | 2010-05-13 | 2010-10-06 | 重庆大学 | 基于视觉的手势识别方法及系统 |
CN103546667A (zh) * | 2013-10-24 | 2014-01-29 | 中国科学院自动化研究所 | 一种面向海量广播电视监管的自动新闻拆条方法 |
Non-Patent Citations (1)
Title |
---|
《基于加权欧式距离的k_means算法研究》;张忠林, 曹志宇, 李元韬;《郑州大学学报(工学版)》;20101231;第31卷(第1期);第89-92页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104636495A (zh) | 2015-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107492070B (zh) | 一种双通道卷积神经网络的单图像超分辨率计算方法 | |
Tan et al. | Exposure based multi-histogram equalization contrast enhancement for non-uniform illumination images | |
CN110992275B (zh) | 一种基于生成对抗网络的细化单幅图像去雨方法 | |
CN108305240B (zh) | 图像质量检测方法及装置 | |
Park et al. | Single image dehazing with image entropy and information fidelity | |
CN110175964A (zh) | 一种基于拉普拉斯金字塔的Retinex图像增强方法 | |
CN102902956B (zh) | 一种地基可见光云图识别处理方法 | |
CN110503613B (zh) | 基于级联空洞卷积神经网络的面向单幅图像去雨方法 | |
CN113537099B (zh) | 一种公路隧道火灾烟雾动态检测方法 | |
CN106506901B (zh) | 一种显著性视觉注意模型的混合式数字图像半色调方法 | |
CN111242878B (zh) | 基于布谷鸟搜索的矿井下图像增强方法 | |
CN110390643B (zh) | 一种车牌增强方法、装置及电子设备 | |
CN111476725A (zh) | 一种基于梯度域导向滤波和多尺度Retinex理论的图像去雾增强算法 | |
CN109035274A (zh) | 基于背景估计与u型卷积神经网络的文档图像二值化方法 | |
CN108510499A (zh) | 一种基于模糊集和Otsu的图像阈值分割方法及装置 | |
CN104636497A (zh) | 一种视频数据智能检索方法 | |
CN104657951A (zh) | 图像乘性噪声移除方法 | |
CN109064419A (zh) | 一种基于wls滤波和多尺度稀疏表达的单幅图像去雨方法 | |
CN105225238A (zh) | 一种基于均值滤波的图像预处理的灰度空间划分方法 | |
CN109377464A (zh) | 一种红外图像的双平台直方图均衡化方法及其应用系统 | |
CN104636495B (zh) | 一种基于内容的视频检索方法 | |
CN115131229A (zh) | 图像降噪、滤波数据处理方法、装置和计算机设备 | |
Yang et al. | EHNQ: Subjective and objective quality evaluation of enhanced night-time images | |
CN104657490A (zh) | 一种信息检索方法 | |
CN109859138A (zh) | 一种基于人眼视觉特性的红外图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20190425 Address after: 210000 Zidong Creative Park E3-233, Qixia District, Nanjing, Jiangsu Province Patentee after: Nanjing class Wo Education Technology Co., Ltd. Address before: 610066 Building 302, No. 6, Jiuxing Avenue, Chengdu High-tech Zone, Sichuan Province Patentee before: SICHUAN ZHIYU SOFTWARE CO., LTD. |
|
TR01 | Transfer of patent right |