CN105933691B - 基于分类频率敏感三维自组织映射的视差估计方法 - Google Patents

基于分类频率敏感三维自组织映射的视差估计方法 Download PDF

Info

Publication number
CN105933691B
CN105933691B CN201610317515.3A CN201610317515A CN105933691B CN 105933691 B CN105933691 B CN 105933691B CN 201610317515 A CN201610317515 A CN 201610317515A CN 105933691 B CN105933691 B CN 105933691B
Authority
CN
China
Prior art keywords
vector
mrow
training
classification
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610317515.3A
Other languages
English (en)
Other versions
CN105933691A (zh
Inventor
黎洪松
程福林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN201610317515.3A priority Critical patent/CN105933691B/zh
Publication of CN105933691A publication Critical patent/CN105933691A/zh
Application granted granted Critical
Publication of CN105933691B publication Critical patent/CN105933691B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于分类频率敏感三维自组织映射的视差估计方法,先由FS‑3DSOM算法对视差图的低亮度区域和高亮度区域分别进行训练,得到最佳匹配的低亮度模式库和高亮度模式库,然后对待估计视差图的低亮度区域和高亮度区域分别进行视差模式识别,得到视差预测图,完成视差估计。本发明所得到的视差预测图的质量更好,并且计算量小。

Description

基于分类频率敏感三维自组织映射的视差估计方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于分类频率敏感三维自组织映射的视差估计方法。
背景技术
视差估计作为立体视频编码的关键技术,已经得到越来越多的重视和关注,各种算法也相继提出。传统视差估计算法大致可分为两大类,一类是基于区域的视差估计,即把图像中的某一点或某一块作为基本匹配单元,在另一幅图像中搜索对应的点或块,从而得到各个点的视差,这类算法可以得到稠密的视差估计。根据匹配策略的不同,基于区域的视差估计可以分为局部法和全局法。代表性的局部法是基于块的方法,实现复杂度低。代表性的全局算法有动态规划法、图割法和置信度传播法等。全局法能得到比局部法更好的结果,但是其计算复杂度高,不便于硬件实现。另一类是基于特征的视差估计,即利用图像的自身特征来实现匹配,这些特征包括一些特征点(如SIFT关键点等)或几何结构。此类算法只能得到稀疏的视差估计,且特征的提取比较复杂。可见,目前视差估计技术仍未成熟,没有一种具有普适性的视差估计方法,而且计算量巨大。
发明内容
本发明所要解决的技术问题是提供一种基于分类频率敏感三维自组织映射的视差估计方法,该方法能提高视差预测图像的质量。
为解决上述问题,本发明是通过以下技术方案实现的:
基于分类频率敏感三维自组织映射的视差估计方法,包括如下步骤:
步骤1、先对视差序列样本的每帧图像分块,每个图像块为一个训练矢量,再根据亮度大小将训练矢量进行分类,每个分类形成一个训练矢量集;
步骤2、分别每个分类的训练矢量集进行以下学习训练,得到每个分类的最佳匹配模式库;
步骤2.1、根据设定的三维自组织映射网络的大小N,从该分类的L个训练矢量集中选择N个训练矢量来构成该分类的初始模式库,其中N<<L;该初始模式库中的训练矢量称为模式矢量,且初始模式库中的模式矢量排列成三维立体结构;
步骤2.2、初始化每个模式矢量的邻域函数Nj(0)和每个模式矢量的响应计数器cj
步骤2.3、输入该分类训练矢量集中的一个训练矢量,并分别计算该训练矢量与其对应分类的初始模式库中的各个模式矢量的失真从中选择出与训练矢量失真最小的模式矢量作为获胜模式矢量;
其中,为频率敏感函数;s为设定的频率敏感指数;dj(t)为训练矢量与模式矢量的均方误差;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为该分类训练矢量集中训练矢量的个数;
步骤2.4、调整获胜模式矢量及其三维邻域范围内的模式矢量;
步骤2.5、将获胜模式矢量的响应计数器累加1,并返回步骤步骤2.3重新选择一个训练矢量,直到输入完该分类训练矢量集中所有的训练矢量,即得到该分类的最佳匹配模式库;
步骤3、对待估计的视差序列进行分块和分类处理,得到每个分类的待估计图库;并将待估计图库与相同分类的最佳匹配模式库进行视差模式匹配,得到待估计的视差序列的预测图。
步骤1中,根据下式将图像块分高亮度区域和低亮度区域两类,
其中,为图像块的均值,Th为均值判定限值,X1表示高亮度区域集合,X2表示低亮度区域集合。
步骤2.1中,采用按固定的间隔抽取的方法从L个训练矢量集中选择N个训练矢量来构成该分类的初始模式库。
步骤2.3中,频率敏感指数s的取值范围为0≤s≤1。
步骤2.4、根据下式调整获胜模式矢量及其三维邻域范围内的模式矢量,
其中,Wj(t+1)为第t+1次训练时的模式矢量,Wj(t)为第t次训练时的模式矢量,X(t)为训练矢量,j*为获胜模式矢量,为获胜模式矢量j*在第t次训练时的邻域函数,α(t)为第t次训练时的学习速度函数;上述j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为所每一类的训练矢量的个数。
步骤3具体为:
步骤3.1、先将待估计的视差序列的每帧分块,其中待估计的视差序列的每帧分块大小与视差序列样本的每帧分块大小相一致;再根据步骤1相同的方法将图像块进行分类,每个分类的图像块形成一个待估计图库;
步骤3.2、针对每个分类的待估计图库,根据步骤2.3相同的方法计算该待估计图库中的待估计图像块与所对应分类的最佳匹配模式库中的模式矢量的失真并选择具有最小失真的模式矢量作为该待估计图像块的预测块;
其中,为频率敏感函数,s为设定的频率敏感指数,bj(t′)为待估计图像块与模式矢量的均方误差,j=0,1,…,N-1,N为设定的三维自组织映射网络的大小,t′=0,1,…,K-1,K为待估计图像块的个数;
步骤3.3、对待估计的视差序列的所有待估计图像快进行步骤3.2的处理,得到待估计的视差序列的预测图。
与现有技术相比,本发明先由SOM算法对视差图进行训练,得到最佳匹配的视差模式库,然后对视差图进行视差模式识别,得到视差预测图,完成视差估计,所得到的视差预测图的质量更好,并且计算量小。
附图说明
图1为视差模式库的训练过程。
图2为视差模式识别得到视差预测图过程。
图3为Exit序列视差预测图像的PSNR分布情况。
图4为Vassar序列视差预测图像的PSNR分布情况。
具体实施方式
下面结合实施例,对本发明内容作进一步地详细说明,但本发明的实施方式不限于此。
一种基于分类频率敏感三维自组织映射的视差估计方法,包括如下步骤:
步骤1)构建训练矢量集,参见图1。
步骤1.1)将视差序列样本的每帧图像分割成8×8的子块,得到总的训练矢量集。
步骤1.2)根据亮度大小将图像块进行分类。根据需要确定分类数量,在发明中,将图像块分为两类,即高亮度区域的训练矢量集和低亮度区域的训练矢量集。分类的方法可以采用均分法,即将所有的图像块按照均值平均分为两类,即高亮度区域的训练矢量集中含有的训练矢量个数与低亮度区域的训练矢量集中含有的训练矢量个数相同;也可以采用阈值判定法,即计算训练矢量X(t)的均值根据下式进行分类:
其中,Th为高亮度区域和低亮度区域均值判定限值,X1和X2分别表示高亮度区域和低亮度区域的训练矢量集。
步骤2)构建最佳匹配模式库,参见图1。
根据人脑神经元的组织原理所提出的自组织映射(SOM)算法,是一种具有自组织特性的人工神经网络算法。该算法模拟了人脑神经系统对某一图形或某一频率特定兴奋的特征,在模式识别和数据挖掘等领域得到了深入的研究和广泛的应用,是一种高效的数据聚类方法。SOM算法的核心是寻找最佳分类,即通过对大量的样本序列的不断学习和训练,从而得到最优匹配的模式库。
为了提高视差模式库的性能,本发明对SOM算法进行了改进,提出了一种三维自组织映射算法(3DSOM)。三维SOM网络结构及其算法能有效地将二维输入映射为三维输出,从而实现三维信号的非线性映射。三维SOM网络将映射层神经元排列成三维立体结构,三维立体结构的行数、列数和层数可根据应用的需要选取不同的值,排列成不同的三维结构以适应不同应用;通常三维邻域形状可选取球形邻域、正方形邻域或正交十字邻域,选取不同的三维邻域形状对算法的性能有一定的影响。SOM网络与普通的竞争网络一样,对于每个输入模式,在映射层都有相应的获胜节点,获胜节点代表最相似的模式,该节点及其三维邻域范围内的所有节点均按一定规则调整其权值。与二维平面结构邻域相比,三维立体结构邻域在相等邻域半径内的节点数量增多,节点被调整的机会增加,因此,更有利于得到最佳匹配的模式。用FS-3DSOM算法对高亮度区域训练矢量集和低亮度区域训练矢量集分别进行学习训练,得到最佳匹配的高亮度模式库和低亮度模式库。
具体来说,基于FS-3DSOM算法的模式库训练步骤如下:
步骤2.1)设定SOM网络大小为(N,M),其中N、M分别为模式库的大小和模式库中模式矢量的大小。
步骤2.2)用随机法从每个分类的训练矢量集中选择N个训练矢量来构成初始模式库,得到初始化模式库{Wj(0),j=0,1,…,N-1},并将初始模式库中模式矢量排列成三维立体结构。其中L>>N。
步骤2.3)设置初始化邻域为Nj(0),j=0,1,…,N-1,设置响应计数器cj=1,其中j=0,1,…,N-1。
步骤2.4)输入一个训练矢量{X(t),t=0,1,…,L-1}。
步骤2.5)将失真测度设定为其中f(cj)为频率敏感函数,它随着频率敏感参数cj的增大而单调增大,s为频率敏感指数。dj(t)为均方误差,dj(t)=||X(t)-Wj(t)||2。分别计算出该训练矢量与模式库中各模式矢量的失真并选择获胜模式矢量j*为具有最小失真的模式矢量。
步骤2.6)按下式调整获胜模式矢量j*及其三维邻域范围内的模式矢量,
其中,为邻域函数,通常选用单调递减函数A0、A1分别为获胜模式矢量j*的最小邻域和最大邻域,T1为邻域衰减常数。在训练的初始阶段,邻域半径较大,而随着训练次数的增加,网络逐渐趋于稳定,只需对获胜节点进行较细微的权值调整,因而邻域半径不断缩小。α(cj)为学习速度函数,它反映了模式矢量调整的幅度大小,一般选用单调递减函数式中A2为训练开始时的最大学习速度,T2为学习衰减常数。
步骤2.7)设置返回步骤2.4),直到训练完所有的模式矢量。
步骤3)对视差图的高亮度区域和低亮度区域分别进行视差模式匹配,得到每帧的视差预测图。参见图2。
对视差序列每帧分块,块的大小一般取8×8,然后在对应的视差模式库中寻找与子图像块最匹配的视差模式作为该子块图像的预测块。对所有子块图像进行处理后得到该帧的视差预测图。
步骤3.1、将待估计的视差序列的每帧分块,其中待估计的视差序列的每帧分块大小与视差序列样本的每帧分块大小相一致;使用步骤1)中的图像块分类步骤将所有块分为高亮度块和低亮度块。
步骤3.2、对于高亮度块,分别计算每一个图像块与高亮度模式库中各模式矢量的失真,并选择具有最小失真的模式矢量作为该图像块的预测块;对于低亮度块,分别计算每一个图像块与低亮度模式库中各模式矢量的失真,并选择具有最小失真的模式矢量作为该图像块的预测块;
采用均方误差准则即下式来计算上述待估计图像块与最佳匹配模式库中各模式矢量的失真bj(t′);
bj(t′)=||Y(t′)-Wj(t′)||2
其中,Wj(t′)为模式矢量,Y(t′)为待估计图像块;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t′=0,1,…,K-1,K为待估计图像块的个数。
步骤3.3、对待估计的视差序列的所有图像进行步骤3.2的处理,得到待估计的视差序列的预测图。
为了说明本方法的性能,做了大量的仿真实验,实验采用标准立体视频测试序列Exit、Vassar的第1、2视点,图像分辨率为480×640,左右视点各8帧。重建图像品质的客观评价采用峰值信噪比式中EMSE为原始图像与重建图像之间的均方误差。在基于分类频率敏感三维自组织映射的立体视频视差估计(CFS-3DSOM-DPR)方法中,图像压缩比为式中M为模式矢量的维数,BO为原始图像的每像素比特数,BC为模式矢量地址比特数。例如,模式矢量大小为M=8×8,模式库大小设为2048,压缩率为46.5。在基于块的视差估计算法中,块的大小为M=8×8,横向搜索范围为[-31,32],纵向搜索范围为[-15,16],压缩率为46.5。
图3和图4给出了CFS-3DSOM-DPR方法与基于块的方法的视差预测图像的PSNR分布情况,其中图3为Exit序列,图4为Vassar序列。表1给出了CFS-3DSOM-DPR方法与基于块的方法的视差预测图像的平均PSNR对比。由表1可以看出,由CFS-3DSOM-DPR方法得到的视差预测图像的平均峰值信噪比(PSNR)较基于块的方法提高了0.78-1.78dB。
表1CFS-3DSOM-DPR算法与基于块的方法的比较结果(平均峰值信噪比/dB)
(与传统的视差估计方法相比,利用基于分类频率敏感三维自组织映射的立体视频视差估计方法,得到的视差预测图的质量更好,并且计算量小。

Claims (6)

1.基于分类频率敏感三维自组织映射的视差估计方法,其特征是,包括如下步骤:
步骤1、先对视差序列样本的每帧图像分块,每个图像块为一个训练矢量,再根据亮度大小将训练矢量进行分类,每个分类形成一个训练矢量集;
步骤2、分别为每个分类的训练矢量集进行以下学习训练,得到每个分类的最佳匹配模式库;
步骤2.1、根据设定的三维自组织映射网络的大小N,从该分类的L个训练矢量集中选择N个训练矢量来构成该分类的初始模式库,其中N<<L;该初始模式库中的训练矢量称为模式矢量,且初始模式库中的模式矢量排列成三维立体结构;
步骤2.2、初始化每个模式矢量的邻域函数Nj(0)和每个模式矢量的响应计数器cj
步骤2.3、输入该分类训练矢量集中的一个训练矢量,并分别计算该训练矢量与其对应分类的初始模式库中的各个模式矢量的失真从中选择出与训练矢量失真最小的模式矢量作为获胜模式矢量;
<mrow> <msub> <mover> <mi>d</mi> <mo>~</mo> </mover> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>c</mi> <mi>j</mi> <mi>s</mi> </msubsup> <msub> <mi>d</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </mrow>
其中,为频率敏感函数;s为设定的频率敏感指数;dj(t)为训练矢量与模式矢量的均方误差;j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为该分类训练矢量集中训练矢量的个数;
步骤2.4、调整获胜模式矢量及其三维邻域范围内的模式矢量;
步骤2.5、将获胜模式矢量的响应计数器累加1,并返回步骤步骤2.3重新选择一个训练矢量,直到输入完该分类训练矢量集中所有的训练矢量,即得到该分类的最佳匹配模式库;
步骤3、对待估计的视差序列进行分块和分类处理,得到每个分类的待估计图库;并将待估计图库与相同分类的最佳匹配模式库进行视差模式匹配,得到待估计的视差序列的预测图。
2.根据权利要求1所述基于分类频率敏感三维自组织映射的视差估计方法,其特征是,步骤1中,根据下式将图像块分高亮度区域和低亮度区域两类,
<mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>X</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>X</mi> <mn>1</mn> </msub> <mo>;</mo> </mrow> </mtd> <mtd> <mrow> <mover> <mi>X</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <msub> <mi>T</mi> <mi>h</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>X</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msub> <mi>X</mi> <mn>2</mn> </msub> <mo>;</mo> </mrow> </mtd> <mtd> <mrow> <mover> <mi>X</mi> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <msub> <mi>T</mi> <mi>h</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,为图像块的均值,Th为均值判定限值,X1表示高亮度区域集合,X2表示低亮度区域集合。
3.根据权利要求1所述基于分类频率敏感三维自组织映射的视差估计方法,其特征是,步骤2.1中,采用按固定的间隔抽取的方法从L个训练矢量集中选择N个训练矢量来构成该分类的初始模式库。
4.根据权利要求1所述基于分类频率敏感三维自组织映射的视差估计方法,其特征是,步骤2.3中,频率敏感指数s的取值范围为0≤s≤1。
5.根据权利要求1所述基于分类频率敏感三维自组织映射的视差估计方法,步骤2.4、根据下式调整获胜模式矢量及其三维邻域范围内的模式矢量,
其中,Wj(t+1)为第t+1次训练时的模式矢量,Wj(t)为第t次训练时的模式矢量,X(t)为训练矢量,j*为获胜模式矢量,为获胜模式矢量j*在第t次训练时的邻域函数,α(t)为第t次训练时的学习速度函数;上述j=0,1,…,N-1,N为设定的三维自组织映射网络的大小;t=0,1,…,L-1,L为所每一类的训练矢量的个数。
6.根据权利要求1~5中任一项所述基于分类频率敏感三维自组织映射的视差估计方法,步骤3具体为:
步骤3.1、先将待估计的视差序列的每帧分块,其中待估计的视差序列的每帧分块大小与视差序列样本的每帧分块大小相一致;再根据步骤1相同的方法将图像块进行分类,每个分类的图像块形成一个待估计图库;
步骤3.2、针对每个分类的待估计图库,根据步骤2.3相同的方法计算该待估计图库中的待估计图像块与所对应分类的最佳匹配模式库中的模式矢量的失真并选择具有最小失真的模式矢量作为该待估计图像块的预测块;
<mrow> <msub> <mover> <mi>b</mi> <mo>~</mo> </mover> <mi>j</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>t</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>c</mi> <mi>j</mi> <mi>s</mi> </msubsup> <msub> <mi>b</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>t</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> </mrow>
其中,为频率敏感函数,s为设定的频率敏感指数,bj(t′)为待估计图像块与模式矢量的均方误差,j=0,1,…,N-1,N为设定的三维自组织映射网络的大小,t′=0,1,…,K-1,K为待估计图像块的个数;
步骤3.3、对待估计的视差序列的所有待估计图像快进行步骤3.2的处理,得到待估计的视差序列的预测图。
CN201610317515.3A 2016-05-13 2016-05-13 基于分类频率敏感三维自组织映射的视差估计方法 Expired - Fee Related CN105933691B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610317515.3A CN105933691B (zh) 2016-05-13 2016-05-13 基于分类频率敏感三维自组织映射的视差估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610317515.3A CN105933691B (zh) 2016-05-13 2016-05-13 基于分类频率敏感三维自组织映射的视差估计方法

Publications (2)

Publication Number Publication Date
CN105933691A CN105933691A (zh) 2016-09-07
CN105933691B true CN105933691B (zh) 2017-11-10

Family

ID=56835893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610317515.3A Expired - Fee Related CN105933691B (zh) 2016-05-13 2016-05-13 基于分类频率敏感三维自组织映射的视差估计方法

Country Status (1)

Country Link
CN (1) CN105933691B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103763565A (zh) * 2014-01-24 2014-04-30 桂林电子科技大学 基于三维自组织映射的视差图像编码方法
CN104363460A (zh) * 2014-12-05 2015-02-18 桂林电子科技大学 一种基于三维自组织映射的立体图像编码方法
CN104700121A (zh) * 2015-01-28 2015-06-10 桂林电子科技大学 基于均值/方差分类的三维som初始化模式库生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103763565A (zh) * 2014-01-24 2014-04-30 桂林电子科技大学 基于三维自组织映射的视差图像编码方法
CN104363460A (zh) * 2014-12-05 2015-02-18 桂林电子科技大学 一种基于三维自组织映射的立体图像编码方法
CN104700121A (zh) * 2015-01-28 2015-06-10 桂林电子科技大学 基于均值/方差分类的三维som初始化模式库生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种基于三维自组织映射的立体图像编码方法;覃远年等;《微电子学与计算机》;20151130;第32卷(第11期);11-114页 *
一种改进的立体图像编码算法;李达等;《北京师范大学学报(自然科学版)》;20070228;第43卷(第1期);50-52页 *
一种新的自组织神经网络算法;黎洪松;《北京师范大学学报(自然科学版)》;20051031;第41卷(第5期);496-498页 *

Also Published As

Publication number Publication date
CN105933691A (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
CN111192292B (zh) 基于注意力机制与孪生网络的目标跟踪方法及相关设备
CN106845478B (zh) 一种字符置信度的二次车牌识别方法及装置
CN107767413B (zh) 一种基于卷积神经网络的图像深度估计方法
CN109360178B (zh) 基于融合图像的无参考立体图像质量评价方法
CN111861925B (zh) 一种基于注意力机制与门控循环单元的图像去雨方法
KR101622344B1 (ko) 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템
CN113592026B (zh) 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法
Lv et al. Difference of Gaussian statistical features based blind image quality assessment: A deep learning approach
CN106056553B (zh) 基于紧框架特征字典的图像修复方法
CN109859166B (zh) 一种基于多列卷积神经网络的无参3d图像质量评估方法
CN102572223B (zh) 一种用于视频降噪的相似块搜索方法
CN105787867A (zh) 基于神经网络算法的处理视频图像的方法和装置
CN109191498A (zh) 基于动态记忆和运动感知的目标检测方法及系统
CN114998958A (zh) 一种基于轻量化卷积神经网络的人脸识别方法
CN114612305B (zh) 一种基于立体图建模的事件驱动视频超分辨率方法
CN117252936A (zh) 一种适配多种训练策略的红外图像彩色化方法及系统
Li et al. BARRN: A blind image compression artifact reduction network for industrial IoT systems
CN110490053B (zh) 一种基于三目摄像头深度估计的人脸属性识别方法
CN104331700A (zh) 基于轨迹能量扩散图的组行为识别方法
CN109035178B (zh) 一种应用于图像去噪的多参数取值调优方法
CN105933691B (zh) 基于分类频率敏感三维自组织映射的视差估计方法
CN111950411A (zh) 模型确定方法及相关装置
CN117011655A (zh) 基于自适应区域选择特征融合方法、目标跟踪方法及系统
CN111062275A (zh) 一种多层次监督的人群计数方法、装置、介质及电子设备
CN105959701B (zh) 基于三维自组织映射的立体视频视差估计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171110

CF01 Termination of patent right due to non-payment of annual fee