CN103971366B - 一种基于双权重聚合的立体匹配方法 - Google Patents

一种基于双权重聚合的立体匹配方法 Download PDF

Info

Publication number
CN103971366B
CN103971366B CN201410158102.6A CN201410158102A CN103971366B CN 103971366 B CN103971366 B CN 103971366B CN 201410158102 A CN201410158102 A CN 201410158102A CN 103971366 B CN103971366 B CN 103971366B
Authority
CN
China
Prior art keywords
image
parallax
matching cost
gradient
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410158102.6A
Other languages
English (en)
Other versions
CN103971366A (zh
Inventor
何凯
朱程涛
姚静娴
王晓文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Yongli Land Port Technology Development Co ltd
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201410158102.6A priority Critical patent/CN103971366B/zh
Publication of CN103971366A publication Critical patent/CN103971366A/zh
Application granted granted Critical
Publication of CN103971366B publication Critical patent/CN103971366B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于双权重聚合的立体匹配方法,涉及立体匹配领域,所述方法包括:获取参考图、目标图中每个参考像素点的亮度匹配代价、梯度匹配代价;根据每个参考像素点的亮度匹配代价、梯度匹配代价获取视差空间;对所述视差空间求取最小值分别得到以左图为参考图的左图初始视差图、以右图为参考图的右图初始视差图;对左右初始视差图进行一致性校验,得到一幅精确的左图视差图;对所述视差空间采用双曲线联合抛物线方法平滑获得精度更高的亚像素级别的视差图。本发明能够得到更准确的视差图,对图像的鲁棒性增强,具有准确率高、扩展性强等优点,有着广泛的应用前景。

Description

一种基于双权重聚合的立体匹配方法
技术领域
本发明涉及计算机立体视觉领域中的立体匹配,尤其涉及一种基于双权重聚合的立体匹配方法,可用于图像的三维重建,在医学图像、媒体设备等中提供指导。
背景技术
立体匹配是根据同一场景内多幅不同视角的二维图像,来获得该场景内各物体的深度信息,该技术是计算机视觉领域的研究热点,近年来得到广泛的关注。局部立体匹配方法利用兴趣点周围的局部信息进行相关计算,涉及信息量较少,相应的计算复杂度较低,具有速度快、效率高的优点。
传统的局部立体匹配方法,一般采用基于窗口聚合的匹配方法获得初始视差图,然后对初始视差图进行优化得到最终视差图。例如,有的科研人员提出基于固定窗口的匹配方法获取视差图,此方法虽然计算简便,但由于低纹理区域应该采用大尺寸窗口进行匹配,高纹理区域应该采用小尺寸窗口进行匹配,所以采用固定窗口的匹配方法对于不同场景的匹配缺乏自适应性。也有一些科研人员提出自适应权重匹配方法,但由于此方法只涉及到单一的权重,导致匹配效果不理想。上述方法只是对于某一类的图像匹配效果较为理想,不适用于普通图像的立体匹配,难以满足实际应用的需要。
目前,在低纹理及高纹理交替出现的图像中误匹配率较高,难以获得较高的立体匹配精度,这也是众多科研人员在立体匹配中所面临的问题。随着电子科技的发展,立体匹配在军事、工业、医疗器材、监控系统、视觉导航、人机交互、虚拟现实和无人机等方面都有非常广泛的应用背景,具有很大的商业价值、使用价值和研究意义。近年来,计算机立体视觉理论的发展为获得高精度的立体匹配提供了理论依据。
发明内容
本发明提供了一种基于双权重聚合的立体匹配方法,本发明从改进匹配代价聚合的方式出发获取初始视差图,同时在视差优化阶段改进视差平滑的策略以此来解决传统局部立体匹配方法在匹配过程中所出现的误匹配率较高的问题,详见下文描述:
一种基于双权重聚合的立体匹配方法,所述方法包括以下步骤:
获取参考图、目标图中每个参考像素点的亮度匹配代价、梯度匹配代价;
根据每个参考像素点的亮度匹配代价、梯度匹配代价获取视差空间;
对所述视差空间求取最小值分别得到以左图为参考图的左图初始视差图、以右图为参考图的右图初始视差图;
对左右初始视差图进行一致性校验,得到一幅精确的左图视差图;
对所述视差空间采用双曲线联合抛物线方法平滑获得精度更高的亚像素级别的视差图。
所述获取参考图、目标图中每个参考像素点的亮度匹配代价、梯度匹配代价的步骤具体为:
选取预处理后的左图作为参考图,预处理后的右图为目标图;
对参考图、目标图分别提取各自RGB三个通道的亮度信息并运用截断绝对亮度差值方法获得每个参考像素点的亮度匹配代价,同时对参考图,目标图分别提取各自RGB三个通道的水平、竖直方向梯度信息并运用截断绝对梯度差值方法获得每个参考像素点的梯度匹配代价。
所述根据每个参考像素点的亮度匹配代价、梯度匹配代价获取视差空间的步骤具体为:
采用指数函数结合对数函数的方法对每个参考像素点的亮度匹配代价和梯度匹配代价设置相应的亮度聚合权重和梯度聚合权重,然后分别进行权重匹配代价聚合获得每个参考像素点的总亮度匹配代价和总梯度匹配代价,将总亮度匹配代价和总梯度匹配代价赋以相应的权重组成视差空间。
本发明提供的技术方案的有益效果是:本发明针对传统局部立体匹配方法的不足,在原有方法上进行改进,首先采用截断绝对亮度差值(TAD)和截断绝对梯度差值方法(TAG)分别获得亮度匹配代价和梯度匹配代价,并类比双边滤波特性采用指数函数结合对数函数的方法设置相应的亮度聚合权重和梯度聚合权重,结合最小化视差空间方法以获得原始视差图;然后通过对左、右视差图进行一致性检测,提取出有效的像素点集,提高视差图的准确性;最后采用双曲线联合抛物线方法平滑视差空间的方法以提高视差图的精度。本发明与现有技术相比的优点在于:
(1)将两种不同聚合匹配代价的权重分开来考虑,即TAD匹配代价的聚合权重依赖于亮度信息的差异,TAG匹配代价的聚合权重依赖于梯度信息的差异,这样的聚合权重设置更能反映不同权重对不同匹配代价的影响,且权重的设置使用RGB三个通道的信息,较使用单一通道信息更为可靠。
(2)在视差优化阶段采用新的曲线平滑视差空间的策略,获得更高精度的视差图,在低纹理和视差连续区域都能获得更准确的视差图,在遮挡区域也取得了比较理想的效果。。
总之,本发明将原有的局部立体匹配方法进行改进,提出一种基于双权重聚合的立体匹配方法,类比双边滤波器的特性采用指数函数结合对数函数的方法设置匹配代价聚合的权重获得每一点的聚合匹配代价,并将匹配代价聚合过程分离开来,利用不同聚合权重进行匹配代价聚合。在视差优化阶段,采用双曲线联合抛物线对视差空间平滑,得到亚像素精度视差。本发明能够得到更准确的视差图,对图像的鲁棒性增强,具有准确率高、扩展性强等优点,有着广泛的应用前景。
附图说明
图1本发明的基于双权重聚合的立体匹配方法流程图;
图2为本发明与传统局部立体匹配算法对同一幅标准测试图像匹配效果对比,(a)、(b)
图为矫正过的测试图像;(c)为经过视差优化后的传统方法最终匹配效果图;(d)为经过视差优化后的本发明最终匹配效果图。
图3为本发明与传统局部立体匹配算法对同一幅实际拍得的图像匹配效果对比,(a)、(b)图为矫正过的测试图像;(c)为经过视差优化后的传统方法最终匹配效果图;(d)为经过视差优化后的本发明最终匹配效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
为了解决传统局部立体匹配方法在匹配过程中所出现的误匹配率较高的问题,本发明实施例提供了一种基于双权重聚合的立体匹配方法,参见图1,详见下文描述:
101:对左右两幅图像进行矫正预处理;
102:预处理后,选取左图作为参考图,右图为目标图(参考图与目标图的概念是相对的,选择一方为参考图,另一方即为目标图),做匹配之时以参考图为基准,在目标图上进行对应点的匹配搜索;
103:对参考图、目标图分别提取各自RGB三个通道的亮度信息并运用截断绝对亮度差值方法获得每个参考像素点的亮度匹配代价,同时对参考图,目标图分别提取各自RGB三个通道的水平、竖直方向梯度信息并运用截断绝对梯度差值方法获得每个参考像素点的梯度匹配代价;
其中,n代表图像R、G、B三个通道;记(x,y)为参考图上的任意一像素点P,(x+d,y)为与点P待匹配的目标图上的像素点P';即x、y分别为P点的列坐标(第x列)、行坐标(第y行);d为视差搜索值,即P'与P的列坐标差值;IRn(x,y)为P点的RGB通道的像素值,ITn(x+d,y)为P'点的RGB通道的像素值;表示取x方向的梯度值,表示取y方向的梯度值;分别代表参考图上P点RGB通道的水平、竖直方向梯度;分别代表目标图上P'点RGB通道的水平、竖直方向梯度;TD、TG是截断阈值。TD=25,TG=20。eD(x,y,d)代表参考像素点P在视差搜索值为d时的亮度匹配代价,eG(x,y,d)代表参考像素点P在视差搜索值为d时的梯度匹配代价。
104:类比双边滤波特性,采用指数函数结合对数函数的方法对每个参考像素点的亮度匹配代价和梯度匹配代价设置相应的亮度聚合权重和梯度聚合权重,然后分别进行权重匹配代价聚合获得每个参考像素点的总亮度匹配代价和总梯度匹配代价,将总亮度匹配代价和总梯度匹配代价赋以相应的权重组成视差空间;
为了提高匹配精度,采用一定的权重匹配代价方法进行聚合。
其中,为参考像素点P在视差搜索值为d时的总聚合匹配代价又称视差空间,为点P在视差搜索值为d时的总亮度匹配代价,简称为TAD聚合匹配代价;为点P在视差搜索值为d时的总梯度匹配代价,简称为TAG聚合匹配代价;λ为总亮度匹配代价在总匹配代价中占的权重,(1-λ)为总梯度匹配代价在总匹配代价中占的权重,本发明中λ取为0.6;s、t分别为参考图像的宽度、高度;α、β为权重平滑因子,α=3.5,β=2.5。Wix、Wjy分别代表点P的TAD聚合的横向、纵向权重,Tix、Tjy分别为点P的TAG合的横向、纵向权重,b为对数权重函数的底数,b=10。
记点(i,j)为(参考图上)点Pnb,即i、j分别为Pnb点的列坐标(第i列)、行坐标(第j行)。Pnb(遍历整个参考图上的像素点包括P点)为P的任意一个邻近点;eD(i,j,d)代表参考像素点Pnb在视差搜索值为d时的亮度匹配代价,eG(i,j,d)代表点Pnb在视差搜索值为d时的梯度匹配代价;k为坐标变量,k的变化范围已在Wix、Wjy、Tix、Tjy各自表达式中给出;IRn(x,k)为参考图像素点(x,k)的RGB通道的像素值,ITn(x,k-1)为目标图像素点(x,k-1)的RGB通道的像素值,IRn(k,y)为参考图像素点(k,y)的RGB通道的像素值,ITn(k-1,y)为目标图像素点(k-1,y)的RGB通道的像素值,代表参考图像素点(k,y)的RGB通道的水平方向梯度,代表目标图像素点(k-1,y)的RGB通道的水平方向梯度,代表参考图像素点(x,k)的RGB通道的水平方向梯度,代表目标图像素点(x,k-1)的RGB通道的水平方向梯度。
聚合权重的设置类比双边滤波的原则,即与参考像素亮度越相近的像素,TAD聚合代价权重Wix、Wjy设置的越大;与参考像素梯度值越相近的像素,TAG聚合代价权重Tix、Tjy设置的越大,因此采用指数函数结合对数函数的方法设计聚合权重。
将两种不同聚合匹配代价的权值分开来考虑,即TAD匹配代价的聚合权重依赖于亮度信息的差异,TAG匹配代价的聚合权重依赖于梯度信息的差异,这样的聚合权重设置更能反映不同权值对不同匹配代价的影响,且权重的设置使用RGB三个通道的信息,较使用单一通道信息更为可靠。
105:对视差空间求取最小值得到参考图的初始视差图;
视差值的计算采用WTA(Winner Takes All)策略,即为
其中,D为参考图的初始视差图,D(x,y)为参考像素点(x,y)即P点的初始视差值,S(d)={dmin,1,2...,dmax}为视差搜索范围,dmin、dmax分别代表最小、最大的视差搜索值。
106:选取右图为参考图,左图为目标图,重复步骤103-105;最终得到以左图为参考图的左图初始视差图记作Drl,得到以右图为参考图的右图初始视差图记作Dlr
107:对左右初始视差图进行一致性校验,剔除视差异常值点,得到一幅较为精确的左图视差图;
即在得到初始视差图后,利用左右一致性检测方法检测视差异常值点,不满足下式的P点(x,y)即为视差异常值点。
|Drl(x,y)-Dlr(x-Drl(x,y),y)|<1
式中Drl是以左图为参考图得到的左图初始视差图,Dlr是以右图为参考图得到的右图初始视差图。根据视差值的定义可知左图上的点(x,y)对应右图上的匹配点为(x-Drl(x,y),y),故通过对左右视差图进行一致性校验,可以将初始匹配中的错误视差值剔除。
108:对视差空间采用双曲线联合抛物线方法平滑获得精度更高的亚像素级别的视差图;在初始视差图中,每个像素点对应的视差值均为离散的整数,将这些离散值直接用于三维重建会导致重建场景表面出现断层,因此,必须对每个像素点视差空间进行平滑,以得到连续变化的视差值。
记为Cd记为Cd-1记为Cd+1。传统视差优化方法假设在(d,Cd)附近的视差过渡呈现抛物线特性,因此利用抛物线函数进行视差平滑。而事实上,在(d,Cd)附近视差过渡特性并不只呈现某个单一曲线规律,为此,本发明提出了一种新的平滑函数,在采用抛物线平滑视差空间的同时,采用下式所示的双曲线函数对视差空间进行平滑。
k1,k2,k3∈R,R为实数且k1>0,k2>0
f(z)为双曲线的函数表达式即z为自变量,f(z)为因变量,用以平滑视差空间。
将点(d-1,Cd-1)、(d,Cd)、(d+1,Cd+1)带入上式中,可得到方程组:
根据双曲线函数的性质可知:f(d)在处取得极小值。由上式可解得:
d1 *为采用双曲线平滑视差空间得到的优化视差值
同时采用抛物线对视差空间进行平滑
g(z)=t1z2+t2z+t3,t1,t2,t3∈R,R为实数且t1>0,t2<0
g(z)为抛物线函数表达式即z为自变量,g(z)为因变量,用以平滑视差空间。
将点(d-1,Cd-1)、(d,Cd)、(d+1,Cd+1)带入上式中,可得到方程组:
根据抛物线函数的性质可知:g(d)在处取得极小值。由上式可解得:
d2 *为采用抛物线平滑视差空间得到的优化视差值,最终优化后的视差值为d*
d*=0.5*(d1 *+d2 *)
下面以具体的试验来验证本方法的可行性,详见下文描述:
试验结果均为本方法在CPU为Intel i3-3110M,2.4GHz,内存为4G的笔记本电脑上运行所得,操作系统为Windows7,仿真软件为32位Matlab R2013a。试验采用的图对‘Cones’为标准测试图来源于http://vision.middlebury.edu/stereo/data/,试验采用的图对‘animal’为(实际操作)采用双PTZ相机(一种可以进行左右旋转以及上下旋转的相机)拍摄得到的。图对‘Cones’、‘animal’主要试验参数设定为{λ,TD,TG,α,β}={0.6,25,50,3.5,2.5}。从图2可以看出,对于标准测试图‘Cones’,本方法在视差不连续处(如圆锥体边界附近)误匹配点明显少于传统局部立体匹配方法,且在低纹理处获得较好的匹配效果,整体视差图效果较好。从图3可以看出,对于实际拍得的图‘animal’,本方法在背景地图处、前景动物与背景地图边界交接位置处误匹配点明显少于传统局部立体匹配方法,整体视差图效果较好。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于双权重聚合的立体匹配方法,其特征在于,所述方法包括以下步骤:
获取参考图、目标图中每个参考像素点的亮度匹配代价、梯度匹配代价;
根据每个参考像素点的亮度匹配代价、梯度匹配代价获取视差空间;
对所述视差空间求取最小值分别得到以左图为参考图的左图初始视差图、以右图为参考图的右图初始视差图;
对左右初始视差图进行一致性校验,得到一幅精确的左图视差图;
对所述视差空间采用双曲线联合抛物线方法平滑获得精度更高的亚像素级别的视差图;
所述获取参考图、目标图中每个参考像素点的亮度匹配代价、梯度匹配代价的步骤具体为:
选取预处理后的左图作为参考图,预处理后的右图为目标图;
对参考图、目标图分别提取各自RGB三个通道的亮度信息并运用截断绝对亮度差值方法获得每个参考像素点的亮度匹配代价,同时对参考图,目标图分别提取各自RGB三个通道的水平、竖直方向梯度信息并运用截断绝对梯度差值方法获得每个参考像素点的梯度匹配代价;
所述根据每个参考像素点的亮度匹配代价、梯度匹配代价获取视差空间的步骤具体为:
采用指数函数结合对数函数的方法对每个参考像素点的亮度匹配代价和梯度匹配代价设置相应的亮度聚合权重和梯度聚合权重,然后分别进行权重匹配代价聚合获得每个参考像素点的总亮度匹配代价和总梯度匹配代价,将总亮度匹配代价和总梯度匹配代价赋以相应的权重组成视差空间;
TD=25,TG=20;TD、TG是截断阈值;
Wix代表点P的TAD聚合的横向权重;
视差值的计算采用WTA策略,即为
其中,D为参考图的初始视差图,D(x,y)为参考像素点(x,y)即P点的初始视差值,S(d)={dmin,1,2...,dmax}为视差搜索范围,dmin、dmax分别代表最小、最大的视差搜索值;
利用左右一致性检测方法检测视差异常值点,不满足下式的P点(x,y)即为视差异常值点;
|Drl(x,y)-Dlr(x-Drl(x,y),y)|<1
式中Drl是以左图为参考图得到的左图初始视差图,Dlr是以右图为参考图得到的右图初始视差图;根据视差值的定义可知左图上的点(x,y)
对应右图上的匹配点为(x-Drl(x,y),y),
故通过对左右视差图进行一致性校验,可以将初始匹配中的错误视差值剔除;
其中,b为对数权重函数的底数;IRn(k,y)为参考图像素点(k,y)的RGB通道的像素值;ITn(k-1,y)为目标图像素点(k-1,y)的RGB通道的像素值;为参考像素点P在视差搜索值为d时的总聚合匹配代价又称视差空间;α为权重平滑因子。
CN201410158102.6A 2014-04-18 2014-04-18 一种基于双权重聚合的立体匹配方法 Active CN103971366B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410158102.6A CN103971366B (zh) 2014-04-18 2014-04-18 一种基于双权重聚合的立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410158102.6A CN103971366B (zh) 2014-04-18 2014-04-18 一种基于双权重聚合的立体匹配方法

Publications (2)

Publication Number Publication Date
CN103971366A CN103971366A (zh) 2014-08-06
CN103971366B true CN103971366B (zh) 2017-08-11

Family

ID=51240815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410158102.6A Active CN103971366B (zh) 2014-04-18 2014-04-18 一种基于双权重聚合的立体匹配方法

Country Status (1)

Country Link
CN (1) CN103971366B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104867135B (zh) * 2015-05-04 2017-08-25 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
CN104853184B (zh) * 2015-05-27 2017-02-01 天津大学 一种影响立体图像舒适度的视差范围的检测方法
CN106559659B (zh) * 2015-09-25 2018-07-10 台达电子工业股份有限公司 立体影像深度图产生装置及方法
CN106815594A (zh) * 2015-11-30 2017-06-09 展讯通信(上海)有限公司 立体匹配方法及装置
CN106530337A (zh) * 2016-10-31 2017-03-22 武汉市工程科学技术研究院 基于图像灰度引导的非局部立体像对密集匹配方法
CN106600632B (zh) * 2016-11-04 2019-09-17 天津大学 一种改进匹配代价聚合的立体图像匹配方法
CN107481246B (zh) * 2017-07-14 2019-08-16 天津大学 基于匹配代价更新及图像分割的视差精炼方法
CN107392898B (zh) * 2017-07-20 2020-03-20 海信集团有限公司 应用于双目立体视觉中的像素点视差值计算方法及装置
CN109919985A (zh) * 2019-03-01 2019-06-21 北京市商汤科技开发有限公司 数据处理方法和装置、电子设备和计算机存储介质
CN112330725B (zh) * 2020-10-26 2024-04-30 浙江理工大学 一种基于分组渐近的双目视差获取方法和系统
CN113763269B (zh) * 2021-08-30 2023-11-24 上海工程技术大学 一种用于双目图像的立体匹配方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096919B (zh) * 2010-12-31 2013-03-20 北京航空航天大学 一种基于双向加权聚合的实时立体匹配方法
CN103226821B (zh) * 2013-04-27 2015-07-01 山西大学 基于视差图像素分类校正优化的立体匹配方法
CN103325120A (zh) * 2013-06-30 2013-09-25 西南交通大学 一种快速自适应支持权值双目视觉立体匹配方法

Also Published As

Publication number Publication date
CN103971366A (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
CN103971366B (zh) 一种基于双权重聚合的立体匹配方法
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
CN109166077B (zh) 图像对齐方法、装置、可读存储介质及计算机设备
CN101635859B (zh) 一种实现平面视频转立体视频的方法和装置
CN102665086B (zh) 利用基于区域的局部立体匹配获取视差的方法
Nalpantidis et al. Biologically and psychophysically inspired adaptive support weights algorithm for stereo correspondence
CN104867135B (zh) 一种基于指导图像引导的高精度立体匹配方法
Hong et al. A local stereo matching algorithm based on weighted guided image filtering for improving the generation of depth range images
CN110148181A (zh) 一种通用双目立体匹配方法
CN106408513B (zh) 深度图超分辨率重建方法
CN103826032B (zh) 深度图后期处理方法
CN106355570A (zh) 一种结合深度特征的双目立体视觉匹配方法
CN107301664A (zh) 基于相似性测度函数的改进局部立体匹配方法
Chen et al. Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework
CN106600632B (zh) 一种改进匹配代价聚合的立体图像匹配方法
WO2014073670A1 (ja) 画像処理方法及び画像処理装置
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN104200453B (zh) 基于图像分割和可信度的视差图像校正方法
CN106384363B (zh) 一种快速自适应权重立体匹配方法
CN102385752B (zh) 一种基于距离和色彩差异的立体匹配方法
CN104966290B (zh) 一种基于sift描述子的自适应权重立体匹配方法
CN102447917A (zh) 立体图像匹配方法及其设备
CN105005988A (zh) 一种基于交互式图像分割的立体匹配方法
Huang et al. Toward naturalistic 2D-to-3D conversion
CN104331890B (zh) 一种全局视差估计方法和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210908

Address after: Room 109, no.1866, Bohai 12th Road, Port Economic Zone, Binhai New Area, Tianjin 300452

Patentee after: Tianjin Bohua Xinchuang Technology Co.,Ltd.

Address before: 300072 Tianjin City, Nankai District Wei Jin Road No. 92

Patentee before: Tianjin University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230104

Address after: Room 123, No. 1866, Bohai 12th Road, Lingang Economic Zone, Binhai New Area, Tianjin 300452

Patentee after: Tianjin Yongli Land Port Technology Development Co.,Ltd.

Address before: Room 109, no.1866, Bohai 12th Road, Port Economic Zone, Binhai New Area, Tianjin 300452

Patentee before: Tianjin Bohua Xinchuang Technology Co.,Ltd.

TR01 Transfer of patent right