CN107341822B - 一种基于最小分支代价聚合的立体匹配方法 - Google Patents
一种基于最小分支代价聚合的立体匹配方法 Download PDFInfo
- Publication number
- CN107341822B CN107341822B CN201710416336.XA CN201710416336A CN107341822B CN 107341822 B CN107341822 B CN 107341822B CN 201710416336 A CN201710416336 A CN 201710416336A CN 107341822 B CN107341822 B CN 107341822B
- Authority
- CN
- China
- Prior art keywords
- cost
- point
- polymerization
- node
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
Abstract
本发明公开了一种基于最小分支代价聚合的立体匹配方法。所述的最小分支构建于有向图,有向图的方向是由图像像素点的梯度信息决定的。在最小分支构建完成后,输入图像被分割成很多碎片,碎片的大小和强度信息能够有效的区分图像的强弱纹理区域,再根据碎片的大小和相似性将最可能处于同一视差下的碎片连接在一起,最后在所建立的完整最小分支结构上执行代价聚合步骤。基于最小分支的代价聚合方法保留了更多的图像自然信息,使得代价聚合结果更加准确,从而有效的提高了立体匹配的精度。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于最小分支代价聚合的立体匹配方法。
背景技术
在过去十年中,立体匹配在计算机视觉领域受到了极大的关注。学者们已经提出了许多优异的方法来显着地提高现有技术水平。立体匹配的目标是寻找两个行矫正后的左右图像中匹配的对应点。
立体匹配算法可以分为局部算法和全局算法两类。通常包括四个步骤:⑴计算每个像素的匹配成本,⑵根据窗口或特定结构聚合匹配代价,⑶计算视差值,⑷视差精化
在这些步骤中,代价聚合的质量对立体匹配算法的成功影响最大。它是最先进的局部算法的关键因素,也是一些顶级全局算法的主要构建块。大多数现有的全局方法在牺牲速度的前提下提高精度。相比之下,局部方法能达到较好的实时性,通常被认为是更有效的方法。虽然基于局部特征的方法具有快速的运行时间,但也需要更高的精度。一种基于双边滤波的代价聚合算法能够非常有效的保护图像深度边缘,并且在Middlebury数据集上得到了精度很高的视差图。然而,高视差精度通常需要较大的内核大小(例如35×35),这使得该方法计算复杂度很高。为了克服这个缺陷,出现了如快速双边滤波器和实时双向滤波器。但是由于这些方法依赖于量化所以降低了匹配性能。一种基于非局部代价聚合的新算法能够快速建立立体图像中相关像素之间的对应关系,该算法基于由立体图像对构建的最小生成树上的像素相似度来自适应地聚合匹配成本值以保留深度边缘。由于非局部算法不具有区域的概念,因此在处理无纹理区域方面仍然存在一些问题。一种改进的树结构-分割树引入区域的概念,在一定程度上改善了无纹理问题。一种基于融合树的代价聚合方法利用SLIC方法分割图像并且基于像素和区域计算两次MST,在提高精度的同时也大幅提高了运行时间。
发明内容
本发明目的是提供一种高精度匹配的基于最小分支代价聚合的立体匹配方法。
本发明提供一种基于最小分支代价聚合的立体匹配方法,该方法包括以下步骤:
S1:将经过矫正的左图像IL和右图像IR作为参考图像和目标图像。
S2:基于图像相邻像素点之间的梯度差的正负对左右图像分别构建有向图I'L和I'R。
S3:在有向图I'L和I'R上利用Tarjan算法构建最小树形图,为了保证树形图一定存在,需要添加一个虚拟节点,从虚拟节点构建直线连接有向图的每个节点,权重为无穷大。构建完最小树形图之后去掉虚拟节点和虚拟节点所连接的边,形成一个个独立的根树,每个根树代表一个碎片区域。
S4:对左右图像计算相邻碎片区域之间的两类连接边,一种边连接相邻两区域的叶子节点,权重为we1。另一种边连接相邻两区域的根节点,权重为we2。
S5:将S4中所计算的两类边按we1,λwe2进行升序排列并依次判断:若该边所连接的两碎片大小和相似性满足三个区域连接条件,则用由区域间颜色差决定的权重边连接两碎片,一次遍历后,不满足连接条件的碎片用无穷大权重的边连接,最终形成完整的最小分支结构。
S6:令p为左图像IL中当前待匹配像素点,视差d的取值范围是D=[dmin,dmax],利用代价函数求得像素点p和右图像IR中的所有候选匹配点pd的匹配代价,候选匹配点的匹配代价为Cost(p,pd,d)。
S7:在左右图上构建的完整最小分支上执行代价聚合,从根节点到叶子节点和从叶子节点到根节点两个方向遍历最小分支结构,节点p在视差d下的代价为CostA(p,pd,d)。
S8:根据WTA选择左右图中每个像素点最小匹配代价对应的视差值作为该点的视差值,生成左右视差图D1和D2。
S9:根据两幅视差图D1和D2进行左右一致性检查。
S10:根据检查结果更新左视差图中的像素点代价值。
S11:在左图中根据更新的代价值重新进行代价聚合和WTA策略选择视差,生成最终的视差图。
进一步的,S2中构建有向图的方法为:令i,j表示图像上一对相邻的像素点,则表示两点的梯度值,若构建两条连接线分别指向i和j。若构建一条连接线由j指向i,反之构建连接线从i指向j。
进一步的,S4中所述we1和we2计算公式为:
we2=|avg(U)-avg(V)|
其中p1和p2表示相邻两区域U和V的叶子节点,avg(U)和avg(V)代表U和V的平均颜色强度。
avg(U)=Colsum(U)/size(U)
Colsum(U)表示区域U中所有点的RGB三个通道颜色值之和,size(U)表示区域U包含点的总数。
进一步的,S5中λ取0.2,由于每个区域的根节点较叶子节点不易受边界节点的影响,所以赋予根节点之间的连接边更小的选择权重。区域连接条件:
size(U)-size(V)≤α
size(U)≤β或者size(V)≤β
c<min(Int(U)+τ(U),Int(V)+τ(V))
其中α=β=50,c表示当前判断的边的权重,Int(U),Int(V)表示区域U,V里面的最大的边权重。
τ(U)=k/size(U)
k=m*n/s
m和n表示图像的宽度和高度,s=200。τ(U)控制两个区域之间的差异在多大程度上小于区域内差异才能被连接。连接两区域的边的权重计算同we1。
进一步的,S6中代价函数的计算公式为:
颜色代价:
梯度代价:Cg(p,q)=min(|IL(p)-IR(q)|,τg)
代价函数:Cost(p,q)=w*Cc(p,q)+(1-w)*Cg(p,q)
其中τc,τg分别表示颜色和梯度的阈值,取值7和2。w表示颜色代价所占权重,取0.11。
进一步的,S7中代价聚合函数的计算公式为:
其中表示q点的总聚合代价,Pr(p)表示p点的父节点,表示从叶子节点到根节点代价聚合过程中p点在视差d下的聚合代价。
其中D(p,q)表示p点和q点之间边的权重和,σ=0.1。
其中Cd(p)表示p点在视差d下的匹配代价,Ch(p)表示点p的子节点。
进一步的,S8中所述的采用WTA策略选择具有最小代价值的候选点作最优匹配点具体为:像素p点的视差:d=argmind∈DCost(p,pd,d)
进一步的,S9中所述的左右一致性检查为:对于D1中的点p,视差值是d1,则p在D2中的对应点是p-d1,p-d1的视差值记为d2。若d1≠d2,p被标记为误匹配点。
进一步的,S10中所述更新代价值步骤为:若p为误匹配点,则对于视差范围内所有d,Cost(p,pd,d)=0否则Cost(p,pd,d)=|d-d1|。
本发明是第一个用到梯度信息建立像素点之间联系的立体匹配算法,打破了传统的观念:图像只能被建立成无向图,第一次尝试在有向图上进行立体匹配算法。在构建最小分支后,图像被分割成大量碎片,能够有效的区分图像的有无纹理区域,有利于提高立体匹配算法的准确性。本发明首次提出了在有向图上进行立体匹配的算法,同时提供的图像分割算法能够有效的区分图像的有无纹理区域,该算法具有很大的发展前景。
附图说明
图1为有向图示意图。
图2为构建最小分支的过程。
图3为区域之间的两类连接边示意图。
图4为连接后的完整的最小分支结构。
图5为左右一致性检查后的误匹配图。
图6为本文算法和其他算法生成的视差图对比。其中,(a)为Ground truth图,(b)为本文算法结果,(c)为Non-Local算法结果,(d)为Segment-Tree算法结果。
图7为本发明的方法流程图。
具体实施方式
下面,将结合附图1~6进一步详细说明本发明的具体实施方式
本发明基于最小分支代价聚合的立体匹配方法,具体实施步骤如下:
S1:将经过矫正的左图像IL和右图像IR分别作为参考图像和目标图像。
S2:基于图像相邻像素点之间的梯度差的正负对左右图像分别构建有向图I'L和I'R。令i,j表示图像上一对相邻的像素点,则表示两点的梯度值,若构建两条连接线分别指向i和j。若构建一条连接线由j指向i,反之构建连接线从i指向j,如图1所示。
S3:在有向图I'L和I'R上利用Tarjan算法构建最小树形图,为了保证树形图一定存在,需要添加一个虚拟节点,从虚拟节点构建直线连接有向图的每个节点,权重为无穷大。构建完最小树形图之后去掉虚拟节点和虚拟节点所连接的边,形成一个个独立的根树,每个根树代表一个碎片区域,如图2所示。
S4:分别计算每张图像所有碎片区域之间的两类连接边如3所示,边e1连接相邻两区域的叶子节点,权重边e2连接相邻两区域的根节点,权重we2=|avg(U)-avg(V)|。其中p1和p2表示相邻两区域U和V的叶子节点,avg(U)和avg(V)代表区域U和V的平均颜色强度。avg(U)=Colsum(U)/size(U),Colsum(U)表示区域U中所有像素点的RGB三通道颜色值之和,size(U)表示区域U中像素点的个数。
S5:将S4中所计算的两类边按we1,λwe2进行升序排列并依次判断:若该边所连接的两碎片大小和相似性满足三个区域连接条件,则用由区域间颜色差决定的权重边连接两碎片,一次遍历后,不满足连接条件的碎片用无穷大权重的边连接,最终形成完整的最小分支结构。如图4所示,虚线边代表S4中所计算的区域间连接边。
区域连接条件为:
size(U)-size(V)≤α
size(U)≤β或者size(V)≤β
c<min(Int(U)+τ(U),Int(V)+τ(V))
其中α=β=50,c表示当前判断的连接边的权重,Int(U),Int(V)表示区域U,V里面的最大的边权重。
τ(U)=k/size(U)
k=m*n/s
m和n表示参考图像的宽度和高度,s=200。τ(U)控制两个区域之间的差异在多大程度上小于区域内差异才能被连接。连接两区域的边权重计算同we1。
S6:令p为左图像IL中当前待匹配像素点,视差d的取值范围是D=[dmin,dmax],利用代价函数求得像素点p和右图像IR中的所有候选匹配点pd的匹配代价,候选匹配点的匹配代价为Cost(p,pd,d)。
代价函数的计算公式为:
颜色代价:
梯度代价:Cg(p,q)=min(|IL(p)-IR(q)|,τg)
代价函数:Cost(p,q)=w*Cc(p,q)+(1-w)*Cg(p,q)
其中τc,τg分别表示颜色和梯度的阈值,取值7和2。w表示颜色代价所占权重,取0.11。
S7:在左右图上构建的完整最小分支上执行代价聚合,从根节点到叶子节点和从叶子节点到根节点两个方向遍历最小分支结构,节点p在视差d下的代价为CostA(p,pd,d)。
其中表示q点的总聚合代价,Pr(p)表示p点的父节点,表示从叶子节点到根节点代价聚合过程中p点在视差d下的聚合代价。
其中D(p,q)表示p点和q点之间边的权重和,σ=0.1。
其中Cd(p)表示p点在视差d下的匹配代价,Ch(p)表示点p的子节点。
S8:根据WTA选择左右图中每个像素点最小匹配代价对应的视差值作为该点的视差值,生成左右视差图D1和D2。
S9:根据两幅视差图D1和D2进行左右一致性检查。对于D1中的点p,视差值是d1,则p在D2中的对应点是p-d1,p-d1的视差值记为d2。若d1≠d2,p被标记为误匹配点,如图5所示,黑色点代表误匹配点。
S10:根据检查结果更新左视差图中的像素点代价值,若p为误匹配点,则对于视差范围内所有d,Cost(p,pd,d)=0否则Cost(p,pd,d)=|d-d1|。
S11:在左图中根据更新的代价值重新进行代价聚合和WTA策略选择视差,生成最终的视差图。如图6所示,(a)为Ground truth图,(b)为本文算法结果,(c)为Non-Local算法结果,(d)为Segment-Tree算法结果。
本文的实验结果和与其他类似算法的对比,大幅降低了立体匹配的误匹配率:
表1为本发明对比算法NL,ST,HT在Middlebury 2001数据集的测试结果
表2为本发明对比算法NL,ST在Middlebury 2006数据集的测试结果
表3为本发明对比算法NL,ST在Middlebury 2014数据集的测试结果
Claims (7)
1.一种基于最小分支代价聚合的立体匹配方法,其特征在于,该方法包括以下步骤:
S1:将经过矫正的左图像IL和右图像IR分别作为参考图像和目标图像;
S2:基于图像相邻像素点之间的梯度差的正负对左右图像分别构建有向图I'L和I'R;具体为:令i,j表示图像上一对相邻的像素点,表示两点的梯度值,若构建两条有向连接线分别指向i和j;若构建一条有向连接线由j指向i,反之构建有向连接线从i指向j;
S3:在有向图I'L和I'R上利用Tarjan算法构建最小树形图,为了保证树形图一定存在,需要添加一个虚拟节点,从虚拟节点构建直线连接有向图的每个节点,权重为无穷大;构建完最小树形图之后去掉虚拟节点和虚拟节点所连接的边,形成一个个独立的根树,每个根树代表一个碎片区域;
S4:对左右图像计算相邻碎片区域之间的两类连接边,一类边连接相邻两区域的叶子节点,权重为we1;另一类边连接相邻两区域的根节点,权重为we2;we1和we2计算公式为:
we2=|avg(U)-avg(V)|
其中p1和p2表示相邻两区域U和V的根树的叶子节点,avg(U)和avg(V)代表区域U和V的平均颜色强度;
avg(U)=Colsum(U)/size(U)
Colsum(U)表示区域U中所有像素点的RGB三通道颜色值之和,size(U)表示区域U中像素点的个数;
S5:将S4中所计算的两类边按we1,λwe2进行升序排列并依次判断:若当前边所连接的两碎片大小和相似性满足三个区域连接条件,则用由区域间颜色差决定的权重的边连接两碎片,一次遍历后,不满足连接条件的碎片用无穷大权重的边连接,最终形成完整的最小分支结构;所述的区域连接条件为:
size(U)-size(V)≤α;
size(U)≤β或者size(V)≤β;
c<min(Int(U)+τ(U),Int(V)+τ(V))
其中α=β=50,c表示当前判断的连接边的权重,Int(U),Int(V)分别表示区域U,V里面的最大的边权重;
τ(U)=k/size(U);
k=m*n/s
m和n表示参考图像的宽度和高度,s=200;τ(U)控制两个区域之间的差异在多大程度上小于区域内差异才能被连接;连接两区域的边权重计算同we1;
S6:令p为左图像IL中当前待匹配像素点,视差d的取值范围是D=[dmin,dmax],利用代价函数求得像素点p和右图像IR中的所有候选匹配点pd的匹配代价,候选匹配点的匹配代价为Cost(p,pd,d);
S7:在左右图像上构建的完整最小分支上执行代价聚合,从根节点到叶子节点和从叶子节点到根节点两个方向遍历最小分支结构,节点p在视差d下的代价为CostA(p,pd,d);
S8:根据WTA策略,即选择左右图像中每个像素点最小匹配代价对应的视差值作为该点的视差值,生成左右视差图D1和D2;
S9:根据两幅视差图D1和D2进行左右一致性检查;
S10:根据检查结果更新左视差图中的像素点代价值;
S11:在左视差图中根据更新的代价值重新进行代价聚合和WTA策略选择视差,生成最终的视差图。
2.根据权利要求1所述的基于最小分支代价聚合的立体匹配方法,其特征在于:S5中λ取0.2。
3.根据权利要求1或2所述的基于最小分支代价聚合的立体匹配方法,其特征在于:
S6中代价函数的计算公式为:
颜色代价:
梯度代价:Cg(p,q)=min(|IL(p)-IR(q)|,τg)
代价函数:Cost(p,q)=w*Cc(p,q)+(1-w)*Cg(p,q)
其中τc,τg分别表示颜色和梯度的阈值,取值7和2;w表示颜色代价所占权重,取0.11。
4.根据权利要求3所述的基于最小分支代价聚合的立体匹配方法,其特征在于:
S7中代价聚合的计算公式:
其中表示q点的总聚合代价,Pr(p)表示p点的父节点,表示从叶子节点到根节点代价聚合过程中p点在视差d下的聚合代价;
其中D(p,q)表示p点和q点之间边的权重和,σ=0.1;
其中Cd(p)表示p点在视差d下的匹配代价,Ch(p)表示点p的子节点。
5.根据权利要求4所述的基于最小分支代价聚合的立体匹配方法,其特征在于:
S8中采用WTA策略选择具有最小代价值的候选点作最优匹配点具体为:
像素p点的视差:
d=argmind∈DCost(p,pd,d)。
6.根据权利要求4或5所述的基于最小分支代价聚合的立体匹配方法,其特征在于:
S9中所述的左右一致性检查为:对于D1中的点p,视差值是d1,则p在D2中的对应点是q,q的视差值记为d2;若d1≠d2,p被标记为误匹配点。
7.根据权利要求6所述的基于最小分支代价聚合的立体匹配方法,其特征在于:
S10中所述更新代价值步骤为:若p为误匹配点,则对于视差范围内所有d,Cost(p,pd,d)=0否则Cost(p,pd,d)=|d-d1|。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710416336.XA CN107341822B (zh) | 2017-06-06 | 2017-06-06 | 一种基于最小分支代价聚合的立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710416336.XA CN107341822B (zh) | 2017-06-06 | 2017-06-06 | 一种基于最小分支代价聚合的立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107341822A CN107341822A (zh) | 2017-11-10 |
CN107341822B true CN107341822B (zh) | 2019-11-08 |
Family
ID=60220310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710416336.XA Active CN107341822B (zh) | 2017-06-06 | 2017-06-06 | 一种基于最小分支代价聚合的立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107341822B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107967152B (zh) * | 2017-12-12 | 2020-06-19 | 西安交通大学 | 基于最小分支路径函数胎记的软件局部抄袭证据生成方法 |
CN108596975B (zh) * | 2018-04-25 | 2022-03-29 | 华南理工大学 | 一种针对弱纹理区域的立体匹配算法 |
CN109146946B (zh) * | 2018-08-29 | 2022-01-04 | 河海大学常州校区 | 一种图像非局部立体匹配方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102074014A (zh) * | 2011-02-23 | 2011-05-25 | 山东大学 | 一种利用基于图论的图像分割算法的立体匹配方法 |
CN103020963A (zh) * | 2012-11-29 | 2013-04-03 | 北京航空航天大学 | 一种基于自适应分水岭的图割的多目立体匹配方法 |
CN103714549A (zh) * | 2013-12-30 | 2014-04-09 | 南京大学 | 基于快速局部匹配的立体图像对象分割方法 |
CN103714543A (zh) * | 2013-12-26 | 2014-04-09 | 南京理工大学 | 基于不变矩空间信息的简单树动态规划的双目立体匹配方法 |
CN104103071A (zh) * | 2014-06-27 | 2014-10-15 | 山东大学(威海) | 一种应用于磁共振图像壳核的交互式分割方法 |
CN104574391A (zh) * | 2014-12-29 | 2015-04-29 | 西安交通大学 | 一种基于自适应特征窗口的立体视觉匹配方法 |
CN105761270A (zh) * | 2016-03-15 | 2016-07-13 | 杭州电子科技大学 | 一种基于外极线距离变换的树型滤波立体匹配方法 |
CN106504276A (zh) * | 2016-10-25 | 2017-03-15 | 桂林电子科技大学 | 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法 |
CN106530336A (zh) * | 2016-11-07 | 2017-03-22 | 湖南源信光电科技有限公司 | 基于色彩信息和图割理论的立体匹配算法 |
-
2017
- 2017-06-06 CN CN201710416336.XA patent/CN107341822B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102074014A (zh) * | 2011-02-23 | 2011-05-25 | 山东大学 | 一种利用基于图论的图像分割算法的立体匹配方法 |
CN103020963A (zh) * | 2012-11-29 | 2013-04-03 | 北京航空航天大学 | 一种基于自适应分水岭的图割的多目立体匹配方法 |
CN103714543A (zh) * | 2013-12-26 | 2014-04-09 | 南京理工大学 | 基于不变矩空间信息的简单树动态规划的双目立体匹配方法 |
CN103714549A (zh) * | 2013-12-30 | 2014-04-09 | 南京大学 | 基于快速局部匹配的立体图像对象分割方法 |
CN104103071A (zh) * | 2014-06-27 | 2014-10-15 | 山东大学(威海) | 一种应用于磁共振图像壳核的交互式分割方法 |
CN104574391A (zh) * | 2014-12-29 | 2015-04-29 | 西安交通大学 | 一种基于自适应特征窗口的立体视觉匹配方法 |
CN105761270A (zh) * | 2016-03-15 | 2016-07-13 | 杭州电子科技大学 | 一种基于外极线距离变换的树型滤波立体匹配方法 |
CN106504276A (zh) * | 2016-10-25 | 2017-03-15 | 桂林电子科技大学 | 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法 |
CN106530336A (zh) * | 2016-11-07 | 2017-03-22 | 湖南源信光电科技有限公司 | 基于色彩信息和图割理论的立体匹配算法 |
Non-Patent Citations (5)
Title |
---|
A Non-Local Cost Aggregation Method for Stereo Matching;Qingxiong Yang;《2012 IEEE Conference on Computer Vision and Pattern Recognition》;20120621;1402-1409 * |
Segment-Tree based Cost Aggregation for Stereo Matching;Xing Mei 等;《CVPR 13 Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition》;20130628;14 D Scharstein, R Szeliski. The middlebury stereo vision page [OL]. http//vision.Middlebury.edu/stereo/, 2014. * |
基于多特征融合的多尺度立体匹配算法;靳太明 等;《计算机应用》;20161215;第36卷(第S2期);139-142 * |
基于改进梯度和自适应窗口的立体匹配算法;祝世平 等;《光学学报》;20150131;第35卷(第1期);0110003-1至0110003-9 * |
基于最小生成树的立体匹配算法;李智鹏 等;《合肥工业大学学报(自然科学版)》;20150531;第38卷(第5期);622-626 * |
Also Published As
Publication number | Publication date |
---|---|
CN107341822A (zh) | 2017-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | 3D cost aggregation with multiple minimum spanning trees for stereo matching | |
Couprie et al. | Power watersheds: A new image segmentation framework extending graph cuts, random walker and optimal spanning forest | |
CN104050682B (zh) | 一种融合颜色和深度信息的图像分割方法 | |
CN107341822B (zh) | 一种基于最小分支代价聚合的立体匹配方法 | |
CN103927717B (zh) | 基于改进型双边滤波的深度图像恢复方法 | |
CN104376529B (zh) | 一种基于glcm的灰度图像彩色化系统和方法 | |
CN108319972A (zh) | 一种针对图像语义分割的端到端差异网络学习方法 | |
JPH11250267A (ja) | 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体 | |
CN104850847B (zh) | 具有自动瘦脸功能的图像优化系统和方法 | |
CN110490913A (zh) | 基于角点与单线段编组的特征描述算子进行影像匹配方法 | |
CN109685145A (zh) | 一种基于深度学习和图像处理的小物件检测方法 | |
CN107909079A (zh) | 一种协同显著性检测方法 | |
CN108447068A (zh) | 三元图自动生成方法及利用该三元图的前景提取方法 | |
CN110322572A (zh) | 一种基于双目视觉的水下涵隧内壁三维信息恢复方法 | |
CN104574358A (zh) | 从聚焦堆图像进行场景分割的方法和设备 | |
CN106408596A (zh) | 基于边缘的局部立体匹配方法 | |
CN106937059A (zh) | 基于Kinect的影像合成方法和系统 | |
CN108711160A (zh) | 一种基于hsi增强性模型的目标分割方法 | |
CN109887008A (zh) | 基于前后向平滑和o(1)复杂度视差立体匹配方法、装置和设备 | |
CN108629809A (zh) | 一种精确高效的立体匹配方法 | |
WO2022160586A1 (zh) | 一种深度检测方法、装置、计算机设备和存储介质 | |
CN114782714A (zh) | 一种基于上下文信息融合的图像匹配方法及装置 | |
CN104090940B (zh) | 一种时序网络与时序数据的多态聚类方法 | |
CN104504692A (zh) | 基于区域对比度的图像中显著对象的提取方法 | |
CN114359030A (zh) | 一种人脸逆光图片的合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |