CN108090920B - 一种光场图像深度流估计方法 - Google Patents
一种光场图像深度流估计方法 Download PDFInfo
- Publication number
- CN108090920B CN108090920B CN201711337308.5A CN201711337308A CN108090920B CN 108090920 B CN108090920 B CN 108090920B CN 201711337308 A CN201711337308 A CN 201711337308A CN 108090920 B CN108090920 B CN 108090920B
- Authority
- CN
- China
- Prior art keywords
- sub
- image
- aperture
- light field
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种新的光场图像深度流估计方法。本发明步骤如下:步骤(1):将原始光场数据处理为一组子光圈图像阵列;步骤(2):计算中心子光圈图像的空间导数;步骤(3):对每一幅子光圈图像进行双边滤波;步骤(4):计算初始光场深度流视差估计;步骤(5):对步骤(4)得到的初始视差估计进行迭代优化;步骤(6):对视差估计进行归一化处理,将视差范围规定在[0,1]区间内;采用投票机制融合视差,用直方图统计计算得到的视差并取频数最大的视差为最终视差估计。本发明基于Horn和Schunck光流算法,创造性地把深度参数β直接带入HS光流计算公式中,提高了深度估计的准确性。
Description
技术领域
本发明涉及视觉图像处理技术领域,具体的涉及一种新的光场图像深度流估计方法。
背景技术
光场相机的发展带动了光场技术的更新,不同于传统图像只能记录光线的强度信息和位置信息,光场图像还可以记录光线的方向信息。光场成像以其独特的优势成为一种重要的信息获取手段,并已经在立体匹配、图像分割、目标识别、三维重建等诸多领域广泛应用。而这些应用都是建立在准确的深度估计基础上。所以深度估计是光场技术的至关重要的一环。
深度指的是场景中某一点到相机中心所在平面的距离。场景中的所有点都映射在一张深度图上,深度图上的每一个像素记录了该点到相机中心所在平面的距离。
深度计算的方法各种各样,常见的主要有多视图立体法、光度立体视觉法、色度成形法、散焦推断法以及基于机器学习的方法等等。本发明采用的是基于光流的深度流估计算法。
光流,是Gibson在1950年首先提出来的。它是空间运动物体在成像平面上的像素运动的瞬时速度,是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。通过分析图像的光流变化,可以反映现实场景的运动场。
光流在图像拼接、目标跟踪、运动估算、无人机避障、医学图像分析等领域有着广泛的应用。但目前大多数光流算法存在计算量大、耗时较长的问题,这阻碍了光流算法的广泛应用。快速光流算法是计算机视觉领域一个亟待解决的问题。
现有的光流计算方法主要分为以下几类:基于梯度的方法、基于区域的匹配法、基于能量的方法、基于相位的方法和神经动力学法。大多数光流计算通常采用基于梯度的方法,其中比较经典的是 Horn-Schunck(H-S)算法和Lucas-Kanade(L-K)算法。1981年,Horn和Schunck推导出光流基本约束方程,在此基础上加上整体平滑约束,构成了著名的H-S算法。同年,Lucas和Kanade提出一种迭代的基于梯度的图像匹配算法,即L-K算法。该算法基于局部平滑假设,假设一个窗口内所有像素具有相同的运动矢量。
发明内容
本发明的目的在于提供一种新的光场图像深度流估计方法,并以所得光流估计图像的深度图。该算法基于Horn和Schunck光流算法,创造性地把深度参数β直接带入HS光流计算公式中,提高了深度估计的准确性。
本发明方法的具体步骤如下:
步骤(1):将原始光场数据处理为一组子光圈图像阵列,具体如下:
原始光场图像用双平面表示,即LF(x,y,u,v,c),表现为微透镜平面和主平面的光线信息集合;(x,y)为微透镜阵列平面坐标,取值范围为x∈[1,Nx],y∈[1,Ny]中的整数值,Nx和Ny分别为微透镜阵列的行数和列数;(u,v)为主透镜平面坐标,u,v的范围分别是和 Nu和Nv是微透镜图像水平和垂直方向的像素个数;c为颜色通道,取值范围为c∈[1,Nc]中的整数值,通常Nc取值为3,表示红、绿、蓝三色通道。首先在主透镜平面任取一个坐标(u',v'),然后从原始光场数据LF(x,y,u,v,c)中提取子光圈图像LF(u',v')(x,y,c),每一个(u,v)对应一幅子光圈图像,所以共有Nu*Nv幅子光圈图像,组成子光圈图像阵列 LF(u,v)(x,y,c)。而坐标为(0,0)的子光圈图像称为中心子光圈图像 LF(0,0)(x,y,c)。
步骤(2):计算中心子光圈图像的空间导数,具体如下:
对于基准图像LF(0,0,c)(x,y),根据导数计算公式,可得中心子光圈在x,y方向的导数分别为IxLF(0,0,c)、IyLF(0,0,c)。对图像的所有颜色通道进行相同的导数计算,并且对各通道导数平方和开平方,得到图像LF(0,0)的导数 IxLF(0,0)、IyLF(0,0);导数公式为:
其中,Ix,Iy分别表示图像在x,y方向的导数。
步骤(3):为了保持边缘和去除噪声,对每一幅子光圈图像进行双边滤波。取一幅子光圈图像LF(u',v')(x,y,c)和中心子光圈图像 LF(0,0)(x,y,c),分别和[0.25 0.25]卷积,得到两幅图像像素在不同颜色通道的差值Iu,vLF(x,y,c),然后对各通道导数平方和开平方,得到最终差值Iu,vLF(x,y)。
步骤(4):计算初始光场深度流视差估计,具体如下:
对步骤(3)的两幅子光圈图像计算(u,v)方向上的差值,记为 du=u'-u,dv=v'-v。根据光场图像亮度恒定原理,将中心子光圈图像 LF(0,0)在x,y方向的导数IxLF(0,0)、IyLF(0,0)分别与du,dv相乘再相加可得到子光圈图像关于时间的偏导数-ItLF。然后计算子光圈图像在(u,v) 方向上的偏导数LFu和LFv:
根据光场图像亮度恒定原理可得:
IxLF(0,0)dx+IyLF(0,0)dy+LFudu+LFvdv=0
由步骤(3)所知:两幅图像像素在不同颜色通道的差值为 Iu,vLF(x,y,c),合并通道后为Iu,vLF(x,y),物理意义就是两幅图像在(u,v) 方向上的导数LFu和LFv乘以各自的增量du,dv。
即:LFudu+LFvdv=Iu,vLF(x,y)
设空间中对焦深度为α的一点在两个不同子光圈(u,v)、(u',v')中对应的坐标分别为(x,y)、(x',y'),则有如下关系:
则图像LF(u,v)与LF(0,0)的相位差为:
Δx=β·(u-u')
记相位差Δx为dx,则
IxLF(0,0)βdu+IyLF(0,0)βdv+Iu,vLF(x,y)=0
由此得到初始视差估计:
步骤(5):对步骤(4)得到的初始视差估计进行迭代优化,具体如下:
首先,对β进行加权中值滤波,其中掩膜为:
β和H做卷积后生成视差均值记为β。然后对视差β进行迭代,迭代公式如下:
其中ε是最小正则项,一般取0.00001。迭代次数一般为5次。
步骤(6):对视差估计进行归一化处理,将视差范围规定在[0,1] 区间内。采用投票机制融合视差,用直方图统计计算得到的视差并取频数最大的视差为最终视差估计。
本发明有益效果如下:
本发明基于Horn和Schunck光流算法,创造性地把深度视差β直接带入HS光流计算公式中,利用视差值β直接进行迭代,省略了由光流转换为深度信息的过程。相对于传统的HS算法,改进后的算法降低了计算复杂度,也提高了深度流估计的精确度。
本发明采用投票机制融合视差,用直方图统计计算得到的视差并取频数最大的视差为最终视差估计。通过该方法可以利用数学统计规律减小视差估计的误差,提高深度流估计的精确度
附图说明
图1是本发明光场图像深度流估计算法的流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,一种新的光场图像深度流估计方法,并以所得光流估计图像的深度图。该算法基于Horn和Schunck光流算法,创造性地把深度参数β直接带入HS光流计算公式中,提高了深度估计的准确性。
本发明方法的具体步骤如下:
步骤(1):将原始光场数据处理为一组子光圈图像阵列,具体如下:
原始光场图像用双平面表示,即LF(x,y,u,v,c),表现为微透镜平面和主平面的光线信息集合;(x,y)为微透镜阵列平面坐标,取值范围为x∈[1,Nx],y∈[1,Ny]中的整数值,Nx和Ny分别为微透镜阵列的行数和列数;(u,v)为主透镜平面坐标,u,v的范围分别是和 Nu和Nv是微透镜图像水平和垂直方向的像素个数;c为颜色通道,取值范围为c∈[1,Nc]中的整数值,通常Nc取值为3,表示红、绿、蓝三色通道。首先在主透镜平面任取一个坐标(u',v'),然后从原始光场数据LF(x,y,u,v,c)中提取子光圈图像LF(u',v')(x,y,c),每一个(u,v)对应一幅子光圈图像,所以共有Nu*Nv幅子光圈图像,组成子光圈图像阵列 LF(u,v)(x,y,c)。而坐标为(0,0)的子光圈图像称为中心子光圈图像 LF(0,0)(x,y,c)。
步骤(2):计算中心子光圈图像的空间导数,具体如下:
对于基准图像LF(0,0,c)(x,y),根据导数计算公式,可得中心子光圈在x,y方向的导数分别为IxLF(0,0,c)、IyLF(0,0,c)。对图像的所有颜色通道进行相同的导数计算,并且对各通道导数平方和开平方,得到图像LF(0,0)的导数 IxLF(0,0)、IyLF(0,0);导数公式为:
其中,Ix,Iy分别表示图像在x,y方向的导数。
步骤(3):为了保持边缘和去除噪声,对每一幅子光圈图像进行双边滤波。取一幅子光圈图像LF(u',v')(x,y,c)和中心子光圈图像 LF(0,0)(x,y,c),分别和[0.25 0.25]卷积,得到两幅图像像素在不同颜色通道的差值Iu,vLF(x,y,c),然后对各通道导数平方和开平方,得到最终差值Iu,vLF(x,y)。
步骤(4):计算初始光场深度流视差估计,具体如下:
对步骤(3)的两幅子光圈图像计算(u,v)方向上的差值,记为 du=u'-u,dv=v'-v。根据光场图像亮度恒定原理,将中心子光圈图像 LF(0,0)在x,y方向的导数IxLF(0,0)、IyLF(0,0)分别与du,dv相乘再相加可得到子光圈图像关于时间的偏导数-ItLF。然后计算子光圈图像在(u,v) 方向上的偏导数LFu和LFv:
根据光场图像亮度恒定原理可得:
IxLF(0,0)dx+IyLF(0,0)dy+LFudu+LFvdv=0
由步骤(3)所知:两幅图像像素在不同颜色通道的差值为 Iu,vLF(x,y,c),合并通道后为Iu,vLF(x,y),物理意义就是两幅图像在(u,v) 方向上的导数LFu和LFv乘以各自的增量du,dv。
即:LFudu+LFvdv=Iu,vLF(x,y)
设空间中对焦深度为α的一点在两个不同子光圈(u,v)、(u',v')中对应的坐标分别为(x,y)、(x',y'),则有如下关系:
则图像LF(u,v)与LF(0,0)的相位差为:
Δx=β·(u-u')
记相位差Δx为dx,则
IxLF(0,0)βdu+IyLF(0,0)βdv+Iu,vLF(x,y)=0
由此得到初始视差估计:
步骤(5):对步骤(4)得到的初始视差估计进行迭代优化,具体如下:
首先,对β进行加权中值滤波,其中掩膜为:
β和H做卷积后生成视差均值记为β。然后对视差β进行迭代,迭代公式如下:
其中ε是最小正则项,一般取0.00001。迭代次数一般为5次。
步骤(6):对视差估计进行归一化处理,将视差范围规定在[0,1] 区间内。采用投票机制融合视差,用直方图统计计算得到的视差并取频数最大的视差为最终视差估计。
Claims (1)
1.一种光场图像深度流估计方法,其特征在于包括如下步骤:
步骤(1):将原始光场数据处理为一组子光圈图像阵列;
步骤(2):计算中心子光圈图像的空间导数;
步骤(3):对每一幅子光圈图像进行双边滤波;
步骤(4):计算初始光场深度流视差估计;
步骤(5):对步骤(4)得到的初始视差估计进行迭代优化;
步骤(6):对视差估计进行归一化处理,将视差范围规定在[0,1]区间内;采用投票机制融合视差,用直方图统计计算得到的视差并取频数最大的视差为最终视差估计;
步骤(1)所述的将原始光场数据处理为一组子光圈图像阵列,具体如下:
原始光场图像用双平面表示,即LF(x,y,u,v,c),表现为微透镜平面和主平面的光线信息集合;(x,y)为微透镜阵列平面坐标,取值范围为x∈[1,Nx],y∈[1,Ny]中的整数值,Nx和Ny分别为微透镜阵列的行数和列数;(u,v)为主透镜平面坐标,u,v的范围分别是和Nu和Nv是微透镜图像水平和垂直方向的像素个数;c为颜色通道,取值范围为c∈[1,Nc]中的整数值,Nc取值为3,表示红、绿、蓝三色通道;首先在主透镜平面任取一个坐标(u',v'),然后从原始光场数据LF(x,y,u,v,c)中提取子光圈图像LF(u',v')(x,y,c),每一个(u,v)对应一幅子光圈图像,所以共有Nu*Nv幅子光圈图像,组成子光圈图像阵列LF(u,v)(x,y,c);而坐标为(0,0)的子光圈图像称为中心子光圈图像LF(0,0)(x,y,c);
步骤(2)所述的计算中心子光圈图像的空间导数,具体如下:
对于基准图像LF(0,0,c)(x,y),根据导数计算公式,可得中心子光圈在x,y方向的导数分别为IxLF(0,0,c)、IyLF(0,0,c);对图像的所有颜色通道进行相同的导数计算,并且对各通道导数平方和开平方,得到图像LF(0,0)的导数IxLF(0,0)、IyLF(0,0);导数公式为:
其中,Ix,Iy分别表示图像在x,y方向的导数;
步骤(3)所述的对每一幅子光圈图像进行双边滤波,具体如下:
取一幅子光圈图像LF(u',v')(x,y,c)和中心子光圈图像LF(0,0)(x,y,c),分别和[0.250.25]卷积,得到两幅图像像素在不同颜色通道的差值Iu,vLF(x,y,c),然后对各通道导数平方和开平方,得到最终差值Iu,vLF(x,y)
步骤(4)所述的计算初始光场深度流视差估计,具体如下:
对步骤(3)的两幅子光圈图像计算(u,v)方向上的差值,记为du=u'-u,dv=v'-v;根据光场图像亮度恒定原理,将中心子光圈图像LF(0,0)在x,y方向的导数IxLF(0,0)、IyLF(0,0)分别与du,dv相乘再相加可得到子光圈图像关于时间的偏导数-ItLF;然后计算子光圈图像在(u,v)方向上的偏导数LFu和LFv:
根据光场图像亮度恒定原理可得:
IxLF(0,0)dx+IyLF(0,0)dy+LFudu+LFvdv=0
由步骤(3)所知:两幅图像像素在不同颜色通道的差值为Iu,vLF(x,y,c),合并通道后为Iu,vLF(x,y),物理意义就是两幅图像在(u,v)方向上的导数LFu和LFv乘以各自的增量du,dv;
即:LFudu+LFvdv=Iu,vLF(x,y)
设空间中对焦深度为α的一点在两个不同子光圈(u,v)、(u',v')中对应的坐标分别为(x,y)、(x',y'),则有如下关系:
则图像LF(u,v)与LF(0,0)的相位差为:
Δx=β·(u-u')
记相位差Δx为dx,则
IxLF(0,0)βdu+IyLF(0,0)βdv+Iu,vLF(x,y)=0
由此得到初始视差估计:
步骤(5)所述的对得到的初始视差估计进行迭代优化,具体如下:
首先,对β进行加权中值滤波,其中掩膜为:
然后对视差β进行迭代,迭代公式如下:
其中ε是最小正则项,取0.00001;迭代次数为5次。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711337308.5A CN108090920B (zh) | 2017-12-14 | 2017-12-14 | 一种光场图像深度流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711337308.5A CN108090920B (zh) | 2017-12-14 | 2017-12-14 | 一种光场图像深度流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108090920A CN108090920A (zh) | 2018-05-29 |
CN108090920B true CN108090920B (zh) | 2021-11-30 |
Family
ID=62175719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711337308.5A Active CN108090920B (zh) | 2017-12-14 | 2017-12-14 | 一种光场图像深度流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108090920B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109615650B (zh) * | 2018-11-22 | 2022-11-25 | 浙江工商大学 | 一种基于变分法和遮挡互补的光场流估计方法 |
CN116228601B (zh) * | 2023-05-08 | 2023-07-21 | 山东中都机器有限公司 | 一种火车双向平煤的平煤效果视觉监控方法 |
CN117095119B (zh) * | 2023-08-17 | 2024-05-28 | 郑州众益信息科技有限公司 | 一种地空一体测绘方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103702098A (zh) * | 2013-12-09 | 2014-04-02 | 上海交通大学 | 一种时空域联合约束的三视点立体视频深度提取方法 |
CN104318561A (zh) * | 2014-10-22 | 2015-01-28 | 上海理工大学 | 基于双目立体视觉与光流融合的车辆运动信息检测方法 |
CN104598744A (zh) * | 2015-01-27 | 2015-05-06 | 北京工业大学 | 一种基于光场的深度估计方法 |
CN104849852A (zh) * | 2015-05-07 | 2015-08-19 | 清华大学 | 基于相机阵列的光场显微成像系统及方法 |
CN104869387A (zh) * | 2015-04-19 | 2015-08-26 | 中国传媒大学 | 基于光流法的双目图像最大视差获取方法 |
CN105551050A (zh) * | 2015-12-29 | 2016-05-04 | 深圳市未来媒体技术研究院 | 一种基于光场的图像深度估计方法 |
EP3026629A1 (en) * | 2014-11-26 | 2016-06-01 | Thomson Licensing | Method and apparatus for estimating depth of focused plenoptic data |
CN106340041A (zh) * | 2016-09-18 | 2017-01-18 | 杭州电子科技大学 | 一种基于级联遮挡滤除滤波器的光场相机深度估计方法 |
CN106651943A (zh) * | 2016-12-30 | 2017-05-10 | 杭州电子科技大学 | 一种基于遮挡几何互补模型的光场相机深度估计方法 |
-
2017
- 2017-12-14 CN CN201711337308.5A patent/CN108090920B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103702098A (zh) * | 2013-12-09 | 2014-04-02 | 上海交通大学 | 一种时空域联合约束的三视点立体视频深度提取方法 |
CN104318561A (zh) * | 2014-10-22 | 2015-01-28 | 上海理工大学 | 基于双目立体视觉与光流融合的车辆运动信息检测方法 |
EP3026629A1 (en) * | 2014-11-26 | 2016-06-01 | Thomson Licensing | Method and apparatus for estimating depth of focused plenoptic data |
CN104598744A (zh) * | 2015-01-27 | 2015-05-06 | 北京工业大学 | 一种基于光场的深度估计方法 |
CN104869387A (zh) * | 2015-04-19 | 2015-08-26 | 中国传媒大学 | 基于光流法的双目图像最大视差获取方法 |
CN104849852A (zh) * | 2015-05-07 | 2015-08-19 | 清华大学 | 基于相机阵列的光场显微成像系统及方法 |
CN105551050A (zh) * | 2015-12-29 | 2016-05-04 | 深圳市未来媒体技术研究院 | 一种基于光场的图像深度估计方法 |
CN106340041A (zh) * | 2016-09-18 | 2017-01-18 | 杭州电子科技大学 | 一种基于级联遮挡滤除滤波器的光场相机深度估计方法 |
CN106651943A (zh) * | 2016-12-30 | 2017-05-10 | 杭州电子科技大学 | 一种基于遮挡几何互补模型的光场相机深度估计方法 |
Non-Patent Citations (6)
Title |
---|
"Horn-Schunck光流理论研究";董国华;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160301;第1-108页 * |
"Motion Detail Preserving Optical Flow Estimation";Li Xu 等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20111213;第34卷(第9期);第1744-1757页 * |
"Optical Flow 3D Segmentation and Interpretation: A Variational Method with Active Curve Evolution and Level Sets";A.Mitiche 等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20060925;第28卷(第11期);第1818-1829页 * |
"基于多线索和遮挡检测的光场相机深度估计研究";汪荣;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170616;第1-63页 * |
"立体图像序列中匹配算法的研究及其在目标识别中的应用";姚思勤;《中国优秀硕士学位论文全文数据库 信息科技辑》;20080915;第2008年卷(第9期);I138-701 * |
"视频对象分割及立体视差估计研究";何华君;《中国优秀博硕士学位论文全文数据库 (硕士) 信息科技辑》;20070615;第2007年卷(第6期);I138-561 * |
Also Published As
Publication number | Publication date |
---|---|
CN108090920A (zh) | 2018-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3504682B1 (en) | Simultaneous localization and mapping with an event camera | |
Rebecq et al. | Evo: A geometric approach to event-based 6-dof parallel tracking and mapping in real time | |
EP3673461B1 (en) | Systems and methods for hybrid depth regularization | |
CN110569704A (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
US10353271B2 (en) | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF | |
Petrovai et al. | Exploiting pseudo labels in a self-supervised learning framework for improved monocular depth estimation | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN103868460A (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
Correal et al. | Automatic expert system for 3D terrain reconstruction based on stereo vision and histogram matching | |
CN110706269B (zh) | 一种基于双目视觉slam的动态场景密集建模方法 | |
CN108090920B (zh) | 一种光场图像深度流估计方法 | |
Yan et al. | Scene flow estimation: A survey | |
CN101765019B (zh) | 一种用于运动模糊和光照变化图像的立体匹配方法 | |
Battrawy et al. | Lidar-flow: Dense scene flow estimation from sparse lidar and stereo images | |
CN109859249B (zh) | Rgbd序列中基于自动分层的场景流估计方法 | |
Sizintsev et al. | Spatiotemporal stereo and scene flow via stequel matching | |
Gao et al. | A general deep learning based framework for 3D reconstruction from multi-view stereo satellite images | |
CN115375733A (zh) | 基于视频和点云数据的雪车雪橇三维滑行轨迹提取方法 | |
Chen et al. | A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery | |
Teutscher et al. | PDC: piecewise depth completion utilizing superpixels | |
CN107944350B (zh) | 一种基于外观和几何信息融合的单目视觉道路识别方法 | |
Hirata et al. | Real-time dense depth estimation using semantically-guided LIDAR data propagation and motion stereo | |
Cigla et al. | Gaussian mixture models for temporal depth fusion | |
Tseng et al. | Accurate depth map estimation from video via MRF optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230705 Address after: 311100 Room 604-1, Building 17, No. 1008, Longxiang Street, Cangqian Street, Yuhang District, Hangzhou City, Zhejiang Province Patentee after: Hangzhou duyuan Intelligent Technology Co.,Ltd. Address before: 310018, No. 18 Jiao Tong Street, Xiasha Higher Education Park, Hangzhou, Zhejiang Patentee before: ZHEJIANG GONGSHANG University |