CN113643347A - 利用弱对准的异构相机的立体视觉 - Google Patents
利用弱对准的异构相机的立体视觉 Download PDFInfo
- Publication number
- CN113643347A CN113643347A CN202110604282.6A CN202110604282A CN113643347A CN 113643347 A CN113643347 A CN 113643347A CN 202110604282 A CN202110604282 A CN 202110604282A CN 113643347 A CN113643347 A CN 113643347A
- Authority
- CN
- China
- Prior art keywords
- camera
- image
- data set
- calibration data
- depth estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012937 correction Methods 0.000 claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims abstract description 40
- 230000009466 transformation Effects 0.000 claims abstract description 36
- 238000012986 modification Methods 0.000 claims abstract description 22
- 230000004048 modification Effects 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 6
- 239000000872 buffer Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- ONSIBMFFLJKTPT-UHFFFAOYSA-L zinc;2,3,4,5,6-pentachlorobenzenethiolate Chemical compound [Zn+2].[S-]C1=C(Cl)C(Cl)=C(Cl)C(Cl)=C1Cl.[S-]C1=C(Cl)C(Cl)=C(Cl)C(Cl)=C1Cl ONSIBMFFLJKTPT-UHFFFAOYSA-L 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
一种利用异构相机的深度估计方法,该方法包括:分别基于第一相机校准数据集和第二相机校准数据集来均质化第一相机图像和第二相机图像,其中第一相机图像和第二相机图像被失真校正并被变焦补偿;确定经均质化的第一相机图像和经均质化的第二相机图像的初始图像对修正变换矩阵;基于初始图像对修正变换矩阵,确定Δ图像对修正变换矩阵;基于初始图像对修正变换矩阵和Δ图像对修正变换矩阵,确定最终图像对修正变换矩阵,从而得到最终经修正图像对;以及,基于深度网络回归,对最终经修正图像对进行视差映射。
Description
技术领域
本公开涉及利用弱对准的异构(heterogeneous)相机的立体系统和立体视觉。
背景技术
立体视图可用于使用从不同视角拍摄的两个图像恢复场景的深度信息。深度信息可以被计算机视觉应用(包括自动驾驶中的深度感知)利用。立体视觉允许基于对极几何的三角测量来确定物体的距离,其中,该距离由左右经修正图像对中的水平像素移位(也称为视差图)表示。
发明内容
利用两个异构相机的深度估计的第一示例,该方法包括以下至少之一:分别基于第一相机校准数据集和第二相机校准数据集来均质化第一相机图像和第二相机图像,其中所述第一相机图像和第二相机图像被失真校正并被变焦补偿;确定经均质化的第一相机图像和经均质化的第二相机图像的初始图像对修正变换矩阵;基于所述初始图像对修正变换矩阵,确定Δ(delta)图像对修正变换矩阵;基于所述初始图像对修正变换矩阵和所述Δ图像对修正变换矩阵,确定最终图像对修正变换矩阵,从而得到最终经修正图像对;以及,基于深度网络回归,对所述最终经修正图像对进行视差映射。
利用两个异构相机的深度估计的第二示例,该方法包括以下至少之一:校准具有第一相机校准数据集的第一相机;校准具有第二相机校准数据集的第二相机,所述第二相机具有与所述第一相机不同的焦距、不同的视场和不同的像素数中的至少一者;基于所述第一相机校准数据集和所述第二相机校准数据集,在第一相机图像和第二相机图像之间进行失真校正;基于所述第一相机校准数据集和所述第二相机校准数据集,在所述第一相机图像和所述第二相机图像之间进行焦距补偿;基于变换矩阵回归,在经失真校正和焦距补偿的第一相机图像和所述第二相机图像之间修正图像对;以及,基于深度网络回归,对经修正的图像对进行视差映射。
利用两个异构相机的深度估计的第三示例,该方法包括以下至少之一:校准具有第一相机校准数据集的第一相机;校准具有第二相机校准数据集的第二相机,所述第二相机具有与所述第一相机不同的焦距、不同的视场和不同的像素数中的至少一者;基于所述第一相机校准数据集和所述第二相机校准数据集,在第一相机图像和第二相机图像之间进行失真校正;基于所述第一相机校准数据集和所述第二相机校准数据集,在所述第一相机图像和所述第二相机图像之间进行焦距补偿;基于深度网络回归,对经失真校正和焦距补偿的第一相机图像进行视差映射;基于所述第一相机校准数据集和所述第二相机校准数据集,确定初始姿态;使用姿态网络,对所述第一相机图像和所述第二相机图像以及所述初始姿态进行姿态映射,并输出Δ姿态;使所述Δ姿态、所述视差映射和所述第一相机图像扭曲(warp);以及,重构该扭曲以及经失真校正和焦距补偿的第二相机图像,以使重构误差最小化。
附图说明
在附图中:
图1是根据本公开的一个实施例的第一示例系统图;
图2是根据本公开的一个实施例的第二示例系统图;
图3是根据本公开的一个实施例的来自双异构相机的深度估计的示例逻辑流程;
图4是根据本公开的一个实施例的用于单目深度估计的深度监控的示例逻辑流程;
图5是根据本公开的一个实施例的深度估计的第一示例方法;
图6是根据本公开的一个实施例的深度估计的第二示例方法;并且
图7是根据本公开的一个实施例的深度估计的第三示例方法。
具体实施方式
下面列出的实施例仅是为了说明这种装置和方法的应用而写的,而不是为了限制范围。对这种装置和方法的等同修改形式应被归为落在权利要求的范围内。
贯穿以下描述和权利要求书,使用某些术语来指代特定的系统组件。如本领域的技术人员将领会的,不同的公司可能用不同的名称来指代某一组件和/或方法。本文献并无意在名称不同但功能相同的组件和/或方法之间进行区分。
在以下讨论和权利要求书中,术语“包括”和“包含”以开放式方式使用,因此可解释为意指“包括但不限于……”。同样,术语“耦接”或“耦合”旨在意指间接连接或直接连接。因此,如果第一设备耦接到第二设备,则该连接可以是通过直接连接,或者通过经由其他设备和连接的间接连接。
利用立体相机的一个当前问题是相机未对准或相机失配,这可能显著地影响3D深度估计。立体相机可受到各种环境因素的影响,诸如温度变化、机械应力和振动等。除其它因素外,这些因素可能引起滚转角、俯仰角和偏航角方面的基线移位。当前,为了应对这些因素,可将立体相机固定在立体专用装备中,这可能会增加部署成本并限制其实际使用。
在现代的基于视觉的系统中,通常利用一个以上的相机来实现不同的功能。在一个示例中,在自动驾驶系统中,可存在具有不同视场(Field of View,FOV)的两个或三个前置相机,以便观察不同距离处的物体。在本申请中,将异构相机应用于立体视觉。与典型的立体相机系统相比,这些异构相机可具有不同的失真或焦距。另外,相机之间的对准可能不会像在典型的立体相机系统中那样被机械地强制执行,并且可能会随时间漂移。为了解决将异构相机用于立体系统所涉及的问题,提出了一种在图像修正之前,基于相机校准(calibration)结果来执行图像失真校正和变焦补偿的解决方案。另外,相机之间的相对姿态被近似为大体上精确,且随着时间具有轻微的漂移,其中该漂移趋于在短时间间隔内保持一致。提出的解决方案部分利用在线姿态修正来跟踪和补偿姿态移位。
传统的立体视觉系统由同质(homogeneous)的两个相机组成,并且深度表示为这两个相机的经修正图像之间的视差图。
此外,将提出一种用于单目深度估计的解决方案,在该解决方案中,仅使用单个相机。由于难以获得地面真实深度,因此通常利用间接信息(诸如,相邻视频帧之间的三角测量)来训练单目深度。在该方法中,估计帧之间的姿态变化,这比回归稳定定位的相机的姿态漂移更具挑战性。因此,本申请提出了一种供弱对准的异构相机在训练单目深度估计器时提供深度监控信息的解决方案。
图1描绘了示例自动泊车辅助系统100,其可用于实现与过程700和800的一个或多个部分或步骤的操作相关联的深度神经网络。在该示例中,与混合系统相关联的处理器包括现场可编程门阵列(FPGA)122、图形处理器单元(GPU)120和中央处理单元(CPU)118。
处理单元118、120和122具有提供深度神经网络的能力。CPU是可以执行许多不同的功能的通用处理器,其通用性导致执行多个不同任务的能力,但是,它对多个数据流的处理受限,并且其与神经网络有关的功能也非常受限。GPU是图形处理器,其具有许多小型处理核,这些小型处理核能够按顺序处理并行的任务。FPGA是现场可编程设备,其具有被重新配置并以硬接线方式执行可编程到CPU或GPU中的任何功能的能力。由于FPGA的编程采用电路形式,因此其速度比CPU快许多倍,并且显著地比GPU快。
该系统还可包含其他类型的处理器,诸如包括片上CPU与GPU元件的加速处理单元(APU)以及专用于执行高速数字数据处理的数字信号处理器(DSP)。专用集成电路(ASIC)也可以执行FPGA的硬连线功能;然而,设计和生产ASIC的前置时间大约为一年的多个季度,而不是对FPGA进行编程时可获得的快速周转实现。
图形处理器单元120、中央处理单元118和现场可编程门阵列122彼此连接,并连接至存储器接口控制器112。FPGA通过可编程逻辑电路到存储器的互连130连接至存储器接口。该附加装置由于FPGA以非常大的带宽工作的事实并且为了最小化用于执行存储器任务的从FPGA所利用的电子电路而被使用。另外,存储器和接口控制器112还连接到持久存储器盘110、系统存储器114和只读存储器(ROM)116。
图2的系统可被利用来编程和训练FPGA。GPU能以非结构化数据很好地运作,并且可被用来进行训练,一旦已训练了数据,就可找到确定性推理模型,并且CPU可使用由GPU确定的模型数据对FPGA编程。
存储器接口和控制器连接到中央互连124,另外,该中央互连还连接到GPU 120、CPU 118和FPGA122。另外,中央互连124还连接到输入和输出接口128与网络接口126,该输入和输出接口128连接到第一相机132、第二相机134。
图2描绘了第二示例混合计算系统200,其可用于实现与流程500的一个或多个部分或步骤的操作相关联的神经网络。在该示例中,与该系统相关联的处理器包括现场可编程门阵列(FPGA)210和中央处理单元(CPU)220。
FPGA电连接到FPGA控制器212,FPGA控制器212与直接存储器访问(DMA)218对接。DMA连接到输入缓冲器214和输出缓冲器216,这些缓冲器耦接到FPGA,以分别将数据缓冲到FPGA中或从FPGA中缓冲出。DMA 218具有两个先入先出(FIFO)缓冲器,一个先入先出缓冲器用于主机CPU而另一个先入先出缓冲器用于FPGA,DMA允许将数据写入适当的缓冲器,以及从适当的缓冲器读取数据。
在DMA的CPU侧设有主开关228,该主开关228使数据和命令梭动(shuttle)到DMA。DMA还连接到同步动态随机存取存储器(SDRAM)控制器224,这允许数据被梭动到FPGA以及在FPGA到CPU 220之间往返梭动,SDRAM控制器还连接到外部SDRAM 226和CPU 220。主开关228连接到外围设备接口230,外围设备接口230连接到第一相机232和第二相机234。闪存控制器222控制持久存储器,并连接到CPU 220。
双异构相机的深度估计
图3描绘了来自具有第一相机校准数据集的第一相机的第一图像310以及来自具有第二相机校准数据集的第二相机的第二图像312,第二相机具有与第一相机不同的焦距、不同的视场和不同的像素数中的至少一者。第一图像310经历失真校正314,并且第二图像312经历失真校正316。经失真校正的第一图像经历变焦补偿318,并且经失真校正的第二图像经历变焦补偿320。失真校正和变焦补偿过程使得第一图像和第二个图像变为同质。经失真校正和变焦补偿的第一图像经历初始第一图像修正322,其利用了变换矩阵H1,从而产生经初始修正的第一图像326。经失真校正和变焦补偿的第二图像经历初始第二图像修正324,其利用了变换矩阵H2,从而产生经初始修正的第二图像328。经初始修正的第一图像和经初始修正的第二图像经历变换矩阵回归330从而产生移位,即移位ΔH1和移位ΔH2,该移位导致最终的第一图像修正332和最终的第二图像修正334。将最终的第一图像修正332和最终的第二图像修正334发送到深度网络336,从而产生视差图338,深度信息可以从该视差图338获得。
为了处理来自异构相机的图像,利用预处理来均质化经修正的图像。预处理由以下两个步骤组成:失真校正314、316和变焦补偿318、320。利用神经网络H来回归修正变换矩阵的漂移。
该方法可以包括:
1)校准第一相机和第二相机;
2)基于在步骤1)获得的固有参数进行图像失真校正;
5)修正网络330回归变换矩阵H的微小移位。到修正网络的输入是经修正的图像对326、328,而输出是移位ΔH1和移位ΔH2。可以端到端地训练或独立地训练修正网络。来自经修正的图像的视差图338可以通过深度网336获得。
用于单目深度估计的深度监控
图4描绘了来自具有第一相机校准数据集的第一相机的第一图像410以及来自具有第二相机校准数据集的第二相机的第二图像412,第二相机具有与第一相机不同的焦距、不同的视场和不同的像素数中的至少一者。第一相机校准数据集和第二相机校准数据集通过初始校准420确定。深度网络414被用于经失真校正和焦距补偿的第一相机图像的视差映射416回归。初始姿态422基于初始校准420。姿态网络418接收第一图像410、第二图像412和初始姿态以确定Δ姿态。初始姿态422和Δ姿态被求和。然后,系统使初始图像、视差映射416以及经求和的初始姿态和Δ姿态扭曲426。扭曲426以及第二图像被回归以使重建误差428最小化。
如图4所示,训练单目深度估计器的总体逻辑与基于视频的逻辑相似。关键差别在于姿态估计。在基于视频进行训练的同时,在相邻帧之间回归相机姿态变化P,并确定对小的增量变化ΔP的估计,这个的挑战性要小得多,并且得到的估计是稳定而准确的。姿态网络取图像对和初始姿态P作为输入,并输出姿态漂移ΔP。最终的相对姿态是初始姿态P和ΔP的重叠。
利用深度图Z和经回归的姿态P+ΔP={R,t},根据视图1来重构视图2可通过以下来扭曲:
其中,K是相机固有矩阵,并且p是其同质形式的像素坐标。
训练目标函数用于使重构误差最小化
L=∑p|I1(p)-I2(p)|+α|ΔP|,
其中,ΔP的大小是受约束的,并且其被期望具有非常受限的值。在此示例中,深度网络和姿态网路参数是最优的。
示例
图5描绘了利用两个异构相机的深度估计的第一示例,包括分别基于第一相机校准数据集和第二相机校准数据集来均质化(510)第一相机图像和第二相机图像,其中第一相机图像和第二相机图像被失真校正并被变焦补偿。该方法包括:确定(512)经均质化的第一相机图像和经均质化的第二相机图像的初始图像对修正变换矩阵,并基于该初始图像对修正变换矩阵,确定(514)Δ图像对修正变换矩阵。该方法还包括基于初始图像对修正变换矩阵和Δ图像对修正变换矩阵,确定(516)最终图像对修正变换矩阵,从而得到最终经修正图像对,并基于深度网络回归,对最终经修正图像对进行视差映射(518)。
第一相机和第二相机可弱对准,并且失真校正和/或焦距补偿可以在图像对修正之前执行。可以使用神经网络来回归图像对修正的修正变换矩阵的漂移和/或映射经修正的图像对的视差。
图6描绘了利用两个异构相机的深度估计的第二示例,包括校准(610)具有第一相机校准数据集的第一相机,并校准(612)具有第二相机校准数据集的第二相机,第二相机具有与第一相机不同的焦距、不同的视场和不同的像素数中的至少一者。该方法包括基于第一相机校准数据集和第二相机校准数据集,在第一相机图像和第二相机图像之间进行失真校正(614),并基于第一相机校准数据集和第二相机校准数据集,在第一相机图像和第二相机图像之间进行焦距补偿(616)。该方法还包括基于变换矩阵回归,在经失真校正和焦距补偿的第一相机图像和第二相机图像之间修正(618)图像对,并基于深度网络回归,对经修正的图像对进行视差映射(620)。
第一相机和第二相机可弱对准,并且失真校正和/或焦距补偿可以在图像对修正之前执行。可以使用神经网络来回归图像对修正的修正变换矩阵的漂移和/或映射经修正的图像对的视差。
图7描绘了利用两个异构相机的深度估计的第三示例,包括校准(710)具有第一相机校准数据集的第一相机,并校准(712)具有第二相机校准数据集的第二相机,第二相机具有与第一相机不同的焦距、不同的视场和不同的像素数中的至少一者。该方法包括基于第一相机校准数据集和第二相机校准数据集,在第一相机图像和第二相机图像之间进行失真校正(714),并基于第一相机校准数据集和第二相机校准数据集,在第一相机图像和第二相机图像之间进行焦距补偿(716)。该方法还包括基于深度网络回归,对经失真校正和焦距补偿的第一相机图像进行视差映射(718),并基于第一相机校准数据集和第二相机校准数据集,确定(720)初始姿态。该方法进一步包括使用姿态网络,对第一相机图像和第二相机图像以及初始姿态进行姿态映射(722),并输出Δ姿态。该方法还包括使Δ姿态、视差映射和第一相机图像扭曲(724),并重构(726)该扭曲以及经失真校正和焦距补偿的第二相机图像,以使重构误差最小化。
姿态映射可以在线执行,并且被跟踪。第一相机和第二相机可弱对准,并且失真校正和/或焦距补偿可以在图像对修正之前执行。可以使用神经网络来回归姿态图变换矩阵的漂移和/或映射第一相机图像的视差。
本领域技术人员将理解,本文描述的各个说明性框、模块、元件、组件、方法和算法可以实现为电子硬件、计算机软件或其组合。为了说明硬件和软件的这种可互换性,已在上文大体上根据各个说明性框、模块、元件、组件、方法和算法的功能对其进行了描述。将这样的功能实现为硬件还是软件取决于特定的应用和整个系统上施加的设计约束。技术人员可以用不同的方式为每一特定应用实现所描述的功能。在不背离本主题技术的范围的情况下,各个组件和框可完全不同地布置(例如,以不同的顺序布置,或者以不同的方式划分)。
应理解,所公开的过程中的步骤的特定顺序或分层结构是对示例方法的示意性说明。应理解,可以基于设计偏好,重新布置这些过程中的步骤的特定顺序或分层结构。一些步骤可以同时执行。随附的方法权利要求以样本顺序呈现了各个步骤的元素,而不意味着限于所呈现的特定顺序或分层结构。
提供前面的描述以使得本领域的技术人员能够实践本文描述的各个方面。前面的描述提供了本主题技术的各种示例,并且本主题技术不限于这些示例。对这些方面的各种修改对于本领域技术人员而言将是显而易见的,并且本文所定义的一般原理可以应用于其它方面。因此,并非意在将权利要求限制于本文所示的方面,而是要被赋予与语言权利要求一致的全部范围,其中,除非特别声明,否则以单数形式对元件的引用并非意在指明“一个且仅一个”,而是意在“一个或多个”。除非另有具体说明,否则术语“一些”指代一个或多个。男性代词(例如,他的)包括女性和中性(例如,她的和它的),反之亦然。标题和副标题(如果有的话)仅仅是为了方便而使用,并不限制本发明。谓词单词“被配置为”、“可操作为”和“被编程为”不暗示对主题的任何特定的有形或无形修改,而是旨在可互换地使用。例如,处理器被配置为监测和控制操作或部件也可以意味着处理器被编程为监测和控制操作,或者处理器可操作为监测和控制操作。同样地,处理器被配置为执行代码可被解释为处理器被编程为执行代码或可操作为执行代码。
例如“方面”的短语不暗示这样的方面对于主题技术是必要的,或者这样的方面适用于主题技术的所有配置。与一个方面有关的公开内容可以应用于所有配置、或者一个或多个配置。一个方面可以提供一个或多个示例。例如方面的短语可以指代一个或多个方面,反之亦然。例如“实施例”的短语不暗示这样的实施例对于主题技术是必要的,或者这样的实施例适用于主题技术的所有配置。与一个实施例有关的公开内容可以应用于所有实施例、或者一个或多个实施例。实施例可以提供一个或多个示例。例如“实施例”的短语可以指代一个或多个实施例,反之亦然。例如“配置”的短语不暗示这样的配置对于主题技术是必要的,或者这样的配置适用于主题技术的所有配置。与一个配置有关的公开内容可以应用于所有配置、或者一个或多个配置。配置可以提供一个或多个示例。例如“配置”的短语可以指代一个或多个配置,反之亦然。
词语“示例”在本文中用于意指“用作示例或例示”。在本文中描述为“示例”的任何方面或设计不必被解释为比其他方面或设计优选或有利。
本领域普通技术人员已知或以后将知道的贯穿本公开内容描述的各个方面的元素的所有结构和功能等同物以引证的方式明确并入本文,并且旨在被权利要求所涵盖。而且,本文所公开的内容都不旨在奉献给公众,无论这种公开是否在权利要求中明确地陈述。此外,就说明书或权利要求书中使用的术语“包括”、“具有”等而言,这种术语旨在以与术语“包括”类似的方式为包括性的,如同“包括”在权利要求书中用作过渡词时所解释的那样。
对“一个实施例”、“实施例”、“一些实施例”、“各种实施例”等的引用指示特定元素或特性被包括在本发明的至少一个实施例中。尽管这些短语可以出现在各个地方,但是这些短语不一定指代同一实施例。结合本公开,本领域技术人员将能够设计和结合适于实现上述功能的各种机制中的任何一种。
应当理解,本公开仅示教了例示性实施例的一个示例,并且本领域技术人员在阅读本公开之后可以容易地设计出本发明的许多变型,并且本发明的范围由所附权利要求确定。
Claims (20)
1.一种利用两个异构相机的深度估计方法,包括:
分别基于第一相机校准数据集和第二相机校准数据集来均质化第一相机图像和第二相机图像,其中所述第一相机图像和第二相机图像被失真校正并被变焦补偿;
确定经均质化的第一相机图像和经均质化的第二相机图像的初始图像对修正变换矩阵;
基于所述初始图像对修正变换矩阵,确定Δ图像对修正变换矩阵;
基于所述初始图像对修正变换矩阵和所述Δ图像对修正变换矩阵,确定最终图像对修正变换矩阵,从而得到最终经修正图像对;以及,
基于深度网络回归,对所述最终经修正图像对进行视差映射。
2.根据权利要求1所述的深度估计方法,其中,所述第一相机和所述第二相机弱对准。
3.根据权利要求1所述的深度估计方法,其中,失真校正在图像对修正之前执行。
4.根据权利要求1所述的深度估计方法,其中,焦距补偿在图像对修正之前执行。
5.根据权利要求1所述的深度估计的方法,其中,使用神经网络来回归所述Δ图像对修正变换矩阵的漂移。
6.根据权利要求1所述的深度估计方法,其中,利用神经网络来对所述最终经修正图像对进行视差映射。
7.一种利用两个异构相机的深度估计方法,包括:
校准具有第一相机校准数据集的第一相机;
校准具有第二相机校准数据集的第二相机,所述第二相机具有与所述第一相机不同的焦距、不同的视场和不同的像素数中的至少一者;
基于所述第一相机校准数据集和所述第二相机校准数据集,在第一相机图像和第二相机图像之间进行失真校正;
基于所述第一相机校准数据集和所述第二相机校准数据集,在所述第一相机图像和所述第二相机图像之间进行焦距补偿;
基于变换矩阵回归,在经失真校正和焦距补偿的第一相机图像和所述第二相机图像之间修正图像对;以及,
基于深度网络回归,对经修正的图像对进行视差映射。
8.根据权利要求7所述的深度估计方法,其中,所述第一相机和所述第二相机弱对准。
9.根据权利要求7所述的深度估计方法,其中,失真校正在图像对修正之前执行。
10.根据权利要求7所述的深度估计方法,其中,焦距补偿在图像对修正之前执行。
11.根据权利要求7所述的深度估计方法,其中,使用神经网络来回归所述经修正的图像对的修正变换矩阵的漂移。
12.根据权利要求7所述的深度估计方法,其中,利用神经网络来对所述经修正的图像对进行视差映射。
13.一种利用两个异构相机的深度估计方法,包括:
校准具有第一相机校准数据集的第一相机;
校准具有第二相机校准数据集的第二相机,所述第二相机具有与所述第一相机不同的焦距、不同的视场和不同的像素数中的至少一者;
基于所述第一相机校准数据集和所述第二相机校准数据集,在第一相机图像和第二相机图像之间进行失真校正;
基于所述第一相机校准数据集和所述第二相机校准数据集,在所述第一相机图像和所述第二相机图像之间进行焦距补偿;
基于深度网络回归,对经失真校正和焦距补偿的第一相机图像进行视差映射;
基于所述第一相机校准数据集和所述第二相机校准数据集,确定初始姿态;
使用姿态网络,对所述第一相机图像和所述第二相机图像以及所述初始姿态进行姿态映射,并输出Δ姿态;
使所述Δ姿态、所述视差映射和所述第一相机图像扭曲;以及,
重构该扭曲以及经失真校正和焦距补偿的第二相机图像,以使重构误差最小化。
14.根据权利要求13所述的深度估计方法,其中,所述姿态映射是在线执行的。
15.根据权利要求13所述的深度估计方法,其中,所述姿态映射被跟踪。
16.根据权利要求13所述的深度估计方法,其中,所述第一相机和所述第二相机弱对准。
17.根据权利要求13所述的深度估计方法,其中,失真校正在图像对修正之前执行。
18.根据权利要求13所述的深度估计方法,其中,焦距补偿在图像对修正之前执行。
19.根据权利要求13所述的深度估计方法,其中,使用神经网络来回归姿态图变换矩阵的漂移。
20.根据权利要求13所述的深度估计方法,其中,利用神经网络来对所述第一相机图像进行视差映射。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/932,830 | 2020-07-20 | ||
US16/932,830 US11122248B1 (en) | 2020-07-20 | 2020-07-20 | Stereo vision with weakly aligned heterogeneous cameras |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113643347A true CN113643347A (zh) | 2021-11-12 |
CN113643347B CN113643347B (zh) | 2024-02-09 |
Family
ID=77665914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110604282.6A Active CN113643347B (zh) | 2020-07-20 | 2021-05-31 | 利用弱对准的异构相机的立体视觉 |
Country Status (2)
Country | Link |
---|---|
US (2) | US11122248B1 (zh) |
CN (1) | CN113643347B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100668073B1 (ko) * | 2005-07-11 | 2007-01-11 | (주)블루비스 | 다시점 영상의 왜곡 보정처리 방법 |
CN102013096A (zh) * | 2009-09-04 | 2011-04-13 | 索尼公司 | 用于图像对准的方法和设备 |
CN106030653A (zh) * | 2014-02-24 | 2016-10-12 | 华为技术有限公司 | 用于生成高动态范围图像的图像处理系统和图像处理方法 |
CN106165396A (zh) * | 2014-05-06 | 2016-11-23 | 英特尔公司 | 用于异构相机阵列的校正技术 |
CN106373087A (zh) * | 2016-08-23 | 2017-02-01 | 大连理工大学 | 一种改进初始估计的图像超分辨率重建方法 |
CN106537908A (zh) * | 2014-09-05 | 2017-03-22 | 英特尔公司 | 相机标定 |
CN107924572A (zh) * | 2015-04-17 | 2018-04-17 | 快图凯曼有限公司 | 使用阵列相机执行高速视频捕获和深度估计的系统和方法 |
EP3389268A1 (en) * | 2016-01-12 | 2018-10-17 | Huawei Technologies Co., Ltd. | Depth information acquisition method and apparatus, and image collection device |
CN108696745A (zh) * | 2017-03-29 | 2018-10-23 | 畅想科技有限公司 | 相机校准 |
US10408939B1 (en) * | 2019-01-31 | 2019-09-10 | StradVision, Inc. | Learning method and learning device for integrating image acquired by camera and point-cloud map acquired by radar or LiDAR corresponding to image at each of convolution stages in neural network and testing method and testing device using the same |
CN110322485A (zh) * | 2019-06-25 | 2019-10-11 | 南京大学 | 一种异构多相机成像系统的快速图像配准方法 |
CN110443874A (zh) * | 2019-07-17 | 2019-11-12 | 清华大学 | 基于卷积神经网络的视点数据生成方法和装置 |
CN110570468A (zh) * | 2019-08-16 | 2019-12-13 | 苏州禾昆智能科技有限公司 | 一种基于深度学习的双目视觉深度估计方法及其系统 |
US20200068185A1 (en) * | 2018-08-24 | 2020-02-27 | Samsung Electronics Co., Ltd. | Rectifying a sequence of stereo images |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
JP2004062980A (ja) * | 2002-07-29 | 2004-02-26 | Toyota Gakuen | 磁性合金、磁気記録媒体、および磁気記録再生装置 |
US7768527B2 (en) * | 2006-05-31 | 2010-08-03 | Beihang University | Hardware-in-the-loop simulation system and method for computer vision |
WO2008024419A1 (en) * | 2006-08-21 | 2008-02-28 | Sti Medical Systems, Llc | Computer aided analysis using video from endoscopes |
US11189043B2 (en) * | 2015-03-21 | 2021-11-30 | Mine One Gmbh | Image reconstruction for virtual 3D |
US10645366B2 (en) * | 2016-06-10 | 2020-05-05 | Lucid VR, Inc. | Real time re-calibration of stereo cameras |
US10410372B1 (en) * | 2018-06-14 | 2019-09-10 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration |
US11257272B2 (en) * | 2019-04-25 | 2022-02-22 | Lucid VR, Inc. | Generating synthetic image data for machine learning |
-
2020
- 2020-07-20 US US16/932,830 patent/US11122248B1/en active Active
-
2021
- 2021-05-31 CN CN202110604282.6A patent/CN113643347B/zh active Active
- 2021-06-08 US US17/342,017 patent/US11490064B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100668073B1 (ko) * | 2005-07-11 | 2007-01-11 | (주)블루비스 | 다시점 영상의 왜곡 보정처리 방법 |
CN102013096A (zh) * | 2009-09-04 | 2011-04-13 | 索尼公司 | 用于图像对准的方法和设备 |
CN106030653A (zh) * | 2014-02-24 | 2016-10-12 | 华为技术有限公司 | 用于生成高动态范围图像的图像处理系统和图像处理方法 |
CN106165396A (zh) * | 2014-05-06 | 2016-11-23 | 英特尔公司 | 用于异构相机阵列的校正技术 |
CN106537908A (zh) * | 2014-09-05 | 2017-03-22 | 英特尔公司 | 相机标定 |
CN107924572A (zh) * | 2015-04-17 | 2018-04-17 | 快图凯曼有限公司 | 使用阵列相机执行高速视频捕获和深度估计的系统和方法 |
EP3389268A1 (en) * | 2016-01-12 | 2018-10-17 | Huawei Technologies Co., Ltd. | Depth information acquisition method and apparatus, and image collection device |
CN106373087A (zh) * | 2016-08-23 | 2017-02-01 | 大连理工大学 | 一种改进初始估计的图像超分辨率重建方法 |
CN108696745A (zh) * | 2017-03-29 | 2018-10-23 | 畅想科技有限公司 | 相机校准 |
US20200068185A1 (en) * | 2018-08-24 | 2020-02-27 | Samsung Electronics Co., Ltd. | Rectifying a sequence of stereo images |
US10408939B1 (en) * | 2019-01-31 | 2019-09-10 | StradVision, Inc. | Learning method and learning device for integrating image acquired by camera and point-cloud map acquired by radar or LiDAR corresponding to image at each of convolution stages in neural network and testing method and testing device using the same |
CN110322485A (zh) * | 2019-06-25 | 2019-10-11 | 南京大学 | 一种异构多相机成像系统的快速图像配准方法 |
CN110443874A (zh) * | 2019-07-17 | 2019-11-12 | 清华大学 | 基于卷积神经网络的视点数据生成方法和装置 |
CN110570468A (zh) * | 2019-08-16 | 2019-12-13 | 苏州禾昆智能科技有限公司 | 一种基于深度学习的双目视觉深度估计方法及其系统 |
Non-Patent Citations (1)
Title |
---|
秦志强;张文阁;文军;蒋晓瑜;: "集成成像光场计算方法研究进展", 科技传播, no. 02 * |
Also Published As
Publication number | Publication date |
---|---|
US11490064B2 (en) | 2022-11-01 |
CN113643347B (zh) | 2024-02-09 |
US20220021861A1 (en) | 2022-01-20 |
US11122248B1 (en) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468585B2 (en) | Pseudo RGB-D for self-improving monocular slam and depth prediction | |
WO2024045632A1 (zh) | 基于双目视觉和imu的水下场景三维重建方法及设备 | |
US20210049371A1 (en) | Localisation, mapping and network training | |
US8897502B2 (en) | Calibration for stereoscopic capture system | |
WO2011010438A1 (ja) | 視差検出装置、測距装置及び視差検出方法 | |
WO2017113535A1 (zh) | 一种相机几何标定处理方法及装置 | |
US11880964B2 (en) | Light field based reflection removal | |
US11132586B2 (en) | Rolling shutter rectification in images/videos using convolutional neural networks with applications to SFM/SLAM with rolling shutter images/videos | |
AU2021103300A4 (en) | Unsupervised Monocular Depth Estimation Method Based On Multi- Scale Unification | |
CN110517309A (zh) | 一种基于卷积神经网络的单目深度信息获取方法 | |
EP3298764A1 (en) | Method and arrangement for calibration of cameras | |
JP2004234660A (ja) | 多層実時間ステレオマッチング方法及びシステム | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 | |
EP4050553A1 (en) | Method and device for restoring image obtained from array camera | |
CN105635808A (zh) | 一种基于贝叶斯理论的视频拼接方法 | |
CN117456124B (zh) | 一种基于背靠背双目鱼眼相机的稠密slam的方法 | |
CN113643347B (zh) | 利用弱对准的异构相机的立体视觉 | |
CN111179331B (zh) | 深度估计方法、装置、电子设备及计算机可读存储介质 | |
Saaidi et al. | Self-calibration using a particular motion of camera | |
CN116503553A (zh) | 一种基于双目视觉和扩散模型的三维重建方法及装置 | |
KR20190108721A (ko) | 360도 카메라와 평면 거울을 이용한 다시점 영상 획득 장치 및 방법 | |
CN115191928A (zh) | 信息处理装置、信息处理方法、学习方法以及存储介质 | |
Ho et al. | Stereo-motion that complements stereo and motion analyses | |
US20230141515A1 (en) | System and method for stereoscopic image analysis | |
US11508089B2 (en) | LiDAR assisted wheel encoder to camera calibration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |