CN113822925A - 一种异步双目相机的深度估计方法及系统 - Google Patents
一种异步双目相机的深度估计方法及系统 Download PDFInfo
- Publication number
- CN113822925A CN113822925A CN202110877733.3A CN202110877733A CN113822925A CN 113822925 A CN113822925 A CN 113822925A CN 202110877733 A CN202110877733 A CN 202110877733A CN 113822925 A CN113822925 A CN 113822925A
- Authority
- CN
- China
- Prior art keywords
- depth
- frame
- camera
- monocular camera
- monocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004364 calculation method Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 abstract description 4
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种异步双目相机的深度估计方法及系统。方法包括:S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧;S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。本发明可实现深度图的实时获取,显著降低了双目相机的制作成本,可广泛应用在各类场景的三维感知中。
Description
技术领域
本发明涉及计算机视觉技术领域,更具体地说,特别涉及一种异步双目相机的深度估计方法及系统。
背景技术
双目相机在深度感知、三维重建和虚拟现实领域获得了广泛的应用。标准的双目相机异步需要假定左右相机通过硬件或软件进行同步,这就显著增加了双目相机的成本,并且很多场合无法获得现成的双目相机产品,如视频监控摄像机,网络摄像头等,限制了双目视觉的应用。
发明内容
本发明的目的在于提供一种异步双目相机的深度估计方法及系统,以克服现有技术所存在的缺陷。
为了达到上述目的,本发明采用的技术方案如下:
一种异步双目相机的深度估计方法,包括以下步骤:
S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧;
S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。
进一步地,所述步骤S1中的两台单目相机为两台同型号的监控相机、工业相机或网络摄像头。
进一步地,所述步骤S1中采用棋盘格法计算从第一单目相机到第二单目相机的旋转矩阵R和平移向量t,并计算第一单目相机到第二单目相机的内参数,该内参数包括和其中Kl为第一单目相机的内参矩阵,其中fl为焦距、为主点,Kr为第二单目相机的内参矩阵,其中fr为焦距、为主点。
进一步地,所述步骤S1中的T小于1。
进一步地,所述步骤S2具体包括:
进一步地,所述步骤S3具体包括:
S30、给定第一单目相机的当前帧中的像素p,根据以p为中心的图像块Mp和p所对应的深度假设d,通过相机参数到第二单目相机匹配帧J∈G的对应投影位置q处提取相同大小的图像块Mq,计算图像块Mp和图像块Mq的匹配代价,通过给像素p赋值一组深度假设值,选择匹配代价最小的作为像素p的深度dp;
S32、计算深度图集合D={D1,D2,D3,...Dk}中每一深度图Di∈D的置信度Ci,形成置信度集合C={C1,C2,C3,...Ck};
进一步地,所述步骤S3中深度图的计算方法为深度学习方法或非学习方法。
本发明还提供一种用于实现上述的异步双目相机的深度估计方法的系统,包括:
视频帧缓冲模块,在将任意两台单目相机以视线方向平行放置后,通过缓存分别存储两台单目相机在T秒内的视频帧;
匹配帧集合计算模块,用于分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,并计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
深度计算模块,用于根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到;
所述视频帧缓冲模块、匹配帧集合计算模块和深度计算模块依次连接。
与现有技术相比,本发明的优点在于:本发明只需要两台独立的相机按照双目相机的配置近似平行放置,就可实现深度图的实时获取,显著降低了双目相机的制作成本,可广泛应用在各类场景的三维感知中,如视频监控等。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明异步双目相机的深度估计方法的示意图。
图2是本发明异步双目相机的深度估计系统的原理图。
具体实施方式
下面结合附图对本发明的优选实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
参阅图1所示,本实施例公开了一种异步双目相机的深度估计方法,包括以下步骤:
步骤S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧。
本实施例中,两台单目相机可以为两台同型号的监控相机、工业相机或网络摄像头;即两台相机的摄像头朝向是平行的,两台相机根据位置摆放的不同,分别命名为第一单目相机(左相机)和第二单目相机(右相机)。将两台相机连接电脑后,通过相机的控制程序同时启动开始捕获画面。由于两台相机未经过硬件的同步,不保证两台相机的画面是在一个时间拍摄的。
本实施例采用棋盘格法计算从第一单目相机到第二单目相机的旋转矩阵R和平移向量t,并计算第一单目相机到第二单目相机的内参数,该内参数包括和其中Kl为第一单目相机的内参矩阵,其中fl为焦距、为主点,Kr为第二单目相机的内参矩阵,其中fr为焦距、为主点。
两台相机需要静止放置,但两台相机所拍摄的场景可以包含运动的物体,如行人等。
两台相机的捕获画面存在时间不同步,且相差的时间差为T秒,即第一单目相机的画面比第二单目相机的画面提前T秒,或者第一单目相机的画面比第一单目相机滞后T秒。假设相机的帧率为H帧每秒,则两台相机的画面间隔为H×T帧。为了后续的深度估计,左右相机拍摄时,分别记录T秒内的视频帧作为缓存数据,即记录从当前时刻到T秒前这一段时间的视频帧,缓存数据可以保存在内存中。
本实施例中,根据实际情况,T的值一般小于1。即两台相机的时间延时小于1秒。帧率H一般等于30帧,所以两台相机的画面差异在30视频帧以内。
步骤S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;也就是说:在当前时刻m,从第一单目相机的视频帧到第二单目相机的缓存帧I={I1,I2,I3,...In}中,寻找一组最相似的帧数量为k=G,k一般等于5,具体步骤为:
步骤S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。即:计算第二单目相机的匹配帧集合G=={J1,J2,J3,...Jk}中每一个图像J∈G和第一弹幕相机当前帧的深度图D,具体为:
首先、给定第一单目相机的当前帧中的像素p,根据以p为中心的图像块Mp和p所对应的深度假设d,通过相机参数到第二单目相机匹配帧J∈G的对应投影位置q处提取相同大小的图像块Mq,计算图像块Mp和图像块Mq的匹配代价,通过给像素p赋值一组深度假设值,选择匹配代价最小的作为像素p的深度dp。
其次、计算深度图集合D={D1,D2,D3,...Dk}中每一深度图Di∈D的置信度Ci,形成置信度集合C={C1,C2,C3,...Ck};置信度Ci反映了深度图Di中每一个像素位置深度值的正确性,对于任意像素p和它的深度估计dp,高置信度代表这个深度值估计的准确,低置信度代表这个置信度估计的不准确。计算方法不限于基于深度学习的置信度预测方法和非学习方法。例如,根据一组带有真实深度标签的训练样本,可以通过提取以像素p为中心的深度图像块和对应的深度值dp的置信度的真值标注,训练一个二分类的网络模型,预测每一像素位置的深度值的置信度。
参阅图2所示,本发明还提供一种用于实现上述的异步双目相机的深度估计方法的系统,包括:视频帧缓冲模块1,在将任意两台单目相机以视线方向平行放置后,通过缓存分别存储两台单目相机在T秒内的视频帧;匹配帧集合计算模块2,用于分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,并计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;深度计算模块3,用于根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到;所述视频帧缓冲模块1、匹配帧集合计算模块2和深度计算模3依次连接。
本发明只需要两台独立的相机按照双目相机的配置近似平行放置,就可实现深度图的实时获取,方法可将任意独立两台监控相机、工业相机和网络摄像头组成双目视觉系统,显著降低了双目相机的制作成本,预期可广泛应用在各类场景的三维感知中,如视频监控等领域。
虽然结合附图描述了本发明的实施方式,但是专利所有者可以在所附权利要求的范围之内做出各种变形或修改,只要不超过本发明的权利要求所描述的保护范围,都应当在本发明的保护范围之内。
Claims (8)
1.一种异步双目相机的深度估计方法,其特征在于,包括以下步骤:
S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧;
S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。
2.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S1中的两台单目相机为两台同型号的监控相机、工业相机或网络摄像头。
4.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S1中的T小于1。
6.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S3具体包括:
S20、给定第一单目相机的当前帧中的像素p,根据以p为中心的图像块Mp和p所对应的深度假设d,通过相机参数到第二单目相机匹配帧J∈G的对应投影位置q处提取相同大小的图像块Mq,计算图像块Mp和图像块Mq的匹配代价,通过给像素p赋值一组深度假设值,选择匹配代价最小的作为像素p的深度dp;
S22、计算深度图集合D={D1,D2,D3,...Dk}中每一深度图Di∈D的置信度Ci,形成置信度集合C={C1,C2,C3,...Ck};
7.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S3中深度图的计算方法为深度学习方法或非学习方法。
8.一种用于实现权利要求1-7任意一项所述的异步双目相机的深度估计方法的系统,其特征在于,包括:
视频帧缓冲模块,在将任意两台单目相机以视线方向平行放置后,通过缓存分别存储两台单目相机在T秒内的视频帧;
匹配帧集合计算模块,用于分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,并计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
深度计算模块,用于根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到;
所述视频帧缓冲模块、匹配帧集合计算模块和深度计算模块依次连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110877733.3A CN113822925B (zh) | 2021-08-01 | 2021-08-01 | 一种异步双目相机的深度估计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110877733.3A CN113822925B (zh) | 2021-08-01 | 2021-08-01 | 一种异步双目相机的深度估计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113822925A true CN113822925A (zh) | 2021-12-21 |
CN113822925B CN113822925B (zh) | 2023-12-19 |
Family
ID=78924206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110877733.3A Active CN113822925B (zh) | 2021-08-01 | 2021-08-01 | 一种异步双目相机的深度估计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113822925B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6314211B1 (en) * | 1997-12-30 | 2001-11-06 | Samsung Electronics Co., Ltd. | Apparatus and method for converting two-dimensional image sequence into three-dimensional image using conversion of motion disparity into horizontal disparity and post-processing method during generation of three-dimensional image |
CN101908230A (zh) * | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
CN106464851A (zh) * | 2014-06-30 | 2017-02-22 | 微软技术许可有限责任公司 | 使用多视点立体图和经校准的投射器的深度估计 |
-
2021
- 2021-08-01 CN CN202110877733.3A patent/CN113822925B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6314211B1 (en) * | 1997-12-30 | 2001-11-06 | Samsung Electronics Co., Ltd. | Apparatus and method for converting two-dimensional image sequence into three-dimensional image using conversion of motion disparity into horizontal disparity and post-processing method during generation of three-dimensional image |
CN101908230A (zh) * | 2010-07-23 | 2010-12-08 | 东南大学 | 一种基于区域深度边缘检测和双目立体匹配的三维重建方法 |
CN106464851A (zh) * | 2014-06-30 | 2017-02-22 | 微软技术许可有限责任公司 | 使用多视点立体图和经校准的投射器的深度估计 |
Also Published As
Publication number | Publication date |
---|---|
CN113822925B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102319177B1 (ko) | 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체 | |
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
US10764496B2 (en) | Fast scan-type panoramic image synthesis method and device | |
CN111899282B (zh) | 基于双目摄像机标定的行人轨迹跟踪方法及装置 | |
CN106981078B (zh) | 视线校正方法、装置、智能会议终端及存储介质 | |
CN113129241B (zh) | 图像处理方法及装置、计算机可读介质、电子设备 | |
CN112207821B (zh) | 视觉机器人的目标搜寻方法及机器人 | |
KR100560464B1 (ko) | 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법 | |
CN110009675B (zh) | 生成视差图的方法、装置、介质及设备 | |
US20170064279A1 (en) | Multi-view 3d video method and system | |
CN108510520B (zh) | 一种图像处理方法、装置及ar设备 | |
US11195297B2 (en) | Method and system for visual localization based on dual dome cameras | |
CN115375581A (zh) | 基于事件时空同步的动态视觉事件流降噪效果评价方法 | |
CN107204015B (zh) | 基于色彩图像和红外图像融合的即时定位与建图系统 | |
CN114419102B (zh) | 一种基于帧差时序运动信息的多目标跟踪检测方法 | |
CN107452019B (zh) | 一种基于模型切换的目标检测方法、装置、系统及存储介质 | |
WO2024051591A1 (zh) | 用于估算视频旋转的方法、装置、电子设备和存储介质 | |
KR100945307B1 (ko) | 스테레오스코픽 동영상에서 이미지를 합성하는 방법 및장치 | |
CN113822925B (zh) | 一种异步双目相机的深度估计方法及系统 | |
CN111260544B (zh) | 数据处理方法及装置、电子设备和计算机存储介质 | |
CN109379577B (zh) | 一种虚拟视点的视频生成方法、装置及设备 | |
Song et al. | Self-supervised learning of visual odometry | |
US11941171B1 (en) | Eye gaze tracking method, apparatus and system | |
TW201322732A (zh) | 調整影像之運動景深的方法 | |
Li et al. | An efficient method for automatic stereoscopic conversion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |