CN113822925A - 一种异步双目相机的深度估计方法及系统 - Google Patents

一种异步双目相机的深度估计方法及系统 Download PDF

Info

Publication number
CN113822925A
CN113822925A CN202110877733.3A CN202110877733A CN113822925A CN 113822925 A CN113822925 A CN 113822925A CN 202110877733 A CN202110877733 A CN 202110877733A CN 113822925 A CN113822925 A CN 113822925A
Authority
CN
China
Prior art keywords
depth
frame
camera
monocular camera
monocular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110877733.3A
Other languages
English (en)
Other versions
CN113822925B (zh
Inventor
赵正
刘明
孙常青
邓剑鸣
孙珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Xuzhou Power Supply Co
Original Assignee
State Grid Xuzhou Power Supply Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Xuzhou Power Supply Co filed Critical State Grid Xuzhou Power Supply Co
Priority to CN202110877733.3A priority Critical patent/CN113822925B/zh
Publication of CN113822925A publication Critical patent/CN113822925A/zh
Application granted granted Critical
Publication of CN113822925B publication Critical patent/CN113822925B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种异步双目相机的深度估计方法及系统。方法包括:S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧;S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。本发明可实现深度图的实时获取,显著降低了双目相机的制作成本,可广泛应用在各类场景的三维感知中。

Description

一种异步双目相机的深度估计方法及系统
技术领域
本发明涉及计算机视觉技术领域,更具体地说,特别涉及一种异步双目相机的深度估计方法及系统。
背景技术
双目相机在深度感知、三维重建和虚拟现实领域获得了广泛的应用。标准的双目相机异步需要假定左右相机通过硬件或软件进行同步,这就显著增加了双目相机的成本,并且很多场合无法获得现成的双目相机产品,如视频监控摄像机,网络摄像头等,限制了双目视觉的应用。
发明内容
本发明的目的在于提供一种异步双目相机的深度估计方法及系统,以克服现有技术所存在的缺陷。
为了达到上述目的,本发明采用的技术方案如下:
一种异步双目相机的深度估计方法,包括以下步骤:
S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧;
S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。
进一步地,所述步骤S1中的两台单目相机为两台同型号的监控相机、工业相机或网络摄像头。
进一步地,所述步骤S1中采用棋盘格法计算从第一单目相机到第二单目相机的旋转矩阵R和平移向量t,并计算第一单目相机到第二单目相机的内参数,该内参数包括
Figure BDA0003190948960000011
Figure BDA0003190948960000012
其中Kl为第一单目相机的内参矩阵,其中fl为焦距、
Figure BDA0003190948960000013
为主点,Kr为第二单目相机的内参矩阵,其中fr为焦距、
Figure BDA0003190948960000014
为主点。
进一步地,所述步骤S1中的T小于1。
进一步地,所述步骤S2具体包括:
S20、提取第一单目相机视频帧
Figure BDA0003190948960000021
的特征点,并提取第二单目相机的缓存帧集合I={I1,I2,I3,...In}中每一图像的特征点;
S21、计算第一单目相机视频帧
Figure BDA0003190948960000022
到第二单目相机缓存帧的特征匹配,选择匹配点最多的一组第二单目相机缓存帧,构成匹配帧集合G=={J1,J2,J3,...Jk},且
Figure BDA0003190948960000027
进一步地,所述步骤S3具体包括:
S30、给定第一单目相机的当前帧
Figure BDA0003190948960000023
中的像素p,根据以p为中心的图像块Mp和p所对应的深度假设d,通过相机参数到第二单目相机匹配帧J∈G的对应投影位置q处提取相同大小的图像块Mq,计算图像块Mp和图像块Mq的匹配代价,通过给像素p赋值一组深度假设值,选择匹配代价最小的作为像素p的深度dp
S31、对第一单目相机的当前帧
Figure BDA0003190948960000024
中的每一像素执行步骤S20操作,形成当前帧
Figure BDA0003190948960000025
的深度图集合D={D1,D2,D3,...Dk};
S32、计算深度图集合D={D1,D2,D3,...Dk}中每一深度图Di∈D的置信度Ci,形成置信度集合C={C1,C2,C3,...Ck};
S33、基于深度图集合D={D1,D2,D3,...Dk}和对应的置信度集合C={C1,C2,C3,...Ck},融合多组深度图,则对于任意像素位置的最终深度为
Figure BDA0003190948960000026
进一步地,所述步骤S3中深度图的计算方法为深度学习方法或非学习方法。
本发明还提供一种用于实现上述的异步双目相机的深度估计方法的系统,包括:
视频帧缓冲模块,在将任意两台单目相机以视线方向平行放置后,通过缓存分别存储两台单目相机在T秒内的视频帧;
匹配帧集合计算模块,用于分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,并计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
深度计算模块,用于根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到;
所述视频帧缓冲模块、匹配帧集合计算模块和深度计算模块依次连接。
与现有技术相比,本发明的优点在于:本发明只需要两台独立的相机按照双目相机的配置近似平行放置,就可实现深度图的实时获取,显著降低了双目相机的制作成本,可广泛应用在各类场景的三维感知中,如视频监控等。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明异步双目相机的深度估计方法的示意图。
图2是本发明异步双目相机的深度估计系统的原理图。
具体实施方式
下面结合附图对本发明的优选实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
参阅图1所示,本实施例公开了一种异步双目相机的深度估计方法,包括以下步骤:
步骤S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧。
本实施例中,两台单目相机可以为两台同型号的监控相机、工业相机或网络摄像头;即两台相机的摄像头朝向是平行的,两台相机根据位置摆放的不同,分别命名为第一单目相机(左相机)和第二单目相机(右相机)。将两台相机连接电脑后,通过相机的控制程序同时启动开始捕获画面。由于两台相机未经过硬件的同步,不保证两台相机的画面是在一个时间拍摄的。
本实施例采用棋盘格法计算从第一单目相机到第二单目相机的旋转矩阵R和平移向量t,并计算第一单目相机到第二单目相机的内参数,该内参数包括
Figure BDA0003190948960000031
Figure BDA0003190948960000032
其中Kl为第一单目相机的内参矩阵,其中fl为焦距、
Figure BDA0003190948960000033
为主点,Kr为第二单目相机的内参矩阵,其中fr为焦距、
Figure BDA0003190948960000034
为主点。
两台相机需要静止放置,但两台相机所拍摄的场景可以包含运动的物体,如行人等。
两台相机的捕获画面存在时间不同步,且相差的时间差为T秒,即第一单目相机的画面比第二单目相机的画面提前T秒,或者第一单目相机的画面比第一单目相机滞后T秒。假设相机的帧率为H帧每秒,则两台相机的画面间隔为H×T帧。为了后续的深度估计,左右相机拍摄时,分别记录T秒内的视频帧作为缓存数据,即记录从当前时刻到T秒前这一段时间的视频帧,缓存数据可以保存在内存中。
本实施例中,根据实际情况,T的值一般小于1。即两台相机的时间延时小于1秒。帧率H一般等于30帧,所以两台相机的画面差异在30视频帧以内。
步骤S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;也就是说:在当前时刻m,从第一单目相机的视频帧
Figure BDA0003190948960000041
到第二单目相机的缓存帧I={I1,I2,I3,...In}中,寻找一组最相似的帧
Figure BDA0003190948960000042
数量为k=G,k一般等于5,具体步骤为:
首先、提取第一单目相机视频帧
Figure BDA0003190948960000043
的特征点,如ORB特征点,并提取第二单目相机的缓存帧集合I={I1,I2,I3,...In}中每一图像的特征点。
然后、计算第一单目相机视频帧
Figure BDA0003190948960000044
到第二单目相机缓存帧的特征匹配,选择匹配点最多的一组第二单目相机缓存帧,构成匹配帧集合G=={J1,J2,J3,...Jk},且
Figure BDA0003190948960000045
匹配帧集合将用于估计左相机当前帧
Figure BDA0003190948960000046
的深度图。
步骤S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。即:计算第二单目相机的匹配帧集合G=={J1,J2,J3,...Jk}中每一个图像J∈G和第一弹幕相机当前帧
Figure BDA0003190948960000047
的深度图D,具体为:
首先、给定第一单目相机的当前帧
Figure BDA0003190948960000048
中的像素p,根据以p为中心的图像块Mp和p所对应的深度假设d,通过相机参数到第二单目相机匹配帧J∈G的对应投影位置q处提取相同大小的图像块Mq,计算图像块Mp和图像块Mq的匹配代价,通过给像素p赋值一组深度假设值,选择匹配代价最小的作为像素p的深度dp
然后、对第一单目相机的当前帧
Figure BDA0003190948960000049
中的每一像素执行步骤S20操作,形成当前帧
Figure BDA00031909489600000410
的深度图集合D={D1,D2,D3,...Dk}。
其次、计算深度图集合D={D1,D2,D3,...Dk}中每一深度图Di∈D的置信度Ci,形成置信度集合C={C1,C2,C3,...Ck};置信度Ci反映了深度图Di中每一个像素位置深度值的正确性,对于任意像素p和它的深度估计dp,高置信度代表这个深度值估计的准确,低置信度代表这个置信度估计的不准确。计算方法不限于基于深度学习的置信度预测方法和非学习方法。例如,根据一组带有真实深度标签的训练样本,可以通过提取以像素p为中心的深度图像块和对应的深度值dp的置信度的真值标注,训练一个二分类的网络模型,预测每一像素位置的深度值的置信度。
最后、基于深度图集合D={D1,D2,D3,...Dk}和对应的置信度集合C={C1,C2,C3,...Ck},融合多组深度图,则对于任意像素位置的最终深度为
Figure BDA0003190948960000051
参阅图2所示,本发明还提供一种用于实现上述的异步双目相机的深度估计方法的系统,包括:视频帧缓冲模块1,在将任意两台单目相机以视线方向平行放置后,通过缓存分别存储两台单目相机在T秒内的视频帧;匹配帧集合计算模块2,用于分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,并计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;深度计算模块3,用于根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到;所述视频帧缓冲模块1、匹配帧集合计算模块2和深度计算模3依次连接。
本发明只需要两台独立的相机按照双目相机的配置近似平行放置,就可实现深度图的实时获取,方法可将任意独立两台监控相机、工业相机和网络摄像头组成双目视觉系统,显著降低了双目相机的制作成本,预期可广泛应用在各类场景的三维感知中,如视频监控等领域。
虽然结合附图描述了本发明的实施方式,但是专利所有者可以在所附权利要求的范围之内做出各种变形或修改,只要不超过本发明的权利要求所描述的保护范围,都应当在本发明的保护范围之内。

Claims (8)

1.一种异步双目相机的深度估计方法,其特征在于,包括以下步骤:
S1、将任意两台单目相机以视线方向平行放置,通过缓存分别存储两台单目相机在T秒内的视频帧;
S2、分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
S3、根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到。
2.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S1中的两台单目相机为两台同型号的监控相机、工业相机或网络摄像头。
3.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S1中采用棋盘格法计算从第一单目相机到第二单目相机的旋转矩阵R和平移向量t,并计算第一单目相机到第二单目相机的内参数,该内参数包括
Figure FDA0003190948950000011
Figure FDA0003190948950000012
其中Kl为第一单目相机的内参矩阵,其中fl为焦距、
Figure FDA0003190948950000013
为主点,Kr为第二单目相机的内参矩阵,其中fr为焦距、
Figure FDA0003190948950000014
为主点。
4.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S1中的T小于1。
5.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S2具体包括:
S20、提取第一单目相机视频帧
Figure FDA0003190948950000015
的特征点,并提取第二单目相机的缓存帧集合I={I1,I2,I3,...In}中每一图像的特征点;
S21、计算第一单目相机视频帧
Figure FDA0003190948950000016
到第二单目相机缓存帧的特征匹配,选择匹配点最多的一组第二单目相机缓存帧,构成匹配帧集合G=={J1,J2,J3,...Jk},且
Figure FDA0003190948950000018
6.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S3具体包括:
S20、给定第一单目相机的当前帧
Figure FDA0003190948950000017
中的像素p,根据以p为中心的图像块Mp和p所对应的深度假设d,通过相机参数到第二单目相机匹配帧J∈G的对应投影位置q处提取相同大小的图像块Mq,计算图像块Mp和图像块Mq的匹配代价,通过给像素p赋值一组深度假设值,选择匹配代价最小的作为像素p的深度dp
S21、对第一单目相机的当前帧
Figure FDA0003190948950000021
中的每一像素执行步骤S20操作,形成当前帧
Figure FDA0003190948950000022
的深度图集合D={D1,D2,D3,...Dk};
S22、计算深度图集合D={D1,D2,D3,...Dk}中每一深度图Di∈D的置信度Ci,形成置信度集合C={C1,C2,C3,...Ck};
S23、基于深度图集合D={D1,D2,D3,...Dk}和对应的置信度集合C={C1,C2,C3,...Ck},融合多组深度图,则对于任意像素位置的最终深度为
Figure FDA0003190948950000023
7.根据权利要求1所述的异步双目相机的深度估计方法,其特征在于,所述步骤S3中深度图的计算方法为深度学习方法或非学习方法。
8.一种用于实现权利要求1-7任意一项所述的异步双目相机的深度估计方法的系统,其特征在于,包括:
视频帧缓冲模块,在将任意两台单目相机以视线方向平行放置后,通过缓存分别存储两台单目相机在T秒内的视频帧;
匹配帧集合计算模块,用于分别提取第一单目相机视频帧和第二单目相机的缓冲帧的特征点,并计算第一单目相机视频帧和第二单目相机的缓存帧的匹配帧集合;
深度计算模块,用于根据匹配帧集合计算每一帧的深度图,并计算深度图的置信度,以形成一组深度图和对应的置信度,对于任意像素位置的最终深度是通过将匹配帧的深度图集合按照置信度的大小进行加权平均得到;
所述视频帧缓冲模块、匹配帧集合计算模块和深度计算模块依次连接。
CN202110877733.3A 2021-08-01 2021-08-01 一种异步双目相机的深度估计方法及系统 Active CN113822925B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110877733.3A CN113822925B (zh) 2021-08-01 2021-08-01 一种异步双目相机的深度估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110877733.3A CN113822925B (zh) 2021-08-01 2021-08-01 一种异步双目相机的深度估计方法及系统

Publications (2)

Publication Number Publication Date
CN113822925A true CN113822925A (zh) 2021-12-21
CN113822925B CN113822925B (zh) 2023-12-19

Family

ID=78924206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110877733.3A Active CN113822925B (zh) 2021-08-01 2021-08-01 一种异步双目相机的深度估计方法及系统

Country Status (1)

Country Link
CN (1) CN113822925B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314211B1 (en) * 1997-12-30 2001-11-06 Samsung Electronics Co., Ltd. Apparatus and method for converting two-dimensional image sequence into three-dimensional image using conversion of motion disparity into horizontal disparity and post-processing method during generation of three-dimensional image
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN106464851A (zh) * 2014-06-30 2017-02-22 微软技术许可有限责任公司 使用多视点立体图和经校准的投射器的深度估计

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6314211B1 (en) * 1997-12-30 2001-11-06 Samsung Electronics Co., Ltd. Apparatus and method for converting two-dimensional image sequence into three-dimensional image using conversion of motion disparity into horizontal disparity and post-processing method during generation of three-dimensional image
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN106464851A (zh) * 2014-06-30 2017-02-22 微软技术许可有限责任公司 使用多视点立体图和经校准的投射器的深度估计

Also Published As

Publication number Publication date
CN113822925B (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
KR102319177B1 (ko) 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체
CN113286194A (zh) 视频处理方法、装置、电子设备及可读存储介质
US10764496B2 (en) Fast scan-type panoramic image synthesis method and device
CN111899282B (zh) 基于双目摄像机标定的行人轨迹跟踪方法及装置
CN106981078B (zh) 视线校正方法、装置、智能会议终端及存储介质
CN113129241B (zh) 图像处理方法及装置、计算机可读介质、电子设备
CN112207821B (zh) 视觉机器人的目标搜寻方法及机器人
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
CN110009675B (zh) 生成视差图的方法、装置、介质及设备
US20170064279A1 (en) Multi-view 3d video method and system
CN108510520B (zh) 一种图像处理方法、装置及ar设备
US11195297B2 (en) Method and system for visual localization based on dual dome cameras
CN115375581A (zh) 基于事件时空同步的动态视觉事件流降噪效果评价方法
CN107204015B (zh) 基于色彩图像和红外图像融合的即时定位与建图系统
CN114419102B (zh) 一种基于帧差时序运动信息的多目标跟踪检测方法
CN107452019B (zh) 一种基于模型切换的目标检测方法、装置、系统及存储介质
WO2024051591A1 (zh) 用于估算视频旋转的方法、装置、电子设备和存储介质
KR100945307B1 (ko) 스테레오스코픽 동영상에서 이미지를 합성하는 방법 및장치
CN113822925B (zh) 一种异步双目相机的深度估计方法及系统
CN111260544B (zh) 数据处理方法及装置、电子设备和计算机存储介质
CN109379577B (zh) 一种虚拟视点的视频生成方法、装置及设备
Song et al. Self-supervised learning of visual odometry
US11941171B1 (en) Eye gaze tracking method, apparatus and system
TW201322732A (zh) 調整影像之運動景深的方法
Li et al. An efficient method for automatic stereoscopic conversion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant