CN111598927B - 一种定位重建方法和装置 - Google Patents

一种定位重建方法和装置 Download PDF

Info

Publication number
CN111598927B
CN111598927B CN202010419347.5A CN202010419347A CN111598927B CN 111598927 B CN111598927 B CN 111598927B CN 202010419347 A CN202010419347 A CN 202010419347A CN 111598927 B CN111598927 B CN 111598927B
Authority
CN
China
Prior art keywords
target object
optical flow
position information
calculating
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010419347.5A
Other languages
English (en)
Other versions
CN111598927A (zh
Inventor
查红彬
颜子轲
方奕庚
姜立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
BOE Technology Group Co Ltd
Original Assignee
Peking University
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University, BOE Technology Group Co Ltd filed Critical Peking University
Priority to CN202010419347.5A priority Critical patent/CN111598927B/zh
Publication of CN111598927A publication Critical patent/CN111598927A/zh
Application granted granted Critical
Publication of CN111598927B publication Critical patent/CN111598927B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种定位重建方法和装置。定位重建方法,包括以下步骤:获取包括目标对象的至少两帧图像;计算所述目标对象在所述至少两帧图像中的光流;根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息;根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度;基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型。本发明实施例能够更有效地应对位置环境下的不确定因素,同时充分发挥数据融合的优势,通过概率密度函数保留所有的信息,避免丢弃数据,从而提高定位和建模的准确程度,有助于提高建模质量。

Description

一种定位重建方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种定位重建方法和装置。
背景技术
即使定位重建指的是基于采集到的二维图像在三维地图中重建目标物体模型的技术,被广泛应用于机器人、增强现实、无人驾驶等领域,以为场景感知提供帮助。但是,由于传感器本身的噪声和离群点为给位姿估计和建立模型带来了不确定性,导致影响建模效果,所以现有定位重建方法的建模效果较差。
发明内容
本发明实施例提供一种定位重建方法和装置,以解决现有定位重建方法的建模效果较差的问题。
第一方面,本发明实施例提供了一种定位重建方法,包括以下步骤:
获取包括目标对象的至少两帧图像;
计算所述目标对象在所述至少两帧图像中的光流;
根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息;
根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度;
基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型。
可选的,所述计算所述目标对象在所述至少两帧图像中的光流,包括:
确定所述目标对象上的特征点;
分别计算所述特征点的光流和与所述特征点相邻的多个邻域点的光流。
可选的,所述根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度,包括:
基于光流的局部一致性假设,根据所述特征点的光流和与所述特征点相邻的邻域点的光流计算所述特征点光流的准确程度方差,作为所述特征点的位置信息的置信度。
可选的,所述基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型,包括:
在三维地图中以体素构建所述目标对象的模型,其中,组成所述目标对象的体素有多个,且每一所述体素携带有所述体素位于所在位置的概率信息。
可选的,所述基于所述位置信息和所述位置信息的置信度在地图中对所述目标对象进行定位和重建之后,还包括:
根据所述目标对象的光流迭代更新所述目标对象的特征点的位置和所述特征点的置信度。
第二方面,本发明实施例还提供了一种定位重建装置,包括:
获取模块,用于获取包括目标对象的至少两帧图像;
光流计算模块,用于计算所述目标对象在所述至少两帧图像中的光流;
姿态计算模块,用于根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息;
位置计算模块,用于根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度;
建模模块,用于基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型。
可选的,所述光流计算模块包括:
特征点确定子模块,用于确定所述目标对象上的特征点;
计算子模块,用于分别计算所述特征点的光流和与所述特征点相邻的多个邻域点的光流。
可选的,所述位置计算模块,具体用于基于光流的局部一致性假设,根据所述特征点的光流和与所述特征点相邻的邻域点的光流计算所述特征点光流的准确程度方差,作为所述特征点的位置信息的置信度。
第三方面,本发明实施例还提供了一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如以上任一项所述的定位重建方法的步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以上任一项所述的定位重建方法的步骤。
这样,本发明实施例通过计算光流信息,从而建立了观测数据、三维地图和相机位姿三者之间的时空联系,进一步的,通过引入位置信息的置信度,能够更有效地应对位置环境下的不确定因素,同时充分发挥数据融合的优势,通过概率密度函数保留所有的信息,避免丢弃数据,从而提高定位和建模的准确程度,有助于提高建模质量。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获取其他的附图。
图1是本发明一实施例提供的定位重建方法的流程图;
图2是本发明一实施例中光流计算的示意图;
图3是本发明一实施例中定位重建方法的流程示意图;
图4是本发明一实施例中定位重建方法的又一流程示意图;
图5是本发明一实施例提供的定位重建装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获取的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种定位重建方法。
如图1所示,在一个实施例中,该定位重建方法包括以下步骤:
步骤101:获取包括目标对象的至少两帧图像。
本实施例中,首选获取输入的图像信息,输入的图像信息主要为连续的视频序列,还可以为连续抓拍的多张照片。
步骤102:计算所述目标对象在所述至少两帧图像中的光流。
实施时,可以选用现有的算法,例如包括但不限于L-K(Lucas-Kanade)光流算法等算法计算每一帧图像中,目标对象的光流。
光流法指的是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。因此,通过计算目标对象的光流能够确定目标对象的运动情况。
在一个可选的具体实施方式中,该步骤102具体包括:
确定所述目标对象上的特征点;
分别计算所述特征点的光流和与所述特征点相邻的多个邻域点的光流。
实施时,首先选择多个特征点,并根据这些特征点在不同帧图像中的位置变化计算这些特征点的光流,进一步的,计算特征点相邻的多个邻域点的光流。
具体的,如图2所示,本实施例中设定为每一个特征点周围设置有四个邻域点,这四个邻域点为与特征点相邻的像素点,并计算该四个邻域点的光流。
步骤103:根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息。
在计算获得目标对象的光流之后,进一步通过光流计算图像采集装置的姿态信息,具体的,例如可以是图像采集装置的位置、角度等姿态信息。
实施时,根据相同的特征元素在不同帧图像中的对应关系,例如可以选择多组相对应的点在不同图像中的对应关系,计算获得其对应的基础矩阵(Fundamental matrix)和本质矩阵(Essential Matrix),例如,可以通过八点法等算法计算获得。从而计算获得图像采集装置的位姿,显然,这一步骤所涉及到的具体算法可参考相关技术,此处不做进一步限定和描述。
步骤104:根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度。
本实施例中,根据光流图像采集装置的姿态信息融合获得目标对象的位置信息,并进一步确定融合结果的置信程度,从而能够清楚的标识目标对象的位置,以及目标对象位于该位置的置信程度,以提高对于目标对象位置描述的准确程度。
在一个可选的具体实施方式中,该步骤104具体包括:
基于光流的局部一致性假设,根据所述特征点的光流和与所述特征点相邻的邻域点的光流计算所述特征点光流的准确程度方差,作为所述特征点的位置信息的置信度。
光流的局部一致性假设指的是假设在一个很小的邻域内,所有像素点运动方向与大小相等,也就是说,假设所选定的特征点的运动方向和距离均和与该特征点距离很小的范围内的点是一样的。
本实施例中,选定了与特征点相邻的多个邻域点,例如,可以是位于特征点四周的四个点作为邻域点,并同时计算特征点和邻域点的光流。
基于光流的局部一致性假设,特征点和其邻域点的运动方向和距离是相同的,所以理论上来说,其光流是相同的,而根据实际计算结果所存在的差异,能够确定光流的可靠性。
实施时,计算特征点的光流和邻域点的光流的准确程度方差,该准确程度方差的值越小,则证明特征点位于所计算的位置的概率越高,也就是其置信度越高。
步骤105:基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型。
在确定了目标对象的位置信息之后,可以在地图中建立目标对象的模型,所建立的模型中不仅包括目标对象的位置信息,还包括该位置信息的置信度,从而提高了所建立的模型的可靠性。
在数据融合过程中,根据不同特征点的概率密度评估观测和位姿的置信度,以此决定联合优化和数据融合时所占权重,其权重随着概率密度的增加而增加,这样,能够自适应地选择可靠数据进行即时定位与重建,提高模型对于目标对象描述的准确程度。
在一个具体实施方式中,该步骤105具体包括:
在三维地图中以体素构建所述目标对象的模型,其中,组成所述目标对象的体素有多个,且每一所述体素携带有所述体素位于所在位置的概率信息。
本实施例中,在三维地图中以体素(Volume Pixel)的形式构建目标对象的模型,且组成目标对象的每一体素均携带有该体素位于该位置的概率信息,这样,能够更加准确的体现出每一体素的位置,提高了所建立的模型的可信度。
这样,本发明实施例通过计算光流信息,从而建立了观测数据、三维地图和相机位姿三者之间的时空联系,进一步的,通过引入位置信息的置信度,能够更有效地应对位置环境下的不确定因素,同时充分发挥数据融合的优势,通过概率密度函数保留所有的信息,避免丢弃数据,从而提高定位和建模的准确程度,有助于提高建模质量。
作为一种可选的实施方式,在上述步骤105之后,还包括:
根据所述目标对象的光流迭代更新所述目标对象的特征点的位置和所述特征点的置信度。
本实施例的技术方案中,当完成了模型的建立之后,进一步根据需要更新地图中各体素的概率分布。例如,可以通过贝叶斯公式迭代更新地图的概率分布,从而提高对于目标对象位置概率分布计算的精确程度,降低误差。
如图3和图4所示,本实施例的技术方案可以概况为,实施时,首先获取输入图像,一般来说,输入图像为数据流,例如,可以为视频数据,然后选取其中的多帧图像。
如图2、图3和图4所示,接下来,然后由输入图像中提取目标对象的光流;如图3所示,进一步的,根据光流计算图像采集装置的位姿;如图3和图4所示,进一步的,基于概率体素场进行数据融合,建立目标对象的模型,其中,体素中携带了当前体素在三维平面上的概率,能够更加准确的描述每一体素的位置信息。
在本实施例的其他一些具体实施方式中,还可以选择KinectFusion(运动融合)、VoxelHashing(体素散列)等算法进行数据的融合,能够提供较为鲁棒的数据融合框架。
本发明实施例还提供了一种定位重建装置500,如图5所示,包括:
获取模块501,用于获取包括目标对象的至少两帧图像;
光流计算模块502,用于计算所述目标对象在所述至少两帧图像中的光流;
姿态计算模块503,用于根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息;
位置计算模块504,用于根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度;
建模模块505,用于基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型。
可选的,所述光流计算模块502包括:
特征点确定子模块,用于确定所述目标对象上的特征点;
计算子模块,用于分别计算所述特征点的光流和与所述特征点相邻的多个邻域点的光流。
可选的,所述位置计算模块504,具体用于基于光流的局部一致性假设,根据所述特征点的光流和与所述特征点相邻的邻域点的光流计算所述特征点光流的准确程度方差,作为所述特征点的位置信息的置信度。
可选的,所述建模模块505,具体用于在三维地图中以体素构建所述目标对象的模型,其中,组成所述目标对象的体素有多个,且每一所述体素携带有所述体素位于所在位置的概率信息。
可选的,还包括更新模块,用于根据所述目标对象的光流迭代更新所述目标对象的特征点的位置和所述特征点的置信度。
由于本实施例的定位重建装置能够实现上述定位重建方法实施例的全部步骤,因此至少能实现上述全部技术效果,此处不再赘述。
本发明实施例还提供了一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如以上任一项所述的定位重建方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以上任一项所述的定位重建方法的步骤。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种定位重建方法,其特征在于,包括以下步骤:
获取包括目标对象的至少两帧图像;
计算所述目标对象在所述至少两帧图像中的光流;
根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息;
根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度;
基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型;
所述计算所述目标对象在所述至少两帧图像中的光流,包括:
确定所述目标对象上的特征点;
分别计算所述特征点的光流和与所述特征点相邻的多个邻域点的光流;
所述根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度,包括:
基于光流的局部一致性假设,根据所述特征点的光流和与所述特征点相邻的邻域点的光流计算所述特征点光流的准确程度方差,作为所述特征点的位置信息的置信度,所述准确程度方差的值越小,置信度越高。
2.如权利要求1所述的定位重建方法,其特征在于,所述基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型,包括:
在三维地图中以体素构建所述目标对象的模型,其中,组成所述目标对象的体素有多个,且每一所述体素携带有所述体素位于所在位置的概率信息。
3.如权利要求1或2所述的定位重建方法,其特征在于,所述基于所述位置信息和所述位置信息的置信度在地图中对所述目标对象进行定位和重建之后,还包括:
根据所述目标对象的光流迭代更新所述目标对象的特征点的位置和所述特征点的置信度。
4.一种定位重建装置,其特征在于,包括:
获取模块,用于获取包括目标对象的至少两帧图像;
光流计算模块,用于计算所述目标对象在所述至少两帧图像中的光流;
姿态计算模块,用于根据所述目标对象的光流计算采集所述图像的图像采集装置的姿态信息;
位置计算模块,用于根据所述目标对象的光流和所述图像采集装置的姿态信息计算所述目标对象的位置信息,以及所述位置信息的置信度;
建模模块,用于基于所述位置信息和所述位置信息的置信度在地图中建立所述目标对象的模型;所述光流计算模块包括:
特征点确定子模块,用于确定所述目标对象上的特征点;
计算子模块,用于分别计算所述特征点的光流和与所述特征点相邻的多个邻域点的光流;所述位置计算模块,具体用于基于光流的局部一致性假设,根据所述特征点的光流和与所述特征点相邻的邻域点的光流计算所述特征点光流的准确程度方差,作为所述特征点的位置信息的置信度,所述准确程度方差的值越小,置信度越高。
5.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至2中任一项所述的定位重建方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至2中任一项所述的定位重建方法的步骤。
CN202010419347.5A 2020-05-18 2020-05-18 一种定位重建方法和装置 Active CN111598927B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010419347.5A CN111598927B (zh) 2020-05-18 2020-05-18 一种定位重建方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010419347.5A CN111598927B (zh) 2020-05-18 2020-05-18 一种定位重建方法和装置

Publications (2)

Publication Number Publication Date
CN111598927A CN111598927A (zh) 2020-08-28
CN111598927B true CN111598927B (zh) 2023-08-01

Family

ID=72182946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010419347.5A Active CN111598927B (zh) 2020-05-18 2020-05-18 一种定位重建方法和装置

Country Status (1)

Country Link
CN (1) CN111598927B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700393A (zh) * 2020-12-29 2021-04-23 维沃移动通信(杭州)有限公司 一种图像融合方法、装置和电子设备
CN112967228B (zh) * 2021-02-02 2024-04-26 中国科学院上海微系统与信息技术研究所 目标光流信息的确定方法、装置、电子设备及存储介质
CN115248045A (zh) * 2021-04-25 2022-10-28 华为技术有限公司 一种地图、地图生成方法、地图使用方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100415313B1 (ko) * 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
CN102800127B (zh) * 2012-07-18 2014-11-26 清华大学 一种基于光流优化的三维重建方法及装置
CN107646126B (zh) * 2015-07-16 2020-12-08 谷歌有限责任公司 用于移动设备的相机姿态估计
CN106934827A (zh) * 2015-12-31 2017-07-07 杭州华为数字技术有限公司 三维场景的重建方法和装置
CN110517319B (zh) * 2017-07-07 2022-03-15 腾讯科技(深圳)有限公司 一种相机姿态信息确定的方法及相关装置
CN108154533A (zh) * 2017-12-08 2018-06-12 北京奇艺世纪科技有限公司 一种位置姿态确定方法、装置及电子设备
CN108537876B (zh) * 2018-03-05 2020-10-16 清华-伯克利深圳学院筹备办公室 三维重建方法、装置、设备及存储介质
CN108734728A (zh) * 2018-04-25 2018-11-02 西北工业大学 一种基于高分辨序列图像的空间目标三维重构方法
CN109584353B (zh) * 2018-10-22 2023-04-07 北京航空航天大学 一种基于单目视频重建三维人脸表情模型的方法
CN111311728B (zh) * 2020-01-10 2023-05-09 华中科技大学鄂州工业技术研究院 一种基于光流法的高精度形貌重建方法、设备及装置
CN113409444B (zh) * 2021-05-21 2023-07-11 北京达佳互联信息技术有限公司 三维重建方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111598927A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
EP3698323B1 (en) Depth from motion for augmented reality for handheld user devices
Mitrokhin et al. EV-IMO: Motion segmentation dataset and learning pipeline for event cameras
US10334168B2 (en) Threshold determination in a RANSAC algorithm
Park et al. High-precision depth estimation using uncalibrated LiDAR and stereo fusion
WO2019149206A1 (zh) 深度估计方法和装置、电子设备、程序和介质
CN111598927B (zh) 一种定位重建方法和装置
KR20210107570A (ko) 어떤 대상의 자기 동작 추정을 위한 방법
JP6126809B2 (ja) エゴモーション概算システムおよび方法
KR100793838B1 (ko) 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법
US20180249144A1 (en) System and Method for Virtually-Augmented Visual Simultaneous Localization and Mapping
CN111899282B (zh) 基于双目摄像机标定的行人轨迹跟踪方法及装置
KR20190042187A (ko) 깊이 값을 추정하는 방법 및 장치
CN109472828B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN111340867A (zh) 图像帧的深度估计方法、装置、电子设备及存储介质
EP2992508A1 (en) Diminished and mediated reality effects from reconstruction
CN113330486A (zh) 深度估计
WO2012083982A1 (en) Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
EP3293700B1 (en) 3d reconstruction for vehicle
US20110091131A1 (en) System and method for stabilization of fisheye video imagery
KR20140054710A (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
US10346949B1 (en) Image registration
US20210118160A1 (en) Methods, devices and computer program products for 3d mapping and pose estimation of 3d images
Fan et al. Large-scale dense mapping system based on visual-inertial odometry and densely connected U-Net
Dang et al. Stereo calibration in vehicles
JP2002094849A (ja) 広視野画像撮像装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant