CN114549766B - 一种实时ar可视化方法、装置、设备及存储介质 - Google Patents
一种实时ar可视化方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114549766B CN114549766B CN202210432852.2A CN202210432852A CN114549766B CN 114549766 B CN114549766 B CN 114549766B CN 202210432852 A CN202210432852 A CN 202210432852A CN 114549766 B CN114549766 B CN 114549766B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- plane
- target
- real
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007794 visualization technique Methods 0.000 title claims abstract description 19
- 230000001360 synchronised effect Effects 0.000 claims abstract description 45
- 238000013507 mapping Methods 0.000 claims abstract description 43
- 238000012800 visualization Methods 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000009877 rendering Methods 0.000 claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims description 95
- 239000011159 matrix material Substances 0.000 claims description 63
- 238000004422 calculation algorithm Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 29
- 238000005070 sampling Methods 0.000 claims description 28
- 238000000354 decomposition reaction Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012216 screening Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 16
- 238000004364 calculation method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种实时AR可视化方法、装置、设备及存储介质。该方法包括:获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出图像帧内目标特征点在预设三维坐标系上的三维坐标;对三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在三维叠加平面上确定出待叠加三维物体对应的平面定位点;基于所述待叠加三维物体和所述平面定位点,结合同步定位与建图模块获取的所述目标摄像机的实时位姿,对图像帧进行视频渲染,以实现实时AR可视化。通过对图像特征点对应的三维点进行平面检测,根据实时位姿对定位点跟踪并进行三维物体叠加,能够实时进行AR效果的叠加,且适用于室外变化大的场景。
Description
技术领域
本发明涉及增强现实技术领域,特别涉及一种实时AR可视化方法、装置、设备及存储介质。
背景技术
增强现实技术(Augmented Reality,AR),是一种在影像(一般为视频)上有目的地叠加显示文字、图形、图像或三维模型等信息的技术,这种技术能够把虚拟事物套在现实世界的表象上进行显示、甚至交互。目前,针对室内的应用场景,基于穿戴设备、智能终端或固定平台的摄像机等设备,已经有比较成熟实用的增强现实技术应用案例,例如:倒车影像辅助线、直播间或短视频里可互动的虚拟饰物、体育赛事直播的国别图标和虚拟吉祥物,以及增强现实的交互游戏等。但是现有的增强现实技术,在室外变化的大场景下的实时应用还不够成熟,例如在无人机搭载摄像机拍摄地面的应用环境。
现有技术中,通过放置模板(Marker)确定现实场景中的平面,并通过模板上的特征点确定世界坐标系,然后利用每帧特征点检测计算摄像机参数,从而进行AR三维叠加;但是该方案确定AR三维叠加的平面以及世界坐标系都需要通过在现实场景中放置模板来进行实现,面对室外大场景环境,模板的大小、位置设置不合理,很容易导致坐标系确定失败以及三维叠加平面无法确定,并且特征点的提取以及AR三维叠加效果的实现完全依赖于模板,在室外变化的大场景下,模板的放置位置、大小以及数量直接影响AR三维叠加的实现。现有技术中,还通过全球定位系统(GNSS)或航位推算(DeadRecking)计算并恢复出摄像机的成像几何模型,但计算时间太长,无法满足视频图像处理的实时性要求,导致AR渲染图像有效果不同步的问题,出现“抖动”现象。现有技术中,还通过设置无人机镜头的视角范围和焦距与虚拟模型场景中的虚拟相机的视角范围和焦距一致,在视频画面上叠加当前位置的静态数据和实时动态数据的三维数据,渲染虚拟模型场景;但该方案需要在无人机飞行前,对所要飞行区域进行虚拟模型场景的构建,前期准备工作量巨大,灵活性较差。
发明内容
有鉴于此,本发明的目的在于提供一种实时AR可视化方法、装置、设备及介质,能够实时进行AR效果的叠加,并且适用于室外变化大的场景。其具体方案如下:
第一方面,本申请公开了一种实时AR可视化方法,包括:
获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;
对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;
基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。
可选的,所述获取目标摄像机采集的图像帧之前,还包括:
以所述目标摄像机的初始位姿构建世界坐标系;
以所述目标摄像机为中心定义三维坐标系,以得到所述预设三维坐标系。
可选的,所述对所述三维坐标进行平面检测以确定出三维叠加平面,包括:
基于所述三维坐标生成目标矩阵;
通过对所述目标矩阵进行奇异值分解得到对应的解向量,将所述解向量作为法向量,然后确定所述法向量对应的平面,并将所述平面作为所述三维叠加平面。
可选的,所述基于所述三维坐标生成目标矩阵,通过对所述目标矩阵进行奇异值分解得到对应的解向量,包括:
利用随机抽样一致算法按照预设次数,每次从所有所述三维坐标中抽取预设数量三维坐标作为目标三维坐标点;
基于每次抽取的所述目标三维坐标点生成所述目标矩阵,以得到与所述预设次数的数量相同的所述目标矩阵,对所述目标矩阵进行奇异值分解获取相应的解向量;
相应的,所述将所述解向量作为法向量,包括:
计算所述三维坐标中除所述目标三维坐标点外的其余三维坐标点在所述解向量上的投影距离,得到每个解向量对应的投影距离;
根据所述投影距离确定出所述随机抽样一致算法的目标函数;
根据所述目标函数从所有所述解向量中确定出目标解向量,并利用所述随机抽样一致算法确定出所述目标解向量对应的内点集;
对基于所述内点集生成的矩阵进行奇异值分解,以获取所述矩阵对应的解向量,并将该解向量作为所述法向量。
可选的,所述根据所述投影距离确定出所述随机抽样一致算法的目标函数,包括:
根据所有所述投影距离得到累计投影距离,并将所述累计投影距离作为所述随机抽样一致算法的目标函数;
或,根据预设P分位数从所有所述投影距离中筛选出目标投影距离,并将所述目标投影距离作为所述随机抽样一致算法的目标函数。
可选的,所述根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点,包括:
获取所述待叠加三维物体对应的叠加位置条件约束关系;所述叠加位置条件约束关系包括参照点确定规则、第一关键点与所述参照点之间的第一距离约束条件以及不同关键点之间的第二距离约束条件;所述参照点和所述关键点为所述图像帧上的像素点;
根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,根据所述关键点在所述预设三维坐标系上对应的三维坐标得到所述平面定位点。
可选的,所述根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,包括:
根据所述参照点确定规则确定出参照点像素坐标;
根据所述参照点像素坐标以及所述第一关键点与所述参照点之间的第一距离约束条件,确定出第一关键点像素坐标;
根据所述第一关键点像素坐标以及所述不同关键点之间的第二距离约束条件,确定出在所述三维叠加平面内的其余所有关键点像素坐标。
可选的,所述基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,包括:
根据所述平面定位点和所述待叠加三维物体的高度,确定出所述待叠加三维物体上底面的顶点坐标,根据所述平面定位点和所述顶点坐标得到所述待叠加三维物体对应的顶点坐标集合;
根据所述目标摄像机的内参以及所述目标摄像机的实时位姿,对所述顶点坐标集合内每个顶点进行坐标转换,得到所述顶点坐标集合内每个顶点对应的像素坐标;
基于所有所述顶点在所述三维叠加平面上绘制出所述待叠加三维物体。
第二方面,本申请公开了一种实时AR可视化装置,包括:
三维坐标确定模块,用于获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;
叠加平面确定模块,用于对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;
渲染模块,用于基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的实时AR可视化方法。
第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序;其中计算机程序被处理器执行时实现前述的实时AR可视化方法。
本申请中,获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。可见,通过对采集的图像帧中的三维坐标点进行平面检测,确定三维物体叠加所需的三维叠加平面,再根据待叠加三维物体对应的叠加位置条件约束关系确定出叠加具体的平面定位点,由此,通过对摄像机获取图片视线范围的区域内进行实时平面检测,并根据摄像机的实时位姿对定位点跟踪,在获取的平面上进行三维AR物体的叠加渲染,实现无人机在陌生环境下进行户外作业时,能够实时进行AR效果的叠加,并且适用于室外变化大的场景,避免了基于模板的传统AR实现方式受模板大小、数量以及放置位置的限制,可以适用于无人机户外作业视频采集的实时AR效果叠加。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种实时AR可视化方法流程图;
图2为本申请提供的一种具体的实时AR可视化系统结构示意图;
图3为本申请提供的一种实时AR可视化装置结构示意图;
图4为本申请提供的一种电子设备结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中,通过放置模板确定现实场景中的平面,从而进行AR三维叠加;但是该方案特征点的提取以及AR三维叠加效果的实现完全依赖于模板,在室外变化的大场景下,模板的放置位置、大小以及数量直接影响AR三维叠加的实现。现有技术中,还通过全球定位系统或航位推算计算并恢复出摄像机的成像几何模型,但计算时间太长,无法满足视频图像处理的实时性要求,导致AR渲染图像有效果不同步的问题,出现“抖动”现象。为克服上述技术问题,本申请提出一种实时AR可视化方法,能够实时进行AR效果的叠加,并且适用于室外变化大的场景。
本申请实施例公开了一种实时AR可视化方法,参见图1所示,该方法可以包括以下步骤:
步骤S11:获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标。
本实施例中,目标摄像机启动后首先获取目标摄像机实时采集的图像帧,并确定出上述图像帧内多个目标特征点在预设三维坐标系上的三维坐标,其中,每帧图像的特征点以及特征点对应的三维坐标具体可以由同步定位与建图(SLAM,SimultaneousLocalization and Mapping)模块算取,即图像特征点的跟踪可以由同步定位与建图模块实现;每帧图像上的特征点对应的三维坐标作为后续平面检测的待选点,上述目标特征点是指通过平面检测后获取的定位点在每帧图像上的位置点(像素坐标)。
本实施例中,所述获取目标摄像机采集的图像帧之前,还可以包括:以所述目标摄像机的初始位姿构建世界坐标系;以所述目标摄像机为中心定义三维坐标系,以得到所述预设三维坐标系。即以单目摄像机作为任务载荷,以摄像机为中心定义三维坐标系,以初始摄像机所在位置和姿态定义世界坐标系,避免世界坐标系的确定依赖于放置于真实场景中的模板。所述目标摄像机为单目摄像机或双目摄像机,或者其他类型的相机,在此对摄像机的类型不做限定。
步骤S12:对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点。
本实施例中,在确定用于进行AR三维叠加的三维叠加平面方面,通过对视频流输出的图像上的特征点对应的三维坐标点进行平面检测技术操作,获取在同一平面的所有三维坐标点以及该平面的法向量,即特征点的提取以及三维叠加平面的确定可以在每帧图片所示范围内进行实现,不受模板限制。
另外,通过上述平面检测步骤,本实施例中支持在同一视图范围内同时检测出多个平面,并在所检测出的多个平面进行AR三维物体的叠加渲染,即无人机在飞行区域内可进行多个AR效果物体在不同位置的叠加,在无人机航行过程中,其搭载的摄像机拍摄到叠加位置点时,叠加过的物体可以一直显示,直至AR效果关闭。
本实施例中,所述对所述三维坐标进行平面检测以确定出三维叠加平面,可以包括:基于所述三维坐标生成目标矩阵;通过对所述目标矩阵进行奇异值分解得到对应的解向量,将所述解向量作为法向量,然后确定出所述法向量对应的平面,并将所述平面作为所述三维叠加平面。
即具体可以通过奇异值分解(Singular Value Decomposition,SVD)求解平面和平面的法向量,对于矩阵齐次线性方程组SVD分解求得平面法向量的理论依据如下:由于,对构成平面的所有三维坐标点组成的矩阵进行齐次线性方程组求解,属于超定方程求解范畴,因此问题转换为,A为目标矩阵,x为解向量,为二范数;首先,对目标矩阵A进行SVD分解:。SVD分解定义:每个目标矩阵A(设A为m×n的矩阵)都可以分解为,称为目标矩阵A的奇异值分解;对角矩阵D的元素为非负数,称为奇异值,数量等于目标矩阵A的秩,U为m x m的矩阵,V为n x n的矩阵,且矩阵U和矩阵V均为酉矩阵;其次,令,可得:;故此,问题进一步转换为问题,易知该问题的解为:
通过SVD分解法求解的解向量x为齐次线性方程组的近似解,该解向量与构成该矩阵的所有三维坐标点的叉乘结果都近似为0,因此由此法获取平面的平面法向量。
本实施例中,所述基于所述三维坐标生成目标矩阵,通过对所述目标矩阵进行奇异值分解得到对应的解向量,可以包括:利用随机抽样一致算法按照预设次数,每次从所有所述三维坐标中抽取预设数量三维坐标作为目标三维坐标点;基于每次抽取的所述目标三维坐标点生成所述目标矩阵,以得到与所述预设次数的数量相同的所述目标矩阵,对所述目标矩阵进行奇异值分解获取相应的解向量;相应的,所述将所述解向量作为法向量,可以包括:计算所述三维坐标中除所述目标三维坐标点外的其余三维坐标点在所述解向量上的投影距离,得到每个解向量对应的投影距离;根据所述投影距离确定出所述随机抽样一致算法的目标函数;根据所述目标函数从所有所述解向量中确定出目标解向量,并利用所述随机抽样一致算法确定出所述目标解向量对应的内点集;对基于所述内点集生成的矩阵进行奇异值分解,以获取所述矩阵对应的解向量,并将该解向量作为所述法向量。其中,所述根据所述投影距离确定出所述随机抽样一致算法的目标函数,可以包括:根据所有所述投影距离得到累计投影距离,并将所述累计投影距离作为所述随机抽样一致算法的目标函数;或,根据预设P分位数从所有所述投影距离中筛选出目标投影距离,并将所述目标投影距离作为所述随机抽样一致算法的目标函数。
即先通过随机抽样一致算法(RANdom SAmple Consensus,RANSAC)抽取部分三维坐标点作为目标三维坐标点,然后基于上述目标三维坐标点生成目标矩阵进行后续平面检测的平面确定流程,具体的,从图像帧上获取并筛选后的三维坐标点中,随机选取指定个数地图点作为目标坐标点,并将目标坐标点合并成目标矩阵A,并对目标矩阵A进行SVD分解操作,获取AX=0(超定方程)的解向量,作为选取地图点的垂直单位向量;再将剩余三维坐标点与计算求得的垂直单位向量进行叉乘运算,获取每个坐标点在该垂直单位向量的投影距离,并将累计投影距离作为RANSAC的目标函数,或采用P分位数的投影距离作为RANSAC的目标函数,由此可以提升计算效率;当然,除此之外还可以采用其他的目标函数确定方式,在此不做限定。完成设定抽样次数之后,利用随机抽样一致算法确定出目标解向量对应的内点集,对内点集构成的矩阵进行奇异值分解,以获取该矩阵对应的解向量,并将该解向量作为法向量,根据RANSAC算法,本实施例中利用随机抽样一致算法确定目标解向量对应的内点集,具体包括设定指定阈值筛选当前坐标点,得到上述内点集。完成设定的RANSAC方法后最终确定构成检测到的平面的三维坐标点以及平面法向量,其中平面法向量是通过构成平面的所有三维坐标点(即上述内点集)组成的矩阵进行SVD分解,求解该矩阵齐次线性方程组得到。
本实施例中,所述根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点,可以包括:获取所述待叠加三维物体对应的叠加位置条件约束关系;所述叠加位置条件约束关系包括参照点确定规则、第一关键点与所述参照点之间的第一距离约束条件以及不同关键点之间的第二距离约束条件;所述参照点和所述关键点为所述图像帧上的像素点;根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,根据所述关键点在所述预设三维坐标系上对应的三维坐标得到所述平面定位点。其中,上述叠加位置条件约束关系中的具体约束条件和规则可以由用户根据使用情况自定义配置。本实施例中,所述根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,可以包括:根据所述参照点确定规则确定出参照点像素坐标;根据所述参照点像素坐标以及所述第一关键点与所述参照点之间的第一距离约束条件,确定出第一关键点像素坐标;根据所述第一关键点像素坐标以及所述不同关键点之间的第二距离约束条件,确定出在所述三维叠加平面内的其余所有关键点像素坐标。
可以理解的是,对于三维物体叠加位置所需的平面定位点的确定,可以利用同步定位与建图模块传输的三维坐标点,以及对应在图像帧中的关键点数据,并对数据进行筛选后进行操作,将经过筛选后的关键点组成的集合记作KeyPoints,将摄像机获取的图片的长(记作cols)以及图片的宽(记作rows),例如,当参照点确定规则为将摄像机中心点作为参照点,则摄像机中心点在图片上投影的像素坐标为:
本实施例中参照点确定规则可以根据实际使用需求进行自定义,本实施例中不对参照点的位置进行限定,参照点可以是图片中心点或者检测平面的平面中心点等。
表示关键点A与图片中心点O距离上确界,即上述第一距离约束条件;r、R分别表示关键点A、B、C之间的最短距离和最远距离约束,即上述第二距离约束条件。其中选取关键点A的距离比较对象可以由图片中心点O换成图片上任意一点,如上述所说的图片中心点或者检测平面的平面中心点,根据情况可自定。选取平面定位点对应关键A、B、C的过程包括:在筛选后的关键点中依次计算与图片中心点O的距离,距离首先满足小于等于的关键点,选取为关键点A;依次计算剩余关键点与选取关键点A的距离,将满足距离大于等于r且小于等于R条件的关键点归于候选关键点队列;在候选关键点队列中随机采取两个关键点,若其距离满足大于等于r且小于等于R条件的两个关键点,分别选取为关键点B和C。若不满足条件,则再次随机采取两个关键点进行计算,直至达到限制的随机采取次数为止。根据上述算法获取的关键点A、B、C可构成二维的三角形,该三个关键点对应的三维坐标点即为三维物体叠加位置所需的平面定位点,依次将平面定位点记作。另外,上述关键点能够形成一个几何区域即可,关键点数量可以大于等于3。
步骤S13:基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。
本实施例中,在三维叠加平面上确定出平面定位点后,根据目标摄像机的实时位姿跟踪上述平面定位点,并在上述平面定位点上对图像帧进行视频渲染,以实现实时AR可视化,其中,上述目标摄像机的实时位姿可以为从同步定位与建图模块中获取的。可见,利用获取实时的相机位姿以及更准确的三维地理位置数据进行AR定位点的确定,可以提升单目摄像机作为任务载荷的遥感系统的AR效果稳定性;对于三维物体的叠加而言,通过对平面内三维坐标点以及平面向量的数据利用,确定三维物体放置的定位点的选取以及三维物体的放置状态,并通过获取每帧图片对应的摄像机位姿对三维物体进行视频渲染,实现AR三维物体的叠加,不需要在无人机飞行前对飞行区域进行虚拟模型场景的构造,提高了AR可视化效率。
本实施例中,所述基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,可以包括:根据所述平面定位点和所述待叠加三维物体的高度,确定出所述待叠加三维物体上底面的顶点坐标,根据所述平面定位点和所述顶点坐标得到所述待叠加三维物体对应的顶点坐标集合;根据所述目标摄像机的内参以及所述目标摄像机的实时位姿,对所述顶点坐标集合内每个顶点进行坐标转换,得到所述顶点坐标集合内每个顶点对应的像素坐标;通过闭环连接下底面的所述平面定位点以及闭环连接上底面的顶点,并将所述下底面和所述上底面对应的顶点进行连接,以在所述三维叠加平面上绘制出所述待叠加三维物体。
可以理解的是,对三维物体进行叠加渲染,首先,需要三维物体各顶点的三维地理位置坐标。根据上述确定的三维物体叠加位置所需的平面定位点,可以获得三维物体下底面的三个顶点。根据设定的三维物体三棱柱高度(height),下底面三个顶点对应的上底面三个顶点可分别表示为:
最后,根据上述获取顶点在每一帧图像上像素坐标,按照下底面顶点依次闭环连接、上底面顶点依次闭环连接以及上下底面顶点对应连接的方式,进行绘制三维立体图形,完成对每一帧图片的渲染。当然,本实施例中对顶点的连接方式及顺序不做具体限定,任意一种能够实现三维立体图形的绘制方式均可适用于本实施例中。
由上可见,本实施例中获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。可见,通过对采集的图像帧中的三维坐标点进行平面检测,确定三维物体叠加所需的三维叠加平面,再根据待叠加三维物体对应的叠加位置条件约束关系确定出叠加具体的平面定位点,由此,通过对摄像机获取图片视线范围的区域内进行实时平面检测,并根据摄像机的实时位姿对定位点跟踪,在获取的平面上进行三维AR物体的叠加渲染,实现无人机在陌生环境下进行户外作业时,能够实时进行AR效果的叠加,并且适用于场景变化大的情况,避免了基于模板的传统AR实现方式受模板大小、数量以及放置位置的限制,可以适用于无人机户外作业视频采集的实时AR效果叠加。
进一步,本实施例还公开了一种实时AR可视化系统,参见图2所示,对无人机搭载的单目摄像机的视频数据,进行视频流推送至同步定位与建图模块以及AR可视化模块,同步定位与建图模块以及AR可视化模块分别对当前输入帧图片进行处理。同步定位与建图模块可以用于获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;配准模块可以用于对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;AR可视化模块可以用于基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。即配准模块负责对AR叠加定位点进行计算获取相应数据,并为AR可视化模块提供相应接口函数。
即AR可视化模块用于接收来自同步定位与建图模块传输的位姿和地图数据,该数据与AR可视化模块当前帧的图片匹配对应;并且,AR可视化模块用于在接收来自同步定位与建图模块传输的位姿和地图数据后,通过触发AR配准模块进行数据交换与配准计算。AR可视化模块还用于获取配准计算后的数据,实现二维物体或者三维物体的视频渲染,并将每一帧的渲染结果显示到视频播放界面;其中二维叠加物体标记出同步定位与建图模块计算获取的三维坐标点在每一帧图片上的位置。同步定位与建图模块用于接收来自视频流推送的每一帧图片,完成同步定位与建图系统初始化启动,并持续跟踪视频流输入的每帧图片,同步定位与建图系统模块跟踪每一帧图片,将计算获取的相关数据,传输给AR可视化模块。并且,本实施例中AR可视化模块作为AR可视化呈现方案系统中的核心模块之一,该模块与同步定位与建图模块作为两个并行线程进行同步运行。且无论是否接收到同步定位与建图模块数据,该模块会将接收到的每一帧数据进行实时的展示在视频播放界面。同样,在接收到同步定位与建图模块数据后,可选择是否启动AR配准模块进行AR效果的叠加。可见,通过采用并行线程模式,利用同步定位与建图系统获取的三维坐标点以及相机位姿,实时更新AR叠加数据,弥补了摄像机以及搭载摄像机的载体(无人机)自带的定位系统和姿态传感器获取的数据存在数据时间连续性差的缺陷,提高了实时AR可视化能力。
相应的,本申请实施例还公开了一种实时AR可视化装置,参见图3所示,该装置包括:
三维坐标确定模块11,用于获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;
叠加平面确定模块12,用于对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;
渲染模块13,用于基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。
由上可见,本实施中获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化。可见,通过对采集的图像帧中的三维坐标点进行平面检测,确定三维物体叠加所需的三维叠加平面,再根据待叠加三维物体对应的叠加位置条件约束关系确定出叠加具体的平面定位点,由此,通过对摄像机获取图片视线范围的区域内进行实时平面检测,并根据摄像机的实时位姿对定位点跟踪,在获取的平面上进行三维AR物体的叠加渲染,实现无人机在陌生环境下进行户外作业时,能够实时进行AR效果的叠加,并且适用于室外变化大的场景,避免了基于模板的传统AR实现方式受模板大小、数量以及放置位置的限制,可以适用于无人机户外作业视频采集的实时AR效果叠加。
在一些具体实施例中,所述实时AR可视化装置具体可以包括:
世界坐标系构建单元,用于以所述目标摄像机的初始位姿构建世界坐标系;
三维坐标系定义单元,用于以所述目标摄像机为中心定义三维坐标系,以得到所述预设三维坐标系。
在一些具体实施例中,所述叠加平面确定模块12具体可以包括:
目标矩阵确定单元,用于基于所述三维坐标生成目标矩阵;
三维叠加平面确定单元,用于通过对所述目标矩阵进行奇异值分解得到对应的解向量,将所述解向量作为法向量,然后确定所述法向量对应的平面,并将所述平面作为所述三维叠加平面。
在一些具体实施例中,所述目标矩阵确定单元具体可以包括:
目标三维坐标点确定单元,用于利用随机抽样一致算法按照预设次数,每次从所有所述三维坐标中抽取预设数量三维坐标作为目标三维坐标点;
目标矩阵确定单元,用于基于每次抽取的所述目标三维坐标点生成所述目标矩阵,以得到与所述预设次数的数量相同的所述目标矩阵,对所述目标矩阵进行奇异值分解获取相应的解向量;
相应的,所述三维叠加平面确定单元,包括:
投影距离计算单元,用于计算所述三维坐标中除所述目标三维坐标点外的其余三维坐标点在所述解向量上的投影距离,得到每个解向量对应的投影距离;
目标函数确定单元,用于根据所述投影距离确定出所述随机抽样一致算法的目标函数;
内点集确定单元,用于根据所述目标函数从所有所述解向量中确定出目标解向量,并利用所述随机抽样一致算法确定出所述目标解向量对应的内点集;
法向量确定单元,用于对基于所述内点集生成的矩阵进行奇异值分解,以获取所述矩阵对应的解向量,并将该解向量作为所述法向量。
在一些具体实施例中,所述目标函数确定单元具体可以包括:
第一目标函数确定单元,用于根据所有所述投影距离得到累计投影距离,并将所述累计投影距离作为所述随机抽样一致算法的目标函数;
第二目标函数确定单元,用于根据预设P分位数从所有所述投影距离中筛选出目标投影距离,并将所述目标投影距离作为所述随机抽样一致算法的目标函数。
在一些具体实施例中,所述叠加平面确定模块12具体可以包括:
叠加位置条件约束关系获取单元,用于获取所述待叠加三维物体对应的叠加位置条件约束关系;所述叠加位置条件约束关系包括参照点确定规则、第一关键点与所述参照点之间的第一距离约束条件以及不同关键点之间的第二距离约束条件;所述参照点和所述关键点为所述图像帧上的像素点;
平面定位点确定单元,用于根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,根据所述关键点在所述预设三维坐标系上对应的三维坐标得到所述平面定位点。
在一些具体实施例中,所述平面定位点确定单元具体可以包括:
参照点像素坐标确定单元,用于根据所述参照点确定规则确定出参照点像素坐标;
第一关键点像素坐标确定单元,用于根据所述参照点像素坐标以及所述第一关键点与所述参照点之间的第一距离约束条件,确定出第一关键点像素坐标;
其余关键点像素坐标确定单元,用于根据所述第一关键点像素坐标以及所述不同关键点之间的第二距离约束条件,确定出在所述三维叠加平面内的其余所有关键点像素坐标。
在一些具体实施例中,所述渲染模块13具体可以包括:
顶点坐标确定单元,用于根据所述平面定位点和所述待叠加三维物体的高度,确定出所述待叠加三维物体上底面的顶点坐标,根据所述平面定位点和所述顶点坐标得到所述待叠加三维物体对应的顶点坐标集合;
坐标转换单元,用于根据所述目标摄像机的内参以及所述目标摄像机的实时位姿,对所述顶点坐标集合内每个顶点进行坐标转换,得到所述顶点坐标集合内每个顶点对应的像素坐标;
绘制单元,用于基于所有所述顶点在所述三维叠加平面上绘制出所述待叠加三维物体。
进一步的,本申请实施例还公开了一种电子设备,参见图4所示,图中的内容不能被认为是对本申请的使用范围的任何限制。
图4为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的实时AR可视化方法中的相关步骤。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及包括图像帧在内的数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的实时AR可视化方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请实施例还公开了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述任一实施例公开的实时AR可视化方法步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种实时AR可视化方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种实时AR可视化方法,其特征在于,包括:
获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;
对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;
基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化;
其中,所述对所述三维坐标进行平面检测以确定出三维叠加平面,包括:
基于所述三维坐标生成目标矩阵;
通过对所述目标矩阵进行奇异值分解得到对应的解向量,将所述解向量作为法向量,然后确定所述法向量对应的平面,并将所述平面作为所述三维叠加平面;
其中,所述基于所述三维坐标生成目标矩阵,通过对所述目标矩阵进行奇异值分解得到对应的解向量,包括:
利用随机抽样一致算法按照预设次数,每次从所有所述三维坐标中抽取预设数量三维坐标作为目标三维坐标点;
基于每次抽取的所述目标三维坐标点生成所述目标矩阵,以得到与所述预设次数的数量相同的所述目标矩阵,对所述目标矩阵进行奇异值分解获取相应的解向量;
相应的,所述将所述解向量作为法向量,包括:
计算所述三维坐标中除所述目标三维坐标点外的其余三维坐标点在所述解向量上的投影距离,得到每个解向量对应的投影距离;
根据所述投影距离确定出所述随机抽样一致算法的目标函数;
根据所述目标函数从所有所述解向量中确定出目标解向量,并利用所述随机抽样一致算法确定出所述目标解向量对应的内点集;
对基于所述内点集生成的矩阵进行奇异值分解,以获取所述矩阵对应的解向量,并将该解向量作为所述法向量。
2.根据权利要求1所述的实时AR可视化方法,其特征在于,所述获取目标摄像机采集的图像帧之前,还包括:
以所述目标摄像机的初始位姿构建世界坐标系;
以所述目标摄像机为中心定义三维坐标系,以得到所述预设三维坐标系。
3.根据权利要求1所述的实时AR可视化方法,其特征在于,所述根据所述投影距离确定出所述随机抽样一致算法的目标函数,包括:
根据所有所述投影距离得到累计投影距离,并将所述累计投影距离作为所述随机抽样一致算法的目标函数;
或,根据预设P分位数从所有所述投影距离中筛选出目标投影距离,并将所述目标投影距离作为所述随机抽样一致算法的目标函数。
4.根据权利要求1所述的实时AR可视化方法,其特征在于,所述根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点,包括:
获取所述待叠加三维物体对应的叠加位置条件约束关系;所述叠加位置条件约束关系包括参照点确定规则、第一关键点与所述参照点之间的第一距离约束条件以及不同关键点之间的第二距离约束条件;所述参照点和所述关键点为所述图像帧上的像素点;
根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,根据所述关键点在所述预设三维坐标系上对应的三维坐标得到所述平面定位点。
5.根据权利要求4所述的实时AR可视化方法,其特征在于,所述根据所述叠加位置条件约束关系确定出在所述三维叠加平面内的所有所述关键点,包括:
根据所述参照点确定规则确定出参照点像素坐标;
根据所述参照点像素坐标以及所述第一关键点与所述参照点之间的第一距离约束条件,确定出第一关键点像素坐标;
根据所述第一关键点像素坐标以及所述不同关键点之间的第二距离约束条件,确定出在所述三维叠加平面内的其余所有关键点像素坐标。
6.根据权利要求1所述的实时AR可视化方法,其特征在于,所述基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化,包括:
根据所述平面定位点和所述待叠加三维物体的高度,确定出所述待叠加三维物体上底面的顶点坐标,根据所述平面定位点和所述顶点坐标得到所述待叠加三维物体对应的顶点坐标集合;
根据所述目标摄像机的内参以及所述目标摄像机的实时位姿,对所述顶点坐标集合内每个顶点进行坐标转换,得到所述顶点坐标集合内每个顶点对应的像素坐标;
基于所有所述顶点在所述三维叠加平面上绘制出所述待叠加三维物体。
7.一种实时AR可视化装置,其特征在于,包括:
三维坐标确定模块,用于获取目标摄像机采集的图像帧,并利用同步定位与建图模块确定出所述图像帧内目标特征点在预设三维坐标系上的三维坐标;
叠加平面确定模块,用于对所述三维坐标进行平面检测以确定出三维叠加平面,并根据待叠加三维物体对应的叠加位置条件约束关系,在所述三维叠加平面上确定出所述待叠加三维物体对应的平面定位点;
渲染模块,用于基于所述待叠加三维物体和所述平面定位点,结合所述同步定位与建图模块获取的所述目标摄像机的实时位姿,对所述图像帧进行视频渲染,以实现实时AR可视化;
其中,所述叠加平面确定模块,用于基于所述三维坐标生成目标矩阵;通过对所述目标矩阵进行奇异值分解得到对应的解向量,将所述解向量作为法向量,然后确定所述法向量对应的平面,并将所述平面作为所述三维叠加平面;
其中,所述叠加平面确定模块,还用于利用随机抽样一致算法按照预设次数,每次从所有所述三维坐标中抽取预设数量三维坐标作为目标三维坐标点;基于每次抽取的所述目标三维坐标点生成所述目标矩阵,以得到与所述预设次数的数量相同的所述目标矩阵,对所述目标矩阵进行奇异值分解获取相应的解向量; 以及,计算所述三维坐标中除所述目标三维坐标点外的其余三维坐标点在所述解向量上的投影距离,得到每个解向量对应的投影距离;根据所述投影距离确定出所述随机抽样一致算法的目标函数;根据所述目标函数从所有所述解向量中确定出目标解向量,并利用所述随机抽样一致算法确定出所述目标解向量对应的内点集;对基于所述内点集生成的矩阵进行奇异值分解,以获取所述矩阵对应的解向量,并将该解向量作为所述法向量。
8.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至6任一项所述的实时AR可视化方法。
9.一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中计算机程序被处理器执行时实现如权利要求1至6任一项所述的实时AR可视化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210432852.2A CN114549766B (zh) | 2022-04-24 | 2022-04-24 | 一种实时ar可视化方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210432852.2A CN114549766B (zh) | 2022-04-24 | 2022-04-24 | 一种实时ar可视化方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114549766A CN114549766A (zh) | 2022-05-27 |
CN114549766B true CN114549766B (zh) | 2022-09-09 |
Family
ID=81667057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210432852.2A Active CN114549766B (zh) | 2022-04-24 | 2022-04-24 | 一种实时ar可视化方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549766B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115361576A (zh) * | 2022-07-20 | 2022-11-18 | 中国电信股份有限公司 | 视频数据处理方法、装置,以及,电子设备 |
CN116253248B (zh) * | 2023-02-13 | 2023-10-03 | 江苏省特种设备安全监督检验研究院 | 起重机运行监测方法及起重机防撞人冗余系统和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137834A (ja) * | 1999-12-10 | 2000-05-16 | Hitachi Ltd | 合成動画像生成装置および合成動画像生成方法 |
CN107665505A (zh) * | 2016-07-29 | 2018-02-06 | 成都理想境界科技有限公司 | 基于平面检测实现增强现实的方法及装置 |
CN109685913A (zh) * | 2018-12-21 | 2019-04-26 | 西安电子科技大学 | 基于计算机视觉定位的增强现实实现方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4217100B2 (ja) * | 2003-04-17 | 2009-01-28 | 本田技研工業株式会社 | 画像合成方法、装置、およびプログラム、ならびに立体モデルのレンダリング方法、装置、およびプログラム |
CN102831401B (zh) * | 2012-08-03 | 2016-01-13 | 樊晓东 | 对无特定标记目标物体跟踪、三维叠加及交互的方法及系统 |
WO2014106664A1 (en) * | 2013-01-07 | 2014-07-10 | Ecole Centrale Paris | Method and device for elastic registration between a two-dimensional digital image and a slice of a three-dimensional volume with overlapping content |
US20180020992A1 (en) * | 2015-02-16 | 2018-01-25 | Dimensions And Shapes, Llc | Systems and methods for medical visualization |
CN105139445B (zh) * | 2015-08-03 | 2018-02-13 | 百度在线网络技术(北京)有限公司 | 场景重建方法及装置 |
CN106125907B (zh) * | 2016-06-13 | 2018-12-21 | 西安电子科技大学 | 一种基于线框模型的三维目标注册定位方法 |
WO2018019272A1 (zh) * | 2016-07-29 | 2018-02-01 | 成都理想境界科技有限公司 | 基于平面检测实现增强现实的方法及装置 |
CN107665507B (zh) * | 2016-07-29 | 2021-04-30 | 成都理想境界科技有限公司 | 基于平面检测实现增强现实的方法及装置 |
CN108830894B (zh) * | 2018-06-19 | 2020-01-17 | 亮风台(上海)信息科技有限公司 | 基于增强现实的远程指导方法、装置、终端和存储介质 |
CN110379010A (zh) * | 2019-06-25 | 2019-10-25 | 北京邮电大学 | 基于视频融合的三维地理信息可视化方法及系统 |
US11935183B2 (en) * | 2020-01-10 | 2024-03-19 | Dirtt Environmental Solutions Ltd. | Occlusion solution within a mixed reality design software application |
CN113100932A (zh) * | 2021-03-17 | 2021-07-13 | 钱鹤翔 | 透视下三维可视化定位仪及其匹配定位人体三维空间数据的方法 |
-
2022
- 2022-04-24 CN CN202210432852.2A patent/CN114549766B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137834A (ja) * | 1999-12-10 | 2000-05-16 | Hitachi Ltd | 合成動画像生成装置および合成動画像生成方法 |
CN107665505A (zh) * | 2016-07-29 | 2018-02-06 | 成都理想境界科技有限公司 | 基于平面检测实现增强现实的方法及装置 |
CN109685913A (zh) * | 2018-12-21 | 2019-04-26 | 西安电子科技大学 | 基于计算机视觉定位的增强现实实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114549766A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
US11393173B2 (en) | Mobile augmented reality system | |
CN108830894B (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
CN114549766B (zh) | 一种实时ar可视化方法、装置、设备及存储介质 | |
US8390617B1 (en) | Visualizing oblique images | |
JP6329343B2 (ja) | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 | |
US8633970B1 (en) | Augmented reality with earth data | |
JP5740884B2 (ja) | 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム | |
US11417069B1 (en) | Object and camera localization system and localization method for mapping of the real world | |
US9361731B2 (en) | Method and apparatus for displaying video on 3D map | |
US10785469B2 (en) | Generation apparatus and method for generating a virtual viewpoint image | |
JP2010109783A (ja) | 電子カメラ | |
CN115641401A (zh) | 一种三维实景模型的构建方法及相关装置 | |
US20230298280A1 (en) | Map for augmented reality | |
US20230244227A1 (en) | Data processing method, control apparatus and storage medium | |
CN115601496A (zh) | Ar辅助三维地图尺度恢复的方法和系统 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
CN108564654B (zh) | 三维大场景的画面进入方式 | |
CN112017242A (zh) | 显示方法及装置、设备、存储介质 | |
WO2023088127A1 (zh) | 室内导航方法、服务器、装置和终端 | |
CN111581322B (zh) | 视频中兴趣区域在地图窗口内显示的方法和装置及设备 | |
US10907977B1 (en) | Human-aided geo-rectification of geospatial metadata in video using a graphical interface | |
JP2008203991A (ja) | 画像処理装置 | |
CN110196638B (zh) | 基于目标检测和空间投影的移动端增强现实方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 610095 7th floor, block a, building 6, No. 200, Tianfu Fifth Street, high tech Zone, Chengdu, Sichuan Province Patentee after: CHENGDU JOUAV AUTOMATION TECHNOLOGY Co.,Ltd. Country or region after: China Address before: Room 805-8015, building 5, Tianfu District, Chengdu, Sichuan Province Patentee before: CHENGDU JOUAV AUTOMATION TECHNOLOGY Co.,Ltd. Country or region before: China |