CN112365530A - 增强现实处理方法及装置、存储介质和电子设备 - Google Patents
增强现实处理方法及装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN112365530A CN112365530A CN202011216152.7A CN202011216152A CN112365530A CN 112365530 A CN112365530 A CN 112365530A CN 202011216152 A CN202011216152 A CN 202011216152A CN 112365530 A CN112365530 A CN 112365530A
- Authority
- CN
- China
- Prior art keywords
- depth
- image
- target image
- augmented reality
- rgb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 70
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000007613 environmental effect Effects 0.000 claims abstract description 10
- 238000013519 translation Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 48
- 230000008569 process Effects 0.000 abstract description 30
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本公开提供了一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,涉及增强现实技术领域。该增强现实处理方法包括:利用RGB摄像头采集的环境信息,生成目标图像;利用深度摄像头采集的深度信息,确定与目标图像对应的深度图像,并将目标图像与深度图像对齐;基于目标图像和深度图像进行重定位,确定移动终端在地图坐标系下的位姿;提取目标图像的特征点,利用深度图像确定特征点对应的深度值,结合特征点对应的深度值,确定特征点的三维信息;利用移动终端在地图坐标系下的位姿以及特征点的三维信息,执行增强现实操作。本公开可以减少增强现实初始化过程的耗时。
Description
技术领域
本公开涉及增强现实技术领域,具体而言,涉及一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种把虚拟世界和现实世界融合的技术,该技术已广泛应用到教育、游戏、医疗、物联网、智能制造等多个领域。
针对增强现实技术中进行定位的操作,需要经过一个初始化过程,初始化的目的是为了更加准确的实现图像跟踪。目前,初始化过程需要将设备进行缓慢的平移操作,通常需要用户的配合且耗时较长。
发明内容
本公开提供一种增强现实处理方法、增强现实处理装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服增强现实初始化过程需要用户配合且耗时较长的问题。
根据本公开的第一方面,提供了一种增强现实处理方法,应用于移动终端,包括:利用RGB摄像头采集的环境信息,生成目标图像;利用深度摄像头采集的深度信息,确定与目标图像对应的深度图像,并将目标图像与深度图像对齐;基于目标图像和深度图像进行重定位,确定移动终端在地图坐标系下的位姿;提取目标图像的特征点,利用深度图像确定特征点对应的深度值,结合特征点对应的深度值,确定特征点的三维信息;利用移动终端在地图坐标系下的位姿以及特征点的三维信息,执行增强现实操作。
根据本公开的第二方面,提供了一种增强现实处理装置,应用于移动终端,包括:RGB图像获取模块,用于利用RGB摄像头采集的环境信息,生成目标图像;深度图像获取及对齐模块,用于利用深度摄像头采集的深度信息,确定与目标图像对应的深度图像,并将目标图像与深度图像对齐;位姿确定模块,用于基于目标图像和深度图像进行重定位,确定移动终端在地图坐标系下的位姿;三维信息确定模块,用于提取目标图像的特征点,利用深度图像确定特征点对应的深度值,结合特征点对应的深度值,确定特征点的三维信息;操作执行模块,用于利用移动终端在地图坐标系下的位姿以及特征点的三维信息,执行增强现实操作。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的增强现实处理方法。
根据本公开的第四方面,提供了一种电子设备,包括处理器;存储器,用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得所述处理器实现上述的增强现实处理方法。
在本公开的一些实施例所提供的技术方案中,移动终端利用目标图像及其对应的深度图像进行重定位,确定移动终端在地图坐标系下的位姿。提取目标图像的特征点,并利用深度图像确定出特征点的三维信息。接下来,利用移动终端在地图坐标系下的位姿以及特征点的三维信息,执行增强现实操作。一方面,本公开方案基于一目标图像及对应的深度图像,实现了增强现实的初始化过程,无需用户配合进行平移操作,耗时少,可以快速开启AR导航、跟踪等操作;另一方面,本公开方案在不需要用户参与的情况下结合深度信息实现初始化,提高了算法精度,使例如AR导航、跟踪等应用过程更加准确。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的增强现实处理方案的场景示意图;
图2示出了适于用来实现本公开实施例的电子设备的结构示意图;
图3示意性示出了根据本公开的示例性实施方式的增强现实处理方法的流程图;
图4示出了小孔成像原理的示意图;
图5示意性示出了根据本公开的示例性实施方式的增强现实处理装置的方框图;
图6示意性示出了根据本公开的另一示例性实施方式的增强现实处理装置的方框图;
图7示意性示出了根据本公开的又一示例性实施方式的增强现实处理装置的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的增强现实处理方案的场景示意图。
如图1所示,在移动终端安装有AR导航应用的情况下,用户可以点击该应用程序的图标,进入应用界面。在开启应用之后且实现AR导航之前,移动终端可以执行本公开所述的增强现实处理方案,以完成初始化过程,提高AR导航的准确度。
具体的,首先,移动终端可以响应增强现实应用的打开操作,即响应用户点击AR导航应用图标的操作,同时开启RGB摄像头和深度摄像头。利用RGB摄像头采集的环境信息,生成目标图像,并利用深度摄像头采集的深度信息,确定与目标图像对应的深度图像。
接下来,将目标图像与深度图像对齐,并基于对齐后的目标图像和深度图像进行重定位过程,确定出移动终端在地图坐标系下的位姿。
另外,移动终端可以利用特征点提取算法提取目标图像的特征点,利用深度图像确定特征点对应的深度值,并结合特征点对应的深度值,确定特征点的三维信息。
在确定出移动终端在地图坐标系下的位姿以及特征点的三维信息后,可以认为,初始化过程结束,可以执行增强现实操作。以图1为例,初始化过程后,可以进一步响应用户的操作(如输入目的地信息等),开启AR导航服务,如图中指示“右转”。
本公开的增强现实处理过程利用一RGB图像及对应的深度图像实现初始化,无需用户进行平移操作等配合,初始化速度快。另外,算法融合了深度信息,提高了初始化的准确性,进而提高了例如导航的AR应用的准确性。
应当理解的是,本公开所述移动终端可以是手机、平板电脑、AR眼镜、AR头盔等能够实现AR处理及AR显示功能的设备。本公开对移动终端的类型不做限制。
需要说明的是,本公开示例性实施方式的增强现实处理方法一般由移动终端执行,相应地,下面描述的增强现实处理装置一般配置在移动终端中。
图2示出了适于用来实现本公开示例性实施方式的电子设备的示意图。本公开示例性实施方式所述的移动终端可以被配置为如图2所示的形式。需要说明的是,图2示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
本公开的电子设备至少包括处理器和存储器,存储器用于存储一个或多个程序,当一个或多个程序被处理器执行时,使得处理器可以实现本公开示例性实施方式的增强现实处理方法。
具体的,如图2所示,电子设备200可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(Subscriber IdentificationModule,SIM)卡接口295等。其中传感器模块280可以包括深度传感器、压力传感器、陀螺仪传感器、气压传感器、磁传感器、加速度传感器、距离传感器、接近光传感器、指纹传感器、温度传感器、触摸传感器、环境光传感器及骨传导传感器等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备200的具体限定。在本申请另一些实施例中,电子设备200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-etwork Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。另外,处理器210中还可以设置存储器,用于存储指令和数据。
电子设备200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。在一些实施例中,电子设备200可以包括至少两个摄像模组291,分别为拍摄RGB图像的摄像模组和拍摄深度图像的摄像模组。
内部存储器221可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备200的存储能力。
就本公开所述的增强现实处理方案而言,移动终端可以利用拍摄RGB图像的摄像模组采集环境信息,生成目标图像,并利用拍摄深度图像的摄像模组采集深度信息,确定目标图像对应的深度图像。处理器210可以将目标图像与深度图像对齐,并基于目标图像和深度图像进行重定位,确定出移动终端在地图坐标系下的位姿。另外,处理器210可以提取目标图像的特征点,利用深度图像确定特征点对应的深度值,并结合特征点对应的深度值,确定特征点的三维信息。在确定出移动终端在地图坐标系下的位姿以及特征点的三维信息的情况下,初始化完成,随后,移动终端可以根据移动终端在地图坐标系下的位姿以及特征点的三维信息执行增强现实操作,实现例如AR导航的过程。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
图3示意性示出了本公开的示例性实施方式的增强现实处理方法的流程图。参考图3,本公开应用于移动终端的增强现实处理方法可以包括以下步骤:
S30.利用RGB摄像头采集的环境信息,生成目标图像。
在本公开的示例性实施方式中,响应增强现实应用的打开操作,开启RGB摄像头,以对环境信息进行采集。其中,增强现实应用的打开操作通常可以是用户点击AR应用图标的操作,另外,还可以是移动终端上触发AR过程的其他操作,本公开对此不做限制。
根据本公开的一些实施例,可以将RGB摄像头开启后采集的第一帧图像作为目标图像。也就是说,在随后的处理过程中,仅用该第一帧图像进行初始化,算法简单易实施。
根据本公开的另一些实施例,可以利用RGB摄像头采集多帧RGB图像,所述多帧RGB图像中包括一中间RGB图像。接下来,可以基于多帧RGB图像除中间RGB图像之外的其余图像,对中间RGB图像进行去噪处理,以生成目标图像。
例如,在开启RGB摄像头后,可以获取连续的10帧图像,将其中的第5帧作为中间RGB图像,在中间RGB图像中存在噪点的情况下,可以利用其余9帧进行去噪处理,例如可以采用其余9帧图像中对应像素值的加权平均的方式进行噪点替换,以得到目标图像。
容易理解的是,多帧去噪其他过程可以应用于本公开生成目标图像的过程,本公开对此不做限制。
S32.利用深度摄像头采集的深度信息,确定与目标图像对应的深度图像,并将目标图像与深度图像对齐。
本公开采用深度摄像头来获取深度信息,精度高,且具备真实尺度,不会影响AR算法的整体精度。
在本公开的示例性实施方式中,响应增强现实应用的打开操作,在开启RGB摄像头的同时,还可以开启深度摄像头,以对环境的深度信息进行采集。
根据本公开的一些实施例,可以将深度摄像头开启后采集的第一帧图像作为与目标图像对应的深度图像。
根据本公开的另一些实施例,可以利用深度摄像头采集多帧深度图像,所述多帧深度图像中包括与上述中间RGB图像对应的中间深度图像。接下来,可以基于所述多帧深度图像除中间深度图像之外的其余图像,对中间深度图像进行去噪处理,以生成与目标图像对应的深度图像。
例如,在RGB摄像头与深度摄像头采集频率接近的情况下,在开启深度摄像头后,可以获取连续的10帧图像,将其中的第5帧作为中间深度图像,在中间深度图像中存在噪点的情况下,可以利用其余9帧进行去噪处理,例如可以采用其余9帧图像中对应深度值的加权平均的方式进行噪点替换,以得到与目标图像对应的深度图像。
应当理解的是,在RGB摄像头与深度摄像头采集频率相差较大的情况下,可以根据时间戳来确定目标图像对应的深度图像。
在确定出目标图像和深度图像后,可以对目标图像和深度图像进行对齐。
具体的,首先,可以确定出RGB摄像头所采集的RGB图像与深度摄像头所采集的深度图像之间进行转换的旋转矩阵和平移向量。接下来,本领域技术人员可以理解的是,可以利用旋转矩阵和平移向量,将目标图像与深度图像对齐。
应当理解的是,确定旋转矩阵和平移向量的过程可以是预先配置的过程。下面对确定旋转矩阵和平移向量的过程进行说明。
首先,预先对RGB摄像头和深度摄像头进行标定,分别确定出RGB摄像头的内参和外参以及深度摄像头的内参和外参;接下来,利用所述RGB摄像头的内参和外参以及所述深度摄像头的内参和外参,计算所述旋转矩阵和所述平移向量。
具体的,RGB摄像头的内参Krgb如公式1所示:
其中,fx_rgb和fy_rgb表示摄像头的焦距,cx_rgb和cy_rgb表示摄像头光心的位置坐标,它们均可以通过标定的方式确定出。
摄像头的标定过程可以在离线或在线的情况下完成,举例而言,可以采用线性标定方法(例如,Faugeras标定法等)、非线性优化标定方法(例如,Levenberg-Marquadt算法等)、两步标定法(例如,Tsai两步法、张正友标定算法等)或其他方法计算fx_rgb、fy_rgb、cx_rgb和cy_rgb,本示例性实施例中对此不做特殊限定。
以张正友标定算法为例,可以将画有棋盘格的图像作为摄像头标定图像放置于摄像头前方,由于需要计算出四个量,因此,当以不同角度和位置拍摄至少3幅图像时,即可利用张正友标定算法线性唯一求解出fx_rgb、fy_rgb、cx_rgb和cy_rgb。
也就是说,在本公开的示例性实施方式中,可以将上述至少3幅图像作为摄像头标定图像,利用张正友标定算法对所述摄像头标定图像进行处理,自动计算出摄像头参数。
此外,摄像头标定图像还可以是除画有棋盘格的图像之外的其他图像,本示例性实施方式中对此不做特殊限定。
对RGB相机而言,存在公式2:
Zrgb*prgb=Krgb*Prgb (公式2)
其中,Prgb=[Xrgb Yrgb Zrgb 1]是RGB相机坐标系下的齐次三维点,而在RGB图像坐标系下的其次像素坐标可以表示为prgb=[u v 1]。另外,齐次坐标Prgb可以用非齐次坐标来表示,见公式3:
同样地,深度相机也可以得到类似的映射公式,见公式4:
针对同一幅棋盘格的外参,RGB相机的Rrgb和Trgb,深度相机的Rir和Tir,标定后可以得到如公式5的刚体变换关系:
在这种情况下,可以得到公式7:
Zrgb*prgb=R*Zir*pir+T (公式8)
在这种情况下,可以通过求解超定方程的方式求解出Rir2rgb和Tir2rgb,即得到上面所述的旋转矩阵和平移向量,进而可以利用旋转矩阵和平移向量将目标图像与深度图像对齐。
S34.基于目标图像和深度图像进行重定位,确定移动终端在地图坐标系下的位姿。
首先,可以利用目标图像和深度图像,确定目标图像相对于建图设备的位姿。本公开所述的建图设备为预先构建地图并建立地图坐标系的设备。接下来,可以获取移动终端的姿态信息,例如,该姿态信息可以基于RGB摄像头和IMU(Inertial Measurement Unit,惯性测量单元)的信息采集结果而得到。也可以对采集到的RGB图像进行分析,以得到移动终端的姿态信息。
随后,可以利用目标图像相对于建图设备的位姿以及移动终端的姿态信息,确定移动终端与建图设备的相对位姿。
在得到移动终端与建图设备的相对位姿的情况下,可以确定出移动终端在地图坐标系下的位姿。
具体的,可以结合ICP(Iterative Closest Point,迭代最近点)算法和/或PnP(Perspective-n-Point,求解透视n点)来实现移动终端的位姿确定过程,本公开对此不做限制。
S36.提取目标图像的特征点,利用深度图像确定特征点对应的深度值,结合特征点对应的深度值,确定特征点的三维信息。
本公开示例性实施方式可以采用的特征提取算法可以包括但不限于FAST特征点检测算法、DOG特征点检测算法、Harris特征点检测算法、SIFT特征点检测算法、SURF特征点检测算法等。对应的特征描述子可以包括但不限于BRIEF特征点描述子、BRISK特征点描述子、FREAK特征点描述子等。
提取到的特征点可以包含目标图像中的角点,亦或者体现纹理特征的特征点,本公开对提取到的特征点的类型及数量均不做限制。
在提取到目标图像的特征点的情况下,可以利用深度图像确定出特征点对应的深度值。并结合特征点对应的深度值,确定特征点的三维信息。
就确定特征点的三维信息而言,可以依据小孔成像原理来实现。图4示出了小孔成像原理的示意图。
具体的,可以通过公式9将图像坐标点(u,v)转换到世界坐标点(xw,yw,zw)。
其中,(u0,v0)是图像中心坐标点,zc表示相机坐标的z轴值,表示焦距f在相机坐标系的x轴上的焦距分量,表示焦距f在相机坐标系的y轴上的焦距分量,R、T分别表示外参矩阵的旋转矩阵和平移矩阵,由于此时世界坐标系和相机原点重合,即没有旋转和平移。另外,相机坐标系下和世界坐标系下的同一对象具有相同的深度,即zc=zw,在这种情况下,可以得到如公式10的变换公式:
由此,在得到特征点对应的深度值的情况下,可以根据这种变换关系确定出特征点的三维信息。
需要注意的是,在一些实施例中,特征点的三维信息可以仅包含特征点的经变换而得到的深度信息。在另一些实施例中,特征点的三维信息中除包括表征深度的信息外,还可以包含特征点的RGB二维信息。本公开对此不做限制。
S38.利用移动终端在地图坐标系下的位姿以及特征点的三维信息,执行增强现实操作。
在通过步骤S34确定出移动终端在地图坐标系下的位姿以及通过步骤S36确定出特征点的三维信息的情况下,初始化过程完成,接下来,移动终端可以执行例如AR跟踪、AR导航等操作,本公开对随后的AR应用过程不做限制。
可以理解的是,基于本公开示例性实施方式,移动终端的位姿可以关联到地图中,根据特征点的三维信息又可以确定出地图中相应关键帧的信息,以得到移动终端当前位姿相对于地图的整体情况,为后续的跟踪、导航操作提供了基础。
综上所述,基于本公开示例性实施方式的增强现实处理方法,一方面,本公开方案基于一目标图像及对应的深度图像,实现了增强现实的初始化过程,无需用户配合进行平移操作,耗时少,可以快速开启AR导航、跟踪等操作;另一方面,本公开方案在不需要用户参与的情况下结合深度信息实现初始化,提高了算法精度,使例如AR导航、跟踪等应用过程更加准确。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种应用于移动终端的增强现实处理装置。
图5示意性示出了本公开的示例性实施方式的应用于移动终端的增强现实处理装置的方框图。参考图5,根据本公开的示例性实施方式的应用于移动终端的增强现实处理装置5可以包括RGB图像获取模块51、深度图像获取及对齐模块53、位姿确定模块55、三维信息确定模块57和操作执行模块59。
具体的,RGB图像获取模块51可以用于利用RGB摄像头采集的环境信息,生成目标图像;深度图像获取及对齐模块53可以用于利用深度摄像头采集的深度信息,确定与目标图像对应的深度图像,并将目标图像与深度图像对齐;位姿确定模块55可以用于基于目标图像和深度图像进行重定位,确定移动终端在地图坐标系下的位姿;三维信息确定模块57可以用于提取目标图像的特征点,利用深度图像确定特征点对应的深度值,结合特征点对应的深度值,确定特征点的三维信息;操作执行模块59可以用于利用移动终端在地图坐标系下的位姿以及特征点的三维信息,执行增强现实操作。
根据本公开的示例性实施例,深度图像获取及对齐模块53将目标图像与深度图像对齐的过程可以被配置为执行:确定RGB摄像头所采集的RGB图像与深度摄像头所采集的深度图像之间进行转换的旋转矩阵和平移向量;利用旋转矩阵和平移向量,将目标图像与深度图像对齐。
根据本公开的示例性实施例,参考图6,相比于增强现实处理装置5,增强现实处理装置6还可以包括预配置模块61。
具体的,预配置模块61可以被配置为执行:预先对RGB摄像头和深度摄像头进行标定,分别确定出RGB摄像头的内参和外参以及深度摄像头的内参和外参;利用RGB摄像头的内参和外参以及深度摄像头的内参和外参,计算旋转矩阵和平移向量。
根据本公开的示例性实施例,位姿确定模块55可以被配置为执行:利用目标图像和深度图像,确定目标图像相对于建图设备的位姿;其中,建图设备为预先构建地图并建立地图坐标系的设备;获取移动终端的姿态信息;利用目标图像相对于建图设备的位姿以及移动终端的姿态信息,确定移动终端与建图设备的相对位姿;根据移动终端与建图设备的相对位姿,确定移动终端在地图坐标系下的位姿。
根据本公开的示例性实施例,参考图7,相比于增强现实处理装置5,增强现实处理装置7还可以包括初始化触发模块71。
具体的,初始化触发模块71可以被配置为执行:响应增强现实应用的打开操作,同时开启RGB摄像头和深度摄像头。
根据本公开的示例性实施例,RGB图像获取模块51可以被配置为执行:利用RGB摄像头采集多帧RGB图像,多帧RGB图像中包括一中间RGB图像;基于多帧RGB图像除中间RGB图像之外的其余图像,对中间RGB图像进行去噪处理,以生成目标图像。
根据本公开的示例性实施例,深度图像获取及对齐模块53确定与目标图像对应的深度图像的过程可以被配置为执行:利用深度摄像头采集多帧深度图像,多帧深度图像中包括与中间RGB图像对应的中间深度图像;基于多帧深度图像除中间深度图像之外的其余图像,对中间深度图像进行去噪处理,以生成与目标图像对应的深度图像。
由于本公开实施方式的增强现实处理装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (10)
1.一种增强现实处理方法,应用于移动终端,其特征在于,包括:
利用RGB摄像头采集的环境信息,生成目标图像;
利用深度摄像头采集的深度信息,确定与所述目标图像对应的深度图像,并将所述目标图像与所述深度图像对齐;
基于所述目标图像和所述深度图像进行重定位,确定所述移动终端在地图坐标系下的位姿;
提取所述目标图像的特征点,利用所述深度图像确定所述特征点对应的深度值,结合所述特征点对应的深度值,确定所述特征点的三维信息;
利用所述移动终端在所述地图坐标系下的位姿以及所述特征点的三维信息,执行增强现实操作。
2.根据权利要求1所述的增强现实处理方法,其特征在于,将所述目标图像与所述深度图像对齐包括:
确定所述RGB摄像头所采集的RGB图像与所述深度摄像头所采集的深度图像之间进行转换的旋转矩阵和平移向量;
利用所述旋转矩阵和所述平移向量,将所述目标图像与所述深度图像对齐。
3.根据权利要求2所述的增强现实处理方法,其特征在于,所述增强现实处理方法还包括:
预先对所述RGB摄像头和所述深度摄像头进行标定,分别确定出所述RGB摄像头的内参和外参以及所述深度摄像头的内参和外参;
利用所述RGB摄像头的内参和外参以及所述深度摄像头的内参和外参,计算所述旋转矩阵和所述平移向量。
4.根据权利要求1所述的增强现实处理方法,其特征在于,基于所述目标图像和所述深度图像进行重定位,确定所述移动终端在地图坐标系下的位姿,包括:
利用所述目标图像和所述深度图像,确定所述目标图像相对于建图设备的位姿;其中,所述建图设备为预先构建地图并建立所述地图坐标系的设备;
获取所述移动终端的姿态信息;
利用所述目标图像相对于所述建图设备的位姿以及所述移动终端的姿态信息,确定所述移动终端与所述建图设备的相对位姿;
根据所述移动终端与所述建图设备的相对位姿,确定所述移动终端在地图坐标系下的位姿。
5.根据权利要求1所述的增强现实处理方法,其特征在于,所述增强现实处理方法还包括:
响应增强现实应用的打开操作,同时开启所述RGB摄像头和所述深度摄像头。
6.根据权利要求1至5中任一项所述的增强现实处理方法,其特征在于,利用RGB摄像头采集的环境信息,生成目标图像,包括:
利用所述RGB摄像头采集多帧RGB图像,所述多帧RGB图像中包括一中间RGB图像;
基于所述多帧RGB图像除所述中间RGB图像之外的其余图像,对所述中间RGB图像进行去噪处理,以生成所述目标图像。
7.根据权利要求6所述的增强现实处理方法,其特征在于,利用深度摄像头采集的深度信息,确定与所述目标图像对应的深度图像包括:
利用所述深度摄像头采集多帧深度图像,所述多帧深度图像中包括与所述中间RGB图像对应的中间深度图像;
基于所述多帧深度图像除所述中间深度图像之外的其余图像,对所述中间深度图像进行去噪处理,以生成与所述目标图像对应的深度图像。
8.一种增强现实处理装置,应用于移动终端,其特征在于,包括:
RGB图像获取模块,用于利用RGB摄像头采集的环境信息,生成目标图像;
深度图像获取及对齐模块,用于利用深度摄像头采集的深度信息,确定与所述目标图像对应的深度图像,并将所述目标图像与所述深度图像对齐;
位姿确定模块,用于基于所述目标图像和所述深度图像进行重定位,确定所述移动终端在地图坐标系下的位姿;
三维信息确定模块,用于提取所述目标图像的特征点,利用所述深度图像确定所述特征点对应的深度值,结合所述特征点对应的深度值,确定所述特征点的三维信息;
操作执行模块,用于利用所述移动终端在所述地图坐标系下的位姿以及所述特征点的三维信息,执行增强现实操作。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的增强现实处理方法。
10.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述处理器执行时,使得所述处理器实现如权利要求1至7中任一项所述的增强现实处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011216152.7A CN112365530A (zh) | 2020-11-04 | 2020-11-04 | 增强现实处理方法及装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011216152.7A CN112365530A (zh) | 2020-11-04 | 2020-11-04 | 增强现实处理方法及装置、存储介质和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112365530A true CN112365530A (zh) | 2021-02-12 |
Family
ID=74512998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011216152.7A Pending CN112365530A (zh) | 2020-11-04 | 2020-11-04 | 增强现实处理方法及装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112365530A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066193A (zh) * | 2021-03-31 | 2021-07-02 | 泰瑞数创科技(北京)有限公司 | 一种用于在实景三维地图上增强现实的方法 |
CN114862658A (zh) * | 2022-04-01 | 2022-08-05 | 奥比中光科技集团股份有限公司 | 图像处理系统、方法、智能终端及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110221690A (zh) * | 2019-05-13 | 2019-09-10 | Oppo广东移动通信有限公司 | 基于ar场景的手势交互方法及装置、存储介质、通信终端 |
CN110866977A (zh) * | 2019-10-31 | 2020-03-06 | Oppo广东移动通信有限公司 | 增强现实处理方法及装置、系统、存储介质和电子设备 |
CN111179435A (zh) * | 2019-12-24 | 2020-05-19 | Oppo广东移动通信有限公司 | 增强现实处理方法及装置、系统、存储介质和电子设备 |
CN111174799A (zh) * | 2019-12-24 | 2020-05-19 | Oppo广东移动通信有限公司 | 地图构建方法及装置、计算机可读介质、终端设备 |
CN112270709A (zh) * | 2020-11-12 | 2021-01-26 | Oppo广东移动通信有限公司 | 地图构建方法及装置、计算机可读存储介质和电子设备 |
-
2020
- 2020-11-04 CN CN202011216152.7A patent/CN112365530A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110221690A (zh) * | 2019-05-13 | 2019-09-10 | Oppo广东移动通信有限公司 | 基于ar场景的手势交互方法及装置、存储介质、通信终端 |
CN110866977A (zh) * | 2019-10-31 | 2020-03-06 | Oppo广东移动通信有限公司 | 增强现实处理方法及装置、系统、存储介质和电子设备 |
CN111179435A (zh) * | 2019-12-24 | 2020-05-19 | Oppo广东移动通信有限公司 | 增强现实处理方法及装置、系统、存储介质和电子设备 |
CN111174799A (zh) * | 2019-12-24 | 2020-05-19 | Oppo广东移动通信有限公司 | 地图构建方法及装置、计算机可读介质、终端设备 |
CN112270709A (zh) * | 2020-11-12 | 2021-01-26 | Oppo广东移动通信有限公司 | 地图构建方法及装置、计算机可读存储介质和电子设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066193A (zh) * | 2021-03-31 | 2021-07-02 | 泰瑞数创科技(北京)有限公司 | 一种用于在实景三维地图上增强现实的方法 |
CN113066193B (zh) * | 2021-03-31 | 2021-11-05 | 泰瑞数创科技(北京)有限公司 | 一种用于在实景三维地图上增强现实的方法 |
CN114862658A (zh) * | 2022-04-01 | 2022-08-05 | 奥比中光科技集团股份有限公司 | 图像处理系统、方法、智能终端及计算机可读存储介质 |
CN114862658B (zh) * | 2022-04-01 | 2023-05-05 | 奥比中光科技集团股份有限公司 | 图像处理系统、方法、智能终端及计算机可读存储介质 |
WO2023184740A1 (zh) * | 2022-04-01 | 2023-10-05 | 奥比中光科技集团股份有限公司 | 图像处理系统、方法、智能终端及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110457414B (zh) | 离线地图处理、虚拟对象显示方法、装置、介质和设备 | |
CN108537845B (zh) | 位姿确定方法、装置及存储介质 | |
CN110276317B (zh) | 一种物体尺寸检测方法、物体尺寸检测装置及移动终端 | |
CN110866977B (zh) | 增强现实处理方法及装置、系统、存储介质和电子设备 | |
WO2021143282A1 (zh) | 三维人脸模型生成方法、装置、计算机设备及存储介质 | |
CN111784765B (zh) | 物体测量、虚拟对象处理方法及装置、介质和电子设备 | |
CN112367426B (zh) | 虚拟对象显示方法及装置、存储介质和电子设备 | |
CN110296686B (zh) | 基于视觉的定位方法、装置及设备 | |
CN110599593B (zh) | 数据合成的方法、装置、设备及存储介质 | |
CN112927362A (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
CN112927363A (zh) | 体素地图构建方法及装置、计算机可读介质和电子设备 | |
CN112365530A (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN108430032B (zh) | 一种实现vr/ar设备位置共享的方法及设备 | |
CN110956571B (zh) | 基于slam进行虚实融合的方法及电子设备 | |
CN110310325B (zh) | 一种虚拟测量方法、电子设备及计算机可读存储介质 | |
CN110622218A (zh) | 一种图像显示方法、装置、存储介质和终端 | |
CN113345000A (zh) | 深度检测方法及装置、电子设备和存储介质 | |
CN111814811A (zh) | 图像信息提取方法、训练方法及装置、介质和电子设备 | |
CN111385481A (zh) | 图像处理方法及装置、电子设备及存储介质 | |
CN116824688A (zh) | 小腿动作捕捉方法、系统及存储介质 | |
CN110941327A (zh) | 虚拟对象的显示方法和装置 | |
CN111258413A (zh) | 虚拟对象的控制方法和装置 | |
CN112233146A (zh) | 位置推荐方法及装置、计算机可读存储介质和电子设备 | |
CN112615993A (zh) | 深度信息获取方法、双目摄像模组、存储介质及电子设备 | |
KR102296820B1 (ko) | 얼굴 영상의 2차원 텍스쳐 맵 형성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |