CN116418964A - 基于深度相机的增强现实装置、方法、设备及存储介质 - Google Patents
基于深度相机的增强现实装置、方法、设备及存储介质 Download PDFInfo
- Publication number
- CN116418964A CN116418964A CN202111633740.5A CN202111633740A CN116418964A CN 116418964 A CN116418964 A CN 116418964A CN 202111633740 A CN202111633740 A CN 202111633740A CN 116418964 A CN116418964 A CN 116418964A
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- laser
- region
- interest
- shot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 10
- 230000004927 fusion Effects 0.000 abstract description 3
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000252073 Anguilliformes Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000002086 nanomaterial Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于深度相机的增强现实装置、方法、设备及存储介质,包括:光投射器,用于发射泛光激光,以使泛光激光照射到目标场景中待拍摄物体上;深度成像模块,用于接收待拍摄物体反射的泛光激光,并根据泛光激光获得待拍摄物体表面的深度;RGB相机,用于采集目标场景和待拍摄物体的RGB图像;处理器模块,用于根据待拍摄物体表面的深度将RGB图像中的感兴趣区域提取出;场景应用模块,用于根据待拍摄物体的标签调用可选的虚拟场景,将虚拟场景和感兴趣区域相融合形成增强现实画面,并将增强现实画面展示出。本发明能够实现虚拟场景和感兴趣区域准确融合,提高了增强现实的效果。
Description
技术领域
本发明涉及增强现实技术,具体地,涉及一种基于深度相机的增强现实装置、方法、设备及存储介质。
背景技术
增强现实(AR,Augmented Reality)技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
即增强现实技术,不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信息相互补充、叠加。在视觉化的增强现实中,用户利用头盔显示器,把真实世界与电脑图形多重合成在一起,便可以看到真实的世界围绕着它。
传统增强现实技术中,通过RGB进相机行图像识别和提取,因此容易收到光照和应用场景的影响,导致提取区域的边缘抖动严重,效果差,前后景的分离不明确,因此不得不需要大量算力去支持增强现实技术的实现。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于深度相机的增强现实装置、方法、设备及存储介质。
根据本发明提供的基于深度相机的增强现实装置,包括:深度摄像模组、处理器模块以及场景应用模块;
所述深度摄像模组包括光投射器、深度成像模块以及RGB相机;
所述光投射器,用于发射泛光激光,以使所述泛光激光照射到目标场景中待拍摄物体上;
所述深度成像模块,用于接收所述待拍摄物体反射的泛光激光,并根据所述泛光激光的飞行时间或相位差获得所述待拍摄物体表面的深度;
所述RGB相机,用于采集所述目标场景和所述待拍摄物体的RGB图像;
所述处理器模块,用于根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出;
所述场景应用模块,用于根据所述待拍摄物体的标签调用可选的虚拟场景,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面,并将所述增强现实画面展示出。
优选地,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面时包括如下步骤:
步骤A1:获取感兴趣区域,并识别所述感兴趣区域的标签;
步骤A2:根据所述标签获取可选的虚拟场景;
步骤A3:根据所述感兴趣区域确定RGB图像中的目标场景区域,将所述目标场景区域替换为虚拟场景以形成所述增强现实画面。
优选地,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面时包括如下步骤:
步骤B1:获取感兴趣区域,并识别所述感兴趣区域的标签和所述感兴趣区域中的待融合区域;
步骤B2:根据所述标签获取可选的虚拟场景;
步骤B3:将所述虚拟场景置于所述待融合区域中以形成所述增强现实画面。
优选地,所述光投射器包括设置在一光路上的边发射激光器、准直镜头、分光器件以及第一扩散器;
所述边发射激光器,用于向所述准直镜头投射激光;
所述准直镜头,位于所述边发射激光器的出光侧,用于对入射的所述激光进行准直,并出射准直光束;
所述分光器件,位于所述反射器件的出光侧,用于将所述准直镜头投射的准直光束分成随机分布的点阵激光;
所述第一扩散器,位于所述分光器件的出光侧,用于将所述点阵激光扩散成泛光激光。
优选地,所述光投射器包括激光器阵列、分束器件以及第二扩散器;
所述激光器阵列,用于投射随机分布的多束激光;
所述分束器件,位于所述激光器阵列的出光侧,用于将所述多束激光分成随机分布的点阵激光;
所述第二扩散器,位于所述分束器件的出光侧,用于将所述点阵激光扩散成泛光激光。
优选地,所述深度相机模组还包括与所述光投射器和所述深度成像模块相连的驱动电路;
所述驱动电路,用于控制所述光投射器和所述深度成像模块同时开启或关闭,并通过控制所述光投射器的驱动电流控制所述光投射器的输出光功率。
优选地,根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出时,包括如下步骤:
步骤C1:初步识别所述RGB图像中的感兴趣区域;
步骤C2:根据所述待拍摄物体表面的深度确定所述待拍摄物体与所述目标场景的边界;
步骤C3:将所述边界对应到所述RGB图像中确定感兴趣区域的边缘坐标,根据所述边缘坐标提取所述感兴趣区域。
根据本发明提供的基于深度相机的增强现实方法,包括如下步骤:
步骤S1:控制深度相机发射泛光激光,以使所述泛光激光照射到目标场景中待拍摄物体上;
步骤S2:控制深度相机接收所述待拍摄物体反射的泛光激光,并根据所述泛光激光的飞行时间或相位差获得所述待拍摄物体表面的深度;
步骤S3:控制深度相机采集所述目标场景和所述待拍摄物体的RGB图像;
步骤S4:根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出;
步骤S5:根据所述待拍摄物体的标签调用可选的虚拟场景,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面,并将所述增强现实画面展示出。
根据本发明提供的基于深度相机的增强现实设备,包括:
处理器;
存储器模块,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行所述的基于深度相机的增强现实方法的步骤。
根据本发明提供的计算机可读存储介质,用于存储程序,所述程序被执行时实现所述的基于深度相机的增强现实方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
本发明通过深度摄像模组待拍摄物体表面的深度,根据深度进行前后景的判断,进而将所述RGB图像中的感兴趣区域提取出,从而能够准确提取ROI区域,实现虚拟场景和所述感兴趣区域准确融合,提高了增强现实的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中基于深度相机的增强现实装置的模块示意图;
图2为本发明实施例中形成增强现实画面时的步骤流程图;
图3为本发明变形例中形成增强现实画面时的步骤流程图
图4为本发明实施例中将所述RGB图像中的感兴趣区域提取出时的步骤流程图;
图5(a)为本发明实施例中RGB相机图像的预览图;
图5(b)为本发明实施例中基于深度相机的增强现实的效果示例图;
图6为本发明实施例中基于深度相机的增强现实方法的步骤流程图;
图7为本发明实施例中基于深度相机的增强现实设备的结构示意图;以及
图8为本发明实施例中计算机可读存储介质的结构示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
图1为本发明实施例中基于深度相机的增强现实装置的模块示意图,如图1所示,本发明提供的基于深度相机的增强现实装置,包括:深度摄像模组、处理器模块以及场景应用模块;
所述深度摄像模组包括光投射器、深度成像模块以及RGB相机;
所述光投射器,用于发射泛光激光,以使所述泛光激光照射到目标场景中待拍摄物体上;
所述深度成像模块,用于接收所述待拍摄物体反射的泛光激光,并根据所述泛光激光的飞行时间或相位差获得所述待拍摄物体表面的深度;
所述RGB相机,用于采集所述目标场景和所述待拍摄物体的RGB图像;
所述处理器模块,用于根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出;
所述场景应用模块,用于根据所述待拍摄物体的标签调用可选的虚拟场景,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面,并将所述增强现实画面展示出。
在本发明实施例中,所述光投射器包括设置在一光路上的边发射激光器、准直镜头、分光器件以及第一扩散器;
所述边发射激光器,用于向所述准直镜头投射激光;
所述准直镜头,位于所述边发射激光器的出光侧,用于对入射的所述激光进行准直,并出射准直光束;
所述分光器件,位于所述反射器件的出光侧,用于将所述准直镜头投射的准直光束分成随机分布的点阵激光;
所述第一扩散器,位于所述分光器件的出光侧,用于将所述点阵激光扩散成泛光激光。
在本发明实施例中,由于所述分光器件的内表面加工了微纳结构的光芯片并配合光学透镜组成。所述分束投射器能够实现将来自于边发射激光器的入射光分成任意多束准直光束的功能。所述边发射激光器的发射方向和所述分束投射器的投射方向即可以相同,也可以成90度或者为光学系统设计所需的任意角度。
在本发明实施例中,所述深度相机模组还包括与所述光投射器和所述深度成像模块相连的驱动电路;
所述驱动电路,用于控制所述光投射器和所述深度成像模块同时开启或关闭,并通过控制所述光投射器的驱动电流控制所述光投射器的输出光功率。
在本发明变形例中,所述光投射器包括激光器阵列、分束器件以及第二扩散器;
所述激光器阵列,用于投射随机分布的多束激光;
所述分束器件,位于所述激光器阵列的出光侧,用于将所述多束激光分成随机分布的点阵激光;
所述第二扩散器,位于所述分束器件的出光侧,用于将所述点阵激光扩散成泛光激光。
在本发明实施例中,所述激光器阵列可以采用多个垂直腔面发射激光器(Vertical Cavity Surface Emitting Laser,VCSEL)或者多个边发光激光器(EdgeEmitting Laser,EEL)组成。多束激光经过准直镜头后可以成为高度平行的准直光束。根据实际应用中可以根据离散光束数量的需求,可以采用分束器件实现更多的准直光束。所述分束器件205可以采用衍射光栅(DOE)、空间光调制器(SLM)等。
图2为本发明实施例中形成增强现实画面时的步骤流程图,如图2所示,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面时包括如下步骤:
步骤A1:获取感兴趣区域,并识别所述感兴趣区域的标签;
步骤A2:根据所述标签获取可选的虚拟场景;
步骤A3:根据所述感兴趣区域确定RGB图像中的目标场景区域,将所述目标场景区域替换为虚拟场景以形成所述增强现实画面。
在本发明实施例中,可以形成如图5所示的增强现实画面,实现拍摄图像的场景替换。
图3为本发明变形例中形成增强现实画面时的步骤流程图,如图3所示,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面时包括如下步骤:
步骤B1:获取感兴趣区域,并识别所述感兴趣区域的标签和所述感兴趣区域中的待融合区域;
步骤B2:根据所述标签获取可选的虚拟场景;
步骤B3:将所述虚拟场景置于所述待融合区域中以形成所述增强现实画面。
在本发明变形例中,例如可以将远程会议中目标场景的椅子作为感兴趣区域识别出,将参会人员的虚拟人像融合到椅子上,实现远程会议时的增强显示效果。
图4为本发明实施例中将所述RGB图像中的感兴趣区域提取出时的步骤流程图,如图4所示,根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出时,包括如下步骤:
步骤C1:初步识别所述RGB图像中的感兴趣区域;
步骤C2:根据所述待拍摄物体表面的深度确定所述待拍摄物体与所述目标场景的边界;
步骤C3:将所述边界对应到所述RGB图像中确定感兴趣区域的边缘坐标,根据所述边缘坐标提取所述感兴趣区域。
图5(a)为本发明实施例中RGB相机图像的预览图,图5(b)为本发明实施例中基于深度相机的增强现实的效果示例图,如图5(a)和图5(b)的对比可以看出,通过本发明提供的中基于深度相机的增强现实装置能够准确的将RGB图像中的感兴趣区域与虚拟场景融合形成增强现实画面,实现增强现实画效果。
图6为本发明实施例中基于深度相机的增强现实方法的步骤流程图,如图6所示,本发明提供的基于深度相机的增强现实方法,包括如下步骤:
步骤S1:控制深度相机发射泛光激光,以使所述泛光激光照射到目标场景中待拍摄物体上;
步骤S2:控制深度相机接收所述待拍摄物体反射的泛光激光,并根据所述泛光激光的飞行时间或相位差获得所述待拍摄物体表面的深度;
步骤S3:控制深度相机采集所述目标场景和所述待拍摄物体的RGB图像;
步骤S4:根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出;
步骤S5:根据所述待拍摄物体的标签调用可选的虚拟场景,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面,并将所述增强现实画面展示出。
本发明实施例中还提供一种基于深度相机的增强现实设备,包括处理器和存储器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于深度相机的增强现实方法的步骤。
如上,该实施例中通过深度摄像模组待拍摄物体表面的深度,根据深度进行前后景的判断,进而将所述RGB图像中的感兴趣区域提取出,从而能够准确提取ROI区域,实现虚拟场景和所述感兴趣区域准确融合,提高了增强现实的效果。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图7是本发明实施例中的基于深度相机的增强现实设备的结构示意图。下面参照图7来描述根据本发明的这种实施方式的电子设备600。图7显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述基于深度相机的增强现实方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图7中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例中还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于深度相机的增强现实方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述基于深度相机的增强现实方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,通过深度摄像模组待拍摄物体表面的深度,根据深度进行前后景的判断,进而将所述RGB图像中的感兴趣区域提取出,从而能够准确提取ROI区域,实现虚拟场景和所述感兴趣区域准确融合,提高了增强现实的效果。
图8是本发明实施例中的计算机可读存储介质的结构示意图。参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例中,通过深度摄像模组待拍摄物体表面的深度,根据深度进行前后景的判断,进而将所述RGB图像中的感兴趣区域提取出,从而能够准确提取ROI区域,实现虚拟场景和所述感兴趣区域准确融合,提高了增强现实的效果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (10)
1.一种基于深度相机的增强现实装置,其特征在于,包括:深度摄像模组、处理器模块以及场景应用模块;
所述深度摄像模组包括光投射器、深度成像模块以及RGB相机;
所述光投射器,用于发射泛光激光,以使所述泛光激光照射到目标场景中待拍摄物体上;
所述深度成像模块,用于接收所述待拍摄物体反射的泛光激光,并根据所述泛光激光的飞行时间或相位差获得所述待拍摄物体表面的深度;
所述RGB相机,用于采集所述目标场景和所述待拍摄物体的RGB图像;
所述处理器模块,用于根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出;
所述场景应用模块,用于根据所述待拍摄物体的标签调用可选的虚拟场景,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面,并将所述增强现实画面展示出。
2.根据权利要求1所述的基于深度相机的增强现实装置,其特征在于,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面时包括如下步骤:
步骤A1:获取感兴趣区域,并识别所述感兴趣区域的标签;
步骤A2:根据所述标签获取可选的虚拟场景;
步骤A3:根据所述感兴趣区域确定RGB图像中的目标场景区域,将所述目标场景区域替换为虚拟场景以形成所述增强现实画面。
3.根据权利要求1所述的基于深度相机的增强现实装置,其特征在于,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面时包括如下步骤:
步骤B1:获取感兴趣区域,并识别所述感兴趣区域的标签和所述感兴趣区域中的待融合区域;
步骤B2:根据所述标签获取可选的虚拟场景;
步骤B3:将所述虚拟场景置于所述待融合区域中以形成所述增强现实画面。
4.根据权利要求1所述的基于深度相机的增强现实装置,其特征在于,所述光投射器包括设置在一光路上的边发射激光器、准直镜头、分光器件以及第一扩散器;
所述边发射激光器,用于向所述准直镜头投射激光;
所述准直镜头,位于所述边发射激光器的出光侧,用于对入射的所述激光进行准直,并出射准直光束;
所述分光器件,位于所述反射器件的出光侧,用于将所述准直镜头投射的准直光束分成随机分布的点阵激光;
所述第一扩散器,位于所述分光器件的出光侧,用于将所述点阵激光扩散成泛光激光。
5.根据权利要求1所述的基于深度相机的增强现实装置,其特征在于,所述光投射器包括激光器阵列、分束器件以及第二扩散器;
所述激光器阵列,用于投射随机分布的多束激光;
所述分束器件,位于所述激光器阵列的出光侧,用于将所述多束激光分成随机分布的点阵激光;
所述第二扩散器,位于所述分束器件的出光侧,用于将所述点阵激光扩散成泛光激光。
6.根据权利要求1所述的基于深度相机的增强现实装置,其特征在于,所述深度相机模组还包括与所述光投射器和所述深度成像模块相连的驱动电路;
所述驱动电路,用于控制所述光投射器和所述深度成像模块同时开启或关闭,并通过控制所述光投射器的驱动电流控制所述光投射器的输出光功率。
7.根据权利要求1所述的基于深度相机的增强现实装置,其特征在于,根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出时,包括如下步骤:
步骤C1:初步识别所述RGB图像中的感兴趣区域;
步骤C2:根据所述待拍摄物体表面的深度确定所述待拍摄物体与所述目标场景的边界;
步骤C3:将所述边界对应到所述RGB图像中确定感兴趣区域的边缘坐标,根据所述边缘坐标提取所述感兴趣区域。
8.一种基于深度相机的增强现实方法,其特征在于,包括如下步骤:
步骤S1:控制深度相机发射泛光激光,以使所述泛光激光照射到目标场景中待拍摄物体上;
步骤S2:控制深度相机接收所述待拍摄物体反射的泛光激光,并根据所述泛光激光的飞行时间或相位差获得所述待拍摄物体表面的深度;
步骤S3:控制深度相机采集所述目标场景和所述待拍摄物体的RGB图像;
步骤S4:根据所述待拍摄物体表面的深度将所述RGB图像中的感兴趣区域提取出;
步骤S5:根据所述待拍摄物体的标签调用可选的虚拟场景,将所述虚拟场景和所述感兴趣区域相融合形成增强现实画面,并将所述增强现实画面展示出。
9.一种基于深度相机的增强现实设备,其特征在于,包括:
处理器;
存储器模块,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求8所述的基于深度相机的增强现实方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求8所述的基于深度相机的增强现实方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111633740.5A CN116418964A (zh) | 2021-12-29 | 2021-12-29 | 基于深度相机的增强现实装置、方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111633740.5A CN116418964A (zh) | 2021-12-29 | 2021-12-29 | 基于深度相机的增强现实装置、方法、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116418964A true CN116418964A (zh) | 2023-07-11 |
Family
ID=87056417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111633740.5A Pending CN116418964A (zh) | 2021-12-29 | 2021-12-29 | 基于深度相机的增强现实装置、方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116418964A (zh) |
-
2021
- 2021-12-29 CN CN202111633740.5A patent/CN116418964A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10229544B2 (en) | Constructing augmented reality environment with pre-computed lighting | |
Grasset et al. | Image-driven view management for augmented reality browsers | |
US20110234481A1 (en) | Enhancing presentations using depth sensing cameras | |
CN113436343B (zh) | 用于虚拟演播厅的画面生成方法及装置、介质及电子设备 | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
CN110060230B (zh) | 三维场景分析方法、装置、介质及设备 | |
JP2021523347A (ja) | 飛行時間カメラの低減された出力動作 | |
CN108038911A (zh) | 一种基于ar技术的全息成像控制方法 | |
CN104798128A (zh) | 注解方法和装置 | |
EP3141985A1 (en) | A gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
KR20230156400A (ko) | 모델 주입을 사용한 포인트 클라우드 데이터 증강을 위한 장치, 시스템, 방법 및 매체 | |
CN109034214B (zh) | 用于生成标记的方法和装置 | |
Soares et al. | Designing a highly immersive interactive environment: The virtual mine | |
CN113178017A (zh) | Ar数据展示方法、装置、电子设备及存储介质 | |
US10775740B2 (en) | Holographic projection of digital objects in video content | |
CN116418964A (zh) | 基于深度相机的增强现实装置、方法、设备及存储介质 | |
CN116418965A (zh) | 基于深度相机的增强现实装置、方法、设备及存储介质 | |
US20230196697A1 (en) | Augmented reality (ar) visual display to save | |
KR102596443B1 (ko) | 넓은 시야 이미징을 위한 회절 광학 요소들 | |
CN111062479B (zh) | 基于神经网络的模型快速升级方法及装置 | |
US10917679B2 (en) | Video recording of a display device | |
CN112312041A (zh) | 基于拍摄的图像校正方法、装置、电子设备及存储介质 | |
CN109800652A (zh) | 文字翻译方法及装置 | |
US9014543B1 (en) | Methods and systems configured for processing video frames into animation | |
TWI814503B (zh) | 深度識別模型訓練方法、圖像深度識別方法及相關設備 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |