CN110415358A - 一种实时三维跟踪方法 - Google Patents
一种实时三维跟踪方法 Download PDFInfo
- Publication number
- CN110415358A CN110415358A CN201910596100.8A CN201910596100A CN110415358A CN 110415358 A CN110415358 A CN 110415358A CN 201910596100 A CN201910596100 A CN 201910596100A CN 110415358 A CN110415358 A CN 110415358A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- real
- conversion
- camera
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 claims abstract description 25
- 238000002156 mixing Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 238000012937 correction Methods 0.000 claims description 8
- 210000000988 bone and bone Anatomy 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 238000000034 method Methods 0.000 description 14
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种实时三维跟踪方法,包括:S1,摄像头标定,计算图像坐标系到摄像头坐标系的转换参数;S2,位置跟踪,计算标志物相对应于摄像头坐标系的位置和角度,并通过摄像头坐标系到场景坐标系的转换,获得视点在真实场景的方位和角度;S3,渲染虚拟物体,包括场景坐标系到虚拟场景坐标系的转换,虚拟场景坐标系到虚拟摄像头坐标系的转换,以及虚拟摄像头坐标系列虚拟图像坐标系的转换;S4,虚实融合,将虚实两个图像坐标系对齐,融合图像发送到显示设备上。本发明提高了系统的三维跟踪的实时性和跟踪精度,扩大了跟踪范围,增强了系统的可靠性和鲁棒性,在扩展时间上和空间上的观测范围更广,增强了数据的可信任度和分辨能力。
Description
技术领域
本发明涉及增强现实技术领域,更为具体地,涉及一种实时三维跟踪方法。
背景技术
增强现实(Augmented Reality,简称AR),指通过计算机系统提供的信息增加用户对现实世界感知的技术,将虚拟的信息应用到真实世界,并将计算机生成的虚拟物体、场景或系统提示信息叠加到真实场景中,从而实现对现实的增强。在视觉化的增强现实中,用户利用头盔显示器,把真实世界与计算机图形多重合成在一起。
在国外已经有许多实际的应用,在德国,工程技术人员,在进行机械安装、维修、调式时,通过头盔显示器,可以将原来不能呈现的机器内部结构,以及它的相关信息、数据完全呈现出来,并可以按照计算机的提示,来进行工作,解决技术难题,使我们的工作非常方便、快捷、准确。但是,现有的虚实融合技术存在实时性差,跟踪精度低等问题。
发明内容
本发明的目的在于克服现有技术的不足,提供一种实时三维跟踪方法,提高了三维跟踪的实时性,并提高了系统的跟踪精度,扩大了跟踪范围,增强了系统的可靠性和鲁棒性,在扩展时间上和空间上的观测范围更广,增强了数据的可信任度和分辨能力。
本发明的目的是通过以下技术方案来实现的:
一种实时三维跟踪方法,包括:
S1,摄像头标定,计算图像坐标系到摄像头坐标系的转换参数;
S2,位置跟踪,计算标志物相对应于摄像头坐标系的位置和角度,并通过摄像头坐标系到场景坐标系的转换,获得视点在真实场景的方位和角度;
S3,渲染虚拟物体,包括场景坐标系到虚拟场景坐标系的转换,虚拟场景坐标系到虚拟摄像头坐标系的转换,以及虚拟摄像头坐标系列虚拟图像坐标系的转换;
S4,虚实融合,将虚实两个图像坐标系对齐,融合图像发送到显示设备上。
进一步的,在步骤S3中,包括如下子步骤:
S31,确定虚拟物体和虚拟摄像头在场景坐标系中安放的位置,并转换到虚拟坐标系;
S32,从虚拟场景坐标系中,将虚拟摄像头拍摄到的物体的坐标,转换到虚拟摄像头坐标系的坐标;
S33,根据摄像头标定中计算得出摄像头的内部参数,将虚拟物体从摄像头坐标系投影到虚拟摄像头的成像平面上,得到虚拟物体在虚拟图像坐标系的投影坐标。
进一步的,在步骤S4中,融合图像发送到头盔显示器上。
进一步的,在步骤S2中,包括骨骼关节点获取步骤,在本步骤中,通过追踪用户姿势,并提取骨骼关节特征点,用于实现用户通过姿势与虚拟物体进行交互。
进一步的,还设置有手势识别控制模块,所述手势识别控制模块,用于进行手势识别。
进一步的,包括人体骨骼校正模块,所述人体骨骼校正模块,用于校正用户姿势,如果用户姿势校正成功,则追踪校正后骨骼资料并获取相应的关节点资料,如果用户姿势校正不成功,则继续检测用户姿势动作。
本发明的有益效果是:
(1)本发明提高了三维跟踪的实时性,并提高了系统的跟踪精度,扩大了跟踪范围,增强了系统的可靠性和鲁棒性,在扩展时间上和空间上的观测范围更广,增强了数据的可信任度和分辨能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的步骤流程示意图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。本说明书中公开的所有特征,或隐含公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
本说明书(包括任何附加权利要求、摘要和附图)中公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
下面将详细描述本发明的具体实施例,应当注意,这里描述的实施例只用于举例说明,并不用于限制本发明。在以下描述中,为了提供对本发明的透彻理解,阐述了大量特定细节。然而,对于本领域普通技术人员显而易见的是:不必采用这些特定细节来实行本发明。在其他实例中,为了避免混淆本发明,未具体描述公知的电路,软件或方法。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在对实施例进行描述之前,需要对一些必要的术语进行解释。例如:
若本申请中出现使用“第一”、“第二”等术语来描述各种元件,但是这些元件不应当由这些术语所限制。这些术语仅用来区分一个元件和另一个元件。因此,下文所讨论的“第一”元件也可以被称为“第二”元件而不偏离本发明的教导。应当理解的是,若提及一元件“连接”或者“联接”到另一元件时,其可以直接地连接或直接地联接到另一元件或者也可以存在中间元件。相反地,当提及一元件“直接地连接”或“直接地联接”到另一元件时,则不存在中间元件。
在本申请中出现的各种术语仅仅用于描述具体的实施方式的目的而无意作为对本发明的限定,除非上下文另外清楚地指出,否则单数形式意图也包括复数形式。
当在本说明书中使用术语“包括”和/或“包括有”时,这些术语指明了所述特征、整体、步骤、操作、元件和/或部件的存在,但是也不排除一个以上其他特征、整体、步骤、操作、元件、部件和/或其群组的存在和/或附加。
如图1所示,一种实时三维跟踪方法,包括:
S1,摄像头标定,计算图像坐标系到摄像头坐标系的转换参数;
S2,位置跟踪,计算标志物相对应于摄像头坐标系的位置和角度,并通过摄像头坐标系到场景坐标系的转换,获得视点在真实场景的方位和角度;
S3,渲染虚拟物体,包括场景坐标系到虚拟场景坐标系的转换,虚拟场景坐标系到虚拟摄像头坐标系的转换,以及虚拟摄像头坐标系列虚拟图像坐标系的转换;
S4,虚实融合,将虚实两个图像坐标系对齐,融合图像发送到显示设备上。
进一步的,在步骤S3中,包括如下子步骤:
S31,确定虚拟物体和虚拟摄像头在场景坐标系中安放的位置,并转换到虚拟坐标系;
S32,从虚拟场景坐标系中,将虚拟摄像头拍摄到的物体的坐标,转换到虚拟摄像头坐标系的坐标;
S33,根据摄像头标定中计算得出摄像头的内部参数,将虚拟物体从摄像头坐标系投影到虚拟摄像头的成像平面上,得到虚拟物体在虚拟图像坐标系的投影坐标。
进一步的,在步骤S4中,融合图像发送到头盔显示器上。
进一步的,在步骤S2中,包括骨骼关节点获取步骤,在本步骤中,通过追踪用户姿势,并提取骨骼关节特征点,用于实现用户通过姿势与虚拟物体进行交互。
进一步的,还设置有手势识别控制模块,所述手势识别控制模块,用于进行手势识别。
进一步的,包括人体骨骼校正模块,所述人体骨骼校正模块,用于校正用户姿势,如果用户姿势校正成功,则追踪校正后骨骼资料并获取相应的关节点资料,如果用户姿势校正不成功,则继续检测用户姿势动作。
实施例1
如图1所示,一种实时三维跟踪方法,包括:
S1,摄像头标定,计算图像坐标系到摄像头坐标系的转换参数;
S2,位置跟踪,计算标志物相对应于摄像头坐标系的位置和角度,并通过摄像头坐标系到场景坐标系的转换,获得视点在真实场景的方位和角度;
S3,渲染虚拟物体,包括场景坐标系到虚拟场景坐标系的转换,虚拟场景坐标系到虚拟摄像头坐标系的转换,以及虚拟摄像头坐标系列虚拟图像坐标系的转换;
S4,虚实融合,将虚实两个图像坐标系对齐,融合图像发送到显示设备上。
进一步的,在步骤S3中,包括如下子步骤:
S31,确定虚拟物体和虚拟摄像头在场景坐标系中安放的位置,并转换到虚拟坐标系;
S32,从虚拟场景坐标系中,将虚拟摄像头拍摄到的物体的坐标,转换到虚拟摄像头坐标系的坐标;
S33,根据摄像头标定中计算得出摄像头的内部参数,将虚拟物体从摄像头坐标系投影到虚拟摄像头的成像平面上,得到虚拟物体在虚拟图像坐标系的投影坐标。
在本实施例中的其余技术特征,本领域技术人员均可以根据实际情况进行灵活选用和以满足不同的具体实际需求。然而,对于本领域普通技术人员显而易见的是:不必采用这些特定细节来实现本发明。在其他实例中,为了避免混淆本发明,未具体描述公知的算法,方法或系统等,均在本发明的权利要求书请求保护的技术方案限定技术保护范围之内。
对于前述的方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某一些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和单元并不一定是本申请所必须的。
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法实现所描述的功能,但是这种实现不应超出本发明的范围。
所揭露的系统、模块和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例,仅仅是示意性的,例如,所述单元的划分,可以仅仅是一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以说通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述分立部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例的方案的目的。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、ROM、RAM等。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。
Claims (6)
1.一种实时三维跟踪方法,其特征在于,包括:
S1,摄像头标定,计算图像坐标系到摄像头坐标系的转换参数;
S2,位置跟踪,计算标志物相对应于摄像头坐标系的位置和角度,并通过摄像头坐标系到场景坐标系的转换,获得视点在真实场景的方位和角度;
S3,渲染虚拟物体,包括场景坐标系到虚拟场景坐标系的转换,虚拟场景坐标系到虚拟摄像头坐标系的转换,以及虚拟摄像头坐标系列虚拟图像坐标系的转换;
S4,虚实融合,将虚实两个图像坐标系对齐,融合图像发送到显示设备上。
2.根据权利要求1所述的一种实时三维跟踪方法,其特征在于,在步骤S3中,包括如下子步骤:
S31,确定虚拟物体和虚拟摄像头在场景坐标系中安放的位置,并转换到虚拟坐标系;
S32,从虚拟场景坐标系中,将虚拟摄像头拍摄到的物体的坐标,转换到虚拟摄像头坐标系的坐标;
S33,根据摄像头标定中计算得出摄像头的内部参数,将虚拟物体从摄像头坐标系投影到虚拟摄像头的成像平面上,得到虚拟物体在虚拟图像坐标系的投影坐标。
3.根据权利要求1所述的一种实时三维跟踪方法,其特征在于,在步骤S4中,融合图像发送到头盔显示器上。
4.根据权利要求1所述的一种实时三维跟踪方法,其特征在于,在步骤S2中,包括骨骼关节点获取步骤,在本步骤中,通过追踪用户姿势,并提取骨骼关节特征点,用于实现用户通过姿势与虚拟物体进行交互。
5.根据权利要求4所述一种实时三维跟踪方法,其特征在于,还设置有手势识别控制模块,所述手势识别控制模块,用于进行手势识别。
6.根据权利要求5所述一种实时三维跟踪方法,其特征在于,包括人体骨骼校正模块,所述人体骨骼校正模块,用于校正用户姿势,如果用户姿势校正成功,则追踪校正后骨骼资料并获取相应的关节点资料,如果用户姿势校正不成功,则继续检测用户姿势动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910596100.8A CN110415358A (zh) | 2019-07-03 | 2019-07-03 | 一种实时三维跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910596100.8A CN110415358A (zh) | 2019-07-03 | 2019-07-03 | 一种实时三维跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110415358A true CN110415358A (zh) | 2019-11-05 |
Family
ID=68360136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910596100.8A Pending CN110415358A (zh) | 2019-07-03 | 2019-07-03 | 一种实时三维跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110415358A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110928414A (zh) * | 2019-11-22 | 2020-03-27 | 上海交通大学 | 三维虚实融合实验系统 |
CN111081108A (zh) * | 2019-12-26 | 2020-04-28 | 中国航空工业集团公司西安飞机设计研究所 | 一种基于增强现实技术的拆装训练方法和装置 |
CN111651051A (zh) * | 2020-06-10 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
CN113345105A (zh) * | 2021-06-18 | 2021-09-03 | 北京爱奇艺科技有限公司 | 一种坐标系调整方法、装置、电子设备及存储介质 |
CN114419293A (zh) * | 2022-01-26 | 2022-04-29 | 广州鼎飞航空科技有限公司 | 一种增强现实的数据处理方法、装置及设备 |
CN114730212A (zh) * | 2019-12-05 | 2022-07-08 | Oppo广东移动通信有限公司 | 用于关联多人ar系统中的设备坐标系的方法和系统 |
CN114863072A (zh) * | 2022-05-16 | 2022-08-05 | 聚好看科技股份有限公司 | 一种交互系统中虚拟人物的定位方法及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248443A (ja) * | 2010-05-24 | 2011-12-08 | Fujifilm Corp | 拡張現実映像の提示装置及び提示方法 |
CN102857701A (zh) * | 2012-09-14 | 2013-01-02 | 北京东方艾迪普科技发展有限公司 | 一种三维场景中虚拟摄像机的跟踪方法 |
CN105469043A (zh) * | 2015-11-20 | 2016-04-06 | 苏州铭冠软件科技有限公司 | 一种手势识别系统 |
-
2019
- 2019-07-03 CN CN201910596100.8A patent/CN110415358A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248443A (ja) * | 2010-05-24 | 2011-12-08 | Fujifilm Corp | 拡張現実映像の提示装置及び提示方法 |
CN102857701A (zh) * | 2012-09-14 | 2013-01-02 | 北京东方艾迪普科技发展有限公司 | 一种三维场景中虚拟摄像机的跟踪方法 |
CN105469043A (zh) * | 2015-11-20 | 2016-04-06 | 苏州铭冠软件科技有限公司 | 一种手势识别系统 |
Non-Patent Citations (6)
Title |
---|
7DGAME: "微软Hololens+vuforia=汽车介绍演示", 《URL:HTTPS://WWW.BILIBILI.COM/VIDEO/AV9506077/》 * |
GUOXIANGGUO1981: "增强现实技术(第五章)", 《HTTPS://WWW.DOCIN.COM/P-1607657894.HTML》 * |
ZHENLIANG ZHANG,ETC.: "3D optical see-through head-mounted display based augmented reality system and its application", 《INTERNATIONAL CONFERENCE ON OPTICAL AND PHOTONIC ENGINEERING》 * |
倪晓等: "增强现实系统软件平台的设计与实现", 《计算机工程与设计》 * |
杨波: "增强现实中的跟踪技术研究", 《中国优秀博硕士学位论文全文数据库 (硕士) 信息科技辑》 * |
熊友军等: "跟踪注册的增强现实技术研究", 《计算机应用研究》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110928414A (zh) * | 2019-11-22 | 2020-03-27 | 上海交通大学 | 三维虚实融合实验系统 |
CN114730212A (zh) * | 2019-12-05 | 2022-07-08 | Oppo广东移动通信有限公司 | 用于关联多人ar系统中的设备坐标系的方法和系统 |
CN111081108A (zh) * | 2019-12-26 | 2020-04-28 | 中国航空工业集团公司西安飞机设计研究所 | 一种基于增强现实技术的拆装训练方法和装置 |
CN111651051A (zh) * | 2020-06-10 | 2020-09-11 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN111651051B (zh) * | 2020-06-10 | 2023-08-22 | 浙江商汤科技开发有限公司 | 一种虚拟沙盘展示方法及装置 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
CN113345105A (zh) * | 2021-06-18 | 2021-09-03 | 北京爱奇艺科技有限公司 | 一种坐标系调整方法、装置、电子设备及存储介质 |
CN114419293A (zh) * | 2022-01-26 | 2022-04-29 | 广州鼎飞航空科技有限公司 | 一种增强现实的数据处理方法、装置及设备 |
CN114419293B (zh) * | 2022-01-26 | 2023-06-06 | 广州鼎飞航空科技有限公司 | 一种增强现实的数据处理方法、装置及设备 |
CN114863072A (zh) * | 2022-05-16 | 2022-08-05 | 聚好看科技股份有限公司 | 一种交互系统中虚拟人物的定位方法及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110415358A (zh) | 一种实时三维跟踪方法 | |
EP2728548B1 (en) | Automated frame of reference calibration for augmented reality | |
CN108830894A (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
US11238273B2 (en) | Data processing method and apparatus, electronic device and storage medium | |
CN109242913A (zh) | 采集器相对参数的标定方法、装置、设备和介质 | |
JP6008397B2 (ja) | 光学式シースルー型hmdを用いたarシステム | |
US20100134601A1 (en) | Method and device for determining the pose of video capture means in the digitization frame of reference of at least one three-dimensional virtual object modelling at least one real object | |
JP6701930B2 (ja) | オーサリング装置、オーサリング方法およびオーサリングプログラム | |
JP6464938B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR101763636B1 (ko) | 헤드 마운트 디스플레이를 이용한 협업 방법 | |
CN109961523A (zh) | 虚拟目标的更新方法、装置、系统、设备及存储介质 | |
US20230101893A1 (en) | Estimation device, learning device, teaching data creation device, estimation method, learning method, teaching data creation method, and recording medium | |
JP2006513509A (ja) | 合成情報の投影 | |
CN110399039A (zh) | 一种基于眼动跟踪的虚实场景融合方法 | |
CN110349504A (zh) | 一种基于ar的博物馆导览系统 | |
KR20120071281A (ko) | 모바일에서 현실환경과 가상환경을 융합하여 제공하는 장치 및 방법 | |
JP7160958B2 (ja) | 画像処理方法及び装置、画像処理デバイス並びに記憶媒体 | |
JP2015153035A (ja) | 被写体情報重畳装置、被写体情報重畳方法及びプログラム | |
KR101888837B1 (ko) | 스테레오 매칭 시스템의 전처리 장치 | |
JP4775903B2 (ja) | 多視点画像を用いた自由視点画像生成方法、装置及びプログラム | |
KR102166586B1 (ko) | 딥러닝 기반 위치측위 기술을 이용한 모바일 증강현실 서비스장치 및 방법 | |
KR100447778B1 (ko) | 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현장치 및 그 방법 | |
CN109389645A (zh) | 相机自校准方法、系统、相机、机器人及云端服务器 | |
JP6835455B2 (ja) | 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法 | |
EP3655919A1 (en) | Systems and methods for determining three dimensional measurements in telemedicine application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191105 |