CN110418185B - 一种增强现实视频画面中锚点的定位方法及其系统 - Google Patents
一种增强现实视频画面中锚点的定位方法及其系统 Download PDFInfo
- Publication number
- CN110418185B CN110418185B CN201910664724.9A CN201910664724A CN110418185B CN 110418185 B CN110418185 B CN 110418185B CN 201910664724 A CN201910664724 A CN 201910664724A CN 110418185 B CN110418185 B CN 110418185B
- Authority
- CN
- China
- Prior art keywords
- video
- anchor point
- anchor
- terminal
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 12
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 5
- 230000008676 import Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000003786 synthesis reaction Methods 0.000 abstract 1
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种增强现实视频画面中锚点的定位方法,其特征在于,包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,该定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;该方法包括:S1:确定视频中需要进行标定的对象;S2:创建该对象的全局唯一的锚点信息;S3:定义该锚点对象的展示样式;S4:获取视频终端信息以及待锚定对象的平面坐标;S5:分析并识别该锚点对象的空间位置信息;S6:遍历与设备ID关联的所有锚点对象的空间位置;S7:判断该锚点对象是否加入待渲染集合;S8:遍历待渲染集合中的锚点对象,解析其平面位置;S9:合成后发给显示终端;S10:显示终端显示视频画面。
Description
技术领域
本发明涉及计算机视频及视觉技术领域,具体涉及一种增强现实视频画面中锚点的定位方法及其系统。
背景技术
增强现实(augmented reality,AR)技术是将计算机生成的虚拟对象叠加到用户所见的真实世界的一种新兴技术,它提高了用户对真实世界的感知,帮助我们更好的认识真实世界,以及与真实世界进行更好交互。随着AR技术的发展,
人们对视频中展示元素的要求越来越高,展示的元素类型也越来越多样化。如何保证元素展示的位置准确,避免出现信息的混乱展示,是视频空间定位面临的巨大挑战。
在视频增强现实使用场景中,元素在画面中的叠加需要先经过空间定位,即确定信息需要展示的锚点,在定位时需要考虑摄像头所在的位置、俯仰角以及水平角等因素。根据不同的视频采集设备,需要有不同的感应装置和算法去解析,以提高锚点的定位效率。尤其当运动的发生使锚点的位置发生改变,可能导致信息无法准确的显示,影响真实感及用户体验。另外,为保证锚点的标定效率,在现有AR展示系统里,锚点的信息通常保存在终端视频采集设备,当终端设备损坏时会导致锚点丢失,无法确定信息显示。
因此,针对现有技术中存在的问题,亟需提供一种可广泛应用,提高交互友好性,具有较高兼容性和实用性的增强现实视频画面中锚点的定位技术显得尤为重要。
发明内容
本发明的目的在于避免现有技术中的不足之处,而提供一种增强现实视频画面中锚点的定位方法及其系统,该方法或系统可广泛应用于基于视频的应用场景中,大大提高了用户与真实世界的交互友好性,具有较高兼容性和广泛的实用性。
为了达到上述目的,本发明通过以下技术方案实现:
一种增强现实视频画面中锚点的定位方法,包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,该定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;
所述方法包括:
步骤S1:通过物体识别、数据导入或人工选择的方式确定视频中需要进行标定的对象;
步骤S2:根据对象的属性信息,创建属于该对象的全局唯一的锚点信息,并存入空间位置数据库;
步骤S3:定义该锚点对象的展示样式;
步骤S4:通过视频终端设备SDK,获取终端设备信息;并通过空间位置数据库获取待锚定对象的视频平面坐标;
步骤S5:建立视频图像平面坐标与空间位置坐标的转换模型,分析并识别该锚点对象的空间位置信息;
步骤S6:根据当前视频终端信息分析当前视频的空间位置范围,依次比对空间数据库中与该视频终端的设备ID关联的所有锚点对象的空间位置;
步骤S7:利用空间位置坐标与视频图像平面坐标转换模型,判断该锚点对象是否在该视频的平面直角坐标系内;若该锚点在视频平面坐标系内,则加入待渲染集合;否则,忽略该锚点;
步骤S8:遍历待渲染集合中的锚点对象,根据锚点对象空间位置信息,解析锚点对象在视频图像中的平面位置;
步骤S9:根据锚点对象的展示样式,合成到视频流中,并发送给显示终端;
步骤S10:显示终端显示带锚点对象的视频画面。
以上的,在所述步骤S2中,所述属性信息包括对象的ID,名称和平面位置信息。
以上的,在所述步骤S3中,所述锚点对象的展示样式包括纯文字锚点、图标锚点、卡片式锚点、超链接锚点或视频播放锚点。
具体的,在所述步骤S4中,所述视频终端设备SDK(SDK,其英文全称为SoftwareDevelopment Kit,是指软件开发工具包,是为视频终端设备创建应用软件的开发工具的集合。)
本发明还提供了一种应用如前述定位方法的增强视频画面中锚点的定位系统,所述系统包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,进行数据交互;
所述定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;
所述空间数据库接入所述视频终端,用于维护视频终端信息以及终端所采集视频画面的锚点空间位置信息;
所述视频流接入模块用于对接多个视频终端设备提供的视频流,所述视频流包括多种视频编码格式。
所述空间位置注册及解析模块用于保存和还原锚点空间位置信息;
所述空间位置注册及解析模块获取视频画面中所标定的锚点位置,通过空间转换算法计算锚点空间位置信息,并存储该锚点空间位置信息;
所述空间位置注册及解析模块读取锚点空间位置信息,解析还原锚点在视频画面中位置,并发送至显示终端进行显示。
优选的,所述锚点位置通过用户标定,或通过视频中用户关注对象自然特征的识别所确定。
所述视频图像处理模块用于解析和还原锚点的视频位置,以及识别视频锚点所在对象的特征信息。
所述视频终端信息至少包括设备型号、设备类型、设备位置、设备水平高度。
具体的,所述设备水平高度是指视频终端的镜头中心与地面水平位置的高度。
所述锚点空间位置信息至少包括锚点ID、所属终端设备ID、设备位置、设备水平高度、镜头焦距、水平角、俯仰角、视频画面坐标、锚点创建时间、锚点修改时间。
优选的,所述视频终端包括摄像设备。
本发明又提供了一种电子装置,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本发明前述的定位方法。
本发明又提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明前述的定位方法。
本发明的有益效果:
本发明提供的定位方法及系统,能够保证锚点元素展示的位置准确,避免出现信息的混乱展示,能解决当运动的发生使锚点位置发生改变所导致的信息无法准确显示的问题,提高锚点的标定效率,保证锚点不丢失。同时,该方法及系统不受视频终端设备限制,能够在不同类型视频终端提供的视频流中进行锚点元素的标定和叠加展示,可广泛应用于基于视频增强现实展示的应用场景中,大大提高了用户与真实世界的交互友好性,具有较高的兼容性和广泛的实用性。
附图说明
图1为本发明提供的定位方法的流程图;
图2为本发明提供的定位系统结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。
如图1~2所示,本技术方案提供了一种增强现实视频画面中锚点的定位方法,包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,该定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;
所述方法包括:
步骤S1:通过物体识别、数据导入或人工选择的方式确定视频中需要进行标定的对象;
步骤S2:根据对象的属性信息,创建属于该对象的全局唯一的锚点信息,并存入空间位置数据库;
在所述步骤S2中,所述属性信息包括对象的ID,名称和平面位置信息。
步骤S3:定义该锚点对象的展示样式;
在所述步骤S3中,所述锚点对象的展示样式包括纯文字锚点、图标锚点、卡片式锚点、超链接锚点或视频播放锚点。
步骤S4:通过视频终端设备SDK,获取终端设备信息;并通过空间位置数据库获取待锚定对象的视频平面坐标;
步骤S5:建立视频图像平面坐标与空间位置坐标的转换模型,分析并识别该锚点对象的空间位置信息;
步骤S6:根据当前视频终端信息分析当前视频的空间位置范围,依次比对空间数据库中与该视频终端的设备ID关联的所有锚点对象的空间位置;
步骤S7:利用空间位置坐标与视频图像平面坐标转换模型,判断该锚点对象是否在该视频的平面直角坐标系内;若该锚点在视频平面坐标系内,则加入待渲染集合;否则,忽略该锚点;
步骤S8:遍历待渲染集合中的锚点对象,根据锚点对象空间位置信息,解析锚点对象在视频图像中的平面位置;
步骤S9:根据锚点对象的展示样式,合成到视频流中,并发送给显示终端;
步骤S10:显示终端显示带锚点对象的视频画面。
本技术方案还提供了一种应用如前述定位方法的增强视频画面中锚点的定位系统,所述系统包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,进行数据交互;
所述定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;
所述空间数据库接入所述视频终端,用于维护视频终端信息以及终端所采集视频画面的锚点空间位置信息;
所述视频流接入模块用于对接多个视频终端设备提供的视频流,所述视频流包括多种视频编码格式。
所述空间位置注册及解析模块用于保存和还原锚点空间位置信息;
所述空间位置注册及解析模块获取视频画面中所标定的锚点位置,通过空间转换算法计算锚点空间位置信息,并存储该锚点空间位置信息;
所述空间位置注册及解析模块读取锚点空间位置信息,解析还原锚点在视频画面中位置,并发送至显示终端进行显示。
所述锚点位置通过用户标定,或通过视频中用户关注对象自然特征的识别所确定。
所述视频图像处理模块用于解析和还原锚点的视频位置,以及识别视频锚点所在对象的特征信息。
所述视频终端信息至少包括设备型号、设备类型、设备位置、设备水平高度。
具体的,所述设备水平高度是指视频终端的镜头中心与地面水平位置的高度。
所述锚点空间位置信息至少包括锚点ID、所属终端设备ID、设备位置、设备水平高度、镜头焦距、水平角、俯仰角、视频画面坐标、锚点创建时间、锚点修改时间;所述视频终端为摄像设备。
根据上述说明书的揭示和教导,本发明所属领域的技术人员还可以对上述实施方式进行变更和修改。因此,本发明并不局限于上面揭示和描述的具体实施方式,对发明的一些修改和变更也应当落入本发明的权利要求的保护范围内。此外,尽管本说明书中使用了一些特定的术语,但这些术语只是为了方便说明,并不对本发明构成任何限制。
Claims (9)
1.一种增强现实视频画面中锚点的定位方法,其特征在于,包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,该定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;
所述方法包括:
步骤S1:通过物体识别、数据导入或人工选择的方式确定视频中需要进行标定的对象;
步骤S2:根据对象的ID,名称和平面位置信息,创建属于该对象的全局唯一的锚点信息,并存入空间位置数据库;
步骤S3:定义该锚点对象的展示样式;
步骤S4:通过视频终端设备SDK,获取终端设备信息;并通过空间位置数据库获取待锚定对象的视频平面坐标;
步骤S5:建立视频图像平面坐标与空间位置坐标的转换模型,分析并识别该锚点对象的空间位置信息;
步骤S6:根据当前视频终端信息分析当前视频的空间位置范围,依次比对空间数据库中与该视频终端的设备ID关联的所有锚点对象的空间位置;
步骤S7:利用空间位置坐标与视频图像平面坐标转换模型,判断该锚点对象是否在该视频的平面直角坐标系内;若该锚点在视频平面坐标系内,则加入待渲染集合;否则,忽略该锚点;
步骤S8:遍历待渲染集合中的锚点对象,根据锚点对象空间位置信息,解析锚点对象在视频图像中的平面位置;
步骤S9:根据锚点对象的展示样式,合成到视频流中,并发送给显示终端;
步骤S10:显示终端显示带锚点对象的视频画面。
2.根据权利要求1所述的定位方法,其特征在于,在所述步骤S3中,所述锚点对象的展示样式包括纯文字锚点、图标锚点、卡片式锚点、超链接锚点或视频播放锚点。
3.一种应用如权利要求1~2任一项所述方法的增强视频画面中锚点的定位系统,其特征在于,所述系统包括定位模块、视频终端和显示终端;所述定位模块与视频终端、显示终端连接,进行数据交互;
所述定位模块包括视频流接入模块、空间位置数据库、空间注册及解析模块和视频图像处理模块;
所述空间数据库接入所述视频终端,用于维护视频终端信息以及终端所采集视频画面的锚点空间位置信息;
所述视频流接入模块用于接入多个视频终端设备提供的视频流,所述视频流包括多种视频编码格式;
所述空间位置注册及解析模块用于保存和还原锚点空间位置信息;
所述空间位置注册及解析模块获取视频画面中所标定的锚点位置,通过空间转换算法计算锚点空间位置信息,并存储该锚点空间位置信息;
所述空间位置注册及解析模块读取锚点空间位置信息,解析还原锚点在视频画面中位置,并发送至显示终端进行显示;
所述视频图像处理模块用于解析和还原锚点的视频位置,以及识别视频锚点所在对象的特征信息。
4.根据权利要求3所述的定位系统,其特征在于,所述锚点位置通过用户标定,或通过视频中用户关注对象自然特征的识别所确定。
5.根据权利要求3所述的定位系统,其特征在于,所述视频终端信息至少包括设备型号、设备类型、设备位置、设备水平高度。
6.根据权利要求3所述的定位系统,其特征在于,所述锚点空间位置信息至少包括锚点ID、所属终端设备ID、设备位置、设备水平高度、镜头焦距、水平角、俯仰角、视频画面坐标、锚点创建时间、锚点修改时间。
7.根据权利要求4所述的定位系统,其特征在于,所述视频终端包括摄像设备。
8.一种电子装置,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1所述的定位方法。
9.一种计算机可读介质,其特征在于,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1所述的定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910664724.9A CN110418185B (zh) | 2019-07-22 | 2019-07-22 | 一种增强现实视频画面中锚点的定位方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910664724.9A CN110418185B (zh) | 2019-07-22 | 2019-07-22 | 一种增强现实视频画面中锚点的定位方法及其系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110418185A CN110418185A (zh) | 2019-11-05 |
CN110418185B true CN110418185B (zh) | 2021-08-13 |
Family
ID=68362430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910664724.9A Active CN110418185B (zh) | 2019-07-22 | 2019-07-22 | 一种增强现实视频画面中锚点的定位方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110418185B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12315096B2 (en) | 2022-04-29 | 2025-05-27 | Beijing Youzhuju Network Technology Co., Ltd. | Interaction method and apparatus, device and medium |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110856005B (zh) * | 2019-11-07 | 2021-09-21 | 广州虎牙科技有限公司 | 直播流显示方法、装置、电子设备及可读存储介质 |
CN111131878A (zh) * | 2019-12-31 | 2020-05-08 | 北京百度网讯科技有限公司 | 视频预处理及丢帧检测方法、装置、电子设备及存储介质 |
CN116700693B (zh) * | 2023-08-02 | 2023-10-27 | 北京格如灵科技有限公司 | Hololens锚点定位存储方法、系统、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0911015A1 (en) * | 1997-10-27 | 1999-04-28 | Benito Ferrati | Orthopedic rehabilitation apparatus using virtual reality units |
US8872854B1 (en) * | 2011-03-24 | 2014-10-28 | David A. Levitt | Methods for real-time navigation and display of virtual worlds |
WO2018004786A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Systems and methods for mixed reality transitions |
CN108510597A (zh) * | 2018-03-09 | 2018-09-07 | 北京小米移动软件有限公司 | 虚拟场景的编辑方法、装置及非临时性计算机可读存储介质 |
CN108932055A (zh) * | 2018-06-04 | 2018-12-04 | 艾律有限责任公司 | 一种增强现实内容的方法和设备 |
CN109738925A (zh) * | 2019-01-28 | 2019-05-10 | 重庆予胜远升网络科技有限公司 | 基于高精度定位ar管网图像展示系统及方法 |
CN109885172A (zh) * | 2019-02-27 | 2019-06-14 | 苏州市职业大学 | 一种基于增强现实ar的对象互动展示方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9754397B1 (en) * | 2017-04-07 | 2017-09-05 | Mirage Worlds, Inc. | Systems and methods for contextual augmented reality sharing and performance |
-
2019
- 2019-07-22 CN CN201910664724.9A patent/CN110418185B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0911015A1 (en) * | 1997-10-27 | 1999-04-28 | Benito Ferrati | Orthopedic rehabilitation apparatus using virtual reality units |
US8872854B1 (en) * | 2011-03-24 | 2014-10-28 | David A. Levitt | Methods for real-time navigation and display of virtual worlds |
WO2018004786A1 (en) * | 2016-06-30 | 2018-01-04 | Intel Corporation | Systems and methods for mixed reality transitions |
CN108510597A (zh) * | 2018-03-09 | 2018-09-07 | 北京小米移动软件有限公司 | 虚拟场景的编辑方法、装置及非临时性计算机可读存储介质 |
CN108932055A (zh) * | 2018-06-04 | 2018-12-04 | 艾律有限责任公司 | 一种增强现实内容的方法和设备 |
CN109738925A (zh) * | 2019-01-28 | 2019-05-10 | 重庆予胜远升网络科技有限公司 | 基于高精度定位ar管网图像展示系统及方法 |
CN109885172A (zh) * | 2019-02-27 | 2019-06-14 | 苏州市职业大学 | 一种基于增强现实ar的对象互动展示方法及系统 |
Non-Patent Citations (1)
Title |
---|
"让AR构建对世界的理解,揭开增强现实底层的技术";墨村阿强;《知乎》;20190521;全文 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12315096B2 (en) | 2022-04-29 | 2025-05-27 | Beijing Youzhuju Network Technology Co., Ltd. | Interaction method and apparatus, device and medium |
Also Published As
Publication number | Publication date |
---|---|
CN110418185A (zh) | 2019-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110418185B (zh) | 一种增强现实视频画面中锚点的定位方法及其系统 | |
CN112348969A (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
CN106231205B (zh) | 增强现实移动终端 | |
CN106355153A (zh) | 一种基于增强现实的虚拟对象显示方法、装置以及系统 | |
CN112954292B (zh) | 一种基于增强现实的数字博物馆导览系统和方法 | |
CN112348968B (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
CN103914876A (zh) | 用于在3d地图上显示视频的方法和设备 | |
CN113220251B (zh) | 物体显示方法、装置、电子设备及存储介质 | |
CN111815786A (zh) | 信息显示方法、装置、设备和存储介质 | |
TWI634516B (zh) | 指示視訊內容之文件格式 | |
CN111833457A (zh) | 图像处理方法、设备及存储介质 | |
CN111429338B (zh) | 用于处理视频的方法、装置、设备和计算机可读存储介质 | |
CN111569421A (zh) | 虚拟场景变化同步方法、系统、vr播放设备及存储介质 | |
CN110069996A (zh) | 头部动作识别方法、装置和电子设备 | |
US20200134779A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
CN110267079B (zh) | 待播放视频中人脸的替换方法和装置 | |
KR102176805B1 (ko) | 뷰 방향이 표시되는 vr 컨텐츠 제공 시스템 및 방법 | |
CN112258435A (zh) | 图像处理方法和相关产品 | |
CN111819603B (zh) | 虚拟物体显示控制装置、方法、记录介质及虚拟物体显示系统 | |
CN108628453B (zh) | 虚拟现实图像显示方法及终端 | |
CN112017242A (zh) | 显示方法及装置、设备、存储介质 | |
US20220319062A1 (en) | Image processing method, apparatus, electronic device and computer readable storage medium | |
CN113793410B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN115801983A (zh) | 图像叠加方法和装置、电子设备 | |
CN115690363A (zh) | 虚拟物体显示方法、装置和头戴式显示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |