CN109582134A - 信息显示的方法、装置及显示设备 - Google Patents
信息显示的方法、装置及显示设备 Download PDFInfo
- Publication number
- CN109582134A CN109582134A CN201811331018.4A CN201811331018A CN109582134A CN 109582134 A CN109582134 A CN 109582134A CN 201811331018 A CN201811331018 A CN 201811331018A CN 109582134 A CN109582134 A CN 109582134A
- Authority
- CN
- China
- Prior art keywords
- display
- related information
- field range
- eye
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000003860 storage Methods 0.000 claims description 5
- 230000006978 adaptation Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 239000011521 glass Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000686 essence Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000012092 media component Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开是关于信息显示的方法、装置及显示设备,所述方法应用在透视近眼显示设备中,所述方法包括:获取显示对象对应的关联信息;确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。本公开可以使得显示对象及其关联信息在有限的视场范围内都可以很好地匹配设备的显示能力,以进行正常显示,从而提高了设备的显示能力。
Description
技术领域
本公开涉及信息显示技术领域,尤其涉及信息显示的方法、装置及显示设备。
背景技术
随着信息技术的发展,AR(augmented reality,增强现实)/MR(mixed reality,混合现实)显示眼镜将会成为下一个移动平台,现有的AR/MR产品已经展现了这个平台的潜力,其特别的空间定位SLAM(Simultaneously Location and Mapping,即时定位与地图构建)和数字光场(digital light field)显示能力,为多个用户之间带来了全新的视觉交互体验,例如:全息模型分享、重现等等。
然而,新的用户体验也面临着众多技术挑战,例如,如何在AR/MR非常有限的显示视场角FOV(Field of View)中,正确的显示接收到的分享内容和其相关信息。
发明内容
为克服相关技术中存在的问题,本公开提供了信息显示的方法、装置及显示设备。
根据本公开实施例的第一方面,提供一种信息显示的方法,所述方法应用在透视近眼显示设备中,所述方法包括:
获取显示对象对应的关联信息;
确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
可选地,所述确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,包括:
构建所述透视近眼显示设备所处环境的地图;
分别获取所述透视近眼显示设备以及所述显示对象在所述地图下的位姿信息;
根据所述透视近眼显示设备的视场角以及所述透视近眼显示设备的位姿信息,确定所述透视近眼显示设备的视场范围;
根据所述显示对象的位姿信息,确定所述显示对象在所述视场范围内的重叠区域,作为所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。
可选地,所述方法还包括:
当所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿发生变化时,更新所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,以根据更新的所述目标显示区域,重新确定所述关联信息的显示区域。
可选地,所述将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域,包括:
确定所述关联信息的显示属性,所述显示属性包括所述关联信息所需的显示区域大小;
从所述视场范围内除所述目标显示区域之外的区域中,选取一与所述关联信息所需的显示区域大小适配的区域显示所述关联信息。
可选地,所述获取显示对象对应的关联信息,包括:
通过扫描所述显示对象对应的二维码图像,或者,从所述显示对象附带的元信息中,获得所述显示对象对应的关联信息。
根据本公开实施例的第二方面,提供一种信息显示的装置,所述装置设置在透视近眼显示设备中,所述装置包括:
关联信息获取模块,被配置为获取显示对象对应的关联信息;
目标显示区域确定模块,被配置为确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
关联信息显示模块,被配置为将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
可选地,所述目标显示区域确定模块包括:
地图构建子模块,被配置为构建所述透视近眼显示设备所处环境的地图;
位姿信息获取子模块,被配置为分别获取所述透视近眼显示设备以及所述显示对象在所述地图下的位姿信息;
视场范围确定子模块,被配置为根据所述透视近眼显示设备的视场角以及所述透视近眼显示设备的位姿信息,确定所述透视近眼显示设备的视场范围;
目标区域确定子模块,被配置为根据所述显示对象的位姿信息,确定所述显示对象在所述视场范围内的重叠区域,作为所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。
可选地,所述装置还包括:
更新模块,被配置为当所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿发生变化时,更新所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,以根据更新的所述目标显示区域,重新确定所述关联信息的显示区域。
可选地,所述关联信息显示模块包括:
属性确定子模块,被配置为确定所述关联信息的显示属性,所述显示属性包括所述关联信息所需的显示区域大小;
显示子模块,被配置为从所述视场范围内除所述目标显示区域之外的区域中,选取一与所述关联信息所需的显示区域大小适配的区域显示所述关联信息。
根据本公开实施例的第三方面,提供了一种显示设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取显示对象对应的关联信息;
确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
本公开的实施例提供的技术方案可以包括以下有益效果:
在本实施例中,透视近眼显示设备根据接收到的显示对象在设备的视场范围内的目标显示区域,确定针对该显示对象的关联信息的显示位置为视场范围内除目标显示区域之外的没有显示内容的其他区域,使得显示对象及其关联信息在有限的视场范围内都可以很好地匹配设备的显示能力,以进行正常显示,从而提高了设备的显示能力。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开根据一示例性实施例示出的一种信息显示的方法实施例的步骤流程图;
图2是本公开根据一示例性实施例示出的设备显示示意图;
图3是本公开根据一示例性实施例示出的设备二维显示示意图;
图4是本公开根据另一示例性实施例示出的一种信息显示的方法实施例的步骤流程图;
图5及图6是本公开根据一示例性实施例示出的另一设备二维显示示意图;
图7是本公开根据一示例性实施例示出的一种信息显示的装置的框图;
图8是本公开根据另一示例性实施例示出的一种信息显示的装置的框图;
图9是本公开根据又一示例性实施例示出的一种信息显示的装置的框图;
图10是本公开根据再一示例性实施例示出的一种信息显示的装置的框图;
图11是本公开根据一示例性实施例示出的一种显示设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
参考图1是本公开根据一示例性实施例示出的一种信息显示的方法实施例的步骤流程图,本实施例可以应用在透视近眼显示(see-through near eye display)设备中,其中,作为一种示例,该透视近眼显示设备可以包括但不限于增强现实AR设备、混合现实MR设备等等。
如图1所示,本公开实施例可以包括如下步骤:
步骤101,获取显示对象对应的关联信息;
在实现中,显示对象可以是与透视近眼显示设备所在的当前地理位置相关联的虚拟显示内容。例如,该显示对象可以包括当前地理位置的分享内容。透视近眼显示设备可以通过无线网络接收与当前地理位置相关的分享内容。
显示对象对应的关联信息可以包括针对显示对象预先设定的内容,例如,可以预先根据不同的显示对象设定不同的关联信息。该关联信息可以采用包括文字、图片、视频、动画、模型等形式表示。
作为一种示例,关联信息可以包括与显示对象相关的文字描述信息、用户评论、产品价格、语音描述信息等。
在本公开实施例的一种可选实施例中,步骤101进一步可以包括如下子步骤:
通过扫描所述显示对象对应的二维码图像,或者,从所述显示对象附带的元信息中,获得所述显示对象对应的关联信息。
在一种实施方式中,可以针对不同显示对象的关联信息生成二维码图像,并将该二维码图像添加到该显示对象中。在透视近眼显示设备显示该显示对象时,可以通过透视近眼显示设备的图像采集装置扫描该二维码图像,通过图像识别技术获取该二维码图像中的关联信息。
在另一种实施方式中,可以将显示对象的关联信息作为显示对象的元信息metadata附加到显示对象中,在透视近眼显示设备显示该显示对象时,可以通过从该元信息中获得该二维码图像中的关联信息。其中,元信息是指用来描述信息的信息,可以为说明数据的元素或属性(名称、大小、数据类型、等),或其结构(长度、字段、数据列),或其相关数据(位于何处、如何联系、拥有者)的数据。
当然,本公开实施例并不限于上述两种获得关联信息的方式,本领域技术人员采用其他方式来获得显示对象的关联信息均是可以的。
步骤102,确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
其中,透视近眼显示设备的视场范围是指透视近眼显示设备所能显示的空间范围。
在本公开实施例的一种可选实施例中,步骤102进一步可以包括如下子步骤:
子步骤S11,构建所述透视近眼显示设备所处环境的地图;
作为一种示例,上述地图可以包括但不限于如下地图的一种:特征点地图、网格地图、拓扑地图、点云地图等等。
在实现中,可以采用SLAM(Simultaneous Localization And Mapping,即时定位与地图构建)算法的建图(Mapping)方法来构建透视近眼显示设备所处环境的地图。
SLAM中的一种建图方法可以包括如下步骤,但应当理解的是,本实施例并不限于下述建图方法,本领域技术人员采用其他建图方法以构建地图均是可以的:
首先,通过透视近眼显示设备中的深度传感器(如双目摄像头、结构光、TOF(TimeOf Flight,飞行时间法)等)获取当前环境的原始点云;
然后,对不同视角下的原始点云拼接起来,得到当前场景完整的点云。在一种实施方式中,点云拼接可以通过ICP(Iterative Closest Point,迭代最近点)或者运动追踪辅助实现。
最后,对当前场景完整的点云进行点云处理、网格生成等处理,以构成当前环境的地图。其中,点云处理、网格生成等处理可以包括但不限于如下处理方式:OctoMap(八叉树地图)重建方法、TSDF(Truncated Signed Distance Function,截断有符号距离函数)重建、Poisson(位置)重建等。
子步骤S12,分别获取所述透视近眼显示设备以及所述显示对象在所述地图下的位姿信息;
其中,位姿信息表示透视近眼显示设备或者显示对象在空间中的位置和姿态。作为一种示例,该位姿信息可以包括透视近眼设备或者显示对象的六自由度(6DOF)位姿,其中,六自由度位姿指的是沿x、y、z三个直角坐标轴方向的移动自由度的位置信息(x,y,z),以及绕这三个坐标轴的转动自由度的角度信息(pitch,yaw,roll)。
在一种实施方式中,可以采用SLAM算法的定位(如运动追踪(motion tracking))方法来对设备或者显示对象进行运动跟踪,以确定透视近眼显示设备或者显示对象在重建的地图下的位姿信息。
其中一种运动追踪方法可以包括如下的模型:运动模型(Tracking with motionmodel)、关键帧(Tracking with reference key frame)和重定位(Relocalization)。
运动模型:假设设备或者显示对象(可以将设备或者显示对象统称为目标)处于匀速运动,那么可以用上一帧的位姿和速度来估计当前帧的位姿。上一帧的速度可以通过前面几帧的位姿计算得到。这个模型适用于运动速度和方向比较一致,没有大转动的情形下。而对于运动比较随意的目标,可以用到下面两个模型。
关键帧:假如运动模型已经失效,那么首先可以尝试和最近一个关键帧去做匹配。毕竟当前帧和上一个关键帧的距离还不是很远。在实现时,可以利用BoW(Bag of Words,词袋模型)来加速匹配:其中,可以首先计算当前帧的BoW,并设定初始位姿为上一帧的位姿;其次,根据位姿和BoW词典来寻找特征匹配;最后,利用匹配的特征优化位姿。
重定位:假如当前帧与最近邻关键帧的匹配也失败了,意味着此时当前帧已经丢了,无法确定其真实位置。此时,可以去和所有关键帧匹配,看能否找到合适的位置:首先,计算当前帧的Bow向量。其次,利用BoW词典选取若干关键帧作为备选;再次,寻找有足够多的特征点匹配的关键帧;最后,利用特征点匹配迭代求解位姿。如果有关键帧有足够多的内点,那么选取该关键帧优化出的位姿。
子步骤S13,根据所述透视近眼显示设备的视场角以及所述透视近眼显示设备的位姿信息,确定所述透视近眼显示设备的视场范围;
在实现中,根据透视近眼显示设备的视场角FOV以及其在地图下的位姿信息,可以确定一个三维空间内显示范围,即透视近眼显示设备的视场范围。
例如,如图2的设备显示示意图所示,透视近眼显示设备10的视场范围如图2中的A区域所示,而A区域为远平面A2与近平面A1之间的三维空间区域。其中,近平面A1和远平面A2在空间中的位置,由透视近眼显示设备10的位姿信息确定,近平面A1和远平面A2在空间中的平面大小,由透视近眼显示设备10的视场角确定。子步骤S14,根据所述显示对象的位姿信息,确定所述显示对象在所述视场范围内的重叠区域,作为所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。
根据显示对象的位姿信息,可以确定显示对象对应的三维空间范围,然后获取该三维空间范围与透视近眼显示设备的视场范围的重叠区域,作为该显示对象在该视场范围内的目标显示区域。
例如,如图2所示,根据显示对象的位姿信息,可以确定该显示对象在视场范围内的目标显示区域为区域B。
步骤103,将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域中。
确定显示对象在视场范围内的目标显示区域以后,可以将关联信息显示在视场范围中除目标显示区域以外的、没有显示内容的区域中。在本公开实施例的一种可选实施例中,步骤103进一步可以包括如下子步骤:
子步骤S21,确定所述关联信息的显示属性,所述显示属性包括所述关联信息所需的显示区域大小;
在实现中,关联信息的显示属性可以预先设定,也可以在显示前由用户个性化设定,本实施例对此不作限定。
作为一种示例,关联信息的显示属性可以包括但不限于:关联信息所需的显示区域大小,关联信息的显示颜色、显示亮度等。
子步骤S22,从所述视场范围内除所述目标显示区域之外的区域中,选取一与所述关联信息所需的显示区域大小适配的区域,显示所述关联信息;
其中,与关联信息所需的显示区域大小适配的区域可以包括区域的大小大于或等于该显示区域大小的区域。
在实现中,如果透视近眼显示设备具有重建场景中的平面的几何信息的能力,则可以将几何信息的遮挡关系,考虑到关联信息显示区域的确定中,即选取的显示关联信息的区域为没有遮挡物遮挡的区域。
例如,在图2中,当确定了透视近眼显示设备10的视野范围A和显示对象的目标显示区域B以后,可以将关联信息显示在视野范围A中除目标显示区域B以外的区域中,如区域C。
又如,如图3的设备二维显示示意图所示,在该二位显示示意图中,透视近眼显示设备(假设为AR/MR眼镜)的三自由度为(xglass,yglass,zglass),根据(xglass,yglass,zglass)以及设备的FOV,可以确定设备的视野范围A。根据获得的显示对象的三自由度为(xobject,yobject,zobject),可以确定显示对象在区域B中显示,则可以将关联信息显示在视野范围A的右侧,如根据视野范围A中没有显示内容的显示区域,确定关联信息的三自由度为(x关联信息,y关联信息,z关联信息),从而确定关联信息显示区域为区域C。
在一种实施方式中,在显示关联信息时,还可以根据关联信息的如显示颜色、显示亮度等显示属性,优化背景区域的特性,其中,北京区域的特性可以包括但不限于背景颜色、纹理、亮度、距离等。例如,当关联信息为黑色文字时,可以将背景的颜色设置为浅色背景,以增强文字显示对比度。
在本实施例中,透视近眼显示设备根据接收到的显示对象在设备的视场范围内的目标显示区域,确定针对该显示对象的关联信息的显示位置为视场范围内除目标显示区域之外的没有显示内容的其他区域,使得显示对象及其关联信息在有限的视场范围内都可以很好地匹配设备的显示能力,以进行正常显示,从而提高了设备的显示能力。
在本公开实施例的一种可选实施例中,本实施例还可以包括如下步骤:
当所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿发生变化时,更新所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,以根据更新的所述目标显示区域,重新确定所述关联信息的显示区域。
其中,基于上述位姿变化的场景,参考图4是本公开根据另一示例性实施例示出的一种信息显示的方法实施例的步骤流程图,可以包括如下步骤:
步骤401,获取显示对象对应的关联信息;
步骤402,确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
步骤403,将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域;
步骤404,判断所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿是否发生变化;若是,则返回执行步骤402及步骤403;若否,则结束流程。
在实现中,可以通过SLAM算法定时(例如,1秒检测1000次位姿)获取透视近眼显示设备和/或显示对象的位姿信息,并根据该位姿信息与上一周期获得的位姿信息比较来判断透视近眼显示设备和/或显示对象的位姿是否发生变化。
在实际中,当用户移动透视近眼显示设备时可以引起透视近眼显示设备的位姿变化。当用户与显示对象交互时,例如,用户通过手柄或者手势交互拖拽显示对象,如将显示对象从FOV右边拖动到FOV左边,则会引起显示对象位姿变化。
当检测到透视近眼显示设备和/或显示对象的位姿变化时,可以返回执行步骤402,以重新确定显示对象在透视近眼显示设备的视场范围内的目标显示区域,进而根据该重新确定的目标显示区域执行步骤403确定关联信息的显示区域。
例如,以图3中的位姿作为设备和显示对象的原始位姿,图5及图6示出了设备和显示对象的相对位置(朝向、距离)发生变化时,引起的关联信息的空间显示位置的变化。
本实施例可以根据设备和/或显示对象的位姿变化,对关联信息的显示位置进行适应性更新,使得关联信息的显示始终适配设备的显示能力,从而更好地提高了设备的显示能力。
与前述信息显示的方法的实施例相对应,本公开还提供了信息显示的装置及其所应用的显示设备的实施例。
如图7所示,图7是本公开根据一示例性实施例示出的一种信息显示的装置的框图,所述装置设置在透视近眼显示设备中,所述装置包括:关联信息获取模块701、目标显示区域确定模块702和关联信息显示模块703。
其中,所述关联信息获取模块701,被配置为获取显示对象对应的关联信息;
所述目标显示区域确定模块702,被配置为确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
所述关联信息显示模块703,被配置为将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
由上述实施例可见,关联信息获取模块701获得显示对象对应的关联信息以后,通过目标显示区域确定模块702确定显示对象在设备的视场范围内的目标显示区域,并通过关联信息显示模块703确定针对该显示对象的关联信息的显示位置为视场范围内除目标显示区域之外的没有显示内容的其他区域,使得显示对象及其关联信息在有限的视场范围内都可以很好地匹配设备的显示能力,以进行正常显示,从而提高了设备的显示能力。
如图8所示,图8是本公开根据另一示例性实施例示出的一种信息显示的装置的框图,该实施例在前述图7所示实施例的基础上,所述目标显示区域确定模块702可以包括至少一个下述子模块:地图构建子模块7021、位姿信息获取子模块7022、视场范围确定子模块7023以及目标区域确定子模块7024。
其中,所述地图构建子模块7021,被配置为构建所述透视近眼显示设备所处环境的地图;
所述位姿信息获取子模块7022,被配置为分别获取所述透视近眼显示设备以及所述显示对象在所述地图下的位姿信息;
所述视场范围确定子模块7023,被配置为根据所述透视近眼显示设备的视场角以及所述透视近眼显示设备的位姿信息,确定所述透视近眼显示设备的视场范围;
所述目标区域确定子模块7024,被配置为根据所述显示对象的位姿信息,确定所述显示对象在所述视场范围内的重叠区域,作为所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。
由上述实施例可见,目标显示区域确定模块702可以SLAM算法确定显示对象在设备的视场范围内的目标显示区域。其中,可以先通过地图构建子模块7021构建透视近眼显示设备所处环境的地图,然后通过位姿信息获取子模块7022分别获取透视近眼显示设备以及显示对象在上述地图下的位姿信息,并通过视场范围确定子模块7023确定透视近眼显示设备的视场范围,最后通过目标区域确定子模块7024根据所述显示对象的位姿信息确定显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。通过SLAM算法来确定显示对象的目标显示区域,可以提高显示对象定位的准确性,从而提升透视近眼显示设备的性能。
如图9所示,图9是本公开根据又一示例性实施例示出的一种信息显示的装置的框图,该实施例在前述图7所示实施例的基础上,所述装置还包括:更新模块704。
其中,所述更新模块704,被配置为当所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿发生变化时,更新所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,以根据更新的所述目标显示区域,重新确定所述关联信息的显示区域。
由上述实施例可见,通过更新模块704可以检测设备和/或显示对象的位姿变化,并根据上述变化对关联信息的显示位置进行适应性更新,使得关联信息的显示始终适配设备的显示能力,从而更好地提高了设备的显示能力。
如图10所示,图10是本公开根据再一示例性实施例示出的一种信息显示的装置的框图,该实施例在前述图7所示实施例的基础上,所述关联信息显示模块703可以包括至少一个下述子模块:属性确定子模块7031以及显示子模块7032。
其中,所述属性确定子模块7031,被配置为确定所述关联信息的显示属性,所述显示属性包括所述关联信息所需的显示区域大小;
所述显示子模块7032,被配置为从所述视场范围内除所述目标显示区域之外的区域中,选取一与所述关联信息所需的显示区域大小适配的区域显示所述关联信息。
由上述实施例可见,在进行关联信息显示时,首先可以通过属性确定子模块7031确定关联信息所需的显示区域大小等显示属性,然后通过关联区域确定子模块7032从视场范围内除目标显示区域之外的其他区域中,选取一与关联信息所需的显示区域大小适配的区域,作为关联信息显示区域,并通过显示子模块7033在关联信息显示区域中显示关联信息,确保显示关联信息的区域能够显示完整的关联信息。
在一种可选实施方式中,关联信息获取模块701被配置为:通过扫描所述显示对象对应的二维码图像,或者,从所述显示对象附带的元信息中,获得所述显示对象对应的关联信息。
由上述实施例可见,关联信息可以设置在二维码图像或者元信息中,便于设备获取关联信息,提高关联信息的获取效率。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
如图11所示,图11是本公开根据一示例性实施例示出的一种显示设备1100的框图。该设备1100可以是AR、MR等设备。
参照图11,设备1100可以包括以下一个或多个组件:处理组件1102,存储器1104,电源组件1106,多媒体组件1108,音频组件1110,输入/输出(I/O)的接口1112,传感器组件1114,以及通信组件1116。
处理组件1102通常控制设备1100的整体操作,诸如与显示,数据通信,相机操作和记录操作相关联的操作。处理组件1102可以包括一个或多个处理器1120来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1102可以包括一个或多个模块,便于处理组件1102和其他组件之间的交互。例如,处理组件1102可以包括多媒体模块,以方便多媒体组件1108和处理组件1102之间的交互。
存储器1104被配置为存储各种类型的数据以支持在设备1100的操作。这些数据的示例包括用于在设备1100上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1104可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1106为设备1100的各种组件提供电力。电源组件1106可以包括电源管理系统,一个或多个电源,及其他与为设备1100生成、管理和分配电力相关联的组件。
多媒体组件1108包括在所述设备1100和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1108包括一个摄像头摄像头。当设备1100处于操作模式,如拍摄模式或视频模式时,摄像头可以接收外部的多媒体数据。每个摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1110被配置为输出和/或输入音频信号。例如,音频组件1110包括一个麦克风(MIC),当设备1100处于操作模式,如记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1104或经由通信组件1116发送。在一些实施例中,音频组件1110还包括一个扬声器,用于输出音频信号。
I/O接口1112为处理组件1102和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1114包括一个或多个传感器,用于为设备1100提供各个方面的状态评估。例如,传感器组件1114可以检测到设备1100的打开/关闭状态,组件的相对定位,例如所述组件为设备1100的显示器,传感器组件1114还可以检测设备1100或设备1100中一个组件的位置改变,用户与设备1100接触的存在或不存在,设备1100方位或加速/减速和设备1100的温度变化。传感器组件1114可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1114还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1114还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1116被配置为便于设备1100和其他设备之间有线或无线方式的通信。设备1100可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1116经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1116还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备1100可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1104,上述指令可由设备1100的处理器1120执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
其中,当所述存储介质中的指令由所述处理器执行时,使得设备1100能够执行一种信息显示的方法,包括:获取显示对象对应的关联信息;确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
以上所述仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。
Claims (10)
1.一种信息显示的方法,其特征在于,所述方法应用在透视近眼显示设备中,所述方法包括:
获取显示对象对应的关联信息;
确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
2.根据权利要求1所述的方法,其特征在于,所述确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,包括:
构建所述透视近眼显示设备所处环境的地图;
分别获取所述透视近眼显示设备以及所述显示对象在所述地图下的位姿信息;
根据所述透视近眼显示设备的视场角以及所述透视近眼显示设备的位姿信息,确定所述透视近眼显示设备的视场范围;
根据所述显示对象的位姿信息,确定所述显示对象在所述视场范围内的重叠区域,作为所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。
3.根据权利要求2所述的方法,其特征在于,还包括:
当所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿发生变化时,更新所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,以根据更新的所述目标显示区域,重新确定所述关联信息的显示区域。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域,包括:
确定所述关联信息的显示属性,所述显示属性包括所述关联信息所需的显示区域大小;
从所述视场范围内除所述目标显示区域之外的区域中,选取一与所述关联信息所需的显示区域大小适配的区域显示所述关联信息。
5.根据权利要求1所述的方法,其特征在于,所述获取显示对象对应的关联信息,包括:
通过扫描所述显示对象对应的二维码图像,或者,从所述显示对象附带的元信息中,获得所述显示对象对应的关联信息。
6.一种信息显示的装置,其特征在于,所述装置设置在透视近眼显示设备中,所述装置包括:
关联信息获取模块,被配置为获取显示对象对应的关联信息;
目标显示区域确定模块,被配置为确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
关联信息显示模块,被配置为将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
7.根据权利要求6所述的装置,其特征在于,所述目标显示区域确定模块包括:
地图构建子模块,被配置为构建所述透视近眼显示设备所处环境的地图;
位姿信息获取子模块,被配置为分别获取所述透视近眼显示设备以及所述显示对象在所述地图下的位姿信息;
视场范围确定子模块,被配置为根据所述透视近眼显示设备的视场角以及所述透视近眼显示设备的位姿信息,确定所述透视近眼显示设备的视场范围;
目标区域确定子模块,被配置为根据所述显示对象的位姿信息,确定所述显示对象在所述视场范围内的重叠区域,作为所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域。
8.根据权利要求7所述的装置,其特征在于,还包括:
更新模块,被配置为当所述透视近眼显示设备和/或所述显示对象在所述地图下的位姿发生变化时,更新所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域,以根据更新的所述目标显示区域,重新确定所述关联信息的显示区域。
9.根据权利要求6-8任一项所述的装置,其特征在于,所述关联信息显示模块包括:
属性确定子模块,被配置为确定所述关联信息的显示属性,所述显示属性包括所述关联信息所需的显示区域大小;
显示子模块,被配置为从所述视场范围内除所述目标显示区域之外的区域中,选取一与所述关联信息所需的显示区域大小适配的区域显示所述关联信息。
10.一种显示设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取显示对象对应的关联信息;
确定所述显示对象在所述透视近眼显示设备的视场范围内的目标显示区域;
将所述关联信息显示在所述视场范围内除所述目标显示区域之外的没有显示内容的其他区域。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811331018.4A CN109582134B (zh) | 2018-11-09 | 2018-11-09 | 信息显示的方法、装置及显示设备 |
US16/677,973 US10931926B2 (en) | 2018-11-09 | 2019-11-08 | Method and apparatus for information display, and display device |
EP19208069.5A EP3651144A1 (en) | 2018-11-09 | 2019-11-08 | Method and apparatus for information display, and display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811331018.4A CN109582134B (zh) | 2018-11-09 | 2018-11-09 | 信息显示的方法、装置及显示设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109582134A true CN109582134A (zh) | 2019-04-05 |
CN109582134B CN109582134B (zh) | 2021-07-23 |
Family
ID=65921879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811331018.4A Active CN109582134B (zh) | 2018-11-09 | 2018-11-09 | 信息显示的方法、装置及显示设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10931926B2 (zh) |
EP (1) | EP3651144A1 (zh) |
CN (1) | CN109582134B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111625093A (zh) * | 2020-05-19 | 2020-09-04 | 昆明埃舍尔科技有限公司 | 一种海量数字点云数据在mr眼镜中的动态调度显示方法 |
CN113568595A (zh) * | 2021-07-14 | 2021-10-29 | 上海炬佑智能科技有限公司 | 基于ToF相机的显示器组件的控制方法、装置、设备和介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178191B (zh) * | 2019-11-11 | 2022-01-11 | 贝壳找房(北京)科技有限公司 | 信息播放方法、装置、计算机可读存储介质及电子设备 |
US11080862B2 (en) * | 2019-11-18 | 2021-08-03 | Ncku Research And Development Foundation | Reliability based keyframe switching system and method adaptable to ICP |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102446048A (zh) * | 2010-09-30 | 2012-05-09 | 联想(北京)有限公司 | 信息处理设备以及信息处理方法 |
US20130321255A1 (en) * | 2012-06-05 | 2013-12-05 | Mathew J. Lamb | Navigating content in an hmd using a physical object |
CN105426035A (zh) * | 2014-09-15 | 2016-03-23 | 三星电子株式会社 | 用于提供信息的方法和电子装置 |
CN107615227A (zh) * | 2015-05-26 | 2018-01-19 | 索尼公司 | 显示装置、信息处理系统以及控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101793628B1 (ko) * | 2012-04-08 | 2017-11-06 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 디스플레이 방법 |
KR102051656B1 (ko) | 2013-01-22 | 2019-12-03 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 디스플레이 방법 |
US10567641B1 (en) * | 2015-01-19 | 2020-02-18 | Devon Rueckner | Gaze-directed photography |
US10740971B2 (en) * | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
US10578869B2 (en) * | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
WO2019084325A1 (en) * | 2017-10-27 | 2019-05-02 | Magic Leap, Inc. | VIRTUAL RETICLE FOR INCREASED REALITY SYSTEMS |
-
2018
- 2018-11-09 CN CN201811331018.4A patent/CN109582134B/zh active Active
-
2019
- 2019-11-08 US US16/677,973 patent/US10931926B2/en active Active
- 2019-11-08 EP EP19208069.5A patent/EP3651144A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102446048A (zh) * | 2010-09-30 | 2012-05-09 | 联想(北京)有限公司 | 信息处理设备以及信息处理方法 |
US20130321255A1 (en) * | 2012-06-05 | 2013-12-05 | Mathew J. Lamb | Navigating content in an hmd using a physical object |
CN105426035A (zh) * | 2014-09-15 | 2016-03-23 | 三星电子株式会社 | 用于提供信息的方法和电子装置 |
CN107615227A (zh) * | 2015-05-26 | 2018-01-19 | 索尼公司 | 显示装置、信息处理系统以及控制方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111625093A (zh) * | 2020-05-19 | 2020-09-04 | 昆明埃舍尔科技有限公司 | 一种海量数字点云数据在mr眼镜中的动态调度显示方法 |
CN113568595A (zh) * | 2021-07-14 | 2021-10-29 | 上海炬佑智能科技有限公司 | 基于ToF相机的显示器组件的控制方法、装置、设备和介质 |
CN113568595B (zh) * | 2021-07-14 | 2024-05-17 | 上海炬佑智能科技有限公司 | 基于ToF相机的显示器组件的控制方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
US10931926B2 (en) | 2021-02-23 |
US20200154085A1 (en) | 2020-05-14 |
CN109582134B (zh) | 2021-07-23 |
EP3651144A1 (en) | 2020-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11699271B2 (en) | Beacons for localization and content delivery to wearable devices | |
US11640235B2 (en) | Additional object display method and apparatus, computer device, and storage medium | |
US10021297B2 (en) | Mobile terminal and control method thereof | |
JP6605000B2 (ja) | 三次元オブジェクト表示のためのアプローチ | |
KR101433305B1 (ko) | 증강 현실 환경을 위한 모바일 디바이스 기반 콘텐츠 맵핑 | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
US9880640B2 (en) | Multi-dimensional interface | |
US9437038B1 (en) | Simulating three-dimensional views using depth relationships among planes of content | |
KR101695809B1 (ko) | 이동 단말기 및 그 제어방법 | |
CN109582134A (zh) | 信息显示的方法、装置及显示设备 | |
US20150187137A1 (en) | Physical object discovery | |
EP2974509B1 (en) | Personal information communicator | |
CN111742281B (zh) | 用于针对显示在显示器上的第一内容提供根据外部对象的移动的第二内容的电子装置及其操作方法 | |
CN110321048A (zh) | 三维全景场景信息处理、交互方法及装置 | |
US20150063785A1 (en) | Method of overlappingly displaying visual object on video, storage medium, and electronic device | |
CN112150560A (zh) | 确定消失点的方法、装置及计算机存储介质 | |
KR102250087B1 (ko) | 영상을 처리하는 방법, 디바이스 및 기록매체 | |
US20230326147A1 (en) | Helper data for anchors in augmented reality | |
KR20140078083A (ko) | 증강 현실이 구현된 만화책 | |
KR102096883B1 (ko) | 광고 제공방법 및 이를 수행하는 시스템 | |
KR20180012992A (ko) | 영상을 처리하는 방법, 디바이스 및 기록매체 | |
KR20230082699A (ko) | 무용수와 상호 작용하는 로보틱 미디어 공연 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |