CN112748796A - 显示方法及显示装置 - Google Patents
显示方法及显示装置 Download PDFInfo
- Publication number
- CN112748796A CN112748796A CN201911045922.3A CN201911045922A CN112748796A CN 112748796 A CN112748796 A CN 112748796A CN 201911045922 A CN201911045922 A CN 201911045922A CN 112748796 A CN112748796 A CN 112748796A
- Authority
- CN
- China
- Prior art keywords
- display device
- image
- axis coordinate
- point
- image area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000003993 interaction Effects 0.000 abstract description 5
- 210000000887 face Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Abstract
本申请公开了一种显示方法及显示装置。显示方法包括以下步骤:获取观看者面部的特征点的空间坐标;以所述空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;以所述图像区域作为显示装置的显示图像。上述方案,根据观看点的不同,从预先构建的三维模型中确定被观察到的图像区域,并以确定的图像区域作为显示装置的显示图像,也即只要观测点改变,则显示装置的显示图像即会改变,也就是说,随着观看者与显示装置之间的位置改变,显示装置的显示图像亦发生改变,实现了观看者与显示装置之间的交互。
Description
技术领域
本发明一般涉及显示技术领域,具体涉及一种显示方法及显示装置。
背景技术
现有的显示装置一般都是按照一定的播放源来进行播放显示,其与观看者之间不存在互动,即无论观看者相对于显示装置的位置是否改变,均不能对显示装置的显示图像带来改变,观看者只能被动的观看显示装置按照播放源所显示的图像。
发明内容
本申请期望提供一种显示方法及显示装置,用于在观看者在与显示装置之间的位置发生改变时,改变显示装置的显示图像。
第一方面,本发明提供一种显示方法,包括以下步骤:
获取观看者面部的特征点的空间坐标;
以所述空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;
以所述图像区域作为显示装置的显示图像。
进一步地,所述三维模型以所述显示装置的显示范围作为观察窗,于所述观察窗背离观看者的一侧设置预置图像,所述观察窗与所述预置图像所在平面之间距离为预设值。
进一步地,根据以下关系式确定所述图像区域:
其中,Mx为所述特征点的x轴坐标,My为所述特征点的y轴坐标,Ix为所述显示装置顶点的x轴坐标,Iy为所述显示装置顶点的y轴坐标,I'x为所述图像区域顶点的x轴坐标,I'y为所述图像区域顶点的y轴坐标,z为所述特征点到所述显示装置的距离,d为所述预设值。
进一步地,根据以下关系式确定所述图像区域内各像素点映射到所述显示装置的坐标:
其中,Mx为所述特征点的x轴坐标,My为所述特征点的y轴坐标,N'x为所述图像区域的像素点N'的x轴坐标,N'y为所述图像区域的像素点N'的y轴坐标,Nx为所述特征点与像素点N'的连线与所述显示装置交点N的x轴坐标,Ny为所述特征点与像素点N'的连线与所述显示装置交点的y轴坐标,z为所述特征点到所述显示装置的距离,d为所述预设值。
进一步地,所述获取观看者面部的特征点的空间坐标之前,还包括:
获取显示装置背离所述预置图像一侧的深度图像;
对所述深度图像进行人脸识别,若识别出多个人脸,则将距离显示装置最近的人脸作为观看者。
第二方面,本发明提供一种显示装置,包括:
获取单元,用于获取观看者面部的特征点的空间坐标;
图像区域确定单元,用于以所述空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;
驱动单元,用于以所述图像区域作为显示装置的显示图像。
进一步地,所述三维模型以所述显示装置的显示范围作为观察窗,于所述观察窗背离观看者的一侧设置预置图像,所述观察窗与所述预置图像所在平面之间距离为预设值。
进一步地,所述图像区域确定单元,用于根据以下关系式确定所述图像区域:
其中,Mx为所述特征点的x轴坐标,My为所述特征点的y轴坐标,Ix为所述显示装置顶点的x轴坐标,Iy为所述显示装置顶点的y轴坐标,I'x为所述图像区域顶点的x轴坐标,I'y为所述图像区域顶点的y轴坐标,z为所述特征点到所述显示装置的距离,d为所述预设值。
进一步地,所述驱动单元,用于根据以下关系式确定所述图像区域内各像素点映射到所述显示装置的坐标:
其中,Mx为所述特征点的x轴坐标,My为所述特征点的y轴坐标,N'x为所述图像区域的像素点N'的x轴坐标,N'y为所述图像区域的像素点N'的y轴坐标,Nx为所述特征点与像素点N'的连线与所述显示装置交点N的x轴坐标,Ny为所述特征点与像素点N'的连线与所述显示装置交点的y轴坐标,z为所述特征点到所述显示装置的距离,d为所述预设值。
进一步地,图像获取单元,用于获取显示装置背离所述预置图像一侧的深度图像;
图像识别单元,用于对所述深度图像进行人脸识别,若识别出多个人脸,则将距离显示装置最近的人脸作为观看者。
上述方案,根据观看点的不同,从预先构建的三维模型中确定被观察到的图像区域,并以确定的图像区域作为显示装置的显示图像,也即只要观测点改变,则显示装置的显示图像即会改变,也就是说,随着观看者与显示装置之间的位置改变,显示装置的显示图像亦发生改变,实现了观看者与显示装置之间的交互。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为实施本发明实施例应用场景示意图;
图2为本发明实施例提供的显示方法的流程图;
图3为本发明另一实施例提供的显示方法的流程图;
图4为本发明实施例提供的显示装置的原理图;
图5为本发明另一实施例提供的显示装置的原理图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1为本发明实施例示出的一种应用场景示意图。该应用场景中设置以显示装置,显示装置可以但不限于为LCD(Liquid Crystal Display;液晶显示器)、LED(Light-Emitting Diode;发光二极管)显示器、OLED(Organic Light-Emitting Diode;有机发光二极管)显示器、QLED(Quantum Dot Light Emitting Diodes;量子点发光二极管)显示器等。观看者位于显示装置前进行观看。其中,以ABCD所标识的区域为显示装置的显示边界,在观看点M时,观看者在显示装置中看到的是A’B’C’D’图像区域的显示图像,当移动至观看点M’时,观看者在显示装置中看到的是A”B”C”D”图像区域的显示图像。在该应用场景中,显示装置可以作为虚拟的视窗(也可以认为是虚拟的窗户),观看者通过显示装置进行显示图像的观看,相当于其站在窗口向窗外观看,随着其在显示装置前位置的变动,其观看到的视野也发生相应的变化。在该应用场景中,实现了观看者与显示装置的交互,随着观看者位置的改变,显示装置显示不同视野的显示图像。
如图2所示,本发明实施例提供一种显示方法,可以应用于上述场景,具体包括以下步骤:
S10:获取观看者面部的特征点的空间坐标;
在显示装置上或显示装置的前方设置可以获取深度图像的摄像机,通过摄像机来获得显示装置前方的深度图像,通过图像识别的方式识别深度图像中观看者面部的特征点。例如但不限于可以通过MTCNN(Multi-Task Cascaded Convolutional Networks;多任务级联卷积神经网络)模型识别观看者面部的特征点,采用该模型具有识别速度快和追踪稳定等优点。通过该模型可以识别双眼、鼻子及嘴角这五个关键点。可以将该5个关键点中的至少任一作为特征点,还可以将任意两个连线的中点作为特征点,该实施例中以双眼连线的中点作为特征点,以双眼连线的中点作为特征点为后续确定图像区域来进行显示。
例如但不限于,可以以显示装置的中心作为原点坐标,在进行结构设计时确定摄像机相对于原点坐标的坐标,也即摄像机相对于显示装置的位置是已知的。
在图像识别领域,对于任一相机都有一个相机坐标系,在该相机坐标系内可以确定通过该相机拍摄的各帧图像中各像素的相机坐标系的坐标,该相机坐标系的坐标包括平面坐标和深度坐标。特征点的空间坐标即为特征点在相机坐标系内的坐标与相机在原点坐标系内坐标之和。例如,相机坐标系的原点位于原点坐标系的X-Y轴平面呢,那么特征点在相机坐标系内的深度坐标值,也即特征点距离显示装置的距离。
S20:以所述空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;
在预先构建的三维模型中可以根据需要选定所要进行显示的图像,该图像可以是静态的也可以是动态的。参见图1,在观察点M透过显示装置,确定了所要显示的图像区域A’B’C’D’,一般地,图像区域A’B’C’D’仅为选定所要进行显示的图像的一部分。
S30:以所述图像区域作为显示装置的显示图像。
将选定的图像区域作为显示图像,通过显示装置来显示该显示图像。
上述方案,根据观看点的不同,从预先构建的三维模型中确定被观察到的图像区域,并以确定的图像区域作为显示装置的显示图像,也即只要观测点改变,则显示装置的显示图像即会改变,也就是说,随着观看者与显示装置之间的位置改变,显示装置的显示图像亦发生改变,实现了观看者与显示装置之间的交互。
进一步地,三维模型以显示装置的显示范围作为观察窗,于观察窗背离观看者的一侧设置预置图像,观察窗与预置图像所在平面之间距离为预设值。
预置图像可以是静态的也可以是动态的,例如但不限于,为图1中所示的建筑物的图像,也可以是其他的风景图像或物品图像等。
进一步地,可以根据以下关系式确定图像区域:
其中,Mx为特征点的x轴坐标,My为特征点的y轴坐标,Ix为显示装置顶点的x轴坐标(顶点A的x轴坐标可以表示为IAx,顶点B的x轴坐标可以表示为IBx,其他顶点坐标依次类推),Iy为显示装置顶点的y轴坐标(顶点A的y轴坐标可以表示为IAy,顶点B的y轴坐标可以表示为IBy,其他顶点坐标依次类推),I'x为图像区域顶点的x轴坐标(顶点A’的x轴坐标可以表示为I’Ax,顶点B’的x轴坐标可以表示为I’Bx,其他顶点坐标依次类推),I'y为图像区域顶点的y轴坐标(顶点A’的y轴坐标可以表示为I’Ay,顶点B’的y轴坐标可以表示为I’By,其他顶点坐标依次类推),z为特征点到显示装置的距离,也即特征点的深度坐标,d为预设值。
其中,显示装置各顶点的坐标是已知的,其是在显示装置设计阶段确定下来的。在确定特征点的空间坐标后,根据上述关系式可以确定显示装置各顶点A、B、C、D在三维模型中所对应的像点A’、B’、C’、D’的坐标,像点A’、B’、C’、D’连线所围成的区域即为在预先构建的三维模型中被观察到的图像区域。
进一步地,为了在显示装置内显示上述的显示图像,就需要确定显示图像各像素在显示装置中对应的像素坐标,根据以下关系式确定图像区域内各像素点映射到显示装置的坐标:
其中,Mx为特征点的x轴坐标,My为特征点的y轴坐标,N'x为图像区域的像素点N'的x轴坐标,N'y为图像区域的像素点N'的y轴坐标,Nx为特征点与像素点N'的连线与显示装置交点N的x轴坐标,Ny为特征点与像素点N'的连线与显示装置交点的y轴坐标,z为特征点到显示装置的距离,d为预设值。
在上述步骤中,确定了像点A’、B’、C’、D’的坐标后,基于预置图像的分辨率,可以确定预置图像内有多少像素及各像素的坐标。例如但不限于,A’、B’、C’、D’的坐标依次为(-100,50)、(100,50)、(100,-50)、(-100,-50),A’至B’方向有200像素,A’至C’方向有100像素,像素是以矩形形式排布的,则A’至B’方向的像素坐标依次为(-100,50)、(-99,50)……(99,50)、(100,50);A’至C’方向的像素坐标依次为(-100,50)、(-100,49)……(-100,-49)、(-100,-50)。在确定显示图像各像素的坐标后,根据上述关系式可以确定各像素映射到显示装置中对应的像素坐标。
进一步地,如图3所示,在获取观看者面部的特征点的空间坐标之前,还包括:
S101:获取显示装置背离所述预置图像一侧的深度图像;
通过可以获取深度图像的摄像机获取显示装置背离预置图像一侧的深度图像。
S102:对所述深度图像进行人脸识别,若识别出多个人脸,则将距离显示装置最近的人脸作为观看者。通过MTCNN模型进行人脸识别并获得特征点坐标。将距离显示装置最近的人脸作为观看者,可以使得在多人位于显示装置前进行观看时,因不能确定唯一的观看者而出现图像抖动的问题。
另外,需要说明的是,再进行人脸识别时,若当前帧中为识别出有人脸,则进行下一帧的识别,直至识别出人脸,并获取所识别人脸特征点的空间坐标。
如图4所述,本发明实施例还提供一种显示装置,包括:获取单元1用于获取观看者面部的特征点的空间坐标;图像区域确定单元2用于以空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;驱动单元3用于以图像区域作为显示装置的显示图像。
该显示装置用于实施上述方法实施例,其原理及效果参见上述方法实施例,这里不再赘述。
进一步地,三维模型以所述显示装置的显示范围作为观察窗,于所述观察窗背离观看者的一侧设置预置图像,所述观察窗与所述预置图像所在平面之间距离为预设值。
进一步地,图像区域确定单元用于根据以下关系式确定所述图像区域:
其中,Mx为所述特征点的x轴坐标,My为所述特征点的y轴坐标,Ix为所述显示装置顶点的x轴坐标,Iy为所述显示装置顶点的y轴坐标,I'x为所述图像区域顶点的x轴坐标,I'y为所述图像区域顶点的y轴坐标,z为所述特征点到所述显示装置的距离,d为所述预设值。
进一步地,驱动单元用于根据以下关系式确定所述图像区域内各像素点映射到所述显示装置的坐标:
其中,Mx为所述特征点的x轴坐标,My为所述特征点的y轴坐标,N'x为所述图像区域的像素点N'的x轴坐标,N'y为所述图像区域的像素点N'的y轴坐标,Nx为所述特征点与像素点N'的连线与所述显示装置交点N的x轴坐标,Ny为所述特征点与像素点N'的连线与所述显示装置交点的y轴坐标,z为所述特征点到所述显示装置的距离,d为所述预设值。
进一步地,另参见图5所示,图像获取单元5用于获取显示装置背离所述预置图像一侧的深度图像;图像识别单元4用于对所述深度图像进行人脸识别,若识别出多个人脸,则将距离显示装置最近的人脸作为观看者。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种显示方法,其特征在于,包括以下步骤:
获取观看者面部的特征点的空间坐标;
以所述空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;
以所述图像区域作为显示装置的显示图像。
2.根据权利要求1所述的显示方法,其特征在于,所述三维模型以所述显示装置的显示范围作为观察窗,于所述观察窗背离观看者的一侧设置预置图像,所述观察窗与所述预置图像所在平面之间距离为预设值。
5.根据权利要求2-4任一项所述的显示方法,其特征在于,所述获取观看者面部的特征点的空间坐标之前,还包括:
获取显示装置背离所述预置图像一侧的深度图像;
对所述深度图像进行人脸识别,若识别出多个人脸,则将距离显示装置最近的人脸作为观看者。
6.一种显示装置,其特征在于,包括:
获取单元,用于获取观看者面部的特征点的空间坐标;
图像区域确定单元,用于以所述空间坐标作为观看点,确定预先构建的三维模型中被观察到的图像区域;
驱动单元,用于以所述图像区域作为显示装置的显示图像。
7.根据权利要求6所述的显示装置,其特征在于,所述三维模型以所述显示装置的显示范围作为观察窗,于所述观察窗背离观看者的一侧设置预置图像,所述观察窗与所述预置图像所在平面之间距离为预设值。
10.根据权利要求7-9任一项所述的显示装置,其特征在于,
图像获取单元,用于获取显示装置背离所述预置图像一侧的深度图像;
图像识别单元,用于对所述深度图像进行人脸识别,若识别出多个人脸,则将距离显示装置最近的人脸作为观看者。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911045922.3A CN112748796B (zh) | 2019-10-30 | 2019-10-30 | 显示方法及显示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911045922.3A CN112748796B (zh) | 2019-10-30 | 2019-10-30 | 显示方法及显示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112748796A true CN112748796A (zh) | 2021-05-04 |
CN112748796B CN112748796B (zh) | 2024-02-20 |
Family
ID=75641803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911045922.3A Active CN112748796B (zh) | 2019-10-30 | 2019-10-30 | 显示方法及显示装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112748796B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102917232A (zh) * | 2012-10-23 | 2013-02-06 | 深圳创维-Rgb电子有限公司 | 基于人脸识别的3d显示自适应调节方法和装置 |
CN103019507A (zh) * | 2012-11-16 | 2013-04-03 | 福州瑞芯微电子有限公司 | 一种基于人脸跟踪改变视点角度显示三维图形的方法 |
KR20130057383A (ko) * | 2011-11-23 | 2013-05-31 | 한국과학기술연구원 | 관찰자에게 최적시청영역을 표시해주는 3차원 디스플레이 시스템 |
US20130155051A1 (en) * | 2011-12-14 | 2013-06-20 | Kenichi Shimoyama | Image display apparatus and method, computer program product, and image processing device |
CN103947199A (zh) * | 2011-11-16 | 2014-07-23 | 株式会社东芝 | 图像处理装置、立体图像显示设备、图像处理方法和图像处理程序 |
CN105719586A (zh) * | 2016-03-18 | 2016-06-29 | 京东方科技集团股份有限公司 | 透明显示方法和透明显示装置 |
KR20170113066A (ko) * | 2016-03-24 | 2017-10-12 | 삼성전자주식회사 | 디스플레이를 가진 전자 장치 및 그의 이미지 표시 방법 |
CN107506032A (zh) * | 2017-08-17 | 2017-12-22 | 深圳市华星光电半导体显示技术有限公司 | 基于透明显示器的增强现实显示方法和装置 |
KR20180050473A (ko) * | 2016-11-04 | 2018-05-15 | 삼성디스플레이 주식회사 | 표시 장치 |
CN108282650A (zh) * | 2018-02-12 | 2018-07-13 | 深圳超多维科技有限公司 | 一种裸眼立体显示方法、装置、系统及存储介质 |
CN108616736A (zh) * | 2016-12-29 | 2018-10-02 | 深圳超多维科技有限公司 | 用于立体显示的跟踪定位方法及装置 |
CN110297333A (zh) * | 2019-07-08 | 2019-10-01 | 中国人民解放军陆军装甲兵学院 | 一种光场显示系统调节方法及系统 |
-
2019
- 2019-10-30 CN CN201911045922.3A patent/CN112748796B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103947199A (zh) * | 2011-11-16 | 2014-07-23 | 株式会社东芝 | 图像处理装置、立体图像显示设备、图像处理方法和图像处理程序 |
KR20130057383A (ko) * | 2011-11-23 | 2013-05-31 | 한국과학기술연구원 | 관찰자에게 최적시청영역을 표시해주는 3차원 디스플레이 시스템 |
US20130155051A1 (en) * | 2011-12-14 | 2013-06-20 | Kenichi Shimoyama | Image display apparatus and method, computer program product, and image processing device |
CN102917232A (zh) * | 2012-10-23 | 2013-02-06 | 深圳创维-Rgb电子有限公司 | 基于人脸识别的3d显示自适应调节方法和装置 |
CN103019507A (zh) * | 2012-11-16 | 2013-04-03 | 福州瑞芯微电子有限公司 | 一种基于人脸跟踪改变视点角度显示三维图形的方法 |
CN105719586A (zh) * | 2016-03-18 | 2016-06-29 | 京东方科技集团股份有限公司 | 透明显示方法和透明显示装置 |
KR20170113066A (ko) * | 2016-03-24 | 2017-10-12 | 삼성전자주식회사 | 디스플레이를 가진 전자 장치 및 그의 이미지 표시 방법 |
KR20180050473A (ko) * | 2016-11-04 | 2018-05-15 | 삼성디스플레이 주식회사 | 표시 장치 |
CN108616736A (zh) * | 2016-12-29 | 2018-10-02 | 深圳超多维科技有限公司 | 用于立体显示的跟踪定位方法及装置 |
CN107506032A (zh) * | 2017-08-17 | 2017-12-22 | 深圳市华星光电半导体显示技术有限公司 | 基于透明显示器的增强现实显示方法和装置 |
CN108282650A (zh) * | 2018-02-12 | 2018-07-13 | 深圳超多维科技有限公司 | 一种裸眼立体显示方法、装置、系统及存储介质 |
CN110297333A (zh) * | 2019-07-08 | 2019-10-01 | 中国人民解放军陆军装甲兵学院 | 一种光场显示系统调节方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112748796B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6968084B2 (en) | Specific point detecting method and device | |
US20170132806A1 (en) | System and method for augmented reality and virtual reality applications | |
US9848184B2 (en) | Stereoscopic display system using light field type data | |
US9398278B2 (en) | Graphical display system with adaptive keystone mechanism and method of operation thereof | |
CN113170136A (zh) | 重投影帧的运动平滑 | |
WO2015048906A1 (en) | Augmented reality system and method for positioning and mapping | |
US10634918B2 (en) | Internal edge verification | |
KR20200056721A (ko) | 증강현실 기기의 광학 특성 측정 방법 및 장치 | |
JP6061334B2 (ja) | 光学式シースルー型hmdを用いたarシステム | |
CN111095348A (zh) | 基于摄像头的透明显示器 | |
Peterson et al. | Visual clutter management in augmented reality: Effects of three label separation methods on spatial judgments | |
CN112748796B (zh) | 显示方法及显示装置 | |
WO2014119555A1 (ja) | 画像処理装置、表示装置及びプログラム | |
JP6846165B2 (ja) | 画像生成装置、画像表示システム及びプログラム | |
CN114967170B (zh) | 基于柔性裸眼三维显示设备的显示处理方法及其装置 | |
CN107403406B (zh) | 实体影像与虚拟影像之间转换的方法及其系统 | |
US11495151B2 (en) | Illusion presentation system, and illusion presentation method | |
JP2013168781A (ja) | 表示装置 | |
JP2005165283A (ja) | 地図表示装置 | |
US11182973B2 (en) | Augmented reality display | |
JP2008040265A (ja) | 画像の表示方法及び表示装置 | |
CN112087616A (zh) | 生成二维光场图像的方法、装置和计算机可读介质 | |
US11900621B2 (en) | Smooth and jump-free rapid target acquisition | |
CN113568700B (zh) | 显示画面调整方法、装置、计算机设备和存储介质 | |
US11636645B1 (en) | Rapid target acquisition using gravity and north vectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |