CN113870213A - 图像显示方法、装置、存储介质以及电子设备 - Google Patents

图像显示方法、装置、存储介质以及电子设备 Download PDF

Info

Publication number
CN113870213A
CN113870213A CN202111124261.0A CN202111124261A CN113870213A CN 113870213 A CN113870213 A CN 113870213A CN 202111124261 A CN202111124261 A CN 202111124261A CN 113870213 A CN113870213 A CN 113870213A
Authority
CN
China
Prior art keywords
image
display
display area
angle
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111124261.0A
Other languages
English (en)
Inventor
孙世攀
张聪
胡震宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Huole Science and Technology Development Co Ltd
Original Assignee
Shenzhen Huole Science and Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Huole Science and Technology Development Co Ltd filed Critical Shenzhen Huole Science and Technology Development Co Ltd
Priority to CN202111124261.0A priority Critical patent/CN113870213A/zh
Publication of CN113870213A publication Critical patent/CN113870213A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

本公开涉及一种图像显示方法、装置、存储介质以及电子设备,涉及图像技术领域,该方法包括:获取用户的人眼相对于显示区域的当前视线角度;根据当前视线角度,确定与当前视线角度相匹配的目标显示图像,其中,目标显示图像的图像内容为原始图像中与当前视线角度相匹配的子图像;在显示区域上显示目标显示图像。本公开的有益效果是:可以跟随用户的视线变化显示原始图像在不同视线角度下的子图像,营造出三维显示效果,以提高用户在使用显示设备时的用户体验。

Description

图像显示方法、装置、存储介质以及电子设备
技术领域
本公开涉及图像技术领域,具体地,涉及一种图像显示方法、装置、存储介质以及电子设备。
背景技术
目前,在平面中呈现三维效果一般是基于遮挡图像对原图像进行遮挡,从而形成视觉差,产生三维效果。但是,相关技术中,图像的内容不会随着用户的视角变化而变化,用户在正面观看图像时的三维效果强于用户在侧面观看图像时的三维效果。
发明内容
本公开的目的是提供一种图像显示方法、装置、存储介质以及电子设备,以显示具有三维效果的图像。
根据本公开实施例的第一方面,提供了一种图像显示方法,包括:
获取用户的人眼相对于显示区域的当前视线角度;
根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,其中,所述目标显示图像的图像内容为原始图像中与所述当前视线角度相匹配的子图像;
在所述显示区域上显示所述目标显示图像。
在一些实施例中,所述显示区域包括第一显示层和第二显示层,所述第二显示层叠加于所述第一显示层的上层;
在所述显示区域上显示所述目标显示图像,包括:
在所述第一显示层中显示背景图像,以及在所述第二显示层中显示前景图像,以使所述背景图像与所述前景图像叠加形成三维效果。
在一些实施例中,所述方法还包括:
获取所述人眼与所述显示区域之间的距离;
根据所述距离调整所述背景图像的显示深度,获得调整后的背景图像;
所述在所述第一显示层中显示背景图像,以及在所述第二显示层中显示前景图像,包括:
在所述第一显示层中显示所述调整后的背景图像,以及在所述第二显示层显示所述前景图像。
在一些实施例中,所述显示区域还包括特效层,所述特效层位于所述第一显示层与所述第二显示层之间;所述方法还包括:
在所述特效层中显示特效图像,以使所述前景图像、所述背景图像以及所述特效图像叠加形成三维效果。
在一些实施例中,根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,包括:
根据所述当前视线角度,结合视线角度与所述原始图像中的子图像之间的映射关系,确定与所述当前视线角度相匹配的目标显示图像;
其中,所述映射关系包括每一不同视线角度对应一个所述原始图像在该视线角度下的子图像。
在一些实施例中,所述获取用户的人眼相对于显示区域的当前视线角度,包括:
通过摄像装置对用户进行拍摄,获取拍摄图像;
根据所述用户的人眼在所述拍摄图像中的位置信息以及深度信息,得到所述人眼相对于所述摄像装置的第一位置信息;
基于所述摄像装置与显示区域之间的相对位置关系,结合所述第一位置信息,得到所述人眼相对于所述显示区域的当前视线角度。
在一些实施例中,所述基于所述摄像装置与显示区域之间的相对位置关系,结合所述第一位置信息,得到所述人眼相对于所述显示区域的当前视线角度,包括:
在所述显示区域为投影设备的投影区域时,基于所述摄像装置与所述投影设备之间的相对位置关系,结合所述第一位置信息,获得所述人眼相对于所述投影设备的第二位置信息;
根据所述第二位置信息以及所述投影设备与被投影平面之间的位置关系,获得所述人眼相对于所述显示区域的当前视线角度。
根据本公开实施例的第二方面,提供了一种图像显示装置,包括:
获取模块,配置为获取用户的人眼相对于显示区域的当前视线角度;
图像模块,配置为根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,其中,所述目标显示图像的图像内容为原始图像中与所述当前视线角度相匹配的子图像;
显示模块,配置为在所述显示区域上显示所述目标显示图像。
根据本公开实施例的第三方面,提供了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开第一方面所述方法的步骤。
根据本公开实施例的第四方面,提供了一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,通过获取用户的人眼相对于显示区域的当前视线角度,并根据该当前视线角度在显示区域上显示对应的目标显示图像,可以跟随用户的视线变化显示原始图像在不同视线角度下的子图像,营造出三维显示效果,以提高用户在使用显示设备时的用户体验。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据本公开一示例性实施例提供的图像显示方法的流程图;
图2是根据本公开一示例性实施例提供的视线角度的示意图;
图3是根据本公开另一示例性实施例提供的视线角度的示意图;
图4是根据本公开一示例性实施例提供的确定当前视线角度的流程示意图;
图5是根据本公开一示例性实施例提供的背景图像与前景图像的示意图;
图6是根据本公开一示例性实施例提供的第一显示层与第二显示层叠加形成三维效果的示意图;
图7是根据本公开一示例性实施例提出的图像显示装置的结构示意图;
图8是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
图1是根据本公开一示例性实施例提供的图像显示方法的流程图。如图1所示,本公开实施例提供一种图像显示方法,该方法可以应用于电子设备,其中,电子设备可以是投影设备或显示屏等具有图像显示功能的设备。该图像显示方法可以包括以下步骤。
在步骤110中,获取用户的人眼相对于显示区域的当前视线角度。
这里,显示区域是指电子设备形成的用于展示图像的区域,当电子设备为显示屏时,该显示区域可以是指显示屏的图像显示区域,当电子设备为投影设备时,该显示区域可以是指投影设备在被投影平面(墙面/幕布)上形成的图像显示区域。
图2是根据本公开一示例性实施例提供的视线角度的示意图。如图2所示,当前视线角度可以是指在当前时刻下,用户的人眼与显示区域的中心点的连线与水平线之间的夹角。其中,该夹角体现用户的视野范围的变化。用户的人眼相对于显示区域的视线角度是与用户的空间位置相关的,当用户的位置发生变化,用户的当前视线角度发生变化,从而引起用户的视野范围的变化。
图3是根据本公开另一示例性实施例提供的视线角度的示意图。如图3所示,L点为用户的人眼,面JKMN为显示区域,当前视线角度可以是指用户的人眼与显示区域各个顶点之间的连线与显示区域的角度。例如,在图3中,当前视线角度包括向量LN与显示区域JKMN之间的角度、向量LM与显示区域JKMN之间的角度、向量LK与显示区域JKMN之间的角度以及向量LJ与显示区域JKMN之间的角度。应当理解的是,向量LN、向量LM、向量LK以及向量LJ构成用户的人眼的视野范围,当用户的人眼的位置发生变化时,视野范围也随之变化。
值得说明的是,图3中显示区域JKMN为矩形仅用于对当前视线角度进行说明,并不限制显示区域的形状。例如,显示区域的形状可以是正方形、圆形、三角形或其他规则以及不规则的形状。
图4是根据本公开一示例性实施例提供的确定当前视线角度的流程示意图。如图4所示,在一些实施例中,步骤110中,获取用户的人眼相对于显示区域的当前视线角度,可以包括以下步骤。
在步骤111中,通过摄像装置对用户进行拍摄,获取拍摄图像。
这里,摄像装置可以是设置在电子设备上的拍摄设备,例如,当电子设备是显示屏时,摄像装置可以是设置在显示屏上的摄像头。当然,摄像装置也可以不是设置在电子设备上的拍摄设备,例如,当电子设备是投影设备时,摄像装置可以设置在显示区域附近,用于跟踪用户的人眼。
在步骤112中,根据用户的人眼在拍摄图像中的位置信息以及深度信息,得到人眼相对于摄像装置的第一位置信息。
这里,在获取到拍摄图像之后,可以将拍摄图像作为训练好的神经网络模型的输入,获得根据用户的人眼在拍摄图像中的位置信息以及深度信息。其中,该神经网络模型可以是基于标注有人眼所在位置以及深度信息的训练样本对机器学习模型进行训练获得的。当然,在一些实施例中,也可以根据双目摄像头对用户进行拍摄,然后对拍摄到的图像进行目标检测,以确定用户的人眼相对于摄像装置的第一位置信息。
在步骤113中,基于摄像装置与显示区域之间的相对位置关系,结合第一位置信息,得到人眼相对于显示区域的当前视线角度。
这里,由于摄像装置以及显示区域的位置在空间中是固定的,所以在获得第一位置信息之后,可以根据摄像装置与显示区域之间的相对位置关系,将用户的人眼的第一位置信息转换为用户的人眼相对于显示区域的位置,然后根据该位置确定用户的人眼相对于显示区域的当前视线角度。
其中,当显示区域是显示屏时,电子设备可以根据空间定位技术来获取显示屏与摄像装置之间的位置关系。例如,通过WiFi定位技术获取显示屏与摄像装置在空间中的位置。当显示区域是投影设备投影形成的投影区域时,可以先确定投影设备的位置,然后根据被投影平面(墙面/幕布)的位置以及投影设备的位置,确定显示区域的位置,从而确定摄像装置与显示区域之间的相对位置关系。
在一些实施例中,当显示区域为投影设备的投影区域时,可以基于摄像装置与投影设备之间的相对位置关系,结合第一位置信息,获得用户的人眼相对于投影设备的第二位置信息。然后根据该第二位置信息和投影设备与被投影平面之间的位置关系,获得用户的人眼相对于显示区域的当前视线角度。
这里,第二位置信息是指用户的人眼在投影设备所在的参考坐标系中的位置,在该参考坐标系中,根据投影设备与被投影平面之间的位置关系,获得投影设备投影在被投影平面上的投影区域的位置,从而在该参考坐标系中确定出用户的人眼相对于显示区域的当前视线角度。
其中,在一些实施例中,投影设备可以基于设置在投影设备上的飞行时间传感器对被投影平面进行测量,从而确定得到被投影平面与投影设备的相对位置关系。
在步骤120中,根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,其中,所述目标显示图像的图像内容为原始图像中与所述当前视线角度相匹配的子图像。
这里,对于不同的视线角度可以对应不同的显示图像,在获取到当前视线角度之后,可以根据当前视线角度确定对应的目标显示图像。其中,根据当前视线角度确定到的目标显示图像是原始图像上与当前视线角度相匹配的子图像。
应当理解的是,用户的人眼相对于显示区域的当前视线角度相当于用户的人眼透过显示区域能够看到的区域的当前视野范围,在原始图像中,每一个子图像对于一个视线角度,该子图像相当于在该视线角度下用户的人眼透过显示区域能够看到的图像内容。当用户的人眼相对于显示区域的当前视线角度发生变化时,对应的目标显示图像也会发生变化。
在一些实施例中,可以根据当前视线角度,结合视线角度与原始图像中的子图像之间的映射关系,确定与该当前视线角度相匹配的目标显示图像;其中,该映射关系包括每一不同视线角度对应一个原始图像在该视线角度下的子图像。
这里,针对原始图像,可以在不同的视线角度下拍摄该原始图像中包含的目标对象(包括景物、人物以及物品等)的图像,得到多个子图像,然后为每个子图像匹配对应的视线角度,建立视线角度与子图像之间的映射关系。在获得人眼相对于显示区域的当前视线角度之后,可以根据该当前视线角度在该映射关系中查找对应的子图像,得到目标显示图像。在另一些实施方式中,原始图像可以是全景图像,例如,可以拍摄一张包含目标对象的全景图像,然后为该全景图像的不同子图像区域匹配对应视线角度,在确定到用户的人眼相对于显示区域的当前视线角度之后,可以根据该当前视线角度在该全景图像中确定对应的子图像,并将该子图像确定为目标显示图像。应当理解的是,每一不同视线角度对应一个原始在该视线角度下的子图像可以理解为,在一张包含目标对象的大尺寸图像中,根据当前视线角度,确定用户的视野范围在该大尺寸图像中的位置,该位置的图像即为与当前视线角度相匹配的子图像。
应当理解的是,在当前视线角度是图2所示的用户的人眼与显示区域的中心点的连线与水平线之间的夹角时,可以根据预设的视野范围以及该夹角确定视野范围在大尺寸图像中的位置,从而确定目标显示图像。其中,该预设的视野范围可以是统计的不同人群的人眼的可视范围。
在当前视线角度是图3所示的向量LN、向量LM、向量LK以及向量LJ与显示区域之间的夹角的情况下,可以将面JKMN作为用户的视野范围,结合向量LN、向量LM、向量LK以及向量LJ与显示区域之间的夹角,确定用户的视野范围在大尺寸图像中的位置,从而确定目标显示图像。
在步骤130中,在显示区域上显示目标显示图像。
这里,在确定到目标显示图像之后,在该显示区域上显示该目标显示图像。其中,当显示区域为显示屏时,直接在该显示屏上显示目标显示图像,当显示区域为投影设备投影形成的图像显示区域时,控制投影设备投影该目标显示图像,以在该显示区域上显示目标显示图像。
应当理解的是,本公开实施例提供的图像显示方法可以实时检测用户的人眼相对于显示区域的当前视线角度,然后根据当前视线角度显示不同的目标显示图像,从而营造出用户在显示区域上看到的图像为三维图像的效果。例如,将显示区域理解为窗户,将原始图像理解为窗外的景物,针对不同的视线角度,用户透过窗户能够看到的同一景物的角度会不同,从而营造出三维效果。
由此,通过获取用户的人眼相对于显示区域的当前视线角度,并根据该当前视线角度在显示区域上显示对应的目标显示图像,可以跟随用户的视线变化显示原始图像在不同视线角度下的子图像,营造出三维显示效果,以提高用户在使用显示设备时的用户体验。
在一些实施例中,显示区域可以包括第一显示层和第二显示层,该第二显示层叠加于该第一显示层的上层。步骤130中,在显示区域上显示目标显示图像,可以包括:
在第一显示层中显示背景图像,以及在第二显示层中显示前景图像,以使背景图像与前景图像叠加形成三维效果。
这里,第一显示层和第二显示层可以分别理解为一个独立的视频播放器,第一显示层显示的目标显示图像为背景图像,第二显示层显示的目标显示图像为前景图像,背景图像与前景图像叠加,形成三维效果。其中,前景图像可以是不随当前视线角度变化而变化的,也可以是随当前视线角度变化而变化的。例如,可以根据当前视线角度确定对应的前景图像。
图5是根据本公开一示例性实施例提供的背景图像与前景图像的示意图。如图5所示,在图5的(a)部分中,背景图像为在第一视线角度下的第一景物图像,前景图像为第一前景图像,该第一前景图像为窗户。窗户与第一景物图像叠加,形成三维效果。在图5的(b)部分中,背景图像为在第二视线角度下的第二景物图像,前景图像为第二前景图像,该第二前景图像为窗户。当用户的人眼的位置发生变化时,相对于显示区域的视线角度从第一视线角度变化为第二视线角度,导致背景图像中的景物图像发生变化,从第一景物图像变化为第二景物图像。此时,第二前景图像可以为第一前景图像。即在用户的人眼相对于显示区域的视线角度变化时,窗户外的景物图像随着视线角度的变化而变化,形成动态的三维效果。
值得说明的是,在实际应用场景中,显示区域不仅可以包括第一显示层和第二显示层,还可以包括至少三层显示层,针对每一显示层,均可以根据该显示层在至少三层显示层中的位置关系设计不同的显示图像,以实现更佳的三维显示效果。
下面,结合附图6对第一显示层和第二显示层呈现三维效果的原理进行详细说明。
图6是根据本公开一示例性实施例提供的第一显示层与第二显示层叠加形成三维效果的示意图,如图6所示,面ZBVX为原始图像,面GHIJ为第一显示层,面CDEF为第二显示层,点A为人眼的位置,当点A变化时,点A与点C、D、E、F构成的射线与第一显示层GHIJ的交点构成的可视区域范围在原始图像ZBVX上的位置会有所不同,从而确定到的子图像有所不同。由于第一显示层与第二显示层处于同一个平面上,导致背景图像发生变化,由此,可以通过对用户的人眼进行跟踪,以根据用户的视线角度来实时调整第一显示层显示的图像内容,以在用户处于不同视线角度观看显示区域的情况下,均能够呈现三维效果。
在一些实施例中,该图像显示方法还可以获取用户的人眼与显示区域之间的距离,根据该距离对背景图像的显示深度进行调整,获得调整后的背景图像,并在第一显示层中显示该调整后的背景图像以及在第二显示层中显示前景图像。
这里,根据近大远小的原理,当用户的人眼与显示区域之间的距离不同时,用户所看到的背景图像的大小也会有所不同,特别是对于背景图像中处于较近位置处的目标对象,用户与显示区域之间的距离对图像影响更大。显示深度可以理解为目标对象在背景图像中的景深。当用户的人眼与显示区域之间的距离越近,目标对象在背景图像中的景深越浅,当用户的人眼与显示区域之间的距离越远,目标对象在背景图像中的景深越深。
应当理解的是,根据人眼与显示区域之间的距离对背景图像的显示深度进行调整可以是根据背景图像中的各个目标对象在图像中的深度进行不同的显示深度的调整。例如,对于背景图像中处于第一深度范围内的目标对象,显示深度调整为第一显示深度,处于第二深度范围内的目标对象调整为第二显示深度。其中,第一深度范围小于第二深度范围,第一显示深度大于显示深度。即显示深度调整的原理可以是对于处于较近深度范围的目标对象进行大范围的调整,对于处于较远深度范围的目标对象进行较小调整或不调整。例如,在图6中,当A点靠近显示区域CDEF时,显示区域CDEF中的第一显示层的背景图像被放大,但是前景图像不变,呈现用户向前景图像靠近的效果。
由此,通过根据用户的人眼与显示区域之间的距离对背景图像的显示深度进行调整,可以使得显示区域显示的图像能够根据用户的距离位置进行变化,以显示更好的三维效果。
在一些实施例中,该显示区域还可以包括特效层,该特效层位于第一显示层与第二显示层之间。在第一显示层显示背景图像和在第二显示层显示前景图像时,还可以在该特效层中显示特效图像,以使背景显示图像、前景图像和特效图像叠加形成三维效果。
这里,特效图像可以是根据背景图像以及前景图像的场景确定的用于增强三维效果的图像。例如,当背景图像为景色图像、前景图像为窗户时,特效图像可以是根据景物这一场景制作的下雨、下雪以及雾气等特效图像。
应当理解的是,特效图像也可以根据当前视线角度确定,对于不同的当前视线角度,对应显示不同的特效图像。其中,根据当前视线角度确定特效图像的原理与根据当前视线角度确定目标显示图像的原理一致,在此不再详细说明。
由此,通过在特效层中显示特效图像,背景图像、前景图像以及特效图像叠加形成更好的三维效果。
图7是根据本公开一示例性实施例提出的图像显示装置的结构示意图。如图7所示,本公开提出的图像显示装置可以包括:
获取模块601,配置为获取用户的人眼相对于显示区域的当前视线角度;
图像模块602,配置为根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,其中,所述目标显示图像的图像内容为原始图像中与所述当前视线角度相匹配的子图像;
显示模块603,配置为在所述显示区域上显示所述目标显示图像。
在一些实施例中,显示区域包括第一显示层和第二显示层,第二显示层叠加于第一显示层的上层;
显示模块603包括:
第一显示单元,配置为在所述第一显示层中显示背景图像,以及在所述第二显示层中显示前景图像,以使所述背景图像与所述前景图像叠加形成三维效果。
在一些实施例中,装置还包括:
距离模块,配置为获取人眼与显示区域之间的距离;
调整模块,配置为根根据所述距离调整所述背景图像的显示深度,获得调整后的背景图像;
第一显示单元具体配置为:在所述第一显示层中显示所述调整后的背景图像,以及在所述第二显示层显示所述前景图。
在一些实施例中,显示区域还包括特效层,特效层位于第一显示层与第二显示层之间;装置还包括:
第二显示单元,配置为在所述特效层中显示特效图像,以使所述前景图像、所述背景图像以及所述特效图像叠加形成三维效果。
在一些实施例中,图像模块602具体配置为:根据所述当前视线角度,结合视线角度与所述原始图像中的子图像之间的映射关系,确定与所述当前视线角度相匹配的目标显示图像;
其中,所述映射关系包括每一不同视线角度对应一个所述原始图像在该视线角度下的子图像。
在一些实施例中,获取模块601包括:
拍摄单元,配置为通过摄像装置对用户进行拍摄,获取拍摄图像;
第一位置确定单元,配置为根据用户的人眼在拍摄图像中的位置信息以及深度信息,得到人眼相对于摄像装置的第一位置信息;
第一角度确定单元,配置为基于摄像装置与显示区域之间的相对位置关系,结合第一位置信息,得到人眼相对于显示区域的当前视线角度。
在一些实施例中,角度确定单元包括:
第二位置确定单元,配置为在显示区域为投影设备的投影区域时,基于摄像装置与投影设备之间的相对位置关系,结合第一位置信息,获得人眼相对于投影设备的第二位置信息;
第二角度确定单元,配置为根据第二位置信息以及投影设备与被投影平面之间的位置关系,获得人眼相对于显示区域的当前视线角度。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图8是根据一示例性实施例示出的一种电子设备的框图。如图8所示,该电子设备700可以包括:处理器701,存储器702。该电子设备700还可以包括多媒体组件703,输入/输出(I/O)接口704,以及通信组件705中的一者或多者。
其中,处理器701用于控制该电子设备700的整体操作,以完成上述的图像显示方法中的全部或部分步骤。存储器702用于存储各种类型的数据以支持在该电子设备700的操作,这些数据例如可以包括用于在该电子设备700上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如显示图像、映射关系等等。该存储器702可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static RandomAccess Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件703可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器702或通过通信组件705发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口704为处理器701和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件705用于该电子设备700与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件705可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在一示例性实施例中,电子设备700可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的图像显示方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的图像显示方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器702,上述程序指令可由电子设备700的处理器701执行以完成上述的图像显示方法。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的图像显示方法的代码部分。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。

Claims (10)

1.一种图像显示方法,其特征在于,包括:
获取用户的人眼相对于显示区域的当前视线角度;
根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,其中,所述目标显示图像的图像内容为原始图像中与所述当前视线角度相匹配的子图像;
在所述显示区域上显示所述目标显示图像。
2.根据权利要求1所述的图像显示方法,其特征在于,所述显示区域包括第一显示层和第二显示层,所述第二显示层叠加于所述第一显示层的上层;
在所述显示区域上显示所述目标显示图像,包括:
在所述第一显示层中显示背景图像,以及在所述第二显示层中显示前景图像,以使所述背景图像与所述前景图像叠加形成三维效果。
3.根据权利要求2所述的图像显示方法,其特征在于,所述方法还包括:
获取所述人眼与所述显示区域之间的距离;
根据所述距离调整所述背景图像的显示深度,获得调整后的背景图像;
所述在所述第一显示层中显示背景图像,以及在所述第二显示层中显示前景图像,包括:
在所述第一显示层中显示所述调整后的背景图像,以及在所述第二显示层显示所述前景图像。
4.根据权利要求2所述的图像显示方法,其特征在于,所述显示区域还包括特效层,所述特效层位于所述第一显示层与所述第二显示层之间;所述方法还包括:
在所述特效层中显示特效图像,以使所述前景图像、所述背景图像以及所述特效图像叠加形成三维效果。
5.根据权利要求1所述的图像显示方法,其特征在于,根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,包括:
根据所述当前视线角度,结合视线角度与所述原始图像中的子图像之间的映射关系,确定与所述当前视线角度相匹配的目标显示图像;
其中,所述映射关系包括每一不同视线角度对应一个所述原始图像在该视线角度下的子图像。
6.根据权利要求1至5中任一项所述的图像显示方法,其特征在于,所述获取用户的人眼相对于显示区域的当前视线角度,包括:
通过摄像装置对用户进行拍摄,获取拍摄图像;
根据所述用户的人眼在所述拍摄图像中的位置信息以及深度信息,得到所述人眼相对于所述摄像装置的第一位置信息;
基于所述摄像装置与显示区域之间的相对位置关系,结合所述第一位置信息,得到所述人眼相对于所述显示区域的当前视线角度。
7.根据权利要求6所述的图像显示方法,其特征在于,所述基于所述摄像装置与显示区域之间的相对位置关系,结合所述第一位置信息,得到所述人眼相对于所述显示区域的当前视线角度,包括:
在所述显示区域为投影设备的投影区域时,基于所述摄像装置与所述投影设备之间的相对位置关系,结合所述第一位置信息,获得所述人眼相对于所述投影设备的第二位置信息;
根据所述第二位置信息以及所述投影设备与被投影平面之间的位置关系,获得所述人眼相对于所述显示区域的当前视线角度。
8.一种图像显示装置,其特征在于,包括:
获取模块,配置为获取用户的人眼相对于显示区域的当前视线角度;
图像模块,配置为根据所述当前视线角度,确定与所述当前视线角度相匹配的目标显示图像,其中,所述目标显示图像的图像内容为原始图像中与所述当前视线角度相匹配的子图像;
显示模块,配置为在所述显示区域上显示所述目标显示图像。
9.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1-7中任一项所述方法的步骤。
CN202111124261.0A 2021-09-24 2021-09-24 图像显示方法、装置、存储介质以及电子设备 Pending CN113870213A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111124261.0A CN113870213A (zh) 2021-09-24 2021-09-24 图像显示方法、装置、存储介质以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111124261.0A CN113870213A (zh) 2021-09-24 2021-09-24 图像显示方法、装置、存储介质以及电子设备

Publications (1)

Publication Number Publication Date
CN113870213A true CN113870213A (zh) 2021-12-31

Family

ID=78994093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111124261.0A Pending CN113870213A (zh) 2021-09-24 2021-09-24 图像显示方法、装置、存储介质以及电子设备

Country Status (1)

Country Link
CN (1) CN113870213A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114566132A (zh) * 2022-02-28 2022-05-31 北京京东方显示技术有限公司 参数处理方法、装置、电子设备及计算机可读存储介质
CN115103114A (zh) * 2022-06-16 2022-09-23 京东方科技集团股份有限公司 全景视频的视角跟踪方法、装置、设备和介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114566132A (zh) * 2022-02-28 2022-05-31 北京京东方显示技术有限公司 参数处理方法、装置、电子设备及计算机可读存储介质
CN115103114A (zh) * 2022-06-16 2022-09-23 京东方科技集团股份有限公司 全景视频的视角跟踪方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
US10223834B2 (en) System and method for immersive and interactive multimedia generation
US10242454B2 (en) System for depth data filtering based on amplitude energy values
US20190221041A1 (en) Method and apparatus for synthesizing virtual and real objects
KR20210154814A (ko) 패스 쓰루 이미징을 갖는 헤드 마운트 디스플레이
US9392248B2 (en) Dynamic POV composite 3D video system
TW202013149A (zh) 擴增實境的影像展示方法、裝置及設備
TW201602611A (zh) 使用微功率脈衝雷達之移動顯示位置與方向的測定
CN110377148B (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
CN109453517B (zh) 虚拟角色控制方法和装置、存储介质、移动终端
CN104204848B (zh) 具有测距相机的勘测设备
CN107562189B (zh) 一种基于双目摄像头的空间定位方法及服务设备
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
JP2017129904A (ja) 情報処理装置、情報処理方法、及び記録媒体
KR101690646B1 (ko) 시 스루 디스플레이를 위한 카메라 구동 장치 및 그 방법
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
WO2019055388A1 (en) 4D CAMERA TRACKING AND OPTICAL STABILIZATION
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
TW202025719A (zh) 圖像處理方法及裝置、電子設備及儲存介質
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
JP6168597B2 (ja) 情報端末装置
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
CN113485547A (zh) 一种应用于全息沙盘的交互方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination