CN108932058B - 显示方法、装置及电子设备 - Google Patents

显示方法、装置及电子设备 Download PDF

Info

Publication number
CN108932058B
CN108932058B CN201810698654.4A CN201810698654A CN108932058B CN 108932058 B CN108932058 B CN 108932058B CN 201810698654 A CN201810698654 A CN 201810698654A CN 108932058 B CN108932058 B CN 108932058B
Authority
CN
China
Prior art keywords
image
viewer
scene
area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810698654.4A
Other languages
English (en)
Other versions
CN108932058A (zh
Inventor
佟妍妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201810698654.4A priority Critical patent/CN108932058B/zh
Publication of CN108932058A publication Critical patent/CN108932058A/zh
Priority to US16/457,342 priority patent/US11113857B2/en
Application granted granted Critical
Publication of CN108932058B publication Critical patent/CN108932058B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供了一种显示方法、装置及电子设备,基于第一场景显示第一图像;检测是否满足第一条件;至少基于所述第一条件的满足,显示第二图像;其中,第一图像是对应第一场景中第一局部的图像,第一局部和第二局部不同。由于第二图像包括表征观看者的人物图像及第一场景中第二局部的图像,所以观看者可以看到自己融入第一场景的第二图像,从而使得观看者能够看到自身体验虚拟场景或增强现实场景的情景,从而增加观看者在虚拟场景中的沉浸感。

Description

显示方法、装置及电子设备
技术领域
本申请涉及图像处理技术领域,更具体的涉及显示方法、装置及电子设备。
背景技术
目前很多电子设备可以基于虚拟现实技术(VirtualReality,VR)或增强现实技术(AR,Augmented Reality),为用户展现虚拟场景,电子设备可以为电视机、笔记本电脑、台式机、智能手机或穿戴式设备等。
用户可以通过电子设备体验虚拟场景,但是用户体验虚拟场景的过程中,用户沉浸感较差。
发明内容
有鉴于此,本申请提供了一种显示方法、装置及电子设备。
为实现上述目的,本申请提供如下技术方案:
一种显示方法,包括:
基于第一场景显示第一图像;
检测是否满足第一条件;
至少基于所述第一条件的满足,显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,所述第一局部和所述第二局部不同。
其中,所述至少基于所述第一条件的满足,显示第二图像,包括:
响应于所述第一条件的满足,触发图像切换操作;
将所述第一场景中第一方位的所述第一图像,切换为所述第一场景中第二方位的所述第二局部的图像,其中,所述第一方位与所述第二方位不同;
获得所述观看者的人物图像;
显示所述第二图像。
其中,所述第一方位与所述第二方位为同一位置的相反朝向。
其中,所述检测是否满足第一条件,包括:
检测观看者的输入动作是否属于预设动作;或,
检测观看者是否观测所述第一图像中具有设定为能反射光线功能的虚拟物体;或
检测观看者是否观测所述第一图像中具有设定为能采集并显示采集功能的虚拟设备。
其中,获得观看者的所述人物图像包括下列中的至少一种:
获得摄像头采集的观看者的真实图像,得到所述人物图像;
或,
获得摄像头采集的观看者的真实图像;将所述真实图像进行修正,得到所述人物图像;
或,
获得所述观看者的用户账号的账号图像,得到所述人物图像;
或,
获得所述观看者的用户账号的账号图像;将所述账号图像进行修正,得到所述人物图像。
其中,所述显示所述第二图像包括:
获取用于表征所述观看者在所述第一场景的人物方位;
基于所述人物方位与所述第一方位,将所述人物图像融入所述第一场景的第二局部的图像的相应位置,得到所述第二图像。
其中,所述显示第二图像,包括:
在显示区域的第二区域显示所述第二图像,所述第二区域为所述显示区域的全屏区域或局部区域。
其中,所述在显示区域的第二区域显示所述第二图像,包括:
在所述显示区域的第一区域显示所述第一图像,在所述显示区域的第二区域显示所述第二图像;其中,所述第一区域与所述第二区域为所述显示区域中不同的局部区域,或,所述第二区域为所述第一区域中的局部区域,或,所述第一区域为所述第二区域中的局部区域。
一种显示装置,包括:
第一显示模块,用于基于第一场景显示第一图像;
检测模块,用于检测是否满足第一条件;
第二显示模块,用于至少基于所述第一条件的满足,显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,所述第一局部和所述第二局部不同。
一种电子设备,包括:
显示器,用于显示图像;
存储器,用于存储程序;
处理器,用于执行所述程序,所述程序具体用于:
基于第一场景,控制所述显示器显示第一图像;
检测是否满足第一条件;
至少基于所述第一条件的满足,控制所述显示器显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,所述第一局部和所述第二局部不同。
经由上述的技术方案可知,与现有技术相比,本申请实施例提供了一种显示方法,基于第一场景显示第一图像;检测是否满足第一条件;至少基于所述第一条件的满足,显示第二图像;其中,第一图像是对应第一场景中第一局部的图像,第一局部和第二局部不同。由于第二图像包括表征观看者的人物图像及第一场景中第二局部的图像,所以观看者可以看到自己融入第一场景的第二图像,从而使得观看者能够看到自身体验虚拟场景或增强现实场景的情景,从而增加观看者在虚拟场景中的沉浸感。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的显示方法的一种实现方式的流程图;
图2a至图2d为本申请实施例提供的与第一场景相关图像的一种示例图;
图3为本申请实施例提供的观看者携带穿戴式设备体验第一场景的示意图;
图4为本申请实施例提供的至少基于所述第一条件的满足,显示第二图像的一种实现方式的流程图;
图5a至图5b为本申请实施例提供的第一场景相关图像的另一种示例图;
图6a至图6e为本申请实施例提供的第一场景相关图像的又一种示例图;
图7为本申请实施例提供的显示装置的一种实现方式的结构图;
图8为本申请实施例提供的电子设备的一种实现方式的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
随着虚拟现实技术(Virtual Reality,VR)或增强现实技术(AR,AugmentedReality)的快速发展,用户可以体验虚拟场景(虚拟场景可以为在现实世界的真实图像中加入的虚拟场景,或,虚拟现实技术对应的虚拟场景),例如,用户可以体验南极虚拟场景或恐龙世纪的虚拟场景。
目前,用户仅能体验虚拟场景,即观测虚拟场景中的景色或环境,但是用户并不能观测到自己体验虚拟场景或增强现实场景的情景。例如,若虚拟场景中有虚拟镜子,用户无法在虚拟镜子中看到自己,仅能看到虚拟场景中的镜子本身(无法实现现实世界中“照镜子”的效果);再例如,用户无法在第一场景中进行自拍,即使进行自拍,得到的也是用户在现实世界中的图像,而不是自身融合在第一场景中的图像,使得用户无法完全沉浸在虚拟场景中。
为了解决上述问题,本申请实施例提供了显示方法,本申请实施例提供的显示方法可以应用于电子设备,电子设备可以为头戴式显示设备,或,笔记本电脑,或,台式电脑,或,PAD,或,电视机等设备。
如图1所示,为本申请实施例提供的显示方法的一种实现方式的流程图,该方法包括:
步骤S101:基于第一场景显示第一图像。
第一图像可以为增强现实图像,增强现实图像是基于增强现实技术,将虚拟图像叠加至现实世界中的真实图像后的图像。
在一可选实施例中,电子设备包含的显示器可以显示虚拟图像,显示器不显示现实世界的真实图像,用户之所以能够看到真实图像,是因为现实世界的真实图像的光线投射至用户的眼睛。
在一可选实施例中,电子设备可以包括摄像头、场景生成器以及显示器,其中,摄像头可以实时录制现实世界的真实图像,场景生成器可以生成虚拟图像,显示器可以显示虚拟图像叠加至现实世界中的真实图像后的图像。
第一图像可以为虚拟图像,虚拟图像是指基于虚拟现实技术,电子设备的显示屏显示的图像。若第一图像为虚拟图像,第一场景可以是预先存储在电子设备中的,电子设备可以不包括实时录制现实世界的真实图像的摄像头。
一般情况下虚拟图像都不是当前现实世界的真实图像。
在一可选实施例中,第一图像是对应所述第一场景中第一局部的图像。
步骤S102:检测是否满足第一条件。
在一可选实施例中,第一条件可以为获取到表征需要展示观看者融入背景图像的信息。
下面对背景图像进行说明。
在一可选实施例中,假设第一图像是第一场景中第一局部的图像。本申请实施例中,将除第一场景中第一局部的图像之外的其他局部图像,称为背景图像。如图2a至图2d所示,为本申请实施例提供的与第一场景相关图像的一种示例图。
假设观看者21在第一场景中如图2a所示,观看者21正在观测第一场景中第一局部的图像即池塘图像,对于观看者21而言,观看者21当前只能看到图2b所示的第一图像(即池塘图像)。观看者21无法观测到如图2c所示第一场景中观看者背后方位的背景图像。
综上,背景图像可以为在当前显示第一图像的情况下,观看者无法看到的第一场景中的图像。
“检测是否满足第一条件”的实现方式有多种,本申请实施例提供但不限于以下几种。
第一种,检测是否满足第一条件的方式包括:检测检测观看者的输入动作是否属于预设动作。
可选的,第一条件为观看者的输入动作属于预设动作,可以应用于观看者在第一场景中进行自拍的应用场景。在此场景下,预设动作可以有多种,本申请实施例提供但不限于以下几种。
第一种预设动作——观看者假装握持设备的动作。
可以理解的是,在现实世界中,若观看者进行自拍,则需要拿出智能手机或相机或PAD等具有摄像头的设备,用手握持该设备进行自拍。类比现实世界,若观看者需要在第一场景中进行自拍,那么观看者可以作出假装握持设备的动作。
可选的,检测是否满足第一条件包括:
获取观看者在体验第一场景的过程中观看者的动作信息;
检测所述动作信息是否包括假装握持设备的动作;
若动作信息包括假装握持设备的动作,确定满足所述第一条件;
若动作信息不包括假装握持设备的动作,确定不满足所述第一条件。
可选的,“获取观看者在体验第一场景的过程中观看者的动作信息”的实现方式有两种,第一种为本申请实施例提供的显示方法应用的电子设备自己获得,第二种为其他电子设备获得该动作信息,并传输至本申请实施例提供的显示方法应用的电子设备。
针对第一种,可选的本申请实施例提供的显示方法应用的电子设备可以包括摄像头或智能手套(观看者在体验第一场景的过程中需要穿戴该智能手套),摄像头或智能手套可以获取观看者在体验第一场景的过程中观看者的动作信息。
例如,本申请实施例提供的显示方法应用的电子设备可以穿戴式设备,穿戴式设备可以包括头戴式显示设备以及智能手套,如图3所示,为本申请实施例提供的观看者携带穿戴式设备体验第一场景的示意图。
图3中穿戴式设备包括头戴式显示设备31以及智能手套32。
头戴式显示设备31可以显示第一场景中的图像,智能手套可以检测观看者的手的动作信息。
针对第二种,可选的,本申请实施例提供的显示方法应用的电子设备可以不包括用于获取观看者在体验第一场景的过程中观看者的动作信息的摄像头;其他电子设备可以具备获取观看者在体验第一场景的过程中观看者的动作信息的摄像头,并将所述动作信息传输至本申请实施例提供的显示方法应用的电子设备。
例如,本申请实施例提供的显示方法应用的电子设备为穿戴式设备(若该穿戴设备不具备智能手套或摄像头),则其他电子设备可以为笔记本电脑或智能电视或PAD或智能手机等具有摄像头的设备。
第二种预设动作——观看者握持虚拟设备的动作。
可选的,第一场景中可以包括设定为能采集并显示采集功能的虚拟设备。例如,虚拟设备可以为虚拟相机或虚拟智能手机或虚拟PAD或虚拟笔记本电脑或虚拟台式电脑等虚拟的具有摄像头和显示器的设备。虚拟设备还可以为带有自拍杆的具有摄像头和显示器的设备。
若观看者需要进行自拍,那么观看者可以去握持该虚拟设备。
可选的,检索是否满足第一条件包括:
确定所述第一图像中具有设定为能采集并显示采集功能的虚拟设备;
获取观看者在体验第一场景的过程中的动作信息;
基于所述虚拟设备在所述第一场景中的位置信息,以及所述观看者在所述第一场景中的动作信息,确定所述动作信息是否包括握持所述虚拟设备的动作。
可选的动作信息包括:观看者执行该动作的身体部位(例如手或脚)在所述第一场景中虚拟位置,和/或,动作姿势信息。例如,若观看者执行该动作的身体部位在所述第一场景中虚拟位置与虚拟设备的虚拟位置相同,且动作姿势是握持设备的姿势,则确定该动作信息包括握持所述虚拟设备的动作。
可选的,“获取观看者在体验第一场景的过程中的动作信息”的实现方式有两种,与第一种预设动作对应的两种方式相同,这里不再赘述。
第三种预设动作——观看者握持真实物体的动作。
可以理解的是,在现实世界中观看者可以握持自拍杆或智能手机或PAD等具有摄像头的设备进行自拍。观看者体验第一场景的过程中,若观看者需要进行自拍,观看者可以握持现实世界中真实存在的真实物体,该真实物体可以为现实世界真实存在的具有摄像头的真实设备,或,现实世界真实存在的类似于真实设备的物体,例如,棍子可以类比于自拍杆,铅笔盒可以类比智能手机等等。
可选的,检测是否满足第一条件包括:
获取观看者在体验第一场景的过程中的动作信息;
检测所述动作信息是否包括所述观看者握持真实物体的动作;
若所述动作信息包括所述观看者握持真实物体的动作,确定满足所述第一条件,否则不满足所述第一条件。
可选的,“获取观看者在体验第一场景的过程中的动作信息”的实现方式有两种,与第一种预设动作对应的两种方式相同,这里不再赘述。
第四种预设动作——观看者的预先设置的自拍动作。
可选的,观看者可以预先在电子设备中设置自拍对应的自拍动作,预先设置的动作可以为观看者在自拍时经常做出的动作,例如,观看者在自拍时经常做出“比耶”的动作,或,“捂肚子”的动作,或,“捂脸颊”的动作,或,“跳跃”的动作等,观看者可以预先将自己自拍时经常做出的动作中的一个或多个设置为自拍动作。
可选的,检测是否满足第一条件包括:
获取观看者在体验第一场景的过程中的动作信息;
检测所述动作信息是否属于预先设置的自拍动作;
若所述动作信息属于所述预先设置的自拍动作,确定满足所述第一条件,否则不满足所述第一条件。
可选的,“获取观看者在体验第一场景的过程中的动作信息”的实现方式有两种,与第一种预设动作对应的两种方式相同,这里不再赘述。
可选的,预先设置的自拍动作可以为不是观看者在自拍时经常做出的动作,可以是任一动作,这里不再赘述。
第二种,检测是否满足第一条件的方式包括:检测是否触按预设按键。
预设按键可以为位于现实世界的物理按键和/或第一场景中的虚拟按键。
第三种,检测是否满足第一条件的方式包括:检测观看者是否观测所述第一图像中具有设定为能反射光线功能的虚拟物体。
在一可选实施例中,设定为能反射光线功能的虚拟物体可以根据具体的第一场景而定,例如,虚拟物体可以为虚拟镜子,或,虚拟的水(例如,江河、湖泊、海洋等)。
第四种,检测是否满足第一条件的方式包括:检测观看者观测到第一图像中具有设定为能反射光线功能的虚拟物体;获取观看者与虚拟物体在所述第一场景中的虚拟距离;基于所述虚拟距离,确定是否满足第一条件。
可选的,基于所述虚拟距离,确定是否满足第一条件,可以包括:若所述虚拟距离小于或等于预设阈值,确定满足第一条件;若所述虚拟距离大于所述预设阈值,确定不满足第一条件。
可以理解的是,在现实场景中,若观看者与能反射光线功能的真实物体(例如镜子)较远,则观看者无法观测到真实物体显示的图像。当观看者与真实物体的距离逐渐减小时,观看者可以看到真实物体展示包含观看者的图像。类比真实现象,若观看者在第一场景中与虚拟物体的虚拟距离大于预设阈值(即在第一场景中观看者与虚拟物体的虚拟距离较远),即使观看者观测到第一图像中具有虚拟物体,也不满足第一条件。若观看者在第一场景中与虚拟物体的虚拟距离小于或等于预设阈值,且观看者观测到虚拟物体,则满足第一条件。
第五种,检测是否满足第一条件的方式包括:检测观看者是否观测所述第一图像中具有设定为能采集并显示采集功能的虚拟设备。
可选的,虚拟设备可以为虚拟相机或虚拟智能手机或虚拟PAD或虚拟笔记本电脑或虚拟台式电脑等虚拟的具有摄像头和显示器的设备。虚拟设备还可以为带有自拍杆的具有摄像头和显示器的设备。
步骤S103:至少基于所述第一条件的满足,显示第二图像。
其中,第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,所述第一局部和所述第二局部不同。
仍以图2a至图2c为例,图2d为第二图像。
可以理解的是,虽然图2d示出的示意图中包含人物图像的全身图像,但可以理解的是,第二图像也可以仅包括人物图像的局部,比如只包括人物图像的头部或者人物图像的上半身的图像等。
本申请实施例提供了一种显示方法,基于第一场景显示第一图像;检测是否满足第一条件;至少基于所述第一条件的满足,显示第二图像;其中,第一图像是对应第一场景中第一局部的图像,第一局部和第二局部不同。由于第二图像包括表征观看者的人物图像及第一场景中第二局部的图像,所以观看者可以看到自己融入第一场景的第二图像,从而使得观看者能够看到自身体验虚拟场景或增强现实场景的情景,从而增加观看者在虚拟场景中的沉浸感。
如图4所示,为本申请实施例提供的至少基于所述第一条件的满足,显示第二图像的一种实现方式的流程图,该方法包括:
步骤S401:响应于所述第一条件的满足,触发图像切换操作。
步骤S402:将所述第一场景中第一方位的所述第一图像,切换为所述第一场景中第二方位的所述第二局部的图像,其中,所述第一方位与所述第二方位不同。
第二方位的确定方法有多种,本申请实施例提供但不限于以下几种方法。
第一种,第二方位可以为与第一方位不同的任一方位。
例如,第一方位是相对于观看者而言,若第一方位为观看者的前方,第二方位可以为观看者后方,或,观看者左方,或,观看者右方,或,观看者上方,或观看者下方等等。
第二种,基于第一条件确定第二方位。
若第一条件为观看者的输入动作属于预设动作。在一可选实施例中,预设动作可以包括表征第二方位的动作,例如,若预设动作为观看者假装握持设备的动作,则在第一场景中,观看者的手掌朝向观看者的部分身体(例如头部,或,脚部)的方位为第二方位,或,若预设动作为观看者握持虚拟设备的动作,则虚拟设备的显示屏的朝向方位为第二方位,或,若预设动作为观看者握持真实物体的动作,则真实物体在第一场景中的虚拟位置指向观看者在第一场景中的虚拟位置的方位为第二方位。若预设动作为观看者预先设置的自拍动作,则第二方位可以为除第一方位外的任一方位。
可选的,若第一条件为观看者触按按键,则第二方位可以为除第一方位外的任一方位。
若第一条件为观看者观测到所述第一图像中具有设定为能采集并显示采集功能的虚拟设备,虚拟设备中采集图像的摄像头的朝向方向为第二方位。
若第一条件为观看者观测所述第一图像中具有设定为能反射光线功能的虚拟物体,可以基于虚拟物体和观看者在第一场景中的虚拟位置关系,得到所述第二方位。
第三种,基于第一方位确定第二方位。
第一方位与所述第二方位为同一位置的相反朝向。
下面对上述“同一位置”进行说明。
在一可选实施例中,“同一位置”是指目标物在第一场景中的虚拟位置。
目标物可以是指设定为能反射光线功能的虚拟物体,或,设定为能采集并显示采集功能的虚拟设备,或,观看者握持的真实物体,或,观看者的作出预设动作的身体部位。
可以理解的是,即使是同一第二方位,目标物在第一场景中的位置不同,得到的第二图像包含的内容的多少和/或大小不同。例如,第一场景中第二方位对应的第二局部的图像中距离目标物越近的物体,在第二图像中越大,距离目标物越远的物体在第二图像中越小。
可以理解的是,假设目标物为虚拟设备,虚拟设备包括虚拟摄像头,由于虚拟摄像头的FOV(fieldangle)有限,其能够覆盖的第一场景中第二方位的图像的范围有限,虚拟摄像头能够覆盖的图像可以收录在虚拟摄像头中,不能覆盖的图像不能够收录在摄像头中,虚拟摄像头在第一场景中的虚拟位置不同,虚拟摄像头能够覆盖的第一场景中第二方位的图像不同,得到的第二图像就不同。
可以理解的是,现实世界中的照镜子,用户照镜子时,观测镜子的视线方向不同,从镜子中看到的图像就不同;用户与镜子的距离不同,即使用户用同一视线方向观测镜子,从镜子中看到的图像也不同;假设目标物为虚拟物体,由于虚拟物体模拟反射光线的原理得到第二图像,类比现实世界中“照镜子”的例子,虚拟物体在第一场景中虚拟位置不同,得到的第二图像不同。
如图5a至图5b所示,为本申请实施例提供的第一场景相关图像的另一种示例图。
图5a所示的应用场景为:观看者观测到第一场景中的虚拟镜子51,虚拟镜子51为设定的能反射光线功能的虚拟物体。
图5a中填充有网状的圆点表征虚拟镜子51在第一场景中的虚拟位置,第一方位可以为观看者的眼睛(本申请实施例称为虚拟观察点)的看向镜子的视线方向(即虚拟观察点指向虚拟物体的方位),第二方位与第一方位为在虚拟镜子51处的反向方位,如图5a所示。
若观看者靠近虚拟镜子51,例如,图5a中观看者在第一场景中与虚拟镜子51的虚拟距离大于图5b中观看者在第一场景中与虚拟镜子51的虚拟距离。
由于虚拟镜子51与观看者在第一场景中的虚拟距离较近,虚拟镜子41中无法展示观看者的脚,且仅能展示观看者的部分胳膊。
步骤S303:获得所述观看者的人物图像。
获得观看者的人物图像的方式有多种,本申请实施例提供但不限于以下几种。
第一种方式:获得摄像头采集的观看者的真实图像,得到所述人物图像。
若本申请实施例提供的显示方法应用于头戴式显示设备,那么摄像头采集的观看者的真实图像为携带头戴式显示设备的观看者的图像。若本申请实施例提供的显示方法应用于电视机,或,笔记本电脑,或台式机等,摄像头采集的观看者的真实图像中观看者未携带头戴式显示设备。
第二种方式:获得摄像头采集的观看者的真实图像;将所述真实图像进行修正,得到所述人物图像。
若本申请实施例提供的显示方法应用于头戴式显示设备,那么摄像头采集的观看者的真实图像为携带头戴式显示设备的观看者的图像。可以对携带头戴式显示设备的观看者图像进行修正,得到不携带头戴式显示设备的观看者图像。
在一可选实施例中,无论摄像采集的观看者的真实图像中观看者有没有携带头戴式显示设备,观看者还可以更改真实图像中观看者的饰品(例如,眼镜、项链、头冠以及帽子中的一种或多种),和/或,更改真实图像中观看者的个性装扮(例如,妆容装扮和/或衣服穿着等)。
第三种方式:获得所述观看者的用户账号的账号图像,得到所述人物图像。
账号图像可以为观看者自身的图像,也可以为其他用户的图像,这样观看者还可以为获得好友融合在第一场景中的第二图像。
第四种方式:获得所述观看者的用户账号的账号图像,得到所述人物图像;将所述账号图像进行修正,得到所述人物图像。
在一可选实施例中,观看者还可以更改账号图像中观看者的饰品(例如,眼镜、项链、头冠以及帽子中的一种或多种),和/或,更改账号图像中观看者的个性装扮(例如,妆容装扮和/或衣服穿着等)。
第五种方式:获取预先存储的图像,得到所述人物图像。
预先存储的图像可以为观看者自身的图像,也可以为其他用户的图像。其他用户可以不是观看者。
第六种方式:获取预先存储的图像,将该图像进行修正,得到所述人物图像。
在一可选实施例中,观看者还可以更改该图像中人物的饰品(例如,眼镜、项链、头冠以及帽子中的一种或多种),和/或,更改该图像中人物的个性装扮(例如,妆容装扮和/或衣服穿着等)。
步骤S304:显示所述第二图像。
在一可选实施例中,观看者还可以保存该第二图像,从而可以分享该第二图像。
在一可选实施例中,还包括:预览所述第二图像,检测到保存该第二图像的指令,存储该第二图像。
在一可选实施例中,步骤S304可以包括:
获取用于表征所述观看者在所述第一场景的人物方位;基于所述人物方位与所述第一方位,将所述人物图像融入所述第一场景的第二局部的图像的相应位置,得到所述第二图像。
在一可选实施例中,电子设备可以具有显示屏。显示第二图像可以包括:
由所述第一图像切换为所述第二图像,或,在当前显示的所述第一图像上叠加显示所述第二图像,或,在显示区域的第一区域显示所述第一图像,在所述显示区域的第二区域显示所述第二图像。
在一可选实施例中,在当前显示的所述第一图像上叠加显示所述第二图像,包括:
在所述显示区域全屏显示所述第一图像,在所述显示区域的第二区域显示所述第二图像,第二区域为显示区域的局部区域。此时,第二图像遮挡第一图像中的局部图像。
或,
在所述显示区域全屏显示所述第一图像,在所述显示区域全屏显示所述第二图像。此时,第二图像完全遮挡第一图像。
在一可选实施例中,在显示区域的第一区域显示所述第一图像,在所述显示区域的第二区域显示所述第二图像,包括:
在显示区域全屏显示第二图像,在所述显示区域的第一区域显示第一图像;此时整个显示区域为第二区域,第一区域为第二区域的局部区域。
或,
在显示区域的第二区域显示第二图像,在显示区域的第一区域显示第一图像,此时,第一区域和第二区域均为所述显示区域的局部区域,第一区域和第二区域不同。
在一可选实施例中,上述“显示第二图像”还包括:确定所述显示区域中显示所述第二图像的第二区域;确定显示第二图像的范围,在所述第二区域显示具有相应范围的所述第二图像。
可选的,“确定所述显示区域中显示所述第二图像的第二区域”包括:
确定所述第一图像中设定为能反射光线功能的虚拟物体,或,所述第一图像中设定为能采集并显示采集功能的虚拟设备位于所述第一场景的虚拟位置;
确定第一图像中所述虚拟物体或所述虚拟设备中用于展示图像的目标显示区域;
将所述目标显示区域确定为所述第二区域。
可选的,“确定显示第二图像的范围”包括:
基于所述虚拟物体与观看者的虚拟观察点在所述第一场景中的虚拟位置关系,和/或,所述虚拟观察点在所述第一场景中的虚拟位置,确定显示第二图像的范围。
或,
基于所述虚拟设备的目标显示区域在第一场景中的虚拟视场角以及所述虚拟设备与观看者在所述第一场景中的虚拟位置关系,确定显示第二图像的范围。
为了本领域技术人员更加理解本申请实施例提供的第二区域的确定过程,以及第二图像的确定过程,下面举具体例子进行说明。
图5a所示的应用场景为:观看者观测到第一场景中的虚拟镜子51,虚拟镜子51为设定的能反射光线功能的虚拟物体。
虚拟镜子51中用于展示图像的目标显示区域(用虚线框出)为第二区域,即在目标显示区域中显示第二图像。
观看者在看虚拟镜子51时,可以看到虚拟镜子51中目标显示区域显示包含观看者的第二图像。
从图5a中可以看出电子设备的显示区域中除目标显示区域外的其他区域,仍然在显示第一图像。即在显示区域全屏显示第一图像,在显示区域的第二区域显示第二图像。
综上,图5a对第二区域的确定过程进行了说明。
若观看者靠近虚拟镜子51,例如,图5a中观看者在第一场景中与虚拟镜子51的虚拟距离大于图5b中观看者在第一场景中与虚拟镜子51的虚拟距离。
由于虚拟镜子51中目标显示区域的视场角的限制,虚拟镜子51中无法展示观看者的脚,且仅能展示观看者的部分胳膊。
图5a和图5b中虚拟镜子51展示的第二图像的变化,表明虚拟物体与观看者在所述第一场景中的虚拟位置关系不同,显示第二图像的范围不同。
如图6a至图6c所示,为本申请实施例提供的与第一场景相关图像的又一种实现方式的示意图。
图6a(对应图2a)所示的应用场景为:观看者60在第一场景中观看到设定为能采集并显示采集功能的虚拟设备61(假设该虚拟设备为虚拟手机),该虚拟设备61假设在图6a所示的位置。
虚拟设备61的目标显示区域为第二区域,即第二区域显示第二图像。
对于观看者而言,观看者观测到的第一图像如图2b所示。
基于虚拟设备61的目标显示区域的视场角,虚拟设备61与观看者在所述第一场景中的虚拟位置关系,确定显示第二图像的范围如图2d所示。
如图6b所示,为第一区域63和第二区域62的一种关系示意图。
第二区域62为虚拟设备61在第一场景中的目标显示区域,第二区域62展示如图2d所示的第二图像。第一区域63展示有如图2b所示的第一图像。即显示区域全屏显示第一图像,整个显示区域为第一区域,第二区域为第一区域的局部区域。
在一可选实施例中,第一区域63和第二区域62的关系还以如图6c至图6e。
其中,图6c中,显示区域全屏显示第一图像,整个显示区域为第一区域63,第二区域62为第一区域中任一局部区域。
图6d中,显示区域全屏显示第二图像,整个显示区域为第二区域62,第一区域63为第二区域62中任一局部区域。
图6e中,第一区域63和第二区域62均为显示区域64中局部区域,且第一区域和第二区域不同.
上述本申请公开的实施例中详细描述了方法,对于本申请的方法可采用多种形式的装置实现,因此本申请还公开了一种装置,下面给出具体的实施例进行详细说明。
如图7所示,为本申请实施例提供的显示装置的一种实现方式的结构图。该显示装置包括:
第一显示模块71,用于基于第一场景显示第一图像;
检测模块72,用于检测是否满足第一条件;
第二显示模块73,用于至少基于所述第一条件的满足,显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,所述第一局部和所述第二局部不同。
可选的,第二显示模块63包括:
触发单元,用于响应于所述第一条件的满足,触发图像切换操作;
切换单元,用于将所述第一场景中第一方位的所述第一图像,切换为所述第一场景中第二方位的所述第二局部的图像,其中,所述第一方位与所述第二方位不同;
第一获取单元,用于获得所述观看者的人物图像;
第一显示单元,用于显示所述第二图像。
可选的,第一方位与所述第二方位为同一位置的相反朝向。
可选的,检测模块包括:
第一检测单元,用于检测观看者的输入动作是否属于预设动作;
或,
第二检测单元,用于检测观看者是否观测所述第一图像中具有设定为能反射光线功能的虚拟物体;
或,
第三检测单元,用于检测观看者是否观测所述第一图像中具有设定为能采集并显示采集功能的虚拟设备。
可选的,第一获取单元包括:
第一获取子单元,用于获得摄像头采集的观看者的真实图像,得到所述人物图像;
或,
第二获取子单元,用于获得摄像头采集的观看者的真实图像;将所述真实图像进行修正,得到所述人物图像;
或,
第三获取子单元,用于获得所述观看者的用户账号的账号图像,得到所述人物图像;
或,
第四获取子单元,用于获得所述观看者的用户账号的账号图像;将所述账号图像进行修正,得到所述人物图像。
可选的,第一显示单元包括:
第五获取子单元,用于获取用于表征所述观看者在所述第一场景的人物方位;
图像融合子单元,用于基于所述人物方位与所述第一方位,将所述人物图像融入所述第一场景的第二局部的图像的相应位置,得到所述第二图像。
可选的,第二显示模块包括:
第二显示单元,用于在显示区域的第二区域显示所述第二图像,所述第二区域为所述显示区域的全屏区域或局部区域。
可选的,用于在显示区域的局部区域显示所述第二图像的第二显示单元包括:
显示子单元,用于在所述显示区域的第一区域显示所述第一图像,在所述显示区域的第二区域显示所述第二图像;其中,所述第一区域与所述第二区域为所述显示区域中不同的局部区域,或,所述第二区域为所述第一区域中的局部区域,或,所述第一区域为所述第二区域中的局部区域。
如图8所示,为本申请实施例提供的电子设备的一种实现方式的结构图,该电子设备包括:
显示器81,用于显示图像;
存储器82,用于存储程序;
处理器83,用于执行所述程序,所述程序具体用于:
基于第一场景,控制所述显示器显示第一图像;
检测是否满足第一条件;
至少基于所述第一条件的满足,控制所述显示器显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,所述第一局部和所述第二局部不同。
存储器82可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。
处理器83可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。
可选的,电子设备还可以包括通信总线84以及通信接口85,其中,显示器81、存储器82、处理器83、通信接口85、通过通信总线84完成相互间的通信;
可选的,通信接口85可以为通信模块的接口,如GSM模块的接口。
本申请实施例还提供了一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现上述任一所述的显示方法包含的各个步骤。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种显示方法,其特征在于,包括:
基于第一场景显示第一图像;
检测是否满足第一条件;所述第一条件为获取到表征需要展示观看者融入背景图像的信息;
至少基于所述第一条件的满足,显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,使得所述观看者能够看到自己融入第一场景的第二图像,所述第一局部和所述第二局部不同。
2.根据权利要求1所述显示方法,其特征在于,所述至少基于所述第一条件的满足,显示第二图像,包括:
响应于所述第一条件的满足,触发图像切换操作;
将所述第一场景中第一方位的所述第一图像,切换为所述第一场景中第二方位的所述第二局部的图像,其中,所述第一方位与所述第二方位不同;
获得所述观看者的人物图像;
显示所述第二图像。
3.根据权利要求2所述显示方法,其特征在于,所述第一方位与所述第二方位为同一位置的相反朝向。
4.根据权利要求1至3任一所述显示方法,其特征在于,所述检测是否满足第一条件,包括:
检测观看者的输入动作是否属于预设动作;或,
检测观看者是否观测所述第一图像中具有设定为能反射光线功能的虚拟物体;或
检测观看者是否观测所述第一图像中具有设定为能采集并显示采集功能的虚拟设备。
5.根据权利要求2所述显示方法,其特征在于,获得观看者的所述人物图像包括下列中的至少一种:
获得摄像头采集的观看者的真实图像,得到所述人物图像;
或,
获得摄像头采集的观看者的真实图像;将所述真实图像进行修正,得到所述人物图像;
或,
获得所述观看者的用户账号的账号图像,得到所述人物图像;
或,
获得所述观看者的用户账号的账号图像;将所述账号图像进行修正,得到所述人物图像。
6.根据权利要求2所述显示方法,其特征在于,所述显示所述第二图像包括:
获取用于表征所述观看者在所述第一场景的人物方位;
基于所述人物方位与所述第一方位,将所述人物图像融入所述第一场景的第二局部的图像的相应位置,得到所述第二图像。
7.根据权利要求1所述显示方法,其特征在于,所述显示第二图像,包括:
在显示区域的第二区域显示所述第二图像,所述第二区域为所述显示区域的全屏区域或局部区域。
8.根据权利要求7所述显示方法,其特征在于,所述在显示区域的第二区域显示所述第二图像,包括:
在所述显示区域的第一区域显示所述第一图像,在所述显示区域的第二区域显示所述第二图像;其中,所述第一区域与所述第二区域为所述显示区域中不同的局部区域,或,所述第二区域为所述第一区域中的局部区域,或,所述第一区域为所述第二区域中的局部区域。
9.一种显示装置,其特征在于,包括:
第一显示模块,用于基于第一场景显示第一图像;
检测模块,用于检测是否满足第一条件;所述第一条件为获取到表征需要展示观看者融入背景图像的信息;
第二显示模块,用于至少基于所述第一条件的满足,显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,使得所述观看者能够看到自己融入第一场景的第二图像,所述第一局部和所述第二局部不同。
10.一种电子设备,其特征在于,包括:
显示器,用于显示图像;
存储器,用于存储程序;
处理器,用于执行所述程序,所述程序具体用于:
基于第一场景,控制所述显示器显示第一图像;
检测是否满足第一条件;所述第一条件为获取到表征需要展示观看者融入背景图像的信息;
至少基于所述第一条件的满足,控制所述显示器显示第二图像;
其中,所述第一图像是对应所述第一场景中第一局部的图像,所述第二图像包括:表征观看者的人物图像及所述第一场景中第二局部的图像,使得所述观看者能够看到自己融入第一场景的第二图像,所述第一局部和所述第二局部不同。
CN201810698654.4A 2018-06-29 2018-06-29 显示方法、装置及电子设备 Active CN108932058B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810698654.4A CN108932058B (zh) 2018-06-29 2018-06-29 显示方法、装置及电子设备
US16/457,342 US11113857B2 (en) 2018-06-29 2019-06-28 Display method and apparatus and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810698654.4A CN108932058B (zh) 2018-06-29 2018-06-29 显示方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN108932058A CN108932058A (zh) 2018-12-04
CN108932058B true CN108932058B (zh) 2021-05-18

Family

ID=64447334

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810698654.4A Active CN108932058B (zh) 2018-06-29 2018-06-29 显示方法、装置及电子设备

Country Status (2)

Country Link
US (1) US11113857B2 (zh)
CN (1) CN108932058B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11277685B1 (en) * 2018-11-05 2022-03-15 Amazon Technologies, Inc. Cascaded adaptive interference cancellation algorithms
US11650484B1 (en) 2019-08-07 2023-05-16 Apple Inc. Electronic device with camera status indicator
WO2021134575A1 (zh) * 2019-12-31 2021-07-08 深圳市大疆创新科技有限公司 显示控制方法和设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106406537A (zh) * 2016-09-30 2017-02-15 珠海市魅族科技有限公司 一种显示方法以及装置
CN106681503A (zh) * 2016-12-19 2017-05-17 惠科股份有限公司 一种显示控制方法、终端及显示装置
CN107329259A (zh) * 2013-11-27 2017-11-07 奇跃公司 虚拟和增强现实系统与方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101812585B1 (ko) * 2012-01-02 2017-12-27 삼성전자주식회사 Ui 제공 방법 및 이를 적용한 영상 촬영 장치
US8548778B1 (en) * 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
KR102510395B1 (ko) * 2015-12-01 2023-03-16 삼성디스플레이 주식회사 표시 장치 시스템
US20170289533A1 (en) * 2016-03-30 2017-10-05 Seiko Epson Corporation Head mounted display, control method thereof, and computer program
ITUA20162920A1 (it) * 2016-04-27 2017-10-27 Consiglio Nazionale Ricerche Metodo per correggere e/o attenuare difetti visivi dovuti ad una patologia degenerativa della retina e relativo sistema.
US10261749B1 (en) * 2016-11-30 2019-04-16 Google Llc Audio output for panoramic images
CN107517372B (zh) * 2017-08-17 2022-07-26 腾讯科技(深圳)有限公司 一种vr内容拍摄方法、相关设备及系统
CN107589846A (zh) * 2017-09-20 2018-01-16 歌尔科技有限公司 场景切换方法、装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107329259A (zh) * 2013-11-27 2017-11-07 奇跃公司 虚拟和增强现实系统与方法
CN106406537A (zh) * 2016-09-30 2017-02-15 珠海市魅族科技有限公司 一种显示方法以及装置
CN106681503A (zh) * 2016-12-19 2017-05-17 惠科股份有限公司 一种显示控制方法、终端及显示装置

Also Published As

Publication number Publication date
US11113857B2 (en) 2021-09-07
US20200005507A1 (en) 2020-01-02
CN108932058A (zh) 2018-12-04

Similar Documents

Publication Publication Date Title
JP7247390B2 (ja) ユーザインタフェースカメラ効果
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
US9886086B2 (en) Gesture-based reorientation and navigation of a virtual reality (VR) interface
US10284817B2 (en) Device for and method of corneal imaging
CN108932058B (zh) 显示方法、装置及电子设备
CN110546601B (zh) 信息处理装置、信息处理方法和程序
AU2021290132C1 (en) Presenting avatars in three-dimensional environments
US20170371523A1 (en) Method for displaying user interface of head-mounted display device
JP7459798B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180073330A (ko) 사용자 저작 스티커를 생성하는 방법 및 장치, 사용자 저작 스티커 공유 시스템
CN110192169B (zh) 虚拟场景中菜单处理方法、装置及存储介质
CN117043722A (zh) 用于地图的设备、方法和图形用户界面
TWI680005B (zh) 移動追蹤方法及移動追蹤系統
CN104156138B (zh) 拍摄控制方法及拍摄控制装置
CN111782053B (zh) 模型编辑方法、装置、设备及存储介质
KR20190129982A (ko) 전자기기 및 그 제어 방법
TWI838710B (zh) 用於判定雙手手勢的方法、主機及電腦可讀儲存媒體
US11874969B2 (en) Method for determining two-handed gesture, host, and computer readable medium
US20230351632A1 (en) Method for providing visual content, host, and computer readable storage medium
US20240103681A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240152245A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
Faaborg et al. METHODS AND APPARATUS TO SCALE ANNOTATIONS FOR DESIRABLE VIEWING IN AUGMENTED REALITY ENVIRONMENTS
WO2024064015A1 (en) Representations of participants in real-time communication sessions
CN117336458A (zh) 图像处理方法、装置、设备及介质
CN114710624A (zh) 拍摄方法和拍摄装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant