CN108479060A - 一种显示控制方法及电子设备 - Google Patents

一种显示控制方法及电子设备 Download PDF

Info

Publication number
CN108479060A
CN108479060A CN201810272579.5A CN201810272579A CN108479060A CN 108479060 A CN108479060 A CN 108479060A CN 201810272579 A CN201810272579 A CN 201810272579A CN 108479060 A CN108479060 A CN 108479060A
Authority
CN
China
Prior art keywords
electronic equipment
virtual object
destination virtual
data
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810272579.5A
Other languages
English (en)
Other versions
CN108479060B (zh
Inventor
苗涛
王旺
李晓琦
卢本敏
赵成慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201810272579.5A priority Critical patent/CN108479060B/zh
Publication of CN108479060A publication Critical patent/CN108479060A/zh
Application granted granted Critical
Publication of CN108479060B publication Critical patent/CN108479060B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种显示控制方法,应用于第一电子设备,所述方法包括:在第二电子设备同意分享所述第二电子设备输出的目标虚拟对象的情况下,获得所述第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据;输出获得的目标虚拟对象的数据,以使得所述第一电子设备的用户观看到包含现实场景以及所述目标虚拟对象的画面。本申请能够做到将第二电子设备中的目标虚拟对象共享给当前电子设备的用户,实现共享,明显改善用户使用体验。

Description

一种显示控制方法及电子设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种显示控制方法及电子设备。
背景技术
随着技术的发展,虚拟现实技术的应用越来越广泛。例如,用户使用虚拟现实VR眼镜来进行游戏,带给用户更好的体验效果。
而用户在使用AR(增强现实)或VR(虚拟现实)设备时所看到的虚拟场景,其他旁观者无法直接观看到,无法做到娱乐共享,影响用户使用体验。
发明内容
有鉴于此,本发明提供一种显示控制方法及电子设备,用以解决现有技术中虚拟现实技术中无法做好共享,影响用户使用体验的技术问题。
本发明提供了一种显示控制方法,应用于第一电子设备,所述方法包括:
在第二电子设备同意分享所述第二电子设备输出的目标虚拟对象的情况下,获得所述第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据;
输出获得的目标虚拟对象的数据,以使得所述第一电子设备的用户观看到包含现实场景以及所述目标虚拟对象的画面。
上述方法,优选的,还包括:
获得所述第一电子设备的姿态信息;
至少基于所述姿态信息,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出获得的目标虚拟对象的数据,包括:
基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
上述方法,优选的,所述目标虚拟对象在所述第一电子设备输出时的呈现效果,包括:
所述目标虚拟对象相对于所述第一电子设备所在的现实场景的方向、位置、大小、运动特征和运动状态中的一种或多种的呈现效果。
上述方法,优选的,还包括:
获得所述第一电子设备与所述第二电子设备的相对位置关系和/或相对运动关系;
至少基于所述相对位置关系和/或相对运动关系,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出获得的目标虚拟对象的数据,包括:
基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
本申请还提供了另一种显示控制方法,应用于第二电子设备,包括:
获得一操作指令;
响应于所述操作指令,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象;
发送所述目标虚拟对象的数据,以使得第一电子设备获得并输出所述目标虚拟对象的画面。
上述方法,优选的,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象,包括:
从所述第二电子设备在现实场景中输出的虚拟场景图像中确定目标虚拟对象;或
从所述第二电子设备输出的包含现实场景图像以及虚拟场景图像的图像中确定目标虚拟对象。
上述方法,优选的,所述操作指令为所述第二电子设备分享虚拟对象的操作指令。
上述方法,优选的,所述操作指令为所述第二电子设备接收到所述第一电子设备发送的共享请求时同意向所述第一电子设备共享虚拟对象的操作指令。
上述方法,优选的,还包括:
获得所述第一电子设备的共享请求,所述共享请求中至少包括所述第一电子设备所请求的空间参数;
从所述第二电子设备输出的虚拟场景图像中获得目标空间参数;
将所述目标空间参数进行发送。
上述方法,优选的,还包括:
响应于所述第一电子设备发送的连接请求,以建立与所述第一电子设备之间的数据通路;
基于所述数据通路,接收所述第一电子设备发送的共享请求。
本申请还提供了一种电子设备,包括:
处理单元,用于在第二电子设备同意分享所述第二电子设备输出的目标虚拟对象的情况下,获得所述第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据;
输出单元,用于输出获得的目标虚拟对象的数据,以使得所述电子设备的用户观看到包含现实场景以及所述目标虚拟对象的画面。
上述电子设备,优选的,所述处理单元还用于:
获得所述电子设备的姿态信息,至少基于所述姿态信息,确定所述获得的目标虚拟对象在所述电子设备输出时的呈现效果;
其中,所述输出单元具体用于:基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
上述电子设备,优选的,所述处理单元还用于:
获得所述第一电子设备与所述第二电子设备的相对位置关系和/或相对运动关系,至少基于所述相对位置关系和/或相对运动关系,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出单元具体用于:基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
本申请还提供了另一种电子设备,包括:
处理单元,用于获得一操作指令,响应于所述操作指令,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象;
传输单元,用于发送所述目标虚拟对象的数据,以使得第一电子设备获得并输出所述目标虚拟对象的画面。。
从上述技术方案可以看出,本申请公开的一种显示控制方法及电子设备,通过在得到第二电子设备同意分享第二电子设备输出的目标虚拟对象的情况下,获得第二电子设备所输出的虚拟场景图像中的目标虚拟对象的数据,从而将获得的目标虚拟对象的数据进行输出,由此能够使得电子设备上的用户能够观看到包含现实场景以及目标虚拟对象的画面,由此做到将第二电子设备中的目标虚拟对象共享给当前电子设备的用户,实现共享,明显改善用户使用体验。
同时,本申请中,第二电子设备中共享给第一电子设备的目标虚拟对象能够根据第二电子设备和/或第一电子设备的需求进行指定,也就是说,根据电子设备用户的需求或意愿指定想要共享的虚拟对象,从而明显能够改善用户使用电子设备观看虚拟场景图像和虚拟对象的使用体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例一提供的一种显示控制方法的实现流程图;
图2~图4分别为本申请实施例的应用示例图;
图5为本申请实施例一的另一流程图;
图6及图7分别为本申请实施例的另一应用示例图;
图8为本申请实施例一的又一流程图;
图9~图12分别为本申请实施例的又一应用示例图;
图13为本申请实施例一的另一流程图;
图14~图17为本申请实施例的其他应用示例图;
图18为本申请实施例二提供的一种显示控制方法的流程图;
图19~图20分别为本申请实施例的其他应用示例图;
图21为本申请实施例三提供的一种电子设备的结构示意图;
图22为本申请实施例四提供的一种电子设备的结构示意图;
图23~图25分别为本申请实施例的其他应用示例图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,为本发明公开的一种显示控制方法的实现流程图,本实施例可以应用于能够进行虚拟对象数据输出的电子设备中,该电子设备作为第一电子设备可以为各种设备终端,如手机、pad、VR设备或AR设备如眼镜等。
在本实施例中,该方法可以包括以下步骤:
步骤101:获得第二电子设备同意分享该第二电子设备输出的目标虚拟对象。
其中,第二电子设备可以为能够输出虚拟对象的设备,如手机、pad、VR设备或AR设备等等,该第二电子设备中输出有各种虚拟对象,以使得第二电子设备的用户能够观看到各种虚拟对象的画面,另外,第二电子设备的用户还可以观看到包含现实场景以及目标虚拟对象的画面。如图2中所示,第二电子设备如AR眼镜上输出包含目标虚拟对象的虚拟场景图像的画面,而第二电子设备中同意向其他设备或者只同意向第一电子设备共享该目标虚拟对象,如虚拟猫。
需要说明的是,第二电子设备同意分享目标虚拟对象可以是:第二电子设备自行设置目标虚拟对象可以被其他设备或者只给第一电子设备共享,也可以是第二电子设备在接收到其他设备或者只有第一电子设备发送的共享请求时,第二电子设备通过查询授权共享列表来确定是否要对发送共享请求的设备授权,从而建立与发送请求的设备之间的数据通路,同意其他设备或者只给第一电子设备提供目标虚拟对象的共享。
其中,上文中的授权共享列表可以默认全部设备均具有授权,或者第二电子设备根据需求设置授权共享列表。
需要说明的是,第二电子设备与第一电子设备之间的数据通路可以为WiFi数据通路、蓝牙数据通路或者其他数据通路等。
步骤102:获得第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据。
如图3中所示,第二电子设备如手机中输出有虚拟场景图像,该虚拟场景图像中包含多个虚拟对象,如虚拟建筑、虚拟宠物或虚拟朋友等。本实施例中的目标虚拟对象为这些虚拟对象中第二电子设备同意共享的其中的一个虚拟对象,如虚拟狗。
其中,目标虚拟对象的数据可以包含有目标虚拟对象在虚拟场景图像中的相对姿态信息等,如虚拟位置、朝向、虚拟大小和虚拟运动特征等。
具体的,第一电子设备可以从第二电子设备中获取到目标虚拟对象的数据,如第二电子设备发送目标虚拟对象的数据直接给第一电子设备;
或者,第一电子设备可以从云端服务器中获取第二电子设备所上传的目标虚拟对象的数据。
步骤103:输出获得的目标虚拟对象的数据,以使得第一电子设备的用户观看到包含现实场景以及目标虚拟对象的画面。
其中,本实施例中,第一电子设备可以通过各种输出装置或者输出模块如显示屏或者投影仪等来输出目标虚拟对象的数据,从而为第一电子设备的用户呈现包含现实场景以及目标虚拟对象的画面,由此实现第二电子设备向第一电子设备的用户共享目标虚拟对象的目的。
如图4中所示,第二电子设备中输出有虚拟场景图像,其中包含两只虚拟狗和一只虚拟猫,第一电子设备向第二电子设备发送共享请求后,第二电子设备同意虚拟猫向第一电子设备共享,第一电子设备获取该第二电子设备中虚拟猫的数据,并输出该虚拟猫的数据,从而使得第一电子设备的用户能够观看到包含现实场景以及该虚拟猫的画面,实现第二电子设备向第一电子设备共享虚拟猫的目的。
由上述方案可知,本申请实施例一提供的一种显示控制方法中,通过在得到第二电子设备同意分享第二电子设备输出的目标虚拟对象的情况下,获得第二电子设备所输出的虚拟场景图像中的目标虚拟对象的数据,从而将获得的目标虚拟对象的数据进行输出,由此能够使得电子设备上的用户能够观看到包含现实场景以及目标虚拟对象的画面,由此做到将第二电子设备中的目标虚拟对象共享给当前电子设备的用户,实现共享,明显改善用户使用体验。
同时,本实施例中,第二电子设备中共享给第一电子设备的目标虚拟对象能够根据第二电子设备和/或第一电子设备的需求进行指定,也就是说,根据电子设备用户的需求或意愿指定想要共享的虚拟对象,从而明显能够改善用户使用电子设备观看虚拟场景图像和虚拟对象的使用体验。
在一种实现方式中,图1中的显示控制方法还可以包括以下步骤,如图5中所示:
步骤104:获得第一电子设备的姿态信息。
其中,第一电子设备的姿态信息中可以包含第一电子设备当前的位置信息和/或朝向信息,该位置信息和朝向信息表征第一电子设备的当前姿态。
本实施例中,可以通过设置在第一电子设备上的定位装置及陀螺仪等来获得第一电子设备的姿态信息,或者,本实施例中可以从云端服务器中获得第一电子设备所上传的姿态信息。
需要说明的是,第一电子设备的位置信息可以是通过定位装置或从云端服务器所获取到的在现实场景中的实际位置信息,也可以是第一电子设备的用户根据需求所设置的位置,如第一电子设备的用户通过交互界面选择处于虚拟场景图像中的位置,如俯视视角位置、仰视视角位置、立足于虚拟对象的第一人称视角位置、立足于其他人的第三人称视角位置、某个特定的虚拟对象的位置或者第二电子设备的位置等等。
步骤105:至少基于姿态信息,确定获得的目标虚拟对象在第一电子设备输出时的呈现效果。
其中,该呈现效果是指在第一电子设备上所呈现给第一电子设备的用户的效果。
相应的,步骤103可以通过以下方式实现:
基于呈现效果,输出获得的目标虚拟对象的数据。
也就是说,在本实施例中,第一电子设备在为用户呈现现实场景以及目标虚拟对象的画面时,可以基于第一电子设备的姿态信息如位置和朝向等所确定的呈现效果来实现。
具体的,目标虚拟对象在第一电子设备上输出的呈现效果可以包括有:
目标虚拟对象相对于第一电子设备所在的现实场景的方向、位置、大小、运动特征和运动状态中的一种或多种的呈现效果。
其中,本实施例中步骤105可以通过以下方式实现:
基于第一电子设备的姿态信息,获得第一电子设备在现实场景中的现实姿态信息;并基于目标虚拟对象在第二电子设备所输出的虚拟场景图像中的虚拟姿态信息,获得目标虚拟对象在现实场景中的现实姿态信息,从而结合目标虚拟对象和第一电子设备各自在现实场景中的姿态信息,确定目标虚拟对象在第一电子设备输出时的呈现效果,该呈现效果包括:目标虚拟对象相对于第一电子设备在现实场景中的位置、方向、大小、运动特征和运动状态中的一种或多种的呈现效果。
例如,本实施例中可以通过第一电子设备的姿态信息获得第一电子设备在现实场景中的朝向、位置、大小、运动特征和运动状态,并根据目标虚拟对象的虚拟姿态信息,获得标虚拟对象在虚拟场景图像中的朝向、位置、大小、运动特征和运动状态,从而根据第二电子设备的实际位置和姿态进行虚拟和现实场景的转换,从而得到目标虚拟对象在现实场景中的朝向、位置、大小、运动特征和运动状态等,由此,基于来确定目标虚拟对象相对于第一电子设备在现实场景的方向、位置、大小、运动特征和运动状态等等,从而确定呈现效果。由此,本实施例中,可以随着第一电子设备的姿态,如向上、向下、向左、向右、移动、环绕等,对应的,以第一电子设备的视角观察到的虚拟对象的顶部、底部、左侧面、右侧面、相对移动、环形立体图等。
其中,目标虚拟对象相对于第一电子设备所在的现实场景的方向可以理解为:在现实场景中目标虚拟对象相对于第一电子设备的方向,如目标虚拟对象相对于第一电子设备的正北方向;目标虚拟对象相对于第一电子设备所在的现实场景的位置可以理解为:在现实场景中目标虚拟对象相对于第一电子设备的位置,如目标虚拟对象相对于第一电子设备距离2米的位置;目标虚拟对象相对于第一电子设备所在现实场景的大小可以理解为:在现实场景中目标虚拟对象相对于第一电子设备的大小,如第一电子设备为1米高,而目标虚拟对象的高度为第一电子设备的一半大小;目标虚拟对象相对于第一电子设备所在的现实场景的运动特征可以理解为:在现实场景中目标虚拟对象相对于第一电子设备的运动特征,包括目标虚拟对象相对于第一电子设备的运动方向和运动速度等,如目标虚拟对象相对于第一电子设备以1厘米每秒的速度向第一电子设备所在的方向运动;目标虚拟对象相对于第一电子设备所在的现实场景的运动状态可以理解为:在现实场景中目标虚拟对象相对于第一电子设备的相对运动状态,如相对运动或相对静止等。
如图6中所示,第一电子设备在位置A,朝向B,且静止,第二电子设备在位置C,朝向D,且静止,而第二电子设备所输出的虚拟场景图像中虚拟猫处于位置距离第二电子设备位置10米,在第二电子设备的正前方,朝向第二电子设备以1米每秒的速度移动,由此,在获得第二电子设备同意共享虚拟猫的情况下,获取到虚拟猫的数据之后,根据第一电子设备的姿态信息,确定虚拟猫的呈现效果,包括:虚拟猫相对于第一电子设备所在的现实场景的位置E即在第一电子设备的左前方、朝向F如朝向第一电子设备左侧5米的位置、高度低于第一电子设备1米的大小、并以1米每秒的速度移动中,如图7中所示,随着虚拟猫的移动,虚拟猫的个头越来越大,由此,第一电子设备的用户可以观看到包含现实场景和虚拟猫的画面,而且虚拟猫的呈现效果是相对于第一电子设备在现实场景中的呈现效果。
在一种实现方式中,图1中的显示控制方法还可以包括以下步骤,如图8中所示:
步骤106:获得第一电子设备与第二电子设备的相对位置关系和/或相对运动关系。
其中,本实施例中可以首先获得第一电子设备的位置和运动特征和第二电子设备的位置和运动特征,从而获得第一电子设备与第二电子设备的相对位置关系和/或相对运动关系;
或者,本实施例中可以从云端服务器中获取到第一电子设备与第二电子设备的相对位置关系和/或相对运动关系。
而第一电子设备与第二电子设备的相对位置关系可以为:第一电子设备与第二电子设备之间位置上的相对关系,如第一电子设备处于第二电子设备在正前方的方向上距离5米的位置,如图9中所示;第一电子设备与第二电子设备的相对运动关系可以为:第一电子设备相对于第二电子设备的运动特征或者第二电子设备相对于第一电子设备的运动特征,如第一电子设备相对于第二电子设备以每秒1米的速度朝向第二电子设备的方向运动,如图10中所示。
步骤107:至少基于相对位置关系和/或相对运动状态,确定获得的目标虚拟对象在第一电子设备输出时的呈现效果。
其中,该呈现效果是指在第一电子设备上所呈现给第一电子设备的用户的效果。
相应的,步骤103可以通过以下方式实现:
基于呈现效果,输出获得的目标虚拟对象的数据。
也就是说,在本实施例中,第一电子设备在为用户呈现现实场景以及目标虚拟对象的画面时,可以基于第一电子设备与第二电子设备的相对位置关系和/或相对运动关系等所确定的呈现效果来实现,如第一电子设备相对于第二电子设备以每秒1米的速度朝向第二电子设备的方向运动,本实施例中根据这一相对运动关系来确定目标虚拟对象在第一电子设备输出该目标虚拟对象的数据时的呈现效果。
具体的,目标虚拟对象在第一电子设备上输出的呈现效果可以包括有:
目标虚拟对象相对于第一电子设备所在的现实场景的方向、位置、大小、运动特征和运动状态中的一种或多种的呈现效果。
而呈现效果的具体内容可以参考前文中的相关内容,此处不再赘述。
其中,本实施例中步骤107可以通过以下方式实现:
基于第一电子设备与第二电子设备的相对位置关系和/或相对运动关系,获得第二电子设备相对于第一电子设备所在现实场景的方向、位置、运动特征和运动状态等中的一种或多种行为信息,之后,根据目标虚拟对象在第二电子设备所输出的虚拟场景图像中相对于第二电子设备的方向、位置、运动特征和运动状态等中的一种或多种行为信息,获得目标虚拟对象相对于第一电子设备所在的现实场景的方向、位置、运动特征和运动状态等中的一种或多种行为信息,从而确定目标虚拟对象在第一电子设备输出时的呈现效果,该呈现效果包括:目标虚拟对象相对于第一电子设备所在现实场景中的位置、方向、运动特征和运动状态中的一种或多种的呈现效果。
如图11中所示,第一电子设备与第二电子设备之间相对静止且相距10米距离,而虚拟猫处于位置距离第二电子设备位置10米,在第二电子设备的右前方45度,朝向第二电子设备以1米每秒的速度移动,由此,在获得第二电子设备同意共享虚拟猫的情况下,获取到虚拟猫的数据之后,根据第一电子设备与第二电子设备之间的相对位置和相对运动关系,确定虚拟猫的呈现效果,包括:虚拟猫相对于第一电子设备所在的现实场景的正前方、朝向第二电子设备的方向的位置并以1米每秒的速度移动中,如图12中所示,由此,第一电子设备的用户可以观看到包含现实场景和虚拟猫的画面,而且虚拟猫的呈现效果是相对于第一电子设备在现实场景中的呈现效果。
在一种实现方式中,图1中的显示控制方法还可以包括以下步骤,如图13中所示:
步骤108:获得目标虚拟对象相对于第二电子设备所在现实场景的相对位置关系和/或相对运动关系。
其中,本实施例中可以根据第二电子设备所输出的虚拟场景图像获得目标虚拟对象相对于第二电子设备的位置及运动特征或运动状态,并获得第二电子设备在现实场景的位置及运动特征,由此获得目标虚拟对象相对于第二电子设备所在现实场景的相对位置关系和/或相对运动关系。
而目标虚拟对象相对于第二电子设备所在现实场景的相对位置关系可以为:在现实场景中目标虚拟对象与第二电子设备之间位置上的相对关系,如目标虚拟对象处于第二电子设备在正前方上距离5米的位置,如图14中所示;目标虚拟对象与第二电子设备的相对运动关系可以为:目标虚拟对象相对于第二电子设备的运动特征或者第二电子设备相对于目标虚拟对象的运动特征,如目标虚拟对象相对于第二电子设备以每秒1米的速度朝向第二电子设备的方向运动,如图15中所示。
步骤109:至少基于相对位置关系和/或相对运动关系,确定获得的目标虚拟对象在第一电子设备输出时的呈现效果。
其中,该呈现效果是指在第一电子设备上所呈现给第一电子设备的用户的效果。
相应的,步骤103可以通过以下方式实现:
基于呈现效果,输出获得的目标虚拟对象的数据。
也就是说,在本实施例中,第一电子设备在为用户呈现现实场景以及目标虚拟对象的画面时,可以基于目标虚拟对象与第二电子设备的相对位置关系和/或相对运动关系等所确定的呈现效果来实现,如目标虚拟对象相对于第二电子设备以每秒2米的速度背向第二电子设备的方向运动,本实施例中根据这一相对运动关系来确定目标虚拟对象在第一电子设备输出该目标虚拟对象的数据时的呈现效果。
具体的,目标虚拟对象在第一电子设备上输出的呈现效果可以包括有:
目标虚拟对象相对于第一电子设备所在的现实场景的方向、位置、大小、运动特征和运动状态中的一种或多种的呈现效果。
其中,本实施例中的步骤109可以通过以下方式实现:
基于目标虚拟对象相对于第二电子设备所在现实场景的相对位置关系和/或相对运动关系,以及第一电子设备在现实场景中的位置、朝向、大小、运动特征和运动状态中的一种或多种,获得目标虚拟对象相对于第一电子设备所在现实场景的位置、大小、方向、运动特征和运动装置中的一种或多种,并基于此获得呈现效果。
如图16中所示,第二电子设备所输出的虚拟场景图像中虚拟猫处于位置距离第二电子设备位置10米,在第二电子设备的左方,背向第二电子设备以1米每秒的速度移动,而第一电子设备在位置A且朝向B,由此,在获得第二电子设备同意共享虚拟猫的情况下,获取到虚拟猫的数据之后,根据虚拟猫相对于第二电子设备所在现实场景的相对运动关系,确定虚拟猫的呈现效果,包括:虚拟猫相对于第一电子设备所在的现实场景的位置X即在第一电子设备的右侧、朝向第一电子设备右侧并以1米每秒的速度移动中,如图17中所示,由此,第一电子设备的用户可以观看到包含现实场景和虚拟猫的画面,而且虚拟猫的呈现效果是相对于第一电子设备在现实场景中的呈现效果。
参考图18,为本申请实施例二提供的一种显示控制方法的流程图,适用于能够进行虚拟场景图像输出的电子设备中,该电子设备作为第二电子设备可以为各种终端,如手机、pad、VR设备或AR设备等。
在本实施例中,该方法可以包括以下步骤:
步骤1801:获得一操作指令。
其中,该操作指令可以为第二电子设备在同意其他设备如第一电子设备共享请求准备向第一电子设备共享虚拟对象时生成,也可以是第二电子设备主动向第一电子设备共享虚拟对象时生成。
步骤1802:响应于操作指令,在第二电子设备输出的虚拟场景图像中确定目标虚拟对象。
其中,第二电子设备可以根据操作指令中第一电子设备所请求共享的对象信息来确定目标虚拟对象,例如,第一电子设备请求共享虚拟狗,第二电子设备将虚拟狗确定为目标虚拟对象;
或者,第二电子设备可以根据自身需求将其输出的虚拟场景图像中的某个虚拟对象确定为目标虚拟对象,例如,第一电子设备请求共享虚拟狗,但是第一电子设备并不想共享虚拟狗,而只将虚拟场景图像中的虚拟猫确定为目标虚拟对象。
步骤1803:发送目标虚拟对象的数据,以使得第一电子设备获得并输出目标虚拟对象的画面。
其中,第二电子设备可以直接将目标虚拟对象的数据发送给第一电子设备,由第一电子设备输出该目标虚拟对象的画面,由此,第一电子设备的用户能够观看到包含现实场景以及目标虚拟对象的画面;
或者,第二电子设备可以将目标虚拟对象的数据发送到云端服务器,由获得共享同一的设备如第一电子设备从云端服务器获得目标虚拟对象的数据,再输出该目标虚拟对象的画面,由此,第一电子设备的用户能够观看到包含现实场景以及目标虚拟对象的画面。
其中,第一电子设备可以为手机、pad或VR设备或AR设备等,能够输出现实场景画面和目标虚拟对象的画面,如图4中所示,第二电子设备中输出有虚拟场景图像,其中包含两只虚拟狗和一只虚拟猫,第一电子设备向第二电子设备发送共享请求后,第二电子设备同意向第一电子设备共享并生成操作指令,响应于该操作指令,在第二电子设备输出的虚拟场景图像中确定共享的目标虚拟对象如虚拟猫,从而发送该虚拟猫的数据,而第一电子设备获取该第二电子设备中发送的虚拟猫的数据,并输出该虚拟猫的数据,从而使得第一电子设备的用户能够观看到包含现实场景以及该虚拟猫的画面,实现第二电子设备向第一电子设备共享虚拟猫的目的。
由上述方案可知,本申请实施例二提供的一种显示控制方法中,通过在虚拟场景图像中确定共享的目标虚拟对象后,将目标虚拟对象的数据进行发送,由此,获得该目标虚拟对象的数据的第一电子设备能够输出目标虚拟对象的画面,使得第一电子设备上的用户能够观看到包含现实场景以及目标虚拟对象的画面,由此做到将第二电子设备中的目标虚拟对象共享给第一电子设备的用户,实现共享,明显改善用户使用体验。
另外,在本实施例中,第二电子设备可以通过向第一电子设备传输第二电子设备所输出的虚拟场景图像以及目标虚拟对象的空间参数如位置、朝向及大小、运动特征及运动状态中的一种或多种来为第一电子设备输出目标虚拟对象的数据所产生的呈现效果提供依据或参考,而第一电子设备在输出目标虚拟对象的数据以达到相应的呈现效果的实现方式可以参考前文中相应内容,此处不再详述。
在一种实现方式中,步骤1802在第二电子设备输出的虚拟场景图像中确定目标虚拟对象时,可以通过以下方式实现:
从第二电子设备在现实场景中输出的虚拟场景图像中确定目标虚拟对象。
其中,第二电子设备在现实场景中输出的虚拟场景图像可以为第二电子设备通过投影设备投射到墙壁或地面上的虚拟场景图像,如图19中所示,该虚拟场景图像可以为二维平面图像,也可以为全息三维图像等。当然,此时请求共享或者第二电子设备主动提供共享的第一电子设备并不能观看到第二电子设备所投射的虚拟场景图像。
在另一种实现方式中,步骤1802在第二电子设备输出的虚拟场景图像中确定目标虚拟对象时,可以通过以下方式实现:
从第二电子设备输出的包含现实场景图像以及虚拟场景图像的图像中确定目标虚拟对象。
其中,第二电子设备输出的包含现实场景图像以及虚拟场景图像的图像,可以为手机屏幕、VR设备或AR设备中所输出的包含现实场景图像和虚拟场景图像的画面图像,如图20所示。
参考图21,为本申请实施例三提供的一种电子设备的结构示意图,该电子设备可以作为第一电子设备可以为能够进行虚拟对象数据输出的电子设备,如手机、pad、VR设备或AR设备等。
在本实施例中,该电子设备可以包括以下结构:
处理单元2101,用于在得到第二电子设备同意分享所述第二电子设备输出的目标虚拟对象的情况下,获得所述第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据。
其中,处理单元2101可以通过中央处理器等实现。
输出单元2102,用于输出获得的目标虚拟对象的数据,以使得所述电子设备的用户观看到包含现实场景以及所述目标虚拟对象的画面。
其中,输出单元2102可以通过投影装置、显示屏等器件实现。
在一种实现方式中,处理单元2101还可以用于:
获得所述电子设备的姿态信息,至少基于所述姿态信息,确定所述获得的目标虚拟对象在所述电子设备输出时的呈现效果;
其中,所述输出单元2102具体用于:基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
在另一种实现方式中,处理单元2101还可以用于:
获得所述第一电子设备与所述第二电子设备的相对位置关系和/或相对运动关系,至少基于所述相对位置关系和/或相对运动关系,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出单元2102具体用于:基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
需要说明的是,处理单元2101和输出单元2102的具体实现可以参考前文中相关内容,此处不再详述。
由上述方案可知,本申请实施例三提供的一种电子设备中,通过在得到第二电子设备同意分享第二电子设备输出的目标虚拟对象的情况下,获得第二电子设备所输出的虚拟场景图像中的目标虚拟对象的数据,从而将获得的目标虚拟对象的数据进行输出,由此能够使得电子设备上的用户能够观看到包含现实场景以及目标虚拟对象的画面,由此做到将第二电子设备中的目标虚拟对象共享给当前电子设备的用户,实现共享,明显改善用户使用体验。
参考图22,为本申请实施例四提供的一种电子设备的结构示意图,该电子设备作为第二电子设备能够进行虚拟场景图像的输出,如手机、pad、VR设备或AR设备等。
在本实施例中,该电子设备可以包括以下结构:
处理单元2201,用于获得一操作指令,响应于所述操作指令,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象。
其中,该操作指令可以为第二电子设备在同意其他设备如第一电子设备共享请求准备向第一电子设备共享虚拟对象时生成,也可以是第二电子设备主动向第一电子设备共享虚拟对象时生成。
而第二电子设备可以根据操作指令中第一电子设备所请求共享的对象信息来确定目标虚拟对象,例如,第一电子设备请求共享虚拟狗,第二电子设备将虚拟狗确定为目标虚拟对象;
或者,第二电子设备可以根据自身需求将其输出的虚拟场景图像中的某个虚拟对象确定为目标虚拟对象,例如,第一电子设备请求共享虚拟狗,但是第一电子设备并不想共享虚拟狗,而只将虚拟场景图像中的虚拟猫确定为目标虚拟对象。
具体的,处理单元2201可以通过中央处理器实现。
传输单元2202,用于发送所述目标虚拟对象的数据,以使得第一电子设备获得并输出所述目标虚拟对象的画面。
其中,第二电子设备可以直接将目标虚拟对象的数据发送给第一电子设备,由第一电子设备输出该目标虚拟对象的画面,由此,第一电子设备的用户能够观看到包含现实场景以及目标虚拟对象的画面;
或者,第二电子设备可以将目标虚拟对象的数据发送到云端服务器,由获得共享同一的设备如第一电子设备从云端服务器获得目标虚拟对象的数据,再输出该目标虚拟对象的画面,由此,第一电子设备的用户能够观看到包含现实场景以及目标虚拟对象的画面。
具体的,传输单元2202可以通过WiFi模块或蓝牙模块等数据传输模块实现。
由上述方案可知,本申请实施例四提供的一种电子设备中,通过在虚拟场景图像中确定共享的目标虚拟对象后,将目标虚拟对象的数据进行发送,由此,获得该目标虚拟对象的数据的第一电子设备能够输出目标虚拟对象的画面,使得第一电子设备上的用户能够观看到包含现实场景以及目标虚拟对象的画面,由此做到将第二电子设备中的目标虚拟对象共享给第一电子设备的用户,实现共享,明显改善用户使用体验。
在一种实现方式中,处理单元2201在第二电子设备输出的虚拟场景图像中确定目标虚拟对象时,可以通过以下方式实现:
从第二电子设备在现实场景中输出的虚拟场景图像中确定目标虚拟对象。
其中,第二电子设备在现实场景中输出的虚拟场景图像可以为第二电子设备通过投影设备投射到墙壁或地面上的虚拟场景图像,如图19中所示,该虚拟场景图像可以为二维平面图像,也可以为全息三维图像等。
在另一种实现方式中,处理单元2201在第二电子设备输出的虚拟场景图像中确定目标虚拟对象时,可以通过以下方式实现:
从第二电子设备输出的包含现实场景图像以及虚拟场景图像的图像中确定目标虚拟对象。
其中,第二电子设备输出的包含现实场景图像以及虚拟场景图像的图像,可以为手机屏幕、VR设备或AR设备中所输出的包含现实场景图像和虚拟场景图像的画面图像,如图20所示。
另外,在本实施例中,第二电子设备可以通过向第一电子设备传输第二电子设备所输出的虚拟场景图像以及目标虚拟对象的空间参数如位置、朝向及大小、运动特征及运动状态中的一种或多种来为第一电子设备输出目标虚拟对象的数据所产生的呈现效果提供依据或参考,而第一电子设备在输出目标虚拟对象的数据以达到相应的呈现效果的实现方式可以参考前文中相应内容,此处不再详述。
以下以第一电子设备为旁观者手机,第二电子设备为AR或VR系统如玩家AR眼镜为例,对本实施例中的方案进行举例说明:
本实施例中的目的在于:旁观者可以用自己的手机作为观察窗口,从自己的视角观察到玩家的虚拟世界,并可以通过移动手机观看到不同角度的虚拟世界,具体如下:
1、手机请求连接到AR眼镜,如通过WiFi或蓝牙实现请求连接
2、AR眼镜授权手机可以连接进行共享,并且建立数据通路;其中,手机可以是经过AR眼镜设置授权过的,也可以是默认所有连接的设备均授权,或者为AR眼镜设置授权列表;
3、手机用户选择旁观者在虚拟世界的位置,比如可选上帝视角,AR眼镜中虚拟对象如主角虚拟猫的位置等等;
4、手机发送自己的姿势信息给AR眼镜,AR眼镜通过计算位置,手机方向,生成手机上应当看到的图像,例如,手机可以通过陀螺仪、定位装置等获得姿势信息,如位置、倾斜角度和朝向等。
5、手机显示实时输出AR眼镜生成并发送的图像。
其中,以上位置和方向等信息,旁观者可以自己根据需求随时控制。
以下以第一电子设备和第二电子设备均为AR或VR系统如虚拟宠物玩家AR设备为例,对本实施例中的方案进行举例说明:
本实施例中的目的在于:AR用户之间可以共享自己的某一个或多个虚拟物品,具体如下:
1、正在使用AR设备的用户,可以选择是否分享,是否愿意接受分享的设置;
2、用户A若是在使用AR设备,可以通过AR识别出来周围拥有AR设备并且有意愿分享/接受分享的人,具体的,AR设备可以通过设置加光晕或者加标识来表明自己有意愿分享或者可以接收分享,由此其他AR设备可以通过光晕或者标识来识别;
3、通过AR用户的操作指令,选中某个加光晕或者标识的AR用户B后,可以看到此人愿意提供分享的AR实体,如虚拟猫,以及所在位置,选中一个或者多个AR实体后,此AR实体会在两个用户间的AR设备中同步出现;
4、用户A选中一个自己的虚拟实体,再选一个附近的用户C向用户C提供虚拟实体的共享,对方接受后两人就能同时看到虚拟实体。
5、共享的虚拟实体间可以交互。
例如,用户A在公园里溜AR猫,附近有用户B在溜他的AR狗,并且彼此都愿意分享,可以有三种共享方式:
1、用户A把猫分享给用户B,用户B可以看到用户A的猫,用户A看不到用户B的狗,猫狗之间也不能交互,如图23中所示,用户A的猫在用户B的AR眼镜中的呈现效果可以根据用户B的AR眼镜的姿态信息等确定,该呈现效果包括:用户A的猫相对于用户B在现实场景的位置、方向、大小、运动特征和运动状态中的一种或多种;
2、用户B把狗分享给用户A,用户A可以看到用户B的狗,用户B看不到用户A的猫,猫狗之间也不能交互,如图24中所示,用户B的狗在用户A的AR眼镜中的呈现效果可以根据用户A的AR眼镜的姿态信息等确定,该呈现效果包括:用户B的狗相对于用户A在现实场景的位置、方向、大小、运动特征和运动状态中的一种或多种;
3、猫和狗都在分享状态,如图25中所示,用户A能看猫和狗,用户B能看到猫和狗,用户A的猫和用户B的狗在对方的眼镜中的呈现效果可以根据对方的姿态信息等确定,相应的呈现效果包括:用户A的猫和用户B的狗各自相对于对方的眼镜所在现实场景的位置、方向、大小、运动特征和运动状态中的一种或多种;而猫和狗之间可以互相交互,比如,在用户A和用户B的操作下来场猫狗大战。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种显示控制方法,应用于第一电子设备,所述方法包括:
在第二电子设备同意分享所述第二电子设备输出的目标虚拟对象的情况下,获得所述第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据;
输出获得的目标虚拟对象的数据,以使得所述第一电子设备的用户观看到包含现实场景以及所述目标虚拟对象的画面。
2.根据权利要求1所述的方法,其特征在于,还包括:
获得所述第一电子设备的姿态信息;
至少基于所述姿态信息,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出获得的目标虚拟对象的数据,包括:
基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
3.根据权利要求2所述的方法,其特征在于,所述目标虚拟对象在所述第一电子设备输出时的呈现效果,包括:
所述目标虚拟对象相对于所述第一电子设备所在的现实场景的方向、位置、大小、运动特征和运动状态中的一种或多种的呈现效果。
4.根据权利要求1所述的方法,其特征在于,还包括:
获得所述第一电子设备与所述第二电子设备的相对位置关系和/或相对运动关系;
至少基于所述相对位置关系和/或相对运动关系,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出获得的目标虚拟对象的数据,包括:
基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
5.一种显示控制方法,应用于第二电子设备,包括:
获得一操作指令;
响应于所述操作指令,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象;
发送所述目标虚拟对象的数据,以使得第一电子设备获得并输出所述目标虚拟对象的画面。
6.根据权利要求5所述的方法,其特征在于,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象,包括:
从所述第二电子设备在现实场景中输出的虚拟场景图像中确定目标虚拟对象;或
从所述第二电子设备输出的包含现实场景图像以及虚拟场景图像的图像中确定目标虚拟对象。
7.一种电子设备,包括:
处理单元,用于在第二电子设备同意分享所述第二电子设备输出的目标虚拟对象的情况下,获得所述第二电子设备所输出的虚拟场景图像中的至少一个目标虚拟对象的数据;
输出单元,用于输出获得的目标虚拟对象的数据,以使得所述电子设备的用户观看到包含现实场景以及所述目标虚拟对象的画面。
8.根据权利要求7所述的电子设备,其特征在于,所述处理单元还用于:
获得所述电子设备的姿态信息,至少基于所述姿态信息,确定所述获得的目标虚拟对象在所述电子设备输出时的呈现效果;
其中,所述输出单元具体用于:基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
9.根据权利要求7所述的电子设备,其特征在于,所述处理单元还用于:
获得所述第一电子设备与所述第二电子设备的相对位置关系和/或相对运动关系,至少基于所述相对位置关系和/或相对运动关系,确定所述获得的目标虚拟对象在所述第一电子设备输出时的呈现效果;
其中,所述输出单元具体用于:基于所述呈现效果,输出所述获得的目标虚拟对象的数据。
10.一种电子设备,包括:
处理单元,用于获得一操作指令,响应于所述操作指令,在所述第二电子设备输出的虚拟场景图像中确定目标虚拟对象;
传输单元,用于发送所述目标虚拟对象的数据,以使得第一电子设备获得并输出所述目标虚拟对象的画面。
CN201810272579.5A 2018-03-29 2018-03-29 一种显示控制方法及电子设备 Active CN108479060B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810272579.5A CN108479060B (zh) 2018-03-29 2018-03-29 一种显示控制方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810272579.5A CN108479060B (zh) 2018-03-29 2018-03-29 一种显示控制方法及电子设备

Publications (2)

Publication Number Publication Date
CN108479060A true CN108479060A (zh) 2018-09-04
CN108479060B CN108479060B (zh) 2021-04-13

Family

ID=63317001

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810272579.5A Active CN108479060B (zh) 2018-03-29 2018-03-29 一种显示控制方法及电子设备

Country Status (1)

Country Link
CN (1) CN108479060B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109992108A (zh) * 2019-03-08 2019-07-09 北京邮电大学 多用户交互的增强现实方法及系统
CN110515461A (zh) * 2019-08-23 2019-11-29 Oppo广东移动通信有限公司 交互方法、头戴设备、交互系统和存储介质
CN110908509A (zh) * 2019-11-05 2020-03-24 Oppo广东移动通信有限公司 多增强现实设备的协作方法及装置、电子设备、存储介质
CN111061575A (zh) * 2019-11-27 2020-04-24 Oppo广东移动通信有限公司 数据处理方法、装置、用户设备及增强现实系统
CN111208903A (zh) * 2019-12-31 2020-05-29 维沃移动通信有限公司 信息传输方法、穿戴式设备及介质
CN111381670A (zh) * 2018-12-29 2020-07-07 广东虚拟现实科技有限公司 虚拟内容的交互方法、装置、系统、终端设备及存储介质
CN111459432A (zh) * 2020-03-30 2020-07-28 Oppo广东移动通信有限公司 虚拟内容的显示方法、装置、电子设备及存储介质
CN111965823A (zh) * 2020-08-22 2020-11-20 江苏科群通讯建设有限公司 一种虚拟现实眼镜、终端设备及系统
CN112165629A (zh) * 2020-09-30 2021-01-01 中国联合网络通信集团有限公司 智能直播方法、可穿戴设备及智能直播系统
CN112632438A (zh) * 2020-12-05 2021-04-09 宁波绿能科创文化艺术发展有限公司 一种远程祈福/祭拜方法、系统、智能终端和介质
CN113965609A (zh) * 2021-09-13 2022-01-21 武汉灏存科技有限公司 群控式交互系统及方法
CN114489342A (zh) * 2022-01-29 2022-05-13 联想(北京)有限公司 图像处理方法、装置及电子设备
CN115967796A (zh) * 2021-10-13 2023-04-14 北京字节跳动网络技术有限公司 Ar对象共享方法、装置及设备
WO2024045854A1 (zh) * 2022-08-31 2024-03-07 华为云计算技术有限公司 一种虚拟数字内容显示系统、方法与电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077023A (zh) * 2013-03-28 2014-10-01 索尼公司 显示控制设备、显示控制方法以及记录介质
US20140368534A1 (en) * 2013-06-18 2014-12-18 Tom G. Salter Concurrent optimal viewing of virtual objects
CN105808071A (zh) * 2016-03-31 2016-07-27 联想(北京)有限公司 一种显示控制方法、装置和电子设备
CN107678715A (zh) * 2016-08-02 2018-02-09 北京康得新创科技股份有限公司 虚拟信息的共享方法,装置和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077023A (zh) * 2013-03-28 2014-10-01 索尼公司 显示控制设备、显示控制方法以及记录介质
US20140368534A1 (en) * 2013-06-18 2014-12-18 Tom G. Salter Concurrent optimal viewing of virtual objects
CN105808071A (zh) * 2016-03-31 2016-07-27 联想(北京)有限公司 一种显示控制方法、装置和电子设备
CN107678715A (zh) * 2016-08-02 2018-02-09 北京康得新创科技股份有限公司 虚拟信息的共享方法,装置和系统

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111381670A (zh) * 2018-12-29 2020-07-07 广东虚拟现实科技有限公司 虚拟内容的交互方法、装置、系统、终端设备及存储介质
CN111381670B (zh) * 2018-12-29 2022-04-01 广东虚拟现实科技有限公司 虚拟内容的交互方法、装置、系统、终端设备及存储介质
CN109992108B (zh) * 2019-03-08 2020-09-04 北京邮电大学 多用户交互的增强现实方法及系统
CN109992108A (zh) * 2019-03-08 2019-07-09 北京邮电大学 多用户交互的增强现实方法及系统
CN110515461A (zh) * 2019-08-23 2019-11-29 Oppo广东移动通信有限公司 交互方法、头戴设备、交互系统和存储介质
CN110908509A (zh) * 2019-11-05 2020-03-24 Oppo广东移动通信有限公司 多增强现实设备的协作方法及装置、电子设备、存储介质
CN110908509B (zh) * 2019-11-05 2022-11-22 Oppo广东移动通信有限公司 多增强现实设备的协作方法及装置、电子设备、存储介质
WO2021104032A1 (zh) * 2019-11-27 2021-06-03 Oppo广东移动通信有限公司 数据处理方法、装置、用户设备及增强现实系统
CN111061575A (zh) * 2019-11-27 2020-04-24 Oppo广东移动通信有限公司 数据处理方法、装置、用户设备及增强现实系统
CN111208903A (zh) * 2019-12-31 2020-05-29 维沃移动通信有限公司 信息传输方法、穿戴式设备及介质
CN111208903B (zh) * 2019-12-31 2022-07-05 维沃移动通信有限公司 信息传输方法、穿戴式设备及介质
CN111459432A (zh) * 2020-03-30 2020-07-28 Oppo广东移动通信有限公司 虚拟内容的显示方法、装置、电子设备及存储介质
CN111965823A (zh) * 2020-08-22 2020-11-20 江苏科群通讯建设有限公司 一种虚拟现实眼镜、终端设备及系统
CN112165629A (zh) * 2020-09-30 2021-01-01 中国联合网络通信集团有限公司 智能直播方法、可穿戴设备及智能直播系统
CN112165629B (zh) * 2020-09-30 2022-05-13 中国联合网络通信集团有限公司 智能直播方法、可穿戴设备及智能直播系统
CN112632438A (zh) * 2020-12-05 2021-04-09 宁波绿能科创文化艺术发展有限公司 一种远程祈福/祭拜方法、系统、智能终端和介质
CN113965609A (zh) * 2021-09-13 2022-01-21 武汉灏存科技有限公司 群控式交互系统及方法
CN113965609B (zh) * 2021-09-13 2024-04-26 武汉灏存科技有限公司 群控式交互系统及方法
CN115967796A (zh) * 2021-10-13 2023-04-14 北京字节跳动网络技术有限公司 Ar对象共享方法、装置及设备
CN114489342A (zh) * 2022-01-29 2022-05-13 联想(北京)有限公司 图像处理方法、装置及电子设备
WO2024045854A1 (zh) * 2022-08-31 2024-03-07 华为云计算技术有限公司 一种虚拟数字内容显示系统、方法与电子设备

Also Published As

Publication number Publication date
CN108479060B (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
CN108479060A (zh) 一种显示控制方法及电子设备
CN109426333B (zh) 一种基于虚拟空间场景的信息交互方法及装置
TWI594174B (zh) 頭戴顯示器之追蹤系統、方法及裝置
CN102939139B (zh) 共享虚拟空间中便携式设备的校准
CN107852573A (zh) 混合现实社交交互
US9947139B2 (en) Method and apparatus for providing hybrid reality environment
EP2579128B1 (en) Portable device, virtual reality system and method
CN106683197A (zh) 一种融合vr和ar技术的楼盘展示系统及其方法
KR101601805B1 (ko) 스토리 기반 가상 체험 학습을 위한 혼합 현실 콘텐츠 제공 장치 및 방법
US20170353658A1 (en) Immersive capture and review
CN105452994A (zh) 虚拟物体的同时优选观看
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理系统及处理方法
CN106162204A (zh) 全景视频生成、播放方法、装置及系统
CN106775528A (zh) 一种虚拟现实的旅游系统
CN108132490A (zh) 基于定位系统和ar/mr的探测系统及探测方法
CN107103645A (zh) 虚拟现实媒体文件生成方法及装置
CN107329268A (zh) 一种利用ar眼镜实现景点共享的方法
JP2018533317A (ja) 仮想現実映像伝送方法、再生方法、及びこれらを用いたプログラム
CN107995097A (zh) 一种互动ar红包的方法及系统
US20240106883A1 (en) Location-Based Content Sharing Via Tethering
CN105183142B (zh) 一种利用空间位置装订的数字信息复现方法
Davies et al. Mobile cross reality for cultural heritage
CN113093915A (zh) 多人互动的控制方法、装置、设备及存储介质
CN106383679A (zh) 一种定位方法及其终端设备
Yuan et al. Virtual fire drill system supporting co-located collaboration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant