CN111124136A - 虚拟画面同步方法及穿戴式设备 - Google Patents

虚拟画面同步方法及穿戴式设备 Download PDF

Info

Publication number
CN111124136A
CN111124136A CN201911418240.2A CN201911418240A CN111124136A CN 111124136 A CN111124136 A CN 111124136A CN 201911418240 A CN201911418240 A CN 201911418240A CN 111124136 A CN111124136 A CN 111124136A
Authority
CN
China
Prior art keywords
wearable device
display
input
virtual
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911418240.2A
Other languages
English (en)
Inventor
凌深宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN201911418240.2A priority Critical patent/CN111124136A/zh
Publication of CN111124136A publication Critical patent/CN111124136A/zh
Priority to PCT/CN2020/140836 priority patent/WO2021136266A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供一种虚拟画面同步方法及穿戴式设备,应用于通信技术领域,以解决相关技术中AR设备之间共享虚拟信息时,由于存储和下载过程耗时较长导致的AR设备之间延时大的问题。该方法包括:接收用户的第一输入;响应第一输入,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示;其中,第二穿戴式设备为基于第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,目标区域为第一输入选择的区域。本发明实施例应用于画面同步场景。

Description

虚拟画面同步方法及穿戴式设备
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种虚拟画面同步方法及穿戴式设备。
背景技术
随着增强现实(augmented reality,AR)技术的不断发展,用户使用AR设备的频率越来越高。以AR眼镜为例,在AR眼镜的使用中,由于工作交流、游戏分享等原因,当用户想要将AR眼镜内的虚拟信息与其他使用AR眼镜的用户共享时,通常需要用户将AR眼镜内的虚拟信息(例如,AR眼镜的显示画面)上传到服务器中,再由其他用户下载。
然而,由于上述存储和下载过程费时较长,导致用户的AR眼镜之间的画面存在较大延时。
发明内容
本发明实施例提供一种虚拟画面同步方法及穿戴式设备,能够解决相关技术中AR设备之间共享虚拟信息时,由于存储和下载过程耗时较长导致的AR设备之间延时大的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本发明实施例提供一种虚拟画面同步方法,该方法包括:接收用户的第一输入;响应第一输入,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示;其中,第二穿戴式设备为基于第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,目标区域为第一输入选择的区域。
第二方面,本发明实施例还提供了第一穿戴式设备,该第一穿戴式设备包括:接收模块和同步模块;接收模块,用于接收用户的第一输入;同步模块,用于响应接收模块接收到的第一输入,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示;其中,第二穿戴式设备为基于第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,目标区域为第一输入选择的区域。
第三方面,本发明实施例提供了一种电子设备,包括处理器、存储器及存储在该存储器上并可在该处理器上运行的计算机程序,该计算机程序被该处理器执行时实现如第一方面所述的虚拟画面同步方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现如第一方面所述的虚拟画面同步方法的步骤。
在本发明实施例中,当第一穿戴式设备的目标区域的显示画面中包含第二穿戴式设备时,第一穿戴式设备通过将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的显示区域,能够方便快捷地实现第一穿戴式设备的画面共享。
附图说明
图1为本发明实施例提供的一种可能的操作系统的架构示意图;
图2为本发明实施例提供的一种虚拟画面同步方法的流程示意图;
图3为本发明实施例提供的一种虚拟画面同步方法所应用的界面的示意图之一;
图4为本发明实施例提供的一种虚拟画面同步方法所应用的界面的示意图之二;
图5为本发明实施例提供的一种虚拟画面同步方法所应用的界面的示意图之三;
图6为本发明实施例提供的一种虚拟画面同步方法所应用的界面的示意图之四;
图7为本发明实施例提供的一种虚拟画面同步方法所应用的界面的示意图之五;
图8为本发明实施例提供的一种第一穿戴式设备的结构示意图;
图9为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本文中的“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
需要说明的是,本文中的“多个”是指两个或多于两个。
需要说明的是,本发明实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本发明实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
需要说明的是,为了便于清楚描述本发明实施例的技术方案,在本发明实施例中,采用了“第一”、“第二”等字样对功能或作用基本相同的相同项或相似项进行区分,本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定。例如,第一穿戴式设备和第二穿戴式设备是用于区别不同的穿戴式设备,而不是用于描述穿戴式设备的特定顺序。
本发明实施例提供的虚拟画面同步方法的执行主体可以为第一穿戴式设备,也可以为第一穿戴式设备中能够实现该虚拟画面同步方法的功能模块和/或功能实体,具体的可以根据实际使用需求确定,本发明实施例不作限定。
本发明实施例中的穿戴式设备可以为:AR眼镜,AR头盔,智能手环,智能手表等。需要说明的是,本发明实施例中的第一穿戴式设备与第二穿戴式设备可以为相同穿戴式设备(如,均为AR眼镜),也可以为不同穿戴式设备(如,第一穿戴式设备为AR眼镜,第二穿戴式设备为手机),本发明实施例对此不作限定。
本发明实施例中的虚拟屏幕,可以为采用AR技术显示内容时,能够用于显示投射设备投射的内容的任意载体。其中,该投射设备可以为采用AR技术的投射设备,例如本发明实施例中的电子设备、穿戴式设备或AR设备。
当采用AR技术在虚拟屏幕显示内容时,投射设备可以将投射设备获取(或内部集成的)的虚拟场景,或虚拟场景和现实场景投射至虚拟屏幕上,使得虚拟屏幕可以显示这些内容,从而向用户展示现实场景与虚拟场景叠加的效果。
结合AR技术应用的不同场景,虚拟屏幕通常可以为电子设备(例如手机)的显示屏、AR眼镜的镜片、汽车的挡风玻璃、房间的墙壁等任意可能的载体。
下面分别以虚拟屏幕为电子设备的显示屏、AR眼镜的镜片,以及汽车的挡风玻璃为例,对采用AR技术在虚拟屏幕上显示内容的过程进行示例性的说明。
一种示例中,当虚拟屏幕为电子设备的显示屏时,投射设备可以为该电子设备。电子设备可以通过其摄像头采集电子设备所处区域中的现实场景,并将该现实场景显示在电子设备的显示屏上,然后电子设备可以将其获取(或内部集成的)的虚拟场景投射到电子设备的显示屏上,从而使得该虚拟场景可以叠加显示在该现实场景中,进而使得用户可以通过电子设备的显示屏看到现实场景和虚拟场景叠加后的效果。
另一种示例中,当虚拟屏幕为AR眼镜的镜片时,投射设备可以为该AR眼镜。当用户佩戴眼镜时,用户可以通过AR眼镜的镜片看到其所处区域中的现实场景,并且AR眼镜可以将其获取(或内部集成的)的虚拟场景投射到AR眼镜的镜片上,从而使得用户可以通过AR眼镜的镜片看到现实场景和虚拟场景叠加后的显示效果。
又一种示例中,当虚拟屏幕为汽车的挡风玻璃时,投射设备可以为任意电子设备。当用户位于汽车内时,用户可以通过汽车的挡风玻璃看到其所处区域中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到汽车的挡风玻璃上,从而使得用户可以通过汽车的挡风玻璃看到现实场景和虚拟场景叠加后的显示效果。
当然,本发明实施例中,也可以不限定虚拟屏幕的具体形式,例如其可能为非载体的现实空间。这种情况下,当用户位于现实空间中时,用户可以直接看到该现实空间中的现实场景,并且投射设备可以将其获取(或内部集成的)的虚拟场景投射到现实空间中,从而使得用户在现实空间中可以看到现实场景和虚拟场景叠加后的显示效果。
本发明实施例中的穿戴式设备可以为具有操作系统的穿戴式设备。该操作系统可以为安卓(Android)操作系统,可以为ios操作系统,还可以为其他可能的操作系统,本发明实施例不作具体限定。
下面以操作系统为例,介绍一下本发明实施例提供的虚拟画面同步方法所应用的软件环境。
如图1所示,为本发明实施例提供的一种可能的操作系统的架构示意图。在图1中,操作系统的架构包括4层,分别为:应用程序层、应用程序框架层、系统运行库层和内核层(具体可以为Linux内核层)。
其中,应用程序层包括操作系统中的各个应用程序(包括系统应用程序和第三方应用程序)。
应用程序框架层是应用程序的框架,开发人员可以在遵守应用程序的框架的开发原则的情况下,基于应用程序框架层开发一些应用程序。
系统运行库层包括库(也称为系统库)和操作系统运行环境。库主要为操作系统提供其所需的各类资源。操作系统运行环境用于为操作系统提供软件环境。
内核层是操作系统的操作系统层,属于操作系统软件层次的最底层。内核层基于Linux内核为操作系统提供核心系统服务和与硬件相关的驱动程序。
以操作系统为例,本发明实施例中,开发人员可以基于上述如图1所示的操作系统的系统架构,开发实现本发明实施例提供的虚拟画面同步方法的软件程序,从而使得该虚拟画面同步方法可以基于如图1所示的操作系统运行。即处理器或者穿戴式设备可以通过在操作系统中运行该软件程序实现本发明实施例提供的虚拟画面同步方法。
下面结合图2所示的虚拟画面同步方法流程图对本发明实施例的虚拟画面同步方法进行说明,图2为本发明实施例提供的一种虚拟画面同步方法流程示意图,如图2所示,本发明实施例提供的虚拟画面同步方法包括如下步骤201和步骤202:
步骤201、第一穿戴式设备接收用户的第一输入。
示例性的,上述第一输入可以包括:用户输入的特定手势,或者,用户对第一穿戴式设备的语音输入,或者,用户对第一穿戴式设备上某一特定按钮的输入,或者,用户的特定姿态。在一种示例中,上述的特定手势可以为:用户在第一穿戴式设备摄像头拍摄区域内的特定手势输入。
示例性的,上述特定手势可以为滑动手势、手掌悬停手势、单击手势、长按手势、面积变化手势、单指悬停手势和多指悬停手势中的任意一种,本发明实施例对此不作限定。
步骤202、响应第一输入,第一穿戴式设备将该第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示。
其中,第二穿戴式设备为基于第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,上述目标区域为第一输入选择的区域。
示例性的,上述用户第一输入选择的目标区域可以为用户通过第一穿戴式设备上的按钮或者用户通过语音输入控制第一穿戴式设备确定的目标区域。
示例性的,第一穿戴式设备的拍摄预览画面包括:该第一穿戴式设备的摄像头拍摄的真实画面以及基于该真实画面生成的虚拟画面。
示例性的,上述虚拟画面为:上述第一穿戴式设备根据该第一穿戴式设备上设置的摄像头拍摄的目标物体生成的虚拟信息。例如,当上述第一穿戴式设备的摄像头拍摄的画面中包含一个桌子时,上述虚拟画面可以包括:以标识形式显示在第一虚拟屏幕上的该桌子的长宽高标识。
在一种示例中,在上述第一穿戴式设备将该第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示后,当上述第二穿戴式设备的第二虚拟屏幕显示有上述目标物体时,第二穿戴式设备会将接收到的上述虚拟信息标记在上述目标物体上。
例1,在第二穿戴式设备接收到第一穿戴式设备同步的桌子的长宽高标识的情况下,当第二穿戴式设备的第二虚拟屏幕的显示画面中包括该桌子时,第二穿戴式设备会在第二虚拟屏幕上显示该桌子的长宽高标识。
例2,以第一穿戴式设备和第二穿戴式设备均为AR眼镜为例,用户使用AR眼镜1进行游戏(例如,在桌子上做蛋糕),游戏结束后,该用户将AR眼镜1的上述虚拟画面(例如,做好的蛋糕)发送至其他用户的AR眼镜2,当其他用户的AR眼镜2的拍摄预览画面中出现上述桌子时,AR眼镜2的拍摄预览画面中会显示AR眼镜1同步的虚拟画面(例如,在桌子上显示AR眼镜1的用户做好的蛋糕)。
在另一种示例中,在上述第一穿戴式设备将该第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示后,第二穿戴式设备可以直接在第二虚拟屏幕上显示该虚拟画面。
例3,以第一穿戴式设备和第二穿戴式设备均为AR眼镜为例,用户使用AR眼镜1进行游戏(例如,用虚拟积木搭建房屋),游戏结束后,该用户将AR眼镜1的上述虚拟画面(例如,用户搭建好的房屋)发送至其他用户的AR眼镜2,其他用户的AR眼镜2上可以直接显示用户使用AR眼镜1搭建好的房屋。
示例性的,响应用户的第一输入,第一穿戴式设备在其第一虚拟屏幕的显示区域中确定目标区域,并将目标区域范围内的穿戴式设备确定为第二穿戴式设备。
示例性的,在第一穿戴式设备确定目标区域范围内的第二穿戴式设备的情况下,为了将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示,第一穿戴式设备需要与第二穿戴式设备建立连接。
可选的,第一穿戴式设备在同步虚拟画面之前可以建立第一穿戴式设备与第二穿戴式设备间的通信连接。示例性的,在上述步骤202之前,本发明实施例提供的虚拟画面同步方法还可以包括以下步骤301和步骤302:
步骤301、第一穿戴式设备通过红外发射装置,向第二穿戴式设备发送红外信号,该红外信号包括:第一穿戴式设备的设备特征编码,以使得第二穿戴式设备能够通过该设备特征编码与第一穿戴式设备建立连接。
示例性的,第一穿戴式设备可以包括:红外发送装置;第二穿戴式设备还包括:红外接收装置。
步骤302、第二穿戴式设备的红外接收装置接收到第一穿戴式设备发送的红外信号后,通过该设备特征编码与第一穿戴式设备建立连接。
示例性的,在第一穿戴式设备与第二穿戴式设备建立连接后,第一穿戴式设备将第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示。
示例性的,为了防止非用户选择的穿戴式设备接收到上述红外信号,上述第一穿戴式设备向第二穿戴式设备发送的红外信号的发送方式为定向发送。
举例说明,当用户想要开启本发明实施例提供的虚拟画面同步功能时,如图3中(A)所示,为第一穿戴式设备的拍摄预览画面,其中包括虚拟控件30、使用可穿戴式设备的其他用户。用户可以通过将单手手指与上述虚拟控件30重合2秒的方式,开启本发明实施例提供的虚拟画面同步方法。
示例性的,本发明实施例提供的第一穿戴式设备设置有图像采集装置(例如,摄像头)。以第一穿戴式设备为AR眼镜为例,该图像采集装置可以采集使用该第一穿戴式设备的用户面前的实时画面图像,以使得该第一穿戴式设备能够从集到的实时画面图像中识别用户在第一穿戴式设备摄像头拍摄区域内的特定手势输入。
本发明实施例提供的虚拟画面同步方法可以应用于多种场景下,方便用户采用不同的选择方式选择需要与之进行虚拟画面同步的第二穿戴式设备。
在第一种可能的场景下:
在该场景下,当用户需要同时与多个第二穿戴式设备进行虚拟画面同步时,可以通过创建选择框,框选一定范围内多个第二穿戴式设备,并与选择框范围内包含的第二穿戴式设备进行虚拟画面同步的方式,来达到上述目的。
可选的,在本发明实施例中,为了快速选择第二穿戴式设备降低第一穿戴式设备的数据处理负荷,第一穿戴式设备可以通过创建选择框,来选择第二穿戴式设备。
示例性的,上述步骤202还可以包括以下步骤202a和步骤202b:
步骤202a、响应第一输入,第一穿戴式设备在拍摄预览画面上,创建选择框。
步骤202b、第一穿戴式设备将选择框所框选的穿戴式设备确定为第二穿戴式设备,并将虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示。
示例性的,上述的选择框的形状可以为圆形、矩形、三角形、菱形、圆环或者多边形等任意可能的形状,具体可以根据实际使用需求确定,本发明实施例不作限定。
举例说明,以矩形选择框为例。当第一穿戴式设备和第二穿戴式设备均为AR眼镜的情况下,如图3所示,第一穿戴式设备的第一虚拟屏幕中显示有虚拟画面同步功能虚拟控件(如图3中的30),当用户想要开启虚拟画面同步功能,则用户手指移动至同步功能虚拟控件30所在的位置,并停留2秒,从而开启虚拟画面同步功能,在画面同步功能开启后,如图3所示,第一穿戴式设备会在显示画面上创建一个矩形选择框(如图3中的31)。其中,选择框31用于选择第一穿戴式设备的拍摄预览画面中的穿戴式设备。
如此,第一穿戴式设备只需要识别选择框内的穿戴式设备,减少了第一穿戴式设备的数据处理负荷,同时也可以减少第一穿戴式设备的能耗。
进一步可选的,在第一穿戴式设备创建选择框后,第一穿戴式设备可以用户的特定输入,根据实际需求扩大或缩小选择框的范围。
示例性的,在上述第一输入包括:用户第一手部和第二手部的第一子输入的情况下,上述步骤202a可以包括以下步骤202a1和步骤202a2:
步骤202a1、在第一穿戴式设备的拍摄预览画面中包含第一子输入的情况下,基于目标矩形对角线,第一穿戴式设备在拍摄预览画面上,显示选择框。
步骤202a2、在接收到用户的第二子输入的情况下,第一穿戴式设备更新选择框的显示。
其中,上述第一子输入用于触发第一穿戴式设备创建选择框,上述第二子输入用于触发第一穿戴式设备调节选择框的大小。上述目标矩形对角线为第一手部的第一部位和第二手部的第二部位之间的连线。
示例性的,上述第一手部和第二手部的第一子输入可以为用户伸出双手手指的手势输入,当第一穿戴式设备识别出该手势输入后,在其拍摄换面上显示用于选择第二穿戴式设备的选择框。
示例性的,上述第二子输入可以为用户双手伸出一根手指并沿对角线(即上述选择框的对角线)向两边展开或向中间聚集的手势输入。当第一穿戴式设备识别出拍摄预览画面内双手伸出一根手指的手势时,即开始创建框选区域,根据手指经过的对角线创建矩形的选择框,并通过移动双手手指来调节选择框的范围大小。
在一种示例中,如图3中(B)所示,第一穿戴式设备在识别到用户双手分别伸出手指的手势后,以两手伸出的手指指尖的连线作为矩形的对角线,创建一个矩形选择框31,并通过移动手指对矩形选择框31的大小进行调整,在此期间,矩形选择框31的两个端点始终随着手指的移动而移动。
在另一种示例中,如图4中(A)所示,第一穿戴式设备在开启画面同步功能后,识别到用户双手分别伸出手指的手势,会在显示画面的目标位置创建一个预设大小的矩形选择框。用户可以将两手手指移动至该矩形选择框41的两个端点,通过移动手指对矩形选择框41的大小和位置进行调整。例如,第一穿戴式设备创建的预设大小的矩形选择框41可以按照上述方法,调整成为如图4中(B)所示的选择框42。
如此,用户可以通过手势输入在第一穿戴式设备的拍摄预览画面上显示选择框,并可以通过手势对选择框的范围大小进行调整,以使得用户可以通过调节选择框的大小,将想要进行画面同步的穿戴式设备划入选择框范围内。
进一步可选的,用户将选择框调整为合适的大小后,需要锁定选择框的大小,防止用户在将手指移出拍摄预览画面时依然能够调整选择框的大小。
示例性的,在用户完成选择框的调整后,在上述步骤202a2之后,本发明实施例提供的虚拟画面同步方法还可以包括以下步骤202a3:
步骤202a3、在接收到用户的第三子输入的情况下,第一穿戴式设备锁定选择框的显示。
示例性的,上述第三子输入可以为用户双手手掌摊开的手势输入,当第一穿戴式设备检测到拍摄预览画面中含有用户双手手掌摊开的手势输入时,锁定选择框的大小。
示例性的,上述锁定选择框的大小,包括:固定选择框的大小和位置。
示例性的,当第一穿戴式设备检测到用户双手手掌摊开的手势时,则完成选择框的创建,并将选择框内包含的穿戴式设备确定为第二穿戴式设备。例如,以第一穿戴式设备与第二穿戴式设备均为AR眼镜为例,如图5所示,当AR眼镜识别出显示画面内用户手势变为双手手掌摊开的手势,则完成选择框31的创建,并识别该选择框内是否包含佩戴AR眼镜的用户,同时搜索选择框内的AR眼镜,向其同步显示画面。
如此,当用户通过双手手掌摊开的手势输入锁定选择框的大小时,用户可以安全的将双手放下,不会对选择框的大小产生影响。
可选的,当第一穿戴式设备拍摄预览画面的选择框被锁定,并且第一穿戴式设备从选择框内确定第二穿戴式设备后,需要在选择框内标记出第二穿戴式设备的所处位置。
示例性的,在上述步骤202b中将选择框所框选的穿戴式设备确定为第二穿戴式设备后,本发明实施例提供的虚拟画面同步方法还包括以下步骤202b1:
步骤202b1、第一穿戴式设备在拍摄预览画面上的第一区域,显示第一标识。
其中,第一标识用于标记第二穿戴式设备,第一区域为第二穿戴式设备所在区域。
示例性的,上述第一区域为第一穿戴式设备的拍摄预览画面中选择框内的第二穿戴式设备所在区域,第一穿戴式设备为了提示用户第二穿戴式设备在拍摄预览画面中的位置,在第二穿戴式设备的所在区域范围内显示第一标识。
示例性的,上述第一标识可以为红色圆点,通过在上述第一区域显示红色圆点,来标记第一穿戴式设备的拍摄预览画面内的第二穿戴式设备。
例如,以第一穿戴式设备与第二穿戴式设备均为AR眼镜为例,参照图5,当用户完成选择框31的创建后,第一穿戴式设备识别选择框31内佩戴AR眼镜的用户,并同时检索选择框31范围内的AR眼镜,在选择框31内的两个AR眼镜所在位置上显示原点标识(即上述的第一标识,如图5中的32),从而标记该AR眼镜的位置。
如此,用户可以清楚的看到第一穿戴式设备的拍摄预览画面的选择框内的第二穿戴式设备的位置,方便用户从中进行二次筛选。
可选的,由于上述选择框为矩形,选择范围较大,很有可能包含用户不想与其进行虚拟画面同步的穿戴式设备。此时,用户可以对选择框内的第二穿戴式设备进行筛选。
示例性的,在上述步骤202b1后,本发明实施例提供的虚拟画面同步方法可以包括以下步骤202b2:
步骤202b2、在第二穿戴式设备被目标对象遮挡的情况下,第一穿戴式设备取消第一标识的显示。
示例性的,上述目标对象可以为用户的手掌,或者其他不透光的物体。
示例性的,使用目标对象遮挡第二穿戴式设备,是为了使被遮挡的穿戴式设备不会出现在第一穿戴式设备的拍摄预览画面的选择框内,如此,第一穿戴式设备不会将其确定为第二穿戴式设备。
示例性的,上述目标对象还用于遮挡第一穿戴式设备向第二穿戴式设备定向发送的红外信号。
示例性的,以第一穿戴式设备与第二穿戴式设备均为AR眼镜为例,当用户完成选择框的创建后,若选择框内存在用户不希望与之进行虚拟画面同步的AR眼镜时,如图6所示,使用单手手掌摊开手势将该AR眼镜遮掩2秒钟,被单手手掌摊开手势遮掩的对象将会取消选择,该AR眼镜位置的第一标识消失,使得第一穿戴式设备的显示画面不会同步至被单手手掌摊开手势遮掩的第二穿戴式设备的显示区域。
如此,当第一穿戴式设备的拍摄预览画面的选择框内包含用户不想与之进行虚拟画面同步的第二穿戴式设备时,可以通过遮挡该第二穿戴式设备的方式来防止与其进行虚拟画面同步。
在第二种可能的场景下:
在该场景下,当用户不方便使用手势创建选择框时,用户可以通过头部转动带动第一穿戴式设备进行转动,将第一穿戴式设备的第一虚拟屏幕上显示的第二标识对准第二穿戴式设备的方式,将第一穿戴式设备的虚拟画面同步至第二穿戴式设备。
可选的,在上述步骤202之前,本发明实施例提供的虚拟画面同步方法,可以包括以下步骤202c1:
步骤202c1、第一可穿戴式设备在目标区域的目标位置,显示第二标识。
示例性的,结合上述步骤202c1,在步骤202c1之后,上述步骤202还可以包括以下步骤202c2:
步骤202c2、第一可穿戴式设备将包括第二标识的第二区域中的穿戴式设备确定为第二穿戴式设备,并将虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示。
示例性的,当第一穿戴式设备确定目标区域后,在目标区域的目标位置显示第二标识。其中,目标区域可以为第一穿戴式设备的拍摄预览画面的全部显示区域,目标位置可以为上述目标区域的中心位置。
示例性的,上述第二标识可以为十字辅助线,也可以为图像,也可以为其他用于标记第二穿戴式设备的标识,本发明实施例对此不做限定。
示例性的,当上述第二标识位于第二区域的区域范围内时,第一穿戴式设备将处于第二区域范围内的穿戴式设备确定为第二穿戴式设备。
示例性的,上述第二区域为第二穿戴式设备所在区域。
如此,当用户想要与某个穿戴式设备进行虚拟画面同步时,只需要将第一穿戴式设备的拍摄预览画面上显示的第二标识对准该穿戴式设备(即两者的全部或部分位置重叠),即可将该穿戴式设备确定为第二穿戴式设备,并与之进行虚拟画面同步。
可选的,用户可以通过转动头部的方法,来控制第一穿戴式设备转动,并将其拍摄预览画面上显示的第二标识对准用户想要与之进行虚拟画面同步的穿戴式设备。
示例性的,上述步骤202c1之后,本发明实施例提供的虚拟画面同步方法,可以包括以下步骤202c3和步骤202c4:
步骤202c3、第一穿戴式设备获取第一穿戴式设备的转动方向和转动角度;
步骤202c4、第一穿戴式设备基于转动方向和转动角度,更新第二标识的显示位置。
示例性的,在上述第一穿戴式设备为头戴式设备(如,AR眼镜、AR头盔等)时,用户可以通过转动头部或者身体,来控制第一穿戴式设备的转动。
例如,当第一穿戴式设备的拍摄预览画面内含有用户想要与之进行虚拟画面同步的穿戴式设备,并且上述第二标识并没有对准该穿戴式设备的所在区域时,使用第一穿戴式设备的用户可以通过转动头部的方式将第二标识对准该穿戴式设备。
举例说明,以第一穿戴式设备和第二穿戴式设备均为AR眼镜为例,如图7所示,第一穿戴式设备的第一虚拟屏幕中显示有虚拟画面同步功能虚拟控件(如图7中的60),当用户想要开启虚拟画面同步功能时,用户手指移动至同步功能虚拟控件60所在的位置,并停留2秒,从而开启画面同步功能,在画面同步功能开启后,如图7所示,第一穿戴式设备会在拍摄预览画面上创建十字辅助线61,用户可以通过转动头部或者移动身体的方式,将十字辅助线61对转用户想要与之进行虚拟画面同步的穿戴式设备。
示例性的,在上述第二标识与第二穿戴式设备重叠的情况下,持续1秒后,将上述第一穿戴式设备的拍摄预览画面的虚拟画面同步至与第二标识位置重叠的第二穿戴式设备的第二虚拟屏幕。同步完成后,第一穿戴式设备的拍摄预览画面上显示“√”,表示传输完成,用户此时可继续转动头部,继续选择下一个需要进行虚拟画面同步的穿戴式设备。
如此,用户可以在不用伸出双手的情况下,通过转动头部或者移动身体的方式来确定第二穿戴式设备,避免用户在双手手持其他物件时,必须放下手中的物件来通过手势操控第一穿戴式设备的情况发生。
示例性的,在用户通过上述方法确定第二穿戴式设备之后,用户可以通过语音输入、按压第一穿戴式设备上的物理按键或者其他手势输入的方式,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕上显示。
可选的,当用户确定完需要进行画面同步的第二穿戴式设备后,将单指悬停手势移动至上述虚拟控件所在位置,悬停预设时间后,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕上显示。
示例性的,上述第一穿戴式设备可以通过第四代移动通信技术(the 4thgeneration mobile communication technology,4G)、第五代移动通信技术(the 5thgeneration mobile communication technology,5G)或者无线高保真(wirelessfidelity,WIFI)将第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示。
本发明实施例提供的虚拟画面同步方法,通过获取第一穿戴式设备的拍摄预览画面,在拍摄预览画面的目标区域中包括第二穿戴式设备的情况下,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示,能够方便快捷的实现第一穿戴式设备的画面共享,一定程度上避免了传统技术中AR设备之间共享虚拟信息时,由于存储和下载过程耗时较长导致的AR设备之间延时大的问题。
需要说明的是,本发明实施例中,上述各个方法附图所示的虚拟画面同步方法均是以结合本发明实施例中的一个附图为例示例性的说明的。具体实现时,上述各个方法附图所示的虚拟画面同步方法还可以结合上述实施例中示意的其它可以结合的任意附图实现,此处不再赘述。
图8为实现本发明实施例提供的一种第一穿戴式设备的可能的结构示意图,如图8所示,第一穿戴式设备500包括:接收模块501和同步模块502,其中:
接收模块501,用于接收用户的第一输入。同步模块502,用于响应接收模块501接收到的第一输入,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示。其中,第二穿戴式设备为基于第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,目标区域为第一输入选择的区域。
可选的,第一穿戴式设备500还包括:创建模块503和确定模块504。其中:创建模块503,用于响应第一输入,在拍摄预览画面上,创建选择框。确定模块504,用于将创建模块503创建的选择框所框选的穿戴式设备确定为第二穿戴式设备。同步模块502,还用于将虚拟画面同步至确定模块504确定的第二穿戴式设备的第二虚拟屏幕显示。
如此,第一穿戴式设备只需要识别选择框内的穿戴式设备,减少了第一穿戴式设备的数据处理负荷,同时也可以减少第一穿戴式设备的能耗。
可选的,第一穿戴式设备500还包括:显示模块505。第一输入包括:用户第一手部和第二手部的第一子输入;第一子输入用于触发第一穿戴式设备创建选择框。显示模块505,用于在拍摄预览画面中包含第一子输入的情况下,基于目标矩形对角线,在拍摄预览画面上,显示选择框。显示模块505,还用于在接收模块501接收到用户的第二子输入的情况下,更新选择框的显示。其中,目标矩形对角线为第一手部的第一部位和第二手部的第二部位之间的连线。
如此,用户可以通过手势输入在第一穿戴式设备的拍摄预览画面上显示选择框,并可以通过手势对选择框的范围大小进行调整,以使得用户可以通过调节选择框的大小,将想要进行画面同步的穿戴式设备划入选择框范围内。
可选的,显示模块505,还用于在接收模块501接收到用户的第三子输入的情况下,锁定选择框的显示。
如此,当用户通过双手手掌摊开的手势输入锁定选择框的大小时,用户可以安全的将双手放下,不会对选择框的大小产生影响。
可选的,显示模块505,还用于在拍摄预览画面上的第一区域,显示第一标识,第一标识用于标记第二穿戴式设备,第一区域为第二穿戴式设备所在区域。
如此,用户可以清楚的看到第一穿戴式设备的拍摄预览画面的选择框内的第二穿戴式设备的位置,方便用户从中进行二次筛选。
可选的,显示模块505,还用于在第二穿戴式设备被目标对象遮挡的情况下,取消第一标识的显示。
如此,当第一穿戴式设备的拍摄预览画面的选择框内包含用户不想与之进行虚拟画面同步的第二穿戴式设备时,可以通过遮挡该第二穿戴式设备的方式来防止与其进行虚拟画面同步。
可选的,显示模块505,还用于在目标区域的目标位置,显示第二标识。确定模块504,还用于将包括第二标识的第二区域中的穿戴式设备确定为第二穿戴式设备。显示模块505,还用于将虚拟画面同步至确定模块504确定的第二穿戴式设备的第二虚拟屏幕显示。
如此,当用户想要与某个穿戴式设备进行虚拟画面同步时,只需要将第一穿戴式设备的拍摄预览画面上显示的第二标识对准该穿戴式设备(即两者的全部或部分位置重叠),即可将该穿戴式设备确定为第二穿戴式设备,并与之进行虚拟画面同步。
可选的,第一穿戴式设备,还包括:获取模块506。获取模块506,用于获取第一穿戴式设备的转动方向和转动角度。显示模块505,还用于基于获取模块506获取的转动方向和转动角度,更新第二标识的显示位置。
如此,用户可以在不用伸出双手的情况下,通过转动头部或者移动身体的方式来确定第二穿戴式设备,避免用户在双手手持其他物件时,必须放下手中的物件来通过手势操控第一穿戴式设备的情况发生。
本发明实施例提供的穿戴式设备,通过获取第一穿戴式设备的拍摄预览画面,在拍摄预览画面的目标区域中包括第二穿戴式设备的情况下,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示,能够方便快捷的实现第一穿戴式设备的画面共享,一定程度上避免了传统技术中AR设备之间共享虚拟信息时,由于存储和下载过程耗时较长导致的AR设备之间延时大的问题。
本发明实施例提供的电子设备能够实现上述方法实施例中穿戴式设备实现的各个过程,为避免重复,这里不再赘述。
图9为实现本发明各个实施例的一种电子设备的硬件结构示意图,该电子设备100包括但不限于:射频单元101、网络模块102、音频输出单元103、输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、电源111以及摄像头组件112等部件。本领域技术人员可以理解,图9中示出的电子设备100的结构并不构成对电子设备的限定,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中,上述摄像头组件112包括摄像头,在本发明实施例中,电子设备100包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端设备、可穿戴设备、以及计步器等。
其中,处理器110,可以识别用户第一子输入,并根据第一子输入向显示单元106发送第一指令,显示单元106响应与处理器110发送的第一指令,基于目标矩形对角线,在第一穿戴式设备的拍摄预览画面上,显示选择框。其中,目标矩形对角线为第一手部的第一部位和第二手部的第二部位之间的连线。处理器110,还可以识别用户第二子输入,并根据第二子输入向显示单元106发送第二指令,显示单元106响应与处理器110发送的第二指令,基于目标矩形对角线,在第一穿戴式设备的拍摄预览画面上,更新选择框的显示。
本发明实施例提供的电子设备,通过获取第一穿戴式设备的拍摄预览画面,在拍摄预览画面的目标区域中包括第二穿戴式设备的情况下,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示,能够方便快捷的实现第一穿戴式设备的画面共享,一定程度上避免了传统技术中AR设备之间共享虚拟信息时,由于存储和下载过程耗时较长导致的AR设备之间延时大的问题。
应理解的是,本发明实施例中,射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信系统与网络和其他设备通信。
电子设备100通过网络模块102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元103可以将射频单元101或网络模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与电子设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103包括扬声器、蜂鸣器以及受话器等。
电子设备100获取该摄像头组件112中的摄像头拍摄的实时画面(例如,第一穿戴式设备的拍摄预览画面),并显示在显示单元106上。
输入单元104用于接收音频或视频信号。输入单元104可以包括图形处理器(GraphicsProcessing Unit,GPU)1041、麦克风1042和图像捕获装置1043,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或网络模块102进行发送。麦克风1042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。
电子设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在电子设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与电子设备100的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作)。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板1071可覆盖在显示面板1061上,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图9中,触控面板1071与显示面板1061是作为两个独立的部件来实现电子设备100的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现电子设备100的输入和输出功能,具体此处不做限定。
接口单元108为外部装置与电子设备100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备100内的一个或多个元件或者可以用于在电子设备100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是电子设备100的控制中心,利用各种接口和线路连接整个电子设备100的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行电子设备100的各种功能和处理数据,从而对电子设备100进行整体监控。处理器110可包括一个或多个处理单元;可选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
电子设备100还可以包括给各个部件供电的电源111(比如电池),可选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备100包括一些未示出的功能模块,在此不再赘述。
可选的,本发明实施例还提供一种AR设备,包括处理器,存储器,存储在存储器上并可在所述处理器110上运行的计算机程序,该计算机程序被处理器执行时实现上述虚拟画面同步方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
可选的,本发明实施例中,上述实施例中的电子设备可以为AR设备。具体的,当上述实施例中的电子设备(例如上述如图3所示的电子设备)为AR设备时,该AR设备可以包括上述电子设备中的全部或部分功能模块。当然,该AR设备还可以包括上述电子设备中未包括的功能模块。
可以理解,本发明实施例中,当上述实施例中的电子设备为AR设备时,该电子设备可以为集成有AR技术的电子设备。其中,上述AR技术是指实现现实场景和虚拟场景结合的一种技术。采用AR技术可以复原人类的视觉功能,从而使得人类可以通过AR技术体验现实场景和虚拟场景结合的感觉,进而使得人类更好地体验身临其境的感受。
下面以AR设备为AR眼镜为例,当用户佩戴上AR眼镜后,用户观看到的场景是通过AR技术处理所产生的,即通过AR技术可以使得虚拟场景叠加显示在现实场景中。当用户对AR眼镜显示的内容操作时,用户可以看到AR眼镜将现实场景“剥开”,从而将更加真实的一面展示给用户。例如,用户肉眼观察一个纸箱时只能观察到纸箱外壳,但是当用户佩戴上AR眼镜后,用户便可以通过AR眼镜直接观察到纸箱的内部结构。
上述AR设备中可以包括摄像头,从而AR设备可以在摄像头拍摄的画面的基础上结合虚拟画面进行展示和互动。例如,本发明实施例中,AR设备可以将用户使用AR设备进行娱乐活动时生成的虚拟画面信息,同步至其他AR设备的显示屏上,使AR设备之间能够实现虚拟画面共享。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述虚拟画面同步方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台电子设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

Claims (17)

1.一种虚拟画面同步方法,其特征在于,应用于第一穿戴式设备,所述方法包括:
接收用户的第一输入;
响应所述第一输入,将所述第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示;
其中,所述第二穿戴式设备为基于所述第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,所述目标区域为所述第一输入选择的区域。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述第一输入,将所述第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示,包括:
响应所述第一输入,在所述拍摄预览画面上,创建选择框;
将所述选择框所框选的穿戴式设备确定为第二穿戴式设备,并将所述虚拟画面同步至所述第二穿戴式设备的第二虚拟屏幕显示。
3.根据权利要求2所述的方法,其特征在于,所述第一输入包括:用户第一手部和第二手部的第一子输入;所述第一子输入用于触发所述第一穿戴式设备创建所述选择框;
所述响应于所述第一输入,在所述拍摄预览画面上,创建选择框,包括:
在所述拍摄预览画面中包含所述第一子输入的情况下,基于目标矩形对角线,在所述拍摄预览画面上,显示选择框;
在接收到用户的第二子输入的情况下,更新所述选择框的显示;
其中,所述目标矩形对角线为所述第一手部的第一部位和所述第二手部的第二部位之间的连线。
4.根据权利要求3所述的方法,其特征在于,所述更新所述选择框的显示之后,还包括:在接收到用户的第三子输入的情况下,锁定所述选择框的显示。
5.根据权利要求2所述的方法,其特征在于,所述将所述选择框所框选的穿戴式设备确定为第二穿戴式设备之后,所述方法还包括:
在所述拍摄预览画面上的第一区域,显示第一标识,所述第一标识用于标记所述第二穿戴式设备,所述第一区域为所述第二穿戴式设备所在区域。
6.根据权利要求5所述的方法,其特征在于,所述在所述拍摄预览画面上显示第一标识之后,所述方法还包括:
在所述第二穿戴式设备被目标对象遮挡的情况下,取消所述第一标识的显示。
7.根据权利要求1或2所述的方法,其特征在于,所述将所述第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示之前,所述方法还包括:
在所述目标区域的目标位置,显示第二标识;
所述将所述第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示,包括:
将包括所述第二标识的第二区域中的穿戴式设备确定为第二穿戴式设备,并将所述虚拟画面同步至所述第二穿戴式设备的第二虚拟屏幕显示。
8.根据权利要求7所述的方法,其特征在于,所述在所述目标区域的目标位置,显示第二标识之后,所述方法还包括:
获取所述第一穿戴式设备的转动方向和转动角度;
基于所述转动方向和转动角度,更新所述第二标识的显示位置。
9.一种第一穿戴式设备,其特征在于,所述第一穿戴式设备包括:接收模块和同步模块;
所述接收模块,用于接收用户的第一输入;
所述同步模块,用于响应所述接收模块接收到的第一输入,将第一穿戴式设备的第一虚拟屏幕的虚拟画面同步至第二穿戴式设备的第二虚拟屏幕显示;
其中,所述第二穿戴式设备为基于所述第一穿戴式设备的摄像头的拍摄预览画面中的目标区域确定的,所述目标区域为所述第一输入选择的区域。
10.根据权利要求9所述的第一穿戴式设备,其特征在于,所述第一穿戴式设备还包括:创建模块和确定模块;
所述创建模块,用于响应所述第一输入,在所述拍摄预览画面上,创建选择框;
所述确定模块,用于将所述创建模块创建的选择框所框选的穿戴式设备确定为第二穿戴式设备;
所述同步模块,具体用于将所述虚拟画面同步至所述确定模块确定的第二穿戴式设备的第二虚拟屏幕显示。
11.根据权利要求10所述的第一穿戴式设备,其特征在于,所述第一穿戴式设备还包括:显示模块;
所述第一输入包括:用户第一手部和第二手部的第一子输入;所述第一子输入用于触发所述第一穿戴式设备创建所述选择框;
所述显示模块,用于在所述拍摄预览画面中包含所述第一子输入的情况下,基于目标矩形对角线,在所述拍摄预览画面上,显示选择框;
所述显示模块,还用于在所述接收模块接收到用户的第二子输入的情况下,更新所述选择框的显示;
其中,所述目标矩形对角线为所述第一手部的第一部位和所述第二手部的第二部位之间的连线。
12.根据权利要求11所述的第一穿戴式设备,其特征在于,
所述显示模块,还用于在所述接收模块接收到用户的第三子输入的情况下,锁定所述选择框的显示。
13.根据权利要求10所述的第一穿戴式设备,其特征在于,所述第一穿戴式设备还包括:显示模块;
所述显示模块,用于在所述拍摄预览画面上的第一区域,显示第一标识,所述第一标识用于标记所述第二穿戴式设备,所述第一区域为所述第二穿戴式设备所在区域。
14.根据权利要求13所述的第一穿戴式设备,其特征在于,
所述显示模块,还用于在所述第二穿戴式设备被目标对象遮挡的情况下,取消所述第一标识的显示。
15.根据权利要求14所述的第一穿戴式设备,其特征在于,
所述显示模块,还用于在所述目标区域的目标位置,显示第二标识;
所述确定模块,还用于将包括所述第二标识的第二区域中的穿戴式设备确定为第二穿戴式设备;
所述显示模块,还用于将所述虚拟画面同步至所述确定模块确定的第二穿戴式设备的第二虚拟屏幕显示。
16.根据权利要求15所述的第一穿戴式设备,其特征在于,所述第一穿戴式设备,还包括:获取模块;
所述获取模块,用于获取所述第一穿戴式设备的转动方向和转动角度;
所述显示模块,还用于基于所述获取模块获取的转动方向和转动角度,更新所述第二标识的显示位置。
17.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的虚拟画面同步方法的步骤。
CN201911418240.2A 2019-12-31 2019-12-31 虚拟画面同步方法及穿戴式设备 Pending CN111124136A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911418240.2A CN111124136A (zh) 2019-12-31 2019-12-31 虚拟画面同步方法及穿戴式设备
PCT/CN2020/140836 WO2021136266A1 (zh) 2019-12-31 2020-12-29 虚拟画面同步方法及穿戴式设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911418240.2A CN111124136A (zh) 2019-12-31 2019-12-31 虚拟画面同步方法及穿戴式设备

Publications (1)

Publication Number Publication Date
CN111124136A true CN111124136A (zh) 2020-05-08

Family

ID=70506863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911418240.2A Pending CN111124136A (zh) 2019-12-31 2019-12-31 虚拟画面同步方法及穿戴式设备

Country Status (2)

Country Link
CN (1) CN111124136A (zh)
WO (1) WO2021136266A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111813220A (zh) * 2020-06-19 2020-10-23 深圳增强现实技术有限公司 基于增强现实或虚拟现实智能头戴设备的交互系统
CN112256121A (zh) * 2020-09-10 2021-01-22 苏宁智能终端有限公司 基于ar技术输入法的实现方法及装置
CN112631677A (zh) * 2020-12-21 2021-04-09 上海影创信息科技有限公司 资源支持提示方法和系统
WO2021136266A1 (zh) * 2019-12-31 2021-07-08 维沃移动通信有限公司 虚拟画面同步方法及穿戴式设备
CN113301506A (zh) * 2021-05-27 2021-08-24 维沃移动通信有限公司 信息共享方法、装置、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106796344A (zh) * 2014-10-07 2017-05-31 艾尔比特系统有限公司 锁定在感兴趣对象上的放大图像的头戴式显示
CN108073280A (zh) * 2016-11-16 2018-05-25 汤姆逊许可公司 在增强或虚拟现实环境中选择对象
US20180246328A1 (en) * 2017-02-28 2018-08-30 Samsung Electronics Co., Ltd. Method for sharing contents and electronic device supporting the same
CN109074772A (zh) * 2016-01-25 2018-12-21 艾维赛特有限公司 基于视线的内容共享动态自组织网络
KR20190056523A (ko) * 2017-11-17 2019-05-27 삼성에스디에스 주식회사 가상현실 컨텐츠 디스플레이 동기화 시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
CN111124136A (zh) * 2019-12-31 2020-05-08 维沃移动通信有限公司 虚拟画面同步方法及穿戴式设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106796344A (zh) * 2014-10-07 2017-05-31 艾尔比特系统有限公司 锁定在感兴趣对象上的放大图像的头戴式显示
CN109074772A (zh) * 2016-01-25 2018-12-21 艾维赛特有限公司 基于视线的内容共享动态自组织网络
CN108073280A (zh) * 2016-11-16 2018-05-25 汤姆逊许可公司 在增强或虚拟现实环境中选择对象
US20180246328A1 (en) * 2017-02-28 2018-08-30 Samsung Electronics Co., Ltd. Method for sharing contents and electronic device supporting the same
CN108513165A (zh) * 2017-02-28 2018-09-07 三星电子株式会社 共享内容的方法和支持该方法的电子设备
KR20190056523A (ko) * 2017-11-17 2019-05-27 삼성에스디에스 주식회사 가상현실 컨텐츠 디스플레이 동기화 시스템 및 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021136266A1 (zh) * 2019-12-31 2021-07-08 维沃移动通信有限公司 虚拟画面同步方法及穿戴式设备
CN111813220A (zh) * 2020-06-19 2020-10-23 深圳增强现实技术有限公司 基于增强现实或虚拟现实智能头戴设备的交互系统
CN112256121A (zh) * 2020-09-10 2021-01-22 苏宁智能终端有限公司 基于ar技术输入法的实现方法及装置
CN112631677A (zh) * 2020-12-21 2021-04-09 上海影创信息科技有限公司 资源支持提示方法和系统
CN113301506A (zh) * 2021-05-27 2021-08-24 维沃移动通信有限公司 信息共享方法、装置、电子设备及介质
WO2022247747A1 (zh) * 2021-05-27 2022-12-01 维沃移动通信有限公司 信息共享方法、装置、电子设备及介质

Also Published As

Publication number Publication date
WO2021136266A1 (zh) 2021-07-08

Similar Documents

Publication Publication Date Title
CN109639970B (zh) 一种拍摄方法及终端设备
CN109495711B (zh) 视频通话处理方法、发送终端、接收终端及电子设备
CN107977144B (zh) 一种截屏处理方法及移动终端
CN111124136A (zh) 虚拟画面同步方法及穿戴式设备
CN108495029B (zh) 一种拍照方法及移动终端
CN111147743B (zh) 摄像头控制方法及电子设备
CN110213440B (zh) 一种图像分享方法及终端
CN109032486B (zh) 一种显示控制方法及终端设备
CN108628515B (zh) 一种多媒体内容的操作方法和移动终端
CN109862258A (zh) 一种图像显示方法及终端设备
CN111010511B (zh) 全景分身图像拍摄方法及电子设备
CN111142675A (zh) 输入方法及头戴式电子设备
CN109995391B (zh) 一种图片显示方法、智能穿戴终端及计算机可读存储介质
CN110798621A (zh) 一种图像处理方法及电子设备
CN111258420A (zh) 信息交互方法、头戴式设备及介质
CN110866465A (zh) 电子设备的控制方法及电子设备
CN111158492B (zh) 视频剪辑方法及头戴式设备
CN109859718B (zh) 屏幕亮度调整方法及终端设备
CN111443805B (zh) 一种显示方法及可穿戴电子设备
CN111240483B (zh) 操作控制方法、头戴式设备及介质
CN111131706B (zh) 视频画面处理方法及电子设备
CN111131930B (zh) 设备资源控制方法、第一电子设备及计算机可读存储介质
CN109814825B (zh) 显示屏操控方法和移动终端
CN109636720B (zh) 一种图像显示方法及终端设备
CN109922256B (zh) 拍摄方法及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200508

RJ01 Rejection of invention patent application after publication