CN114115689A - 跨环境共享 - Google Patents

跨环境共享 Download PDF

Info

Publication number
CN114115689A
CN114115689A CN202111431945.5A CN202111431945A CN114115689A CN 114115689 A CN114115689 A CN 114115689A CN 202111431945 A CN202111431945 A CN 202111431945A CN 114115689 A CN114115689 A CN 114115689A
Authority
CN
China
Prior art keywords
virtual reality
gesture
reality environment
action
sharing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111431945.5A
Other languages
English (en)
Other versions
CN114115689B (zh
Inventor
R·L·黑斯廷斯
D·麦卡洛克
M·J·帕滕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN114115689A publication Critical patent/CN114115689A/zh
Application granted granted Critical
Publication of CN114115689B publication Critical patent/CN114115689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

描述了跨环境共享的技术。通常,可以采用不同类型的输入来共享内容,例如使用笔、触控笔、手指、非触摸式手势输入等。根据各种实施例,可以在本地邻近的设备之间和/或在彼此远离的设备之间共享内容。在至少一些实施例中,基于共享用户和/或共享设备的身份来共享内容。

Description

跨环境共享
本申请是申请日为2017年3月27日、申请号为201780021005.4的发明专利申请“跨环境共享”的分案申请。
背景技术
当今的设备(例如,计算设备)通常支持各种不同的输入技术。例如,特定设备可以经由键盘、鼠标、语音输入、触摸输入(例如,触摸屏)等接收来自用户的输入。一种特别直观的输入技术使用户能够利用触摸工具(例如,笔、触控笔、手指等)来向诸如触摸屏的触摸感测功能提供徒手输入,这被解释为数字墨水。用于徒手输入的当前技术难以使用这种输入来共享内容。
发明内容
提供本发明内容是为了以简化的形式介绍一些概念,这些概念将在下面的具体实现方式中进一步描述。本发明内容不旨在确定所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
描述了用于跨环境共享的技术。通常,可以采用不同类型的输入来共享内容,例如使用笔、触控笔、手指、无触摸手势输入等。根据各种实施例,可以在本地邻近的设备之间和/或在彼此远离的设备之间共享内容。在至少一些实施例中,基于共享用户和/或共享设备的身份来共享内容。
附图说明
参考附图描述了具体实施方式。在附图中,附图标记的最左边的数字标识首次出现附图标记的图。在说明书和附图中的不同实例中使用相同的附图标记可以指示相似或相同的项目。
图1是根据一个或多个实施例的可操作以采用本文所讨论的技术的示例实现方式中的环境的图示。
图2描绘了根据一个或多个实施例的用于跨设备共享的使用笔的示例实现场景。
图3描绘了根据一个或多个实施例的用于跨设备共享的触摸输入的示例实现场景。
图4描绘了根据一个或多个实施例的用于经由虚拟现实环境共享的示例实现场景。
图5描绘了根据一个或多个实施例的用于经由虚拟现实环境共享的示例实现场景。
图6描绘了根据一个或多个实施例的用于经由公共共享装置共享的示例实现场景。
图7是根据一个或多个实施例的用于使用笔来共享内容的示例方法的流程图。
图8是根据一个或多个实施例的用于跨不同虚拟现实环境共享内容的示例方法的流程图。
图9是根据一个或多个实施例的用于在虚拟现实环境内共享内容的示例方法的流程图。
图10示出了如参考图1描述的示例系统和计算设备,其被配置为实现本文描述的技术的实施例。
具体实施方式
概述
描述了跨环境共享的技术。通常,可以采用不同类型的输入来共享内容,例如使用笔(例如,有源笔、无源笔等)、触控笔、手指、无触摸手势输入等。根据各种实现方式,内容可以在本地邻近的设备之间和/或在彼此远离的设备之间共享。在至少一些实现方式中,基于共享用户和/或共享设备的身份来共享内容。
根据各种实现方式,跨环境共享使得触摸输入设备能够用于在环境之间共享内容。例如,数字笔(下文中称为“笔”)可用于选择和共享内容。例如,笔可用于从第一设备中选择内容,并将内容共享给不同的第二设备。
在至少一些实现方式中,笔共享的内容基于拥有笔的用户的身份。例如,用户的身份可以以各种方式绑定到笔,例如通过生物计量信息、用户认证信息、用户行为信息等。因此,当用户用笔执行动作以选择内容时,则可以使用笔并基于用户的身份来共享内容。此外,当不同的用户占有笔时,不同用户的身份则被绑定到笔,使得不同的用户可以选择和共享他们自己的内容。因此,可以在协作环境中使用单个笔来基于操纵笔的不同用户的身份来共享内容。
用于跨环境共享的技术还使得能够在不同虚拟现实(“VR”)环境之间共享内容。例如,VR环境可以包括表示与不同的相应用户相关联的VR环境的子区域的不同工作空间。因此,不同的用户可以协作以在他们各自的工作空间之间共享内容。在至少一些实现方式中,将内容从一个工作空间共享到另一个工作空间使得内容在不同的相应客户端设备(诸如托管相应工作空间的客户端设备)之间共享。
在另一示例中,基于不同用户之间的协作共享手势,在不同的不同VR环境之间共享内容。例如,第一用户从第一VR环境中选择内容并且参与与关联于第二VR环境的第二用户的共享手势。例如,第一和第二VR环境通过不同的相应设备呈现。响应于共享手势,将内容从第一VR环境传送到第二VR环境。
因此,与传统内容共享场景相比,本文描述的跨环境共享的技术提供了高效的共享内容方式,例如通过减少与共享内容所需的计算设备的用户交互的数量。通过减少用于共享内容的用户交互要求,节省了诸如处理器、存储和网络资源的计算资源。
在以下讨论中,首先描述可操作以采用本文描述的技术的示例环境。接下来,标题为“示例实现场景”的部分描述了根据一个或多个实施例的一些示例实现场景。在此之后,标题为“示例过程”的部分描述了根据一个或多个实施例的一些示例过程。最后,标题为“示例系统和设备”的部分描述了根据一个或多个实施例的可操作以采用在此讨论的技术的示例系统和设备。
已经呈现了根据一个或多个实施例的示例实现方式的概述,现在考虑其中可以采用示例实现方式的示例环境。
示例环境
图1是可操作以采用本文所讨论的跨环境共享技术的示例实现方式中的环境100的图示。环境100包括客户端设备102,其可以体现为任何合适的设备,例如,作为示例而非限制,智能手机、平板计算机、便携式计算机(例如,膝上型计算机)、台式计算机、可穿戴设备等等。在至少一些实现方式中,客户端设备102表示智能器具,诸如物联网(“IoT”)设备。因此,客户端设备102的范围可以从具有显着处理能力的系统到具有最小处理能力的轻量级设备。以下在图10中示出并描述了客户端设备102的各种不同示例中的一个。
客户端设备102包括使得能够执行各种活动和任务的各种不同功能。例如,客户端设备102包括操作系统104、应用程序106和通信模块108。通常,操作系统104表示用于抽象客户端设备102的各种系统组件的功能,例如硬件、内核级模块和服务等。例如,操作系统104可以将客户端设备102的各种组件(例如,硬件、软件和固件)抽象到应用程序106,以实现组件和应用程序106之间的交互。
应用程序106表示用于经由客户端设备102执行不同任务的功能。应用程序106的示例包括文字处理应用程序、电子表格应用程序、web浏览器110、游戏应用程序等。应用程序106可以本地安装在客户端设备102上以通过本地运行时环境执行,和/或可以代表远程功能的门户,例如基于云的服务、web应用等。因此,应用程序106可以采用各种形式,例如本地执行的代码、远程托管服务的门户等等。
通信模块108表示用于使客户端设备102能够通过有线和/或无线连接进行通信的功能。例如,通信模块108表示用于经由各种不同的有线和/或无线技术和协议进行通信的硬件和逻辑。
客户端设备102还包括显示设备112、输入模块114、输入机构116和共享模块118。显示设备112通常表示用于客户端设备102的视觉输出的功能。另外,显示设备112表示用于接收各种类型的输入的功能,例如触摸输入、笔输入等。
输入模块114表示使客户端设备102能够(例如,通过输入机构116)接收输入并以各种方式处理和路由输入的功能。
输入机构116通常表示用于接收对客户端设备102的输入的不同功能,并且包括数字转换器120、触摸式输入设备122和非触摸式输入设备124。输入机构116的示例包括手势敏感传感器和设备(例如,诸如基于触摸的传感器和运动跟踪传感器(例如,基于相机的))、鼠标、键盘、触控笔、触摸板、加速度计、具有伴随语音识别软件的麦克风等等。输入机构116可以与显示设备112分离或集成在一起;集成示例包括具有集成的触敏或运动敏感传感器的手势敏感显示器。数字转换器120表示用于将到显示设备112、触摸式输入设备122和非触摸式输入设备124的各种类型的输入转换成可以由客户端设备102以各种方式使用的数字数据的功能,例如用于生成数字墨水,生成输入信号,生物识别等。
非触摸式输入设备124通常表示用于识别不同类型的非触摸式输入的不同设备,并且被配置为接收各种非触摸式输入,诸如通过人类手势的视觉识别、对象扫描、语音识别、颜色识别等等。在至少一些实施例中,非触摸式输入设备124被配置为经由相机识别手势、姿势、身体移动、对象、图像等。例如,非触摸式输入设备124包括可以配置有透镜、光源和/或光传感器使得可以观察到各种不同的现象并将其捕获为输入的相机。例如,相机可以被配置为感测各种维度的移动,诸如例如相对于非触摸式输入设备124的垂直移动、水平移动以及向前和向后移动。因此,在至少一些实施例中,非触摸式输入设备124可以捕获关于图像合成、移动和/或位置的信息。识别模块108可以利用该信息来执行各种不同的任务。
例如,输入模块114可以利用非触摸式输入设备124来执行骨架映射以及关于人体的特定点(例如,不同的骨架点)的特征提取以跟踪一个或多个用户(例如,同时四个用户)以进行运动分析。在至少一些实施例中,特征提取是指将人体表示为可以被跟踪以生成输入的一组特征。
根据各种实现方式,共享模块118表示用于执行用于本文讨论的跨环境共享的技术的各个方面的功能。下面讨论共享模块118的各种功能。
环境100还包括笔126,其表示用于向显示设备112和/或其他输入表面提供输入的触摸式输入设备122的实例。通常,笔126具有传统笔的形状因子,但包括用于与显示设备112交互的功能以及客户端设备102的其它功能。在至少一些实现方式中,笔126是有源笔,其包括用于与客户端设备102进行交互的电子组件。笔126例如包括可以向笔126的内部组件提供电力的电池。
可选地或另外地,笔126可以包括支持在显示设备112上进行悬停检测的磁体或其他功能。然而,这不是限制性的,并且在至少一些实现方式中,笔126可以是无源的,例如,触控笔没有内部电子设备。通常,笔126表示输入设备,其可以提供可以与客户端设备102的其他类型的输入区分开的输入。例如,数字转换器120被配置为在通过笔126提供的输入和由诸如用户的手指、触控笔等的不同输入机制提供的输入之间进行区分。
环境100还包括可穿戴设备128,其表示非触摸式输入设备124的实现方式。通常,可穿戴设备128表示用于呈现虚拟现实(“VR”)环境的功能。如这里所使用的,VR环境指的是虚拟现实环境、增强现实环境、混合现实环境等的实现方式。在至少一些实现方式中,可穿戴设备128表示头戴式设备,诸如智能眼镜和/或智能护目镜。可穿戴设备128包括输出功能,以向佩戴用户显示图形和呈现音频输出。可穿戴设备128还包括用于检测非触摸式输入(例如用户手势和移动)的相机和/或其他传感器,如上所述。可选地或另外地,可穿戴设备128可以与外部相机或其他传感器结合使用以检测非触摸式输入。
环境100还包括共享服务130,客户端设备102可以例如经由网络132与共享服务130进行通信。通常,可以利用共享服务130来执行本文描述的跨环境共享的各个方面。在至少一些实现方式中,共享服务130表示可以执行本文所讨论的各种功能的基于网络的服务(例如,云服务)。
网络132可以以各种方式实现,诸如有线网络、无线网络及其组合。在至少一些实现方式中,网络132表示因特网。
已经描述了其中可以操作本文描述的技术的示例环境,现在考虑根据一个或多个实施例的一些示例实现场景的讨论。
示例实现场景
本部分描述了根据一个或多个实现方式的用于跨环境共享的一些示例实现场景。可以在上述环境100、图10的系统1000和/或任何其他合适的环境中实现所述实现场景。例如,实现场景和过程描述了客户端设备102、共享模块118和/或共享服务130的示例操作。在至少一些实施例中,针对各种场景和过程描述的步骤是自动地且独立于用户交互实现的。
图2描绘了根据一个或多个实现方式的用于跨设备共享的使用笔的示例实现场景200。场景200的上部包括客户端设备102a,其表示上述客户端设备102的实例。根据场景200,用户操纵笔126以选择内容202。在该特定场景中,内容202表示在客户端设备102a的显示器112a上显示的图像。在该场景和以下场景中使用图像仅用于说明的目的,并且应当意识到,可以采用本文描述的技术来共享任何类型的内容,例如视频、音频、文件、文件夹、网络位置,等等。
响应于内容202的选择,内容202的副本与笔126配对。例如,笔126具有唯一标识,例如基于识别笔126的内部电子组件。在至少一些实现方式中,响应于对内容202的选择,将内容202的副本上载到共享服务130,共享服务130将副本存储为与笔126相关联。
前进到场景200的下部,用户将笔126轻敲在客户端设备102b的显示器112b上,客户端设备102b表示客户端设备102的不同实例。例如,客户端设备102a、102b表示特定位置处的不同设备,例如办公室、会议室、家庭等。可替代地,客户端设备102a、102b彼此远离。
继续场景200,在显示器112b上轻敲笔126使得内容202被复制到客户端设备102b。例如,内容202被共享(例如,粘贴)到客户端设备102b并显示在显示器112b上。在至少一些实现方式中,在显示器112b上轻敲笔126使得客户端设备102b向共享服务130查询笔126的身份。因此,共享服务130识别出笔126已经选择了内容202,从而将内容202的副本传送到客户端设备102b。
可替代地或另外地,客户端设备102a、102b可以具有直接连接,诸如设备之间的直接有线和/或无线连接。直接连接的示例包括电缆连接、蓝牙、WiFi Direct等。在这种情况下,客户端设备102b检测到显示器112b的笔输入,从而向客户端设备102a查询笔126的身份。客户端设备102a检测到笔126已经选择了内容202,因此,通过与客户端设备102b的直接连接来传送内容202的副本。
因此,场景200示出了内容的实例可以绑定到诸如笔126的输入设备,使得内容是可携带的并且可以跨各种不同位置的各种不同设备共享。
图3描绘了根据一个或多个实现方式的用于跨设备共享的触摸输入的示例实现场景300。场景300的上部包括客户端设备102c,其表示上述客户端设备102的实例。根据场景300,用户操纵手指302以选择内容304。在该特定场景中,内容304表示在客户端设备102c的显示器112c上显示的图像。
响应于对内容304的用户选择,内容304被绑定到用户的身份。例如,内容304被保存到用户的剪贴板,例如由客户端设备102c和/或共享服务130维护的剪贴板。通常,可以采用各种技术将内容304绑定到用户的身份。例如,生物识别可以用于识别用户,例如通过显示器112c上的手指302的指纹识别、客户端设备102c采用的面部识别等。
前进到场景300的下部,用户将他们的手指302轻敲在不同客户端设备102d的显示器112d上。因此,内容304被共享给客户端设备102d。例如,客户端设备102d捕获用户的识别信息,例如生物识别数据(例如,手指302的指纹)、认证数据等。然后,客户端设备102d向共享服务130查询该识别信息。共享服务130确定用户已经选择了内容304,并且因此将内容304的副本传送到客户端设备102d。
可替代地或另外地,通过客户端设备102c、102d之间的直接协商来共享内容304的副本。例如,响应于检测到用户的身份,客户端设备102d向客户端设备102c查询身份。因此,客户端设备102c例如经由客户端设备102c和客户端设备102d之间的直接连接将内容304的副本传送到客户端设备102c。
因此,场景300示出了可以利用跨环境共享的技术来将内容直接绑定到用户身份,使得内容基于用户身份是可携带的和可共享的。
图4描绘了根据一个或多个实现方式的用于经由VR环境共享的示例实现场景400。场景400包括可穿戴设备128和经由可穿戴设备128呈现的VR环境402。佩戴可穿戴设备128的用户例如观看VR环境402并且可以与VR环境402交互并操纵其各个方面。通常,VR环境402可以以各种方式实现,诸如完全虚拟现实环境、混合现实环境、增强现实环境等。
VR环境402包括不同工作空间的视觉表示,包括工作空间404a、工作空间404b和工作空间404c。通常,每个工作空间404a-404c与不同的用户和/或用户身份相关联。在至少一些实现方式中,工作空间404b、404c表示不同设备的状态信息,并且从设备传送到可穿戴设备128。在该特定示例中,工作空间404a与佩戴该可穿戴设备128的用户的身份相关联。因此,用户从他们的工作空间404a中选择内容406并将内容406共享到工作空间404b、404c。例如,用户将他们的手指408的选择手势应用于工作空间404a中的内容406,然后将手指408的共享手势应用于工作空间404b、404c。通常,选择手势和共享手势表示手指408的不同移动,该不同移动被可穿戴设备128识别为分别与不同的特定动作(例如,选择和共享)联系在一起。
根据各种实现方式,共享内容406使得VR环境402被更新以指示工作空间404b、404c现在具有内容406的副本。此外,内容406可以相应地从可穿戴设备128共享到与工作空间404b、404c相关联的设备。
因此,场景400示出了可以采用跨环境共享的技术来在VR环境内以及跨与VR环境联系在一起的设备共享内容。
图5描绘了根据一个或多个实现方式的用于经由VR环境共享的示例实现场景500。场景500包括佩戴可穿戴设备128a的用户502a和佩戴可穿戴设备128b的用户502b。通常,可穿戴设备128a、128b表示可穿戴设备128的实例。
用户502a经由可穿戴设备128a查看并且可以与VR环境504a交互,并且用户502b经由可穿戴设备128b查看并且可以与VR环境504b交互。例如,VR环境504a、504b分别代表与用户502a、502b相关联的不同VR环境。可替代地或另外地,VR环境504a、504b表示到用户502a、502b共享的公共VR环境的不同门户。
进一步说明场景500,用户502a用他们的手指508a从VR环境504a内选择内容506。内容506通常表示与VR环境504a结合存储的图像。例如,内容506由与用户502a相关联的客户端设备和/或由共享服务130存储。在选择内容506之后,用户502a经由共享手势来与用户502b共享内容506。例如,用户502a用他们的手指508a轻击用户502b的手指508b。因此,可穿戴设备128a和/或可穿戴设备128b检测共享手势,并使得内容506的副本被共享到用户502a的VR环境504a。可穿戴设备128a和/或可穿戴设备128b例如包括感测手指508a、508b的接近和/或接触的相机。
在示例实现方式中,将内容506的副本共享给共享服务130,这使得内容506的副本被共享到由共享服务130和/或由用户502b的一个或多个客户端设备维护的VR环境504b的表示。可替代地或另外地,内容506的副本直接从用户502a的客户端设备共享到用户502b的客户端设备,例如经由网络连接或客户端设备之间的直接连接。
因此,场景500示出了可以采用跨环境共享的技术通过VR环境经由参与VR环境的用户之间的交互来共享内容。
图6描绘了根据一个或多个实现方式的用于经由公共共享装置共享的示例实现场景600。场景600包括用户602a经由笔126与客户端设备102的显示器112交互。用户602a操纵笔126以将内容604从用户的剪贴板606a共享到显示器112。根据各种实现方式,客户端设备102确定(ascertain)笔126被绑定到用户602a的身份,因此笔126与显示器112的交互基于用户602a的身份。例如,用户602a对显示器112的共享手势使得来自用户的剪贴板606a的内容被共享到显示器112。
通常,可以采用不同的技术来将用户的身份绑定到诸如笔126的共享装置。例如,用户602a可以执行认证过程以将笔126绑定到用户602a的身份。例如,用户602a可以在显示器112的表面上签他们的名字。共享模块118和/或共享服务130可以对签名执行字符识别以识别签名与用户602a的身份相关联。因此,笔126与用户身份之间的链接被做成使得笔126与显示器112的交互基于用户602a的身份。
作为另一示例,可以利用各种类型的生物识别数据来将共享装置与用户身份绑定。例如,笔126和/或客户端设备102可以包括生物识别传感器,例如指纹传感器。通过将由生物识别传感器收集的生物识别数据(例如,指纹)与用户身份相匹配,建立笔126与用户身份之间的链接。
作为又一示例,可以利用各种类型的行为数据来将共享装置与用户身份绑定。例如,客户端设备102和/或笔126包括用于在向显示器112提供输入时确定与用户如何操纵笔126有关的各种特性的功能。这些特征的示例包括笔126相对于显示器112的角度,握持笔126时的握持模式,当通过笔126提供输入时施加在显示器112上的压力,基于通过笔126输入的特定字符(例如,字母、数字等)的字符形状的手写识别。这种行为特征可以用于为各个用户生成唯一的用户简档,使得当通过诸如笔126的共享装置共享时,可以将用户彼此区分开。
前进到场景600的下部,用户602a将笔126递给用户602b。因此,客户端设备102确定笔126被绑定到用户602b的身份,因此笔126与显示器112的交互基于用户602b的身份。例如,与笔126相关联的共享身份从用户602a切换到用户602b。以上描述了确定拥有共享装置的用户的身份的不同方式。进一步说明场景600,用户602b对显示器112的共享手势使得来自用户的剪贴板606b的内容606被共享到显示器112。
因此,笔126可以由不同的用户使用,并且可以基于哪个用户当前拥有笔126来切换当前活动的共享身份。
因此,场景600示出了可以采用跨环境共享的技术来将不同的用户身份绑定到共享装置,使得当前活动的共享身份基于当前操纵该装置的用户的身份。
虽然参考不同的实现和环境讨论了上面呈现的场景,但是应当意识到,可以以各种方式组合场景以实现跨各种不同环境的共享。例如,当用户在一个环境中选择内容然后转换到另一个环境时,内容保持绑定到用户,使得用户的后续共享交互使得内容在不同环境中共享。因此,跨环境共享的技术使得能够在各种实例和环境类型之间无缝地共享各种类型的内容。
已经描述了一些示例实现场景,现在考虑根据一个或多个实现方式的用于跨环境共享的一些示例过程。
示例过程
以下讨论描述了根据一个或多个实施例的用于跨环境共享的一些示例过程。可以在图1的环境100、图10的系统1000和/或任何其他合适的环境中采用示例过程。例如,这些过程表示用于实现上面讨论的示例实现场景的过程。在至少一些实施例中,针对各种过程描述的步骤可以自动地并且独立于用户交互来实现。这些过程可以在客户端设备102本地执行,由可穿戴设备128执行,由共享服务130执行,和/或通过这些功能之间的交互来执行。然而,这不是限制性的,并且方法的各方面可以由任何合适的实体来执行。
图7是描述根据一个或多个实施例的方法中的步骤的流程图。该方法描述了根据一个或多个实现方式的使用笔来共享内容的示例过程。
步骤700检测第一用户对笔的操纵,该操纵向环境提供输入。例如,墨水模块114检测到笔126被第一用户用于将输入事件应用于显示器112或VR环境。
步骤702响应于第一用户对笔的所述操纵并基于第一用户的身份,使得来自与第一用户相关联的数字剪贴板的第一内容被共享到环境。例如,剪贴板表示存储第一用户的内容的网络存储位置。通常,结合第一用户对笔的操纵来确定第一用户的身份。上面讨论了用于确定用户身份的不同技术,例如通过驻留在笔126上的生物识别传感器,用户认证过程,与笔126的操纵有关的行为特征,等等。
可以以各种方式实现环境,诸如客户端设备102、虚拟现实环境、协作环境(例如,基于会议的设备)等。例如,内容可以从共享服务130共享到本地设备,例如客户端设备102。
步骤704检测第二用户对笔的操纵以向环境提供输入。例如,墨水模块114检测到笔126被第二用户用于将输入事件应用于显示器112或VR环境。例如,墨水模块114检测与笔126相关联的身份改变,例如基于对笔126的不同用户的认证。
步骤706响应于第二用户对笔的所述操纵并基于第二用户的身份,使与来自与第二用户相关联的数字剪贴板的第二内容共享到环境。通常,结合第二用户对笔126的操纵来确定第二用户的身份。以上讨论了结合笔126的使用来确定用户身份的不同方式的示例。
根据各种实现方式,从链接到第二用户的身份的网络存储位置取回第二内容。例如,第二内容从网络存储位置传送到本地环境,例如客户端设备102、VR环境等。
图8是描述根据一个或多个实施例的方法中的步骤的流程图。该方法描述了根据一个或多个实现方式的用于跨不同虚拟现实环境共享内容的示例过程。
步骤800检测与作为第一虚拟现实环境的一部分呈现的内容的交互。例如,共享模块118检测用户选择在第一VR环境中表示的内容。例如,内容在通过可穿戴设备128呈现的VR环境中视觉地表示。
步骤802识别用于将内容从第一虚拟现实环境共享到第二虚拟现实环境的共享手势。例如,第二虚拟现实环境与第一虚拟现实环境分开显示。例如,第一VR环境和第二VR环境显示在可穿戴设备128的不同相应实例中。
在至少一些实现方式中,共享手势涉及不同用户之间的物理接触。例如,第一用户从第一VR环境中选择内容。然后,第一用户参与与第二VR环境相关联的第二用户的协作手势。可以以各种方式实现协作手势,诸如用户之间的手指触摸,拳头撞击等。可替代地,共享手势表示不涉及物理接触但是涉及由第一用户和第二用户执行的不同非接触手势的非触摸式协作手势。通常,协作手势将来自多个用户的手势输入组合成被识别为共享手势的聚合手势。
根据各种实现方式,共享手势能够以不同方式识别。例如,呈现第一VR环境或第二VR环境的可穿戴设备可以识别共享手势并且使得输入信号与手势相关联。可替代地或另外地,可以协作地识别共享手势。例如,呈现第一VR环境的第一设备可以识别共享手势的第一部分,并且呈现第二VR环境的第二设备可以识别共享手势的不同的第二部分。因此,两个设备可以彼此通信以组合手势的不同部分并确定不同部分被组合以生成共享手势。
步骤804响应于所述识别而使得内容被共享到第二VR环境。例如,内容从托管第一VR环境的设备传送到托管第二VR环境的设备。可替代地或另外地,内容在与不同的相应VR环境相关联的基于网络的存储位置之间传送和/或从基于网络的存储位置传送到托管第二VR环境的设备。
图9是描述根据一个或多个实施例的方法中的步骤的流程图。该方法描述了根据一个或多个实现方式的用于在虚拟现实环境内共享内容的示例过程。
步骤900检测共享手势以将内容从与第一用户相关联的第一工作空间的第一视觉表示共享到与第二用户相关联的第二工作空间的第二视觉表示。例如,第一视觉表示和第二视觉表示被显示为单个VR环境的一部分。例如,VR环境通过单个设备呈现。
通常,可以以各种方式呈现不同工作空间的视觉表示。例如,视觉表示可以呈现在VR环境的不同的相应视觉区域中,例如在场景400中描绘的。
在至少一些实现方式中,工作空间表示不同用户的不同设备状态。例如,工作空间代表不同用户的相应客户端设备。因此,与VR环境内的工作空间的视觉表示的交互可以引起对不同客户端设备的状态的相应改变,诸如客户端设备之间的内容的移动。
共享手势可以以各种方式实现,诸如单个用户的非触摸手势、涉及多个用户的协作手势(诸如上面描述的)、触摸设备上的触摸手势等等。
步骤902响应于共享手势而使得内容被共享到第二工作空间。例如,在第二工作空间的视觉表示内呈现内容的视觉表示,作为内容被共享到第二工作空间的指示。
可以以各种方式实现将内容共享到第二工作空间。例如,可以将内容从与第一工作空间相关联的客户端设备传送到与第二工作空间相关联的客户端设备。可替代地或另外地,可以将内容例如从第一用户的客户端设备和/或网络存储位置共享到第二用户的网络存储位置。
因此,这里描述的用于跨环境共享的技术提供了跨各种不同环境共享内容的各种方式。
已经描述了用于跨环境共享的一些示例过程,现在考虑根据一个或多个实施例的示例系统和设备的讨论。
示例系统和设备
图10示出了通常以1000表示的示例系统,其包括示例计算设备1002,其表示可以实现本文描述的各种技术的一个或多个计算系统和/或设备。例如,上面参考图1讨论的客户端设备102和/或共享服务130可以体现为计算设备1002。计算设备1002可以是例如服务提供商的服务器、与客户端相关联的设备(例如,客户端设备)、片上系统和/或任何其他合适的计算设备或计算系统。
如图所示的示例计算设备1002包括处理系统1004、一个或多个计算机可读介质1006,以及一个或多个输入/输出(I/O)接口1008,它们彼此通信地耦合。虽然未示出,但是计算设备1002还可以包括系统总线或其他数据和命令传输系统,其将各种组件彼此耦合。系统总线可以包括任何一个或不同总线结构的组合,例如存储器总线或存储器控制器、外围总线、通用串行总线和/或利用各种总线体系结构中的任何总线体系结构的处理器或本地总线。还构想了各种其他示例,例如控制线和数据线。
处理系统1004表示使用硬件执行一个或多个操作的功能。因此,处理系统1004被示为包括可以被配置为处理器、功能块等的硬件元件1010。这可以包括在硬件中实现为专用集成电路或使用一个或多个半导体形成的其他逻辑器件。硬件元件1010不受形成它们的材料或其中采用的处理机制的限制。例如,处理器可以包括半导体和/或晶体管(例如,电子集成电路(IC))。在这样的上下文中,处理器可执行指令可以是电子可执行指令。
计算机可读介质1006被示为包括存储器/存储设备1012。存储器/存储设备1012表示与一个或多个计算机可读介质相关联的存储器/存储设备容量。存储器/存储设备1012可以包括易失性介质(诸如随机存取存储器(RAM))和/或非易失性介质(诸如只读存储器(ROM)、闪存、光盘、磁盘等)。存储器/存储设备1012可以包括固定介质(例如,RAM、ROM、固定硬盘驱动器等)以及可移动介质(例如,闪存、可移动硬盘驱动器、光盘等)。计算机可读介质1006可以以各种其他方式配置,如下面进一步描述的。
输入/输出接口1008表示允许用户向计算设备1002输入命令和信息并且还允许使用各种输入/输出设备将信息呈现给用户和/或其他组件或设备的功能。输入设备的示例包括键盘、光标控制设备(例如,鼠标)、麦克风(例如,用于语音识别和/或语音输入)、扫描仪、触摸功能(例如,配置为检测物理触摸的电容或其他传感器)、相机(例如,其可以采用诸如红外频率的可见或不可见波长来检测不涉及触摸的移动作为手势),等等。输出设备的示例包括显示设备(例如,监视器或投影仪)、扬声器、打印机、网卡、触觉响应设备等。因此,计算设备1002可以以下面进一步描述的各种方式配置以支持用户交互。
这里可以在软件、硬件元件或程序模块的一般上下文中描述各种技术。通常,这样的模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元素、组件、数据结构等。这里使用的术语“模块”、“功能”、“实体”和“组件”通常表示软件、固件、硬件或其组合。这里描述的技术的特征是与平台无关的,意味着可以在具有各种处理器的各种商业计算平台上实现这些技术。
所描述的模块和技术的实现方式可以存储在某种形式的计算机可读介质上或在其上传输。计算机可读介质可以包括可以由计算设备1002访问的各种介质。作为示例而非限制,计算机可读介质可以包括“计算机可读存储介质”和“计算机可读信号介质”。
“计算机可读存储介质”可以指代与仅仅信号传输、载波或信号本身相比能够持久存储信息的介质和/或设备。计算机可读存储介质不包括信号本身。计算机可读存储介质包括诸如以适于存储诸如计算机可读指令、数据结构、程序模块、逻辑元件/电路或其他数据之类的信息的方法或技术实现的易失性和非易失性、可移动和不可移动介质和/或存储设备的硬件。计算机可读存储介质的示例可包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字通用盘(DVD)或其他光学存储设备、硬盘、磁带盒、磁带、磁盘存储或其他磁存储设备,或适于存储所需信息并且可由计算机访问的其他存储设备、有形介质或制品。
“计算机可读信号介质”可以指信号承载介质,其被配置为例如经由网络将指令发送到计算设备1002的硬件。信号介质通常可以体现计算机可读指令、数据结构、程序模块或调制数据信号中的其他数据,例如载波、数据信号或其他传输机制。信号介质还包括任何信息传递介质。术语“已调制数据信号”表示以对信号中的信息进行编码的方式设置或改变其一个或多个特性的信号。作为示例而非限制,通信介质包括诸如有线网络或直接有线连接的有线介质,以及诸如声学、射频(RF)、红外和其他无线介质的无线介质。
如先前所描述,硬件元件1010和计算机可读介质1006表示以硬件形式实施的指令、模块、可编程器件逻辑和/或固定器件逻辑,其可在一些实施例中用以实施本文描述的技术的至少一些方面。硬件元件可以包括集成电路或片上系统的组件、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)以及硅或其他硬件设备中的其他实现方式。在此上下文中,硬件元件可以作为执行由硬件元件实现的指令、模块和/或逻辑定义的程序任务的处理设备以及用于存储用于执行的指令的硬件设备(例如前面描述的计算机可读存储介质)进行操作。
还可以采用前述的组合来实现本文描述的各种技术和模块。因此,软件、硬件或程序模块和其他程序模块可以实现为在某种形式的计算机可读存储介质上实现和/或由一个或多个硬件元件1010实现的一个或多个指令和/或逻辑。计算设备1002可以被配置为实现与软件和/或硬件模块相对应的特定指令和/或功能。因此,可以由计算设备1002作为软件执行的模块的实现方式可以至少部分地以硬件实现,例如,通过使用处理系统的计算机可读存储介质和/或硬件元件1010。指令和/或功能可以由一个或多个制品(例如,一个或多个计算设备1002和/或处理系统1004)执行/操作,以实现本文描述的技术、模块和示例。
如图10中进一步所示,示例系统1000使得无处不在的环境能够在个人计算机(PC)、电视设备和/或移动设备上运行应用程序时获得无缝的用户体验。在使用应用程序,玩视频游戏,观看视频等的同时从一个设备转换到下一个设备时,服务和应用程序在所有三种环境中运行基本相似,以获得共同的用户体验。
在示例系统1000中,多个设备通过中央计算设备互连。中央计算设备可以在多个设备的本地,或者可以位于远离多个设备。在一个实施例中,中央计算设备可以是通过网络、因特网或其他数据通信链路连接到多个设备的一个或多个服务器计算机的云。
在一个实施例中,该互连体系结构使得能够跨多个设备递送功能,以向多个设备的用户提供共同且无缝的体验。多个设备中的每一个可以具有不同的物理要求和能力,并且中央计算设备使用平台来实现向设备传递既针对设备定制又对所有设备共用的体验。在一个实施例中,创建一类目标设备,并且为通用类设备定制体验。可以通过物理特征、使用类型或设备的其他共同特征来定义一类设备。
在各种实现方式中,计算设备1002可以设想各种不同的配置,例如用于计算机1014、移动设备1016和电视1018的使用。这些配置中的每一个包括可以具有通常不同的构造和能力的设备,因此可以根据一个或多个不同的设备类来配置计算设备1002。例如,计算设备1002可以被实现为包括个人计算机、台式计算机、多屏幕计算机、膝上型计算机、上网本等的计算机1014类设备。
计算设备1002还可以被实现为包括移动设备的移动1016类设备,诸如移动电话、便携式音乐播放器、便携式游戏设备、平板电脑、可穿戴设备、多屏幕计算机等等。计算设备1002还可以被实现为电视1018类设备,其包括在休闲观看环境中具有或连接到通常更大的屏幕的设备。这些设备包括电视、机顶盒、游戏控制台等。
本文描述的技术可以由计算设备1002的这些各种配置支持,并且不限于本文描述的技术的特定示例。例如,参考客户端设备102、共享模块118和/或共享服务130讨论的功能可以全部或部分地通过使用分布式系统来实现,例如通过平台1022在“云”1020上实现,如下所述。
云1020包括和/或代表用于资源1024的平台1022。平台1022抽象云1020的硬件资源(例如,服务器)和软件资源的底层功能。资源1024可以包括在远离计算设备1002的服务器上执行计算机处理时可以使用的应用程序和/或数据。资源1024还可以包括通过因特网和/或通过订户网络(例如蜂窝或Wi-Fi网络)提供的服务。
平台1022可以抽象资源和功能以将计算设备1002与其他计算设备连接。平台1022还可以用于抽象资源缩放以提供相应的缩放级别以满足对经由平台1022实现方式的资源1024的需求。因此,在互连设备实施例中,本文描述的功能的实现可以分布在整个系统1000中。例如,功能可以部分地在计算设备1002上实现以及经由抽象云1020的功能的平台1022来实现。
这里讨论的是可以实现以执行本文所讨论的技术的多种方法。方法的各方面可以用硬件、固件或软件或其组合来实现。这些方法被示为一组步骤,其指定由一个或多个设备执行的操作,并且不必限于所示的用于执行各个块的操作的顺序。此外,根据一个或多个实现方式,可以将关于特定方法示出的操作与不同方法的操作进行组合和/或互换。可以通过上面参考环境100讨论的各种实体之间的交互来实现方法的各方面。
这里讨论的实现方式包括:
示例1:一种用于使内容在虚拟现实环境之间共享的系统,该系统包括:一个或多个处理器;以及存储计算机可执行指令的一个或多个计算机可读存储介质,响应于一个或多个处理器的执行,所述计算机可执行指令使得系统执行包括以下操作的操作:检测与作为第一虚拟现实环境的部分呈现的内容的交互;识别用于将内容从第一虚拟现实环境共享到第二虚拟现实环境的共享手势,所述第二虚拟现实环境与所述第一虚拟现实环境分离地显示;以及响应于所述识别,使得所述内容被共享到所述第二虚拟现实环境。
示例2:如示例1中所述的系统,其中与所述内容的交互包括经由手指的用户选择,并且其中所述共享手势包括用手指的用户动作。
示例3:如示例1或2中的一个或多个所述的系统,其中所述共享手势包括第一用户和第二用户之间的物理接触。
示例4:如示例1-3中的一个或多个所述的系统,其中所述共享手势包括第一用户和第二用户之间的协作手势。
示例5:如示例1-4中的一个或多个所述的系统,其中,所述第一虚拟现实环境与第一用户相关联,所述第二虚拟现实环境与第二用户相关联,并且所述共享手势包括所述第一用户与所述第二用户之间的物理接触。
示例6:如示例1-5中的一个或多个所述的系统,其中所述第一虚拟现实环境和所述第二虚拟现实环境显示在不同的相应设备上。
示例7:如示例1-6中的一个或多个所述的系统,其中所述使得包括使得内容被共享到与所述第二虚拟现实环境相关联的设备。
示例8:如示例1-7中的一个或多个所述的系统,其中所述第一虚拟现实环境与第一用户相关联,所述第二虚拟现实环境与第二用户相关联,并且其中所述使得包括使得内容被共享给与所述第二用户相关联的设备。
示例9:如示例1-8中的一个或多个所述的系统,其中所述使得包括使得所述内容被共享到云服务。
示例10:一种用于使内容在虚拟现实环境内共享的方法,该方法包括:检测共享手势,所述共享手势用于将内容从与第一用户相关联的第一工作空间的第一视觉表示共享到与第二用户相关联的第二工作空间的第二视觉表示,所述第一视觉表示和所述第二视觉表示被显示为单个虚拟现实环境的部分;以及响应于共享手势而使得所述内容被共享到所述第二工作空间。
示例11:如示例10中所述的方法,其中所述单个虚拟现实环境显示在单个显示设备上。
示例12:如示例10或11中的一个或多个所述的方法,其中,所述第一视觉表示和所述第二视觉表示被显示为所述虚拟现实环境的视觉上不同的区域,并且被显示为分别与所述第一用户和所述第二用户相关联。
示例13:如示例10-12中的一个或多个所述的方法,其中,单个虚拟现实环境表示混合现实环境。
示例14:如示例10-13中的一个或多个所述的方法,其中所述使得包括使得内容从托管所述虚拟现实环境的设备共享到与所述第二用户相关联的设备。
示例15:如示例10-14中的一个或多个所述的方法,其中所述使得包括使得内容从托管所述虚拟现实环境的设备共享到基于云的共享服务。
示例16:如示例10-15中的一个或多个所述的方法,其中所述虚拟现实环境由第一设备托管,并且所述第二工作空间在第二设备处生成并且被传送到所述第一设备以作为所述虚拟现实环境的部分进行显示。
示例17:一种用于使用笔来实现与不同用户相关联的内容的共享的方法,该方法包括:检测第一用户对笔的操纵,所述操纵向环境提供输入;响应于第一用户对笔的所述操纵并且基于与第一用户对笔的操纵相结合来确定的第一用户的身份而使得第一内容从与第一用户相关联的数字剪贴板共享到环境;检测第二用户对笔的操纵,所述操纵向环境提供输入;并且响应于第二用户对笔的所述操纵并且基于与第二用户对笔的操纵相结合来确定的第二用户的身份而使得第二内容从与第二用户相关联的数字剪贴板共享到环境。
示例18:如示例17中所述的方法,还包括通过以下中的一个或多个将第二用户的身份绑定到输入装置:针对第二用户的认证过程;第二用户的生物识别数据;或者与第二用户相关联的行为特征。
示例19:如示例17或18中的一个或多个所述的方法,还包括基于与第二用户对笔的抓握有关的行为特征来将第二用户的身份绑定到输入装置。
示例20:如示例17-19中的一个或多个所述的方法,其中,所述环境包括将第一内容和第二内容二者共享到的单个显示设备。
结论
描述了跨环境共享的技术。尽管用结构特征和/或方法动作专用的语言描述了实施例,但是应该理解,所附权利要求中限定的实施例不必限于所描述的具体特征或动作。而是,公开了特定特征和动作作为实现所要求保护的实施例的示例形式。

Claims (20)

1.一种方法,包括:
通过客户端设备检测被配置为在第一虚拟现实环境和第二虚拟现实环境之间共享内容的共享手势的第一动作,所述第一动作包括在所述第一虚拟现实环境中选择内容的用户输入;
响应于所述共享手势的所述第一动作的接收,执行第一身份检测,所述第一身份检测指示提供在所述第一虚拟现实环境中选择内容的所述用户输入的用户的身份;
检测在所述第二虚拟现实环境处完成所述共享手势的第二动作;
响应于检测到完成所述共享手势的所述第二动作,执行第二身份检测,所述第二身份检测指示执行所述第二动作的用户的身份;
通过评估所述第一身份检测的结果与所述第二身份检测的结果来确认所述共享手势的完成;以及
基于对所述共享手势的完成的确认,完成所述共享手势使得所述内容所述在第一虚拟现实环境和所述第二虚拟现实环境之间共享。
2.如权利要求1所述的方法,其中,所述客户端设备是虚拟现实VR设备,所述虚拟现实VR设备被配置为提供输出功能以用于呈现所述第一虚拟现实环境的视觉表示和所述第二虚拟现实环境的视觉表示。
3.如权利要求2所述的方法,其中,所述VR设备被配置为将所述第一虚拟现实环境和所述第二虚拟现实环境中的每一个提供为从包括以下各项的组中选择的一个:虚拟现实环境、增强现实环境、以及混合现实环境。
4.如权利要求2所述的方法,其中,所述VR设备是可穿戴设备。
5.如权利要求4所述的方法,其中,所述可穿戴设备是从包括以下各项的组中选择的一个或多个:头戴式VR设备、智能眼镜、和智能护目镜。
6.如权利要求1所述的方法,其中,所述共享手势的所述第一动作和所述共享手势的所述第二动作中的每一个都是触摸输入手势。
7.如权利要求1所述的方法,其中,所述共享手势的所述第二动作是与所述第二虚拟现实环境相关联的另一用户的触摸输入手势。
8.如权利要求1所述的方法,其中,所述共享手势的所述第一动作和所述共享手势的所述第二动作中的每一个都是非触摸输入手势。
9.如权利要求1所述的方法,其中,所述共享手势的所述第二动作是针对与所述第二虚拟现实环境相关联的另一用户的非接触式输入手势。
10.一种虚拟现实VR客户端设备,包括:
一个或多个处理器;以及
存储计算机可执行指令的一个或多个计算机可读存储介质,响应于由所述一个或多个处理器执行,所述计算机可执行指令使系统执行以下操作,所述操作包括:
通过所述VR客户端设备检测被配置为在第一虚拟现实环境和第二虚拟现实环境之间共享内容的共享手势的第一动作,所述第一动作包括在所述第一虚拟现实环境中选择内容的用户输入;
响应于所述共享手势的所述第一动作的接收,执行第一身份检测,所述第一身份检测指示提供在所述第一虚拟现实环境中选择内容的所述用户输入的用户的身份;
检测在所述第二虚拟现实环境处完成所述共享手势的第二动作;
响应于检测到完成所述共享手势的所述第二动作,执行第二身份检测,所述第二身份检测指示执行所述第二动作的用户的身份;
通过评估所述第一身份检测的结果与所述第二身份检测的结果来确认所述共享手势的完成;以及
基于对所述共享手势的完成的确认,完成所述共享手势使得所述内容所述在第一虚拟现实环境和所述第二虚拟现实环境之间共享。
11.如权利要求10所述的系统,其中,所述VR客户端设备被配置为提供输出功能以用于呈现所述第一虚拟现实环境的视觉表示和所述第二虚拟现实环境的视觉表示。
12.如权利要求10所述的系统,其中,所述VR客户端设备被配置为将所述第一虚拟现实环境和所述第二虚拟现实环境中的每一个提供为从包括以下各项的组中选择的一个:虚拟现实环境、增强现实环境、以及混合现实环境。
13.如权利要求10所述的系统,其中,所述VR客户端设备是可穿戴设备。
14.如权利要求13所述的系统,其中,所述可穿戴设备是从包括以下各项的组中选择的一个或多个:头戴式VR设备、智能眼镜、和智能护目镜。
15.如权利要求10所述的系统,其中,所述共享手势的所述第一动作和所述共享手势的所述第二动作中的每一个都是触摸输入手势。
16.如权利要求10所述的系统,其中,所述共享手势的所述第二动作是与所述第二虚拟现实环境相关联的另一用户的触摸输入手势。
17.如权利要求10所述的系统,其中,所述共享手势的所述第一动作和所述共享手势的所述第二动作中的每一个都是非触摸输入手势。
18.如权利要求10所述的系统,其中,所述共享手势的所述第二动作是针对与所述第二虚拟现实环境相关联的另一用户的非接触式输入手势。
19.一种与一个或多个虚拟现实VR环境连接的输入设备,所述输入设备包括:
一个或多个处理器;以及
存储计算机可执行指令的一个或多个计算机可读存储介质,响应于由所述一个或多个处理器执行,所述计算机可执行指令使系统执行以下操作,所述操作包括:
通过所述输入设备检测被配置为在第一虚拟现实环境和第二虚拟现实环境之间共享内容的共享手势的第一动作,所述第一动作包括在所述第一虚拟现实环境中选择内容的用户输入;
响应于所述共享手势的所述第一动作的接收,执行第一身份检测,所述第一身份检测指示提供在所述第一虚拟现实环境中选择内容的所述用户输入的用户的身份;
检测在所述第二虚拟现实环境处完成所述共享手势的第二动作;
在检测到完成所述共享手势的所述第二动作时,执行第二身份检测,所述第二身份检测指示执行所述第二动作的用户的身份;
通过评估所述第一身份检测的结果与所述第二身份检测的结果来确认所述共享手势的完成;以及
基于对所述共享手势的完成的确认,完成所述共享手势使得所述内容所述在第一虚拟现实环境和所述第二虚拟现实环境之间共享。
20.如权利要求19所述的输入设备,其中,所述输入设备是以下之一:数字笔设备和VR装置。
CN202111431945.5A 2016-03-29 2017-03-27 跨环境共享 Active CN114115689B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662314681P 2016-03-29 2016-03-29
US62/314,681 2016-03-29
US15/199,470 2016-06-30
US15/199,470 US10838502B2 (en) 2016-03-29 2016-06-30 Sharing across environments
CN201780021005.4A CN108885521B (zh) 2016-03-29 2017-03-27 跨环境共享

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201780021005.4A Division CN108885521B (zh) 2016-03-29 2017-03-27 跨环境共享

Publications (2)

Publication Number Publication Date
CN114115689A true CN114115689A (zh) 2022-03-01
CN114115689B CN114115689B (zh) 2024-10-25

Family

ID=

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130159939A1 (en) * 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
CN103354930A (zh) * 2010-06-03 2013-10-16 惠普发展公司,有限责任合伙企业 经由云的身份管理

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103354930A (zh) * 2010-06-03 2013-10-16 惠普发展公司,有限责任合伙企业 经由云的身份管理
US20130159939A1 (en) * 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
唐红;徐文胜;李楠;: "云制造环境下基于远程虚拟桌面的软件资源共享研究", 计算机应用与软件, no. 07, 15 July 2015 (2015-07-15) *

Also Published As

Publication number Publication date
CN108885521A (zh) 2018-11-23
US20230161417A1 (en) 2023-05-25
EP3926445A1 (en) 2021-12-22
EP3436911A1 (en) 2019-02-06
WO2017172549A1 (en) 2017-10-05
US10838502B2 (en) 2020-11-17
US20170285758A1 (en) 2017-10-05
US20210026457A1 (en) 2021-01-28
CN108885521B (zh) 2021-12-07
US11550399B2 (en) 2023-01-10

Similar Documents

Publication Publication Date Title
CN108885521B (zh) 跨环境共享
CN108369456B (zh) 用于触摸输入设备的触觉反馈
JP6812579B2 (ja) 仮想基体として使用するための平面及び/又は四分木を検出するための方法及びデバイス
CN108292304B (zh) 跨应用数字墨水库
TWI590147B (zh) 觸控模式
US20110304649A1 (en) Character selection
US20170285932A1 (en) Ink Input for Browser Navigation
CN102184077A (zh) 计算设备放大手势
US10691880B2 (en) Ink in an electronic document
US20130241840A1 (en) Input data type profiles
Rieger et al. A taxonomy for app-enabled devices: mastering the mobile device jungle
Rieger et al. Conquering the Mobile Device Jungle: Towards a Taxonomy for App-enabled Devices.
CN108885556B (zh) 控制数字输入
CN108780383B (zh) 基于第二输入选择第一数字输入行为
CN114115689B (zh) 跨环境共享
Lee et al. Mouse operation on monitor by interactive analysis of intuitive hand motions
JP7556214B2 (ja) 電子黒板、音声再生方法、プログラム及び画像処理システム
Lee et al. Gesture-based interface for connection and control of multi-device in a tabletop display environment
Rieger et al. A Taxonomy for App-Enabled Devices: Mastering the Mobile Device
Rieger et al. Conquering the Mobile Device Jungle: Towards a Taxonomy for App
CN102455858A (zh) 光标管理方法及相关管理系统
CN110945470A (zh) 可编程的多点触摸屏幕上键盘

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant