CN105723313B - 共享数字工作空间 - Google Patents

共享数字工作空间 Download PDF

Info

Publication number
CN105723313B
CN105723313B CN201480056537.8A CN201480056537A CN105723313B CN 105723313 B CN105723313 B CN 105723313B CN 201480056537 A CN201480056537 A CN 201480056537A CN 105723313 B CN105723313 B CN 105723313B
Authority
CN
China
Prior art keywords
user
equipment
personal
individual consumer
painting canvas
Prior art date
Application number
CN201480056537.8A
Other languages
English (en)
Other versions
CN105723313A (zh
Inventor
D·S·谭
K·P·欣克利
S·N·巴思彻
R·O·普斯那
B·李
A·古普塔
A·耐茨
B·D·布鲁尔
Original Assignee
微软技术许可有限责任公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US201361890778P priority Critical
Priority to US201361890755P priority
Priority to US61/890,755 priority
Priority to US61/890,778 priority
Priority to US14/175,984 priority
Priority to US14/175,984 priority patent/US9720559B2/en
Application filed by 微软技术许可有限责任公司 filed Critical 微软技术许可有限责任公司
Priority to PCT/US2014/059988 priority patent/WO2015057496A1/en
Publication of CN105723313A publication Critical patent/CN105723313A/zh
Application granted granted Critical
Publication of CN105723313B publication Critical patent/CN105723313B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/34User authentication involving the use of external additional devices, e.g. dongles or smart cards
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object or an image, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for entering handwritten data, e.g. gestures, text
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the screen or tablet into independently controllable areas, e.g. virtual keyboards, menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements or protocols for real-time communications
    • H04L65/40Services or applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/03Indexing scheme relating to G06F21/50, monitoring users, programs or devices to maintain the integrity of platforms
    • G06F2221/032Protect output to user by software means
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2149Restricted operating environment

Abstract

本描述涉及共享数字工作空间。一个示例包括显示设备和传感器。传感器被配置成检测显示设备附近的用户并检测个体用户正对显示设备执行个体用户命令。该系统还包括被配置成被呈现在显示设备上的图形用户界面,这允许多个检测到的用户经由用户命令同时与图形用户界面交互。

Description

共享数字工作空间

背景

传统上,计算设备已被配置成一次由单个用户操作。计算设备生成针对个体用户的图形用户界面。如果第二用户想要使用该计算设备,则第一用户注销且第二用户登录。作为响应,该计算设备将生成针对第二用户的第二图形用户界面。由此,该计算设备被配置用于供用户按顺序使用而非同时使用。

概述

该描述涉及共享数字工作空间。一个示例包括显示设备和传感器。传感器被配置成检测显示设备附近的用户,并检测个体用户正对显示设备执行个体用户命令(例如,输入命令)。该系统还包括被配置成被呈现在该显示设备上的图形用户界面,这允许多个检测到的用户经由用户命令同时与该图形用户界面交互。

以上列出的示例旨在提供快速参考以帮助读者,并且不旨在限定此处所描述的概念的范围。

附图简述

附图示出了本文档中传达的概念的实现。所示实现的特征可通过参考以下结合附图的描述来更容易地理解。只要可行,各附图中相同的附图标记用来指代相同的元素。此外,每一个如图标记的最左边的数字传达其中首次引入该附图标记的附图及相关联的讨论。

图1-16示出根据本发明概念的一些实现的示例共享数字工作空间场景。

图17-18示出根据本发明概念的一些实现的示例共享数字工作空间系统。

图19是根据本发明概念的一些实现的示例共享数字工作空间技术的流程图。

概览

该描述涉及共享数字工作空间或“共享画布”,其可由数字白板以及其他设备提供。由此,这些设备可被看作群组体验设备。共享画布可允许多个同时的用户(例如,用户群组)。任何设备都可潜在地用作群组体验设备,但这些概念更易适用于具有足够大的显示器以容易地被若干用户同时物理地参与的设备。

出于该讨论的目的,“群组”是(其中的至少一些)在物理上共同位于同一空间并且正在彼此交互的个体的集合。一个群组示例可由正碰在一起讨论或争论某一主题的几个员工组成。正在其厨房中交互的家庭可以是另一个这样的群组。正聚集在一起计划某个活动的几个朋友可以是又一个群组。

本发明概念可提供群组体验。群组体验可以以所有群组成员都可舒服地交互和控制的单个共享设备(例如,群组体验设备)为中心。在群组体验中,单个用户都不支配该群组体验设备。该群组中的每一成员发起交互的能力可以是立即且无阻的。群组体验设备通常是群组成员之间的讨论的焦点,并且在一个用户交互时,其他用户可观看并且在其想要的情况下可立即介入和干预。由此,两个或更多个用户可同时与共享画布交互。

在所提出的实现中的一些实现中,群组体验设备可变为其自己的类别——桌面和平板的对等体。不同于其对等体,群组体验设备可针对群组体验而非单个用户进行优化。群组体验设备可采用与各单用户设备不同但仍熟悉的形状因子。这些形状因子可包括新颖的交互模型和输入技术。诸如触摸、笔、姿势、语音和/或视觉之类的输入技术可在群组体验设备中被利用。在一些情况下,设备可被配置成按需用以个体为中心的模式或群组模式来操作。

群组体验设备的适用性是广泛的——实际上是人们可能碰到和交互的任何空间。会议室、办公室、家庭厨房、家庭房间及甚至走廊全部都是放置它们的很好位置。

群组体验设备可以在群组设置中利用自然方式的人类彼此交互。例如,群组体验设备可支持并允许我们的自然取位、群组的各成员之间的典型动态性、以及群组可能一起参与的活动类型。

本实现中的一些实现可强调超越认证的匿名使用。这些实现可以以个性化和个性为代价来强推高度共同的体验以及共同的组织。这样的配置对于要实现其低使用屏障的用户而言可能是有吸引力的;只是走向并开始使用该群组体验设备。然而,这些相同的用户可能渴望将其个人数据集成到群组体验中的能力。本实现中的一些实现可解决这两种考虑。

为此,一些实现可提供两层功能。第一层可被看作基本功能。任何用户都可参与该群组体验设备并立即利用该基本功能。第二层可以是条件或高级功能。例如,第二功能可能仅对群组体验设备已标识出的(例如,认证的)用户可用。作为示例,这些方面被解释如下。

场景示例

图1-15一起示出其中群组体验设备102被定位在会议室中的群组体验场景100。在该示例中,两个用户104(1)和104(2)走进该会议室。随着这些用户被检测到,群组体验设备102可通电到就绪状态,并呈现共享显示区域或共享画布106。在该示例中,第一用户104(1)立即走向共享画布106并开始在共享画布106上书写。在此示例中,用户写了词语“美洲虎”。作为变得对所有用户可用的基本功能的示例,在共享画布106上书写可被启用。

基本功能的其他示例可包括图像、视频、文本框、通过墨水记录形状的智能对象、列表、表格、时间线、形状艺术(圆形、正方形、三角形等)、记事贴和/或图表等等。基本功能的又一些示例可包括自由讨论应用、研究和探索工具、时间/日历协调、活动规划器、产品/购物比较工具、数据探索工具、预算和分配等等。此外,在一些实现中,共享画布的基本功能可限于可视画布。在其他配置中,基本功能可包括可在水平和/或垂直方向滚动的画布(例如,该可用画布可比在给定实例可显示的事物更大)。

此外,在这个情况下,假设每个用户都被标识出。以下相对于图17-18描述用于用户标识的技术和机制。假设第一用户104(1)在她想要在共享画布106上示出的其个人数据中具有美洲虎的图片。个人数据可被存储在云中(诸如在全局账户中)和/或被存储在其个人设备(诸如,智能电话、平板设备或其他计算机)之一上。对个人数据的访问是条件功能的示例。

作为标识出的用户,第一用户104(1)可通过共享画布106访问其个人数据。一些实现可允许用户在共享画布上具有个人空间。该用户可与其个人空间中的其个人内容交互。简言之,在该实现中,个人空间是如门户或隧道之类的清单,其在以下描述。

在该具体实现中,第一用户可作出特定用户命令姿势,诸如在共享画布上双击以访问其个人数据。具体地,群组体验设备102可标识用户,并确定那个特定用户已经执行了访问他/她的个人数据的用户命令。群组体验设备可利用用户的身份来访问该用户的个人数据。注意,双击仅是用于控制共享画布的一个示例。例如,其他实现可使用其他主动用户命令和/或被动用户命令,诸如触摸姿势、非触摸姿势、眼睛注视、语音命令、和/或经由另一设备(诸如智能电话)输入的命令等等。又一些实现可自动打开针对标识出的用户的门户,而非等待用户命令。

如图2中所表示的,在该示例中,用户双击姿势可使得门户或隧道202被呈现在共享画布106上。门户202可在共享画布上表示那个用户的个人空间/数据。门户可被标识为属于用户(例如,用户1)。(当然,可采用将用户和门户关联的其他方式。例如,用户的照片或用户的化身可被显示在门户附近。)用户可对门户202执行另一用户命令以查看或访问他/她的个人数据。例如,用户可触摸该门户。

图3示出用户在门户202之内的个人数据/内容。在该情况下,个人数据是用户的图片。(当然,由于绘制页面的限制,仅用户的个人数据的代表性示例可被示出。例如,门户可示出用户的全局简档(例如,云存储的数据)和/或个人设备的数据。此外,用户的个人数据可按针对该用户的各种方式被组织在门户中。用户还可具有在门户中搜索个人数据的选项。)一些实现可允许用户缩放共享画布的一部分。例如,用户可缩放其门户,使得该门户临时占据共享画布的更大部分或全部,以促进用户查看其个人数据。

如图4中所示,用户104(1)可从门户202中容易地检索数据并将副本移动到共享画布106。在该情况下,用户将美洲虎402的图片从门户202拖动到共享画布106。

门户202可以是个体用户在按其他方式共享的画布106上的私有空间。门户可以是交互式的,并且可接受用户可能在该门户中示出的其设备之一上执行的任何输入。这允许该门户和个人设备(和/或用户的全局内容)之间的双向输入。如以上所提到的,在一些配置中,用户可在任何时间使得任何门户202临时占据共享画布106的完整屏幕面积。替换地或另选地,一些实现可允许用户定义她希望其门户在尺寸和/或内容方面如何被显示。例如,用户可能希望门户采用其中用户可缩小视图以查看内容的概要或者放大视图以查看依据各参数(诸如,类别、字母次序或时间参数等)编组的内容的语义视图技术。

图5示出第二用户104(2)可如何利用基本功能,诸如写词语“狮子”。图6示出第二用户正启动其自己的门户202(2)。

图7-8示出第二用户104(2)正从其门户202(2)选择个人内容并将该个人内容移动到共享画布106。在该情况下,该内容是与802处指示的狮子有关的文章。

还注意,在图8中,第一用户的门户202已关闭以保护该用户的隐私。第一用户104(1)可手动执行姿势(或其他用户命令)来使得门户202关闭或者该门户可自动关闭。例如,该门户可基于一段时间不活动而关闭,或者在一实例中,在用户从门户离开使得显然用户不想要操作门户202时关闭。该门户仍可被用户经由简单的用户命令容易地获得。在另一实现中,在第一用户已将其门户202打开时,当其他用户(诸如第二用户)接近群组体验设备102时,可自动通知第一用户。这样的配置可允许用户采取行动来保护她的个人内容(如果她这么期望的话)。

在任何时间点,用户104(1)或104(2)均可作出共享画布106的副本,并(例如经由其门户)将该副本存储在其个人数据中。

图1-8相对于独立地(顺序地或同时地)工作的用户介绍共享画布特征。这些特征还可促成用户之间的协作,如将在以下作为示例解释的。

图9示出一后续场景,在该后续场景中,用户104(1)和104(2)正以协作努力(例如,协作方式)来使用其先前描述的内容。第二用户104(2)将标题添加到902处的“我们的猫科研究项目”的协作努力,同时第一用户104(1)同时在904处添加文本“猫科的许多成员受到栖息地丧失的威胁”。由此,在该情况下,每一用户都已使用其门户来将其自己的个人内容带入共享空间,并使其个人内容与共享空间上创建的内容组合以完成协作努力。在该示例中,一些工作是以并发方式执行的,而其他工作是以同时方式执行的(例如,多个用户在相同的时间在共享画布上工作)。

此外,一些实现可允许远程用户参与(例如共享画布上的)共享会话。例如,“第三用户”想要远程地参与的通知可被呈现在共享画布106上。第一或第二用户104中的任一者可指示他们想要允许该远程用户参与。远程用户可随后看见共享画布的表示。图10从远程用户1006的角度示出共享画布在远程用户的设备1004上的表示1002的示例。

图11示出远程用户的设备1004上的其中远程用户已通过该远程设备向共享画布添加了内容的后续表示。在这一情况下,远程用户添加了词语“和偷猎”,使得该句子现在读为“猫科的许多成员受到栖息地丧失和偷猎的威胁”。各种技术可被采用来指示哪个用户贡献了哪个内容。在该情况下,远程用户的内容用斜体示出,而第一用户的内容以标准文本示出。当然,其他技术可被利用来区分各用户的贡献。例如,不同的文本色彩可与不同的用户相关联。

图12示出添加了由远程用户添加的内容的共享画布106。此外,在该情况下,远程用户的照片1202出现在共享画布上其内容附近,使得其他用户可容易地确定远程用户添加了什么。在该情况下,存在两个指示符:第一,远程用户的文本是不同的(例如,斜体的),并且远程用户的图像通过该内容示出。当然,用于标识特定用户的内容的其他技术可被采用。

图13示出其中第一用户离开了会议室并且远程用户从共享会话断开连接或脱离的后续实例。作为响应,第一用户的门户被从共享画布106移除。类似地,远程用户的照片被移除。然而,可存在哪个用户向共享画布贡献了哪个内容的持久标识。

图14示出第二用户离开房间并且其门户被从共享画布处移除时的共享画布106。在一些实现中,共享画布的副本可自动地为这些用户存储,使得下一次他们进入房间时,共享画布被返回其先前的状态。总之,图1-14示出共享画布可如何允许多个用户对项目(或其他内容)进行协作。协作可以是顺序的和/或同时的。

图15示出其中共享画布106的内容已被删除并且群组体验设备102可等待更多用户的后续视图。在一些实现中,群组体验设备在不处于使用中时可积极地向其环境的美学作出贡献。在该情况下,在不被使用时,美术被显示在群组体验设备上。在其他情况下,在不被使用时,广告可被呈现在群组体验设备上。又一些实现可将不处于使用中时的显示器断电以节省电力,但传感器可保持活跃以检测新用户的出现。当然,使用上下文可影响在用户不在积极地使用共享画布时采取什么动作。以下相对于图16示出并描述替换示例。

图16示出家庭环境中的群组体验设备102(1)上的共享画布106(1)。在该情况下,家庭的成员可以是用户。在该上下文中,家庭可希望共享画布106(1)无限期地持续,直到他们决定删除该共享画布或者临时地或永久地显示某些其他事物。例如,共享画布106(1)可以是持久的,但是家庭可间歇性地使用群组体验设备102(1)来观看视频内容(诸如TV)并随后切换回共享画布106(1)。在以家庭为中心的使用情况下,有时家庭成员可在相同的时间参与共享画布。在其他时间,一个家庭成员可添加或删除某些事物到共享画布,或者简单地查看共享画布。无论如何,在家庭成员经过时,共享画布可以是家庭成员可见的和/或可由家庭成员参与。

概括而言,一些实现可包括大型屏幕,个人的局部存在一被群组体验设备检测到,该大型屏幕就从其环境低功率状态发展成干净的共享画布,准备好打开。该共享画布可被看作群组体验操作系统的GUI外壳。GUI外壳可用作内容容器以及应用容器。该GUI外壳可充当新内容创建的表面以及“隧道”或“门户”的表面两者以展示其他设备的桌面和应用。该GUI外壳也可能是用户与本地地在大型屏幕群组体验设备上运行的应用进行交互的地方。

门户或隧道的示例可包括房间中的个人伴随设备的应用和/或桌面的交互式投影。另一示例可包括远程个人伴随设备的应用和/或桌面的交互式投影。又一些示例可包括在本地设备上运行的应用和/或在云中运行的应用。

任何检测到的用户都可使用共享画布。可作出认证检测到的用户的尝试(例如,以某置信度程度来标识用户)。在一些实现中,经认证的用户由共享画布上的名称和图片指示。如果经认证的用户打开门户,则其相关联的设备可被编组在其图片下。这些经认证的设备可在任何时间被“隧穿”到共享画布上的子窗口上。子窗口(例如,门户或隧道)可以是用户在共享画布上的个人空间。尽管以上示出并讨论了特定门户示例,但本发明概念不旨在限于这些示例。相反,门户可只是供用户访问共享画布范例上的私有内容的方式。

图17-18涉及用于实现群组体验概念的系统。这些系统可包括用于检测和标识用户以及用于标识用户命令(例如,控制姿势)的显示器和传感器。特定系统示例被介绍,随后讨论其他系统显示和传感器配置。

图17示出示例群组体验系统1700。在该情况下,该系统包括群组体验设备102(2)清单作为触摸屏或触摸显示器以及两组传感器1702和1704。共享画布106(2)被呈现在触摸显示器上。在该情况下,第一组传感器1702可被定向为感测共享画布106(2)前面的区域。该定向旨在在用户进入房间时检测用户。第二组传感器1704可被定向为感测在共享画布106(2)正前方的区域。该定向旨在检测用户通过用户命令参与共享画布106(2)。在该情况下,显示器和两组传感器被连接到计算设备1706(在该情况下对用户不可见),计算设备1706执行对呈现在群组体验设备102(2)上的共享画布的群组体验图形用户界面的处理。

第一组传感器1702可检测一个或多个用户已进入群组体验设备102(2)被定位在其中的房间(或者已按其他方式进入感兴趣区域)。在该情况下,第一组传感器包括定位在群组体验设备102(2)上面和下面的两个面向外的子集1702(1)和1702(2)以检测用户姿势、触摸和/或眼睛注视方向。注意,第一组传感器1702和第二组传感器1704的数目、位置和/或定向是出于示例的目的被提供的,并且不旨在构成限制。应构想,许多其他布置可被配置成实现本概念。此外,尽管示出了清楚且明显的传感器,但应构想,随着技术的成熟,这些传感器将变得更小或对用户更不明显。

第一组传感器1702和第二组传感器1704可以是相机,诸如相机阵列。这些相机可别配置用于可见光频率、红外频率和/或其他频率。这些相机可与红外模式投影仪协同工作,该红外模式投影仪可帮助这些相机将对象彼此区分开。其他相机配置可采用飞行时间或其他技术来增强由这些相机捕捉的关于用户和/或群组体验设备102(2)周围的环境的信息。在一个实现中,第一组传感器和第二组传感器可以是由公司提供的KinectTM品牌的感测技术。

一旦用户已被检测到,第一组传感器1702和/或第二组传感器就可采用生物测定(诸如脸部跟踪和脸部识别/标识)来尝试标识用户。例如,可将跟踪到的生物测定特征与已知用户的数据库进行比较以获得潜在匹配。类似地,用户相对于共享画布106(2)的位置以及移动可被跟踪以确定用户是否正在尝试用户命令,诸如正在显示器上书写、作出控制姿势等。在此时,基本功能对用户可用。如果(诸)用户被标识出,随后辅助功能可变得对各个体用户可用。

在一些实现中,用户标识可与置信度分数或水平相关联(例如,检测到的用户具有70%的置信度是“用户1”)。由此,辅助功能的各个体特征可指定特定置信度阈值。例如,特定应用程序接口(API)可具有40%的置信度阈值,而其他API可具有80%的置信度阈值。例如,一个API可被配置成使得阈值为50%以供共享画布106(2)上的用户通过门户访问个人照片或文档,而另一API可要求90%的阈值以供用户通过门户访问金融信息(例如,转移资金或访问信用卡号)。

此外,在群组体验系统1700中,用户标识可以是其中系统持续地监视用户命令并尝试标识哪个用户正在执行用户命令的持续存在过程,而非一次性过程。由此,持续存在的使用群组体验设备102(2)的动作可以是其认证的动作(例如,用户命令被检测到,并且在分析该检测时,确定什么用户执行了该用户命令)。由此,从一个角度来看,一些实现可监视用户命令。这些实现可尝试通过用户命令(诸如从检测该命令的动作中检测到的生物测定中)标识用户。由此,这些实现可持续地检测用户命令并尝试经由这些命令持续地标识用户。

还应注意,图17中的用户中的每一者分别具有个人设备1708和1710(在该情况下为智能电话)。个人设备可在用户检测和标识中被利用。替换地或另选地,个人设备1708和1710可根据第一组传感器1702和第二组传感器1704工作以帮助标识用户和/或检测用户命令。例如,个人设备可发出可被系统用来标识用户的标识信号,如信标信号。

可按其他方式利用个人设备1708和1710。例如,个人设备可通过用户的身体发送电容信号,当用户触摸群组体验设备102(2)或在群组体验设备102(2)附近时,该电容信号可被检测到。该特征可被用作多径电容触摸。例如,不同的手指具有不同长度的路径。一些实现还可在群组体验设备102(2)下面的地板上添加导电条,使得对群组体验设备102(2)的用户参与通过群组体验设备和导电条完成电路。可按类似的方式利用电容笔,尤其是在用户具有其自己的可唯一地标识的个人笔的情况下。由此,笔1712可提供作为数字书写仪器和用于标识用户104(1)的双重目的。

通过类似的方式,当如1714处所指定的检测到触摸用户命令时,指纹(和/或其他生物测定)分析可被用于标识执行该命令的用户。指纹分析还可标识用户的哪个个体手指正在触摸显示屏以及该手指的定向。该信息可以按各种方式被利用。例如,如果两个用户同时触摸该板的区域,则(通过指纹分析确定的)手指定向可指示哪个手指属于哪个用户。例如,指纹往往沿着该用户的手指的长度延伸。由此,指纹可指示用户的手指和手臂的定向。

图18示出了替换群组体验系统配置。这一群组体验系统1800包括耦合到另一计算设备1706(1)的群组体验设备102(3)。其他计算设备可被实现为与各个体用户相关联的其他计算机和/或提供其他功能(例如,搜索引擎、用户简档存储等)的计算机。群组体验设备102(3)可包括显示器1802、处理器1804、存储/存储器1806、传感器1808、通信组件(硬件和/或软件)1810、检测/标识组件1812和群组体验应用/操作系统1814。替换地或附加地,群组体验设备102(3)可包括其它元素,诸如总线、图形卡(例如,图形处理单元(GPU)、网络硬件)等,出于简明的目的未在此被示出或讨论。

还注意,本发明实现不限于特定类系的显示器1802。相反,可使用的实现可用以下来实现:投影显示器、发光二极管(LED)显示器、液晶显示器、电致发光显示器、等离子显示器和/或其他正在开发或仍待开发的显示器类型。

在该情况下,显示器1802包括两组相机形式的传感器1808。第一组相机1808(1)从显示器1802向外地指向,而第二组相机1808(2)平行于显示器表面地指向以感测用户控制姿势。第二组相机可允许显示器用作触摸显示器,而无需实际上具有(例如,感测用户的物理触摸的)触敏表面。在一些实现中,第一组相机1808(1)可包括两个子群组。第一子群组可被配置成捕捉正好在群组体验设备102(3)前方的“近场”空间。第二子群组可被配置成捕捉更远离群组体验设备的“远场”空间。远场子群组可被用来检测进入群组体验设备被定位在其中的房间的用户。近场子群组可被配置成在用户参与共享画布时,从用户捕捉生物测定数据。这两组相机可由检测/标识组件1812协同地操作以确定这些用户是谁以及哪个用户正通过触摸显示器1802的哪个部分(或经由(诸)其他用户命令)来执行用户命令。

群组体验应用/操作系统1814可在群组体验设备102(3)上生成共享画布。群组体验应用/操作系统1814可基于从检测/标识组件1812获得的信息来允许对共享画布的用户交互。

在一些实现中,共享画布可被看作是自主于各用户的。这些用户可被看作共享画布上的访客,并且这些用户对共享画布具有相等的地位。由此,在至少一些实现中,不存在控制用户或主要用户。在其他实现中,共享画布可与诸如启动共享画布的用户之类的个体用户(例如主要用户)相关联。在后一配置中,其他用户可以是相对于共享画布的那个实例的主要用户的次级用户。

尽管所示的第二组相机沿着显示器1802的表面感测,但可采用其他相机配置,诸如通过显示器成像的那些相机配置。针对这样的配置的其他合适相机是楔型相机,该楔型相机可被定位在显示器前方或后方或者被定位在显示器的侧方。这种类型的配置可检测用户的正触摸显示器的手指,并且可看用户的眼睛来确定用户正看着显示器上的何处。由这些相机获得的生物测定信息可被检测/标识组件1812利用来标识触摸显示器的用户。替换地或另选地,该信息可被解释成用户命令。例如,用户正看着共享画布上的何处(例如,用户注视)可被解释成例如相对于处于那个位置的内容的用户命令。

尽管没有被示出,但在企业设置中,该系统还可将用户的徽章用于用户标识目的。例如,该系统可读取徽章上的名称、将徽章上的图片与用户相关、和/或扫描该徽章以获得(诸如包含在徽章中的RFID或其他设备上的)信息。

替换配置可利用眼睛跟踪眼镜1816形式的个人设备。眼睛跟踪眼镜可具有被配置成跟踪用户的眼睛的传感器以及被配置成检测用户正在看的方向上环境的其他传感器。眼睛跟踪眼镜可诸如经由蓝牙技术等向群组体验设备102(3)发送信号,从而标识用户以及用户正在看显示器1802上的何处。

总之,用户认证可通过各种机制来实现。检测/标识组件1812可分析可用信息来检测用户并以某置信度水平来标识那些用户。在一些情况下,用户可通过个人设备(诸如智能电话)来自动发现和认证。例如,自动发现可经由设备发现来实现。登录识别出的移动设备并在群组体验设备102(3)附近的用户可表现为群组体验系统1800中的用户。例如,个人设备可提供超声签名、网络基础结构、Wi-Fi Direct、光学签名、手动连接等。在其他情况下,用户可诸如使用Kinect(例如相机1808(1))通过脸部识别被自动标识出。

在一些情况下,各用户可在该系统中诸如经由键盘、指纹扫描仪、徽章、NFC等来手动地认证。

远程用户可在群组体验系统中通过具有开放群组体验的URL标识符来手动地认证。关于远程用户的指示可被呈现在群组体验设备102(3)中。存在的用户可允许或不允许远程用户。

一旦检测/标识模块1812以给定确定性/置信度标识出用户,附加功能可变得可用。在一些情况下,API可被设置成使得仅来自被认证为具有高于该API的阈值的确定性的用户的API调用通过。

检测/标识组件1812可持续地或重复地尝试标识用户。在一个配置中,检测/标识组件可持续地尝试检测用户命令并标识谁正在执行用户命令。由此,由该用户采取的每一个动作都可以是认证过程的一部分。这可提供基于每一动作/交互而非每一会话的无阻的即时认证。该配置还可在同一时间允许多种模式,因为该配置可知道每一用户正请求什么。从一个角度来看,在一些情况下,用户可变成所有动作的胶合剂。实际上,用户可无阻地参与群组体验设备102(3)。由该用户执行的各个体动作(例如,用户命令)被评估并被标识给该用户。由此,在一些实现中,是用户动作可被认证,而非用户可被认证。

从一个角度来看,群组体验设备102(3)可被看作计算机。处理器1804可以执行计算机可读指令形式的数据以提供功能。数据(诸如计算机可读指令和/或用户相关数据)可被存储在存储1806上,诸如对计算机而言可以是内部或外部的存储。存储可包括易失性或非易失性存储器、硬盘驱动器、闪存设备、和/或光存储设备(例如,CD、DVD等)等等中的任何一个或多个。如本文所使用的,术语“计算机可读介质”可包括信号。相反,术语“计算机可读存储介质”排除信号。计算机可读存储介质包括“计算机可读存储设备”。计算机可读存储设备的示例包括诸如RAM之类的易失性存储介质、诸如硬盘驱动器、光盘和闪存存储器之类的非易失性存储介质,以及其他。

在一些配置中,群组体验设备102(3)可包括片上系统(SOC)类型设计。在这一情况下,计算机所提供的功能可被集成在单个SOC或多个耦合的SOC上。一个或多个处理器可被配置成与共享资源协调,例如存储器、存储等,和/或与一个或多个专用资源协调,如配置成执行特定具体功能的硬件块。从而,如本文是使用的术语“处理器”还可指代中央处理单元(CPU)、图形处理单元(GPU)、控制器、微控制器、处理器核、或适用于在常规计算架构以及SOC设计两者中实现的其他类型的处理设备。

其他计算机的示例可包括传统的计算设备,诸如个人计算机、桌面计算机、笔记本计算机、蜂窝电话、智能电话、个人数字助理、平板类型计算机、相机、大型显示设备、投影设备或各种不断演进或仍待开发的类型的计算设备中的任一者。

通过仅在用户给出他们的明确同意之际才允许用户发现/标识特征,用户的隐私可被保护。所有的隐私和安全过程可被实现以保护用户。例如,用户可在他/她的智能电话上提供授权(和/或定义授权的条件)。该智能电话可被其他计算设备(例如,群组体验设备)检测到。那些设备仅根据授权的条件来进行标识用户。否则,用户信息不被收集。相反,用户可被提供基本功能成为“通用用户”。在这样的场景中,可能不会向该用户启用高级功能。

示例方法

图19示出示例群组体验方法1900。

在这个情况下,该方法可在框1902检测多个用户。

该方法可在框1904呈现图形用户界面(GUI)。

该方法可在框1906允许这些用户中的每一者利用基本功能与GUI同时交互。

从一个角度来看,这一多用户GUI可被看作其中用户创建新内容的“共享画布”。在一些实现中,经由手指触摸(例如触摸)和/或笔触摸(例如笔)的触摸可以是用于经由基本功能在共享画布上创建新内容的主要输入机制。与物理白板很像,用户可在画布上书写自由形式墨水。在一些情况下,画布可以是可滚动的以创建(本质上)无限的画布。该墨水可通过多个形状识别器来自动地识别,从而通过模式和行为桥接了自由形式墨水和对象之间的间隙。例如,在用户书写列表时,这些方法可识别到这个并开始为该列表中的下一项绘制向导线以及提供墨水到文本的行为、进行存储等等。

该方法可在框1908尝试标识各个体用户。用户标识可利用生物测定和/或任何设备等来标识用户。以上结合图17-18更详细地描述了特定示例。

该方法可在框1910向各标识出的个体用户启用高级功能。例如,高级功能可包括在图形用户界面上访问各标识出的个体用户的个人数据。

高级功能可涉及个人数据,诸如可经由隧道或门户访问的个人数据。内容对象可从隧道实例化。例如,用户可拍摄移动设备的当前投影的快照,并且该快照可表现为共享画布上的本机图像对象。那个图像对象可包含元数据(用户、机器、日期/时间、文件、应用、位置)以充分理解该图像的出处。

在另一方向进行,内容对象可从共享空间被拖动到隧道(例如,个人空间)中。这可作为到隧道的活跃应用中的简单的剪切和粘贴操作(复制操作)或者作为将超链接嵌入到那个画布中的内容对象(引用操作)来启用。

在用户实例化包括本地应用或云应用的新隧道时,该方法可知道谁实例化了该新隧道,使得它可出现在那个隧道具有该隧道正在创建了该隧道的用户的身份下运行的清楚视觉通知的地方。

该方法可使用各种技术来确定哪个用户实例化了隧道。如果隧道是远程或本地移动设备的投影,则认证的绑定可通过使移动设备上作为隧道的“所有者”的经认证用户通过来自动完成。如果对隧道的实例化是在屏幕处的共享画布上完成的,则该技术可使用各机制的组合来确定相应用户的身份。例如,用户跟踪机制(诸如Kinect)可使用光学和深度感测相机。该技术可确定谁正在触摸屏幕以及在何处触摸屏幕。脸部识别可标识用户,并且通过屏幕触摸传感器中的触摸标识或感测与由触摸传感器标识出的触摸点相关的用户定位,该技术可确定谁正在触摸屏幕以及实际上在何处以及用多少手指触摸屏幕。

用户身份可被绑定到隧道。类似地,本发明技术可将隧道创建者的身份绑定到在共享画布上创建的来自隧道的任何新内容对象。例如,当某人正在共享画布上绘制自由形式墨水时,相同的脸部识别和触摸标识机制可被用来将关于谁创建了该对象的元数据绑定到那个对象。这可允许如由特定用户或在特定位置的特定用户搜索该内容之类的场景。

一些实施例可提供共享画布上搜索框形式的分开的启示。该搜索框可通过触摸启示或通过简单地用墨水在共享画布上绘制问号来实例化。用户可使用墨水、语音或键盘输入等来将其查询输入到该搜索框中。搜索框可被用于实例化内容对象(例如,通过问该设备上或后端设备上理解的问题,诸如通过自然语言处理(NLP)或其他技术)。该技术可实例化实况动态图表以搜索web(带来具有示出web搜索结果的浏览器的隧道)或者搜索用户具有访问权的其他共享画布内容(例如,用户上星期在其上工作的共享画布)。

在一些配置中,每一共享画布可根本上通过统一资源定位符(URL)来寻址。共享画布可在云服务中维护以供检索、搜索、分析等。共享画布的元数据可包括在其上实例化群组体验的设备名称以及随后在群组体验会话期间被打开和编辑的名称。这可允许用户依据设备、用户、内容和/或日期/时间等等来搜索共享画布资料库。

在一些实现中,为了容易地检索出先前的共享画布,画布可具有用于打开可示出针对该设备(在该设备上创建)以及当前识别出的用户的集合(在任何设备上创建,但当前用户集合具有访问权)的先前画布的库的机制。一些配置可在该系统(通过语音和视觉)主动识别出(诸)返回用户的情况下自动确定先前用户群组已返回并呈现“欢迎回来体验”,并自动将设备状态设置到最后会话。

该方法可检测各识别出的个体用户何时不再与图形用户界面进行交互。作为响应,该方法可在框1912停止访问不再与图形用户界面进行交互的各识别出的个体用户的个人数据。

所述的方法可以由以上结合图17-18描述的系统和/或设备来执行,和/或由其他系统和/或系统来执行。描述各方法的次序并不旨在解释为限制,并且任何数量的所述动作都可以按任何次序组合以实现方法或实现替换方法。此外,该方法还可以用任何合适的硬件、软件、固件或其组合来实现,以使得设备可实现该方法。在一种情况下,该方法作为指令集被存储在计算机可读存储介质上,以便计算设备的执行使得该计算设备执行该方法。

总之,本发明技术可提供低阻或无阻的参与共享设备GUI上的群组体验的能力。任何用户集合都可接近该设备并使用直观的和/或受广泛认可的用户命令来同时与该设备交互。

结语

总之,共享画布可允许多个用户同时交互。共享画布可尝试识别用户以提供附加功能,诸如个性化功能和/或对私有内容的访问权。识别出的用户可通过隧道或其他机制将其私有内容带到共享空间中。

本发明概念可区别于其中每一用户诸如在电话会议期间使其自己的设备到达共享空间的现有共享。相反,在本发明概念的一些实现中,共享画布不属于这些用户中的任一者。支持共享画布的群组体验设备可了解同时主动地使用它和/或作为该群组的一部分来查看的用户。共享画布可提供供各个人到达其私有资产并与共享画布上的那些资产交互的机制。

尽管已用对结构特征和/或方法动作专用的语言描述了涉及群组体验显示设备的技术、方法、设备、系统等,但可以理解,所附权利要求书中定义的主题不必限于所述具体特征或动作。相反,上述具体特征和动作是作为实现所要求保护的方法、设备、系统等的示例性形式而公开的。

Claims (10)

1.一种计算设备,包括:
显示器;
处理器,所述处理器被配置成使得图形用户界面被呈现在所述显示器上,并且其中所述图形用户界面被配置成在所述图形用户界面的共享空间上同时与多个不同的用户交互,并且还被配置成允许在所述共享空间的各部分上向各个体用户呈现个人空间;以及
传感器,所述传感器被配置成在所述个体用户执行用户命令以与所述图形用户界面交互时检测并以置信度水平来标识所述多个不同的用户,并且至少部分地基于所述置信度水平来将所述个体用户的个人内容呈现在所述共享空间的各自的个人空间中。
2.如权利要求1所述的计算设备,其特征在于,第一个体用户的个人空间是为隧道的清单,并且其中所述隧道被配置成允许所述第一个体用户与所述第一个体用户的个人内容交互。
3.如权利要求2所述的计算设备,其特征在于,所述图形用户界面被配置成允许所述第一个体用户在语义上缩放所述个人内容以查看关于所述个人内容的细节。
4.如权利要求2所述的计算设备,其特征在于,所述个人内容包括来自所述第一个体用户的全局简档或个人设备的内容。
5.如权利要求2所述的计算设备,其特征在于,所述个人内容包括属于所述第一个体用户并且能经由所述个体隧道访问的关联设备群组。
6.如权利要求2所述的计算设备,其特征在于,所述图形用户界面还被配置成将所述第一个体用户的身份呈现在所述个体隧道附近。
7.如权利要求6所述的计算设备,其特征在于,所述身份包括所述第一个体用户的名称或所述第一个体用户的照片。
8.如权利要求1所述的计算设备,其特征在于,所述传感器被配置成通过在检测所述命令的动作中检测到的生物测定来检测并标识所述多个不同的用户。
9.如权利要求1所述的计算设备,其特征在于,所述传感器被配置成持续地监视用户命令并经由每一命令标识正执行那个命令的个体用户。
10.一种共享数字工作空间系统,包括:
显示设备;
传感器,所述传感器被配置成在个体用户执行命令时,检测并以置信度水平来标识所述显示设备附近的多个不同的用户;以及,
被配置成被呈现在所述显示设备上的群组体验图形用户界面,所述群组体验图形用户界面是自主于所述用户的,同时允许所述用户按协作方式同时参与所述群组体验图形用户界面,所述群组体验图形用户界面还被配置成向各个体用户呈现个人空间,并且至少部分地基于所述置信度水平来将所述个体用户的个人内容呈现在所述群组体验图形用户界面的各自的个人空间中。
CN201480056537.8A 2013-10-14 2014-10-10 共享数字工作空间 CN105723313B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US201361890778P true 2013-10-14 2013-10-14
US201361890755P true 2013-10-14 2013-10-14
US61/890,755 2013-10-14
US61/890,778 2013-10-14
US14/175,984 2014-02-07
US14/175,984 US9720559B2 (en) 2013-10-14 2014-02-07 Command authentication
PCT/US2014/059988 WO2015057496A1 (en) 2013-10-14 2014-10-10 Shared digital workspace

Publications (2)

Publication Number Publication Date
CN105723313A CN105723313A (zh) 2016-06-29
CN105723313B true CN105723313B (zh) 2019-09-24

Family

ID=52810745

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201480056533.XA CN105723312B (zh) 2013-10-14 2014-10-10 共享数字工作空间
CN201480056537.8A CN105723313B (zh) 2013-10-14 2014-10-10 共享数字工作空间

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201480056533.XA CN105723312B (zh) 2013-10-14 2014-10-10 共享数字工作空间

Country Status (4)

Country Link
US (3) US9720559B2 (zh)
EP (3) EP3058452B1 (zh)
CN (2) CN105723312B (zh)
WO (2) WO2015057497A1 (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720559B2 (en) 2013-10-14 2017-08-01 Microsoft Technology Licensing, Llc Command authentication
US20150106741A1 (en) 2013-10-15 2015-04-16 Microsoft Corporation Managing conversations
US20150339465A1 (en) * 2014-05-21 2015-11-26 Lenovo (Singapore) Pte. Ltd. Access control for multi-user canvas
US10834151B2 (en) * 2014-05-23 2020-11-10 Lenovo (Singapore) Pte. Ltd. Dynamic communication link management for multi-user canvas
KR102194923B1 (ko) * 2014-07-22 2020-12-24 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US10609135B2 (en) * 2015-06-16 2020-03-31 Prysm, Inc. User presence detection and display of private content at a remote collaboration venue
JP6806069B2 (ja) * 2015-09-16 2021-01-06 日本電気株式会社 操作制御装置、操作制御方法及びプログラム
US10049500B2 (en) * 2015-09-22 2018-08-14 3D Product Imaging Inc. Augmented reality e-commerce for home improvement
US9851882B2 (en) * 2015-12-27 2017-12-26 Thunder Power New Energy Vehicle Development Company Limited Fully designable vehicle information panel interface
US10755029B1 (en) 2016-01-05 2020-08-25 Quirklogic, Inc. Evaluating and formatting handwritten input in a cell of a virtual canvas
US10129335B2 (en) 2016-01-05 2018-11-13 Quirklogic, Inc. Method and system for dynamic group creation in a collaboration framework
US10067731B2 (en) * 2016-01-05 2018-09-04 Quirklogic, Inc. Method and system for representing a shared digital virtual “absolute” canvas
US10324618B1 (en) * 2016-01-05 2019-06-18 Quirklogic, Inc. System and method for formatting and manipulating digital ink
US10546153B2 (en) * 2016-09-20 2020-01-28 International Business Machines Corporation Attention based alert notification
US10848483B2 (en) * 2016-12-08 2020-11-24 Ricoh Company, Ltd. Shared terminal, communication system, and display control method, and recording medium
US10601820B2 (en) * 2016-12-09 2020-03-24 International Business Machines Corporation Method and apparatus to identify and authorize caller via ultrasound
CN108206943A (zh) * 2016-12-17 2018-06-26 大观圣光(北京)节能科技有限公司 一种佛像投影方法、装置及佛龛
US20180187969A1 (en) * 2017-01-03 2018-07-05 Samsung Electronics Co., Ltd. Refrigerator
US10739993B2 (en) * 2017-01-19 2020-08-11 Microsoft Technology Licensing, Llc Simultaneous authentication system for multi-user collaboration
US10712990B2 (en) * 2018-03-19 2020-07-14 At&T Intellectual Property I, L.P. Systems and methods for a customer assistance station
CN110661919A (zh) * 2019-09-18 2020-01-07 Oppo(重庆)智能科技有限公司 多用户显示方法、装置、电子设备及存储介质

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2310114A1 (en) 1998-02-02 1999-08-02 Steve Mann Wearable camera system with viewfinder means
US20030034874A1 (en) 1998-10-29 2003-02-20 W. Stephen G. Mann System or architecture for secure mail transport and verifiable delivery, or apparatus for mail security
US6179426B1 (en) 1999-03-03 2001-01-30 3M Innovative Properties Company Integrated front projection system
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
GB0119859D0 (en) 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US20050120003A1 (en) 2003-10-08 2005-06-02 Drury William J. Method for maintaining a record of searches and results
US7629989B2 (en) 2004-04-02 2009-12-08 K-Nfb Reading Technology, Inc. Reducing processing latency in optical character recognition for portable reading machine
US7599989B2 (en) * 2005-01-24 2009-10-06 Microsoft Corporation System and method for gathering and reporting screen resolutions of attendees of a collaboration session
US20060294388A1 (en) 2005-06-22 2006-12-28 International Business Machines Corporation Method and system for enhancing user security and session persistence
US8956396B1 (en) 2005-10-24 2015-02-17 Lockheed Martin Corporation Eye-tracking visual prosthetic and method
JP2007128288A (ja) 2005-11-04 2007-05-24 Fuji Xerox Co Ltd 情報表示システム
US20070124370A1 (en) * 2005-11-29 2007-05-31 Microsoft Corporation Interactive table based platform to facilitate collaborative activities
US7620901B2 (en) * 2006-03-21 2009-11-17 Microsoft Corporation Simultaneous input across multiple applications
US8315482B2 (en) * 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
US8924250B2 (en) 2007-09-13 2014-12-30 International Business Machines Corporation Advertising in virtual environments based on crowd statistics
US8161403B2 (en) 2007-12-05 2012-04-17 International Business Machines Corporation Returning passed objects in a surface based computing environment using a virtual bungee
US8473851B2 (en) * 2008-02-27 2013-06-25 Cisco Technology, Inc. Multi-party virtual desktop
CN101874234B (zh) * 2008-09-29 2014-09-24 松下电器产业株式会社 用户接口装置、用户接口方法、以及记录媒体
US8340974B2 (en) 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
US20100205190A1 (en) 2009-02-09 2010-08-12 Microsoft Corporation Surface-based collaborative search
US20100293501A1 (en) 2009-05-18 2010-11-18 Microsoft Corporation Grid Windows
US9489503B2 (en) 2009-12-21 2016-11-08 Paypal, Inc. Behavioral stochastic authentication (BSA)
US8693988B2 (en) 2009-06-16 2014-04-08 International Business Machines Corporation System, method, and apparatus for proximity-based authentication for managing personal data
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8522308B2 (en) 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
EP2542744B1 (en) * 2010-03-02 2015-07-15 UTC Fire & Security Corporation Seamless authentication system
US20120001923A1 (en) 2010-07-03 2012-01-05 Sara Weinzimmer Sound-enhanced ebook with sound events triggered by reader progress
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
CN102436064B (zh) 2010-09-29 2016-02-24 奥林巴斯株式会社 头戴式显示器
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US20120151012A1 (en) 2010-12-09 2012-06-14 Shakeel Mustafa Internet delivery of scheduled multimedia content
CN102075619A (zh) 2010-12-15 2011-05-25 华为终端有限公司 触摸屏手机的解锁方法和触摸屏手机
CN103003783B (zh) 2011-02-01 2016-01-20 松下电器(美国)知识产权公司 功能扩展装置、功能扩展方法、功能扩展程序以及集成电路
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US20130318445A1 (en) 2011-02-28 2013-11-28 April Slayden Mitchell User interfaces based on positions
US8670183B2 (en) 2011-03-07 2014-03-11 Microsoft Corporation Augmented view of advertisements
US8938101B2 (en) 2011-04-26 2015-01-20 Sony Computer Entertainment America Llc Apparatus, system, and method for real-time identification of finger impressions for multiple users
US8510166B2 (en) 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
CA2838280C (en) * 2011-06-15 2017-10-10 Smart Technologies Ulc Interactive surface with user proximity detection
JP2013041350A (ja) 2011-08-12 2013-02-28 Panasonic Corp タッチテーブルシステム
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US8996510B2 (en) 2011-08-23 2015-03-31 Buckyball Mobile, Inc. Identifying digital content using bioresponse data
US9164648B2 (en) * 2011-09-21 2015-10-20 Sony Corporation Method and apparatus for establishing user-specific windows on a multi-user interactive table
EP2587342A1 (en) 2011-10-28 2013-05-01 Tobii Technology AB Method and system for user initiated query searches based on gaze data
US9229231B2 (en) 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US9400893B2 (en) * 2011-12-15 2016-07-26 Facebook, Inc. Multi-user login for shared mobile devices
US9137308B1 (en) 2012-01-09 2015-09-15 Google Inc. Method and apparatus for enabling event-based media data capture
US9721105B2 (en) 2012-01-18 2017-08-01 Nokia Technologies Oy Method and apparatus for generating privacy ratings for applications
US8655163B2 (en) 2012-02-13 2014-02-18 Cameron Pace Group Llc Consolidated 2D/3D camera
CA2864166C (en) 2012-02-23 2019-09-03 Worcester Polytechnic Institute An instructional system with eye-tracking-based adaptive scaffolding
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
US20130262257A1 (en) * 2012-03-27 2013-10-03 Miko Filppula System and method for facilitating sales transaction
US8866771B2 (en) * 2012-04-18 2014-10-21 International Business Machines Corporation Multi-touch multi-user gestures on a multi-touch display
US20130290475A1 (en) 2012-04-25 2013-10-31 Akiri Solutions, Inc. Shared access to a remotely running application
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
EP2575322B1 (en) * 2012-06-13 2016-09-28 Huawei Device Co., Ltd. Method, user equipment, server, and device for sharing information
US9699135B2 (en) 2012-06-20 2017-07-04 Openvpn Technologies, Inc. Private tunnel network
US9210358B2 (en) 2012-07-02 2015-12-08 Kevin Griffin Dual-mode communication devices and methods for communicating with an entertainment system
CN103827793A (zh) 2012-07-31 2014-05-28 松下电器产业株式会社 代码读取装置以及代码读取方法
CN103777351A (zh) 2012-10-26 2014-05-07 鸿富锦精密工业(深圳)有限公司 多媒体眼镜
US9654977B2 (en) * 2012-11-16 2017-05-16 Visa International Service Association Contextualized access control
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
US20140157128A1 (en) * 2012-11-30 2014-06-05 Emo2 Inc. Systems and methods for processing simultaneously received user inputs
TWI499289B (zh) 2013-01-25 2015-09-01 Wistron Corp 媒體內容推薦方法及媒體播放系統
KR102081930B1 (ko) 2013-03-21 2020-02-26 엘지전자 주식회사 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
IN2013MU01148A (zh) 2013-03-26 2015-04-24 Tata Consultancy Services Ltd
US9219878B2 (en) * 2013-04-22 2015-12-22 Hewlett-Packard Development Company, L.P. Interactive window
US20150106386A1 (en) 2013-10-11 2015-04-16 Microsoft Corporation Eye tracking
US9720559B2 (en) 2013-10-14 2017-08-01 Microsoft Technology Licensing, Llc Command authentication
US20150102891A1 (en) 2013-10-16 2015-04-16 Samsung Electro-Mechanics Co., Ltd. Chip electronic component, board having the same, and packaging unit thereof

Also Published As

Publication number Publication date
US20150106739A1 (en) 2015-04-16
WO2015057497A1 (en) 2015-04-23
EP3058452A1 (en) 2016-08-24
CN105723313A (zh) 2016-06-29
US9720559B2 (en) 2017-08-01
WO2015057496A1 (en) 2015-04-23
US20150106740A1 (en) 2015-04-16
US10754490B2 (en) 2020-08-25
CN105723312B (zh) 2019-08-27
CN105723312A (zh) 2016-06-29
EP3058453A1 (en) 2016-08-24
EP3058452B1 (en) 2019-08-28
US20170269793A1 (en) 2017-09-21
EP3620904A1 (en) 2020-03-11
US9740361B2 (en) 2017-08-22

Similar Documents

Publication Publication Date Title
JP6776304B2 (ja) ストアドバリュー口座のためのユーザインタフェース
US10713631B2 (en) System or device for receiving a plurality of biometric inputs
US10242364B2 (en) Image analysis for user authentication
US9754420B2 (en) Mixed reality interactions
CN107209549B (zh) 能够实现可动作的消息传送的虚拟助理系统
US9998508B2 (en) Multi-site screen interactions
US9979809B2 (en) Object tracking
DK180005B1 (da) REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US9171142B2 (en) Arrangements for identifying users in a multi-touch surface environment
CN104871214B (zh) 用于具扩增实境能力的装置的用户接口
US10819807B2 (en) Method and system for displaying object, and method and system for providing the object
EP2904471B1 (en) Data and user interaction based on device proximity
CN105190641B (zh) 管理策略和许可简档
Schmid Mast et al. Social sensing for psychology: Automated interpersonal behavior assessment
US9335860B2 (en) Information processing apparatus and information processing system
US9235913B2 (en) Methods and systems for generating and joining shared experience
JP5981661B2 (ja) イメージに関連するアニメーション・シーケンス
DK179902B1 (en) User interface to control access to identification information for use in a function
CN105493481B (zh) 自动改变图形用户界面的显示的方法及系统
CN104008348B (zh) 应用程序控制方法、装置及终端
JP5956694B2 (ja) フィードバック・ユーザ・インターフェース要素に関連するアニメーション・シーケンス
DE202016003444U1 (de) Benutzeroberfläche für Treuekonten und Eigenmarkenkonten für eine tragbare Vorrichtung
US10535200B2 (en) Collaborative augmented reality
US9880640B2 (en) Multi-dimensional interface
US9024844B2 (en) Recognition of image on external display

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant