CN107852485A - 投影单元 - Google Patents

投影单元 Download PDF

Info

Publication number
CN107852485A
CN107852485A CN201680042709.5A CN201680042709A CN107852485A CN 107852485 A CN107852485 A CN 107852485A CN 201680042709 A CN201680042709 A CN 201680042709A CN 107852485 A CN107852485 A CN 107852485A
Authority
CN
China
Prior art keywords
projecting cell
environment
user
rotation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680042709.5A
Other languages
English (en)
Other versions
CN107852485B (zh
Inventor
E·S·L·林特尔
M·A·强森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN107852485A publication Critical patent/CN107852485A/zh
Application granted granted Critical
Publication of CN107852485B publication Critical patent/CN107852485B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

一种投影单元(400)具有旋转捕获模块(300)和旋转投影模块(304)。该捕获模块(300)具有至少一个彩色相机(406)、至少一个麦克风(404)和至少一个深度相机(402),并且被配置为捕获环境的图像。该旋转投影模块(304)被配置为将图像投影到环境中的至少一个表面上。该投影单元具有处理器(306),其被配置为使用由旋转捕获模块捕获的数据来选择环境中的至少一个表面,该选择取决于环境中的至少一个用户的视场并且取决于环境中的表面的特征。该处理器被配置为控制旋转捕获模块的旋转,以使得由旋转捕获模块捕获的数据适于计算用户的视场并且适于确定表面的特征。

Description

投影单元
背景技术
基于屏幕的桌面视频会议、基于屏幕的视频演示和基于屏幕的数字电视现在是成熟的技术,但是在空间要求、移动性和成本方面,对于屏幕的要求具有繁琐性。使用智能手机或平板计算机进行移动视频会议可以实现移动性,但却带来了移动的同时拿持屏幕、图像尺寸小的难题和难以处理多任务。最近,增强现实已经成为呈现视频或其他图像内容的一种方式。然而,增强现实耳机在一些情形下可能会受到限制,并且新用户或身体残疾者、老年人和非常年轻的人可能难以使用。在增强现实视频会议的情况下,如果两个参与者都使用耳机,则增强现实耳机妨碍两个参与者的面部视图,或者如果该参与者没有佩戴耳机,则会妨碍一个参与者的面部视图。
下文所描述的实施例不限于解决已知投影单元的任何或全部缺点的实现方式。
发明内容
为了向读者提供基本理解,下文呈现了本公开的简要概述。本发明内容不旨在确定所要求保护的主题的关键特征或必要特征,也不旨在用于限制所要求保护的主题的范围。其唯一目的是以简化形式呈现本文中所公开的概念的选择,以作为在下文所呈现的更详细描述的序言。
描述了一种具有旋转捕获模块和旋转投影模块的便携式投影单元。该捕获模块具有至少一个彩色相机、至少一个麦克风以及至少一个深度相机,并且该捕获模块被配置为捕获投影单元的环境的图像。旋转投影模块被配置为将图像投影到环境中的至少一个表面上。投影单元具有处理器,该处理器被配置为使用由旋转捕获模块捕获的数据来选择环境中的在其上投影图像的至少一个表面,该选择取决于环境中的至少一个用户的视场并且取决于环境中表面的特征。处理器被配置为控制旋转捕获模块的旋转,以使得由旋转捕获模块捕获的数据适于计算用户的视场并且适于确定表面的特征。处理器被配置为控制旋转投影模块的操作以将图像投影到至少一个所选择的表面上。
由于通过参考结合附图考虑的以下具体实施方式,许多附加的特征变得更好理解,因此将更容易领会。
附图说明
从下面根据附图阅读的具体实施方式中,将更好地理解本说明书,其中
图1是不同建筑物中的两个房间的示意图,每个房间均具有将视频呼叫的图像投影到相应房间的表面上的投影单元;
图2是用户坐在其上的桌子上具有投影单元的房间的示意图,并且示出了将图像投影到房间的墙壁上的投影单元;
图3是示例投影单元的透视图;
图4是示例投影单元的功能部件的示意图;
图5是桌子上具有笔记本计算机和投影单元的场景以及人走向桌子上的投影单元的另一场景的示意图;
图6是用户相对于投影单元移动的场景以及用户从一个房间走到另一房间的场景的示意图,两个房间均具有投影单元;
图7是投影单元处的示例方法的流程图。
图8是第一房间中投影单元处的方法和第二房间中的投影单元处的方法的流程图。
图9是其中检测到多个用户的投影单元的方法的流程图。
图10图示了作为投影单元的部分的示例性基于计算的设备。
相似的附图标记用于表示附图中的相似部件。
具体实施方式
下文结合附图提供的具体实施方式旨在作为本示例的描述,而非旨在表示可以构建或利用本示例的唯一形式。该描述阐述了示例的功能以及用于构建和操作示例的步骤的顺序。然而,相同或等同的功能和顺序可以通过不同的示例来实现。
图1是不同建筑物中的两个房间120、122的示意图,每个房间具有安装在天花板上的投影单元100,其将视频呼叫的图像102、114投影到相应房间的表面上。例如,在投影单元100之间存在视频呼叫。在两个房间中的第一房间中,沙发106上有人104,并且她已经在第一房间中操作投影单元100的自然用户接口,以与第二房间122中的另一投影单元建立视频呼叫。房间位于彼此远离的不同建筑物中。自然用户接口可以包括例如话音操作的用户接口和/或基于姿势的用户接口。
第一房间120中的投影单元100通过从第一房间捕获图像和/或声音来自动检测沙发106上的人。它使用云服务或使用投影单元本身中的技术来计算人的视场。投影单元还根据捕获的图像和/或声音计算(本身或使用云服务)第一房间中的表面的特征。投影单元选择房间中的、在其上投影视频呼叫的图像的至少一个表面,该选择取决于环境中的至少一个用户的视场并且取决于环境中的表面的特征。投影单元中的处理器被配置为控制单元中的旋转捕获模块的旋转,使得由旋转捕获模块捕获的数据适于计算用户的视场并且适于确定表面的特征。处理器还被配置为控制单元中的旋转投影模块上的操作以将图像投影到至少一个所选择的表面。
在图1的示例中,第一房间120具有窗户108,并且投影单元100能够检测房间中的窗户和其他表面。它决定将视频呼叫图像102投影到沙发对面的墙壁上,因为这在用户的视场中,并且具有适当的特征,诸如尺寸、纹理、反射率、照明。在第二房间122中,在天花板上安装的投影单元选择在其上投影视频呼叫的图像114的桌面110。投影单元100能够检测单元100所计算的两个用户112、116的桌面和视场,这两个用户参与视频呼叫并且具有涵盖桌面110的共享视场。投影单元100能够重建房间122中的诸如地板、墙壁、室内植物118的表面以及选择桌面100以作为具有诸如尺寸、纹理、反射率、针对用户的定向等适当的特征并且还处于两个用户的共享视场中。
投影单元能够动态地跟踪环境中的用户的视场并且动态地投影图像102、114。也就是说,如果用户移动到新位置,则投影单元能够改变投影图像的位置。在图1的示例中,投影单元100投影到环境中的单个显示区域上。然而,单个投影单元还可以同时将图像投影到环境中的多个显示区域。
图2是用户200坐在其上的桌子上具有投影单元100的房间的示意图,并且示出了将图像204投影到房间的墙壁上的投影单元。在这种情况下,图像是人206的图像,该人206是投影单元100和另一通信设备(诸如智能电话、膝上型计算机、会议室视频会议设备、平板计算机或其它视频会议设备)之间进行的视频呼叫的远程方。投影单元正在三角形202所指示的那样捕获就座的用户200的图像,并且将捕获的图像传送到远程方。这样,无需使用增强现实耳机,即可轻松实现无屏幕视频会议。投影单元的尺寸和形状以及动态捕获和动态投影的能力使得用户能够在他或她具有自然凝视的同时操作投影单元。用户察看投影单元以查看远程参与者的图像。
图3是示例投影单元100的透视图。该投影单元100是圆柱形的并且包括堆叠布置的多个圆柱形模块300、302、304、306、308。圆柱形模块中的一个或多个圆柱形模块可围绕圆柱的轴线旋转,并且在一些示例中,圆柱形模块中的至少两个圆柱形模块可围绕圆柱的轴线独立地相对于彼此而旋转。投影单元具有可以搁置在桌面上的平坦底座,并且在一些示例中,该投影单元的尺寸和形状被调节为便携式的。图3的圆柱形设计只是个示例;可以使用投影单元的其他设计。
投影单元100包括计算设备306,该计算设备306将在下文参照图10进行更详细的描述。投影单元100还包括旋转投影模块304,其包括至少一个微型投影仪并且可选地包括光学布置,该光学布置包括镜子和/或透镜,其被配置为光学地移动由微型投影仪投影的光。在一些示例中,旋转投影模块304借助于整个模块围绕其中心旋转的事实而旋转。在一些示例中,旋转投影模块借助于其发射的投影光通过使用光学布置相对于微型投影仪是可旋转的事实而具有旋转的特性。在一些示例中,旋转投影模块围绕其中心旋转并且还具有用于相对于微型投影仪旋转投影光的光学布置。
投影单元100包括一个或多个扬声器。在图3的示例中,圆柱形部件302是包括一个或多个扬声器的360°扬声器部分。在一些示例中,投影单元100具有一个或多个扬声器,其中可以控制声音输出的方向,使得声音看起来似乎源自环境中的指定位置。
投影单元100包括旋转捕获模块,其可以被容纳在圆柱形部件300中。旋转捕获模块包括至少一个深度相机、至少一个彩色相机和至少一个麦克风。旋转捕获模块可围绕其中心旋转。在图3的示例中,它可围绕圆柱的轴线旋转。在一些示例中,捕获模块还包括(除捕获模块物理上可旋转之外)透镜和/或镜子的光学布置,其被配置为例如通过旋转视场来更改捕获模块的视场。光学布置可以是可驱动的,以动态改变捕获模块的视场。例如,可以旋转视场以捕获本地用户以本地用户看起来正在观看投影单元而非在投影单元之上、之下或其旁边观看的方式的凝视。这有助于促进本地用户和远程用户相互直接凝视的感知。这在下文进行更详细地描述。
投影单元100包括通信部件,其可以是计算设备306的部分或者可以被设置在图3的堆叠布置的圆柱形部件308中。该通信部件被配置为使得投影单元能够使用有线通信和/或无线通信通过通信网络与其他实体进行通信。
图4是诸如图1至图3的投影单元100之类的示例投影单元400的功能部件的示意图。它包括旋转捕获模块300,其具有至少一个深度相机402、至少一个麦克风404和至少一个彩色相机406。相机可以捕获图像序列。存在旋转投影模块304,其包括如上文所描述的至少一个微型投影仪408和可选的光学布置410。在单元400中存在至少一个扬声器302,以及一个或多个马达412,该马达驱动旋转捕获模块以及(如果适当的话)旋转投影模块。提供通信部件308。投影单元具有计算设备306,其包括场景重建模块414、控制器416和凝视跟踪器418。
场景重建模块414包括软件和/或硬件,其从旋转捕获模块接收深度和/或彩色图像数据并且计算环境中表面相对于环境中其他表面的特征,诸如3D位置、尺寸、纹理、颜色、反射率、强度、位置。例如,它可以通过组合来自由深度相机所捕获的帧序列中的深度图像数据帧的数据来计算环境中的表面的3D重建。3D重建可以包括截短带符号距离函数或表面的其他表示。3D重建保存关于环境中表面的3D位置,表面的相对尺寸以及表面相对于彼此的相对位置的信息。
场景重建模块可以根据深度图像和/或彩色图像来计算环境中表面的反射率的指示。例如,通过评估在由飞行时间深度相机捕获的深度图像中观察到的多路径反射的数量,在环境中的环境照明差时的条件下通过评估在投影单元处的光源(诸如微型投影仪)的主动照明下返回到深度和/或彩色相机的光的数量,通过评估关于在特定条件下捕获的校准彩色图像的彩色图像的强度水平,或者通过使用诸如建筑物的平面布置图的高级数据。
场景重建模块可以通过评估3D重建中的表面的平滑度来根据3D重建计算环境中的表面的纹理的指示。它还可以使用彩色图像来计算表面的纹理。
场景重建模块可以根据彩色图像来计算环境中的表面的颜色和强度。
凝视跟踪器418可以包括本体部分或骨架跟踪技术,诸如越来越多地与深度相机和/或彩色相机一起使用。凝视跟踪器使用本体部分或骨架跟踪技术检测用户头部的3D姿势,其中3D手势是指示3D位置和方位的六自由度参数。根据3D头部姿势,凝视跟踪器计算用户的凝视方向和用户的视场。在一些示例中,视场考虑场景重建数据,以使如果用户的视场被环境中的对象部分阻挡,则视场受到约束。
计算设备306还包括控制器416,其包括控制功能,其用于操作捕获模块300、投影模块304、扬声器302和马达。控制模块可以操作如下文关于图7所描述的控制过程。
本文中所描述的图4的部件中的一个或多个部件的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如但不限于,可以使用的说明性类型的硬件逻辑部件包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD)、图形处理单元(GPU)。
图5是桌子504上具有膝上型计算机502和投影单元100的场景(图5的上部)以及人506走向桌子上的投影单元的另一场景(图5的下部)的示意图。在具有膝上型计算机502的场景中,可以看出,投影单元100的尺寸和形状被调节为比处于打开配置的膝上型计算机更小。在该示例中,投影单元的尺寸和形状被调节为使得当投影单元被支撑在桌子上时,坐在桌子上的用户能够察看单元的顶部,例如以看到投影到墙壁上的远程视频呼叫参与者的投影。
在图5的下部中,人506正走向桌子上的投影单元。用户506的凝视方向由线508指示,并且这可以由凝视跟踪器418来计算。用户506的视场以凝视方向506为中心并且包括投影单元将远程参与者参与视频呼叫的图像投影到其上的房间的墙壁。在用户506在房间中移动时,投影单元动态跟踪凝视方向和视场,并且相应地动态更新投影图像的位置。
图6是用户相对于投影单元移动的场景(图6的上部)以及用户从一个房间走到另一房间的情景(图6的下部)的示意图,两个房间都有投影单元。在图6的上部中,用户600首先靠近房间A1中具有投影单元的桌子。用户讲话(由虚线语音泡泡604指示)并且声音由投影单元处的麦克风捕获。投影单元捕获用户的图像。捕获的图像和声音作为视频呼叫的部分被传送到远程方。投影单元将远程方的图像投影到墙壁上。在用户移动到远离单元朝向门口(未示出)的位置602时,投影单元检测到用户可能离开房间A1。例如,用户可以讲出单词“跟随我”或其他类似的命令。投影单元通过发送提醒他们可能需要投影切换过程的消息来与建筑物中的其他投影单元无线通信。
在图6的下部的场景中,用户606在第一房间B1中。如上文所描述的,正在进行视频呼叫。用户讲出单词“跟随我”或其他类似命令,并且退出房间B1。(讲出命令是可选的。)投影单元向建筑物/附近的其他投影单元发送消息,该消息包括正在被呈现的视频呼叫的细节。用户进入还具有投影单元的房间B2。在房间B1中,由于投影单元已经接收到来自房间B1的投影单元的消息,所以该投影单元正在期待用户606。该投影单元跟踪用户606的凝视,在环境中选择合适表面,使用接收的消息中的细节获得图像,并且投影视频呼叫图像和声音。
图7是投影单元处的示例方法的流程图。图7的方法可以在图4的控制器416处实现。
当投影单元例如通过被放置在表面上,安装在天花板或墙壁上,并且安装在杆或其他支撑上来被初始化时,投影单元操作旋转捕获模块700,以便捕获702环境数据,该环境数据诸如深度图像的序列、彩色图像的序列、声音和其他数据。控制器416触发场景重建模块414,以便使用所捕获的环境数据来重建704场景表面并且如上文所描述的计算场景中的表面的特征。
控制器监视环境中存在用户。例如,该控制器监视由旋转捕获模块700捕获的声音和图像。当检测706到用户的存在时,控制器使得旋转捕获模块的操作708从一个或多个相机位置捕获用户头部的图像。如上文所描述的,控制器触发计算710用户的凝视方向的凝视跟踪器的操作418,并且计算712用户的视场。用户的所捕获的图像可以使用通信部件作为例如视频呼叫的部分而被传送到另一实体。在一些示例中,捕获模块包括光学布置,其被动态驱动以依据用户的凝视方向更改投影单元的视场。例如,使得用户的凝视方向朝向投影单元的视场的中心移动。以这种方式,所捕获的图像描绘了本地用户,就好像他或她正在更直接地观看投影单元一样,而不是观看场景中的另一点(诸如投影单元上方、下方或旁边的位置)。
控制器依据用户的视场和场景表面的特征来选择一个或多个场景表面。场景表面的特征中的至少一些特征可以根据表面重建来计算。可选地,控制器依据所选择的场景表面中的一个场景表面来计算716声音输出方向。
控制器触发旋转投影模块的操作718以将可视内容投影720到一个或多个所选择的表面上。例如,它可以将图像投影到两个不同表面上,并且请求关于哪个表面被用户优选的用户输入。控制器接收724用户选择数据,并且使得旋转投影模块投影726到用户所选择的表面。在计算716声音输出方向的情况下,控制器使用722所计算的声音方向触发一个或多个扬声器来输出音频。
所投影的图像可以包括远程用户的图像,该远程用户正在参与投影单元本地的用户的视频呼叫。在一些示例中,在投影模块中的光学布置可用的情况下,光学布置与捕获模块中的光学布置一起使用。例如,以便调整在图像中被描绘为正在朝向投影单元的本地用户的远程用户的明显凝视。这有助于促进本地用户和远程用户之间相互直接凝视的感知。
图8是第一房间中的投影单元处的方法和第二房间中的投影单元处的方法的流程图,例如,其中用户从第一房间行进到第二房间并且内容的投影在两个房间的投影单元之间传送。
建筑物的第一房间中的投影单元使用无线发现过程,使用预先配置的数据,使用云服务或以其他方式发现800附近/建筑物中的其他投影单元。投影单元检测802第一房间中存在用户,并且向已经发现的其他投影单元发送804状态消息。该状态消息可以在建筑物中以无线方式进行广播,或者可以被发送到所发现的投影单元中的特定投影单元。状态消息至少包括已经检测到用户的指示。
投影单元监视用户可能要离开房间的情形。例如,可以通过检查用户在门口附近的位置,通过接收来自用户的话音命令或以其他方式。当检测806到可能的房间改变时,投影单元向其他单元中的一个或多个其他单元发送第二状态消息。第二状态消息可以在建筑物中以无线方式进行广播,或者可以被发送到所发现的投影单元中的指定投影单元。第二状态消息至少包括房间改变可能的指示以及当前正在被投影的任何内容的细节。
投影单元例如通过检查没有用户图像数据存在于所捕获的图像中来监视用户不存在810的情形。如果用户是不存在,则进入其中节省功率的休眠状态812。
建筑物的第二房间中的投影单元接收从第一房间发送的第一状态消息814。在投影单元处于休眠状态的情况下,控制器触发投影单元的唤醒816。在唤醒状态下,投影单元的全部功率可用。
第二房间中的投影单元接收指示可能发生房间改变的第二状态更新消息818。它进入主动捕获状态820,在该主动捕获状态820下,捕获房间中任何门口的图像以检测用户的进入。它监视图像和/或监视声音以检查822用户存在。如果在指定的时间段之后没有检测到用户,则投影单元进入休眠状态824。如果检测到用户,则投影单元移动到捕获和投影过程826,诸如关于图7的至少部分所描述的过程。
在一些示例中,投影单元被配置为处理多用户场景。如果投影单元在例如通过图像分析和/或声音分析投影内容的同时检测900在其环境中存在多于一个用户,则其使用经训练的机器学习系统来标识902参与用户。参与用户是在消费相同的单个投影位置处由投影单元投影的内容牵涉到的那些用户。投影单元可以使用具有经训练的机器学习系统的云服务,或者其可以具有被存储在投影单元中或投影单元本地的合适的经训练的机器学习系统。
经训练的机器学习系统包括分类器,诸如随机决策森林、支持向量机、神经网络或其他类型的分类器。经训练的机器学习系统使用标记训练数据进行训练,该标记训练数据包括多个用户的图像和/或声音数据、当图像和/或声音被捕获时使用的投影表面的细节、以及用户被标记为参与指定表面处的投影内容或不参与指定表面处的投影内容的情况。
投影单元计算904被标识为参与消费投影内容的每个用户的凝视方向。凝视跟踪器部件可以用于这种情况。投影单元计算参与用户的共享906视场,并且基于共享视场和场景表面的特征两者来选择908场景中的将内容投影到其上的表面。
图10图示了图4的投影单元的示例性基于计算的设备1034的各种部件。
基于计算的设备1034包括一个或多个处理器1008,其可以是微处理器、控制器或任何其他合适类型的处理器,其用于处理计算机可执行指令以控制设备的操作,以便控制投影单元的操作用于动态跟踪用户并且将内容动态投影到场景表面上。在一些示例中,例如,在使用片上系统体系架构的情况下,处理器1008可以包括一个或多个固定功能块(还被称为加速器),其实现了以硬件(而非软件或固件)控制投影单元的方法的部分。可以在基于计算的设备处提供包括操作系统1022的平台软件或任何其他合适的平台软件,以使得应用软件能够在设备上执行。基于计算的设备至少包括场景重建部件1014、凝视方向跟踪器1016和控制器1018。数据存储装置1020保存数据,诸如图像、声音记录、场景重建、表面的特征、凝视方向、视场数据、门口的位置、状态消息和其他数据。基于计算的设备1034可以使用通信接口1010经由通信网络1002与一个或多个内容源1004进行通信。一个或多个其他投影单元1000可以存在于通信网络1002上以及一个或多个远程方1006(诸如远程视频呼叫方)。
计算机可执行指令可以使用可由基于计算的设备1034访问的任何计算机可读介质来提供。计算机可读介质可以包括例如计算机存储介质,诸如存储器1012和通信介质。诸如存储器1012之类的计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据之类的信息的任何方法或技术实现的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EPROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光学存储装置、磁带盒、磁带、磁盘存储装置或其他磁存储设备、或者可以用于存储以供计算设备访问的信息的任何其他非传输介质。相比之下,通信介质可以在诸如载波之类的经调制数据信号或其他传输机构中所包含的计算机可读指令、数据结构、程序模块或其他数据。如本文中所定义的,计算机存储介质不包括通信介质。因此,计算机存储介质本身不应被解释为传播信号。传播的信号可以存在于计算机存储介质中,但传播的信号本身不是计算机存储介质的示例。尽管在基于计算的设备1034内示出了计算机存储介质(存储器1012),但是应当领会,存储装置可以被分布或远程定位并且经由网络或其他通信链路(例如,使用通信接口1010)被访问。
基于计算的设备1034还包括输入/输出控制器1024,其被布置为将显示信息输出到投影模块1026。显示信息可以提供图形用户接口。输入/输出控制器1024还被布置为接收和处理来自诸如捕获模块1028、扬声器1030之类的一个或多个设备的输入。输入/输出控制器1024还用投影单元的一个或多个马达1032发送和接收消息。
基于计算的设备1034包括NUI技术,其使得用户能够以自然方式与基于计算的设备进行交互,而不受由诸如鼠标、键盘、遥控器等之类的输入设备施加的人为约束。可以提供的NUI技术的示例包括但不限于依赖于话音和/或语音识别、手势识别、头部跟踪和眼睛跟踪、话音和语音以及机器智能的那些技术。可以使用的NUI技术的其他示例包括意图和目标理解系统,使用深度相机(诸如立体相机系统、红外相机系统、rgb相机系统及其组合)的运动手势检测系统,使用加速度计/陀螺仪的运动手势检测,面部识别,头部、眼睛和凝视跟踪,以及使用电场感测电极(EEG和相关方法)来感测大脑活动的技术。
在各种示例中,存在一种便携式投影单元,其包括:
旋转捕获模块,其包括至少一个彩色相机、至少一个麦克风、至少一个深度相机,该旋转捕获模块被配置为捕获环境的图像;
旋转投影模块,其被配置为将图像投影到环境中的至少一个表面上;以及
处理器,其被配置为使用由旋转捕获模块捕获的数据来选择环境中的、在其上投影图像的至少一个表面,该选择取决于环境中的至少一个用户的视场,并且取决于环境中的表面的特征;该处理器被配置为控制旋转捕获模块的旋转,使得由旋转捕获模块捕获的数据适于计算用户的视场并且适于确定表面的特征,并且该处理器被配置为控制旋转投影模块上的操作以将图像投影到至少一个所选择的表面。
例如,环境中的表面的特征包括以下一项或多项:相对于环境中的其他表面的3D位置、尺寸、纹理、颜色、反射率、强度、位置。
例如,处理器被配置为使用由旋转捕获模块捕获的数据来重建环境中的表面,并且至少根据重建来计算环境中的表面的特征。
例如,旋转捕获模块相对于旋转投影模块可独立旋转。
在示例中,投影单元具有至少一个扬声器,并且被配置为控制扬声器使用依据所选择的表面计算的声音输出方向。
投影单元的尺寸和形状可以被调节为使得当投影单元被支撑在桌子上时,坐在桌子上的用户能够察看单元的顶部。
在一些示例中,该单元是便携式或天花板安装式。
该投影单元可以具有通信部件,其被配置为与环境的不同房间中的一个或多个其他投影单元进行通信,该通信部件被布置为在投影单元检测到投影单元存在用户的情况下或在投影单元检测到环境中可能离开环境的用户的情况下,向其他投影单元发送消息,该消息包括投影图像的细节。
例如,投影图像的细节包括投影图像的来源。
投影单元可以具有通信部件,其被配置为与环境的不同房间中的一个或多个其他投影单元进行通信,该处理器被布置为唤醒投影单元或者依据从其他投影单元中的一个投影单元接收到的消息控制可旋转捕获模块以进入主动捕获状态。
在一些示例中,处理器被配置为使用由旋转捕获模块捕获的数据来检测环境中的多个用户的存在,并且依据用户的共享视场来选择至少一个表面。
在一些示例中,处理器被配置为标识正在参与查看投影图像的多个用户中的用户以及不参与查看投影图像的多个用户中的用户,并且根据关于被标识为参与查看投影图像的用户的数据计算共享视场。
在一些示例中,处理器被配置为选择环境中的多个表面并且使得用户能够选择多个表面中的一个表面。
在一些示例中,处理器被配置为记录与用户选择相关联的数据并且监视记录的数据再次出现的情形。
投影单元可以包括通信部件,其被布置为与通信设备建立视频呼叫,并且其中投影图像包括视频呼叫的图像。
在一些示例中,旋转投影模块包括光学布置。
在一些示例中,捕获模块包括光学布置,其被配置为依据至少一个用户的凝视方向来调整捕获模块的视场。
在示例中,存在一种包括多个投影单元的分布式投影系统,投影单元中的各个投影单元位于建筑物的不同房间中,投影单元中的每个投影单元包括:
旋转捕获模块,其包括至少一个彩色相机、至少一个麦克风、至少一个深度相机,该旋转捕获模块被配置为捕获环境的图像;
旋转投影模块,其被配置为将图像投影到环境中的至少一个表面上;以及
处理器,其被配置为使用由旋转捕获模块捕获的数据来选择环境中的、在其上投影图像的至少一个表面,该选择取决于环境中的至少一个用户的视场,并且取决于环境中的表面的特征;该处理器被配置为控制旋转捕获模块的旋转,使得由旋转捕获模块捕获的数据适于检测用户的凝视并且适于确定表面的特征,并且该处理器被配置为控制投影模块的旋转以将图像投影到至少一个所选择的表面上。
在示例中,存在一种方法,其包括:
通过旋转环境中的投影单元的捕获模块来接收从环境捕获的深度图像、彩色图像和声音;
使用捕获模块所捕获的数据来自动选择环境中的、在其上投影图像的至少一个表面;以及
控制作为投影单元的部分的旋转投影模块以将图像投影到至少一个表面上;
其中自动选择至少一个表面取决于环境中的至少一个用户的视场并且取决于环境中的表面的特征,该视场和特征根据所接收的深度图像和所接收的彩色图像进行计算。
该方法可以包括:操作投影单元的通信部件以与环境的不同房间中的一个或多个其他投影单元进行通信,该通信部件被布置为在投影单元检测到环境中存在用户的情况下或者在投影单元检测到环境中可能离开环境的用户的情况下,向其他投影单元发送消息,该消息包括投影图像的细节。
术语“计算机”或“基于计算的设备”在本文中被用于指代具有处理能力的任何设备,使得其可以执行指令。本领域技术人员将认识到,这样的处理能力被并入到许多不同的设备中,因此术语“计算机”和“基于计算的设备”各自包括PC、服务器、移动电话(包括智能手机)、平板计算机、机顶盒、媒体播放器、游戏机、个人数字助理和许多其他设备。
本文中所描述的方法可以由有形存储介质上的机器可读形式的软件执行,该有形存储介质例如是包括计算机程序代码器件的计算机程序形式,该计算机程序代码器件适于当程序在计算机上运行时并且在计算机程序可以在计算机可读介质上被包含的情况下,执行本文中所描述的方法中的任一方法的所有步骤。有形存储介质的示例包括计算机存储设备,而不包括传播的信号,该计算机存储设备包括计算机可读介质,该计算机可读介质诸如磁盘、拇指驱动器、存储器等。传播的信号可以存在于有形存储介质中,但是传播的信号本身不是有形存储介质的示例。该软件可以适合在并行处理器或串行处理器上执行,以使得方法步骤可以以任何合适顺序或同时执行。
这确认了软件可以是有价值的可单独交易的商品。它旨在涵盖在“哑”硬件或标准硬件上运行或控制该“哑”硬件或标准硬件的软件,以执行所需功能。还旨在涵盖如用于设计硅芯片或配置通用可编程芯片以执行所需功能的“描述”或定义硬件配置的软件(诸如HDL(硬件描述语言)软件)。
本领域技术人员将认识到,用于存储程序指令的存储设备可以被分布在网络上。例如,远程计算机可以存储被描述为软件的过程的示例。本地或终端计算机可以访问远程计算机并且下载运行该程序的部分或全部软件。可替代地,本地计算机可以根据需要下载软件的片段,或者在本地终端处执行一些软件指令,而在远程计算机(或计算机网络)处执行一些软件指令。本领域技术人员还将认识到,通过利用本领域技术人员已知的常规技术,可以通过专用电路(诸如DSP、可编程逻辑阵列等)来执行全部或部分软件指令。
对本领域技术人员而言,显而易见的是,在不失去所寻求的效果的情况下,可以扩展或更改本文中所给出的任何范围或设备值。
尽管已经用结构特征和/或方法动作专用的语言描述了主题,但是应当理解,所附权利要求中限定的主题不一定限于上文所描述的特定特征或动作。相反,上文所描述的具体特征和动作被公开为实现权利要求的示例形式。
应该理解,上文所描述的益处和优点可以涉及一个实施例,或者可以涉及几个实施例。实施例不限于解决任何或全部所述问题的那些实施例或具有任何或所有所述益处和优点的那些实施例。应当进一步理解,对“一个”项目的引用是指那些项目中的一个或多个项目。
本文中所描述的方法的步骤可以以任何合适次序来执行,或者在适当情况下同时执行。附加地,可以从方法中的任一方法中删除各个框,而不背离本文中所描述的主题的精神和范围。上文所描述的示例中的任一示例的各方面可以与所描述的其他示例中的任一示例的各方面组合以形成进一步示例,而不失去所寻求的效果。
术语“包括”在本文中被用于意指包括所标识的方法框或元素,但是这样的框或元素不包括排他列表,并且方法或装置可以包含附加的框或元素。
应当理解,上文描述仅以示例给出,并且本领域技术人员可以做出各种修改。上文说明书、示例和数据提供了示例性实施例的结构和使用的完整描述。尽管上文已经以一定程度的特定性或者参照一个或多个单独实施例对各种实施例进行了描述,但是本领域技术人员可以在不背离本说明书的精神或范围的情况下,可以对所公开的实施例做出许多更改。

Claims (15)

1.一种投影单元,包括:
旋转捕获模块,其包括至少一个彩色相机、至少一个麦克风、至少一个深度相机,所述旋转捕获模块被配置为捕获环境的图像;
旋转投影模块,其被配置为将图像投影到所述环境中的至少一个表面上;以及
处理器,其被配置为使用由所述旋转捕获模块所捕获的数据来选择所述环境中的、在其上投影所述图像的所述至少一个表面,所述选择取决于所述环境中的至少一个用户的视场并且取决于所述环境中的表面的特征;所述处理器被配置为控制所述旋转捕获模块的旋转,以使得由所述旋转捕获模块捕获的所述数据适于计算所述用户的视场并且适于确定所述表面的特征,并且所述处理器被配置为控制所述旋转投影模块的操作,以将所述图像投影到所选择的所述至少一个表面上。
2.根据权利要求1所述的投影单元,其中所述环境中的表面的所述特征包括以下一项或多项:3D位置、尺寸、纹理、颜色、反射率、强度、相对于所述环境中的其他表面的位置。
3.根据权利要求1或权利要求2所述的投影单元,其中所述处理器被配置为使用由所述旋转捕获模块捕获的所述数据来重建所述环境中的表面,并且至少根据所述重建来计算所述环境中的表面的特征。
4.根据权利要求1至3中的任一项所述的投影单元,其中所述旋转捕获模块相对于所述旋转投影模块可独立旋转。
5.根据任一前述权利要求所述的投影单元,包括至少一个扬声器,并且其中所述处理器被配置为控制所述扬声器使用依据所选择的所述表面计算出的声音输出方向。
6.根据任一前述权利要求所述的投影单元,所述投影单元的尺寸和形状被调节以使得以下各项中任一项或多项可应用:当所述投影单元被支撑在桌子上时,坐在所述桌子上的用户能够察看所述单元的顶部,所述单元是便携式的,所述单元可在天花板上安装。
7.根据任一前述权利要求所述的投影单元,包括通信部件,其被配置为与所述环境的不同房间中的一个或多个其他投影单元进行通信,所述通信部件被布置为在所述投影单元检测到所述环境中存在用户的情况下或者在所述投影单元检测到所述环境中的用户可能离开所述环境的情况下,向所述其他投影单元发送消息。
8.根据任一前述权利要求所述的投影单元,包括通信部件,其被配置为与所述环境的不同房间中的一个或多个其他投影单元进行通信,所述处理器被布置为唤醒所述投影单元,或者依据从所述其他投影单元中的一个投影单元接收到的消息来控制所述旋转捕获模块进入主动捕获状态。
9.根据任一前述权利要求所述的投影单元,其中所述处理器被配置为使用由所述旋转捕获模块捕获的数据来检测所述环境中多个用户的存在,并且依据所述用户的共享视场来选择所述至少一个表面。
10.根据权利要求9所述的投影单元,其中所述处理器被配置为标识所述多个用户中参与观看所投影的图像的用户和所述多个用户中不参与观看所投影的图像的用户,以及从与被标识为参与观看所投影的图像的所述用户有关的数据来计算所述共享视场。
11.根据任一前述权利要求所述的投影单元,其中所述处理器被配置为选择所述环境中的多个表面以及使得用户能够选择所述多个表面中的一个。
12.根据任一前述权利要求所述的投影单元,其中所述旋转投影模块包括光学布置。
13.根据任一前述权利要求所述的投影单元,其中所述捕获模块包括光学布置,所述光学布置被配置为依据所述至少一个用户的凝视方向来调整所述捕获模块的所述视场。
14.一种分布式投影系统,包括多个投影单元,所述投影单元中的各个投影单元位于建筑物的不同房间中,所述投影单元中的每个投影单元包括:
旋转捕获模块,其包括至少一个彩色相机、至少一个麦克风、至少一个深度相机,所述旋转捕获模块被配置为捕获所述环境的图像;
旋转投影模块,其被配置为将图像投影到所述环境中的至少一个表面上;以及
处理器,其被配置为使用由所述旋转捕获模块捕获的数据来选择所述环境中的、在其上投影所述图像的所述至少一个表面,所述选择取决于所述环境中的至少一个用户的视场并且取决于所述环境中的表面的特征;所述处理器被配置为控制所述旋转捕获模块的旋转,以使得由所述旋转捕获模块捕获的所述数据适于检测所述用户的凝视并且适于确定所述表面的特征,并且所述处理器被配置为控制所述投影模块的旋转,以将所述图像投影到所选择的所述至少一个表面上。
15.一种方法,包括:
通过在环境中旋转投影单元的捕获模块来接收从所述环境捕获的深度图像、彩色图像和声音;
使用由所述捕获模块捕获的数据来自动选择所述环境中的、在其上投影图像的至少一个表面;以及
控制作为所述投影单元的一部分的旋转投影模块,以将所述图像投影到所述至少一个表面上;
其中自动选择所述至少一个表面取决于所述环境中的至少一个用户的视场并且取决于所述环境中的表面的特征,所述视场和所述特征从接收的所述深度图像和接收的所述彩色图像而被计算出。
CN201680042709.5A 2015-07-20 2016-07-15 投影单元 Active CN107852485B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/804,046 US10462421B2 (en) 2015-07-20 2015-07-20 Projection unit
US14/804,046 2015-07-20
PCT/US2016/042372 WO2017015067A1 (en) 2015-07-20 2016-07-15 Projection unit

Publications (2)

Publication Number Publication Date
CN107852485A true CN107852485A (zh) 2018-03-27
CN107852485B CN107852485B (zh) 2020-09-25

Family

ID=56682241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680042709.5A Active CN107852485B (zh) 2015-07-20 2016-07-15 投影单元

Country Status (4)

Country Link
US (1) US10462421B2 (zh)
EP (1) EP3326362B1 (zh)
CN (1) CN107852485B (zh)
WO (1) WO2017015067A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111176337A (zh) * 2018-11-09 2020-05-19 安克创新科技股份有限公司 一种投影装置以及投影方法、计算机存储介质
CN112004460A (zh) * 2018-03-30 2020-11-27 皇家飞利浦有限公司 用于3d扫描的系统和方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016018424A1 (en) * 2014-08-01 2016-02-04 Hewlett-Packard Development Company, L.P. Projection of image onto object
JP2017055178A (ja) * 2015-09-07 2017-03-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10764474B2 (en) * 2017-03-02 2020-09-01 Amazon Technologies, Inc. Assembly for electronic devices
CN109802931B (zh) * 2017-11-17 2021-08-06 腾讯科技(深圳)有限公司 一种通信处理方法、终端及存储介质
CN107846582B (zh) * 2017-11-21 2019-12-03 深圳市至高乐商业管理有限公司 一种投影沙池的图像处理方法和系统
US10853911B2 (en) * 2018-04-17 2020-12-01 Google Llc Dynamic adaptation of images for projection, and/or of projection parameters, based on user(s) in environment
US10726521B2 (en) * 2018-04-17 2020-07-28 Google Llc Dynamic adaptation of device interfaces in a voice-based system
US11863905B1 (en) * 2018-05-30 2024-01-02 Amazon Technologies, Inc. Application-based control of devices within an environment
US10841544B2 (en) * 2018-09-27 2020-11-17 Rovi Guides, Inc. Systems and methods for media projection surface selection
US10972697B2 (en) * 2018-10-10 2021-04-06 Lenovo (Singapore) Pte. Ltd. Projection system
FR3089740B1 (fr) * 2018-12-06 2022-09-16 Orange Dispositif et procédé de projection de contenus sur une surface de projection, détecteur et procédé de détection de surfaces de projection, terminal de communication l’implémentant
CN110930518A (zh) * 2019-08-29 2020-03-27 广景视睿科技(深圳)有限公司 基于增强现实技术的投影方法及投影设备
US11586861B2 (en) 2019-09-13 2023-02-21 Toyota Research Institute, Inc. Embeddings + SVM for teaching traversability
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
CN111352541A (zh) * 2020-02-28 2020-06-30 杭州鸿雁智能科技有限公司 投影式控制系统
US11758626B2 (en) * 2020-03-11 2023-09-12 Universal City Studios Llc Special light effects system
CN114026886A (zh) * 2020-05-08 2022-02-08 谷歌有限责任公司 用于自动跨设备内容传递的用户接近度感测
US11394940B1 (en) * 2021-04-16 2022-07-19 Texas Instruments Incorporated Dynamic image warping
US11758089B2 (en) 2021-08-13 2023-09-12 Vtech Telecommunications Limited Video communications apparatus and method
EP4254945A1 (en) * 2022-03-30 2023-10-04 Yokogawa Electric Corporation Apparatus and method for controlling a projection system
US12086301B2 (en) 2022-06-01 2024-09-10 Sphere Entertainment Group, Llc System for multi-user collaboration within a virtual reality environment

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020105623A1 (en) * 2000-12-06 2002-08-08 International Business Machines Corporation Multiple-surface display projector with interactive input capability
CN101842810A (zh) * 2007-10-30 2010-09-22 惠普开发有限公司 具有协作姿态检测的交互式显示系统
CN103037185A (zh) * 2011-09-30 2013-04-10 卡西欧计算机株式会社 显示装置、及显示控制方法
CN103226282A (zh) * 2013-05-13 2013-07-31 合肥华恒电子科技有限责任公司 一种便携式虚拟现实投影装置
US20130290434A1 (en) * 2012-04-26 2013-10-31 International Business Machines Corporation Notifying electronic meeting participants of interesting information
CN103460255A (zh) * 2011-03-29 2013-12-18 高通股份有限公司 用于本地多用户协作的模块化移动连接式微微型投影仪
US8840250B1 (en) * 2012-01-11 2014-09-23 Rawles Llc Projection screen qualification and selection
CN104185824A (zh) * 2012-03-31 2014-12-03 英特尔公司 用于显示和集成的投影的计算设备、装置和系统
CN104410803A (zh) * 2014-09-28 2015-03-11 联想(北京)有限公司 信息处理方法及电子设备
US20150102995A1 (en) * 2013-10-15 2015-04-16 Microsoft Corporation Automatic view adjustment
TW201520673A (zh) * 2013-11-26 2015-06-01 Automotive Res & Testing Ct 自動調整可視範圍之資訊顯示系統及其顯示方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7739109B2 (en) * 2005-01-12 2010-06-15 Microsoft Corporation System and process for muting audio transmission during a computer network-based, multi-party teleconferencing session
US8256900B2 (en) * 2006-04-05 2012-09-04 Bitetto James J Method and apparatus for projecting image patterns and colors for planning an interior improvement project
KR20090022053A (ko) 2007-08-29 2009-03-04 삼성전자주식회사 자동으로 영상을 조정하는 빔 프로젝트 장치 및 방법
US8355041B2 (en) 2008-02-14 2013-01-15 Cisco Technology, Inc. Telepresence system for 360 degree video conferencing
US8024007B2 (en) 2008-07-28 2011-09-20 Embarq Holdings Company, Llc System and method for a projection enabled VoIP phone
US9024997B2 (en) 2010-09-03 2015-05-05 At&T Intellectual Property L.L.P. Virtual presence via mobile
CA2720886A1 (en) 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
US8520052B2 (en) 2011-02-02 2013-08-27 Microsoft Corporation Functionality for indicating direction of attention
CN102915220B (zh) 2011-08-04 2016-02-10 英华达(上海)科技有限公司 一种手持式投影装置及其投影方法
US8970655B2 (en) 2011-12-16 2015-03-03 Polycom, Inc. Reflective and refractive solutions to providing direct eye contact videoconferencing
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
JP2014153478A (ja) * 2013-02-06 2014-08-25 Sony Corp 画像投影装置および画像投影方法
US20140245185A1 (en) 2013-02-28 2014-08-28 Ricoh Company, Ltd. Electronic Information Collaboration System
US9215406B2 (en) 2013-03-14 2015-12-15 Polycom, Inc. Immersive telepresence anywhere
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
CN203734758U (zh) 2014-03-06 2014-07-23 陕西理工学院 一种多功能会议系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020105623A1 (en) * 2000-12-06 2002-08-08 International Business Machines Corporation Multiple-surface display projector with interactive input capability
CN101842810A (zh) * 2007-10-30 2010-09-22 惠普开发有限公司 具有协作姿态检测的交互式显示系统
CN103460255A (zh) * 2011-03-29 2013-12-18 高通股份有限公司 用于本地多用户协作的模块化移动连接式微微型投影仪
CN103037185A (zh) * 2011-09-30 2013-04-10 卡西欧计算机株式会社 显示装置、及显示控制方法
US8840250B1 (en) * 2012-01-11 2014-09-23 Rawles Llc Projection screen qualification and selection
CN104185824A (zh) * 2012-03-31 2014-12-03 英特尔公司 用于显示和集成的投影的计算设备、装置和系统
US20130290434A1 (en) * 2012-04-26 2013-10-31 International Business Machines Corporation Notifying electronic meeting participants of interesting information
CN103226282A (zh) * 2013-05-13 2013-07-31 合肥华恒电子科技有限责任公司 一种便携式虚拟现实投影装置
US20150102995A1 (en) * 2013-10-15 2015-04-16 Microsoft Corporation Automatic view adjustment
TW201520673A (zh) * 2013-11-26 2015-06-01 Automotive Res & Testing Ct 自動調整可視範圍之資訊顯示系統及其顯示方法
CN104410803A (zh) * 2014-09-28 2015-03-11 联想(北京)有限公司 信息处理方法及电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112004460A (zh) * 2018-03-30 2020-11-27 皇家飞利浦有限公司 用于3d扫描的系统和方法
CN111176337A (zh) * 2018-11-09 2020-05-19 安克创新科技股份有限公司 一种投影装置以及投影方法、计算机存储介质
CN111176337B (zh) * 2018-11-09 2023-12-19 安克创新科技股份有限公司 一种投影装置以及投影方法、计算机存储介质

Also Published As

Publication number Publication date
WO2017015067A1 (en) 2017-01-26
CN107852485B (zh) 2020-09-25
US20170026612A1 (en) 2017-01-26
US10462421B2 (en) 2019-10-29
EP3326362B1 (en) 2022-09-28
EP3326362A1 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
CN107852485A (zh) 投影单元
US11765318B2 (en) Placement of virtual content in environments with a plurality of physical participants
US9924238B2 (en) Method and a system for using a computerized source device within the virtual environment of a head mounted device
US10269180B2 (en) Information processing apparatus and information processing method, display apparatus and display method, and information processing system
US20120192088A1 (en) Method and system for physical mapping in a virtual world
CN109479010A (zh) 通过注视化身的私有通信
CN106104650A (zh) 经由凝视检测进行远程设备控制
US10511818B2 (en) Context aware projection
CN107407965A (zh) 连接至移动计算设备的虚拟现实头戴设备
Zhang et al. LightBee: A self-levitating light field display for hologrammatic telepresence
US10789912B2 (en) Methods and apparatus to control rendering of different content for different view angles of a display
WO2018163637A1 (ja) 情報処理装置、情報処理方法及び記録媒体
US20240061497A1 (en) Method and Device for Surfacing Physical Environment Interactions During Simulated Reality Sessions
US20190320143A1 (en) Information processing device, information processing method, and program
CN108348810B (zh) 用于由计算机模拟生成的图像、视频和/或全息图的投影的方法和设备
CN113014960B (zh) 一种在线制作视频的方法、装置及存储介质
US20220270315A1 (en) Systems configured to control digital characters utilizing real-time facial and/or body motion capture and methods of use thereof
WO2022127488A1 (zh) 人机交互界面的控制方法、装置、计算机设备及存储介质
JP7105380B2 (ja) 情報処理システム及び方法
US20240056492A1 (en) Presentations in Multi-user Communication Sessions
WO2020095714A1 (ja) 情報処理装置および方法、並びに、プログラム
US20170246534A1 (en) System and Method for Enhanced Immersion Gaming Room
KR20230070308A (ko) 웨어러블 장치를 이용한 제어가능한 장치의 위치 식별
KR102590988B1 (ko) 아바타와 함께 운동하는 메타버스 서비스 제공 장치, 방법 및 프로그램
US20230007127A1 (en) Telepresence system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant