CN1732687A - 用于远程临场通信的方法、系统和装置 - Google Patents
用于远程临场通信的方法、系统和装置 Download PDFInfo
- Publication number
- CN1732687A CN1732687A CNA2003801078198A CN200380107819A CN1732687A CN 1732687 A CN1732687 A CN 1732687A CN A2003801078198 A CNA2003801078198 A CN A2003801078198A CN 200380107819 A CN200380107819 A CN 200380107819A CN 1732687 A CN1732687 A CN 1732687A
- Authority
- CN
- China
- Prior art keywords
- participant
- data
- virtual
- environment
- virtual representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供一种在多个地点(100、200)的两个或多个参会者之间的虚拟地点的远程临场通信。对用来描述第一地点的第一参会者所体验的虚拟地点环境的视角的第一视角数据以及从第二地点(210、220)的第二参会者的特征中提取的特征数据进行处理,以便从所述第一参会者(250)的视角产生该虚拟环境中所述第二参会者的第一虚拟表示。同样,对用于说明所述第二参会者所体验的虚拟地点环境的视角的第二视角数据进行处理,以便从所述第二参会者(260)的视角产生该虚拟环境中所述第一参会者的第二虚拟表示。把所述第一和第二虚拟表示再现并显示给各参会者(260、270)。
Description
技术领域
本发明涉及使用声像技术的人际通信,特别涉及用于声像信息传送与接收的方法和系统。
背景技术
有许多这样的情况,一个或多个作为个体的人要观察各种对象或其他的个人,并可能与之交流。当两个或者多个个体需要聚会并讨论共同感兴趣的问题,一种通常的办法就是实际的(面对面)会议。这种形式的会议具有其优点,如直接的个人接触,并可给予各个个体最有效交流的能力,因可以保持眼神交流,并且可以很容易明白身体的姿态,如面部表情、手势和身体姿势。对许多聚会,这是一种优选的交换媒介,如果信息就在会议现场,则可以透明地交换大量信息。
在某些特定情形中,例如长距离通信,安排这样的面对面会议可能是耗时的或代价非常昂贵的。在这些情形中,最常用的办法是通过电话、经由电子邮件或电话会议来交换信息。这些办法中的每个都有严重的缺陷。电话交谈不能提供视觉暗示,而这可能对商业决策是很重要的。而且当聚会涉及两个以上的人的时候,电话交谈很难应付这种情况。电子邮件和普通邮政服务比起面对面的聚会要慢许多,而且不能提供面对面聚会中所具有的视觉或声音暗示。视频电话会议装备的使用使得身在遥远地点的各个人可以通过声/像通信来聚会和交换信息。
但是,两个或多个人之间的面对面聚会与使用视频电话会议的聚会之间存在重要的差异。后者不能提供与前者同样的体验。在面对面的聚会中,我们可以通过三维立体方式、通过颜色并以合适的尺寸来观察其他的人。更重要的是,我们具有进行眼神交流并维持眼神交流的能力。视觉信息有助于产生个人的临场感(sense of presence)。视频电话会议当前的技术状况不能提供这种效果。视频电话会议也不能提供在亲临聚会时可以体会的表情和身体动作的细微差别,因整个图像都是以相同的比例来传输的。这样,皱眉或微笑在面对面情形中的影响要大于在使用视频电话会议情形中的影响,因视频电话会议并不传输嘴周围的确切神态和细节。另外,将存留在特定地点的非面对面信息,如报告、文件等,同参与视频电话会议的其他人交换也受到限制。因此,利用现有的电话会议技术很难传输所期望的质量和数量的面对面信息和非面对面信息。
附图说明
本发明新颖的技术特征在权利要求书中特别说明。通过参考下面的结合附图的本发明详细说明,可以很好地理解本发明的组织结构和操作方法,连同其目的和优点。附图包括:
图1是根据本发明特定实施例的支持虚拟电话会议的系统的框图。
图2是根据本发明特定实施例的描述虚拟电话会议的流程图。
图3是根据本发明特定实施例的虚拟对话会议的框图。
图4是根据本发明特定实施例的示例性的支持虚拟电话会议的系统的更详细框图。
图5示出了根据本发明特定实施例的各种类型的获取元件。
图6示出了根据本发明特定实施例的示例性的数据获取系统。
图7示出了根据本发明特定实施例的图像获取流程。
图8示出了根据本发明特定实施例的图像生成和显示流程。
图9示出了根据本发明特定实施例的示例性三维模型。
图10示出了根据本发明特定实施例的简化的在虚拟地点的第一和第二参会者之间的电话会议。
图11示出了根据本发明特定实施例的具有在虚拟地点的多个参会者的电话会议。
图12示出了根据本发明特定实施例的具有共享目标和多个参会者的电话会议。
具体实施方式
本发明可以有许多不同形式的实施例,在附图中示出了特定的实施例并将在此详细说明,应该理解这里公开的内容应看作是本发明原理的一个例子,而不是要把本发明限制在所示出和说明的特定实施例。在下面的说明中,在附图的几个图中,相同的参考标号用于描述相同、相近或相对应的部件。
参见图1,示出了支持在第一地点100的第一参会者和在第二地点200的第二参会者之间虚拟地点的虚拟电话会议的系统的框图。该系统按照远程临场(telepresence)的方式对本地参会者提供有关一个或多个远程参会者的声像信息的收集、处理和显示,对此将说明。利用来自远程参会者和本地参会者的声像信息的收集和处理,以及远程和本地参会者之间的交互,以及虚拟地点的环境数据,可以在为本地参会者做成的电话会议虚拟地点的环境中,以本地参会者的视角生成、更新和显示一个或多个远程参会者的虚拟表示或化身。本发明的远程临场电话会议可以扩展规模,以适应任何数量的参会者。除参会者1和参会者2之外,增加到虚拟电话会议的每一个参会者可以使用图1中所示出的功能,根据可用的内存和潜在的要求,使所存储的有关增加的参会者的模型信息可被电话会议中其他的每个参会者使用,以便为给定的本地参会者生成电话会议中所有远程参会者的虚拟表示或化身。
分别有获取/跟踪元件104、204来获取由参会者1、2的特征产生的暗示数据。这里所说的暗示数据是指由参会者的特定被监视特征所产生的数据,例如嘴、眼和脸等。所述暗示数据用于提供信息,来增强电话会议虚拟地点的参会者所体验的、称作远程临场的实际临场感。暗示数据可以是图像和/或声音。可视暗示数据是指可由特征的运动来暗示的这类特征的运动的获取数据,例如眉毛和嘴的动作、眨眼动作等,或者可以暗示进行阶段性自动更新。暗示数据还可以有声音部分,并且声音暗示数据的获取可由参会者的嘴所产生的声音或嘴本身的运动来触发。另外要收集的图像暗示数据可以是参会者的手、头、躯干、腿等的运动。如点头、挥手和面部表情等姿态,这对澄清和强化意思很重要,通常会加强交流的体验,因此对增强本发明的远程临场很重要。另外,获取元件104、204可以具有跟踪其所监视的特定特征的运动的能力,后面将做解释。适当的获取元件可以包括摄像机、麦克风和头戴式跟踪设备。可以使用任何数量的获取元件。例如,可以有一个摄像机用来获取和跟踪参会者每个眼睛的运动,另一个摄像机用来获取如嘴运动的面部运动,以及麦克风用来获取参会者发出的任何声音。另外,数据获取装置距离要获取其运动和声音的参会者的远近可以不同。在安装在头上的显示器中,眼、脸、嘴、头的跟踪等获取元件可以安置在该头戴式显示器的眼镜里。或者,获取元件可以是位于桌子、几案或其他靠近参会者的区域上的一系列摄像机。
把数据获取部分结合到单一集成系统中的一个机构是特殊设计的一副眼镜。该眼镜可以收集眼睛和面部跟踪信息,以及通过长杆话筒(boom)收集的声音信息,该话筒是收集装置,可具有到头戴式获取元件的单一连接点。
从参会者收集的暗示数据由处理元件102、104来处理,从由获取元件104、204所获取的原始暗示数据中提取经识别和筛选的特征数据,例如瞳孔运动、眉毛运动、嘴运动等。本地参会者的该提取数据然后可以通过传输元件112、162传送,由同远程参会者相关联的处理器来接收,在那里,使用该经提取的数据连同其他的如环境数据和视角数据,产生本地参会者在虚拟环境中的虚拟表示,用来给一个或多个远程参会者从该远程参会者的视角来观看。
除了从参会者获取图像暗示数据之外,获取元件104、204还用于分别从参会者1、2获取视角数据。应该注意视角数据可以由不同于获取元件102、204的获取元件或与获取元件102、204相分离的获取元件来获取。视角数据是指被监视的参会者的任何朝向或运动,所述朝向或运动可能影响该参会者在电话会议的虚拟环境中的感受。因此,视角数据可以包括参会者的头部运动或朝向改变,如转身。例如,如果电话会议的虚拟环境要提供这样的感觉,参会者1或2相互对面坐在虚拟会议桌的两边,然后,参会者1转头、站起、朝向参会者2俯身等动作可能都会改变虚拟环境中参会者1所看到和所听到的内容,这样,就称参会者1所感受的虚拟地点的环境的视角改变了。获取和跟踪参会者的运动、朝向改变或其他视角数据,提供了一种类型的数据,用于处理和为参会者产生在虚拟地点的可信电话会议。用于获取视角数据的适当获取/跟踪元件包括摄像机或其他的运动跟踪元件,诸如使用地球磁场的地磁仪和测量加速度的加速度表,或者其他用于确定头部或身体其他部位的运动朝向的方向的装置,所述方向可能影响参会者所感受的虚拟环境的视角。
还需要有关一个或多个远程地点上的参会者的数据,以产生远程参会者从本地参会者的视角来看在虚拟环境中的虚拟表示。接收元件106、206与参会者1和2分别实际关联,接收从一个或多个远程参会者获取的图像暗示数据,并通过上述的远程传输元件112、162在系统上传输。这样,对于图1中简化的系统,接收元件106要从传输元件162接收由处理元件2152提取和处理的特征数据,该特征数据是从获取/跟踪元件2154由参会者2获取的图像暗示数据中提取的,并且通过传输元件2156传输。类似地,接收元件2156要从传输元件1112接收由处理元件1102提取和处理的特征数据,该特征数据是从获取/跟踪元件1104由参会者1获取的图像暗示数据中提取的,并且通过传输元件1112传输。图1的系统是规模可缩放的,意思是可以有多于两个的参会者,在这种情况下,由接收元件106、156接收的经提取的特征数据将来自两个和多个远程参会者。
利用与参会者相关联的接收元件来接收经提取的远程特征数据,本地处理元件现在具有足够的信息来产生从本地参会者的视角观看的一个或多个远程参会者在虚拟环境中的一个或多个虚拟表示。除了有本地接收元件接收的经提取的远程参会者的特征数据,与本地参会者相关联的处理元件还具有从本地参会者获取的视角数据、远程参会者的模型和定义虚拟电话会议所发生的虚拟地点环境的图像声音配置的信息。处理元件因此处理该信息,以便从本地参会者的视角产生远程参会者在虚拟环境中的虚拟表示。该处理可以由处理元件执行,对每个将其图像和/或声音信息传送到本地接收元件的远程参会者,处理元件从本地参会者的视角产生其在虚拟环境中的虚拟表示。
远程参会者的经提取的图像特征数据可以同该远程参会者的模型(108、158)放在一起,所述模型存储在与本地参会者相关联的处理元件中,并可由其存取。所存储的模型可以是二维或三维(3D)计算机模型,可以使用所接收的经提取的特征数据来更新所述模型。所述模型还可以只是远程参会者的头部、上半身或某种较大模型。还可以只是对不同的远程参会者使用不同的头部或脸部模型,而让远程参会者虚拟表示的其余部分采用固定的化身。通过使用特定参会者的模型108、158来区别远程参会者虚拟表示的所述部分,这可能要受到这样一些因素的影响,如所收集的暗示数据的数量和质量、处理能力的大小和对该任务花费的时间等。如果只从远程参会者获取眼睛、嘴和面部数据,则只要存储远程参会者头部的针对特定参会者的模型就足够了,例如,可以对其添加所收集和提取的特征数据。结合图9说明3D模型的例子。
当生成远程参会者虚拟表示的时候,有关发生电话会议的虚拟地点的环境110、160的信息也由本地处理元件来处理。环境数据利用每个参会者在其中的相对地点以及图画背景,如各参会者要感受的会议桌、窗户和家具等的地点,来表示虚拟会议的安排。当产生将要显示给本地参会者的远程参会者虚拟表示的时候,一个或多个电话会议参会者的头部或身体的运动可能改变该参会者观看该环境的视角,因此必须进行跟踪和解释。另外,对本地参会者产生虚拟表示的处理元件还能够按这种方式对虚拟电话会议中的每个接收了暗示数据的参会者产生虚拟表示。
分别如同所示出的元件102和152的处理元件1和2不必位于该参会者的地点。另外,它们也不必是一个分开的处理器,而可以是包含许多处理元件来执行各种处理功能,下面将对此说明。还可以设想有中央处理元件,它包含处理元件1 102和处理元件2 152并且它可以实际位于不同于地点100和200的地点。这在图3的框图300中说明,其中所获取的本地特征和视角数据以及远程数据的处理不需要在本地执行,例如地点1和地点2,并且可以实际由通信网络390的处理能力来执行该处理。利用通信网络390来远程传送所获取的参会者1和2的数据。在本发明的特定实施例中,通信网络390是高速宽带、低等待通信网。例如,可以在标准因特网IP链路上以150ms的等待时间按20fps传送数据。
在本地地点示出远程参会者340、380的模型,但这并不是必须的,特别当处理元件或各处理元件位于网络中的时候;所存储的模型可以是如示出的3D计算机模型。3D模型适合于存储非快速变化的图像信息,因此可使在通信网络上必须传送的数据量降低。在接收了远程图像数据之后,数据显示部分330和360能够更新用于建立虚拟表示的三维模型340和380。
由处理元件在虚拟环境中产生的一个或多个虚拟表示提供给再现元件114、164,再现元件114、164再现一个或多个虚拟表示的计算机生成数据,由显示元件116、166显示给本地参会者。所述显示元件可以是本地参会者所戴的头戴式显示器的一部分,或者可以是任何其他合适的向参会者显示虚拟地点环境的机构。
对于维持电话会议中两个或多个参会者之间的真实临场感或远程临场,重要的是,系统具有监视和跟踪远程参会者或本地参会者所发生的任何变化的能力。任何这样的改变要求虚拟环境以及其中的其他参会者的虚拟表示相应地改变。这样,当本地接收元件接收的远程暗示数据中发生改变,从本地参会者收集的视角数据或者虚拟地点本身环境的改变,将引起所产生的一个或多个远程参会者虚拟表示的更新,并且更新的表示要再现出来,并显示给本地参会者。
参见图2,其中示出了描述根据本发明特定实施例的在至少两个在虚拟地点的参会者之间电话会议的方法的流程图。在方框210,获取由第一参会者100的特征产生的数据和第一参会者100的视角数据。在方框220,提取所获取的第一参会者100的特征数据中识别的模式。在方框240,执行第二参会者200的视角数据和暗示数据的获取以及识别数据的提取。在方框250,处理所提取的第二参会者的特征数据、第一参会者的视角数据和虚拟地点的环境数据,以产生从第一参会者的视角观察的第二参会者的虚拟表示。在方框260,进行类似的处理,以产生从第二参会者视角观察的第一参会者的虚拟表示。在方框270和280,这些虚拟表示可以显示给适当的参会者。如上所述,虚拟表示首先由再现元件再现,然后在诸如头戴式显示器的适当显示装置上将再现的虚拟表示显示给参会者。最后,在方框290和295,根据用来产生虚拟表示的任何数据中的变化来更新所产生的虚拟表示。这样,本地参会者的视角数据的变化,从远程参会者获取的暗示数据的变化或者环境数据的变化,将确保虚拟表示相应地更新。必须注意,由于连续监视和跟踪远程暗示数据和本地视角数据,因此虚拟表示被阶段性更新,例如每秒15次或更多。在可能以其他方式发生更新处理之前,数据的改变可以使更新处理强制发生,可以使虚拟电话会议的参会者感受“实时”面对面远程临场环境的感觉。
这里要注意,为建立显示给第一参会者的第二参会者的虚拟表示,所需要的提取和处理过程要先于为建立显示给第二参会者的第一参会者的虚拟表示的类似处理过程,如果需要,该次序可以改变,这也不脱离本发明的精神和范围。
参见图4,其中示出了根据本发明特定实施例的远程临场通信体系结构400各元件的更详细框图400。如图中虚线所指示的,图中示出的功能涉及第一和第二地点之间的数据收集。通过下面的说明可以明白,所述功能涉及通过地点1的发送框410收集、处理和传输的数据,以及通过地点2的接收框455接收、处理和显示的数据。但应该理解,为实现完全集成的系统,需要有接收框和发送框来支持地点1的参会者和地点2的参会者。图4的单向框图将简化下面的说明,本领域的普通技术人员可以理解完全双向和多向的扩展。本领域的技术人员应该理解,远程临场通信系统能够使用一个或多个宽带链路以全双工方式传送两个图像。这样,远程地点可以包括发送组件410以及接收组件455。而且,本地地点可以包括发送组件410和接收组件455。这种配置将使得可以跟踪、传送、接收和显示两个图像。当然,在可用处理能力、存储区大小和等待时间的条件允许的范围内,这也可以扩展到任意数量的地点和参会者。
由图中的虚线可以看出,用于地点1参会者的发送框410执行三个主要功能:获取/跟踪、处理、和同步/传输。发送框410主要涉及在415、420、425各框的获取/跟踪,在框430和437的处理,以及在框445、450的本地获取的参会者信息的传输。在框415,获取本地音频数据,例如地点1参会者所说的话。头部跟踪框420跟踪地点1参会者的运动和朝向,并因此提供参会者1的视角数据。图像获取框425获取地点1参会者的特征数据,例如参会者1的嘴、眼睛、脸等的运动。在更精准的获取方式中,还可以获取其他的参会者特征,例如手、臂和腿的运动。框415、520和425都是获取元件104、154的例子。在本发明的特定实施例中,音频元件415是麦克风或长杆麦克风(boommicrophone),头跟踪元件420是头部跟踪器(head tracker)、加速度表或某种组合。如果需要,可以使用带有本地头部跟踪的用于空间稳定视图的MPEG-4样式的面部动感播放器。图像获取元件425可以是若干摄像机。
图5示出了适于获取和跟踪参会者的暗示特征数据和视角数据的不同类型的获取装置。在该图中,参会者510的特征,例如眼睛、嘴、脸、手、头部等,通过特征摄像机520、550和550来获取,而跟踪设备530能够跟踪这些特征的运动。声音传感器560获取参会者510产生的声音。另外,如果需要,可以通过音频分析和在长杆麦克风中嵌入的摄像机或多个摄像机来跟踪嘴的运动。根据本发明的实施例,一个或多个特征摄像机520、540、550,跟踪设备530和声音传感器560可以安置在头戴式显示器中,例如眼镜显示器。而且根据本发明的实施例,具有一个或多个长杆摄像机(boom camera)以及声音传感器560的长杆话筒可以连接到一副眼镜上。所述一个或多个远程摄像机能够提供嘴及其周围的更详细的分辨率。在本发明的特定实施例中,可以通过眼睛摄像机使用红外光照明来补偿可见光的不足。
对通过头部跟踪以及420获取的声音信息和视角数据进行处理,以产生可以传送的有关地点1参会者的声音信息。声音处理框430可以随着参会者头部的运动修正参会者1产生的原始声音415。可替换地,如果不需要或不要求进行本地化处理,可以直接发送在415获取的原始声音。计算机视觉识别元件具有特征提取435和特征跟踪440,用于对元件420和425提供的头部跟踪和暗示特征数据进行处理。提取所获取数据中所包含的最重要的特征数据并传送,由在远程地点2的接收器455来处理。例如,计算机视觉识别子系统437可以提取和跟踪头部、嘴、瞳孔、眼睑、眉毛、前额等的运动或其他所感兴趣的特征。在某些情况下,计算机视觉识别元件437可使用参会者本身的本地三维模型来做特征跟踪。
根据本发明的特定实施例,在传输建立阶段,通过在显示给第一用户的图像上提供第一固定点或多个第一固定点,以及在显示给第二用户的图像上提供第二固定点或多个第二固定点,来得到眼神交流的感觉。在传输建立阶段,显示给第一参会者的图像中各眼睛的地点同第一固定点或多个第一固定点搭配。而且在传输建立阶段,显示给第二参会者的图像中各眼睛的地点同第二固定点或多个第二固定点搭配。这种方法使得各参会者具有眼神交流的感觉,因第一固定点或多个第一固定点以及第二固定点或多个第二固定点分别提供显示给第一参会者和第二参会者的眼睛的期望地点。通过使各参会者对应到提供给他们的可视暗示,维持眼神交流,如同现实中面对面的交谈。
从框437提取的特征数据以及从框430处理的声音在框445中编码并同步。其在调制器450中经调制并传送,由与地点2关联的接收框455的解调器463接收。在本发明的特定实施例中,该数据使用宽带链接460来传送。
通过解调器463从地点1接收的数据,经过解调并传递给解码器465。解码器465将地点1的参会者的经解码的音频和提取的特征数据传递给声音元件473、视图产生框475和模型更新框480。来自头部跟踪元件470的参会者2的运动和朝向,称作参会者2的视角数据,连同从参会者1接收的音频数据,由声音框473来处理,以便从参会者2的视角产生参会者1的虚拟表示的音频部分,其可由音频以及493提供。例如,考虑下面所述内容。参会者2可用的虚拟表示的音频部分不仅受参会者说话的影响,而且还受关于虚拟环境中参会者2的躯体和头部的朝向的影响。
在本发明的特定实施例中,编码器445编码空间坐标信息,以使头部跟踪部分470建立空间稳定的远程图像的一个画面(aspect)。注意,当通过头部跟踪设备420和图像获取设备425获取的一个或多个画面连接到一副眼镜,能够发生这种空间稳定。在这种情况下,使用头部跟踪420和特征跟踪440使得所产生的3D图像相对头部的运动保持稳定。
另外,通过解码器465,视图产生框475和模型更新框480可使用所提取的特征数据。模型更新480使用该数据来更新存储在框483中的地点1的参会者的模型。在特定实施例中,模型更新框480使用存储在3D模型483中的面部数据执行面部模型更新,以构造参会者1的虚拟表示。视图产生框475产生从参会者2的视角观察的参会者1的虚拟表示的视图或多个视图,由再现元件485再现,并通过显示器490显示给地点2的参会者。在本发明的特定实施例中,通过视图产生元件475产生虚拟环境中参会者1的虚拟表示的两个略有差异的视图。当再现这两个略有差异的视图,并在485和490的每个显示框中分别显示,这将使参会者2感受参会者1的立体视图。
参见图6,其中示出了数据获取系统600的例子。在图中示出的获取和跟踪元件包括第一和第二眼睛摄像机610、620,面部摄像机630,用于获取参会者声音的麦克风,以及跟踪设备650。眼睛摄像机610和620获取各种眼睛特征的运动,包括瞳孔运动、眨眼和眉毛运动。面部摄像机630可以获取嘴、颌、鼻和头朝向的运动。麦克风640还可以是带有对着参会者嘴巴的摄像头的长杆麦克风。跟踪设备650一直跟踪这些特征。在图7中,图像获取流700示出了由图像获取框710的获取元件610、620、630、650获取的数据随后由框720中的视觉识别和特征提取处理来处理,以提取特定的有价值特征暗示数据。在框730中,在数据传送之前,执行该带有时间和日期戳的经提取的特征数据的同步。传送的数据由与远程地点关联的接收框455来接收。图8示出了图像产生和显示流800,其中示出了可以在框840中产生的在远程地点的参会者的虚拟表示的视图,由这里可称作视角数据的本地跟踪数据820来产生,如果需要可对每个眼睛的3D产生立体视图。在框850中,从远程地点810提取的特征数据用来使存储的远程参会者的模型有动感。该信息又传递到再现引擎以再现计算机图像,该图像可以在框860立体化;所述再现的图像可以包括前面所述的音频信息。最后,在框870,诸如显示屏或头戴式显示器的显示元件向本地参会者显示再现的图像。
参见图9,示出了3D模型的一个例子,可以存储在本地,用于辅助产生远程参会者的化身表示。在该模型的左边是网格(wireframe),其各顶点(vertex)存储在内存中并定义远程参会者的面部的几何结构。在其右边,展示诸如皮肤纹理、眼睛颜色的面部的纹理映射(texture map)覆盖如示出的该网格的基本几何结构,以提供更真实生动的远程参会者的图画。反映在获取特征数据中的更新运动表现为相应的网格变化。
在图10中,示出了地点100的第一参会者、地点200的第二参的图示以及虚拟地点1000。在图中可以看到,在该例子中,分别在地点100和200的参会者1和2都戴着头戴式显示器,由此他们可以体验虚拟远程临场1000。在该虚拟远程临场1000中,参会者11010和参会者21020都体验着共同环境1030,虽然它不是真实的,但它利用眼神交流和其他远程临场特征可极大地促进虚拟聚会。在这个例子中,环境1030是流线型的,具有会议桌、每个参会者的座椅以及参会者本身。还可以设想,该虚拟环境可以包括参会者所在地点(如地点1、地点2等)的真实背景下参会者的虚拟表示,例如在图书室或会议室的中间,其中所看到的参会者实际位于那里。如所讨论的,根据本发明的电话会议可以扩展到若干各参会者。如图11所示的虚拟电话会议1100,该电话会议至少有四个参会者1110、1120、1130和1140出席。电话会议所发生的虚拟环境1150更加复杂。而且,如该例子以及图12中的例子所示出的,它可以比面对面的传统会议更优越,因在电话会议期间可以提供不同实际地点的各参会者之间的数据共享。在图12中,参会者1210、1220和1230共享环境1250,其中,在虚拟电话会议期间,数据或其他所提供的对象,如视图1260,可由某个参会者提供给其他的一个或多个电话会议参会者观看。通过虚拟电话会议,使驻留在远程地点的数据或其他对象信息可由不在该地点的其他人共享,这可以提供在传统会议中所不能提供的大量的高质量数据共享。当电话会议中有多于两个的人,远程临场可以促进多个参会者之间的人际交流的相互传达和观察,例如耸肩、眼色等,这通常是会谈中重要的非语言信息。如果有共享的对象,例如,某个参会者可看到电话会议的其他参会者把目光投向该共享对象,或者某个参会者不再观看该对象,等等,可以反映在实际会议中可能发生的全景式交流。
远程临场通信是一种新颖的方法,用来提供要与之交流的某个人或多个人的临场感。这是传统的视频会议的替代物,可以使用三维图像化身和增强的动画来传递面对面交谈的体验。其他的方法,如写信、打电话、发电子邮件或视频电话会议都不能提供同面对面会议相同的体验,简言之,都缺乏临场感。远程临场电话会议试图要提供那种与其他的要与之发生通信的人或多人或对象实际邻近的感觉。
远程临场体系结构使用一种声像通信系统,能够以三维方式向一个或多个远程用户传递本地画面的照片,可能按真实的尺寸和真实的颜色。远程临场通信还能够进行和维持远程的眼神交流。支持远程个人临场感的机构提供对图像的一个或多个特定区域的高分辨率显示,以及以接近实时的方式更新本地和/或远程参会者的变化。这种远程临场体系结构使得一个或多个参会者可接收照片信息,并从本地参会者的视角将该信息以三维图像再现到显示单元,提供适当的跟踪和刷新率。
尽管结合特定的实施例说明了本发明,很显然,通过上述的说明,本领域的普通技术人员会明白有许多替换、修改、排列和变化。因此,本发明要包含所有这些落入权利要求书范围的替换、修改和变化。
Claims (69)
1.一种在虚拟地点的电话会议的方法,该电话会议发生在第一地点的第一参会者和第二地点的第二参会者之间,所述方法包括:
处理所述第一参会者所体验的所述虚拟地点的环境的第一视角的第一多个视角数据,和从所述第二参会者获取的第一多个暗示数据中提取的第一提取特征数据,以便从所述第一参会者的视角产生所述第二参会者在所述虚拟地点的所述环境中的第一虚拟表示;
处理所述第二参会者所体验的所述虚拟地点的环境的第二视角的第二多个视角数据,和从所述第一参会者获取的第二多个暗示数据中提取的第二提取特征数据,以便从所述第二参会者的视角产生所述第一参会者在所述虚拟地点的所述环境中的第二虚拟表示;
将所述电话会议的所述虚拟地点中的所述第二参会者的所述第一虚拟表示显示给所述第一地点的所述第一参会者;以及
将所述电话会议的所述虚拟地点中的所述第一参会者的所述第二虚拟表示显示给所述第二地点的所述第二参会者。
2.如权利要求1所述的方法,其中显示所述第一和第二虚拟表示还包括:
在由所述第一参会者所戴的第一头戴式显示器上,把所述第二参会者的所述第一虚拟表示显示给所述第一参会者;以及
在由所述第二参会者所戴的第二头戴式显示器上,把所述第一参会者的所述第二虚拟表示显示给所述第二参会者。
3.如权利要求1所述的方法,还包括:
根据在所述第一多个视角数据和所述第一提取特征数据中的一个或多个的变化,更新所述第二参会者的所述第一虚拟表示,以产生更新的第一虚拟表示;
把所述电话会议的所述虚拟地点中所述第二参会者的所述更新的第一虚拟表示显示给所述第一地点的所述第一参会者;
根据在所述第二多个视角数据和所述第二提取特征数据中的一个或多个的变化,更新所述第一参会者的所述第二虚拟表示,以产生更新的第二虚拟表示;
把所述电话会议的所述虚拟地点中所述第一参会者的所述更新的第二虚拟表示显示给所述第二地点的所述第二参会者。
4.一种在虚拟地点的电话会议的方法,所述电话会议发生在第一地点的第一参会者和第二地点的第二参会者之间,所述方法包括:
获取由所述第一参会者的多个特征产生的第一多个暗示数据以及所述第一参会者所体验的所述虚拟地点的环境的第一视角的第一多个视角数据;
获取由所述第二参会者的多个特征产生的第二多个暗示数据以及所述第二参会者所体验的所述虚拟地点的环境的第二视角的第二多个视角数据;
从所述第一多个暗示数据提取第一参会者的第一提取特征数据;
从所述第二多个暗示数据提取第二参会者的第二提取特征数据;
处理所述第一多个视角数据、所述第二提取特征数据以及所述虚拟地点的环境的第一环境数据,以便从所述第一参会者的视角产生所述第二参会者在所述虚拟地点的环境中的第一虚拟表示;
处理所述第二多个视角数据、所述第一提取特征数据以及所述虚拟地点的环境的第二环境数据,以便从所述第二参会者的视角产生所述第一参会者在所述虚拟地点的环境中的第二虚拟表示;
把所述电话会议的所述虚拟地点中的所述第二参会者的所述第一虚拟表示显示给所述第一地点的所述第一参会者;以及
把所述电话会议的所述虚拟地点中的所述第一参会者的所述第二虚拟表示显示给所述第二地点的所述第二参会者。
5.如权利要求4所述的方法,其中显示所述第一和第二虚拟表示还包括:
在由所述第一参会者所戴的第一头戴式显示器上,把所述第二参会者的所述第一虚拟表示显示给所述第一参会者;以及
在由所述第二参会者所戴的第二头戴式显示器上,把所述第一参会者的所述第二虚拟表示显示给所述第二参会者。
6.如权利要求5所述的方法,其中,通过所述第一头戴式显示器的第一多个获取元件来执行所述第一多个暗示数据和所述第一多个视角数据的获取,以及通过所述第二头戴式显示器的第二多个获取元件来执行所述第二多个暗示数据和所述第二多个视角数据的获取。
7.如权利要求4所述的方法,还包括:
根据在所述第一多个视角数据、所述第二提取特征数据以及所述第一环境数据中的一个或多个的变化,更新所述第二参会者的所述第一虚拟表示,以产生更新的第一虚拟表示;
把所述电话会议的所述虚拟地点中所述第二参会者的所述更新的第一虚拟表示显示给所述第一地点的所述第一参会者;
根据在所述第二多个视角数据、所述第一提取特征数据以及所述第二环境数据中的一个或多个的变化,更新所述第一参会者的所述第二虚拟表示,以产生更新的第二虚拟表示;
把所述电话会议的所述虚拟地点中所述第一参会者的所述更新的第二虚拟表示显示给所述第二地点的所述第二参会者。
8.如权利要求7所述的方法,还包括:
在由所述第一参会者所戴的第一头戴式显示器上,把所述更新的所述第二参会者的所述第一虚拟表示显示给所述第一参会者;以及
在由所述第二参会者所戴的第二头戴式显示器上,把所述更新的所述第一参会者的所述第二虚拟表示显示给所述第二参会者。
9.如权利要求8所述的方法,其中,通过所述第一头戴式显示器的第一多个获取元件来执行所述第一多个暗示数据和所述第一多个视角数据的获取,以及通过所述第二头戴式显示器的第二多个获取元件来执行所述第二多个暗示数据和所述第二多个视角数据的获取。
10.如权利要求4所述的方法,其中,所述第一和第二多个暗示数据以及所述第一和第二多个视角数据的获取分别实时地发生。
11.一种支持虚拟地点的电话会议的系统,所述电话会议发生在第一地点的第一参会者和第二地点的第二参会者之间,所述系统包括:
第一数据处理元件,处理从所述第一参会者的多个特征获取的第一多个暗示数据,并提取经选择的从所述第一多个暗示数据识别的特征数据,以产生所述第一参会者的第一提取特征数据;
第一传输元件,传输所述第一参会者的所述第一提取特征数据;
第二数据处理元件,处理从所述第二参会者的多个特征获取的第二多个暗示数据,并提取经选择的从所述第二多个暗示数据识别的特征数据,以产生所述第二参会者的第二提取特征数据;
第二传输元件,传输所述第二参会者的所述第二提取特征数据;
其中,所述第一处理元件处理与所述第一参会者所体验的所述虚拟地点的环境的第一视角有关的第一多个视角数据、所述第二提取特征数据以及所述虚拟地点的环境的第一环境数据,以从所述第一参会者的视角产生所述第二参会者在所述虚拟地点的环境中的第一虚拟表示;
其中,所述第二处理元件处理与所述第二参会者所体验的所述虚拟地点的环境的第二视角有关的第二多个视角数据、所述第一提取特征数据以及所述虚拟地点的环境的第二环境数据,以便从所述第二参会者的视角产生所述第一参会者在所述虚拟地点的环境中的第二虚拟表示;
第一显示元件,把所述第一虚拟表示显示给所述第一地点的所述第一参会者;
第二显示元件,把所述第二虚拟表示显示给所述第二地点的所述第二参会者,
其中,所述第一处理元件根据所述第一多个视角数据中、所述第二提取特征数据以及所述第一环境数据中一个或多个的变化,更新所述第二参会者的所述第一虚拟表示,以及
其中,所述第二处理元件根据所述第二多个视角数据中、所述第一提取特征数据以及所述第二环境数据中一个或多个的变化,更新所述第一参会者的所述第二虚拟表示。
12.如权利要求11的系统,其中,所述第一数据处理元件、所述第一传输元件以及所述第一显示元件位于所述第一地点,并且所述第二数据处理元件、所示第二传输元件以及所述第二显示元件位于所述第二地点。
13.如权利要求11的系统,其中,所述第一和第二显示元件是分别由第一和第二参会者所戴的第一和第二头戴式显示器。
14.如权利要求13所述的系统,还包括:
所述第一头戴式显示器的第一多个获取元件,用于获取所述第一多个暗示数据;以及
所述第二头戴式显示器的第二多个获取元件,用于获取所述第二多个暗示数据。
15.如权利要求14所述的系统,其中,所述第一多个获取元件还获取所述第一多个视角数据,以及所述第二多个获取元件还获取所述第二多个视角数据。
16.如权利要求14所述的系统,其中,所述第一数据处理元件还包括第一视图生成元件,其生成所述第二参会者的所述第一虚拟表示的第一和第二视图,所述视图由所述第一显示元件显示给所述第一参会者的第一和第二眼睛;以及
其中,所述第二数据处理元件还包括第二视图生成元件,其生成所述第一参会者的所述第二虚拟表示的第一和第二视图,所述视图由所述第二显示元件显示给所述第二参会者的第一和第二眼睛。
17.一种支持虚拟地点的电话会议的系统,所述电话会议发生在第一地点的第一参会者和第二地点的第二参会者之间,所述系统包括:
第一获取元件,其从所述第一参会者获取由所述第一参会者的多个特征产生的第一多个暗示数据,并从所述第一参会者获取与所述第一参会者所体验的虚拟地点的环境的第一视角有关的第一多个视角数据;
第二获取元件,其从所述第二参会者获取由所述第二参会者的多个特征产生的第二多个暗示数据,并从所述第二参会者获取与所述第二参会者所体验的虚拟地点的环境的第二视角有关的第二多个视角数据;
第一处理元件,其处理所述第一多个暗示数据,并提取经选择的从所述第一多个暗示数据识别的特征数据,以产生所述第一参会者的第一提取特征数据;
第二处理元件,其处理所述第二多个暗示数据,并提取经选择的从所述第二多个暗示数据识别的特征数据,以产生所述第二参会者的第二提取特征数据;
第一传输元件,传输所述第一参会者的所述第一提取特征数据;
第二传输元件,传输所述第二参会者的所述第二提取特征数据;
第一接收元件,其接收所述第一多个视角数据和由所述第二传输元件传输的所述第二参会者的所述第二提取特征数据;
第二接收元件,其接收所述第二多个视角数据和由所述第一传输元件传输的所述第一参会者的所述第一提取特征数据
其中,所述第一处理元件处理所述第一多个视角数据、所述第二提取特征数据以及所述虚拟地点的环境的第一环境数据,以从所述第一参会者的视角产生所述第二参会者在所述虚拟地点的环境中的第一虚拟表示;
其中,所述第二处理元件处理所述第二多个视角数据、所述第一提取特征数据以及所述虚拟地点的环境的第二环境数据,以便从所述第二参会者的视角产生所述第一参会者在所述虚拟地点的环境中的第二虚拟表示;
第一再现元件,耦合到所述第一处理元件以及第一显示元件,其再现由所述第一显示元件显示的所述第二参会者的所述第一虚拟表示;
第一显示元件,从所述第一参会者的视角把所述虚拟地点的环境中的所述第二参会者的所述第一虚拟表示显示给所述第一参会者;
第二再现元件,耦合到所述第二处理元件以及第二显示元件,其再现由所述第二显示元件显示的所述第一参会者的所述第二虚拟表示;
第二显示元件,从所述第二参会者的视角把所述虚拟地点的环境中的所述第一参会者的所述第二虚拟表示显示给所述第二参会者;
其中,所述第一处理元件根据所述第一多个视角数据、所述第二提取特征数据以及所述第一环境数据中一个或多个的变化,更新所述第二参会者的所述第一虚拟表示,以及
其中,所述第二处理元件根据所述第二多个视角数据中、所述第一提取特征数据以及所述第二环境数据中一个或多个的变化,更新所述第一参会者的所述第二虚拟表示。
18.如权利要求17所述的系统,其中,所述第一和第二获取元件分别实时地获取所述第一和第二多个暗示数据以及所述第一和第二多个视角数据。
19.如权利要求17所述的系统,其中,所述第一获取元件、第一处理元件、第一传输元件以及第一接收元件位于所述第一地点,并且所述第二获取元件、第二处理元件、第二传输元件以及第二接收元件位于所述第二地点。
20.如权利要求17所述的系统,其中,所述第一和第二显示元件分别是由所述第一和第二参会者所戴的第一和第二头戴式显示器。
21.如权利要求20所述的系统,还包括:
所述第一头戴式显示器的第一多个获取元件,用于获取所述第一多个暗示数据;以及
所述第二头戴式显示器的第二多个获取元件,用于获取所述第二多个暗示数据。
22.如权利要求21所述的系统,其中,所述第一多个获取元件还获取所述第一多个视角数据,并且所述第二多个获取元件还所述第二多个视角数据。
23.如权利要求17所述的系统,其中,所述第一数据处理元件还包括第一视图生成元件,其生成所述第二参会者的所述第一虚拟表示的第一和第二视图,所述视图由所述第一再现元件再现并由所述第一显示元件显示给所述第一参会者的第一和第二眼睛;以及
其中,所述第二数据处理元件还包括第二视图生成元件,其生成所述第一参会者的所述第二虚拟表示的第一和第二视图,所述视图由所述第二再现元件再现并由所述第二显示元件显示给所述第二参会者的第一和第二眼睛。
24.一种支持虚拟地点的电话会议的装置,所述电话会议发生在第一地点的第一参会者和第二地点的第二参会者之间,所述装置包括:
接收元件,其接收从所述第一参会者获取的并与所述第一参会者所体验的所述虚拟地点的环境的第一视角相关的第一多个视角数据,以及从所述第二参会者获取的第一多个暗示数据,其中所述第一多个暗示数据由所述第二参会者的多个特征产生;
处理元件,耦合到所述接收元件,其处理所述第一多个视角数据、所述第一多个暗示数据以及有关所述虚拟地点环境的环境数据,以便从所述第一参会者的视角生成所述虚拟地点的环境中的所述第二参会者的虚拟表示;
再现元件,耦合到所述处理元件,其再现用于显示的所述第二参会者的所述虚拟表示;以及
显示元件,其显示所再现的虚拟表示,
其中,所述处理元件根据所述第一多个视角数据中、所述第一多个暗示数据以及所述环境数据中一个或多个的变化,更新所述第二参会者的所述虚拟表示。
25.如权利要求24所述的装置,其中所述第二参会者的所述第一多个暗示数据包括由所述第二参会者面部产生的面部运动、由其头部产生的头部运动以及由其身体产生的身体运动中的一个或多个所暗示的数据。
26.如权利要求25所述的装置,其中所述第二参会者的面部运动包括所述第二参会者的眼睛运动、头运动和嘴运动中的一个或多个,并改变所再现和显示给所述第一参会者的所述第二参会者的表示图像。
27.如权利要求24所述的装置,其中,所述处理元件根据所述第一多个视角数据和所述环境数据把所述第一多个暗示数据映射到第二参会者的三维模型,以生成所述第二参会者的所述虚拟表示。
28.如权利要求24所述的装置,其中,所述显示元件是头戴式显示器,其将所述第二参会者的所述表示显示给所述第一参会者。
29.如权利要求24所述的装置,其中,所述第二参会者的所述虚拟表示包括由所述处理元件从所述第二参会者的所述第一多个暗示数据产生的虚拟图像部分。
30.如权利要求29所述的装置,其中,所述虚拟表示还包括由所述处理元件从所述第一参会者的所述第一多个视角数据以及所述虚拟地点的环境的声音表示中一个或多个所产生的虚拟声音部分。
31.如权利要求30所述的装置,其中,来自所述第一参会者的所述第一多个视角数据包括所述第一参会者的头部运动以及在所述虚拟地点的环境中所述第一参会者的相对位置中的一个或多个,并且其中所述虚拟声音部分随着所述第一参会者头部运动以及所述第一参会者在所述环境中的相对位置中一个或多个的改变而改变。
32.如权利要求30所述的装置,其中,所述声音表示包括所述第一参会者在所述环境中体验的第一声音部分、所述第二参会者在所述环境中体验的第二声音部分以及在所述虚拟地点中所述环境的背景音部分中的一个或多个。
33.如权利要求32所述的装置,其中,所述虚拟声音部分随着所述第一参会者在所述环境中体验的所述第一声音部分、所述第二参会者在所述环境中体验的所述第二声音部分以及所述虚拟地点的所述环境的所述背景音部分中的一个或多个的改变而改变。
34.如权利要求24所述的装置,其中,来自所述第一参会者的所述第一多个视角数据包括所述第一参会者的头部运动和所述第一参会者在所述虚拟地点的所述环境中的相对位置中的一个或多个。
35.如权利要求24所述的装置,其中所述处理元件还包括视图生成元件,其生成所述第二参会者的所述虚拟表示的第一和第二视图,由所述再现元件再现给所述第一参会者的第一和第二眼睛。
36.如权利要求24所述的装置,还包括:
传输元件,耦合到所述处理元件,其传输从所述第一参会者获取的第二多个可视暗示数据,其中所述第二多个可视暗示数据由所述第一参会者的多个特征产生。
37.如权利要求36所述的装置,其中所述第一参会者的所述第二多个暗示数据包括通过所述第一参会者的面部运动、头部运动和身体运动中的一个或多个所暗示的数据。
38.如权利要求37所述的装置,其中所述第一参会者的面部运动包括所述第一参会者的眼睛运动、头运动和嘴运动中的一个或多个。
39.如权利要求36所述的装置,其中所述处理元件还包括视觉识别元件,其用于识别和提取由所述第一参会者的所述多个特征产生的所述多个可视暗示。
40.如权利要求39所述的装置,其中所述视觉识别元件还用于跟踪由所述第一参会者的所述多个特征产生的所述多个可视暗示。
41.如权利要求36所述的装置,还包括获取元件,其用于获取由所述第一参会者的所述多个特征产生的所述第二多个可视暗示数据。
42.如权利要求41所述的装置,其中所述获取元件还包括:
第一获取子元件,其获取所述第一参会者的第一眼睛区域的运动;
第二获取子元件,其获取所述第一参会者的第二眼睛区域的运动;以及
第三获取子元件,其获取所述第一参会者嘴部区域的运动。
43.如权利要求42所述的装置,其中所述获取元件还包括:
第四获取子元件,其获取所述第一参会者的头部的运动。
44.如权利要求24所述的装置,其中所述第一地点是本地地点,并且所述第二地点是远程地点。
45.如权利要求24所述的装置,其中所述处理元件根据所述第一多个视角数据、所述第一多个暗示数据和所述环境数据中的一个或多个,更新所述第二参会者的所述虚拟表示。
46.一种虚拟地点的电话会议的方法,所述电话会议发生在第一地点的第一参会者和第二地点的第二参会者之间,所述方法包括:
接收从所述第一参会者获取的并与所述第一参会者所体验的虚拟地点的环境的第一视角相关的第一多个视角数据,以及从所述第二参会者获取的第一多个暗示数据,并且获取由所述第二参会者的多个特征产生的第二多个可视暗示数据;
识别并提取由所述第一参会者的所述多个特征产生的所述多个可视暗示数据;
处理所述第一多个视角数据、所述第一多个暗示数据以及有关所述虚拟地点的环境的环境数据,以便从所述第一参会者的视角产生所述第二参会者在所述虚拟地点的环境中的虚拟表示;
再现所述第二参会者的所述虚拟表示,用于显示在显示元件上;
把所再现的虚拟表示显示在显示元件上;以及
根据所述第一多个视角数据、所述第一多个暗示数据和所述环境数据中一个或多个的改变,更新所述虚拟表示。
47.如权利要求46所述的方法,其中产生所述第二参会者在所述虚拟地点的所述环境中的虚拟表示的处理还包括:
由所述第二参会者的所述第一多个暗示数据产生虚拟表示的虚拟图像部分。
48.如权利要求47所述的方法,还包括:
从所述第一参会者的所述第一多个视角数据和所述虚拟地点的环境的声音表示中的一个或多个产生虚拟声音部分。
49.如权利要求48所述的方法,其中来自所述第一参会者的所述第一多个视角数据包括所述第一参会者的头部运动和所述虚拟地点的环境中所述第一参会者的相对位置中的一个或多个,并且其中所述虚拟声音部分随着所述第一参会者的所述头部运动和所述环境中所述第一参会者的所述相对位置中的一个或多个的改变而改变。
50.如权利要求48所述的方法,其中所述声音表示包括所述环境中所述第一参会者所体验的第一声音部分、所述环境中所述第二参会者所体验第二声音部分和所述虚拟地点的所述环境的背景音部分中的一个或多个。
51.如权利要求50所述的方法,还包括通过改变所述环境中所述第一参会者所体验的第一声音部分、所述环境中所述第二参会者所体验第二声音部分和所述虚拟地点的所述环境的背景音部分中的一个或多个来更新所述虚拟声音部分。
52.如权利要求46所述的方法,还包括:
利用由所述第二参会者的所述多个特征产生的所述第二多个可视暗示数据来更新所述第二参会者的模型。
53.如权利要求46所述的方法,其中来自所述第一参会者的所述第一多个视角数据包括所述第一参会者的头部运动和所述虚拟地点的环境中所述第一参会者的相对位置中的一个或多个。
54.如权利要求46所述的方法,其中产生虚拟表示的处理还包括:
产生所述第二参会者的所述虚拟表示的第一和第二视图;并且
其中再现所述虚拟表示还包括:
再现所述第二参会者的所述虚拟表示的所述第一和第二视图,用于显示给所述第一参会者的第一和第二眼睛。
55.如权利要求46所述的方法,还包括:
从所述第一参会者的多个特征产生第二多个可视暗示数据;以及
传输从所述第一参会者获取的第二多个可视暗示数据,其中所述第二多个可视暗示数据由所述第一参会者的多个特征产生。
56.如权利要求55所述的方法,其中所述第一参会者的所述第二多个暗示数据包括通过所述第一参会者的面部运动、头部运动和身体运动中的一个或多个所暗示的数据。
57.如权利要求56所述的方法,其中所述第一参会者的面部运动包括所述第一参会者的眼睛运动、头运动和嘴运动中的一个或多个。
58.如权利要求55所述的方法,还包括在产生所述第二多个可视暗示数据之后:
获取所述第二多个可视暗示数据;以及
从所获取的第二多个可视暗示数据中识别和提取由所述第一参会者的所述多个特征产生的所述多个可视暗示。
59.如权利要求55所述的方法,还包括:
跟踪由所述第一参会者的所述多个特征产生的所述多个可视暗示。
60.如权利要求46所述的方法,其中所述第一多个暗示数据是由所述第二参会者的多个特征产生的。
61.如权利要求60所述的方法,其中所述第二参会者的所述第一多个暗示数据包括通过由所述第二参会者面部产生的面部运动、头部产生的头部运动和身体产生的身体运动中的一个或多个所暗示的数据。
62.如权利要求61所述的方法,其中所述第二参会者的面部运动包括所述第二参会者的眼睛运动、头运动和嘴运动中的一个或多个,并改变所再现并显示给所述第一参会者的所述第二参会者的表示图像。
63.如权利要求46所述的方法,其中所述第一参会者的所述第二多个暗示数据包括通过所述第一参会者的面部运动、头部运动和身体运动中的一个或多个所暗示的数据。
64.如权利要求63所述的方法,其中所述第一参会者的面部运动包括所述第一参会者的眼睛运动、头运动和嘴运动中的一个或多个。
65.如权利要求46所述的方法,其中获取所述第二多个可视暗示数据还包括:
第一获取子元件获取所述第一参会者的第一眼睛区域的运动;
第二获取子元件获取所述第一参会者的第二眼睛区域的运动;以及
第三获取子元件获取所述第一参会者的嘴区域的运动。
66.如权利要求65所述的方法,还包括:
第四获取子元件获取所述第一参会者的头部运动。
67.如权利要求46所述的方法,还包括跟踪由所述第一参会者的所述多个特征所产生的所述多个可视暗示。
68.如权利要求46所述的方法,还包括处理所述第二参会者的三维模型,并把所述第二参会者的所述虚拟表示映射到所述第二参会者的所述三维模型上。
69.如权利要求46所述的方法,其中所述第一地点是本地地点,并且所述第二地点是远程地点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/331,697 | 2002-12-30 | ||
US10/331,697 US7106358B2 (en) | 2002-12-30 | 2002-12-30 | Method, system and apparatus for telepresence communications |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1732687A true CN1732687A (zh) | 2006-02-08 |
Family
ID=32680787
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2003801078198A Pending CN1732687A (zh) | 2002-12-30 | 2003-12-18 | 用于远程临场通信的方法、系统和装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US7106358B2 (zh) |
EP (1) | EP1582065A4 (zh) |
CN (1) | CN1732687A (zh) |
AU (1) | AU2003297980A1 (zh) |
WO (1) | WO2004062257A2 (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102119531A (zh) * | 2008-08-13 | 2011-07-06 | 惠普开发有限公司 | 音频/视频系统 |
CN102217310A (zh) * | 2008-09-17 | 2011-10-12 | 坦德伯格电信公司 | 用于本地远程出席视频会议系统的控制系统和用于建立视频会议呼叫的方法 |
CN102244759A (zh) * | 2010-05-12 | 2011-11-16 | 宇泰华科技股份有限公司 | 直觉式交谈方法 |
CN102271241A (zh) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及系统 |
CN102567613A (zh) * | 2010-12-21 | 2012-07-11 | 宇泰华科技股份有限公司 | 直觉式电子装置连结方法 |
CN104023005A (zh) * | 2014-05-06 | 2014-09-03 | 山东歌尔谷崧精密工业有限公司 | 虚拟会议系统 |
CN104115503A (zh) * | 2011-12-29 | 2014-10-22 | 英特尔公司 | 使用化身的通信 |
CN104866261A (zh) * | 2014-02-24 | 2015-08-26 | 联想(北京)有限公司 | 一种信息处理方法和装置 |
WO2016110047A1 (zh) * | 2015-01-09 | 2016-07-14 | 京东方科技集团股份有限公司 | 远程会议系统和进行远程会议的方法 |
CN106105211A (zh) * | 2014-02-25 | 2016-11-09 | 阿尔卡特朗讯公司 | 用于使用模型减少视频传递中的延时的系统和方法 |
CN106484092A (zh) * | 2015-08-31 | 2017-03-08 | 国际商业机器公司 | 产生远程临场机器人的控制信号的方法和远程临场系统 |
CN107592449A (zh) * | 2017-08-09 | 2018-01-16 | 广东欧珀移动通信有限公司 | 三维模型建立方法、装置和移动终端 |
CN108604291A (zh) * | 2016-01-13 | 2018-09-28 | Fove股份有限公司 | 表情辨识系统、表情辨识方法及表情辨识程序 |
CN110959286A (zh) * | 2017-07-31 | 2020-04-03 | 索尼公司 | 图像处理装置、图像处理方法、程序以及远程通讯系统 |
US11295502B2 (en) | 2014-12-23 | 2022-04-05 | Intel Corporation | Augmented facial animation |
US11303850B2 (en) | 2012-04-09 | 2022-04-12 | Intel Corporation | Communication using interactive avatars |
US11887231B2 (en) | 2015-12-18 | 2024-01-30 | Tahoe Research, Ltd. | Avatar animation system |
Families Citing this family (152)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
US7106358B2 (en) * | 2002-12-30 | 2006-09-12 | Motorola, Inc. | Method, system and apparatus for telepresence communications |
US7593546B2 (en) * | 2003-03-11 | 2009-09-22 | Hewlett-Packard Development Company, L.P. | Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze |
US7333113B2 (en) * | 2003-03-13 | 2008-02-19 | Sony Corporation | Mobile motion capture cameras |
US7218320B2 (en) * | 2003-03-13 | 2007-05-15 | Sony Corporation | System and method for capturing facial and body motion |
US7573480B2 (en) * | 2003-05-01 | 2009-08-11 | Sony Corporation | System and method for capturing facial and body motion |
US8106911B2 (en) * | 2003-03-13 | 2012-01-31 | Sony Corporation | Mobile motion capture cameras |
US20040189701A1 (en) * | 2003-03-25 | 2004-09-30 | Badt Sig Harold | System and method for facilitating interaction between an individual present at a physical location and a telecommuter |
US7358972B2 (en) * | 2003-05-01 | 2008-04-15 | Sony Corporation | System and method for capturing facial and body motion |
US8299979B2 (en) * | 2003-05-14 | 2012-10-30 | Broadcom Corporation | Integral eye-path alignment on telephony and computer video devices using two or more image sensing devices |
US7590941B2 (en) * | 2003-10-09 | 2009-09-15 | Hewlett-Packard Development Company, L.P. | Communication and collaboration system using rich media environments |
US20060055786A1 (en) * | 2004-03-09 | 2006-03-16 | Viosport | Portable camera and wiring harness |
US7554549B2 (en) * | 2004-10-01 | 2009-06-30 | Sony Corporation | System and method for tracking facial muscle and eye motion for computer graphics animation |
US7271825B2 (en) * | 2004-11-04 | 2007-09-18 | Sony Corporation | Kinesiological model-based gestural augmentation of voice communication |
US20060212430A1 (en) | 2005-03-18 | 2006-09-21 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Outputting a saved hand-formed expression |
US8229252B2 (en) | 2005-03-18 | 2012-07-24 | The Invention Science Fund I, Llc | Electronic association of a user expression and a context of the expression |
US8232979B2 (en) | 2005-05-25 | 2012-07-31 | The Invention Science Fund I, Llc | Performing an action with respect to hand-formed expression |
US8749480B2 (en) | 2005-03-18 | 2014-06-10 | The Invention Science Fund I, Llc | Article having a writing portion and preformed identifiers |
US8787706B2 (en) * | 2005-03-18 | 2014-07-22 | The Invention Science Fund I, Llc | Acquisition of a user expression and an environment of the expression |
US7826687B2 (en) | 2005-03-18 | 2010-11-02 | The Invention Science Fund I, Llc | Including contextual information with a formed expression |
US8599174B2 (en) | 2005-03-18 | 2013-12-03 | The Invention Science Fund I, Llc | Verifying a written expression |
US8290313B2 (en) | 2005-03-18 | 2012-10-16 | The Invention Science Fund I, Llc | Electronic acquisition of a hand formed expression and a context of the expression |
US8340476B2 (en) | 2005-03-18 | 2012-12-25 | The Invention Science Fund I, Llc | Electronic acquisition of a hand formed expression and a context of the expression |
US7809215B2 (en) | 2006-10-11 | 2010-10-05 | The Invention Science Fund I, Llc | Contextual information encoded in a formed expression |
CN101253538B (zh) * | 2005-07-01 | 2011-09-14 | 索尼电影娱乐公司 | 移动式动作捕捉相机 |
US8537997B2 (en) * | 2005-07-27 | 2013-09-17 | Cisco Technology, Inc. | RFID for available resources not connected to the network |
US20070136671A1 (en) * | 2005-12-12 | 2007-06-14 | Buhrke Eric R | Method and system for directing attention during a conversation |
US8064487B1 (en) * | 2006-04-17 | 2011-11-22 | Avaya Inc. | Virtual office presence bridge |
WO2007130693A2 (en) * | 2006-05-07 | 2007-11-15 | Sony Computer Entertainment Inc. | Methods and systems for processing an interchange of real time effects during video communication |
US8201080B2 (en) * | 2006-05-24 | 2012-06-12 | International Business Machines Corporation | Systems and methods for augmenting audio/visual broadcasts with annotations to assist with perception and interpretation of broadcast content |
WO2007137789A2 (de) * | 2006-06-01 | 2007-12-06 | Combots Product Gmbh | Kommunikationseinrichtung zur kommunikation über ein grafisches element, insbesondere einen combot |
US7886326B2 (en) * | 2006-08-23 | 2011-02-08 | Kye Systems Corp. | Web cam for indicating the expression of a remote end user |
US8200506B2 (en) * | 2006-12-19 | 2012-06-12 | Accenture Global Services Limited | Integrated health management platform |
CA2675995C (en) * | 2007-01-22 | 2014-11-04 | Bell Helicopter Textron Inc. | System and method for performing multiple, simultaneous, independent simulations in a motion capture environment |
DE08713883T1 (de) * | 2007-01-22 | 2010-04-15 | Bell Helicopter Textron, Inc., Fort Worth | System und verfahren zur steuerung einer virtuellen realität durch einen darsteller in der virtuellen realität |
US7765478B2 (en) * | 2007-02-06 | 2010-07-27 | International Business Machines Corporation | Scheduling and reserving virtual meeting locations in a calendaring application |
US20080215975A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Virtual world user opinion & response monitoring |
DE102007010664A1 (de) * | 2007-03-02 | 2008-09-04 | Deutsche Telekom Ag | Verfahren und Videokommunikationssystem zur Einspeisung von Avatar-Informationen in einem Videodatenstrom |
KR101357158B1 (ko) * | 2007-03-15 | 2014-02-03 | 삼성전자 주식회사 | 화상 통신용 디스플레이 장치 및 화상 통신 방법 |
US20080231686A1 (en) * | 2007-03-22 | 2008-09-25 | Attune Interactive, Inc. (A Delaware Corporation) | Generation of constructed model for client runtime player using motion points sent over a network |
WO2008131054A2 (en) * | 2007-04-17 | 2008-10-30 | Bell Helicopter Textron, Inc. | Collaborative virtual reality system using multiple motion capture systems and multiple interactive clients |
US20100315524A1 (en) * | 2007-09-04 | 2010-12-16 | Sony Corporation | Integrated motion capture |
US20090070688A1 (en) * | 2007-09-07 | 2009-03-12 | Motorola, Inc. | Method and apparatus for managing interactions |
US9131016B2 (en) * | 2007-09-11 | 2015-09-08 | Alan Jay Glueckman | Method and apparatus for virtual auditorium usable for a conference call or remote live presentation with audience response thereto |
US20090113314A1 (en) * | 2007-10-30 | 2009-04-30 | Dawson Christopher J | Location and placement of avatars in virtual worlds |
US20090113319A1 (en) * | 2007-10-30 | 2009-04-30 | Dawson Christopher J | Developing user profiles in virtual worlds |
US8145725B2 (en) * | 2007-10-31 | 2012-03-27 | International Business Machines Corporation | Updating data stores of virtual worlds based on data stores external to the virtual worlds |
US20090119604A1 (en) * | 2007-11-06 | 2009-05-07 | Microsoft Corporation | Virtual office devices |
US20100245538A1 (en) * | 2007-11-22 | 2010-09-30 | Koninklijke Philips Electronics N.V. | Methods and devices for receiving and transmitting an indication of presence |
US20090164919A1 (en) | 2007-12-24 | 2009-06-25 | Cary Lee Bates | Generating data for managing encounters in a virtual world environment |
US7840638B2 (en) * | 2008-06-27 | 2010-11-23 | Microsoft Corporation | Participant positioning in multimedia conferencing |
AU2008358849A1 (en) * | 2008-06-30 | 2010-01-07 | Accenture Global Services Limited | Gaming system |
WO2010022351A2 (en) | 2008-08-22 | 2010-02-25 | University Of Virginia Patent Foundation | System and method for low bandwidth image transmission |
US8581838B2 (en) * | 2008-12-19 | 2013-11-12 | Samsung Electronics Co., Ltd. | Eye gaze control during avatar-based communication |
US8436789B2 (en) * | 2009-01-16 | 2013-05-07 | Microsoft Corporation | Surface puck |
US9683853B2 (en) * | 2009-01-23 | 2017-06-20 | Fuji Xerox Co., Ltd. | Image matching in support of mobile navigation |
US20100188397A1 (en) * | 2009-01-28 | 2010-07-29 | Apple Inc. | Three dimensional navigation using deterministic movement of an electronic device |
US8890898B2 (en) * | 2009-01-28 | 2014-11-18 | Apple Inc. | Systems and methods for navigating a scene using deterministic movement of an electronic device |
US20100228825A1 (en) * | 2009-03-06 | 2010-09-09 | Microsoft Corporation | Smart meeting room |
US8332755B2 (en) * | 2009-05-27 | 2012-12-11 | Microsoft Corporation | Force-feedback within telepresence |
US20100306670A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture-based document sharing manipulation |
US20100321465A1 (en) * | 2009-06-19 | 2010-12-23 | Dominique A Behrens Pa | Method, System and Computer Program Product for Mobile Telepresence Interactions |
EP2285068B1 (en) | 2009-08-07 | 2014-06-25 | BlackBerry Limited | Method, mobile device and computer readable medium for mobile telepresence |
US9032288B2 (en) * | 2009-09-11 | 2015-05-12 | Xerox Corporation | Document presentation in virtual worlds |
US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
US9030536B2 (en) | 2010-06-04 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for presenting media content |
US9787974B2 (en) | 2010-06-30 | 2017-10-10 | At&T Intellectual Property I, L.P. | Method and apparatus for delivering media content |
WO2012000826A1 (fr) * | 2010-06-30 | 2012-01-05 | Alcatel Lucent | Procédé et dispositif de conférence à distance |
US8918831B2 (en) | 2010-07-06 | 2014-12-23 | At&T Intellectual Property I, Lp | Method and apparatus for managing a presentation of media content |
US9049426B2 (en) | 2010-07-07 | 2015-06-02 | At&T Intellectual Property I, Lp | Apparatus and method for distributing three dimensional media content |
US9032470B2 (en) | 2010-07-20 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus for adapting a presentation of media content according to a position of a viewing apparatus |
US9232274B2 (en) | 2010-07-20 | 2016-01-05 | At&T Intellectual Property I, L.P. | Apparatus for adapting a presentation of media content to a requesting device |
US9560406B2 (en) | 2010-07-20 | 2017-01-31 | At&T Intellectual Property I, L.P. | Method and apparatus for adapting a presentation of media content |
US8994716B2 (en) | 2010-08-02 | 2015-03-31 | At&T Intellectual Property I, Lp | Apparatus and method for providing media content |
US9024977B2 (en) * | 2010-08-02 | 2015-05-05 | International Business Machines Corporation | Resizing objects in regions of virtual universes |
US8438502B2 (en) | 2010-08-25 | 2013-05-07 | At&T Intellectual Property I, L.P. | Apparatus for controlling three-dimensional images |
US8947511B2 (en) | 2010-10-01 | 2015-02-03 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting three-dimensional media content |
US9294722B2 (en) * | 2010-10-19 | 2016-03-22 | Microsoft Technology Licensing, Llc | Optimized telepresence using mobile device gestures |
US9734637B2 (en) | 2010-12-06 | 2017-08-15 | Microsoft Technology Licensing, Llc | Semantic rigging of avatars |
US20120192088A1 (en) * | 2011-01-20 | 2012-07-26 | Avaya Inc. | Method and system for physical mapping in a virtual world |
US8675067B2 (en) | 2011-05-04 | 2014-03-18 | Microsoft Corporation | Immersive remote conferencing |
US20120294374A1 (en) * | 2011-05-17 | 2012-11-22 | Amir Said | Conditional replenishment for three-dimensional images with block-based spatial thresholding |
US9560314B2 (en) | 2011-06-14 | 2017-01-31 | Microsoft Technology Licensing, Llc | Interactive and shared surfaces |
US9602766B2 (en) | 2011-06-24 | 2017-03-21 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting three dimensional objects with telepresence |
US9030522B2 (en) | 2011-06-24 | 2015-05-12 | At&T Intellectual Property I, Lp | Apparatus and method for providing media content |
US8947497B2 (en) | 2011-06-24 | 2015-02-03 | At&T Intellectual Property I, Lp | Apparatus and method for managing telepresence sessions |
US9445046B2 (en) * | 2011-06-24 | 2016-09-13 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting media content with telepresence |
US8780167B2 (en) | 2011-07-05 | 2014-07-15 | Bayer Business and Technology Services, LLC | Systems and methods for virtual presence videoconferencing |
US8587635B2 (en) | 2011-07-15 | 2013-11-19 | At&T Intellectual Property I, L.P. | Apparatus and method for providing media services with telepresence |
US20130086578A1 (en) * | 2011-09-29 | 2013-04-04 | International Business Machines Corporation | Virtual image construction |
CN103096012B (zh) | 2011-11-08 | 2016-08-03 | 华为技术有限公司 | 调整图像显示的方法、设备及系统 |
US9007427B2 (en) * | 2011-12-14 | 2015-04-14 | Verizon Patent And Licensing Inc. | Method and system for providing virtual conferencing |
US10937239B2 (en) * | 2012-02-23 | 2021-03-02 | Charles D. Huston | System and method for creating an environment and for sharing an event |
US9767598B2 (en) | 2012-05-31 | 2017-09-19 | Microsoft Technology Licensing, Llc | Smoothing and robust normal estimation for 3D point clouds |
US20130321564A1 (en) | 2012-05-31 | 2013-12-05 | Microsoft Corporation | Perspective-correct communication window with motion parallax |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
KR101350996B1 (ko) * | 2012-06-11 | 2014-01-13 | 재단법인 실감교류인체감응솔루션연구단 | 아이콘텍이 가능한 3차원 원격회의 장치 및 이를 이용한 방법 |
US9191619B2 (en) * | 2012-08-01 | 2015-11-17 | Google Inc. | Using an avatar in a videoconferencing system |
US8976224B2 (en) * | 2012-10-10 | 2015-03-10 | Microsoft Technology Licensing, Llc | Controlled three-dimensional communication endpoint |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
US9325943B2 (en) * | 2013-02-20 | 2016-04-26 | Microsoft Technology Licensing, Llc | Providing a tele-immersive experience using a mirror metaphor |
US9094576B1 (en) * | 2013-03-12 | 2015-07-28 | Amazon Technologies, Inc. | Rendered audiovisual communication |
WO2014155153A1 (en) * | 2013-03-27 | 2014-10-02 | Nokia Corporation | Image point of interest analyser with animation generator |
US10341611B2 (en) * | 2013-04-30 | 2019-07-02 | Inuitive Ltd. | System and method for video conferencing |
US9269012B2 (en) | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN103442137B (zh) * | 2013-08-26 | 2016-04-13 | 苏州跨界软件科技有限公司 | 一种在手机通话中查看对方虚拟人脸的方法 |
WO2015039239A1 (en) * | 2013-09-17 | 2015-03-26 | Société Des Arts Technologiques | Method, system and apparatus for capture-based immersive telepresence in virtual environment |
US10075656B2 (en) | 2013-10-30 | 2018-09-11 | At&T Intellectual Property I, L.P. | Methods, systems, and products for telepresence visualizations |
US9210377B2 (en) | 2013-10-30 | 2015-12-08 | At&T Intellectual Property I, L.P. | Methods, systems, and products for telepresence visualizations |
KR101659849B1 (ko) * | 2015-01-09 | 2016-09-29 | 한국과학기술원 | 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체 |
US9690103B2 (en) * | 2015-02-16 | 2017-06-27 | Philip Lyren | Display an image during a communication |
CN104867958B (zh) | 2015-04-01 | 2017-12-08 | 京东方科技集团股份有限公司 | 有机电致发光显示基板及其制作方法和显示装置 |
US10447795B2 (en) * | 2015-10-05 | 2019-10-15 | Polycom, Inc. | System and method for collaborative telepresence amongst non-homogeneous endpoints |
US10404938B1 (en) | 2015-12-22 | 2019-09-03 | Steelcase Inc. | Virtual world method and system for affecting mind state |
US10771508B2 (en) | 2016-01-19 | 2020-09-08 | Nadejda Sarmova | Systems and methods for establishing a virtual shared experience for media playback |
US10181218B1 (en) | 2016-02-17 | 2019-01-15 | Steelcase Inc. | Virtual affordance sales tool |
US10182210B1 (en) | 2016-12-15 | 2019-01-15 | Steelcase Inc. | Systems and methods for implementing augmented reality and/or virtual reality |
KR102651793B1 (ko) | 2017-01-10 | 2024-03-28 | 삼성전자주식회사 | 영상 통화를 수행하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록매체 |
US20210281802A1 (en) * | 2017-02-03 | 2021-09-09 | Vestel Elektronik Sanayi Ve Ticaret A.S. | IMPROVED METHOD AND SYSTEM FOR VIDEO CONFERENCES WITH HMDs |
US11651555B2 (en) * | 2018-05-31 | 2023-05-16 | Microsoft Technology Licensing, Llc | Re-creation of virtual environment through a video call |
US10841536B2 (en) | 2018-09-28 | 2020-11-17 | Universal City Studios Llc | Special effects communication techniques |
US10992904B2 (en) * | 2019-07-19 | 2021-04-27 | Nextiva, Inc. | Always-on teleconference communication hub |
KR102332074B1 (ko) * | 2020-02-10 | 2021-11-29 | 한국과학기술원 | 텔레프레즌스를 위한 원격 공간 아바타 배치 방법 및 그 장치 |
US10924710B1 (en) * | 2020-03-24 | 2021-02-16 | Htc Corporation | Method for managing avatars in virtual meeting, head-mounted display, and non-transitory computer readable storage medium |
US11438551B2 (en) * | 2020-09-15 | 2022-09-06 | At&T Intellectual Property I, L.P. | Virtual audience using low bitrate avatars and laughter detection |
US10979672B1 (en) | 2020-10-20 | 2021-04-13 | Katmai Tech Holdings LLC | Web-based videoconference virtual environment with navigable avatars, and applications thereof |
US11095857B1 (en) | 2020-10-20 | 2021-08-17 | Katmai Tech Holdings LLC | Presenter mode in a three-dimensional virtual conference space, and applications thereof |
US10952006B1 (en) | 2020-10-20 | 2021-03-16 | Katmai Tech Holdings LLC | Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof |
US11070768B1 (en) | 2020-10-20 | 2021-07-20 | Katmai Tech Holdings LLC | Volume areas in a three-dimensional virtual conference space, and applications thereof |
US11457178B2 (en) | 2020-10-20 | 2022-09-27 | Katmai Tech Inc. | Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof |
US11076128B1 (en) * | 2020-10-20 | 2021-07-27 | Katmai Tech Holdings LLC | Determining video stream quality based on relative position in a virtual space, and applications thereof |
US11750745B2 (en) | 2020-11-18 | 2023-09-05 | Kelly Properties, Llc | Processing and distribution of audio signals in a multi-party conferencing environment |
US11689696B2 (en) * | 2021-03-30 | 2023-06-27 | Snap Inc. | Configuring participant video feeds within a virtual conferencing system |
US11184362B1 (en) | 2021-05-06 | 2021-11-23 | Katmai Tech Holdings LLC | Securing private audio in a virtual conference, and applications thereof |
US11743430B2 (en) | 2021-05-06 | 2023-08-29 | Katmai Tech Inc. | Providing awareness of who can hear audio in a virtual conference, and applications thereof |
FI20215726A1 (en) * | 2021-06-21 | 2022-12-22 | Teknologian Tutkimuskeskus Vtt Oy | Broadcast terminal for 3D telepresence |
US11765320B2 (en) | 2021-08-11 | 2023-09-19 | Google Llc | Avatar animation in virtual conferencing |
US12022235B2 (en) | 2022-07-20 | 2024-06-25 | Katmai Tech Inc. | Using zones in a three-dimensional virtual environment for limiting audio and video |
US11928774B2 (en) | 2022-07-20 | 2024-03-12 | Katmai Tech Inc. | Multi-screen presentation in a virtual videoconferencing environment |
US11651108B1 (en) | 2022-07-20 | 2023-05-16 | Katmai Tech Inc. | Time access control in virtual environment application |
US11876630B1 (en) | 2022-07-20 | 2024-01-16 | Katmai Tech Inc. | Architecture to control zones |
US12009938B2 (en) | 2022-07-20 | 2024-06-11 | Katmai Tech Inc. | Access control in zones |
US11741664B1 (en) | 2022-07-21 | 2023-08-29 | Katmai Tech Inc. | Resituating virtual cameras and avatars in a virtual environment |
US11700354B1 (en) | 2022-07-21 | 2023-07-11 | Katmai Tech Inc. | Resituating avatars in a virtual environment |
US11776203B1 (en) | 2022-07-28 | 2023-10-03 | Katmai Tech Inc. | Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars |
US11562531B1 (en) | 2022-07-28 | 2023-01-24 | Katmai Tech Inc. | Cascading shadow maps in areas of a three-dimensional environment |
US11593989B1 (en) | 2022-07-28 | 2023-02-28 | Katmai Tech Inc. | Efficient shadows for alpha-mapped models |
US11704864B1 (en) | 2022-07-28 | 2023-07-18 | Katmai Tech Inc. | Static rendering for a combination of background and foreground objects |
US11711494B1 (en) | 2022-07-28 | 2023-07-25 | Katmai Tech Inc. | Automatic instancing for efficient rendering of three-dimensional virtual environment |
US11682164B1 (en) | 2022-07-28 | 2023-06-20 | Katmai Tech Inc. | Sampling shadow maps at an offset |
US11956571B2 (en) | 2022-07-28 | 2024-04-09 | Katmai Tech Inc. | Scene freezing and unfreezing |
US11748939B1 (en) | 2022-09-13 | 2023-09-05 | Katmai Tech Inc. | Selecting a point to navigate video avatars in a three-dimensional environment |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4400724A (en) * | 1981-06-08 | 1983-08-23 | The United States Of America As Represented By The Secretary Of The Army | Virtual space teleconference system |
JP2534617B2 (ja) * | 1993-07-23 | 1996-09-18 | 株式会社エイ・ティ・アール通信システム研究所 | 人物像の実時間認識合成方法 |
US5347306A (en) * | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
US5583808A (en) * | 1994-09-16 | 1996-12-10 | National Semiconductor Corporation | EPROM array segmented for high performance and method for controlling same |
US5500671A (en) * | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
US6400374B2 (en) * | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
JP3771989B2 (ja) * | 1997-03-24 | 2006-05-10 | オリンパス株式会社 | 画像音声通信システムおよびテレビ電話送受信方法 |
JP4501037B2 (ja) * | 1998-02-17 | 2010-07-14 | ソニー株式会社 | 通信制御システムと通信装置および通信方法 |
US5999208A (en) * | 1998-07-15 | 1999-12-07 | Lucent Technologies Inc. | System for implementing multiple simultaneous meetings in a virtual reality mixed media meeting room |
US6119147A (en) * | 1998-07-28 | 2000-09-12 | Fuji Xerox Co., Ltd. | Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space |
US6466250B1 (en) * | 1999-08-09 | 2002-10-15 | Hughes Electronics Corporation | System for electronically-mediated collaboration including eye-contact collaboratory |
US6806890B2 (en) * | 1999-08-17 | 2004-10-19 | International Business Machines Corporation | Generating a graphical user interface from a command syntax for managing multiple computer systems as one computer system |
US20030043260A1 (en) * | 2001-08-29 | 2003-03-06 | Adrian Yap | Videophone answering device |
US6583808B2 (en) * | 2001-10-04 | 2003-06-24 | National Research Council Of Canada | Method and system for stereo videoconferencing |
US6771303B2 (en) * | 2002-04-23 | 2004-08-03 | Microsoft Corporation | Video-teleconferencing system with eye-gaze correction |
US7515173B2 (en) * | 2002-05-23 | 2009-04-07 | Microsoft Corporation | Head pose tracking system |
US7106358B2 (en) | 2002-12-30 | 2006-09-12 | Motorola, Inc. | Method, system and apparatus for telepresence communications |
US7532230B2 (en) * | 2004-01-29 | 2009-05-12 | Hewlett-Packard Development Company, L.P. | Method and system for communicating gaze in an immersive virtual environment |
-
2002
- 2002-12-30 US US10/331,697 patent/US7106358B2/en active Active
-
2003
- 2003-12-18 CN CNA2003801078198A patent/CN1732687A/zh active Pending
- 2003-12-18 WO PCT/US2003/040353 patent/WO2004062257A2/en not_active Application Discontinuation
- 2003-12-18 AU AU2003297980A patent/AU2003297980A1/en not_active Abandoned
- 2003-12-18 EP EP03797053A patent/EP1582065A4/en not_active Withdrawn
-
2006
- 2006-06-06 US US11/422,438 patent/US8072479B2/en active Active
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102119531A (zh) * | 2008-08-13 | 2011-07-06 | 惠普开发有限公司 | 音频/视频系统 |
CN102217310B (zh) * | 2008-09-17 | 2015-04-29 | 思科系统国际公司 | 用于本地远程出席视频会议系统的控制系统和用于建立视频会议呼叫的方法 |
CN102217310A (zh) * | 2008-09-17 | 2011-10-12 | 坦德伯格电信公司 | 用于本地远程出席视频会议系统的控制系统和用于建立视频会议呼叫的方法 |
CN102244759A (zh) * | 2010-05-12 | 2011-11-16 | 宇泰华科技股份有限公司 | 直觉式交谈方法 |
CN102567613A (zh) * | 2010-12-21 | 2012-07-11 | 宇泰华科技股份有限公司 | 直觉式电子装置连结方法 |
CN102271241A (zh) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及系统 |
CN104115503A (zh) * | 2011-12-29 | 2014-10-22 | 英特尔公司 | 使用化身的通信 |
CN106961621A (zh) * | 2011-12-29 | 2017-07-18 | 英特尔公司 | 使用化身的通信 |
US11595617B2 (en) | 2012-04-09 | 2023-02-28 | Intel Corporation | Communication using interactive avatars |
US11303850B2 (en) | 2012-04-09 | 2022-04-12 | Intel Corporation | Communication using interactive avatars |
CN104866261B (zh) * | 2014-02-24 | 2018-08-10 | 联想(北京)有限公司 | 一种信息处理方法和装置 |
CN104866261A (zh) * | 2014-02-24 | 2015-08-26 | 联想(北京)有限公司 | 一种信息处理方法和装置 |
CN106105211A (zh) * | 2014-02-25 | 2016-11-09 | 阿尔卡特朗讯公司 | 用于使用模型减少视频传递中的延时的系统和方法 |
CN104023005A (zh) * | 2014-05-06 | 2014-09-03 | 山东歌尔谷崧精密工业有限公司 | 虚拟会议系统 |
US11295502B2 (en) | 2014-12-23 | 2022-04-05 | Intel Corporation | Augmented facial animation |
US9706169B2 (en) | 2015-01-09 | 2017-07-11 | Boe Technology Group Co., Ltd. | Remote conference system and method of performing remote conference |
WO2016110047A1 (zh) * | 2015-01-09 | 2016-07-14 | 京东方科技集团股份有限公司 | 远程会议系统和进行远程会议的方法 |
CN106484092B (zh) * | 2015-08-31 | 2019-04-02 | 国际商业机器公司 | 产生远程临场机器人的控制信号的方法和远程临场系统 |
US10464211B2 (en) | 2015-08-31 | 2019-11-05 | International Business Machines Corporation | Generating control signal for tele-presence robot |
CN106484092A (zh) * | 2015-08-31 | 2017-03-08 | 国际商业机器公司 | 产生远程临场机器人的控制信号的方法和远程临场系统 |
US11887231B2 (en) | 2015-12-18 | 2024-01-30 | Tahoe Research, Ltd. | Avatar animation system |
CN108604291A (zh) * | 2016-01-13 | 2018-09-28 | Fove股份有限公司 | 表情辨识系统、表情辨识方法及表情辨识程序 |
CN110959286A (zh) * | 2017-07-31 | 2020-04-03 | 索尼公司 | 图像处理装置、图像处理方法、程序以及远程通讯系统 |
CN107592449A (zh) * | 2017-08-09 | 2018-01-16 | 广东欧珀移动通信有限公司 | 三维模型建立方法、装置和移动终端 |
Also Published As
Publication number | Publication date |
---|---|
WO2004062257A2 (en) | 2004-07-22 |
US20040130614A1 (en) | 2004-07-08 |
AU2003297980A1 (en) | 2004-07-29 |
AU2003297980A8 (en) | 2004-07-29 |
US20060210045A1 (en) | 2006-09-21 |
EP1582065A2 (en) | 2005-10-05 |
US7106358B2 (en) | 2006-09-12 |
WO2004062257A3 (en) | 2004-12-23 |
EP1582065A4 (en) | 2009-03-11 |
US8072479B2 (en) | 2011-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1732687A (zh) | 用于远程临场通信的方法、系统和装置 | |
US9030486B2 (en) | System and method for low bandwidth image transmission | |
CN106210703B (zh) | Vr环境中特写镜头的运用及显示方法和系统 | |
US6466250B1 (en) | System for electronically-mediated collaboration including eye-contact collaboratory | |
JP5208810B2 (ja) | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム | |
US6583808B2 (en) | Method and system for stereo videoconferencing | |
TW297985B (zh) | ||
US9424678B1 (en) | Method for teleconferencing using 3-D avatar | |
KR950030647A (ko) | 화상통신장치 | |
CN101820537A (zh) | 活动图像数据的编码方法、终端装置以及双向对话型系统 | |
JP2009510877A (ja) | 顔検出を利用したストリーミングビデオにおける顔アノテーション | |
US10762663B2 (en) | Apparatus, a method and a computer program for video coding and decoding | |
KR102612529B1 (ko) | 신규 뷰 합성을 위한 신경 블렌딩 | |
JPWO2019139101A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP3464754B2 (ja) | ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置 | |
CN114143494A (zh) | 一种视频通信方法、电子设备和通信系统 | |
CN110288680A (zh) | 影像生成方法及移动终端 | |
CN115361521A (zh) | 一种全息影像视频会议系统 | |
JPH08256316A (ja) | 通信会議システム | |
US10469803B2 (en) | System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display | |
De Silva et al. | Emotion enhanced face to face meetings using the concept of virtual space teleconferencing | |
CN114363557B (zh) | 一种面向语义保真的虚拟会议方法及三维虚拟会议系统 | |
US20240221261A1 (en) | Data processing method and electronic device | |
US20240022689A1 (en) | Generating a sound representation of a virtual environment from multiple sound sources | |
CN112954139A (zh) | 一种基于vr虚拟现实技术的婚庆摄影系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20060208 |
|
C20 | Patent right or utility model deemed to be abandoned or is abandoned |