CN1845064A - 信息处理方法和设备 - Google Patents
信息处理方法和设备 Download PDFInfo
- Publication number
- CN1845064A CN1845064A CNA2006100733008A CN200610073300A CN1845064A CN 1845064 A CN1845064 A CN 1845064A CN A2006100733008 A CNA2006100733008 A CN A2006100733008A CN 200610073300 A CN200610073300 A CN 200610073300A CN 1845064 A CN1845064 A CN 1845064A
- Authority
- CN
- China
- Prior art keywords
- image
- stereo
- staff
- virtual objects
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5546—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
- A63F2300/5573—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history player location
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请涉及信息处理方法和设备,用于使得一个或多个第二用户能够共享包括叠加在第一用户所处空间中的虚拟对象的混合现实空间图像。根据由安装在第一用户上的第一立体摄像部分捕获的立体视频数据以及基于第一立体摄像部分的位置和取向产生出的虚拟对象图像来获取第一立体图像。根据由设在第一用户所处空间中的第二立体摄像部分所捕获的立体视频数据以及基于第二立体摄像部分的位置和取向产生出的虚拟对象图像来获取第二立体图像。根据第二用户的指令从第一立体图像和第二立体图像中选择图像。将所选的图像呈现给第二用户。
Description
技术领域
本发明涉及使得第二用户能够共享包括叠加在第一用户所存在的空间中的虚拟对象的混合现实空间图像的方法和设备。
背景技术
可以根据最近开发出的混合现实(MR,mixed reality)技术来实现现实世界和虚拟世界的无缝混合。MR技术增强了VR(虚拟现实)技术,从而可以实现物理空间和虚拟现实世界的共存,然而在过去只能在与物理空间分开的情景中体验VR世界。
头盔式显示设备(HMD)为实现混合现实所需的代表性装置。更具体地说,HMD可以显示物理空间和虚拟空间的组合图像。
在用于支持在远程参与人之间进行的会议或另一种协作工作的基于VR的系统中,计算机产生出与现实世界相独立的上述虚拟世界,从而让远程参与者共享所产生出的虚拟世界。另一方面,基于MR的远程支持系统使得远程用户能够支持在包括叠加在现实世界中的虚拟世界的工作空间中的第二用户的工作。
根据传统的技术,远程参与者能够共享VR空间,并且能够通过改变其视点来观察该空间。例如,在游戏机中,为各玩家个体显示出的虚拟空间可以组合,从而其它玩家能够灵活地显示从所期望的角度和所期望的位置观察的合成空间。由游戏机产生出的空间为与现实空间相独立的虚拟空间。游戏机不能实现包括与现实世界中的对象叠加的虚拟对象的混合现实。因此不能通过改变视点同时观察到真实对象和虚拟对象。
如日本专利申请公开No.2002-132487(与US2002/0049510A1对应)所述,可以使用头盔式显示设备(HMD)来支持远程工作。根据该例子,工作人员戴上配有摄像机的HMD,工作人员和远程指导者能够共享摄像机所拍摄的图像。指导者能够通过将指令叠加在摄像机图像上来给出工作指令。
在工作人员的摄像机为立体类型时,工作人员和指导者两者都可以观察到相同的立体图像。另外,根据色度键控组合方法,指导者的指向图像中的工作对象的指导者的手可以与摄像机图像相组合。
另外,根据上述传统技术,除了工作人员的HMD之外还设有固定摄像机,并且可以将固定摄像机的图像传送给远程指导者以让指导者支持该工作。但是,该系统没有使用用来定义工作人员的空间的坐标系。因此,不能在工作人员空间的任意位置处设置除了工作对象之外的虚拟对象以进行指点或其它互动。另外,该系统没有使用设置在工作人员空间中的多个摄像机,并且因此不能使得远程指导者能够从多个视点进行观察。
如日本专利申请公开No.2001-195601(与EP1117074对应)所述,可以在混合现实空间中固定多个对象视点摄像机。可以将包括叠加在该摄像机的图像上的虚拟对象的合成图像选择性地显示在多个显示装置上。但是,该系统不能让远程指导者在观察所显示的图像的同时在混合现实空间中进行互动,例如指点或操作虚拟对象。
发明内容
至少一个示例性实施方案涉及这样一种技术,它能够应用于其中虚拟对象能够叠加在现实视频上的工作人员混合现实空间,并且使得远程指导者能够选择性地显示包括工作人员的HMD摄像机图像的多个摄像机图像,并且在观察图像的同时无缝地感知到工作人员的空间,并且向工作人员给出三维工作指令。
至少一个示例性实施方案涉及这样的方法和设备,它们使得第二用户能够共享包括叠加在第一用户所处的空间中的虚拟对象的混合现实空间图像。至少一个示例性实施方案涉及这样一种技术,该技术使得第二用户能够获取从任意视点观察的混合现实空间图像。
根据本发明的第一方面,提供了一种如权利要求1至5中所述的信息处理方法。根据本发明的第二方面,提供了一种如权利要求6中所述的信息处理设备。
另外,至少一个示例性实施方案涉及一种远程混合现实共享设备,它使得至少一个远程参与者能够共享包括叠加在工作人员所处的空间中的虚拟对象的工作人员混合现实空间。该设备包括被配置为将由工作人员戴的立体摄像机捕获的视频和由设置在工作人员所处的空间中的立体摄像机捕获的视频传送给多个远程参与者的单元、用于立体地显示所述视频的工作人员立体显示单元和远程参与者立体显示单元,以及视点切换单元,所述视点切换单元被配置为允许所述多个远程参与者选择性地切换立体摄像机视频,从而可以从不同的视点观察工作人员混合现实空间,并且能够在工作人员和远程参与者之间共享工作人员混合现实空间。
根据对示例性实施方案的以下详细说明,并且参照附图,将清楚地了解本发明的其它特征和方面。
附图说明
结合在说明书中并且构成其一部分的这些附图例举了本发明的实施方案,并且与说明书一起用来说明本发明的原理。
图1为一方框图,显示出根据第一示例性实施方案的远程混合现实共享系统的布置。
图2A、2B和2C为示意图,显示出工作人员混合现实空间的状态和在远程指导者混合现实设备中的屏幕显示。
图3为一流程图,显示出在根据第一示例性实施方案的工作人员混合现实设备中进行的工作人员处理。
图4为一流程图,显示出在根据第一示例性实施方案的指导者混合现实设备中进行的指导者处理。
图5A、5B和5C为流程图,显示出在根据第一示例性实施方案的管理服务器中执行的接收事件处理。
图6A和6B为示意图,显示出根据第三示例性实施方案,工作人员混合现实空间的状态和在多个远程参与者混合现实设备中的屏幕显示。
图7为一方框图,显示出根据第三示例性实施方案的远程混合现实共享系统的布置。
图8A、8B和8C为流程图,显示出在根据第三示例性实施方案的管理服务器中执行的部分接收事件处理。
图9为一示意图,显示出虚拟对象操作表。
图10为一示意图,显示出摄像机管理表。
图11为一示意图,显示出根据第二示例性实施方案的摄像机管理表。
图12为一示意图,显示出根据第三示例性实施方案的虚拟对象管理表。
图13为一示意图,显示出根据第三示例性实施方案的摄像机管理表。
具体实施方式
以下示例性实施方案的说明本身只是用于举例说明,而决不是打算限制本发明、其应用或使用。
本领域普通技术人员所知的过程、技术、设备和材料将不进行详细说明,但是在适当情况下应该作为能够实施的说明书的一部分。例如,用于信号处理、显示和其它用途的某些电路可能不进行详细说明。但是,如本领域普通技术人员所公知的这些系统和构成这些系统的方法在适当的情况下也应该作为能够实施的说明书的一部分。
要指出的是,类似的附图标记和字母在以下附图中指代类似的项目,并且因此一旦在一幅图中限定了一个项目,则在接下来的附图中可以不对它进行说明。
下面将参照这些附图对示例性实施方案进行详细说明。
第一示例性实施方案
图1显示出一功能布置,显示出根据第一示例性实施方案的远程混合现实共享系统。该远程混合现实共享系统包括显示在图1的上部的工作人员混合现实设备10a和图示在图1的下部的指导者混合现实设备10b。工作人员混合现实设备10a和指导者混合现实设备10b可以通过包括管理服务器60的网络相互通信。工作人员混合现实设备10a与头盔式显示器(HMD)20a相连。
指导者混合现实设备10b与头盔式显示器(HMD)20b相连。采用在图1所示的布置,工作人员和指导者两者都能够通过HMD看到工作人员所处的空间的混合现实视频。另外,为了进行相互对话,工作人员混合现实设备10a配备有扬声器27a和麦克风28a。指导者混合现实设备10b配备有扬声器27b和麦克风28b。
工作人员的HMD 20a包括能够磁性测量出HMD的位置和取向的三维位置和取向传感器21a、能够捕获物理空间以获得图像的立体摄像机22(包括左(L)眼摄像机和右(R)眼摄像机)以及立体显示单元23a(包括左(L)眼显示器和右(R)眼显示器)。
预先测量出在三维位置和取向传感器21a与摄像机21之间的位置关系,并且使之固定。三维位置和取向传感器21a将作为测量结果的位置和取向信号输出给下文所述的位置和取向测量部分11a。
摄像机22将捕获结果输出给下文所述的图像输入部分12。显示单元23a接收来自图像组合部分15的左眼图像信号和右眼图像信号,并且将所接收到的图像分别显示在左眼显示器23aL和右眼显示器23aR上。
设在工作人员混合现实设备10a中的位置和取向测量部分11a能够接收从HMD20a的三维位置和取向传感器21a传送出的三维位置和取向信号以及从指示笔41a输入的三维位置和取向信号。指示笔41a为一种在混合现实空间中的三维指示装置。
位置和取向测量部分11a将指示笔的位置和取向数据输出给虚拟对象传送/接收部分31a,并且将HMD20a的位置和取向数据输出给图像生成部分13。虚拟对象传送/接收部分31a能够将从位置和取向测量部分11a接收到的指示笔位置和取向数据传送给管理服务器60。
虚拟对象传送/接收部分31a可以从管理服务器60接收工作人员的指示笔和指导者的指示笔的位置和取向信息以及虚拟对象的变化信息。虚拟对象传送/接收部分31a将从管理服务器60接收到的信息输出给图像生成部分13。
图像生成部分13能够预先存储虚拟对象的场景图形。该图像生成部分13接收每个指示笔的位置和取向以及来自虚拟对象传送/接收部分31a的虚拟对象操作结果信息,并且接收来自位置和取向测量部分11a的工作人员视点信息(即,HMD位置和取向信息)。
图像生成部分13可以根据所获得的信息产生出左眼虚拟空间计算机图形(CG)图像和右眼虚拟空间CG图像。图像组合部分15可以通过图像输入部分12输入来自左眼摄像机22L和右眼摄像机22R的图像。
图像组合部分15可以将从图像生成部分13产生出的左眼虚拟空间CG图像和右眼虚拟空间CG图像组合在所接收的捕获图像上。因此,显示单元23a的左眼显示器23aL和右眼显示器23aR能够将从工作人员视点获得的虚拟空间数据叠加在由摄像机捕获的图像上。视频编码部分32a可以对叠加图像进行压缩和编码并且能够通过视频传送部分33a将压缩并编码后的图像数据传送给管理服务器60。
指导者混合现实设备10a与工作人员混合现实设备10a相比,其布置更简单。HMD20b没有任何摄像机。因此,指导者混合现实设备10b不能输入摄像机图像。为了产生出工作人员空间的混合现实视频,视频接收部分33b能够通过管理服务器60接收工作人员HMD20a的摄像机图像信号或摄像机服务器70a和70b的立体图像信号。
视频解码部分23b将所接收到的信号解码。显示单元23b包括用来显示出从视频解码部分32b发送出的图像的左眼显示器23bL和右眼显示器23bR。位置和取向测量部分11b能够输入来自三维位置和取向传感器21b的指导者HMD20b的位置和取向以及指示笔41b的三维位置和取向。
虚拟对象传送部分31b能够将由位置和取向测量部分11b获得的位置和取向信息传送给管理服务器60。位置和取向信息可以用作指导者的共享虚拟对象指点/操作信息。
当通过管理服务器60建立了在工作人员混合现实设备10a和指导者混合现实设备10b之间的连接时,可以激活话音通信模块,以通过话音通信管理部分66传送和接收双向话音数据。因此,使用扬声器27a和麦克风28a的工作人员能够与使用扬声器27b和麦克风28b的指导者交谈。
摄像机服务器70a和70b能够借助网络将由设置在工作人员空间中的立体摄像机72a和72b捕获的图像传送给管理服务器60。这些摄像机服务器70a和70b包括摄像机视频传送部分71a和71b,用来将相应的立体摄像机72a和72b的右眼图像和左眼图像传送给管理服务器60的图像组合部分64。在网络带宽较窄时,摄像机视频传送部分可以包括图像编码设备(未示出),并且管理服务器的图像组合部分64可以包括图像解码设备(未示出),以降低网络信息流通量。
管理服务器60可以管理在远程混合现实共享系统中所使用的或所处理的信息。虚拟对象通信管理部分61针对与指示笔和虚拟对象相关的信息,管理在工作人员混合现实设备10a和指导者混合现实设备10b之间的通信。虚拟对象管理部分62管理与包括指示笔的共享虚拟对象的场景图形和共享虚拟对象的操作权限相关的信息。
虚拟对象管理部分62将与共享虚拟对象的场景图形相关的信息传送给图像生成部分63。图像生成部分63具有绘制由指导者选择的从摄像机视点看到的虚拟对象的数据的能力。图像生成部分63将所绘制的虚拟对象数据发送给图像组合部分64。
在工作人员空间的世界坐标系中预先测量出各个摄像机72a和72b的位置和取向。图像组合部分64将上述绘制的CG数据叠加在由指导者选择的、由摄像机捕获的图像上。图像组合部分64将叠加后的图像转送给视频通信管理部分65。
由指导者选择的摄像机的混合现实图像就这样借助视频通信管理部分65发送给指导者混合现实设备10b。当指导者选择工作人员的摄像机时,由工作人员混合现实设备10a捕获的图像能够直接发送给指导者混合现实设备10b。
图2A、2B和2C示例性地显示出由图1所示的系统进行的操作。图2A显示出在混合现实空间中工作的戴着HMD20a的工作人员40的状态,其中显示了现实力工作对象42以及代表工作对象的CG 3D虚拟对象43。
工作人员40可以与指导者共享虚拟对象43。指导者可以使用虚拟对象43来指导工作的内容或示例。如图所示,预先设定世界坐标系(x,y,z)以限定工作人员40的物理空间。在通过HMD观察时,能够看到放置在世界坐标系中的虚拟对象43(即,作为示例模型),所看到的位置关系就好像它被放置在真实工作对象42附近一样。
使用具有磁性传感器的指示笔能够进行各种互动,例如选择虚拟对象或者移动所选的对象。指示标41a表示叠加在CG虚拟对象上的工作人员40的指示笔。指示标41b表示叠加在CG虚拟对象上的指导者的指示笔。具有安装在其上的立体摄像机的摄像机服务器70a和70b通过网络(未示出)与管理服务器60连接。由摄像机捕获的图像可以作为远程指导者视点图像提供给指导者。
图2B显示出远程指导者50所处的空间。具有HMD20b的指导者50能够观看显示在HMD20b的显示单元23b上的立体图像。立体图像包括从摄像机70a的视点看到的工作对象42、其3D CG模型43、显示出工作人员40的指示笔位置的指示标41a和显示出指导者50的指示笔位置的指示标41b。
具有安装在其上的磁性传感器的指导者50的HMD20b和指示笔41b能够测量出在视点位置和指示笔之间的相对位置关系。可以将所测量出的位置关系转换成从摄像机视点看的位置关系,从而限定出从摄像机视点看到的指导者50的指示笔位置。指导者50可以通过在观看在显示单元23b上的图像的同时用指示标41b指示虚拟对象43或者通过移动虚拟对象43的物品来向工作人员40给出工作指令。
可以通过将指示笔41a或41b移动到虚拟对象43的位置并且按压设在指示笔上的第一按键,进行虚拟对象43的移动。通过这个操作,指示笔的保持模式开始使虚拟对象与指示笔一起移动。如果在保持模式中再次按压指示笔的第一按键,则保持模式结束,并且可以使虚拟对象与指示笔脱开。为了防止由工作人员40进行的操作和由指导者50进行的操作相互干扰,工作人员的指示笔或者指导者的指示笔都可以进入保持模式以使虚拟对象移动。
在图2C所示的在显示单元23b上的图像为从摄像机70b的视点看到的混合现实图像。指导者50能够通过按压设在指示笔上的第二按键来切换摄像机视点。与上述图2B类似,指导者50能够在该屏幕上进行操作。对于指导者50的头部位置和指示笔位置之间的相对关系,指导者50的指示标41b被显示在根据新摄像机位置限定的位置上。从该状态开始,指导者50可以按压指示笔的第二按键,以将在显示单元23b上的图像切换为从工作人员40的视点看到的图像。
在这种情况下,工作人员40能够通过HMD20a看到的图像与指导者50能够通过HMD20b看到的完美地一致。在该状态下,指导者50可以进一步按压指示笔的第二按键以将在图2B所示的图像显示在指导者的HMD20b的显示单元23b上。这样,通过使用指示笔的第二按键,指导者50能够接连地切换处于工作人员40所在空间中的摄像机的图像。因此,指导者50能够从根据情况选择的最佳视点指示和帮助工作人员40的工作。
下面将参照随后的附图对上述操作进行更详细的说明。
图3为一流程图,显示出工作人员混合现实设备10a的操作,用来完成在混合现实空间中的工作。虽然在图2A中未示出,但是工作人员混合现实设备10a位于适当的位置处并且与工作人员的HMD20a和指示笔41a连接。工作人员混合现实设备10a能够通过设在网络上的管理服务器60与指导者混合现实设备10b通信。
在步骤S100中,可以将工作人员混合现实设备10a初始化。在该步骤中的初始化包括设定混合现实空间的世界坐标系(即,在图2A所示的真实世界中所限定的坐标系)。下文所述的传感器可以产生出在该坐标系中限定的6参数(x,y,z,α,β,γ)的数据组构成的输出,其中α表示绕着x轴线的转动角度,β表示绕着y轴线的转动角度,并且γ表示绕着z轴线的转动角度。另外,虚拟对象43(用作真实对象42的参考)的初始数据可以被设置在世界坐标系中,并且作为场景图形数据存储在图像生成部分13中。
在下一个步骤S110中,工作人员混合现实设备10a可以通过网络与管理服务器60建立连接以便传送和接收数据。工作人员混合现实设备10a能够借助虚拟对象传送/接收部分31a,将与虚拟对象和在步骤S100设定的世界坐标相关的信息上载至管理服务器60。
在步骤S120中,工作人员混合现实设备10a和管理服务器60可以设定用于话音通信的连接。在这种情况下,指导者混合现实设备10b还可以设定用于与管理服务器60进行话音通信的连接。通过上面的设定,工作人员和指导者可以用扬声器27a和27b(即,话音输出装置)和麦克风28a和28b(即,话音输入装置)相互交谈。
在步骤S130中,可以通过图像输入部分12将由安装在工作人员的HMD20a上的摄像机22捕获的图像输入到图像组合部分15。摄像机22包括与工作人员的两只眼睛对应的左(L)眼摄像机和右(R)眼摄像机。从各个摄像机发送出的图像可以存储在图像组合部分15的不同缓存器中。
在下一个步骤S140中,工作人员的头部的位置和取向可以从HMD三维位置传感器21a发送给位置和取向测量部分11a。该位置和取向测量部分11a可以产生出在世界坐标系中的那组6参数数据。
在下一个步骤S150中,可以将工作人员的指示笔41a的三维位置和取向信息发送给位置和取向测量部分11a。从指示笔41a获得的数据具有与从上述HMD三维位置传感器21a获得的数据类似的模式。
在步骤S160中,在步骤S150中获得的工作人员指示笔的位置和取向信息可以作为事件通过虚拟对象传送/接收部分31a传送给管理服务器60。
在步骤S170中,判断是否按压了工作人员指示笔的第一或第二按键。在按压了第一或第二按键时(即,步骤S170“是”中的“是”),控制处理前进至步骤S180。否则,控制处理前进至步骤S190。
在步骤S180,可以通过虚拟对象传送/接收部分31a将按键按压事件发送给管理服务器60。
在步骤S190,虚拟对象传送/接收部分31a能够从管理服务器60接收作为事件的与工作人员的指示标、指导者的指示标以及虚拟对象有关的信息。
在步骤S210中,可以根据在步骤S190中所获得的变化信息来改变存储在图像生成部分13中的场景图形。
在步骤S220中,可以将反映操作结果的虚拟对象的场景图形、工作人员的指示标41a和指导者的指示标41b生成为从摄像机的视点(位置和取向)获得的左眼图像和右眼图像。可以在图像组合部分15中将所生成的图像盖写在左眼摄像机图像和右眼摄像机图像上。
这样,可以获得虚拟对象和真实对象的组合图像。三维位置和取向传感器21a、左眼摄像机22L和右眼摄像机22R处于固定的位置关系中。这样,可以通过进行校准预先获得转换公式。可以使用所获得的转换公式来确定摄像机视点的位置和取向。
在下一个步骤S240中,图像组合部分15中的左眼组合图像和右眼组合图像可以分别显示在工作人员HMD20a的左眼显示单元23aL和右眼显示单元23aR上。
在步骤S250中,可以在视频编码部分32a中将与显示在工作人员的HMD20a的显示单元23a上的图像相同的双眼图像编码。可以通过视频传送部分33a将编码图像传送给管理服务器60的视频通信管理部分65。
在下一个步骤S260中,判断是否输入了工作人员混合现实设备10a的终止命令。在输入了终止命令时(即,在步骤S260中为“是”),该处理流程前进至步骤S270以执行话音通信完成处理。否则,该处理流程返回到步骤S130。
在步骤S270中,工作人员混合现实设备10a可以终止话音通信处理。然后,在步骤S280中,工作人员混合现实设备10a可以在终止该程序的处理之前断开与管理服务器60的通信。
图4为一流程图,显示出用来指示和支持在混合现实工作空间中的工作的指导者混合现实设备10b的操作。
在步骤S300中,可以将指导者混合现实设备10b初始化。该步骤中的初始化包括设置指导者所在的空间的世界坐标系,这是由位置和取向测量部分11b来执行的。与工作人员混合现实设备10a的传感器类似,将在后面描述的指导者混合现实设备10b的传感器可以产生由在该坐标系中限定的6个参数的数据组构成的输出。
在下一步骤S310中,指导者混合现实设备10b可以通过网络与管理服务器60建立连接,用于传输和接收数据。
在步骤S320中,指导者混合现实设备10b和工作人员混合现实设备10a可以通过管理服务器60的话音通信管理部分66开始话音通信。通过上面的设定,指导者和工作人员可以用扬声器27a和27b(即,话音输出装置)和麦克风28a和28b(即,话音输入装置)相互交谈。
在步骤S330中,可以从HMD三维位置传感器21b将指导者视点的位置和取向(xh,yh,zh,αh,βh,γh)输入给位置和取向测量部分11b。另外,可以将指导者的指示笔41b的三维位置和取向信息(xs,ys,zs,αs,βs,γs)输入给位置和取向测量部分11b。这些位置和取向数据是在指导者所处的空间的世界坐标系中限定的。可以将指示笔41b的位置和取向转换成从指导者的视点看的相对位置和取向。因此,可以计算出指导者的指示笔相对位置(xd,yd,zd,αd,βd,γd)=(xs-xh,ys-yh,zs-zh,αs-αh,βs-βh,γs-γh)。
在步骤S340中,在步骤S330中计算出的指导者的指示笔相对位置可以通过虚拟对象传送部分31b传送给管理服务器60的虚拟对象通信管理部分61。
在步骤S350中,视频接收部分33b能够从管理服务器60的视频通信管理部分65接收左眼图像和右眼图像。可以在视频解码部分32b中对左眼图像和右眼图像两者进行解码。
在步骤S360中,可以将解码的左眼和右眼图像显示在指导者的HMD20b的左眼显示单元23bL和右眼显示单元23bR上。
在下一个步骤S370中,判断是否输入了指导者混合现实设备10b的终止命令。在输入了终止命令时(即,在步骤S370中为“是”),处理流程前进至步骤S400以执行话音通信终止处理。否则,该处理流程前进至步骤S380。
在步骤S380中,判断是否存在可以在指导者点击指示笔按键时产生出的按键事件。在产生出按键事件时(即,在步骤S380中为“是”),则处理流程前进至步骤S390。否则,处理流程返回到步骤S330以重复上述处理。
在步骤S390中,指导者混合现实设备10b可以将该事件传送给管理服务器60的虚拟对象通信管理部分61。然后,该处理流程返回到步骤S330。
在步骤S400中,指导者混合现实设备10b可以终止该话音通信处理。然后,在步骤S410中,指导者混合现实设备10b可以在终止该例程的处理之前断开与管理服务器60的通信。
接下来将参照图5A、5B和5C对在管理服务器60中进行的各种事件处理进行说明。图5A为一流程图,显示出指示笔位置信息处理。
虚拟对象通信管理部分61能够从工作人员和指导者两者接收指示笔位置信息。管理服务器60响应于工作人员的指示笔位置信息的输入开始步骤S510的处理。在步骤S514中,管理服务器60将由6个参数表示的工作人员指示笔信息反映为存储在虚拟对象管理部分62中的场景图形的指示标信息。
在步骤S516中,参照在图9所示的虚拟对象操作表判断工作人员当前是否正在用指示笔操作虚拟对象。由工作人员操作物品ID和指导者操作物品ID两栏构成的虚拟对象操作表显示出由工作人员和指导者当前所操作的虚拟对象。更具体地说,从图9的表中,知道工作人员正在操作具有存储在工作人员操作物品ID栏中的ID的虚拟对象,同时指导者正在操作具有存储在指导者操作物品ID栏中的ID的虚拟对象。在当前没有操作任何虚拟对象时,将“空”存储在表中。
当有与工作人员操作物品ID对应的虚拟对象的ID存储在表中时(在步骤S516中为“是”),则工作人员当前正在操作具有所标ID的虚拟对象。该处理流程前进至步骤S517。另一方面,在将“空”存储在表中时(即,在步骤S516中为“否”),则工作人员当前没有操作任何虚拟对象。该处理流程前进至步骤S518。
在步骤S517中,管理服务器60将虚拟对象移动到指示笔位置,并且改变存储在虚拟对象管理部分62中的场景图形。在步骤S518中,管理服务器60在终止该例程的处理之前,将指示笔位置和虚拟对象操作事件两者传送给工作人员混合现实设备10a。
当接收到指导者的指示笔位置信息时,管理服务器60开始步骤S520的处理。在步骤S522中,管理服务器60将从指导者视点看到的指导者指示笔的相对位置信息转换成从所选摄像机视点看到的相对位置信息。更具体地说,在步骤S330中所获得的指导者的指示笔相对位置(xd,yd,zd,αd,βd,γd)可以转换成工作人员空间世界坐标,作为从所选摄像机视点看到的相对位置。也就是说,当这些坐标(xw,yw,zw,αw,βw,γw)表示摄像机视点时,指导者的指示笔具有坐标(xw+xd,yw+yd,zw+zd,αw+αd,βw+βd,γw+γd)。可以从在下文描述的图10所示的表的第二栏中获得所选摄像机的视点位置。
在步骤S524中,管理服务器60将在步骤S522中获得的指导者的指示笔信息反映成存储在虚拟对象管理部分62中的场景图形的指示标信息。在步骤S526中,参照在图9所示的虚拟对象操作表判断指导者当前是否正在用指示笔操作虚拟对象。
当有与指导者操作物品ID对应的虚拟对象的ID存储在该表中时(即,在步骤S526中为“是”),则指导者当前正在操作具有所标ID的虚拟对象。该处理流程前进至步骤S527。另一方面,当将“空”存储在表中时(即,在步骤S526中为“否”),则指导者当前没有操作任何虚拟对象。该处理流程前进至步骤S528。
在步骤S527中,管理服务器60将虚拟对象移动到指导者的指示笔位置,并且改变存储在虚拟对象管理部分62中的场景图形。在步骤S528中,管理服务器在终止该例程的处理之前,将指示笔指示标变化事件和虚拟对象操作事件传送给工作人员混合现实设备10a。
图5B显示出视点变化按键事件处理。当指导者按压指示笔的第二按键时,该事件可以由虚拟对象通信管理部分61接收并且发送给虚拟对象管理部分62。图10的摄像机管理表显示出指导者可以选择作为用于观察混合现实空间的视点的多个摄像机视点。图10的表包括在第一栏所列出的多个摄像机ID。根据该例子,除了工作人员摄像机之外还有总共n个摄像机。
该表的第二栏列出了由在工作人员空间的世界坐标系中所限定的6参数数据组表示的摄像机视点的位置数据。该表的第三栏显示出表示当前正在为指导者提供视点的摄像机的“标记”状态。只有一个摄像机(根据图10的例子为摄像机I)具有On标记标记,而其它摄像机具有Off标记标记。这意味着可以通过摄像机I提供指导者的视点图像。
当在这种情况下按压指导者的指示笔的第二按键时,On标记移动到摄像机II,并且摄像机I具有Off标记。这样,每次按压按键时,指导者的视点摄像机可以按照在图10的表所示的顺序连续变化(被选择)。根据该顺序,最后可以选择工作人员的摄像机,接下来再次选择摄像机I。在步骤S530中,如上所述,On标记从当前所选的摄像机移动到下一个摄像机。
在下一个步骤S532中,虚拟对象管理部分62将终止命令发送给视频通信管理部分65以终止当前视频连接。视频通信管理部分65然后断开视频通信。在步骤S534中,视频通信管理部分65参照在图10所示的摄像机管理表开始新的视频通信连接。当具有On标记的摄像机为摄像机服务器的摄像机时,可以将所选摄像机的图像信息输入到图像组合部分64中。
当具有On标记的摄像机为工作人员的摄像机时,没有图像信号从图像组合部分64输入给视频通信管理部分65。相反,可以在终止该例程的处理之前从话音通信管理部分66将工作人员混合现实设备10a的输出传送给指导者混合现实设备10b。这样,指导者能够切换混合现实视频的视点。
图5C显示出操作按键处理。当按压工作人员的指示笔按键时,步骤S550的工作人员按键处理开始。当按压指导者的指示笔的第一按键时,步骤S570的指导者按键处理开始。
在工作人员按键事件处理的步骤S552中,通过检查在图9所示的工作人员操作物品ID来判断工作人员当前是否正在操作某一个虚拟对象。当工作人员操作物品ID为空时(即,在步骤S552中为“否”),工作人员当前没有操作任何虚拟对象,从而该处理流程前进至步骤S556。当存储有任一个操作物品ID时(即,在步骤S552中为“是”),则工作人员当前正在操作虚拟对象,从而处理流程前进至步骤S554。
在步骤S554中,管理服务器60将在图9所示的工作人员操作物品ID的内容重写为零,并且终止工作人员按键事件处理。
在步骤S556中,管理服务器60将存储在虚拟对象管理部分62中的当前工作人员指示笔位置与处于工作人员混合现实空间中的所有虚拟对象的位置进行比较,并且前进至步骤S558。
在步骤S558中,根据比较结果判断是否存在处于预定距离内的虚拟对象(即,该距离是否在一阈值范围内)。当有这样的虚拟对象时(即,在步骤S558中为“是”),将该虚拟对象(例如,在多个虚拟对象的情况下最近的一个)识别为操作对象。该处理流程前进至步骤S560。否则,该管理服务器60终止工作人员按键事件处理。
在步骤S560中,判断在步骤S558中所获得的操作对象ID是否与在图9所示的指导者操作物品ID一致。当所比较的ID相互一致时(即,在步骤S560中为“是”),则指导者当前正在操作所标识的虚拟对象。管理服务器60终止工作人员按键事件处理。当所比较的ID彼此不一致时(即,在步骤S560中为“否”),则该处理流程前进至步骤S562。
在步骤S562中,管理服务器60在终止工作人员按键事件处理之前,将在步骤S558中所获得的操作对象ID作为工作人员操作物品ID写入到图9的表中。
另一方面,在指导者按键事件处理的步骤S571中,管理服务器60通过进行与图5A的步骤S522类似的处理,将指导者的指示笔位置转变成工作人员的世界坐标。虚拟对象管理部分62存储所转换的指导者指示笔位置。
在步骤S572中,通过检查在图9所示的指导者操作物品ID来判断指导者是否正在操作任一个虚拟对象。当指导者操作物品ID为空时(即,在步骤S572中为“否”),则指导者当前没有操作任何虚拟对象,因此该处理流程前进至步骤S576。当存储有指导者操作物品ID时(即,在步骤S572中为“是”),指导者当前正在操作虚拟对象,于是该处理流程前进至步骤S574。
在步骤S574中,管理服务器60将在图9所示的指导者操作物品ID的内容重写为空并且终止该接收事件处理。
在步骤S576中,管理服务器60将存储在虚拟对象管理部分62中的当前指导者指示笔位置与处于工作人员混合现实空间中的所有虚拟对象的位置进行比较,获得距离。
在步骤S578中,根据比较结果判断是否存在处于预定距离内的虚拟对象(即,该距离是否在一阈值范围内)。当存在这样的虚拟对象时(即,在步骤S578中为“是”),将该虚拟对象(例如,在多个虚拟对象的情况下的最近一个)识别为操作对象。该处理流程前进至步骤S580。否则,该管理服务器60终止接收事件处理。
在步骤S580中,判断在步骤S578中所获得的操作对象ID是否与在图9所示的工作人员操作物品ID一致。当所比较的ID相互一致时(即,在步骤S580中为“是”),则工作人员当前正在操作所标识的虚拟对象。管理服务器60使接收事件处理终止。
当所比较的ID彼此不一致时(即,在步骤S580中为“否”),处理流程前进至步骤S582。在步骤S582中,管理服务器60在使接收事件处理终止之前将在步骤S578中所获得的操作对象ID作为指导者操作物品ID写入到图9的表中。
在图9所示的工作人员操作物品ID和指导者操作物品ID可以由多个过程(或线程)访问。管理服务器60重写该表的内容,同时阻止从其它过程(或线程)进行访问。这样,管理服务器60能够管理每个虚拟对象的操作权限。
该示例性实施方案使用了两个设置在工作人员空间中的摄像机。但是,上述处理即使在摄像机的总数为三个或多个时也很容易进行。另外,三维位置和取向传感器21a和21b和指示笔41a和41b不限于磁性类型,而是可以用光学类型或任意其它类型代替。另外,虚拟对象43不限于真实对象的CG模型。上述处理能够类似地应用于任何其它虚拟对象。
代替使用上述HMD20b,指导者可以使用立体显示器。在这种情况下,立体显示器能够用作设置在指导者空间中的如图2B所示的显示单元23b。当该显示单元为偏振光类型或液晶快门类型时,指导者可以戴上偏振光眼镜或液晶快门眼镜,而不是使用HMD。
另外,根据双凸透镜方法,指导者可以在不使用任何眼镜的情况下观察到立体图像。但是,无论在什么情况下,显示单元必须配备有三维位置和取向传感器,以测量出指导者头部的位置和取向。
根据上述示例性实施方案,在远处的指导者可以通过选择多个摄像机视点中的所期望的一个,包括工作人员的HMD摄像机视点,来观看混合现实视频,从而无缝地感知工作人员的空间。因此,指导者能够将三维工作指令给予工作人员。
另外,在远处的多个参与者可以通过选择多个摄像机视点中的所期望的一个来观看混合现实视频,以无缝地感知工作人员的空间。因此,处于远处的多个参与者能够很容易进行三维协同工作。
第二示例性实施方案
根据第一示例性实施方案,指导者可以在设置在工作人员空间中的摄像机和工作人员的头戴式摄像机之中选择所期望的视点。但是,工作人员不能立即知道指导者的视点。为了解决这个问题,第二示例性实施方案使得工作人员能够确认显示出指导者的视点位置的标识符。
更具体地说,指导者的指示标41b能够根据摄像机视点改变其颜色。例如,在图2A中,当指导者选择摄像机70a的视点时,指导者的指示标41b转为绿色。当选择摄像机70b的视点时,指导者的指示标41b转为蓝色。当选择工作人员的摄像机视点时,指导者的指示标41b转为红色。通过这种设定,工作人员能够很容易感知到指导者的视点。
下面将对根据第二示例性实施方案的操作进行更详细说明。在图10所示的第一示例性实施方案的摄像机管理表可以改为如图11所示。图11的表包括用来表示与各个摄像机对应的颜色信息的附加栏,从而指示标41b能够响应于对摄像机的选择,参照该表的颜色信息来改变其颜色。
管理服务器60能够通过以下过程来实现该处理。首先,当在图5B所示的步骤S530中选择新的摄像机时,管理服务器60所示产生颜色改变事件(即,用于改变指示标41b的颜色的事件)。然后,管理服务器60改变存储在虚拟对象通信管理部分61中的场景图形。然后,将该颜色改变事件传送给工作人员混合现实设备10a。
作为用于使得工作人员能够识别指导者的视点位置的另一种方法,可以将指导者面部的具体形象或任意其它标识符显示在设在工作人员空间中的摄像机附近,或者可以将它叠加在该摄像机上。根据该方法,工作人员在工作人员将其面部转向摄像机时能够立即确认指导者的视点位置。
为了实现该操作,当在步骤S530中选择新的摄像机时,管理服务器60能够将CG生成事件(即,用于在摄像机位置处或其附近生成标识符的CG的事件)传送给虚拟对象通信管理部分61,并且传送给工作人员混合现实设备10a。
上述处理能够很容易进行,因为预先已经知道在工作人员空间的世界坐标系中的摄像机位置。另外,为了将该标识符与其它虚拟对象区分开,可以将用于禁止操作标识符CG的特定属性赋予该标识符。
另外,除了上述处理之外,管理服务器60可以将CG删除事件(即,用于删除为前一摄像机显示的CG的事件)传送给虚拟对象通信管理部分61,并且传送给工作人员混合显示设备10a。
如上所述,显示用于表示在工作人员空间中的指导者视点的适当标识符使得工作人员能够很容易感知到指导者的视点。因此,可以改善远程工作效率。
第三示例性实施方案
根据第一示例性实施方案,只有一个处于远处的指导者能够支持工作人员。如果该系统能够允许多个远程操作人员来共享工作人员混合现实空间,则该系统的可用性能够得到进一步改进。
图6A和6B图解了第三示例性实施方案的构思。图6A和6B的操作状态与图2A、2B和2C的不同之处在于,两个远程参与者50b和50c能够共享图6A所示的工作人员混合现实空间。
远程参与者50c的指示标41c能够被显示在工作人员混合现实空间中,并且能够由所有参与者共享。远程参与者50b和50c能够分别观看显示在图6B所示的显示单元23b和23c上的图像。根据该实施例,远程参与者50b正在从摄像机70a的视点观看工作人员混合现实空间,并且远程参与者50c正在从摄像机70b的视点进行观察。
与第一示例性实施方案类似,每个远程参与者的指示笔包括第一和第二按键(未示出)。可以使用第一按键来保持或释放虚拟对象,同时可以使用第二按键来切换摄像机视点位置。
例如,在图6B的情况中,远程参与者50b能够通过按压指示笔的第二按键,将视点位置从摄像机70a切换到摄像机70b。另外,远程参与者50b能够通过再次按压指示笔的第二按键,将视点位置从摄像机70b切换至工作人员的摄像机。另外,远程参与者50b能够通过再次按压指示笔的第二按键来将视点位置从工作人员摄像机切换到摄像机70a。
类似地,远程参与者50c能够通过按压指示笔的第二按键来连续地切换视点位置。远程参与者能够选择相同的视点,但是只允许一个参与者操作虚拟对象。
图7显示出根据第三示例性实施方案的远程混合现实共享系统的实施例。在图7所示的布置包括两个远程参与者混合现实设备10b和10c,每个都具有与图1所示的指导者混合现实设备10b的布置相同的布置。
参与者混合现实设备10b与在图1所示的与管理服务器60相关的指导者混合现实设备10b没有什么不同。参与者混合现实设备10c具有与管理服务器60的话音通信管理部分66连接的话音传送和接收部分35c、与管理服务器60的话音视频通信管理部分65连接的视频接收部分66和与管理服务器60的虚拟对象通信管理部分61连接的虚拟对象传送部分31c。
虽然该例子显示出两个远程参与者,但是可以通过提供与管理服务器60连接的另外的远程参与者混合现实设备来增加远程参与者的总数。
下面将与第一示例性实施方案相比较来说明第三示例性实施方案的处理。与工作人员混合现实设备10a相关的处理与在图3所示的流程图没有什么不同。与远程参与者混合现实设备10b和10c相关的处理与在图4所示的流程图没有什么不同。与管理服务器60相关的处理与图5A、5B和5C的流程图不同,因为增加了与管理服务器60连接的远程设备的数量。
图8A、8B和8C为流程图,显示出在根据第三示例性实施方案的管理服务器60中进行的部分接收事件处理。
该虚拟对象通信管理部分61能够接收与工作人员的指示笔位置和远程参与者的指示笔位置相关的信息。用于工作人员指示笔位置信息的处理与第一示例性实施方案中的处理没有不同。管理服务器60在图8A的步骤S600开始远程参与者的指示笔位置事件处理。
在步骤S602中,管理服务器60将从参与者视点看到的远程参与者指示笔的相对位置信息转换成从所选摄像机的视点看到的相对位置信息。在这种情况下,可以从图13的第二栏中获得所选摄像机的视点位置。
在步骤S604中,管理服务器60能够将在步骤S602中获得的远程参与者指示笔信息反映成存储在虚拟对象管理部分62中的场景图形的指示标信息。在步骤S608中,参照在图12所示的虚拟对象管理表来判断远程参与者是否正在用指示笔操作虚拟对象。
虚拟对象管理表为一矩阵,显示出工作人员和远程参与者当前正在操作的虚拟对象、列在第一栏中的虚拟对象的类型以及在随后的栏中显示出的工作人员和远程参与者。
管理服务器60能够使用该虚拟对象管理表来管理参与者对虚拟对象的操作。根据图12的实施例,远程参与者A正在操作虚拟对象I,并且远程参与者B正在操作虚拟对象III。对于每个参与者而言,将On标记放入到参与者当前正在操作的虚拟对象的行中。否则将“空”存储在该单元中。从该表中可以理解,每个虚拟对象只能由一个参与者操作。
根据该处理,管理服务器60检查已经传送了指示笔位置事件的远程参与者栏。当存在具有On标记的虚拟对象时(即,在步骤S608中为“是”),该远程参与者当前正在操作该虚拟对象。该处理流程前进至步骤S610。
否则,该远程参与者当前没有操作任何虚拟对象,于是该处理流程前进至步骤S612。在步骤S610中,管理服务器60将虚拟对象移动到指示笔位置,并且改变场景图形。
在步骤S612中,管理服务器60在使该例程的处理终止之前,将指示笔位置和虚拟对象操作事件传送给工作人员混合现实设备10a。
图8B显示出视点变化按键事件处理。当远程参与者按压指示笔的第二按键时,该事件能够由虚拟对象通信管理部分61接收到并且发送给虚拟对象管理部分62。
图13的摄像机管理表显示出远程参与者能够选择作为用于观察混合现实空间的视点的多个摄像机视点。图13的表包括多个列在第一栏中的摄像机ID。根据该例子,除了工作人员摄像机之外还存在总共n个摄像机。
该表的第二栏列出了由在工作人员空间的世界坐标系中所限定的6参数数据组表示的摄像机视点的位置数据。该表的第三栏和随后各栏显示出当前为远程指导者提供视点的摄像机的“标记”的状态。根据该例子,远程参与者B正在从摄像机I的视点观察,并且远程参与者C正在从摄像机n的视点进行观察。
如果远程参与者B在这种情况下按压了指示笔的第二按键,On标记就从摄像机I移动至摄像机II。
这样,在每次按压该按键时,远程参与者的视点摄像机能够按照在图13的表中所示的顺序连续变化(被选择)。根据该顺序,最后可以选择工作人员摄像机,然后可以再次选择摄像机I。
在步骤S630中,如上所述,On标记从当前所选的摄像机移动到下一个摄像机。在下一个步骤S632中,虚拟对象管理部分62将终止命令发送给视频通信管理部分65以终止当前的视频连接。该视频通信管理部分65然后使视频通信断开。
在步骤S634中,视频通信管理部分65参照在图13所示的摄像机管理表,开始新的视频通信连接。当具有On标记的摄像机为摄像机服务器的摄像机时,可以将所选摄像机的图像信号输入到图像组合部分64中。
当具有On标记的摄像机为工作人员的摄像机时,没有图像信号可以从图像组合部分64输入给视频通信管理部分65。相反,可以在终止该例程的处理之前,从话音通信管理部分66将工作人员混合现实设备10a的输出传送给相应的远程参与者混合现实设备10b。这样,远程参与者能够通过切换视点来观看混合现实视频。
在图8C所示的指导者按键事件处理的步骤S671中,管理服务器60通过进行与图8A的步骤S602类似的处理将远程参与者的指示笔位置转换成工作人员的世界坐标。虚拟对象管理部分62存储经过转换的远程参与者指示笔位置。
在步骤S672中,通过检查图12所示的远程参与者操作物品ID,判断已经传送了按键事件的远程参与者当前是否正在操作虚拟对象。当不存在任何On标记时(即在步骤S672中为“否”),该远程参与者当前没有操作任何虚拟对象,因此处理流程前进至步骤S676。当存在On标记时(即,在步骤S672中为“是”),该远程参与者当前正在操作虚拟对象,因此处理流程前进至步骤S674。
在步骤S674中,管理服务器60将图12所示的相应远程参与者的栏重写为“空”并且终止该例程的处理。在步骤S676中,管理服务器60将存储在虚拟对象管理部分62中的当前远程参与者的指示笔位置与处于工作人员混合现实空间中的所有虚拟对象的位置进行比较,以获得距离。
在步骤S678中,根据比较结果判断是否存在处于预定距离内的虚拟对象(即,该距离是否在一阈值范围内)。当存在这样的虚拟对象时(即,在步骤S678中为“是”),将该虚拟对象(例如,在多个虚拟对象的情况下,最近的一个)识别为操作对象。该处理流程前进至步骤S680。否则,该管理服务器60终止接收事件处理。
在步骤S680中,判断在步骤S678中所获得的操作对象ID是否与在图12所示的工作人员操作物品ID一致。当在虚拟操作对象的行中有On标记时(即,在步骤S680中为“是”),则另一个参与者当前在操作所标记的虚拟对象。管理服务器60使接收事件处理终止。
当在虚拟操作对象的行中没有On标记时(即,在步骤S680中“否”),处理流程前进至步骤S682。在步骤S682中,管理服务器60在使远程参与者按键处理结束之前,将在步骤S678中所获得的操作对象ID分配到在图12的表中的On标记。通过上述处理,多个远程参与者能够从多个视点观察工作人员混合现实空间,并且可以指示或操作共享虚拟对象。
第四实施方案
根据第三示例性实施方案,远程参与者能够在设置在工作人员空间中的摄像机和工作人员的头戴式摄像机之中选择所期望的视点。但是,工作人员不能立即知道远程参与者的视点。为了解决这个问题,第四示例性实施方案使得工作人员能够确认显示出远程参与者的视点位置的标识符。
为此,可以将指导者面部的具体形象或任意其它标识符显示在设在工作人员空间中的摄像机附近,或者可以将它叠加在该摄像机上。根据该方法,工作人员在工作人员将其面部转向摄像机时能够立即确认远程指导者的视点位置。
为了实现该操作,当在步骤S630中选择新的摄像机时,管理服务器60能够将CG生成事件(即,用于在摄像机位置处或其附近生成标识符的CG的事件)传送给虚拟对象通信管理部分61,并且传送给工作人员混合现实设备10a。
上述处理能够很容易进行,因为预先已经知道在工作人员空间的世界坐标系中的摄像机位置。
另外,为了将该标识符与其它虚拟对象区分开,可以将用于禁止操作标识符CG的特定属性赋予该标识符。
另外,除了上述处理之外,管理服务器60可以将CG删除事件(即,用于删除为前一摄像机显示的CG的事件)传送给虚拟对象通信管理部分61,并且传送给工作人员混合显示设备10a。
如上所述,在工作人员空间中显示用于表示远程指导者视点的适当标识符使得不仅工作人员而且还有远程参与者能够很容易感知到另一个参与者的视点。因此,可以改善远程工作效率。
作为面部的CG的替换方案,该标识符可以为表示另一个参与者的姓名的文本数据或颜色标识符。当多个远程参与者共享相同的摄像机视点时,这些远程参与者的标识符应该按照彼此区分开的方式显示。
第五示例性实施方案
根据第三示例性实施方案,将立体摄像机固定在工作人员空间中。但是立体摄像机可以是可动的,例如允许摇摄和俯仰运动,或者可以安装在汽车上。在这种情况下,可以用安装在摄像机上的三维位置和取向传感器实时地测量摄像机的视点位置和取向。
可以通过在摄像机的操作期间时刻测量出摄像机位置和取向,并且将所测量出的结果(即,摄像机视点位置坐标)存储在图12的表中,来实现与第三示例性实施方案相同的操作。
当远程参与者需要输入设备来移动和控制摄像机时,为该目的可以在指示笔上设置操纵杆或其他相当的装置。
另外,为了避免来自多个参与者的摄像机操作请求相互冲突,管理服务器60或摄像机服务器70a和70b应该具有基于公知技术的操作权限管理功能。
如上所述,多个远程参与者能够从多个摄像机视点观察工作人员混合现实空间,并且也能够从远处控制视点位置和取向。因此,可以实现改进的远程协作支持系统。
虽然已经参照了示例性实施方案对本发明进行了说明,但是要理解的是,本发明不限于所披露的示例性实施方案。要将下面权利要求的范围给予最宽的解释以便涵盖所有变型、等同结构和功能。
Claims (6)
1.一种信息处理方法,用于使得第二用户能够共享包括叠加在第一用户所处空间中的虚拟对象的混合现实空间图像,该方法包括:
第一图像获取步骤,用于根据来自安装在第一用户上的第一立体摄像部分的立体视频数据和基于第一立体摄像部分的位置和取向产生的虚拟对象图像获得第一立体图像;
第二图像获取步骤,用于根据来自设在第一用户所处空间中的第二立体摄像部分的立体视频数据和基于第二立体摄像部分的位置和取向产生的虚拟对象图像来获取第二立体图像;
选择步骤,根据所述第二用户的指令从第一立体图像和第二立体图像中选择图像;以及
显示步骤,用于将所选的图像显示给所述第二用户。
2.如权利要求1所述的信息处理方法,还包括:
操作对象位置获取步骤,用于获得由所述第二用户操作的操作对象的位置;
第二用户位置和取向获取步骤,用于获取所述第二用户的位置和取向;以及
相对位置信息获取步骤,用于获取表示操作对象相对于所述第二用户的位置和取向的位置的相对位置信息。
3.如权利要求2所述的信息处理方法,还包括:
生成步骤,用于参照操作对象的相对位置信息和第一和第二立体摄像部分中与所选图像对应的的一个的位置和取向,根据第一立体摄像部分的位置和取向生成操作对象虚拟图像;
组合步骤,用于将操作对象虚拟图像与第一立体图像组合以产生合成图像;以及
显示步骤,用于将合成图像显示给第一用户。
4.如权利要求2所述的信息处理方法,还包括:
识别图像生成步骤,用于生成表示所选图像的识别图像;
识别图像组合步骤,用于将识别图像与第一立体图像组合以生成合成图像;
显示步骤,用于将在识别图像组合步骤中生成的合成图像显示给第一用户。
5.如权利要求4所述的信息处理方法,其中识别图像为操作对象的虚拟图像,并且操作对象的虚拟图像的颜色根据所选图像变化。
6.一种信息处理设备,用于使得第二用户能够共享包括叠加在第一用户所处空间中的虚拟对象的混合现实空间图像,该设备包括:
第一图像获取单元,用于根据来自安装在第一用户上的第一立体摄像部分的立体视频数据和基于第一立体摄像部分的位置和取向产生的虚拟对象图像获得第一立体图像;
第二图像获取单元,用于根据来自设在第一用户所处空间中的第二立体摄像部分的立体视频数据和基于第二立体摄像部分的位置和取向产生的虚拟对象图像来获取第二立体图像;
选择单元,根据所述第二用户的指令从第一立体图像和第二立体图像中选择图像;以及
显示单元,用于将所选的图像显示给所述第二用户。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005-112108 | 2005-04-08 | ||
JP2005112108A JP4738870B2 (ja) | 2005-04-08 | 2005-04-08 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP2005112108 | 2005-04-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1845064A true CN1845064A (zh) | 2006-10-11 |
CN100426218C CN100426218C (zh) | 2008-10-15 |
Family
ID=36685884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2006100733008A Expired - Fee Related CN100426218C (zh) | 2005-04-08 | 2006-04-07 | 信息处理方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7532224B2 (zh) |
EP (1) | EP1710002A1 (zh) |
JP (1) | JP4738870B2 (zh) |
CN (1) | CN100426218C (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101174332B (zh) * | 2007-10-29 | 2010-11-03 | 张建中 | 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统 |
CN102194254A (zh) * | 2010-03-04 | 2011-09-21 | 索尼公司 | 信息处理设备、信息处理方法,和程序 |
CN102281455A (zh) * | 2010-06-11 | 2011-12-14 | 任天堂株式会社 | 图像显示系统、装置以及方法 |
CN102571624A (zh) * | 2010-12-20 | 2012-07-11 | 英属维京群岛商速位互动股份有限公司 | 实时通信系统及相关的计算器可读介质 |
CN102668556A (zh) * | 2010-12-17 | 2012-09-12 | 松下电器产业株式会社 | 医疗支援装置,医疗支援方法以及医疗支援系统 |
CN102695032A (zh) * | 2011-02-10 | 2012-09-26 | 索尼公司 | 信息处理装置、信息共享方法、程序以及终端设备 |
CN103004187A (zh) * | 2010-05-17 | 2013-03-27 | 株式会社理光 | 多地点绘制图像共享装置、多地点绘制图像共享系统、由多地点绘制图像共享装置执行的方法、程序和记录介质 |
CN103064188A (zh) * | 2011-11-30 | 2013-04-24 | 微软公司 | 基于头戴式显示器的教育和指导 |
CN103714749A (zh) * | 2012-10-09 | 2014-04-09 | 三星电子株式会社 | 透明显示装置及其控制方法 |
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
CN105759960A (zh) * | 2016-02-02 | 2016-07-13 | 上海尚镜信息科技有限公司 | 一种结合3d摄像头的增强现实远程指导方法和系统 |
CN105843396A (zh) * | 2010-03-05 | 2016-08-10 | 索尼电脑娱乐美国公司 | 在共享的稳定虚拟空间上维持多视图 |
CN105975232A (zh) * | 2016-05-06 | 2016-09-28 | 深圳市吾悦科技有限公司 | 增强现实实时交互系统及方法 |
CN107305435A (zh) * | 2016-04-18 | 2017-10-31 | 迪斯尼企业公司 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
CN107645651A (zh) * | 2017-10-12 | 2018-01-30 | 北京临近空间飞艇技术开发有限公司 | 一种增强现实的远程指导方法和系统 |
CN107741785A (zh) * | 2017-10-12 | 2018-02-27 | 北京临近空间飞艇技术开发有限公司 | 一种保护前端安全的远程指导方法和系统 |
CN108462729A (zh) * | 2017-02-17 | 2018-08-28 | 北京三星通信技术研究有限公司 | 实现终端设备交互的方法和装置、终端设备及服务器 |
CN110809750A (zh) * | 2017-06-15 | 2020-02-18 | 微软技术许可有限责任公司 | 在保持物理性质的同时虚拟地表示空间和对象 |
CN111372098A (zh) * | 2015-01-21 | 2020-07-03 | 微软技术许可有限责任公司 | 用于共享场景网格数据同步的用户设备、系统、方法及可读介质 |
CN111902849A (zh) * | 2018-04-09 | 2020-11-06 | 昕诺飞控股有限公司 | 在图像上叠加传感器及其检测区域的虚拟表示 |
CN112584236A (zh) * | 2020-12-30 | 2021-03-30 | 米哈游科技(上海)有限公司 | 图像擦除方法、装置、电子设备及存储介质 |
CN112584235A (zh) * | 2020-12-30 | 2021-03-30 | 米哈游科技(上海)有限公司 | 图像擦除方法、装置、电子设备及存储介质 |
CN112860198A (zh) * | 2021-01-05 | 2021-05-28 | 中科创达软件股份有限公司 | 视频会议的画面切换方法、装置、计算机设备及存储介质 |
US11043033B2 (en) | 2016-11-21 | 2021-06-22 | Sony Corporation | Information processing device and information processing method capable of deciding objects arranged in virtual space generated based on real space |
CN113672087A (zh) * | 2021-08-10 | 2021-11-19 | Oppo广东移动通信有限公司 | 远程交互方法、装置、系统、电子设备以及存储介质 |
Families Citing this family (121)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050248566A1 (en) * | 2004-04-05 | 2005-11-10 | Vesely Michael A | Horizontal perspective hands-on simulator |
CN101065783A (zh) * | 2004-04-05 | 2007-10-31 | 迈克尔·A·韦塞利 | 水平透视显示 |
US20050219240A1 (en) * | 2004-04-05 | 2005-10-06 | Vesely Michael A | Horizontal perspective hands-on simulator |
US20050275915A1 (en) | 2004-06-01 | 2005-12-15 | Vesely Michael A | Multi-plane horizontal perspective display |
US20060250391A1 (en) | 2005-05-09 | 2006-11-09 | Vesely Michael A | Three dimensional horizontal perspective workstation |
US8717423B2 (en) | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
JP4933164B2 (ja) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラムおよび記憶媒体 |
US8730156B2 (en) | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
JP2008009140A (ja) * | 2006-06-29 | 2008-01-17 | Fujitsu Ltd | 画像処理装置および画像処理方法 |
JP2008270911A (ja) * | 2007-04-16 | 2008-11-06 | Ntt Docomo Inc | 制御装置、移動通信システム及び通信端末 |
FR2917931A1 (fr) * | 2007-06-22 | 2008-12-26 | France Telecom | Procede et systeme de mise en relation entre des personnes dans un systeme de telecommunications. |
US8151193B2 (en) * | 2007-12-21 | 2012-04-03 | Symantec Corporation | Providing image-based guidance for remote assistance |
KR100912264B1 (ko) * | 2008-02-12 | 2009-08-17 | 광주과학기술원 | 사용자 반응형 증강 영상 생성 방법 및 시스템 |
EP2259601B1 (en) * | 2008-04-03 | 2016-09-07 | NLT Technologies, Ltd. | Image processing method, image processing device, and recording medium |
DE102008021160A1 (de) * | 2008-04-28 | 2009-10-29 | Beckhoff Automation Gmbh | Fernbedienung |
JPWO2009151130A1 (ja) * | 2008-06-10 | 2011-11-17 | 株式会社三和機工 | 体感型立体仮想現実空間システム |
JP2010217719A (ja) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | 装着型表示装置、その制御方法及びプログラム |
WO2011025450A1 (en) * | 2009-08-25 | 2011-03-03 | Xmreality Research Ab | Methods and systems for visual interaction |
JP5141672B2 (ja) * | 2009-11-30 | 2013-02-13 | ブラザー工業株式会社 | ヘッドマウントディスプレイ装置、及びヘッドマウントディスプレイ装置を用いた画像共有システム |
US8717360B2 (en) | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
JP5499762B2 (ja) * | 2010-02-24 | 2014-05-21 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
WO2011106798A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US9366862B2 (en) * | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
JP5123353B2 (ja) * | 2010-05-06 | 2013-01-23 | 株式会社スクウェア・エニックス | リアルタイムシーンを照明し,発見するバーチャルフラッシュライト |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
WO2011154950A1 (en) * | 2010-06-11 | 2011-12-15 | N-Trig Ltd. | Object orientation detection with a digitizer |
US8655881B2 (en) | 2010-09-16 | 2014-02-18 | Alcatel Lucent | Method and apparatus for automatically tagging content |
US8533192B2 (en) | 2010-09-16 | 2013-09-10 | Alcatel Lucent | Content capture device and methods for automatically tagging content |
US20120067954A1 (en) * | 2010-09-16 | 2012-03-22 | Madhav Moganti | Sensors, scanners, and methods for automatically tagging content |
US8666978B2 (en) | 2010-09-16 | 2014-03-04 | Alcatel Lucent | Method and apparatus for managing content tagging and tagged content |
US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
KR101817171B1 (ko) * | 2010-10-14 | 2018-01-11 | 톰슨 라이센싱 | 3d 비디오 시스템을 위한 원격 제어 디바이스 |
US9354718B2 (en) * | 2010-12-22 | 2016-05-31 | Zspace, Inc. | Tightly coupled interactive stereo display |
US8913085B2 (en) | 2010-12-22 | 2014-12-16 | Intel Corporation | Object mapping techniques for mobile augmented reality applications |
US8451344B1 (en) * | 2011-03-24 | 2013-05-28 | Amazon Technologies, Inc. | Electronic devices with side viewing capability |
KR20130136566A (ko) | 2011-03-29 | 2013-12-12 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
JP5729761B2 (ja) * | 2011-04-04 | 2015-06-03 | Necカシオモバイルコミュニケーションズ株式会社 | 表示システムおよび負荷分散方法 |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
JP5200141B2 (ja) * | 2011-05-17 | 2013-05-15 | シャープ株式会社 | 映像提示システム、映像提示方法、プログラム及び記録媒体 |
US8786529B1 (en) | 2011-05-18 | 2014-07-22 | Zspace, Inc. | Liquid crystal variable drive voltage |
US9015245B1 (en) * | 2011-07-20 | 2015-04-21 | Google Inc. | Experience sharing with commenting |
AU2011205223C1 (en) | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
US9153195B2 (en) | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
US10019962B2 (en) | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
WO2013028813A1 (en) * | 2011-08-23 | 2013-02-28 | Microsoft Corporation | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
RU2621633C2 (ru) | 2011-10-28 | 2017-06-06 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
JP6165164B2 (ja) | 2011-12-14 | 2017-07-19 | フィリップス ライティング ホールディング ビー ヴィ | 照明を制御する方法及び装置 |
KR20130081569A (ko) * | 2012-01-09 | 2013-07-17 | 삼성전자주식회사 | 3d 영상을 출력하기 위한 장치 및 방법 |
US20150170418A1 (en) * | 2012-01-18 | 2015-06-18 | Google Inc. | Method to Provide Entry Into a Virtual Map Space Using a Mobile Device's Camera |
US10067568B2 (en) * | 2012-02-28 | 2018-09-04 | Qualcomm Incorporated | Augmented reality writing system and method thereof |
US9691241B1 (en) * | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
JP6125785B2 (ja) * | 2012-09-27 | 2017-05-10 | 京セラ株式会社 | 表示装置および制御方法 |
JP6159069B2 (ja) * | 2012-09-27 | 2017-07-05 | 京セラ株式会社 | 表示装置 |
US10341642B2 (en) | 2012-09-27 | 2019-07-02 | Kyocera Corporation | Display device, control method, and control program for stereoscopically displaying objects |
US9342929B2 (en) | 2013-01-22 | 2016-05-17 | Microsoft Technology Licensing, Llc | Mixed reality experience sharing |
US20150355463A1 (en) * | 2013-01-24 | 2015-12-10 | Sony Corporation | Image display apparatus, image display method, and image display system |
US20150177608A1 (en) * | 2013-02-01 | 2015-06-25 | Jeremy Richard Nelson | Auto stereoscopic projector screen |
IL298018B2 (en) * | 2013-03-11 | 2024-04-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
US9854014B2 (en) | 2013-03-14 | 2017-12-26 | Google Inc. | Motion data sharing |
EP2973532A4 (en) | 2013-03-15 | 2017-01-18 | Magic Leap, Inc. | Display system and method |
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US9466150B2 (en) * | 2013-11-06 | 2016-10-11 | Google Inc. | Composite image associated with a head-mountable device |
US20160342839A1 (en) * | 2014-03-20 | 2016-11-24 | Hewlett Packard Enterprise Development Lp | Identifying electronic components for augmented reality |
JP6359333B2 (ja) * | 2014-05-09 | 2018-07-18 | シャープ株式会社 | テレコミュニケーションシステム |
US10321126B2 (en) * | 2014-07-08 | 2019-06-11 | Zspace, Inc. | User input device camera |
US9665985B2 (en) * | 2014-08-15 | 2017-05-30 | Daqri, Llc | Remote expert system |
US10250813B2 (en) * | 2014-09-03 | 2019-04-02 | Fuji Xerox Co., Ltd. | Methods and systems for sharing views |
KR20160059765A (ko) * | 2014-11-19 | 2016-05-27 | 삼성전자주식회사 | 전자 장치의 디스플레이 방법 및 장치 |
US9690367B2 (en) * | 2014-12-10 | 2017-06-27 | Sixense Entertainment, Inc. | System and method for assisting a user in locating physical objects while the user is in a virtual reality environment |
US9851786B2 (en) * | 2014-12-10 | 2017-12-26 | Sixense Entertainment, Inc. | System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment |
JP6474278B2 (ja) * | 2015-02-27 | 2019-02-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成システム、画像生成方法、プログラム及び情報記憶媒体 |
JP6540108B2 (ja) * | 2015-03-09 | 2019-07-10 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
JP6328579B2 (ja) | 2015-03-13 | 2018-05-23 | 富士フイルム株式会社 | 仮想オブジェクト表示システムおよびその表示制御方法並びに表示制御プログラム |
US10154247B2 (en) * | 2015-05-19 | 2018-12-11 | Hashplay Inc. | Virtual reality communication systems and methods thereof |
WO2016190057A1 (ja) * | 2015-05-22 | 2016-12-01 | コニカミノルタ株式会社 | ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法 |
JP6585929B2 (ja) | 2015-06-02 | 2019-10-02 | キヤノン株式会社 | システム、システムの制御方法 |
JP2017010387A (ja) * | 2015-06-24 | 2017-01-12 | キヤノン株式会社 | システム、複合現実表示装置、情報処理方法及びプログラム |
JPWO2017013986A1 (ja) * | 2015-07-17 | 2018-06-14 | シャープ株式会社 | 情報処理装置、端末、遠隔通信システム、および、情報処理プログラム |
JPWO2017051592A1 (ja) * | 2015-09-25 | 2018-08-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20170169613A1 (en) * | 2015-12-15 | 2017-06-15 | Lenovo (Singapore) Pte. Ltd. | Displaying an object with modified render parameters |
DE102016003074A1 (de) * | 2016-03-12 | 2017-09-14 | Audi Ag | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
CN106409018A (zh) * | 2016-10-12 | 2017-02-15 | 北京微视酷科技有限责任公司 | 一种基于虚拟现实的防灾培训系统及方法 |
CN109891904B (zh) | 2016-10-20 | 2022-03-01 | 三星电子株式会社 | 图像显示方法及其电子装置 |
CN108377355A (zh) * | 2016-11-28 | 2018-08-07 | 中兴通讯股份有限公司 | 一种视频数据处理方法、装置及设备 |
US10581160B2 (en) | 2016-12-16 | 2020-03-03 | Gopro, Inc. | Rotational wireless communication system |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
WO2018225518A1 (ja) * | 2017-06-07 | 2018-12-13 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム |
US20190057180A1 (en) * | 2017-08-18 | 2019-02-21 | International Business Machines Corporation | System and method for design optimization using augmented reality |
JP7005224B2 (ja) | 2017-08-22 | 2022-01-21 | キヤノン株式会社 | 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体 |
GB201804383D0 (en) * | 2018-03-19 | 2018-05-02 | Microsoft Technology Licensing Llc | Multi-endpoint mixed reality meetings |
JP6658799B2 (ja) * | 2018-06-08 | 2020-03-04 | 株式会社セガゲームス | 端末装置及びプログラム |
EP3584692A1 (en) * | 2018-06-19 | 2019-12-25 | InterDigital CE Patent Holdings | Sharing virtual content in a mixed reality scene |
CN117238224A (zh) | 2018-08-31 | 2023-12-15 | 奇跃公司 | 用于增强现实装置的空间分辨的动态调暗 |
JP7316360B2 (ja) | 2018-09-25 | 2023-07-27 | マジック リープ, インコーポレイテッド | 拡張現実のためのシステムおよび方法 |
EP3908876A4 (en) | 2019-01-11 | 2022-03-09 | Magic Leap, Inc. | TIME MULTIPLEXED DISPLAY OF VIRTUAL CONTENT AT VARIOUS DEPTHS |
JP7034340B2 (ja) * | 2019-01-29 | 2022-03-11 | 三菱電機エンジニアリング株式会社 | 作業支援システム |
DE102019207454B4 (de) | 2019-05-21 | 2021-05-12 | Volkswagen Aktiengesellschaft | Augmented-Reality-System |
WO2021019723A1 (ja) * | 2019-07-31 | 2021-02-04 | 日本電信電話株式会社 | 複合現実空間共有システム、共有情報管理サーバ、複合現実端末、複合現実空間共有方法および共有情報管理プログラム |
JP2020074066A (ja) * | 2019-09-09 | 2020-05-14 | キヤノン株式会社 | 画像表示装置、画像表示装置の制御方法 |
US20230290081A1 (en) | 2020-08-06 | 2023-09-14 | Maxell, Ltd. | Virtual reality sharing method and system |
US11757997B2 (en) * | 2021-01-19 | 2023-09-12 | Seek Xr, Inc. | Systems and methods for facilitating shared extended reality experiences |
WO2023238759A1 (ja) * | 2022-06-10 | 2023-12-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理装置、及び情報処理プログラム |
WO2024019002A1 (ja) * | 2022-07-19 | 2024-01-25 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理装置、及び情報処理プログラム |
US11900511B1 (en) * | 2022-12-08 | 2024-02-13 | Fmr Llc | Systems and methods for graphing data in virtual reality environments |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100197833B1 (ko) * | 1995-12-29 | 1999-06-15 | 윤종용 | 더블스캔 방식의 입체 tv |
US6522312B2 (en) * | 1997-09-01 | 2003-02-18 | Canon Kabushiki Kaisha | Apparatus for presenting mixed reality shared among operators |
JP2000102036A (ja) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法 |
US6692959B2 (en) * | 1998-11-25 | 2004-02-17 | Isis Pharmaceuticals, Inc. | Antisense modulation of IL-1 receptor-associated kinase-4 expression |
JP2000354257A (ja) * | 1999-06-10 | 2000-12-19 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム提供媒体 |
ATE543546T1 (de) * | 1999-06-11 | 2012-02-15 | Canon Kk | Vorrichtung und verfahren zur darstellung eines von mehreren benutzern geteilten raumes, wo wirklichkeit zum teil einbezogen wird, entsprechende spielvorrichtung und entsprechendes schnittstellenverfahren |
JP2001095601A (ja) | 1999-09-30 | 2001-04-10 | Iho Tokuma | 布製靴および布製靴用布ならびに布製靴用糸 |
JP3363861B2 (ja) * | 2000-01-13 | 2003-01-08 | キヤノン株式会社 | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
FR2811849B1 (fr) * | 2000-07-17 | 2002-09-06 | Thomson Broadcast Systems | Camera stereoscopique munie de moyens pour faciliter le reglage de ses parametres opto-mecaniques |
JP4288843B2 (ja) | 2000-10-25 | 2009-07-01 | 沖電気工業株式会社 | 遠隔作業支援システム |
JP2002157606A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体 |
JP3631151B2 (ja) * | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
JP4346548B2 (ja) * | 2002-06-28 | 2009-10-21 | シャープ株式会社 | 画像データ配信システムならびにその画像データ送信装置および画像データ受信装置 |
JP3944019B2 (ja) * | 2002-07-31 | 2007-07-11 | キヤノン株式会社 | 情報処理装置および方法 |
JP4125085B2 (ja) * | 2002-10-16 | 2008-07-23 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
SE0203908D0 (sv) * | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
JP4262011B2 (ja) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP4500632B2 (ja) * | 2004-09-07 | 2010-07-14 | キヤノン株式会社 | 仮想現実感提示装置および情報処理方法 |
US7843470B2 (en) * | 2005-01-31 | 2010-11-30 | Canon Kabushiki Kaisha | System, image processing apparatus, and information processing method |
-
2005
- 2005-04-08 JP JP2005112108A patent/JP4738870B2/ja not_active Expired - Fee Related
-
2006
- 2006-03-31 EP EP06251858A patent/EP1710002A1/en not_active Withdrawn
- 2006-04-07 CN CNB2006100733008A patent/CN100426218C/zh not_active Expired - Fee Related
- 2006-04-07 US US11/400,480 patent/US7532224B2/en not_active Expired - Fee Related
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101174332B (zh) * | 2007-10-29 | 2010-11-03 | 张建中 | 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统 |
CN102194254A (zh) * | 2010-03-04 | 2011-09-21 | 索尼公司 | 信息处理设备、信息处理方法,和程序 |
CN105843396A (zh) * | 2010-03-05 | 2016-08-10 | 索尼电脑娱乐美国公司 | 在共享的稳定虚拟空间上维持多视图 |
CN105843396B (zh) * | 2010-03-05 | 2019-01-01 | 索尼电脑娱乐美国公司 | 在共享的稳定虚拟空间上维持多视图的方法 |
CN103004187A (zh) * | 2010-05-17 | 2013-03-27 | 株式会社理光 | 多地点绘制图像共享装置、多地点绘制图像共享系统、由多地点绘制图像共享装置执行的方法、程序和记录介质 |
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
CN102281455A (zh) * | 2010-06-11 | 2011-12-14 | 任天堂株式会社 | 图像显示系统、装置以及方法 |
US10015473B2 (en) | 2010-06-11 | 2018-07-03 | Nintendo Co., Ltd. | Computer-readable storage medium, image display apparatus, image display system, and image display method |
US9278281B2 (en) | 2010-09-27 | 2016-03-08 | Nintendo Co., Ltd. | Computer-readable storage medium, information processing apparatus, information processing system, and information processing method |
CN102668556A (zh) * | 2010-12-17 | 2012-09-12 | 松下电器产业株式会社 | 医疗支援装置,医疗支援方法以及医疗支援系统 |
CN102571624A (zh) * | 2010-12-20 | 2012-07-11 | 英属维京群岛商速位互动股份有限公司 | 实时通信系统及相关的计算器可读介质 |
CN102695032A (zh) * | 2011-02-10 | 2012-09-26 | 索尼公司 | 信息处理装置、信息共享方法、程序以及终端设备 |
CN103064188A (zh) * | 2011-11-30 | 2013-04-24 | 微软公司 | 基于头戴式显示器的教育和指导 |
CN103714749A (zh) * | 2012-10-09 | 2014-04-09 | 三星电子株式会社 | 透明显示装置及其控制方法 |
CN111372098A (zh) * | 2015-01-21 | 2020-07-03 | 微软技术许可有限责任公司 | 用于共享场景网格数据同步的用户设备、系统、方法及可读介质 |
CN105759960A (zh) * | 2016-02-02 | 2016-07-13 | 上海尚镜信息科技有限公司 | 一种结合3d摄像头的增强现实远程指导方法和系统 |
CN107305435A (zh) * | 2016-04-18 | 2017-10-31 | 迪斯尼企业公司 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
CN105975232A (zh) * | 2016-05-06 | 2016-09-28 | 深圳市吾悦科技有限公司 | 增强现实实时交互系统及方法 |
US11043033B2 (en) | 2016-11-21 | 2021-06-22 | Sony Corporation | Information processing device and information processing method capable of deciding objects arranged in virtual space generated based on real space |
CN108462729B (zh) * | 2017-02-17 | 2023-01-10 | 北京三星通信技术研究有限公司 | 实现终端设备交互的方法和装置、终端设备及服务器 |
CN108462729A (zh) * | 2017-02-17 | 2018-08-28 | 北京三星通信技术研究有限公司 | 实现终端设备交互的方法和装置、终端设备及服务器 |
CN110809750A (zh) * | 2017-06-15 | 2020-02-18 | 微软技术许可有限责任公司 | 在保持物理性质的同时虚拟地表示空间和对象 |
CN110809750B (zh) * | 2017-06-15 | 2022-05-17 | 微软技术许可有限责任公司 | 在保持物理性质的同时虚拟地表示空间和对象 |
CN107741785A (zh) * | 2017-10-12 | 2018-02-27 | 北京临近空间飞艇技术开发有限公司 | 一种保护前端安全的远程指导方法和系统 |
CN107741785B (zh) * | 2017-10-12 | 2021-01-29 | 北京临近空间飞艇技术开发有限公司 | 一种保护前端安全的远程指导方法和系统 |
CN107645651A (zh) * | 2017-10-12 | 2018-01-30 | 北京临近空间飞艇技术开发有限公司 | 一种增强现实的远程指导方法和系统 |
CN111902849A (zh) * | 2018-04-09 | 2020-11-06 | 昕诺飞控股有限公司 | 在图像上叠加传感器及其检测区域的虚拟表示 |
CN112584236A (zh) * | 2020-12-30 | 2021-03-30 | 米哈游科技(上海)有限公司 | 图像擦除方法、装置、电子设备及存储介质 |
CN112584235A (zh) * | 2020-12-30 | 2021-03-30 | 米哈游科技(上海)有限公司 | 图像擦除方法、装置、电子设备及存储介质 |
CN112584236B (zh) * | 2020-12-30 | 2022-10-14 | 米哈游科技(上海)有限公司 | 图像擦除方法、装置、电子设备及存储介质 |
CN112584235B (zh) * | 2020-12-30 | 2022-10-28 | 米哈游科技(上海)有限公司 | 图像擦除方法、装置、电子设备及存储介质 |
CN112860198A (zh) * | 2021-01-05 | 2021-05-28 | 中科创达软件股份有限公司 | 视频会议的画面切换方法、装置、计算机设备及存储介质 |
CN112860198B (zh) * | 2021-01-05 | 2024-02-09 | 中科创达软件股份有限公司 | 视频会议的画面切换方法、装置、计算机设备及存储介质 |
CN113672087A (zh) * | 2021-08-10 | 2021-11-19 | Oppo广东移动通信有限公司 | 远程交互方法、装置、系统、电子设备以及存储介质 |
WO2023016107A1 (zh) * | 2021-08-10 | 2023-02-16 | Oppo广东移动通信有限公司 | 远程交互方法、装置、系统、电子设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20060227151A1 (en) | 2006-10-12 |
JP4738870B2 (ja) | 2011-08-03 |
CN100426218C (zh) | 2008-10-15 |
US7532224B2 (en) | 2009-05-12 |
EP1710002A1 (en) | 2006-10-11 |
JP2006293604A (ja) | 2006-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1845064A (zh) | 信息处理方法和设备 | |
CN1925626A (zh) | 立体显示设备及其控制方法 | |
CN1270567C (zh) | 具有二维和三维显示功能的电子设备 | |
CN1508663A (zh) | 携带式终端机及图像显示方法 | |
CN1264048C (zh) | 图像处理装置、图像摄像系统和图像显示系统 | |
CN101813873B (zh) | 照相机以及佩戴型图像显示装置 | |
CN1802845A (zh) | 摄像系统 | |
CN1497966A (zh) | 显示设备、图像处理设备和图像处理方法、成像设备和程序 | |
CN104365089B (zh) | 摄像装置及图像显示方法 | |
CN1774937A (zh) | 三维图像生成装置、三维图像再现装置、三维图像处理装置、三维图像处理程序及记录该程序的记录介质 | |
CN1815409A (zh) | 系统、图像处理装置及信息处理方法 | |
CN1641467A (zh) | 拍摄装置和方法、监视系统、程序和记录介质 | |
CN1943226A (zh) | 摄像机控制装置和所述摄像机控制装置的变焦倍率控制方法 | |
CN1592381A (zh) | 用于处理照片图像的装置和方法 | |
CN1835574A (zh) | 记录/再生设备和方法、及立体图像视觉效果确认设备和方法 | |
KR20190013308A (ko) | 이동 단말기 및 그 제어 방법 | |
CN1674672A (zh) | 会议信息处理装置和方法以及计算机可读存储介质 | |
CN1788497A (zh) | 立体视觉图像处理装置、立体视觉图像提供方法及图像显示方法 | |
CN1271233A (zh) | 摄像机控制装置和方法 | |
CN1914915A (zh) | 活动图像数据的编码方法、解码方法及实施这些方法的终端装置、以及双向对话型系统 | |
CN102045582A (zh) | 图像处理装置、图像处理方法和程序 | |
CN1672431A (zh) | 信息处理装置、信息处理系统和交谈对象显示方法 | |
JP3857988B2 (ja) | 立体画像処理方法および装置 | |
CN1744704A (zh) | 通信终端设备、电视电话控制方法和电视电话控制程序 | |
JP2009044510A (ja) | 移動機、サーバ、および、移動機における映像再生方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20081015 Termination date: 20210407 |
|
CF01 | Termination of patent right due to non-payment of annual fee |