CN108037826A - 信息处理方法及用于使计算机实施该信息处理方法的程序 - Google Patents
信息处理方法及用于使计算机实施该信息处理方法的程序 Download PDFInfo
- Publication number
- CN108037826A CN108037826A CN201711290755.XA CN201711290755A CN108037826A CN 108037826 A CN108037826 A CN 108037826A CN 201711290755 A CN201711290755 A CN 201711290755A CN 108037826 A CN108037826 A CN 108037826A
- Authority
- CN
- China
- Prior art keywords
- virtual
- virtual image
- image
- user
- user terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/86—Watching games played by other players
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/04—Billing or invoicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Abstract
本发明提供一种能够改善用户的虚拟体验的信息处理方法以及用于使计算机实施该信息处理方法的程序。该信息处理方法,包括:(a)生成规定虚拟空间(200A)的虚拟空间数据的步骤,其中,该虚拟空间(200A)包括对应于用户终端(1A)的虚拟形象(4A)和配置有虚拟形象(4A)的虚拟房间(7A);(b)从用户终端(1C)接收对应于用户终端(1C)的虚拟形象(4C)要求访问虚拟房间(7A)的访问要求信号的步骤;(c)根据当前配置于虚拟房间(7A)的虚拟形象(4A、4B)和虚拟形象(4C)的总数,判断是否应当更新虚拟房间(7A)的步骤;以及(d)在判断应当更新虚拟房间(7A)的情况下,以更新虚拟房间(7A)的尺寸的方式更新虚拟房间(7A)的步骤。
Description
技术领域
本公开涉及一种信息处理方法及用于使计算机实施该信息处理方法的程序。
背景技术
专利文献1公开了一种技术,该技术在确定现实空间中的多个用户间的位置关系之后,基于该确定的多个用户间的位置关系,决定虚拟空间内的多个用户角色(虚拟形象)的位置关系。
专利文献2公开了一种信息处理系统,该信息处理系统使得共享内容的多个用户中的、只有将视线投向共同的物件的用户能够相互地交换声音信息。
专利文献3公开了一种技术,该技术通过在虚拟空间内配置虚拟屏幕、虚拟视频投影仪以及构成虚拟电影院的虚拟座位,从而向安装了头戴式设备(Head Mounted Device,以下,简称为HMD)的用户提供身处电影院的电影视听体验。
专利文献1:日本专利公开第2014-017776号公报
专利文献2:国际专利公开地第2016/002445号
专利文献3:美国专利第9396588号
发明内容
专利文献1至3中,完全没有提及如何控制配置有多个用户角色(虚拟形象)的虚拟房间。
依照本公开所示的一实施方式,提供了一种在虚拟空间分送系统中由计算机实施的信息处理方法,其中,该虚拟空间分送系统具备多个用户终端和服务器,该多个用户终端各自具有安装于用户的头部的头戴式设备,
所述信息处理方法,包括:
(a)生成规定第1虚拟空间的第1虚拟空间数据的步骤,其中,该第1虚拟空间包括对应于所述多个用户终端中的第1用户终端的第1虚拟形象和配置有所述第1虚拟形象的第1虚拟房间;
(b)从所述多个用户终端中的第2用户终端接收对应于所述第2用户终端的第2虚拟形象要求访问所述第1虚拟房间的访问要求信号的步骤;
(c)在所述步骤(b)之后,根据当前配置于所述第1虚拟房间的虚拟形象和所述第2虚拟形象的总数,判断是否应当更新所述第1虚拟房间的步骤;以及
(d)在判断应当更新所述第1虚拟房间的情况下,以更新所述第1虚拟房间的尺寸的方式更新所述第1虚拟房间的步骤。
附图说明
图1是示意本实施方式涉及的虚拟空间分送系统的示意图。
图2是示意用户终端的示意图。
图3是示意安装了HMD的用户的头部的图。
图4是示意控制装置的硬件构成的图。
图5是示意在HMD显示视野图像的处理的流程图。
图6是示意虚拟空间的一个示例的xyz空间图。
图7(a)是图6所示的虚拟空间的yx平面图。图7(b)是图6所示的虚拟空间的zx平面图。
图8是示意在HMD显示的视野图像的一个示例的图。
图9是示意图1所示的服务器的硬件构成的图。
图10(a)是示意向用户A提供的虚拟空间的图。图10(b)是示意向用户B提供的虚拟空间的图。
图11是用于说明在用户终端间使各虚拟形象的运动同步的处理的一个示例的时序图。
图12A是用于说明本实施方式涉及的信息处理方法的一个示例的时序图(第1部分)。
图12B是用于说明本实施方式涉及的信息处理方法的一个示例的时序图(第2部分)。
图13(a)是示意向用户A提供的虚拟空间的图。图13(b)是示意向用户C提供的虚拟空间的图。
图14(a)是示意用户A的虚拟形象的虚拟房间扩大后的情形的图。图14(b)是示意用户C的虚拟形象的虚拟空间更新后的情形的图。
图15是用于说明收看影像内容的处理的一个示例的时序图。
图16(a)是示意影像内容费用表的一个示例的图。图16(b)是示意收费表的一个示例的图。
图17是用于说明将虚拟屏幕扩大的处理的一个示例的时序图。
图18(a)是示意向用户A提供的虚拟空间的图。图18(b)是示意向用户A提供的虚拟空间的图。
图19(a)是示意向用户A提供的虚拟空间的图。图19(b)是示意向用户B提供的虚拟空间的图。
图20是用于说明在用户终端间使各虚拟形象的运动同步的处理的一个示例的时序图。
图21是用于说明本实施方式涉及的信息处理方法的一个示例的流程图。
图22是示意向用户A提供的虚拟空间的平面图。
图23是示意在用户终端1A的HMD显示的视野图像的一个示例的图。
图24是示意在用户终端1A的HMD显示的视野图像的一个示例的图。
图25是用于说明本实施方式涉及的信息处理方法的一个示例的流程图。
图26是示意向用户A提供的虚拟空间的图。
图27是示意在用户终端1A的HMD显示的视野图像的一个示例的图。
图28是用于说明本实施方式涉及的信息处理方法的一个示例的流程图。
图29(a)是向用户A提供的虚拟空间的图。图29(b)是向用户A提供的、示意虚拟形象4A向虚拟形象4C回顾的情形的虚拟空间的图。
图30(a)是示意图29(a)中的虚拟形象4B的脸的状态的图。图30(b)是示意图29(b)中的虚拟形象4B的脸的状态的图。
具体实施方式
(本公开所示的实施方式的详细说明)
以下,参照附图,说明本公开所示的实施方式。为了说明的方便,对于具有与本实施方式中已经说明的部件相同的标记的部件,不再重复说明。
参照图1,说明虚拟空间分送系统100(或者,社交虚拟现实系统)的构成的概要。图1是虚拟空间分送系统100(以下,简称为分送系统100)的示意图。如图1所示,分送系统100,具备由用户A操作的用户终端1A、由用户B操作的用户终端1B、由用户C操作的用户终端1C以及服务器2。用户终端1A~1C,经由互联网等的通信网络3而可通信地连接于服务器2。本实施方式中,虚拟空间,包括虚拟现实(Virtual Reality)空间、增强现实(ArgumentedReality)空间以及混合现实(Mixed Reality)空间。以下,为了便于说明,有时候将各用户终端1A~1C简单地统称为用户终端1。再者,有时候将各用户A~C简单地统称为用户U。本实施方式中,用户终端1A~1C具备相同的构成。
参照图2,说明用户终端1的构成。图2是示意用户终端1的示意图。如图2所示,用户终端1,具备安装于用户U的头部的头戴式设备(HMD)110、耳机116、麦克风118、位置传感器130、外部控制器320以及控制装置120。
头戴式设备110具备显示部112、头戴传感器114、注视传感器140。显示部112具备非透过型的显示装置,该非透过型的显示装置构成为完全地覆盖安装了头戴式设备110的用户U的可视范围(视野)。由此,用户U仅见到显示于显示部112的视野图像,能够投入于虚拟空间。显示部112可以由左眼用显示部和右眼用显示部构成,该左眼用显示部构成为向用户U的左眼提供图像,该右眼用显示部构成为向用户U的右眼提供图像。头戴式设备110可以具备透过型的显示装置。这种情况下,该透过型的显示装置,通过调整其透过率,能够暂时地构成为非透过型的显示装置。
头戴传感器114搭载于头戴式设备110的显示部112的附近。头戴传感器114包括地磁传感器、加速度传感器以及倾斜度传感器(角速度传感器、陀螺传感器等)之中的至少一个,能够检测安装于用户U的头部的头戴式设备110的各种运动。
注视传感器140具有检测用户U的视线方向的眼球追踪功能。注视传感器140,例如,可以具备右眼用注视传感器和左眼用注视传感器。右眼用注视传感器,可以向用户U的右眼照射例如红外光,检测从右眼(尤其是,角膜及/或虹膜)反射的反射光,从而取得与右眼的眼球的旋转角相关的信息。左眼用注视传感器,可以向用户U的左眼照射例如红外光,检测从左眼(尤其是,角膜及/或虹膜)反射的反射光,从而取得与左眼的眼球的旋转角相关的信息。
耳机116,分别安装于用户U的左耳和右耳。耳机116,构成为从控制装置120接收声音数据(电信号),基于该接收的声音数据而输出声音。麦克风118,构成为收集用户U发出的声音,基于该收集的声音而生成声音数据(电信号)。再者,麦克风118,构成为向控制装置120发送声音数据。
位置传感器130,例如由位置追踪摄像机构成,并构成为检测头戴式设备110和外部控制器320的位置。位置传感器130,可通信地无线连接或有线连接于控制装置120,构成为检测与设于头戴式设备110的图中未显示的多个检测点的位置、倾斜度或发光强度相关的信息。再者,位置传感器130,构成为检测与设于外部控制器320的图中未显示的多个检测点的位置、倾斜度及/或发光强度相关的信息。检测点例如为放射红外线或可见光的发光部。位置传感器130可以包括红外线传感器及/或多个光学摄像机。
外部控制器320,例如用于控制在虚拟空间内显示的手指物件的动作。外部控制器320,具有用户U持有于右手而使用的右手用外部控制器和用户U持有于左手而使用的左手用外部控制器。
控制装置120,能够基于从位置传感器130取得的信息,取得头戴式设备110的位置信息,并基于该取得的位置信息,正确地将虚拟空间中的虚拟摄像机(或者,与用户U相关联的虚拟形象)的位置与现实空间中的安装了头戴式设备110的用户U的位置对应。再者,控制装置120,能够基于从位置传感器130取得的信息,取得外部控制器320的动作信息,并基于该取得的动作信息,正确地将虚拟空间内显示的手指物件(与用户U相关联的虚拟形象的手指)的动作与现实空间中的外部控制器320的动作对应。
控制装置120,能够基于从注视传感器140发送的信息,分别确定用户U的右眼的视线和左眼的视线,确定该右眼的视线和该左眼的视线的交点,即注视点。再者,控制装置120,能够基于所确定的注视点,确定用户U的视线方向。在此,用户U的视线方向,与用户U的双眼的视线方向一致,即,与通过将用户U的右眼和左眼连接的线段的中点和注视点的直线的方向一致。控制装置120,能够基于用户U的视线方向,确定与用户U相关联的虚拟形象的眼黑区的朝向。
接着,参照图3,说明取得与头戴式设备110的位置及/或倾斜度相关的信息的方法。图3是示意安装了头戴式设备110的用户U的头部的图。与安装了头戴式设备110的用户U的头部的运动联动且与头戴式设备110的位置及/或倾斜度相关的信息,能够由位置传感器130及/或搭载于头戴式设备110的头戴传感器114检测。如图2所示,以安装了头戴式设备110的用户U的头部为中心,规定了三维坐标(uvw坐标)。将用户U直立的垂直方向规定为v轴,将与v轴垂直且通过头戴式设备110的中心的方向规定为w轴,将与v轴和w轴垂直的方向规定为u轴。位置传感器130及/或头戴传感器114,检测围绕各uvw轴旋转的角度(即,由偏转角、俯仰角以及侧偏角所决定的倾斜度,其中,偏转角表示以v轴为中心的旋转,俯仰角表示以u轴为中心的旋转,侧偏角表示以w轴为中心的旋转)。控制装置120,基于所检测的围绕各uvw轴旋转的角度变化,决定用于控制虚拟摄像机的视轴的角度信息。
参照图4,说明控制装置120的硬件构成。图4是示意控制装置120的硬件构成的图。如图4所示,控制装置120,具备控制部121、存储部123、输入输出(I/O)接口124、通信接口125以及总线126。控制部121、存储部123、输入输出接口124以及通信接口125,经由总线126而相互可通信地连接。
控制装置120,可以独立于头戴式设备110,作为个人计算机、平板电脑或可穿戴设备而构成,也可以内置于头戴式设备110。另外,控制装置120的一部分功能可以搭载于头戴式设备110,并且,控制装置120的其他功能可以搭载于与头戴式设备110独立的其他装置。
控制部121,具备存储器和处理器。存储器,例如,由存储了各种程序等的只读存储器(Read Only Memory:ROM)及/或具有多个工作区的随机存取存储器(Random AccessMemory:RAM)等构成,该工作区存储了由处理器执行的各种程序等。处理器,例如为中央处理器(Central Processing Unit:CPU)、微处理器(Micro Processing Unit:MPU)及/或图形处理器(Graphics Processing Unit:GPU),构成为在RAM上加载从集成于ROM的各种程序指定的程序,与RAM协作而实施各种处理。
尤其是,处理器在RAM上加载控制程序,与RAM协作而执行该控制程序,由此,控制部121可以控制控制装置120的各种工作。控制部121,基于视野图像数据,在头戴式设备110的显示部112显示视野图像。由此,用户U能够投入于虚拟空间。
存储部123,例如为硬盘(Hard Disk Drive:HDD)、固态硬盘(Solid State Drive:SSD)、USB闪存等的存储装置,构成为存储程序及/或各种数据。存储部123,可以存储用于使计算机实施本实施方式涉及的信息处理方法的至少一部分的控制程序及/或用于实现社交虚拟现实的控制程序。在存储部123,也可以存储与用户U的认证程序、各种图像及/或物件(例如,虚拟房间、虚拟形象等)相关的数据。再者,在存储部123,可以构筑数据库,该数据库包含用于管理各种数据的表格。
输入输出接口124,构成为分别将位置传感器130、头戴式设备110、外部控制器320、耳机116以及麦克风118可通信地连接于控制装置120,并且,例如,由通用串行总线(Universal Serial Bus:USB)端子、数字视频接口(Digital Visual Interface:DVI)端子、高清多媒体接口(High-Definition Multimedia Interface:HDMI(注册商标))端子等构成。控制装置120,可以分别与位置传感器130、头戴式设备110、外部控制器320、耳机116以及麦克风118无线连接。
通信接口125,构成为将控制装置120连接至局域网(Local Area Network:LAN)、广域网(Wide Area Network:WAN)或互联网等的通信网络3。通信接口125,包括用于经由通信网络3而与服务器2等的外部装置通信的各种有线连接端子及/或用于无线连接的各种处理电路,构成为符合经由通信网络3而进行通信的通信规格。
参照图5至图8,说明用于在头戴式设备110显示视野图像的处理。图5是示意在头戴式设备110显示视野图像的处理的流程图。图6是示意虚拟空间200的一个示例的xyz空间图。图7(a)是图6所示的虚拟空间200的yx平面图。图7(b)是图6所示的虚拟空间200的zx平面图。图8是示意在头戴式设备110显示的视野图像V的一个示例的图。
如图5所示,在步骤S1中,控制部121(参照图4),生成表示虚拟空间200的虚拟空间数据,该虚拟空间200包含虚拟摄像机300和各种物件。如图6所示,虚拟空间200被规定为以中心位置210为中心的整个天球(图6中,仅显示了上半部的天球)。在虚拟空间200中,设定有以中心位置210为原点的xyz坐标系。虚拟摄像机300规定了视轴L,该视轴L用于确定在头戴式设备110显示的视野图像V(参照图8)。定义虚拟摄像机300的视野的uvw坐标系被决定成与以现实空间中的用户U的头部为中心而规定的uvw坐标系联动。控制部121,可以与安装了头戴式设备110的用户U在现实空间中的移动联动地使虚拟摄像机300在虚拟空间200内移动。
在步骤S2中,控制部121,确定虚拟摄像机300的视野CV(参照图7)。具体而言,控制部121,基于从位置传感器130及/或头戴传感器114发送的、表示头戴式设备110的状态的数据,取得与头戴式设备110的位置及/或倾斜度相关的信息。控制部121,基于与头戴式设备110的位置及/或倾斜度相关的信息,确定虚拟空间200内的虚拟摄像机300的位置及/或朝向。控制部121,从虚拟摄像机300的位置及/或朝向决定虚拟摄像机300的视轴L,从所决定的视轴L确定虚拟摄像机300的视野CV。在此,虚拟摄像机300的视野CV,相当于安装了头戴式设备110的用户U能够辨认的虚拟空间200的一部分区域(换言之,相当于在头戴式设备110显示的虚拟空间200的一部分区域)。视野CV具有第1区域CVa和第2区域CVb,该第1区域CVa在图7(a)所示的xy平面中,设定成以视轴L为中心的极角α的角度范围,该第2区域CVb在图7(b)所示的xz平面中,设定成以视轴L为中心的方位角β的角度范围。控制部121,可以基于从注视传感器140发送的、表示用户U的视线方向的数据,确定用户U的视线方向,并基于用户U的视线方向,决定虚拟摄像机300的朝向。
控制部121,能够基于来自位置传感器130及/或头戴传感器114的数据,确定虚拟摄像机300的视野CV。在此,如果安装了头戴式设备110的用户U运动,则控制部121能够基于从位置传感器130及/或头戴传感器114发送的、表示头戴式设备110的运动的数据,使虚拟摄像机300的视野CV变化。即,控制部121,能够根据头戴式设备110的运动,使视野CV变化。同样地,如果用户U的视线方向变化,则控制部121可以基于从注视传感器140发送的、表示用户U的视线方向的数据,使虚拟摄像机300的视野CV移动。即,控制部121,能够根据用户U的视线方向的变化,使视野CV变化。
在步骤S3中,控制部121生成视野图像数据,该视野图像数据表示在头戴式设备110的显示部112显示的视野图像V。具体而言,控制部121,基于规定虚拟空间200的虚拟空间数据和虚拟摄像机300的视野CV,生成视野图像数据。
在步骤S4中,控制部121,基于视野图像数据,在头戴式设备110的显示部112显示视野图像V(参照图7)。根据安装了头戴式设备110的用户U的运动,虚拟摄像机300的视野CV变化,在头戴式设备110的显示部112显示的视野图像V变化,因而,用户U能够投入于虚拟空间200。
虚拟摄像机300,可以包括左眼用虚拟摄像机和右眼用虚拟摄像机。这种情况下,控制部121,基于虚拟空间数据和左眼用虚拟摄像机的视野,生成表示左眼用的视野图像的左眼用视野图像数据。再者,控制部121,基于虚拟空间数据和右眼用虚拟摄像机的视野,生成表示右眼用的视野图像的右眼用视野图像数据。控制部121,基于左眼用视野图像数据,在左眼用显示部显示左眼用的视野图像,并且,基于右眼用视野图像数据,在右眼用显示部显示右眼用的视野图像。如此,用户U,能够通过左眼用视野图像和右眼用视野图像之间的视差而三维地辨认视野图像。虚拟摄像机,如后所述,可以配置于由用户操作的虚拟形象的眼部的位置。例如,左眼用虚拟摄像机,可以配置于虚拟形象的左眼,另一方面,右眼用虚拟摄像机,可以配置于虚拟形象的右眼。
参照图9,说明图1所示的服务器2的硬件构成。图9是示意服务器2的硬件构成的图。如图9所示,服务器2,具备控制部23、存储部22、通信接口21以及总线24。控制部23、存储部22以及通信接口21,经由总线24而相互可通信地连接。控制部23,具备存储器和处理器,存储器,例如,由ROM以及RAM等构成,并且,处理器,例如,由CPU,MPU及/或GPU构成。
存储部22,例如为大容量的硬盘等。存储部22,可以存储用于使计算机实施本实施方式涉及的信息处理方法的至少一部的控制程序及/或用于实现社交虚拟现实的控制程序。存储部22,也可以存储与用于管理各用户的用户管理信息、各种图像及/或物件(例如,虚拟房间、虚拟形象等)相关的数据。再者,存储部22,也可以存储图16所示的影像内容费用表及/或收费表作为数据库。通信接口21,构成为将服务器2连接至通信网络3。
<第1的实施例>
参照图1、10以及11,说明在用户终端1A和用户终端1B之间使各虚拟形象4A、4B的运动同步的处理的一个示例。图10(a)是示意向用户A提供的虚拟空间200A的图。图10(b)是示意向用户B提供的虚拟空间200B的图。图11是用于说明在用户终端1A和用户终端1B之间使各虚拟形象4A、4B的运动同步的处理的一个示例的时序图。本说明中,作为前提条件,如图10所示,对应于用户终端1A(用户A)的虚拟形象4A和对应于用户终端1B(用户B)的虚拟形象4B配置于虚拟形象4A的虚拟房间7A。即,用户B访问用户A的虚拟房间7A,使得用户A和用户B经由网络3而共享一个虚拟房间7A。
如图10(a)所示,用户A的虚拟空间200A,包括虚拟形象4A、虚拟形象4B以及配置有虚拟形象4A、4B的虚拟房间7A。虚拟形象4A由用户A操作,并且,与用户A的动作联动。虚拟形象4B由用户B操作,并且,与用户B的动作联动。例如,可以根据用户A(用户B)的头戴式设备110的位置,确定虚拟形象4A(4B)的位置。同样地,可以根据用户A(用户B)的头戴式设备110的倾斜度,确定虚拟形象4A(4B)的脸的朝向。再者,可以根据外部控制器的动作,确定虚拟形象4A(4B)的手的动作。可以根据由注视传感器140检测的用户A(用户B)的视线方向,确定虚拟形象4A(4B)的视线(例如,眼黑区的位置)。在虚拟形象4A(4B)的眼部,可以配置有虚拟摄像机300(图6)。具体而言,可以在虚拟形象4A(4B)的左眼,配置有左眼用虚拟摄像机,并且,在虚拟形象4A(4B)的右眼,配置有右眼用虚拟摄像机。以下的说明中,虚拟摄像机300配置于虚拟形象4A(4B)的眼部。
虚拟房间7A,包括虚拟桌子5A和虚拟屏幕6A,其中,虚拟屏幕6A构成为显示影像内容(动画)。用户A(B),能够通过在头戴式设备110显示的视野图像而享受在虚拟屏幕6A显示的影像内容。用户A,可以保有配置于虚拟空间200A的多种虚拟房间。用户A保有的多个虚拟房间,例如,可以存储于用户终端1A的存储部123及/或服务器2的存储部22。例如,用户A,能够将配置于虚拟空间的规定的虚拟房间变更为另一虚拟房间。
如图10(b)所示,用户B的虚拟空间200B,包括虚拟形象4A、虚拟形象4B以及配置有虚拟形象4A、4B的虚拟房间7A。在虚拟形象4B访问虚拟形象4A的虚拟房间7A之前,虚拟形象4B的虚拟房间配置于虚拟空间200B。
参照图11,在步骤S10,用户终端1A的控制部121生成虚拟形象4A的控制信息,然后,将该生成的虚拟形象4A的控制信息发送至服务器2。服务器2的控制部23,从用户终端1A接收虚拟形象4A的控制信息(步骤S11)。在此,虚拟形象4A的控制信息,为控制虚拟形象4A的动作所必需的信息,例如,包括与虚拟形象4A的位置相关的信息、与虚拟形象4A的脸的朝向相关的信息、与虚拟形象4A的手的动作相关的信息以及与虚拟形象4A的视线相关的信息。
在步骤S12,用户终端1B的控制部121生成虚拟形象4B的控制信息,然后,将该生成的虚拟形象4B的控制信息发送至服务器2。服务器2的控制部23,从用户终端1B接收虚拟形象4B的控制信息(步骤S13)。在此,虚拟形象4B的控制信息,为控制虚拟形象4B的动作所必须的信息,例如,包括与虚拟形象4B的位置相关的信息、与虚拟形象4B的脸的朝向相关的信息、与虚拟形象4B的手的动作相关的信息以及与虚拟形象4B的视线相关的信息。
服务器2,将虚拟形象4B的控制信息发送至用户终端1A(步骤S14),另一方面,将虚拟形象4A的控制信息发送至用户终端1B(步骤S18)。用户终端1A的控制部121,在步骤S15接收虚拟形象4B的控制信息,然后,基于虚拟形象4A、4B的控制信息,将表示虚拟空间200A(参照图10(a))的虚拟空间数据更新(步骤S16)。例如,在虚拟形象4A、4B已移动的情况下,生成表示虚拟空间的虚拟空间数据,其中,该虚拟空间包括移动后的虚拟形象4A、4B和虚拟房间7A。用户终端1A的控制部121,根据头戴式设备110的位置及/或倾斜度,确定虚拟摄像机300的视野CV(参照图7),然后,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV,更新在头戴式设备110显示的视野图像(步骤S17)。
用户终端1B的控制部121,在步骤S19接收虚拟形象4A的控制信息,然后,基于虚拟形象4A、4B的控制信息,将表示虚拟空间200B(参照图10(b))的虚拟空间数据更新(步骤S20)。用户终端1B的控制部121,根据头戴式设备110的位置及/或倾斜度,确定虚拟摄像机300的视野CV,然后,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV,更新在头戴式设备110显示的视野图像(步骤S21)。
本实施方式中,用户终端1A、1B分别向服务器2发送虚拟形象4A的控制信息和虚拟形象4B的控制信息,然后,服务器2将虚拟形象4A的控制信息发送至用户终端1B,将虚拟形象4B的控制信息发送至用户终端1A。能够在用户终端1A和用户终端1B之间,使各虚拟形象4A、4B的运动同步。图11所示的各处理,可以在每一帧实施。
在用户终端1A~1C之间使各虚拟形象4A~4C的运动同步的情况下,用户终端1A将虚拟形象4A的控制信息发送至服务器2,用户终端1B将虚拟形象4B的控制信息发送至服务器2,用户终端1C将虚拟形象4C的控制信息发送至服务器2。服务器2,将虚拟形象4A、4C的控制信息发送至用户终端1B,将虚拟形象4B、4C的控制信息发送至用户终端1A,将虚拟形象4A、4B的控制信息发送至用户终端1C。
参照图12A~图14,说明本实施方式涉及的信息处理方法。图12A是用于说明本实施方式涉及的信息处理方法的一个示例的时序图(第1部分)。图12B是用于说明本实施方式涉及的信息处理方法的一个示例的时序图(第2部分)。图13(a)是示意向用户A提供的虚拟空间200A的图(虚拟形象4C访问前)。图13(b)是示意向用户C提供的虚拟空间200C的图(虚拟形象4C访问前)。图14(a)是示意通过虚拟形象4C访问虚拟形象4A的虚拟房间而使得虚拟形象4A的虚拟房间扩大后的情形的图。图14(b)是示意在虚拟形象4C访问虚拟形象4A的虚拟房间之后虚拟形象4C的虚拟空间更新后的情形的图。
本说明中,作为初始条件,如图13(a)所示,虚拟形象4A和虚拟形象4B配置于虚拟形象4A的虚拟房间7A。即,虚拟形象4B访问虚拟形象4A的虚拟房间7A。如图13(b)所示,对应于用户终端1C(用户C)的虚拟形象4C配置于虚拟形象4C的虚拟房间7C。虚拟形象4C访问用户A的虚拟房间7A。
如图13(a)所示,用户A的虚拟空间200A(第1虚拟空间),包括对应于用户终端1A(第1用户终端)的虚拟形象4A(第1虚拟形象)、对应于用户终端1B的虚拟形象4B以及虚拟房间7A(第1虚拟房间)。如上所述,虚拟形象4A由用户A(第1用户)操作,并且,与用户A的动作联动。虚拟形象4B由用户B操作,并且,与用户B的动作联动。虚拟房间7A,包括虚拟桌子5A和虚拟屏幕6A(第1虚拟屏幕)。虚拟房间7A的尺寸为S(小)尺寸。表示虚拟空间200A的虚拟空间数据(第1虚拟空间数据),由用户终端1A的控制部121生成。
如图13(b)所示,用户C的虚拟空间200C,包括对应于用户终端1C(第2用户终端)的虚拟形象4C(第2虚拟形象)和配置有虚拟形象4C的虚拟房间7C。虚拟形象4C由用户C(第2用户)操作,并且,与用户C的动作联动。表示虚拟空间200C的虚拟空间数据,由用户终端1C的控制部121生成。
参照图12A,在步骤S30,用户C实施用于访问虚拟形象A的虚拟房间7A的规定的操作输入。例如,用户C选择在头戴式设备110上显示的菜单画面中的“访问虚拟形象A的虚拟房间”等的选项。用户终端1C的控制部121,按照来自用户C的操作输入,生成虚拟形象4C要求访问虚拟形象4A的虚拟房间7A的访问要求信号,然后,将该访问要求信号发送至服务器2。
在步骤S31,服务器2的控制部23,从用户终端1C接收访问要求信号。控制部23,根据当前配置于虚拟房间7A的虚拟形象和从现在起访问虚拟房间7A的虚拟形象的总数N,判断是否应当更新虚拟房间7A,即,是否应当扩大虚拟房间7A(步骤S32)。当前配置于虚拟房间的虚拟形象和从现在起访问该虚拟房间的虚拟形象的总数N与虚拟房间的尺寸之间的关系,例如,如下所示。
【表1】
表1:虚拟形象的总数N与虚拟房间的尺寸之间的关系
虚拟形象的总数N | 虚拟房间的尺寸 |
1≤N<3 | S(小)尺寸 |
3≤N<6 | M(中)尺寸 |
6≤N | L(大)尺寸 |
表1所示的、示意虚拟形象的总数N与虚拟房间的尺寸之间的关系的表格,可以存储于服务器2的存储部22。在本示例中,当前配置于虚拟房间7A的虚拟形象的数量为2(虚拟形象4A、4B),并且,从现在起访问虚拟房间7A的虚拟形象的数量为1(虚拟形象4C),因此,控制部23,将虚拟形象的总数N确定为3。控制部23,基于示意虚拟形象的总数N=3与虚拟房间的尺寸之间的关系的表格,判断是否应当将虚拟形象4A的虚拟房间的尺寸从S尺寸变更为M尺寸,即,是否应当将虚拟形象4A的虚拟房间的尺寸扩大(步骤S32的YES)。
控制部23,从存储部22取得M尺寸的虚拟房间70A(参照图14),然后,将M尺寸的虚拟房间70A(已扩大的第1虚拟房间)、虚拟形象4A、4B以及虚拟形象4A、4B的控制信息发送至用户终端1C(步骤S33)。虽然在图12中没有记载,但服务器2在每一帧取得虚拟形象4A~4C的控制信息。虚拟房间7A为虚拟形象4A的S尺寸的虚拟房间,并且,虚拟房间70A为虚拟形象4A的M尺寸的虚拟房间。
在步骤S34,用户终端1C的控制部121,接收虚拟房间70A、虚拟形象4A、4B以及虚拟形象4A、4B的控制信息。控制部121,基于虚拟房间70A、虚拟形象4A~4C以及虚拟形象4A~4C的控制信息,将表示虚拟空间200C(参照图13(b))的虚拟空间数据更新(步骤S35)。具体而言,控制部121,生成表示图14(b)所示的虚拟空间220C的虚拟空间数据。如图14(b)所示,虚拟空间220C,包括虚拟形象4A、4B、4C和虚拟房间70A。虚拟房间70A,包括虚拟桌子5A和虚拟屏幕60A(已扩大的第1虚拟屏幕)。
用户终端1C的控制部121,根据头戴式设备110的位置及/或倾斜度,确定虚拟摄像机300的视野CV(参照图7),然后,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV,更新在头戴式设备110显示的视野图像(步骤S36)。如果用户C实施用于访问虚拟形象A的虚拟房间7A的规定的操作输入,则向用户C提示的虚拟空间从包括虚拟房间7C的虚拟空间200C(参照图13(b))变更为包括虚拟形象4A的虚拟房间70A的虚拟空间220C(参照图14(b)),因而,虚拟形象4C能够访问虚拟形象4A的虚拟房间。
在步骤S37,控制部23将M尺寸的虚拟房间70A(已扩大的第1虚拟房间)、虚拟形象4C以及虚拟形象4C、4B的控制信息发送至用户终端1A。在步骤S38,用户终端1A的控制部121,接收虚拟房间70A、虚拟形象4C以及虚拟形象4C、4B的控制信息。控制部121,基于虚拟房间70A、虚拟形象4A~4C以及虚拟形象4A~4C的控制信息,将表示虚拟空间200A(参照图13(a))的虚拟空间数据更新(步骤S39)。具体而言,控制部121,生成表示图14(a)所示的虚拟空间220A的虚拟空间数据。如图14(a)所示,虚拟空间220A,包括虚拟形象4A、4B、4C以及虚拟房间70A。虚拟房间70A,包括桌子5A和虚拟屏幕60A(已扩大的第1虚拟屏幕)。
如图13(a)以及图14(a)所示,如果以虚拟形象4A的虚拟房间的尺寸扩大的方式将虚拟形象4A的虚拟房间从虚拟房间7A更新为虚拟房间70A,则用于显示影像内容的虚拟屏幕也从虚拟屏幕6A(S尺寸)更新为虚拟屏幕60A(M尺寸)。即,根据虚拟房间的尺寸的扩大,配置于虚拟房间的虚拟屏幕的尺寸也扩大。伴随着虚拟形象的总数N的増加,虚拟房间的尺寸扩大,并且,虚拟屏幕的尺寸也扩大,因而,能够促进较多用户(虚拟形象)在同一虚拟房间内享受收看在虚拟屏幕显示的同一影像内容。所以,能够促进用户间的虚拟房间的访问(社交虚拟现实)。根据虚拟房间的尺寸的扩大,配置于虚拟房间的家具(例如,桌子)的尺寸也可以扩大。
如图13(a)以及图14(a)所示,以维持虚拟形象4A、4B和虚拟房间7A之间的相对位置关系的方式,将虚拟形象4A、4B配置于虚拟房间70A。具体而言,虚拟形象4A、4B的相对于虚拟房间70A的中心点(或者,设定于虚拟房间70A的坐标空间)的相对位置,与虚拟形象4A、4B的相对于虚拟房间7A的中心点(或者,设定于虚拟房间7A的坐标空间)的相对位置大致一致。在虚拟形象4A的虚拟房间从虚拟房间7A更新为虚拟房间70A的前后,防止用户A的视点(配置有虚拟摄像机的虚拟形象4A的位置)变大,因而,能够恰当地防止用户A因虚拟现实而晕眩。访问虚拟形象4A的虚拟房间的虚拟形象4C,可以配置于虚拟房间70A的规定位置(本示例中,虚拟形象4A和虚拟形象4B之间的规定位置)。
再次参照图12A,用户终端1A的控制部121,根据头戴式设备110的位置及/或倾斜度,确定虚拟摄像机300的视野CV(参照图7),然后,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV,将在头戴式设备110显示的视野图像更新(步骤S40)。
在图12A中,为了说明的方便,仅说明了服务器2和用户终端1A、1C的动作处理,但是,应当注意的是,服务器2也将虚拟房间70A、虚拟形象C以及虚拟形象C、A的控制信息发送至用户终端1B。即,也更新向用户B提供的虚拟空间。该已更新的虚拟空间,包括虚拟房间70A和虚拟形象4A~4C,其中,虚拟房间70A具有桌子5A和虚拟屏幕60A。
参照图12B,对判断不应当扩大虚拟形象4A的虚拟房间的尺寸(步骤S32的NO)的情况下的处理进行说明。例如,作为前提条件,虚拟形象4B不存在于用户A的虚拟房间7A,这种情况下,服务器2的控制部23将虚拟形象的总数N确定为2。接着,控制部23,基于虚拟形象的总数N=2以及示意虚拟形象的总数N与虚拟房间的尺寸之间的关系的表格(参照表1),判断不应当扩大虚拟形象4A的虚拟房间的尺寸(步骤S32的NO)。控制部23,将S尺寸的虚拟房间7A(第1虚拟房间)、虚拟形象4A以及虚拟形象4A的控制信息发送至用户终端1C(步骤S41)。
用户终端1C的控制部121,在接收虚拟房间7A、虚拟形象4A以及虚拟形象4A的控制信息之后,基于虚拟房间7A、虚拟形象4A、4C以及虚拟形象4A、4C的控制信息,将虚拟空间数据更新(步骤S43)。具体而言,控制部121生成表示虚拟空间的虚拟空间数据,其中,该虚拟空间包括虚拟形象4A、4C和虚拟房间7A。控制部121,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV,更新在头戴式设备110显示的视野图像(步骤S44)。
在步骤S45,控制部23,将虚拟形象4C和虚拟形象4C的控制信息发送至用户终端1A。在步骤S46,用户终端1A的控制部121,接收虚拟形象4C和虚拟形象4C的控制信息。控制部121,基于虚拟房间7A、虚拟形象4A、4C以及虚拟形象4A、4C的控制信息,更新虚拟空间数据(步骤S47)。具体而言,控制部121生成表示虚拟空间的虚拟空间数据,其中,该虚拟空间包括虚拟形象4A、4C和虚拟房间7A。控制部121,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV,更新在头戴式设备110显示的视野图像(步骤S48)。实施本实施方式涉及的一系列的处理。
依照本实施方式,根据当前配置于虚拟形象4A的虚拟房间7A的虚拟形象和访问虚拟房间7A的虚拟形象的总数N,判断是否应当更新虚拟形象4A的虚拟房间,在判断应当更新虚拟形象4A的虚拟房间的情况下,将虚拟形象4A的虚拟房间从虚拟房间7A(S尺寸)更新为虚拟房间70A(M尺寸)。根据虚拟形象的总数N,扩大虚拟房间的尺寸,因而,能够防止较多虚拟形象配置于S尺寸的虚拟房间7A的、对于各用户A~C而言不愉快的状况。所以,提供了一种能够改善社交虚拟现实中的用户的虚拟体验的信息处理方法。
在虚拟形象4A、4B、4C配置于虚拟房间70A的状态下,如果虚拟形象4C退出虚拟房间70A,则可以将虚拟形象4A的虚拟房间从M尺寸的虚拟房间70A更新为S尺寸的虚拟房间7A。即,可以根据虚拟形象的总数N,缩小虚拟形象4A的虚拟房间的尺寸。
表1所示的虚拟形象的总数N与虚拟房间的尺寸之间的关系只是一个示例,随着虚拟形象的总数N每増加1,虚拟房间的尺寸可以逐渐地扩大。
本实施方式中,在用户终端1A~1C侧生成虚拟空间数据以及视野图像数据,但是,也可以在服务器2侧生成这些数据。这种情况下,各用户终端1A~1C,基于从服务器2发送的视野图像数据,在头戴式设备110显示视野图像。
参照图10、图15以及图16,对用于用户A、B收看在虚拟屏幕6A显示的影像内容的处理进行说明。图15是用于说明收看影像内容的处理的一个示例的时序图。图16(a)是示意影像内容费用表的一个示例的图。图16(b)是示意收费表的一个示例的图。本说明中,作为前提条件,如图10所示,虚拟形象4A和虚拟形象4B配置于虚拟形象4A的虚拟房间7A。即,用户A和用户B,经由通信网络3而共享一个虚拟房间7A。
如图15所示,在步骤S50,用户A实施用于收看影像内容V1的规定的操作输入。例如,用户A选择在头戴式设备110上显示的菜单画面中的“收看影像内容V1”等的选项。用户终端1A的控制部121,按照来自用户A的操作输入,生成用于要求收看影像内容V1的收看要求信号,然后,将该收看要求信号发送至服务器2。
服务器2的控制部23,从用户终端1A接收收看要求信号(步骤S51)。控制部23,从存储部22(或者,配置在通信网络3上且保存影像内容的服务器)取得影像内容V1,然后,将已取得的影像内容V1发送至用户终端1A、1B(步骤S52)。服务器2,也可以发送分时的影像内容V1。即,服务器2,可以流式(streaming)分送影像内容V1。
用户终端1A的控制部121,从服务器2接收影像内容V1(步骤S53)。控制部121,基于影像内容V1、虚拟房间7A以及虚拟形象4A、4B,更新虚拟空间数据(步骤S54)。具体而言,控制部121,通过纹理映射(texture mapping)而在虚拟屏幕6A上显示影像内容V1。控制部121生成表示虚拟空间200A的虚拟空间数据,其中,虚拟空间200A包括显示影像内容V1的虚拟屏幕6A。控制部121,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV(参照图7),更新在头戴式设备110显示的视野图像(步骤S55)。
用户终端1B的控制部121,从服务器2接收影像内容V1(步骤S56)。控制部121,基于影像内容V1、虚拟房间7A以及虚拟形象4A、4B,更新虚拟空间数据(步骤S57)。具体而言,控制部121生成表示虚拟空间200B的虚拟空间数据,其中,该虚拟空间200B包括显示影像内容V1的虚拟屏幕6A。控制部121,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV(参照图7),更新在头戴式设备110显示的视野图像(步骤S58)。
服务器2的控制部23,将存储于存储部22的收费表(参照图16(b))更新(步骤S59)。具体而言,控制部23,通过参照存储于存储部22的影像内容费用表(参照图16(a)),从而确定影像内容V1的收看单价(本示例中,影像内容V1的收看单价为300日元)。控制部23,基于影像内容V1的收看单价,更新收费表中的用户A、B的收费数据。如图16所示,每种影像内容的收看单价可以不同(本示例中,影像内容V2的收看单价为500日元)。再者,在多个虚拟形象通过一个虚拟房间收看影像内容的情况下,可以在影像内容的收看单价上适用团体打折。例如,在规定人数以上的虚拟形象通过一个虚拟房间(例如,虚拟房间7A)收看影像内容V1的情况下,影像内容V1的收看单价可以从300日元变为200日元。同样地,在规定人数以上的虚拟形象通过一个虚拟房间(例如,虚拟房间7A)收看影像内容V2的情况下,影像内容V2的收看单价可以从500日元变为300日元。
参照图17以及图18,对不更新虚拟房间的尺寸就扩大虚拟屏幕6A(第1虚拟屏幕)的处理进行说明。图17是用于说明用于扩大虚拟屏幕6A的处理(具体而言,用于从S尺寸的虚拟屏幕6A更新为M尺寸的虚拟屏幕60A(已扩大的第1虚拟屏幕)的处理)的一个示例的时序图。图18(a)是示意虚拟屏幕6A扩大之前的、向用户A提供的虚拟空间200A的图。图18(b)是示意虚拟屏幕6A扩大之后的、向用户A提供的虚拟空间200A的图。本说明中,作为前提条件,如图18(a)所示,虚拟形象4A和虚拟形象4B配置于虚拟形象4A的虚拟房间7A。即,用户A和用户B经由通信网络3而共享一个虚拟房间7A。
如图17所示,在步骤S60,用户A实施用于扩大虚拟屏幕6A的规定的操作输入。例如,用户A,选择在头戴式设备110上显示的菜单画面中的“将虚拟屏幕的尺寸扩大至M尺寸”等的选项。用户终端1A的控制部121,按照来自用户A的操作输入,向服务器2发送要求将虚拟屏幕6A的尺寸扩大至M尺寸的屏幕扩大要求信号。
服务器2的控制部23,从用户终端1A接收屏幕扩大要求信号(步骤S61)。控制部23,从存储部22取得M尺寸的虚拟屏幕60A,然后,将虚拟屏幕60A(已扩大的虚拟屏幕)发送至用户终端1A、1B(步骤S62)。
用户终端1A的控制部121,从服务器2接收虚拟屏幕60A(步骤S63)。控制部121,基于虚拟屏幕60A、虚拟房间7A以及虚拟形象4A、4B,更新虚拟空间数据(步骤S64)。具体而言,控制部121,将虚拟屏幕从S尺寸的虚拟屏幕6A更新为M尺寸的虚拟屏幕60A,然后,生成表示虚拟空间200A的虚拟空间数据,其中,虚拟空间200A包括具有虚拟屏幕60A的虚拟房间7A以及虚拟形象4A、4B。控制部121,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV(参照图7),更新在头戴式设备110显示的视野图像(步骤S65)。
在步骤S66,用户终端1B的控制部121,从服务器2接收虚拟屏幕60A。控制部121,基于虚拟屏幕60A、虚拟房间7A以及虚拟形象4A、4B,更新虚拟空间数据(步骤S67)。具体而言,控制部121,将虚拟屏幕从S尺寸的虚拟屏幕6A更新为M尺寸的虚拟屏幕60A,然后,生成表示虚拟空间的虚拟空间数据,其中,虚拟空间包括具有虚拟屏幕60A的虚拟房间7A以及虚拟形象4A、4B。控制部121,基于已更新的虚拟空间数据和虚拟摄像机300的视野CV(参照图7),更新在头戴式设备110显示的视野图像(步骤S68)。
在步骤S69,服务器2,将存储于存储部22的收费表(参照图16(b))更新。具体而言,控制部23,通过参照影像内容费用表(参照图16(a)),从而确定按照屏幕扩大要求将虚拟屏幕的尺寸扩大至M尺寸所必需的追加费用(虚拟屏幕扩大费用)。例如,在当前收看的影像内容为影像内容V1的情况下,控制部23,确定将虚拟屏幕的尺寸扩大至M尺寸所必需的虚拟屏幕扩大费用为500日元。控制部23,基于已确定的虚拟屏幕扩大费用(例如,500日元),更新收费表中的用户A的收费数据。如图16(b)所示,当用户A、B通过S尺寸的虚拟屏幕6A收看影像内容V1时,如果用户A通过规定的操作将虚拟屏幕的尺寸扩大至M尺寸,则因收看影像内容V1而向用户A收取的金额为300日元(影像内容V1的收看单价)+500日元(虚拟屏幕扩大费用)=800日元。虚拟屏幕扩大费用,可以仅由要求扩大虚拟屏幕的用户A负担,也可以由用户A、B均摊。
依照本实施方式,响应于屏幕扩大要求信号,以将虚拟形象4A的虚拟屏幕的尺寸扩大至M尺寸的方式更新该虚拟屏幕,并且,更新向用户A收取的收费额。即使在没有访问虚拟形象4A的虚拟房间7A的虚拟形象的情况下,虚拟形象4A,通过支付规定的金额,也能够利用大的虚拟屏幕享受收看影像内容等的动画。
依照本实施方式,当根据虚拟形象4A的虚拟房间的尺寸的扩大(虚拟房间7A→虚拟房间70A)而将虚拟屏幕的尺寸扩大至M尺寸(虚拟屏幕6A→虚拟屏幕60A)时向用户A收取的收费额,优选为低于当响应于屏幕扩大要求信号而将虚拟屏幕的尺寸扩大至M尺寸时向用户A收取的收费额。例如,前者的收费额,例如为0日元,而后者的收费额,如图16(a)所示,为500日元。前者的收费额低于后者的收费额,因而能够促进较多用户在同一虚拟房间内享受收看同一影像内容。所以,能够促进用户间的虚拟房间的访问(社交虚拟现实)。
<第2的实施例>
参照图19以及图20,对于在用户终端1A和用户终端1B之间使各虚拟形象4A、4B的运动同步的处理的一个示例进行说明。图19(a)是示意向用户A提供的虚拟空间200A的图。图19(b)是示意向用户B提供的虚拟空间200B的图。图20是用于说明在用户终端1A和用户终端1B之间使各虚拟形象4A、4B的运动同步的处理的一个示例的时序图。本说明中,作为前提条件,如图19所示,对应于用户终端1A(用户A)的虚拟形象4A和对应于用户终端1B(用户B)的虚拟形象4B共享同一虚拟空间。即,用户A和用户B经由通信网络3共享一个虚拟空间。
如图19(a)所示,用户A的虚拟空间200A包括虚拟形象4A、虚拟形象4B以及虚拟屏幕6A。虚拟形象4A由用户A操作,并且,与用户A的动作联动。虚拟形象4B由用户B操作,并且,与用户B的动作联动。
例如,可以根据用户终端1A、1B的头戴式设备110的位置,确定虚拟形象4A、4B的位置。同样地,可以根据用户终端1A、1B的头戴式设备110的倾斜度,确定虚拟形象4A、4B的脸的朝向。再者,可以根据用户终端1A、1B的外部控制器的动作,确定虚拟形象4A、4B的手的动作。可以根据表示由注视传感器140检测的用户A、B的视线的数据,确定虚拟形象4A、4B的眼黑区相对于眼白区的相对位置。尤其是,可以根据表示由左眼用注视传感器检测的用户左眼的视线的数据,确定虚拟形象的左眼的眼黑区相对于左眼的眼白区的相对位置。再者,可以根据表示由右眼用注视传感器检测的用户右眼的视线的数据,确定虚拟形象的右眼的眼黑区相对于右眼的眼白区的相对位置。
可以根据用户终端1A、1B的头戴式设备110的倾斜度,确定虚拟形象4A、4B的视线。换言之,可以根据虚拟摄像机的视轴L,确定虚拟形象的视线。在此,虚拟形象的视线是指虚拟形象的双眼部的视线。可以基于用户终端1A、1B的头戴式设备110的倾斜度以及用户A、B的视线(用户A、B的双眼部的视线),确定虚拟形象4A、4B的视线。在此,如上所述,可以根据表示由注视传感器140检测的用户A、B的视线的数据,确定用户A、B的视线。
在虚拟形象4A、4B的各自的眼部,可以配置有虚拟摄像机300(图6)。尤其是,在虚拟形象4A、4B的各自的左眼,可以配置有左眼用虚拟摄像机,并且,在虚拟形象4A、4B的各自的右眼,可以配置有右眼用虚拟摄像机。在以下的说明中,虚拟摄像机300配置于虚拟形象4A、4B的各自的眼部。因此,图7所示的虚拟摄像机300的视野CV,与虚拟形象4A、4B的各自的视野CV一致。
虚拟屏幕6A,构成为显示影像内容(动画)。控制部121,能够通过纹理映射而在虚拟屏幕6A的表面上显示影像内容。用户A、B,各自能够通过在头戴式设备110显示的视野图像而享受在虚拟屏幕6A显示的影像内容。
如图19(b)所示,用户B的虚拟空间200B,包括虚拟形象4A、虚拟形象4B以及虚拟屏幕6A。虚拟空间200A内的虚拟形象4A、4B的位置,可以与虚拟空间200B内的虚拟形象4A、4B的位置对应。
参照图20,在步骤S70,用户终端1A的控制部121生成用户A的声音数据。例如,在用户A向用户终端1A的麦克风118输入声音时,麦克风118生成表示已输入的声音的声音数据。麦克风118经由输入输出接口124而将已生成的声音数据发送至控制部121。
在步骤S71,用户终端1A的控制部121,生成虚拟形象4A的控制信息,然后,将该生成的虚拟形象4A的控制信息和表示用户A的声音的声音数据(用户A的声音数据)发送至服务器2。服务器2的控制部23,从用户终端1A接收虚拟形象4A的控制信息和用户A的声音数据(步骤S72)。在此,虚拟形象4A的控制信息,为控制虚拟形象4A的动作所必需的信息。虚拟形象4A的控制信息,包括与虚拟形象4A的视线相关的信息(视线信息)。再者,虚拟形象4A的控制信息,可以还包括与虚拟形象4A的位置相关的信息、与虚拟形象4A的脸的朝向相关的信息、与虚拟形象4A的手的动作相关的信息以及与虚拟形象4A的眼部的运动(尤其是,眼黑区的运动)相关的信息。
在步骤S73,用户终端1B的控制部121,生成虚拟形象4B的控制信息,然后,将该生成的虚拟形象4B的控制信息发送至服务器2。服务器2的控制部23,从用户终端1B接收虚拟形象4B的控制信息(步骤S74)。在此,虚拟形象4B的控制信息,为控制虚拟形象4B的动作所必需的信息。虚拟形象4B的控制信息,包括与虚拟形象4B的视线相关的信息(视线信息)。再者,虚拟形象4B的控制信息,可以还包括与虚拟形象4B的位置相关的信息、与虚拟形象4B的脸的朝向相关的信息、与虚拟形象4B的手的动作相关的信息以及与虚拟形象4B的眼部的运动(尤其是,眼黑区的运动)相关的信息。
服务器2,将虚拟形象4B的控制信息发送至用户终端1A(步骤S75),另一方面,将虚拟形象4A的控制信息和用户A的声音数据发送至用户终端1B(步骤S79)。用户终端1A的控制部121,在步骤S76接收虚拟形象4B的控制信息,然后,基于虚拟形象4A、4B的控制信息,将表示虚拟空间200A(参照图19(a))的虚拟空间数据更新(步骤S77)。例如,在虚拟形象4A、4B已移动的情况下,生成表示虚拟空间的虚拟空间数据,其中,该虚拟空间包括移动后的虚拟形象4A、4B。用户终端1A的控制部121,根据头戴式设备110的位置及/或倾斜度,确定虚拟形象4A(虚拟摄像机300)的视野CV,然后,基于已更新的虚拟空间数据和虚拟形象4A的视野CV,更新在头戴式设备110显示的视野图像(步骤S78)。
用户终端1B的控制部121,在步骤S80接收虚拟形象4A的控制信息和用户A的声音数据,然后,基于虚拟形象4A、4B的控制信息,将表示虚拟空间200B(参照图19(b))的虚拟空间数据更新(步骤S81)。用户终端1B的控制部121,根据头戴式设备110的位置及/或倾斜度,确定虚拟形象4B(虚拟摄像机300)的视野CV,然后,基于已更新的虚拟空间数据和虚拟形象4B的视野CV,更新在头戴式设备110显示的视野图像(步骤S82)。
用户终端1B的控制部121,基于已接收的用户A的声音数据、虚拟形象4A的控制信息所包含的与虚拟形象4A的位置相关的信息以及规定的声音处理算法,对用户A的声音数据进行加工。控制部121将已加工的声音数据发送至耳机116,然后,耳机116基于已加工的声音数据,输出用户A的声音(步骤S83)。在虚拟空间上,能够实现用户间(虚拟形象间)的语音聊天。
本实施方式中,用户终端1A、1B分别向服务器2发送虚拟形象4A的控制信息和虚拟形象4B的控制信息,然后,服务器2将虚拟形象4A的控制信息发送至用户终端1B,将虚拟形象4B的控制信息发送至用户终端1A。能够在用户终端1A和用户终端1B之间,使各虚拟形象4A、4B的运动同步。图20所示的各处理,可以在每一帧实施。
在用户终端1A~1C之间使各虚拟形象4A~4C的运动同步的情况下,用户终端1A将虚拟形象4A的控制信息发送至服务器2,用户终端1B将虚拟形象4B的控制信息发送至服务器2,用户终端1C将虚拟形象4C的控制信息发送至服务器2。服务器2,将虚拟形象4A、4C的控制信息发送至用户终端1B,将虚拟形象4B、4C的控制信息发送至用户终端1A,将虚拟形象4A、4B的控制信息发送至用户终端1C。
(第1实施方式)
参照图21~图24,对第1实施方式涉及的信息处理方法进行说明。图21是用于说明第1实施方式涉及的信息处理方法的一个示例的流程图。图22是示意在向用户终端1B的麦克风118输入声音之前向用户A提供的虚拟空间200A的平面图。图23是示意在向用户终端1B的麦克风118输入声音之前在用户终端1A的头戴式设备110显示的视野图像V的一个示例的图。图24是示意在向用户终端1B的麦克风118输入声音之后在用户终端1A的头戴式设备110显示的视野图像V的一个示例的图。
在第1实施方式中,作为前提条件,如图22所示,虚拟形象4A、虚拟形象4B以及对应于用户终端1C(用户C)的虚拟形象4C共享同一虚拟空间。即,用户A~C经由通信网络3而共享一个虚拟空间。虚拟形象4C由用户C操作,并且,与用户C的动作联动。虚拟形象4A~4C,收看在虚拟屏幕6A的显示画面60A上显示的影像内容。如图22所示,未可视化的虚拟形象4A的视线Sla是指显示画面60A的规定部位。
用户A的虚拟空间200A,包括虚拟形象4A、虚拟形象4B、虚拟形象4C以及虚拟屏幕6A。用户终端1A的控制部121,生成表示虚拟空间200A的虚拟空间数据。
参照图21,在步骤S90,用户终端1A的控制部121(以下,简称为控制部121)确定虚拟形象4A的视野CV。如上所述,虚拟形象4A的视野CV,与配置于虚拟形象4A的眼部的虚拟摄像机的视野CV一致。控制部121,根据用户终端1A的头戴式设备110的运动,更新虚拟形象4A的视野CV。虚拟形象4A的视野CV的更新处理,可以在每一帧实施。再者,控制部121,基于已更新的视野CV和表示虚拟空间200A的虚拟空间数据,更新在头戴式设备110显示的视野图像V。视野图像的更新处理也可以在每一帧实施。
在步骤S91,控制部121,从服务器2接收控制虚拟形象4B的动作所必需的虚拟形象4B的控制信息。在此,虚拟形象4B的控制信息,包括与虚拟形象4B的视线相关的信息(视线信息)。具体而言,服务器2,在从用户终端1B接收虚拟形象4B的控制信息之后,将虚拟形象4B的控制信息发送至用户终端1A、1C。控制部121,从服务器2接收虚拟形象4B的控制信息。
在步骤S92,控制部121,从服务器2接收控制虚拟形象4C的动作所必需的虚拟形象4C的控制信息。在此,虚拟形象4C的控制信息,包括虚拟形象4C的视线信息。具体而言,服务器2,在从用户终端1C接收虚拟形象4C的控制信息之后,将虚拟形象4C的控制信息发送至用户终端1A、1B。控制部121,从服务器2接收虚拟形象4C的控制信息。
应当注意的是,在步骤S91的处理之前,控制部121,将控制虚拟形象4A的动作所必需的虚拟形象4A的控制信息发送至服务器2。
控制部121,基于虚拟形象4B的控制信息所包含的与虚拟形象4B的位置相关的信息,判断虚拟形象4B是否存在于虚拟形象4A的视野CV内(步骤S93)。控制部121,在判断虚拟形象4B不存在于虚拟形象4A的视野CV内的情况下(步骤S93的NO),基于虚拟形象4B的视线信息,生成虚拟形象4B的视线物件5B(参照图22)(步骤S94)。
例如,如图22所示,控制部121,可以基于虚拟形象4B的视线以及虚拟形象4B的视线和虚拟屏幕6A的显示画面60A的交叉点Ca,生成视线物件5B。尤其是,控制部121,可以基于虚拟形象4B的视线的方向而确定视线物件5B的方向,并且,基于虚拟形象4B的位置和交叉点Ca之间的距离而确定视线物件5B的长度。
控制部121,在判断虚拟形象4B存在于虚拟形象4A的视野CV内的情况下(步骤S93的YES),进行步骤S95的处理。控制部121,在步骤S95,基于虚拟形象4C的控制信息所包含的与虚拟形象4C的位置相关的信息,判断虚拟形象4C是否存在于虚拟形象4A的视野CV内(步骤S95)。控制部121,在判断虚拟形象4C不存在于虚拟形象4A的视野CV内的情况下(步骤S95的NO),基于虚拟形象4C的视线信息,生成虚拟形象4C的视线物件5C(参照图22)(步骤S96)。
例如,如图22所示,控制部121,可以基于虚拟形象4C的视线以及虚拟形象4C的视线和虚拟屏幕6A的显示画面60A的交叉点Cb,生成视线物件5C。尤其是,控制部121,可以基于虚拟形象4C的视线的方向而确定视线物件5C的方向,并且,基于虚拟形象4C的位置和交叉点Cb之间的距离而确定视线物件5C的长度。控制部121,在判断虚拟形象4C存在于虚拟形象4A的视野CV内的情况下(步骤S95的YES),进行步骤S97的处理。
由于生成视线物件5B,5C,因而虚拟形象4B、4C的视线在虚拟空间200A上可视化。例如,如图23所示,在显示于用户终端1A的头戴式设备110上的视野图像V中,显示已可视化的虚拟形象4B、4C的视线(即,视线物件5B、5C)。
在步骤S97,控制部121,接收表示用户B的声音的声音数据(用户B的声音数据)。例如,在用户B向用户终端1B的麦克风118输入声音(例如,“加油!”)的情况下,麦克风118,生成表示已输入的声音的声音数据,然后,经由输入输出接口124将已生成的声音数据发送至用户终端1B的控制部121。在用户终端1B的控制部121将声音数据发送至服务器2之后,服务器2将声音数据发送至用户终端1A、1C。用户终端1A的控制部121,从服务器2接收用户B的声音数据。控制部121,基于已接收的用户B的声音数据、虚拟形象4B的控制信息所包含的与虚拟形象4B的位置相关的信息以及规定的声音处理算法,对用户B的声音数据进行加工。控制部121将已加工的声音数据发送至耳机116,然后,耳机116基于已加工的声音数据,输出用户B的声音。
控制部121,以使视线物件5B的显示形态变化的方式更新视线物件5B(步骤S98)。在这方面,控制部121,可以使视线物件5B的形状及/或颜色在时间轴上连续地变化,以作为视线物件5B的显示形态的变化。例如,如图24所示,控制部121,可以使视线物件5B的形状波状地变化。尤其是,视线物件5B的波状可以在时间轴上连续地变化。
在已更新的视线物件5B和视线物件5C存在于虚拟形象4A的视野内的情况下,控制部121,如图24所示,使包括已更新的视线物件5B和视线物件5C的视野图像V在用户终端1A的头戴式设备110显示。
依照本实施方式,在向用户终端1B的麦克风118输入用户B的声音(“加油!”)的情况下,用户终端1B经由服务器2而接收用户B的声音数据。以使虚拟形象4B的视线物件5B的显示形态变化的方式更新视线物件5B,在用户终端1A的头戴式设备110上显示包括已更新的视线物件5B和视线物件5C的视野图像V。因此,用户A,能够通过辨认视线物件5B的显示形态的变化,从而容易地把握声音从对应于虚拟形象4B的用户B输出。即,用户A,能够通过视线物件5B的显示形态的变化而容易地把握哪个用户当前正在说话。所以,能够提供一种信息处理方法,该信息处理方法能够改善由多个用户共享的虚拟空间中的用户的虚拟体验。
依照本实施方式,在虚拟形象4B不存在于虚拟形象4A的视野CV内的情况下,基于虚拟形象4B的视线和交叉点Ca,生成视线物件5B。再者,在虚拟形象4C不存在于虚拟形象4A的视野CV内的情况下,基于虚拟形象4C的视线和交叉点Cb,生成视线物件5C。即使在视野图像V内未显示虚拟形象4B、4C,用户A也能够通过辨认视线物件5B的显示形态的变化,从而容易地把握声音从对应于虚拟形象4B的用户B输出。
本实施方式中,当虚拟形象4B(4C)存在于虚拟形象4A的视野CV内时,用户A能够比较容易地把握哪个用户当前正在说话,因此,不生成视线物件5B(5C)。然而,即使虚拟形象4B(4C)存在于虚拟形象4A的视野CV内,控制部121也可以生成视线物件5B(5C)。
(第2实施方式)
参照图25~图27,对第2实施方式涉及的信息处理方法进行说明。图25是用于说明第2实施方式涉及的信息处理方法的一个示例的流程图。图26是示意在向用户终端1B的麦克风118输入声音之后向用户A提供的虚拟空间200A的平面图。图27是示意在向用户终端1B的麦克风118输入声音之后在用户终端1A的头戴式设备110显示的视野图像V的一个示例的图。第2实施方式的前提条件与第1实施方式的前提条件相同。
参照图25,在步骤S100,用户终端1A的控制部121(以下,简称为控制部121)确定虚拟形象4A的视野CV。控制部121,从服务器2接收包括虚拟形象4B的视线信息的虚拟形象4B的控制信息(步骤S101)。控制部121,从服务器2接收包括虚拟形象4C的视线信息的虚拟形象4C的控制信息(步骤S102)。应当注意的是,控制部121,在步骤S101的处理之前,将虚拟形象4A的控制信息发送至服务器2。
在步骤S103,控制部121,在从服务器2接收表示用户B的声音(例如,“加油!”)的声音数据(用户B的声音数据)之后,对用户B的声音数据进行加工。耳机116,基于已加工的声音数据而输出用户B的声音。
控制部121,决定输出声音的用户为用户B,然后,基于虚拟形象4B的控制信息所包含的与虚拟形象4B的位置相关的信息,判断虚拟形象4B是否存在于虚拟形象4A的视野CV内(步骤S104)。控制部121,在判断虚拟形象4B不存在于虚拟形象4A的视野CV内的情况下(步骤S104的NO),基于虚拟形象4B的视线信息,生成虚拟形象4B的视线物件5B(参照图26)(步骤S105)。视线物件5B的生成方法如上所述。在步骤S104的判断結果为YES的情况下,不生成虚拟形象4B的视线物件5B。
由于仅生成对应于输出声音的用户B的虚拟形象4B的视线物件5B,因而,只有虚拟形象4B的视线在虚拟空间200A上可视化。例如,如图27所示,在显示于用户终端1A的头戴式设备110上的视野图像V中,仅显示已可视化的虚拟形象4B的视线(即,视线物件5B)。由于不生成与虚拟形象4C的视线SLc(参照图26)相对应的视线物件,因而,不将虚拟形象4C的视线SLc可视化。
依照本实施方式,在视线物件5B存在于虚拟形象4A的视野CV内的情况下,控制部121,如图27所示,使包括视线物件5B的视野图像V在用户终端1A的头戴式设备110显示。因此,用户A,能够通过辨认在视野图像V内显示的视线物件5B,从而容易地把握声音从对应于虚拟形象4B的用户B输出。
依照本实施方式,在虚拟形象4B不存在于虚拟形象4A的视野CV内的情况下,生成视线物件5B。即使在视野图像V内不显示虚拟形象4B,用户A也能够通过辨认视线物件5B,从而容易地把握声音从对应于虚拟形象4B的用户B输出。即使虚拟形象4B存在于虚拟形象4A的视野CV内,控制部121也可以生成视线物件5B。
(第3实施方式)
参照图28~图30,对第3实施方式涉及的信息处理方法进行说明。图28是用于说明第2实施方式涉及的信息处理方法的一个示例的流程图。图29(a)是向用户A提供的、示意虚拟形象4B向虚拟形象4A搭话的情形的虚拟空间200A的平面图。图29(b)是向用户A提供的、示意虚拟形象4A向虚拟形象4B回顾的情形的虚拟空间200A的平面图。图30(a)是示意图29(a)中的虚拟形象4B的脸面的状态的图。图30(b)是示意图29(b)中的虚拟形象4B的脸面的状态的图。第3实施方式的前提条件,除了各虚拟形象的配置位置以外,与第1实施方式的前提条件相同。
参照图28,在步骤S110,用户终端1A的控制部121(以下,简称为控制部121)确定虚拟形象4A的视野CV。控制部121,从服务器2接收包括虚拟形象4B的视线信息的虚拟形象4B的控制信息(步骤S111)。控制部121,从服务器2接收包括虚拟形象4C的视线信息的虚拟形象4C的控制信息(步骤S112)。应当注意的是,控制部121,在步骤S111的处理之前,将虚拟形象4A的控制信息发送至服务器2。
在步骤S113,控制部121,在从服务器2接收表示用户B的声音(例如,“哎哎”)的声音数据(用户B的声音数据)之后,对用户B的声音数据进行加工。耳机116,基于已加工的声音数据而输出用户B的声音。
控制部121,决定输出声音的用户为用户B,然后,判断是否在虚拟形象4B的视线SLb朝向虚拟形象4A的状态下接收用户B的声音数据(步骤S114)。具体而言,控制部121,在从服务器2接收用户B的声音数据的期间,基于虚拟形象4B的视线信息以及与虚拟形象4B、4A的位置相关的信息,判断虚拟形象4B的视线SLb是否与虚拟形象4A交叉。在步骤S114的判断結果为YES的情况下,控制部121,判断虚拟形象4B是否存在于虚拟形象4A的视野CV内(步骤S115)。在步骤S115的判断結果为NO的情况下,控制部121,以使虚拟形象4B的显示形态变化的方式更新虚拟形象4B(步骤S116)。
例如,控制部121,如图29(b)所示,可以使虚拟形象4B的脸面的颜色变化。控制部121,也可以使虚拟形象4B的脸面以外的规定部位的颜色及/或形状等变化。在虚拟形象4A响应于虚拟形象4B的搭话(“哎哎”)而向虚拟形象4B回顾的情况下,如图29(b)所示,已更新的虚拟形象4B(脸面的颜色已变化的虚拟形象4B)和虚拟形象4C位于虚拟形象4A的视野CV内。即,在用户终端1A的头戴式设备110,显示包括虚拟形象4C和脸面的颜色已变化的虚拟形象4B的视野图像,因而,用户A,能够通过辨认脸面的颜色已变化的虚拟形象4B,从而容易地把握向虚拟形象4A搭话的虚拟形象为虚拟形象4B。依照本实施方式,用户A,能够通过辨认虚拟形象4B的显示形态的变化,从而容易地把握声音从对应于虚拟形象4B的用户B输出。在步骤S114的判断結果为NO的情况下,或者,在步骤S115的判断結果为YES的情况下,虚拟形象4B的显示形态不变化。
依照本实施方式,在虚拟形象4B不存在于虚拟形象4A的视野CV内的情况下,虚拟形象4B的显示形态变化。用户A,在被虚拟形象4B搭话时,即使在视野图像V内不显示虚拟形象4B,随后也能够通过辨认虚拟形象4B的显示形态的变化,从而容易地把握声音从对应于虚拟形象4B的用户B输出。即使虚拟形象4B不存在于虚拟形象4A的视野CV内,控制部121也可以使虚拟形象4B的显示形态变化。
在第1~第3实施方式的说明中,将在用户终端1A侧更新表示虚拟空间200A的虚拟空间数据作为前提,但是,也可以在服务器2侧更新虚拟空间数据。再者,在第1~第3实施方式的说明中,将在用户终端1A侧更新与视野图像V对应的视野图像数据作为前提,但是,也可以在服务器2侧更新视野图像数据。这种情况下,用户终端1A,基于从服务器2发送的视野图像数据,在头戴式设备110显示视野图像。
为了通过软件实现由服务器2的控制部23(或者用户终端1的控制部121)实施的各种处理,用于使计算机(处理器)实施各种处理的控制程序可以预先集成于存储部22(或者存储部123)或者存储器。或者,控制程序,可以存储于磁盘(硬盘、软盘)、光盘(CD-ROM、DVD-ROM,Blu-ray disk等)、磁光盘(MO等)以及闪存(SD card、USB存储器、SSD等)等的计算机可读取的存储介质。这种情况下,存储介质连接于服务器2(或者控制装置120),使得存储于该存储介质的控制程序集成于存储部22(或者存储部123)。然后,在RAM上加载集成于存储部22(或者存储部123)的控制程序,处理器执行所加载的该程序,使得控制部23(或者控制部121)实施各种处理。
可以经由通信接口从通信网络3上的计算机下载控制程序。这种情况下,同样地,所下载的该控制程序集成于存储部22(或者存储部123)。
以上,说明了本公开的实施方式,但本发明的技术范围并不由本实施方式的说明限定性地解释。本领域的技术人员能够理解的是,本实施方式为一个示例,在权利要求书所记载的发明的范围内,能够进行各种实施方式的变更。本发明的技术范围以权利要求书所记载的发明的范围及其等同范围为准。
[附注事项1]
(1)一种在虚拟空间分送系统中由计算机实施的信息处理方法,其中,该虚拟空间分送系统具备多个用户终端和服务器,该多个用户终端各自具有安装于用户的头部的头戴式设备,
所述信息处理方法,包括:
(a)生成规定第1虚拟空间的第1虚拟空间数据的步骤,其中,该第1虚拟空间包括对应于所述多个用户终端中的第1用户终端的第1虚拟形象和配置有所述第1虚拟形象的第1虚拟房间;
(b)从所述多个用户终端中的第2用户终端接收对应于所述第2用户终端的第2虚拟形象要求访问所述第1虚拟房间的访问要求信号的步骤;
(c)在所述步骤(b)之后,根据当前配置于所述第1虚拟房间的虚拟形象和所述第2虚拟形象的总数,判断是否应当更新所述第1虚拟房间的步骤;以及
(d)在判断应当更新所述第1虚拟房间的情况下,以更新所述第1虚拟房间的尺寸的方式更新所述第1虚拟房间的步骤。
(2)如项目(1)所述的信息处理方法,其中,以维持所述第1虚拟形象和所述第1虚拟房间之间的相对位置关系的方式,将所述第1虚拟形象配置于所述已更新的第1虚拟房间。
(3)如项目(1)或(2)所述的信息处理方法,其中,所述第1虚拟房间包括显示动画的第1虚拟屏幕,
所述步骤(d),包括根据所述第1虚拟房间的尺寸的扩大,以所述第1虚拟屏幕的尺寸扩大的方式更新所述第1虚拟房间的步骤。
(4)如项目(1)至(3)中的任一项所述的信息处理方法,其中,所述第1虚拟房间包括显示动画的第1虚拟屏幕,所述信息处理方法还包括:
(e)从所述第1用户终端接收要求将所述第1虚拟屏幕的尺寸扩大至规定的尺寸的屏幕扩大要求信号的步骤;以及
(f)响应于所述屏幕扩大要求信号,以将所述第1虚拟屏幕的尺寸扩大至所述规定的尺寸的方式更新所述第1虚拟屏幕的步骤。
(5)如项目(4)所述的信息处理方法,还包括:
(g)决定收费额的步骤,其中,该收费额是由于安装了所述第1用户终端的头戴式设备的第1用户收看所述动画而向所述第1用户收取的,
所述步骤(g),包括响应于所述屏幕扩大要求信号而更新向所述第1用户收取的收费额的步骤。
(6)如项目(5)所述的信息处理方法,其中,所述步骤(d),包括根据所述第1虚拟房间的尺寸的扩大,以所述第1虚拟屏幕的尺寸扩大的方式更新所述第1虚拟房间的步骤,
当根据所述第1虚拟房间的尺寸的扩大而将所述第1虚拟屏幕的尺寸扩大至规定的尺寸时向所述第1用户收取的第1收费额,低于当响应于所述屏幕扩大要求信号而将所述第1虚拟屏幕的尺寸扩大至所述规定的尺寸时向所述第1用户收取的第2收费额。
(7)一种程序,用于使计算机实施如项目(1)至(6)中的任一项所述的信息处理方法。
[附注事项2]
对本公开所示的实施方式的概要进行说明。
(1)一种在虚拟空间分送系统中由计算机实施的信息处理方法,其中,该虚拟空间分送系统具备多个用户终端和服务器,该多个用户终端各自具有头戴式设备、输入声音的声音输入部以及输出声音的声音输出部,
所述信息处理方法,
(a)生成规定虚拟空间的虚拟空间数据的步骤,其中,该虚拟空间包括对应于所述多个用户终端中的第1用户终端的第1虚拟形象、对应于所述多个用户终端中的第2用户终端的第2虚拟形象以及对应于所述多个用户终端中的第3用户终端的第3虚拟形象;
(b)根据所述第1用户终端的头戴式设备的运动,更新所述第1虚拟形象的视野的步骤;
(c)基于所述第1虚拟形象的视野和所述虚拟空间数据,在所述第1用户终端的头戴式设备显示视野图像的步骤;
(d)在向所述第2用户终端的声音输入部输入声音的情况下,从所述第2用户终端接收表示所述已输入的声音的声音数据的步骤;以及
(e)在所述步骤(d)之后,在显示于所述第1用户终端的头戴式设备的视野图像上,使所述第2虚拟形象的显示形态或所述第2虚拟形象的视线的显示形态变化的步骤。
(2)如项目(1)所述的信息处理方法,还包括:
(f)基于所述第2虚拟形象的视线而生成第2视线物件的步骤;以及
(g)基于所述第3虚拟形象的视线而生成第3视线物件的步骤,
所述步骤(e),包括:
(e1)在所述步骤(d)之后,以使所述第2视线物件的显示形态变化的方式更新所述第2视线物件的步骤;以及
(e2)在所述已更新的第2视线物件和所述第3视线物件存在于所述第1虚拟形象的视野内的情况下,在所述第1用户终端的头戴式设备显示包括所述已更新的第2视线物件和所述第3视线物件的视野图像的步骤。
(3)如项目(2)所述的信息处理方法,其中,
在所述第2虚拟形象不存在于所述第1虚拟形象的视野内的情况下,实施所述步骤(f),
在所述第3虚拟形象不存在于所述第1虚拟形象的视野内的情况下,实施所述步骤(g)。
(4)如项目(1)所述的信息处理方法,其中,所述步骤(e),包括:
(e3)在所述步骤(d)之后,基于所述第2虚拟形象的视线而生成第2视线物件的步骤;以及
(e4)在所述第2视线物件存在于所述第1虚拟形象的视野内的情况下,在所述第1用户终端的头戴式设备显示包括所述第2视线物件的视野图像的步骤。
(5)如项目(4)所述的信息处理方法,其中,在所述第2虚拟形象不存在于所述第1虚拟形象的视野内的情况下,实施所述步骤(e3)。
(6)如项目(1)所述的信息处理方法,其中,所述步骤(e),包括:
(e5)在所述步骤(d)之后,如果在所述第2虚拟形象的视线朝向所述第1虚拟形象的状态下向所述第2用户终端的声音输入部输入声音,则以使所述第2虚拟形象的显示形态变化的方式更新所述第2虚拟形象的步骤;以及
(e6)在所述第2虚拟形象存在于所述第1虚拟形象的视野内的情况下,在所述第1用户终端的头戴式设备显示包括所述已更新的第2虚拟形象的视野图像的步骤。
(7)如项目(6)所述的信息处理方法,其中,在所述第2虚拟形象不存在于所述第1虚拟形象的视野内的情况下,实施所述步骤(e5)。
(8)一种程序,用于使计算机实施如项目(1)至(7)中的任一项所述的信息处理方法。
符号说明
U,A、B,C:用户
1,1A、1B,1C:用户终端
2:服务器
3:通信网络
4A、4B、4C:虚拟形象
5A:虚拟桌子
6A:虚拟屏幕
7A:虚拟房间
7C:虚拟房间
21:通信接口
22:存储部
23:控制部
24:总线
60A:虚拟屏幕
70A:虚拟房间
100:虚拟空间分送系统(分送系统)
112:显示部
114:传感器
116:耳机
118:麦克风
120:控制装置
121:控制部
123:存储部
124:输入输出接口
125:通信接口
126:总线
130:位置传感器
140:注视传感器
200,200A,200B,200C,220A,220C:虚拟空间
210:中心位置
300:虚拟摄像机
320:外部控制器
Claims (15)
1.一种方法,包括:
生成定义第1虚拟空间的第1虚拟空间数据的步骤,其中,该第1虚拟空间包括第1虚拟形象和第1虚拟房间,所述第1虚拟形象对应于第1用户终端,在所述第1虚拟房间配置有所述第1虚拟形象以及显示动画的第1虚拟屏幕,并检测所述第1用户终端所包括的头戴式设备的运动;
根据所述头戴式设备的运动,确定所述第1虚拟空间中的视野的步骤;
在所述头戴式设备显示根据所述第1虚拟空间的所述视野的视野图像的步骤;
从第2用户终端接收对应于所述第2用户终端的第2虚拟形象要求访问所述第1虚拟房间的访问要求信号的步骤;
根据配置于所述第1虚拟房间的所述第1虚拟形象和所述第2虚拟形象的总数,通过更新所述第1虚拟屏幕的尺寸,从而更新所述第1虚拟空间数据的步骤;以及
基于已更新的所述第1虚拟空间数据,更新所述视野图像的步骤。
2.如权利要求1所述的方法,还包括:
根据配置于所述第1虚拟房间的所述第1虚拟形象和所述第2虚拟形象的总数,通过更新所述第1虚拟房间的尺寸,从而更新所述第1虚拟空间数据的步骤。
3.如权利要求1所述的方法,其中,以维持更新所述第1虚拟房间的尺寸之前的所述第1虚拟形象和所述第1虚拟房间之的间的相对位置关系的方式,更新所述第1虚拟房间的尺寸。
4.如权利要求2所述的方法,包括:
根据所述第1虚拟房间的尺寸的扩大,自动地扩大所述第1虚拟屏幕的尺寸的步骤。
5.如权利要求1所述的方法,其中,所述方法还包括决定收费额的步骤,该收费额是由于所述第1用户收看所述动画而向所述第1用户收取的,
根据已更新的所述第1虚拟屏幕的尺寸,更新向所述第1用户收取的收费额。
6.如权利要求5所述的方法,其中,所述方法包括:
根据所述第1虚拟房间的尺寸的扩大,自动地扩大所述第1虚拟屏幕的尺寸的步骤;以及
根据所述第1用户或所述第2用户的指示,扩大所述第1虚拟屏幕的尺寸的步骤,
当根据所述第1虚拟房间的尺寸的扩大而自动地将所述第1虚拟屏幕的尺寸扩大至规定的尺寸时向所述第1用户或所述第2用户收取的第1收费额,低于当根据所述第1用户或所述第2用户的指示而将所述第1虚拟屏幕的尺寸扩大至所述规定的尺寸时向所述第1用户或所述第2用户收取的第2收费额。
7.如权利要求1所述的方法,还包括:
从所述第1用户终端接收要求将所述第1虚拟屏幕的尺寸扩大至规定的尺寸的指示的步骤;以及
根据所述指示,以将所述第1虚拟屏幕的尺寸扩大至所述规定的尺寸的方式更新所述第1虚拟屏幕的步骤。
8.如权利要求7所述的方法,其中,所述方法还包括决定收费额的步骤,该收费额是由于所述第1用户收看所述动画而向所述第1用户收取的,
根据所述指示,决定向所述第1用户收取的收费额。
9.如权利要求1所述的方法,其中,所述第1虚拟空间,还包括对应于第2用户终端的第2虚拟形象和对应于第3用户终端的第3虚拟形象,
所述方法还包括:
在向所述第2用户终端的声音输入部输入声音的情况下,从所述第2用户终端接收表示所述已输入的声音的声音数据的步骤;
基于所述第2虚拟形象的视线而生成第2视线物件的步骤;
基于所述第3虚拟形象的视线而生成第3视线物件的步骤;
以使所述第2视线物件的显示形态变化的方式更新所述第2视线物件的步骤;
在所述已更新的第2视线物件和所述第3视线物件存在于所述第1虚拟形象的视野内的情况下,在所述第1用户终端的头戴式设备显示包括所述已更新的第2视线物件和所述第3视线物件的视野图像的步骤。
10.如权利要求9所述的方法,其中,
在所述第2虚拟形象不存在于所述第1虚拟形象的视野内的情况下,基于所述第2虚拟形象的视线而生成第2视线物件,
在所述第3虚拟形象不存在于所述第1虚拟形象的视野内的情况下,基于所述第3虚拟形象的视线而生成第3视线物件。
11.如权利要求1所述的方法,其中,所述第1虚拟空间,还包括对应于第2用户终端的第2虚拟形象和对应于第3用户终端的第3虚拟形象,
所述方法包括:
在向所述第2用户终端的声音输入部输入声音的情况下,从所述第2用户终端接收表示所述已输入的声音的声音数据的步骤;
基于已接收的所述声音数据以及所述第2虚拟形象的视线,生成第2视线物件的步骤;
在所述第2视线物件存在于所述第1虚拟形象的视野内的情况下,在所述第1用户终端的头戴式设备显示包括所述第2视线物件的视野图像的步骤。
12.如权利要求11所述的方法,其中,
在所述第2虚拟形象不存在于所述第1虚拟形象的视野内的情况下,基于所述第2虚拟形象的视线而生成第2视线物件。
13.如权利要求1所述的方法,其中,所述第1虚拟空间,还包括对应于第2用户终端的第2虚拟形象和对应于第3用户终端的第3虚拟形象,
所述方法包括:
在向所述第2用户终端的声音输入部输入声音的情况下,从所述第2用户终端接收表示所述已输入的声音的声音数据的步骤;
在所述第2虚拟形象的视线朝向所述第1虚拟形象的状态下,向所述第2用户终端的声音输入部输入声音,在所述第2虚拟形象不存在于所述第1虚拟形象的视野内的情况下,使所述第2虚拟形象的显示形态变化的步骤;以及
在所述第2虚拟形象存在于所述第1虚拟形象的视野内的情况下,在所述第1用户终端的头戴式设备显示包括所述已更新的第2虚拟形象的视野图像的步骤。
14.一种程序,用于使计算机实施如权利要求1所述的方法。
15.一种系统,包括至少具备处理器的计算机,通过所述处理器的控制而实施如权利要求1所述的方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238745A JP6203369B1 (ja) | 2016-12-08 | 2016-12-08 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
JP2016-238745 | 2016-12-08 | ||
JP2016255987A JP6205047B1 (ja) | 2016-12-28 | 2016-12-28 | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
JP2016-255987 | 2016-12-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108037826A true CN108037826A (zh) | 2018-05-15 |
CN108037826B CN108037826B (zh) | 2021-01-15 |
Family
ID=62096122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711290755.XA Active CN108037826B (zh) | 2016-12-08 | 2017-12-08 | 信息处理方法及用于使计算机实施该信息处理方法的程序 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10438418B2 (zh) |
CN (1) | CN108037826B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102434497B1 (ko) | 2017-02-03 | 2022-08-18 | 워너 브로스. 엔터테인먼트 인크. | 가상 현실에서 확장 비디오의 렌더링 |
EP3736666A4 (en) * | 2018-01-04 | 2021-03-03 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
CN110456964A (zh) * | 2019-07-26 | 2019-11-15 | 天脉聚源(杭州)传媒科技有限公司 | 一种自适应的聊天气泡显示方法、系统、装置和存储介质 |
US20220043622A1 (en) * | 2020-08-07 | 2022-02-10 | Mursion, Inc. | Systems and methods for collaborating physical-virtual interfaces |
JP2022132896A (ja) * | 2021-03-01 | 2022-09-13 | トヨタ自動車株式会社 | 仮想空間共有システム、仮想空間共有方法及び仮想空間共有プログラム |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000011207A (ja) * | 1998-06-17 | 2000-01-14 | Nippon Telegr & Teleph Corp <Ntt> | 仮想共有空間形成方法および仮想空間の形成プログラムを記録した記録媒体 |
JP2000040161A (ja) * | 1998-07-23 | 2000-02-08 | Nippon Telegr & Teleph Corp <Ntt> | 3次元共有仮想空間における放送型コンテンツ実現方法及びシステム及び3次元共有仮想空間における放送型コンテンツ実現プログラムを格納した記憶媒体 |
JP2002140278A (ja) * | 2000-10-31 | 2002-05-17 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2002149581A (ja) * | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 複数のユーザによる仮想空間共有システム |
JP2005322125A (ja) * | 2004-05-11 | 2005-11-17 | Sony Corp | 情報処理システム、情報処理方法、プログラム |
JP2007328389A (ja) * | 2006-06-06 | 2007-12-20 | Reishi Tonuma | 仮想空間表示方法 |
US20090175559A1 (en) * | 2008-01-07 | 2009-07-09 | International Business Machines Corporation | Modifying spaces in virtual universes |
US20130073707A1 (en) * | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
JP2014021707A (ja) * | 2012-07-18 | 2014-02-03 | Nikon Corp | 情報入出力装置、及び情報入出力方法 |
WO2016099563A1 (en) * | 2014-12-19 | 2016-06-23 | Hewlett Packard Enterprise Development Lp | Collaboration with 3d data visualizations |
JP5996814B1 (ja) * | 2016-02-08 | 2016-09-21 | 株式会社コロプラ | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム |
US20160300387A1 (en) * | 2015-04-09 | 2016-10-13 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
JP2016197411A (ja) * | 2016-04-19 | 2016-11-24 | 株式会社 ディー・エヌ・エー | リアルタイムの動画を配信するシステム、方法、及びプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8589809B2 (en) * | 2008-02-28 | 2013-11-19 | Chevron U.S.A. Inc. | Methods and systems for conducting a meeting in a virtual environment |
US9024977B2 (en) * | 2010-08-02 | 2015-05-05 | International Business Machines Corporation | Resizing objects in regions of virtual universes |
US9497501B2 (en) * | 2011-12-06 | 2016-11-15 | Microsoft Technology Licensing, Llc | Augmented reality virtual monitor |
JP5891131B2 (ja) | 2012-07-11 | 2016-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
WO2016002445A1 (ja) | 2014-07-03 | 2016-01-07 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9396588B1 (en) | 2015-06-30 | 2016-07-19 | Ariadne's Thread (Usa), Inc. (Dba Immerex) | Virtual reality virtual theater system |
US20170256096A1 (en) * | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
-
2017
- 2017-12-07 US US15/835,449 patent/US10438418B2/en active Active
- 2017-12-08 CN CN201711290755.XA patent/CN108037826B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000011207A (ja) * | 1998-06-17 | 2000-01-14 | Nippon Telegr & Teleph Corp <Ntt> | 仮想共有空間形成方法および仮想空間の形成プログラムを記録した記録媒体 |
JP2000040161A (ja) * | 1998-07-23 | 2000-02-08 | Nippon Telegr & Teleph Corp <Ntt> | 3次元共有仮想空間における放送型コンテンツ実現方法及びシステム及び3次元共有仮想空間における放送型コンテンツ実現プログラムを格納した記憶媒体 |
JP2002140278A (ja) * | 2000-10-31 | 2002-05-17 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2002149581A (ja) * | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 複数のユーザによる仮想空間共有システム |
JP2005322125A (ja) * | 2004-05-11 | 2005-11-17 | Sony Corp | 情報処理システム、情報処理方法、プログラム |
JP2007328389A (ja) * | 2006-06-06 | 2007-12-20 | Reishi Tonuma | 仮想空間表示方法 |
US20090175559A1 (en) * | 2008-01-07 | 2009-07-09 | International Business Machines Corporation | Modifying spaces in virtual universes |
US20130073707A1 (en) * | 2011-09-16 | 2013-03-21 | Social Communications Company | Capabilities based management of virtual areas |
JP2014021707A (ja) * | 2012-07-18 | 2014-02-03 | Nikon Corp | 情報入出力装置、及び情報入出力方法 |
WO2016099563A1 (en) * | 2014-12-19 | 2016-06-23 | Hewlett Packard Enterprise Development Lp | Collaboration with 3d data visualizations |
US20160300387A1 (en) * | 2015-04-09 | 2016-10-13 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
JP5996814B1 (ja) * | 2016-02-08 | 2016-09-21 | 株式会社コロプラ | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム |
JP2016197411A (ja) * | 2016-04-19 | 2016-11-24 | 株式会社 ディー・エヌ・エー | リアルタイムの動画を配信するシステム、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180165887A1 (en) | 2018-06-14 |
CN108037826B (zh) | 2021-01-15 |
US10438418B2 (en) | 2019-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108037826A (zh) | 信息处理方法及用于使计算机实施该信息处理方法的程序 | |
US10609334B2 (en) | Group video communication method and network device | |
JP6203369B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
US10567449B2 (en) | Apparatuses, methods and systems for sharing virtual elements | |
US9122321B2 (en) | Collaboration environment using see through displays | |
JP6266814B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019535156A (ja) | 仮想現実、拡張現実、および複合現実システムおよび方法 | |
CN108292489A (zh) | 信息处理装置和图像生成方法 | |
US11776197B2 (en) | Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium | |
CN110378914A (zh) | 基于注视点信息的渲染方法及装置、系统、显示设备 | |
CN110770798B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
JP2017208676A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
CN113706678A (zh) | 获取虚拟形象的方法、装置、设备及计算机可读存储介质 | |
US20210042022A1 (en) | Configuring objective-effectuators for synthesized reality settings | |
JP6223614B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
US11087527B2 (en) | Selecting an omnidirectional image for display | |
JP2018097847A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2017208808A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
JP6289703B1 (ja) | 情報処理方法、情報処理プログラム、情報処理システム及び情報処理装置 | |
JP2020077270A (ja) | 仮想現実空間に配置される3dオブジェクトを生成する方法 | |
JP2018120583A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JPWO2020161816A1 (ja) | 複合現実表示装置および複合現実表示方法 | |
JP2018109940A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
CN112827182A (zh) | 虚拟对象的属性设置方法、装置、终端及存储介质 | |
WO2017199848A1 (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |