CN117043823A - 信息处理装置、信息处理方法和程序 - Google Patents
信息处理装置、信息处理方法和程序 Download PDFInfo
- Publication number
- CN117043823A CN117043823A CN202280022911.7A CN202280022911A CN117043823A CN 117043823 A CN117043823 A CN 117043823A CN 202280022911 A CN202280022911 A CN 202280022911A CN 117043823 A CN117043823 A CN 117043823A
- Authority
- CN
- China
- Prior art keywords
- viewer
- information
- information processing
- processing apparatus
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 112
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims abstract description 106
- 238000004891 communication Methods 0.000 description 46
- 238000003384 imaging method Methods 0.000 description 43
- 238000009877 rendering Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000008921 facial expression Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 7
- 210000004209 hair Anatomy 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Abstract
[问题]提供能够实现处理负荷的减少并且能够提高娱乐水平的信息处理装置、信息处理方法和程序。[解决方案]该信息处理装置包括控制单元,该控制单元控制向一个或更多个观看者终端分发关于设置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息,其中,作为关于设置在虚拟空间中的所有观看者的虚拟对象中的、其他信息处理设备的分发目的地处的观看者的虚拟对象的运动信息,控制单元使用从其他信息处理设备接收的、比由控制单元在分发目的地处的观看者的虚拟对象中使用的运动信息少的信息。
Description
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
近年来,已经看到VR(虚拟现实)技术的广泛使用,该技术使得用户能够从期望的视点观看布置有3D模型的虚拟空间的内部。作为由用户用于在这样的虚拟空间(VR空间)中观看视频的终端,用户可以采用被构造为覆盖用户的整个视场以增强在虚拟空间中的沉浸感的HMD(头戴式显示器)。此外,在虚拟空间中也可以布置作为用户的另一自我而移动的角色对象(称为化身)。此外,在虚拟空间中不仅显示用户的化身还显示其他用户的化身的情况下,用户可以具有感觉像与其他人共享场地的体验。
此外,以下引用的专利文献1公开了一种技术,该技术从用户佩戴的HMD检测观看实时分发的视频内容的用户的反应,并将由此检测到的信息(基于来自加速度传感器和角速度传感器的输出的、关于用户的运动信息)发送至内容正被成像的位置,以在真实场地中呈现检测到的信息。
[引用列表]
[专利文献]
[专利文献1]
日本专利特许公开第2019-126101号
发明内容
[技术问题]
然而,已经存在当使许多用户(观看者)的运动反映在虚拟空间中时的繁重处理负荷的问题。
因此,本公开提出了用于在提高娱乐水平的同时减少处理负荷的信息处理装置、信息处理方法和程序。
[问题的解决方案]
根据本公开,提出了一种信息处理装置,该信息处理装置包括控制部,该控制部被配置成执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制。在布置在虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,控制部使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于控制部的分发目的地处的观看者的虚拟对象的运动信息。
根据本公开,还提出了一种信息处理方法,该方法包括由处理器进行下述处理:执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制,以及在布置在虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于分发控制的分发目的地处的观看者的虚拟对象的运动信息。
根据本公开,还提出了一种程序,该程序用于使计算机用作控制部,该控制部被配置成执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制。在布置在虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,控制部使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于控制部的分发目的地处的观看者的虚拟对象的运动信息。
附图说明
图1是说明如本公开的一个实施例的信息处理系统的概况的图。
图2是说明根据本实施例的表演者周围的摄像装置和显示单元的布置的图。
图3是描绘根据本实施例的成像系统的示例性配置的框图。
图4是描绘根据本实施例的分发服务器的示例性配置的框图。
图5是描绘根据本实施例的虚拟空间中的虚拟对象的示例性布置的图。
图6是说明根据本实施例的表演者的3D模型的方向调整的图。
图7是描绘根据本实施例的观看者终端的示例性配置的框图。
图8是示出根据本实施例的分发服务器所执行的操作处理的示例性流程的流程图。
图9说明根据本公开的实施例的信息处理装置的示例性硬件配置。
具体实施方式
下面参照附图详细描述本公开的优选实施例。要注意的是,在接下来的描述和附图中,具有基本相同的功能和配置的组成元件由相同的附图标记表示,并且省略了它们的冗余说明。
另外,将按以下顺序进行描述。
1.根据本公开的一个实施例的信息处理系统的概况
2.示例性配置
2-1.成像系统31
2-2.分发服务器20
2-3.观看者终端10
3.操作处理
4.硬件配置
5.补充说明
<<1.根据本公开的一个实施例的信息处理系统的概况>>
图1是说明根据本公开的一个实施例的信息处理系统的概况的图。如图1所示,根据本实施例的信息处理系统包括:多个分发服务器20(20A至20C等);工作室3中的成像系统31,成像系统31获取分发视频;从分发服务器20向其分发视频的观看者终端10;以及工作室3中的显示系统33,显示系统33呈现观看者的状态。
分发服务器20具有提供虚拟空间的功能。在虚拟空间中,可以举办音乐会、讲座、剧院、节日和其他各种活动。例如,本实施例假设表演者在虚拟空间中举办音乐会并且大量观看者在该虚拟空间中观看音乐会的情况。
在由分发服务器20提供的虚拟空间中,布置反映观看者的运动的观看者化身。观看者化身是观看者的示例性虚拟对象。更具体地,观看者化身可以是反映观看者的运动的角色3D模型。观看者运动信息从观看者终端10被实时地发送至分发服务器20。此外,当除了其自己的化身之外的化身被显示在虚拟空间中时,每个观看者可以具有感觉像与其他人共享场地的体验。
成像系统31向分发服务器20提供表演者的实时视频。由成像系统31获取并提供给分发服务器20的表演者的视频可以是通过使用将表演者的实况视频转换为3D CG的技术(例如,体积捕获技术)而生成的3D实况化身(在本说明书中称为“实况3D模型”)。这使得每个观看者能够观看到更真实的表演者。要注意的是,尽管这里引用实况3D模型作为表演者的示例性虚拟对象,但这并不限制本实施例。替选地,可以使用反映表演者的运动的3D CG角色作为表演者的虚拟对象。
显示系统33实时显示虚拟空间中的整个音乐会场地的视频以及虚拟空间中从表演者的视点看到的观看者的视频(即,布置有观看者化身的观众座位的视频),从而为表演者提供观看者的反应。要注意的是,尽管图1描绘了包括显示系统33的系统配置,但这并不限制本实施例。替选地,可以存在不包括显示系统33的配置。
(问题概要)
此处,如上所述,在使许多观看者的运动反映在虚拟空间中的情况下,出现繁重处理负荷的问题。在要在虚拟空间中渲染大量观看者的状态的情况下,需要执行与所涉及的观看者的数目成比例的处理。对于超过服务器的处理能力的数目的观看者来说,难以共享虚拟空间。目前,例如,存在下述情况:具有有限处理能力的服务器只能处理最多约100个观看者。因此,很难在虚拟空间中提供成千上万的观看者感觉像共享场地那样的、在真实音乐会场地中可以提供的体验。
有鉴于此,在本公开的实施例中,协调多个分发服务器20(20A至20C等)以在单个虚拟空间中布置比由一个服务器能够处理的人更多的人,并且使得能够实现共享体验。也就是说,本实施例可以在通过允许更多观看者共享虚拟空间来提高娱乐水平的同时减少由于使大量观看者的运动反映在虚拟空间中而产生的处理负荷。
在图1中的示例中,首先,每个分发服务器20与观看者终端10可通信地连接,观看者终端10不会多到使服务器的处理能力不堪重负。在虚拟空间中,每个分发服务器20允许与与自身分发服务器20可通信地连接的观看者终端10对应的观看者化身布置成彼此靠近,并且使与与任何其他分发服务器20可通信地连接的观看者终端10对应的观看者化身布置在远处的位置。这些观看者化身在位于远处的情况下在虚拟空间视频中从观看者的视点(观看者化身视点)从远处被看到,该视频显示在与分发服务器20可通信地连接的观看者终端10处。因此,即使远距离看到的观看者化身的运动没有以微小的细节反映出来,远距离看到的观看者化身也不显得尴尬。远距离看到的观看者化身作为人群受到简化的显示控制,这减轻了处理负荷。简化的显示控制可以涉及例如不控制每个观看者化身的面部表情以及头发和服装的运动,而是仅反映出观看者化身的整体身体运动。整体身体运动指的是例如姿势的变化。更具体地,整体身体运动可以由关于3D角色的骨骼信息来给出。此外,例如,在人群由100个观看者化身表示的情况下,可以以数十个观看者化身为单位反映相同的身体运动(例如,仅姿势的变化)。
分发服务器20基于从与该分发服务器20可通信地连接的大量观看者终端10中的每一个接收到的关于每个观看者的运动信息,生成用于作为人群的简化的显示控制的人群数据,所生成的人群数据被发送至其他分发服务器20。通过减少从大量观看者终端10中的每一个接收到的关于每个观看者的运动信息的数据量来获得人群数据。例如,从许多观看者终端10中的每一个接收到的关于每个观看者的运动信息包括观看者化身的面部表情、关于观看者化身的头发运动的信息、关于观看者化身的服装运动的信息以及所涉及的观看者化身的身体运动(头部取向、姿势变化(例如,骨骼信息)、手和手臂运动、手指运动等)。当除了“姿势变化”(例如,仅骨骼信息)之外排除这些运动时,数据量可以大幅减少。在本实施例中,分发服务器20因此向其他分发服务器20传送由关于大量观看者化身的、在数据量上减少的运动信息构成的“人群数据”。
更具体地,图1中的分发服务器20A例如基于从观看者终端10A-1至10A-3等中的每一个接收到的关于每个观看者的运动信息来生成人群数据,并且将生成的人群数据传送至其他分发服务器20B、20C等。分发服务器20B基于从观看者终端10B-1至10B-3等中的每一个接收到的关于每个观看者的运动信息使与与分发服务器20B可通信地连接的观看者终端10B-1至10B-3等对应的观看者化身反映微小运动(例如,上述面部表情、头发运动、服装运动、身体运动等)。此外,分发服务器20B使这些观看者化身布置成彼此靠近(例如,在虚拟空间音乐会场地中建立的观众区域之一中)。此外,分发服务器20B使与其他分发服务器20A可通信地连接的观看者终端10A-1至10A-3等布置在远离上述布置成彼此靠近的观看者化身的位置中(例如,在其他观众区域中)。然后,基于从分发服务器20A接收到的人群数据,分发服务器20B控制以简化的方式将与与分发服务器20A可通信地连接的观看者终端10A-1至10A-3等对应的观看者化身显示为人群(例如,基于骨骼信息仅反映姿势变化)。这使得能够以减少的负荷进行处理。由于与观看者终端10A-1至10A-3等对应的观看者化身被布置在一定距离处,因此在简化的显示控制下,远距离看到的观看者化身不反映其单独的微小运动,但在从观看者终端10B-1至10B-3等中的每一个处的每个观看者的视点显示的虚拟空间视频中不会引起尴尬的感觉。假定观看者没有意识到简化控制或者没有被打扰。
上面说明的是根据本公开的一个实施例的信息处理系统的概况。要注意的是,该系统不仅可以在音乐会期间减少处理负荷,而且也可以在大量用户共享虚拟空间的情况下例如在游戏中减少处理负荷。用户的数目可以大概达到数万,但不限于该系统。顺便说一句,尽管对于该系统没有提及音频,但实际声音可以被单独处理,使得表演者的声音可以被发送至观看者,并且每个观看者的声音可以发送至表演者以及发送至其他观看者。
接下来,下面参照附图描述根据本实施例的信息处理系统中包括的一些装置的具体配置。
<<2.示例性配置>>
<2-1.成像系统31>
首先参照图2和图3说明用于获取关于表演者的信息的成像系统31。
图2是说明根据本实施例的表演者周围的摄像装置311a和显示单元331的布置的图。在本实施例的成像系统31中,如图2所示,在工作室3中布置在表演者A周围(例如,呈圆形图案)的多达“n”个摄像装置311a(数据获取部311的示例)获取用于生成表演者A的3D模型的信息。在成像系统31的控制下,“n”个摄像装置311a(311a-1至311a-1n)同时捕获图像,这允许成像系统31获取多视点数据。
此外,多个显示单元331(例如,LED显示器)可以布置在表演者A周围。显示单元331中的每一个将从表演者的实况3D模型的视点看到的观看者化身显示在虚拟空间中。
要注意的是,尽管在图2中的示例中“n”个摄像装置311a和多个显示单元331被布置成圆形图案,但是该布置可以替选地是矩形或某些其他形状。此外,摄像装置311a的布置可以在形状上与显示单元331的布置不同。此外,替代被布置在表演者A周围的单个周边中,摄像装置311a和显示单元331可以在表演者A的上方和下方布置成多列。
图3是描绘根据本实施例的成像系统31的示例性配置的框图。如图3所示,成像系统31包括数据获取部311、3D模型生成部312、编码部313和发送部314。成像系统31可以包括多个信息处理装置,或者可以是单个信息处理装置。此外,3D模型生成部312和编码部313被呈现为实现成像系统31的信息处理装置的控制部的功能。此外,发送部314被呈现为实现成像系统31的信息处理装置的通信部的功能。此外,数据获取部311被呈现为实现成像系统31的信息处理装置的输入部的功能。例如,用于实现成像系统31的信息处理装置可以是布置在与表演者A相同空间中的PC(个人计算机)、平板终端、智能手机等,或者可以是网络上的服务器。
(数据获取部311)
数据获取部311获取用于生成表演者的3D模型的信息。如以上参照图2说明的,作为数据获取部311的示例,呈现了用于获取(捕获图像的)视频信号的大量(例如,数十个)摄像装置311a。在成像系统31的控制下,摄像装置311a从各个角度同时捕获表演者的图像,以获取许多捕获图像。数据获取部311将大量捕获图像整合成多视点数据,并将该数据输出至生成表演者的3D模型的3D模型生成部312。要注意的是,摄像装置311a可以包括用于感测深度信息的各种设备。在这种情况下,多视点数据不仅可以包括RGB信号,还可以包括深度信号或者用作深度信号的基础的感测信号(例如,红外信号)。
(3D模型生成部312)
3D模型生成部312基于由数据获取部311获取的数据生成表演者的3D模型作为表演者的虚拟对象(即,执行建模)。三维建模的方法并不限于任何特定的方法。例如,可以采用轮廓恢复形状(Shape from Silhouette,SFS)方法,例如可视外壳(Visual Hull)方法(视觉体积相交方法)或多视图立体(Multi-View Stereo)(多视点立体)方法(MVS方法)。此外,3D模型的数据形式可以是任何合适的表达形式,例如点云、体素或网格。
本实施例呈现了3D模型通过网格形状数据和表面纹理信息的组合来表达的示例性情况。例如,本实施例通过使用体积捕获技术从大量捕获图像生成表演者的实况3D模型。更具体地,3D模型生成部312基于由从各个方向同时捕获表演者的图像的数十个摄像装置311a获得的数十个捕获图像(多视点数据)来生成实况3D模型。分发服务器20和观看者终端10然后生成表演者的高质量实况3D视频,作为从期望方向观看的表演者的实况3D模型。体积捕获技术还允许起初在没有摄像装置的视点(虚拟视点)的情况下生成视频,这使得能够实现更高自由度的视点操纵。
(编码部313)
编码部313具有为了传输目的而压缩由3D模型生成部312生成的3D模型数据的功能。3D模型例如通过使用形状数据和纹理数据来表达。编码部313通过使用适合于相应数据形式的压缩格式来压缩形状数据和纹理数据。例如,可以使用MPEG-4AFX(动画框架扩展)或其他开源压缩方法来压缩形状数据。此外,例如,可以使用AVC(H.264)或HEVC(H.265)来压缩纹理数据。
(发送部314)
发送部314将由编码部313压缩的数据发送至多个分发服务器20(例如,图1中的分发服务器20A至20C等)。发送部314还例如使压缩数据被打上时间戳以用于发送。
此外,发送部314可以向多个分发服务器20附加地发送从数据获取部311获取的关于表演者的模式信息。关于表演者的模式信息是指示调整表演者的方向的正常模式或者不调整表演者的方向的交互模式的信息。表演者的方向是指表演者相对于观众的方向。例如,在观看者化身在虚拟空间中被布置成在表演者的实况3D模型所位于的舞台周围的情况下,分发服务器20根据需要调整表演者的实况3D模型的取向(正面方向),使得3D模型面向分发目的地处的观看者的化身。这可以提供观看者感觉像在前排座位处观看表演者的位置关系。可以在例如普通的唱歌和跳舞的表演期间进行方向调整。另一方面,在表演者正在向特定方向上特定观看者化身谈话的情况下,表演者的方向优选不应被调整(如果表演者面向没有被包括在表演者正向之谈话的其他观看者中的观看者,则这将是尴尬的)。在表演者如上所述正在向观看者化身谈话的情况下,设置“交互模式”,并且不允许分发服务器20调整表演者的方向。“交互模式”可以通过操作由表演者持有的麦克风上的按钮来设置。替选地,“交互模式”可以由成像系统31的控制部基于由摄像装置311a获取的视频或由麦克风拾取的声音自动地确定。作为另一种替选,“交互模式”可以通过使用由分发者侧的工作人员(包括表演者)操作的按钮根据需要来设置。
<2-2.分发服务器20>
接下来参照图4说明将虚拟对象布置在虚拟空间中并提供关于虚拟空间的信息的一个分发服务器20的配置。本实施例中的多个分发服务器20A至20C等均具有相同的配置。
图4是描绘根据本实施例的分发服务器20的示例性配置的框图。如图4所示,分发服务器20包括3D模型数据接收部210、模式信息接收部211、控制部220、服务器间通信部230和终端通信部240。分发服务器20可以包括多个信息处理装置,或者可以是单个信息处理装置。此外,3D模型数据接收部210、模式信息接收部211、服务器间通信部230和终端通信部240被呈现为分发服务器20的通信部的功能。
(3D模型数据接收部210)
3D模型数据接收部210从成像系统31接收关于表演者的3D模型数据。在本实施例中,接收压缩的形状数据和压缩的纹理数据(表示实况3D数据的数据)作为表演者的3D模型数据。
(模式信息接收部211)
模式信息接收部211从成像系统31接收指示表演者的状态是处于正常模式还是处于交互模式的模式信息。
(控制部220)
控制部220用作虚拟对象布置部221和人群数据处理部222。虚拟对象布置部221控制所有虚拟对象在虚拟空间中的布置。所有虚拟对象包括作为主要内容的表演者的虚拟对象(本实施例中的表演者的实况3D模型)和所有观看者的虚拟对象(观看者化身)。此外,所有观看者包括与与一个分发服务器20可通信地连接的多个观看者终端10相关联的观看者化身、以及与与其他分发服务器20可通信地连接的多个观看者终端10相关联的观看者化身。此处,下面参照图5说明虚拟空间中的虚拟对象的示例性布置。
图5是描绘根据本实施例的虚拟空间中的虚拟对象的示例性布置的图。例如,在图5中的虚拟空间40中,舞台430布置在中心。布置在舞台400周围(例如,呈圆形图案)的是多个区域410(第一区域410A至第五区域410E)。此外,布置在舞台430上的是作为主要内容的表演者的虚拟对象(例如,实况3D模型440)。在每个区域410中,许多观看者化身(观看者化身组420)被布置为观众。以这种方式,在虚拟空间40中,大量观看者化身一起观看由表演者给出的音乐会。要注意的是,布置有多个观看者化身组420的多个区域410(410A至410E)的布置(相对于表演者的3D模型的位置)可以对应于图2中所示的真实表演者A周围的多个显示单元331(331-1至331-5)的布置(相对于表演者)。也就是说,例如,布置在第一区域410A中的观看者化身组420A可以显示在显示单元331-1上,第二区域410B中的观看者化身组420B可以显示在显示单元331-2上,等等。
虚拟对象布置部221向与分发服务器20可通信地连接的观看者终端10每帧地发送表演者的实况3D模型的数据(压缩的形状数据和压缩的纹理数据)、表演者的实况3D模型的位置(在方向被调整的情况下与方向信息一起)、以及每个观看者化身的位置和姿势(连同用于使观看者化身精细移动的各种参数)作为虚拟空间更新信息。应当注意,分发服务器20的控制部220预先发送渲染虚拟空间所需的数据,例如每个观看者化身的数据(3D模型数据)以及关于背景、舞台和照明的数据。此外,由虚拟对象布置部221向观看者终端10每帧地发送的虚拟空间更新信息包括关于演出例如照明变化的信息。
虚拟对象布置部221还执行将由服务器间通信部230从其他分发服务器接收的、并由人群数据处理部222根据需要处理的人群数据发送至与分发服务器20可通信地连接的观看者终端10的控制。人群数据是指由观看者终端10用于主要由其他分发服务器处理的大量观看者化身的简化的显示控制(渲染控制)的数据。例如,人群数据可以仅仅是指示许多观看者化身的粗略的身体运动的骨骼信息。替选地,人群数据可以仅仅是关于大量观看者化身中的已经表达了明显动作(兴奋)的一些观看者化身的骨骼信息。在这种情况下,人群数据处理部222以使大量观看者化身(例如,以数十个化身为单位)全部反映相同的骨骼信息的方式扩展人群数据,扩展的人群数据被输出至虚拟对象布置部221。
此外,虚拟对象布置部221将由终端通信部240从至少一个观看者终端10接收到的关于每个观看者化身的运动信息输出至人群数据处理部222。人群数据处理部222通过提取关于观看者化身的运动信息的一部分来生成人群数据。由此生成的人群数据由服务器间通信部230发送至其他分发服务器20。
下面是参照图5对观看者化身的布置的更详细的说明。在本实施例中,由与与一个分发服务器20可通信地连接的多个观看者终端10(从一个分发服务20接收分发的观看者终端10)对应的观看者化身形成的观看者化身组420布置在与一个分发服务器20相关联的图5中的对应区域410(410A至410E)中。例如,第一区域410A与分发服务器20A相关联。布置在第一区域410A中的是观看者化身组420A,其由与与分发服务器20A可通信地连接的多个观看者终端10A-1至10A-3等对应的观看者化身形成。此外,第二区域410B与分发服务器20B相关联。布置在第二区域410B中的是观看者化身组420B,其由与与分发服务器20B可通信地连接的多个观看者终端10B-1至10B-3等对应的观看者化身形成的。类似地,区域中的每一个与一对分发服务器20相关联,该区域容纳与与相应分发服务器20可通信地连接的多个观看者终端10对应的观看者化身的布置。也就是说,主要由一个分发服务器20处理的观看者化身布置在同一区域中。
要注意的是,尽管在图5的示例中使用了五个区域,但这并不限制本实施例。虚拟空间中的音乐会场地可以具有与该系统中包括的分发服务器20一样多的区域。此外,每个区域410可以由多个观众座位形成,或者可以由封闭栅栏形成。此外,每个区域410例如可以被表示为浮岛或浮云。栅栏的使用或漂浮在水上或空中的状态的创造使观看者能够直观地理解其他区域构成了不同的组。
此外,每个分发服务器20可以将与所讨论的分发服务器20所关联的区域不同的区域(即,其他区域)布置在一定距离处(远处)。该距离不限于任何特定的长度。例如,其他区域可以处于使得布置在这些区域中的观看者化身不充分可见的距离处。具体地,该距离可以使得当从布置在给定区域中的观看者化身的视点观看时,其他区域中的观看者化身的面部表情不清晰可见。在该状态的示例中,布置在其他区域中的大量观看者化身可以被假定视为从布置在给定区域中的观看者化身的视点看起来像人群的块。
布置在给定区域中的观看者化身可以在该区域内自由移动,或者可以各自被固定地分配至特定观看位置(观众座位)。分发例如现场音乐会的内容的分发者侧可以适当地确定要如何布置观看者化身,或者提供VR场地的虚拟空间管理员侧可以预先设置布置。当从给定观看者终端10处的观看者化身的视点(观看位置)渲染虚拟空间视频时,还渲染与布置在给定观看者终端10处的该观看者化身相邻的观看者化身或位于附近的观看者化身。这使观看者能够体验到感觉像与其他人共享空间。
此处,在该系统中,当由观看者终端10从其观看者化身的视点渲染虚拟空间视频时,可以对同一区域中的观看者化身执行详细的渲染控制。详细的渲染控制例如涉及移动观看者化身的更多部位或部分,例如他们的面部表情、面部取向、头发、服装、肢体、手指和身体(姿势)。可以基于从对应的真实观看者获取的信息(运动信息)来控制观看者化身的运动。可以从分发服务器20将关于同一区域中的观看者化身的运动的信息作为更新信息(用于使观看者化身精细移动的各种参数,这些参数与上面讨论的“每个观看者化身的位置和姿势”一起发送)发送至观看者终端10。这使得同一区域中的观看者化身能够实时地精细反映相应观看者的反应,这继而使得观看者能够以更真实的方式与其他人交流并共享虚拟空间。
另一方面,当观看者终端10从对应的观看者化身的视点渲染虚拟空间视频时,对布置在其他区域中的大量观看者化身(例如,作为看起来像人群的远处块而被看到的观看者化身组)执行简化的渲染控制。简化的渲染控制可以涉及仅基于骨骼信息来呈现粗略的身体运动。通过使用从可通信地连接的分发服务器20发送的人群数据(减少量的运动信息)来执行这种简化的渲染控制。
也就是说,布置在其他区域中的大量观看者化身是对应于与不同于与观看者终端10(例如,观看者终端10A)可通信地连接的分发服务器20(例如,分发服务器20A)的其他分发服务器20(例如,分发服务器20B)可通信地连接的观看者终端10(例如,观看者终端10B)的观看者化身。此外,人群数据是从其他分发服务器(例如,分发服务器20B)发送至与观看者终端10(例如,观看者终端10A)可通信地连接的分发服务器(例如,分发服务器20A)的数据。
如上所述,即使布置在其他区域中的大量观看者化身因为其区域位于远处而以简化的方式进行渲染(例如,化身的面部表情是固定的,其中仅反映粗略的身体运动),观看者实际上也没有意识到简化控制、控制的粗糙度或随之而来的低分辨率。要注意的是,例如,简化渲染还涉及使得以数十个为单位的观看者化身反映相同的运动(即,观看者化身不是单独控制的)。
简化的渲染控制(显示控制)比详细的渲染控制(显示控制)需要更少的处理负荷。当主要由其他分发服务器处理的观看者化身基于从其他分发服务器发送的人群数据在简化的渲染控制下被显示在虚拟空间中的其他区域中时,本实施例使得比由一个分发服务器能够处理的化身更多的化身能够共享虚拟空间。
要注意的是,尽管例如在本实施例中由每个观看者终端10执行虚拟空间的渲染控制(包括从虚拟空间中的观看者化身的视点生成视频),但这并不限制本实施例。替选地,分发服务器20可以执行渲染控制。分发服务器20可以从观看者化身的视点生成视频,并将生成的视频发送至观看者终端10。
此外,基于从每个观看者终端10发送的观看者化身运动信息中所包括的重新定位信息,虚拟对象布置部221可以改变对应的观看者化身在虚拟空间中的位置,并且将关于新位置的信息作为更新信息发送至观看者终端10。此外,基于从成像系统31发送的附加至表演者的3D模型数据的重新定位信息,虚拟对象布置部221可以改变表演者的3D模型的位置,并且将关于新位置的信息作为更新信息发送至每个观看者终端10。基于表演者的捕获图像、关于表演者的深度信息以及由分发者侧工作人员输入的指示信息,成像系统31可以提取表演者的重新定位信息(位置变化量和三维位置信息),并且将提取的信息附加至3D模型数据以用于发送。
此外,虚拟对象布置部221可以基于从成像系统31发送的模式信息来调整表演者的3D模型在虚拟空间中的取向。具体地,在指示表演者正在进行诸如唱歌和跳舞的正常表演的“正常模式”的情况下,虚拟对象布置部221执行使表演者的3D模型取向朝向每个分发目的地处的观看者终端10的观看者化身的位置(观看位置)的控制。这使得可以向所有观看者提供从正面观看表演者的体验。虚拟对象布置部221将关于调整后的方向的信息与关于表演者的3D模型的位置信息一起发送至观看者终端10。
此外,在表演者自然面向特定方向的“交互模式”的情况(例如,表演者在特定方向上谈话的情况)下,虚拟对象布置部221不调整表演者的3D模型的取向。这使得所有观看者能够共享观看面向特定方向并向特定观看者化身谈话的表演者的状态。
图6是说明根据本实施例的表演者的3D模型的方向调整的图。如图6所示,本实施例假设下述情况:进行实时成像的工作室中在表演者A周围设置的多个显示单元331(331-1至331-5)的布置对应于虚拟空间中在表演者的3D模型所位于的舞台周围的多个区域410(410A至410E)的布置。
显示系统33可以控制每个显示单元331在相应区域410中显示观看者化身。显示每个观看者化身的方式不限于任何特定的方式。例如,显示系统33可以以平板模式并置观看者化身的视频,或者在虚拟空间中显示如从舞台上观看的整个区域的视频(即,出现布置在该区域中的大量观看者化身的视频)。这允许表演者A在观看观众(观看者化身)的(兴奋)状态的同时进行表演。
如图6的左侧部分所示,假设例如在表演者A面向显示单元331-1的方向的情况下,在不进行方向调整的情况下在虚拟空间40中控制表演者的实况3D模型440的布置。这导致下述状态:表演者的实况3D模型440面向与显示单元331-1对应的第一区域410A的方向,如图6的右上部分所示。在表演者自然面向特定方向的“交互模式”的情况(例如,表演者正向第一区域410A中的观看者化身谈话的情况)下,不执行方向调整。这使得所有区域中的观看者能够共享表演者面向第一区域的方向的状态。
同时,图6的右下部分描绘了执行方向调整的示例。例如在与第三区域410C相关联的分发服务器20C为了分发目的地而进行方向调整的情况下,分发服务器20C执行布置控制,以使得表演者的实况3D模型440面向第三区域410C中的观看者化身(即,分发服务器20C的分发目的地处的观看者)的方向,如图6的右下部分所示。这使得可以从布置在第三区域410C中的观看者化身的视点从正面观看表演者。由每个分发服务器20执行类似的控制。这使得可以向所有观看者提供从正面观看表演者的体验。
要注意的是,尽管上面说明了在本实施例中例如显示观看者化身的显示单元331布置在工作室中的表演者A周围,但这并不限制本公开。替选地,可以不显示观看者化身,或者可以不布置显示单元331。在这种情况下,至少可以向表演者A清楚地呈现指示在虚拟空间中哪个区域被布置在哪个方向上的信息。例如,可以将区域的名称以文本形式显示在布置在每个方向上的显示单元上,或者可以将打印有区域名称的纸张定位在每个方向上。这允许表演者A执行诸如向特定区域谈话的动作。
(服务器间通信部230)
服务器间通信部230具有与其他分发服务器20可通信地连接以向其他分发服务器20发送和从其他分发服务器20接收人群数据的功能。
(终端通信部240)
终端通信部240具有与观看者终端10可通信地连接以向观看者终端发送数据和从观看者终端接收数据的功能。例如,终端通信部240从可通信地连接的观看者终端10连续接收关于观看者化身的运动信息,并将接收到的运动信息输入至虚拟对象布置部221。此外,终端通信部240可以在初始连接时从观看者终端10接收用于渲染观看者化身的数据(例如,3D CG角色数据)。此外,终端通信部240向观看者终端10发送虚拟空间信息(即,渲染虚拟空间所需的数据)。例如,在初始连接时,终端通信部240在控制部220的控制下发送每个观看者化身的数据(例如,3D CG角色数据)、背景数据、舞台数据和照明数据。此外,终端通信部240连续地(例如,每帧一次)向观看者终端10发送从虚拟对象布置部221输出的虚拟空间更新信息。
<2-3.观看者终端10>
接下来参照图7说明的是由观看者在观看虚拟空间视频时使用的观看者终端10的配置。
图7是描绘根据本实施例的观看者终端的示例性配置的框图。如图7所示,观看者终端10包括通信部110、解码部120、渲染部130、显示部140和传感器部150。观看者终端10可以包括多个信息处理装置,或者可以是单个信息处理装置。此外,解码部120和渲染部130被呈现为观看者终端10的控制部的功能。
例如,观看者终端10可以使用覆盖观看者的整个视场的非透明HMD(头戴式显示器)来实现。替选地,观看者终端10可以通过使用诸如智能手机、平板终端、PC、投影仪、游戏终端、电视机或可穿戴设备的各种设备来实现。
(通信部110)
通信部110与分发服务器20可通信地连接,以向分发服务器20发送数据并从分发服务器20接收数据。例如,通信部110从分发服务器20接收用于渲染虚拟空间的数据。此外,通信部110将由传感器部150检测到的各种感测数据作为观看者化身运动信息发送至分发服务器20。感测数据可以是例如关于观看者的位置和姿势信息。此外,通信部110可以向分发服务器20发送通过使稍后将要讨论的渲染部130反映由传感器部150检测到的感测数据而获得的观看者化身运动信息。
(解码部120)
解码部120根据需要对经由通信部110从分发服务器20接收到的数据进行解码。解码部120通过使用相应的解码器对不同类型的数据进行解码。例如,解码部120对作为从分发服务器20接收到的表演者的实况3D模型数据的、压缩的形状数据和压缩的纹理数据进行解码,并且将解码的数据输入至渲染部130。
(传感器部150)
传感器部150通过使用用于检测观看者的状态的各种传感器来实现。例如,传感器部150可以是IMU(惯性测量单元)、摄像装置、IR传感器、麦克风、生物传感器等。例如,传感器部150可以通过使用IMU来检测观看者的运动(位置、姿势、肢体运动、头部运动等),或者通过使用摄像装置来检测观看者的面部表情(眼睛、眉毛和嘴巴的运动等)或观看者的视线。传感器部150可以例如通过使用麦克风来进一步检测观看者发出的语音。此外,传感器部150可以包括多种类型的传感器。
要注意的是,尽管本实施例使用由传感器部150检测到的感测数据作为用于控制观看者化身的信息(即,作为操作信息),但这并不限制本公开。替选地,例如,可以从由观看者操作的控制器(按钮和开关的操作、操纵杆的操纵和倾斜等)来检测观看者化身操作信息。作为另一种替选,可以从诸如键盘、鼠标和触摸板的各种操作输入部件输入观看者化身操作信息。
(渲染部130)
渲染部130具有基于从分发服务器20接收到的信息执行对虚拟空间的渲染控制的功能。具体地,渲染部130创建虚拟空间,并从布置在该虚拟空间中的观看者化身的视点生成视频。从观看者化身的视点的视频可以是在视场中可以包括或可以不包括观看者的观看者化身的视频。
如上所述,布置在虚拟空间中的是作为主要内容的表演者的实况3D模型和作为观众的观看者化身。表演者的实况3D模型可以通过使用解码的形状数据和纹理数据来表达。布置了区域和观看者化身,并且观看者化身受到简化或详细的渲染控制,如以上参照图7所讨论的。
此外,由渲染部130从观看者化身的视点生成的虚拟空间视频可以是三维图像或二维图像。
此外,渲染部130基于由传感器部150检测到的感测数据来控制观看者化身的视点位置和视场方向。例如,渲染部130根据由传感器部150检测到的头部运动和视线运动(上、下、左右运动、倾斜运动、前后运动等)来控制观看者化身的视点和视场方向。
此外,渲染部130可以基于由传感器部150检测到的感测数据来操纵观看者化身。具体地,渲染部130控制观看者化身的面部表情、头发运动、服装运动、位置、姿势和身体运动(举起手臂、蹲下、跳跃等)。例如,渲染部130可以基于由麦克风拾取的发出语音来控制观看者化身的嘴部运动和面部表情。此外,渲染部130可以基于由摄像装置捕获的观看者的面部和眼睛的图像来控制观看者化身的面部表情(包括视线)。此外,渲染部130可以基于诸如头部和其他身体部位的加速度和角速度的运动数据来控制观看者化身的面部表情、头发运动、服装运动、位置、姿势和身体运动(举起手臂、蹲下、跳跃等)。
观看者终端10允许通信部110向分发服务器20连续地发送通过使渲染部130反映观看者的各种感测数据而获得的观看者化身运动信息(用于使观看者化身移动的各种参数)。发送至分发服务器20的观看者化身运动信息可以至少包括例如位置和姿势。
此外,渲染部130基于表演者的实况3D模型数据生成虚拟空间中的表演者的实况3D视频。
渲染部130然后执行在显示部140上显示所生成的视频的控制。
(显示部140)
显示部140具有向观看者呈现虚拟空间视频的功能。例如,显示部140可以被实现为2D显示单元、3D显示单元、投影仪、三维全息图显示设备等。
以上说明了观看者终端10的配置。应当注意,观看者终端10的配置不限于图7所示的示例。例如,观看者终端10可以包括至少具有显示部140和传感器部150的显示设备以及至少具有通信部110和渲染部130的控制设备。
<<3.操作处理>>
图8是示出根据本实施例的分发服务器20所执行的操作处理的示例性流程的流程图。
如图8所示,分发服务器20首先从成像系统31获取表演者的3D模型数据(步骤S103)。
接下来,分发服务器20从其他分发服务器获取人群数据(步骤S106)。
分发服务器20然后从观看者终端10获取观看者化身运动信息(步骤S109)。
分发服务器20的控制部220然后基于从成像系统31获取的模式信息来确定表演者的模式(步骤S112)。在本实施例中,成像系统31可以发送指示正常模式或交互模式的模式信息。
接下来,在正常模式的情况下(步骤S112中的正常),分发服务器20的虚拟对象布置部221调整布置在虚拟空间中的表演者的3D模型的取向,以使得表演者的3D模型面向分发目的地处的观看者的观看者化身的方向(步骤S115)。另一方面,在交互模式的情况下(步骤S112中的交互),虚拟对象布置部221不执行方向调整。
虚拟对象布置部221然后执行将所有虚拟对象布置在虚拟空间中的控制(步骤S118)。具体地,虚拟对象布置部221更新虚拟空间中的每个虚拟对象的布置。可以基于方向调整的结果或者从观看者终端10发送的观看者化身运动信息来更新布置。
虚拟对象布置部221然后将虚拟空间信息作为虚拟空间更新信息发送至观看者终端10(步骤S121)。虚拟空间信息包括关于虚拟对象的更新布置(位置)的信息、用于详细渲染的观看者化身运动信息以及从其他分发服务器获取的人群数据(用于简化渲染)。
分发服务器20对分发目的地处的每个观看者重复步骤S109至S121的上述处理(步骤S124)。
接下来,当由分发服务器20对所有分发目的地处的观看者执行的处理完成时(步骤S124中的否),人群数据处理部222通过提取从分发目的地处的观看者终端10接收到的观看者化身运动信息的一部分来生成人群数据(步骤S127)。具体地,例如,人群数据处理部222可以通过从关于分发目的地处的所有观看者的观看者化身(即,主要由分发服务器20处理的所有观看者化身)的运动信息中提取骨骼信息来生成人群数据。替选地,人群数据处理部222可以通过从分发目的地处的所有观看者的观看者化身(即,主要由分发服务器20处理的所有观看者化身)中的、产生至少给定量的运动的观看者化身提取骨骼信息来生成人群数据。例如,可以提取仅关于具有明显身体运动的观看者化身的骨骼信息或者仅关于进行大的手臂摆动的观看者化身的骨骼信息。以这种方式,例如,可以通过仅提取关于做出独特运动的观看者化身的骨骼信息来生成数据量减少的人群数据。
分发服务器20然后允许服务器间通信部230将人群数据发送至其他分发服务器(步骤S130)。
以上说明了本实施例的分发服务器20所执行的操作处理。应当注意,图7中示出的操作处理的流程仅是示例,而不限制本公开。例如,图7中的步骤S103至S112的处理可以彼此并行或者以不同的顺序执行。此外,图8所示的处理可以每帧执行一次。
<4.示例性硬件配置>
接下来,下面参照图9说明根据本公开的实施例的信息处理装置的示例性硬件配置。由观看者终端10、分发服务器20、成像系统31和显示系统33执行的上述处理可以通过使用单个或多个信息处理装置来实现。图9是描绘根据本公开的实施例的实现观看者终端10、分发服务器20、成像系统31或显示系统33的信息处理装置900的示例性硬件配置的框图。
要注意的是,信息处理装置900不必具有图9中所示的所有硬件部件。此外,观看者终端10、分发服务器20、成像系统31或显示系统33可以缺少图9所示的硬件配置的部分。
如图9所示,信息处理装置900包括CPU(中央处理单元)901、ROM(只读存储器)903和RAM(随机存取存储器)905。信息处理装置900还可以包括主机总线907、桥接器909、外部总线911、接口913、输入设备915、输出设备917、存储设备919、驱动器921、连接端口923和通信设备925。代替CPU 910或除了CPU 910之外,信息处理装置900可以具有被称为GPU(图形处理单元)、DSP(数字信号处理器)或ASIC(专用集成电路)的处理电路。
用作算术处理单元和控制单元的CPU 901根据记录在ROM 903、RAM 905、或存储设备919或可移除记录介质927上的各种程序来控制信息处理装置900内的操作中的一些或全部操作。ROM 903存储由CPU 901使用的程序和操作参数。RAM 905临时存储用于由CPU 901执行的程序以及在程序执行期间可以根据需要改变的参数。CPU 901、ROM 903和RAM 905经由由诸如CPU总线的内部总线构成的主机总线907互连。主机总线907还经由桥接器909与诸如PCI(外围组件互连/接口)总线的外部总线911连接。例如,本实施例中的3D模型生成部312和编码部313、控制部220、或解码部120和渲染部130可以由CPU 901实现。
例如,输入设备915是由用户操作的设备例如按钮。输入设备915可以包括鼠标、键盘、触摸面板、开关、控制杆等。输入设备915还可以包括用于检测用户语音的麦克风。例如,输入设备915可以是利用红外线或其他无线电波的遥控器。替选地,输入设备915可以是外部连接设备929,例如支持信息处理装置900的操作的移动电话。输入设备915包括基于由用户输入的信息来生成输入信号并且将所生成的信号输出至CPU 901的输入控制电路。通过操作输入设备915,用户向信息处理装置900输入各种数据,并指示信息处理装置900执行期望的处理操作。
输入设备915还可以包括成像设备和传感器。例如,成像设备是通过使用诸如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)的成像元件以及诸如透镜的用于控制在成像元件上形成被摄体图像的各种构件来捕获真实空间来生成捕获图像的设备。成像设备可以捕获静态图像或运动图像。
例如,可以提供各种传感器,例如距离测量传感器、加速度传感器、陀螺仪传感器、地磁传感器、振动传感器、光学传感器和声音传感器。例如,传感器获取关于信息处理装置900自身的状态(例如,其外壳的姿势)的信息、以及关于信息处理装置900的周围环境(例如,其周围的亮度和噪声)的信息。传感器还可以包括接收GPS信号从而测量装置的经度、纬度和海拔的GPS(全球定位系统)传感器。
输出设备917被配置为能够在视觉上或听觉上向用户通知所获取的信息的设备。例如,输出设备917可以是诸如LCD(液晶显示器)或有机EL(电致发光)显示器的显示设备、诸如扬声器或耳机的声音输出设备或其他设备。此外,输出设备917可以包括PDP(等离子体显示面板)、投影仪、全息图设备或打印机设备。输出设备917以文本、包括图像的视频或诸如语音或声学输出的声音的形式输出由信息处理装置900执行的处理的结果。输出设备917还可以包括照亮周围环境的照明设备。
存储设备919是被配置为信息处理装置900的示例性存储部的数据存储设备。例如,存储设备919由诸如HDD(硬盘驱动器)的磁存储设备、半导体存储设备、光学存储设备或磁光存储设备组成。存储设备919存储由CPU 901执行或在CPU 901上操作的程序和各种数据以及从外部获取的各种数据。
驱动器921用作诸如磁盘、光盘、磁光盘或半导体存储器的可移除记录介质927的读写器。驱动器921内置在信息处理装置900中或从外部附接至信息处理装置900。驱动器921读取记录在可移除记录介质927上的信息,并且将所取得的信息输出至RAM 905。此外,驱动器921将记录写入所附接的可移除记录介质927。
连接端口923是将设备直接连接至信息处理装置900的端口。例如,连接端口923可以是USB(通用串行总线)端口、IEEE 1394端口或SCSI(小型计算机系统接口)端口。替选地,连接端口922可以是RS-232C端口、光学音频端子或HDMI(注册商标)(高清晰度多媒体接口)端口。在外部连接设备929连接至连接端口923的情况下,可以在信息处理装置900与外部连接设备929之间交换各种数据。
通信设备925是例如由用于与网络931连接的通信设备构成的通信接口。例如,通信设备925可以是用于与有线或无线LAN(局域网)、蓝牙(注册商标)、Wi-Fi(注册商标)或WUSB(无线USB)一起使用的通信卡。替选地,通信设备925可以是光通信路由器、ADSL(非对称数字用户线)路由器或用于各种通信目的的调制解调器。通信设备925例如通过使用诸如TCP/IP的预定协议向因特网或其他通信设备发送信号等以及从因特网或其他通信设备接收信号等。此外,网络931以有线或无线方式连接至通信设备925。例如,网络931是因特网、家用LAN、红外线通信网络、无线电波通信网络、卫星通信网络或其他网络。
<<5.补充说明>>
尽管上面已经参照附图详细描述了本公开的优选实施例,但是实施例不限制本技术。明显的是,本领域技术人员将容易地想到在所附权利要求中所陈述的技术思想的范围内的本公开的变化或替选。应当理解,这样的变化、替选和其他分支也落入本公开的技术范围内。
例如,表演者的3D模型不限于实况3D模型。替选地,表演者的3D模型可以是3D CG角色。
此外,分发服务器20可以被配置成不具有模式信息接收部211。也就是说,分发服务器20可以省去基于模式信息调整表演者的取向的功能。
此外,根据本实施例的信息处理系统可以被配置成不具有图1所示的显示系统33。
此外,可以创建至少一个计算机程序,以使得结合在上述信息处理装置900中的诸如CPU、ROM和RAM的硬件能够发挥观看者终端10、分发服务器20、成像系统31或显示系统33的处理功能。还可以提供用于存储这样的至少一个计算机程序的计算机可读存储介质。
此外,本说明书中所述的有利效果仅用于说明目的,而不是对本公开的限制。也就是说,除了上述有利效果之外或代替上述有利效果,本公开的技术可以提供对于本领域技术人员来说鉴于上述描述将是明显的其他有利效果。
要注意,本技术还可以采用以下配置。
(1)
一种信息处理装置,包括:
控制部,其被配置成执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制,
其中,在布置在所述虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,所述控制部使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于所述控制部的分发目的地处的观看者的虚拟对象的运动信息。
(2)
根据(1)所述的信息处理装置,
其中,所述虚拟空间具有设置在其中的多个区域,所述区域中的每一个具有布置在该区域中的至少一个观看者的虚拟对象,并且
所述控制部将所述控制部的所有分发目的地处的观看者的虚拟对象布置在一个区域中,所述控制部还将其他信息处理装置的所有分发目的地处的观看者的虚拟对象布置在不同于所述一个区域的其他区域中。
(3)
根据(2)所述的信息处理装置,
其中,所述一个区域和所述其他区域在所述虚拟空间中彼此相距预定距离布置。
(4)
根据(2)或(3)所述的信息处理装置,
其中,布置在所述其他区域中的观看者的虚拟对象的运动受到使用在量上小于运动信息的信息进行的、简化的显示控制。
(5)
根据(4)所述的信息处理装置,
其中,在量上小于运动信息的信息包括关于作为观看者的虚拟对象的观看者化身的骨骼信息。
(6)
根据(1)至(5)中任一项所述的信息处理装置,
其中,在数量上比单个信息处理装置能够处理的观看者的虚拟对象更多的观看者的虚拟对象被布置在所述虚拟空间中。
(7)
根据(1)至(6)中任一项所述的信息处理装置,
其中,所述控制部执行向其他信息处理装置发送通过提取关于所述控制部的分发目的地处的所有观看者的虚拟对象的运动信息的一部分而生成的信息的控制。
(8)
根据(7)所述的信息处理装置,
其中,通过提取运动信息的一部分而生成的信息在量上小于运动信息。
(9)
根据(7)或(8)所述的信息处理装置,
其中,通过提取运动信息的一部分而生成的信息包括关于作为观看者的虚拟对象的观看者化身的骨骼信息。
(10)
根据(1)至(9)中任一项所述的信息处理装置,
其中,所述控制部执行方向调整,以使所述虚拟空间中的表演者的虚拟对象朝向分发目的地处的观看者的虚拟对象所位于的方向。
(11)
根据(1)至(10)中任一项所述的信息处理装置,
其中,所述表演者的虚拟对象包括基于从多个方向同时捕获的所述表演者的多个图像而生成的实况3D模型。
(12)
—种信息处理方法,包括:
由处理器,
执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制;以及
在布置在所述虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所接收到的信息在量上小于要用于分发控制的分发目的地处的观看者的虚拟对象的运动信息。
(13)
一种程序,所述程序用于使计算机用作:
控制部,其被配置成执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制,
其中,在布置在所述虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,所述控制部使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所接收到的信息在量上小于要用于所述控制部的分发目的地处的观看者的虚拟对象的运动信息。
10(10A、10B、10C):观看者终端
110:通信部
120:复合部
130:渲染部
140:显示部
150:传感器部
20(20A、20B、20C):分发服务器
210:3D模型数据接收部
211:模式信息接收部
220:控制部
221:虚拟对象布置部
222:人群数据处理部
230:服务器间通信部
240:终端通信部
31:成像系统
311:数据获取部
311a:摄像装置
312:3D模型生成部
313:编码部
314:发送部
33:显示系统
331:显示单元
900:信息处理装置
Claims (13)
1.一种信息处理装置,包括:
控制部,其被配置成执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制,
其中,在布置在所述虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,所述控制部使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于所述控制部的分发目的地处的观看者的虚拟对象的运动信息。
2.根据权利要求1所述的信息处理装置,
其中,所述虚拟空间具有设置在其中的多个区域,所述区域中的每一个具有布置在该区域中的至少一个观看者的虚拟对象,并且
所述控制部将所述控制部的所有分发目的地处的观看者的虚拟对象布置在一个区域中,所述控制部还将其他信息处理装置的所有分发目的地处的观看者的虚拟对象布置在不同于所述一个区域的其他区域中。
3.根据权利要求2所述的信息处理装置,
其中,所述一个区域和所述其他区域在所述虚拟空间中彼此相距预定距离布置。
4.根据权利要求2所述的信息处理装置,
其中,布置在所述其他区域中的观看者的虚拟对象的运动受到使用在量上小于运动信息的信息进行的、简化的显示控制。
5.根据权利要求4所述的信息处理装置,
其中,在量上小于运动信息的信息包括关于作为观看者的虚拟对象的观看者化身的骨骼信息。
6.根据权利要求1所述的信息处理装置,
其中,在数量上比单个信息处理装置能够处理的观看者的虚拟对象更多的观看者的虚拟对象被布置在所述虚拟空间中。
7.根据权利要求1所述的信息处理装置,
其中,所述控制部执行向其他信息处理装置发送通过提取关于所述控制部的分发目的地处的所有观看者的虚拟对象的运动信息的一部分而生成的信息的控制。
8.根据权利要求7所述的信息处理装置,
其中,通过提取运动信息的一部分而生成的信息在量上小于运动信息。
9.根据权利要求7所述的信息处理装置,
其中,通过提取运动信息的一部分而生成的信息包括关于作为观看者的虚拟对象的观看者化身的骨骼信息。
10.根据权利要求1所述的信息处理装置,
其中,所述控制部执行方向调整,以使所述虚拟空间中的表演者的虚拟对象朝向分发目的地处的观看者的虚拟对象所位于的方向。
11.根据权利要求1所述的信息处理装置,
其中,所述表演者的虚拟对象包括基于从多个方向同时捕获的所述表演者的多个图像而生成的实况3D模型。
12.一种信息处理方法,包括:
由处理器,
执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制;以及
在布置在所述虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于分发控制的分发目的地处的观看者的虚拟对象的运动信息。
13.一种程序,所述程序用于使计算机用作:
控制部,其被配置成执行向至少一个观看者终端分发关于布置有表演者的虚拟对象和观看者的虚拟对象的虚拟空间的信息的控制,
其中,在布置在所述虚拟空间中的所有观看者的虚拟对象中,对于其他信息处理装置的分发目的地处的观看者的虚拟对象,所述控制部使用从其他信息处理装置接收到的信息作为关于其他信息处理装置的分发目的地处的观看者的虚拟对象的运动信息,所述接收到的信息在量上小于要用于所述控制部的分发目的地处的观看者的虚拟对象的运动信息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-059700 | 2021-03-31 | ||
JP2021059700 | 2021-03-31 | ||
PCT/JP2022/000896 WO2022209129A1 (ja) | 2021-03-31 | 2022-01-13 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117043823A true CN117043823A (zh) | 2023-11-10 |
Family
ID=83455991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280022911.7A Pending CN117043823A (zh) | 2021-03-31 | 2022-01-13 | 信息处理装置、信息处理方法和程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240153226A1 (zh) |
JP (1) | JPWO2022209129A1 (zh) |
CN (1) | CN117043823A (zh) |
DE (1) | DE112022001916T5 (zh) |
WO (1) | WO2022209129A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000299684A (ja) * | 1999-04-12 | 2000-10-24 | Telecommunication Advancement Organization Of Japan | データ通信システム |
JP3623415B2 (ja) * | 1999-12-02 | 2005-02-23 | 日本電信電話株式会社 | 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体 |
WO2016009865A1 (ja) | 2014-07-18 | 2016-01-21 | ソニー株式会社 | 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム |
JP6955861B2 (ja) * | 2016-12-16 | 2021-10-27 | 株式会社バンダイナムコエンターテインメント | イベント制御システム及びプログラム |
US10341537B2 (en) * | 2017-09-29 | 2019-07-02 | Sony Interactive Entertainment America Llc | Spectator view into an interactive gaming world showcased in a live event held in a real-world venue |
-
2022
- 2022-01-13 CN CN202280022911.7A patent/CN117043823A/zh active Pending
- 2022-01-13 JP JP2023510289A patent/JPWO2022209129A1/ja active Pending
- 2022-01-13 DE DE112022001916.6T patent/DE112022001916T5/de active Pending
- 2022-01-13 WO PCT/JP2022/000896 patent/WO2022209129A1/ja active Application Filing
- 2022-01-13 US US18/282,144 patent/US20240153226A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240153226A1 (en) | 2024-05-09 |
JPWO2022209129A1 (zh) | 2022-10-06 |
DE112022001916T5 (de) | 2024-01-25 |
WO2022209129A1 (ja) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7366196B2 (ja) | 広範囲同時遠隔ディジタル提示世界 | |
JP7257960B2 (ja) | 複合現実ビューアシステムおよび方法 | |
KR102581453B1 (ko) | 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리 | |
WO2020210213A1 (en) | Multiuser asymmetric immersive teleconferencing | |
CN111527525A (zh) | 混合现实服务提供方法及系统 | |
JP2001008232A (ja) | 全方位映像出力方法と装置 | |
CN110178158B (zh) | 信息处理装置、信息处理方法和记录介质 | |
US20160371888A1 (en) | Interactive information display | |
JPWO2018150831A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP6843164B2 (ja) | プログラム、方法、および情報処理装置 | |
CN113262465A (zh) | 一种虚拟现实交互方法、设备及系统 | |
CN112424728A (zh) | 信息处理装置、信息处理方法和程序 | |
JP2016045814A (ja) | 仮想現実サービス提供システム、仮想現実サービス提供方法 | |
JP2019087226A (ja) | 情報処理装置、情報処理システムおよび表情画像出力方法 | |
JP2014164537A (ja) | 仮想現実サービス提供システム、仮想現実サービス提供方法 | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
JP2020162084A (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
CN117043823A (zh) | 信息处理装置、信息处理方法和程序 | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
JP2009061159A (ja) | プログラム、情報記憶媒体、及び、ゲームシステム | |
CN116490249A (zh) | 信息处理装置、信息处理系统、信息处理方法和信息处理终端 | |
WO2022220306A1 (ja) | 映像表示システム、情報処理装置、情報処理方法、及び、プログラム | |
WO2022107688A1 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
JP7344084B2 (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
CN116964544A (zh) | 信息处理装置、信息处理终端、信息处理方法和程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |