CN110413104A - 程序、信息处理装置以及方法 - Google Patents

程序、信息处理装置以及方法 Download PDF

Info

Publication number
CN110413104A
CN110413104A CN201910344830.9A CN201910344830A CN110413104A CN 110413104 A CN110413104 A CN 110413104A CN 201910344830 A CN201910344830 A CN 201910344830A CN 110413104 A CN110413104 A CN 110413104A
Authority
CN
China
Prior art keywords
user
virtual
virtual image
processor
image object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910344830.9A
Other languages
English (en)
Inventor
中岛健登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Coropl Corp
Original Assignee
Coropl Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018087784A external-priority patent/JP7114326B2/ja
Priority claimed from JP2018087781A external-priority patent/JP7157551B2/ja
Priority claimed from JP2018087787A external-priority patent/JP6580748B1/ja
Priority claimed from JP2018087785A external-priority patent/JP7117890B2/ja
Priority claimed from JP2018087782A external-priority patent/JP7117889B2/ja
Priority claimed from JP2018087780A external-priority patent/JP7258472B2/ja
Priority claimed from JP2018087777A external-priority patent/JP2019192172A/ja
Priority claimed from JP2018087779A external-priority patent/JP6463535B1/ja
Application filed by Coropl Corp filed Critical Coropl Corp
Publication of CN110413104A publication Critical patent/CN110413104A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/10Payment architectures specially adapted for electronic funds transfer [EFT] systems; specially adapted for home banking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • G06Q20/123Shopping for digital content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明进一步提高虚拟空间中的用户的虚拟体验的兴趣性。处理器(210A),基于用户(5A)的输入,实施与收费相关的处理。在已实施与上述收费相关的处理的情况下,向用户(5B)请求虚拟形象物件(6B)实施第2表演。在请求实施上述第2表演之后,根据第2用户(5B)的运动,使虚拟形象物件(6B)实施上述第2表演。

Description

程序、信息处理装置以及方法
技术领域
本发明涉及程序、信息处理装置以及方法。
背景技术
专利文献1~3中,公开了在虚拟空间中使用户收看内容的技术的一个示例。
现有技术文献:
专利文献1:日本专利公开2017-176728
专利文献2:日本专利公开2018-007828
专利文献3:日本专利公开2016-025633
现有的技术中,存在着能够进一步提高虚拟空间中的用户的虚拟体验的兴趣性的余地。
发明内容
本公开的一个方式的目的在于,进一步提高虚拟空间中的用户的虚拟体验的兴趣性。
依照本发明的一个方式,提供了一种为了向第1用户提供虚拟体验而由具备第1处理器的第1计算机执行的程序。该程序使第1处理器实施定义用于向第1用户提供虚拟体验的虚拟空间的步骤,将与第1用户相关联的第1虚拟形象以及与第2用户相关联的第2虚拟形象配置于虚拟空间中的步骤,根据第2用户的运动而使第2虚拟形象实施第1表演的步骤,基于第1用户的输入而实施与收费相关的处理的步骤,在已实施与收费相关的处理的情况下,向第2用户请求第2虚拟形象实施第2表演的步骤,以及在请求实施第2表演之后根据第2用户的运动而使第2虚拟形象实施第2表演的步骤。
另外,依照本发明的一个方式,提供了一种为了向第2用户提供虚拟体验而由具备第2处理器的第2计算机执行的程序。该程序使第2处理器实施定义用于向第2用户提供虚拟体验的虚拟空间的步骤,将与第1用户相关联的第1虚拟形象以及与第2用户相关联的第2虚拟形象配置于虚拟空间中的步骤,检出第2用户的身体的运动的步骤,根据第2用户的运动而使第2虚拟形象实施第1表演的步骤,在根据基于第1用户的输入而实施的与收费相关的处理,向第2用户请求第2虚拟形象实施第2表演的情况下,向第2用户通知与第2表演相关的信息的步骤,以及在向第2用户通知与第2表演相关的信息之后,根据第2用户的运动,使第2虚拟形象实施第2表演的步骤。
依照本公开的一个方式,能够进一步提高虚拟空间中的用户的虚拟体验的兴趣性。
附图说明
图1是示意根据某个实施方式的头戴式装置系统的构成的概况的图。
图2是示意根据某个实施方式的计算机的硬件构成的一个示例的框图。
图3是概念性地示意根据某个实施方式的设定于头戴式装置的uvw视野坐标系的图。
图4是概念性地示意根据某个实施方式的表现虚拟空间的一个形态的图。
图5是从上方示意佩戴根据某个实施方式的头戴式装置的用户的头部的图。
图6是示意在虚拟空间中从X方向观看视界区域时的YZ截面的图。
图7是示意在虚拟空间中从Y方向观看视界区域时的XZ截面的图。
图8(A)是示意根据某个实施方式的控制器的概况构成的图。
图8(B)是示意根据某个实施方式的、相对于用户的右手而规定的偏转、侧偏、俯仰的各方向的一个示例的图。
图9是示意根据某个实施方式的服务器的硬件构成的一个示例的框图。
图10是将根据某个实施方式的计算机示意为模块构成的框图。
图11是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图12(A)是示意在网络中各头戴式装置向用户提供虚拟空间的状况的模式图。
图12(B)是示意图12(A)中的用户5A的视界图像的图。
图13是示意在根据某个实施方式的头戴式装置系统中实施的处理的时序图。
图14是示意根据某个实施方式的计算机的模块的详细构成的框图。
图15是示意根据某个实施方式的虚拟空间和视界图像的图。
图16是示意根据某个实施方式的虚拟空间和视界图像的图。
图17是示意在根据某个实施方式的头戴式装置系统中实施的处理的一个示例的时序图。
图18是用于说明根据某个实施方式的尺寸数据的取得方法的图。
图19是示意根据某个实施方式的位置信息的数据构造的一个示例的图。
图20是示意根据某个实施方式的尺寸数据的数据构造的一个示例的图。
图21是示意用于取得根据某个实施方式的尺寸数据的处理的流程图。
图22是示意根据某个实施方式的旋转方向的数据构造的一个示例的图。
图23是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图24是示意根据某个实施方式的第1虚拟空间和视界图像的图。
图25是示意根据某个实施方式的第1虚拟空间和视界图像的图。
图26是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图27是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图28是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图29是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图30是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图31是示意某个实施方式涉及的用户的姿势的一个示例的图。
图32是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图33是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图34是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图35是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图36是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图37是示意根据某个实施方式的第1虚拟空间和视界图像的图。
图38是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图39是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图40是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图41是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图42是示意根据某个实施方式的第2虚拟空间和直播影像的图。
图43是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图44是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图45是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图46是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图47是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图48是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图49是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图50是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图51是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图52是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图53是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图54是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图55是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图56是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图57是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图58是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图59是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图60是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图61是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图62是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图63是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图64是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图65是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图66是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图67是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图68是示意根据某个实施方式的第3虚拟空间和视界图像的图。
图69是示意根据某个实施方式的第3虚拟空间和视界图像的图。
图70是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图71是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图72是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图73是示意某个实施方式涉及的用户的姿势的一个示例的图。
图74是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图75是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图76是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图77是示意根据某个实施方式的第3虚拟空间和视界图像的图。
图78是示意在头戴式装置系统中实施的处理的一个示例的时序图。
图79是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图80是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图81是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图82是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图83是示意某个实施方式涉及的用户的姿势的一个示例的图。
图84是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图85是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图86是示意在头戴式装置系统中实施的处理的一个示例的时序图。
图87是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图88是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图89是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图90是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图91是示意处理器为了向用户通知至少1个第2表演而参照的数据的一个示例的图。
图92是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图93是示意在头戴式装置系统中实施的处理的一个示例的时序图。
图94是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图95是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图96是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图97是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图98是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图99是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图100是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图101是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图102是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图103是示意根据某个实施方式的第1虚拟空间(第1区域)和视界图像的图。
图104是示意根据某个实施方式的第1虚拟空间和视界图像的图。
图105是示意在根据某个实施方式的头戴式装置套件中实施的处理的一部分的时序图。
图106是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图107是示意根据某个实施方式的第1虚拟空间和视界图像的图。
图108是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图109是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图110是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图111是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图112是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图113是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图114是示意根据某个实施方式的第2虚拟空间和视界图像的图。
图115是示意根据某个实施方式的第2虚拟空间和视界图像的图。
具体实施方式
〔实施方式1〕
以下,参照附图,详细地说明该技术构思的实施方式。在以下的说明中,对相同的部件赋予相同的符号。这些部件的名称及功能也相同。所以,不再重复其详细的说明。在本公开示出的1个以上的实施方式中,能够将各实施方式包含的要素相互组合,并且,该组合后的结果也成为本公开示出的实施方式的一部分。
[头戴式装置系统的构成]
参照图1,说明头戴式装置(Head-Mounted Device)系统100的构成。图1是示意根据本实施方式的头戴式装置系统100的构成的概况的图。提供头戴式装置系统100作为家庭用的系统或者业务用的系统。
头戴式装置系统100,包括服务器600,头戴式装置套件110A、110B、110C、110D,外部设备700以及网络2。头戴式装置套件110A、110B、110C、110D分别构成为能够经由网络2而与服务器600和外部设备700通信。以下,将头戴式装置套件110A、110B、110C、110D统称为头戴式装置套件110。构成头戴式装置系统100的头戴式装置套件110的数量,不限于4个,可以为3个以下,也可以为5个以上。头戴式装置套件110,具备头戴式装置120、计算机200、头戴式装置传感器410、显示器430以及控制器300。头戴式装置120,包括监视器130、注视传感器140、第1摄像机150、第2摄像机160、话筒170以及扬声器180。控制器300,能够包括运动传感器420。
在某个情形中,计算机200,能够连接至互联网和其他网络2,能够与连接至网络2的服务器600和其他计算机通信。其他计算机,例如,可列举其他的头戴式装置套件110的计算机和外部设备700。在另一情形中,头戴式装置120能够包括传感器190,代替头戴式装置传感器410。
头戴式装置120,被佩戴于用户5的头部,能够在工作中向用户5提供虚拟空间。更具体而言,头戴式装置120,在监视器130分别显示右眼用的图像和左眼用的图像。如果用户5的各眼辨认各自的图像,则用户5能够基于双眼的视差而将该图像识别为三维图像。头戴式装置120,能够包括具备监视器的所谓的头戴式显示器以及能够佩戴智能手机和其他具有监视器的终端的头戴式设备中任一种。
监视器130,例如,实现为非透过型的显示装置。在某个情形中,监视器130以位于用户5的双眼的前方的方式配置于头戴式装置120的本体。所以,用户5如果辨认监视器130所显示的三维图像,则能够投入于虚拟空间。在某个情形中,虚拟空间包括例如背景、用户5能够操作的物件以及用户5能够选择的菜单的图像。在某个情形中,监视器130,能够实现为所谓的智能手机和其他的信息显示终端所具备的液晶监视器或者有机电致发光(ElectroLuminescence)监视器。
在另一情形中,监视器130,能够实现为透过型的显示装置。这种情况下,头戴式装置120不是如图1所示地覆盖用户5的眼的密闭型,而是像眼镜型那样的开放型。透过型的监视器130,可以通过调整其透过率,从而能够暂时地构成为非透过型的显示装置。监视器130,可以包括同时显示构成虚拟空间的图像的一部分和现实空间的构成。例如,监视器130,可以显示由搭载于头戴式装置120的摄像机拍摄的现实空间的图像,也可以通过将一部分的透过率设定得较高,从而能够辨认现实空间。
在某个情形中,监视器130能够包括用于显示右眼用的图像的子监视器和用于显示左眼用的图像的子监视器。在另一情形中,监视器130,可以为一体地显示右眼用的图像和左眼用的图像的构成。这种情况下,监视器130,包括高速快门。高速快门,以能够交替地显示右眼用的图像和左眼用的图像的方式进行工作,使得图像仅被某一方的眼识别。
在某个情形中,头戴式装置120,包括图中未显示的多个光源。各光源例如由发出红外线的发光二极管(Light Emitting Diode)实现。头戴式装置传感器410,具有用于检出头戴式装置120的运动的位置追踪功能。更具体而言,头戴式装置传感器410,读取头戴式装置120发出的多个红外线,检出现实空间内的头戴式装置120的位置和倾斜。
在另一情形中,头戴式装置传感器410,可以由摄像机实现。这种情况下,头戴式装置传感器410,使用从摄像机输出的头戴式装置120的图像信息,实施图像解析处理,从而能够检出头戴式装置120的位置和倾斜。
在另一情形中,头戴式装置120,可以具备传感器190作为位置检出器,代替头戴式装置传感器410,或者,可以不仅具备头戴式装置传感器410,还具备传感器190作为位置检出器。头戴式装置120,使用传感器190,能够检出头戴式装置120自身的位置和倾斜。例如,在传感器190为角速度传感器、地磁传感器或者加速度传感器的情况下,头戴式装置120,使用这些传感器中的任一个,代替头戴式装置传感器410,能够检出自身的位置和倾斜。作为一个示例,在传感器190为角速度传感器的情况下,角速度传感器,经时地检出现实空间中的头戴式装置120围绕3轴的角速度。头戴式装置120,基于各角速度,算出头戴式装置120围绕3轴的角度随时间的变化,进而,基于角度随时间的变化,算出头戴式装置120的倾斜。
注视传感器140,检出用户5的右眼和左眼的视线朝向的方向。即,注视传感器140,检出用户5的视线。视线的方向的检出,例如,由公知的眼球追踪功能实现。注视传感器140,由具有该眼球追踪功能的传感器实现。在某个情形中,注视传感器140,优选包括右眼用的传感器以及左眼用的传感器。注视传感器140,例如,可以为这样的传感器:向用户5的右眼以及左眼照射红外线,并且,接受来自角膜和虹膜的对于照射光的反射光,从而检出各眼球的旋转角。注视传感器140,基于已检出的各旋转角,能够检测到用户5的视线。
第1摄像机150,拍摄用户5的脸的下部。更具体而言,第1摄像机150,拍摄用户5的鼻和口等。第2摄像机160,拍摄用户5的眼和眉等。将头戴式装置120的用户5侧的框体定义为头戴式装置120的内侧,将头戴式装置120的与用户5相反的侧的框体定义为头戴式装置120的外侧。在某个情形中,第1摄像机150能够配置于头戴式装置120的外侧,第2摄像机160能够配置于头戴式装置120的内侧。第1摄像机150和第2摄像机160生成的图像,被输入至计算机200。在另一情形中,可以将第1摄像机150和第2摄像机160实现为1台摄像机,尽量由1台摄像机拍摄用户5的脸。
话筒170,将用户5的话语转换为声音信号(电信号),向计算机200输出。扬声器180,将声音信号转换为声音,向用户5输出。在另一情形中,头戴式装置120,能够包括耳机,代替扬声器180。
控制器300,通过有线或无线而连接至计算机200。控制器300,接收从用户5至计算机200的命令的输入。在某个情形中,控制器300,构成为能够由用户5握持。在另一情形中,控制器300,构成为能够佩戴于用户5的身体或衣服的一部分。在又一情形中,控制器300,可以构成为基于从计算机200发送的信号,输出振动、声音、光之中的至少某一种。在又一情形中,控制器300,从用户5接收用于控制配置于虚拟空间的物件的位置和运动的操作。
在某个情形中,控制器300,包括多个光源。各光源例如由发出红外线的发光二极管实现。头戴式装置传感器410,具有位置追踪功能。这种情况下,头戴式装置传感器410,读取控制器300发出的多个红外线,检出现实空间内的控制器300的位置和倾斜。在另一情形中,头戴式装置传感器410,可以由摄像机实现。这种情况下,头戴式装置传感器410,使用从摄像机输出的控制器300的图像信息,实施图像解析处理,从而能够检出控制器300的位置和倾斜。
运动传感器420,在某个情形中,安装于用户5的手,检出用户5的手的运动。例如,运动传感器420,检出手的旋转速度、旋转数等。已检出的信号,被发送至计算机200。运动传感器420,例如,设于控制器300。在某个情形中,运动传感器420,例如,设于构成为能够由用户5握持的控制器300。在另一情形中,为了现实空间中的安全,控制器300,安装于像手套型那样佩戴于用户5的手而不容易飞离的部件。在又一情形中,未佩戴于用户5的传感器也可以检出用户5的手的运动。例如,拍摄用户5的摄像机的信号也可以作为表示用户5的动作的信号而被输入至计算机200。作为一个示例,运动传感器420和计算机200通过无线而相互连接。在无线的情况下,通信方式未被特别限定,例如,使用蓝牙(Bluetooth(注册商标))和其他的公知的通信手段。
显示器430,显示与监视器130显示的图像相同的图像。由此,佩戴着头戴式装置120的用户5以外的用户也能够收看与该用户5相同的图像。显示器430显示的图像,不一定是三维图像,也可以是右眼用的图像和/或左眼用的图像。作为显示器430,例如,可列举液晶显示器和有机电致发光监视器等。
服务器600,能够向计算机200发送程序。在另一情形中,服务器600,能够与用于向其他用户使用的头戴式装置120提供虚拟现实的其他计算机200通信。例如,在娱乐设施中,在多个用户进行参加型的游戏的情况下,各计算机200,经由服务器600而与其他计算机200传递基于各用户的动作的信号,多个用户能够在相同的虚拟空间中玩共同的游戏。各计算机200,也可以不经由服务器600而与其他计算机200传递基于各用户的动作的信号。
外部设备700,只要是能够与计算机200通信的设备,就可以为任何设备。外部设备700,例如,可以为能够经由网络2而与计算机200通信的设备,也可以为能够经由近距离无线通信和/或有线连接而与计算机200直接通信的设备。作为外部设备700,例如,可列举智能装置、个人计算机(Personal Computer)以及计算机200的周边设备等,但是,不限于这些。
[计算机的硬件构成]
参照图2,说明本实施方式涉及的计算机200。图2是示意根据本实施方式的计算机200的硬件构成的一个示例的框图。计算机200,具备处理器210、存储器220、存储部230、输入输出接口240以及通信接口250,作为主要的构成要素。各构成要素,分别连接至总线260。
处理器210,基于给予计算机200的信号,或者,基于预定的条件已成立,执行存储于存储器220或存储部230的程序所包含的一系列的命令。在某个情形中,处理器210,实现为CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(MicroProcessor Unit)、FPGA(Field-Programmable Gate Array)以及其他的装置。
存储器220,暂时地保存程序和数据。程序,例如,从存储部230被加载。数据,包括输入至计算机200的数据和由处理器210生成的数据。在某个情形中,存储器220,实现为RAM(Random Access Memory)和其他的挥发性存储器。
存储部230,永久地保持程序和数据。存储部230,例如,实现为ROM(Read-OnlyMemory)、硬盘装置、闪存以及其他的非挥发性存储装置。存储于存储部230的程序,包括用于在头戴式装置系统100中提供虚拟空间的程序、仿真程序、游戏程序、用户认证程序以及用于实现与其他的计算机200的通信的程序。存储于存储部230的数据,包括用于规定虚拟空间的数据和物件等。
在另一情形中,存储部230,可以实现为像存储卡那样能够装卸的存储装置。在又一情形中,也可以使用这样的构成:使用保存于外部存储装置的程序和数据,代替内置于计算机200的存储部230。依照这种构成,例如,在像娱乐设施那样使用多个头戴式装置系统100的情况下,能够统一地进行程序和数据的更新。
输入输出接口240,在与头戴式装置120、头戴式装置传感器410、运动传感器420以及显示器430之间传递信号。头戴式装置120所包括的监视器130、注视传感器140、第1摄像机150、第2摄像机160、话筒170以及扬声器180,能够经由头戴式装置120的输入输出接口240而进行与计算机200的通信。在某个情形中,输入输出接口240,使用USB(UniversalSerial Bus)、DVI(Digital Visual Interface)、HDMI(注册商标)(High-DefinitionMultimedia Interface)以及其他端子而实现。输入输出接口240不限于上述的接口。
在某个情形中,输入输出接口240,还能够与控制器300通信。例如,输入输出接口240,接受从控制器300和运动传感器420输出的信号的输入。在另一情形中,输入输出接口240,向控制器300发送从处理器210输出的命令。该命令,向控制器300指示振动、声音输出、发光等。控制器300,如果接收该命令,则根据该命令,实施振动、声音输出或发光中的某一种。
通信接口250,连接于网络2,与连接于网络2的其他计算机(例如,服务器600)通信。在某个情形中,通信接口250,例如,实现为LAN(Local Area Network)以及其他的有线通信接口,或者,WiFi(Wireless Fidelity)、Bluetooth(注册商标)、NFC(Near FieldCommunication)以及其他的无线通信接口。通信接口250,不限于上述的接口。
在某个情形中,处理器210,访问存储部230,将存储于存储部230的1个以上的程序加载至存储器220,执行该程序包含的一系列的命令。该1个以上的程序,能够包括计算机200的操作系统、用于提供虚拟空间的应用程序以及能够在虚拟空间执行的游戏软件等。处理器210,经由输入输出接口240,向头戴式装置120发送用于提供虚拟空间的信号。头戴式装置120,基于该信号,在监视器130显示影像。
在图2所示的示例中,示意了计算机200设于头戴式装置120的外部的构成,但是,在另一情形中,计算机200,也可以内置于头戴式装置120。作为一个示例,包括监视器130的便携型的信息通信终端(例如,智能手机)可以用作计算机200。
计算机200,也可以是被多个头戴式装置120共同使用的构成。依照这种构成,例如,能够向多个用户提供同一虚拟空间,因而,各用户能够与他的用户在同一虚拟空间中玩同一应用程序。
在某个实施方式中,在头戴式装置系统100预先设定作为现实空间中的坐标系的实际坐标系。实际坐标系具有3个基准方向(轴),该3个基准方向分别平行于现实空间中的竖直方向、垂直于竖直方向的水平方向以及垂直于竖直方向和水平方向的双方的前后方向。实际坐标系中的水平方向、竖直方向(上下方向)以及前后方向,分别被规定为X轴、Y轴、Z轴。更具体而言,在实际坐标系中,X轴平行于现实空间的水平方向。Y轴平行于现实空间的竖直方向。Z轴平行于现实空间的前后方向。
在某个情形中,头戴式装置传感器410,包括红外线传感器。红外线传感器,如果分别检出从头戴式装置120的各光源发出的红外线,则检出头戴式装置120的存在。头戴式装置传感器410,还基于各点的值(实际坐标系中的各坐标值),检出与佩戴了头戴式装置120的用户5的运动相对应的、现实空间内的头戴式装置120的位置和倾斜(朝向)。更详细而言,头戴式装置传感器410,使用经时地检出的各值,能够检出头戴式装置120的位置和倾斜随时间的变化。
由头戴式装置传感器410检出的头戴式装置120的各倾斜,相对于实际坐标系中的头戴式装置120的围绕3轴的各倾斜。头戴式装置传感器410,基于实际坐标系中的头戴式装置120的倾斜,在头戴式装置120设定uvw视野坐标系。设定于头戴式装置120的uvw视野坐标系,对应于佩戴了头戴式装置120的用户5在虚拟空间中观看物体时的视点坐标系。
[uvw视野坐标系]
参照图3,说明uvw视野坐标系。图3是概念性地示意根据某个实施方式的设定于头戴式装置120的uvw视野坐标系的图。头戴式装置传感器410,在头戴式装置120起动时,检出实际坐标系中的头戴式装置120的位置和倾斜。处理器210,基于已检出的值,在头戴式装置120设定uvw视野坐标系。
如图3所示,头戴式装置120,设定以佩戴了头戴式装置120的用户5的头部为中心(原点)的三维uvw视野坐标系。更具体而言,头戴式装置120,将3个方向设定为头戴式装置120上的uvw视野坐标系的俯仰轴(u轴)、偏转轴(v轴)以及侧偏轴(w轴),该3个方向是通过将规定实际坐标系的水平方向、竖直方向以及前后方向(X轴,Y轴,Z轴)在实际坐标系内分别围绕各轴倾斜头戴式装置120围绕各轴的倾斜度而新得到的。
在某个情形中,在佩戴了头戴式装置120的用户5直立且辨认正面的情况下,处理器210,在头戴式装置120设定平行于实际坐标系的uvw视野坐标系。这种情况下,实际坐标系中的水平方向(X轴)、竖直方向(Y轴)以及前后方向(Z轴)与头戴式装置120上的uvw视野坐标系的俯仰轴(u轴)、偏转轴(v轴)以及侧偏轴(w轴)一致。
在将uvw视野坐标系设定于头戴式装置120之后,头戴式装置传感器410,基于头戴式装置120的运动,能够检出已设定的uvw视野坐标系中的头戴式装置120的倾斜。这种情况下,头戴式装置传感器410,分别检出uvw视野坐标系中的头戴式装置120的俯仰角(θu)、偏转角(θv)以及侧偏角(θw),作为头戴式装置120的倾斜。俯仰角(θu)表示uvw视野坐标系中的头戴式装置120围绕俯仰轴的倾斜角度。偏转角(θv)表示uvw视野坐标系中的头戴式装置120围绕偏转轴的倾斜角度。侧偏角(θw)表示uvw视野坐标系中的头戴式装置120围绕侧偏轴的倾斜角度。
头戴式装置传感器410,基于已检出的头戴式装置120的倾斜,在头戴式装置120设定头戴式装置120运动后的头戴式装置120上的uvw视野坐标系。头戴式装置120和头戴式装置120的uvw视野坐标系的关系,与头戴式装置120的位置和倾斜无关,始终恒定。如果头戴式装置120的位置和倾斜变化,则实际坐标系中的头戴式装置120的uvw视野坐标系的位置和倾斜与该位置和倾斜的变化连动地变化。
在某个情形中,头戴式装置传感器410,可以基于红外线的光强度和多个点间的相对的位置关系(例如,各点间的距离等),将头戴式装置120在现实空间内的位置确定为相对于头戴式装置传感器410的相对位置,其中,基于来自红外线传感器的输出而取得红外线的光强度。处理器210,可以基于已确定的相对位置,决定现实空间内(实际坐标系)的头戴式装置120的uvw视野坐标系的原点。
[虚拟空间]
参照图4,进一步说明虚拟空间。图4是概念性地示意根据某个实施方式的表现虚拟空间11的一个形态的图。虚拟空间11,具有将中心12的360度方向的全体覆盖的全天球状的构造。图4中,为了不使说明复杂化,列举了虚拟空间11中的上半部分的天球。虚拟空间11中,规定了各网格。各网格的位置,被预先规定为虚拟空间11中规定的作为全局坐标系的XYZ坐标系中的坐标值。计算机200,将构成能够展开成虚拟空间11的全景图像(静止画、动画等)的各部分图像分别对应于虚拟空间11中对应的各网格。
在某个情形中,在虚拟空间11中,规定了以中心12为原点的XYZ坐标系。XYZ坐标系,例如,平行于实际坐标系。XYZ坐标系中的水平方向、竖直方向(上下方向)以及前后方向,被分别规定为X轴、Y轴、Z轴。所以,XYZ坐标系的X轴(水平方向)与实际坐标系的X轴平行,XYZ坐标系的Y轴(竖直方向)与实际坐标系的Y轴平行,XYZ坐标系的Z轴(前后方向)与实际坐标系的Z轴平行。
在头戴式装置120起动时,即头戴式装置120的初始状态,虚拟摄像机14配置于虚拟空间11的中心12。在某个情形中,处理器210,在头戴式装置120的监视器130显示虚拟摄像机14拍摄的图像。虚拟摄像机14,与现实空间中的头戴式装置120的运动连动地,在虚拟空间11内同样地移动。由此,现实空间中的头戴式装置120的位置和倾斜的变化,能够在虚拟空间11中被同样地再现。
在虚拟摄像机14,与头戴式装置120的情况同样地,规定uvw视野坐标系。虚拟空间11中的虚拟摄像机14的uvw视野坐标系,被规定为与现实空间(实际坐标系)中的头戴式装置120的uvw视野坐标系连动。所以,如果头戴式装置120的倾斜变化,则与此相应地,虚拟摄像机14的倾斜也变化。虚拟摄像机14,能够与佩戴了头戴式装置120的用户5的在现实空间中的移动连动地在虚拟空间11中移动。
计算机200的处理器210,基于虚拟摄像机14的位置和倾斜(基准视线16),规定虚拟空间11中的视界区域15。视界区域15,对应于虚拟空间11中的、佩戴了头戴式装置120的用户5辨认的区域。即,虚拟摄像机14的位置,可以说是虚拟空间11中的用户5的视点。
由注视传感器140检出的用户5的视线,是用户5辨认物体时的视点坐标系中的方向。头戴式装置120的uvw视野坐标系,等同于用户5辨认监视器130时的视点坐标系。虚拟摄像机14的uvw视野坐标系,与头戴式装置120的uvw视野坐标系连动。所以,根据某个情形的头戴式装置系统100,能够将由注视传感器140检出的用户5的视线视为虚拟摄像机14的uvw视野坐标系中的用户5的视线。
[用户的视线]
参照图5,说明用户5的视线的决定。图5是从上方示意佩戴根据某个实施方式的头戴式装置120的用户5的头部的图。
在某个情形中,注视传感器140,检出用户5的右眼和左眼的各视线。在某个情形中,在用户5观看近处的情况下,注视传感器140,检出视线R1和L1。在另一情形中,在用户5观看远处的情况下,注视传感器140,检出视线R2和L2。这种情况下,视线R2和L2相对于侧偏轴w所成的角度,小于视线R1和L1相对于侧偏轴w所成的角度。注视传感器140,向计算机200发送检出结果。
计算机200,在从注视传感器140接收视线R1和L1的检出值,作为视线的检出结果的情况下,基于该检出值,确定视线R1和L1的交点,即注视点N1。另一方面,计算机200,在从注视传感器140接收视线R2和L2的检出值的情况下,确定视线R2和L2的交点作为注视点。计算机200,基于已确定的注视点N1的位置,确定用户5的视线N0。计算机200,例如,检出通过将用户5的右眼R和左眼L连接的直线的中点和注视点N1的直线延伸的方向,作为视线N0。视线N0是用户5通过双眼而实际地使视线朝向的方向。视线N0,相当于用户5相对于视界区域15而实际地使视线朝向的方向。
在另一情形中,头戴式装置系统100,可以具备电视播放接收调谐器。依照这种构成,头戴式装置系统100,能够在虚拟空间11中显示电视节目。
在又一情形中,头戴式装置系统100,可以具备用于连接至互联网的通信电路或者用于连接至电话线路的通話功能。
[视界区域]
参照图6和图7,说明视界区域15。图6是示意在虚拟空间11中从X方向观看视界区域15的YZ截面的图。图7是示意在虚拟空间11中从Y方向观看视界区域15的XZ截面的图。
如图6所示,YZ截面处的视界区域15包括区域18。区域18,由虚拟摄像机14的位置、基准视线16以及虚拟空间11的YZ截面定义。处理器210,将虚拟空间中的以基准视线16为中心且包括极角α的范围规定为区域18。
如图7所示,XZ截面处的视界区域15包括区域19。区域19,由虚拟摄像机14的位置、基准视线16以及虚拟空间11的XZ截面定义。处理器210,将虚拟空间11中的以基准视线16为中心且包括方位角β的范围规定为区域19。极角α和β,根据虚拟摄像机14的位置和虚拟摄像机14的倾斜(朝向)而决定。
在某个情形中,头戴式装置系统100,基于来自计算机200的信号,使监视器130显示视界图像17,从而向用户5提供虚拟空间11中的视界。视界图像17是与全景图像13中的对应于视界区域15的部分相当的图像。如果用户5使佩戴于头部的头戴式装置120运动,则虚拟摄像机14也与该运动连动地运动。结果,虚拟空间11中的视界区域15的位置变化。由此,监视器130显示的视界图像17被更新为全景图像13中的、与用户5在虚拟空间11中朝向的方向的视界区域15重叠的图像。用户5能够辨认虚拟空间11中的期望的方向。
如此,虚拟摄像机14的倾斜相当于虚拟空间11中的用户5的视线(基准视线16),配置有虚拟摄像机14的位置相当于虚拟空间11中的用户5的视点。所以,通过变更虚拟摄像机14的位置或倾斜,从而更新监视器130显示的图像,移动用户5的视界。
用户5,在佩戴头戴式装置120的期间,不辨认现实世界,仅能够辨认展开成虚拟空间11的全景图像13。因此,头戴式装置系统100,能够向用户5给予高度地向虚拟空间1投入的感觉。
在某个情形中,处理器210,能够与佩戴了头戴式装置120的用户5在现实空间中的移动连动地,在虚拟空间11中移动虚拟摄像机14。这种情况下,处理器210,基于虚拟空间11中的虚拟摄像机14的位置和倾斜,确定投影于头戴式装置120的监视器130的图像区域(视界区域15)。
在某个情形中,虚拟摄像机14,能够包括2个虚拟摄像机,即,用于提供右眼用的图像的虚拟摄像机和用于提供左眼用的图像的虚拟摄像机。在2个虚拟摄像机设定恰当的视差,使得用户5能够识别三维的虚拟空间11。在另一情形中,可以由一个虚拟摄像机实现虚拟摄像机14。这种情况下,可以从由一个虚拟摄像机得到的图像,生成右眼用的图像和左眼用的图像。在本实施方式中,将本公开涉及的技术构思列举为虚拟摄像机14包括2个虚拟摄像机,并构成为将2个虚拟摄像机的侧偏轴合成而生成的侧偏轴(w)符合头戴式装置120的侧偏轴(w)。
[控制器]
参照图8,说明控制器300的一个示例。图8是示意根据某个实施方式的控制器300的概况构成的图。
如图8所示,在某个情形中,控制器300,能够包括右控制器300R和图中未显示的左控制器。右控制器300R,由用户5的右手操作。左控制器,由用户5的左手操作。在某个情形中,右控制器300R和左控制器,作为独立的装置而对称地构成。所以,用户5,能够使握持右控制器300R的右手和握持左控制器的左手分别自由地运动。在另一情形中,控制器300可以为接受双手的操作的一体型的控制器。以下,说明右控制器300R。
右控制器300R,具备握柄310、框架320以及顶面330。握柄310,构成为由用户5的右手握持。例如,握柄310,能够由用户5的右手的手掌和三根手指(中指、无名指、小指)保持。
握柄310,包括按钮340、350和运动传感器420。按钮340,配置于握柄310的侧面,接受右手的中指的操作。按钮350,配置于握柄310的前面,接受右手的食指的操作。在某个情形中,按钮340、350,构成为触发式的按钮。运动传感器420,内置于握柄310的框体。在用户5的动作能够由摄像机和其他装置从用户5的周围检出的情况下,握柄310,可以不具备运动传感器420。
框架320,包括沿着其圆周方向配置的多个红外线发光二极管360。红外线发光二极管360,在使用控制器300的程序的执行中,配合该程序的进行而发出红外线。从红外线发光二极管360发出的红外线,能够用于检出右控制器300R和左控制器的各位置和姿势(倾斜、朝向)。在图8所示的示例中,示意了配置成两列的红外线发光二极管360,但是,排列的数量不限于图8所示的数量。也可以使用一列或者三列以上的排列。
顶面330,具备按钮370、380和模拟摇杆390。按钮370、380构成为按压式按钮。按钮370、380,接受用户5的右手的拇指的操作。模拟摇杆390,在某个情形中,接受从初始位置(空挡的位置)向360度任意的方向的操作。该操作,例如,包括用于移动配置于虚拟空间11中的物件的操作。
在某个情形中,右控制器300R和左控制器,包括用于驱动红外线发光二极管360和其他部件的电池。电池,包括充电式、纽扣型、干电池型等,但是,并不限于这些。在另一情形中,右控制器300R和左控制器,例如,能够连接指计算机200的USB接口。这种情况下,右控制器300R和左控制器,不需要电池。
如图8的状态(A)和状态(B)所示,例如,相对于用户5的右手,规定偏转、侧偏、俯仰的各方向。在用户5伸出拇指和食指的情况下,拇指伸出的方向为偏转方向,食指伸出的方向为侧偏方向,与由偏转方向的轴和侧偏方向的轴规定的平面垂直的方向被规定为俯仰方向。
[服务器的硬件构成]
参照图9,说明本实施方式涉及的服务器600。图9是示意根据某个实施方式的服务器600的硬件构成的一个示例的框图。服务器600,具备处理器610、存储器620、存储部630、输入输出接口640以及通信接口650,作为主要的构成要素。各构成要素,分别连接至总线660。
处理器610,基于给予服务器600的信号,或者,基于预定的条件已成立,执行存储于存储器620或存储部630的程序所包含的一系列的命令。在某个情形中,处理器610,实现为CPU、GPU、MPU、FPGA以及其他的装置。
存储器620,暂时地保存程序和数据。程序,例如,从存储部630被加载。数据,包括输入至服务器600的数据和由处理器610生成的数据。在某个情形中,存储器620,实现为RAM和其他的挥发性存储器。
存储部630,永久地保持程序和数据。存储部630,例如,实现为ROM、硬盘装置、闪存以及其他的非挥发性存储装置。存储于存储部630的程序,包括用于在头戴式装置系统100中提供虚拟空间的程序、仿真程序、游戏程序、用户认证程序以及用于实现与计算机200的通信的程序。存储于存储部630的数据,可以包括用于规定虚拟空间的数据和物件等。
在另一情形中,存储部630,可以实现为像存储卡那样能够装卸的存储装置。在又一情形中,也可以使用这样的构成:使用保存于外部存储装置的程序和数据,代替内置于服务器600的存储部630。依照这种构成,例如,在像娱乐设施那样使用多个头戴式装置系统100的情况下,能够统一地进行程序和数据的更新。
输入输出接口640,在与输入输出设备之间传递信号。在某个情形中,输入输出接口640,使用USB、DVI、HDMI以及其他的端子而实现。输入输出接口640不限于上述的接口。
通信接口650,连接于网络2,与连接于网络2的计算机200通信。在某个情形中,通信接口650,例如,实现为LAN以及其他的有线通信接口,或者,WiFi、Bluetooth、NFC以及其他的无线通信接口。通信接口650不限于上述的接口。
在某个情形中,处理器610,访问存储部630,将存储于存储部630的1个以上的程序加载至存储器620,执行该程序包含的一系列的命令。该1个以上的程序,能够包括服务器600的操作系统、用于提供虚拟空间的应用程序以及能够在虚拟空间执行的游戏软件等。处理器610,可以经由输入输出接口640,向计算机200发送用于提供虚拟空间的信号。
[头戴式装置的控制装置]
参照图10,说明头戴式装置120的控制装置。在某个实施方式中,控制装置由具有公知的构成的计算机200实现。图10是将根据某个实施方式的计算机200示意为模块构成的框图。
如图10所示,计算机200,具备控制模块510、渲染模块520、存储器模块530以及通信控制模块540。在某个情形中,控制模块510和渲染模块520,由处理器210实现。在另一情形中,多个处理器210可以用作控制模块510和渲染模块520。存储器模块530,由存储器220或存储部230实现。通信控制模块540,由通信接口250实现。
控制模块510,控制向用户5提供的虚拟空间11。控制模块510,使用表示虚拟空间11的虚拟空间数据,规定头戴式装置系统100的虚拟空间11。虚拟空间数据,例如,存储于存储器模块530。控制模块510,可以生成虚拟空间数据,或者从服务器600等取得虚拟空间数据。
控制模块510,使用表示物件的物件数据,在虚拟空间11中配置物件。物件数据,例如,存储于存储器模块530。控制模块510,可以生成物件数据,或者从服务器600等取得物件数据。物件,例如,能够包括作为用户5的分身的虚拟形象物件,角色物件,由控制器300操作的虚拟手等的操作物件,随着游戏故事的进行而配置的包括森林、山等的风景、街景、动物等。
控制模块510,在虚拟空间11配置经由网络2而连接的其他的计算机200的用户5的虚拟形象物件。在某个情形中,控制模块510,在虚拟空间11配置用户5的虚拟形象物件。在某个情形中,控制模块510,基于包括用户5的图像,在虚拟空间11配置模仿用户5的虚拟形象物件。在另一情形中,控制模块510,在虚拟空间11配置多种虚拟形象物件(例如,模仿动物的物件、变形的人的物件)中的接受用户5的选择的虚拟形象物件。
控制模块510,基于头戴式装置传感器410的输出而确定头戴式装置120的倾斜。在另一情形中,控制模块510,基于用作运动传感器的传感器190的输出而确定头戴式装置120的倾斜。控制模块510,从第1摄像机150和第2摄像机160生成的用户5的脸的图像,检出构成用户5的脸的器官(例如,口、眼、眉)。控制模块510,检出已检出的各器官的运动(形状)。
控制模块510,基于来自注视传感器140的信号,检出用户5的在虚拟空间11中的视线。控制模块510,检出已检出的用户5的视线和虚拟空间11的天球相交的视点位置(XYZ坐标系中的坐标值)。更具体而言,控制模块510,基于在uvw坐标系中规定的用户5的视线以及虚拟摄像机14的位置和倾斜,检出视点位置。控制模块510,向服务器600发送已检出的视点位置。在另一情形中,控制模块510,可以构成为向服务器600发送表示用户5的视线的视线信息。在相关的情况下,能够基于服务器600已接收的视线信息而算出视点位置。
控制模块510,向虚拟形象物件反映头戴式装置传感器410检出的头戴式装置120的运动。例如,控制模块510,检测到头戴式装置120倾斜,使虚拟形象物件倾斜配置。控制模块510,使配置于虚拟空间11的虚拟形象物件的脸反映已检出的脸器官的动作。控制模块510,从服务器600接收其他用户5的视线信息,使该其他用户5的虚拟形象物件的视线反映其他用户5的视线信息。在某个情形中,控制模块510,在虚拟形象物件和操作物件反映控制器300的运动。这种情况下,控制器300,具备用于检测控制器300的运动的运动传感器、加速度传感器或多个发光元件(例如,红外线发光二极管)等。
控制模块510,在虚拟空间11配置用于在虚拟空间11中接受用户5的操作的操作物件。用户5,通过操作操作物件,从而例如操作配置于虚拟空间11中的物件。在某个情形中,操作物件,例如,能够包括与用户5的手相当的虚拟手,即手物件等。在某个情形中,控制模块510,基于运动传感器420的输出,以与现实空间中的用户5的手的运动连动的方式使手物件在虚拟空间11中运动。在某个情形中,操作物件,能够相当于虚拟形象物件的手的部分。
控制模块510,在配置于虚拟空间11中的物件分别与其他的物件冲突的情况下,检出该冲突。控制模块510,例如,能够检出某个物件的冲突区域和另一物件的冲突区域接触的时机,在该检出完成时,进行预定的处理。控制模块510,能够检出物件和物件从接触的状态分离的时机,在该检出完成时,进行预定的处理。控制模块510,能够检出物件和物件接触的状态。例如,控制模块510,在操作物件和其他物件接触时,检出这些操作物件和其他物件接触,进行预定的处理。
在某个情形中,控制模块510,控制头戴式装置120的监视器130的图像显示。例如,控制模块510,在虚拟空间11中配置虚拟摄像机14。控制模块510,控制虚拟空间11中的虚拟摄像机14的位置和虚拟摄像机14的倾斜(朝向)。控制模块510,根据佩戴了头戴式装置120的用户5的头部的倾斜和虚拟摄像机14的位置,规定视界区域15。渲染模块520,基于已决定的视界区域15,生成监视器130显示的视界图像17。由渲染模块520生成的视界图像17,由通信控制模块540向头戴式装置120输出。
控制模块510,从头戴式装置120检出用户5使用话筒170的话语,则确定与该话语对应的声音数据的发送对象的计算机200。声音数据,被发送至由控制模块510确定的计算机200。控制模块510,如果经由网络2而从其他用户的计算机200接收声音数据,则从扬声器180输出与该声音数据对应的声音(话语)。
存储器模块530,保存用于计算机200向用户5提供虚拟空间11的数据。在某个情形中,存储器模块530,保存空间信息、物件信息以及用户信息。
空间信息,保存为了提供虚拟空间11而规定的1个以上的模板。
物件信息,包括构成虚拟空间11的多个全景图像13以及用于在虚拟空间11中配置物件的物件数据。全景图像13,能够包括静止图像和动图像。全景图像13,能够包括非现实空间的图像和现实空间的图像。作为非现实空间的图像,例如,可列举由计算机图形生成的图像。
用户信息,保存识别用户5的用户ID。用户ID,例如,能够为在用户使用的计算机200中设定的互联网协议(Internet Protocol)地址或媒体访问控制(Media AccessControl)地址。在另一情形中,用户ID能够由用户设定。用户信息,包括用于使计算机200用作头戴式装置系统100的控制装置的程序等。
存储于存储器模块530的数据和程序,由头戴式装置120的用户5输入。或者,处理器210,从提供该内容的服务商运营的计算机(例如,服务器600)下载程序或数据,将已下载的程序或数据存储于存储器模块530。
通信控制模块540,能够经由网络2而与服务器600和其他的信息通信装置通信。
在某个情形中,控制模块510和渲染模块520,例如,能够使用由Unity技术公司提供的Unity(注册商标)而实现。在另一情形中,控制模块510和渲染模块520,也能够实现为实现各处理的电路元件的组合。
计算机200中的处理,由硬件和处理器210执行的软件实现。这种软件,有时候预先存储于硬盘和其他的存储器模块530。软件,有时候存储于CD-ROM和其他的计算机可读取的非挥发性的数据存储介质,作为程序制品而流通。或者,该软件,有时候也作为可下载的程序制品而由连接至互联网和其他的网络的信息提供服务商提供。这种软件,由光盘驱动装置和其他的数据读取装置从数据存储介质读取,或者,经由通信控制模块540从服务器600和其他的计算机下载,然后,暂时存储于存储模块。该软件,由处理器210从存储模块读出,以可执行的程序的形式存储于RAM。处理器210,执行该程序。
[头戴式装置系统的控制构造]
参照图11,说明头戴式装置套件110的控制构造。图11是示意在根据某个实施方式的头戴式装置套件110中实施的处理的一部分的时序图。
如图11所示,在步骤S1110,计算机200的处理器210,作为控制模块510,确定虚拟空间数据,定义虚拟空间11。
在步骤S1120,处理器210,将虚拟摄像机14初始化。例如,处理器210,将虚拟摄像机14配置于虚拟空间11中预先规定的中心12,并使虚拟摄像机14的视线朝向用户5朝向的方向。
在步骤S1130,处理器210,作为渲染模块520,生成用于显示初始的视界图像的视界图像数据。已生成的视界图像数据,由通信控制模块540向头戴式装置120输出。
在步骤S1132,头戴式装置120的监视器130,基于从计算机200接收的视界图像数据,显示视界图像。佩戴了头戴式装置120的用户5,如果辨认视界图像,则能够识别虚拟空间11。
在步骤S1134,头戴式装置传感器410,基于从头戴式装置120发送的多个红外线光,检测到头戴式装置120的位置和倾斜。检测结果,作为运动检测数据,被输出至计算机200。
在步骤S1140,处理器210,基于头戴式装置120的运动检测数据所包括的位置和倾斜,确定佩戴了头戴式装置120的用户5的视界方向。
在步骤S1150,处理器210,执行应用程序,基于应用程序所包括的命令,在虚拟空间11中配置物件。
在步骤S1160,控制器300,基于从运动传感器420输出的信号,检出用户5的操作,向计算机200输出表示该已检出的操作的检出数据。在另一情形中,可以基于来自配置于用户5的周围的摄像机的图像而检出用户5对控制器300的操作。
在步骤S1170,处理器210,基于从控制器300取得的检出数据,检出用户5对控制器300的操作。
在步骤S1180,处理器210,生成基于用户5对控制器300的操作的视界图像数据。已生成的视界图像数据,由通信控制模块540向头戴式装置120输出。
在步骤S1190,头戴式装置120,基于已接收的视界图像数据而更新视界图像,在监视器130显示更新后的视界图像。
[虚拟形象物件]
参照图12(A)、(B),说明根据本实施方式的虚拟形象物件。以下是说明头戴式装置套件110A、110B的各用户5的虚拟形象物件的图。以下,由用户5A表示头戴式装置套件110A的用户,由用户5B表示头戴式装置套件110B的用户,由用户5C表示头戴式装置套件110C的用户,由用户5D表示头戴式装置套件110D的用户。与头戴式装置套件110A相关的各构成要素的参考标号被赋予A,与头戴式装置套件110B相关的各构成要素的参考标号被赋予B,与头戴式装置套件110C相关的各构成要素的参考标号被赋予C,与头戴式装置套件110D相关的各构成要素的参考标号被赋予D。例如,头戴式装置120A,被头戴式装置套件110A包括。
图12(A)是示意在网络2中各头戴式装置120向用户5提供虚拟空间11的状况的模式图。计算机200A~200D,经由头戴式装置120A~120D,向用户5A~5D分别提供虚拟空间11A~11D。在图12(A)所示的示例中,虚拟空间11A和虚拟空间11B由相同的数据构成。换言之,计算机200A和计算机200B共享相同的虚拟空间。在虚拟空间11A和虚拟空间11B中,存在用户5A的虚拟形象物件6A和用户5B的虚拟形象物件6B。虚拟空间11A中的虚拟形象物件6A和虚拟空间11B中的虚拟形象物件6B分别佩戴头戴式装置120,但这用于使说明容易理解,实际上,这些物件不佩戴头戴式装置120。
在某个情形中,处理器210A,能够将拍摄用户5A的视界图像17A的虚拟摄像机14A配置于虚拟形象物件6A的眼的位置。
图12(B)是示意图12(A)中的用户5A的视界图像17A的图。视界图像17A是头戴式装置120A的监视器130A显示的图像。该视界图像17A,是虚拟摄像机14A生成的图像。在视界图像17A显示用户5B的虚拟形象物件6B。虽然图中未特别显示,但是,在用户5B的视界图像中,也同样地显示用户5A的虚拟形象物件6A。
在图12(B)的状态中,用户5A能够经由虚拟空间11A而谋求与用户5B进行对话通信。更具体而言,由话筒170A取得的用户5A的声音,经由服务器600而被发送至用户5B的头戴式装置120B,从设于头戴式装置120B的扬声器180B输出。用户5B的声音,经由服务器600而被发送至用户5A的头戴式装置120A,从设于头戴式装置120A的扬声器180A输出。
用户5B的动作(头戴式装置120B的动作和控制器300B的动作),由处理器210A反映至配置于虚拟空间11A中的虚拟形象物件6B。由此,用户5A,能够通过虚拟形象物件6B而识别用户5B的动作。
图13是示意在根据本实施方式的头戴式装置系统100中实施的处理的一部分的时序图。在图13中,虽然未显示头戴式装置套件110D,但是,头戴式装置套件110D也与头戴式装置套件110A、110B、110C同样地进行动作。在以下的说明中,与头戴式装置套件110A相关的各构成要素的参考标号也被赋予A,与头戴式装置套件110B相关的各构成要素的参考标号也被赋予B,与头戴式装置套件110C相关的各构成要素的参考标号也被赋予C,与头戴式装置套件110D相关的各构成要素的参考标号也被赋予D。
在步骤S1310A,头戴式装置套件110A的处理器210A,取得用于决定虚拟空间11A中的虚拟形象物件6A的动作的虚拟形象信息。该虚拟形象信息,例如,包括运动信息、脸部追踪数据以及声音数据等的与虚拟形象相关的信息。运动信息,包括表示头戴式装置120A的位置和倾斜的随时间的变化的信息以及表示由运动传感器420A等检出的用户5A的手的运动的信息等。脸部追踪数据,可列举确定用户5A的脸的各部分的位置和大小的数据。脸部追踪数据,可列举表示构成用户5A的脸的各器官的运动的数据以及视线数据。声音数据,可列举表示由头戴式装置120A的话筒170A取得的用户5A的声音的数据。虚拟形象信息,可以包括确定虚拟形象物件6A或者与虚拟形象物件6A相关联的用户5A的信息和确定虚拟形象物件6A存在的虚拟空间11A的信息等。作为确定虚拟形象物件6A和用户5A的信息,可列举用户ID。作为确定虚拟形象物件6A存在的虚拟空间11A的信息,可列举房间ID。处理器210A,经由网络2而向服务器600发送如上述取得的虚拟形象信息。
在步骤S1310B,头戴式装置套件110B的处理器210B,与步骤S1310A的处理同样地,取得用于决定虚拟空间11B中的虚拟形象物件6B的动作的虚拟形象信息,并向服务器600发送。同样地,在步骤S1310C,头戴式装置套件110C的处理器210C,取得用于决定虚拟空间11C中的虚拟形象物件6C的动作的虚拟形象信息,并向服务器600发送。
在步骤S1320,服务器600,暂时存储分别从头戴式装置套件110A、头戴式装置套件110B以及头戴式装置套件110C接收的玩家信息。服务器600,基于各虚拟形象信息包括的用户ID和房间ID等,综合与共同的虚拟空间11相关联的全部用户(在该例中,为用户5A~5C)的虚拟形象信息。然后,服务器600,在预定的时机,向与该虚拟空间11相关联的全部用户发送已综合的虚拟形象信息。由此,实施同步处理。通过这种同步处理,使得头戴式装置套件110A、头戴式装置套件110B以及头戴式装置套件110C能够在大致相同的时机共享彼此的虚拟形象信息。
接着,基于从服务器600发送至各头戴式装置套件110A~110C的虚拟形象信息,各头戴式装置套件110A~110C实施步骤S1330A~S1330C的处理。步骤S1330A的处理,相当于图11中的步骤S1180的处理。
在步骤S1330A,头戴式装置套件110A的处理器210A,更新虚拟空间11A中的其他用户5B、5C的虚拟形象物件6B、虚拟形象物件6C的信息。具体而言,处理器210A,基于从头戴式装置套件110B发送的虚拟形象信息包括的运动信息,更新虚拟空间11中的虚拟形象物件6B的位置和朝向等。例如,处理器210A,更新存储于存储器模块530的物件信息包括的虚拟形象物件6B的信息(位置和朝向等)。同样地,处理器210A,基于从头戴式装置套件110C发送的虚拟形象信息包括的运动信息,更新虚拟空间11中的虚拟形象物件6C的信息(位置和朝向等)。
在步骤S1330B,头戴式装置套件110B的处理器210B,与步骤S1330A的处理同样地,更新虚拟空间11B中的用户5A、5C的虚拟形象物件6A、6C的信息。同样地,在步骤S1330C,头戴式装置套件110C的处理器210C,更新虚拟空间11C中的用户5A、5B的虚拟形象物件6A、6B的信息。
[模块的详细构成]
参照图14,说明计算机200的模块构成的详细情况。图14是示意根据某个实施方式的计算机200的模块的详细构成的框图。如图14所示,控制模块510,具备虚拟物件生成模块1421、虚拟摄像机控制模块1422、操作物件控制模块1423、虚拟形象物件控制模块1424、运动检出模块1425、冲突检出模块1426、虚拟物件控制模块1427、收费处理模块1428以及结算处理模块1429。
虚拟物件生成模块1421,在虚拟空间11生成各种虚拟物件。在某个情形中,虚拟物件,例如,能够包括随着游戏故事的进行而配置的包括森林、山等的风景、动物等。在某个情形中,虚拟物件,能够包括虚拟形象物件、操作物件以及舞台物件、用户界面(UserInterface)物件。
虚拟摄像机控制模块1422,控制虚拟空间11中的虚拟摄像机14的举动。虚拟摄像机控制模块1422,例如,控制虚拟空间11中的虚拟摄像机14的配置位置和虚拟摄像机14的朝向(倾斜)。
操作物件控制模块1423,控制用于在虚拟空间11中接受用户5的操作的操作物件。用户5,通过操作操作物件,从而例如操作配置于虚拟空间11中的虚拟物件。在某个情形中,操作物件,例如,能够包括与佩戴了头戴式装置120的用户5的手相当的手物件(虚拟手)等。在某个情形中,操作物件,能够相当于后述的虚拟形象物件的手的部分。
虚拟形象物件控制模块1424,将头戴式装置传感器410检出的头戴式装置120的运动反映至虚拟形象物件。例如,虚拟形象物件控制模块1424,检测到头戴式装置120倾斜,生成用于使虚拟形象物件倾斜配置的数据。在某个情形中,虚拟形象物件控制模块1424,将控制器300的运动反映至虚拟形象物件。这种情况下,控制器300,具备用于检测控制器300的运动的运动传感器、加速度传感器或者多个发光元件(例如,红外线发光二极管)等。虚拟形象物件控制模块1424,使配置于虚拟空间11的虚拟形象物件的脸反映运动检出模块1425已检出的脸器官的动作。即,虚拟形象物件控制模块1424,将用户5的脸的动作反映至虚拟形象物件。
运动检出模块1425,检出用户5的运动。运动检出模块1425,例如,根据控制器300的输出,检出用户5的手的运动。
运动检出模块1425,例如,根据佩戴于用户5的身体的运动传感器的输出,检出用户5的身体的运动。运动检出模块1425,也能够检出用户5的脸器官的动作。
冲突检出模块1426,在配置于虚拟空间11中的虚拟物件分别与其他虚拟物件冲突的情况下,检出该冲突。冲突检出模块1426,例如,能够检出某个虚拟物件和另一虚拟物件接触的时机。冲突检出模块1426,能够检出某个虚拟物件和其他虚拟物件从接触的状态分离的时机。冲突检出模块1426,也能够检出某个虚拟物件和其他虚拟物件接触的状态。冲突检出模块1426,例如,在操作物件和其他虚拟物件接触时,检出这些操作物件和其他物件接触。冲突检出模块1426,基于这些检出结果,实施预定的处理。
虚拟物件控制模块1427,在虚拟空间11中控制除了虚拟形象物件之外的虚拟物件的举动。作为一个示例,虚拟物件控制模块1427,使虚拟物件变形。作为另一示例,虚拟物件控制模块1427,变更虚拟物件的配置位置。作为另一示例,虚拟物件控制模块1427,使虚拟物件移动。
收费处理模块1428,实施与收费相关的处理。
结算处理模块1429,实施与结算相关的处理。
[收看者的虚拟空间]
图15是示意根据某个实施方式的虚拟空间11A和视界图像1517A的图。在图15(A)中,在用于向用户5A(第1用户)提供虚拟体验的虚拟空间11A中,至少配置有虚拟形象物件6A~6D、虚拟摄像机14A以及舞台物件1532。用户5A,将头戴式装置120A佩戴于头部。用户5A,由构成用户5A的身体的右侧的一部分的右手(第1部位)握持右控制器300RA,由构成用户5A的身体的左侧的一部分的左手(第2部位)握持左控制器300LA。虚拟形象物件6A(第1虚拟形象),包括虚拟右手1531RA和虚拟左手1531LA。虚拟右手1531RA是操作物件的一种,能够根据用户5A的右手的运动而在虚拟空间11A中运动。虚拟左手1531LA是操作物件的一种,能够根据用户5A的左手的运动而在虚拟空间11A中运动。
通过在计算机200A播放直播内容,从而构建图15(A)所示的虚拟空间11A。在虚拟空间11A中,虚拟形象物件6B,作为直播的表演者而实施表演,包括虚拟形象物件6A的其他虚拟形象物件,作为直播的收看者而收看表演。在虚拟空间11A中,虚拟形象物件6A~6D,分别与用户5A~5D单独地关联。
在虚拟空间11A中,虚拟形象物件6B(第2虚拟形象),配置于舞台物件1532上。舞台物件1532,具有模仿现实的直播会场中的舞台的外观。虚拟形象物件6A、6C、6D,均配置于舞台物件1532的跟前。在虚拟空间11A中,虚拟形象物件6B,通过根据用户5B(第2用户)的运动而运动,从实施直播的表演。在虚拟空间11A中,虚拟形象物件6A,收看虚拟形象物件6B的表演。这时,在向用户5C提供的虚拟空间11C中,虚拟形象物件6C,收看由虚拟形象物件6B实施的表演。同样地,在向用户5D提供的虚拟空间11D中,虚拟形象物件6D,收看由虚拟形象物件6B实施的表演。所以,可以说用户5B为表演者,且用户5A、5C以及5D为收看者。
在图15(A)中,虚拟摄像机14A,配置于虚拟形象物件6A的头部。虚拟摄像机14A,规定与虚拟摄像机14A的位置和朝向相应的视界区域15A。虚拟摄像机14A,生成与视界区域15A对应的视界图像1517A,如图15(B)所示地使头戴式装置120A显示。用户5A,通过辨认视界图像1517A,从而在虚拟形象物件6A的视点辨认虚拟空间的一部分。由此,用户5A,能够得到用户5A自身宛如是虚拟形象物件6A的虚拟体验。视界图像1517A包括实施表演的虚拟形象物件6B。所以,用户5A,能够在虚拟形象物件6A的视点收看虚拟形象物件6B的表演。
在虚拟空间11A中,也能够配置有不同的多个虚拟形象物件6B。在某个情形中,不同的用户5分别与多个虚拟形象物件6B相关联。在另一情形中,同一用户5B与多个虚拟形象物件6B相关联。
[表演者的虚拟空间]
图16是示意根据某个实施方式的虚拟空间11B和视界图像1617B的图。在图16(A)中,在用于向用户5B提供虚拟体验的虚拟空间11B中,至少配置有虚拟形象物件6A~6D、虚拟摄像机14B以及舞台物件1532。用户5B,将头戴式装置120B佩戴于头部。用户5B,由构成用户5B的身体的右侧的一部分的右手(第1部位)握持右控制器300RB,由构成用户5B的身体的左侧的一部分的左手(第2部位)握持左控制器300LB。
头戴式装置120B,具备用作运动传感器的传感器190。右控制器300RB和左控制器300LB具备运动传感器420。用户5B,还佩戴运动传感器1641~1643。运动传感器1641,通过腰带1644而佩戴于用户5B的腰部。运动传感器1642,佩戴于用户5B的右脚背。运动传感器1643,佩戴于用户5B的用户5B的左脚背。运动传感器1641~1643,通过有线或无线而连接至计算机200B。
在某个情形中,佩戴于用户5B的运动传感器,检出从基站(图中未显示)照射的信号(例如红外线激光)的到达时间和角度。计算机200B的处理器210B(以下,简称为处理器210B),基于运动传感器的检出结果,检出相对于基站的运动传感器的位置。处理器210B,还可以以指定点(例如佩戴于头部的传感器190的位置)为基准,将相对于基站的运动传感器的位置标准化。
虚拟形象物件6B,包括虚拟右手1531RB和虚拟左手1531LB。虚拟右手1531RB为操作物件的一种,能够根据用户5B的右手的运动而在虚拟空间11B中运动。虚拟左手1531LB为操作物件的一种,能够根据用户5B的左手的运动而在虚拟空间11B中运动。
通过在计算机200B播放直播内容,从而构建图16(A)所示的虚拟空间11B。虚拟空间11A和11B,根据服务器600的控制而相互同步。用户5B,为了使虚拟形象物件6B实施表演,使自身的身体运动。计算机200B,基于佩戴于用户5B的各种运动传感器的输出,检出用户5B的运动。在虚拟空间11B中,虚拟形象物件6B,根据已确定的用户5B的运动,实施反映现实空间中的用户5B的运动的表演。在虚拟空间11B中,虚拟形象物件6A、6C、6D收看虚拟形象物件6B的表演。如果在虚拟空间11B中虚拟形象物件6B实施与用户5B的运动相应的表演,则与其同步地,在虚拟空间11A、11C以及11D中虚拟形象物件6B也实施相同的表演。如此,用户5B,具有作为将虚拟形象物件6B的直播分别配送至用户5A、5C以及5D的配送者的作用。
在图16(A)中,虚拟摄像机14B,配置于虚拟形象物件6B的头部。虚拟摄像机14B,规定与虚拟摄像机14B的位置和朝向相应的视界区域15B。虚拟摄像机14B,生成与视界区域15B对应的视界图像1617B,如图16(B)所示地使头戴式装置120B显示。用户5B,通过辨认视界图像1617B,从而在虚拟形象物件6B的视点辨认虚拟空间的一部分。由此,用户5B,能够得到用户5B自身宛如是虚拟形象物件6B的虚拟体验。视界图像1617B包括收看表演的虚拟形象物件6A、6C、6D。所以,用户5B,能够在虚拟形象物件6B的视点知晓收看虚拟形象物件6B的表演的虚拟形象物件6A、6C、6D的姿态。
[直播配送流程]
图17是示意在头戴式装置系统100中实施的处理的一个示例的时序图。以下,说明用于从计算机200B对计算机200A配送在虚拟空间11B中进行的虚拟形象物件6B的直播的一系列的处理。基于同样的一系列的处理,也对计算机200C和200D配送虚拟形象物件6B的直播。
在步骤S1701,处理器210B,从佩戴于用户5B的运动传感器检出用户5B的头部、腰部、双手以及双脚的位置。以下,将由各运动传感器检出的用户5B的部位的位置也称为“位置信息”。在步骤S1702,处理器210B,基于用户5B的现在的位置信息和预先取得的用户5B的尺寸数据,算出用户5B的关节的旋转方向。尺寸数据是表示用户5B的身体的尺寸的数据。在后文描述尺寸数据和旋转方向。检出现在的位置信息和算出旋转方向,与检出用户5B的运动同义。
在步骤S1703,处理器210B,基于现在的位置信息和旋转方向,使配置于虚拟空间11B的虚拟形象物件6B运动。处理器210B,例如,基于右肩的旋转方向,使虚拟形象物件6B的右上腕部运动。处理器210B还基于现在的位置信息(例如现在的腰部的位置信息),使虚拟形象物件6B在虚拟空间11B中的位置运动。由此,处理器210B,使虚拟空间的虚拟形象物件6B反映现实空间的用户5B的运动。换言之,处理器210B使虚拟形象物件6B实施与用户5B的运动相应的表演。
用于使虚拟形象物件6B反映用户5B的运动的处理,不限于与上述的位置信息和旋转方向相应的处理。处理器210B,例如,也能够不算出旋转方向,而是根据用户5B的运动而使虚拟形象物件6B运动。处理器210B,例如,也可以以与构成用户5B的身体的各部位的位置相对应的方式,控制与用户5B的各部位对应的虚拟形象物件6B的各部位物件的位置。
在步骤S1704,处理器210B,生成表示实施表演时的虚拟形象物件6B的运动的运动信息,向服务器600发送包括该运动信息的虚拟形象物件6B的虚拟形象信息。
在步骤S1710,计算机200A的处理器210A(以下,简称为处理器210A),向服务器发送虚拟形象物件6A的虚拟形象信息。在步骤S1720,服务器600,实施用于使虚拟空间11A和11B同步的同步处理。更详细而言,服务器600,向计算机200A发送从计算机200B接收的虚拟形象物件6B的虚拟形象信息。服务器600,还向计算机200B发送从计算机200A接收的虚拟形象物件6A的虚拟形象信息。
在步骤S1705,处理器210B,接收从服务器600发送的虚拟形象物件6A的虚拟形象信息。在步骤S1706,处理器210B,基于已接收的虚拟形象信息,在虚拟空间11B中控制虚拟形象物件。由此,虚拟空间11A中的虚拟形象物件6A的举动被反映至虚拟空间11B中的虚拟形象物件6A。换言之,虚拟形象物件6A的举动在虚拟空间11A和11B中同步。例如,在虚拟形象物件6A在虚拟空间11A中移动的情况下,虚拟形象物件6A在虚拟空间11B中也同样地移动。
在步骤S1711,处理器210A,接收从服务器600发送的虚拟形象物件6B的虚拟形象信息。在步骤S1712,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B运动。由此,处理器210B,使配置于虚拟空间11A中的虚拟形象物件6B反映现实空间的用户5B的运动。换言之,处理器210A,使虚拟形象物件6B在虚拟空间11A中实施与用户5B的运动相应的表演。由此,虚拟空间11B中的虚拟形象物件6B的举动被反映至虚拟空间11A中的虚拟形象物件6B。换言之,虚拟形象物件6B的举动在虚拟空间11A和11B中同步。例如,在虚拟形象物件6B在虚拟空间11B中实施第1表演的情况下,虚拟形象物件6B在虚拟空间11A中也同样地实施第1表演。如此,虚拟空间11B中的虚拟形象物件6B的直播被配送至虚拟空间11A。
虽然图中未显示,但是,处理器210B,使用话筒170B将用户5B发出的声音录音。处理器210B,生成表示用户5B的声音的声音数据,向服务器600发送。服务器600,通过同步处理而向计算机200A发送已接收的用户5B的声音数据。处理器210A,向扬声器180A输出已接收的用户5B的声音数据表示的声音。这些一系列的处理的结果,用户5A能够实时地听到用户5B在直播中发出的声音。
[尺寸数据的取得]
图18是用于说明尺寸数据的取得方法的图。图18(A)表示用户5B朝向正面,将双手水平地打开,并站立的状态。以下,将图18(A)所示的状态也称为第1姿势。图18(B)表示用户5B朝向正面,将双手下方至大腿股侧面,并站立的状态。以下,将图18(B)所示的状态也称为第2姿势。
在某个情形中,处理器210B,促使用户5B采取第1姿势和第2姿势。作为一个示例,处理器210B,在监视器130B显示第1姿势和第2姿势的角色,显示大意为采取同样的姿势的消息。作为其他的示例,处理器210B,也可以从扬声器180B输出大意为采取第1姿势和第2姿势的声音。
处理器210B,基于佩戴于用户5B的运动传感器的输出,在2个姿势(第1姿势和第2姿势)分别取得用户5B的头部、腰部、双手、双脚的位置信息。这些位置信息,能够如图19所示地作为实际坐标系(X、Y、Z)中的位置而被取得。
处理器210B,从与2个姿势对应的位置信息算出用户5B的尺寸数据。在某个实施方式中,处理器210B,如图20所示,算出用户5B的身高、肩宽、臂长、腿长,从头部至肩部的高度,作为尺寸数据。处理器210B,能够算出第2姿势中的双手的间隔,作为肩宽。处理器210B,能够算出从第1姿势中的双手的间隔减去肩宽后的值的一半,作为臂长。处理器210B,能够算出从脚的高度至头部的高度的距离,作为身高。处理器210B,能够算出从脚的高度至腰部的高度的距离,作为腿长。处理器210B,能够算出从第1姿势中的手的高度至头部为止的高度,作为从头部至肩部的高度。
图21是示意用于取得尺寸数据的处理的流程图。在步骤S2110,处理器210B,在虚拟空间11B中配置虚拟摄像机14B。处理器210B还向监视器130B输出与虚拟摄像机14B的拍摄范围对应的视界图像17B。
在步骤S2120,处理器210B,指示用户5B成为第1姿势。例如,处理器210B,在虚拟空间11B中配置记载该指示的物件,从而实现步骤S2120的处理。在步骤S2130,处理器210B,取得与第1姿势对应的位置信息。
在步骤S2140,处理器210B,指示用户5B成为第2姿势。在步骤S2150,处理器210B,取得与第2姿势对应的位置信息。
在步骤S2160,处理器210B,从与第1姿势对应的位置信息和与第2姿势对应的位置信息,算出用户5B的尺寸数据。处理器210B,将尺寸数据存储于存储部230B。
如上所述,用户5B,仅采取2个姿势,就能够容易地将自身的尺寸输入至计算机200B。此外,在其他的情形中,用户5B,也可以使用键盘等的输入装置而将自身的尺寸输入至计算机200B。
[关节的旋转方向]
在某个实施方式中,处理器210B,基于佩戴用户5B的6个运动传感器的输出(位置信息)和尺寸数据,推定用户5B的关节的旋转方向。作为一个示例,处理器210B,基于头部的位置信息、肩宽以及从头部至肩部的高度,推定肩的位置。处理器210B,从肩的位置和手的位置信息,推定肘的位置。该推定,能够由利用了逆运动学(Inverse Kinematics)的公知的应用程序实施。
在某个实施方式中,处理器210B,从6个运动传感器取得用户5B的首(头部)、腰、双手腕以及双脚腕的关节的倾斜(旋转方向)。并且,处理器210B,基于逆运动学,推定双肩、双肘、双髋(大腿根)、双膝的关节的旋转方向。如图22所示,处理器210B,在uvw视野坐标系取得或推定各关节的旋转方向。
此外,在基于位置信息和尺寸数据而算出旋转方向的情况下,处理器210B不能正确地推定用户5B不朝向正面时(即,头部和腰部朝向不同的方向时)的肩的位置等。于是,在其他的实施方式中,计算机200B,可以还考虑由运动传感器检出的用户5B的部位的倾斜而推定关节的旋转方向。例如,计算机200B,基于头部的位置信息、头部的倾斜、腰部的倾斜、肩宽以及从头部至肩部的高度,推定肩的位置。依照该构成,计算机200B,能够提高关节的旋转方向的精度。
[直播会场选择处理流程]
图23是示意在根据某个实施方式的头戴式装置套件110A中实施的处理的一部分的时序图。图24是示意根据某个实施方式的第1虚拟空间2411A和视界图像2417A的图。在本实施方式中,说明用于选择用户5A收看虚拟直播的场所即虚拟会场的一系列的处理由头戴式装置套件110A实施。但是,该处理,可以由其他的头戴式装置套件110B、110C、110D实施,该处理的一部分或全部也可以由服务器600实施。
在步骤S2301,处理器210A,定义如图24(A)所示的第1虚拟空间2411A。该处理,与图11的步骤S1110的处理相当。具体而言,处理器210A,确定虚拟空间数据,从而定义由虚拟空间数据表示的第1虚拟空间2411A。第1虚拟空间2411A是开始虚拟形象物件6B的直播之前配置有虚拟形象物件6A的虚拟空间。第1虚拟空间2411A也是用于使用户5A选择会场的虚拟空间。
在步骤S2302,处理器210A,作为虚拟物件生成模块1421,生成虚拟摄像机14A,配置在第1虚拟空间2411A中。在步骤S2303,处理器210A,作为虚拟物件生成模块1421,生成包括虚拟右手1531RA和虚拟左手1531LA的虚拟形象物件6A,配置在第1虚拟空间2411A中。在步骤S2304,处理器210A,作为虚拟物件生成模块1421,生成用户界面面板2450和笔物件2453,配置在第1虚拟空间2411A中。
用户界面面板2450是用户界面物件的一种,为了使处理器210A实施用于选择会场的处理,由用户5A使用。用户界面面板2450,包括配置在用户界面面板2450的前面的选择项2451和2452。选择项2451和2452,包括在该选择项由用户5A选择的情况下说明所选择的会场的名称的信息。选择项2451为用于选择第1会场的项目,选择项2452为用于选择与第1会场不同的第2会场的项目。笔物件2453为虚拟物件的一种,为了选择用户界面面板2450的选择项2451或2452,由虚拟右手1531RA或虚拟左手1531LA握持且使用。
在步骤S2305,处理器210A,作为虚拟摄像机控制模块1422,根据头戴式装置120A的运动而决定第1虚拟空间2411A中的虚拟摄像机14A的位置和倾斜。更详细而言,处理器210A,根据用户5A的头部的姿势和第1虚拟空间2411A中的虚拟摄像机14A的位置,控制从第1虚拟空间2411A中的虚拟摄像机14A起的视界,即视界区域15A。该处理,与图11的步骤S1140的处理的一部分相当。虚拟摄像机14A配置在与虚拟形象物件6A相同的位置,因而虚拟摄像机14A的位置与虚拟形象物件6A的位置同义。再者,从虚拟摄像机14A起的视界,与从虚拟形象物件6A起的视界同义。
在步骤S2306,处理器210A,在监视器130A显示视界图像17A。具体而言,处理器210A,基于头戴式装置120A的运动(即虚拟摄像机14A的位置和倾斜)和定义第1虚拟空间2411A的虚拟空间数据,定义与视界区域15A对应的视界图像17A。定义视界图像17A,与生成视界图像17A同义。处理器210A,还向头戴式装置120A的监视器130A输出视界图像17A,从而使头戴式装置120A显示视界图像17A。该处理,与图11的步骤S1180和S1190的处理相当。
处理器210A,例如,如图24(B)所示地在监视器130A显示与图24(A)所示的第1虚拟空间2411A对应的视界图像2417A。用户5A,通过辨认视界图像2417A,从而意识到必须选择用户界面面板2450的选择项2451或选择项2452。
上述的步骤S2305和S2306的处理(即,与头戴式装置120A的运动相应的视界图像17A的更新),在实施后述的步骤S2307~S2310的期间,也继续被重复地实施。
在步骤S2307,处理器210A,作为运动检出模块1425,基于右控制器300RA的输出,检出用户5A的右手的运动。在步骤S2308,处理器210A,作为操作物件控制模块1423,根据已检出的用户5A的右手的运动,使虚拟右手1531RA在第1虚拟空间2411A中运动。在某个情形中,处理器210A,根据用户5A的右手的运动,使虚拟右手1531RA在第1虚拟空间2411A中移动,从而使虚拟右手1531RA靠近笔物件2453。处理器210A,在虚拟右手1531RA充分地靠近笔物件2453之后,基于用户5A的右手的运动,利用虚拟右手1531RA选择笔物件2453(抓取)。作为用户5A的右手的运动,例如,可列举按下右控制器300RA的任一个按钮的运动。由此,由虚拟右手1531RA握持笔物件2453。
图25是示意根据某个实施方式的第1虚拟空间2411A和视界图像2517A的图。如图25(A)所示,处理器210A,在虚拟右手1531RA选择笔物件2453之后,基于用户5A的右手的运动,使虚拟右手1531RA和笔物件2453在第1虚拟空间2411A中运动,从而使笔物件2453的前端靠近选择项2451。处理器210A,作为冲突检出模块1426,在笔物件2453的前端和选择项2451成为第1位置关系的情况下,检出笔物件2453的前端和选择项2451冲突。第1位置关系,例如为笔物件2453的前端和选择项2451的距离小于第1距离。或者,在笔物件2453的前端规定的冲突区域和在选择项2451设定的冲突区域至少部分地冲突。处理器210A,基于笔物件2453的前端和选择项2451冲突,检出笔物件2453选择选择项2451。在步骤S2309,处理器210A,接受与已选择的选择项2451对应的第1会场的选择。第1会场是用户5A收看直播的环境,即与第2虚拟空间2711A对应的虚拟会场。
处理器210A,例如,如图25(B)所示地在监视器130A显示与图25(A)所示的第1虚拟空间2411A对应的视界图像2517A。用户5A,通过辨认视界图像2517A,从而意识到选择用户界面面板2450的选择项2451(即,选择第1会场)。
在步骤S2310,处理器210A,作为虚拟形象物件控制模块1424,使虚拟形象物件6A从第1虚拟空间2411A退出。详细而言,处理器210A,结束第1虚拟空间2411A中的虚拟形象物件6A的配置。然后,处理器210A,继续进行第1虚拟空间2411A的定义。处理器210A,在不配置虚拟形象物件6A之后,还在第1虚拟空间2411A中配置其他的虚拟物件。处理器210A,中断对用户5A提供第1虚拟空间2411A。处理器210A,还通过实施用于使虚拟形象物件6A收看虚拟形象物件6B的表演的一系列的处理,从而向用户5A新提供与第1会场对应的第2虚拟空间2711A。
会场选择方式,不限于上述的示例。处理器210A,例如,在第1虚拟空间2411A中配置将会场的内容视觉化的球体模型。处理器210A,在该球体模型由虚拟右手1531RA或虚拟左手1531LA选择的情况下,也能够向用户5A新提供与已选择的球体模型表示的会场对应的第2虚拟空间2711A。
[直播收看处理流程]
图26是示意在根据某个实施方式的头戴式装置套件110A中实施的处理的一部分的时序图。图27是示意根据某个实施方式的第2虚拟空间2711A和视界图像2717A的图。在本实施方式中,说明用于开始直播收看的一系列的处理由头戴式装置套件110A实施。但是,该处理,也可以由其他的头戴式装置套件110B、110C、110D实施,该处理的一部或全部也可以由服务器600实施。
在步骤S2601,处理器210A,定义如图27(A)所示的第2虚拟空间2711A。该处理,与图11的步骤S1110的处理相当。具体而言,处理器210A,通过确定虚拟空间数据,从而定义由虚拟空间数据表示的第2虚拟空间2711A。第2虚拟空间2711A是与第1虚拟空间2411A不同的虚拟空间,是虚拟形象物件6A收看虚拟形象物件6B的直播的虚拟空间。换言之,第2虚拟空间2711A是进行虚拟形象物件6B的表演的虚拟空间。
在步骤S2602,处理器210A,生成虚拟摄像机14A,配置在第2虚拟空间2711A中。在步骤S2603,处理器210A,生成舞台物件1532,配置在第2虚拟空间2711A中。在步骤S2604,处理器210A,从服务器600接收虚拟形象物件6C和6D的各虚拟形象信息。在步骤S2605,处理器210A,基于已接收的各虚拟形象信息,在第2虚拟空间2711A中配置虚拟形象物件6C和6D。处理器210A,还接收其他虚拟形象物件6的虚拟形象信息,配置在第2虚拟空间2711A中。在第2虚拟空间2711A中,配置有多个其他虚拟形象物件6,但是,在图27中,为了便于说明,仅代表性地图示其中的1个。以后,只要不是非常必要,就不提及其他虚拟形象物件6。
在步骤S2606,处理器210A,作为虚拟形象物件控制模块1424,使虚拟形象物件6A进入第2虚拟空间2711A。详细而言,处理器210A,在第2虚拟空间2711A中配置从第1虚拟空间2411A退出的虚拟形象物件6A。如此,使虚拟形象物件6A进入第2虚拟空间2711A,与在第2虚拟空间2711A中配置虚拟形象物件6A同义。虽然图中未显示,但是,处理器210A,在任意的时机,生成虚拟形象物件6A的虚拟形象信息,向服务器600发送。
在步骤S2607,处理器210A,作为虚拟物件生成模块1421,生成标签物件2733A,与虚拟形象物件6A相关联。详细而言,处理器210A,在虚拟形象物件6A的虚拟左手1531LA配置标签物件2733A。标签物件2733A为虚拟物件的一种。标签物件2733A为用于管理收费信息的虚拟物件,该收费信息表示对在第2虚拟空间2711A中收看直播的用户5A收取的收费金额。
处理器210A,设定能够在直播中对用户5A收取的收费金额的上限(以下,上限收费金额)。处理器210A,还将表示已设定的上限收费金额的上限收费信息登记在标签物件2733A。处理器210A,例如,在将标签物件2733A配置在虚拟左手1531LA之后,能够接受用户5A的上限收费金额的输入,设定已输入的上限收费金额。处理器210A,例如,在用户5B将用户信息登记在头戴式装置系统100时,也能够基于用户信息包括的信用卡信息等而预先设定上限收费金额。处理器210A,例如,也能够基于用户5A过去已收看的直播中的用户的过去的收费金额而算出上限收费金额。处理器210A,将表示已设定的上限收费金额的上限收费信息登记在标签物件2733A。
在图27(A)中,虚拟形象物件6B,不配置在第2虚拟空间2711A中。换言之,在第2虚拟空间2711A中,还未开始虚拟形象物件6B的直播。在步骤S2608,处理器210A,作为虚拟摄像机控制模块1422,根据头戴式装置120A的运动,决定第2虚拟空间2711A中的虚拟摄像机14A的位置和倾斜。该处理,与步骤S2305中的处理基本相同,因而不重复详细的说明。在步骤S2609,处理器210A,在监视器130A显示视界图像17A。该处理,与步骤S2306中的处理基本相同,因而不重复详细的说明。
处理器210A,例如,如图27(B)所示地在监视器130A显示与图27(A)所示的第2虚拟空间2711A对应的视界图像2717A。用户5A,通过辨认视界图像2717A,从而意识到虚拟形象物件6A已进入第2虚拟空间2711A。由于舞台物件1532上未配置虚拟形象物件6B,因而,用户5A还意识到还未开始虚拟形象物件6B的直播。
图28是示意根据某个实施方式的第2虚拟空间2711A和视界图像2817A的图。在步骤S2610,处理器210A,作为收费处理模块1428,将表示与第2虚拟空间2711A对应的第1会场的入场费的收费信息登记在标签物件2733A。第1会场的入场费是为了收看在第2虚拟空间2711A中进行的直播而对用户5A收取的收费金额。在此登记的收费信息,也能够被称为与虚拟形象物件6A进入第2虚拟空间2711A的行动相应的收费信息。处理器210A,在标签物件2733A上将登记于标签物件2733A的收费信息视觉化。详细而言,处理器210A,在标签物件2733A的表面,显示已登记的各收费信息表示的收费金额的合计(以下,合计收费金额)。在图28(A)中,在标签物件2733A登记了1个收费信息。这种情况下,处理器210A,在标签物件2733A显示已登记的收费信息表示的收费金额(500日元)自身,作为合计收费金额。处理器210A,还在标签物件2733A显示上限收费信息表示的上限收费金额(30000日元)。
在登记了收费信息之后,用户5A,以使用手表确认时间的方式,使左手移动至自身的视界内。处理器210A,基于左控制器300LA的输出,检出用户5A的左手的运动。处理器210A,根据用户5A的左手的运动,如图28(A)所示地使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图28(B)所示地在监视器130A显示与图28(A)所示的第2虚拟空间2711A对应的视界图像2817A。用户5A,通过辨认视界图像2817A,从而分别确认标签物件2733A显示的上限收费金额和合计收费金额。在图28(B)的示例中,用户意识到上限收费金额为30000日元,并且,当前的合计收费金额为500日元。换言之,用户5A知晓由于虚拟形象物件6A进入第2虚拟空间2711A,导致对用户5A收取500日元作为入场费。
[直播开始]
图29是示意根据某个实施方式的第2虚拟空间2711B和视界图像2917B的图。在虚拟形象物件6A进入第2虚拟空间2711A之后,处理器210B,定义图29所示的第2虚拟空间2711B。第2虚拟空间2711B是向用户5B提供且与第2虚拟空间2711A同步的虚拟空间。第2虚拟空间2711B也是进行虚拟形象物件6B的表演的虚拟空间。处理器210B,在第2虚拟空间2711B中配置虚拟摄像机14B、虚拟形象物件6B以及舞台物件1532。处理器210B,从服务器600接收虚拟形象物件6A、6C、6D的各虚拟形象信息,基于这些虚拟形象信息,在第2虚拟空间2711B中配置虚拟形象物件6A、6C、6D。
处理器210B,例如,如图29(B)所示地在监视器130B显示与图29(A)所示的第2虚拟空间2711B对应的视界图像2917B。用户5B,通过辨认视界图像2917B,从而意识到直播的收看者即虚拟形象物件6A、6C、6D位于舞台物件1532之前。在将虚拟形象物件6B配置于舞台物件1532上之后,开始虚拟形象物件6B的直播。然后,用户5B,通过自身运动,发出声音,操作右控制器300RB和左控制器300LB,从而使第2虚拟空间2711B中的虚拟形象物件6B的直播进行。处理器210B,在直播的实施中,实时地向服务器600发送包括虚拟形象物件6B的运动信息的虚拟形象信息。
图30是示意根据某个实施方式的第2虚拟空间2711A和视界图像3017A的图。在定义第2虚拟空间2711B之后,在步骤S2611,处理器210A,从服务器600实时地接收虚拟形象物件6B的虚拟形象信息。在步骤S2612,处理器210A,基于最初已接收的虚拟形象物件6B的虚拟形象信息,如图30(A)所示地,在第2虚拟空间2711A中配置虚拟形象物件6B。详细而言,处理器210A,在舞台物件1532上配置虚拟形象物件6B。
处理器210A,例如,如图30(B)所示地在监视器130A显示与图30(A)所示的第2虚拟空间2711A对应的视界图像3017A。用户5A,通过辨认视界图像3017A,从而意识到直播的表演者即虚拟形象物件6B登上舞台物件1532。用户5B,还意识到虚拟形象物件6B的直播从此开始。
图31是示意某个实施方式涉及的用户5B的姿势的一个示例的图。直播开始后,用户5B,例如使自身的身体运动,从而采取图31所示的姿势。图31所示的姿势,是与第1表演对应的姿势。处理器210B,根据采取图31所示的姿势时的用户5B的运动,使虚拟形象物件6B在第2虚拟空间2711B中实施第1表演。处理器210B,向服务器600实时地发送虚拟形象信息,该虚拟形象信息包括虚拟形象物件6B实施第1表演时的虚拟形象物件6B的运动信息。
图32是示意根据某个实施方式的第2虚拟空间2711A和视界图像3217A的图。当虚拟形象物件6B在第2虚拟空间2711B中实施第1表演之后,在步骤S2613,处理器210A,从服务器600实时地接收虚拟形象物件6B的虚拟形象信息。在步骤S2614,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施第1表演。由此,处理器210A,能够根据图31所示的用户5B的运动,使虚拟形象物件6B实施第1表演。
在图31的示例中,虚拟形象物件6B,不限于舞台物件1532上,能够移动至第2虚拟空间2711A内的任意位置,实施第1表演。另外,虚拟形象物件6A,能够在第2虚拟空间2711A内的任意位置,收看虚拟形象物件6B的第1表演。所以,在第2虚拟空间2711A内进行第1表演的区域(第1区域),可以说是第2虚拟空间2711A的全体。
处理器210A,使虚拟形象物件6A在第2虚拟空间2711A中收看虚拟形象物件6B的第1表演。处理器210A,例如,如图32(B)所示地在监视器130A显示与图32(A)所示的第2虚拟空间2711A对应的视界图像3217A。用户5A,通过辨认视界图像3217A,从而意识到虚拟形象物件6B在舞台物件1532上已实施第1表演。由此,用户5A,能够在虚拟形象物件6A的视点欣赏虚拟形象物件6B的表演。
[收费信息的登记]
图33是示意根据某个实施方式的第2虚拟空间2711A和视界图像3317A的图。处理器210A,在直播中向用户5A通知消息,该消息向用户5A推介购入将虚拟形象物件6B的直播拍摄后的直播影像。处理器210A,例如,在标签物件2733A显示消息。消息,包括向用户5A推介购入直播影像的文本和用户5B购入直播影像所必需的收费金额。在图33的示例中,用于购入直播影像的收费金额为1000日元。
在第2虚拟空间2711A中,配置有用于拍摄用户5A能够购入的直播影像的专用的虚拟摄像机(图中未显示)。处理器210A,通过利用专用的虚拟摄像机拍摄第2虚拟空间2711A内的一部分,从生成直播影像。处理器210A,也能够使专用的虚拟摄像机在第2虚拟空间2711A内移动,同时拍摄直播影像。
在标签物件2733A显示消息之后,用户5A,以使用手表确认时间的方式,使左手移动至自身的视界内。处理器210A,根据用户5A的左手的运动,如图33(A)所示地使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图33(B)所示地在监视器130A显示与图33(A)所示的第2虚拟空间2711A对应的视界图像3317A。用户5A,通过辨认视界图像3317A,从而确认标签物件2733A显示的消息。由此,用户5B,意识到如果新支付1000日元的收费金额,就能够购入直播影像。
图34是示意根据某个实施方式的第2虚拟空间2711A和视界图像3417A的图。用户5A,在确认标签物件2733A显示的消息之后,进行用于购入直播影像的操作。用户5A,使自身的右手运动,从而使虚拟右手1531RA的前端靠近标签物件2733A。处理器210A,根据用户5B的右手的运动,使虚拟右手1531RA在第2虚拟空间2711A中运动,从而使虚拟右手1531RA的前端靠近标签物件2733A。
处理器210A,作为冲突检出模块1426,在虚拟右手1531RA的前端和标签物件2733A成为第1位置关系的情况下,检出虚拟右手1531RA的前端和标签物件2733A已冲突。第1位置关系,例如为虚拟右手1531RA的前端和标签物件2733A的距离小于第1距离。或者,在虚拟右手1531RA的前端规定的冲突区域和在标签物件2733A设定的冲突区域至少部分地冲突。处理器210A,基于虚拟右手1531RA的前端和标签物件2733A冲突,检出虚拟右手1531RA选择标签物件2733A。处理器210A,根据选择将推介购入直播影像的消息显示的标签物件2733A,检出用于购入直播影像的用户5A的操作。
处理器210A,例如,如图34(B)所示地在监视器130A显示与图34(A)所示的第2虚拟空间2711A对应的视界图像3417A。用户5A,通过辨认视界图像3417A,从而意识到虚拟右手1531RA已选择显示消息的标签物件2733A。在图34的示例中,用于购入直播影像的用户5A的操作是相对于标签物件2733A而形成的,因而不损害用户5A对第2虚拟空间2711A的投入感。
图35是示意根据某个实施方式的第2虚拟空间2711A和视界图像3517A的图。在步骤S2615,处理器210A,作为收费处理模块1428,将与虚拟形象物件6A的行动相应的收费信息登记于标签物件2733A。在此所说的虚拟形象物件6A的行动,意味着与对用户5A的收费相关的虚拟形象物件6A的行动。在图34的示例中,与对用户5A的收费相关的行动是虚拟形象物件6A通过虚拟右手1531RA选择标签物件2733A。与收费相关的行动,也能够为与后述的实施方式2~8中的收费相关的行动。与收费相关的行动,也能够为与用户5A在直播中购入能够使用的虚拟商品(例如虚拟小手电筒)相关的虚拟形象物件6A的行动。在图34的示例中,处理器210A,将表示直播影像的购入所必需的收费金额(1000日元)的收费信息新登记于标签物件2733A。
在已登记收费信息之后,处理器210A,在标签物件2733A上将收费信息再次视觉化。详细而言,处理器210A,消去标签物件2733A上的消息的显示,并且,在标签物件2733A显示上限收费金额和合计收费金额。详细而言,处理器210A,算出登记在标签物件2733A的2个收费信息表示的2个收费金额(500日元和1000日元)的合计(1500日元),在标签物件2733A显示,作为合计收费金额。处理器210A,例如,如图35(B)所示地在监视器130A显示与图35(A)所示的第2虚拟空间2711A对应的视界图像3517A。用户5A,通过辨认视界图像3517A,从而意识到由于购入直播影像而导致当前的合计收费金额増加至1500日元。如此,用户5A,能够通过简单的操作而确认合计收费金额。
处理器210A,不仅能够将合计收费金额,还能够将其明细在标签物件2733A上视觉化。处理器210A,例如,在标签物件2733A独立地显示登记于标签物件2733A的多个收费信息表示的各收费金额。用户5A,通过辨认标签物件2733A,从而能够确认各个收费金额。
处理器210A,不仅能够将收费信息在标签物件2733A上视觉化,还能够在视界图像3517A上直接视觉化。处理器210A,例如,能够在监视器130A显示与视界图像3517A重叠的弹出图像等的通知用户界面,并且,能够在该通知用户界面显示合计收费金额。处理器210A,也能够使弹出图像在视界图像3517A上与标签物件2733A相关联,并在监视器130A显示弹出图像。
在登记与直播影像购入对应的收费信息之后,每次虚拟形象物件6A在第2虚拟空间2711A内采取与收费相关的新行动时,处理器210A将与该行动相应的收费信息新登记于标签物件2733A。登记于标签物件2733A的收费信息进一步増加,使得对用户5A收取的合计收费金额进一步増加。用户5B,通过在期望的时机辨认标签物件2733A,从而能够确认最新的合计收费金额。
[合计收费金额的结算]
图36是示意根据某个实施方式的第2虚拟空间2711A和视界图像3617A的图。图36(A)中,第2虚拟空间2711A中的直播结束。伴随着直播的结束,虚拟形象物件6B、6C从第2虚拟空间2711A退出。虚拟形象物件6A、6D在直播结束后留在第2虚拟空间2711A中。在直播的结束时候,对用户5B收取的合计收费金额为12000日元。换言之,登记于标签物件2733A的各收费信息表示的收费金额的合计为12000日元。
处理器210A,例如,如图36(B)所示地在监视器130A显示与图36(A)所示的第2虚拟空间2711A对应的视界图像3617A。用户5A,通过辨认视界图像3617A,从而意识到直播结束。用户5B,还意识到对用户5A收取的合计收费金额为12000日元。
用户5A,在确认直播结束时候的合计收费金额之后,进行用于使虚拟形象物件6A从第2虚拟空间2711A退出的操作。该操作,例如为用户5A按下右控制器300RA的任一个按钮。在步骤S2616,处理器210A,根据检出用于使虚拟形象物件6A退出的用户5A的操作,使虚拟形象物件6A从第2虚拟空间2711A退出。由此,处理器210A,结束对用户5A提供第2虚拟空间2711A。
图37是示意根据某个实施方式的第1虚拟空间2411A和视界图像3717A的图。在步骤S2617,处理器210A,使已经从第2虚拟空间2711A退出的虚拟形象物件6A如图37所示地再次进入第1虚拟空间2411A中。换言之,处理器210A,将虚拟形象物件6A再次配置于第1虚拟空间2411A中。这时,处理器210A,解除标签物件2733A对虚拟形象物件6A的关联。换言之,处理器210A,在第1虚拟空间2411A中,不在虚拟左手1531LA配置标签物件2733A。
在步骤S2618,处理器210A,作为结算处理模块1429,实施与结算相关的处理,该结算与登记于标签物件2733A的收费信息相应。处理器210A,例如,向服务器600通知已登记的各收费信息表示的各收费金额的合计。服务器600,结算已通知的合计收费金额。服务器600,例如,根据登记于头戴式装置系统100的用户5A的信用卡信息,实施合计收费金额的信用卡结算。由此,信用卡的发行者在以后向用户5A请求对用户5A收取的12000日元。与服务器600不同的另一服务器,也能够结算对用户5A收取的合计收费金额。处理器210A,也能够结算对用户5A收取的合计收费金额。
处理器210A,例如,如图37(B)所示地在监视器130A显示与图37(A)所示的第1虚拟空间2411A对应的视界图像3717A。服务器600,向计算机200A通知结算已结束。处理器210A,根据从服务器600通知结算的完成,在视界图像3717A上向用户5A通知结算完成。处理器210A,例如,使通知图像3735重叠于视界图像3717A,并在监视器130A显示通知图像3735,该通知图像3735包括说明结算已完成的消息。处理器210A,也能够在第2虚拟空间2711A中的视界区域15A内的任意的位置配置具有与通知图像3735相同的外观的虚拟物件。或者,处理器210A,在生成视界图像3717A时,也能够在视界图像3717A内的任意的位置包括通知图像3735。用户5B,通过辨认视界图像3717A,从而在直播的结束后意识到将虚拟形象物件6A再次配置于第1虚拟空间2411A中。用户5A,还通过辨认通知图像3735,从而知晓在直播中对用户5A收取的收费金额的结算已完成。用户5A,还意识到由于在第1虚拟空间2411A中,在虚拟左手1531LA未配置标签物件2733A,因而,在第1虚拟空间2411A中,不再对用户5A收取与虚拟形象物件6A的行动相应的收费金额。
处理器210A,在虚拟形象物件6A移动至第1虚拟空间2411A之后,也能够将标签物件2733A配置于虚拟形象物件6A。这种情况下,处理器210A,在结算完成后,在标签物件2733A显示向用户5A通知结算已完成的消息。处理器210A,还在标签物件2733A显示“同意”按钮。处理器210A,在虚拟形象物件6A按下“同意”按钮的情况下,解除标签物件2733A对虚拟形象物件6A的关联。由此,标签物件2733A不配置于虚拟形象物件6A。所以,用户5A,即使使虚拟左手1531LA在视界区域15A内移动,也无法辨认标签物件2733A。
处理器210B,在直播结束后,计算向作为收看者的各用户5收费的各合计收费金额,从而算出直播的营业额。服务器600也能够算出营业额,并向计算机200B通知。处理器210B,实施用于向用户5B支付与直播的营业额相应的报酬的处理。处理器210B,例如,在直播结束后向服务器600发送向服务器600要求报酬的支付的要求信息。服务器600,根据已接收的要求信息,在对各用户5的结算完成后,将直播的营业额的至少一部分作为报酬向用户5B支付。每次直播结束时,服务器600能够向用户5B支付报酬。或者,服务器600,也能够在经过一定期间的时候向用户5B汇总支付与在一定期间(例如一个月)内进行的各直播的营业额的合计相应的报酬。不仅是服务器600,处理器210B也能够向用户5B支付与营业额相应的报酬。
[本实施方式的主要优点]
如上所述,处理器210A,将与第2虚拟空间2711A内的虚拟形象物件6A的行动相应的收费信息与虚拟形象物件6A相关联,并自动地登记。如此,头戴式装置系统100,能够向用户5A提供第2虚拟空间2711A中的适当的收费方式。处理器210A,还使向用户5A要求与收费相关的输入的用户界面不重叠于视界图像17A,且不在监视器130A显示,而是将收费信息自动地登记于标签物件2733A。由此,在实施与收费相关的处理时,不损害用户5A对第2虚拟空间2711A的投入感。
处理器210A,还在虚拟形象物件6A从第2虚拟空间2711A退出的情况下,自动地实施与结算相关的处理。如此,头戴式装置系统100,能够向用户5A提供第2虚拟空间2711A中的适当的结算方法。处理器210A,还使向用户5A要求与结算相关的输入的用户界面不重叠于视界图像17A,且不在监视器130A显示,而是自动地实施与结算相关的处理。由此,在实施与结算相关的处理时,不损害用户5A对第1虚拟空间2411A的投入感。
处理器210A,还使得用户5A不使用模仿信用卡或现金的结算用的虚拟物件(虚拟通货),自动地实施与结算相关的处理。由此,在实施与结算相关的处理时,不向用户5A施加麻烦。
[对用户5A的警告]
图38是示意根据某个实施方式的第2虚拟空间2711A和视界图像3817A的图。在图38的示例中,合计收费金额为25000日元,超过上限收费金额的一定比例。一定比例,例如为上限收费金额的70%(21000日元)。处理器210A,向用户5B警告合计收费金额超过上限收费金额的一定比例。处理器210A,例如,如图38(A)所示,通过使标签物件2733A发光,从而向用户5B警告。
处理器210A,例如,如图38(B)所示地在监视器130A显示与图38(A)所示的第2虚拟空间2711A对应的视界图像3817A。用户5A,通过辨认视界图像3817A,从而意识到当前的合计收费金额为25000日元。用户5A,还通过辨认标签物件2733A的发光,从而意识到被警告合计收费金额接近上限收费金额。由此,用户5A,能够避免合计收费金额在自身不知道的期间超过上限收费金额。
处理器210A,在向用户5A警告之后,能够根据用户5A的操作而增加上限收费金额。用户5A,例如,通过操作虚拟右手1531RA,从而向标签物件2733A输入新的上限收费金额。处理器210A,检出已输入的新的上限收费金额。处理器210A,将登记于标签物件2733A的上限收费信息表示的上限收费金额更新为已检出的新的上限收费金额。
图39是示意根据某个实施方式的第2虚拟空间2711A和视界图像3917A的图。在图39的示例中,处理器210A,根据合计收费金额而控制第2虚拟空间2711A的外观。详细而言,处理器210A,将用于向用户5A通知合计收费金额的监视器物件3936A与虚拟形象物件6A相关联,并配置在第2虚拟空间2711A中。处理器210A,还生成表示合计收费金额的合计收费信息,定期地向服务器600发送。以后,将该合计收费信息称为虚拟形象物件6A的合计收费信息。
在图中未显示的第2虚拟空间2711C中,在虚拟形象物件6C的虚拟左手1531LC配置有标签物件2733C。在标签物件2733C,登记了表示对用户5C收取的各收费金额的各收费信息。处理器210C,算出登记于标签物件2733C的各收费信息表示的各收费金额的合计(合计收费金额)。处理器210C,还生成表示合计收费金额的合计收费信息,定期地向服务器600发送。以后,将该合计收费信息称为虚拟形象物件6C的合计收费信息。
在图中未显示的第2虚拟空间2711D中,在虚拟形象物件6D的虚拟左手1531LD配置有标签物件2733D。在标签物件2733D,登记了表示对用户5D收取的各收费金额的各收费信息。处理器210D,算出登记于标签物件2733D的各收费信息表示的各收费金额的合计(合计收费金额)。处理器210D,还生成表示合计收费金额的合计收费信息,定期地向服务器600发送。以后,将该合计收费信息称为虚拟形象物件6D的合计收费信息。
处理器210A,从服务器600接收虚拟形象物件6C和6D的各合计收费信息。处理器210A,根据虚拟形象物件6C的合计收费信息表示的合计收费金额,在第2虚拟空间2711A中控制虚拟形象物件6C的外观。详细而言,处理器210A,将监视器物件3936C与虚拟形象物件6C相关联,并配置在第2虚拟空间2711A中,其中,监视器物件3936C将用户5C的合计收费金额视觉化。
处理器210A,根据收费信息表示的收费金额的合计,在第2虚拟空间2711A中控制虚拟形象物件6D的外观。处理器210A,根据虚拟形象物件6D的合计收费信息表示的合计收费金额,在第2虚拟空间2711A中控制虚拟形象物件6D的外观。详细而言,处理器210A,将监视器物件3936D与虚拟形象物件6D相关联,并配置在第2虚拟空间2711A中,其中,监视器物件3936D将用户5D的合计收费金额视觉化。
监视器物件3936A、3936C、3936D,配置于虚拟形象物件6A、6C、6D的各自的上部。处理器210A,通过在监视器物件3936A上将虚拟形象物件6A的收费信息视觉化,从而控制虚拟形象物件6A的外观。详细而言,处理器210A,在监视器物件3936A显示用户5A的合计收费金额。处理器210A,通过在监视器物件3936C上将虚拟形象物件6C的收费信息视觉化,从而控制虚拟形象物件6C的外观。详细而言,处理器210A,在监视器物件3936C显示用户5C的合计收费金额。处理器210A,通过在监视器物件3936D上将虚拟形象物件6D的收费信息视觉化,从而控制虚拟形象物件6D的外观。详细而言,处理器210A在监视器物件3936D显示用户5D的合计收费金额。
处理器210A,例如,如图39(B)所示地在监视器130A显示与图39(A)所示的第2虚拟空间2711A对应的视界图像3917A。用户5A,通过辨认视界图像3917A,从而意识到用户5C的当前的合计收费金额为20000日元,并且,用户5D的当前的合计收费金额为5000日元。由于监视器物件3936A未配置于视界区域15A内,因而用户5A不辨认监视器物件3936A显示的用户5A的合计收费金额。
由于在监视器物件3936A显示用户5A的合计收费金额,因而合计收费金额越多,在监视器物件3936A显示越高的金额。如果监视器物件3936A显示的金额低,则该金额不太吸引用户5B~5D的注目。所以,与监视器物件3936A相关联的虚拟形象物件6A,相对于其他用户5B~5D不太显著。监视器物件3936A显示的金额越高,该金额越吸引用户5B~5D的更多的注目。所以,与监视器物件3936A相关联的虚拟形象物件6A,看起来比其他用户5B~5D更显著。如此,处理器210A,通过在监视器物件3936A显示用户5A的合计收费金额,从而能够使合计收费金额越多,则虚拟形象物件6A的外观越显著。
在视界图像3917A中,与虚拟形象物件6C相关联地显示的用户5C的合计收费金额(20000日元),比与虚拟形象物件6D相关联地显示的用户5D的合计收费金额(5000日元)更多。所以,用户5A,通过辨认视界图像3917A,从而意识到虚拟形象物件6C的外观比虚拟形象物件6D的外观更显著。
图40是示意根据某个实施方式的第2虚拟空间2711B和视界图像4017B的图。服务器600,通过同步处理而向计算机200B发送已接收的虚拟形象物件6A、6C、6D的各合计收费信息。处理器210B,接收从服务器600发送的虚拟形象物件6A、6C、6D的各合计收费信息。处理器210B,根据已接收的虚拟形象物件6A、6C、6D的各合计收费信息,控制虚拟形象物件6A、6C、6D的各外观。这种情况下的外观控制,与图39所示的第2虚拟空间2711A中的虚拟形象物件6A、6C、6D的各外观的控制相同,因而不重复详细的说明。
处理器210B,例如,如图40(B)所示地在监视器130B显示与图40(A)所示的第2虚拟空间2711B对应的视界图像4017B。用户5B,通过辨认视界图像4017B,从而意识到用户5A的当前的合计收费金额为7000日元,用户5C的当前的合计收费金额为20000日元,并且,用户5D的当前的合计收费金额为5000日元。对于用户5B而言,与更高的合计收费金额对应的虚拟形象物件6C的外观,看起来比与更低的合计收费金额对应的虚拟形象物件6A和与用户5D相关联的虚拟形象物件6D的各外观更显著。如此,用户5C,能够通过虚拟形象物件6C的外观变化而向用户5B告知自身的合计收费金额比用户5A和5D更多。
图41是示意根据某个实施方式的第2虚拟空间2711A和视界图像4117A的图。在图41的示例中,处理器210A,根据虚拟形象物件6A、6C、6D的各收费信息,控制虚拟形象物件6A、6C、6D的外观的颜色。详细而言,处理器210A,将与各收费信息相应的纹理4137A、4137C以及4137D贴付于虚拟形象物件6A、6C、6D,从而使虚拟形象物件6A、6C、6D的外观的颜色。
纹理4137D,是与合计收费金额超过第1阈值对应的、被第1颜色着色的纹理。纹理4137A,是与合计收费金额超过第2阈值对应的、被第2颜色着色的纹理。纹理4137C,是与合计收费金额超过第3阈值对应的、被第3颜色着色的纹理。第2颜色,是比第1颜色更显著的颜色。第3颜色,是比第2颜色更显著的颜色。第1颜色,例如为棕色,第2颜色例如为银色,第3颜色例如为金色。
处理器210A,例如,如图41(B)所示地在监视器130A显示与图41(A)所示的第2虚拟空间2711A对应的视界图像4117A。用户5A,通过辨认视界图像4117A,从而意识到虚拟形象物件6C的外观变化为第3颜色,并且,虚拟形象物件6D的外观变化为第1颜色。用户5A,通过辨认视界图像4117A,从而意识到虚拟形象物件6C的外观比虚拟形象物件6D的外观更显著。
处理器210A,也能够使得合计收费金额越多,虚拟形象物件6A的外观变化为看起来越有钱的外观。处理器210A,能够在第2虚拟空间2711A中配置图中未显示的布告栏物件,并且,在布告栏物件显示合计收费金额的等级。处理器210A,例如,在布告栏物件显示合计收费金额更多的前5名的用户5的名称。由此,能够使与合计收费金额更多的用户5相关联的虚拟形象物件6在第2虚拟空间2711A中更显著。
处理器210A,也能够不使虚拟形象物件6A的外观的全体变化,而是使其一部分变化。处理器210A,也能够在虚拟形象物件6A佩戴能够将虚拟形象物件6A的外观展现得更有钱的饰品。作为这种饰品,例如,可列举金光闪闪的钟表或项链等。
[实况转播的收看]
图42是示意根据某个实施方式的第2虚拟空间4211B和直播影像4239的图。处理器210B,与第2虚拟空间2711B同样地,在第2虚拟空间4211B中配置虚拟形象物件6A~6D、舞台物件1532以及虚拟摄像机14B。处理器210B,还在第2虚拟空间4211B中配置虚拟摄像机4238。虚拟摄像机4238,是生成将虚拟形象物件6B的直播拍摄的直播影像的虚拟物件。处理器210B,例如,在从虚拟形象物件6B的正面起间隔一定距离的位置配置虚拟摄像机4238。处理器210B,还通过控制虚拟摄像机4238的朝向,从而将舞台物件1532和虚拟形象物件6B收入虚拟摄像机4238的视界区域4215内。
处理器210B,例如,通过控制虚拟摄像机4238,从而使用虚拟摄像机4238拍摄第2虚拟空间4211B中的视界区域4215包括的地方。由此,处理器210B,如图42(B)所示地生成与视界区域4215对应的直播影像4239。直播影像4239是一种的视界图像。在直播影像4239放映虚拟形象物件6B在舞台物件1532上实施表演的姿态。处理器210B,经由服务器600而向计算机200A等的其他的各计算机200配送已生成的直播影像4239。
图43是示意根据某个实施方式的第2虚拟空间4311A和视界图像4317A的图。处理器210A,与第2虚拟空间2711A同样地,在第2虚拟空间4311A中配置虚拟形象物件6A、6C、6D。然而,与第2虚拟空间2711A不同地,处理器210A在第2虚拟空间4311A中不配置舞台物件1532和虚拟形象物件6B。作为替代,处理器210A,在第2虚拟空间4311A中配置屏幕物件4340。
处理器210A,接收从计算机200B经由服务器600配送的直播影像4239。处理器210A,在屏幕物件4340显示已接收的直播影像4239。由此,处理器210A,使虚拟形象物件6A收看直播影像4239放映的虚拟形象物件6B的表演。处理器210A,例如,如图43(B)所示地在监视器130A显示与图43(A)所示的第2虚拟空间4311A对应的视界图像4317A。用户5A,通过辨认视界图像4317A,从而辨认屏幕物件4340显示的直播影像4239。在直播影像4239放映在舞台物件1532上进行表演的虚拟形象物件6B的姿态。用户5A,通过辨认直播影像4239,能够获得宛如自身在第2虚拟空间4311A中收看虚拟形象物件6B的直播的实况转播(liveviewing)的虚拟体验。
实况转播的配送,不限于上述的示例。例如,在仅配置有虚拟形象物件6B、舞台物件1532以及虚拟摄像机4238的直播影像拍摄用的虚拟空间中,拍摄虚拟形象物件6B的直播影像,在配置于第2虚拟空间4311A的屏幕物件4340显示该直播影像,通过该方式,也能够配送直播影像。
处理器210A,也能够将与第2虚拟空间4311A内的虚拟形象物件6A的行动相应的收费信息登记于标签物件2733A。处理器210A,例如,在虚拟形象物件6A采取与用户5A购入直播影像4239相关的行动的情况下,将与该行动相应的收费信息登记于标签物件2733A。
[虚拟空间内的第1区域]
图44是示意根据某个实施方式的第2虚拟空间4411A和视界图像4417A的图。处理器210A,与第2虚拟空间2711A同样地,在第2虚拟空间4411A中配置虚拟形象物件6A、6C以及舞台物件1532。第2虚拟空间4411A,包括第1区域4451。第1区域4451,相当于第2虚拟空间4411A的一部分。处理器210A,在位于第1区域4451的外缘的一个位置,配置门物件4452。
图44中,虚拟形象物件6C和舞台物件1532配置于第1区域4451内。虚拟形象物件6A,配置于第1区域4451外。第1区域4451,被图中未显示的不透明的壁物件包围。第1区域4451是举办虚拟形象物件6B的直播的场所。虚拟形象物件6A,在位于第1区域4451内的情况下,能够收看虚拟形象物件6B的表演。虚拟形象物件6A,在位于第1区域4451外的情况下,不能收看虚拟形象物件6B的表演。虚拟形象物件6A,穿过门物件4452,从而能够进入第1区域4451或从第1区域4451退出。
处理器210A,在定义第2虚拟空间4411A之后,在第2虚拟空间4411A中的第1区域4451外配置虚拟形象物件6A。处理器210A,在虚拟形象物件6A配置于第1区域4451外的期间,在虚拟左手1531LA不配置标签物件2733A。处理器210A,根据用户5A的操作,通过门物件4452使虚拟形象物件6A从第1区域4451外移动至第1区域4451内。由此,处理器210A,使虚拟形象物件6A进入第1区域4451。
处理器210A,在虚拟形象物件6A进入第1区域4451的情况下,在虚拟左手1531LA配置标签物件2733A。处理器210A,将与第1区域4451内的虚拟形象物件6A的行动相应的收费信息登记于标签物件2733A。处理器210A,根据用户5A的操作,通过门物件4452使虚拟形象物件6A从第1区域4451内移动至第1区域4451外。由此,处理器210A,使虚拟形象物件6A从第1区域4451退出。
处理器210A,在虚拟形象物件6A从第1区域4451退出的情况下,实施与结算相关的处理,该结算与登记于标签物件2733A的收费信息相应。处理器210A,还从虚拟左手1531LA删除标签物件2733A。
[变形例]
处理器210A,能够将标签物件2733A与虚拟形象物件6A的任意的一部分相关联,不限于虚拟左手1531LA。处理器210A,例如,将标签物件2733A与虚拟右手1531RA相关联。处理器210A,例如,将标签物件2733A与虚拟形象物件6A的躯体或脚相关联。处理器210A,优选将标签物件2733A配置于虚拟右手1531RA或虚拟左手1531LA。由此,能够使用户5A容易地确认标签物件2733A显示的合计收费金额。
处理器210A,在虚拟形象物件6A进入第2虚拟空间2711A的情况下,不一定将标签物件2733A与虚拟形象物件6A相关联。处理器210A,能够将收费信息与虚拟形象物件6A相关联,并登记于虚拟形象物件6A。虚拟形象物件6A,在虚拟形象物件6A从第2虚拟空间2711A退出的情况下,也能够根据登记于虚拟形象物件6A的收费信息而实施与结算相关的处理。
用户5A,能够事先购入可用于合计收费金额的结算的点数。服务器600,在用户5A事先购入点数的情况下,能够通过消费用户5A所持的全部点数中的、与合计收费金额相当的点数,从而结算合计收费金额。
处理器210A,在将收费信息登记于标签物件2733A时,能够将收费信息保存于存储部230A。处理器210A,在虚拟形象物件6A从第2虚拟空间2711A非正常地脱离的情况下,使用保存于存储部230A的收费信息,实施与结算相关的处理。虚拟形象物件6A从第2虚拟空间2711A非正常地脱离,例如能够在虚拟形象物件6A从第2虚拟空间2711A退出之前,用户5A强制性地关闭计算机200A的电源的情况下发生。处理器210A,在计算机200A的电源被打开之后,向服务器600发送保存于存储部230A的收费信息。处理器610,结算已接收的收费信息表示的收费金额的合计。
处理器210A,在使虚拟形象物件6A从第2虚拟空间2711A退出之前,用户5A强制性地关闭计算机200A的电源的情况下,在计算机200A的电源下次被打开之后,检出发生虚拟形象物件6A的非正常脱离。处理器210A,在检出非正常脱离的发生的情况下,向服务器600通知该事件。处理器610,在计算机200A通知非正常脱离的发生的情况下,根据非正常脱离发生的时候的用户5A的收费信息,结算收费金额。由此,头戴式装置系统100,能够防止用户5A逃避收费金额的结算。处理器610,在虚拟形象物件6A的非正常脱离频繁地发生,或者不能使非正常脱离后的结算正常地完成的情况下,能够删除用户5A的账号。
处理器210A,在虚拟形象物件6A进入第2虚拟空间2711A的情况下,能够将与入场费对应的收费信息登记于标签物件2733A,并且,立即实施与对应于入场费的结算相关的处理。换言之,处理器210A,在将收费信息登记于标签物件2733A之后,也能够在虚拟形象物件6A从第2虚拟空间2711A退出之前,实施与结算相关的处理。处理器210A,还在将与虚拟形象物件6A的行动相应的收费信息登记于标签物件2733A的情况下,在虚拟形象物件6A退出之前,能够实施与对应于已登记的收费信息的结算相关的处理。
处理器210A,在举办第2虚拟空间2711A中的虚拟形象物件6B的直播之前,能够使虚拟形象物件6A进入第2虚拟空间2711A中。处理器210A,在虚拟形象物件6A于直播的举办前进入第2虚拟空间2711A中的情况下,能够使虚拟形象物件6A在第2虚拟空间2711A中从虚拟形象物件6B购入直播的票。
用户5A,能够在直播的举办前,使虚拟形象物件6A购入直播的票。在某个情形中,处理器210B,在直播的举办前预先检出用于销售直播的票的用户5B的动作。处理器210B,根据已检出的动作,使虚拟形象物件6B实施用于销售票的第1动作。处理器210B,向服务器600发送包括与第1动作对应的运动信息的、虚拟形象物件6B的虚拟形象信息。
处理器210A,在虚拟形象物件6A于直播的举办前进入第2虚拟空间2711A中的情况下,向服务器600请求计算机200B事先向服务器600发送的虚拟形象物件6B的虚拟形象信息。服务器600,根据该请求,向计算机200A发送虚拟形象物件6B的虚拟形象信息。处理器210A,基于已接收的虚拟形象信息,在第2虚拟空间2711A中配置虚拟形象物件6B。处理器210A,基于虚拟形象信息包括的运动信息,使虚拟形象物件6B实施用于销售票的第1动作。处理器210A,例如,从虚拟形象物件6B将票递给虚拟形象物件6A。处理器210A,还使虚拟形象物件6B挥动虚拟左手1531LB。
在另一情形中,处理器210A,在特定的时间段使虚拟形象物件6A进入第2虚拟空间2711A的情况下,向服务器600发送虚拟形象物件6A的虚拟形象信息。服务器600的同步处理的结果,处理器210B从服务器600接收虚拟形象物件6A的虚拟形象信息。处理器210B,根据已接收的虚拟形象信息,在第2虚拟空间2711B中配置虚拟形象物件6A。处理器210B,在已配置虚拟形象物件6A之后,检出用于销售直播的票的用户5B的动作。处理器210B,根据已检出的用户5B的动作,使虚拟形象物件6B在第2虚拟空间2711B中实施用于向虚拟形象物件6A销售票的第2动作。处理器210B,向服务器600发送包括与第2动作对应的运动信息的、虚拟形象物件6B的虚拟形象信息。
处理器210A,从服务器600接收服务器600的同步处理的结果,即虚拟形象物件6B的虚拟形象信息。处理器210A,根据已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施用于销售票的第2动作。换言之,处理器210A,能够根据用户5B的实时的动作,使虚拟形象物件6B实施销售票的动作。由此,能够使用户5A与用户5B实时地交流,因而能够使用户5A更满足。
〔实施方式2〕
在本实施方式中,处理器210A,通过使用实施方式1记载的标签物件2733A的方式,实施与对用户5A的收费和结算相关的处理。然而,并不限于此,处理器210A,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5A的收费和结算相关的处理。
[与移动距离相应的收费处理流程]
图45是示意在根据某个实施方式的头戴式装置套件110A中实施的处理的一部分的时序图。图46是示意根据某个实施方式的第2虚拟空间2711A和视界图像4617A的图。在图46中,在第2虚拟空间2711A中,进行与用户5B(第2用户)相关联的虚拟形象物件6B(第2虚拟形象)的表演。在标签物件2733A仅登记了与入场费(500日元)对应的收费信息。与用户5A(第1用户)相关联的虚拟形象物件6A(第1虚拟形象),配置在第2虚拟空间2711A中的、从舞台物件1532起远远地离开的第1位置4661。用户5A,收看位于从虚拟形象物件6A起远远地离开的位置的虚拟形象物件6B的表演。
用户5A,期望通过使虚拟形象物件6A移动至靠近舞台物件1532的第2位置4662,从而在虚拟形象物件6B的更近处收看表演。用户5A,为了实现该希望,使右手运动,使得虚拟右手1531RA的前端指示第2位置4662。在步骤S4501,处理器210A,基于右控制器300RA的输出,检出用户5A的右手的运动。在步骤S4502,处理器210A,根据用户5A的右手的运动,使虚拟右手1531RA运动。如图46(A)所示,在虚拟右手1531RA运动之后,虚拟右手1531RA的前端,指示第2虚拟空间2711A中的第2位置4662。在步骤S4503,处理器210A,确定虚拟右手1531RA的前端指示的、第2虚拟空间2711A内的第2位置4662。
处理器210A,例如,如图46(B)所示地在监视器130A显示与图46(A)所示的第2虚拟空间2711A对应的视界图像4617A。在步骤S4504,处理器210A,在视界图像4617A上向用户5A通知表示第2虚拟空间2711A内的第2位置4662的标记4663。详细而言,处理器210A,使标记4663重叠于与第2位置4662对应的视界图像4617A中的位置4664,并在监视器130A显示标记4663。处理器210A,能够将标记4663作为虚拟物件而配置在第2虚拟空间2711A内的第2位置4662。或者,处理器210A,在生成视界图像4617A时,也能够在与第2位置4662对应的位置4664包括标记4663。用户5A,通过辨认视界图像4617A,从而确认在监视器130A显示表示第2虚拟空间2711A内的第2位置4662的标记4663。用户5A,通过确认标记4663,从而知晓已指定第2位置4662作为虚拟形象物件6A的移动目的。
确认标记4663之后,用户5A,进行用于使虚拟形象物件6A移动至第2位置4662的第1操作。第1操作,例如为用户按下右控制器300RA的任一个按钮。在步骤S4505,处理器210A,检出用于使虚拟形象物件6A移动的用户5A的第1操作。
图47是示意根据某个实施方式的第2虚拟空间2711A和视界图像4717A的图。在步骤S4506,处理器210A,在已检出用户5A的第1操作的情况下,作为虚拟形象物件控制模块1424,如图47(A)所示地,使虚拟形象物件6A在第2虚拟空间2711A内从第1位置4661独自地移动至第2位置4662。详细而言,处理器210A,使虚拟形象物件6A不经由从第1位置4661至第2位置4662之间的各位置,而是使虚拟形象物件6A从第1位置4661瞬间移动至第2位置4662。处理器210A,还使虚拟摄像机14A与虚拟形象物件6A的移动连动地独自地移动。
在步骤S4507,处理器210A,将与从第1位置4661至第2位置4662的虚拟形象物件6A的移动距离4775相应的收费信息登记于标签物件2733A。详细而言,处理器210A,通过将每一定距离的收费单价乘以移动距离4775,从而算出与移动距离4775相应的收费金额。收费单价,例如,由头戴式装置系统100的运营者预先决定。处理器210A,例如,在定义第2虚拟空间2711A时,在计算机200A设定虚拟空间数据包括的单价信息表示的收费单价。在图47中,算出500日元作为收费金额。处理器210A,将表示已算出的收费金额的收费信息新登记于标签物件2733A。处理器210A,在标签物件2733A的表面显示已登记的2个收费信息表示的各收费金额的合计(1000日元)。
在已登记收费信息之后,处理器210A,根据用户5A的左手的运动,如图47(A)所示地使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图47(B)所示地在监视器130A显示与图47(A)所示的第2虚拟空间2711A对应的视界图像4717A。用户5A,通过辨认视界图像4717A,从而意识到虚拟形象物件6A已移动至舞台物件1532附近的第2位置4662。用户5A,还意识到虚拟形象物件6B位于虚拟形象物件6A的眼前。由此,用户5A,能够在虚拟形象物件6B的附近收看表演,因而能够更好地欣赏直播。用户5A,还通过辨认标签物件2733A,从而意识到当前的合计收费金额为1000日元。换言之,用户5A,知晓由于使虚拟形象物件6A移动至第2位置4662,导致对用户5A新收费500日元作为移动费用。
图48是示意根据某个实施方式的第2虚拟空间2711A和视界图像4817A的图。图48中的第2虚拟空间2711A,与图46相同。虚拟形象物件6A配置于第1位置4661。在标签物件2733A,仅登记了与入场费(500日元)对应的收费信息。用户5A,使右手运动,使得虚拟右手1531RA的前端指示比第2位置4662更远离舞台物件1532的第3位置4866。处理器210A,确定虚拟右手1531RA的前端指示的第2虚拟空间2711A内的第3位置4866。
处理器210A,例如,如图48(B)所示地在监视器130A显示与图48(A)所示的第2虚拟空间2711A对应的视界图像4817A。处理器210A,在视界图像4817A上向用户5A通知表示第2虚拟空间2711A中的第3位置4866的标记4863。详细而言,处理器210A,使标记4863重叠于与第2虚拟空间2711A中的第3位置4866对应的视界图像4817A中的位置4867,并在监视器130A显示标记4863。处理器210A,能够将标记4863作为虚拟物件而配置在第2虚拟空间2711A内的第3位置4866。或者,处理器210A,在生成视界图像4817A时,也能够在与第3位置4886对应的位置4867包括标记4863。用户5A,通过辨认视界图像4817A,从而确认在监视器130A显示表示第2虚拟空间2711A内的第3位置4866的标记4863。用户5A,通过确认标记4863,从而知晓虚拟已指定第3位置4866作为形象物件6A的移动目的。
图49是示意根据某个实施方式的第2虚拟空间2711A和视界图像4917A的图。处理器210A,检出用于使虚拟形象物件6A移动至第3位置4866的用户5A的第1操作。处理器210A,在已检出用户5A的第1操作的情况下,如图49(A)所示地,使虚拟形象物件6A和虚拟摄像机14A在第2虚拟空间2711A内从第1位置4661独自地移动至第3位置4866。处理器210A,将与从第1位置4661至第3位置4866的虚拟形象物件6A的移动距离4969相应的收费信息登记于标签物件2733A。详细而言,处理器210A,通过将收费单价乘以移动距离4969,从而算出与移动距离4969相应的收费金额。移动距离4969比移动距离4775更短,因而,在图49中,算出比500日元更便宜的250日元作为收费金额。处理器210A,将表示已算出的收费金额的收费信息新登记于标签物件2733A。
处理器210A,在标签物件2733A的表面显示已登记的2个收费信息表示的各收费金额的合计(750日元)。处理器210A,例如,如图49(B)所示地在监视器130A显示与图49(A)所示的第2虚拟空间2711A对应的视界图像4917A。用户5A,通过辨认视界图像4917A,从而意识到虚拟形象物件6A已移动至从舞台物件1532稍稍离开的第3位置4866。用户5A,还意识到当前的合计收费金额为750日元。换言之,用户5A知晓由于使虚拟形象物件6A移动至第3位置4866,导致对用户5A新收费250日元作为移动费用。如图47和图49所示,移动距离越长,处理器210A在标签物件2733A登记表示越高的收费金额的收费信息。
[本实施方式的主要优点]
处理器210A,将与虚拟形象物件6A的移动距离相应的收费信息登记于标签物件2733A。如此,头戴式装置系统100,能够向用户5A提供第2虚拟空间2711A中的适当的收费方式。
用户5A,能够通过在直播中使虚拟形象物件6A移动至第2虚拟空间2711A中的期望的位置,从而在自身喜好的位置收看直播。用户5A,例如,在自身喜好的表演进行的情况下,使虚拟形象物件6A移动至虚拟形象物件6B附近的位置。用户5A,在根据由虚拟形象物件6B进行的表演的内容而欲收看的位置不同的情况下,能够根据每个表演的内容使虚拟形象物件6A移动至自身喜好的位置而收看直播。用户5A,例如,在自身喜好的表演由2个部分构成的情况下,在第1部分的时期,能够使虚拟形象物件6A移动至虚拟形象物件6B的正面位置而收看,在第2部分的时期,能够使虚拟形象物件6A移动至舞台物件1532的左侧而从斜方向收看虚拟形象物件6B。在多个进行表演的虚拟形象物件6B存在于第2虚拟空间2711A内且各虚拟形象物件6B的在舞台物件1532上的位置进行交替的情况下,用户5A,也能够以追随自身喜好的虚拟形象物件6B的位置的方式使虚拟形象物件6A移动而收看直播。这些的结果,头戴式装置系统100能够根据用户5A的嗜好而使用户5A更好地欣赏直播。
[虚拟形象物件6B的移动]
以上,说明了虚拟形象物件6A在任意的时机能够移动的示例,但虚拟形象物件6A的移动不限于该示例。以下,详细地说明了虚拟形象物件6A仅在虚拟形象物件6B指定的时机能够移动的示例。
图50是示意根据某个实施方式的第2虚拟空间2711A和视界图像5017A的图。在图50中,在第2虚拟空间2711A中,进行虚拟形象物件6B的表演。在标签物件2733A,仅登记了与入场费(500日元)对应的收费信息。虚拟形象物件6B,配置在舞台物件1532上的右端附近的第1位置5070。虚拟形象物件6A,配置在第2虚拟空间2711A中的、舞台物件1532附近的、与第1位置5070相对的第2位置5071。如此,虚拟形象物件6A,以与虚拟形象物件6B面对的方式,在虚拟形象物件6B的附近收看虚拟形象物件6B的表演。
处理器210A,例如,如图50(B)所示地在监视器130A显示与图50(A)所示的第2虚拟空间2711A对应的视界图像5017A。用户5A,通过辨认视界图像5017A,从而欣赏位于虚拟形象物件6A的附近的虚拟形象物件6B的表演。
图51是示意根据某个实施方式的第2虚拟空间2711B和视界图像5117B的图。图51所示的第2虚拟空间2711B,与图50所示的第2虚拟空间2711A同步。处理器210B,例如,如图51(B)所示地在监视器130B显示与图51(A)所示的第2虚拟空间2711B对应的视界图像5117B。用户5B,通过辨认视界图像5117B,从而意识到虚拟形象物件6A在虚拟形象物件6B的附近收看表演。
图52是示意根据某个实施方式的第2虚拟空间2711A和视界图像5217A的图。处理器210A,在能够使虚拟形象物件6A在第2虚拟空间2711A内移动的条件不成立的情况下,禁止虚拟形象物件6A在第2虚拟空间2711A内移动。在图52中,处理器210A,根据用户5A的右手的运动,使虚拟右手1531RA运动,从而使虚拟右手1531RA的前端指示第2虚拟空间2711A中的期望的位置。然而,处理器210A,根据禁止虚拟形象物件6A的移动,未确定虚拟右手1531RA的前端指示的位置。
处理器210A,例如,如图52(B)所示地在监视器130A显示与图52(A)所示的第2虚拟空间2711A对应的视界图像5217A。处理器210A,根据未确定虚拟右手1531RA的前端指示的位置,在视界图像5217A上不向用户5A通知表示该位置的标记4663。用户5A,通过辨认视界图像5217A,从而确认尽管虚拟右手1531RA的前端指示第2虚拟空间2711A内的期望的位置,但是在监视器130A未显示表示位置的标记4663。用户5A还知晓由于未显示标记4663,因而不能使虚拟形象物件6A移动。
图53是示意根据某个实施方式的第2虚拟空间2711B和视界图像5317B的图。用户5B,期望将虚拟形象物件6B在舞台物件1532实施表演的位置变更为靠近舞台物件1532的左端的第3位置5372。用户5B,为了实现该希望,使左手运动,从而使虚拟左手1531LB的前端指示第3位置5372。处理器210B,根据用户5B的左手的运动,使虚拟左手1531LB在第2虚拟空间2711B中运动。处理器210B,确定虚拟左手1531LB的前端指示的第2虚拟空间2711B内的第3位置5372。
处理器210B,例如,如图53(B)所示地在监视器130B显示与图53(A)所示的第2虚拟空间2711B对应的视界图像5317B。处理器210B,在视界图像5317B上向用户5B通知表示第2虚拟空间2711B中的第3位置5372的标记4663。详细而言,处理器210B,使标记4663重叠于与第2虚拟空间2711B中的第3位置5372对应的视界图像5317B中的位置5373,并在监视器130B显示标记4663。处理器210B,能够将标记4663作为虚拟物件而配置在第2虚拟空间2711B内的第3位置5372。或者,处理器210B,在生成视界图像5317B时,也能够在与第3位置5372对应的位置5373包括标记4663。用户5B,通过辨认视界图像5317B,从而确认在监视器130B显示表示第3位置5372的标记4663。用户5B,通过确认标记4663,从而知晓将第3位置5372指定为虚拟形象物件6B的移动目的。
在确认标记4663后,用户5B,进行用于使虚拟形象物件6B移动至第3位置5372的第2操作。第2操作,例如为用户5B按下右控制器300RA的任一个按钮。处理器210B,检出用于使虚拟形象物件6B移动的用户5B的第2操作。
图54是示意根据某个实施方式的第2虚拟空间2711B和视界图像5417B的图。处理器210B,在已检出用户5B的第2操作的情况下,如图54(A)所示地,使虚拟形象物件6B和虚拟摄像机14B在第2虚拟空间2711B内从第1位置5070独自地移动至第3位置5372。处理器210B,例如,如图54(B)所示地在监视器130B显示与图54(A)所示的第2虚拟空间2711B对应的视界图像5417B。用户5B,通过辨认视界图像5417B,从而意识到虚拟形象物件6B已移动至第3位置5372。用户5B,还意识到由于虚拟形象物件6B移动,导致虚拟形象物件6A从虚拟形象物件6B的视界内消失。
图55是示意根据某个实施方式的第2虚拟空间2711A和视界图像5517A的图。当虚拟形象物件6B在第2虚拟空间2711B中移动之后,处理器210A,从服务器600接收虚拟形象物件6B的最新的虚拟形象信息。处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B在第2虚拟空间2711A中从第1位置5070独自地移动至第3位置5372。由此,虚拟形象物件6B配置在视界区域15A外。处理器210A,例如,如图55(B)所示地在监视器130A显示与图55(A)所示的第2虚拟空间2711A对应的视界图像5517A。用户5A,通过辨认视界图像5517A,从而意识到由于虚拟形象物件6B在舞台物件1532上已移动,因而从虚拟形象物件6A的视界内消失。
处理器210A,在虚拟形象物件6B在第2虚拟空间2711A内已移动的情况下,能够使虚拟形象物件6A在第2虚拟空间2711A内移动。但是,能够使虚拟形象物件6A在第2虚拟空间2711A内移动的条件,不限于此。处理器210A,例如通过声音等向用户5A通知虚拟形象物件6A能够移动。处理器210A,也能够通过变更第2虚拟空间2711A内的照明而向用户5A通知虚拟形象物件6A能够移动。
图56是示意根据某个实施方式的第2虚拟空间2711A和视界图像5617A的图。在图56中,处理器210A,根据虚拟形象物件6B已移动,允许虚拟形象物件6A在第2虚拟空间2711A内移动。用户5A,通过朝向右侧,从而意识到虚拟形象物件6B已移动至舞台物件1532的右端附近。用户5A,期望通过使虚拟形象物件6Aを移动至靠近移动后的虚拟形象物件6B的、第2虚拟空间2711A中的第4位置5674,从而继续在虚拟形象物件6B的附近收看直播。
用户5A,为了实现该希望,使右手运动,从而使虚拟右手1531RA的前端指示第4位置5674。处理器210A,根据用户5A的右手的运动,使虚拟右手1531RA运动。处理器210A,根据允许虚拟形象物件6A移动,确定移动后的虚拟右手1531RA的前端指示的第4位置5674。
处理器210A,例如,如图56(B)所示地在监视器130A显示与图56(A)所示的第2虚拟空间2711A对应的视界图像5617A。处理器210A,使表示第2虚拟空间2711A中的第4位置5674的标记4663重叠于与第2虚拟空间2711A中的第4位置5674对应的视界图像4817A中的位置5675,并在监视器130A显示标记4663。处理器210A,能够将标记4663作为虚拟物件而配置在第2虚拟空间2711A内的第4位置5674。或者,处理器210A,在生成视界图像5617A时,也能够在于第4位置5674对应的位置5675包括标记4663。用户5A,通过辨认视界图像5617A,从而意识到虚拟形象物件6B已移动至舞台物件1532的右端附近。用户5A,还通过确认视界图像5617A包括的标记4663,从而知晓将第4位置5674指定为虚拟形象物件6A的移动目的。
图57是示意根据某个实施方式的第2虚拟空间2711A和视界图像5717A的图。处理器210A,检出用于使虚拟形象物件6A移动至第4位置5674的用户5A的第1操作。处理器210A,在已检出用户5A的第1操作的情况下,如图57(A)所示地,使虚拟形象物件6A和虚拟摄像机14A在第2虚拟空间2711A内从第2位置5071独自地移动至第4位置5674。处理器210A,将与从第2位置5071至第4位置5674的虚拟形象物件6A的移动距离5776相应的收费信息登记于标签物件2733A。
处理器210A,例如,如图57(B)所示地在监视器130A显示与图57(A)所示的第2虚拟空间2711A对应的视界图像5717A。用户5A,通过辨认视界图像5717A,从而意识到虚拟形象物件6A已移动虚拟形象物件6B附近的第4位置5674。用户5A,还意识到虚拟形象物件6B位于虚拟形象物件6A的眼前。由此,用户5A,能够继续在虚拟形象物件6B的附近欣赏直播。
在图50~图57所示的方式中,虚拟形象物件6B在第2虚拟空间2711A内移动,结果,用户5A,强烈地持有使虚拟形象物件6A移动至虚拟形象物件6B的附近的动机。如此,用户5B,通过使虚拟形象物件6B移动,从而能够更强烈地促使用户5A使虚拟形象物件6A移动。所以,能够期待用户5A在第2虚拟空间2711A内积极地移动虚拟形象物件6A,因而能够更加提高能够对用户5A收取的与移动距离相应的收费金额的可能性。结果,能够提高使虚拟形象物件6B的直播的营业额増加的可能性。
[变形例]
处理器210A,不必将与移动距离相应的收费信息登记于标签物件2733A。处理器210A,例如,也能够使与移动距离相应的收费信息与虚拟形象物件6A相关联,并登记于虚拟形象物件6A。处理器210A,能够实施与按照移动距离的收费相关的任意的处理,以代替将与移动距离相应的收费信息登记于标签物件2733A。与收费相关的处理,例如为不将收费信息登记于标签物件2733A,而是向服务器600发送收费信息。
处理器210A,也能够实施与按照虚拟形象物件6A的移动次数的收费相关的处理。处理器210A,例如,将与移动次数相应的收费信息登记于标签物件2733A。处理器210A,例如,算出移动次数越多则变得越高收费金额,将表示已算出的收费金额的收费信息登记于标签物件2733A。这种情况下,处理器210A,能够将与虚拟形象物件6A的移动次数相应的最适当的收费信息登记于标签物件2733A。处理器210A,还能够防止虚拟形象物件6A在第2虚拟空间2711A内无限制地移动,从而妨碍虚拟形象物件6B的直播。
处理器210A,能够实施与移动距离和移动次数中的至少任一个相应的收费处理。处理器210A,能够实施与仅根据移动距离的收费相关的第1处理、与仅根据移动次数的收费相关的第2处理以及与根据移动距离和移动次数这两者的收费相关的第3处理中的任意的处理。
处理器210A,也能够实施与根据虚拟形象物件6A的移动距离和移动方向的收费相关的处理。处理器210A,例如,在虚拟形象物件6A的移动方向为更靠近虚拟形象物件6B的方向的情况下,使收费单价更高。处理器210A,例如,在虚拟形象物件6A的移动方向为更远离虚拟形象物件6B的方向的情况下,使收费单价更低。
处理器210A,也能够使虚拟形象物件6A在第2虚拟空间2711A内连续地移动。处理器210A,例如,根据用户5A的第1操作,以经由第1位置4661至第2位置4662之间的全部的各位置的方式,使虚拟形象物件6A从第1位置4661移动至第2位置4662。这种情况下,处理器210A,将表示与移动距离4775相应的收费金额的收费信息登记于标签物件2733A。
处理器210A,也能够不检出用户5B的第1操作,而是使虚拟形象物件6A在第2虚拟空间2711A内自动地移动。处理器210A,在使虚拟形象物件6A自动地移动的情况下,也将表示与移动距离相应的收费金额的收费信息登记于标签物件2733A。
在本实施方式中,处理器210A,能够使虚拟形象物件6A在第2虚拟空间2711A中仅移动至未配置与虚拟形象物件6A不同的虚拟形象物件6的位置,虽然以此为前提,但是并不限于此。换言之,用户5A,不能将配置有与虚拟形象物件6A不同的虚拟形象物件6的位置指定为虚拟形象物件6A的移动目的位置,虽然以此为前提,但并不限于此。
处理器210A,能够使虚拟形象物件6A仅移动至第2虚拟空间2711A中的规定范围内的位置,并以此为前提。处理器210A,例如,原则上禁止虚拟形象物件6A在舞台物件1532上移动。处理器210A,在用户5B允许的情况下,也能够使虚拟形象物件6A在舞台物件1532上移动。但是,并不限于此。
用户5B,能够进行用于允许虚拟形象物件6A移动的第2操作。处理器210B,在检出用户5B的第2操作的情况下,经由服务器600向计算机200A发送表示第2操作的检出的检出信息。处理器210A,接收从计算机200B发送的检出信息。处理器210A,基于已接收的检出信息,检出用户5B的第2操作。处理器210A,在已检出第2操作的情况下,能够使虚拟形象物件6A在第2虚拟空间2711A内移动。处理器210A,例如,在检出第2操作之后,能够在一定的期间使虚拟形象物件6A移动。第2操作,不仅是用户5B的操作自身,也可以是用户5B的话语内容等的用户5B的动作,也可以是指定能够移动的期间的信息。由此,处理器210A,能够防止虚拟形象物件6A在直播中无用户5B的允许而随意地移动。换言之,用户5B,能够以自己的意志指定虚拟形象物件6A能够移动的时机。由此,用户5B,能够将直播的演出控制成用户5B更期望的形式。
处理器210A,能够检出第2虚拟空间2711A中的第1事态的发生。第1事态,例如为虚拟形象物件6B采取某些行动。虚拟形象物件6B的行动,例如为如图55所示地虚拟形象物件6B移动至舞台物件1532上的其他位置。第1事态,也可以为虚拟形象物件6B在舞台物件1532上实施一定时间以上的规定的表演。处理器210A,在已检出第1事态的情况下,能够使虚拟形象物件6A在第2虚拟空间2711A内移动。由此,能够防止虚拟形象物件6A在直播中无作为地移动。
在头戴式装置系统100中,每一定距离的收费单价,可以根据第2虚拟空间2711A的尺寸而不同。例如,第2虚拟空间2711A的尺寸越大,收费单价越低。处理器210A,在已定义的第2虚拟空间2711A的尺寸为第1尺寸的情况下,在计算机200A设定第1收费单价(例如50日元)作为收费单价。处理器210A,在已定义的第2虚拟空间2711A的尺寸为比第1尺寸更大的第2尺寸的情况下,在计算机200A设定比第1收费单价更低的第2收费单价(例如20日元)作为收费单价。处理器210A,将虚拟形象物件6A的移动距离乘以设定于计算机200A的收费单价,从而能够算出与第2虚拟空间2711A的尺寸和移动距离这两者相应的最适当的收费金额。
处理器210A,在虚拟形象物件6A在播放图43所示的直播影像4239的第2虚拟空间4311A内移动的情况下,也能够实施与根据移动距离和移动次数中的至少任一个的收费相关的处理。处理器210A,在不进行虚拟形象物件6B的表演且虚拟形象物件6A在不播放直播影像4239的虚拟空间内移动的情况下,也能够实施与根据移动距离和移动次数中的至少任一个的收费相关的处理。
〔实施方式3〕
在本实施方式中,处理器210A,通过使用实施方式1记载的标签物件2733A的方式,实施与对用户5A的收费和结算相关的处理。然而,并不限于此,处理器210A,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5A的收费和结算相关的处理。
在本实施方式中,处理器210C,通过与使用实施方式1记载的标签物件2733A的方式相同的方式,实施与对用户5C的收费和结算相关的处理。然而,并不限于此,处理器210C,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5C的收费和结算相关的处理。
[视点共享处理流程]
图58是示意在根据某个实施方式的头戴式装置套件110A中实施的处理的一部分的时序图。图59是示意根据某个实施方式的第2虚拟空间2711C和视界图像5917C的图。在图59中,处理器210C,在向用户5C(第2用户)提供的第2虚拟空间2711C中,使与用户5B(第3用户)相关联的虚拟形象物件6B(第3虚拟形象)根据用户5B的运动而实施表演(第1表演)。处理器210C,使与用户5C相关联的虚拟形象物件6C(第2虚拟形象)在虚拟形象物件6B的附近收看表演。处理器210C,使与用户5A(第1用户)相关联的虚拟形象物件6A(第1虚拟形象)在远离虚拟形象物件6B的位置收看表演。
在与第2虚拟空间2711C同步的第2虚拟空间2711A中,处理器210A,使虚拟形象物件6B根据用户5B的运动而实施表演。处理器210A,使虚拟形象物件6A和6C在第2虚拟空间2711A中收看虚拟形象物件6B的表演。
处理器210C,在直播中向用户5C通知推介虚拟形象物件6C向舞台物件1532移动的消息。处理器210C,例如,如图59(A)所示,在标签物件2733C显示消息。消息,包括向用户5C推介向舞台物件1532移动的文本以及在使虚拟形象物件6C移动的情况下对用户5C收取的收费金额。在图59的示例中,用于使虚拟形象物件6C移动至舞台物件1532上的收费金额为1000日元。
在标签物件2733C显示消息之后,处理器210C,如图59(A)所示地使虚拟左手1531LC根据用户5C的左手的运动而移动至视界区域15C内。处理器210C,例如,如图59(B)所示地在监视器130C显示与图59(A)所示的第2虚拟空间2711C对应的视界图像5917C。用户5C,通过辨认视界图像5917C,从而确认标签物件2733C显示的消息。由此,用户5C,意识到如果新支付1000日元的收费金额,就能够使虚拟形象物件6C移动至舞台物件1532上。
图60是示意根据某个实施方式的第2虚拟空间2711C和视界图像6017C的图。用户5C,通过收看视界图像6017C,从而确认标签物件2733C显示的消息。用户5C确认消息,结果期望使虚拟形象物件6C移动至舞台物件1532上。为了实现该希望,用户5C进行用于选择标签物件2733C的操作。处理器210C,根据检出用户5C的操作,将与舞台移动对应的收费信息登记于标签物件2733C。详细而言,处理器210C,将表示用于使虚拟形象物件6C移动至舞台物件1532上的收费金额的收费信息登记于标签物件2733C。在登记收费信息后,处理器210C,如图60(A)所示地使虚拟形象物件6C移动至舞台物件1532上。处理器210C,将移动后的虚拟形象物件6C配置于舞台物件1532上的虚拟形象物件6B的眼前的位置。处理器210C,在虚拟形象物件6C移动后,向服务器600发送虚拟形象物件6C的虚拟形象信息。
处理器210C,例如,如图60(B)所示地在监视器130C显示与图60(A)所示的第2虚拟空间2711C对应的视界图像6017C。用户5C,通过辨认视界图像6017C,从而意识到虚拟形象物件6C已移动至舞台物件1532上。用户5C,还能够在虚拟形象物件6B的眼前欣赏表演,享受与虚拟形象物件6B的(换言之,与用户5B的)交流。
图61是示意根据某个实施方式的第2虚拟空间2711A和视界图像6117A的图。在步骤S5801,处理器210A,当虚拟形象物件6C在第2虚拟空间2711C中移动至舞台物件1532上之后,从服务器600接收虚拟形象物件6C的虚拟形象信息。在步骤S5802中,处理器210A,基于已接收的虚拟形象信息,如图61(A)所示地,使虚拟形象物件6C在第2虚拟空间2711A中移动至舞台物件1532上。换言之,处理器210A使第2虚拟空间2711A与图60所示的第2虚拟空间2711C同步。处理器210A和处理器210C,将虚拟形象物件6C配置于舞台物件1532上的虚拟形象物件6B的眼前的位置。
处理器210A,在将虚拟形象物件6C移动至舞台物件1532上之后,从服务器600接收虚拟形象物件6B的虚拟形象信息。处理器210A,根据已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施对虚拟形象物件6C的表演(第2表演)。如此,在第2虚拟空间2711A中,虚拟形象物件6C,根据与舞台移动对应的收费信息被登记于标签物件2733C,收看虚拟形象物件6B对虚拟形象物件6C的表演。
处理器210A,在虚拟形象物件6C移动至舞台物件1532上之后,在直播中向用户5A通知向用户5A推介使虚拟形象物件6A共享与虚拟形象物件6A不同的其他虚拟形象物件6的视点的消息。处理器210A,例如,在标签物件2733A显示消息。消息,包括向用户5A推介视点共享的文本以及在共享视点的情况下对用户5A收取的收费金额。在图61的示例中,为了视点共享而对用户5A收取的收费金额为200日元。在标签物件2733A显示消息之后,处理器210A,如图61(A)所示地使虚拟左手1531LA根据用户5A的左手的运动而在视界区域15A内移动。
处理器210A,例如,如图61(B)所示地在监视器130A显示与图61(A)所示的第2虚拟空间2711A对应的视界图像6117A。用户5A,通过辨认视界图像6117A,从而意识到虚拟形象物件6C已移动知舞台物件1532上。用户5A,还意识到虚拟形象物件6C在舞台物件1532上,并在虚拟形象物件6B的附近辨认表演。用户5A,通过确认标签物件2733C显示的消息,从而意识到如果新支付200日元的收费金额,就能够虚拟形象物件6A共享任一个虚拟形象物件6的视点。
[收费的视点共享]
图62是示意根据某个实施方式的第2虚拟空间2711A和视界图像3417A的图。用户5A,在确认标签物件2733A显示的消息之后,期望使虚拟形象物件6A共享虚拟形象物件6C的视点。用户5A,为了实现该希望,进行用于选择标签物件2733A的操作。在步骤S5803,处理器210A,在已检出用户5A的操作的情况下,将与视点共享对应的收费信息登记于标签物件2733A。详细而言,处理器210A,将表示视点共享必需的收费金额(200日元)的收费信息新登记于标签物件2733A。处理器210A,根据已登记的收费信息,能够使虚拟形象物件6A在第2虚拟空间2711A中共享其他虚拟形象物件6的视点。处理器210A,通过例如声音等向用户5A通知能够共享视点。处理器210A,也能够通过变更第2虚拟空间2711A内的照明而向用户5A通知能够共享视点。
处理器210A,根据选择标签物件2733A后的右手的运动,如图62(A)所示地,使虚拟右手1531RA运动,从而使虚拟右手1531RA的前端指示虚拟形象物件6C。在步骤S5804,处理器210A,确定虚拟右手1531RA的前端指示的虚拟形象物件6C。
处理器210A,例如,如图62(B)所示地在监视器130A显示与图62(A)所示的第2虚拟空间2711A对应的视界图像6217A。在步骤5805,处理器210A,使表示虚拟形象物件6C的标记6277在视界图像6217A中重叠于虚拟形象物件6C,并在监视器130A显示标记6277。处理器210A,也能够将标记6277作为接触或接近虚拟形象物件6C的虚拟物件而配置在第2虚拟空间2711A。处理器210A,在生成视界图像6217A时,也能够在视界图像6217A内的虚拟形象物件6C的位置包括标记6277。用户5A,通过辨认视界图像6217A内的标记6277,从而知晓已指定虚拟形象物件6C。在确认标记6277后,用户5A,进行用于使虚拟形象物件6A共享虚拟形象物件6C的视点的第1操作。第1操作,例如为用户5A按下右控制器300RA的任一个按钮。
图63是示意根据某个实施方式的第2虚拟空间2711A和视界图像6317A的图。在步骤S5806,处理器210A,根据已检出第1操作,选择虚拟形象物件6C。在步骤S5807,处理器210A,根据已选择虚拟形象物件6C,使虚拟形象物件6A共享收看对虚拟形象物件6C的表演的虚拟形象物件6C的视点。详细而言,处理器210A,使虚拟摄像机14A从虚拟形象物件6A的位置移动至虚拟形象物件6C的位置。这时,处理器210A,不使虚拟形象物件6A移动。所以,在虚拟摄像机14A移动后,在第2虚拟空间2711A中,配置有虚拟形象物件6A和虚拟摄像机14A的位置相互不同。处理器210A,根据虚拟形象物件6C的头部的朝向,控制移动后的虚拟摄像机14A的朝向。由此,虚拟形象物件6A能够共享虚拟形象物件6C的视点。
处理器210A,在将与视点共享对应的收费信息登记于标签物件2733A的情况下,也能够在标签物件2733A上显示用于选择虚拟形象物件6C的用户界面。这种情况下,用户5A,通过向标签物件2733A显示的用户界面输入,从而选择虚拟形象物件6C。处理器210A,使虚拟形象物件6A共享通过用户界面而选择的虚拟形象物件6C的视点。处理器210A,在将与视点共享对应的收费信息登记于标签物件2733A的情况下,也能够不使得用户5A选择虚拟形象物件6C,而是自动地使虚拟形象物件6A共享虚拟形象物件6C的视点。
在共享视点后,在步骤S5808,处理器210A,从服务器600接收虚拟形象物件6B的虚拟形象信息。在步骤S5809,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施对虚拟形象物件6C的表演(第2表演)。如此,虚拟形象物件6C,根据将与舞台移动对应的收费信息登记于标签物件2733C,在第2虚拟空间2711A中收看虚拟形象物件6B对虚拟形象物件6C的表演。
处理器210A,例如,如图63(B)所示地在监视器130A显示与图63(A)所示的第2虚拟空间2711A对应的视界图像6317A(第1视界图像)。用户5A,通过辨认视界图像6317A,从而意识到虚拟形象物件6C的视点被虚拟形象物件6A共享。换言之,用户5A,能够与用户5C同样地在虚拟形象物件6B的眼前收看对虚拟形象物件6C的表演。
在图63(A)中,虚拟形象物件6C的视点被虚拟形象物件6A共享,但是,虚拟形象物件6A自身位于远离虚拟形象物件6B的位置。所以,用户5A,不能使虚拟形象物件6A与虚拟形象物件6B直接地交流。例如,用户5A,不能向虚拟形象物件6B伸出、挥动虚拟右手1531RA。处理器210A,可以使得不向扬声器180A输出用户5B发出的声音。由此,可以使得用户5A不能听到用户5B向虚拟形象物件6C说话的声音。如此,用户5A,在虚拟形象物件6C的视点仅能够辨认用户5C与虚拟形象物件6B(用户5B)交流的姿态。用于视点共享的收费金额(200日元)低于用于向舞台物件1532上移动的收费金额(1000日元),因而,用户5A,认同在共享视点后不能使虚拟形象物件6A与虚拟形象物件6B交流。再者,向用户5A赋予尝试视点共享的动机。
图64是示意根据某个实施方式的第2虚拟空间2711B和视界图像6417B的图。在图64(A)中,在舞台物件1532上配置有虚拟形象物件6B和虚拟形象物件6C。包括虚拟形象物件6A的不同的3个虚拟形象物件6共享虚拟形象物件6C的视点。处理器210B,使监视器物件6478与虚拟形象物件6C相关联,并将监视器物件6478配置在第2虚拟空间2711B中,该监视器物件6478用于向用户5B通知共享虚拟形象物件6C的视点的虚拟形象物件6的数量。监视器物件6478,配置在虚拟形象物件6C的上方。处理器210B,在监视器物件6478显示共享虚拟形象物件6C的视点的虚拟形象物件6的数量。
处理器210B,例如,如图64(B)所示地在监视器130B显示与图64(A)所示的第2虚拟空间2711B对应的视界图像6417B。用户5B,通过辨认视界图像6417B,从而意识到虚拟形象物件6C在虚拟形象物件6B的眼前收看表演。用户5B,还通过确认监视器物件6478显示的数量,从而意识到其他的3个虚拟形象物件6共享虚拟形象物件6C的视点。换言之,用户5B,能够知晓朝向虚拟形象物件6C的表演受到什么数量的其他用户5欢迎。
[收费的虚拟形象物件6A的移动]
图65是示意根据某个实施方式的第2虚拟空间2711A和视界图像6517A的图。如图65(A)所示,处理器210A,在使虚拟形象物件6C移动至舞台物件1532上之后,在规定的条件(例如,经过一定时间)成立的情况下,使虚拟形象物件6C返回至第2虚拟空间2711A中的原先的位置。在步骤S5810,处理器210A,在使虚拟形象物件6C返回至原先的位置的情况下,结束视点共享。详细而言,处理器210A,使虚拟摄像机14A移动至虚拟形象物件6A的位置。
在结束视点共享之后,处理器210A,在直播中向用户5A通知推介虚拟形象物件6A向舞台物件1532上移动的消息。处理器210A,例如,在标签物件2733A显示消息。消息,包括推介用户5A向舞台物件1532移动的文本以及在使虚拟形象物件6A移动至舞台物件1532上的情况下对用户5A收取的收费金额。在图65的示例中,用于使虚拟形象物件6A移动至舞台物件1532上的收费金额为1000日元。
在显示消息之后,处理器210A,根据用户5A的左手的运动,如图65(A)所示地,使虚拟左手1531LA移动至视界区域15A内。处理器210A,例如,如图65(B)所示地在监视器130A显示与图65(A)所示的第2虚拟空间2711A对应的视界图像6517A。用户5A,通过辨认视界图像6517A,从而意识到视点的共享已结束。用户5A,还通过确认标签物件2733A显示的消息,从而意识到如果新支付1000日元的收费金额,就能够使虚拟形象物件6A移动至舞台物件1532上。
图66是示意根据某个实施方式的第2虚拟空间2711A和视界图像6617A的图。用户5A,享受到使虚拟形象物件6A共享虚拟形象物件6C的视点的体验,结果,期望通过使虚拟形象物件6A移动至舞台物件1532上,从而与虚拟形象物件6B直接交流。为了实现该希望,用户5A,在确认标签物件2733A显示的消息之后,进行用于选择标签物件2733A的操作。在步骤S5811,处理器210A,在检出用于选择标签物件2733A的用户5A的操作的情况下,将与舞台移动对应的收费信息登记于标签物件2733A。详细而言,处理器210A,在结束视点的共享之后,将表示与舞台移动对应的收费金额(1000日元)的收费信息新登记于标签物件2733A。
在步骤S5812,处理器210A,在将与舞台移动对应的收费信息登记于标签物件2733A的情况下,如图66(A)所示地,使虚拟形象物件6A移动至舞台物件1532上。处理器210A,将移动后的虚拟形象物件6A配置于舞台物件1532中的虚拟形象物件6B的眼前的位置。在步骤S5813,处理器210A,从服务器600接收虚拟形象物件6B的虚拟形象信息。在步骤S5814,虚拟形象物件控制模块1424,根据已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施对虚拟形象物件6A的表演(第2表演)。
处理器210A,例如,如图66(B)所示地在监视器130A显示与图66(A)所示的第2虚拟空间2711A对应的视界图像6617A。用户5A,通过辨认视界图像6617A,从而意识到虚拟形象物件6A已移动至舞台物件1532上。用户5A,还能够在虚拟形象物件6B的眼前欣赏表演,享受与虚拟形象物件6B的(换言之,与用户5B的)交流。
在图66中,与视点共享的情况不同,虚拟形象物件6A在第2虚拟空间2711A中位于虚拟形象物件6B的眼前。所以,用户5A,能够向虚拟形象物件6B伸出、挥动虚拟右手1531RA。处理器210A,向扬声器180A输出用户5B发出的声音。所以,用户5A,能够听到用户5B向虚拟形象物件6A说话的声音。如此,与视点共享的情况不同,用户5A,能够使虚拟形象物件6A与虚拟形象物件6B直接交流,因而,与视点共享的情况相比,能够更加满足。
[本实施方式的主要优点]
处理器210A,在第2虚拟空间2711A中,能够使虚拟形象物件6A共享与虚拟形象物件6A不同的其他虚拟形象物件6的视点。由此,用户5A,不仅能够在虚拟形象物件6A的视点,还能够在位于与虚拟形象物件6A不同的位置的其他虚拟形象物件6的视点,收看虚拟形象物件6B的表演。用户5A,例如,在由于虚拟形象物件6C已经位于欲使虚拟形象物件6A移动的位置,因而不能使虚拟形象物件6A移动至该位置的情况下,也能够通过视点共享而在虚拟形象物件6C的视点收看虚拟形象物件6B的表演。如此,头戴式装置系统100,能够更加提高第2虚拟空间2711A中的用户5A的兴趣性。
在本实施方式中,对用户5C收取舞台移动的收费金额,结果,虚拟形象物件6C收看虚拟形象物件6B对虚拟形象物件6C的表演。虚拟形象物件6A,在对用户5A收取视点共享的收费金额的情况下,作为收费的结果,在虚拟形象物件6C的视点收看进行的对虚拟形象物件6C的表演。由此,虽然是不完全的形式,但是,用户5A能够事先体验对虚拟形象物件6C的表演。用户5B,期望在满足于视点共享时的虚拟形象物件6B的表演的情况下,对虚拟形象物件6A实施虚拟形象物件6B的表演。由此,用户5A,允许对用户5A收取用于舞台移动的收费金额。
如此,头戴式装置系统100,在对用户5C收取与舞台移动对应的收费金额之后,对用户5A收取与视点共享对应的收费金额,进而以该收费为时机,还能够对用户5A收取与舞台移动对应的收费金额。如此,头戴式装置系统100,能够实现对用户5A的多次的收费循环,因而能够对用户5A收取更多的收费金额。结果,用户5B,能够使直播的营业额进一步増加。
[变形例]
用于视点共享的对用户5A的收费,不是必要的。处理器210A,不将与视点共享对应的收费信息登记于标签物件2733A,就能够允许用户5A共享视点。换言之,处理器210A,能够根据直播中的任意的时候的用户5A的操作,使虚拟形象物件6A共享其他虚拟形象物件6的视点。处理器210A,不检出用户5A的操作,就能够使虚拟形象物件6A自动地共享其他虚拟形象物件6的视点。
处理器210A,能够使虚拟形象物件6A共享未配置于舞台物件1532的其他虚拟形象物件6的视点。处理器210A,例如,在用户5A选择虚拟形象物件6D的情况下,使虚拟形象物件6A共享虚拟形象物件6D的视点。
处理器210B,能够向用户5B通知关于多个不同的虚拟形象物件6中的每一个的、共享视点的其他虚拟形象物件6的数量。由此,用户5B,能够知晓第2虚拟空间2711B中的哪个虚拟形象物件6的视点吸引更多的用户5的人气。
处理器210C,不必将与舞台移动对应的收费信息登记于标签物件2733C。处理器210C,例如,也能够将对应于舞台移动的收费信息与虚拟形象物件6C相关联,并登记于虚拟形象物件6C。处理器210C,能够实施与对应于舞台移动的收费(第2收费)相关的任意的其他处理,以代替将对应于舞台移动的收费信息登记于标签物件2733C。该其他的处理,例如为不将对应于舞台移动的收费信息登记于标签物件2733C,而是向服务器600发送。
处理器210A,不必将对应于视点共享的收费信息登记于标签物件2733A。处理器210A,例如,也能够将对应于视点共享的收费信息与虚拟形象物件6A相关联,并登记于虚拟形象物件6A。处理器210A,能够实施与对应于视点共享的收费(第1收费)相关的任意的其他处理,以代替将对应于视点共享的收费信息登记于标签物件2733A。该其他的处理,例如为不将对应于视点共享的收费信息登记于标签物件2733A,而是向服务器600发送。
处理器210A,不必将对应于舞台移动的收费信息登记于标签物件2733A。处理器210A,例如,也能够将对应于舞台移动的收费信息与虚拟形象物件6A相关联,并登记于虚拟形象物件6A。处理器210A,能够实施与对应于舞台移动的收费(第3收费)相关的任意的其他处理,以代替将对应于舞台移动的收费信息登记于标签物件2733A。该其他的处理,例如为不将收费信息登记于标签物件2733A,而是向服务器600发送。
用户5B,能够进行允许视点共享的第1操作。处理器210B,在检出用户5B的第1操作的情况下,经由服务器600向计算机200A发送表示第1操作的检出的检出信息。处理器210A,接收从计算机200B发送的检出信息。处理器210A,基于已接收的检出信息,检出用户5B的第1操作。处理器210A,在已检出第1操作的情况下,能够使虚拟形象物件6A共享与虚拟形象物件6A不同的其他任一个虚拟形象物件6的视点。处理器210A,例如,在检出第1操作之后,能够在一定期间内使虚拟形象物件6A共享与虚拟形象物件6A不同的其他任一个虚拟形象物件6的视点。第1操作,不仅可以是用户5B的操作自身,也可以是用户5B的话语内容等的用户5B的动作,也可以是指定能够共享视点的期间的信息。由此,能够防止其他虚拟形象物件6的视点无用户5B的允许而被虚拟形象物件6A随意地共享。换言之,用户5B,能够以自己的意志指定虚拟形象物件6A能够共享其他虚拟形象物件6的视点的时机。由此,用户5B,能够将直播的演出控制成用户5B更期望的形式。
处理器210A,不使虚拟摄像机14A移动至虚拟形象物件6C的位置,就能够使虚拟形象物件6A共享虚拟形象物件6C的视点。处理器210A,例如,在已检出用于使虚拟形象物件6A共享虚拟形象物件6C的视点的用户5A的操作的情况下,经由服务器600向计算机200C发送用于要求视点共享的要求信息。处理器210C,在接收要求信息的情况下,经由服务器600向计算机200A发送由虚拟摄像机14C生成的、与从虚拟形象物件6C起的视界区域15C对应的视界图像6017C(第2视界图像)。处理器210A,在接收视界图像6017C的情况下,暂时地停止虚拟摄像机14A的控制。处理器210A,还向监视器130A输出已接收的视界图像6017C。用户5A,通过辨认视界图像6017C,从能够在虚拟形象物件6C的视点收看虚拟形象物件6B的表演。
处理器210A,能够检出第2虚拟空间2711A中的第1事态的发生。第1事态,例如为虚拟形象物件6B采取某些行动。虚拟形象物件6B的行动,例如为虚拟形象物件6B移动至舞台物件1532上的其他位置。第1事态,也可以为虚拟形象物件6B在舞台物件1532上实施一定时间以上的规定的表演。第1事态还可以是虚拟形象物件6C移动至舞台物件1532上。处理器210A,在已检出第1事态的情况下,能够使虚拟形象物件6A共享其他虚拟形象物件6的视点。由此,能够防止其他虚拟形象物件6的视点被虚拟形象物件6A随意地共享。
处理器210A,在共享视点后,能够与虚拟摄像机14C的控制连动地控制虚拟摄像机14A。处理器210A,例如,在使虚拟摄像机14A移动至虚拟形象物件6C的位置之后,经由服务器600从计算机200C接收表示虚拟摄像机14C的位置和朝向的控制内容的控制信息。处理器210A,根据已接收的控制信息,与虚拟摄像机14C的控制连动地控制虚拟摄像机14A。由此,能够使用户5A更明确地实际感受虚拟形象物件6A共享虚拟形象物件6C的视点。
〔实施方式4〕
在本实施方式中,处理器210B,通过与使用实施方式1记载的标签物件2733A的方式相同的方式,实施与对用户5B的收费和结算相关的处理。然而,并不限于此,处理器210B,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5B的收费和结算相关的处理。
[虚拟形象选择流程]
图67是示意在根据某个实施方式的头戴式装置套件110B中实施的处理的一部分的时序图。图68是示意根据某个实施方式的第3虚拟空间6811B和视界图像6817B的图。在步骤S6701,计算机200B的处理器210B(以下简称为“处理器210B”),定义图68(A)所示的第3虚拟空间6811B。该处理,相当于图11的步骤S1110的处理。具体而言,处理器210B,通过确定虚拟空间数据,从而定义由虚拟空间数据表示的第3虚拟空间6811B。第3虚拟空间6811B是在开始第2虚拟空间2711B中的直播之前配置有虚拟形象物件6B的虚拟空间。第3虚拟空间6811B,也是用于使用户5B选择用户5B在直播中使用的虚拟形象物件的虚拟空间。
在步骤S6702,处理器210B,生成虚拟摄像机14B,并配置于第3虚拟空间6811B。在步骤S6703,处理器210B,生成包括虚拟右手1531RB和虚拟左手1531LB的虚拟形象物件6B,并配置于第3虚拟空间6811B。为了在第3虚拟空间6811B中选择用户5B在直播中使用的虚拟形象,虚拟形象物件6B由用户5B使用。在本实施方式中,在第2虚拟空间2711B中不使用虚拟形象物件6B。在步骤S6704,处理器210B,生成用户界面面板6850和笔物件6853,并配置于第3虚拟空间6811B。
在本实施方式中,在头戴式装置系统100预先准备多个不同的虚拟形象物件。用户5B,能够从多个虚拟形象物件之中选择在第2虚拟空间2711B中直播时使用的1个虚拟形象物件。
用户界面面板6850是用户界面物件的一种,为了使处理器210B实施用于从多个虚拟形象物件之中选择1个虚拟形象物件的处理,用户界面面板6850由用户5B使用。用户界面面板6850,包括配置于用户界面面板6850的前面的选择项6851和6852。选择项6851和6852,包括示意在该选择项由用户5B选择的情况下选择的虚拟形象物件的外观的图像。选择项6851是用于选择多个虚拟形象物件之中的第1虚拟形象物件的项目,选择项6852是用于选择多个虚拟形象之中的第2虚拟形象物件的项目。笔物件6853是虚拟物件的一种,为了选择用户界面面板6850的选择项6851或6852,笔物件6853由虚拟右手1531RB或虚拟左手1531LB握持并使用。
在步骤S6705,处理器210B,根据头戴式装置120B的运动而决定第3虚拟空间6811B中的虚拟摄像机14B的位置和倾斜。该处理,相当于图11的步骤S1140的处理的一部分。在步骤S6706,处理器210B,在监视器130B显示视界图像17B。该处理,相当于图11的步骤S1180和S1190的处理。
处理器210B,例如,如图68(B)所示地在监视器130B显示与图68(A)所示的第3虚拟空间6811B对应的视界图像6817B。用户5B,通过辨认视界图像6817B,从而意识到必须选择用户界面面板6850的选择项6851或选择项6852。
在实施后述的步骤S6707~S6709的期间,也继续重复地实施上述的步骤S6705和S6706的处理(即,与头戴式装置120B的运动相应的视界图像17B的更新)。
在步骤S6707,处理器210B,基于右控制器300RB的输出,检出用户5B的右手的运动。在步骤S6708,处理器210B,根据已检出的用户5B的右手的运动,使虚拟右手1531RB在第3虚拟空间6811B中运动。在某个情形中,处理器210B,根据用户5B的右手的运动,使虚拟右手1531RB在第3虚拟空间6811B中运动,从而使虚拟右手1531RB靠近笔物件6853。处理器210B,在虚拟右手1531RB充分地靠近笔物件6853之后,基于用户5B的右手的运动,通过虚拟右手1531RB选择(抓取)笔物件6853。
图69是示意根据某个实施方式的第3虚拟空间6811B和视界图像6917B的图。如图69(A)所示,处理器210B,在虚拟右手1531RB选择笔物件6853之后,基于用户5B的右手的运动,使虚拟右手1531RB和笔物件6853在第3虚拟空间6811B中运动,从而使笔物件6853的前端靠近选择项6851。处理器210B,基于笔物件6853的前端和选择项6851冲突,从而检出由笔物件6853选择选择项6851。在步骤S6709,处理器210B,从多个虚拟形象物件之中选择与已选择的选择项6851对应的虚拟形象物件7106B。虚拟形象物件7106B的外观和尺寸,与虚拟形象物件6B的外观和尺寸不同。
处理器210B,例如,如图69(B)所示地在监视器130A显示与图69(A)所示的第3虚拟空间6811B对应的视界图像6917B。用户5B,通过辨认视界图像6917B,从而意识到通过选择用户界面面板6850的选择项6851,从而选择虚拟形象物件7106B。
处理器210B,在选择虚拟形象物件7106B之后,结束第3虚拟空间6811B中的虚拟形象物件6B的配置。然后,处理器210B,继续第3虚拟空间6811B的定义。处理器210B,在不配置虚拟形象物件6B之后,还在第3虚拟空间6811B配置其他虚拟物件。处理器210B,中断对用户5B提供第3虚拟空间6811B。处理器210B,还通过实施使虚拟形象物件7106B实施表演的一系列的处理,从而向用户5B新提供第2虚拟空间2711B。
用户5B选择虚拟形象物件的方式,不限于上述的示例。处理器210B,例如,也可以在第3虚拟空间6811B中配置选择项6851表示的第1虚拟形象物件和选择项6852表示的第2虚拟形象物件。用户5B,例如,使虚拟右手1531RB接触配置于第3虚拟空间6811B中的第1虚拟形象物件或第2虚拟形象物件。处理器210B,选择与虚拟右手1531RB接触的虚拟形象物件。
[表演实施处理流程]
图70是示意在根据某个实施方式的头戴式装置套件110B中实施的处理的一部分的时序图。图71是示意根据某个实施方式的第2虚拟空间2711B和视界图像7117A的图。在步骤S7001,处理器210B,定义如图71(A)所示的第2虚拟空间2711B。在步骤S7002,处理器210B,生成虚拟摄像机14B,并配置于第2虚拟空间2711B。在步骤S7003,处理器210B,生成舞台物件1532,并配置于第2虚拟空间2711B。在步骤S7004,处理器210B,从服务器600接收虚拟形象物件6A、6C、6D的各虚拟形象信息。在步骤S7005,处理器210B,基于已接收的各虚拟形象信息,在第2虚拟空间2711B中配置虚拟形象物件6A、6C、6D。
在步骤S7006,处理器210B,将包括虚拟右手7131RB和虚拟左手7131LB的虚拟形象物件7106B(第1虚拟形象)与用户5B(第1用户)相关联,并配置于第2虚拟空间2711B。详细而言,处理器210B,将虚拟形象物件7106B配置于舞台物件1532上。虽然图中未显示,但是,处理器210B,在任意的时机,生成虚拟形象物件6B的虚拟形象信息,并向服务器600发送。
在步骤S7007,处理器210B,生成标签物件2733B,并将其与虚拟形象物件7106B相关联。详细而言,处理器210B,将标签物件2733B配置于虚拟形象物件7106B的虚拟左手7131LB。处理器210B,将上限收费信息登记于标签物件2733B,该上限收费信息表示直播中能够对用户5B收取的收费金额的上限。
在将虚拟形象物件7106B配置于舞台物件1532上之后,在第2虚拟空间2711B中,开始虚拟形象物件7106B的直播。图71(A),表示开始直播的时候的第2虚拟空间2711B。处理器210B,在开始直播的时候,不将收费信息登记于标签物件2733B。在步骤S7008,处理器210B,根据头戴式装置120B的运动,决定第2虚拟空间2711B中的虚拟摄像机14B的位置和倾斜。该处理,与步骤S2305中的处理基本相同,因而不重复详细的说明。在步骤S7009,处理器210B,在监视器130B显示视界图像17B。该处理,与步骤S2306中的处理基本相同,因而不重复详细的说明。
处理器210B,例如,如图71(B)所示地在监视器130B显示与图71(A)所示的第2虚拟空间2711B对应的视界图像7117B。处理器210B,在标签物件2733B显示上限收费信息表示的上限收费金额。处理器210B,还根据收费信息未登记于标签物件2733A,在标签物件2733A显示0日元作为合计收费金额。用户5B,通过辨认视界图像7117B,从而意识到作为直播的收看者的虚拟形象物件6A、6C、6D位于舞台物件1532的前方。用户5B,还意识到在开始直播的时候不对用户5B收取虚拟形象物件7106B的使用费。
图72是示意根据某个实施方式的第2虚拟空间2711A和视界图像7217A的图。处理器210A,在第2虚拟空间2711B被定义之后,从服务器600实时地接收虚拟形象物件6B的虚拟形象信息。处理器210A,基于最初接收的虚拟形象物件6B的虚拟形象信息,如图72(A)所示地,将虚拟形象物件7106B配置于第2虚拟空间2711A。详细而言,处理器210A,将虚拟形象物件7106B配置于舞台物件1532上。
处理器210A,例如,如图72(B)所示地在监视器130A显示与图72(A)所示的第2虚拟空间2711A对应的视界图像7217A。用户5A,通过辨认视界图像7217A,从而意识到作为直播的表演者的虚拟形象物件7106B登上舞台物件1532上。用户5,还意识到虚拟形象物件7106B的直播从此开始。
图73是示意某个实施方式涉及的用户5B的姿势的一个示例的图。在开始直播后,用户5B,使自身的身体运动,以采取例如图73所示的姿势。在步骤S7010,处理器210B,基于各运动传感器的输出,检出采取图73所示的姿势时的用户5B的运动。
图74是示意根据某个实施方式的第2虚拟空间2711B和视界图像7417B的图。在步骤S7011,处理器210B,根据用户5B的运动,如图74(A)所示,使虚拟形象物件7106B在第2虚拟空间2711B中实施表演。详细而言,处理器210B,使虚拟形象物件7106B反映图73所示的用户5B的身体的运动。处理器210B,向服务器600实时地发送包括虚拟形象物件7106B实施表演时的虚拟形象物件7106B的运动信息的虚拟形象信息。
处理器210B,例如,如图74(B)所示地在监视器130B显示与图74(A)所示的第2虚拟空间2711B对应的视界图像7417B。用户5B,通过辨认视界图像7417B,从而确认虚拟形象物件6A、6C、6D的对表演的反应。
图75是示意根据某个实施方式的第2虚拟空间2711A和视界图像7517A的图。在虚拟形象物件7106B在第2虚拟空间2711B中实施表演后,处理器210A,从服务器600实时地接收虚拟形象物件7106B的虚拟形象信息。处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件7106B实施表演。由此,处理器210A,能够使虚拟形象物件7106B根据图73所示的用户5B的运动而实施表演。处理器210A,使虚拟形象物件6A在第2虚拟空间2711A中收看虚拟形象物件7106B的表演。处理器210A,例如,如图75(B)所示地在监视器130A显示与图75(A)所示的第2虚拟空间2711A对应的视界图像7517A。用户5A,通过辨认视界图像7517A,从而意识到虚拟形象物件7106B在舞台物件1532上实施第1表演。由此,用户5A,能够在虚拟形象物件6A的视点欣赏虚拟形象物件7106B的表演。
[收费信息的登记]
图76是示意根据某个实施方式的第2虚拟空间2711B和视界图像7617B的图。在图76(A)所示的第2虚拟空间2711B中,虚拟形象物件7106B的直播已经结束。在步骤S7012,处理器210B,将与第2虚拟空间2711B中的虚拟形象物件7106B的表演相应的收费信息登记于标签物件2733B。处理器210B,例如,在直播结束之后,将收费信息登记于标签物件2733B,该收费信息表示与在第2虚拟空间2711B中使用虚拟形象物件7106B的时间相应的收费金额。处理器210B,通过将设定于虚拟形象物件7106B的每一定时间的收费单价乘以从直播的开始时候至结束时候的的经过时间,从而算出作为虚拟形象物件7106B的使用费的收费金额。在图76中,算出1000日元作为收费金额。处理器210B,将表示已算出的收费金额的收费信息登记于标签物件2733B。处理器210B,将已登记的收费信息在标签物件2733B上视觉化。
处理器210B,例如,如图76(B)所示地在监视器130B显示与图76(A)所示的第2虚拟空间2711B对应的视界图像7617B。用户5B,通过辨认视界图像7617B,从而知晓对用户5B收取1000日元作为虚拟形象物件7106B的使用费。
用户5B,在确认直播结束时候的合计收费金额之后,进行用于使虚拟形象物件7106B从第2虚拟空间2711B退出的操作。该操作,例如为用户5B按下右控制器300RB的任一个按钮。在步骤S7013,处理器210B,根据检出用于使虚拟形象物件7106B退出的用户5B的操作,使虚拟形象物件7106B从第2虚拟空间2711B退出。由此,处理器210B,结束对用户5B提供第2虚拟空间2711B。
图77是示意根据某个实施方式的第3虚拟空间6811B和视界图像7717B的图。在步骤S7014,处理器210B,如图77(A)所示地将虚拟形象物件6B再次配置于第3虚拟空间6811B中。这时,处理器210B,不在虚拟左手1531LB配置标签物件2733B。在步骤S7015,处理器210B,实施与结算相关的处理,该结算与登记于标签物件2733B的收费信息相应。该处理,与步骤S2618中的处理基本相同,因而,不重复详细的说明。
处理器210B,例如,如图77(B)所示地在监视器130B显示与图77(A)所示的第3虚拟空间6811B对应的视界图像7717B。服务器600,向计算机200B通知结算已结束。处理器210B,根据从服务器600通知结算的完成,在视界图像7717B上向用户5B通知结算已完成。处理器210B,例如,使包括说明结算已完成的消息的通知图像3735重叠于视界图像7717B,并在监视器130B显示视界图像7717B。处理器210B,也能够将具有通知图像3735相同的外观的虚拟物件配置于第2虚拟空间2711B中的视界区域15B内的任意位置。或者,处理器210B,在生成视界图像7717B时,能够在视界图像7717B内的任意的位置包括通知图像3735。用户5B,通过辨认视界图像7717B,从而意识到在直播结束后,将虚拟形象物件6B再次配置于第3虚拟空间6811B中。用户5B,还通过辨认通知图像3735,从而知晓与虚拟形象物件7106B的使用费对应的收费金额的结算已完成。用户5B,还意识到由于在第3虚拟空间6811B中,标签物件2733B未配置于虚拟左手7131LB,因而,不再收费虚拟形象物件7106B的使用费用。
在步骤S7016,处理器210B,决定虚拟形象物件7106B的制作者的报酬。处理器210B,详细而言,根据登记于标签物件2733B的收费信息,决定报酬。由于根据虚拟形象物件7106B的表演而登记收费信息,因而,根据收费信息而决定报酬,与根据虚拟形象物件7106B的表演而决定报酬同义。在图76的示例中,收费信息表示与在第2虚拟空间2711B中使用虚拟形象物件7106B的时间相应收费金额,且该收费信息被登记。所以,处理器210B,决定与在第2虚拟空间2711B中使用虚拟形象物件7106B的时间相应的报酬。
在步骤S7017,处理器210B,实施用于向虚拟形象物件7106B的制作者支付已决定的报酬的处理。处理器210B,例如,向服务器600通知已决定的报酬。服务器600,在实施结算后,向虚拟形象物件7106B的制作者支付已通知的报酬。每次使用虚拟形象物件7106B的直播结束时,服务器600能够向虚拟形象物件7106B的制作者支付报酬。或者,服务器600,也能够在经过一定期间(例如一个月)的时候向虚拟形象物件7106B的制作者汇总支付与该一定期间内的虚拟形象物件7106B的使用费的合计相应的报酬。不仅服务器600,处理器210B也能够向虚拟形象物件7106B的制作者支付与收费信息相应的报酬。
[本实施方式的主要优点]
如上所述,处理器210B,将与第2虚拟空间2711B中的虚拟形象物件7106B的表演相应的收费信息登记于标签物件2733B。如此,头戴式装置系统100,能够向用户5B提供第2虚拟空间2711B中的适当的收费方式。
处理器210B,根据用户5B的位置信息和关节的旋转方向,使用户5B选择的虚拟形象物件实施表演。由此,即使是对于形状与用户5B大大不同的虚拟形象物件,也能够正确地反映用户5B的运动。如此,头戴式装置系统100,不必将用户5B能够选择的虚拟形象物件的形状限制为特定的形状。所以,能够在头戴式装置系统100准备形状不同的多种虚拟形象物件。结果,能够进一步增加用户5B能够选择的虚拟形象物件的选择项,因而,能够提高表演者的直播的多样性。
虚拟形象物件的制作者,在自身制作的虚拟形象物件被表演者使用的情况下,能够收到与虚拟形象物件的表演相应的报酬。所以,头戴式装置系统100,能够向大量的制作者赋予制作在头戴式装置系统100中能够使用的新虚拟形象物件的动机。结果,能够进一步增加在头戴式装置系统100中准备的虚拟形象物件的种类。由此,能够进一步增加表演者能够选择的虚拟形象物件的选择项,因而,能够提高表演者的直播的多样性。
[变形例]
处理器210B,不必将与虚拟形象的使用对应的收费信息登记于标签物件2733B。处理器210B,例如,也能够将对应于虚拟形象的使用的收费信息与虚拟形象物件7106B相关联并登记于虚拟形象物件7106B。处理器210B,能够实施与对应于虚拟形象的使用的收费相关的任意的其他处理,以代替将对应于虚拟形象的使用的收费信息登记于标签物件2733B。该其他处理,例如为不将对应于虚拟形象的使用的收费信息登记于标签物件2733B,而是向服务器600发送。
处理器210B,能够实施与收费相关的处理,该收费对应于与第2虚拟空间2711B中的直播的营业额相应的收费金额。处理器210B,还能够决定与第2虚拟空间2711B中的直播的营业额相应的报酬。处理器210B,例如,将营业额的一部分作为与直播的营业额相应的收费金额而算出。处理器210B,将表示与营业额相应的收费金额的收费信息登记于标签物件2733B。由此,直播的营业额越高,作为虚拟形象物件7106B的使用费而对用户5B收取的收费金额也越高。另外,直播的营业额越高,向虚拟形象物件7106B的制作者支付的报酬也越高。由此,头戴式装置系统100,能够向制作者赋予制作与直播的营业额的増加相关的具有人气的虚拟形象物件7106B的动机。
处理器210B,能够实施与收费相关的处理,该收费对应于与使用虚拟形象物件7106B的第2虚拟空间2711B的容量相应的收费金额。处理器210B,还能够决定与第2虚拟空间2711B的容量相应的报酬。例如,使用虚拟形象物件7106B的第2虚拟空间2711B的尺寸越大,则处理器210B算出越高的收费金额作为虚拟形象物件7106B的使用费。处理器210B,将表示已算出的收费金额的收费信息登记于标签物件2733B。使用虚拟形象物件7106B的第2虚拟空间2711B的尺寸越大,则向虚拟形象物件7106B的制作者支付的报酬越高。由此,头戴式装置系统100,能够向制作者赋予制作在更大尺寸的第2虚拟空间2711B中使用的具有人气的虚拟形象物件7106B的动机。
处理器210B,能够生成第2虚拟空间2711B中的虚拟形象物件7106B的使用履历。处理器210B,例如生成第2虚拟空间2711B中的虚拟形象物件7106B的使用时间的履历,作为使用履历。处理器210A,例如生成在第2虚拟空间2711B中使用虚拟形象物件7106B的直播的营业额的履历,作为使用履历。处理器210B,例如生成使用虚拟形象物件7106B的第2虚拟空间2711A的履历。处理器210B,向虚拟形象物件7106B的制作者通知已生成的使用履历。制作者,通过阅览已通知的虚拟形象物件7106B的使用履历,从而能够知晓过去在第2虚拟空间2711B中使用虚拟形象物件7106B的状况的详细情况。制作者,通过参考已知晓的使用状况,从而能够新制作更优秀的虚拟形象物件。
用户5B,也能够从制作者租赁虚拟形象物件7106B。这种情况下,处理器210B,对用户5B收取与虚拟形象物件7106B的租赁期间相应的收费金额。处理器210B,还决定与虚拟形象物件7106B的租赁期间相应的报酬。
〔实施方式5〕
在本实施方式中,处理器210A,通过使用实施方式1记载的标签物件2733A的方式,实施与对用户5A的收费和结算相关的处理。然而,并不限于此,处理器210A,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5A的收费和结算相关的处理。
[第2表演的请求]
图78是示意在头戴式装置系统100中实施的处理的一个示例的时序图。以下,说明了用于用户5B(第2用户)对于用户5A(第1用户)请求第2表演而使虚拟形象物件6B(第2虚拟形象)在虚拟空间11B中实施第2表演的一系列的处理。图78所示的时序图,示意了实施图26所示的步骤S2614之后的处理。此外,第2表演的请求,也可以由用户5C进行,也可以由用户5D进行。
图79是示意根据某个实施方式的第2虚拟空间2711A和视界图像7917A的图。处理器210A,在直播中向用户5A通知向用户5A推介对虚拟形象物件6B请求第2表演的消息。处理器210A,例如,在标签物件2733A显示消息。消息,包括向用户5A推介第2表演的内容的文本和用户5A请求第2表演所必需的收费金额。在图79的示例中,第2表演的内容为伸出手指的姿势,请求伸出手指的姿势所必需的收费金额为500日元。伸出手指的姿势,例如为虚拟形象物件6B用手指指着虚拟形象物件6A(第1虚拟形象)的表演。如此,第2表演,也可以为将与请求第2表演的用户5相关联的虚拟形象物件6作为对象的表演。
在标签物件2733A显示消息之后,处理器210A,根据用户5A的左手的运动,如图79(A)所示地使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图79(B)所示地在监视器130A显示与图79(A)所示的第2虚拟空间2711A对应的视界图像7917A。用户5A,通过辨认视界图像7917A,从而确认标签物件2733A显示的消息。由此,用户5A,意识到如果新支付500日元的收费金额,那么,能够对虚拟形象物件6B请求伸出手指的姿势。
用户5A,在确认了标签物件2733A显示的消息之后,进行用于请求伸出手指的姿势的操作。由于在实施方式1中参照图34说明了该操作,因而在此不重复。处理器210A,根据选择将推介请求第2表演的消息显示的标签物件2733A,检出用于请求第2表演的用户5A的操作。
图80是示意根据某个实施方式的第2虚拟空间2711A和视界图像8017A的图。在步骤S7801,处理器210A,将与第2表演的请求对应的收费信息登记于标签物件2733A。在图79的示例中,处理器210A,在虚拟形象物件6A通过虚拟右手1531RA选择标签物件2733A的情况下,将表示请求伸出手指的姿势所必需的收费金额(500日元)的收费信息新登记于标签物件2733A。此外,已登记的收费信息表示的收费金额的结算,以实施方式1中说明的方法进行即可。
在登记收费信息之后,处理器210A,在标签物件2733A上将收费信息再次视觉化。在实施方式1中参照图35说明了该处理的详细情况,因而在此不重复。处理器210A,例如,如图80(B)所示地在监视器130A显示与图80(A)所示的第2虚拟空间2711A对应的视界图像8017A。用户5A,通过辨认视界图像8017A,从而意识到由于请求伸出手指的姿势,导致当前的合计收费金额増加至2000日元。
在步骤S7802,处理器210A,向计算机200B发送第2表演的请求。详细而言,处理器210A,向服务器600发送该请求。服务器600,通过同步处理而向计算机200B发送已接收的与第2表演相关的信息。此外,在实施方式1中参照图17已经说明了经由服务器600进行计算机200A和计算机200B之间的信息的收发。因此,在图78中,不示意服务器600实施的处理。
图81是示意根据某个实施方式的第2虚拟空间2711B和视界图像8117B的图。在图81的示例中,虚拟形象物件6B,朝向虚拟形象物件6C(第3虚拟形象)的方向,并且,虚拟形象物件6A配置于视界区域外的第1位置8176。即,虚拟形象物件6A未配置在视界区域15B内。处理器210B,例如,如图81(B)所示地在监视器130A显示与图81(A)所示的第2虚拟空间2711B对应的视界图像8117B。
在步骤S7811,处理器210B,接收从处理器210A发送的第2表演的请求。在步骤S7812,处理器210B,向用户5B通知与已请求的第2表演相关的信息。与已请求的第2表演相关的信息,例如可以为已请求的第2表演的内容。处理器210B,还可以向用户5B通知表示与已请求第2表演的用户5A相关联的虚拟形象物件6A的、在第2虚拟空间2711B中的位置(以下,称为“第1位置”)的信息。作为一个示例,处理器210B,在视界图像8117B上通知与已请求的第2表演相关的信息和表示第1位置8176的信息。处理器210B,例如,如图81(B)所示地,在视界图像8117B包括通知图像8181和箭头图像8182,并在监视器130显示。处理器210B,也能够将具有与通知图像8181相同的外观的虚拟物件配置于第2虚拟空间2711B中。处理器210B,也能够将具有与箭头图像8182相同的外观的虚拟物件配置于第2虚拟空间2711B。
作为一个示例,通知图像8181,如图81(B)所示,包括第2表演的请求以及已请求的第2表演的内容。由此,用户5B,能够意识到第2表演的请求以及已请求的第2表演的内容。
箭头图像8182,如图81(B)所示,为示意虚拟形象物件6A未配置于视界区域15B时的第1位置8176的图像。详细而言,视界图像8117B中的第2方向对应于视界区域15B内的从第2位置8177朝向虚拟形象物件6A位于的第1位置8176的第1方向8178,箭头图像8182是示意第2方向的图像。即,在图81的示例的情况下,箭头图像8182是从视界图像8117B的左朝向右(右朝向的)的箭头的图像。箭头图像8182被视界图像8117B包括,用户5B通过使头部向右方向运动,从而能够容易地意识到视界图像17B包括与请求第2表演的用户5相关联的虚拟形象物件6(虚拟形象物件6A)。
此外,处理器210B,使用识别该请求包括的虚拟形象物件6A的信息,确定第2虚拟空间2711B中的虚拟形象物件6A的第1位置8176即可。该信息,例如,可以为用户5A或虚拟形象物件6A的ID。于是,处理器210B,判定虚拟形象物件6A是否配置于视界区域15B即可。
图82是示意根据某个实施方式的第2虚拟空间2711B和视界图像8217B的图。用户5B使头部运动,从而使得虚拟形象物件6B朝向图82(A)所示的方向。由此,如图82(A)所示,虚拟形象物件6A被视界区域15B包括。换言之,处理器210B,判定虚拟形象物件6A被视界区域15B包括。处理器210B,如图82(B)所示地在与图82(A)所示的第2虚拟空间2711B对应的视界图像8217B包括将虚拟形象物件6A包围的框图像8283,并在监视器130B显示。由此,用户5B,能够容易地确定与已请求第2表演的用户5相关联的虚拟形象物件6。处理器210B,也能够将具有与框图像8283相同的外观的虚拟物件以包围虚拟形象物件6A的方式配置于第2虚拟空间2711B。
图83是示意某个实施方式涉及的用户5B的姿势的一个示例的图。在步骤S7813,处理器210B,检出与第2表演对应的用户5B的运动。已辨认图81(B)所示的通知图像8181的用户5B,使自身的身体运动,从而采取例如图83所示的姿势,即,向前伸出右手的姿势。这时,用户5B,操作(例如按下)设于右控制器300RB的按钮(图83中未显示)。图83所示的姿势是被用户5A请求的第2表演,即与伸出手指的姿势对应的姿势。
图84是示意根据某个实施方式的第2虚拟空间2711B和视界图像8417B的图。在步骤S7814,处理器210B,根据已检出的运动使虚拟形象物件6B实施第2表演。作为一个示例,处理器210B,根据采取图83所示的姿势的用户5B的运动以及设于右控制器300RB的按钮的按下,如图84(A)所示地使虚拟形象物件6B实施伸出手指的姿势。详细而言,处理器210B,使虚拟形象物件6B实施向前伸出虚拟右手1531RB并用伸出的指尖指着的动作。处理器210B,例如,如图84(B)所示地在监视器130A显示与图84(A)所示的第2虚拟空间2711B对应的视界图像8417B。用户5B通过辨认包括虚拟右手1531RB的视界图像8417B,从而能够意识到虚拟形象物件6B实施伸出手指的姿势。
处理器210B,如果使虚拟形象物件6B实施第2表演,则如图84(B)所示,在视界图像8417B不显示通知图像8181和框图像8283。作为一个示例,处理器210B,将表示用户5B采取的姿势的信息和与第2表演的内容相关联地存储于存储部230的、表示该第2表演的姿势的信息相比较。比较的结果,在2个信息的一致率为指定的阈值以上的情况下,处理器210B,判定使虚拟形象物件6B实施第2表演,在视界图像8417B不显示通知图像8181和框图像8283。
在步骤S7815,处理器210B,向计算机200A发送与第2表演的实施对应的虚拟形象信息。详细而言,处理器210B,向服务器600发送该虚拟形象信息。服务器600,通过同步处理向计算机200A发送已接收的虚拟形象信息。
图85是示意根据某个实施方式的第2虚拟空间2711A和视界图像8517A的图。在步骤S7803,处理器210A,实时地接收从处理器210B发送的虚拟形象信息。在步骤S7804,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施第2表演。由此,处理器210A,能够根据图83所示的用户5B的运动,使虚拟形象物件6B实施第2表演。
处理器210A,使虚拟形象物件6A在第2虚拟空间2711A中收看虚拟形象物件6B的第2表演。处理器210A,例如,如图85(B)所示地在监视器130A显示与图85(A)所示的第2虚拟空间2711A对应的视界图像8517A。用户5A,通过辨认视界图像8517A,从而意识到虚拟形象物件6B实施自身请求的第2表演。由此,用户5A,对于虚拟形象物件6B实施自身请求的第2表演,感到喜悦。详细而言,用户5A,能够通过负担收费金额而虚拟体验现实的直播中难以体验的、面向自身的表演者的表演。结果,能够使用户5A感到喜悦,能够使用户5A更满足。即,能够更加提高虚拟空间中的直播的兴趣性。
[变形例]
用户5A,也可以不指定内容地请求第2表演。这种情况下,已接收请求的处理器210B,向用户5B仅通知存在第2表演的请求。用户5B,自己决定使虚拟形象物件6B实施的第2表演,采取与已决定的第2表演对应的姿势。
可以根据与所请求的第2表演的内容而设定请求第2表演所必需的收费金额。作为一个示例,实施耗时、复杂、人工(动作)多等的、对于用户5B而言不易实施的第2表演,可以将收费金额设定得较高。
第2表演的内容,不限于上述的示例。例如,第2表演,可以为虚拟形象物件6B从舞台物件1532移动,靠近进行请求的虚拟形象物件6,实施任意的或请求的内容的表演。虚拟形象物件6B的从舞台物件1532出发的移动,可以以实施方式2中说明的移动方法进行。另外,第2表演,可以为不将与请求第2表演的用户5相关联的虚拟形象物件6作为对象的表演。作为这种表演的一个示例,可列举在舞台物件1532上跳跃等。
可以不紧跟着接收请求之后,而是在预先设定的时机,在视界图像17B包括通知图像8181以及箭头图像8182或框图像8283。预先设定的时机,例如可以为作为用户5B实施第2表演的期间而设定的期间开始的时机。
请求第2表演所必需的收费金额,例如,可以在进行用于请求第2表演的操作时被结算。
第2表演的请求,例如可以为投标方式。在该示例的情况下,不设定请求第2表演所必需的收费金额。处理器210A,接受作为第2表演的代价的金额(以下,称为“第1金额”)的输入。另外,处理器210A,在第1金额高于用户5A以外的用户5(第3用户)输入的、作为第2表演的代价的金额(第2金额)的情况下,将表示第1金额的收费信息登记于标签物件2733A。第1金额和第2金额的比较,例如由服务器600进行即可。即,处理器210A向服务器600发送表示第1金额的信息。服务器600,在第1金额高于第2金额的情况下,向计算机200A通知该事件。处理器210A,在已接收该通知的情况下,将表示第1金额的收费信息登记于标签物件2733A。
在第2表演的请求为投标方式的情况下,用户5B可以预先设定第2表演的内容以及实施的时机。另外,可以将虚拟空间11分割为多个区域,在该区域单位进行投标。这种情况下,处理器210B,统计各区域的收费金额,并在视界图像17B包括表示统计的金额最高的区域的图像。这种情况下的第2表演,例如可以为虚拟形象物件6B移动至配置于各区域的舞台物件之中的、配置于统计的金额最高的区域的舞台物件,实施第1表演。
在第2表演的请求为投标方式的情况下,可以设定最低投标金额。服务器600,在第1金额和第2金额均低于最低投标金额的情况下,可以向计算机200B通知该事件。处理器210B,在已接收该通知的情况下,可以向用户5B通知投标的金额未达到最低投标金额。这种情况下,用户5B可以使虚拟形象物件6B不实施第2表演。例如,说明这样的示例:第2表演为靠近与进行请求的用户5相关联的虚拟形象物件6而进行已请求的内容的表演。在该示例中,在第1金额和第2金额低于最低投标金额的情况下,用户5B,使虚拟形象物件6B继续进行舞台物件1532上的第1表演,代替上述第2表演。
另外,可以在开始虚拟形象物件6B的第1表演之前,进行第2表演的请求。作为一个示例,可以在用户5A开始直播的虚拟体验之前进行该请求。在该示例的情况下,该请求,可以以所谓的众筹(crowd funding)的形式进行。例如,用户5B,在开始直播的虚拟体验之前,进行大意为虚拟形象物件6B靠近希望进行指定的表演的用户5并促使用户5支付收费金额的募集。在收费金额为设定的金额以上的情况下,虚拟形象物件6B在直播中靠近与已负担收费金额的用户5相关联的虚拟形象物件6,进行指定的表演。
〔实施方式6〕
在本实施方式中,处理器210A,通过使用实施方式1记载的标签物件2733A的方式,实施与对用户5A的收费和结算相关的处理。然而,并不限于此,处理器210A,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5A的收费和结算相关的处理。
图86是示意在头戴式装置系统100中实施的处理的一个示例的时序图。以下,说明了用于用户5A(第1用户)在虚拟空间11A中控制虚拟形象物件6A(第1虚拟形象)的外观并使虚拟形象物件6B(第2虚拟形象)实施以虚拟形象物件6A为对象的第2表演的一系列的处理。图86所示的时序图,示意了实施图26所示的步骤S2614后的处理。此外,虚拟形象物件6的外观的控制,也可以由用户5C进行,也可以由用户5D进行。
图87是示意根据某个实施方式的第2虚拟空间2711A和视界图像8717A的图。处理器210A,在直播中向用户5A通知向用户5A推介控制虚拟形象物件6A的外观的消息。作为一个示例,外观的控制,为使虚拟形象物件6A的外观比其他虚拟形象物件6更显著(强调)。处理器210A,例如,在标签物件2733A显示消息。消息,包括推介强调外观的文本以及用户5A强调虚拟形象物件6A的外观所必需的收费金额。
在标签物件2733A显示消息之后,处理器210A,根据用户5A的左手的运动,如图87(A)所示地,使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图87(B)所示地在监视器130A显示与图87(A)所示的第2虚拟空间2711A对应的视界图像8717A。用户5A,通过辨认视界图像8717A,从而确认标签物件2733A显示的消息。由此,用户5A,意识到如果新支付500日元的收费金额,那么,能够强调虚拟形象物件6A的外观。
用户5A,在确认标签物件2733A显示的消息之后,进行用于强调虚拟形象物件6A的外观的操作。在实施方式1中参照图34说明了该操作,因而在此不重复。处理器210A,根据选择将推介强调虚拟形象物件6A的外观的消息显示的标签物件2733A,检出用于强调虚拟形象物件6A的外观的用户5A的操作。
图88是示意根据某个实施方式的第2虚拟空间2711A和视界图像8817A的图。在步骤S8601,处理器210A,将与虚拟形象物件6A的强调对应的收费信息登记于标签物件2733A。在图88的示例中,处理器210A,在虚拟形象物件6A通过虚拟右手1531RA选择标签物件2733A的情况下,将表示强调虚拟形象物件6A所必需的收费金额(500日元)的收费信息新登记于标签物件2733A。此外,表示已登记的收费信息的收费金额的结算,以在实施方式1中说明的方法进行即可。
在将收费信息登记之后,处理器210A,在标签物件2733A上将收费信息再次视觉化。在实施方式1中参照图35说明了该处理的详细情况,因而,在此不重复。处理器210A,例如,如图88(B)所示地在监视器130A显示与图88(A)所示的第2虚拟空间2711A对应的视界图像8817A。用户5A,通过辨认视界图像8817A,从而意识到由于强调虚拟形象物件6A,导致当前的合计收费金额増加至2000日元。
图89是示意根据某个实施方式的第2虚拟空间2711A和视界图像8917A的图。在步骤S8602,处理器210A,使虚拟形象物件6A的外观比与用户5A以外的收看者方的用户5(第3用户)相关联的虚拟形象物件6(第3虚拟形象,以下称为“其他虚拟形象物件6”)更显著。作为一个示例,处理器210A,以比其他虚拟形象物件6更显著的方式,控制虚拟形象物件6A的外观的颜色。详细而言,处理器210A,如图89(A)所示地将纹理4137A贴付于虚拟形象物件6A,从而使虚拟形象物件6A的外观的颜色变化。纹理4137A为被第1颜色着色的纹理,该第1颜色对应于向用户5A收取一次强调虚拟形象物件6A所必需的收费金额(500日元)。处理器210A,例如,如图89(B)所示地在监视器130A显示与图89(A)所示的第2虚拟空间2711A对应的视界图像8917A。
每次向用户5A收取强调虚拟形象物件6A所必需的收费金额的次数増加时,处理器210A可以使虚拟形象物件6A更显著。作为一个示例,每次收取该收费金额的次数増加时,可以使虚拟形象物件6A的外观的颜色变化得更显著。例如,在收取两次该收费金额的情况下,可以将被第2颜色着色的纹理贴付于虚拟形象物件6A,该第2颜色比第1颜色更显著。另外,在收取三次该收费金额的情况下,可以将被第3颜色着色的纹理贴付于虚拟形象物件6A,该第3颜色比第2颜色更显著。第1颜色例如为棕色,第2颜色例如为银色,第3颜色例如为金色。
在步骤S8603,处理器210A,向计算机200B发送外观被控制的虚拟形象物件6A的虚拟形象信息(第1信息)。详细而言,处理器210A,向服务器600发送该虚拟形象信息。服务器600,通过同步处理向计算机200B发送已接收的虚拟形象信息。此外,虚拟形象信息包括表示用户5A的第1用户信息。第1用户信息,例如,也可为表示用户5A的ID,也可以为表示虚拟形象物件6A的ID。
图90是示意根据某个实施方式的第2虚拟空间2711B和视界图像9017B的图。在步骤S8611,处理器210B,实时地接收从处理器210A发送的虚拟形象信息。在步骤S8612,处理器210B,基于已接收的虚拟形象信息,使虚拟形象物件6A的外观比其他虚拟形象物件6更显著。详细而言,处理器210B,基于已接收的虚拟形象信息,如图90(A)所示地将纹理4137A贴付于虚拟形象物件6A,从而使虚拟形象物件6A的外观的颜色变化。处理器210B,例如,如图90(B)所示地在监视器130A显示与图90(A)所示的第2虚拟空间2711B对应的视界图像9017B。用户5B(第2用户),通过辨认视界图像9017B,从而意识到虚拟形象物件6A的外观变得比其他虚拟形象物件6更显著。即,用户5B,意识到对用户5A收取了用于使虚拟形象物件6A显著的收费金额。
在步骤S8613,处理器210B,向用户5B通知推荐的第2表演。详细而言,处理器210B,向用户5B优先通知多个第2表演之中的至少1个第2表演。作为一个示例,处理器210B,选择与对用户5A的收费相关的第2表演并向用户5B通知,该用户5A与外观被控制的虚拟形象物件6A相关联。
图91是示意处理器210B为了向用户5B通知至少1个第2表演而参照的数据的一个示例的图。该数据,例如,存储于存储部230B中。在“第2表演”的栏中,存储了表示“伸出手指的姿势”、“挥动手”等的各第2表演的内容的信息(以下,称为“第2信息”)。在“第1用户信息”的栏中,存储了与各第2信息相关联的第1用户信息。在图91中,作为第1用户信息的一个示例,在本说明书中,使用对“用户”赋予的符号5A、5C、5D。
在图86所示的处理以前,由处理器210B将第1用户信息与第2信息相关联。作为一个示例,处理器210B,在虚拟形象物件6B实施第2表演之后,在从该第2表演的实施起的指定时间,等待接收虚拟形象信息。在指定时间以内接收虚拟形象信息的情况下,处理器210B,将该虚拟形象信息包括的第1用户信息与表示刚才实施的第2表演的第2信息相关联。即,处理器210B,在从实施第2表演起的指定时间以内,在收看者方的用户5为了使与自身相关联的虚拟形象物件6显著而登记收费信息的情况下,将刚才实施的第2表演设定为与该用户5的收费相关的第2表演。
处理器210B,向用户5B通知与已接收的虚拟形象信息包括的第1用户信息相关联的第2信息。作为一个示例,在已接收包括表示用户5A的第1用户信息“5A”的虚拟形象信息的情况下,处理器210B,参照图91所示的数据,选择与被称为“5A”的第1用户信息对应的“伸出手指的姿势”,并向用户5B通知。即,处理器210B将作为过去使虚拟形象物件6B实施的结果而与对用户5A的收费实际相关的第2表演作为与收费相关的可能性高的第2表演,并向用户5B通知。处理器210B,如图90(B)所示地,在视界图像9017B包括通知图像9084并在监视器130B显示,该通知图像9084包括表示已选择的第2表演的内容的文本。处理器210B,也能够在第2虚拟空间2711B中配置具有与通知图像9084相同的外观的虚拟物件。用户5B,通过辨认通知图像9084,从而能够意识到与对用户5A的收费相关的可能性高的第2表演。
在步骤S8614,处理器210B,检出与第2表演对应的用户5B的运动。在步骤S8615,处理器210B,根据已检出的用户5B的运动,使虚拟形象物件6B实施第2表演。处理器210B,根据用户5B的运动,使虚拟形象物件6B实施伸出手指的姿势。在实施方式5中参照图83和84已经说明了伸出手指的姿势的详细情况以及用于使虚拟形象物件6B实施伸出手指的姿势的用户5B的运动的详细情况,因而在此不重复。
处理器210B,如果使虚拟形象物件6B实施第2表演,则在视界图像17B不显示通知图像9084。处理器210B,进行与作为该处理的一个示例而在实施方式5中说明的、在视界图像17B不显示通知图像8181和框图像8283的处理相同的处理即可。
在步骤S8616,处理器210B,向计算机200A发送与第2表演的实施对应的虚拟形象信息。详细而言,处理器210B,向服务器600发送该虚拟形象信息。服务器600,通过同步处理而向计算机200A发送已接收的虚拟形象信息。
图92是示意根据某个实施方式的第2虚拟空间2711A和视界图像9217A的图。在步骤S8604,处理器210A,实时地接收从处理器210B发送的虚拟形象信息。在步骤S8605,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施第2表演。由此,处理器210A,能够根据用户5B的运动,使虚拟形象物件6B实施第2表演。
处理器210A,使虚拟形象物件6A在第2虚拟空间2711A中收看虚拟形象物件6B的第2表演。处理器210A,例如,如图92(B)所示地在监视器130A显示与图92(A)所示的第2虚拟空间2711A对应的视界图像9217A。用户5A,通过辨认视界图像8517A,从而意识到虚拟形象物件6B实施自身已请求的第2表演。由此,用户5A,意识到通过负担收费金额而使与自身相关联的虚拟形象物件6A的外观比其他收看者方的虚拟形象物件6更显著,使得虚拟形象物件6B实施第2表演,并感到喜悦。即,能够进一步提高虚拟空间中的直播的兴趣性。另外,用户5A,有可能期望再度实施面向自身的第2表演,并为了使虚拟形象物件6A更显著而进一步支付收费金额。由此,用户5B能够得到更多的收入。
另外,考虑用户5B使虚拟形象物件6B实施通知的第2表演(推荐的第2表演)的情况。该第2表演,为与过去实施时用户5A支付收费金额相关的第2表演,换言之,用户5A喜好的第2表演。对于用户5A而言,感到通过支付收费金额而使与自身相关联的虚拟形象物件6A的外观比其他收看者方的虚拟形象物件6更显著,使得虚拟形象物件6B对自身实施自身喜好的第2表演。由此,用户5A感到更大的喜悦。另外,用户5A支付用于使虚拟形象物件6A更显著的收费金额的可能性也上升。
[变形例]
虚拟形象物件6A的外观的控制,只要是从虚拟形象物件6B看来虚拟形象物件6A变得显著的外观的控制,就不限于上述的使虚拟形象物件6A的颜色变化的示例。例如,处理器210A,可以使虚拟形象物件6A的大小和形状变化。另外,处理器210A,可以通过控制其他虚拟形象物件6的外观,从而使虚拟形象物件6A显著。例如,处理器210A,可以使其他虚拟形象物件6在一定时间内透明。
用于选择向用户5B通知的第2表演的条件,不限于上述的示例,即,“与收费相关的第2表演”。详细而言,处理器210B,可以以其他的条件进一步限定以该条件选择的第2表演。该其他的条件,例如可以为“用户5B擅长的第2表演”。即,处理器210B,在与对用户5A的收费相关的第2表演存在多个的情况下,可以选择用户5B擅长的第2表演并向用户5B通知。用户5B擅长的第2表演,由用户5B预先设定即可。
另外,该其他的条件,例如可以为“不降低其他用户5的评价的第2表演”。即,处理器210B,在与对用户5A的收费相关的第2表演存在多个的情况下,可以从选择项排除表示过去的直播中实施时的评价的评价值不超过阈值的第2表演。作为一个示例,基于收看者方的各用户进行的独立评价而算出评价值。该独立评价,例如为收看者方的用户5通过使用右手或左手进行指定的操作而输入的值,该值被向计算机200B发送。作为一个示例,处理器210B将已接收的值平均,从而算出评价值。由上可知,能够防止进行与收费相关的第2表演而导致虚拟形象物件6B的评价降低,在互联网上被批判。
收看者方的用户5,可以将对第2表演的评论与独立评价一起输入。处理器210A,可以在第2虚拟空间2711A中配置图中未显示布告栏物件,并且,在布告栏物件显示该评论。
另外,处理器210B,在选择向用户5B通知的第2表演时,可以参照收看者方的用户5的男女比、年龄的分布等。例如,假定与对用户5A的收费相关的多个第2表演中,存在表示过去的直播中实施时的评价的评价值不超过阈值的第2表演。假定该第2表演的评价值,在限于女性的直播中,不超过阈值,另一方面,在限于男性的直播中,为阈值以上。在此,假定本次直播的收看者方的用户5的男女比为男性占8成。这种情况下,假定该第2表演是非常受男性欢迎的第2表演,那么,处理器210B可以从选择项不排除该第2表演并向用户5B通知。
〔实施方式7〕
在本实施方式中,处理器210A,通过使用实施方式1记载的标签物件2733A的方式,实施与对用户5A的收费和结算相关的处理。然而,并不限于此,处理器210A,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5A的收费和结算相关的处理。
图93是示意在头戴式装置系统100中实施的处理的一个示例的时序图。以下,说明了用于基于用户5A(第1用户)的输入而实施直播的演出控制的一系列的处理。图93所示的时序图,示意了实施图26所示的步骤S2613后的处理。此外,在本实施方式中,作为使用户5A进行的演出控制,举例说明了照明控制。但是,该演出控制,不限于照明控制。例如,该演出控制,可以包括声响控制。在该示例的情况下,处理器210A,基于用户5A的输入,控制照明和声响的至少一方。另外,直播的演出控制,可以由用户5C进行,也可以由用户5D进行。
图94是示意根据某个实施方式的第2虚拟空间2711A和视界图像9417A的图。如图94(A)所示,在第2虚拟空间2711A中,配置有作为虚拟物件的一种的、照明物件9491。作为一个示例,处理器210A,可以将照明物件9491与舞台物件1532一起配置在第2虚拟空间2711A中。
在步骤S9301,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B(第2虚拟形象)实施第1表演。在步骤S9302,处理器210A实施第1照明演出。第1照明演出是用户5B在开始直播前预先设定的照明演出。从计算机200B经由服务器600向计算机200A发送用于实施第1照明演出的信息。计算机200A,例如,可以将该信息与用于将虚拟形象物件6B配置于第2虚拟空间2711A的虚拟形象信息一起预先接收,并在步骤S9302,基于该信息,实施第1照明演出。
详细而言,处理器210A,作为虚拟物件控制模块1427,如图94(A)所示,基于用于实施第1照明演出的信息,使光线物件9492从照明物件9491射出。处理器210A,可以基于该信息,使照明物件9491运动。由此,处理器210A,能够使光线物件9492运动。此外,照明物件9491,例如,可以在配置舞台物件1532的同时,配置于第2虚拟空间2711A中。
处理器210A,在直播中向用户5A通知向用户5A推介照明控制的消息。处理器210A,例如,在标签物件2733A显示消息。消息,包括推介照明控制的文本以及用户5A进行直播的照明控制所必需的收费金额。
在标签物件2733A显示消息之后,处理器210A,根据用户5A的左手的运动,如图94(A)所示地,使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图94(B)所示地在监视器130A显示与图94(A)所示的第2虚拟空间2711A对应的视界图像9417A。用户5A,通过辨认视界图像9417A,从而确认在标签物件2733A显示消息。由此,用户5A,意识到如果新支付1000日元的收费金额,那么,自身就能够进行直播的照明控制。
用户5A,在确认标签物件2733A显示的消息之后,进行用于自身进行照明控制的操作。在实施方式1中参照图34说明了该操作,因而在此不重复。处理器210A,根据选择将推介照明控制的消息显示的标签物件2733A,检出用于进行照明控制的用户5A的操作。
图95是示意根据某个实施方式的第2虚拟空间2711A和视界图像9517A的图。在步骤S9303,处理器210A,将与照明控制对应的收费信息登记于标签物件2733A。在图95的示例中,处理器210A,在虚拟形象物件6A(第1虚拟形象)通过虚拟右手1531RA选择标签物件2733A的情况下,将表示照明控制所必需的收费金额(1000日元)的收费信息新登记于标签物件2733A。此外,已登记的收费信息表示的收费金额的结算,以实施方式1中说明的方法进行即可。
在登记收费信息之后,处理器210A,在标签物件2733A上将收费信息再次视觉化。在实施方式1中参照图35说明了该处理的详细情况,因而在此不重复。处理器210A,例如,如图95(B)所示地在监视器130A显示与图95(A)所示的第2虚拟空间2711A对应的视界图像9517A。用户5A,通过辨认视界图像9517A,从而意识到进行照明控制,使得当前的合计收费金额増加至2500日元。
图96是示意根据某个实施方式的第2虚拟空间2711A和视界图像9617A的图。在步骤S9304,处理器210A使虚拟形象物件6A向用于进行照明控制的第1位置移动。处理器210A,作为虚拟物件生成模块1421,生成照明控制物件9693,并配置于已向第1位置移动的虚拟形象物件6A的前方。为了使处理器210A实施用于控制照明演出的处理,照明控制物件9693由用户5C使用。作为一个示例,照明控制物件9693,包括接受虚拟形象物件6A的操作的按钮、调谐盘、滑块等的子物件。处理器210A,通过接受对子物件的操作,从而控制照明演出。例如,处理器210A,能够根据已接受的操作,使光线物件9492的颜色变化,使照明物件9491运动。此外,照明控制物件9693,可以在虚拟形象物件6A移动之前配置在基于第1位置而决定的指定的位置(图96(A)所示的位置)。例如,照明控制物件9693,可以在配置舞台物件1532的同时,配置于该指定的位置。
处理器210A,例如,如图96(B)所示地在监视器130A显示与图96(A)所示的第2虚拟空间2711A对应的视界图像9617A。用户5A,通过辨认视界图像9617A,从而意识到虚拟形象物件6A已向第1位置移动,并意识到照明控制物件9693。换言之,用户5A意识到自身能够进行照明控制。
图97是示意根据某个实施方式的第2虚拟空间2711A和视界图像9717A的图。用户5A,在移动至第1位置之后,进行用于控制照明的操作。用户5A,使自身的右手运动,使得虚拟右手1531RA的前端靠近照明控制物件9693。在步骤S9305,处理器210A,基于右控制器300RA的输出,检出用户5A的右手的运动。在步骤S9306,处理器210A,根据用户5A的右手的运动,使虚拟右手1531RA在第2虚拟空间2711A中运动,使得虚拟右手1531RA的前端靠近照明控制物件9693。
在步骤S9307,处理器210A,根据虚拟右手1531RA的运动,操作照明控制物件9693。详细而言,处理器210A,在虚拟右手1531RA的前端和照明控制物件9693包括的子物件成为第1位置关系的情况下,检出虚拟右手1531RA的前端和子物件冲突。第1位置关系,例如为虚拟右手1531RA的前端和子物件的距离小于第1距离。或者,在虚拟右手1531RA的前端规定的冲突区域和在子物件设定的冲突区域至少部分地冲突。处理器210A,基于虚拟右手1531RA的前端和子物件冲突,检出由虚拟右手1531RA操作子物件。
在步骤S9308,处理器210A,根据对照明控制物件9693的操作,即对子物件的操作,实施第2照明演出。第2照明演出是通过用户5A的控制而进行的、与第1照明演出不同的照明演出。例如,处理器210A,根据对子物件的操作,如图97(A)所示,将被第1颜色着色的光线物件9492变更为被第2颜色着色的光线物件9792。处理器210A,例如,如图97(B)所示地在监视器130A显示与图97(A)所示的第2虚拟空间2711A对应的视界图像9717A。用户5A,通过辨认视界图像9717A,从而确认在第2虚拟空间2711A中实施与自身的操作相应的第2照明演出。
处理器210A,向服务器600发送用于实施第2照明演出的信息。服务器600,向全部用户5的计算机200发送已接收的该信息。由此,各计算机200的处理器210能够实施第2照明演出。
图98是示意根据某个实施方式的第2虚拟空间2711C和视界图像9817C的图。处理器210C,如果接收用于实施第2照明演出的信息,则生成用户界面面板9894,并配置在第2虚拟空间2711C。处理器210C,例如,如图98(B)所示地监视器130C显示与图98(A)所示的第2虚拟空间2711C对应的视界图像9817C。用户5C(第3用户),通过辨认视界图像9817C,从而意识到用户界面面板9894配置在第2虚拟空间2711C。
用户界面面板9894是用户界面物件的一种,为了使处理器210C实施用于选择照明演出的处理,用户界面面板9894由用户5C使用。用户界面面板9894,包括配置于用户界面面板9894的前面的选择项9895和9896。选择项9895和选择项9896,包括说明该选择项被用户5C选择时所选择的照明演出的信息。选择项9895是用于选择第1照明演出即默认的照明演出的项目,选择项9896是用于选择第2照明演出即用户5A控制的照明演出的项目。即,用户5C,能够选择是否在第2照明演出下收看虚拟形象物件6B的第1表演。
在图98的示例中,选择选择项9895。因此,处理器210C,在第2虚拟空间2711C中,实施第1照明演出。处理器210C,如图98(B)所示地使选择的选择项9895和未选择的选择项9896的颜色不同。由此,用户5C,能够意识到选择了选择项9895。此外,由于第1照明演出是默认的照明演出,因而,在将用户界面面板9894配置于第2虚拟空间2711C时,可以自动地选择选择项9855。
用户5C,在希望在第2虚拟空间2711C中实施第2照明演出的情况下,进行用于变更照明演出的操作。作为一个示例,用户5C,使自身的右手运动,使得虚拟右手1531RC的前端靠近选择项9896。处理器210C,基于右控制器300RC的输出,检出用户5C的右手的运动。接着,处理器210C,根据用户5C的右手的运动,使虚拟右手1531RC在第2虚拟空间2711C中运动,使得虚拟右手1531RC的前端靠近选择项9896。
处理器210C,基于用户5C的右手的运动,使虚拟右手1531RC在第2虚拟空间2711C中运动,使得虚拟右手1531RC的前端靠近选择项9896。处理器210C,基于虚拟右手1531RC的前端和选择项9896冲突,检出虚拟右手1531RC选择了选择项9896。
图99是示意根据某个实施方式的第2虚拟空间2711C和视界图像9917C的图。处理器210C,根据已检出选择项9896的选择,在第2虚拟空间2711C中实施第2照明演出。处理器210C,例如,如图99(B)所示地在监视器130C显示与图99(A)所示的第2虚拟空间2711C对应的视界图像9917C。用户5C,通过辨认视界图像9917C,从而意识到已选择选择项9896,以及,在第2虚拟空间2711C中已开始第2照明演出。处理器210C,如果在第2虚拟空间2711C中实施第2照明演出,则经由服务器600向计算机200A通知该事件。
图100是示意根据某个实施方式的第2虚拟空间2711A和视界图像10017A的图。在步骤S9309,处理器210A,向用户5A通知在第2照明演出下收看虚拟形象物件6B的第1表演的用户5的人数。详细而言,处理器210A,将从其他计算机200接收的、大意为已实施第2照明演出的通知的数量作为上述人数而向用户5A通知。处理器210A,例如,在与图100(A)所示的第2虚拟空间2711A对应的视界图像10017A中包括通知图像10085,该通知图像10085包括表示上述人数的文本。接着,处理器210A,如图100(B)所示地,在监视器130A显示视界图像10017A。处理器210A,也能够在第2虚拟空间2711A中配置具有与通知图像10085相同的外观的虚拟物件。用户5A,通过辨认视界图像10017A,从而意识到在第2照明演出下收看虚拟形象物件6B的第1表演的人数。
图101是示意根据某个实施方式的第2虚拟空间2711A和视界图像10117A的图。在图101(A)中,第2虚拟空间2711A中的直播结束。伴随着直播的结束,虚拟形象物件6B、6C从第2虚拟空间2711A退出。虚拟形象物件6A、6D在直播结束后留在第2虚拟空间2711A中。
在步骤S9310,处理器210A,基于其他用户5的、对第2照明演出的评价,变更登记于标签物件2733A的收费信息中的收费金额。作为一个示例,该评价,可以为在第2照明演出下收看虚拟形象物件6B的第1表演的用户5的人数。例如,该人数越多,处理器210A越可以使登记于标签物件2733A的收费信息中的收费金额减少。
处理器210A,例如,如图101(B)所示地在监视器130A显示与图101(A)所示的第2虚拟空间2711A对应的视界图像10117A。用户5A,通过辨认视界图像10117A,从而意识到直播已结束。用户5A,还意识到对用户5A收取的合计收费金额从2500日元(参照图95(B))被变更为2300日元。换言之,用户5A意识到自身进行的照明控制的评价使得照明控制所必需的收费金额降低。
如上所述,处理器210A,根据收费信息的登记,使用户5A控制直播的演出。如此,头戴式装置系统100,能够使用户5A虚拟体验现实的直播中不可能的、观众进行的直播的演出。结果,能够进一步提高虚拟空间中的直播的兴趣性。另外,由于必须向直播的演出控制支付收费金额,因而,能够将进行演出控制的用户5的人数最佳化,能够防止用户5的演出妨碍虚拟形象物件6B的表演。
另外,在用户5A的演出控制得到高评价的情况下,用户5A能够得到作为虚拟空间中的直播的演出成员的名声。结果,也可以考虑用户5A作为演出成员被用户5B雇佣。
[变形例]
图102是示意根据某个实施方式的第2虚拟空间2711A和视界图像10217A的图。处理器210A,在检出用户5B(第2用户)的第1操作的情况下,使用户5A的演出控制成为可能。详细而言,处理器210A,在从计算机200B接收大意为允许演出控制的通知的情况下,在标签物件2733A显示向用户5A推介演出控制的消息。处理器210A,例如,如图102(B)所示地在监视器130A显示与图102(A)所示的第2虚拟空间2711A对应的视界图像10217A。这时,处理器210A,可以在视界图像10217A包括通知图像10286,该通知图像10286表示用户5A的演出控制成为可能。由此,用户5A,通过辨认视界图像10217A,从而能够意识到自身的演出控制成为可能。此外,第1操作,例如为用于如图102(B)所示地使虚拟形象物件6B采取向上抬起双手的姿势的用户5B的运动。处理器210A,也能够将具有与通知图像10286相同的外观的虚拟物件配置在第2虚拟空间2711A中。
演出控制所必需的收费金额,可以根据演出控制的内容而设定。例如,在控制声响和照明的情况下,可以设定比仅控制任一方的情况更高的收费金额。另外,演出控制所必需的收费金额,可以根据进行演出控制的时间而决定。在该示例的情况下,处理器210A,在演出控制结束后,将表示与演出控制所必需的时间相应的收费金额的收费信息新登记于标签物件2733A。
用户5A,可以通过对连接于计算机200A的输入装置进行操作而进行演出控制。在该示例的情况下,处理器210A,不仅在监视器130,还在连接于计算机200A的显示器430A显示视界图像17A。详细而言,用户5A,在收费信息被登记之后,从头部取下头戴式装置120。然后,调节头戴式装置120的朝向,使得在显示器430A显示适于演出控制的视界图像17A。适于演出控制的视界图像17A,例如为包括虚拟形象物件6B和光线物件9492的视界图像。然后,用户5A,操作连接于计算机200A的键盘和鼠标等的输入装置。处理器210A,实施与该操作相应的演出控制。
基于其他用户5的对第2照明演出的评价,变更登记于标签物件2733A的收费信息中的收费金额,结果,合计收费金额可以成为负值。例如,用户5A进行的演出控制得到非常高的评价,使得收费金额被大幅地减少,合计收费金额可以成为负值。这种情况下,用户5B或平台商(platformer)将上述合计收费金额的绝对值作为报酬而向用户5A支付。
用户5A的演出控制也可以不需要对用户5A收费。
〔实施方式8〕
在本实施方式中,处理器210A,通过使用实施方式1记载的标签物件2733A的方式,实施与对用户5A的收费和结算相关的处理。然而,并不限于此,处理器210A,也能够通过与实施方式1涉及的方式不同的任意的方式,实施与对用户5A的收费和结算相关的处理。
[会场选择]
图103是示意根据某个实施方式的第1虚拟空间2411A(第1区域)和视界图像10317A的图。处理器210A,生成用户界面面板10350和笔物件2453,并配置在第1虚拟空间2411A中。此外,在实施方式1中参照图24已经说明了笔物件2453,因而,在此不重复说明。
用户界面面板10350,与实施方式1中说明的用户界面面板2450(参照图24)同样地,被用户5A使用,以使处理器210A实施用于选择会场的处理。用户界面面板10350,包括配置于用户界面面板10350的前面的选择项10351、10352。选择项10351、10352,包括说明该选择项被用户5A(第1用户)选择时所选择的会场的名称的信息。另外,选择项10351、10352,包括该选择项被用户5A选择时的收费金额。作为一个示例,该收费金额为会场费用(第1收费金额)和表演费用(第2收费金额)。会场费用为与会场相应的收费金额,表演费用为与虚拟形象物件6的表演相应的收费金额。
选择项10351为用于选择第1会场的项目,选择第1会场时的会场费用为1000日元,表演费用为1000日元。选择项10352为用于选择与第1会场不同的第2会场的项目,选择第2会场时的会场费用为500日元,表演费用为800日元。即,第1会场和第2会场是不同的会场,因而,在选择项10351和选择项10352,会场费用不同。另外,在第1会场进行表演的虚拟形象物件6和在第2会场进行表演的虚拟形象物件6不同,再者,其表演内容也能够不同,因而,在选择项10351和选择项10352,表演费用也不同。
处理器210A,例如,如图103(B)所示地在监视器130A显示与图103(A)所示的第1虚拟空间2411A对应的视界图像10317A。用户5A,通过辨认视界图像10317A,从而意识到必须选择用户界面面板10350的选择项10351或选择项10352。
图104是示意根据某个实施方式的第1虚拟空间2411A和视界图像10417A的图。处理器210A,使用户5A选择第1会场。如图104(A)所示,处理器210A,在虚拟右手1531RA选择笔物件2453之后,基于用户5A的右手的运动,使虚拟右手1531RA和笔物件2453在第1虚拟空间2411A中运动,使得笔物件2453的前端靠近选择项10351。处理器210A,基于笔物件2453的前端和选择项10351已冲突,检出笔物件2453已选择选择项10351。然后,处理器210A,接受与已选择的选择项10351对应的第1会场的选择。
处理器210A,例如,如图104(B)所示地在监视器130A显示与图104(A)所示的第1虚拟空间2411A对应的视界图像10417A。用户5A,通过辨认视界图像10417A,从而意识到选择用户界面面板10350的选择项10351(即选择第1会场)。
图105是示意在根据某个实施方式的头戴式装置套件110中实施的处理的一部分的时序图。以下,说明用户5A选择第1会场后的与收费相关的处理。图105所示的时序图,示意了实施图26所示的步骤S2607后的处理。
图106是示意根据某个实施方式的第2虚拟空间2711A和视界图像10617A的图。在步骤S10501,处理器210A,将表示会场费用的收费信息登记于标签物件2733A(实施与第1收费相关的处理)。在步骤S10502,处理器210A,将表示表演费用的收费信息登记于标签物件2733A(与实施与第2收费相关的处理)。处理器210A,在标签物件2733A上将登记于标签物件2733A的收费信息视觉化。在图106(A)的示例中,处理器210A,在标签物件2733A显示会场费用和表演费用的合计(2000日元),作为合计收费金额。此外,可以同时实施步骤S10501和步骤S10502的处理,也可以在步骤S10501的处理之前实施步骤S10502的处理。
在收费信息被登记之后,用户5A,以使用手表确认时间的方式,使左手移动至自身的视界内。处理器210A,基于左控制器300LA的输出,检出用户5A的左手的运动。处理器210A,根据用户5A的左手的运动,如图106(A)所示地使虚拟左手1531LA移动至视界区域15A内。处理器210A,例如,如图106(B)所示地在监视器130A显示与图106(A)所示的第2虚拟空间2711A对应的视界图像10617A。用户5A,通过辨认视界图像10617A,从而分别确认标签物件2733A显示的上限收费金额和合计收费金额。在图106(B)的示例中,用户意识到上限收费金额为30000日元,并且,当前的合计收费金额为2000日元。换言之,用户5A知晓虚拟形象物件6A(第1虚拟形象)进入第2虚拟空间2711A而导致被收取会场费用(1000日元)和表演费用(1000日元)。
在步骤S10503,处理器210A,从服务器600实时地接收虚拟形象物件6B(第2虚拟形象)的虚拟形象信息。在步骤S10504,处理器210A,基于最初接收的虚拟形象物件6B的虚拟形象信息,在第2虚拟空间2711A中配置虚拟形象物件6B。详细而言,处理器210A,在舞台物件1532上配置虚拟形象物件6B。
如实施方式1中参照图31说明地,在直播开始后,用户5B(第2用户)使自身的身体运动。处理器210B,根据用户5B的运动,使虚拟形象物件6B在第2虚拟空间2711B中实施第1表演。处理器210B,向服务器600实时地发送虚拟形象物件6B实施第1表演时的包括虚拟形象物件6B的运动信息的虚拟形象信息。
在步骤S10505,处理器210A,从服务器600实时地接收虚拟形象物件6B的虚拟形象信息。在步骤S10506,处理器210A,基于已接收的虚拟形象信息包括的运动信息,使虚拟形象物件6B实施第1表演。
如上所述,处理器210A,根据用户5A的会场选择,在虚拟形象物件6A进入第2虚拟空间2711A时,将表示会场费用的收费信息和表示表演费用的收费信息登记于标签物件2733A。如此,头戴式装置系统100,能够对用户5A收取考虑了虚拟形象物件6B的表演和实施该表演的会场的、更恰当的收费金额。
[会场费用的设定]
图107是示意根据某个实施方式的第1虚拟空间2411A和视界图像10717A的图。处理器210A,生成用户界面面板10750和笔物件2453,并配置于第1虚拟空间2411A。图107所示的第1虚拟空间2411A是在与图103所示的第1虚拟空间2411A不同的时机(例如,另一天)生成的第1虚拟空间。即,图107是示意在与图103的示例不同的日子,用户5A为了收看直播而进行会场的选择的示例的图。
在图107所示的示例中,第1会场,与图103所示的第1会场不同。另一方面,在第1会场进行的表演和进行该表演的虚拟形象物件6,与图103的示例相同。此外,第2会场、在该第2会场进行的表演以及进行该表演的虚拟形象物件6,与图103的示例相同。因此,用户界面面板10750的选择项10751包括的会场费用(500日元)与选择项10351包括的会场费用(1000日元)不同。除了这点以外,用户界面面板10750与图103所示的用户界面面板10350相同。
图108是示意根据某个实施方式的第2虚拟空间2711A和视界图像10817A的图。图108是示意在图107所示的第1虚拟空间2411A中用户5A选择第1会场,进入第1会场即第2虚拟空间2711A后的状态的图。
图108(A)所示的第2虚拟空间2711A,比图106(A)所示的第2虚拟空间2711A更狭小。换言之,图108(A)所示的第2虚拟空间2711A的收容人数,比图106(A)所示的第2虚拟空间2711A更少。另外,配置于图108(A)所示的第2虚拟空间2711A中的舞台物件10832,比配置于图106(A)所示的第2虚拟空间2711A中的舞台物件1532更狭小。换言之,与图106(A)所示的第2虚拟空间2711A相比,图108(A)所示的第2虚拟空间2711A中的设备不充实。
因此,为了进入图108(A)所示的第2虚拟空间2711A而收取的会场费用(500日元),低于为了进入图106(A)所示的第2虚拟空间2711A而收取的会场费用(1000日元)。如此,在某个情形中,基于会场即第2虚拟空间2711A的属性而设定会场费用。作为第2虚拟空间2711A的属性的一个示例,可列举收容人数、设备的充实程度、音质等。
处理器210A,例如,如图108(B)所示地在监视器130A显示与图108(A)所示的第2虚拟空间2711A对应的视界图像10817A。用户5A,通过辨认视界图像10817A,从而意识到虚拟形象物件6A进入第2虚拟空间2711A而导致被收取1500日元。具体而言,用户5A,意识到收费500日元作为会场费用,收费1000日元作为表演费用。
图109是示意根据某个实施方式的第2虚拟空间2711A和视界图像10917A的图。图109是示意将虚拟形象物件6B配置在第2虚拟空间2711A后的状态的图。此外,假定在将虚拟形象物件6B配置于第2虚拟空间2711A后,即直播开始后,收看者方的虚拟形象物件6不能进入第2虚拟空间2711A。
处理器210A,可以基于配置在第2虚拟空间2711A中的、虚拟形象物件6A以外的收看者方的虚拟形象物件6(第3虚拟形象,以下,称为“其他虚拟形象物件6”)的数量,设定对用户5A收取的会场费用。在该示例的情况下,在第1虚拟空间2411A中选择会场的时候,不确定会场费用。因此,配置于第1虚拟空间2411A中的用户界面面板的选择项,可以为不包括会场费用的金额的选择项。换言之,该示例中的用户界面面板,可以为图24所示的用户界面面板2450。
处理器210A,如果将虚拟形象物件6B配置于第2虚拟空间2711A中,则算出其他虚拟形象物件6的数量。然后,处理器210A,根据已算出的数量,决定对虚拟形象物件6A收取的会场费用,将表示该会场费用的收费信息登记于标签物件2733A。此外,作为一个示例,处理器210A可以在该时机将表示表演费用的收费信息也登记于标签物件2733A。或者,处理器210A,在虚拟形象物件6A进入第2虚拟空间2711A时,也可以将表示表演费用的收费信息登记于标签物件2733A。
如图109(A)所示,在第2虚拟空间2711A,配置有3个其他虚拟形象物件6。处理器210A,在该示例中,将会场费用决定为1000日元,将表示该会场费用的收费信息和表示表演费用(1000日元)的收费信息登记于标签物件2733A。
处理器210A,例如,如图109(B)所示地在监视器130A显示与图109(A)所示的第2虚拟空间2711A对应的视界图像10917A。用户5A,通过辨认视界图像10917A,从而意识到虚拟形象物件6A进入第2虚拟空间2711A而导致收取2000日元作为会场费用和表演费用的合计金额。
图110是示意根据某个实施方式的第2虚拟空间2711A和视界图像11017A的图。图110是示意与图109相同的状态的图。在该示例中,假定在将虚拟形象物件6B配置在第2虚拟空间2711A后,即直播开始后,收看者方的虚拟形象物件6不能进入第2虚拟空间2711A。另外,假定该示例中的虚拟形象物件6B的表演与图109的示例相同。即,图110的示例中的表演费用,与图109的示例相同,为1000日元。
在图110的示例中,如图110(A)所示,配置于第2虚拟空间2711A的其他虚拟形象物件6的数量为5个,比图109的示例更多。处理器210A,在该示例中,将会场费用决定为比图109的示例更高的1500日元,将表示该会场费用的收费信息和表示表演费用(1000日元)的收费信息登记于标签物件2733A。处理器210A,例如,如图110(B)所示地在监视器130A显示与图110(A)所示的第2虚拟空间2711A对应的视界图像11017A。用户5A,通过辨认视界图像11017A,从而意识到虚拟形象物件6A进入第2虚拟空间2711A而导致被收取2500日元作为会场费用和表演费用的合计金额。
如此,处理器210A,在收看者方的虚拟形象物件6的数量多,即直播有人气的情况下,能够将会场费用设定得更高,使会场费用恰当。
处理器210A,可以基于代替其他虚拟形象物件6的数量的、与其他虚拟形象物件6相关联付的用户5(第3用户,以下称为“其他用户5”)的属性,设定会场费用。或者,处理器210A,可以基于其他虚拟形象物件6的数量和其他用户5的属性,设定会场费用。作为该属性的一个示例,可列举知名度、性别、职业、年收入等。这些信息,例如,在向收看虚拟空间中的直播的服务登记时输入即可。处理器210A,例如,在将与知名人相关联的虚拟形象物件6作为收看者方的虚拟形象物件6而配置在第2虚拟空间2711A中的情况下,可以将会场费用设定得更高。另外,例如,处理器210A,在用户5A为男性的情况下,如果与女性的用户5相关联的其他虚拟形象物件6的比例为指定的值以上,那么,可以将会场费用设定得更高。
另外,处理器210A,在使虚拟形象物件6A进入第2虚拟空间2711A的时候,可以基于已配置于第2虚拟空间2711A中的其他虚拟形象物件6,设定会场费用。详细而言,处理器210A,可以基于该其他虚拟形象物件6的数量以及与该其他虚拟形象物件6相关联的用户5的属性的至少一方,设定会场费用。在该示例的情况下,处理器210A,在虚拟形象物件6A进入第2虚拟空间2711A时,可以将表示会场费用的收费信息登记于标签物件2733A。
处理器210A,可以根据用户5A喜好的其他用户5的属性和配置于第2虚拟空间2711A中的其他用户5的属性的一致率,设定会场费用。用户5A喜好的其他用户5的属性,可以由用户5A预先输入,也可以由处理器210A基于过去用户5A收看的直播中的其他用户5的属性而决定。
[会场选择的变形例]
可以根据收看直播的时间,设定会场费用和表演费用。在该示例的情况下,处理器210A,在用户5A结束收看直播的时候,进行与会场费用和表演费用的结算相关的处理即可。
还可以根据在第2虚拟空间2711A中配置虚拟形象物件6A的位置,设定会场费用。作为一个示例,处理器210A,在将虚拟形象物件6A配置于更靠近虚拟形象物件6B的位置的情况下,可以将会场费用设定得更高。另外,处理器210A,可以根据第2虚拟空间2711A中的虚拟形象物件6A的位置和虚拟形象物件6A存在于该位置的时间,设定会场费用。即,处理器210A,可以在虚拟形象物件6A在位置移动的前后,变更每单位时间的收费金额。
处理器210A,在第1虚拟空间2411A中,即,在使用户5A选择会场时,可以使用户5A体验各会场的最佳席位处的试映。最佳席位,例如可以为最前列的席位。
[虚拟形象物件6的变位]
作为一个示例,处理器210A,根据用户5A的输入,在实施与收费相关的处理的情况下,使从由虚拟形象物件6A和其他虚拟形象物件6构成的虚拟形象群选择的多个虚拟形象物件6分别移动至第2虚拟空间2711A的不同的位置。在某个情形中,处理器210A,在第2虚拟空间2711A中,更换从虚拟形象群选择的多个虚拟形象物件6的位置。以下,将该更换称为“虚拟形象变位”。
图111是示意根据某个实施方式的第2虚拟空间2711A和视界图像11017A的图。处理器210A,在直播中向用户5A通知向用户5A推介虚拟形象变位的消息。处理器210A,例如,在标签物件2733A显示消息。消息,包括推介虚拟形象变位的文本以及用户5A进行虚拟形象变位所必需的收费金额。
在标签物件2733A显示消息之后,处理器210A,根据用户5A的左手的运动,如图111(A)所示地使虚拟左手1531LA在视界区域15A内移动。处理器210A,例如,如图111(B)所示地在监视器130A显示与图111(A)所示的第2虚拟空间2711A对应的视界图像11117A。用户5A,通过辨认视界图像11117A,从而确认标签物件2733A显示的消息。由此,用户5A,意识到如果新支付1000日元的收费金额,那么,能够进行虚拟形象变位。
用户5A,在确认标签物件2733A显示的消息之后,进行用于进行虚拟形象变位的操作。在实施方式1中参照图34说明了该操作,因而,在此不重复。处理器210A,根据选择将推介虚拟形象变位的消息显示的标签物件2733A,检出用于进行虚拟形象变位的用户5A的操作。如果检出该操作,则处理器210A将与虚拟形象变位对应的收费信息登记于标签物件2733A,实施虚拟形象变位。在图111的示例中,处理器210A,在虚拟形象物件6A通过虚拟右手1531RA选择标签物件2733A的情况下,将表示虚拟形象变位所必需的收费金额(1000日元)的收费信息新登记于标签物件2733A(实施与第3收费相关的处理)。此外,表示已登记的收费信息的收费金额的结算,以实施方式中已说明的方法进行即可。
图112是示意根据某个实施方式的第2虚拟空间2711A和视界图像11217A的图。作为一个示例,处理器210A,如图112(A)所示地将配置第2虚拟空间2711A中的6个虚拟形象物件6的位置随机地更换。通过实施虚拟形象变位,使得虚拟形象物件6A在图111的示例中向位于最前列的虚拟形象物件6的位置移动。另外,在图111的示例中,位于最靠近虚拟形象物件6A的位置的虚拟形象物件6是虚拟形象物件6C。另一方面,通过实施虚拟形象变位,使得位于最靠近虚拟形象物件6A的位置的虚拟形象物件6,如图112(A)所示地成为虚拟形象物件6D。
处理器210A,例如,如图112(B)所示地在监视器130A显示与图112(A)所示的第2虚拟空间2711A对应的视界图像11217A。用户5A,通过辨认视界图像11217A,从而意识到虚拟形象变位使得虚拟形象物件6A移动。
处理器210A,在实施虚拟形象变位的情况下,向服务器600发送虚拟形象信息,该虚拟形象信息包括表示实施虚拟形象变位后的各虚拟形象物件6的位置的信息。服务器600,通过同步处理,向各计算机200发送已接收的虚拟形象信息。由此,在向用户5B、5C、5D等的各用户5提供的虚拟空间11,也实施虚拟形象变位。
图113是示意根据某个实施方式的第2虚拟空间2711A和视界图像11317A的图。在收费信息被登记之后,处理器210A,在标签物件2733A上将收费信息再次视觉化。在实施方式1中参照图35已说明了该处理的详细情况,因而在此不重复。处理器210A,例如,如图113(B)所示地在监视器130A显示与图113(A)所示的第2虚拟空间2711A对应的视界图像11317A。用户5A,通过辨认视界图像11317A,从而意识到通过进行虚拟形象变位,使得当前的合计收费金额増加至2500日元。
如上所述,处理器210A,根据收费信息的登记,实施虚拟形象变位。由此,将位于最靠近虚拟形象物件6A的位置的其他虚拟形象物件6变更。结果,用户5,通过在直播中实施虚拟形象变位,从而能够实现多种的与其他用户5的通信。
[虚拟形象变位的变形例]
图114是示意根据某个实施方式的第2虚拟空间4411A和视界图像11417A的图。处理器210A,与第2虚拟空间2711A同样地,将虚拟形象物件6A~6D和舞台物件1532配置于第2虚拟空间4411A中。第2虚拟空间4411A,包括第1区域4451。第1区域4451,相当于第2虚拟空间4411A的一部分。处理器210A,将门物件4452配置在位于第1区域4451的外缘的一处位置。
在图114中,虚拟形象物件6A~6C和舞台物件1532配置于第1区域4451内。虚拟形象物件6D配置于第1区域4451外。第1区域4451被图中未显示的不透明的壁物件包围。在第1区域4451中,举办虚拟形象物件6B的直播。位于第1区域4451内的虚拟形象物件6,能够收看虚拟形象物件6B的表演。位于第1区域4451外的虚拟形象物件6,不能收看虚拟形象物件6B的表演。即,在图114的示例的情况下,虚拟形象物件6A、6C能够收看虚拟形象物件6B的表演。虚拟形象物件6D不能收看虚拟形象物件6B的表演。
处理器210A,例如,如图114(B)所示地在监视器130A显示与图114(A)所示的第2虚拟空间4411A对应的视界图像11417A。用户5A,通过辨认视界图像11417A,从而意识到虚拟形象物件6C位于第1区域4451内。
图115是示意根据某个实施方式的第2虚拟空间4411A和视界图像11517A的图。作为一个示例,处理器210A,根据用户5A的输入,在实施与收费相关的处理的情况下,实施虚拟形象变位,可以使配置于第1区域4451内的其他虚拟形象物件6移动至第1区域4451外,并且,使配置于第1区域4451外的其他虚拟形象物件6移动至第1区域4451内。处理器210A,例如,通过实施虚拟形象变位,从而将虚拟形象物件6C的位置和虚拟形象物件6D的位置更换。由此,如图115(A)所示,虚拟形象物件6C向第1区域4451外移动,虚拟形象物件6D向第1区域内移动。
处理器210A,例如,如图115(B)所示地在监视器130A显示与图115(A)所示的第2虚拟空间4411A对应的视界图像11517A。用户5A,通过辨认视界图像11517A,从而意识到虚拟形象变位使得虚拟形象物件6D移动至虚拟形象物件6C位于的位置。接着,用户5A,能够实现与新的其他用户5(用户5D)的通信。
此外,在本变形例的情况下,优选在直播开始前预先向用户5通知虚拟形象变位使得虚拟形象物件6从第1区域4451内向第1区域4451外移动的可能性。另外,处理器210A,可以在第1区域4451外配置屏幕物件4340(参照图43)。即,第1区域4451外,可以为在第1区域4451内进行的直播的公共转播(public viewing)会场。
另外,处理器210A,在检出用户5B的第1操作的情况下,可以使虚拟形象变位成为可能。详细而言,处理器210A,在从计算机200B已接收大意为允许虚拟形象变位的通知的情况下,在标签物件2733A显示向用户5A推介虚拟形象变位的消息。这时,处理器210A,可以在视界图像17A包括表示虚拟形象变位成为可能的通知图像。由此,用户5A,通过辨认视界图像17A,能够意识到虚拟形象变位成为可能。
另外,作为一个示例,处理器210A,根据用户5A的输入,在实施与收费相关的处理的情况下,可以使1个其他虚拟形象物件6向最靠近虚拟形象物件6A的位置移动。
用户5A的虚拟形象变位,可以不对用户5A收费。
处理器210A,根据用户5A的输入,可以实施用于从其他用户5实施的虚拟形象变位的对象排除虚拟形象物件6A的与收费相关的处理。
以上,说明了本公开的实施方式,本发明的技术的范围不应被本实施方式的说明限定地解释。本实施方式为一个示例,本领域的技术人员应当理解,在权利要求的范围记载的发明的范围内,能够进行各种实施方式的变更。本发明的技术范围,应当基于权利要求的范围记载的发明的范围及其均等的范围而决定。
〔附记事项1〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(210A)的计算机(200A)执行。程序使处理器实施定义用于向用户提供虚拟体验的、包括第1区域的虚拟空间(第2虚拟空间2711A)的步骤(S2601),使与第1用户相关联的第1虚拟形象(虚拟形象物件6A)进入第1区域的步骤(S2606),将与第1区域内的第1虚拟形象的行动相应的收费信息与第1虚拟形象相关联并登记的步骤(S2615),使第1虚拟形象从第1区域退出的步骤(S2616),以及在第1虚拟形象从第1区域退出的情况下根据已登记的收费信息而实施与结算相关的处理的步骤(S2618)。
(项目2)在(项目1)中,程序使处理器还实施在第1虚拟形象进入第1区域的情况下将第1物件(标签物件2733A)与第1虚拟形象相关联的步骤,在登记的步骤中,将收费信息登记于第1物件。
(项目3)在(项目1)或(项目2)中,程序使处理器还实施将已登记的收费信息在第1物件上视觉化的步骤。
(项目4)在(项目1)~(项目3)的任一个中,第1虚拟形象的一部分由操作物件(虚拟左手1531LA)构成,在将第1物件关联的步骤中,将第1物件与操作物件相关联け,程序使处理器还实施检出构成第1用户的身体的一部分的第1部位的运动的步骤,根据第1部位的运动使操作物件运动的步骤,根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15A)的步骤(S2608),定义与第1虚拟形象的视界对应的视界图像的步骤(S2609),以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出视界图像的步骤(S2609)。
(项目5)在(项目1)~(项目4)的任一个中,程序使处理器还实施使第1虚拟形象在第1区域中收看与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)的表演的步骤。
(项目6)在(项目1)~(项目5)的任一个中,第1区域为虚拟空间的全体。
(项目7)在(项目1)~(项目6)的任一个中,程序使处理器还实施根据已登记的收费信息表示的收费金额的合计而控制第1虚拟形象的外观的步骤。
(项目8)在(项目7)中,在控制外观的步骤中,收费金额的合计越多,使第1虚拟形象的外观越显著。
(项目9)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A),具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部,定义用于向用户提供虚拟体验的、包括第1区域的虚拟空间(第2虚拟空间2711A),使与第1用户相关联的第1虚拟形象(虚拟形象物件6A)进入第1区域,将与第1区域内的第1虚拟形象的行动相应的收费信息与第1虚拟形象相关联并登记,使第1虚拟形象从第1区域退出,在第1虚拟形象从第1区域退出的情况下,根据已登记的收费信息而实施与结算相关的处理。
(项目10)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(210A)的计算机(200A)执行。方法包括处理器定义用于向用户提供虚拟体验的、包括第1区域的虚拟空间(第2虚拟空间2711A)的步骤(S2601),使与第1用户相关联的第1虚拟形象(虚拟形象物件6A)进入第1区域的步骤(S2606),将与第1区域内的第1虚拟形象的行动相应的收费信息与第1虚拟形象相关联并登记的步骤(S2615),使第1虚拟形象从第1区域退出的步骤(S2616),以及在第1虚拟形象从第1区域退出的情况下根据已登记的收费信息而实施与结算相关的处理的步骤(S2618)。
〔附记事项2〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备第1处理器(处理器210A)的第1计算机(计算机200A)执行。程序使第1处理器实施定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),根据第2用户的运动而使第2虚拟形象实施第1表演的步骤(S2614),基于第1用户的输入而实施与收费相关的处理的步骤(S7801),在实施与收费相关的处理的情况下向第2用户请求第2虚拟形象实施第2表演的步骤(S7802),以及在请求实施第2表演之后根据第2用户的运动而使第2虚拟形象实施第2表演的步骤(S7804)。
(项目2)在(项目1)中,程序使第1处理器还实施根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15A)的步骤(S2608),定义与第1虚拟形象的视界对应的视界图像(视界图像17A)的步骤(S2609),以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出上述视界图像的步骤(S2609)。
(项目3)在(项目2)中,在实施与收费相关的处理的步骤中,基于在使第2虚拟形象实施第1表演的期间进行的第1用户的输入,实施与收费相关的处理。
(项目4)在(项目1)~(项目3)的任一个中,程序使第1处理器还实施在虚拟空间中配置与第3用户(用户5C,5D)相关联的第3虚拟形象(虚拟形象物件6C、6D)的步骤(S2605),以及接受第1用户输入作为该第2表演的代价的第1金额的步骤。在实施与收费相关的处理的步骤中,在第1金额高于作为该第2表演的代价而由第3用户输入的第2金额的情况下,实施基于第1金额的与上述收费相关的处理。
(项目5)说明了程序。依照本公开的某个情形,为了向第2用户(用户5B)提供虚拟体验,程序由具备第2处理器(处理器210B)的第2计算机(计算机200B)执行。程序使第2处理器实施定义用于向第2用户提供虚拟体验的虚拟空间(第2虚拟空间2711B)的步骤(S2601),将与第1用户(用户5A)相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),检出第2用户的身体的运动的步骤(S1701、S1702),根据第2用户的运动而使第2虚拟形象实施第1表演的步骤(S1703),在根据基于第1用户的输入而实施的与收费相关的处理,向第2用户请求第2虚拟形象实施第2表演的情况下,向第2用户通知与第2表演相关的信息(通知图像8181)的步骤(S7812),以及在向第2用户通知与第2表演相关的信息之后,根据第2用户的运动,使第2虚拟形象实施第2表演的步骤(S7814)。
(项目6)在(项目5)中,第2表演是以与进行输入的第1用户相关联的第1虚拟形象为对象的表演。在通知的步骤中,向第2用户还通知表示该第1虚拟形象在虚拟空间中的第1位置(8176)的信息(箭头图像8182、框图像8283)。
(项目7)在(项目6)中,程序使第2处理器还实施根据第2用户的头部的姿势和虚拟空间中的第2虚拟形象的位置而控制虚拟空间中的第2虚拟形象的视界(视界区域15B)的步骤(S2608),定义与第2虚拟形象的视界对应的视界图像(视界图像17B)的步骤(S2609),以及向与第2用户的头部相关联的图像显示装置(监视器130B)输出视界图像的步骤(S2609)。在通知的步骤中,在视界图像上通知表示第1位置的信息。
(项目8)在(项目7)中,在第1虚拟形象不被视界图像包括的情况下,表示第1位置的信息是表示与从虚拟空间中的视界内的第2位置(8177)朝向第1位置的第1方向(8178)对应的、视界图像中的第2方向的图像(箭头图像)。
(项目9)在(项目5)~(项目8)中,与第2表演相关的信息包括第2表演的内容。
(项目10)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A),具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部,定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中,根据第2用户的运动而使第2虚拟形象实施第1表演,基于第1用户的输入而实施与收费相关的处理,在实施与收费相关的处理的情况下,向第2用户请求第2虚拟形象实施第2表演,在请求实施第2表演之后,根据第2用户的运动,使第2虚拟形象实施第2表演。
(项目11)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200B),具备存储为了向第2用户(用户5B)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230B)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210B)。控制部,定义用于向第2用户提供虚拟体验的虚拟空间(第2虚拟空间2711B),将与第1用户(用户5A)相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中,检出第2用户的身体的运动,根据第2用户的运动,使第2虚拟形象实施第1表演,在根据基于第1用户的输入而实施的与收费相关的处理,向第2用户请求第2虚拟形象实施第2表演的情况下,向第2用户通知与第2表演相关的信息(通知图像8181),在向第2用户通知与第2表演相关的信息之后,根据第2用户的运动,使第2虚拟形象实施第2表演。
(项目12)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备第1处理器(处理器210A)的第1计算机(计算机200A)执行。方法,包括第1处理器定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),根据第2用户的运动使第2虚拟形象实施第1表演的步骤(S2614),基于第1用户的输入而实施与收费相关的处理的步骤(S7801),在实施与收费相关的处理的情况下向第2用户请求第2虚拟形象实施第2表演的步骤(S7802),以及在请求实施第2表演之后根据第2用户的运动而使第2虚拟形象实施第2表演的步骤(S7804)。
(项目13)说明了执行程序的方法。依照本公开的某个情形,为了向第2用户(用户5B)提供虚拟体验,程序由具备第2处理器(处理器210B)的第2计算机(计算机200B)执行。方法,包括第2处理器定义用于向第2用户提供虚拟体验的虚拟空间(第2虚拟空间2711B)的步骤(S2601),将与第1用户(用户5A)相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),检出第2用户的身体的运动的步骤(S1701、S1702),根据第2用户的运动使第2虚拟形象实施第1表演的步骤(S1703),在根据基于第1用户的输入而实施的收费相关的处理,向第2用户请求第2虚拟形象实施第2表演的情况下,向第2用户通知与第2表演相关的信息(通知图像8181)的步骤(S7812),以及在向第2用户通知与第2表演相关的信息之后,根据第2用户的运动,使第2虚拟形象实施第2表演的步骤(S7814)。
〔附记事项3〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(处理器210A)的计算机(计算机200A)执行。程序使处理器实施定义用于向第1用户提供虚拟体验的、包括第1区域的虚拟空间(第2虚拟空间2711A、4411A)的步骤(S2601),使与第1用户相关联的第1虚拟形象(虚拟形象物件6A)进入第1区域的步骤(S2606),将与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于第1区域中的步骤(S2612),根据第2用户的运动而使第2虚拟形象实施表演的步骤(S10506),实施对于与第1区域相应的第1收费金额的、与第1收费相关的处理的步骤(S10501),以及实施对于与表演相应的第2收费金额的、与第2收费相关的处理的步骤(S10502)。
(项目2)在(项目1)中,程序使处理器还实施使第1用户选择包括第1区域的虚拟空间的步骤。
(项目3)在(项目1)或(项目2)中,程序使处理器还实施根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15A)的步骤(S2608),定义与第1虚拟形象的视界对应的视界图像(视界图像17A)的步骤(S2609),以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出上述视界图像的步骤(S2609)。
(项目4)在(项目1)~(项目3)的任一个中,基于第1区域的属性而设定第1收费金额。
(项目5)在(项目1)~(项目4)的任一个中,程序使处理器还实施将与多个第3用户(用户5C、5D)分别相关联的第3虚拟形象(虚拟形象物件6C、6D)配置在虚拟空间中的步骤(S2605)。
(项目6)在(项目5)中,程序使处理器还实施基于配置在第1区域中的第3虚拟形象的数量以及与该第3虚拟形象相关联的第3用户的属性的至少一方而设定第1收费金额的步骤。
(项目7)在(项目5)中,程序使处理器还实施使从由第1虚拟形象和多个第3虚拟形象构成的虚拟形象群选择的多个虚拟形象分别移动至虚拟空间的不同的位置的步骤。
(项目8)在(项目7)中,程序使处理器还实施根据第1用户的输入而实施与第3收费相关的处理的步骤。在移动的步骤中,在实施与第3收费相关的处理的情况下,使已选择的多个虚拟形象分别移动至虚拟空间的不同的位置。
(项目9)在(项目7)或(项目8)中,在将多个第3虚拟形象配置于虚拟空间中的步骤中,将多个第3虚拟形象配置于第1区域内,在移动的步骤中,使已选择的多个虚拟形象分别移动至第1区域内的不同的位置。
(项目10)在(项目7)或(项目8)中,已选择的多个虚拟形象,包括配置于第1区域(4451)内的第3虚拟形象和配置于第1区域外的第3虚拟形象。在移动的步骤中,使配置于第1区域内的第3虚拟形象向第1区域外移动,并且,使配置于第1区域外的第3虚拟形象向第1区域内移动。
(项目11)在(项目7)~(项目10)的任一个中,在移动的步骤中,将已选择的多个虚拟形象的位置更换。
(项目12)在(项目7)~(项目11)的任一个中,程序使处理器还实施检出第2用户的第1操作的步骤。在移动的步骤中,在检出第1操作的情况下,能够使已选择的多个虚拟形象分别移动至虚拟空间的不同的位置。
(项目13)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A)具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部,定义用于向第1用户提供虚拟体验的、包括第1区域的虚拟空间(第2虚拟空间2711A、4411A),使与第1用户相关联的第1虚拟形象(虚拟形象物件6A)进入第1区域,将与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于第1区域中,根据第2用户的运动而使第2虚拟形象实施表演,实施对于与第1区域相应的第1收费金额的、与第1收费相关的处理,实施对于与表演相应的第2收费金额的、与第2收费相关的处理。
(项目14)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(处理器210A)的计算机(计算机200A)执行。方法,包括处理器定义用于向第1用户提供虚拟体验的、包括第1区域的虚拟空间(第2虚拟空间2711A、4411A)的步骤(S2601),使与第1用户相关联的第1虚拟形象(虚拟形象物件6A)进入第1区域的步骤(S2606),将与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于第1区域中的步骤(S2612),根据第2用户的运动而使第2虚拟形象实施表演的步骤(S10506),实施对于与第1区域相应的第1收费金额的、与第1收费相关的处理的步骤(S10501),以及实施对于与表演相应的第2收费金额的、与第2收费相关的处理的步骤(S10502)。
〔附记事项4〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5B)提供虚拟体验,程序由具备处理器(210B)的计算机(200B)执行。程序使处理器实施从多个虚拟形象之中选择第1虚拟形象(虚拟形象物件7106B)的步骤(S6709),定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711B)的步骤(S7002),将第1虚拟形象与第1用户相关联并配置于虚拟空间中的步骤(S7006),根据第1用户的运动而使第1虚拟形象实施表演的步骤(S7011),根据虚拟空间中的表演而决定第1虚拟形象的制作者的报酬的步骤(S7016),以及实施用于向制作者支付报酬的处理的步骤(S7017)。
(项目2)在(项目1)中,在决定报酬的步骤中,决定与在虚拟空间中使用第1虚拟形象的时间相应的报酬。
(项目3)在(项目1)或(项目2)中,在决定报酬的步骤中,决定与虚拟空间的内容相应的报酬。
(项目4)在(项目1)~(项目3)的任一个中,虚拟空间是与第2用户(用户5A)相关联的第2虚拟形象(虚拟形象物件6A)收看由第1虚拟形象进行的表演的事件进行的空间,在实施与收费相关的处理的步骤中,决定与事件的营业额相应的报酬。
(项目5)在(项目1)~(项目4)的任一个中,程序使处理器还实施生成虚拟空间中的第1虚拟形象的使用履历的步骤以及向第1虚拟形象的制作者通知使用履历的步骤。
(项目6)在(项目1)~(项目5)的任一个中,程序使处理器还实施根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15B)的步骤,定义与第1虚拟形象的视界对应的视界图像的步骤,以及向与第1用户的头部相关联的图像显示装置(监视器130B)输出视界图像的步骤。
(项目7)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200B)具备存储为了向第1用户(用户5B)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230B)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210B)。控制部,从多个虚拟形象之中选择第1虚拟形象(虚拟形象物件7106B),定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711B),将第1虚拟形象与第1用户相关联并配置于虚拟空间中,根据第1用户的运动而使第1虚拟形象实施表演,根据虚拟空间中的表演而决定第1虚拟形象的制作者的报酬,实施用于向制作者支付报酬的处理。
(项目8)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5B)提供虚拟体验,程序由具备处理器(210B)的计算机(200B)执行。方法包括处理器从多个虚拟形象之中选择第1虚拟形象(虚拟形象物件7106B)的步骤(S6709),定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711B)的步骤(S7002),将第1虚拟形象与第1用户相关联并配置于虚拟空间中的步骤(S7006),根据第1用户的运动而使第1虚拟形象实施表演的步骤(S7011),根据虚拟空间中的表演而决定第1虚拟形象的制作者的报酬的步骤(S7016),以及实施用于向制作者支付报酬的处理的步骤(S7017)。
〔附记事项5〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(210A)的计算机(200A)执行。程序使处理器实施定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象配置于虚拟空间中的步骤(S2606),使第1虚拟形象在虚拟空间内移动的步骤(S4506),以及实施与第1虚拟形象的移动距离(4662)和移动次数中的至少任一个相应的收费相关的处理的步骤(S4507)。
(项目2)在(项目1)中,程序使处理器还实施使第1虚拟形象在虚拟空间中收看与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)的表演的步骤。
(项目3)在(项目2)中,程序使处理器还实施将第2虚拟形象配置于虚拟空间中的步骤以及使第2虚拟形象在虚拟空间内移动的步骤。
(项目4)在(项目2)或(项目3)中,程序使处理器还实施检出第2用户的第2操作的步骤,在使第1虚拟形象移动的步骤中,在检出第2操作的情况下,能够使第2虚拟形象移动。
(项目5)在(项目1)~(项目4)的任一个中,在使第1虚拟形象移动的步骤中,使第1虚拟形象独自地移动。
(项目6)在(项目1)~(项目5)的任一个中,在实施与收费相关的处理的步骤中,实施与表示移动距离越长则越高的收费金额的收费相关的处理。
(项目7)在(项目1)~(项目6)的任一个中,每一定距离的收费单价根据虚拟空间的尺寸而不同,在实施与收费相关的处理的步骤中,实施与对应于收费金额的收费相关的处理,其中,通过将移动距离乘以收费单价而算出该收费金额。
(项目8)在(项目7)中,虚拟空间的尺寸越大,则收费单价越低。
(项目9)在(项目1)~(项目8)的任一个中,程序使处理器还实施根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15A)的步骤(S2608),定义与第1虚拟形象的视界对应的视界图像的步骤(S2609),以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出视界图像的步骤(S2609)。
(项目10)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A)具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部,定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A),将与第1用户相关联的第1虚拟形象配置于虚拟空间中,使第1虚拟形象在虚拟空间内移动,实施与第1虚拟形象的移动距离和移动次数中的至少任一个相应的收费相关的处理。
(项目11)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(210A)的计算机(200A)执行。方法包括处理器定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象配置于虚拟空间中的步骤(S2606),使第1虚拟形象在虚拟空间内移动的步骤(S4506),以及实施与第1虚拟形象的移动距离和移动次数中的至少任一个相应的收费相关的处理的步骤(S4507)。
〔附记事项6〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(210A)的计算机(200A)执行。程序使处理器实施定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5C)相关联的第2虚拟形象(虚拟形象物件6C)配置于虚拟空间中的步骤(S2605、S2606),以及使第1虚拟形象共享第2虚拟形象的视点的步骤(S5807)。
(项目2)在(项目1)中,程序使处理器还实施使第1虚拟形象和第2虚拟形象在虚拟空间中收看与第3用户(用户5B)相关联的第3虚拟形象(虚拟形象物件6B)的第1表演的步骤。
(项目3)在(项目2)中,程序使处理器还实施将第3虚拟形象配置于虚拟空间中的步骤以及根据第3用户的运动而使第3虚拟形象实施第1表演的步骤。
(项目4)在(项目3)中,程序使处理器还实施根据第1用户的输入而实施与第1收费相关的处理的步骤(S5803),在使视点共享的步骤中,在实施与第1收费相关的处理的情况下,使视点共享。
(项目5)在(项目4)中,在虚拟空间中,第2虚拟形象,根据已实施与第2收费相关的处理,收看第3虚拟形象对第2虚拟形象的第2表演,在使视点共享的步骤中,使第1虚拟形象共享收看对第2虚拟形象进行的第2表演的第2虚拟形象的视点,程序使处理器还实施在视点的共享结束后根据第1用户的输入而实施与第3收费相关的处理的步骤(S5811),以及在已实施与第3收费相关的处理的情况下根据第3用户的运动而使第3虚拟形象实施对于第1虚拟形象进行的第2表演的步骤(S5814)。
(项目6)在(项目2)~(项目5)的任一个中,程序使处理器还实施检出第3用户的第1操作的步骤,在使视点共享的步骤中,在已检出第1操作的情况下,能够使视点共享。
(项目7)在(项目1)~(项目6)的任一个中,程序使处理器还实施将虚拟摄像机(虚拟摄像机14A)配置于虚拟空间中的第1虚拟形象的位置的步骤,在使视点共享的步骤中,使虚拟摄像机从第1虚拟形象的位置移动至第2虚拟形象的位置,程序使处理器还实施在虚拟摄像机移动至第2虚拟形象的位置之后控制虚拟摄像机的视界(视界区域15A)的步骤,定义与虚拟摄像机的视界对应的第1视界图像(视界图像6317A)的步骤,以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出第1视界图像的步骤。
(项目8)在(项目1)~(项目6)的任一个中,程序使处理器还实施接收与第2虚拟形象的视界(视界区域15C)对应的第2视界图像(视界图像6017C)的步骤,以及向与第1用户的头部相关联的图像显示装置输出第2视界图像的步骤。
(项目9)在(项目1)~(项目8)的任一个中,程序使处理器还实施检出虚拟空间中的第1事态的发生的步骤,在使视点共享的步骤中,在已检出第1事态的发生的情况下,能够使视点共享。
(项目10)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A)具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5C)相关联的第2虚拟形象(虚拟形象物件6C)配置于虚拟空间中,使第1虚拟形象共享第2虚拟形象的视点。
(项目11)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(210A)的计算机(200A)执行。方法包括处理器定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5C)相关联的第2虚拟形象(虚拟形象物件6C)配置于虚拟空间中的步骤(S2605,S2606),以及使第1虚拟形象共享第2虚拟形象的视点的步骤(S5807)。
〔附记事项7〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(处理器210A)的计算机(计算机200A)执行。程序使处理器实施定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),根据第2用户的运动而使第2虚拟形象实施表演的步骤(S9301),实施与表演相关的演出的步骤(S9302),以及基于第1用户的输入而控制演出的步骤(S9308)。
(项目2)在(项目1)中,程序使处理器还实施根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15A)的步骤(S2608),定义与第1虚拟形象的视界对应的视界图像(视界图像17A)的步骤(S2609),以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出上述视界图像的步骤(S2609)。
(项目3)在(项目1)或(项目2)中,程序使处理器还实施基于第1用户的输入而实施与收费相关的处理的步骤(S9303)。在已实施与收费相关的处理的情况下,在控制演出的步骤中,控制演出。
(项目4)在(项目3)中,程序使处理器还实施将与第3用户(用户5C、5D)相关联的第3虚拟形象(虚拟形象物件6C、6D)配置于虚拟空间中的步骤(S2605),以及基于第3用户对于基于第1用户的输入而控制的演出的评价而决定对于第1用户的收费金额的步骤(S9310)。
(项目5)在(项目4)中,在决定收费金额的步骤中,评价越高,越使收费金额减少。
(项目6)在(项目4)或(项目5)中,第3用户能够选择是否在基于第1用户的输入而控制的演出下收看表演。程序使处理器还实施向第1用户通知在基于第1用户的输入而控制的演出下收看表演的第3用户的人数的步骤(S9309)。
(项目7)在(项目1)~(项目6)的任一个中,程序使处理器还实施检出第2用户的第1操作的步骤。在已检出第1操作的情况下,在控制演出的步骤中,能够控制演出。
(项目8)在(项目1)~(项目7)的任一个中,在控制演出的步骤中,控制与表演相关的声响和照明的至少一方。
(项目9)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A)具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中,根据第2用户的运动而使第2虚拟形象实施表演,实施与表演相关的演出,基于第1用户的输入而控制演出。
(项目10)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备处理器(处理器210A)的计算机(计算机200A)执行。方法包括处理器定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606,S2612),根据第2用户的运动而使第2虚拟形象实施表演的步骤(S9301),实施与表演相关的演出的步骤(S9302),以及基于第1用户的输入而控制演出的步骤(S9308)。
〔附记事项8〕
如果列出本发明的一方面涉及的内容,则如下所述。
(项目1)说明了程序。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备第1处理器(处理器210A)的第1计算机(计算机200A)执行。程序使第1处理器实施定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),根据第2用户的运动而使第2虚拟形象实施第1表演的步骤(S2614),基于第1用户的输入而实施与收费相关的处理的步骤(S8601),在已实施与收费相关的处理的情况下以上述第1虚拟形象比上述第2虚拟形象更显著的方式控制第1虚拟形象的外观的步骤(S8602)。
(项目2)在(项目1)中,程序使第1处理器还实施根据第1用户的头部的姿势和虚拟空间中的第1虚拟形象的位置而控制虚拟空间中的第1虚拟形象的视界(视界区域15A)的步骤(S2608),定义与第1虚拟形象的视界对应的视界图像(视界图像17A)的步骤(S2609),以及向与第1用户的头部相关联的图像显示装置(监视器130A)输出上述视界图像的步骤(S2609)。
(项目3)在(项目1)或(项目2)中,程序使第1处理器还实施将与第3用户(用户5C,5D)相关联的第3虚拟形象(虚拟形象物件6C、6D)配置于虚拟空间中的步骤(S2605)。在控制外观的步骤中,在已实施与收费相关的处理的情况下,使第1虚拟形象的外观比第3虚拟形象更显著。
(项目4)说明了程序。依照本公开的某个情形,为了向第2用户(用户5B)提供虚拟体验,程序由具备第2处理器(处理器210B)的第2计算机(计算机200B)执行。程序使第2处理器实施定义用于向第2用户提供虚拟体验的虚拟空间(第2虚拟空间2711B)的步骤(S2601),将与第1用户(用户5A)相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),检出第2用户的身体的运动的步骤(S1701、S1702),根据第2用户的运动而使第2虚拟形象实施第1表演的步骤(S1703),取得根据基于第1用户的输入而实施的与收费相关的处理而生成的、与第1虚拟形象的外观相关的第1信息的步骤(S8611),以及基于第1信息以上述第1虚拟形象比上述第2虚拟形象更显著的方式控制第1虚拟形象的外观的步骤(S8612)。
(项目5)在(项目4)中,程序使第2处理器还实施根据第2用户的头部的姿势和虚拟空间中的第2虚拟形象的位置而控制虚拟空间中的第2虚拟形象的视界(视界区域15B)的步骤(S2608),定义与第2虚拟形象的视界对应的视界图像(视界图像17B)的步骤(S2609),向与第2用户的头部相关联的图像显示装置(监视器130B)输出视界图像的步骤(S2609)。
(项目6)在(项目4)或(项目5)中,程序使第2处理器还实施将与第3用户(用户5C、5D)相关联的第3虚拟形象(虚拟形象物件6C、6D)配置于虚拟空间中的步骤(S2605)。在控制外观的步骤中,基于第1信息,使第1虚拟形象的外观比第3虚拟形象更显著。
(项目7)在(项目6)中,程序使第2处理器还实施在控制第1虚拟形象的外观后根据第2用户的运动而使第2虚拟形象实施以该第1虚拟形象为对象的第2表演的步骤(S8615)。
(项目8)在(项目7)中,程序使第2处理器还实施在使第2虚拟形象实施第2表演前向第2用户通知分别表示多个第2表演的多个第2信息中的至少1个的步骤(S8613)。
(项目9)在(项目8)中,第1信息包括表示第1用户的第1用户信息。程序使第2处理器还实施在取得第1信息的情况下,将第1信息包括的第1用户信息与表示该第2表演的内容的第2信息相关联,作为使第2虚拟形象实施第2表演的结果的步骤。在通知的步骤中,向第2用户优先通知与第1用户信息相关联的第2信息。
(项目10)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200A)具备存储为了向第1用户(用户5A)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230A)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210A)。控制部定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中,根据第2用户的运动而使第2虚拟形象实施第1表演,基于第1用户的输入而实施与收费相关的处理,在已实施与收费相关的处理的情况下,以上述第1虚拟形象比上述第2虚拟形象更显著的方式控制第1虚拟形象的外观。
(项目11)说明了信息处理装置。依照本公开的某个情形,信息处理装置(计算机200B)具备存储为了向第2用户(用户5B)提供虚拟体验而由信息处理装置执行的程序的存储部(存储部230B)以及通过执行程序而控制信息处理装置的工作的控制部(处理器210B)。控制部定义用于向第2用户提供虚拟体验的虚拟空间(第2虚拟空间2711B),将与第1用户(用户5A)相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中,检出第2用户的身体的运动,根据第2用户的运动而使第2虚拟形象实施第1表演,取得根据基于第1用户的输入而实施的与收费相关的处理而生成的、与第1虚拟形象的外观相关的第1信息,基于第1信息,以上述第1虚拟形象比上述第2虚拟形象更显著的方式控制第1虚拟形象的外观。
(项目12)说明了执行程序的方法。依照本公开的某个情形,为了向第1用户(用户5A)提供虚拟体验,程序由具备第1处理器(处理器210A)的第1计算机(计算机200A)执行。方法包括第1处理器定义用于向第1用户提供虚拟体验的虚拟空间(第2虚拟空间2711A)的步骤(S2601),将与第1用户相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户(用户5B)相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),根据第2用户的运动而使第2虚拟形象实施第1表演的步骤(S2614),基于第1用户的输入而实施与收费相关的处理的步骤(S8601),以及在已实施与收费相关的处理的情况下以上述第1虚拟形象比上述第2虚拟形象更显著的方式控制第1虚拟形象的外观的步骤(S8602)。
(项目13)说明了执行程序的方法。依照本公开的某个情形,为了向第2用户(用户5B)提供虚拟体验,程序由具备第2处理器(处理器210B)的第2计算机(计算机200B)执行。方法包括第2处理器定义用于向第2用户提供虚拟体验的虚拟空间(第2虚拟空间2711B)的步骤(S2601),将与第1用户(用户5A)相关联的第1虚拟形象(虚拟形象物件6A)以及与第2用户相关联的第2虚拟形象(虚拟形象物件6B)配置于虚拟空间中的步骤(S2606、S2612),检出第2用户的身体的运动的步骤(S1701、S1702),根据第2用户的运动而使第2虚拟形象实施第1表演的步骤(S1703),取得根据基于第1用户的输入而实施的与收费相关的处理而生成的、与第1虚拟形象的外观相关的第1信息的步骤(S8611),以及基于第1信息以上述第1虚拟形象比上述第2虚拟形象更显著的方式控制第1虚拟形象的外观的步骤(S8612)。
在上述实施方式中,列举并说明了头戴式装置使得用户投入的虚拟空间(VR空间),头戴式装置可以采用透过型的头戴式装置。这种情况下,将构成虚拟空间的图像的一部分与用户经由透过型的头戴式装置而辨认的现实空间合成,输出合成后的视界图像,从而可以向用户提供增强现实(AR:Augmented Reality)空间或复合现实(MR:MixedReality)空间中的虚拟体验。这种情况下,可以基于用户的手的运动,产生对于虚拟空间内的对象物件的作用,代替操作物件。具体而言,处理器,可以确定现实空间中的用户的手的位置的坐标信息,并且,可以以与现实空间中的坐标信息的关系定义虚拟空间内的对象物件的位置。由此,处理器,知晓现实空间中的用户的手和虚拟空间中的对象物件的位置关系,在用户的手和对象物件之间能够实施与上述的冲突控制等对应的处理。结果,能够基于用户的手的运动而向对象物件赋予作用。
【符号的说明】
2 网络
5、5A、5B、5C、5D 用户
6、6A、6B、6C、6D 虚拟形象物件
11、11A、11B、11C、11D 虚拟空间
12 中心
13 全景图像
14、14A、14B 虚拟摄像机
15、15A、15B、15C 视界区域
16 基准视线
17、17A、17B 视界图像
18、19 区域
100 头戴式装置系统
110、110A、110B、110C、110D 头戴式装置套件
120、120A、120B、120C 头戴式装置
130、130A、130B、130C 监视器
140 注视传感器
150 第1摄像机
160 第2摄像机
170、170A、170B 话筒
180、180A、180B 扬声器
190 传感器
200、200A、200B 计算机
210、210A、210B、210C、210D、610 处理器
220、620 存储器
230、230A、230B、630 存储部
240、640 输入输出接口
250、650 通信接口
260、660 总线
300、300B 控制器
300R 右控制器
300L 左控制器
310 握柄
320 框架
330 顶面
340、340、350、370、380 按钮
360 红外线发光二极管
390 模拟摇杆
410 头戴式装置传感器
420、420A 运动传感器
430、430A 显示器
510 控制模块
520 渲染模块
530 存储器模块
540 通信控制模块
600 服务器
700 外部设备
1421 虚拟物件生成模块
1422 虚拟摄像机控制模块
1423 操作物件控制模块
1424 虚拟形象物件控制模块
1425 运动检出模块
1426 冲突检出模块
1427 虚拟物件控制模块
1428 收费处理模块
1429 结算处理模块
1517A、1617B、2417A、2517A、2717A、2817A、2917B、3017A、3217A、3317A、3417A、3517A、3617A、3717A、3817A、3917A、4017B、4117A、4317A、4417A、4617A、4717A、4817A、4917A、5017A、5117B、5217A、5317B、5417B、5517A、5617A、5717A、5917C、6017C、6117A、6217A、6317A、6417B、6517A、6617A、6817B、6917B、7117A、7117B、7217A、7417B、7517A、7617B、7717B、7917A、8017A、8117B、8217B、8417B、8517A、8717A、8817A、8917A、9017B、9217A、9417A、9517A、9617A、9717A、9817C、9917C、10017A、10117A、10217A、10317A、10417A、10617A、10717A、10817A、10917A、11017A、11117A、11217A、11317A、11417A、11517A 视界图像
1531LA、1531LB、1531LC、1531LD 虚拟左手
1531RA、1531RB、1531RC 虚拟右手
1532、10832 舞台物件
1641、1642、1643 运动传感器
1644 腰带
2411A 第1虚拟空间
2450 2450、6850、9894、10350、10750 用户界面面板
2451、2452、6851、6852、9895、9896、10351、10352、10751 选择项
2453、6853 笔物件
2711A、2711B、2711C、2711D、4311B、4411A 第2虚拟空间
2733A、2733B、2733C、2733D 标签物件
3936A、3936C、3936D 监视器物件
4137A、4137C、4137D 纹理
4239 直播影像
4340 屏幕物件
4451 第1区域
4452 门物件
3735、8181、9084、10085、10286 通知图像
4661、5070、8176 第1位置
4662、5071、8177 第2位置
4663、6277 标记
4664、4867、5373、5675 位置
4665、4969、5776 移动距离
4866、5372 第3位置
5674 第4位置
6811B 第3虚拟空间
8178 第1方向
8182 箭头图像
8283 框图像
9491 照明物件
9492、9792 光线物件
9693 照明控制物件

Claims (13)

1.一种程序,为了向第1用户提供虚拟体验而由具备第1处理器的第1计算机执行,
所述程序使所述第1处理器实施:
定义用于向所述第1用户提供所述虚拟体验的虚拟空间的步骤,
将与所述第1用户相关联的第1虚拟形象以及与第2用户相关联的第2虚拟形象配置于所述虚拟空间中的步骤,
根据所述第2用户的运动而使所述第2虚拟形象实施第1表演的步骤,
基于所述第1用户的输入而实施与收费相关的处理的步骤,
在已实施与所述收费相关的处理的情况下,向所述第2用户请求所述第2虚拟形象实施第2表演的步骤,以及
在请求实施所述第2表演之后,根据所述第2用户的运动,使所述第2虚拟形象实施所述第2表演的步骤。
2.如权利要求1所述的程序,其中,所述程序使所述第1处理器还实施:
根据所述第1用户的头部的姿势和所述虚拟空间中的所述第1虚拟形象的位置,控制所述虚拟空间中的所述第1虚拟形象的视界的步骤,
定义与所述第1虚拟形象的所述视界对应的视界图像的步骤,以及
向与所述第1用户的头部相关联的图像显示装置输出所述视界图像的步骤。
3.如权利要求2所述的程序,其中,在实施与所述收费相关的处理的步骤中,基于在使所述第2虚拟形象实施所述第1表演的期间进行的所述第1用户的输入,实施与所述收费相关的处理。
4.如权利要求1至3中的任一项所述的程序,其中,所述程序使所述第1处理器还实施:
在所述虚拟空间中配置与第3用户相关联的第3虚拟形象的步骤,以及
接受所述第1用户输入作为该第2表演的代价的第1金额的步骤,
其中,在实施与所述收费相关的处理的步骤中,在所述第1金额高于作为该第2表演的代价而由所述第3用户输入的第2金额的情况下,实施基于所述第1金额的与所述收费相关的处理。
5.一种程序,为了向第2用户提供虚拟体验而由具备第2处理器的第2计算机执行,
所述程序使所述第2处理器实施:
定义用于向所述第2用户提供所述虚拟体验的虚拟空间的步骤,
将与第1用户相关联的第1虚拟形象以及与所述与第2用户相关联的第2虚拟形象配置于所述虚拟空间中的步骤,
检出所述第2用户的身体的运动的步骤,
根据所述第2用户的运动而使所述第2虚拟形象实施第1表演的步骤,
在根据基于所述第1用户的输入而实施的与收费相关的处理,向所述第2用户请求所述第2虚拟形象实施第2表演的情况下,向所述第2用户通知与所述第2表演相关的信息的步骤,以及
在向所述第2用户通知与所述第2表演相关的信息之后,根据所述第2用户的运动,使所述第2虚拟形象实施所述第2表演的步骤。
6.如权利要求5所述的程序,其中,所述第2表演是以与进行所述输入的所述第1用户相关联的所述第1虚拟形象为对象的表演,
在所述通知的步骤中,向所述第2用户还通知表示该第1虚拟形象在所述虚拟空间中的第1位置的信息。
7.如权利要求6所述的程序,其中,
所述程序使所述第2处理器还实施:
根据所述第2用户的头部的姿势和所述虚拟空间中的所述第2虚拟形象的位置而控制所述虚拟空间中的所述第2虚拟形象的视界的步骤,
定义与所述第2虚拟形象的所述视界对应的视界图像的步骤,以及
向与所述第2用户的头部相关联的图像显示装置输出所述视界图像的步骤,
其中,在所述通知的步骤中,在所述视界图像上通知表示所述第1位置的信息。
8.如权利要求7所述的程序,其中,在所述第1虚拟形象不被所述视界图像包括的情况下,表示所述第1位置的信息是表示与从所述虚拟空间中的所述视界内的第2位置朝向所述第1位置的第1方向对应的、所述视界图像中的第2方向的图像。
9.如权利要求5至8中的任一项所述的程序,其中,与所述第2表演相关的信息包括所述第2表演的内容。
10.一种信息处理装置,其中,
所述信息处理装置具备:
存储为了向第1用户提供虚拟体验而由具备第1处理器的第1计算机执行的程序的存储部,以及
通过执行所述程序而控制所述信息处理装置的工作的控制部,
所述控制部,
定义用于向所述第1用户提供所述虚拟体验的虚拟空间,
将与所述第1用户相关联的第1虚拟形象以及与与第2用户相关联的第2虚拟形象配置于所述虚拟空间中,
根据所述第2用户的运动而使所述第2虚拟形象实施第1表演,
基于所述第1用户的输入而实施与收费相关的处理,
在已实施与所述收费相关的处理的情况下,向所述第2用户请求所述第2虚拟形象实施第2表演,
在请求实施所述第2表演之后,根据所述第2用户的运动,使所述第2虚拟形象实施所述第2表演。
11.一种信息处理装置,其中,
所述信息处理装置具备:
存储为了向第2用户提供虚拟体验而由具备第2处理器的第2计算机执行的程序的存储部,以及
通过实施所述程序而控制所述信息处理装置的工作的控制部,
所述控制部,
定义用于向所述第2用户提供所述虚拟体验的虚拟空间,
将与第1用户相关联的第1虚拟形象以及与所述与第2用户相关联的第2虚拟形象配置于所述虚拟空间中,
检出所述第2用户的身体的运动,
根据所述第2用户的运动而使所述第2虚拟形象实施第1表演,
在根据基于所述第1用户的输入而实施的与收费相关的处理,向所述第2用户请求所述第2虚拟形象实施第2表演的情况下,向所述第2用户通知与所述第2表演相关的信息,
在向所述第2用户通知与所述第2表演相关的信息之后,根据所述第2用户的运动,使所述第2虚拟形象实施所述第2表演。
12.一种方法,其中,为了向第1用户提供虚拟体验,具备第1处理器的第1计算机执行程序,
所述方法包括:
所述第1处理器定义用于向所述第1用户提供所述虚拟体验的虚拟空间的步骤,
将与所述第1用户相关联的第1虚拟形象以及与第2用户相关联的第2虚拟形象配置于所述虚拟空间中的步骤,
根据所述第2用户的运动而使所述第2虚拟形象实施第1表演的步骤,
基于所述第1用户的输入而实施与收费相关的处理的步骤,
在已实施与所述收费相关的处理的情况下,向所述第2用户请求所述第2虚拟形象实施第2表演的步骤,以及
在请求实施所述第2表演之后,根据所述第2用户的运动,使所述第2虚拟形象实施所述第2表演的步骤。
13.一种方法,其中,为了向第2用户提供虚拟体验,具备第2处理器的第2计算机执行程序,
所述方法包括:
所述第2处理器定义用于向所述第2用户提供所述虚拟体验的虚拟空间的步骤,
将与第1用户相关联的第1虚拟形象以及与所述与第2用户相关联的第2虚拟形象配置于所述虚拟空间中的步骤,
检出所述第2用户的身体的运动的步骤,
根据所述第2用户的运动而使所述第2虚拟形象实施第1表演的步骤,
在根据基于所述第1用户的输入而实施的与收费相关的处理,向所述第2用户请求所述第2虚拟形象实施第2表演的情况下,向所述第2用户通知与所述第2表演相关的信息的步骤,以及
在向所述第2用户通知与所述第2表演相关的信息之后,根据所述第2用户的运动,使所述第2虚拟形象实施所述第2表演的步骤。
CN201910344830.9A 2018-04-27 2019-04-26 程序、信息处理装置以及方法 Pending CN110413104A (zh)

Applications Claiming Priority (16)

Application Number Priority Date Filing Date Title
JP2018-087777 2018-04-27
JP2018-087787 2018-04-27
JP2018087784A JP7114326B2 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018-087780 2018-04-27
JP2018087781A JP7157551B2 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018-087784 2018-04-27
JP2018087787A JP6580748B1 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018-087782 2018-04-27
JP2018087785A JP7117890B2 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018-087785 2018-04-27
JP2018087782A JP7117889B2 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018-087779 2018-04-27
JP2018087780A JP7258472B2 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018-087781 2018-04-27
JP2018087777A JP2019192172A (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法
JP2018087779A JP6463535B1 (ja) 2018-04-27 2018-04-27 プログラム、情報処理装置、および方法

Publications (1)

Publication Number Publication Date
CN110413104A true CN110413104A (zh) 2019-11-05

Family

ID=68291668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910344830.9A Pending CN110413104A (zh) 2018-04-27 2019-04-26 程序、信息处理装置以及方法

Country Status (2)

Country Link
US (2) US10713834B2 (zh)
CN (1) CN110413104A (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6707111B2 (ja) * 2018-07-25 2020-06-10 株式会社バーチャルキャスト 3次元コンテンツ配信システム、3次元コンテンツ配信方法、コンピュータプログラム
JP2021005157A (ja) * 2019-06-25 2021-01-14 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
US20220351446A1 (en) * 2019-09-24 2022-11-03 XVI Inc. Animation production method
US10705597B1 (en) * 2019-12-17 2020-07-07 Liteboxer Technologies, Inc. Interactive exercise and training system and method
EP4163876A4 (en) * 2020-06-03 2023-11-15 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2022025468A (ja) * 2020-07-29 2022-02-10 株式会社AniCast RM アニメーション制作システム
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality
US11659043B1 (en) * 2022-01-27 2023-05-23 Meta Platforms Technologies, Llc Systems and methods for predictively downloading volumetric data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255053A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd ゲームプログラム、ゲーム装置およびゲーム制御方法
CN104765456A (zh) * 2015-04-08 2015-07-08 成都爱瑞斯文化传播有限责任公司 一种虚拟空间系统及搭建方法
CN105425955A (zh) * 2015-11-06 2016-03-23 中国矿业大学 多用户沉浸式全互动虚拟现实工程培训系统
CN106648083A (zh) * 2016-12-09 2017-05-10 广州华多网络科技有限公司 增强演奏场景合成控制方法及装置
CN106789991A (zh) * 2016-12-09 2017-05-31 福建星网视易信息系统有限公司 一种基于虚拟场景的多人互动方法及系统
JP6215441B1 (ja) * 2016-12-27 2017-10-18 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8875026B2 (en) * 2008-05-01 2014-10-28 International Business Machines Corporation Directed communication in a virtual environment
US8592451B2 (en) * 2009-03-17 2013-11-26 Cornell University Reversible nondepolarizing neuromuscular blockade agents and methods for their use
US20110143834A1 (en) * 2009-12-15 2011-06-16 Wms Gaming, Inc. Location-based customization of avatars in gaming systems
JP5514292B2 (ja) 2012-12-18 2014-06-04 株式会社コナミデジタルエンタテインメント ゲーム管理装置及びプログラム
JP2015167828A (ja) 2014-03-10 2015-09-28 株式会社セガゲームス ゲームシステム及びプログラム
JP2016025633A (ja) 2014-07-24 2016-02-08 ソニー株式会社 情報処理装置、管理装置、情報処理方法、およびプログラム
JP6393195B2 (ja) 2015-01-14 2018-09-19 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP6700701B2 (ja) 2015-09-30 2020-05-27 株式会社バンダイナムコエンターテインメント ゲームシステム、及びプログラム
JP6515057B2 (ja) 2016-03-31 2019-05-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム、シミュレーション装置及びプログラム
JP6809830B2 (ja) 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント プログラム及び電子機器
JP6203369B1 (ja) 2016-12-08 2017-09-27 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6955861B2 (ja) 2016-12-16 2021-10-27 株式会社バンダイナムコエンターテインメント イベント制御システム及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255053A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd ゲームプログラム、ゲーム装置およびゲーム制御方法
CN104765456A (zh) * 2015-04-08 2015-07-08 成都爱瑞斯文化传播有限责任公司 一种虚拟空间系统及搭建方法
CN105425955A (zh) * 2015-11-06 2016-03-23 中国矿业大学 多用户沉浸式全互动虚拟现实工程培训系统
CN106648083A (zh) * 2016-12-09 2017-05-10 广州华多网络科技有限公司 增强演奏场景合成控制方法及装置
CN106789991A (zh) * 2016-12-09 2017-05-31 福建星网视易信息系统有限公司 一种基于虚拟场景的多人互动方法及系统
JP6215441B1 (ja) * 2016-12-27 2017-10-18 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置

Also Published As

Publication number Publication date
US11074737B2 (en) 2021-07-27
US10713834B2 (en) 2020-07-14
US20190333261A1 (en) 2019-10-31
US20200242827A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
CN110413104A (zh) 程序、信息处理装置以及方法
JP6463535B1 (ja) プログラム、情報処理装置、および方法
CN107683449A (zh) 控制经由头戴式显示器呈现的个人空间内容
JP7117890B2 (ja) プログラム、情報処理装置、および方法
JP6770598B2 (ja) ゲームプログラム、方法、および情報処理装置
CN110337023A (zh) 动画显示方法、装置、终端及存储介质
JP7098676B2 (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画配信システム、動画配信サーバ及び動画配信方法
JPWO2019216249A1 (ja) 所定のコンテンツを有する仮想空間を提供する方法
JP2023090719A (ja) プログラム
JP2021020074A (ja) ゲームプログラム、方法、および情報処理装置
JP2021158558A (ja) 動画用アプリケーションプログラム、動画のオブジェクト描画方法、動画管理プログラム、動画管理方法、サーバ及び動画配信システム
KR20230159481A (ko) 프로그램, 방법, 및 정보 처리 장치
JP6580748B1 (ja) プログラム、情報処理装置、および方法
JP7029379B2 (ja) プログラム、情報処理装置、および方法
JP2023143963A (ja) プログラム、情報処理方法及び情報処理装置
JP7278442B2 (ja) プログラム、情報処理装置、および方法
JP7117889B2 (ja) プログラム、情報処理装置、および方法
JP7001796B1 (ja) 情報処理プログラム、情報処理方法及び情報処理システム
JP7157551B2 (ja) プログラム、情報処理装置、および方法
JP6718933B2 (ja) プログラム、情報処理装置、および方法
JP6791920B2 (ja) プログラム、情報処理装置、および方法
JP7114326B2 (ja) プログラム、情報処理装置、および方法
JP2019192172A (ja) プログラム、情報処理装置、および方法
JP2024048103A (ja) プログラムおよび情報処理システム
JP2024048107A (ja) プログラムおよび情報処理システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191105

WD01 Invention patent application deemed withdrawn after publication