CN114025854A - 程序、方法以及终端装置 - Google Patents

程序、方法以及终端装置 Download PDF

Info

Publication number
CN114025854A
CN114025854A CN202080045126.4A CN202080045126A CN114025854A CN 114025854 A CN114025854 A CN 114025854A CN 202080045126 A CN202080045126 A CN 202080045126A CN 114025854 A CN114025854 A CN 114025854A
Authority
CN
China
Prior art keywords
user
game
expression
virtual space
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080045126.4A
Other languages
English (en)
Inventor
福重润哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Publication of CN114025854A publication Critical patent/CN114025854A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/792Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for payment purposes, e.g. monthly subscriptions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/798Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/12Rule based animation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及程序、方法以及终端装置,本发明的终端装置基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使角色动作,能够将从虚拟空间内的规定视角观察的角色显示于规定显示部,并且能够输出与表演者的发言相应的声音。基于数据控制虚拟空间内的角色的嘴角的动作,根据规定的规则确定接下来获取的表情作为角色的表情,根据时间的经过进行将虚拟空间内的角色的表情切换为该确定的表情的控制。

Description

程序、方法以及终端装置
技术领域
本发明涉及程序、方法以及终端装置。
背景技术
以往,存在用于显示由表演者控制的虚拟角色的系统。另外,在这样的系统中,根据表演者的发言使虚拟角色的嘴的动作联动(嘴唇同步),并且虚拟角色的表情由开关切换。
非专利文献1:AV Watch,VTuber配信を簡単にするniconico「バーチャルキャスト」と「VRM」。スタジオもVR,2018年4月16日,[online],令和1年6月7日检索,URL,https://av.watch.impress.co.jp/docs/news/1117367.html
但是,在现有的系统中,为了切换表情需要配置操作开关的人员,因此人的成本增大。另外,由于通过手动切换表情,因此表情的切换定时比实际的表演者的动作、发言延迟,使用户怀有不协调感。因此,不能期待与成本增大匹配的精度。
发明内容
本发明是鉴于上述的实际情况而想出的,其目的在于提供能够尽量不增大成本且减少对用户的不协调感的程序、方法以及终端装置。
根据本公开所示的一个实施方式的一个方面,是一种程序,在具备处理器、存储器以及输入部的终端装置中被执行,上述程序使处理器执行如下步骤:基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使角色进行动作;用于能够将从虚拟空间内的规定视角观察的角色显示于规定显示部,并且能够输出与表演者的发言相应的声音,使角色动作的步骤包括如下步骤:基于数据控制虚拟空间内的角色的嘴角的动作;根据规定的规则确定接下来获取的表情作为角色的表情;根据时间的经过进行将虚拟空间内的角色的表情切换为由确定的步骤确定的表情的控制。
根据本发明,能够尽量不增大成本且减少对用户的不协调感。
附图说明
图1是表示基于一个实施方式的系统的概要的一个例子的图。
图2是表示基于一个实施方式的用户终端的硬件结构的一个例子的框图。
图3是表示基于一个实施方式的服务器的硬件结构的一个例子的框图。
图4是表示基于一个实施方式的游戏性终端的硬件结构的一个例子的框图。
图5是表示基于一个实施方式的分发终端的硬件结构的一个例子的框图。
图6是表示基于一个实施方式的用户终端、服务器、HMD组件的功能的结构的一个例子的框图。
图7是表示基于一个实施方式的分发终端的功能的结构的一个例子的框图。
图8是表示在基于一个实施方式的用户终端以及游戏性终端执行的处理的一部分的流程图。
图9是表示基于一个实施方式的由玩家提供的虚拟空间、以及玩家视觉辨认的视野图像的一个例子的图。
图10是表示基于一个实施方式的由用户终端的用户提供的虚拟空间、以及该用户视觉辨认的视野图像的一个例子的图。
图11是表示用户终端的用户视觉辨认的视野图像的另一例子的图。
图12是表示用户终端的用户视觉辨认的视野图像的又一例子的图。
图13是表示在基于一个实施方式的游戏性终端中执行的处理的一部分的流程图。
图14是表示在基于一个实施方式的用户终端中执行的处理的一部分的流程图。
图15是表示在基于一个实施方式的服务器中执行的处理的一部分的流程图。
图16是表示基于一个实施方式的参加游戏的用户的列表的一个具体例的图。
图17是表示在基于一个实施方式的分发终端中执行的处理的一部分的流程图。
图18是表示在基于一个实施方式的分发终端中显示的画面的一个具体例的图。
图19是表示在基于一个实施方式的分发终端中显示的画面的另一具体例的图。
图20是表示基于一个实施方式的由玩家进行的声音输入的一个具体例的图。
图21是表示在基于一个实施方式的分发终端中显示的画面的又一具体例和动作指示数据的分发的概要的图。
图22是表示基于一个实施方式的由玩家进行的声音输入的另一具体例的图。
图23是表示在基于一个实施方式的分发终端中显示的画面的又一具体例和动作指示数据的分发的概要的图。
图24是表示从基于一个实施方式的游戏性终端向用户终端发送游戏推进信息的概要的图。
图25是表示在基于一个实施方式的用户终端中执行的处理的一部分的流程图。
图26是表示动画播放的一个具体例的图。
图27是表示动画播放的另一具体例的图。
图28是用于说明脸控制处理的图。
图29是用于说明根据玩家的动作而动作的网络形象(avatar)对象的嘴角被切换为发言时的一般的嘴形且网络形象对象的表情被随机切换时的显示例的图。
具体实施方式
本公开涉及的系统是用于向多个用户提供游戏的系统。以下,参照附图并对该系统进行说明。此外,本发明并不限定于这些例示,意在由权利要求书表示、与权利要求书等同的意思以及在范围内的全部变更包含于本发明。在以下的说明中,在附图的说明中,对相同的要素标注相同的附图标记,不反复重复的说明。
<系统1的动作概要>
图1是表示本实施方式所涉及的系统1的概要的图。系统1包括多个用户终端100(计算机)、服务器200、游戏性终端300(外部装置、第二外部装置)以及分发终端400(外部、第一外部装置)。此外,在图1中,作为多个用户终端100的一个例子,记载了用户终端100A~100C,换言之,3台用户终端100,但用户终端100的台数并不限定于图示的例子。另外,在本实施方式中,在不需要区别用户终端100A~C的情况下,记载为“用户终端100”。用户终端100、游戏性终端300、以及分发终端400经由网络2与服务器200连接。网络2由通过互联网以及未图示的无线基站构建的各种移动通信系统等构成。作为该移动通信系统,例如列举出所谓的3G、4G移动通信系统、LTE(Long Term Evolution:长期演进技术)、以及能够通过规定的接入点与互联网连接的无线网络(例如Wi-Fi(注册商标))等。
(游戏的概要)
在本实施方式中,作为由系统1提供的游戏(以下,本游戏)的一个例子,对游戏性终端300的用户主要玩的游戏进行说明。以下,将游戏性终端300的用户称为“玩家”。作为一个例子,玩家(表演者)通过操作在本游戏中登场的角色,使游戏推进。另外,在本游戏中,用户终端100的用户承担辅助玩家推进游戏的作用。对于本游戏的详细内容在后面叙述。此外,由系统1提供的游戏可以是由多个用户参加的游戏,并不限定于该例。
(游戏性终端300)
游戏性终端300根据玩家的输入操作使游戏推进。另外,游戏性终端300将玩家的由玩游戏生成的信息(以下,游戏推进信息)依次向服务器200实时分发。
(服务器200)
服务器200将从游戏性终端300实时接收到的游戏推进信息(第二数据)向用户终端100发送。另外,服务器200协调用户终端100、游戏性终端300、以及分发终端400之间的各种信息的收发。
(分发终端400)
分发终端400根据分发终端400的用户的输入操作,生成动作指示数据(第一数据),经由服务器200向用户终端100分发动作指示数据。所谓的动作指示数据,是用于在用户终端100播放动画的数据,具体而言,是用于使在动画中登场的角色动作的数据。
在本实施方式中,作为一个例子,分发终端400的用户是本游戏的玩家。另外,作为一个例子,在用户终端100基于动作指示数据播放的动画是玩家在游戏中操作的角色动作的动画。“动作”是使角色的身体的至少一部分移动的行为,也包括发言。因此,本实施方式所涉及的动作指示数据例如包括用于使角色发言的声音数据、和用于使角色的身体移动的活动数据。
作为一个例子,动作指示数据在本游戏结束后被向用户终端100发送。对于动作指示数据以及基于该动作指示数据播放的动画的详细内容在后面叙述。
(用户终端100)
用户终端100实时接收游戏推进信息,使用该信息生成并显示游戏画面。换言之,用户终端100通过实时绘制,播放玩家正在玩的游戏的游戏画面。由此,用户终端100的用户能够在与玩家大致相同的时刻视觉辨认与玩家一边玩游戏一边视觉辨认的游戏画面相同的游戏画面。
另外,用户终端100根据用户的输入操作,生成用于辅助玩家推进游戏的信息,并将该信息经由服务器200向游戏性终端300发送。对于该信息的详细内容在后面叙述。
另外,用户终端100从分发终端400接收动作指示数据,使用该动作指示数据生成动画(影像)并播放。换言之,用户终端100绘制动作指示数据并播放。
<系统1的硬件结构>
图2是表示用户终端100的硬件结构的图。图3是表示服务器200的硬件结构的图。图4是表示游戏性终端300的硬件结构的图。图5是表示分发终端400的硬件结构的图。
(用户终端100)
在本实施方式中,作为一个例子,对用户终端100作为智能手机而实现的例子进行说明,但用户终端100并不限定于智能手机。例如,用户终端100也可以作为功能型手机、平板型计算机、膝上型计算机(所谓的笔记本电脑)、或者台式计算机等而实现。另外,用户终端100也可以是适于玩游戏的游戏装置。
如图2所示,用户终端100具备处理器10、存储器11、储存器12、通信接口(IF)13、输入输出IF14、触摸屏15(显示部)、照相机17以及测距传感器18。用户终端100所具备的这些结构通过通信总线相互电连接。此外,用户终端100还可以具备能够连接与用户终端100主体分开构成的显示器(显示部)的输入输出IF14代替触摸屏15。
另外,如图2所示,用户终端100也可以构成为能够与一个以上的控制器1020通信。控制器1020例如根据Bluetooth(注册商标)等的通信标准,与用户终端100确立通信。控制器1020也可以具有一个以上的按钮等,将基于用户对该按钮等的输入操作的输出值向用户终端100发送。另外,控制器1020也可以具有加速度传感器以及角速度传感器等各种传感器,将该各种传感器的输出值向用户终端100发送。
此外,还可以控制器1020具有照相机17以及测距传感器18,代替用户终端100具备照相机17以及测距传感器18。
优选用户终端100例如在游戏开始时,使利用控制器1020的用户经由该控制器1020输入该用户的姓名或者登录ID等用户识别信息。由此,用户终端100能够关联控制器1020和用户,能够基于接收到的输出值的发送源(控制器1020),确定该输出值是哪个用户的输出值。
在用户终端100与多个控制器1020通信的情况下,通过各用户把持各控制器1020,不经由网络2与服务器200等其他的装置通信,能够在该1台用户终端100实现多人游戏。另外,各用户终端100通过无线LAN(Local Area Network:局域网)标准等的无线标准相互通信连接(不经由服务器200通信连接),从而也能够通过多台用户终端100在本地实现多人游戏。在通过1台用户终端100在本地实现上述的多人游戏的情况下,用户终端100还可以具备服务器200所具备的后述的各种功能的至少一部分。另外,在通过多个用户终端100在本地实现上述的多人游戏的情况下,多个用户终端100也可以分散具备服务器200所具备的后述的各种功能。
此外,在本地实现上述的多人游戏的情况下,用户终端100也可以与服务器200进行通信。例如,也可以将表示某游戏中的成绩或者胜负等的游戏结果的信息和用户识别信息建立对应并发送给服务器200。
另外,控制器1020也可以是能够装卸于用户终端100的结构。该情况下,也可以在用户终端100的壳体中的至少任一面设置有与控制器1020的结合部。在用户终端100和控制器1020经由该结合部通过有线结合的情况下,用户终端100和控制器1020经由有线收发信号。
如图2所示,用户终端100也可以经由输入输出IF14接受外部的存储卡等存储介质1030的装配。由此,用户终端100能够读入记录于存储介质1030的程序以及数据。记录于存储介质1030的程序例如是游戏程序。
用户终端100也可以将通过与服务器200等外部装置通信而获取到的游戏程序存储于用户终端100的存储器11,也可以将通过从存储介质1030读入而获取到的游戏程序存储于存储器11。
如以上说明那样,作为对该用户终端100输入信息的机构的一个例子,用户终端100具备通信IF13、输入输出IF14、触摸屏15、照相机17以及测距传感器18。作为进行输入的机构的上述的各部能够理解为构成为接受用户的输入操作的操作部。
例如,在操作部由照相机17以及测距传感器18的至少任一方构成的情况下,该操作部检测用户终端100的附近的物体1010,根据该物体的检测结果确定输入操作。作为一个例子,检测作为物体1010的用户的手、预先决定的形状的标记等,基于作为检测结果而得到的物体1010的颜色、形状、动作、或者种类等确定输入操作。更具体而言,在从照相机17的拍摄图像检测到用户的手的情况下,用户终端100确定并接受基于该拍摄图像检测到的手势(用户的手的一系列的动作)作为用户的输入操作。此外,拍摄图像可以是静止图像,也可以是动画。
或者,在操作部由触摸屏15构成的情况下,用户终端100确定并接受对触摸屏15的输入部151实施的用户的操作作为用户的输入操作。或者,在操作部由通信IF13构成的情况下,用户终端100确定并接受从控制器1020发送的信号(例如,输出值)作为用户的输入操作。或者,在操作部由输入输出IF14构成的情况下,确定并接受从与连接于该输入输出IF14的控制器1020不同的输入装置(未图示)输出的信号作为用户的输入操作。
(服务器200)
作为一个例子,服务器200可以是工作站或者个人计算机等通用计算机。服务器200具备处理器20、存储器21、储存器22、通信IF23以及输入输出IF24。服务器200所具备这些结构通过通信总线相互电连接。
(游戏性终端300)
作为一个例子,游戏性终端300可以是个人计算机等通用计算机。游戏性终端300具备处理器30、存储器31、储存器32、通信IF33以及输入输出IF34。游戏性终端300所具备的这些结构通过通信总线相互电连接。
如图4所示,作为一个例子,本实施方式所涉及的游戏性终端300包含于HMD(HeadMounted Display:头戴显示器)组件1000。也就是说,能够表现为HMD组件1000包含于系统1,另外,也能够表现为玩家使用HMD组件1000玩游戏。此外,用于玩家玩游戏的装置并不限定于HMD组件1000。作为一个例子,该装置只要是能够使玩家虚拟体验游戏的装置即可。另外,该装置也可以作为智能手机、功能型手机、平板型计算机、膝上型计算机(所谓的笔记本电脑)、或者台式计算机等来实现。另外,该装置也可以是适于玩游戏的游戏装置。
HMD组件1000除了游戏性终端300之外,还具备HMD500、HMD传感器510、活动传感器520、显示器530以及控制器540。HMD500包括监视器51、注视传感器52、第一照相机53、第二照相机54、麦克风55以及扬声器56。控制器540可以包括活动传感器520。
HMD500装配于玩家的头部,能够在动作中向玩家提供虚拟空间。更具体而言,HMD500将右眼用的图像以及左眼用的图像分别显示于监视器51。若玩家的各眼睛视觉辨认每一个图像,则玩家能够基于双眼的视差识别该图像作为三维图像。HMD500也可以包括具备监视器的所谓的头戴显示器和能够装配智能手机其他的具有监视器的终端的头戴设备的任一个。
监视器51例如作为非透射式的显示装置来实现。在某个方面中,监视器51以位于玩家的双眼的前方的方式配置于HMD500的主体。因此,玩家若视觉辨认显示于监视器51的三维图像,则能够沉浸于虚拟空间。在某个方面中,虚拟空间例如包含背景、玩家能够操作的对象、玩家能够选择的菜单的图像。在某个方面中,监视器51能够作为所谓的智能手机其他的信息显示终端所具备的液晶监视器或者有机EL(Electro Luminescence:电致发光)监视器来实现。
在其他的方面中,监视器51能够作为透射式的显示装置来实现。该情况下,HMD500不是如图1所示那样覆盖玩家的眼睛的密闭型,而能够是眼镜型那样的开放型。透射式的监视器51通过调整其透射率,也可以构成为暂时非透射式的显示装置。监视器51也可以包括同时显示构成虚拟空间的图像的一部分和现实空间的结构。例如,监视器51可以显示由搭载于HMD500的照相机拍摄的现实空间的图像,也可以通过较高地设定一部分的透射率而能够视觉辨认现实空间。
在某个方面中,监视器51可以包括用于显示右眼用的图像的子监视器和用于显示左眼用的图像的子监视器。在其他的方面中,监视器51也可以是将右眼用的图像和左眼用的图像显示为一体的结构。该情况下,监视器51包括高速快门。高速快门以能够交替显示右眼用的图像和左眼用的图像的方式进行动作,以使图像仅被任一方的眼睛识别。
在某个方面中,HMD500包括未图示的多个光源。各光源例如通过发出红外线的LED(Light Emitting Diode:发光二极管)来实现。HMD传感器510具有用于检测HMD500的动作的定位功能。更具体而言,HMD传感器510读取由HMD500发出的多个红外线,检测现实空间内的HMD500的位置以及倾斜。
在其他的方面中,HMD传感器510也可以通过照相机来实现。该情况下,HMD传感器510使用从照相机输出的HMD500的图像信息,执行图像分析处理,从而能够检测HMD500的位置以及倾斜。
在其他的方面中,HMD500也可以代替HMD传感器510,或者除了HMD传感器510之外还具备传感器(未图示)作为位置检测器。HMD500使用该传感器,能够检测HMD500自身的位置以及倾斜。例如,在该传感器为角速度传感器、地磁传感器或者加速度传感器的情况下,HMD500使用这些各传感器的任一个来代替HMD传感器510,能够检测自身的位置以及倾斜。作为一个例子,在HMD500所具备的传感器为角速度传感器的情况下,角速度传感器随时间变化检测HMD500在现实空间中的绕3个轴的角速度。HMD500基于各角速度,计算HMD500的绕3个轴的角度的时间变化,进而,基于角度的时间变化,计算HMD500的倾斜。
注视传感器52检测玩家的右眼以及左眼的视线朝向的方向。也就是说,注视传感器52检测玩家的视线。视线的方向的检测例如通过公知的眼球追踪功能来实现。注视传感器52通过具有该眼球追踪功能的传感器来实现。在某个方面中,优选注视传感器52包括右眼用的传感器以及左眼用的传感器。注视传感器52例如也可以是对玩家的右眼以及左眼照射红外光并且接收针对照射光的来自角膜以及虹膜的反射光来检测各眼球的旋转角的传感器。注视传感器52能够基于检测出的各旋转角,检测玩家的视线。
第一照相机53拍摄玩家的脸的下部。更具体而言,第一照相机53拍摄玩家的鼻子以及嘴等。第二照相机54拍摄玩家的眼睛以及眉毛等。将HMD500的玩家侧的壳体定义为HMD500的内侧,将HMD500的与玩家相反侧的壳体定义为HMD500的外侧。在某个方面中,第一照相机53可以配置于HMD500的外侧,第二照相机54可以配置于HMD500的内侧。第一照相机53以及第二照相机54所生成的图像被输入到游戏性终端300。在其他的方面中,也可以将第一照相机53和第二照相机54实现为1台照相机,用该1台照相机拍摄玩家的脸。
麦克风55将玩家的发言转换成声音信号(电信号)并输出到游戏性终端300。扬声器56将声音信号转换成声音向玩家输出。在其他的方面中,HMD500可以包含耳机代替扬声器56。
控制器540通过有线或无线与游戏性终端300连接。控制器540接受从玩家向游戏性终端300的命令的输入。在某个方面中,控制器540构成为能够由玩家把持。在其他的方面中,控制器540构成为能够装配于玩家的身体或者衣服的一部分。进一步在其他的方面中,控制器540也可以构成为基于从游戏性终端300发送的信号,输出振动、声音、光中的至少任一个。进一步在其他的方面中,控制器540从玩家接受用于控制配置于虚拟空间的对象的位置、动作的操作。
在某个方面中,控制器540包括多个光源。各光源例如通过发出红外线的LED来实现。HMD传感器510具有定位功能。该情况下,HMD传感器510读取控制器540发出的多个红外线,检测现实空间内的控制器540的位置以及倾斜。在其他的方面中,HMD传感器510也可以通过照相机来实现。该情况下,HMD传感器510使用从照相机输出的控制器540的图像信息,执行图像分析处理,从而能够检测控制器540的位置以及倾斜。
在某个方面中,活动传感器520安装于玩家的手,检测玩家的手的动作。例如,活动传感器520检测手的旋转速度、转速等。检测出的信号被送到游戏性终端300。活动传感器520例如设置于控制器540。在某个方面中,活动传感器520例如设置于构成为能够由玩家把持的控制器540。在其他的方面中,为了现实空间的安全,控制器540装配在如手套型那样装配于玩家的手而不容易飞走的物体上。进一步在其他的方面中,未装配于玩家身上的传感器也可以检测玩家的手的动作。例如,拍摄玩家的照相机的信号也可以作为表示玩家的动作的信号,被输入到游戏性终端300。活动传感器520和游戏性终端300作为一个例子通过无线相互连接。在无线的情况下,通信方式没有特别限制,例如,使用Bluetooth其他的公知的通信方法。
显示器530显示与显示于监视器51的图像同样的图像。由此,能够使装配HMD500的玩家以外的用户也视听与玩家同样的图像。显示于显示器530的图像不需要是三维图像,也可以是右眼用的图像、左眼用的图像。作为显示器530,例如列举出液晶显示器、有机EL监视器等。
游戏性终端300基于从HMD500的各部、控制器540以及活动传感器520获取到的各种信息,使成为玩家的操作对象的角色动作,推进游戏。这里的“动作”包括使身体的各部分移动、改变姿势、改变脸的表情、移动、发言、与配置于虚拟空间的对象接触或移动、使用角色把持的武器、道具等等。即,在本游戏中,玩家移动身体的各部分,从而角色也与玩家同样移动身体的各部分。另外,在本游戏中,角色发出玩家所发言的内容。换言之,在本游戏中,角色是作为玩家的分身而行动的网络形象对象。作为一个例子,角色的动作的至少一部分也可以通过由玩家对控制器540的输入来执行。
在本实施方式中,作为一个例子,活动传感器520安装于玩家的双手、玩家的双脚、玩家的腰部以及玩家的头部。安装于玩家的双手的活动传感器520如上述那样也可以设置于控制器540。另外,安装于玩家的头部的活动传感器520也可以设置于HMD500。活动传感器520还可以安装于用户的双肘、双膝。通过增加安装于玩家的活动传感器520的数量,能够使玩家的动作更正确地向角色反映。另外,玩家也可以穿安装有1个以上的活动传感器520的套装,代替将活动传感器520安装于身体的各部分。也就是说,活动捕捉的方法并不限定于使用活动传感器520的例子。
(分发终端400)
分发终端400可以是智能手机、PDA(Personal Digital Assistant)、或者平板型计算机等便携终端。另外,分发终端400也可以是台式机等的所谓的台式的终端。
如图5所示,分发终端400具备处理器40、存储器41、储存器42、通信IF43、输入输出IF44以及触摸屏45。此外,分发终端400还可以具备能够连接与分发终端400主体分开构成的显示器(显示部)的输入输出IF44代替触摸屏45。
控制器1021也可以具有一个以上的按钮、杆、棒、轮等的物理输入机构。控制器1021将基于分发终端400的操作者(在本实施方式中玩家)对该输入机构输入的输入操作的输出值向分发终端400发送。另外,控制器1021也可以具有加速度传感器以及角速度传感器等各种传感器,也可以将该各种传感器的输出值向分发终端400发送。上述的输出值经由通信IF43被分发终端400接受。
分发终端400也可以具备照相机和测距传感器(均未图示)。或者,还可以控制器1021具有照相机和测距传感器,代替由分发终端400具备。
如以上说明那样,作为对该分发终端400输入信息的机构的一个例子,分发终端400具备通信IF43、输入输出IF44、触摸屏45。作为进行输入的机构的上述的各部能够理解为构成为接受用户的输入操作的操作部。
在操作部由触摸屏45构成的情况下,分发终端400确定并接受对触摸屏45的输入部451实施的用户的操作作为用户的输入操作。或者,在操作部由通信IF43构成的情况下,分发终端400确定并接受从控制器1021发送的信号(例如,输出值)作为用户的输入操作。或者,在操作部由输入输出IF44构成的情况下,分发终端400确定并接受从连接于该输入输出IF44的输入装置(未图示)输出的信号作为用户的输入操作。
<各装置的硬件构成要素>
处理器10、20、30、40分别控制用户终端100、服务器200、游戏性终端300、分发终端400的整体的动作。处理器10、20、30、40包括CPU(Central Processing Unit:中央处理器)、MPU(Micro Processing Unit:微处理器)以及GPU(Graphics Processing Unit:图形处理器)。处理器10、20、30、40分别从后述的储存器12、22、32、42读出程序。而且,处理器10、20、30、40分别将读出的程序在后述的存储器11、21、31、41中展开。处理器10、20、30执行展开的程序。
存储器11、21、31、41是主存储装置。存储器11、21、31、41由ROM(Read OnlyMemory:只读存储器)以及RAM(Random Access Memory:随机存取存储器)等存储装置构成。存储器11通过暂时存储处理器10从后述的储存器12读出的程序以及各种数据,向处理器10提供作业区域。存储器11也暂时存储处理器10根据程序进行动作的期间所生成的各种数据。存储器21通过暂时存储处理器20从后述的储存器22读出的各种程序以及数据,向处理器20提供作业区域。存储器21也暂时存储处理器20根据程序进行动作的期间所生成的各种数据。存储器31通过暂时存储处理器30从后述的储存器32读出的各种程序以及数据,向处理器30提供作业区域。存储器31也暂时存储处理器30根据程序进行动作的期间所生成的各种数据。存储器41通过暂时存储处理器40从后述的储存器42读出的程序以及各种数据,向处理器40提供作业区域。存储器41也暂时存储处理器40根据程序进行动作的期间所生成的各种数据。
在本实施方式中,处理器10以及30所执行的程序也可以是本游戏的游戏程序。在本实施方式中,处理器40所执行的程序也可以是用于实现动作指示数据的分发的分发程序。另外,处理器10还可以执行用于实现动画的播放的视听程序。
在本实施方式中,处理器20所执行的程序也可以是上述的游戏程序、分发程序、视听程序中的至少任一个。处理器20根据来自用户终端100、游戏性终端300以及分发终端400的至少任一个的请求等,执行游戏程序、分发程序、视听程序的至少任一个。此外,分发程序和视听程序也可以并行执行。
即,游戏程序也可以是通过用户终端100、服务器200以及游戏性终端300的协作来实现游戏的程序。分发程序也可以是通过服务器200和分发终端400的协作来实现动作指示数据的分发的程序。视听程序也可以是通过用户终端100和服务器200的协作来实现动画的播放的程序。
储存器12、22、32、42是辅助存储装置。储存器12、22、32、42由闪存或者HDD(HardDisk Drive:硬盘驱动器)等存储装置构成。在储存器12、32中例如储存有与游戏相关的各种数据。在储存器42中储存有与动作指示数据的分发相关的各种数据。另外,在储存器12中储存有与动画的播放相关的各种数据。也可以在储存器22中储存有分别与游戏、动作指示数据的分发以及动画的播放相关的各种数据中的至少一部分。
通信IF13、23、33、43分别控制用户终端100、服务器200、游戏性终端300、分发终端400中的各种数据的收发。通信IF13、23、33、43例如控制经由无线LAN(Local AreaNetwork:局域网)的通信、经由有线LAN、无线LAN或者移动电话线路网络的互联网通信、以及使用了近距离无线通信等的通信。
输入输出IF14、24、34、44分别是用于用户终端100、服务器200、游戏性终端300、分发终端400接受数据的输入且用于输出数据的接口。输入输出IF14、24、34、44也可以经由USB(Universal Serial Bus:通用串行总线)等进行数据的输入输出。输入输出IF14、24、34、44可以包括物理按钮、照相机、麦克风、扬声器、鼠标、键盘、显示器、棒、杆等。另外,输入输出IF14、24、34、44可以包括用于在与周边设备之间收发数据的连接部。
触摸屏15是将输入部151和显示部152(显示器)组合而成的电子部件。触摸屏45是将输入部451和显示部452组合而成的电子部件。作为一个例子,输入部151以及451是触敏的设备,例如由触摸板构成。显示部152以及452例如由液晶显示器、或者有机EL(Electro-Luminescence:电致发光)显示器等构成。
输入部151以及451具备检测对输入面输入用户的操作(主要是触摸操作、滑动操作、敲击操作、以及点击操作等物理的接触操作)的位置,且发送表示位置的信息作为输入信号的功能。输入部151以及451可以具备未图示的触感部。触感部也可以采用静电电容方式或者电阻膜方式等任意方式。
虽然未图示,但用户终端100以及分发终端400也可以分别具备用于确定用户终端100以及分发终端400的保持姿势的1个以上的传感器。该传感器例如也可以是加速度传感器或者角速度传感器等。
在用户终端100以及分发终端400具备传感器的情况下,处理器10以及40分别根据传感器的输出确定用户终端100以及分发终端400的保持姿势,也能够进行与保持姿势相应的处理。例如,处理器10以及40也可以分别在用户终端100以及分发终端400保持为纵向时,设为使纵长的图像显示于显示部152以及452的纵画面显示。另一方面,也可以在用户终端100以及分发终端400保持为横向时,设为使横长的图像显示于显示部的横画面显示。这样,处理器10以及40也能够分别根据用户终端100以及分发终端400的保持姿势切换纵画面显示和横画面显示。
<系统1的功能结构>
图6是表示系统1所包含的用户终端100、服务器200以及HMD组件1000的功能结构的框图。图7是表示图6所示的分发终端400的功能结构的框图。
用户终端100具有作为接受用户的输入操作的输入装置的功能、和作为输出游戏的图像、声音的输出装置的功能。用户终端100通过处理器10、存储器11、储存器12、通信IF13、输入输出IF14、以及触摸屏15等的协作,作为控制部110以及存储部120发挥功能。
服务器200具有协调用户终端100、HMD组件1000、以及分发终端400之间的各种信息的收发的功能。服务器200通过处理器20、存储器21、储存器22、通信IF23、以及输入输出IF24等的协作,作为控制部210以及存储部220发挥功能。
HMD组件1000(游戏性终端300)具有作为接受玩家的输入操作的输入装置的功能、作为输出游戏的图像、声音的输出装置的功能、将游戏推进信息经由服务器200向用户终端100实时发送的功能。HMD组件1000通过游戏性终端300的处理器30、存储器31、储存器32、通信IF33、输入输出IF34、以及HMD500、HMD传感器510、活动传感器520以及控制器540等的协作,作为控制部310以及存储部320发挥功能。
分发终端400具有生成动作指示数据,并将该动作指示数据经由服务器200向用户终端100发送的功能。分发终端400通过处理器40、存储器41、储存器42、通信IF43、输入输出IF44以及触摸屏45等的协作,作为控制部410以及存储部420发挥功能。
(各装置的存储部所储存的数据)
存储部120储存游戏程序131(程序)、游戏信息132以及用户信息133。存储部220储存游戏程序231、游戏信息232、用户信息233以及用户列表234。存储部320储存游戏程序331、游戏信息332以及用户信息333。存储部420储存用户列表421、活动列表422、分发程序423(程序、第二程序)。
游戏程序131、231、331分别是用户终端100、服务器200、HMD组件1000所执行的游戏程序。各装置基于游戏程序131、231、331协作并动作,从而实现本游戏。此外,游戏程序131以及331也可以是储存于存储部220、并分别下载到用户终端100以及HMD组件1000的结构。此外,在本实施方式中,用户终端100基于游戏程序131,绘制从分发终端400接收到的数据,并播放动画。换言之,游戏程序131也是用于使用从分发终端400分发的动画指示数据来播放动画的程序。用于播放该动画的程序也可以与游戏程序131不同。该情况下,存储部120储存与游戏程序131不同,用于播放该动画的程序。
游戏信息132、232、332分别是用户终端100、服务器200、HMD组件1000执行游戏程序时所参照的数据。用户信息133、233、333是与用户终端100的用户的帐号相关的数据。游戏信息232是各用户终端100的游戏信息132以及HMD组件1000的游戏信息332。用户信息233是各用户终端100的用户信息133以及用户信息333所包含的玩家的用户信息。用户信息333是各用户终端100的用户信息133以及玩家的用户信息。
用户列表234以及用户列表421是参加游戏的用户的列表。用户列表234以及用户列表421除了在玩家最近的玩游戏中参加的用户的列表之外,还可以包含在该玩游戏以前的各玩游戏中参加的用户的列表。活动列表422是预先制成的多个活动数据的列表。活动列表422例如是将活动数据与识别各活动的信息(例如,活动名)的每一个建立对应的列表。分发程序423是用于实现用于在用户终端100播放动画的动作指示数据向用户终端100的分发的程序。
(服务器200的功能结构)
控制部210通过执行储存于存储部220的游戏程序231,统一控制服务器200。例如,控制部210协调用户终端100、HMD组件1000、以及分发终端400之间的各种信息的收发。
控制部210根据游戏程序231的描述,作为通信协调部211、日志生成部212、列表生成部213发挥功能。控制部210为了玩游戏以及动作指示数据的分发所涉及的各种信息的收发的协调、以及游戏的推进的辅助,也能够作为未图示的其他的功能模块发挥功能。
通信协调部211协调用户终端100、HMD组件1000、以及分发终端400之间的各种信息的收发。例如,通信协调部211将从HMD组件1000接收的游戏推进信息向用户终端100发送。游戏推进信息包括表示由玩家操作的角色的动作、该角色的参数、该角色所持有的物品、武器、敌方角色等的信息等的数据。服务器200将游戏推进信息向参加游戏的全部用户的用户终端100发送。换言之,服务器200将共用的游戏推进信息向参加游戏的全部用户的用户终端100发送。由此,在参加游戏的全部用户的用户终端100的每一个中,与HMD组件1000同样地推进游戏。
另外,例如,通信协调部211将从用户终端100的任一个接收到的、用于辅助玩家推进游戏的信息向其他的用户终端100、以及HMD组件1000发送。作为一个例子,该信息也可以是表示用于玩家有利地推进游戏的物品且提供给玩家(角色)的物品的物品信息。物品信息包括表示提供物品的用户的信息(用户名、用户ID等)。另外,通信协调部211也可以协调从分发终端400向用户终端100的动作指示数据的分发。
日志生成部212基于从HMD组件1000接收的游戏推进信息,生成游戏推进的日志。列表生成部213在玩游戏结束后生成用户列表234。对于详细内容在后面叙述,在用户列表234中的各用户中关联有表示该用户进行的对玩家的辅助的内容的标签。列表生成部213基于日志生成部212所生成的游戏推进的日志,生成标签,与该用户建立关联。此外,列表生成部213也可以将游戏的经营者等使用个人计算机等的终端装置输入的、各用户进行的对玩家的辅助的内容作为标签,与该用户建立关联。由此,各用户进行的辅助的内容成为更详细的内容。此外,用户终端100在用户参加游戏时,基于用户的操作,将表示用户的信息向服务器200发送。例如,用户终端100将用户输入的用户ID向服务器200发送。也就是说,服务器200针对参加游戏的全部用户,保持表示各用户的信息。列表生成部213使用该信息生成用户列表234即可。
(HMD组件1000的功能结构)
控制部310通过执行储存于存储部320的游戏程序331,统一控制HMD组件1000。例如,控制部310根据游戏程序331以及玩家的操作,使游戏推进。另外,控制部310在推进游戏期间,根据需要,与服务器200通信,进行信息的收发。控制部310也可以不经由服务器200而与用户终端100直接进行信息的收发。
控制部310根据游戏程序331的描述,作为操作接受部311、显示控制部312、UI控制部313、动画生成部314、游戏推进部315、虚拟空间控制部316以及反应处理部317发挥功能。控制部310根据所执行的游戏的性质,为了在该游戏中登场的角色的控制等,也能够作为未图示的其他的功能模块发挥功能。
操作接受部311检测并接受玩家的输入操作。操作接受部311接受从HMD500、活动传感器520、控制器540等输入的信号,判别进行了怎样的输入操作,并将该结果向控制部310的各要素输出。
UI控制部313控制在监视器51、显示器530等显示的用户界面(以下,UI)图像。UI图像是用于玩家对HMD组件1000进行游戏的推进上所需的输入的工具、或者用于从HMD组件1000获得在游戏的推进中输出的信息的工具。UI图像并不限定于此,例如是图标、按钮、列表、菜单画面等。
动画生成部314基于各种对象的控制方式,生成表示各种对象的活动的动画。例如,动画生成部314也可以生成表现了对象(例如,玩家的网络形象对象)就好像处于那里一样移动、或移动嘴、或改变表情的状态的动画等。
游戏推进部315基于游戏程序331、玩家的输入操作以及与该输入操作对应的网络形象对象的动作等,推进游戏。例如,在网络形象对象进行了规定的动作的情况下,游戏推进部315进行规定的游戏处理。另外,例如,游戏推进部315也可以接收用户终端100中的表示用户的操作的信息,基于该用户的操作进行游戏处理。另外,游戏推进部315根据游戏的推进生成游戏推进信息,并向服务器200发送。该游戏推进信息经由服务器200被发送到用户终端100。由此,HMD组件1000中的游戏的推进在用户终端100中被共享。换言之,HMD组件1000中的游戏的推进和用户终端100中的游戏的推进同步。
虚拟空间控制部316根据游戏的推进而进行与提供给玩家的虚拟空间相关的各种控制。作为一个例子,虚拟空间控制部316生成各种对象,配置于虚拟空间。另外,虚拟空间控制部316将虚拟照相机配置于虚拟空间。另外,虚拟空间控制部316根据游戏的推进,使配置于虚拟空间的各种对象动作。另外,虚拟空间控制部316根据游戏的推进,控制配置于虚拟空间的虚拟照相机的位置、倾斜。
显示控制部312对监视器51、显示器530输出反映了由上述的各要素执行的处理结果的游戏画面。显示控制部312也可以将基于来自配置于虚拟空间的虚拟照相机的视野的图像作为游戏画面显示于监视器51、显示器530。另外,显示控制部312也可以将由动画生成部314生成的动画包含于该游戏画面。另外,显示控制部312也可以将由UI控制部313控制的上述的UI图像与该游戏画面重叠而描绘。
反应处理部317针对用户终端100的用户对于玩家玩游戏的反应接受反馈,并将其向玩家输出。在本实施方式中,例如,用户终端100基于用户的输入操作,能够制成发给网络形象对象的留言(消息)。反应处理部317接受该留言的留言数据,并将其输出。反应处理部317也可以将与用户的留言对应的文本数据显示于监视器51、显示器530,也可以从未图示的扬声器输出与用户的留言对应的声音数据。在前者的情况下,反应处理部317也可以将与上述文本数据对应的图像(即,包含留言的内容的图像)与游戏画面重叠而描绘。
(用户终端100的功能结构)
控制部110通过执行储存于存储部120的游戏程序131,统一控制用户终端100。例如,控制部110根据游戏程序131以及用户的操作,使游戏推进。另外,控制部110在推进游戏期间,根据需要,与服务器200通信,进行信息的收发。控制部110也可以不经由服务器200而直接与HMD组件1000进行信息的收发。
控制部110根据游戏程序131的描述,作为操作接受部111、显示控制部112、UI控制部113、动画生成部114、游戏推进部115、虚拟空间控制部116以及动画播放部117发挥功能。控制部110根据所执行的游戏的性质,为了推进游戏,也能够作为未图示的其他的功能模块发挥功能。
操作接受部111检测并接受对输入部151的用户的输入操作。操作接受部111根据用户对触摸屏15及其他的经由输入输出IF14的控制台带来的作用,判别进行了怎样的输入操作,并将其结果向控制部110的各要素输出。
例如,操作接受部111接受对输入部151的输入操作,检测该输入操作的输入位置的坐标,确定该输入操作的种类。操作接受部111确定例如触摸操作、滑动操作、敲击操作、以及点击操作等作为输入操作的种类。另外,若中断连续检测到的输入,则操作接受部111检测到从触摸屏15解除了接触输入。
UI控制部113根据用户的输入操作以及接收到的游戏推进信息的至少任一个,控制为了构建UI而显示于显示部152的UI图像。UI图像是用于用户对用户终端100进行游戏的推进上所需的输入的工具、或者用于从用户终端100获得在游戏的推进中输出的信息的工具。UI图像并不限定于此,例如是图标、按钮、列表、菜单画面等。
动画生成部114基于各种对象的控制方式,生成表示各种对象的活动的动画。
游戏推进部115基于游戏程序131、接收到的游戏推进信息以及用户的输入操作等,推进游戏。游戏推进部115在通过用户的输入操作进行了规定的游戏处理的情况下,将与该游戏处理相关的信息经由服务器200向HMD组件1000发送。由此,该规定的游戏处理在HMD组件1000中被共享。换言之,HMD组件1000中的游戏的推进和用户终端100中的游戏的推进同步。规定的游戏处理例如是向网络形象对象提供物品的处理,在该例的情况下,与游戏处理相关的信息是上述的物品信息。
虚拟空间控制部116根据游戏的推进,进行与提供给用户的虚拟空间相关的各种控制。作为一个例子,虚拟空间控制部116生成各种对象,并配置于虚拟空间。另外,虚拟空间控制部116将虚拟照相机配置于虚拟空间。另外,虚拟空间控制部116根据游戏的推进、具体而言接收到的游戏推进信息,使配置于虚拟空间的各种对象动作。另外,虚拟空间控制部316根据游戏的推进、具体而言接收到的游戏推进信息,控制配置于虚拟空间的虚拟照相机的位置、倾斜。
显示控制部112对显示部152输出反映了由上述的各要素执行的处理结果的游戏画面。显示控制部112也可以将基于来自在提供给用户的虚拟空间配置的虚拟照相机的视野的图像作为游戏画面显示于显示部152。另外,显示控制部112也可以将由动画生成部114生成的动画包含于该游戏画面。另外,显示控制部112也可以将由UI控制部113控制的上述的UI图像与该游戏画面重叠而描绘。总之,显示于显示部152的游戏画面是与由其他的用户终端100以及HMD组件1000显示的游戏画面同样的游戏画面。
动画播放部117对从分发终端400接收到的动作指示数据进行分析(绘制),并播放动画。
(分发终端400的功能结构)
控制部410通过执行储存于存储部420的程序(未图示),统一控制分发终端400。例如,控制部410根据该程序以及分发终端400的用户(在本实施方式中玩家)的操作,生成动作指示数据,并向用户终端100分发。另外,控制部410根据需要与服务器200通信,进行信息的收发。控制部410也可以不经由服务器200而直接与用户终端100进行信息的收发。
控制部410根据程序的描述,作为通信控制部411、显示控制部412、操作接受部413、声音接受部414、活动确定部415以及动作指示数据生成部416发挥功能。控制部410为了生成以及分发动作指示数据,也能够作为未图示的其他的功能模块发挥功能。
通信控制部411控制与服务器200、或者经由服务器200的用户终端100的信息的收发。作为一个例子,通信控制部411从服务器200接收用户列表421。另外,作为一个例子,通信控制部411将动作指示数据向用户终端100发送。
显示控制部412对显示部452输出反映了由各要素执行的处理结果的各种画面。作为一个例子,显示控制部412显示包含接收到的用户列表234的画面。另外,作为一个例子,显示控制部412显示包括用于使玩家选择分发的动作指示数据所包含的用于使网络形象对象动作的活动数据的活动列表422的画面。
操作接受部413检测并接受对输入部151的玩家的输入操作。操作接受部111根据玩家对触摸屏45以及其他的经由输入输出IF44的控制台带来的作用,判别进行了怎样的输入操作,并将其结果向控制部410的各要素输出。
例如,操作接受部413接受对输入部451的输入操作,检测该输入操作的输入位置的坐标,确定该输入操作的种类。操作接受部413确定例如触摸操作、滑动操作、敲击操作、以及点击操作等作为输入操作的种类。另外,若中断连续检测到的输入,则操作接受部413检测到从触摸屏45解除了接触输入。
声音接受部414接受在分发终端400的周围产生的声音,生成该声音的声音数据。作为一个例子,声音接受部414接受玩家所发出的声音,生成该声音的声音数据。
活动确定部415根据玩家的输入操作,从活动列表422确定玩家所选择的活动数据。
动作指示数据生成部416生成动作指示数据。作为一个例子,动作指示数据生成部416生成包含所生成的声音数据和所确定的活动数据的动作指示数据。
此外,图6所示的HMD组件1000、服务器200、以及用户终端100的功能、以及图7所示的分发终端400的功能只不过是一个例子。HMD组件1000、服务器200、用户终端100、以及分发终端400的各装置也可以具备其他的装置所具备的功能的至少一部分。并且,也可以将HMD组件1000、服务器200、用户终端100、以及分发终端400以外的其他的装置作为系统1的构成要素,使该其他的装置执行系统1中的处理的一部分。即,在本实施方式中,执行游戏程序的计算机可以是HMD组件1000、服务器200、用户终端100及分发终端400、以及它们以外的其他的装置的任一个,也可以通过这些多个装置的组合来实现。
<虚拟空间的控制处理>
图8是表示提供给玩家的虚拟空间、以及提供给用户终端100的用户的虚拟空间的控制处理的流程的一个例子的流程图。图9是表示基于一个实施方式的提供给玩家的虚拟空间600A、以及玩家视觉辨认的视野图像的图。图10是表示基于一个实施方式的提供给用户终端100的用户的虚拟空间600B、以及用户视觉辨认的视野图像的图。此外,以下,在不需要区别虚拟空间600A以及600B的情况下,记载为“虚拟空间600”。
在步骤S1中,处理器30作为虚拟空间控制部316,规定图9所示的虚拟空间600A。处理器30使用虚拟空间数据(未图示),规定虚拟空间600A。虚拟空间数据可以存储于游戏性终端300,也可以由处理器30基于游戏程序331而生成,也可以由处理器30从服务器200等外部装置获取。
作为一个例子,虚拟空间600具有覆盖作为中心被定义的点的360度方向的整体的全天球状的构造。在图9和图10中,为了使说明不复杂,例示了虚拟空间600中的上半部分的天球。
在步骤S2中,处理器30作为虚拟空间控制部316,在虚拟空间600A配置网络形象对象610(角色)。网络形象对象610是与玩家建立关联的网络形象对象,根据玩家的输入操作进行动作。
在步骤S3中,处理器30作为虚拟空间控制部316,在虚拟空间600A配置其他的对象。在图9的例子中,处理器30配置对象631~634。其他的对象例如可以包括根据游戏程序331动作的角色对象(所谓的非玩家角色、NPC)、虚拟手等的操作对象、模仿根据游戏的推进而配置的动物、植物、人造物、自然物等的对象等。
在步骤S4中,处理器30作为虚拟空间控制部316,在虚拟空间600A配置虚拟照相机620A。作为一个例子,处理器30将虚拟照相机620A配置于网络形象对象610的头部的位置。
在步骤S5中,处理器30将视野图像650显示于监视器51以及显示器530。处理器30根据虚拟照相机620A的初始的位置和倾斜,定义虚拟空间600A中的来自虚拟照相机620A的视野即视野区域640A。而且,处理器30定义与视野区域640A对应的视野图像650。处理器30通过将视野图像650输出到监视器51以及显示器530,从而使视野图像650显示于HMD500以及显示器530。
在图9的例子中,如图9的(A)所示,对象634的一部分包含于视野区域640A,因此视野图像650如图9的(B)所示那样包括对象634的一部分。
在步骤S6中,处理器30将初始配置信息经由服务器200向用户终端100发送。所谓的初始配置信息是指表示虚拟空间600A中的各种对象的初始的配置位置的信息。在图9的例子中,初始配置信息包含网络形象对象610、以及对象631~634的初始的配置位置的信息。初始配置信息也能够表现为是游戏推进信息之一。
在步骤S7中,处理器30作为虚拟空间控制部316,根据HMD500的动作控制虚拟照相机620A。具体而言,处理器30根据HMD500的动作、即玩家的头部的姿势,控制虚拟照相机620A的朝向以及倾斜。如后所述,若玩家使头部移动(变更头部的姿势),则处理器30根据该移动,使网络形象对象610的头部移动。处理器30例如控制虚拟照相机620A的朝向以及倾斜,使得网络形象对象610的视线的方向和虚拟照相机620A的视线的方向一致。在步骤S8中,处理器30根据变更了虚拟照相机620A的朝向以及倾斜,更新视野图像650。
在步骤S9中,处理器30作为虚拟空间控制部316,根据玩家的动作,使网络形象对象610移动。作为一个例子,处理器30根据玩家在现实空间中移动,使网络形象对象610在虚拟空间600A中移动。另外,处理器30根据玩家在现实空间中使头部移动,使网络形象对象610的头部在虚拟空间600A中移动。
在步骤S10中,处理器30作为虚拟空间控制部316,使虚拟照相机620A以追随网络形象对象610的方式移动。也就是说,即使网络形象对象610移动,虚拟照相机620A也始终处于网络形象对象610的头部的位置。
处理器30根据虚拟照相机620A的移动,更新视野图像650。也就是说,处理器30根据玩家的头部的姿势、和虚拟空间600A中的虚拟照相机620A的位置,更新视野区域640A。其结果为,视野图像650被更新。
在步骤S11中,处理器30将网络形象对象610的动作指示数据经由服务器200向用户终端100发送。这里的动作指示数据在虚拟体验中(例如,玩游戏中),包括导入玩家的动作的活动数据、玩家发出的声音的声音数据、表示对控制器540的输入操作的内容的操作数据的至少任一个。在玩家玩游戏的情况下,动作指示数据例如作为游戏推进信息被发送到用户终端100。
步骤S7~S11的处理在玩家玩游戏期间,被持续反复执行。
在步骤S21中,用户3的用户终端100的处理器10作为虚拟空间控制部116,规定图10所示的虚拟空间600B。处理器10使用虚拟空间数据(未图示),规定虚拟空间600B。虚拟空间数据可以存储于用户终端100,也可以由处理器10基于游戏程序131而生成,也可以由处理器10从服务器200等外部装置获取。
在步骤S22中,处理器10接收初始配置信息。在步骤S23中,处理器10作为虚拟空间控制部116,根据初始配置信息将各种对象配置于虚拟空间600B。在图10的例子的情况下,各种对象是网络形象对象610、以及对象631~634。
在步骤S24中,处理器10作为虚拟空间控制部116,在虚拟空间600B配置虚拟照相机620B。作为一个例子,处理器10将虚拟照相机620B配置于图10的(A)所示的位置。
在步骤S25中,处理器10将视野图像660显示于显示部152。处理器10根据虚拟照相机620B的初始的位置和倾斜,定义虚拟空间600B中的来自虚拟照相机620B的视野即视野区域640B。而且,处理器10定义与视野区域640B对应的视野图像660。处理器10通过将视野图像660输出到显示部152,从而使视野图像660显示于显示部152。
在图10的例子中,如图10的(A)所示,网络形象对象610以及对象631包含于视野区域640B,因此视野图像660如图10的(B)所示那样包括网络形象对象610以及对象631。
在步骤S26中,处理器10接收动作指示数据。在步骤S27中,处理器10作为虚拟空间控制部116,根据动作指示数据,在虚拟空间600B中使网络形象对象610移动。换言之,处理器10通过实时绘制,播放网络形象对象610进行动作的影像。
在步骤S28中,处理器10作为虚拟空间控制部116,根据作为操作接受部111接受到的用户的操作控制虚拟照相机620B。在步骤S29中,处理器10根据变更了虚拟照相机620B在虚拟空间600B中的位置、虚拟照相机620B的朝向以及倾斜,更新视野图像660。此外,在步骤S28中,处理器10也可以根据网络形象对象610的动作、例如网络形象对象610的移动、朝向的变更自动地控制虚拟照相机620B。例如,处理器10也可以以始终从正面拍摄网络形象对象610的方式自动地使虚拟照相机620B移动,或者变更朝向以及倾斜。另外,作为一个例子,处理器10也可以根据网络形象对象610的动作,以始终从后方拍摄网络形象对象610的方式自动地使虚拟照相机620B移动,或者变更朝向以及倾斜。
这样,在虚拟空间600A中,网络形象对象610根据玩家的动作而动作。表示该动作的动作指示数据被发送到用户终端100。在虚拟空间600B中,网络形象对象610根据接收到的动作指示数据进行动作。由此,在虚拟空间600A和虚拟空间600B中,网络形象对象610进行同样的动作。换言之,用户3能够使用用户终端100,视觉辨认与玩家的动作相应的网络形象对象610的动作。
<游戏概要>
图11是表示在用户终端100中显示的视野图像的其他的例子的图。具体而言,是表示玩家正在玩的、系统1所执行的游戏(本游戏)的游戏画面的一个例子的图。
作为一个例子,本游戏是使操作枪、刀等的武器的网络形象对象610和作为NPC的多个敌方对象671在虚拟空间600中登场,并使网络形象对象610进行与敌方对象671的对战的游戏。网络形象对象610的体力、可使用的弹盒的数量、枪的剩余子弹数、敌方对象671的剩余数等各种游戏参数根据游戏的推进被更新。
在本游戏中准备多个阶段,玩家通过使与各阶段建立关联的规定的实现条件成立,能够通关。作为规定的实现条件,例如也可以包括通过打倒全部出现的敌方对象671、打倒出现的敌方对象671中的Boss对象、获得规定的物品、到达规定位置等而成立的条件。该实现条件在游戏程序131内被定义。此外,在本游戏中,根据游戏的内容,在实现条件成立的情况下玩家通关,换言之,决定网络形象对象610对敌方对象671的胜利(网络形象对象610与敌方对象671之间的胜负)。与此相对,例如,在系统1中执行的游戏为竞技游戏等的情况下,在到达终点的条件成立的情况下,决定网络形象对象610的排名。
在本游戏中,为了在HMD组件1000以及多个用户终端100之间共享虚拟空间,游戏推进信息每隔规定时间被现场分发到多个用户终端100。其结果,在视听游戏中的用户终端100的触摸屏15中显示有由与用户终端100对应的虚拟照相机620B规定的视野区域的视野图像。另外,在视野图像的右上部分以及左上部分重叠显示有表示网络形象对象610的体力、可使用的弹盒的数量、枪的剩余子弹数、敌方对象671的剩余数等的参数图像。该视野图像也能够表现为游戏画面。
如上所述,游戏推进信息包括导入玩家的动作的活动数据、玩家发出的声音的声音数据、表示对控制器540的输入操作的内容的操作数据。这些数据即是用于确定网络形象对象610的位置、姿势、朝向等的信息、确定敌方对象671的位置、姿势、朝向等的信息、确定其他对象(例如,障碍物对象672、673)的位置等的信息。处理器10通过分析(绘制)游戏推进信息,确定各对象的位置、姿势、朝向等。
游戏信息132包括网络形象对象610、敌方对象671、障碍物对象672、673等各种对象的数据。处理器10使用该数据和游戏推进信息的分析结果,更新各对象的位置、姿势、朝向等。由此,推进游戏,虚拟空间600B中的各对象与虚拟空间600A中的各对象同样地进行动作。具体而言,在虚拟空间600B中,包含网络形象对象610的各对象与用户对用户终端100的操作的有无无关地基于游戏推进信息进行动作。
在用户终端100的触摸屏15中,作为一个例子,UI图像701以及702与视野图像重叠而显示。UI图像701是接受用于将UI图像711显示于触摸屏15的操作的UI图像,上述UI图像711从用户3接受用于辅助网络形象对象610的物品投入操作。UI图像702是接受用于将UI图像(后述)显示于触摸屏15的操作的UI图像,上述UI图像(后述)从用户3接受用于输入并发送对网络形象对象610(换言之,玩家4)的留言的操作。UI图像701以及702所接受的操作例如也可以是点击UI图像701以及702的操作。
若点击UI图像701,则UI图像711与视野图像重叠而显示。UI图像711例如包括描绘了弹盒的图标的UI图像711A、描绘了急救箱的图标的UI图像711B、描绘了三角锥的图标的UI图像711C、描绘了防栅的图标的UI图像711D。物品投入操作例如相当于点击任一个的UI图像的操作。
作为一个例子,若点击UI图像711A,则网络形象对象610所使用的枪的剩余子弹数增加。若点击UI图像711B,则网络形象对象610的体力恢复。若点击UI图像711C以及711D,则阻碍敌方对象671的移动的障碍物对象672、673被配置于虚拟空间。障碍物对象672、673也可以是一方与另一方相比更阻碍敌方对象671的移动的对象。
处理器10将表示进行了物品投入操作的物品投入信息向服务器200发送。物品投入信息中至少包括用于确定由物品投入操作指定的物品的种类的信息。物品投入信息中也可以包括表示配置有物品的位置的信息等、与物品相关的其他的信息。物品投入信息经由服务器200被发送到其他的用户终端100、以及HMD组件1000。
图12是表示在用户终端100中显示的视野图像的其他的例子的图。具体而言,是表示本游戏的游戏画面的一个例子的图,是用于对玩游戏中的玩家与用户终端100的交流进行说明的图。
在图12的(A)的例子中,用户终端100使网络形象对象610执行发言691。具体而言,用户终端100根据游戏推进信息所包含的声音数据,使网络形象对象610执行发言691。发言691的内容是玩家4所发出的“没有子弹了!”这样的内容。即,发言691的内容是向各用户传达由于弹盒为0、装在枪里的枪弹为1而要丧失攻击敌方对象671的手段的内容。
此外,在图12的(A)中,由于视觉表示网络形象对象610的发言,因此使用对白框,但实际上,从用户终端100的扬声器输出声音。此外,也可以将图12的(A)所示的对白框(即,包含声音的内容的文本的对白框)与声音输出一起显示于视野图像中。这在后述的发言692中也同样。
若接受对UI图像702的点击操作,则如图12的(B)所示,用户终端100将UI图像705以及706(消息UI)与视野图像重叠而显示。UI图像705是显示对网络形象对象610(换言之,玩家)的留言的UI图像。UI图像706是为了发送所输入的留言而从用户3接受留言发送操作的UI图像。
作为一个例子,用户终端100若接受对UI图像705的点击操作,则使模仿键盘的UI图像(未图示,以下仅记载为“键盘”)显示于触摸屏15。用户终端100使与用户对键盘的输入操作相应的文本显示于UI图像705。在图12的(B)的例子中,将“弹盒送达”这样的文本显示于UI图像705。
用户终端100在文本输入后,作为一个例子,若接受对UI图像706的点击操作,则将包含表示输入的内容(文本的内容)的信息、和表示用户的信息的留言信息向服务器200发送。留言信息经由服务器200被发送到其他的用户终端100以及HMD组件1000。
UI图像703A是表示发送留言的用户的用户名的UI图像,UI图像704A是表示该用户所发送的留言的内容的UI图像。在图12的(B)的例子中,用户名为“BBBBB”的用户使用自身的用户终端100发送“危险!”这样的内容的留言信息,从而显示UI图像703A以及UI图像704A。UI图像703A以及UI图像704A显示于参加本游戏的全部用户终端100的触摸屏15、以及HMD500的监视器51。此外,UI图像703A以及704A也可以是一个UI图像。即,也可以在一个UI图像中包含用户名和留言的内容。
在图12的(C)的例子中,作为图12所示的用户终端100的用户的用户名为“AAAAA”的用户如上述那样输入并发送留言,从而在触摸屏15上显示UI图像703B以及704B。在UI图像703B中包含用户名“AAAAA”,在UI图像704B中包含在图12的(B)的例子中输入的“弹盒送达!”的留言。
另外,图12的(C)的例子是用户“AAAAA”进一步输入对UI图像701的点击操作,使UI图像711显示于触摸屏15,并输入对UI图像711A的点击操作后的视野图像611。也就是说,从用户“AAAAA”的用户终端100向其他的用户终端100以及HMD组件1000发送了表示弹盒的物品投入信息的结果是,用户终端100以及HMD组件1000将演出对象674(后述)配置于虚拟空间600。作为一个例子,用户终端100以及HMD组件1000在经过了由物品投入信息表示的经过时间后,执行与演出对象674相关的演出,执行使物品对象的效果发动的处理。
在图12的(D)的例子中,通过执行使物品对象的效果发动的处理,弹盒的数量从0增加到1。其结果是,玩家对用户“AAAAA”发出“谢谢!”,该发出的声音数据被发送到各用户终端100。由此,各用户终端100输出“谢谢!”这样的声音,作为网络形象对象610的发言692。
如以上那样,在本游戏中,通过基于玩家的发言的网络形象对象610的发言声音的输出、和各用户的留言的输入,实现用户与网络形象对象610的交流。
(游戏性终端300中的游戏推进处理)
图13是表示在游戏性终端300中执行的游戏推进处理的流程的一个例子的流程图。
在步骤S31中,处理器30作为游戏推进部315,基于游戏程序331和玩家的动作推进游戏。在步骤S32中,处理器30生成游戏推进信息,并向用户终端100分发。具体而言,处理器30将生成的游戏推进信息经由服务器200向各用户终端100发送。
在步骤S33中,处理器30若接收物品投入信息(在S33中YES),则在步骤S34中,基于物品投入信息,将物品对象配置于虚拟空间600A。作为一个例子,处理器30在配置物品对象之前,将演出对象674配置于虚拟空间600A(参照图11的(C))。演出对象674例如也可以是模仿了礼物箱的对象。作为一个例子,处理器30在经过了由物品投入信息表示经过时间之后,也可以执行与演出对象674相关的演出。该演出例如也可以是打开礼物箱的盖子的动画。处理器30在执行该动画后,执行使物品对象的效果发动的处理。例如,在图11的(D)的例子中,配置障碍物对象673。
处理器30在执行动画后,也可以将与被点击操作的UI图像对应的物品对象配置于虚拟空间600A。例如,在对UI图像711A进行了点击操作的情况下,处理器30在执行动画后,将表示弹盒的弹盒对象配置于虚拟空间600A。另外,在对UI图像711B进行了点击操作的情况下,处理器30在执行动画后,将表示急救箱的急救箱对象配置于虚拟空间600A。处理器30例如也可以在网络形象对象610移动到弹盒对象或者急救箱对象的位置的情况下,执行使弹盒对象或者急救箱对象的效果发动的处理。
处理器30在游戏结束之前持续反复步骤S31~S34的处理。在游戏结束的情况下,例如,在玩家输入了用于结束游戏的规定的输入操作的情况下(在步骤S35中YES),结束图13所示的处理。
(用户终端100中的游戏推进处理)
图14是表示在用户终端100中执行的游戏推进处理的流程的一个例子的流程图。
在步骤S41中,处理器10接收游戏推进信息。在步骤S42中,处理器10作为游戏推进部115,基于游戏推进信息使游戏推进。
在步骤S43中,处理器10若接受基于用户3的物品投入操作(在步骤S43中YES),则在步骤S44中,处理器10花费虚拟货币,将演出对象674配置于虚拟空间600B。在这里,虚拟货币也可以是在参加游戏前、或者在参加游戏中,用户3对处理器10进行规定的操作而购入(对于本游戏充钱)的货币,也可以是在满足规定的条件的情况下赋予用户3的货币。所谓的规定的条件,可以是本游戏中的任务的通关等、参加本游戏所需的条件,也可以是回答问卷等、参加本游戏不需要的条件。作为一个例子,虚拟货币的金额(虚拟货币的所有量)作为游戏信息132存储于用户终端100。
在步骤S45中,处理器10将物品投入信息向服务器200发送。物品投入信息经由服务器200被发送到游戏性终端300。
处理器10在配置了演出对象674后,若经过了规定时间,则将物品对象配置于虚拟空间600A。在图11的例子中,配置障碍物对象673。也就是说,用户3输入对UI图像711C的点击操作,从而花费规定量的虚拟货币,配置障碍物对象673。
处理器10在游戏结束之前持续反复步骤S41~S45的处理。在游戏结束的情况下,例如,在玩家进行了用于结束游戏的规定的输入操作的情况下、用户3进行了用于从游戏中途退场的规定的输入操作的情况下(在步骤S46中YES),结束图14所示的处理。
(服务器200中的游戏推进处理)
图15是表示在服务器200中执行的游戏推进处理的流程的一个例子的流程图。
在步骤S51中,处理器20从游戏性终端300接收游戏推进信息。在步骤S52中,处理器20作为日志生成部212,更新游戏推进的日志(以下,游戏日志)。此外,作为一个例子,在从游戏性终端300接收到初始配置信息时,由处理器20生成游戏日志。
在步骤S53中,处理器20将接收到的游戏推进信息向各用户终端100发送。
在步骤S54中,在从任一个用户终端100接收到物品投入信息的情况下(在步骤S54中YES),在步骤S55中,处理器20作为日志生成部212更新游戏日志。在步骤S56中,处理器20将接收到的物品投入信息向游戏性终端300发送。
处理器20在游戏结束之前持续反复步骤S51~S56的处理。在游戏结束的情况下,例如,在从游戏性终端300接收到表示游戏结束的信息的情况下(在步骤S57中YES),在步骤S58中,处理器20作为列表生成部213,根据游戏日志生成参加游戏的用户的列表(用户列表234)。处理器20将所生成的用户列表234存储于服务器200。
图16是表示用户列表234的一个具体例的图。在“用户”的栏中储存有表示参加游戏的各用户的信息(例如,用户名)。在“标签”的栏中储存有基于各用户对玩家进行的辅助而生成的信息(标签)。在图16的例子中,储存于“标签”的栏中的标签中、不具有括号的内容是处理器20自动生成的信息,具有括号的内容是游戏的经营者手动输入的信息。
在图16的例子中,在用户“AAAAA”中对应有弹盒、10F、Boss、“通过弹盒的礼物战胜Boss”的信息。这表示例如在10F的阶段中的Boss战中,用户“AAAAA”投入弹盒,网络形象对象610用该投入的弹盒的枪弹战胜了Boss。
另外,在用户“BBBBB”中对应有急救箱、3F、喽啰、“在临近游戏结束前恢复”的信息,这表示例如在3F的阶段的与敌方喽啰的战斗中,用户“BBBBB”投入急救箱,其结果,在网络形象对象610的体力临近变成0(游戏结束)之前恢复了体力。
另外,在用户“CCCCC”中对应有防栅、5F、喽啰、“用防栅阻挡两个僵尸”的信息。这表示例如在5F的阶段的与敌方喽啰的战斗中,用户“CCCCC”投入防栅(图11中的障碍物对象672),其结果为,成功阻挡了两个敌方喽啰。
在图16的例子中,对各用户3的用户名对应有一个进行的辅助,但在进行了多次辅助的用户3的用户名中对应有多次的辅助各自的标签。在用户列表234中,优选对该各自的标签进行区别。由此,在游戏结束后,参照用户列表421的玩家使用分发终端400能够准确地掌握各辅助的内容。
<动作指示数据的分发>
(分发终端400中的分发处理)
图17是表示在分发终端400中执行的分发处理的流程的一个例子的流程图。图18是表示显示于分发终端400的画面的一个具体例的图。图19是表示显示于分发终端的画面的其他的具体例的图。
在步骤S61中,处理器40作为操作接受部413,接受用于显示参加游戏的用户的列表(用户列表234)的第一操作。图18的(A)所示的下载画面721是用于从服务器200下载用户列表234并显示于显示部452的画面。作为一个例子,下载画面721是在将执行图17所示的分发处理的应用的启动操作输入到分发终端400后所显示的画面。
作为一个例子,下载画面721包括UI图像722以及723。UI图像722接受用于下载用户列表234的操作、即上述第一操作。第一操作例如也可以是点击UI图像722的操作。UI图像723接受用于结束应用的操作。该操作例如也可以是点击UI图像723的操作。
若接受对UI图像722的点击操作,则在步骤S62中,处理器40作为通信控制部411,从服务器200获取(接收)用户列表234。在步骤S63中,处理器40作为显示控制部412,使用户列表234显示于显示部452。具体而言,处理器40使基于用户列表234生成的用户列表画面显示于显示部452。作为一个例子,用户列表画面也可以是图18的(B)所示的用户列表画面731。用户列表画面731由与用户列表234中的各记录对应的记录图像构成。在图18的(B)的例子中,作为记录图像,记载了记录图像732A~732C,但记录图像的数量并不限定于3个。在图18的(B)的例子中,在用户列表234中的记录的数量比3多(即,参加游戏的用户的人数比3人多)的情况下,玩家例如将滚动画面的操作(例如,拖动操作、轻击操作)输入到触摸屏45,从而能够使其他的记录图像显示于显示部452。
作为一个例子,记录图像732A~732C分别包括用户名733A~733C、标签信息734A~734C、以及图标735A~735C。以下,对于记录图像732A~732C、用户名733A~733C、标签信息734A~734C、以及图标735A~735C,在不需要区别的情况下,分别记载为“记录图像732”、“用户名733”、“标签信息734”、“图标735”。
用户名733是在用户列表234中储存于“用户”栏的、表示参加游戏的各用户的信息。标签信息734是表示在用户列表234中与表示参加游戏的各用户的信息的每一个建立对应的标签的信息。例如,记录图像732A包含“AAAAA”作为用户名733A。因此,记录图像732A包含在用户列表234中与“AAAAA”建立对应的、“弹盒、10F、Boss、‘通过弹盒的礼物战胜Boss’”作为标签信息734A。图标735例如是用户事先设定的图像。
此外,处理器40也可以将接收到的用户列表存储于分发终端400(图7的用户列表421)。下载画面721也可以包含用于将用户列表421显示于显示部452的UI图像(未图示)。在该例中,在点击该UI图像的情况下,处理器40不进行用户列表234的下载,读出用户列表421,从该用户列表421生成用户列表画面,并显示于显示部452。
在步骤S64中,处理器40作为操作接受部413,接受用于选择用户列表画面731所包含的用户的任一个的第二操作。第二操作作为一个例子,也可以是点击用户列表画面731中的记录图像732的任一个的操作。在图18的(B)的例子中,玩家输入对记录图像732A的点击操作。即,玩家选择用户“AAAAA”作为分发动作指示数据的用户。
若接受对记录图像732的点击操作,则在步骤S65中,处理器40作为显示控制部412,使活动列表422显示于显示部452。具体而言,处理器40将基于活动列表422生成的活动列表画面显示于显示部452。活动列表画面作为一个例子,也可以是图19所示的活动列表画面741。活动列表画面741由与活动列表422中的各记录对应的记录图像构成。在图19的例子中,作为记录图像,记载了记录图像742A~742C,但记录图像的数量并不限定于3个。在图19的例子中,在活动列表422中的记录的数量比4多的情况下,玩家例如将滚动画面的操作(例如,拖动操作、轻击操作)输入到触摸屏45,从而能够使其他的记录图像显示于显示部452。
作为一个例子,记录图像742A~742C分别包括活动名743A~743C、活动图像744A~744C、以及UI图像745A~745C。以下,对于记录图像742A~742C、活动名743A~743C、活动图像744A~744C、以及UI图像745A~745C,在不需要区别的情况下,分别记载为“记录图像742”、“活动名743”、“活动图像744”、“UI图像745”。
活动名743是识别储存于活动列表422的活动的信息。活动图像744是在活动列表422中,由与各活动名建立对应的活动数据生成的图像。作为一个例子,处理器40将采取各活动数据中的最初的姿势的网络形象对象610的图像作为活动图像744包含于记录图像742。活动图像744也可以是接受玩家的规定的操作(例如,对活动图像744的点击操作)的UI图像。处理器40也可以在接受了该规定的操作的情况下,基于活动数据播放网络形象对象610进行动作的活动动画。若活动动画结束,则处理器40也可以自动地再显示活动列表画面741。
此外,记录图像742例如也可以包括含有“活动播放”的文本的UI图像,代替活动图像744。
在步骤S66中,处理器40作为操作接受部413,接受选择活动的第三操作。第三操作作为一个例子,也可以是对UI图像745的点击操作。也就是说,UI图像745接受选择与各记录图像742对应的活动数据的操作。通过接受了第三操作,处理器40作为活动确定部415,确定玩家所选择的活动数据。
在步骤S67中,处理器40作为显示控制部412以及声音接受部414,播放网络形象对象610基于所选择的活动数据而动作的活动动画并接受玩家的声音输入。
图20是表示玩家4的声音输入的一个具体例的图。如图20所示,玩家4播放活动动画810A并输入发言声音820A。该发言声音820A是发给用户名为“AAAAA”的用户3(以下,用户3A)的发言声音。也就是说,在图20的例子中,玩家4在步骤S64中,选择用户3A(第一用户),制成发给该用户3A的动作指示数据。此外,用户3A所使用的用户终端100是用户终端100A。
发言声音820A是发给用户3A的发言声音,因此成为基于该用户3A对网络形象对象610(换言之,玩家4)进行的辅助的内容的发言声音。具体而言,用户3A在10F的阶段中的Boss战中,投入弹盒,网络形象对象610用该投入的弹盒的枪弹战胜Boss。因此,发言声音820A是“谢谢在Boss战中赠送弹盒给我!时机也很完美!多亏了AAAAA才能通关!”的内容。这样,优选发言声音包括用户3在游戏中进行的辅助的内容和对用户3的感谢。
在一个方面中,在玩家4开始声音输入前,即,在向分发终端400输入第三操作前,制成发给用户3的发言内容。在其他的方面中,发给用户3的发言内容也可以由处理器40自动生成。另外,处理器40也可以将与由第二操作选择的用户3建立对应的标签与活动动画810A重叠而显示。
处理器40将接受到的声音转换为声音数据。在步骤S68中,处理器40作为动作指示数据生成部416,生成包含该声音数据和所选择的活动的活动数据的动作指示数据。
在步骤S69中,处理器40作为通信控制部411,将生成的动作指示数据分发给所选择的用户3(在图20的例子中用户3A)的用户终端100(第一计算机)。图21是表示显示于分发终端400的画面的又一具体例的图。处理器40在执行步骤S68后,作为显示控制部412,使分发画面显示于显示部452。作为一个例子,分发画面也可以是图21的(A)所示的分发画面751。分发画面751包括UI图像752以及活动图像753A。另外,如图21的(A)所示,分发画面751也可以包括表示动作指示数据的分发目的地的用户的信息。
UI图像752接受用于向所选择的用户3分发动作指示数据的操作。该操作例如也可以是对UI图像752的点击操作。活动图像753A是接受用于播放基于所生成的动作指示数据的动画、即基于用户3A用而生成的动作指示数据的动画的操作的UI图像。该操作例如也可以是对活动图像753A的点击操作。此外,接受用于播放所生成的动画的操作的UI图像并不限定于活动图像753A。例如,也可以是包含“动画播放”的文本的UI图像。处理器40也可以在动画结束时,自动地再显示分发画面751。
优选分发画面751还包括接受用于返回到接受声音输入的操作的UI图像。该操作例如也可以是对该UI图像的点击操作。分发画面751包括该UI图像,从而玩家4例如能够在弄错发言的内容的情况下等、在声音输入失败的情况下,进行再次声音输入。此外,该UI图像也可以是接受用于返回到选择活动数据的操作的UI图像。
若接受对UI图像752的点击操作,则处理器40将动作指示数据与表示用户3A的信息一起向服务器200发送。服务器200基于表示用户3A的信息,确定动作指示数据的发送目的地的用户终端100,将该动作指示数据向所确定的用户终端100(即,用户终端100A)发送。
处理器40也可以在动作指示数据的发送结束的情况下,作为一个例子,使图21的(B)所示的分发完成画面761显示于显示部452。作为一个例子,分发完成画面761包括UI图像762以及763。另外,如图21的(B)所示,分发完成画面761也可以包括表示动作指示数据的发送完成的文本。
UI图像762接受用于开始制成发给其他的用户3的动作指示数据的操作。该操作例如也可以是点击UI图像762的操作。处理器40若接受该点击操作,则使用户列表画面再次显示于显示部452。即,在接受了该点击操作的情况下,分发处理返回到步骤S63。此时,处理器40也可以基于存储于分发终端400的用户列表421,生成用户列表画面,并使其显示于显示部452。UI图像763接受用于结束应用的操作。该操作例如也可以是点击UI图像763的操作。若接受该操作,则结束分发处理。
在参照图20、图21进行说明的例子中,如图21的(C)所示,分发终端400将发给用户3A(用户名为“AAAAA”的用户3)的动画的动作指示数据仅向用户终端100A发送。
图22是表示玩家4的声音输入的其他的具体例的图。如图22所示,玩家4播放活动动画810B并输入发言声音820B。该发言声音820B是发给用户名为“BBBBB”的用户3(以下,用户3B)的发言声音。也就是说,在图22的例子中,玩家4在步骤S64中,输入对与用户3B对应的记录图像732B的点击操作,制成发给用户3B的动作指示数据。此外,用户3B所使用的用户终端100是用户终端100B。
发言声音820B是发给用户3B的发言声音,因此成为基于该用户3B对网络形象对象610(换言之,玩家4)进行的辅助的内容的发言声音。具体而言,用户3B在3F的阶段的与敌方喽啰的战斗中,用户“BBBBB”投入急救箱,其结果,在网络形象对象610的体力临近变成0(游戏结束)之前恢复了体力。因此,发言声音820B是“多亏了BBBBB赠送给我的急救箱,在3F中游戏结束之前就解决了。真的很谢谢!”的内容。
图23是表示显示于分发终端400的画面的又一具体例的图。图23的(A)所示的分发画面751包括UI图像752以及活动图像753B。活动图像753B若接受点击操作,则播放基于用户3B用而生成的动作指示数据的动画。
若接受对UI图像752的点击操作,则处理器40将动作指示数据与表示用户3B的信息一起向服务器200发送。服务器200基于表示用户3B的信息,确定动作指示数据的发送目的地的用户终端100,将该动作指示数据向所确定的用户终端100(即,用户终端100B)发送。
在参照图22、图23进行说明的例子中,如图23的(C)所示,分发终端400将发给用户3B(用户名为“BBBBB”的用户3)的动画的动作指示数据仅向用户终端100B发送。
如以上那样,基于动作指示数据所包含的声音数据的声音的内容基于在用户3最近参加游戏中对玩家4进行的辅助的内容。该辅助的内容针对每个用户3不同,因此声音的内容针对每个用户3成为不同的内容。也就是说,在游戏结束后,向参加游戏的用户3的至少一部分的用户终端100分别发送包含不同的内容的声音的动作指示数据。
另外,图22的例子中的网络形象对象610的活动与图20的例子中的活动不同。也就是说,玩家4在发给用户3B的动作指示数据生成中,选择与发给用户3A的动作指示数据生成时不同的活动数据。具体而言,玩家4在步骤S66中,输入对选择与记录图像742B对应的活动数据的UI图像745B的点击操作。这样,玩家4能够使动作指示数据所包含的活动数据针对每个用户3不同。
而且,包括对每个用户3不同的内容的声音数据和对每个用户3选择的活动数据的每个用户3的动作指示数据仅被发送到各用户3的用户终端100。换言之,对每个用户终端100独特(唯一)的动作指示数据分别被发送到所选择的用户3的用户终端100。
图24是表示从游戏性终端300向用户终端100的游戏推进信息的发送的概要的图。用户终端100中的用于动画播放的动作指示数据针对每个用户终端100是独特的,另一方面,如图24所示,在游戏执行中,发送到参加游戏的全部用户3的用户终端100的游戏推进信息在各用户终端100之间共用。即,游戏推进信息所包含的动作指示数据也在各用户终端100之间共用。这样,用于动画播放的动作指示数据和用于使游戏推进的动作指示数据在用户终端100之间的异同以及发送目的地这样的观点上可以说是不同的数据。
(用户终端100中的动画播放处理)
图25是表示在用户终端100中执行的动画播放处理的流程的一个例子的流程图。
在步骤S71中,处理器10作为动画播放部117,接收动作指示数据。在步骤S72中,处理器10作为动画播放部117,向用户3通知动作指示数据的接收。作为一个例子,处理器10通过向通知图像的显示部152的显示、来自扬声器(未图示)的通知声音的播放、由LED(light-emitting diode:发光二极管)等构成的亮灯部(未图示)的点亮或闪烁的至少任一个,向用户3通知动作指示数据的接收。
在步骤S73中,处理器10作为操作接受部111,接受用于播放动画的第一播放操作。作为一个例子,第一播放操作也可以是点击通知图像的操作。在步骤S74中,处理器10作为动画播放部117,绘制动作指示数据,播放动画。作为一个例子,处理器10也可以使用于玩本游戏的应用启动,播放动画,也可以使与该应用不同的、动画播放用的应用启动,播放动画。以下,将该动画记载为“谢谢动画”。
图26是表示谢谢动画的播放的一个具体例的图。具体而言,是表示用户3A的用户终端100中的谢谢动画的播放的一个例子的图。在该用户终端100中播放的谢谢动画910A中,网络形象对象610执行一个活动并发出声音920A。换言之,处理器10播放包括执行一个活动的网络形象对象610的谢谢动画910A并使声音920A从扬声器(未图示)输出。
谢谢动画910A中的活动基于在发给用户3A的动作指示数据的生成中,玩家4所选择的活动数据,声音920A基于在该动作指示数据的生成中,由玩家4所输入的发言声音820A生成的声音数据。也就是说,声音920A是包含用户3A在游戏中进行的辅助的内容和对该辅助的感谢的声音。这样,用户3A通过第一播放操作的输入,能够视听网络形象对象610发出自身在游戏中进行的辅助的内容、和对该辅助的感谢的谢谢动画。
作为一个例子,用户终端100也可以在谢谢动画910A的播放结束之后,使至少一个UI图像显示于触摸屏15。该UI图像例如也可以是接受用于再次播放谢谢动画910A的操作的UI图像,也可以是接受用于转变到其他画面的操作的UI图像,也可以是接受用于结束应用的操作的UI图像。
另外,作为一个例子,用户终端100也可以在谢谢动画910A的播放中,使至少一个UI图像显示于触摸屏15。该UI图像例如也可以是分别接受使播放中的谢谢动画910A暂时停止、或结束、或使播放的场面变更的操作的多个UI图像。
此外,在谢谢动画910A的播放中、以及谢谢动画910A的播放被猎定后所显示的这些UI图像中不包括用于进行对网络形象对象610的回答的UI图像。即,在本实施方式所涉及的谢谢动画910A中,不具备用于进行对网络形象对象610的回答的方法。
图27是表示谢谢动画的播放的另一具体例的图。具体而言,是表示用户3B的用户终端100中的谢谢动画的播放的例子的图。在该用户终端100中播放的谢谢动画910B中,网络形象对象610执行某个活动并发出声音920B。换言之,处理器10播放包括执行某个活动的网络形象对象610的谢谢动画910B并使声音920B从扬声器(未图示)输出。
谢谢动画910B中的活动基于在发给用户3B的动作指示数据的生成中,玩家4所选择的活动数据,声音920B基于在该动作指示数据的生成中,由玩家4所输入的发言声音820B生成的声音数据。因此,在图27的例子中,网络形象对象610进行的活动与图26的例子的活动不同。另外,声音920B是包含用户3B在游戏中进行的辅助的内容、和对该辅助的感谢的声音。因此,在图27的例子中,声音920B的内容与图26的例子中的声音920A的内容不同。
这样,在游戏结束后,参加游戏的用户3的至少一部分的用户终端100所接收的谢谢动画是针对每个用户3网络形象对象610的发言内容不同的动画。
此外,处理器10也可以使包含提示参加下次的游戏的内容的UI图像930与动画910重叠而显示。UI图像930也可以与动作指示数据一起进行分发,也可以作为游戏信息132,由用户终端100存储。
在上述实施方式中,对通过动画生成部314生成表现了移动网络形象对象610的嘴、或改变表情的状态的动画等的例子进行了说明,但在以下,例示了控制网络形象对象610的嘴角的动作、由眼角、脸颊等确定的表情的具体的方法。首先,对在用户终端100侧控制包含网络形象对象610的嘴角、眼角、脸颊等的脸的例子进行说明。
在用户终端100侧,如图8中所示那样,进行如下处理:与虚拟空间600A同样地规定虚拟空间600B,基于包含活动数据以及声音数据的动作指示数据以与玩家(表演者)的身体的动作同步的方式实时生成虚拟空间600B内的网络形象对象610并使其动作,将来自虚拟照相机620B的视野图像660显示于显示部152并用于输出声音。与这样的处理并行,用户终端100侧的处理器10执行图28所示的脸控制处理。由此,控制包含虚拟空间600B内的网络形象对象610的嘴角、眼角、脸颊等的脸。
在图28所示的脸控制处理中,根据由声音数据确定的声音的元音控制网络形象对象610的嘴角,根据时间经过随机切换并控制虚拟空间600B内的网络形象对象610的表情。此外,脸控制处理可以作为图8的步骤S27的处理来执行,另外,也可以与图8的步骤S27的处理分开地每隔规定期间(例如,0.2秒等)来执行。
在步骤S81中,判定是否接收了动作指示数据所包含的声音数据。在步骤S81中判定为接收到声音数据时,在步骤S82中基于声音数据,确定发言的声音的元音。例如,确定发言的声音的元音属于“あ”“い”“う”“え”“お”中的哪一个元音。
在步骤S83中,根据所确定的元音确定嘴(开口)的形状亦即嘴形。作为嘴形,“あ”“い”“う”“え”“お”的每个元音被预先决定。例如,与“あ”的元音对应地决定人发出“あ”时的一般的嘴形,与“う”的元音对应地决定人发出“う”时的一般的嘴形。在存储器11中预先存储有与“あ”“い”“う”“え”“お”的每个元音的嘴形对应的纹理图像的数据。作为纹理图像,例如,对“あ”的元音决定模仿人发出“あ”时的嘴形的图像。
在步骤S84中,将配置于虚拟空间600B进行动作的网络形象对象610的嘴形变更为在步骤S83中确定的嘴形。具体而言,作为网络形象对象610的嘴角的纹理图像,粘贴与所确定的嘴形对应的纹理图像。由此,能够将网络形象对象610的嘴形变更为与玩家发出的声音对应的嘴形。在显示包含网络形象对象610的画面并输出发言内容的状态下,用户一般首先致力于根据发言内容确定是怎样的话题,因此首先集中于发言的声音,然后关注与玩家的动作相应的网络形象对象610的身体整体的动作、与该发言直接关联的嘴角的动作。在本实施方式中,如上所述,能够使网络形象对象610的嘴形成为实际上人发言时的一般的嘴形,因此能够减少使用户怀有不协调感这一情况。
在步骤S81中未判定为接收到声音数据时、进行了步骤S84之后,在步骤S85中判定表情切换计时器的值是否为“0”。表情切换计时器是用于判定预先决定的切换时间的经过,确定切换网络形象对象610的表情的定时的计时器。表情切换计时器的值根据时间的经过而被减去。在表情切换计时器的值不是“0”且还未经过切换时间时,移至步骤S81,在表情切换计时器的值是“0”且经过切换时间时,移至步骤S86。
在步骤S86中,从预先决定的多种表情中随机确定任一个。多种表情被决定为例如眼睛的睁开情况、眉毛的动作、形状、脸颊的膨胀、色泽、酒窝的有无、皱纹等的至少任一个不同。多种表情大致分为:使用户怀有喜悦的印象的第1类别的表情;使用户怀有愤怒的印象的第2类别的表情;使用户怀有悲伤的印象的第3类别的表情;使用户怀有快乐的印象的第4类别的表情;使用户不怀有喜怒哀乐的任一种印象而怀有平常的印象的第5类别的表情。另外,第1类别~第5类别的表情按照各个类别,还决定多种表情。在存储器11中预先存储有与多个种类的各个表情对应的纹理图像的数据。与多个种类的各个表情对应的纹理图像包括具有眼睛、眼睑、眉毛、脸颊等的动作的动态图像、眼睛、眼睑、眉毛、脸颊等以规定的状态静止的静止图像。在步骤S86中,从多种表情中通过随机抽选等确定任一个表情。
在步骤S87中,将配置于虚拟空间600B进行动作的网络形象对象610的表情变更为在步骤S86中确定的表情。具体而言,作为网络形象对象610的眼角、脸颊的纹理图像,粘贴与所确定的表情对应的纹理图像。
在步骤S88中,在表情切换计时器中设定相当于2秒的值作为切换时间。表情切换计时器的值根据时间的经过被减去。其结果,在步骤S88中设定了表情切换计时器的值之后经过了2秒时,在步骤S85中判定表情切换计时器的值为“0”,再次在步骤S87中变更表情。
接下来,示出通过脸控制处理随机切换嘴角以及表情的网络形象对象610的显示例。图29示出根据玩家的动作使网络形象对象610动作,并且该网络形象对象610的嘴角被切换为发言时的一般的嘴形,并且该网络形象对象610的表情作为一个例子被切换为表情a→表情w→表情r时的显示部152中的显示例。
在图29中,作为网络形象对象610的动作,示出了指某个方向的状态(特别是图29的(C)~(F)等)、使姿势手势变化的状态(特别是图29的(A)(B)(G)~(I)等),使脚交叉的状态(图29的(B)(C)等)、使身体、脸的朝向变化的状态(特别是图29的(C)~(F)(I)等)、前屈或跳起的状态(图29的(C)(H)等),并且示出了嘴角根据发言变化的状态。
另外,在图29的(A)~(C)中示出了表情a的网络形象对象610,在图29的(D)~(F)中示出了表情w的网络形象对象610,在图29的(G)~(I)中示出了表情r的网络形象对象610。在图29中,还示出了对于每一个表情(表情a、表情w、表情r),从左到右,开始该表情时、经过了1秒时以及结束时(马上切换)的三个表情的转变。
表情a是属于第1类别的表情的例子。表情a被决定为从睁圆双眼的状态(图29的(A))转变为眯着眼的状态(图29的(B))后,成为进一步眯着双眼而闭合的状态。
表情w是属于第5类别的表情的例子。如图29的(D)~图29的(F)所示,表情w被决定为在以普通的大小睁开眼睛的状态下几乎无变化地维持。
表情r是属于第4类别的表情的例子。表情r被决定为从睁开双眼的状态(图29的(G))转变为眨眼的状态(图29的(H))后,成为睁圆双眼的状态。网络形象对象610的表情在成为表情r以后每隔2秒随机切换。因此,不需要配置例如操作用于切换表情的开关的人员、特别的装置等,能够防止增大成本。
另一方面,由于随机切换表情,因此例如可能产生即使是输出快乐的话时也变更为悲伤的表情等、发言的内容和网络形象对象610的表情不一致的情况。
但是,切换表情的切换时间被设定为比某个间隔(3秒)短的时间(2秒)。在这里,作为某个间隔的3秒的时间例如是从视听者(人)开始视觉辨认某个画面到全部识别该画面内的信息为止所需的平均的时间,一般认为是视听者对该画面厌倦的时间。本发明着眼于这样的原理,并反手掌握了该原理。即,通过以小于3秒的间隔切换表情,虽然使用户识别到网络形象对象610的表情变化本身,但在用户完全掌握当前的表情具体是哪种表情(悲伤的表情,或者喜悦的表情等)之前再次切换表情。如图29中所例示,表情以2秒间隔一个接一个被切换,并且在一个表情中每次都变化,因此用户难以完全掌握当前的表情具体是哪种表情。由此,即使在网络形象对象610的表情变化为与发言的内容不一致的表情时,也能够在用户识别到该表情具体是哪种表情之前,使用户怀有因不一致而产生的不协调感之前,再次切换表情。因此,能够尽量不增大成本且减少对用户的不协调感。
另外,即使在随机切换表情的情况下,也以规定的比例将网络形象对象610的表情切换为与发言的内容一致的表情(或者不怀有不协调感的表情)。在本实施方式中,如上所述,设置有属于第1类别~第5类别的任一种的表情。因此,以1/5的概率将网络形象对象610的表情切换为与发言的内容一致的表情(或者不怀有不协调感的表情)。另一方面,用户首先集中于发言的声音,成为根据该发言某种程度上掌握话语的内容的状态(在脑中某种程度构建的状态)。在该状态下,在切换为与用户掌握的内容一致的表情时,能够以比通常(某个间隔亦即3秒)短的时间理解该表情的可能性较高。例如,在图29的例子中,在假定用户根据发言内容掌握是快乐的话的情况下,在切换为图29的(A)~图29的(C)所示那样的属于第1类别的表情、图29的(G)~图29的(I)所示那样的属于第4类别的表情时,能够以比通常短的时间理解是表现喜悦、快乐的表情的可能性较高。其结果,能够以高比例使用户具有发言的内容和网络形象对象610的表情一致的印象,能够对用户灌输一致的印象。其结果,即使在发言的内容和网络形象对象610的表情不一致时,也能够使用户难以注意到该情况,能够进一步减少不协调感。
并且,考虑到画面掌握所需的时间会产生个人差异,也考虑到存在在作为切换时间而设定的2秒的期间内,能够完全掌握变化后的表情具体是哪种表情的用户。但是,在显示包含网络形象对象610的画面并且输出发言内容的状态下,如上所述,用户首先集中于发言内容,然后关注网络形象对象610的身体整体的动作、嘴角的动作,其结果,关于网络形象对象610的表情的确定作业,在其以后进行。特别是,在如图29的(C)(D)等所示那样由网络形象对象610进行指向某个方向的动作的情况、如图29的(A)(G)(I)等所示那样网络形象对象610的姿势手势变化的情况、如图29的(H)等所示那样网络形象对象610跳起等、姿势本身具有较大的动作的情况下等,用户关注该网络形象对象610的动作等的趋势较强,进而也关注嘴角的动作,因此,开始网络形象对象610的表情的确定作业的定时相当晚。因此,在2秒钟内能够花费在网络形象对象610的表情的确定作业的时间不足2秒。因此,能够减少能够完全掌握变化后的当前的表情具体是哪种表情的可能性。其结果,对于能够快速掌握当前的表情具体是哪种表情的用户而言,也使确定作业开始定时延迟,从而能够减少怀有不协调感的可能性。
另外,网络形象对象610的脸的朝向、位置等根据玩家的头的朝向、位置(头的活动)等而变动。并且,显示于用户终端100的显示部152的网络形象对象610成为从根据用户的操作而变化的虚拟照相机620B的方向等观察的图像。如图29的(C)所例示那样,在网络形象对象610的脸向下时,如图29的(C)~(F)等中所例示那样,在网络形象对象610的脸朝向侧面时等,无法从正面视觉辨认网络形象对象610的脸。因此,与网络形象对象610的脸的位置、朝向等不产生变化的情况相比,预料到用户完全掌握网络形象对象610的表情所需的时间比上述的某个间隔亦即3秒长。从该观点出发,也能够减少使用户怀有不协调感的可能性。
另外,如步骤S88所示,表情的切换时间(切换间隔)被设定为2秒。如果是2秒,则用户能够识别网络形象对象610的表情发生了变化的情况本身的可能性较高。由此,能够使用户注意到网络形象对象610的表情被反复切换,能够使其怀有自然的氛围。
另外,在用户终端100侧控制网络形象对象610的嘴角、表情。因此,能够防止分发动作指示数据的游戏性终端300侧的处理负担增大。另外,在用户终端100侧随机切换表情,因此虽然接收相同的动作指示数据,但能够在多个用户终端100间使网络形象对象610的表情不同,能够提高乐趣。
<变形例>
以下列举以上说明的实施方式的变形例等。
(1)在上述实施方式中,对在用户终端100侧执行网络形象对象610的脸控制处理的例子进行了说明。但是,网络形象对象610的脸控制处理也可以在游戏性终端300、分发终端400侧执行。
在游戏性终端300侧,如图8所示,进行如下处理:规定虚拟空间600A,以与玩家(表演者)的身体的动作同步的方式实时生成虚拟空间600A内的网络形象对象610并使其动作,并且用于输出包含活动数据以及声音数据的动作指示数据。用于输出包含活动数据以及声音数据的动作指示数据的处理也可以说是用于在用户终端100侧规定与虚拟空间600A同样的虚拟空间并使来自虚拟照相机620B的视野图像660显示于显示部152的处理。也可以与这些处理并行,游戏性终端300侧的处理器30执行以下的处理。
作为与图28的步骤S81~S84对应的处理,游戏性终端300侧的处理器30执行如下处理:在由玩家发言时,根据该发出的声音的元音确定嘴形,输出用于确定该嘴形的种类的嘴形数据。另外,作为与图28的步骤S85~S888对应的处理,游戏性终端300侧的处理器30执行如下处理:每当显示切换计时器变成“0”,从多种表情随机确定任一种,输出用于确定该表情的种类的表情数据,并且设定相当于2秒的值作为表情切换计时器的值,根据时间经过减去表情切换计时器的值。另一方面,也可以在用户终端100侧,将配置于虚拟空间600B的网络形象对象610的嘴形变更为从嘴形数据确定的嘴形,并且将网络形象对象610的表情变更为从表情数据确定的表情。
另外,作为其他方法,不限于游戏性终端300将用于能够确定嘴形的种类、表情的种类的嘴形数据、表情数据向用户终端100发送,例如,也可以将所确定的嘴形、表情的纹理图像数据向用户终端100发送,用户终端100侧使用该纹理图像数据变更网络形象对象610的嘴形以及表情。
另外,进一步作为其他方法,也可以在游戏性终端300侧,在虚拟空间600A内配置各用户终端100的虚拟照相机620B,将能够确定来自该虚拟照相机620B的视野图像的动画数据向用户终端100发送,用户终端100侧使用该动画数据将来自虚拟照相机620B的视野图像显示于显示部152。也就是说,在上述实施方式中,对包含玩家(表演者)表演的网络形象对象610的虚拟空间内的图像接收从外部分发的数据亦即包含活动数据以及声音数据的动作指示数据,在用户终端100侧使用该动作指示数据生成(绘制)动画(影像)并播放的例子(实时绘制方式)进行了说明,但并不限于此,也可以从游戏性终端300分发用于显示包含网络形象对象610(嘴形、表情)的虚拟空间内的动画的动画数据,在用户终端100侧使用该动画数据播放包含网络形象对象610的动画(影像)(动画分发方式)。该情况下,嘴形、表情的纹理图像数据预先存储于游戏性终端300的存储器31,通过游戏性终端300根据玩家的动作生成虚拟空间600A内的网络形象对象610时,也可以使用所确定的嘴形、表情的纹理图像数据变更该网络形象对象610的嘴形、表情。由此,发送到用户终端100的动画数据中的网络形象对象610的嘴形变更为与发言相应的嘴形,并且根据时间的经过,随机变更表情。其结果,用户终端100基于动画数据将动画显示于显示部152,从而能够变更网络形象对象610的嘴形以及表情。
另外,对在用户终端100侧或者游戏性终端300侧的任一方执行确定与发言的声音相应的嘴形的处理和根据时间经过切换表情的处理的任一个的例子进行了说明。但是,确定与发言的声音相应的嘴形的处理和根据时间经过切换表情的处理也可以在各个不同的终端分别被执行。例如,对于确定与发言的声音相应的嘴形的处理,可以在游戏性终端300侧执行,对于根据时间经过切换表情的处理,可以在用户终端100侧执行。具体而言,也可以在游戏性终端300侧,不进行用于确定表情的种类的处理,执行输出用于确定嘴形且确定该嘴形的种类的嘴形数据的处理,在用户终端100侧,将配置于虚拟空间600B的网络形象对象610的嘴形变更为从嘴形数据确定的嘴形,另一方面,对于网络形象对象610的表情,执行图28的步骤S85~S88,在用户终端100侧确定表情的种类并根据时间的经过进行切换。另外,与此相反,也可以在用户终端100侧执行确定与发言的声音相应的嘴形的处理,在游戏性终端300侧执行根据时间经过切换表情的处理。
(2)在上述实施方式中,对设定2秒作为表情的切换时间的例子进行了说明。但是,表情的切换时间如上述那样是视听者(人)全部识别画面内的信息为止所需的平均的时间,只要设定为比视听者对该画面厌倦的时间亦即3秒短的时间,则不限于2秒,也可以设定比2秒长的时间(例如,2.5秒)、小于2秒的时间(例如,1.5秒)。
另外,在上述实施方式中,对作为表情的切换时间设定恒定时间,以恒定的间隔切换表情的例子进行了说明。但是,表情并不限于以恒定的间隔切换。切换表情的间隔例如也可以根据当前执行中的游戏部分的种类而不同。具体而言,在执行用户能够与网络形象对象610交互的第一游戏部分时,用户视觉辨认网络形象对象610的可能性较高,因此例如,以2秒间隔切换表情。与此相对,在执行用户与网络形象对象610进行规定的游戏(对战游戏)的第二游戏部分时,用户视觉辨认网络形象对象610的可能性比第一游戏部分中低,并且用于游戏推进的处理负担增大,因此也可以以比2秒间隔长的例如2.5秒间隔切换表情。
另外,切换表情的间隔也可以根据网络形象对象610的动作频率而不同。例如,在最近的规定时间(例如10秒)内网络形象对象610的头移动的时间所占的比例小于规定比例时,是动作较少用户容易视觉辨认网络形象对象610的状态,因此例如以2秒间隔切换表情。与此相对,也可以在最近的规定时间(例如10秒)内网络形象对象610的头移动的时间所占的比例为规定比例以上时,是动作比较多用户难以视觉辨认网络形象对象610的状态,因此以比2秒间隔长的例如2.5秒间隔切换表情。
另外,表情也可以以不规则的间隔进行切换。例如,也可以在变更表情时,从例如1秒~2.5秒中随机决定并设定直到接下来切换表情为止的切换时间。该情况下,也可以根据当前执行中的游戏部分的种类按照不同的分配率来设定切换时间,另外,也可以根据网络形象对象610的动作频率按照不同的分配率来设定切换时间。
(3)在上述实施方式中,对通过随机抽选随机决定接下来切换的表情(使网络形象对象610取到的表情)的例子进行了说明。但是,接下来切换的表情只要是根据规定的规则而确定的,例如,也可以根据当前执行中的游戏部分的种类,使决定设为属于第1类别~第5类别的哪一种的表情的比例不同。具体而言,在执行用户能够与网络形象对象610交互的第一游戏部分时,玩家喜悦或快乐平常的可能性较高,因此例如以比属于第1类别、第4类别、第5类别以外的类别的表情高的比例确定属于第1类别、第4类别、第5类别的任一种的表情。与此相对,在执行用户与网络形象对象610进行规定的游戏(对战游戏)的第二游戏部分时,与第一游戏部分中相比,玩家喜悦或愤怒的可能性较高,因此例如以比属于第1类别、第2类别以外的类别的表情高的比例确定属于第1类别、第2类别的任一种的表情。
另外,在从用户对玩家投入物品时,玩家喜悦的可能性较高,因此例如以比属于第1类别以外的类别的表情高的比例确定属于第1类别的表情。此外,所确定的比例变高的类别也可以根据所投入的物品的种类而不同,例如,在投入对玩家来说不利的物品时,玩家愤怒或悲伤的可能性较高,因此例如也可以以比属于第2类别、第3类别以外的类别的表情高的比例确定属于第2类别、第3类别的表情。
另外,接下来切换的表情例如也可以根据网络形象对象610的动作频率使决定设为属于第1类别~第5类别的哪一种的表情的比例不同。具体而言,在最近的规定时间(例如10秒)内网络形象对象610的头移动的时间所占的比例小于规定比例时,动作较少,与此相应,成为丰富的表情的可能性较高,因此例如以比属于第5类别的表情高的比例确定属于第1类别~第4类别的任一种的表情。与此相对,在最近的规定时间内网络形象对象610的头移动的时间所占的比例为规定比例以上时,被动作吸引而成为平常的可能性较高,因此例如以比属于第1类别~第4类别的任一种的表情高的比例确定属于第5类别的表情。
另外,接下来切换的表情例如也可以根据预先决定表情的转变、用于确定该表情的转变的模式来确定。具体而言,也可以设置多种模式,其中,包括多种表情被决定为按照第一顺序转变的第一模式、和多种表情被决定为按照与第一顺序不同的第二顺序转变的第二模式,根据某个模式确定接下来切换的表情,在基于该模式的转变结束以后,根据另一模式确定接下来切换的表情。
另外,接下来切换的表情可以根据多种表情中至少与当前的表情不同的表情来确定,另外,也可以根据多种表情中属于至少与当前的表情所属的类别不同的类别的表情来确定。由此,至少3秒以上不会成为属于相同的类别的表情,更进一步难以掌握表情。
(4)在上述实施方式中,对基于发言的声音的元音确定实际上人发言时的一般的嘴形作为网络形象对象610的嘴形的例子进行了说明。但是,作为确定网络形象对象610的嘴形的方法,不限于基于元音来确定,例如,也可以根据发言的声音的音量来确定嘴形(打开嘴的大小),另外,也可以分析拍摄了玩家(表演者)的嘴角的影像来确定嘴形。
(5)在上述实施方式中,作为构成表情的要素,例示了眼睛、眼睑、眉毛、脸颊等,对从这些组合不同的多种表情中确定任一种的例子进行了说明。但是,表情也可以通过对构成表情的每个要素确定设为哪一种类,并将所确定的各要素组合来确定。例如,也可以对于眼睛、眼睑、眉毛、脸颊各个设置有多种,从多种眼睛的种类中确定眼睛,对于眼睑、眉毛、以及脸颊也同样,从与各个要素对应而设置的多个种类中确定,通过组合所确定的眼睛、眼睑、眉毛、脸颊来确定一个表情。由此,能够使表情的变更更多。
(6)上述实施方式中的网络形象对象610的服装等的显示方式根据网络形象对象610的种类被统一决定。但是,网络形象对象610的服装等的显示方式例如也可以根据游戏的推进程度(例如,每次在游戏中胜利,或者每次投入物品等)针对每个用户而可以不同。例如,即使从游戏性终端300侧发送的游戏推进信息相同,也可以将网络形象对象610的服装设为与游戏的推进程度相应的服装。该情况下,网络形象对象610的服装数据也可以在各用户终端100侧预先存储有多种。此外,使网络形象对象610的显示方式不同的对象不限于服装,也可以是发型、皮肤颜色、化妆的程度等。由此,能够不增大输出游戏推进信息的游戏性终端300侧的处理负担,而增加网络形象对象610的变更,因此能够吸引用户。
代替此或者除此之外,网络形象对象610的显示方式也可以根据游戏中用户的充钱,能够使其与其他的用户的用户终端中所显示的显示方式不同。另外,网络形象对象610的显示方式也可以根据游戏的结果,根据所更新的用户的排序而不同。
<附记>
在以下附记以上的各实施方式中说明的事项。
(附记1):
根据本公开所示的一个实施方式的一个方面,是一种程序,在具备处理器、存储器、以及输入部的终端装置中被执行,使上述处理器执行如下步骤:基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使上述角色动作(例如,图8的步骤S27);用于能够将从上述虚拟空间内的规定视角观察的上述角色显示于规定显示部,并且能够输出与表演者的发言相应的声音(例如,图8的步骤S28、S29),使上述角色动作的步骤包括包括如下步骤:基于上述数据,控制上述虚拟空间内的上述角色的嘴角的动作(图28的步骤S81~S84);根据规定的规则确定接下来获取的表情作为上述角色的表情(图28的步骤S86);根据时间的经过进行将上述虚拟空间内的上述角色的表情切换为由上述确定的步骤确定的表情的控制(图28的步骤S85、S87、S88等)。
(附记2):
在(附记1)的基础上,进行上述切换的控制的步骤包括如下步骤:以恒定间隔进行上述切换的控制(图28的步骤S85、S88)。
(附记3):
在(附记2)的基础上,上述恒定间隔是比某个间隔(例如3秒,用户对角色的表情产生厌倦的间隔、用户理解角色的表情所需的间隔等)短的间隔(例如2秒)。
(附记4):
在(附记2)或(附记3)的基础上,上述恒定间隔是2秒间隔。
(附记5):
在(附记1)~(附记4)的任一个的基础上,上述规定的规则是从预先决定的多种表情中随机决定任一个显示(图28的步骤S86)。
(附记6):
在(附记1)~(附记5)的任一个的基础上,在上述表演者输入的活动中包括根据该表演者的头的动作而输入的头的活动,上述动作的步骤根据头的活动使上述虚拟空间内的上述角色的头动作(图8的步骤S27)。
(附记7):
在(附记1)~(附记6)的任一个的基础上,上述终端装置具备显示部、声音输出部、以及与分发终端装置进行通信的通信部,上述数据是从上述分发终端装置分发的数据(动作指示数据),包括与上述表演者输入的活动对应的活动数据以及与上述表演者的发言对应的发言数据,上述动作的步骤基于上述数据实时生成在上述虚拟空间内进行动作的上述角色(图8的步骤S27),用于能够进行上述显示并且能够进行上述输出的步骤将从上述虚拟空间内的规定视角观察的上述角色的动画显示于上述显示部,并且从上述声音输出部输出与表演者的发言相应的声音(图8的步骤S29,实时绘制方式)。
(附记8):
在(附记7)的基础上,上述数据包括用于确定上述虚拟空间内的上述角色的嘴角的动作的数据(嘴形数据)。
(附记9):
在(附记1)~(附记6)的任一个的基础上,使上述处理器执行如下步骤:获取包含能够确定上述表演者输入的活动以及表演者的发言的信息的数据,使上述角色动作的步骤使基于由上述获取的步骤获取到的数据控制嘴角的动作并且根据时间的经过切换表情的上述角色在上述虚拟空间内动作,用于能够进行上述显示并且能够进行上述输出的步骤生成包含上述虚拟空间内的上述角色的动作和与发言相应的声音的动画数据并分发到视听者用终端装置(动画分发方式)。
(附记10):
根据本公开所示的一个实施方式的一个方面,是一种方法,由具备处理器、存储器、以及输入部的终端装置执行,上述方法具备如下步骤:基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使上述角色动作(例如,图8的步骤S27);用于能够将从上述虚拟空间内的规定视角观察的上述角色显示于规定显示部,并且能够输出与表演者的发言相应的声音(例如,图8的步骤S28、S29),使上述角色动作的步骤包括如下步骤:基于上述数据,控制上述虚拟空间内的上述角色的嘴角的动作(图28的步骤S81~S84);根据规定的规则确定接下来获取的表情作为上述角色的表情(图28的步骤S86);根据时间的经过进行将上述虚拟空间内的上述角色的表情切换为由上述确定的步骤确定的表情的控制(图28的步骤S85、S87、S88等)。
(附记11):
根据本公开所示的一个实施方式的一个方面,是一种终端装置,具备处理器、存储器、以及输入部,具备如下步骤:基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使上述角色动作(例如,图8的步骤S27);用于能够将从上述虚拟空间内的规定视角观察的上述角色显示于规定显示部,并且能够输出与表演者的发言相应的声音(例如,图8的步骤S28、S29),使上述角色动作的步骤包括如下步骤:基于上述数据,控制上述虚拟空间内的上述角色的嘴角的动作(图28的步骤S81~S84);根据规定的规则确定接下来获取的表情作为上述角色的表情(图28的步骤S86);根据时间的经过进行将上述虚拟空间内的上述角色的表情切换为由上述确定的步骤确定的表情的控制(图28的步骤S85、S87、S88等)。
〔基于软件的实现例〕
用户终端100、服务器200、游戏性终端300(HMD组件1000)、以及分发终端400的控制块(特别是控制部110、210、310、410)可以通过形成为集成电路(IC芯片)等的逻辑电路(硬件)来实现,也可以通过软件来实现。
在后者的情况下,用户终端100、服务器200、游戏性终端300(HMD组件1000)、以及分发终端400具备执行实现各功能的软件即程序的命令的计算机。该计算机例如具备一个以上的处理器,并且具备存储上述程序的计算机可读取的记录介质。而且,在上述计算机中,上述处理器从上述记录介质读取并执行上述程序,从而实现本发明的目的。作为上述处理器,例如能够使用CPU(Central Processing Unit:中央处理器)。作为上述记录介质,除了“不是暂时的有形的介质”、例如ROM(Read Only Memory:只读存储器)等之外,还能够使用磁带、磁盘、卡、半导体存储器、可编程的逻辑电路等。另外,还可以具备展开上述程序的RAM(Random Access Memory:随机存取存储器)等。另外,上述程序也可以经由能够传输该程序的任意的传输介质(通信网络、广播波等)被供给到上述计算机。此外,本发明的一方式也能够以上述程序由电子传输具体化的、嵌入载波的数据信号的形态来实现。
本发明并不限定于上述的各实施方式,能够在权利要求所示的范围内进行各种变更,对于适当地组合在不同的实施方式中分别公开的技术手段而得到的实施方式也包含于本发明的技术范围。
附图标记说明
1…系统;2…网络;3、3A、3B…用户(第一用户);4…玩家(表演者);10、20、30、40…处理器;11、21、31、41…存储器;12、22、32、42…储存器;13、23、33、43…通信IF;14、24、34、44…输入输出IF;15、45…触摸屏;17…照相机;18…测距传感器;51…监视器;52…注视传感器;53…第一照相机;54…第二照相机;55…麦克风;56…扬声器;100、100A、100B、100C…用户终端(计算机、第一计算机、第一信息处理装置);110、210、310、410…控制部(第一控制部、第二控制部);111、311、413…操作接受部;112、312、412…显示控制部;113、313…UI控制部;114、314…动画生成部;115、315…游戏推进部;116、316…虚拟空间控制部;117…动画播放部;120、220、320、420…存储部(第一存储部、第二存储部);131、231、331…游戏程序(程序、第一程序);132、232、332…游戏信息;133、233、333…用户信息;151、451…输入部;152、452…显示部(显示器);200…服务器;211…通信协调部;212…日志生成部;213…列表生成部;234、421…用户列表;300…游戏性终端(外部装置、第二外部装置);317…反应处理部;400…分发终端(外部、第一外部装置、计算机、第二信息处理装置);411…通信控制部;414…声音接受部;415…活动确定部;416…动作指示数据生成部;422…活动列表;423…分发程序(程序、第二程序);540、1020、1021…控制器;500…HMD;510…HMD传感器;520…活动传感器;530…显示器;600A、600B…虚拟空间;610…网络形象对象(角色);620A、620B…虚拟照相机;631、632、633、634…对象;640A、640B…视野区域;650、660…视野图像;671…敌方对象;672、673…障碍物对象;674…演出对象;691、692…发言;701、702、703A、70B、704A、704B、705、706、711、711A、711B、711C、711D、722、723、745、745A、745B、745C、752、762、763、930、2011、2022、2031、2032、2033、2034、2037、2038、2051、2063、2072、2073、2075…UI图像(消息UI、UI);721…下载画面;731…用户列表画面(列表);732、732A、732B、732C、742、742A、742B、742C…记录图像;733、733A、733B、733C…用户名;734、734A、734B、734C…标签信息;735、735A、735B、735C…图标;741…活动列表画面(选择项);743、743A、743B、743C…活动名;744、744A、744B、744C、753…活动图像;751…分发画面;761…分发完成画面;810A、810B…活动动画;820A、820B…发言声音;910A、910B…动画;920A、920B…声音;1000…HMD组件;1010…物体;1030…存储介质;2010…主画面;2020…排序画面;2021…标题图像;2026、2026A、2026B…排名;2027、2027A、2027B…充钱金额;2028、2028A、2028B…发送次数;2029…发送结束通知;2030…上次发送日;2035…详细显示区域;2036…滚动条;2040…详细画面;2050、2060…准备画面;2052…文本;2053、2061…选择图像;2054A、2054B、2054C、2062A、2062B、2062C、2062D、2062E、2062F…选择项;2070…声音输入画面;2074…标签图像。

Claims (11)

1.一种程序,在具备处理器、存储器、以及输入部的终端装置中被执行,
所述程序使所述处理器执行如下步骤:
基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使所述角色进行动作;
用于能够将从所述虚拟空间内的规定视角观察的所述角色显示于规定显示部,并且能够输出与表演者的发言相应的声音,
使所述角色进行动作的步骤包括:
基于所述数据,控制所述虚拟空间内的所述角色的嘴角的动作;
根据规定的规则确定接下来获取的表情作为所述角色的表情;
根据时间的经过进行将所述虚拟空间内的所述角色的表情切换为由所述确定的步骤确定的表情的控制。
2.根据权利要求1所述的程序,其中,
进行所述切换的控制的步骤包括:以恒定间隔进行所述切换的控制。
3.根据权利要求2所述的程序,其中,
所述恒定间隔是比某个间隔短的间隔。
4.根据权利要求2或3所述的程序,其中,
所述恒定间隔是2秒间隔。
5.根据权利要求1~4中任一项所述的程序,其中,
所述规定的规则是从预先决定的多种表情中随机决定任一个显示。
6.根据权利要求1~5中任一项所述的程序,其中,
所述表演者输入的活动包括根据该表演者的头的动作而输入的头的活动,
所述进行动作的步骤根据头的活动使所述虚拟空间内的所述角色的头进行动作。
7.根据权利要求1~6中任一项所述的程序,其中,
所述终端装置具备显示部、声音输出部以及与分发终端装置进行通信的通信部,所述数据是从所述分发终端装置分发的数据且包括与所述表演者输入的活动对应的活动数据以及与所述表演者的发言对应的发言数据,
在所述进行动作的步骤中,基于所述数据,实时生成在所述虚拟空间内进行动作的所述角色,
在用于能够进行所述显示并且能够进行所述输出的步骤中,将从所述虚拟空间内的规定视角观察的所述角色的动画显示于所述显示部,并且从所述声音输出部输出与表演者的发言相应的声音。
8.根据权利要求7所述的程序,其中,
所述数据包括用于确定所述虚拟空间内的所述角色的嘴角的动作的数据。
9.根据权利要求1~6中任一项所述的程序,其中,
使所述处理器执行如下步骤:
获取包含能够确定所述表演者输入的活动以及表演者的发言的信息的数据,
在使所述角色进行动作的步骤中,使基于由所述获取的步骤获取到的数据控制嘴角的动作并且根据时间的经过切换表情的所述角色在所述虚拟空间内进行动作,
在用于能够进行所述显示并且能够进行所述输出的步骤中,生成包含所述虚拟空间内的所述角色的动作和与发言相应的声音的动画数据并分发到视听者用终端装置。
10.一种方法,由具备处理器、存储器、以及输入部的终端装置执行,
所述方法包括如下步骤:
基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使所述角色动作;
用于能够将从所述虚拟空间内的规定视角观察的所述角色显示于规定显示部,并且能够输出与表演者的发言相应的声音,
使所述角色进行动作的步骤包括如下步骤:
基于所述数据,控制所述虚拟空间内的所述角色的嘴角的动作;
根据规定的规则确定接下来获取的表情作为所述角色的表情;
根据时间的经过进行将所述虚拟空间内的所述角色的表情切换为由所述确定的步骤确定的表情的控制。
11.一种终端装置,具备处理器、存储器以及输入部,
所述终端装置执行如下步骤:
基于包含能够确定表演配置于虚拟空间内的角色的表演者输入的活动以及表演者的发言的信息的数据,使所述角色动作;
用于能够将从所述虚拟空间内的规定视角观察的所述角色显示于规定显示部,并且能够输出与表演者的发言相应的声音,
在使所述角色进行动作的步骤包括如下步骤:
基于所述数据,控制所述虚拟空间内的所述角色的嘴角的动作;
根据规定的规则确定接下来获取的表情作为所述角色的表情;
根据时间的经过进行将所述虚拟空间内的所述角色的表情切换为由所述确定的步骤确定的表情的控制。
CN202080045126.4A 2019-06-21 2020-06-17 程序、方法以及终端装置 Pending CN114025854A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-115074 2019-06-21
JP2019115074A JP6776409B1 (ja) 2019-06-21 2019-06-21 プログラム、方法、および端末装置
PCT/JP2020/023700 WO2020255996A1 (ja) 2019-06-21 2020-06-17 プログラム、方法、および端末装置

Publications (1)

Publication Number Publication Date
CN114025854A true CN114025854A (zh) 2022-02-08

Family

ID=72938117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080045126.4A Pending CN114025854A (zh) 2019-06-21 2020-06-17 程序、方法以及终端装置

Country Status (6)

Country Link
US (1) US20220241692A1 (zh)
EP (1) EP3988189A4 (zh)
JP (1) JP6776409B1 (zh)
KR (1) KR20220020953A (zh)
CN (1) CN114025854A (zh)
WO (1) WO2020255996A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7455297B2 (ja) * 2021-08-28 2024-03-26 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58218202A (ja) * 1982-06-11 1983-12-19 Nissan Motor Co Ltd 車両用アンテナの取付構造
KR20020022504A (ko) * 2000-09-20 2002-03-27 박종만 3차원 캐릭터의 동작, 얼굴 표정, 립싱크 및 립싱크된음성 합성을 지원하는 3차원 동영상 저작 도구의 제작시스템 및 방법
EP1345179A3 (en) * 2002-03-13 2004-01-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for computer graphics animation
JP2003337956A (ja) * 2002-03-13 2003-11-28 Matsushita Electric Ind Co Ltd コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法
US20040266528A1 (en) * 2003-06-27 2004-12-30 Xiaoling Wang Apparatus and a method for more realistic video games on computers or similar devices using visible or invisible light and a light sensing device
JP4919395B2 (ja) * 2006-06-15 2012-04-18 任天堂株式会社 ゲームプログラムおよびゲーム装置
KR101089184B1 (ko) * 2010-01-06 2011-12-02 (주) 퓨처로봇 캐릭터의 발화와 감정표현 제공 시스템 및 방법
US20180117762A1 (en) * 2015-08-14 2018-05-03 Sphero, Inc. Data exchange system
JP6981214B2 (ja) * 2017-12-05 2021-12-15 富士通株式会社 画像生成プログラム、画像生成装置及び画像生成方法
JP6481057B1 (ja) * 2018-02-02 2019-03-13 株式会社エクシヴィ 仮想空間におけるキャラクタの制御方法

Also Published As

Publication number Publication date
US20220241692A1 (en) 2022-08-04
JP2021000243A (ja) 2021-01-07
JP6776409B1 (ja) 2020-10-28
EP3988189A1 (en) 2022-04-27
WO2020255996A1 (ja) 2020-12-24
KR20220020953A (ko) 2022-02-21
EP3988189A4 (en) 2023-06-28

Similar Documents

Publication Publication Date Title
JP6776400B1 (ja) プログラム、方法、および情報端末装置
JP6719633B1 (ja) プログラム、方法、および視聴端末
JP6776393B2 (ja) 視聴プログラム、視聴方法、および情報端末装置
WO2022202126A1 (ja) プログラム、方法、および情報処理装置
KR20220052363A (ko) 프로그램, 방법, 및 단말 장치
JP2021168748A (ja) プログラム、コンピュータ、および方法
JP7437480B2 (ja) プログラム、方法、およびコンピュータ
CN114025854A (zh) 程序、方法以及终端装置
JP7135058B2 (ja) プログラム、方法、および端末装置
JP7332562B2 (ja) プログラム、方法、および情報端末装置
JP2022000218A (ja) プログラム、方法、情報処理装置、およびシステム
JP6826645B1 (ja) プログラム、方法、および端末装置
EP4023311A1 (en) Program, method, and information processing terminal
EP3991816A1 (en) Game program, game method, and information terminal device
JP6818106B1 (ja) プログラム、方法、および視聴端末
JP6754859B1 (ja) プログラム、方法、およびコンピュータ
WO2022137377A1 (ja) 情報処理方法、コンピュータ可読媒体、コンピュータシステム、および情報処理装置
JP2021053358A (ja) プログラム、方法、および視聴端末
JP2021053453A (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP2021053455A (ja) プログラム、方法、および視聴端末

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination