JP2021005181A - Information processing system, information processing method and computer program - Google Patents

Information processing system, information processing method and computer program Download PDF

Info

Publication number
JP2021005181A
JP2021005181A JP2019118002A JP2019118002A JP2021005181A JP 2021005181 A JP2021005181 A JP 2021005181A JP 2019118002 A JP2019118002 A JP 2019118002A JP 2019118002 A JP2019118002 A JP 2019118002A JP 2021005181 A JP2021005181 A JP 2021005181A
Authority
JP
Japan
Prior art keywords
action
data
behavior
user
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019118002A
Other languages
Japanese (ja)
Other versions
JP6839730B2 (en
Inventor
雅人 野▲崎▼
Masato Nozaki
雅人 野▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019118002A priority Critical patent/JP6839730B2/en
Publication of JP2021005181A publication Critical patent/JP2021005181A/en
Application granted granted Critical
Publication of JP6839730B2 publication Critical patent/JP6839730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a system for improving a user's sense of immersion into a virtual space.SOLUTION: An information processing system for generating a moving image including an animation of a character object generated on the basis of the behavior of a user is provided with one or more computer processors. The one or more computer processors include: a reception function for receiving an input of behavior data based on the behavior of the user by executing a computer readable instruction; and a processing function for generating moving image data including the character object which performs a behavior following the behavior data. The processing function generates moving image data for making the character object perform expression following preliminarily prepared second behavior data in place of movement following first behavior data in the case that the reception function receives the first behavior data based on a specific behavior of the user.SELECTED DRAWING: Figure 9

Description

本発明は、情報処理システム、情報処理方法およびコンピュータプログラムに関する。 The present invention relates to information processing systems, information processing methods and computer programs.

ヴァーチャルリアリティゲーム(以下、「VRゲーム」という。)では、ユーザは頭部に表示装置としてのヘッドマウントディスプレイ(以下、HMDという。)を装着し、ゲームに没入することができる。一般に、VRゲームにおけるゲームの操作はユーザが手に持った操作装置で行われ(特許文献1参照)、操作装置により入力されたユーザの行動に基づいて、HMDに表示すべき動画内のキャラクタオブジェクト(プレイヤキャラクタ)のアニメーションが生成される。 In a virtual reality game (hereinafter referred to as "VR game"), a user can immerse himself in the game by wearing a head-mounted display (hereinafter referred to as HMD) as a display device on his head. Generally, the operation of the game in the VR game is performed by the operation device held by the user (see Patent Document 1), and the character object in the moving image to be displayed on the HMD based on the user's action input by the operation device. An animation of (player character) is generated.

また、ユーザの行動に基づいて生成されるキャラクタオブジェクト(アバタ)のアニメーションを生成し、当該アニメーションが含まれる動画を配信する動画配信システムも知られている。 Further, there is also known a video distribution system that generates an animation of a character object (avatar) generated based on a user's behavior and distributes a video including the animation.

非特許文献1には、アクターの動きを表すモーションキャプチャデータに基づいてヴァーチャルアイドルのアニメーションを生成し、当該アニメーションを含む動画をライブ配信する動画配信システムが開示されている。 Non-Patent Document 1 discloses a moving image distribution system that generates an animation of a virtual idol based on motion capture data representing the movement of an actor and delivers a moving image including the animation live.

従来のVRゲームの動画やヴァーチャルアイドルの動画の生成において、ユーザの操作データやユーザの動きなどの行動データはそのまま忠実に動画内のキャラクタオブジェクトの行動に反映させていた。 In the generation of a conventional VR game video or a virtual idol video, behavior data such as user operation data and user movements are faithfully reflected in the behavior of the character object in the video.

しかしながら、上記行動データのすべてをキャラクタオブジェクトの行動に反映させてしまうと、ユーザの不格好な行動までもが反映されてしまい、生成される動画のクオリティが下がってしまうという問題がある。 However, if all of the above behavior data is reflected in the behavior of the character object, there is a problem that even awkward behavior of the user is reflected and the quality of the generated moving image is lowered.

また、上記行動データのすべてをキャラクタオブジェクトの行動に反映させてしまうと、ユーザのVR空間への没入感を損なわせてしまうという問題もある。 Further, if all of the above behavior data is reflected in the behavior of the character object, there is a problem that the user's feeling of immersion in the VR space is impaired.

これら問題は、ユーザの行動意欲を低下させてしまうとともに、この動画を目にする他のユーザや視聴ユーザの視聴意欲をも低下させてしまうという問題がある。 These problems have a problem that not only the user's motivation to act is reduced, but also the viewing motivation of other users and viewing users who see this video is reduced.

特開2017−217196号公報Japanese Unexamined Patent Publication No. 2017-217196

長谷川 雄介,ヴァーチャルアイドル新時代の幕開け PROJECT MariA,CG WORLD,日本,株式会社ボーンデジタル,2017年11月10日,第231巻,pp.74−79Yusuke Hasegawa, Dawn of a new era of virtual idols PROJECT MariA, CG WORLD, Japan, Bone Digital Co., Ltd., November 10, 2017, Volume 231 and pp. 74-79

本発明の目的の一つは、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本発明のより具体的な目的の一つは、生成される動画のクオリティを高めることにある。また、本発明のより具体的な目的の一つは、ユーザのVR空間への没入感を向上させることにある。また、本発明のより具体的な目的の一つは、ユーザの行動意欲を向上させ、かつ、この動画を目にする他のユーザや視聴ユーザの視聴意欲をも向上させることにある。 One object of the present invention is to provide technical improvements that solve or alleviate at least some of the problems of the prior art described above. One of the more specific objects of the present invention is to improve the quality of the generated moving image. Further, one of the more specific objects of the present invention is to improve the user's feeling of immersion in the VR space. Further, one of the more specific objects of the present invention is to improve the user's motivation to act and also to improve the viewing motivation of other users and viewing users who see this moving image.

本明細書の開示の上記以外の目的は、本明細書全体を参照することにより明らかになる。本明細書に開示される発明は、上記の課題に代えて又は上記の課題に加えて、本明細書の発明を実施するための形態の記載から把握される課題を解決するものであってもよい。 Other objectives of the disclosure herein will become apparent by reference to the entire specification. The invention disclosed in the present specification may solve the problem grasped from the description of the mode for carrying out the invention of the present specification in place of or in addition to the above-mentioned problem. Good.

本発明の情報処理システムは、ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、ユーザの行動に基づく行動データの入力を受け付ける受付機能と、行動データに従う行動を行うキャラクタオブジェクトを含む動画データを生成する処理機能とを実現させ、処理機能は、受付機能がユーザの特定の行動に基づく第一の行動データを受け付けた場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することを特徴とする。 The information processing system of the present invention is an information processing system that generates a moving image including an animation of a character object generated based on a user's behavior, and includes one or a plurality of computer processors, wherein the one or a plurality of computer processors are provided. By executing a computer-readable command, a reception function that accepts input of action data based on the user's behavior and a processing function that generates video data including a character object that performs an action according to the behavior data are realized and processed. The function is that when the reception function receives the first action data based on the user's specific action, the character object is expressed according to the second action data prepared in advance instead of the action according to the first action data. It is characterized in that the moving image data in which the above is performed is generated.

処理機能は、ユーザに対し、キャラクタオブジェクトに第二の行動データに従う表現を行わせた動画データが生成されていることを示す状態表示を表示することができる。 The processing function can display a state display indicating to the user that the moving image data in which the character object is expressed according to the second action data is generated.

処理機能は、受付機能がユーザの規定の行動に基づく第三の行動データを受け付けた場合、受付機能が当該第三の行動データを受け付けた後に受け付けた第一の行動データに従う動作に替えて、キャラクタオブジェクトに第二の行動データに従う表現を行わせた動画データを生成することができる。 When the reception function receives the third action data based on the user's specified action, the processing function replaces the action according to the first action data received after the reception function receives the third action data. It is possible to generate moving image data in which the character object is expressed according to the second action data.

処理機能は、ユーザに対し、第一の行動データの入力ガイドを表示することができる。 The processing function can display the input guide of the first action data to the user.

処理機能は、受付機能がユーザの規定の行動に基づく第三の行動データを受け付けた場合、ユーザに対し、第一の行動データの入力ガイドを表示し、当該入力ガイドの表示後に受付機能が第一の行動データを受け付けた場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することができる。 When the reception function receives the third action data based on the user's specified action, the processing function displays the input guide of the first action data to the user, and the reception function is the first after the input guide is displayed. When one action data is received, it is possible to generate moving image data in which the character object expresses according to the second action data prepared in advance instead of the action according to the first action data.

処理機能は、受付機能が受け付け始めた行動データが第一の条件を満たした場合、当該行動データを第一の行動データとして、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成し、受付機能が受け付けた行動データが第一の条件を満たさない場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に従う行動を行わせた動画データを生成することができる。 When the action data started to be accepted by the reception function satisfies the first condition, the processing function uses the action data as the first action data and replaces the character object with the action according to the first action data in advance. Generates video data that is expressed according to the prepared second action data, and if the action data received by the reception function does not meet the first condition, the character object follows the action according to the first action data. It is possible to generate video data in which an action is performed.

処理機能は、行動データと模範行動データとを比較して達成率を判定し、当該達成率が所定の値を超えた場合、行動データが第一の条件を満たしたと判断することができる。 The processing function determines the achievement rate by comparing the behavior data with the model behavior data, and when the achievement rate exceeds a predetermined value, it can be determined that the behavior data satisfies the first condition.

処理機能は、受付機能が受け付けた第一の行動データが第二の条件を満たした場合と、受付機能が受け付けた第一の行動データが第二の条件を満たさない場合とで、第二の行動データに従う表現による効果を異ならせることができる。 The processing function is divided into a case where the first action data received by the reception function satisfies the second condition and a case where the first action data received by the reception function does not satisfy the second condition. The effects of expressions that follow behavioral data can be different.

処理機能は、行動データと模範行動データとを比較して所定の時間内における正確率を判定し、当該正確率が所定の値を超えた場合、第一の行動データが第二の条件を満たしたと判断することができる。 The processing function compares the behavior data with the model behavior data to determine the accuracy rate within a predetermined time, and when the accuracy rate exceeds a predetermined value, the first behavior data satisfies the second condition. It can be judged that it was.

処理機能は、ユーザに対し、正確率を示す状態表示を表示することができる。 The processing function can display a status display indicating the accuracy rate to the user.

本発明の情報処理方法は、ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成する情報処理システムにおける情報処理方法であって、一又は複数のコンピュータプロセッサに、ユーザの行動に基づく行動データの入力を受け付ける受付ステップと、行動データに従う行動を行うキャラクタオブジェクトを含む動画データを生成する処理ステップと
を実行させ、処理ステップでは、受付ステップにおいてユーザの特定の行動に基づく第一の行動データを受け付けた場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することを特徴とする。
The information processing method of the present invention is an information processing method in an information processing system that generates a moving image including an animation of a character object generated based on a user's behavior, and is applied to one or more computer processors to the user's behavior. The reception step that accepts the input of the behavior data based on the behavior data and the processing step that generates the video data including the character object that performs the behavior according to the behavior data are executed. In the processing step, the first step based on the specific behavior of the user in the reception step When the action data is received, the character object is characterized in that it generates moving image data in which the character object is expressed according to the second action data prepared in advance instead of the action according to the first action data.

本発明のコンピュータプログラムは、ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、ユーザの行動に基づく行動データの入力を受け付ける受付機能と、行動データに従う行動を行うキャラクタオブジェクトを含む動画データを生成する処理機能とを実現させ、処理機能は、受付機能がユーザの特定の行動に基づく第一の行動データを受け付けた場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することを特徴とする。 The computer program of the present invention is a computer program for generating a moving image including an animation of a character object generated based on a user's behavior, and causes one or a plurality of computer processors to generate behavior data based on the user's behavior. The reception function that accepts input and the processing function that generates video data including character objects that perform actions according to the action data are realized, and the processing function accepts the first action data based on the user's specific action. In this case, the character object is characterized in that it generates moving image data in which an expression according to a second action data prepared in advance is performed instead of an action according to the first action data.

本発明によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。具体的には、本発明の情報処理システム、情報処理方法およびコンピュータプログラムによれば、生成される動画のクオリティを高めることができる。また、本発明によれば、ユーザのVR空間への没入感を向上させることができる。さらには、本発明の情報処理システム、情報処理方法およびコンピュータプログラムによれば、ユーザの行動意欲を向上させ、かつ、この動画を目にする他のユーザや視聴ユーザの視聴意欲をも向上させることができる。 According to the present invention, it is possible to provide technical improvements that solve or alleviate at least a part of the problems of the prior art described above. Specifically, according to the information processing system, the information processing method, and the computer program of the present invention, the quality of the generated moving image can be improved. Further, according to the present invention, it is possible to improve the user's feeling of immersion in the VR space. Furthermore, according to the information processing system, the information processing method, and the computer program of the present invention, it is possible to improve the user's motivation to act and also to improve the viewing motivation of other users and viewing users who see this moving image. Can be done.

本発明の実施形態に係る情報処理システムの一例を示すシステム構成図である。It is a system block diagram which shows an example of the information processing system which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理システムの一例を示すシステム構成図である。It is a system block diagram which shows an example of the information processing system which concerns on embodiment of this invention. 本発明の実施形態に係る表示画面の一例を示す概念図である。It is a conceptual diagram which shows an example of the display screen which concerns on embodiment of this invention. 本発明の実施形態に係る表示画面の一例を示す概念図である。It is a conceptual diagram which shows an example of the display screen which concerns on embodiment of this invention. 本発明の実施形態に係る表示画面の一例を示す概念図である。It is a conceptual diagram which shows an example of the display screen which concerns on embodiment of this invention. 本発明の実施形態に係る達成率の概念を示す概念図である。It is a conceptual diagram which shows the concept of achievement rate which concerns on embodiment of this invention. 本発明の実施形態に係る正確率の概念を示す概念図である。It is a conceptual diagram which shows the concept of the accuracy rate which concerns on embodiment of this invention. 本発明の実施形態に係る表示画面の一例を示す概念図である。It is a conceptual diagram which shows an example of the display screen which concerns on embodiment of this invention. ゲーム処理システムのブロック図である。It is a block diagram of a game processing system. プレイヤの頭部の位置と向きの特定に用いられる座標系を示す図である。It is a figure which shows the coordinate system used for specifying the position and orientation of a player's head. 周波数スペクトルを示す図である。It is a figure which shows the frequency spectrum. テキストデータを示す図である。It is a figure which shows the text data. 音声入力情報が入力された場合の処理を示すフローチャートである。It is a flowchart which shows the process when the voice input information is input. ペンまたはスティック型の操作装置で三次元の仮想空間において描画をする様子を示す斜視図である。It is a perspective view which shows the state of drawing in a three-dimensional virtual space with a pen or stick type operation device. 軌跡オブジェクトが描画される仮想空間を示す図である。It is a figure which shows the virtual space where a locus object is drawn. 軌跡オブジェクトを示す図である。It is a figure which shows the locus object. 入力情報として軌跡オブジェクトが入力された場合の処理を示すフローチャートである。It is a flowchart which shows the process when a locus object is input as input information. 武器(刀)オブジェクトに対して追加オブジェクトが描画される前の状態を示す図である。It is a figure which shows the state before the additional object is drawn with respect to the weapon (sword) object. 武器(刀)オブジェクトに対して追加オブジェクトが描画された状態を示す図である。It is a figure which shows the state which the additional object is drawn with respect to the weapon (sword) object. ゲーム処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of a game processing apparatus.

本発明の実施形態に係る情報処理システムの一例を説明する。 An example of the information processing system according to the embodiment of the present invention will be described.

本発明の実施形態に係る情報処理システムは、ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成する情報処理システムであって、一又は複数のコンピュータプロセッサを備える。 The information processing system according to the embodiment of the present invention is an information processing system that generates a moving image including an animation of a character object generated based on a user's behavior, and includes one or a plurality of computer processors.

図1は、本発明の実施形態に係る情報処理システムの一例であって、VRゲームシステムの構成を示したものである。図1に示されるように、本発明のVRゲームシステム100Aは、サーバ装置200と、当該サーバ装置200とネットワーク600を介して接続される複数のプレイヤ端末300とを含む。 FIG. 1 is an example of an information processing system according to an embodiment of the present invention, and shows a configuration of a VR game system. As shown in FIG. 1, the VR game system 100A of the present invention includes a server device 200 and a plurality of player terminals 300 connected to the server device 200 via a network 600.

VRゲームシステム100Aにおいて、複数のプレイヤ端末300では互いに他のプレイヤのキャラクタオブジェクトが表示され得るものとする。 In the VR game system 100A, it is assumed that the character objects of other players can be displayed on each other on the plurality of player terminals 300.

また、自分のキャラクタオブジェクトの表示の仕方は、一人称視点であってもよいし、三人称視点であってもよい。かかる視点の切り替えは、ユーザの操作により行われることができる。 In addition, the method of displaying one's character object may be a first-person viewpoint or a third-person viewpoint. Such switching of viewpoints can be performed by a user operation.

同様に、図2は、本発明の実施形態に係る情報処理システムの一例であって、動画配信システムの構成を示したものである。図2に示されるように、本発明の動画配信システム100Bは、サーバ装置200と、当該サーバ装置200とネットワーク600を介して接続される配信ユーザ端末400および視聴ユーザ端末500とを含む。 Similarly, FIG. 2 is an example of an information processing system according to an embodiment of the present invention, and shows a configuration of a moving image distribution system. As shown in FIG. 2, the moving image distribution system 100B of the present invention includes a server device 200, a distribution user terminal 400 and a viewing user terminal 500 connected to the server device 200 via a network 600.

動画配信システム100Bにおいて、配信ユーザ端末400は複数としてもよい。この場合、複数の配信ユーザが共演して一の動画を生成するものであってもよい。 In the video distribution system 100B, the number of distribution user terminals 400 may be plural. In this case, a plurality of distribution users may co-star to generate one moving image.

ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画とは、1または複数のプレイヤで行うVRゲームの画面に表示される動画や、配信ユーザ端末の画面に表示される動画および1以上の視聴ユーザの端末の画面に表示される配信用動画などが含まれる。 The video including the animation of the character object generated based on the user's behavior is a video displayed on the screen of a VR game performed by one or more players, a video displayed on the screen of the distribution user terminal, and one or more. Includes videos for distribution displayed on the screen of the viewing user's terminal.

そして、上記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、受付機能と、処理機能とを実現させる。 Then, the one or more computer processors realize the reception function and the processing function by executing a computer-readable instruction.

受付機能は、ユーザの行動に基づく行動データの入力を受け付ける。 The reception function accepts input of behavior data based on the user's behavior.

上記ユーザの行動には、ユーザが身体や顔の表情を動かすこと、および/または、ユーザが言葉や音を発することを含まれるものとする。 The user's behavior includes the user moving a body or facial expression and / or the user uttering a word or sound.

上記行動データは、例えば、ユーザが装着または担持するセンサ(コントローラ等)から出力されるデータ、および/または、ユーザの行動を撮影した画像の解析結果に基づく情報とすることができる。 The behavior data can be, for example, data output from a sensor (controller or the like) worn or carried by the user, and / or information based on the analysis result of an image of the user's behavior.

処理機能は、上記行動データに従う行動を行うキャラクタオブジェクトを含む動画の動画データを生成する。 The processing function generates moving image data of a moving image including a character object that performs an action according to the above action data.

行動データに従う行動を行うキャラクタオブジェクトとは、上記ユーザの行動を反映させたキャラクタオブジェクトを言うものとする。 The character object that performs an action according to the action data means a character object that reflects the action of the user.

また、このキャラクタオブジェクトを含む動画には、当該キャラクタオブジェクトの他に、背景画像や他のオブジェクトが含んでもよい。 Further, the moving image including this character object may include a background image or another object in addition to the character object.

そして、処理機能は、受付機能がユーザの特定の行動に基づく第一の行動データを受け付けた場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することを特徴とする。 Then, when the reception function receives the first action data based on the user's specific action, the processing function causes the character object to perform the second action prepared in advance instead of the action according to the first action data. It is characterized by generating moving image data in which expressions are performed according to the data.

第一の行動データは、ユーザの特定の行動に基づくものである。ユーザの特定の行動とは、予め定められた行動とし、上述したユーザの行動(予め定められた行動以外の行動)とは区別されるものである。 The first behavioral data is based on the user's specific behavior. The specific behavior of the user is a predetermined behavior, and is distinguished from the above-mentioned user behavior (behavior other than the predetermined behavior).

予め定められた行動の例としては、「手を3回振り下ろす」、または、「『魔法発動』と言う」などの行動が挙げられる。かかる行動は、初期設定として所定の記憶装置に記憶されていてもよいし、ユーザにより自由に定められる/選択されるものであってもよい。かかる行動は、具体的にはユーザが装着または担持するコントローラの所定のセンサの値を用いて定めることができる。予め定められた行動の別の例としては、杖で魔法陣等の紋様を描く(行動)、呪文を唱える(音声)、剣を振る(行動)、または、設定操作などとしてもよい。なお、杖や剣はユーザが実際に握っているものでもいいし、VR画面上の架空のものでもよい。 Examples of predetermined actions include actions such as "waving down the hand three times" or "saying" magic activation "". Such an action may be stored in a predetermined storage device as an initial setting, or may be freely determined / selected by the user. Such behavior can be specifically determined using the value of a predetermined sensor of the controller worn or carried by the user. As another example of the predetermined action, a pattern such as a magic circle may be drawn with a wand (action), a spell may be cast (voice), a sword may be swung (action), or a setting operation may be performed. The cane or sword may be the one actually held by the user or a fictitious one on the VR screen.

なお、呪文を唱える(音声)の場合、何節の文章で構成されている呪文であっても、冒頭の数文字(一例として3〜5文字程度)で判定できるように予め呪文を設定しておくことができる。かかる情報を音声参照情報と呼ぶが、詳細については後述する。 In the case of casting a spell (voice), set the spell in advance so that even if the spell is composed of several clauses, it can be judged by the first few letters (about 3 to 5 letters as an example). Can be left. Such information is referred to as voice reference information, and details will be described later.

第二の行動データは、第一の行動データに従う動作に替えて、予め用意されるものであって、キャラクタオブジェクトが行う表現に関するものである。 The second action data is prepared in advance in place of the action according to the first action data, and relates to the expression performed by the character object.

かかる第二の行動データに従う表現は、他のユーザ向けに表示されているものであって、第三者視点の場合の入力プレイヤ(ユーザ)の画面には、別表現で表示されてもよい。 The expression according to the second action data is displayed for other users, and may be displayed in another expression on the screen of the input player (user) in the case of a third-party viewpoint.

キャラクタオブジェクトが行う表現の例としては、「特殊なスキルを発動させる」、または、「魔法を発動させる」などの表現が挙げられる。かかる表現は、キャラクタオブジェクトのアニメーションに加え、聴覚的または視覚的なエフェクトを含んでもよい。 Examples of expressions performed by the character object include expressions such as "activating a special skill" or "activating magic". Such representations may include auditory or visual effects in addition to the animation of the character object.

例えば、ユーザが第一の行動として不慣れな動作で魔法陣を描いた場合であっても、キャラクタオブジェクトに、第二の行動データに従う表現として、キレのある動作で魔法陣を描き、強力な魔法を発動させる表現を行わせることができる。 For example, even if the user draws a magic circle with an unfamiliar action as the first action, the magic circle is drawn with a sharp action as an expression according to the second action data on the character object, and powerful magic is drawn. It is possible to make an expression that activates.

以上の構成によれば、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することができる。 According to the above configuration, it is possible to provide a technical improvement that solves or alleviates at least a part of the problems of the prior art described above.

具体的には、上記構成により、演者となるユーザの行動が不格好であったとしても、キャラクタオブジェクトには、当該行動に替えて、予め用意された格好の良い行動を行わせることができるため、生成される動画のクオリティを維持または向上させることができる。 Specifically, according to the above configuration, even if the behavior of the user who is the performer is awkward, the character object can be made to perform a good-looking behavior prepared in advance in place of the behavior. The quality of the generated video can be maintained or improved.

また、上記構成により、演者となるユーザの行動が不格好であったとしても、キャラクタオブジェクトには、当該行動に替えて、予め用意された格好の良い行動を行わせることができるため、ユーザのVR空間への没入感を向上させることができる。 Further, according to the above configuration, even if the behavior of the user who is the performer is awkward, the character object can be made to perform a good-looking behavior prepared in advance in place of the behavior, so that the user's VR can be performed. It is possible to improve the immersive feeling in the space.

なお、上記の特定の行動の入力判定に関し、例えば、第一の行動データとなる特定の行動の動作終了後、予め定められた時間の経過をもって、かかる判定処理を完了とし、第二の行動データに従う表現を発動させることができる。また、終了時間前に別の第一の行動データとなる特定の行動を行うと、改めて終了判定が行われることができる。 Regarding the input determination of the specific action described above, for example, after the operation of the specific action that is the first action data is completed, the determination process is completed with the lapse of a predetermined time, and the second action data. You can activate expressions that follow. In addition, if a specific action that becomes another first action data is performed before the end time, the end determination can be performed again.

すなわち、本発明の情報処理システムにおいて、処理機能は、入力判定手段を有することができる。具体的には、入力判定手段は、特定の行動データの動作入力が予め定められた時間を超えた否かを判定する。この判定により、特定の行動データの動作終了後、予め定められた時間を超えた場合に、当該行動が終了したと決定される。例えば、第一の行動データとなる特定の行動の動作終了後、予め定められた時間の経過をもって、かかる判定処理を完了とし、第二の行動データに従う表現を発動させることができる。 That is, in the information processing system of the present invention, the processing function can have an input determination means. Specifically, the input determination means determines whether or not the motion input of the specific action data exceeds a predetermined time. By this determination, it is determined that the action is completed when the predetermined time is exceeded after the operation of the specific action data is completed. For example, after the end of the action of the specific action that is the first action data, the determination process is completed and the expression according to the second action data can be activated after a lapse of a predetermined time.

また、入力判定手段は、特定の行動の動作終了後、予め定められた時間を超える前に別の特定の行動を行った場合に、改めて当該別の特定の行動の入力判定処理を行うことができる。 In addition, the input determination means may perform the input determination process of the other specific action again when another specific action is performed after the operation of the specific action is completed and before the predetermined time is exceeded. it can.

また、生成される動画のクオリティを高めることで、ユーザの行動意欲を向上させ、かつ、この動画を目にする他のユーザや視聴ユーザの視聴意欲をも向上させることができる。 Further, by improving the quality of the generated moving image, it is possible to improve the user's motivation to act and also to improve the viewing motivation of other users and viewing users who see this moving image.

本発明の実施形態における処理機能は、ユーザに対し、状態表示を表示することができる。 The processing function in the embodiment of the present invention can display a status display to the user.

状態表示とは、キャラクタオブジェクトに第二の行動データに従う表現を行わせた動画データが生成されていることを示すものである。 The state display indicates that the moving image data in which the character object is expressed according to the second action data is generated.

図3は、キャラクタオブジェクトに第一の行動データに従う行動を行わせている場合の画面の例であり、図4は、キャラクタオブジェクトに第二の行動データに従う表現を行わせている場合の画面の例である。図3および図4において、画面にはユーザの行動が反映されるキャラクタC1と、他のユーザの行動が反映されるキャラクタC2とが表示されている。なお、図4において、キャラクタC2の位置および大きさは図3から変更されている。また、図4においてキャラクタC1は武器であるリボンを持って踊りながら必殺技を発動させる表現を行っている。図4には、状態表示の一例として画面の右上に再生マーク等の所定のマークM1が表示される。この状態表示の態様はこれに限られるものではない。 FIG. 3 is an example of a screen when the character object is made to perform an action according to the first action data, and FIG. 4 is a screen when the character object is made to perform an expression according to the second action data. This is an example. In FIGS. 3 and 4, character C1 on which the user's behavior is reflected and character C2 on which the behavior of another user is reflected are displayed on the screen. In FIG. 4, the position and size of the character C2 are changed from those in FIG. Further, in FIG. 4, the character C1 is expressed to activate a special move while dancing with a ribbon as a weapon. In FIG. 4, a predetermined mark M1 such as a reproduction mark is displayed on the upper right of the screen as an example of the state display. The mode of this state display is not limited to this.

かかる構成によれば、ユーザはキャラクタオブジェクトが自身の行動に基づく行動データに従う行動を行っているのか、第二の行動データに従う表現を行っているのかを明確に認識することができる。 According to such a configuration, the user can clearly recognize whether the character object is performing an action according to the action data based on its own action or an expression according to the second action data.

本発明の実施形態における処理機能は、第三の行動データを受け付けた場合、受付機能が当該第三の行動データを受け付けた後に受け付けた第一の行動データに従う動作に替えて、キャラクタオブジェクトに第二の行動データに従う表現を行わせた動画データを生成することができる。 When the processing function in the embodiment of the present invention receives the third action data, the processing function causes the character object to perform the first action instead of the action according to the first action data received after the reception function receives the third action data. It is possible to generate moving image data in which expressions are performed according to the second behavior data.

第三の行動データは、ユーザの規定の行動に基づくものである。 The third behavior data is based on the user's prescribed behavior.

規定の行動とは、例えば、「右手を3回振る」などの行動とすることができる。かかる行動は、具体的にはユーザが装着または担持するコントローラの所定のセンサの値を用いて規定されることができる。あるいは、コントローラが備えるボタンを用いて、「Aボタンを1回押す」、「Xボタンを長押しする」などの入力を規定の行動とすることもできる。 The prescribed action can be, for example, an action such as "waving the right hand three times". Such behavior can be specifically defined using the values of a predetermined sensor of the controller worn or carried by the user. Alternatively, using the buttons provided on the controller, inputs such as "press the A button once" and "press and hold the X button" can be set as the prescribed actions.

第三の行動データは、ユーザが特定の行動を行う前の合図となる。そのため、第一の行動データよりも簡易な行動を規定しておくのが好ましい。簡易な行動とは、具体的には、特定の行動よりも短い時間または少ない動きで完了できる行動をいうものとする。 The third behavior data is a signal before the user performs a specific behavior. Therefore, it is preferable to specify a simple action rather than the first action data. Specifically, a simple action is an action that can be completed in a shorter time or less movement than a specific action.

また、第三の行動データと特定の行動の組み合わせにより第二の行動データが選択されるものとしてもよい。例えば、上記のようにコントローラ入力を利用した既定の行動に関して、一のボタン押しながら「ファイア」と音声入力を行うことで武器である銃による攻撃が発動し、他のボタンを押しながら「ファイア」と音声入力を行うことで魔法による攻撃が発動するものとしてもよい。 Further, the second behavior data may be selected by the combination of the third behavior data and the specific behavior. For example, regarding the default action using controller input as described above, by pressing one button and inputting "fire" by voice, an attack with a gun, which is a weapon, is activated, and while pressing the other button, "fire" is activated. It may be assumed that a magical attack is activated by performing voice input.

かかる構成によれば、ユーザの行動が特定の行動であると認識されるためのユーザの行動の精度に関する条件を、上記第三の行動データがない場合と比較して緩くすることができる。 According to such a configuration, the condition regarding the accuracy of the user's behavior for recognizing the user's behavior as a specific behavior can be relaxed as compared with the case where the third behavior data is not available.

本発明の実施形態における処理機能は、ユーザに対し、第一の行動データの入力ガイドを表示することができる。 The processing function in the embodiment of the present invention can display the input guide of the first action data to the user.

入力ガイドとは、第一の行動データの見本となるものである。 The input guide is a sample of the first behavioral data.

具体的には、図5に示されるように、画面の所定の位置に入力ガイドG1が表示される。この所定の位置および入力外の大きさはゲームの進行に応じて適宜設定することができる。 Specifically, as shown in FIG. 5, the input guide G1 is displayed at a predetermined position on the screen. The predetermined position and the size outside the input can be appropriately set according to the progress of the game.

かかる構成によれば、ユーザの行動が特定の行動であると認識されるためのユーザの行動の精度に関する条件を、上記入力ガイドがない場合と比較して緩くすることができる。 According to such a configuration, the condition regarding the accuracy of the user's behavior for the user's behavior to be recognized as a specific behavior can be relaxed as compared with the case where the input guide is not provided.

本発明の実施形態における処理機能は、受付機能がユーザの規定の行動に基づく第三の行動データを受け付けた場合、ユーザに対し、第一の行動データの入力ガイドを表示することができる。 The processing function in the embodiment of the present invention can display the input guide of the first action data to the user when the reception function receives the third action data based on the action specified by the user.

そして、入力ガイドの表示後に受付機能が第一の行動データを受け付けた場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することができる。 Then, when the reception function receives the first action data after the input guide is displayed, the character object is made to perform an expression according to the second action data prepared in advance instead of the action according to the first action data. Video data can be generated.

例えば、第三の行動データとしてユーザにより呪文詠唱がなされた場合、入力ガイドとして魔法陣を描くためのガイドを表示させ、ユーザによる魔法陣を描く行動を第一の行動データとすることができる。このときの呪文詠唱に係る判定は、上述したように、冒頭の数文字で判定できるように予め呪文を設定しておくことができる。 For example, when a user casts a spell as the third action data, a guide for drawing a magic circle can be displayed as an input guide, and the action of drawing the magic circle by the user can be used as the first action data. As described above, the judgment related to the spell casting at this time can be set in advance so that the judgment can be made by the first few letters.

かかる構成によれば、ユーザの行動が特定の行動であると認識されるためのユーザの行動の精度に関する条件を、上記第三の行動データおよび入力ガイドがない場合と比較して緩くすることができる。 According to such a configuration, the condition regarding the accuracy of the user's behavior for the user's behavior to be recognized as a specific behavior can be relaxed as compared with the case where the third behavior data and the input guide are not provided. it can.

本発明の実施形態における処理機能は、受付機能が受け付け始めた行動データが第一の条件を満たした場合、当該行動データを第一の行動データとして、キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することができる。 When the action data started to be accepted by the reception function satisfies the first condition, the processing function according to the embodiment of the present invention uses the action data as the first action data and follows the character object according to the first action data. Instead of the action, it is possible to generate moving image data in which the expression according to the second action data prepared in advance is performed.

そして、処理機能は、受付機能が受け付けた行動データが第一の条件を満たさない場合、キャラクタオブジェクトに、当該第一の行動データに従う動作に従う行動を行わせた動画データを生成することができる。 Then, when the action data received by the reception function does not satisfy the first condition, the processing function can generate moving image data in which the character object is made to perform an action according to the action according to the first action data.

なお、第一の条件を満たすと判定されるまでの期間(第一の行動データの入力待機中の期間)も、上記第一の条件を満たさない場合に含まれ、キャラクタオブジェクトには第一の行動データに従う動作に従う行動を行わせるものとしてもよい。 The period until it is determined that the first condition is satisfied (the period during which the input of the first action data is waiting) is also included in the case where the first condition is not satisfied, and the character object is the first. It may be made to perform an action according to an action according to the action data.

あるいは、第一の条件を満たすと判定されるまでの期間は、キャラクタオブジェクトには別の第四の行動データに従う表現を行わせるものとしてもよい。第四の行動データは、例えば力をためているモーション、呪文を唱えているモーションなどを表すものとするのが好ましく、上記受付機能が当該第三の行動データを受け付けた後に適用されることができる。 Alternatively, the character object may be made to perform an expression according to another fourth action data until it is determined that the first condition is satisfied. The fourth action data preferably represents, for example, a motion of accumulating power, a motion of chanting a spell, etc., and the reception function may be applied after receiving the third action data. it can.

かかる第四の行動データに従う表現は、他のユーザ向けに表示されているものであって、第三者視点の場合の入力プレイヤ(ユーザ)の画面には、別表現で表示されてもよい。 The expression according to the fourth action data is displayed for other users, and may be displayed in another expression on the screen of the input player (user) in the case of a third-party viewpoint.

かかる構成によれば、動画内のキャラクタオブジェクトの行動を止めることなく、クオリティの高い動画を生成することができる。 According to such a configuration, it is possible to generate a high-quality moving image without stopping the action of the character object in the moving image.

続いて、上記第一の条件について詳説する。
本発明の実施形態における処理機能は、行動データと模範行動データとを比較して達成率を判定し、当該達成率が所定の値を超えた場合に行動データが第一の条件を満たしたと判断することができる。
Subsequently, the first condition described above will be described in detail.
The processing function in the embodiment of the present invention determines the achievement rate by comparing the behavior data with the model behavior data, and determines that the behavior data satisfies the first condition when the achievement rate exceeds a predetermined value. can do.

模範行動データは、初期設定として所定の記憶装置に記憶されていてもよいし、ユーザにより定められる/選択されるものであってもよい。 The model behavior data may be stored in a predetermined storage device as an initial setting, or may be determined / selected by the user.

達成率とは、「どこまでできたか」を表す数値とすることができる。例えば、図6に示すように、模範行動データとしてハート型の図形を描くデータがある場合、ハート型の図形の全てを描いた場合には100%、半分を描いた場合には50%というように、達成率が判定される。 The achievement rate can be a numerical value indicating "how far it has been achieved". For example, as shown in FIG. 6, when there is data for drawing a heart-shaped figure as model action data, 100% when all the heart-shaped figures are drawn, 50% when half is drawn, and so on. In addition, the achievement rate is determined.

また、例えば、行動データが音声データである場合の達成率については、後述する参照周波数スペクトル51またはテキストデータをもとに判断することができる。詳細については後述する。 Further, for example, the achievement rate when the action data is voice data can be determined based on the reference frequency spectrum 51 or the text data described later. Details will be described later.

そして、達成率が所定の値を超えた場合とは、一例として50%を超えた場合とすることができるが、これに限られるものではない。例えば、かかる達成率の所定の値を変えることで、ユーザに応じてゲームの難易度を変化させてもよい。 The case where the achievement rate exceeds a predetermined value can be, for example, a case where it exceeds 50%, but is not limited to this. For example, the difficulty level of the game may be changed according to the user by changing a predetermined value of the achievement rate.

また、上記第一の条件の満足の判断には、制限時間を設けてもよい。かかる制限時間を変えることで、ユーザに応じてゲームの難易度を変化させることができる。 In addition, a time limit may be set to determine the satisfaction of the first condition. By changing the time limit, the difficulty level of the game can be changed according to the user.

また、処理機能は、受付機能が受け付けた第一の行動データが第二の条件を満たした場合と、受付機能が受け付けた第一の行動データが第二の条件を満たさない場合とで、第二の行動データに従う表現による効果を異ならせることができる。 Further, the processing function includes a case where the first action data received by the reception function satisfies the second condition and a case where the first action data received by the reception function does not satisfy the second condition. The effect of the expression according to the second behavior data can be different.

第二の行動データに従う表現による効果とは、例えば、第二の行動データに従う表現が回復魔法の発動である場合は、体力の回復がその効果となる。 The effect of the expression according to the second action data is, for example, when the expression according to the second action data is the activation of recovery magic, the recovery of physical strength is the effect.

効果を異ならせるとは、例えば効果の強さを違うものとするものであってもよいし、効果自体を違うものにするものであってもよい。 To make the effects different may mean, for example, different strengths of the effects or different effects themselves.

続いて、上記第二の条件について詳説する。
本発明の実施形態における処理機能は、行動データと模範行動データとを比較して正確率を判定し、当該正確率が所定の値を超えた場合、第一の行動データが第二の条件を満たしたと判断することができる。
Subsequently, the second condition will be described in detail.
The processing function in the embodiment of the present invention determines the accuracy rate by comparing the behavior data with the model behavior data, and when the accuracy rate exceeds a predetermined value, the first behavior data satisfies the second condition. It can be judged that it is satisfied.

正確率とは、「どのようにできたか」を表す数値とすることができる。例えば、図7に示すように、模範行動データとしてハート型の図形を描くデータがある場合、ハート型の図形がすべて一致する場合には100%、ずれている部分がある場合にはその割合に応じた数値というように、正確率が判定される。 The accuracy rate can be a numerical value representing "how it was done". For example, as shown in FIG. 7, when there is data for drawing a heart-shaped figure as model behavior data, 100% when all the heart-shaped figures match, and the ratio when there is a deviation part. The accuracy rate is determined, such as the corresponding numerical value.

そして、正確率が所定の値を超えた場合とは、一例として50%を超えた場合とすることができるが、これに限られるものではない。例えば、かかる正確率の所定の値を変えることで、ユーザに応じてゲームの難易度を変化させてもよい。 The case where the accuracy rate exceeds a predetermined value can be, for example, a case where it exceeds 50%, but is not limited to this. For example, the difficulty level of the game may be changed according to the user by changing a predetermined value of the accuracy rate.

また、上記第二の条件の満足の判断には、制限時間を設けてもよい。かかる制限時間を変えることで、ユーザに応じてゲームの難易度を変化させることができる。 In addition, a time limit may be set to determine the satisfaction of the second condition. By changing the time limit, the difficulty level of the game can be changed according to the user.

そして、処理機能は、ユーザに対し、達成率および/または正確率を示す状態表示を表示することができる。 Then, the processing function can display a status display indicating the achievement rate and / or the accuracy rate to the user.

図8は、画面の所定の位置に達成率および/または正確率を示す状態表示M2が表示される画面の例である。このように、図8には、状態表示の一例として画面の左下に「達成率50%」等の文字が表示されるが、この状態表示の態様はこれに限られるものではない。例えば、ユーザが描いているハートの軌跡の輝きを達成率または正確率に応じて変化させ、これを状態表示としてもよい。 FIG. 8 is an example of a screen in which a status display M2 indicating an achievement rate and / or an accuracy rate is displayed at a predetermined position on the screen. As described above, in FIG. 8, characters such as "achievement rate 50%" are displayed at the lower left of the screen as an example of the state display, but the mode of this state display is not limited to this. For example, the brilliance of the trajectory of the heart drawn by the user may be changed according to the achievement rate or the accuracy rate, and this may be used as a state display.

なお、これらの達成率や正確率を満足する条件は、スキルによって変化するものであってもよい。具体的には、ガイド(正確率の判定)が緩くなったり、要求される達成率/正確率が上下したりする。一例として、キャラオブジェクトが所有するキャラスキル(例:剣術I、水魔法I等のキャラの持つ属性による補助効果)、武具スキル(例:火属性を持つ武器による火魔法の補助効果)、ジョブスキル(例:剣士の場合、剣術スキルの達成率/正確率向上、魔法スキルの達成率/正確率低下)などと設定することができる。 The conditions for satisfying these achievement rates and accuracy rates may change depending on the skill. Specifically, the guide (determination of accuracy rate) becomes loose, and the required achievement rate / accuracy rate fluctuates. As an example, character skills owned by character objects (eg, auxiliary effects of characters such as swordsmanship I and water magic I), armor skills (eg, auxiliary effects of fire magic with weapons with fire attributes), job skills (Example: In the case of a swordsman, the achievement rate of swordsmanship skill / improvement of accuracy rate, the achievement rate of magic skill / decrease of accuracy rate) can be set.

続いて、本発明が適用されたゲーム処理システムについて、図面を参照しながら説明を行う。図9に示すように、本発明が適用されたゲーム処理システムは、ヘッドマウントディスプレイ(以下、HMD)10と、ゲーム処理装置20と、操作装置30とを備えている。HMD10とゲーム処理装置20とは、有線または無線による通信を行う。また、操作装置30とHMD10およびゲーム処理装置20との間も有線または無線による通信を行う。 Subsequently, the game processing system to which the present invention is applied will be described with reference to the drawings. As shown in FIG. 9, the game processing system to which the present invention is applied includes a head-mounted display (hereinafter, HMD) 10, a game processing device 20, and an operating device 30. The HMD 10 and the game processing device 20 communicate with each other by wire or wirelessly. In addition, wired or wireless communication is also performed between the operating device 30 and the HMD 10 and the game processing device 20.

HMD10は、図14に示すようにプレイヤPの頭部に装着され、操作装置30は、プレイヤPに操作される。ゲーム処理装置20は、HMD10の位置および向きに応じた視点でゲームの仮想空間画像をHMD10に表示させ、HMD10および操作装置30にて検出された情報に基づき、仮想空間で行われるゲームの進行を管理する。1つのHMD10は、1つの操作装置30と対応付けられている。したがって、互いに対応付けられたHMD10と操作装置30とは、同一のプレイヤに利用される。なお、ゲーム処理システムは、HMD10と操作装置30との組が複数であってもよく、複数の場合は、複数人で同時にゲームを行うことができる。 The HMD 10 is attached to the head of the player P as shown in FIG. 14, and the operating device 30 is operated by the player P. The game processing device 20 displays a virtual space image of the game on the HMD 10 from a viewpoint according to the position and orientation of the HMD 10, and based on the information detected by the HMD 10 and the operating device 30, the progress of the game performed in the virtual space is performed. to manage. One HMD 10 is associated with one operating device 30. Therefore, the HMD 10 and the operating device 30 associated with each other are used by the same player. The game processing system may have a plurality of pairs of the HMD 10 and the operating device 30, and in the case of a plurality of pairs, a plurality of people can play a game at the same time.

[HMD]
HMD10は、HMD制御部11、センサ12、ディスプレイ13、および、スピーカ14、マイク15を備える。HMD10は、ゲーム処理装置20に各種の情報を出力するとともに、ゲーム処理装置20から各種の情報が入力される。
[HMD]
The HMD 10 includes an HMD control unit 11, a sensor 12, a display 13, a speaker 14, and a microphone 15. The HMD 10 outputs various information to the game processing device 20, and also inputs various information from the game processing device 20.

センサ12は、現実空間におけるHMD10の位置と向きとを検出する。センサ12は、例えば、ジャイロセンサ、加速度センサ、地磁気センサなどの少なくとも一つを備える。例えば、センサ12は、視線センサをさらに備えて、プレイヤの視線が向けられる方向(視線方向)を、直接的に検出してもよい。 The sensor 12 detects the position and orientation of the HMD 10 in the real space. The sensor 12 includes at least one such as a gyro sensor, an acceleration sensor, and a geomagnetic sensor. For example, the sensor 12 may further include a line-of-sight sensor to directly detect the direction in which the player's line of sight is directed (line-of-sight direction).

HMD制御部11は、センサ12の検出した結果を用いて、プレイヤPの頭部の向き(視点と視線方向)を算出する。HMD制御部11は、プレイヤPの頭部の向きに加え、頭部の位置を算出してもよい。HMD制御部11は、頭部の向きを算出するとき、各軸周りの角度として算出する。HMD制御部11は、頭部の位置を算出するとき、3軸方向の位置を算出する。例えば、図10に示すように、3軸は、水平方向に沿ったX軸、鉛直方向に沿ったY軸、および、奥行方向に沿ったZ軸である。軸周りの角度は、X軸を中心とした回転方向を示すピッチθp、Y軸を中心とした回転方向を示すヨーθy、および、Z軸を中心とした回転方向を示すロールθrである。 The HMD control unit 11 calculates the orientation (viewpoint and line-of-sight direction) of the head of the player P using the detection result of the sensor 12. The HMD control unit 11 may calculate the position of the head in addition to the direction of the head of the player P. When calculating the direction of the head, the HMD control unit 11 calculates it as an angle around each axis. When calculating the position of the head, the HMD control unit 11 calculates the position in the three axial directions. For example, as shown in FIG. 10, the three axes are an X-axis along the horizontal direction, a Y-axis along the vertical direction, and a Z-axis along the depth direction. The angles around the axis are pitch θp indicating the rotation direction centered on the X axis, yaw θy indicating the rotation direction centered on the Y axis, and roll θr indicating the rotation direction centered on the Z axis.

HMD制御部11は、入出力インタフェースを含み、プレイヤPの頭部の向きをゲーム処理装置20に送信する。HMD制御部11のプレイヤPの頭部の位置を算出した場合には、頭部の位置をゲーム処理装置20に送信する。ゲーム処理装置20は、プレイヤPの頭部の位置と向きなどから、仮想空間VにおけるプレイヤPの位置と向き(カメラの視点とカメラの視線方向)とを算出する。 The HMD control unit 11 includes an input / output interface and transmits the direction of the head of the player P to the game processing device 20. When the position of the head of the player P of the HMD control unit 11 is calculated, the position of the head is transmitted to the game processing device 20. The game processing device 20 calculates the position and orientation of the player P in the virtual space V (the viewpoint of the camera and the line-of-sight direction of the camera) from the position and orientation of the head of the player P.

ディスプレイ13は、表示装置の一例である。ディスプレイ13は、視差画像を出力して、奥行き感のある立体的な画像をプレイヤPに視認させる。ゲーム処理装置20は、仮想空間VにおけるプレイヤPの位置と向きとに基づいて、視差画像を出力するための画像データを抽出する。ゲーム処理装置20は、抽出した画像データをHMD10に送信する。HMD制御部11は、ゲーム処理装置20から受信した信号を用いて、仮想空間Vの画像をディスプレイ13に表示させる。 The display 13 is an example of a display device. The display 13 outputs a parallax image so that the player P can visually recognize a three-dimensional image with a sense of depth. The game processing device 20 extracts image data for outputting a parallax image based on the position and orientation of the player P in the virtual space V. The game processing device 20 transmits the extracted image data to the HMD 10. The HMD control unit 11 uses the signal received from the game processing device 20 to display the image of the virtual space V on the display 13.

スピーカ14は、視差画像の背景で流す効果音、音声、および、楽曲などのゲーム音を出力する。ゲーム処理装置20は、ゲームの進行状況を把握し、ゲームの進行状況に適した音を出力するための音データを生成する。ゲーム処理装置20は、生成した音データをHMD10に送信する。HMD制御部11は、ゲーム処理装置20から受信した音声信号をスピーカ14に出力する。 The speaker 14 outputs sound effects, sounds, and game sounds such as music to be played in the background of the parallax image. The game processing device 20 grasps the progress of the game and generates sound data for outputting a sound suitable for the progress of the game. The game processing device 20 transmits the generated sound data to the HMD 10. The HMD control unit 11 outputs the audio signal received from the game processing device 20 to the speaker 14.

マイク15は、プレイヤPの音声を電気信号に変換し、音声信号を生成する。マイク15では、プレイヤPがゲームの操作指示である音声入力情報を音声で入力することができる。ゲーム処理装置20では、音声入力情報に基づいて操作情報を生成し、ゲーム処理において、操作情報に基づいた操作を受け付ける。例えば、ゲーム進行に必要な攻撃方法(パンチ、キック、ミサイル発射など)や防御方法(隠れる、逃げる、下がる、バリアなど)や呪文などの音声が入力される。 The microphone 15 converts the voice of the player P into an electric signal and generates a voice signal. In the microphone 15, the player P can input the voice input information which is the operation instruction of the game by voice. The game processing device 20 generates operation information based on voice input information, and accepts operations based on the operation information in the game processing. For example, voices such as attack methods (punch, kick, missile launch, etc.), defense methods (hide, escape, lower, barrier, etc.) and spells necessary for the progress of the game are input.

[操作装置]
操作装置30は、当該操作装置30と対応付けられたHMD10と有線または無線により通信可能に構成され、プレイヤPが操作装置30を手に持つこと、あるいは、プレイヤPが操作装置30を手や腕に装着することによってプレイヤPに携帯される。操作装置30は、例えば、ゲーム専用のコントローラであり、また、スマートフォンなどのスマートデバイスである。また、操作装置30は、ペンまたはスティック型コントローラであり、ペンまたはスティック型コントローラの軌跡を検出することで、HMD10によって表示される三次元の仮想空間において描画をすることができる。このような操作装置30は、情報処理部31と、トラッキング情報検出部32と、操作部33とを備えている。
[Operating device]
The operation device 30 is configured to be able to communicate with the HMD 10 associated with the operation device 30 by wire or wirelessly, and the player P holds the operation device 30 in his hand, or the player P holds the operation device 30 in his hand or arm. It is carried by the player P by being attached to the player P. The operation device 30 is, for example, a controller dedicated to a game and a smart device such as a smartphone. Further, the operating device 30 is a pen or stick type controller, and by detecting the locus of the pen or stick type controller, drawing can be performed in the three-dimensional virtual space displayed by the HMD 10. Such an operation device 30 includes an information processing unit 31, a tracking information detection unit 32, and an operation unit 33.

情報処理部31は、プロセッサ、メモリ、通信用インタフェース等を含む。情報処理部31は、センサ12の検出結果に応じた信号、および、操作部33に対する操作に応じた信号をHMD10に出力する。HMD10は、操作装置30から入力された信号に応じた信号を、ゲーム処理装置20に出力する。 The information processing unit 31 includes a processor, a memory, a communication interface, and the like. The information processing unit 31 outputs a signal corresponding to the detection result of the sensor 12 and a signal corresponding to the operation to the operation unit 33 to the HMD 10. The HMD 10 outputs a signal corresponding to the signal input from the operation device 30 to the game processing device 20.

トラッキング情報検出部32は、操作装置30の位置および向きの算出のための情報を検出する機器を含む。操作装置30の位置は、プレイヤPの手の位置に相当する。トラッキング情報検出部32には、例えば、ジャイロセンサ、加速度センサ、および、地磁気センサのうち少なくとも1つのセンサが含まれる。トラッキング情報検出部32の検出結果から算出される操作装置30の位置は、操作装置30の初期位置に対する相対的な位置であってもよいし、操作装置30と対応付けられたHMD10の位置に対する相対的な位置であってもよいし、現実空間における絶対的な位置であってもよい。 The tracking information detection unit 32 includes a device that detects information for calculating the position and orientation of the operation device 30. The position of the operating device 30 corresponds to the position of the hand of the player P. The tracking information detection unit 32 includes, for example, at least one of a gyro sensor, an acceleration sensor, and a geomagnetic sensor. The position of the operating device 30 calculated from the detection result of the tracking information detection unit 32 may be a position relative to the initial position of the operating device 30, or relative to the position of the HMD 10 associated with the operating device 30. It may be an absolute position in the real space.

操作部33は、例えば、プレイヤPが押して操作するボタン型や上下左右に動かすレバー型であり、プレイヤPが目視せずとも操作可能に構成されている。また、操作部33は、タッチパネルであってもよい。なお、操作装置30は、HMD10を介さず直接にゲーム処理装置20と通信を行い、トラッキング情報検出部32の検出結果に応じた信号、および、操作部33に対する操作に応じた信号をゲーム処理装置20に出力してもよい。この場合、HMD10と操作装置30との対応付けは、ゲーム処理装置20において、HMD10と操作装置30との各々の識別情報の対応付けが記憶されること等によって管理されればよい。 The operation unit 33 is, for example, a button type that the player P pushes and operates, or a lever type that moves up, down, left, and right, and is configured to be operable without the player P visually observing. Further, the operation unit 33 may be a touch panel. The operation device 30 directly communicates with the game processing device 20 without going through the HMD 10, and outputs a signal according to the detection result of the tracking information detection unit 32 and a signal according to the operation to the operation unit 33. It may be output to 20. In this case, the association between the HMD 10 and the operation device 30 may be managed by storing the association of the identification information between the HMD 10 and the operation device 30 in the game processing device 20.

なお、例えば、トラッキング情報検出部32は、主としてHMD10の位置の算出に用いられる情報を検出するための位置検出用機器を含む。具体的には、位置検出用機器は、HMD10の向きの算出のための情報を検出可能とする。位置検出用機器は、HMD10の向きに加えて位置の算出にも利用されてもよい。 For example, the tracking information detection unit 32 includes a position detection device for detecting information mainly used for calculating the position of the HMD 10. Specifically, the position detection device can detect information for calculating the orientation of the HMD 10. The position detection device may be used to calculate the position in addition to the orientation of the HMD 10.

また、トラッキング情報検出部32に加えて、トラッキング補助装置36を備えていてもよい。例えば、位置検出用機器とトラッキング補助装置36との一方は、赤外光もしくは可視光を射出するレーザー装置やLED等の発光装置であり、位置検出用機器とトラッキング補助装置36との他方は、上記発光装置に対応した光を受光するカメラ等の受光装置である。そして、所定の配置を有する複数の発光装置のうち、何れの発光装置からの光を受光装置が受光したか、所定の配置を有する複数の受光装置のうち、何れの受光装置が発光装置からの光を受光したか、発光装置からの光の射出方向、発光装置から射出された光が受光装置への到達までに要した時間等の情報が検出され、これらの情報に基づき、HMD10の位置や向きが算出される。トラッキング補助装置36が受光装置である場合や、トラッキング補助装置36が発光装置であって、その発光をゲーム処理装置20が制御する場合には、トラッキング補助装置36はゲーム処理装置20と直接に、もしくは、HMD10を介して、通信可能に構成されていればよい。 Further, in addition to the tracking information detection unit 32, a tracking auxiliary device 36 may be provided. For example, one of the position detection device and the tracking assist device 36 is a light emitting device such as a laser device or an LED that emits infrared light or visible light, and the other of the position detection device and the tracking assist device 36 is. It is a light receiving device such as a camera that receives light corresponding to the above light emitting device. Then, which of the plurality of light emitting devices having the predetermined arrangement receives the light from the light receiving device, and which of the plurality of light receiving devices having the predetermined arrangement receives the light from the light emitting device. Information such as whether the light was received, the direction in which the light is emitted from the light emitting device, the time required for the light emitted from the light emitting device to reach the light receiving device, etc. is detected, and based on this information, the position of the HMD 10 and the position The orientation is calculated. When the tracking auxiliary device 36 is a light receiving device, or when the tracking auxiliary device 36 is a light emitting device and the game processing device 20 controls the light emission, the tracking auxiliary device 36 directly with the game processing device 20. Alternatively, it may be configured so that communication is possible via the HMD 10.

なお、HMD10の外部に設置されたトラッキング補助装置36を用いずに、HMD10が備えるトラッキング情報検出部32の検出結果のみを利用して、HMD10の位置および向きが算出可能なように、トラッキング情報検出部32が構成されていてもよい。トラッキング情報検出部32の検出結果から算出されるHMD10の位置は、HMD10の初期位置に対する相対的な位置であってもよいし、現実空間、すなわち、プレイヤPがゲームをプレイする際に位置する所定の大きさの三次元空間における絶対的な位置であってもよい。 It should be noted that the tracking information detection is performed so that the position and orientation of the HMD 10 can be calculated by using only the detection result of the tracking information detection unit 32 included in the HMD 10 without using the tracking auxiliary device 36 installed outside the HMD 10. The unit 32 may be configured. The position of the HMD 10 calculated from the detection result of the tracking information detection unit 32 may be a position relative to the initial position of the HMD 10, or a predetermined position located in the real space, that is, when the player P plays the game. It may be an absolute position in a three-dimensional space of the size of.

[ゲーム処理装置]
ゲーム処理装置20は、中央演算処理装置、メモリ、および、特定用途向けの集積回路などの各種のハードウェア要素から構成される。ゲーム処理装置20は、制御装置の一例である制御部21と記憶部22とを備える。なお、ゲーム処理装置20とHMD10とは、1台のゲーム処理装置20に1台のHMD10が接続される関係であってもよいし、1台のゲーム処理装置20に複数台のHMD10が接続される関係であってもよい。
[Game processing device]
The game processing device 20 is composed of various hardware elements such as a central processing unit, a memory, and an integrated circuit for a specific application. The game processing device 20 includes a control unit 21 and a storage unit 22, which are examples of control devices. The game processing device 20 and the HMD 10 may have a relationship in which one HMD 10 is connected to one game processing device 20, or a plurality of HMD 10s are connected to one game processing device 20. It may be a relationship.

制御部21は、ハードウェア要素にゲーム処理プログラムを実行させて、進行管理部21A、場面判定部21B、音声認識部21C、第1判定部21D、第1アクション制御部21E、描画部21F、第2判定部21G、および、第2アクション制御部21Hとして機能する。記憶部22は、ゲームの進行に用いられる各種の情報を格納する。記憶部22に格納される情報は、画像情報22A、オブジェクト情報22B、および、ゲーム音情報22Cを含む。また、記憶部22は、ゲーム処理プログラムがネットワークや光ディスクやハードディスクやUSBメモリなどの外部記録媒体からインストールされる。 The control unit 21 causes the hardware element to execute the game processing program, and causes the progress management unit 21A, the scene determination unit 21B, the voice recognition unit 21C, the first determination unit 21D, the first action control unit 21E, the drawing unit 21F, and the first. 2 Functions as a determination unit 21G and a second action control unit 21H. The storage unit 22 stores various information used for the progress of the game. The information stored in the storage unit 22 includes image information 22A, object information 22B, and game sound information 22C. In addition, the game processing program is installed in the storage unit 22 from an external recording medium such as a network, an optical disk, a hard disk, or a USB memory.

画像情報22Aは、仮想空間情報の一例であり、図15に示すような仮想空間Vの画像を表示するための情報である。仮想空間Vの画像は、仮想空間Vの背景となる画像、および、仮想空間Vに存在するオブジェクトの画像を含む。仮想空間Vに存在するオブジェクトは、仮想空間Vのみに存在するオブジェクトを含む。 The image information 22A is an example of virtual space information, and is information for displaying an image of the virtual space V as shown in FIG. The image of the virtual space V includes an image that is a background of the virtual space V and an image of an object existing in the virtual space V. The objects existing in the virtual space V include the objects existing only in the virtual space V.

オブジェクトは、ディスプレイ13に表示させる画像の単位要素である。オブジェクトは、例えば、プレイヤキャラクタ、敵キャラクタ、味方キャラクタ、および、中立キャラクタなどのゲームキャラクタを含む。オブジェクトは、例えば、武器、防具、魔法、乗り物、および、建物、携帯電話、スマートフォン、掲示板などのゲームアイテムといったゲーム媒体の一つである。例えば、ゲーム媒体は、ゲーム内で利用されるものであってもよいし、ゲーム以外で利用されるものであってもよい。ゲーム媒体は、ゲームに応じて変更可能なデータである。すなわち、ゲーム媒体は、ゲームに使用される電子データであり、ユーザによってゲーム内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、または、贈与等され得るデータである。例えば、ゲーム媒体は、カード、仮想通貨、チケット、キャラクタ、アバタなどを表す画像データや動画データを含んでいる。また、ゲーム媒体は、カード、仮想通貨、チケット、キャラクタ、アバタなどに化体するレベル情報、ステータス情報、および、パラメータ情報(体力値や攻撃力や魔力など)、能力情報(スキル、アビリティ、呪文、ジョブなど)などの任意の媒体データを含んでいる。また、オブジェクトは、例えば、テキスト、アイコン、および、マップなどのインデックスを含む。 An object is a unit element of an image to be displayed on the display 13. Objects include, for example, player characters, enemy characters, ally characters, and game characters such as neutral characters. An object is one of game media such as weapons, armor, magic, vehicles, and game items such as buildings, mobile phones, smartphones, and bulletin boards. For example, the game medium may be used in the game or may be used outside the game. The game medium is data that can be changed according to the game. That is, the game medium is electronic data used in the game, and is data that can be acquired, owned, used, managed, exchanged, synthesized, strengthened, sold, discarded, or donated by the user in the game. For example, the game medium includes image data and moving image data representing cards, virtual currencies, tickets, characters, avatars, and the like. In addition, the game medium is level information, status information, parameter information (physical strength value, attack power, magical power, etc.), ability information (skills, abilities, spells, etc.) that are embodied in cards, virtual currencies, tickets, characters, avatars, etc. , Job, etc.) contains arbitrary media data. Objects also include indexes such as text, icons, and maps.

オブジェクト情報22Bは、オブジェクトの識別子、オブジェクトの種類、および、仮想空間Vにおけるオブジェクトの位置を含む。オブジェクトの位置は、仮想空間Vにおけるオブジェクトの位置である。オブジェクトの位置などは、ゲームの進行に伴い、制御部21によって更新される。 The object information 22B includes the identifier of the object, the type of the object, and the position of the object in the virtual space V. The position of the object is the position of the object in the virtual space V. The position of the object and the like are updated by the control unit 21 as the game progresses.

ゲーム音情報22Cは、仮想空間情報の一例であり、HMD10にゲーム音を出力させるための情報である。進行管理部21Aは、プレイヤPに認識させるゲーム音を出力させるための情報を、ゲーム音情報22Cの中から抽出し、抽出された情報を、HMD10に送信する。 The game sound information 22C is an example of virtual space information, and is information for causing the HMD 10 to output a game sound. The progress management unit 21A extracts information for outputting the game sound to be recognized by the player P from the game sound information 22C, and transmits the extracted information to the HMD 10.

進行管理部21Aは、ゲームの進行を管理する。場面判定部21Bは、進行管理部21Aによってゲームが進行して行く中で、現在の場面が操作情報としての入力情報が入力可能な入力場面かどうかを判断する。例えば、場面判定部21Bは、入力情報として押ボタンによる入力が可能な場面かどうかを判定する。また、場面判定部21Bは、操作情報として音声入力情報が可能な場面かどうかを判定する。さらに、場面判定部21Bは、プレイヤPの操作装置30を持った手の動作(ジェスチャ)の軌跡を操作情報として入力可能な場面かどうかを判定する。 The progress management unit 21A manages the progress of the game. The scene determination unit 21B determines whether or not the current scene is an input scene in which input information as operation information can be input while the game is progressing by the progress management unit 21A. For example, the scene determination unit 21B determines whether or not the scene can be input by a push button as input information. In addition, the scene determination unit 21B determines whether or not the scene is capable of voice input information as operation information. Further, the scene determination unit 21B determines whether or not the scene can input the locus of the movement (gesture) of the hand holding the operation device 30 of the player P as operation information.

〔音声入力〕
音声認識部21Cは、マイク15を通じて入力された音声入力情報を認識する。音声認識部21Cは、認識した音声入力情報に基づいて、音声入力期間の周波数スペクトルを生成する。周波数スペクトルは、音声入力期間における横軸を時間軸とし縦軸を強度とした音声スペクトルをフーリエ変換することにより算出することができる。音声認識部21Cは、例えば、音声入力期間における横軸を周波数とし、縦軸を強度とした周波数スペクトルを生成する。また、音声認識部21Cは、音声認識結果およびテキスト変換辞書に基づいて、音声信号に対応するテキストデータを生成する。
〔Voice input〕
The voice recognition unit 21C recognizes the voice input information input through the microphone 15. The voice recognition unit 21C generates a frequency spectrum of the voice input period based on the recognized voice input information. The frequency spectrum can be calculated by Fourier transforming the voice spectrum with the horizontal axis as the time axis and the vertical axis as the intensity in the voice input period. The voice recognition unit 21C generates, for example, a frequency spectrum in which the horizontal axis is the frequency and the vertical axis is the intensity in the voice input period. In addition, the voice recognition unit 21C generates text data corresponding to the voice signal based on the voice recognition result and the text conversion dictionary.

第1判定部21Dは、音声入力された音声入力情報を音声参照情報と比較し、音声入力情報と音声参照情報との一致度を算出する。音声参照情報は、第1判定部21Dがメモリなどの記憶部に保持している判定に際しての基準スペクトルである。音声参照情報は、上述した模範行動データの一例である。 The first determination unit 21D compares the voice-input voice input information with the voice reference information, and calculates the degree of coincidence between the voice input information and the voice reference information. The voice reference information is a reference spectrum for determination held by the first determination unit 21D in a storage unit such as a memory. The voice reference information is an example of the above-mentioned model behavior data.

図11に示すように、例えば、音声入力情報として、「アブラカダブラ」の呪文を入力する入力場面がある場合、第1判定部21Dは、「アブラカダブラ」の呪文の参照周波数スペクトル51を音声参照情報として予め保持している。第1判定部21Dは、音声入力情報として音声入力された「アブラカダブラ」の呪文の周波数スペクトル52と音声参照情報の参照周波数スペクトル51とを比較し、一致度を算出する。音声入力情報の周波数スペクトル52と音声参照情報の参照周波数スペクトル51とは、スペクトルの重なりが多いほど一致度が高くなり、重なりが少なくなるほど一致度が低くなる。なお、ここで言う「一致度」は上述した「正確率」と同じ意味とする。 As shown in FIG. 11, for example, when there is an input scene in which the spell of "Abracadabra" is input as voice input information, the first determination unit 21D uses the reference frequency spectrum 51 of the spell of "Abracadabra" as voice reference information. It is held in advance. The first determination unit 21D compares the frequency spectrum 52 of the spell of "Abracadabra" voice-input as voice input information with the reference frequency spectrum 51 of the voice reference information, and calculates the degree of agreement. The frequency spectrum 52 of the voice input information and the reference frequency spectrum 51 of the voice reference information have a higher degree of coincidence as the overlap of the spectra increases, and a lower degree of coincidence as the overlap of the spectra decreases. The "matching degree" referred to here has the same meaning as the "accuracy rate" described above.

なお、音声入力情報としては、横軸を時間軸とし縦軸を強度とした音声スペクトルでもよい。この場合、この音声スペクトルに対応する参照情報としての音声スペクトルを第1判定部21Dが保持している。 The voice input information may be a voice spectrum in which the horizontal axis is the time axis and the vertical axis is the intensity. In this case, the first determination unit 21D holds the voice spectrum as reference information corresponding to the voice spectrum.

また、図12に示すように、第1判定部21Dは、音声入力情報を音声認識し、テキストデータに変換し、音声入力情報から変換されたテキストデータの「アブラカダブラ」と音声参照情報としてのテキストデータの「アブラカダブラ」とを比較し、一致度を算出する。例えば、音声入力情報としてのテキストデータと音声参照情報としてのテキストデータとがともに「アブラカダブラ」であれば、一致度は100%であるし、一文字違いで音声入力情報が「アブラコダブラ」であれば、一致度は、86%である。 Further, as shown in FIG. 12, the first determination unit 21D recognizes the voice input information by voice, converts it into text data, and text data “Abra Cadabra” converted from the voice input information and text as voice reference information. Compare with the data "Abra Kadabra" and calculate the degree of agreement. For example, if the text data as the voice input information and the text data as the voice reference information are both "Abraco doubler", the degree of matching is 100%, and if the voice input information is "Abraco doubler" with one character difference. , The degree of agreement is 86%.

テキストデータでの一致度の算出は、音声参照情報の文字の順番に応じて重みづけをしてもよい。例えば、語頭文字が違う場合は、同じ一文字違いでも、一致度を下げるようにする。語頭における音の違いは、称呼上、呪文全体として異なるように聞こえる傾向にあるが、中間又は語尾に位置する文字の音は違っていても全体として称呼上同じように聞こえることも多いからである。例えば、同じ一文字違いであっても、「オブラカダブラ」は語頭文字が違うため、中間文字の異なる「アブラコダブラ」より一致度が低くなる。 The calculation of the degree of agreement in the text data may be weighted according to the order of the characters in the voice reference information. For example, if the first letter of a word is different, the degree of matching should be lowered even if the same one letter is different. The difference in sound at the beginning of a word tends to sound different as a whole spell in terms of name, but it often sounds the same in terms of name as a whole even if the sound of the letters located in the middle or at the end of the word is different. .. For example, even if the same one letter is different, "Obraka dabra" has a different first letter, so the degree of matching is lower than that of "Abraco dabra" with different intermediate letters.

なお、音声入力情報をテキストデータに変換する場合において、音声入力情報の中に無音区間が含まれているときには、無音区間に対応する位置にブランク(スペース)を加えるようにしてもよい。また、日本語ではなく英語である場合には、文法辞書なども参照し、単語と単語の間にブランク(スペース)を加えるようにしてもよい。そして、テキストデータでの一致度は、ブランク(スペース)を含めて算出するようにしてもよい。 When converting the voice input information into text data, if the voice input information includes a silent section, a blank (space) may be added at a position corresponding to the silent section. In addition, when English is used instead of Japanese, a grammar dictionary or the like may be referred to and a blank (space) may be added between words. Then, the degree of agreement in the text data may be calculated including a blank (space).

そして、一致度が所定値以上である場合、キャラクタオブジェクトに、マイク15を通じて入力された音声入力情報に従う動作(発話)に替えて、予め用意された第二の行動データに従う表現を行わせる。 Then, when the degree of agreement is equal to or greater than a predetermined value, the character object is made to perform an expression according to the second action data prepared in advance instead of the action (utterance) according to the voice input information input through the microphone 15.

例えば、音声参照情報「アブダカダブラ」には、第二の行動データに従う表現として、「右手に持った杖で魔法陣を描く」動作、および、「魔法エネルギーが敵に向かって放たれる」視覚および聴覚的演出等が対応付けて記憶されており、これらの表現を行うキャラクタオブジェクトを含む動画が生成されることができる。 For example, in the voice reference information "Abda Kadabra", as expressions according to the second action data, the action of "drawing a magic circle with a wand held in the right hand" and the visual sense of "magical energy being emitted toward an enemy" and Auditory effects and the like are stored in association with each other, and a moving image including a character object that expresses these expressions can be generated.

また、本発明の他の実施形態として、上記の構成に加えて、第1アクション制御部21Eは、音声入力情報と音声参照情報との一致度に応じて、アクション効果を制御してもよい。例えば、第1アクション制御部21Eは、第1アクション制御方法として、一致度が高いほど、アクションの効果を高くし、一致度が低いほど、アクション効果を低くする制御を行う。また、第1アクション制御部21Eは、一致度についての閾値を保持しており、一致度が閾値を超えたときにアクションの効果を通常より高くする。一致度が高い場合は、正確な又は効果的な攻撃を連想させることができるからである。なお、ここで言う「一致度」は上述した「正確率」と同じ意味とする。 Further, as another embodiment of the present invention, in addition to the above configuration, the first action control unit 21E may control the action effect according to the degree of coincidence between the voice input information and the voice reference information. For example, as the first action control method, the first action control unit 21E controls that the higher the degree of coincidence, the higher the effect of the action, and the lower the degree of coincidence, the lower the effect of the action. Further, the first action control unit 21E holds a threshold value for the degree of coincidence, and when the degree of coincidence exceeds the threshold value, the effect of the action is made higher than usual. A high degree of agreement can be associated with an accurate or effective attack. The "matching degree" referred to here has the same meaning as the "accuracy rate" described above.

また、これとは逆に、第1アクション制御部21Eは、第2アクション制御方法として、一致度が高いほど、アクションの効果を低くし、一致度が低いほど、アクション効果を高くする制御を行ってもよい。また、第1アクション制御部21Eは、一致度についての閾値を保持しており、一致度が閾値を超えたときにアクションの効果を通常より低くする。一致度は、プレイヤPの熟練度にも高い相関があり、一致度が高い場合は、熟練度も高い傾向にある。このため、敢えて一致度が高いほど、アクションの効果を低くしゲームを難しくし、一致度が低いほど、アクション効果を高くする。これにより、ゲームの娯楽性を高めることができる。 On the contrary, as the second action control method, the first action control unit 21E controls that the higher the degree of matching is, the lower the effect of the action is, and the lower the degree of matching is, the higher the action effect is. You may. Further, the first action control unit 21E holds a threshold value for the degree of coincidence, and when the degree of coincidence exceeds the threshold value, the effect of the action is made lower than usual. The degree of agreement also has a high correlation with the degree of skill of the player P, and when the degree of agreement is high, the degree of skill tends to be high. Therefore, the higher the degree of match, the lower the effect of the action and make the game difficult, and the lower the degree of match, the higher the effect of the action. As a result, the entertainment of the game can be enhanced.

さらに、ユーザのキャラクタレベルが閾値となるレベルを超えたとき、第1アクション制御方法から第2アクション制御方法に切り替えるようにしてもよい。これにより、継続してゲームをプレイするユーザに対して、ゲームを始めたばかりの初心者のときは、第1アクション制御方法として、ゲームを容易とし、閾値となる所定レベルを超えたとき第2アクション制御方法とすることで、ゲームを難しくし、熟練者となっても同じようにゲームを楽しむことができるようにすることができる。 Further, when the character level of the user exceeds the threshold level, the first action control method may be switched to the second action control method. As a result, for a user who continuously plays the game, when a beginner who has just started the game, the first action control method is to facilitate the game and to control the second action when the threshold value exceeds a predetermined level. By using the method, the game can be made difficult and even an expert can enjoy the game in the same way.

また、一致度には、アクション効果を発現させる閾値を設けるようにしてもよい。この場合、第1アクション制御部21Eは、一致度が閾値を超えたときに限って、アクション効果を発現させる。そして、第1アクション制御部21Eは、当該閾値を超えたときに、一致度に応じてアクション効果を変化させることになる。そして、一致度が当該閾値未満であるときには、その呪文や攻撃は失敗と判断される(アクション効果が発現しない。)。 Further, the degree of agreement may be set with a threshold value for expressing the action effect. In this case, the first action control unit 21E exerts the action effect only when the degree of coincidence exceeds the threshold value. Then, the first action control unit 21E changes the action effect according to the degree of agreement when the threshold value is exceeded. Then, when the degree of agreement is less than the threshold value, the spell or attack is judged to be a failure (the action effect does not appear).

次に、音声で操作情報を入力する場合について図13を参照して説明する。場面判定部21Bは、ステップS1において、現在の場面が音声入力情報が入力可能な入力場面かどうかを判断する。例えば、シューティングゲームや格闘ゲームである場合、例えば攻撃や防御の種々の操作情報が入力される対戦場面であるかを判定する。また、ロールプレイングゲームの場合、例えば呪文を入力する場面かどうかを判定する。音声入力が可能な入力場面の場合、場面判定部21Bは、例えば、仮想空間中に音声入力可能な表示を行う。 Next, a case where the operation information is input by voice will be described with reference to FIG. In step S1, the scene determination unit 21B determines whether the current scene is an input scene in which audio input information can be input. For example, in the case of a shooting game or a fighting game, it is determined whether the battle scene is such that various operation information of attack or defense is input. Also, in the case of a role-playing game, it is determined whether or not the scene is for inputting a spell, for example. In the case of an input scene capable of voice input, the scene determination unit 21B displays, for example, a voice input capable display in the virtual space.

プレイヤPがマイク15に向かって音声で操作情報となる音声を入力すると、ステップS2において、音声認識部21Cは、音声を電気音響変換して、音声入力情報を生成する。そして、音声認識部21Cは、音声入力期間の周波数スペクトルを生成する。 When the player P inputs voice to be the operation information into the microphone 15, the voice recognition unit 21C converts the voice into electroacoustic to generate voice input information in step S2. Then, the voice recognition unit 21C generates a frequency spectrum of the voice input period.

ステップS3において、第1判定部21Dは、音声入力情報としての周波数スペクトル52を音声参照情報の参照周波数スペクトル51と比較し、ステップS4において、音声入力情報の周波数スペクトル52と音声参照情報の参照周波数スペクトル51との一致度を算出する。また、第1判定部21Dは、音声入力情報としての音声情報を音声認識し、テキストデータに変換し、テキストデータでの一致度を算出する。 In step S3, the first determination unit 21D compares the frequency spectrum 52 as the voice input information with the reference frequency spectrum 51 of the voice reference information, and in step S4, the frequency spectrum 52 of the voice input information and the reference frequency of the voice reference information. The degree of agreement with the spectrum 51 is calculated. In addition, the first determination unit 21D recognizes the voice information as the voice input information by voice, converts it into text data, and calculates the degree of matching in the text data.

そして、ステップS5において、上記一致度が条件を満たした場合、キャラクタオブジェクトに、予め用意された第二の行動データに従う表現を行わせた動画データを生成する。 Then, in step S5, when the above-mentioned degree of agreement satisfies the condition, the character object is made to perform the expression according to the second action data prepared in advance, and the moving image data is generated.

また、第1アクション制御部21Eは、音声情報と音声参照情報との一致度に応じて、アクション効果を制御してもよい(図示せず)。例えば、第1アクション制御部21Eは、一致度が高いほど、アクションの効果を高くし、一致度が低いほど、アクション効果を低くする制御を行う。また、一致度が閾値を超えたときにアクションの効果を通常より高くする。さらに、これとは逆に、第1アクション制御部21Eは、一致度が高いほど、アクションの効果を低くし、一致度が低いほど、アクション効果を高くする制御を行う。また、一致度が閾値を超えたときにアクションの効果を通常より低くする。 Further, the first action control unit 21E may control the action effect according to the degree of coincidence between the voice information and the voice reference information (not shown). For example, the first action control unit 21E controls that the higher the degree of coincidence, the higher the effect of the action, and the lower the degree of coincidence, the lower the effect of the action. Also, when the degree of coincidence exceeds the threshold value, the effect of the action is made higher than usual. Further, conversely, the first action control unit 21E controls that the higher the degree of coincidence, the lower the effect of the action, and the lower the degree of coincidence, the higher the effect of the action. Also, when the degree of coincidence exceeds the threshold value, the effect of the action is made lower than usual.

また、達成率についても一致度と同様に参照周波数スペクトル51またはテキストデータをもとに判断することができる。 Further, the achievement rate can be determined based on the reference frequency spectrum 51 or the text data as well as the degree of agreement.

〔動作軌跡入力〕
描画部21Fは、図14に示すように、ペンまたはスティック型コントローラなどの操作装置30を用いてプレイヤPが絵などを描く、文字を書くなどの特定のジェスチャの動作をしたとき、その空間における操作装置30の軌跡を検出する。図14では、渦巻き状にペンまたはスティック型コントローラなどの操作装置30を移動させている。
[Operation trajectory input]
As shown in FIG. 14, when the player P performs a specific gesture operation such as drawing a picture or writing a character by using an operation device 30 such as a pen or a stick type controller, the drawing unit 21F is in the space. The locus of the operating device 30 is detected. In FIG. 14, the operating device 30 such as a pen or stick type controller is moved in a spiral shape.

なお、操作装置30の軌跡はセンサまたはカメラにより検出されることができる。 The locus of the operating device 30 can be detected by a sensor or a camera.

また、後述する描画参照オブジェクトを表示せずに絵や文字を描く場合には、ガイドをなぞる場合と違って入力される平面(実際には動くので3Dとなる場合もある)が示されないので、調整処理を行うのが好ましい。 Also, when drawing a picture or character without displaying the drawing reference object described later, the plane to be input (which may be 3D because it actually moves) is not shown, unlike the case of tracing the guide. It is preferable to perform the adjustment process.

かかる調整処理は、一例として、操作装置30の軌跡である3D座標を適切な2D面上にマッピングし、その後既知の認識技術を用いて、プレイヤPが描いた絵や文字を特定することができる。 As an example, in such an adjustment process, the 3D coordinates which are the loci of the operating device 30 can be mapped on an appropriate 2D surface, and then a picture or a character drawn by the player P can be specified by using a known recognition technique. ..

そして、図15に示すように、描画部21Fは、その軌跡に対応した軌跡オブジェクト61をHMD10によって表示される三次元の仮想空間V内に描画する。 Then, as shown in FIG. 15, the drawing unit 21F draws the locus object 61 corresponding to the locus in the three-dimensional virtual space V displayed by the HMD 10.

また、図16に示すように、描画部21Fは、軌跡オブジェクト61を描画する際に手本となる描画参照情報としての描画参照オブジェクト63を三次元の仮想空間V内に表示する。描画参照情報は、メモリなどの記憶部に保持されている。描画参照情報は、上述した模範行動データの一例である。 Further, as shown in FIG. 16, the drawing unit 21F displays the drawing reference object 63 as drawing reference information as a model when drawing the locus object 61 in the three-dimensional virtual space V. The drawing reference information is stored in a storage unit such as a memory. The drawing reference information is an example of the above-mentioned model behavior data.

ここでの軌跡オブジェクト61や描画参照オブジェクト63は、三次元の仮想空間V内に浮いているように表示される。この場合、描画参照オブジェクト63をなぞるように操作装置30を動かす。これにより、三次元の仮想空間V内には、描画参照オブジェクト63をなぞるように軌跡オブジェクト61が順次表示される。 The locus object 61 and the drawing reference object 63 here are displayed as if they are floating in the three-dimensional virtual space V. In this case, the operation device 30 is moved so as to trace the drawing reference object 63. As a result, the locus objects 61 are sequentially displayed in the three-dimensional virtual space V so as to trace the drawing reference object 63.

なお、描画参照オブジェクト63としては、渦巻き状ではなく、魔法を使うために用いられることのある、紋様や文字で構成された魔法陣のような図柄オブジェクト(例えば、五芒星、六芒星などの星型多角形)であってもよい。魔法陣などは、三次元の仮想空間VにおけるプレイヤPが立っている床面や空中に描くことができる。また、ケーキなどの立体的なオブジェクトであってもよい。また、描画参照オブジェクト63としては、塗り絵の枠のようなものとし、枠に対してはみ出さないよう描画参照オブジェクト63として色を塗るようにしてもよい。 The drawing reference object 63 is not a spiral object, but a symbol object such as a magic circle composed of patterns and characters (for example, a star such as a pentagram or a hexagram), which is sometimes used to use magic. It may be a type polygon). The magic circle or the like can be drawn on the floor or in the air where the player P stands in the three-dimensional virtual space V. It may also be a three-dimensional object such as a cake. Further, the drawing reference object 63 may be like a frame of a coloring book, and the drawing reference object 63 may be colored so as not to protrude from the frame.

第2判定部21Gは、軌跡オブジェクト61を描画参照オブジェクト63と比較し、軌跡オブジェクト61と描画参照オブジェクト63との一致度を算出する。描画参照オブジェクト63は、ストーリなどに応じて予め設定された描画入力情報を入力される際の正解(手本)となるものであり、抽象的な図、写実的な図、呪文、攻撃名、防御名など示す文字などでもよい。また、プレイヤPがジェスチャを行ったときの操作装置30の軌跡でもよい。例えば、描画参照オブジェクト63は、プレイヤPが刀を上から下に振る場合、操作装置30の軌跡が上下に直線または円弧線形状を有することになるし、プレイヤPが野球のバットを振る場合、ほぼ水平な円形形状を有することになる。 The second determination unit 21G compares the locus object 61 with the drawing reference object 63, and calculates the degree of coincidence between the locus object 61 and the drawing reference object 63. The drawing reference object 63 serves as a correct answer (model) when inputting drawing input information preset according to a story or the like, and is an abstract figure, a realistic figure, a spell, an attack name, or the like. It may be a character indicating a defense name or the like. Further, the locus of the operation device 30 when the player P makes a gesture may be used. For example, in the drawing reference object 63, when the player P swings the sword from top to bottom, the locus of the operating device 30 has a straight line or an arc line shape up and down, and when the player P swings a baseball bat, It will have an almost horizontal circular shape.

例えば、第2判定部21Gは、軌跡オブジェクト61と描画参照オブジェクト63との重なりが大きいほど一致度が高くなり、重なりが少なくなるほど一致度が低くなる。一例として、軌跡オブジェクト61と描画参照オブジェクト63との重なりは、画素単位で一致/不一致を検出し、一致する画素の割合を一致度として算出する。または、画像を分割した画素ブロック単位で一致/不一致を検出し、一致する画素の割合を一致度として算出する。 For example, in the second determination unit 21G, the larger the overlap between the locus object 61 and the drawing reference object 63, the higher the degree of coincidence, and the less the overlap, the lower the degree of coincidence. As an example, in the overlap between the locus object 61 and the drawing reference object 63, match / mismatch is detected in pixel units, and the ratio of matching pixels is calculated as the degree of match. Alternatively, a match / mismatch is detected for each pixel block obtained by dividing the image, and the ratio of matching pixels is calculated as the degree of match.

そして、一致度が所定値以上である場合に、キャラクタオブジェクトに、操作装置30を通じて入力された奇跡に従う動作に替えて、予め用意された第二の行動データに従う表現を行わせる。 Then, when the degree of agreement is equal to or higher than a predetermined value, the character object is made to perform an expression according to the second action data prepared in advance instead of the action according to the miracle input through the operation device 30.

また、本発明の他の実施形態として、上記の構成に加えて、第2アクション制御部21Hは、軌跡オブジェクト61と描画参照オブジェクト63との一致度に応じて、アクション効果を制御してもよい。第2アクション制御部21Hは、軌跡オブジェクト61と描画参照オブジェクト63とを比較した結果、その一致度を算出する。そして、第2アクション制御部21Hは、一致度に応じて、アクション効果を制御する。例えば、第2アクション制御部21Hは、第1アクション制御方法として、一致度が高いほど、アクションの効果を高くし、一致度が低いほど、アクション効果を低くする制御を行う。また、第2アクション制御部21Hは、一致度についての閾値を保持しており、一致度が閾値を超えたときにアクションの効果を高くする。一致度が高い場合は、正確な又は効果的な攻撃を連想させることができるからである。 Further, as another embodiment of the present invention, in addition to the above configuration, the second action control unit 21H may control the action effect according to the degree of coincidence between the locus object 61 and the drawing reference object 63. .. The second action control unit 21H calculates the degree of agreement as a result of comparing the locus object 61 and the drawing reference object 63. Then, the second action control unit 21H controls the action effect according to the degree of coincidence. For example, as the first action control method, the second action control unit 21H controls that the higher the degree of coincidence, the higher the effect of the action, and the lower the degree of coincidence, the lower the effect of the action. Further, the second action control unit 21H holds a threshold value for the degree of coincidence, and enhances the effect of the action when the degree of coincidence exceeds the threshold value. A high degree of agreement can be associated with an accurate or effective attack.

また、これとは逆に、第2アクション制御部21Hは、第2アクション制御方法として、一致度が高いほど、アクションの効果を低くし、一致度が低いほど、アクション効果を高くする制御を行ってもよい。一致度は、プレイヤPの熟練度にも高い相関があるため、敢えて一致度が高いほど、アクションの効果を低くし、一致度が低いほど、アクション効果を高くすることでゲームの娯楽性を高めることができるからである。 On the contrary, as the second action control method, the second action control unit 21H controls that the higher the degree of coincidence, the lower the effect of the action, and the lower the degree of match, the higher the action effect. You may. Since the degree of matching is highly correlated with the skill level of the player P, the higher the degree of matching, the lower the effect of the action, and the lower the degree of matching, the higher the action effect, thereby enhancing the entertainment of the game. Because it can be done.

さらに、ユーザのキャラクタレベルが閾値となるレベルを超えたとき、第1アクション制御方法から第2アクション制御方法に切り替えるようにしてもよい。これにより、継続してゲームをプレイするユーザに対して、ゲームを始めたばかりの初心者のときは、第1アクション制御方法として、ゲームを容易とし、閾値となる所定レベルを超えたとき第2アクション制御方法とすることで、ゲームを難しくし、熟練者となっても同じようにゲームを楽しむことができるようにすることができる。 Further, when the character level of the user exceeds the threshold level, the first action control method may be switched to the second action control method. As a result, for a user who continuously plays the game, when a beginner who has just started the game, the first action control method is to facilitate the game and to control the second action when the threshold value exceeds a predetermined level. By using the method, the game can be made difficult and even an expert can enjoy the game in the same way.

次に、ペンまたはスティック型コントローラなどの操作装置30で入力情報を入力する場合について図17を参照して説明する。場面判定部21Bは、ステップS11において、現在の場面が描画入力情報を入力可能な入力場面かどうかを判断する。ここでは、場面判定部21Bは、ペンまたはスティック型コントローラなどの操作装置30で描画入力情報の入力可能な場面かどうかを判定する。例えば、シューティングゲームや格闘ゲームである場合、例えば攻撃や防御の動作軌跡(操作装置30の移動軌跡)が操作情報として入力される対戦場面であるかを判定する。また、ロールプレイングゲームの場合、例えば呪文を唱える際の動作軌跡(操作装置30の移動軌跡)が描画入力情報として入力される場面かどうかを判定する。動作軌跡が入力可能な入力場面の場合、場面判定部21Bは、仮想空間中に動作軌跡が入力可能な表示を行う。 Next, a case where input information is input by an operating device 30 such as a pen or a stick type controller will be described with reference to FIG. In step S11, the scene determination unit 21B determines whether the current scene is an input scene in which drawing input information can be input. Here, the scene determination unit 21B determines whether or not the scene can be input with drawing input information by the operation device 30 such as a pen or a stick type controller. For example, in the case of a shooting game or a fighting game, it is determined whether or not, for example, an attack or defense operation locus (movement locus of the operation device 30) is a battle scene in which operation information is input. Further, in the case of a role-playing game, for example, it is determined whether or not the motion locus (movement locus of the operation device 30) when casting a spell is input as drawing input information. In the case of an input scene in which the motion locus can be input, the scene determination unit 21B displays that the motion locus can be input in the virtual space.

ステップS12において、操作装置30のトラッキング情報検出部32は、操作装置30の位置および向きを認識し算出する。描画部21Fは、操作装置30の時間軸上の位置を動作軌跡として仮想空間Vに描画する。ステップS13において、第2判定部21Gは、描画参照オブジェクト63を読み出す。ここで、仮想空間Vには、描画参照オブジェクト63を表示するようにし、プレイヤPが軌跡オブジェクト61を描画するときになぞることができるようにしてもよいし、仮想空間Vにおける何れかの領域に手本として表示するようにしてもよいし、表示しないようにしてもよい。ステップS14において、第2判定部21Gは、軌跡オブジェクト61と描画参照オブジェクト63とを比較し、ステップS15において、軌跡オブジェクト61と描画参照オブジェクト63との一致度を算出する。 In step S12, the tracking information detection unit 32 of the operating device 30 recognizes and calculates the position and orientation of the operating device 30. The drawing unit 21F draws the position on the time axis of the operating device 30 in the virtual space V as an operation locus. In step S13, the second determination unit 21G reads the drawing reference object 63. Here, the drawing reference object 63 may be displayed in the virtual space V so that the player P can trace it when drawing the locus object 61, or in any area in the virtual space V. It may or may not be displayed as a model. In step S14, the second determination unit 21G compares the locus object 61 with the drawing reference object 63, and in step S15, calculates the degree of coincidence between the locus object 61 and the drawing reference object 63.

そして、ステップS16において、上記一致度が条件を満たした場合に、キャラクタオブジェクトに、予め用意された第二の行動データに従う表現を行わせた動画データを生成する。 Then, in step S16, when the above-mentioned degree of agreement satisfies the condition, the character object is made to perform the expression according to the second action data prepared in advance, and the moving image data is generated.

また、第2アクション制御部21Hは、軌跡オブジェクト61と描画参照オブジェクト63との一致度に応じて、アクション効果を制御してもよい(図示せず)。例えば、第2アクション制御部21Hは、一致度が高いほど、アクションの効果を高くし、一致度が低いほど、アクション効果を低くする制御を行う。また、一致度が閾値を超えたときにアクションの効果を通常より高くする。さらに、これとは逆に、第2アクション制御部21Hは、一致度が高いほど、アクションの効果を低くし、一致度が低いほど、アクション効果を高くする制御を行う。また、一致度が閾値を超えたときにアクションの効果を通常より低くする。 Further, the second action control unit 21H may control the action effect according to the degree of coincidence between the locus object 61 and the drawing reference object 63 (not shown). For example, the second action control unit 21H controls that the higher the degree of coincidence, the higher the effect of the action, and the lower the degree of coincidence, the lower the effect of the action. Also, when the degree of coincidence exceeds the threshold value, the effect of the action is made higher than usual. Further, conversely, the second action control unit 21H controls that the higher the degree of coincidence, the lower the effect of the action, and the lower the degree of coincidence, the higher the effect of the action. Also, when the degree of coincidence exceeds the threshold value, the effect of the action is made lower than usual.

さらに、描画部21Fは、ゲーム媒体としてのキャラクタオブジェクト71が持ったゲーム媒体としての武器オブジェクト72に対してペンまたはスティック型コントローラなどの操作装置30で軌跡オブジェクトとしての追加オブジェクト73を描画することができる。図18は、武器(刀)オブジェクト72に対して追加オブジェクト73が描画される前を示し、図19は、武器(刀)オブジェクト72に対して追加オブジェクト73が描画された後を示している。例えば、スティック型コントローラなどの操作装置30で武器オブジェクト72を選択し、選択後、武器オブジェクト72に対してスティック型コントローラなどの操作装置30を筆やペンなどに見立てて描画動作を行う。これにより、武器オブジェクト72に対して追加オブジェクト73が刀から炎が出ているように描画される。ここでの追加オブジェクト73は、武器の効果を示す効果オブジェクトである。これにより、武器オブジェクト72に対して追加オブジェクト73が関連付けられ、武器オブジェクト72は、追加オブジェクト73が追加された状態で表示されることになる。これにより、プレイヤPの好みに応じて武器オブジェクト72をアレンジすることができる。さらに、武器オブジェクト72は、追加オブジェクト73が追加されることで、攻撃力などが高められてもよい。このようなモードは、図17の処理とは別の場面で行うことができ、場面判定部21Bがその場面を判定することになる。 Further, the drawing unit 21F may draw an additional object 73 as a locus object on the weapon object 72 as a game medium held by the character object 71 as a game medium with an operation device 30 such as a pen or a stick type controller. it can. FIG. 18 shows before the additional object 73 is drawn for the weapon (sword) object 72, and FIG. 19 shows after the additional object 73 is drawn for the weapon (sword) object 72. For example, the weapon object 72 is selected by the operation device 30 such as the stick type controller, and after the selection, the operation device 30 such as the stick type controller is regarded as a brush or a pen for the weapon object 72, and the drawing operation is performed. As a result, the additional object 73 is drawn as if the sword is burning with respect to the weapon object 72. The additional object 73 here is an effect object indicating the effect of the weapon. As a result, the additional object 73 is associated with the weapon object 72, and the weapon object 72 is displayed with the additional object 73 added. As a result, the weapon object 72 can be arranged according to the preference of the player P. Further, the weapon object 72 may have an increased attack power or the like by adding an additional object 73. Such a mode can be performed in a scene different from the process of FIG. 17, and the scene determination unit 21B determines the scene.

なお、ここでの追加オブジェクト73は、軌跡オブジェクト61として機能するものであってもよい。すなわち、操作装置30で刀から炎が出ているように描画する操作をすることで、描画部21Fは、追加オブジェクト73を描画する。この場合、理想(手本)の炎の形が描画参照オブジェクト63であって、第2判定部21Gは、追加オブジェクト73でもある軌跡オブジェクト61と描画参照オブジェクト63とを比較し、一致度を算出する。そして、第2アクション制御部21Hによってアクション効果が制御される。これと共に、軌跡オブジェクト61は、追加オブジェクト73として武器オブジェクト72に関連付けられて表示される。 The additional object 73 here may function as a locus object 61. That is, the drawing unit 21F draws the additional object 73 by performing an operation of drawing the sword as if a flame is emitted from the operating device 30. In this case, the ideal (model) flame shape is the drawing reference object 63, and the second determination unit 21G compares the locus object 61, which is also the additional object 73, with the drawing reference object 63, and calculates the degree of agreement. To do. Then, the action effect is controlled by the second action control unit 21H. Along with this, the trajectory object 61 is displayed as an additional object 73 associated with the weapon object 72.

[ハードウェア構成]
図20を参照して、本実施形態のゲーム処理装置20のハードウェア構成について説明する。
[Hardware configuration]
The hardware configuration of the game processing device 20 of the present embodiment will be described with reference to FIG.

図20は、ゲーム処理装置20の例を示す図である。ゲーム処理装置20はデスクトップパソコン、ノートパソコン、携帯情報端末(PDA)、サーバ、家庭用または業務用のゲーム専用機、他の種類のコンピュータ等である。なお、図20に示す構成と各構成の接続関係は一例である。 FIG. 20 is a diagram showing an example of the game processing device 20. The game processing device 20 is a desktop personal computer, a notebook personal computer, a personal digital assistant (PDA), a server, a game-dedicated machine for home or business use, a computer of another type, or the like. The connection relationship between the configuration shown in FIG. 20 and each configuration is an example.

ゲーム処理装置20は、プロセッサ201およびメモリ202を有する。また、ゲーム処理装置20は、ノースブリッジ203、サウスブリッジ204および記憶装置205を有する。プロセッサ201、メモリ202、各ブリッジ203,204は各種バス206を用いて相互に接続されている。プロセッサ201は、ゲームの進行を司るとともに、ノースブリッジ203に接続されるHMD10等に画像を出力する。なお、ゲーム処理装置20は、複数のプロセッサを有していてもよく、複数のメモリを有していてもよい。 The game processing device 20 has a processor 201 and a memory 202. The game processing device 20 also includes a north bridge 203, a south bridge 204, and a storage device 205. The processor 201, the memory 202, and the bridges 203 and 204 are connected to each other by using various buses 206. The processor 201 controls the progress of the game and outputs an image to the HMD 10 or the like connected to the north bridge 203. The game processing device 20 may have a plurality of processors, or may have a plurality of memories.

メモリ202は、ノースブリッジ203に接続され、ゲーム処理に関する情報をプロセッサ201に出力する。例えば、メモリ202は、揮発性記憶装置、または、不揮発性記憶装置である。また、メモリ202は、磁気または光ディスク等の記憶媒体である。 The memory 202 is connected to the north bridge 203 and outputs information regarding game processing to the processor 201. For example, the memory 202 is a volatile storage device or a non-volatile storage device. Further, the memory 202 is a storage medium such as a magnetic disk or an optical disk.

記憶装置205は、サウスブリッジ204に接続され、ゲーム処理に関する情報をプロセッサ201に出力する。例えば、記憶装置205は、ハードディスク装置、光ディスク装置、フラッシュメモリ、または、その他の記憶装置である。 The storage device 205 is connected to the south bridge 204 and outputs information regarding game processing to the processor 201. For example, the storage device 205 is a hard disk device, an optical disk device, a flash memory, or other storage device.

ノースブリッジ203は、HMD10に接続される。サウスブリッジ204は、拡張ポート207に接続されている。拡張ポート207は、各種の通信ポート(例えば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、ワイヤレスイーサネット)を含んでいてもよく、キーボード、マウス、ネットワーク装置等の入出力装置に接続されてもよい。 The north bridge 203 is connected to the HMD 10. South bridge 204 is connected to expansion port 207. Expansion port 207 may include various communication ports (eg, USB, Bluetooth®, Ethernet®, wireless Ethernet) and is connected to input / output devices such as keyboards, mice, and network devices. You may.

上記構成において、プロセッサ201、メモリ202、および、ノースブリッジ203が制御部21に対応し、メモリ202および記憶装置205が、記憶部22に対応することになる。 In the above configuration, the processor 201, the memory 202, and the north bridge 203 correspond to the control unit 21, and the memory 202 and the storage device 205 correspond to the storage unit 22.

以上説明したように、本実施形態によれば、以下の効果が得られる。
(1)操作情報としての音声入力情報を音声でマイク15を通じて入力できるので、プレイヤPがVRゲームをしているときに没入感を損ないにくくすることができる。また、音声認識された音声入力情報と音声参照情報との一致度に応じてアクション効果を変更するので、ゲームの娯楽性を高めることができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) Since voice input information as operation information can be input by voice through the microphone 15, it is possible to make it difficult for the player P to lose the immersive feeling when playing a VR game. Further, since the action effect is changed according to the degree of matching between the voice-recognized voice input information and the voice reference information, the entertainment of the game can be enhanced.

(2)一致度が高くなるほどアクション効果を高くすることができる。また、一致度が閾値を超えたときにアクション効果を高くすることができる。これにより、ゲームの娯楽性を高めることができる。 (2) The higher the degree of agreement, the higher the action effect. In addition, the action effect can be enhanced when the degree of agreement exceeds the threshold value. As a result, the entertainment of the game can be enhanced.

(3)一致度が高くなるとアクション効果を低くすることができる。また、一致度が閾値を超えたときにアクション効果を低くすることができる。これにより、熟練度にも高いプレイヤPに対してはゲームを難しくすることができる。 (3) The higher the degree of matching, the lower the action effect. In addition, the action effect can be lowered when the degree of agreement exceeds the threshold value. As a result, the game can be made difficult for the player P who has a high skill level.

(4)軌跡オブジェクト61と描画参照オブジェクト63との一致度に応じてアクション効果を変更するので、プレイヤPがVRゲームをしているときに没入感を損ないにくくすることができる。また、ゲームの娯楽性を高めることができる。 (4) Since the action effect is changed according to the degree of coincidence between the locus object 61 and the drawing reference object 63, it is possible to make it difficult for the player P to lose the immersive feeling when playing the VR game. In addition, the entertainment of the game can be enhanced.

(5)描画参照オブジェクト63を表示することで、軌跡オブジェクト61の描画参照オブジェクト63に対する一致度を高め易くすることができる。 (5) By displaying the drawing reference object 63, it is possible to easily increase the degree of agreement of the locus object 61 with respect to the drawing reference object 63.

(6)軌跡オブジェクトとしての追加オブジェクト73を武器オブジェクト72に関連付けて表示することで、プレイヤPの好みに応じて武器オブジェクト72などのゲーム媒体をアレンジすることができる。 (6) By displaying the additional object 73 as the trajectory object in association with the weapon object 72, the game medium such as the weapon object 72 can be arranged according to the preference of the player P.

上記各実施形態は、以下のように変更して実施することが可能である。
音声入力の場合の一致度と軌跡オブジェクトとの一致度の両方を参照して、アクション効果を高くしたり、低くしたりしてもよい。例えば呪文を唱えながら魔法陣を描くといった場合である。このような場合、例えば音声入力の場合の一致度と軌跡オブジェクトとの一致度の平均値を算出する。そして、アクション効果は、一致度の平均値に応じてアクション効果を変更することができる。具体的には、一致度の平均値が高くなるほどアクション効果を高くすることができる。また、一致度の平均値が閾値を超えたときにアクション効果を高くすることができる。これとは逆に、一致度の平均値が高くなるとアクション効果を低くすることができる。また、一致度の平均値が閾値を超えたときにアクション効果を低くすることができる。
Each of the above embodiments can be modified and implemented as follows.
The action effect may be increased or decreased by referring to both the degree of matching in the case of voice input and the degree of matching with the locus object. For example, when drawing a magic circle while casting a spell. In such a case, for example, the average value of the degree of coincidence with the locus object in the case of voice input is calculated. Then, the action effect can be changed according to the average value of the degree of matching. Specifically, the higher the average value of the degree of agreement, the higher the action effect can be. In addition, the action effect can be enhanced when the average value of the degree of agreement exceeds the threshold value. On the contrary, the higher the average value of the degree of agreement, the lower the action effect. In addition, the action effect can be lowered when the average value of the degree of agreement exceeds the threshold value.

音声入力の場合の一致度および軌跡オブジェクトとの一致度の両方が閾値を超えたときに、ミッションクリアなどのアクション効果を発生させるようにしてもよい。また、音声入力の場合の一致度によって、ミッションクリアのような判定を行って、軌跡入力の一致度によって取得ポイントを変えるようにしてもよい(一致度が高いほど取得ポイントが高い又は低いなど)。また、軌跡入力の場合の一致度によって、ミッションクリアのような判定を行って、音声入力の一致度によって取得ポイントを変えるようにしてもよい(一致度が高いほど取得ポイントが高い又は低いなど)。 When both the degree of agreement in the case of voice input and the degree of agreement with the locus object exceed the threshold value, an action effect such as mission clear may be generated. In addition, a judgment such as mission clear may be made based on the degree of matching in the case of voice input, and the acquisition points may be changed according to the degree of matching of the trajectory input (the higher the degree of matching, the higher or lower the acquisition point, etc.). .. In addition, a judgment such as mission clear may be made according to the degree of matching in the case of trajectory input, and the acquisition points may be changed according to the degree of matching of voice input (the higher the degree of matching, the higher or lower the acquisition point, etc.). ..

追加オブジェクト73を関連付けるオブジェクトは武器オブジェクト72に限定されるものではない。例えば、キャラクタオブジェクト71に対して同伴する同伴オブジェクトを追加オブジェクト73として関連付けるようにしてもよい。同伴オブジェクトは、メインのキャラクタオブジェクト71に対して接しても、離れていてもよいが、常に同伴するキャラクタであり、場面によっては、メインのキャラクタオブジェクト71と共に攻撃をしたり防御したり身代わりになるキャラクタである。 The object associated with the additional object 73 is not limited to the weapon object 72. For example, the accompanying object associated with the character object 71 may be associated with the additional object 73. The companion object may be in contact with or away from the main character object 71, but is a character that is always accompanied, and in some situations, it can attack, defend, or substitute with the main character object 71. It is a character.

追加オブジェクト73としては、武器オブジェクト72の効果を示すオブジェクトではなく、キャラクタオブジェクト71や武器オブジェクト72などのアイテムオブジェクトの模様などの柄であってもよい。 The additional object 73 may be a pattern such as a pattern of an item object such as a character object 71 or a weapon object 72, instead of an object showing the effect of the weapon object 72.

ゲーム中に入力する軌跡オブジェクト61は、図14〜図16のように渦巻き状の図形に限定されるものではない。一例として、軌跡オブジェクト61は、コマンドを示す文字(例えば、「キック、パンチ、ガード」などの文字(カタカナ、漢字、英字、数字、記号など))であってもよい。また、ケーキ、魚、船、飛行機などの絵や図であってもよい。 The locus object 61 input during the game is not limited to the spiral figure as shown in FIGS. 14 to 16. As an example, the locus object 61 may be a character indicating a command (for example, a character such as "kick, punch, guard" (katakana, kanji, alphabetic character, number, symbol, etc.)). It may also be a picture or figure of a cake, fish, ship, airplane, or the like.

軌跡オブジェクト61を描画する際に、手本となる描画参照オブジェクト63は、軌跡オブジェクト61を描画するときに表示しても表示しなくてもよい。例えば、描画参照オブジェクト63を表示するときは、描画が容易となることから、初級や中級モードの設定の1つとしてもよく、また、描画参照オブジェクト63を表示しないときは、上級モードの設定の1つとしてもよい。描画参照オブジェクト63を表示しないときは、プレイヤPが記憶を頼りに軌跡オブジェクト61を描画することになる。例えば、描画参照オブジェクト63がひまわりなど周知の題材であるとき、プレイヤPは、ひまわりの軌跡オブジェクト61を描画することになる。また、三次元の仮想空間V内に描画参照オブジェクト63を表示し、軌跡オブジェクト61を描画参照オブジェクト63をなぞるように入力するときには、入門モードの設定の1つとすることもできる。 When drawing the locus object 61, the drawing reference object 63 as a model may or may not be displayed when the locus object 61 is drawn. For example, when the drawing reference object 63 is displayed, it may be set as one of the beginner or intermediate mode settings because drawing becomes easy, and when the drawing reference object 63 is not displayed, the advanced mode setting may be set. It may be one. When the drawing reference object 63 is not displayed, the player P draws the locus object 61 by relying on the memory. For example, when the drawing reference object 63 is a well-known subject such as a sunflower, the player P draws the sunflower locus object 61. Further, when the drawing reference object 63 is displayed in the three-dimensional virtual space V and the locus object 61 is input so as to trace the drawing reference object 63, it can be one of the introductory mode settings.

また、描画参照オブジェクト63の表示有無や表示の仕方は、場面に応じて変わってもよい。例えば、ゲームの序盤や中盤までは、プレイヤPも操作に不慣れであることから、描画参照オブジェクト63を表示するようにし、終盤では描画参照オブジェクト63を表示しないようにしてもよい。 Further, the presence / absence of display and the display method of the drawing reference object 63 may change depending on the scene. For example, since the player P is also unfamiliar with the operation until the beginning or the middle of the game, the drawing reference object 63 may be displayed, and the drawing reference object 63 may not be displayed at the end of the game.

一致度が高くなるとアクション効果を高くする処理は、初級や中級モードとし、アクション効果を低くする処理は、上級モードとするようにしてもよい。
アクション効果を変更する際に設ける閾値は、1つでも、複数でもよい。閾値の数が増えるほど、より多く段階的にアクション効果を変更することができる。アクション効果は、閾値を設けなければ一致度に応じて漸次変更されることになる。
The process of increasing the action effect when the degree of agreement is high may be set to the beginner or intermediate mode, and the process of lowering the action effect may be set to the advanced mode.
The threshold value set when changing the action effect may be one or a plurality. As the number of thresholds increases, the action effect can be changed in more steps. If no threshold is set, the action effect will be gradually changed according to the degree of agreement.

ゲームの種類や音声入力情報や軌跡オブジェクトを描画する場面は上述の例に限定されるものではない。
〔音声入力の場合〕
恋愛シミュレーションゲームの場合、特定のセリフを音声入力情報として入力し、音声参照情報としての周波数スペクトルとの一致度が高いほど、相手方のプレイヤPに対する好感度が上がるようにしてもよい。
The types of games, voice input information, and scenes for drawing trajectory objects are not limited to the above examples.
[For voice input]
In the case of a romance simulation game, a specific line may be input as voice input information, and the higher the degree of coincidence with the frequency spectrum as voice reference information, the higher the favorability for the opponent player P may be.

カラオケゲームで有名人や著名人のものまねをする場合において、特定の有名人や著名人の周波数スペクトルを音声参照情報とし、プレイヤPの音声入力情報の周波数スペクトルとの一致度を算出し、一致度が高いほどものまねが似ていると判定し、高得点が得られるようにしてもよい。 When imitating a celebrity or celebrity in a karaoke game, the frequency spectrum of a specific celebrity or celebrity is used as voice reference information, and the degree of matching with the frequency spectrum of the voice input information of player P is calculated, and the degree of matching is high. It may be determined that the imitations are similar, and a high score may be obtained.

〔軌跡オブジェクトの場合〕
例えば、オーケストラの指揮をするゲームの場合、操作装置30としての指揮棒の軌跡を示す軌跡オブジェクト61の、正しい指揮棒の軌跡を示す描画参照オブジェクト63との一致度を算出するようにてもよい。この場合、一致度が高いほど、完成度の高い楽曲や交響曲などが再生されることになり、一致度が低いほど、完成度の低い楽曲や交響曲が再生されることになる。
[For trajectory objects]
For example, in the case of a game in which an orchestra conducts, the degree of coincidence between the trajectory object 61 indicating the trajectory of the baton as the operating device 30 and the drawing reference object 63 indicating the trajectory of the correct baton may be calculated. .. In this case, the higher the degree of agreement, the more complete the music or symphony is reproduced, and the lower the degree of agreement, the less complete the music or symphony is reproduced.

釣りゲームの場合、操作装置30としての釣竿の竿先の軌跡を示す軌跡オブジェクト61の、正しい竿先の軌跡を示す描画参照オブジェクト63との一致度を算出するようにてもよい。この場合、一致度が高いほど、釣り上げることの難しい魚を釣り上げる確率が高まり、一致度が低いほど、道糸やハリスが切れる確率が高まる。 In the case of a fishing game, the degree of coincidence between the locus object 61 indicating the locus of the rod tip of the fishing rod as the operating device 30 and the drawing reference object 63 indicating the locus of the correct rod tip may be calculated. In this case, the higher the degree of matching, the higher the probability of catching a fish that is difficult to catch, and the lower the degree of matching, the higher the probability that the line or Harris will break.

HMD10としては、例えば帽子型で非透過のヘッドマウントディスプレイがある。また、眼鏡の上部または前部に投影装置が装着されており、透明板部分に投影される眼鏡型であってもよいし、眼鏡型のアダプタにスマートフォンなどのスマートデバイスを装着する者であってもよい。また、眼鏡の上部または前部に投影装置が装着されており、透明板部分に投影される帽子型であってもよい。また、ディスプレイも、外の様子が見えない非透過であってもよいし、ディスプレイ装置はハーフミラーでできており、外の様子が見える光学透過であってもよい。また、投影方式もハーフミラーなどを利用することにより虚像を形成する虚像投影方式であってもよいし、目の水晶体を利用して網膜に直接結像させる網膜投影方式であってもよい。 The HMD 10 includes, for example, a hat-shaped, non-transparent head-mounted display. Further, a projection device is attached to the upper part or the front part of the spectacles, and the spectacles type may be projected onto the transparent plate portion, or a person who attaches a smart device such as a smartphone to the spectacles type adapter. May be good. Further, the projection device may be attached to the upper part or the front part of the spectacles, and may be a hat type projected on the transparent plate portion. Further, the display may be non-transparent so that the outside state cannot be seen, or the display device may be made of a half mirror and may be optical transmissive so that the outside state can be seen. Further, the projection method may be a virtual image projection method in which a virtual image is formed by using a half mirror or the like, or a retinal projection method in which an image is directly formed on the retina using the crystalline lens of the eye.

HMD10で視認される立体映像は、左右異なる角度から撮影した映像をそれぞれ赤と青の光で重ねて再生し、左右に赤と青のカラーフィルタの付いた眼鏡で見るアナグリフ方式であってもよい。また、左右の映像に直交する直線偏光をかけて重ねて投影し、これを偏光フィルタの付いた眼鏡により分離する偏光眼鏡方式であってもよい。さらに、左右異なる角度から撮影した映像を交互に再生し、左右の視界が交互に遮蔽される液晶シャッタを備えた眼鏡で見る液晶シャッタ眼鏡方式であってもよい。 The stereoscopic image visually recognized by the HMD 10 may be an anaglyph method in which images taken from different angles on the left and right are superimposed and reproduced with red and blue lights, respectively, and viewed with glasses having red and blue color filters on the left and right. .. Further, a polarized spectacles system may be used in which linearly polarized light orthogonal to the left and right images is applied, superimposed and projected, and the images are separated by spectacles equipped with a polarizing filter. Further, a liquid crystal shutter spectacle system may be used in which images taken from different angles on the left and right are alternately reproduced and viewed with spectacles provided with a liquid crystal shutter in which the left and right fields of view are alternately shielded.

なお、上記の実施形態では本発明をVRゲームシステムに適用した場合について主に説明を行ったが、動画配信システムに適用することも可能である。この場合、配信ユーザ(アクター)の動作は、スタジオの装置を用いたモーションキャプチャ、および/または、スマートフォンの機能を用いたフェイシャルキャプチャ等の技術を用いて取得されることができる。この時、差し替えられる動画の例としては、前述した第2の行動データに従う表現の他に、キャラクタオブジェクトの表情を特殊な表情にする、または、キャラクタオブジェクトが着替える動きなどの動画が挙げられる。また、動画内で複数のキャラクタオブジェクトが共演している場合には、上記模範行動データも複数人分用意され、条件を満たすユーザの数に応じて差し替えられる動画を異ならせる等してもよい。 In the above embodiment, the case where the present invention is applied to a VR game system has been mainly described, but it can also be applied to a moving image distribution system. In this case, the motion of the distribution user (actor) can be acquired by using a technique such as motion capture using a studio device and / or facial capture using a smartphone function. At this time, as an example of the moving image to be replaced, in addition to the expression according to the second action data described above, a moving image such as making the facial expression of the character object a special facial expression or the movement of the character object changing clothes can be mentioned. Further, when a plurality of character objects co-star in the moving image, the above-mentioned model behavior data may be prepared for a plurality of persons, and the moving images to be replaced may be different according to the number of users satisfying the conditions.

また、上述した実施形態に係るサーバ装置又は端末装置として機能させるために、コンピュータ又は携帯電話などの情報処理装置を好適に用いることができる。このような情報処理装置は、実施形態に係るサーバ装置又は端末装置の各機能を実現する処理内容を記述したプログラムを、情報処理装置の記憶部に格納し、情報処理装置のCPUによって当該プログラムを読み出して実行させることによって実現可能である。 Further, in order to function as the server device or terminal device according to the above-described embodiment, an information processing device such as a computer or a mobile phone can be preferably used. Such an information processing device stores a program describing processing contents that realize each function of the server device or the terminal device according to the embodiment in the storage unit of the information processing device, and the CPU of the information processing device stores the program. This can be achieved by reading and executing.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

また、実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラムとして、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。記憶部は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。 Further, the method described in the embodiment includes, for example, a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), as a program that can be executed by a computer (computer). It can be stored in a recording medium such as a semiconductor memory (ROM, RAM, flash memory, etc.), or transmitted and distributed by a communication medium. The program stored on the medium side also includes a setting program for configuring the software means (including not only the execution program but also the table and the data structure) to be executed by the computer in the computer. A computer that realizes this device reads a program recorded on a recording medium, constructs software means by a setting program in some cases, and executes the above-mentioned processing by controlling the operation by the software means. The recording medium referred to in the present specification is not limited to distribution, and includes a storage medium such as a magnetic disk or a semiconductor memory provided in a device connected inside a computer or via a network. The storage unit may function as, for example, a main storage device, an auxiliary storage device, or a cache memory.

10…HMD、11…HMD制御部、12…センサ、13…ディスプレイ、14…スピーカ、15…マイク、20…ゲーム処理装置、21…制御部、21A…進行管理部、21B…場面判定部、21C…音声認識部、21D…第1判定部、21E…第1アクション制御部、21F…描画部、21G…第2判定部、21H…第2アクション制御部、22…記憶部、22A…画像情報、22B…オブジェクト情報、22C…ゲーム音情報、30…操作装置、31…情報処理部、32…トラッキング情報検出部、33…操作部、36…トラッキング補助装置、51…参照周波数スペクトル、52…周波数スペクトル、61…軌跡オブジェクト、63…描画参照オブジェクト、71…キャラクタオブジェクト、72…武器オブジェクト、73…追加オブジェクト、201…プロセッサ、202…メモリ、203…ノースブリッジ、203…ブリッジ、204…サウスブリッジ、204…ブリッジ、205…記憶装置、206…バス、207…拡張ポート


10 ... HMD, 11 ... HMD control unit, 12 ... sensor, 13 ... display, 14 ... speaker, 15 ... microphone, 20 ... game processing device, 21 ... control unit, 21A ... progress management unit, 21B ... scene judgment unit, 21C ... Sound recognition unit, 21D ... 1st determination unit, 21E ... 1st action control unit, 21F ... Drawing unit, 21G ... 2nd determination unit, 21H ... 2nd action control unit, 22 ... Storage unit, 22A ... Image information, 22B ... Object information, 22C ... Game sound information, 30 ... Operation device, 31 ... Information processing unit, 32 ... Tracking information detection unit, 33 ... Operation unit, 36 ... Tracking auxiliary device, 51 ... Reference frequency spectrum, 52 ... Frequency spectrum , 61 ... Trajectory object, 63 ... Drawing reference object, 71 ... Character object, 72 ... Weapon object, 73 ... Additional object, 201 ... Processor, 202 ... Memory, 203 ... North bridge, 203 ... Bridge, 204 ... South bridge, 204 … Bridge, 205… storage, 206… bus, 207… expansion port


Claims (12)

ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成する情報処理システムであって、一又は複数のコンピュータプロセッサを備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記ユーザの行動に基づく行動データの入力を受け付ける受付機能と、
前記行動データに従う行動を行うキャラクタオブジェクトを含む動画データを生成する処理機能と
を実現させ、
前記処理機能は、前記受付機能が前記ユーザの特定の行動に基づく第一の行動データを受け付けた場合、前記キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成する情報処理システム。
An information processing system that generates moving images including animations of character objects generated based on user behavior, including one or more computer processors.
The one or more computer processors may execute computer-readable instructions.
A reception function that accepts input of behavior data based on the user's behavior,
A processing function for generating video data including a character object that performs an action according to the action data is realized.
When the reception function receives the first action data based on the specific action of the user, the processing function prepares the character object in advance in place of the action according to the first action data. An information processing system that generates video data that is expressed according to the behavior data of.
前記処理機能は、前記ユーザに対し、前記キャラクタオブジェクトに前記第二の行動データに従う表現を行わせた動画データが生成されていることを示す状態表示を表示することを特徴とする請求項1に記載の情報処理システム。 The first aspect of the present invention is characterized in that the processing function displays a state display indicating to the user that moving image data in which the character object is expressed according to the second action data is generated. The information processing system described. 前記処理機能は、前記受付機能が前記ユーザの規定の行動に基づく第三の行動データを受け付けた場合、前記受付機能が当該第三の行動データを受け付けた後に受け付けた前記第一の行動データに従う動作に替えて、前記キャラクタオブジェクトに前記第二の行動データに従う表現を行わせた動画データを生成することを特徴とする請求項1または2に記載の情報処理システム。 When the reception function receives the third action data based on the specified action of the user, the processing function follows the first action data received after the reception function receives the third action data. The information processing system according to claim 1 or 2, wherein the character object generates moving image data in which an expression according to the second action data is performed instead of the operation. 前記処理機能は、前記ユーザに対し、前記第一の行動データの入力ガイドを表示することを特徴とする請求項1から3のいずれか一項に記載の情報処理システム。 The information processing system according to any one of claims 1 to 3, wherein the processing function displays an input guide for the first action data to the user. 前記処理機能は、前記受付機能が前記ユーザの規定の行動に基づく第三の行動データを受け付けた場合、前記ユーザに対し、前記第一の行動データの入力ガイドを表示し、当該入力ガイドの表示後に前記受付機能が前記第一の行動データを受け付けた場合、前記キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成することを特徴とする請求項1または2に記載の情報処理システム。 When the reception function receives the third action data based on the specified action of the user, the processing function displays the input guide of the first action data to the user and displays the input guide. Later, when the reception function receives the first action data, the moving image data in which the character object expresses according to the second action data prepared in advance instead of the action according to the first action data. The information processing system according to claim 1 or 2, wherein the data processing system is generated. 前記処理機能は、
前記受付機能が受け付け始めた行動データが第一の条件を満たした場合、当該行動データを前記第一の行動データとして、前記キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成し、
前記受付機能が受け付けた行動データが前記第一の条件を満たさない場合、前記キャラクタオブジェクトに、当該第一の行動データに従う動作に従う行動を行わせた動画データを生成することを特徴とする請求項1から5のいずれか一項に記載の情報処理システム。
The processing function
When the action data started to be accepted by the reception function satisfies the first condition, the action data is prepared in advance as the first action data in the character object in place of the action according to the first action data. Generate video data that is expressed according to the second behavior data
The claim is characterized in that when the action data received by the reception function does not satisfy the first condition, the character object generates moving image data in which the action according to the action according to the first action data is performed. The information processing system according to any one of 1 to 5.
前記処理機能は、
前記行動データと模範行動データとを比較して達成率を判定し、当該達成率が所定の値を超えた場合に前記行動データが前記第一の条件を満たしたと判断することを特徴とする請求項6に記載の情報処理システム。
The processing function
A claim characterized in that the achievement rate is determined by comparing the behavior data with the model behavior data, and when the achievement rate exceeds a predetermined value, it is determined that the behavior data satisfies the first condition. Item 6. The information processing system according to item 6.
前記処理機能は、
前記受付機能が受け付けた第一の行動データが第二の条件を満たした場合と、前記受付機能が受け付けた第一の行動データが第二の条件を満たさない場合とで、前記第二の行動データに従う表現による効果を異ならせることを特徴とする請求項1から7のいずれか一項に記載の情報処理システム。
The processing function
The second action depends on the case where the first action data received by the reception function satisfies the second condition and the case where the first action data received by the reception function does not satisfy the second condition. The information processing system according to any one of claims 1 to 7, wherein the effects of expressions according to data are different.
前記処理機能は、
前記行動データと模範行動データとを比較して所定の時間内における正確率を判定し、当該正確率が所定の値を超えた場合に前記第一の行動データが前記第二の条件を満たしたと判断することを特徴とする請求項8に記載の情報処理システム。
The processing function
The accuracy rate within a predetermined time is determined by comparing the behavior data with the model behavior data, and when the accuracy rate exceeds a predetermined value, the first behavior data satisfies the second condition. The information processing system according to claim 8, wherein a determination is made.
前記処理機能は、前記ユーザに対し、前記正確率を示す状態表示を表示することを特徴とする請求項9に記載の情報処理システム。 The information processing system according to claim 9, wherein the processing function displays a state display indicating the accuracy rate to the user. ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成する情報処理システムにおける情報処理方法であって、一又は複数のコンピュータプロセッサに、
前記ユーザの行動に基づく行動データの入力を受け付ける受付ステップと、
前記行動データに従う行動を行うキャラクタオブジェクトを含む動画データを生成する処理ステップと
を実行させ、
前記処理ステップでは、前記受付ステップにおいて前記ユーザの特定の行動に基づく第一の行動データを受け付けた場合、前記キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成する情報処理方法。
An information processing method in an information processing system that generates a moving image including an animation of a character object generated based on a user's behavior, and is applied to one or more computer processors.
A reception step that accepts input of behavior data based on the user's behavior,
A processing step of generating moving image data including a character object that performs an action according to the action data is executed.
In the processing step, when the first action data based on the specific action of the user is received in the reception step, the character object is provided with a second action prepared in advance in place of the action according to the first action data. An information processing method that generates video data that is expressed according to the behavior data of.
ユーザの行動に基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を生成するためのコンピュータプログラムであって、一又は複数のコンピュータプロセッサに、
前記ユーザの行動に基づく行動データの入力を受け付ける受付機能と、
前記行動データに従う行動を行うキャラクタオブジェクトを含む動画データを生成する処理機能と
を実現させ、
前記処理機能は、前記受付機能が前記ユーザの特定の行動に基づく第一の行動データを受け付けた場合、前記キャラクタオブジェクトに、当該第一の行動データに従う動作に替えて、予め用意された第二の行動データに従う表現を行わせた動画データを生成するコンピュータプログラム。

A computer program for generating moving images containing animations of character objects generated based on user behavior, which can be applied to one or more computer processors.
A reception function that accepts input of behavior data based on the user's behavior,
A processing function for generating video data including a character object that performs an action according to the action data is realized.
When the reception function receives the first action data based on the specific action of the user, the processing function prepares the character object in advance in place of the action according to the first action data. A computer program that generates video data that is expressed according to the behavior data of.

JP2019118002A 2019-06-26 2019-06-26 Information processing system, information processing method and computer program Active JP6839730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118002A JP6839730B2 (en) 2019-06-26 2019-06-26 Information processing system, information processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118002A JP6839730B2 (en) 2019-06-26 2019-06-26 Information processing system, information processing method and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021021394A Division JP7118189B2 (en) 2021-02-15 2021-02-15 Information processing system, information processing method and computer program

Publications (2)

Publication Number Publication Date
JP2021005181A true JP2021005181A (en) 2021-01-14
JP6839730B2 JP6839730B2 (en) 2021-03-10

Family

ID=74097736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118002A Active JP6839730B2 (en) 2019-06-26 2019-06-26 Information processing system, information processing method and computer program

Country Status (1)

Country Link
JP (1) JP6839730B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115512017A (en) * 2022-10-19 2022-12-23 深圳市诸葛瓜科技有限公司 Animation image generation system and method based on character characteristics
JP2023146856A (en) * 2022-03-29 2023-10-12 グリー株式会社 Computer program, method and server device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238991A (en) * 2000-03-01 2001-09-04 Snk Corp Game device
JP2003210830A (en) * 2002-12-24 2003-07-29 Konami Co Ltd Game device, game method, game program and game system
JP2005319175A (en) * 2004-05-11 2005-11-17 Namco Ltd Game machine, program, and information storage medium
JP2008003013A (en) * 2006-06-24 2008-01-10 Shinsedai Kk Detector
JP2008136694A (en) * 2006-12-01 2008-06-19 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2009279050A (en) * 2008-05-20 2009-12-03 Namco Bandai Games Inc Program, information storage medium, and game apparatus
JP2010246768A (en) * 2009-04-16 2010-11-04 Nintendo Co Ltd Information processing program and information processing apparatus
JP2017138915A (en) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント Image generation system and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238991A (en) * 2000-03-01 2001-09-04 Snk Corp Game device
JP2003210830A (en) * 2002-12-24 2003-07-29 Konami Co Ltd Game device, game method, game program and game system
JP2005319175A (en) * 2004-05-11 2005-11-17 Namco Ltd Game machine, program, and information storage medium
JP2008003013A (en) * 2006-06-24 2008-01-10 Shinsedai Kk Detector
JP2008136694A (en) * 2006-12-01 2008-06-19 Namco Bandai Games Inc Program, information storage medium and game apparatus
JP2009279050A (en) * 2008-05-20 2009-12-03 Namco Bandai Games Inc Program, information storage medium, and game apparatus
JP2010246768A (en) * 2009-04-16 2010-11-04 Nintendo Co Ltd Information processing program and information processing apparatus
JP2017138915A (en) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント Image generation system and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023146856A (en) * 2022-03-29 2023-10-12 グリー株式会社 Computer program, method and server device
CN115512017A (en) * 2022-10-19 2022-12-23 深圳市诸葛瓜科技有限公司 Animation image generation system and method based on character characteristics
CN115512017B (en) * 2022-10-19 2023-11-28 邝文武 Cartoon image generation system and method based on character features

Also Published As

Publication number Publication date
JP6839730B2 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
JP7367915B2 (en) Program, information processing method, and information processing device
JP2023171750A (en) Information processing system, information processing method, and program
JP6776393B2 (en) Viewing program, viewing method, and information terminal device
JP2021010181A (en) Viewing program, viewing method, and information terminal device
JP6839730B2 (en) Information processing system, information processing method and computer program
JP2021053365A (en) Program, method and viewing terminal
JP6813618B2 (en) Viewing program, viewing method, viewing terminal, distribution program, distribution method, and information terminal device
JP7118189B2 (en) Information processing system, information processing method and computer program
WO2020255996A1 (en) Program, method, and terminal device
JP6826645B1 (en) Programs, methods, and terminals
JP2022000218A (en) Program, method, information processing device, and system
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP6971282B2 (en) Programs, methods, and information terminals
JP6722316B1 (en) Distribution program, distribution method, computer, and viewing terminal
JP2021053406A (en) Program, method and terminal device
JP2021175436A (en) Game program, game method, and terminal device
JP2021010756A (en) Program, method, and information terminal device
JP2021000192A (en) Game program, game method, and information terminal device
JP7282731B2 (en) Program, method and terminal
JP7299197B2 (en) DELIVERY PROGRAM, DELIVERY METHOD, AND COMPUTER
JP7087148B2 (en) Game programs, game methods, and information terminals
JP6871964B2 (en) Distribution program, distribution method, and information terminal device
JP2021053454A (en) Game program, game method, and information terminal device
JP2021049391A (en) Viewing program, viewing method, viewing terminal, distribution program, distribution method, and information terminal device
JP2022028694A (en) Program, method, and information terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R150 Certificate of patent or registration of utility model

Ref document number: 6839730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250