JP5546846B2 - Sound effect information generating device, sound effect information generating method, and sound effect information generating program - Google Patents

Sound effect information generating device, sound effect information generating method, and sound effect information generating program Download PDF

Info

Publication number
JP5546846B2
JP5546846B2 JP2009285336A JP2009285336A JP5546846B2 JP 5546846 B2 JP5546846 B2 JP 5546846B2 JP 2009285336 A JP2009285336 A JP 2009285336A JP 2009285336 A JP2009285336 A JP 2009285336A JP 5546846 B2 JP5546846 B2 JP 5546846B2
Authority
JP
Japan
Prior art keywords
information
character
sound effect
sound
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009285336A
Other languages
Japanese (ja)
Other versions
JP2011125435A (en
Inventor
友宏 矢島
誠 伊勢
邦雄 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2009285336A priority Critical patent/JP5546846B2/en
Publication of JP2011125435A publication Critical patent/JP2011125435A/en
Application granted granted Critical
Publication of JP5546846B2 publication Critical patent/JP5546846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、3次元又は2次元コンピュータグラフィックスにより表現される画像(ビデオゲームキャラクタなど)の動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成装置、効果音情報生成方法、及び効果音情報生成プログラムに関する。   The present invention relates to a sound effect information generation apparatus and sound effect information generation for generating sound effect information related to sound effects that are output in accordance with the motion of an image (such as a video game character) represented by three-dimensional or two-dimensional computer graphics. The present invention relates to a method and a sound effect information generation program.

従来から、RPG(ロールプレイングゲーム:プレイヤがゲームの世界の中であるキャラクタの役割を演じ、様々な経験を通じて成長していく過程を楽しみながら、所定の目的を達成していくことを遊戯するゲーム)と呼ばれるビデオゲームや、敵キャラクタとのバトルを中心に楽しむ対戦アクションゲームと呼ばれるビデオゲームが各種提供されている。   Conventionally, RPG (Role Playing Game: A game in which a player plays a role of a character in the game world and enjoys a process of growing through various experiences while achieving a predetermined purpose. ) And a video game called a battle action game that is enjoyed mainly in battles with enemy characters.

これらのビデオゲームにおいては、プレイヤの操作に応じて、コンピュータ画像に含まれるキャラクタなどの画像が、「走る」、「ジャンプする」など様々な行動(アクション)をとる。ビデオゲームにおいて、このようなキャラクタのアクションに合わせた効果音を発生させることで、より臨場感に富んだプレイを楽しむことが可能となる。   In these video games, an image such as a character included in a computer image takes various actions (actions) such as “run” and “jump” in accordance with the operation of the player. In a video game, it is possible to enjoy a more realistic play by generating a sound effect that matches the action of such a character.

キャラクタのアクションに合わせた効果音を発生させるために、例えば、ゲーム空間(仮想空間)内の地面上をキャラクタが移動する様子を示すゲーム画像を表示装置に表示させ、キャラクタの状態に関する条件が同条件である場合に用いられる複数の足音データを1つの足音データグループとして記憶し、キャラクタの移動に応じた所定のタイミング毎に足音データグループの中から選択される1つの足音データを用いて発音処理を行うことが開示されている(特許文献1参照)。   In order to generate a sound effect that matches the action of the character, for example, a game image showing the character moving on the ground in the game space (virtual space) is displayed on the display device, and the conditions regarding the character state are the same. A plurality of footstep data used in the case of a condition is stored as one footstep data group, and sound generation processing is performed using one footstep data selected from the footstep data group at every predetermined timing according to the movement of the character Is disclosed (see Patent Document 1).

特開2005−218706号公報JP-A-2005-218706

しかしながら、上述した従来のゲーム装置では、ゲームの進行に直接関係しない効果音の出力に必要な処理が、キャラクタの動作に応じた効果音を予め設定しておく場合に比べて過大になる。   However, in the above-described conventional game device, the processing necessary for outputting the sound effect that is not directly related to the progress of the game is excessive as compared with the case where the sound effect corresponding to the action of the character is set in advance.

一方、キャラクタの動作に応じた効果音を予め設定しておく場合における効果音の貼り付け(キャラクタの動作に応じた効果音の設定)は、通常、キャラクタのアクションに応じて、ビデオゲーム作成者であるオペレータの操作による貼付作業によってそれぞれ貼り付けていく必要がある。このような貼付作業は、例えばアクションの動作の尺が変わるたびにそれぞれ別個に貼り付ける必要があるなど、多くの作業工数を要する作業となっているという問題があった。   On the other hand, in the case where a sound effect according to the character's motion is set in advance, the pasting of the sound effect (setting of the sound effect according to the character's motion) is usually performed according to the action of the character. It is necessary to stick each by the pasting operation by the operator's operation. Such a pasting work has a problem that it requires a large number of work steps, for example, it is necessary to paste each time the action action scale is changed.

本発明は、上記の問題を解決すべく、キャラクタの動作に応じて出力される効果音に関する効果音情報を、より少ない作業工数で効果的に生成することができるようにすることを目的とする。   In order to solve the above-described problem, an object of the present invention is to enable effective generation of sound effect information relating to sound effects that are output in accordance with the movement of a character with less work man-hours. .

本発明の効果音情報生成装置は、ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成装置であって、前記動作種類と基礎音声とが対応付けされた基礎音声情報を記憶する基礎音声情報記憶手段と、前記キャラクタの動作種類と動作対応音声とを含む前記効果音情報を記憶する効果音情報記憶手段と、操作指示に応じて前記キャラクタの動作を制御するキャラクタ動作制御手段と、前記キャラクタの動作を検出するキャラクタ動作検出手段と、該キャラクタ動作検出手段により検出された前記キャラクタの動作に対応する前記動作種類を特定する動作種類特定手段と、前記基礎音声情報記憶手段に記憶された基礎音声情報の中から、前記動作種類特定手段により特定された動作種類に応じた前記基礎音声情報を検索する基礎音声情報検索手段と、該基礎音声情報検索手段により検索された基礎音声情報に含まれる前記基礎音声を、前記動作対応音声として前記効果音情報に設定することで前記効果音情報を生成する効果音情報生成手段とを含むことを特徴とする。   The sound effect information generating device of the present invention is a sound effect information generating device for generating sound effect information relating to sound effects that are output according to the action of a character used in a video game, wherein the action type and the basic sound are Basic voice information storage means for storing the associated basic voice information, sound effect information storage means for storing the sound effect information including the action type and action corresponding voice of the character, and the character in response to an operation instruction Character action control means for controlling the action of the character, character action detection means for detecting the action of the character, and action type specifying means for specifying the action type corresponding to the action of the character detected by the character action detection means And the action specified by the action type specifying means from the basic voice information stored in the basic voice information storage means Basic voice information search means for searching for the basic voice information according to the class, and the basic voice included in the basic voice information searched by the basic voice information search means is set as the action-compatible voice in the sound effect information And sound effect information generating means for generating the sound effect information.

上記の構成としたことで、キャラクタの動作に応じて出力される効果音に関する効果音情報を、より少ない作業工数で効果的に生成することができるようになる。   With the above configuration, it is possible to effectively generate sound effect information related to sound effects that are output in accordance with the character's movement with less work man-hours.

また、予めキャラクタの動作に効果音を対応付けするので、効果音の発生タイミングを調整することができるため、動作から効果音発生までの時間のずれが生じることを防止することができる。   In addition, since the sound effect is associated with the action of the character in advance, the generation timing of the sound effect can be adjusted, so that a time lag from the action to the sound effect generation can be prevented.

表示画面上に前記キャラクタを表示する表示手段と、オペレータからの操作指示の入力を受け付ける入力受付手段とを含み、前記キャラクタ動作制御手段は、前記入力受付手段により受け付けた操作指示に応じて前記キャラクタの動作を制御する構成とされていてもよい。   Display means for displaying the character on a display screen; and input accepting means for accepting an input of an operation instruction from an operator, wherein the character motion control means is configured to respond to the operation instruction accepted by the input accepting means. The operation may be configured to be controlled.

前記基礎音声情報は、音声が発生する音声発生条件を示す効果音声発生条件情報を備え、前記動作種類特定手段は、前記動作種類が前記音声発生条件を満たしているか判定する音声発生条件判定手段を備え、前記基礎音声情報検索手段は、前記音声発生条件判定手段により、前記動作種類特定手段により特定された動作種類が前記音声発生条件を満たしていると判定された場合に、前記基礎音声情報を検索する構成とされていてもよい。   The basic speech information includes effect sound generation condition information indicating a sound generation condition for generating sound, and the operation type specifying unit includes a sound generation condition determination unit that determines whether the operation type satisfies the sound generation condition. And the basic voice information searching means determines the basic voice information when the voice generation condition determining means determines that the action type specified by the action type specifying means satisfies the voice generation condition. It may be configured to search.

前記基礎音声情報は、前記基礎音声に対応付けされた音声設定条件を示す音声設定条件情報を対備え、前記基礎音声情報検索手段は、前記キャラクタが前記音声設定条件を満たしているかを判定する音声設定条件判定手段を備え、前記キャラクタが前記設定条件を満たす前記基礎音声情報を検索する構成とされていてもよい。   The basic voice information includes voice setting condition information indicating a voice setting condition associated with the basic voice, and the basic voice information search unit is a voice for determining whether the character satisfies the voice setting condition. A setting condition determination unit may be provided, and the character may search for the basic voice information that satisfies the setting condition.

前記効果音情報記憶手段に記憶された効果音情報を参照して、前記動作種類特定手段により特定された動作種類に応じた前記動作対応音声が既に設定されていないかを判定する設定情報確認手段を含み、前記基礎音声情報検索手段は、前記設定情報確認手段により前記動作種類に対応する前記動作対応音声が設定されていないと判定された場合に前記基礎音声情報の検索を行う構成とされていてもよい。   Setting information confirmation means for referring to the sound effect information stored in the sound effect information storage means to determine whether the action-corresponding sound corresponding to the action type specified by the action type specifying means has already been set. The basic voice information search means is configured to search for the basic voice information when the setting information check means determines that the action-corresponding voice corresponding to the action type is not set. May be.

前記キャラクタが存在するゲーム空間の環境を示す環境情報を記憶する環境情報記憶手段を含み、前記基礎音声情報生成手段は、前記基礎音声情報を前記環境情報に応じて変更する基礎音声情報変更手段を備える構成とされていてもよい。   Including environmental information storage means for storing environmental information indicating the environment of the game space in which the character exists, wherein the basic audio information generating means includes basic audio information changing means for changing the basic audio information according to the environmental information. It may be set as the structure provided.

前記キャラクタ動作検出手段は、前記キャラクタに設定した仮想センサによって前記キャラクタの動作を検出する構成とされていてもよい。   The character motion detection means may be configured to detect the motion of the character by a virtual sensor set for the character.

また、本発明の効果音情報生成方法は、ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成方法であって、操作指示に応じて前記キャラクタの動作を制御するキャラクタ動作制御処理と、前記キャラクタの動作を検出するキャラクタ動作検出処理と、該キャラクタ動作検出処理にて検出された前記キャラクタの動作に対応する動作種類を特定する動作種類特定処理と、前記動作種類と基礎音声とが対応付けされた基礎音声情報を記憶する基礎音声情報記憶手段に記憶された基礎音声情報の中から、前記動作種類特定処理にて特定された動作種類に応じた基礎音声情報を検索する基礎音声情報検索処理と、該基礎音声情報検索処理にて検索された基礎音声情報に含まれる前記基礎音声を、動作対応音声として前記キャラクタの動作種類と動作対応音声とを含む効果音情報を記憶する効果音情報記憶手段に記憶された効果音情報に設定することで前記効果音情報を生成する効果音情報生成処理とを含むことを特徴とする。   The sound effect information generation method of the present invention is a sound effect information generation method for generating sound effect information related to a sound effect that is output according to the action of a character used in a video game. Character action control process for controlling the action of the character, character action detection process for detecting the action of the character, and action type specification for specifying the action type corresponding to the action of the character detected in the character action detection process From the basic voice information stored in the basic voice information storage means for storing the basic voice information in which the process and the action type and the basic voice are associated with each other, the action type specified in the action type specifying process A basic voice information search process for searching basic voice information according to the basic voice information searched for in the basic voice information search process. The effect of generating the sound effect information by setting the sound to the sound effect information stored in the sound effect information storage means for storing the sound effect information including the action type of the character and the action compatible sound as the action compatible sound And a sound information generation process.

また、本発明の効果音情報生成プログラムは、ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成装置に動作制御させるための効果音情報生成プログラムであって、前記効果音情報生成装置に、操作指示に応じて前記キャラクタの動作を制御するキャラクタ動作制御処理と、前記キャラクタの動作を検出するキャラクタ動作検出処理と、該キャラクタ動作検出処理にて検出された前記キャラクタの動作に対応する動作種類を特定する動作種類特定処理と、前記動作種類と基礎音声とが対応付けされた基礎音声情報を記憶する基礎音声情報記憶手段に記憶された基礎音声情報の中から、前記動作種類特定処理にて特定された動作種類に応じた基礎音声情報を検索する基礎音声情報検索処理と、該基礎音声情報検索処理にて検索された基礎音声情報に含まれる前記基礎音声を、動作対応音声として前記キャラクタの動作種類と動作対応音声とを含む効果音情報を記憶する効果音情報記憶手段に記憶された効果音情報に設定することで前記効果音情報を生成する効果音情報生成処理とを実行させるためのものである。   In addition, the sound effect information generation program of the present invention generates sound effect information for causing the sound effect information generation device that generates sound effect information related to the sound effect output according to the action of the character used in the video game to control the operation. In the sound effect information generating device, a character action control process for controlling the action of the character in accordance with an operation instruction, a character action detection process for detecting the action of the character, and the character action detection process. A basic type stored in basic voice information storage means for storing basic type voice information in which the type of action and basic voice are associated with each other, and a type of action specifying process type corresponding to the action of the character detected Basic voice information for searching basic voice information corresponding to the action type specified in the action type specifying process from the voice information. A sound effect for storing sound effect information including a motion type of the character and a motion-corresponding speech as a motion-corresponding speech as the motion-corresponding speech, the basic speech included in the basic speech information retrieved in the basic speech information retrieval processing The sound effect information is generated by setting the sound effect information stored in the information storage means to generate the sound effect information.

本発明によれば、キャラクタの動作に応じて出力される効果音に関する効果音情報を、より少ない作業工数で効果的に生成することができるようになる。   According to the present invention, it is possible to effectively generate sound effect information relating to sound effects that are output in accordance with the action of the character with less work man-hours.

本発明の一実施の形態における効果音情報生成装置100の構成例を示すブロック図である。It is a block diagram which shows the structural example of the sound effect information generation apparatus 100 in one embodiment of this invention. 基礎音声情報の格納状態の例を示す説明図である。It is explanatory drawing which shows the example of the storage state of basic audio | voice information. 効果音情報の格納状態の例を示す説明図である。It is explanatory drawing which shows the example of the storage state of sound effect information. キャラクタ情報の格納状態の例を示す説明図である。It is explanatory drawing which shows the example of the storage state of character information. 環境情報の格納状態の例を示す説明図である。It is explanatory drawing which shows the example of the storage state of environmental information. キャラクタに仮想センサを取り付ける場合の例を説明するための説明図である。It is explanatory drawing for demonstrating the example in the case of attaching a virtual sensor to a character. 動作情報の格納状態の例を示す説明図である。It is explanatory drawing which shows the example of the storage state of operation | movement information. 効果音情報生成処理の例を示すフローチャートである。It is a flowchart which shows the example of a sound effect information generation process. 音声発生条件確認処理の例を示すフローチャートである。It is a flowchart which shows the example of an audio | voice generation condition confirmation process. 音声設定処理の例を示すフローチャートである。It is a flowchart which shows the example of an audio | voice setting process.

以下、本発明の一実施の形態の例について図面を参照して説明する。   Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態における効果音情報生成装置100の構成例を示すブロック図である。図1に示すように、効果音情報生成装置100は、プログラム読取部10、制御部11、記憶部12、表示部13、音声出力部14、操作受付部15、およびキャラクタ動作検出解析部16を含む。   FIG. 1 is a block diagram illustrating a configuration example of a sound effect information generating apparatus 100 according to an embodiment of the present invention. As shown in FIG. 1, the sound effect information generating apparatus 100 includes a program reading unit 10, a control unit 11, a storage unit 12, a display unit 13, an audio output unit 14, an operation reception unit 15, and a character action detection analysis unit 16. Including.

プログラム読取部10は、各種プログラムが格納された記憶媒体を内蔵する記憶媒体から必要なプログラムを読み出す機能を有する。なお、本例においては、プログラム読取部10は、ゲームプログラムが格納された着脱可能なゲームカートリッジ20を装着する装着部を有し、オペレータ(効果音情報生成装置100の操作者)により装着部に装着されたゲームカートリッジ20の記憶媒体から、効果音情報の設定対象となるキャラクタ(ゲーム内で動作するビデオゲームキャラクタ)や、キャラクタが存在するゲーム空間に関する情報を含むゲームプログラムを読み出す。   The program reading unit 10 has a function of reading a necessary program from a storage medium including a storage medium in which various programs are stored. In this example, the program reading unit 10 has a mounting unit for mounting a detachable game cartridge 20 in which a game program is stored, and the operator (the operator of the sound effect information generating device 100) sets the mounting unit. From the storage medium of the attached game cartridge 20, a game program including a character (a video game character that operates in the game) for which sound effect information is set and information relating to a game space in which the character exists is read.

制御部11は、ゲームプログラム読取部10により読み取られたゲームプログラムを実行し、キャラクタの動作制御や、キャラクタの動作に応じた効果音情報を生成するための各種の制御を実行する。なお、キャラクタの動作に応じて出力される効果音に関する効果音情報の生成処理については、後で詳しく説明する。   The control unit 11 executes the game program read by the game program reading unit 10 and executes various controls for generating character sound control corresponding to character motion control and character motion. Note that the processing for generating sound effect information relating to sound effects that are output according to the character's motion will be described in detail later.

記憶部12は、キャラクタの動作に対して効果音を設定するために必要なプログラムや各種のデータを記憶する記憶媒体である。記憶部12は、例えばRAMなどの不揮発性のメモリによって構成される。記憶部12には、効果音情報の生成処理に従って登録・更新される各種の情報や、ゲームカートリッジ20に内蔵される記憶媒体から読み出されたゲームにおいて使用される各種の情報が格納される。   The storage unit 12 is a storage medium that stores programs and various data necessary for setting sound effects for character actions. The storage unit 12 is configured by a nonvolatile memory such as a RAM, for example. The storage unit 12 stores various types of information registered and updated according to the sound effect information generation process, and various types of information used in the game read from the storage medium built in the game cartridge 20.

なお、ゲームカートリッジ20に内蔵される記憶媒体から読み出されたゲームにおいて使用される各種の情報が、効果音情報を生成するために必要な情報を十分に有していない場合などに、オペレータが効果音情報生成装置100を操作することにより必要な情報を追加できる構成としてもよい。すなわち、例えばゲームカートリッジ20の記憶媒体から読み出された情報に、キャラクタの身長や体重などキャラクタの特徴を示す情報が含まれていない場合に、効果音情報生成装置100が、その旨をオペレータに報知し、情報の入力・追加を受け付ける構成としてもよい。   It should be noted that when the various information used in the game read from the storage medium built in the game cartridge 20 does not have sufficient information necessary for generating sound effect information, the operator It is good also as a structure which can add required information by operating the sound effect information generation apparatus 100. FIG. That is, for example, when the information read from the storage medium of the game cartridge 20 does not include information indicating the character's characteristics such as the character's height and weight, the sound effect information generating device 100 informs the operator to that effect. It is good also as a structure which alert | reports and receives the input and addition of information.

本例では、記憶部12は、基礎音声情報記憶部12aと、効果音情報記憶部12bと、キャラクタ情報記憶部12cと、環境情報記憶部12dとを含む。   In this example, the storage unit 12 includes a basic voice information storage unit 12a, a sound effect information storage unit 12b, a character information storage unit 12c, and an environment information storage unit 12d.

図2は、基礎音声情報記憶部12aにおける基礎音声情報の格納状態の例を示す説明図である。図2に示すように、基礎音声情報は、音声IDと、動作種類と、音声種類と、基礎音声(出力音)と、動作判定条件(音声発生条件)と、音声設定条件とを含む。ここで、動作判定条件とは、後述する音声発生条件確認処理において、キャラクタの動作種類を判定するための情報である。動作判定条件としては、キャラクタの構成要素(腕や脚など)の動作状態(移動速度など。)や、複数の構成要素の関係(例えば、「キャラクタの手が上方向に移動して、肩よりも高い位置になる」など。)という条件を含む。なお、本例においては動作判定条件がそのまま音声発生条件情報として用いられる場合を例に説明を行なうが、例えばキャラクタの動作種類に音声が発生しないものが含まれる場合には、動作判定条件を示す情報とは別に、音声発生条件を示す情報が音声発生条件確認処理にて利用される構成としてもよい。   FIG. 2 is an explanatory diagram illustrating an example of a storage state of basic voice information in the basic voice information storage unit 12a. As shown in FIG. 2, the basic voice information includes a voice ID, an action type, a voice type, a basic voice (output sound), an action determination condition (sound generation condition), and a voice setting condition. Here, the action determination condition is information for determining the action type of the character in the sound generation condition confirmation process described later. The motion determination conditions include the motion state (movement speed, etc.) of the character components (arms, legs, etc.) and the relationship between multiple components (for example, “the character ’s hand moves upward and Is also higher ”. In this example, the case where the motion determination condition is used as it is as the voice generation condition information will be described as an example. For example, when the character motion type includes a case where no voice is generated, the motion determination condition is indicated. Apart from the information, information indicating the sound generation condition may be used in the sound generation condition confirmation process.

また、音声設定条件とは、後述する音声設定処理において、基礎音声情報記憶部12bに格納された基礎音声情報の中からキャラクタに応じた基礎音声情報を検索するための情報である。本例においては、音声設定条件として、キャラクタの特徴を示す身長や体重、さらにはキャラクタの構成を腕の太さや羽の大きさなど種々の条件が設定される。また、複数の条件が設定される構成としてもよい。   The voice setting condition is information for searching basic voice information corresponding to the character from the basic voice information stored in the basic voice information storage unit 12b in the voice setting process described later. In this example, various conditions are set as the voice setting conditions, such as the height and weight indicating the characteristics of the character, and the character configuration, such as the thickness of the arm and the size of the wings. A plurality of conditions may be set.

図3は、効果音情報記憶部12bにおける効果音情報の格納状態の例を示す説明図である。図3に示すように、効果音情報は、キャラクタIDと、動作種類と、動作対応音声(図3においては音声IDで表示している。)と、変換音声とを含む。ここで、効果音情報における動作対応音声は、後述する効果音情報生成処理において順次基礎音声情報記憶部12aから抽出される基礎音声が設定されることとなる。なお、効果音情報としては、他にも、例えば動作対応音声の発音タイミングなどが含まれることとする。   FIG. 3 is an explanatory diagram illustrating an example of a storage state of sound effect information in the sound effect information storage unit 12b. As shown in FIG. 3, the sound effect information includes a character ID, a motion type, a motion-corresponding sound (indicated by a sound ID in FIG. 3), and converted sound. Here, as the operation-corresponding sound in the sound effect information, the basic sound that is sequentially extracted from the basic sound information storage unit 12a in the sound effect information generation process described later is set. Note that the sound effect information includes, for example, the sound generation timing of the motion-compatible sound.

また、変換音声とは基礎音声の音調、音程、音量を変更したものや、基礎音声とは全く異なる音声を含むものであり、キャラクタがゲーム空間内で位置する環境に応じて基礎音声の代わりに出力される音声情報である。すわなち、ゲーム空間においてキャラクタが置かれた環境によっては、キャラクタが同一の動作を行った場合でも、異なる効果音を出力することもできることとなる。本例において変換音声は、後述する環境情報に含まれる音声変換情報に基づいて基礎音声が変換された音声情報が設定される。   In addition, the converted voice includes a sound whose pitch, pitch, and volume of the basic voice are changed, and a voice that is completely different from the basic voice, and instead of the basic voice depending on the environment where the character is located in the game space. This is audio information to be output. In other words, depending on the environment in which the character is placed in the game space, different sound effects can be output even when the character performs the same action. In this example, the converted sound is set to sound information obtained by converting the basic sound based on sound conversion information included in environment information described later.

また、発音タイミングとは、効果音情報生成装置100により生成された効果音情報がゲームにおいてされるときに、動作対応音声の出力タイミング(動作対応音声を出力する始期や終期、発音間隔など)を示す情報である。本例においては、キャラクタの動作を表現する複数のフレーム(画像)に関するフレーム情報を基準として音声の出力タイミングが設定可能であるものとする。   The sound generation timing refers to the output timing of motion-corresponding speech (such as the start and end of output of motion-corresponding speech, the sounding interval) when sound effect information generated by the sound effect information generating device 100 is played in a game. It is information to show. In this example, it is assumed that the audio output timing can be set on the basis of frame information regarding a plurality of frames (images) expressing the motion of the character.

図4は、キャラクタ情報記憶部12cにおけるキャラクタ情報の格納状態の例を示す説明図である。図4に示すように、キャラクタ情報は、キャラクタIDと、キャラクタ名称と、(キャラクタの)身長と、(キャラクタの)体重と、特別設定と、画像情報とを含む。キャラクタ情報は、キャラクタの特徴を示す特徴情報としての役割をもつ。ここで、特別設定とは、基本項目(キャラクタの身長や体重など)以外でキャラクタの特徴として設定された情報であり、本例においては「2足歩行」、「羽有り」、「4足歩行」などが設定されていることとする。   FIG. 4 is an explanatory diagram illustrating an example of a storage state of character information in the character information storage unit 12c. As shown in FIG. 4, the character information includes a character ID, a character name, a (character) height, a (character) weight, a special setting, and image information. The character information has a role as feature information indicating the feature of the character. Here, the special setting is information set as a feature of the character other than the basic items (character height, weight, etc.). In this example, “biped walking”, “with wings”, “four-legged walking” ”And the like are set.

また、キャラクタ情報における画像情報は、キャラクタの身体情報(身長、体重、外見など)に応じてキャラクタを3次元または2次元の状態で表示画面に表示するための情報であり、キャラクタを構成するポリゴンデータとボーンとを含む情報である。   The image information in the character information is information for displaying the character on the display screen in a three-dimensional or two-dimensional state according to the character's physical information (height, weight, appearance, etc.), and the polygons constituting the character Information including data and bones.

図5は、環境情報記憶部12dにおける環境情報の格納状態の例を示す説明図である。図5に示すように、環境情報は、環境IDと、地形種類と、音声変換情報とを含む。ここで、音声変換情報とは、キャラクタ周辺の環境(キャラクタの動作により発生する効果音に影響をおよぼす範囲を意味する。また、効果音に影響をおよぼす範囲としては、例えばキャラクタが歩行中の地面の種類などだけでなく、ゲームにおける移動フィールドと戦闘フィールドとの違いや、キャラクタの状態(キャラクタの感情を示す情報など)の違いも含むこととする。)に応じて基礎音声情報における基礎音声を変換するための情報である。音声変換情報としては、例えば「基礎音声を地形種類に応じた所定の音声に置き換える」ことや、「環境に応じて基礎音声に他の音声を重ねる」こと、「環境に応じて基礎音声の音調を変更する」ことなどを実行するための情報を含む。   FIG. 5 is an explanatory diagram illustrating an example of a storage state of environment information in the environment information storage unit 12d. As shown in FIG. 5, the environment information includes an environment ID, a terrain type, and voice conversion information. Here, the voice conversion information means the environment surrounding the character (the range that affects the sound effect generated by the action of the character. The range that affects the sound effect is, for example, the ground where the character is walking. The basic voice in the basic voice information depends on the difference between the movement field and the battle field in the game and the character state (information indicating the emotion of the character). This is information for conversion. The voice conversion information includes, for example, “replace the basic voice with a predetermined voice according to the type of terrain”, “superimpose other voice on the basic voice according to the environment”, and “the tone of the basic voice according to the environment”. Information for executing “changing”.

環境情報を備えることにより、例えばキャラクタが砂の上で歩行する場合と氷の上を歩行する場合で歩行の効果音(足音など)を変更することができるので、よりリアリティのある効果音を出力することができる。また、同じ動作でもキャラクタの状態に応じて効果音を変えることで、例えばキャラクタの心情やゲーム空間の雰囲気を表現したりすることができるようになる。   By providing environmental information, you can change the sound effect (footsteps, etc.) of walking when the character walks on the sand and on the ice, so it outputs more realistic sound effects can do. In addition, by changing the sound effect according to the character state even in the same action, for example, the emotion of the character and the atmosphere of the game space can be expressed.

表示部13は、制御部11の制御に従って、オペレータの操作に応じたゲーム画面を表示する表示装置である。表示部13は、例えば、液晶表示装置によって構成される。   The display unit 13 is a display device that displays a game screen according to the operation of the operator according to the control of the control unit 11. The display unit 13 is configured by a liquid crystal display device, for example.

音声出力部14は、制御部11の制御に従って、オペレータの操作やキャラクタの動作に応じて音声を出力する。   The voice output unit 14 outputs voice according to the operation of the operator or the action of the character according to the control of the control unit 11.

操作部受付部15は、複数のボタンやマウスなどによって構成されるコントローラからのオペレータ操作に応じた操作信号を受け付け、その結果を制御部11に通知する。   The operation unit receiving unit 15 receives an operation signal corresponding to an operator operation from a controller constituted by a plurality of buttons, a mouse, and the like, and notifies the control unit 11 of the result.

キャラクタ動作検出解析部16は、キャラクタの動作を検出し、検出結果を解析することにより動作種類を特定するための機能を備える。本例におけるキャラクタ動作検出解析部16は、仮想センサ設定部16aと動作情報管理テーブル16bと、動作情報解析部16cとを備える。   The character motion detection analysis unit 16 has a function for identifying the motion type by detecting the motion of the character and analyzing the detection result. The character motion detection analysis unit 16 in this example includes a virtual sensor setting unit 16a, a motion information management table 16b, and a motion information analysis unit 16c.

仮想センサ設定部16aは、キャラクタの動作を検出するための仮想センサを設定する機能を備える。本例においては、仮想センサ設定部16aは、オペレータの操作に応じて、キャラクタ(キャラクタを構成する腕や脚など)に仮想センサを取り付ける。ここで、仮想センサとは、設定対象の座標変化を検出することで、ゲーム空間における設定対象の位置(座標)を検出する位置センサ、速度(加速度)を検出する速度センサ、および角速度を検出する角速度センサとしての役割を果たすものである。なお、仮想センサは設定された箇所のゲーム空間における座標を検出するので、ゲーム空間において他のキャラクタが存在する座標情報を参照可能とすることにより、キャラクタ間の接触を検知する接触センサや、キャラクタ間の距離を測る距離センサとしての役割を果たすこともできる。   The virtual sensor setting unit 16a has a function of setting a virtual sensor for detecting the motion of the character. In this example, the virtual sensor setting unit 16a attaches a virtual sensor to a character (such as an arm or a leg constituting the character) according to the operation of the operator. Here, the virtual sensor is a position sensor that detects a position (coordinate) of a setting target in the game space, a speed sensor that detects a speed (acceleration), and an angular velocity by detecting a coordinate change of the setting target. It plays a role as an angular velocity sensor. Note that the virtual sensor detects coordinates in the game space of the set location, so that it is possible to refer to coordinate information in which other characters exist in the game space, thereby detecting contact between characters or characters. It can also serve as a distance sensor that measures the distance between them.

図6は、キャラクタに仮想センサを取り付ける場合の例を説明するための説明図である。図6に示すように、本例において、キャラクタ101は、ポリゴンデータ102と、ポリゴンデータの骨格となるボーン103とにより構成されている。制御部11は、オペレータの操作に応じて、仮想センサ設定部16aにより、ポリゴンデータ102やボーン103に仮想センサSを設定する。仮想センサSが設定された部分(例えば、図6における×印部分)は、所定の時間間隔で仮想センサSによりゲーム空間における座標およびその座標変化が検出され、動作情報管理テーブル16bにて管理される。   FIG. 6 is an explanatory diagram for explaining an example in which a virtual sensor is attached to a character. As shown in FIG. 6, in this example, the character 101 is composed of polygon data 102 and a bone 103 that is a skeleton of the polygon data. The control unit 11 sets the virtual sensor S in the polygon data 102 and the bone 103 by the virtual sensor setting unit 16a according to the operation of the operator. In the portion where the virtual sensor S is set (for example, the portion marked with X in FIG. 6), the coordinates in the game space and the change in the coordinates are detected by the virtual sensor S at predetermined time intervals, and are managed in the motion information management table 16b. The

なお、仮想センサSは、例えば、オペレータの指示を受けずに、仮想センサ設定部16aがキャラクタの所定の位置(例えば、ボーンの関節部分)に設定する構成としてもよい。また、オペレータがキャラクタの部位名称を入力することにより、仮想センサ設定部16aが部位名称に応じた部分に仮想センサを設定する構成としてもよい。   Note that the virtual sensor S may be configured such that the virtual sensor setting unit 16a sets the character at a predetermined position (for example, a joint portion of a bone) without receiving an instruction from the operator. Further, the virtual sensor setting unit 16a may set the virtual sensor in a part corresponding to the part name by inputting the part name of the character by the operator.

図7は、動作情報管理テーブル16bにおける動作情報の格納状態の例を示す説明図である。図6に示すように、動作情報は、センサIDと、対象キャラクタIDと、設定部位と、座標と、速度(加速度)と、角速度とを含む。ここで、設定部位とは各仮想センサがキャラクタのどの部分に設定されたかを示す情報である。なお、本例においては設定部位として「腕」「右腕」「足」を例示したが、設定部位はさらに細かい分類であってもよい。また、座標とは、キャラクタに設定された仮想センサのゲーム空間における座標を示す。本例において、制御部11は、仮想センサの座標変化に基づいて、仮想センサが取り付けられた箇所の位置や速度、角速度などを算出する処理を行ない、キャラクタの動作情報を蓄積・更新する。   FIG. 7 is an explanatory diagram illustrating an example of a storage state of operation information in the operation information management table 16b. As illustrated in FIG. 6, the motion information includes a sensor ID, a target character ID, a set part, coordinates, speed (acceleration), and angular velocity. Here, the set part is information indicating in which part of the character each virtual sensor is set. In this example, “arm”, “right arm”, and “foot” are illustrated as the setting parts, but the setting parts may be further classified. Also, the coordinates indicate the coordinates in the game space of the virtual sensor set for the character. In this example, the control unit 11 performs processing for calculating the position, speed, angular velocity, and the like of the location where the virtual sensor is attached based on the coordinate change of the virtual sensor, and accumulates and updates the motion information of the character.

動作情報解析部16cは、動作情報管理テーブル16bにて管理される動作情報を解析して、キャラクタの動作種類を特定する。動作種類の特定方法については、後で詳しく説明する。   The motion information analysis unit 16c analyzes the motion information managed by the motion information management table 16b and identifies the motion type of the character. The method for specifying the operation type will be described in detail later.

ここで、本例の効果音情報生成装置100によって実行される効果音情報生成方法の概要について説明する。本例では、表示画面において、キャラクタをオペレータが操作して、効果音情報生成装置100がキャラクタの動作を検出・解析して、予め効果音情報生成装置100に格納された音声情報からキャラクタの動作種類に応じた音声情報を抽出することにより、キャラクタの動作と音声情報とを対応付けした効果音情報を生成する。   Here, an outline of the sound effect information generation method executed by the sound effect information generation apparatus 100 of the present example will be described. In this example, the operator operates the character on the display screen, and the sound effect information generating apparatus 100 detects and analyzes the action of the character, and the action of the character from the voice information stored in the sound effect information generating apparatus 100 in advance. By extracting the sound information corresponding to the type, sound effect information in which the action of the character is associated with the sound information is generated.

次に、本例の効果音情報生成装置100の動作について説明する。なお、本発明に関係しない動作や処理については、その内容を省略している場合がある。   Next, the operation of the sound effect information generating apparatus 100 of this example will be described. Note that the contents of operations and processes not related to the present invention may be omitted.

図8は、効果音情報生成装置100が実行する効果音情報生成処理の例を示すフローチャートである。効果音情報生成処理では、キャラクタの動作に応じた効果音に関する効果音情報を生成するための処理が実行される。具体的には、制御部11が、効果音情報生成装置100を構成する各部を統制制御することにより、効果音情報を構成する情報を順次決定していき、効果音情報記憶部12bに設定・格納していくことによって、キャラクタの動作と音声情報とが対応付けされた効果音情報を生成する処理が実行される。   FIG. 8 is a flowchart illustrating an example of sound effect information generation processing executed by the sound effect information generation device 100. In the sound effect information generation process, a process for generating sound effect information related to the sound effect according to the character's action is executed. Specifically, the control unit 11 controls and controls each unit constituting the sound effect information generating apparatus 100 to sequentially determine information constituting the sound effect information, and sets / sets in the sound effect information storage unit 12b. By storing, a process of generating sound effect information in which the action of the character and the voice information are associated is executed.

効果音情報生成処理は、例えば、オペレータによるコントローラの操作によりキャラクタが選択されたことにより開始される。なお、複数のキャラクタが選択される構成としてもよい。   The sound effect information generation process is started, for example, when a character is selected by an operation of the controller by the operator. In addition, it is good also as a structure by which a some character is selected.

効果音情報生成処理において、制御部11は、先ず、キャラクタの選択を受け付け、選択されたキャラクタに仮想センサを設定する(ステップS101)。仮想センサを設定すると、制御部11は、表示画面にキャラクタを表示してオペレータの操作を受け付け(ステップS102)、操作内容に応じてキャラクタの動作を表示する処理を行ない、後述する音声発生条件確認処理を実行する(ステップS103)。   In the sound effect information generation process, the control unit 11 first receives a selection of a character and sets a virtual sensor for the selected character (step S101). When the virtual sensor is set, the control unit 11 displays a character on the display screen, accepts an operator's operation (step S102), performs a process of displaying the character's action according to the operation content, and confirms a sound generation condition described later. Processing is executed (step S103).

音声発生条件確認処理を終えると、制御部11は、音声発生条件が成立したか否かを判定する(ステップS104)。音声発生条件が成立したと判定すると(ステップS104のY)、制御部11は、効果音情報記憶部12bを参照し、成立した音声発生条件に応じた基礎音声が、キャラクタの効果音情報に設定されていないか否かを判定する(ステップS105)。   When the sound generation condition confirmation process is finished, the control unit 11 determines whether or not the sound generation condition is satisfied (step S104). If it is determined that the sound generation condition is satisfied (Y in step S104), the control unit 11 refers to the sound effect information storage unit 12b, and the basic sound corresponding to the satisfied sound generation condition is set in the sound effect information of the character. It is determined whether it has not been performed (step S105).

効果音情報が設定されていないと判定すると(ステップS105のY)、制御部11は、後述する効果音情報生成処理を実行する(ステップS105)。   If it is determined that the sound effect information is not set (Y in step S105), the control unit 11 executes a sound effect information generation process to be described later (step S105).

効果音情報生成処理を終えると、制御部11は、効果音情報記憶部12bを参照して、効果音情報が完成したか否かを判定する(ステップS107)。本例においては、制御部11は、キャラクタ設定された動作種類に応じた動作対応音声が全て設定されていることを確認した場合に、効果音情報が完成したと判定して(ステップS107のY)、ここでの処理を終了する。効果音情報が完成していないと判定すると(ステップS107のN)、制御部11は、ステップS102に遷移する。なお、このときまだ動作対応音声が設定されていない動作種類について、制御部11が、例えば動作種類をリスト化して表示画面に表示することによりオペレータに報知する構成としてもよい。   When the sound effect information generation process is finished, the control unit 11 refers to the sound effect information storage unit 12b and determines whether or not the sound effect information is completed (step S107). In this example, the control unit 11 determines that the sound effect information is completed when it is confirmed that all the motion-corresponding sounds corresponding to the motion type set for the character are set (Y in step S107). ), And the process here ends. If it is determined that the sound effect information is not completed (N in Step S107), the control unit 11 transitions to Step S102. In addition, it is good also as a structure which alert | reports to an operator by making the control part 11 list the operation types, for example, and displaying them on a display screen about the operation types for which the operation corresponding | compatible voice is not set yet.

次に、効果音情報生成装置100が実行する音声発生条件確認処理(図8のステップS103)について説明する。   Next, the sound generation condition confirmation process (step S103 in FIG. 8) executed by the sound effect information generating apparatus 100 will be described.

図9は、音声発生条件確認処理の例を示すフローチャートである。音声発生条件確認処理では、オペレータの操作に応じたキャラクタの動作が音声発生条件を成立させたか否かを判定するための処理が実行される。なお、本例においては説明を容易にするために、キャラクタの動作種類が、「歩行」、「走行」、「腕振り」、「着地」、および「羽ばたき」である場合を例に説明する。 FIG. 9 is a flowchart illustrating an example of the sound generation condition confirmation process. In the sound generation condition confirmation process, a process for determining whether or not the action of the character according to the operation of the operator satisfies the sound generation condition is executed. In this example, for ease of explanation, a case will be described in which the character motion types are “walking”, “running”, “arm swing”, “landing”, and “flapping”.

音声発生条件確認処理では、先ず、制御部11は、動作情報管理テーブル16bにて動作情報を検出する(ステップS201)。   In the sound generation condition confirmation process, first, the control unit 11 detects operation information in the operation information management table 16b (step S201).

動作情報を検出すると、制御部11は、動作情報解析部16cにより動作情報を解析する(ステップS202)。   When the motion information is detected, the control unit 11 analyzes the motion information by the motion information analysis unit 16c (step S202).

動作情報を解析すると、制御部11は、解析結果からキャラクタが移動しているか否かを判定する(ステップS203)。   When the motion information is analyzed, the control unit 11 determines whether or not the character is moving from the analysis result (step S203).

キャラクタが移動していると判定すると(ステップS203のY)、制御部11は、キャラクタが地面を移動しているか否かを判定する(ステップS204)。本例においては、制御部11は、ゲーム空間を構成する地面を表す座標系と、キャラクタの足に設定された仮センサの座標変化とに基づいて、キャラクタが地面を移動しているか否かを判定する。   If it is determined that the character is moving (Y in step S203), the control unit 11 determines whether the character is moving on the ground (step S204). In this example, the control unit 11 determines whether the character is moving on the ground based on the coordinate system representing the ground constituting the game space and the coordinate change of the temporary sensor set on the character's foot. judge.

キャラクタが地面を移動していると判定した場合(ステップS204のY)、制御部11は、キャラクタの動作が「歩行」であるか否かを判定する(ステップS205)。本例においては、制御部11は、動作情報の解析結果からキャラクタの移動速度を判定して、移動速度が基礎音声情報における動作判定条件として設定された範囲内である場合、すなわち、「歩行」に対応する動作判定条件を満たしている場合にキャラクタの動作が「歩行」であると判定する。   If it is determined that the character is moving on the ground (Y in step S204), the control unit 11 determines whether the action of the character is “walking” (step S205). In this example, the control unit 11 determines the moving speed of the character from the analysis result of the motion information, and when the moving speed is within the range set as the motion determination condition in the basic voice information, that is, “walking”. When the action determination condition corresponding to is satisfied, the action of the character is determined to be “walking”.

キャラクタの動作が「歩行」であると判定すると(ステップS205のY)、制御部11は、歩行音発生条件が成立したと判定して(ステップS206)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。また、キャラクタの動作が「歩行」でないと判定すると(ステップS205のN)、制御部11は、キャラクタの動作が「走行」であると判定し、走行音発生条件が成立したと判定して(ステップS211)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。   If it is determined that the action of the character is “walking” (Y in step S205), the control unit 11 determines that the walking sound generation condition is satisfied (step S206), and proceeds to step S104 in the sound effect information generation process. (See FIG. 8). If it is determined that the action of the character is not “walking” (N in step S205), the control unit 11 determines that the action of the character is “running” and determines that the running sound generation condition is satisfied ( Step S211), the process proceeds to Step S104 in the sound effect information generation process (see FIG. 8).

一方、ステップS203にて、キャラクタが移動していないと判定すると(ステップS203のN)、制御部11は、キャラクタの動作が「腕振り」であるか否かを判定する(ステップS207)。本例においては、制御部11は、キャラクタの腕の動作速度が基礎音声情報に記憶された所定の速度範囲内である場合に、キャラクタの動作が「腕振り」であると判定する。キャラクタの動作が「腕振り」であると判定すると(ステップS207のY)、制御部11は、風切り音の発生条件が成立したと判定して(ステップS208)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。   On the other hand, if it is determined in step S203 that the character has not moved (N in step S203), the control unit 11 determines whether or not the action of the character is “arm swing” (step S207). In this example, the control unit 11 determines that the character motion is “arm swing” when the motion speed of the character's arm is within a predetermined speed range stored in the basic voice information. If it is determined that the action of the character is “arm swing” (Y in step S207), the control unit 11 determines that the wind noise generation condition is satisfied (step S208), and step S104 in the sound effect information generation process. (See FIG. 8).

ここで、キャラクタの動作が「腕振り」でないと判定すると(ステップS207のN)、制御部11は、音声発生条件が成立していないと判定して(ステップS215)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。   If it is determined that the character's action is not “arm swing” (N in step S207), the control unit 11 determines that the sound generation condition is not satisfied (step S215), and in the sound effect information generation process. The process proceeds to step S104 (see FIG. 8).

一方、ステップS204にて、キャラクタが地面を移動していないと判定すると(ステップS204のN)、制御部11は、キャラクタの動作が「羽ばたき」であるか否かを判定する(ステップS209)。本例においては、制御部11は、キャラクタに設定された仮想センサのうち、設定部位が「羽」であるセンサの速度が動作判定条件を満たしている場合に、キャラクタの動作が「羽ばたき」であると判定する。キャラクタの動作が「羽ばたき」であると判定すると(ステップS209のY)、制御部11は、羽音の発生条件が成立したと判定して(ステップS210)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。   On the other hand, if it is determined in step S204 that the character is not moving on the ground (N in step S204), the control unit 11 determines whether or not the action of the character is “flapping” (step S209). In this example, the control unit 11 determines that the motion of the character is “flapping” when the speed of a sensor whose set part is “wings” among the virtual sensors set for the character satisfies the motion determination condition. Judge that there is. If it is determined that the action of the character is “flapping” (Y in step S209), the control unit 11 determines that the generation condition of the feather sound is satisfied (step S210), and proceeds to step S104 in the sound effect information generation process. (See FIG. 8).

ここで、キャラクタの動作が「羽ばたき」でないと判定すると(ステップS209のN)、制御部11は、キャラクタが「落下中」であるか否かを判定する(ステップS212)。本例においては、制御部11は、キャラクタに設定された仮想センサが下方向への一定の加速度を検出している場合に、「落下中」であると判定する。   If it is determined that the character action is not “flapping” (N in step S209), the control unit 11 determines whether the character is “falling” (step S212). In this example, the control unit 11 determines that it is “falling” when the virtual sensor set for the character detects a certain downward acceleration.

キャラクタが「落下中」であると判定すると(ステップS212のY)、制御部11は、キャラクタの動作が「着地」に変更したか否かを判定する(ステップS213)。本例においては、制御部11は、キャラクタに設定された仮想センサが下方向への一定の加速度を検出しなくなったときに、キャラクタの動作が「着地」であると判定する。キャラクタの動作が「着地」に変更したと判定すると(ステップS213のY)、制御部11は、着地音の発生条件が成立したと判定して(ステップS214)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。   If it is determined that the character is “falling” (Y in step S212), the control unit 11 determines whether or not the action of the character has been changed to “landing” (step S213). In this example, the control unit 11 determines that the action of the character is “landing” when the virtual sensor set for the character stops detecting a certain downward acceleration. If it is determined that the character action has been changed to “landing” (Y in step S213), the control unit 11 determines that the landing sound generation condition is satisfied (step S214), and step S104 in the sound effect information generation process. (See FIG. 8).

ここで、キャラクタの動作が「着地」に変更していないと判定した場合(ステップS213のN)、制御部11はステップS212に遷移する。   If it is determined that the character action has not been changed to “landing” (N in step S213), the control unit 11 transitions to step S212.

一方、キャラクタが「落下中」でないと判定すると(ステップS212のN)、制御部11は、音声発生条件が成立していないと判定して(ステップS215)、効果音情報生成処理におけるステップS104に遷移する(図8参照)。   On the other hand, if it is determined that the character is not “falling” (N in step S212), the control unit 11 determines that the sound generation condition is not satisfied (step S215), and proceeds to step S104 in the sound effect information generation process. Transition (see FIG. 8).

次に、効果音情報生成装置100が実行する音声設定処理(図8のステップS106)について説明する。   Next, the sound setting process (step S106 in FIG. 8) executed by the sound effect information generating apparatus 100 will be described.

図10は、音声設定処理の例を示すフローチャートである。音声設定処理では、音声発生条件の成立に応じて、効果音情報に基礎音声と変換音声とを設定するための処理が実行される。   FIG. 10 is a flowchart illustrating an example of the voice setting process. In the sound setting process, a process for setting the basic sound and the converted sound in the sound effect information is executed according to the establishment of the sound generation condition.

音声設定処理では、先ず、制御部11は、成立した条件を確認する(ステップS301)。以下、歩行音発生条件が成立した場合を例に説明を行なう。   In the voice setting process, first, the control unit 11 confirms the established condition (step S301). Hereinafter, a case where the walking sound generation condition is satisfied will be described as an example.

成立した条件を確認すると、制御部11は、キャラクタ情報記憶部12cを参照し、効果音情報の生成対象であるキャラクタのキャラクタ情報を確認する(ステップS02)。 Check out the established conditions, the control unit 11 refers to the character information storage unit 12c, confirms Character Character information is generated object sound effect information (Step S 3 02).

キャラクタ情報を確認すると、制御部11は、基礎音声情報記憶部12aを参照して、動作種類に「歩行」が設定された基礎音声情報のうち、キャラクタ情報が設定条件を満たす基礎音声情報を検索する(ステップS303)。   Upon confirming the character information, the control unit 11 refers to the basic voice information storage unit 12a and searches for basic voice information in which the character information satisfies the setting condition among the basic voice information in which “walking” is set as the motion type. (Step S303).

基礎音声情報を検索すると、制御部11は、効果音情報記憶部12aに、検索した基礎音声を動作対応音声として動作種類と対応させて設定する(ステップS304)。ここで、基礎音声を動作対応音声として設定するときに、制御部11は、解析した動作情報に基づいて、生成した効果音情報を利用するゲームにおいて効果音(基礎音声または変換音声)がリアリティのある適切なタイミングで出力されるように基礎音声を設定する。   When the basic voice information is retrieved, the control unit 11 sets the retrieved basic voice as the motion corresponding voice in the sound effect information storage unit 12a in association with the motion type (step S304). Here, when the basic sound is set as the motion-corresponding sound, the control unit 11 has the sound effect (basic sound or converted sound) in the game using the generated sound effect information based on the analyzed motion information. The basic audio is set so that it is output at some appropriate timing.

すなわち、例えば本例においては、制御部11は、キャラクタの動作種類が「歩行」であると特定するために用いた動作情報と、それを表示するために使用されるキャラクタの画像情報とを参照して、「歩行」の動作を表現する複数のフレームのうち、キャラクタの足が地面に接するフレームで「歩行音」が出力されるように発音タイミングを設定する。   That is, for example, in this example, the control unit 11 refers to the motion information used to specify that the character's motion type is “walking” and the character image information used to display the motion information. Then, the sound generation timing is set so that the “walking sound” is output in the frame in which the character's foot is in contact with the ground among the plurality of frames expressing the motion of “walking”.

動作対応音声を設定すると、制御部11は、環境情報と基礎音声とを用いて動作種類に対応する変換音声を設定し(ステップS305)、ここでの処理を終了して効果音情報生成処理におけるステップS107に遷移する(図8参照)。   When the action-corresponding sound is set, the control unit 11 sets the converted sound corresponding to the action type using the environment information and the basic sound (step S305), ends the process here, and in the sound effect information generation process The process proceeds to step S107 (see FIG. 8).

以上に説明したように、上述した実施の形態では、ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成装置100が、動作種類と基礎音声とが対応付けされた基礎音声情報を記憶する基礎音声情報記憶部12aと、キャラクタの動作種類と動作対応音声とを含む効果音情報を記憶する効果音情報記憶部12bとを備え、操作指示に応じてキャラクタの動作を制御し、キャラクタの動作を検出し、検出されたキャラクタの動作に対応する動作種類を特定し、基礎音声情報記憶部12aに記憶された基礎音声情報の中から、特定された動作種類に応じた基礎音声情報を検索し、検索された基礎音声情報に含まれる基礎音声を、動作対応音声として効果音情報に設定することで効果音情報を生成する構成としているので、キャラクタの動作に応じて出力される効果音に関する効果音情報を、より少ない作業工数で効果的に生成することができるようになる。   As described above, in the above-described embodiment, the sound effect information generating apparatus 100 that generates sound effect information related to sound effects that are output according to the action of the character used in the video game has the action type and the basic sound. Are provided with a basic sound information storage unit 12a for storing basic sound information associated with and a sound effect information storage unit 12b for storing sound effect information including the action type of the character and the action corresponding sound. The motion of the character is controlled accordingly, the motion of the character is detected, the motion type corresponding to the detected motion of the character is identified, and is identified from the basic speech information stored in the basic speech information storage unit 12a. It is effective by searching basic voice information according to the type of motion and setting the basic voice included in the searched basic voice information as sound corresponding to movement in the sound effect information. Since a configuration for generating information, sound effect information about the sound effect to be output in response to operation of the character, it is possible to effectively produce a smaller number of working steps.

すなわち、キャラクタの動作に応じた効果音情報を生成する作業負荷を軽減することができるようになる。   That is, it is possible to reduce the work load for generating sound effect information corresponding to the character's motion.

また、上述した実施の形態では、効果音情報生成装置100が、表示部13の表示画面上にキャラクタを表示し、オペレータからの操作指示の入力を受け付け、受け付けた操作指示に応じてキャラクタの動作を制御する構成としているので、オペレータがキャラクタの動作を確認しながら効果音の設定を行なうことができるようになる。   In the above-described embodiment, the sound effect information generating apparatus 100 displays a character on the display screen of the display unit 13, receives an operation instruction input from the operator, and moves the character according to the received operation instruction. Therefore, the operator can set sound effects while confirming the action of the character.

また、上述した実施の形態では、基礎音声情報が、音声が発生する音声発生条件を示す効果音声発生条件情報を備え、効果音情報生成装置100が、動作種類が音声発生条件を満たしているか判定し、特定された動作種類が音声発生条件を満たしていると判定された場合に、基礎音声情報を検索する構成としているので、キャラクタが効果音を発生するべき動作を行った場合にのみ基礎音声情報の検索を行うことができ、処理効率を向上させることができるようになる。   In the above-described embodiment, the basic sound information includes sound effect generating condition information indicating sound generating conditions for generating sound, and the sound effect information generating device 100 determines whether the operation type satisfies the sound generating conditions. However, when it is determined that the specified action type satisfies the sound generation condition, the basic sound information is searched. Therefore, only when the character performs an action that should generate a sound effect, the basic sound is detected. Information can be searched and the processing efficiency can be improved.

また、上述した実施の形態では、基礎音声情報が、前記基礎音声に対応付けされた音声設定条件を示す音声設定条件情報を備え、効果音情報生成装置100が、キャラクタが音声設定条件を満たしているかを判定し、キャラクタが音声設定条件を満たす基礎音声情報を検索する構成としているので、例えば複数のキャラクタを有するビデオゲームなどにおいて、各キャラクタの特徴に応じた効果音を設定することができるようになる。   In the above-described embodiment, the basic voice information includes voice setting condition information indicating a voice setting condition associated with the basic voice, and the sound effect information generating apparatus 100 determines that the character satisfies the voice setting condition. Since the basic voice information satisfying the voice setting condition is searched for by the character, for example, in a video game having a plurality of characters, sound effects can be set according to the characteristics of each character. become.

また、上述した実施の形態では、効果音情報生成装置100が、効果音情報記憶部12bに記憶された効果音情報を参照して、特定された動作種類に応じた動作対応音声が既に設定されていないかを判定し、動作種類に対応する動作対応音声が設定されていないと判定された場合に基礎音声情報の検索を行う構成としているので、既に効果音が設定いるものに対して再度効果音を設定しまうといった無駄な処理を回避することができ、処理効率を向上させることができるようになる。   Further, in the above-described embodiment, the sound effect information generation apparatus 100 refers to the sound effect information stored in the sound effect information storage unit 12b, and the action-corresponding sound corresponding to the specified action type has already been set. It is configured to search for basic audio information when it is determined that the operation compatible voice corresponding to the operation type is not set. It is possible to avoid useless processing such as setting a sound and improve processing efficiency.

また、上述した実施の形態では、効果音情報生成装置100が、キャラクタが存在するゲーム空間の環境を示す環境情報を記憶する環境情報記憶部12dを備え、基礎音声情報を環境情報に応じて変更する構成としているので、同じキャラクタの動作であっても、周囲の環境に併せてことなる効果音を設定することができるようになり、よりリアリティのある効果音の設定を行なうことができるようになる。   In the embodiment described above, the sound effect information generating apparatus 100 includes the environment information storage unit 12d that stores environment information indicating the environment of the game space where the character exists, and changes the basic sound information according to the environment information. Because it is configured to be able to set different sound effects according to the surrounding environment even with the same character's movement, so that more realistic sound effects can be set Become.

また、上述した実施の形態では、効果音情報生成装置100が、キャラクタに設定した仮想センサによってキャラクタの動作を検出する構成としているので、キャラクタに設定する仮想センサの位置や数を調節することにより、キャラクタの動作検出精度と処理負荷とのバランスを調節することができるようになる。   In the above-described embodiment, the sound effect information generating apparatus 100 is configured to detect the motion of the character by the virtual sensor set to the character. Therefore, by adjusting the position and number of the virtual sensors set to the character. The balance between the character motion detection accuracy and the processing load can be adjusted.

なお、上述した実施の形態では、制御部11が、効果音情報生成処理にて成立条件の確認をした後にキャラクタ情報の確認をする構成としていた(図10参照)。しかし、処理の順番はこれに限定されない。すなわち、例えば、制御部11が、効果音情報生成処理の最初に、効果音情報の生成対象とするキャラクタのキャラクタ情報を確認し、効果音情報として設定される可能性のない基礎音声情報を検索対象から除外する構成としてもよい。   In the embodiment described above, the control unit 11 confirms the character information after confirming the establishment condition in the sound effect information generation process (see FIG. 10). However, the order of processing is not limited to this. That is, for example, at the beginning of the sound effect information generation process, the control unit 11 confirms the character information of the character for which sound effect information is to be generated, and searches for basic sound information that is not likely to be set as sound effect information. It is good also as a structure excluded from object.

なお、上述した実施の形態では、キャラクタに仮想センサを取り付けることでゲーム空間におけるキャラクタの動作を検出したが、キャラクタの動作の検出方法はこれに限定されず、例えばオペレータによるキャラクタの操作内容(入力コマンド)とゲーム空間を構成する空間座標系からキャラクタの動作種類を特定したり、ゲーム空間内において公知のモーションキャプチャを用いたり、物理シミュレーションを利用したりする構成としてもよい。また、仮想センサを取り付けた後は、制御部11が予め決められたプログラム処理に応じてキャラクタを動作制御し、キャラクタが実行可能な全ての動作を行わせることで効果音情報を生成する構成としてもよい。   In the above-described embodiment, the movement of the character in the game space is detected by attaching a virtual sensor to the character. However, the method for detecting the movement of the character is not limited to this. (Command) and the space coordinate system constituting the game space, the character motion type may be specified, a known motion capture may be used in the game space, or a physical simulation may be used. In addition, after the virtual sensor is attached, the control unit 11 controls the motion of the character according to a predetermined program process, and generates sound effect information by performing all the motions that the character can execute. Also good.

なお、上述した実施の形態では特に言及していないが、効果音情報に設定する音声情報(例えば、動作対応音声)は、オペレータが任意に基礎音声情報から選択することができる構成としてもよい。また、オペレータの操作に応じたキャラクタの動作を記憶し、効果音情報を生成した後に、効果音とキャラクタの動作を併せて再生することができる構成としてもよい。このような構成とすることにより、例えばオペレータにとってキャラクタの動作に設定された効果音が好ましいものではなかった場合に、その部分を修正することができるようになり、より適切な効果音を生成することができるようになる。   Although not particularly mentioned in the above-described embodiment, the voice information (for example, motion-corresponding voice) set in the sound effect information may be arbitrarily selected by the operator from the basic voice information. Further, it may be configured such that the action of the character according to the operation of the operator is stored and the sound effect information is generated, and then the sound effect and the action of the character can be reproduced together. By adopting such a configuration, for example, when the sound effect set in the action of the character is not preferable for the operator, the portion can be corrected, and a more appropriate sound effect is generated. Will be able to.

なお、上述した実施の形態では特に言及していないが、効果音情報生成装置100は、生成した効果音情報をゲームカートリッジに書き込む情報書き込み部を備えた構成としてもよい。   Although not particularly mentioned in the above-described embodiment, the sound effect information generating apparatus 100 may be configured to include an information writing unit that writes the generated sound effect information into the game cartridge.

なお、上述した実施の形態では、ビデオゲームのキャラクタに対する効果音情報を生成する場合について説明を行なったが、生成する効果音情報の対象はこれに限定されず、例えばアニメーションにおけるキャラクタを対象としてもよい。   In the embodiment described above, the case of generating sound effect information for a video game character has been described. However, the target of sound effect information to be generated is not limited to this. Good.

本発明によれば、手作業によりキャラクタの動作に効果音を貼り付けることなく、キャラクタの動作に応じた効果音を出力させるのに有用である。   According to the present invention, it is useful for outputting a sound effect corresponding to a character's motion without manually applying the sound effect to the character's motion.

10 プログラム読み取り部
11 制御部
12 記憶部
13 表示部
14 音声出力部
15 操作受付部
16 キャラクタ動作検出解析部
100 効果音情報生成装置
DESCRIPTION OF SYMBOLS 10 Program reading part 11 Control part 12 Storage part 13 Display part 14 Audio | voice output part 15 Operation reception part 16 Character action detection analysis part 100 Sound effect information generation apparatus

Claims (9)

ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成装置であって、
前記動作の種類(以下、「動作種類」という。)と基礎音声とを含む基礎音声情報を記憶する基礎音声情報記憶手段と
操作指示に応じて前記キャラクタの動作を制御するキャラクタ動作制御手段と、
前記キャラクタの動作を検出するキャラクタ動作検出手段と、
該キャラクタ動作検出手段により検出された動作に対応する動作種類を特定する動作種類特定手段と、
前記基礎音声情報記憶手段に記憶された基礎音声情報の中から、前記動作種類特定手段により特定された動作種類に応じた基礎音声情報を検索する基礎音声情報検索手段と、
該基礎音声情報検索手段により検索された基礎音声情報に含まれる基礎音声と、前記動作種類特定手段により特定された動作種類とを含む効果音情報を生成する効果音情報生成手段とを含む
ことを特徴とする効果音情報生成装置。
A sound effect information generating device for generating sound effect information related to a sound effect that is output according to the action of a character used in a video game,
Basic audio information storage means for storing basic audio information including the type of operation (hereinafter referred to as “ operation type ”) and basic audio ;
Character action control means for controlling the action of the character in response to an operation instruction;
Character action detecting means for detecting the action of the character;
An operation type specifying means for specifying the behavior type that corresponds to the operation detected by the character movement detecting means,
Among the basic sound information basic audio information stored in the storage means, and basic sound information retrieving means for retrieving foundation audio information corresponding to the operation type specified by the operation type specifying means,
Comprising a foundation sound that is part of the basic audio information retrieved by the basic sound information retrieving means, and the effect sound information generation means for generating a sound effect information including the operation type specified by the operation type specifying means A sound effect information generating apparatus characterized by the above.
表示画面上に前記キャラクタを表示する表示手段と、
オペレータからの操作指示の入力を受け付ける入力受付手段とを含み、
前記キャラクタ動作制御手段は、前記入力受付手段により受け付けた操作指示に応じて前記キャラクタの動作を制御する
請求項1記載の効果音情報生成装置。
Display means for displaying the character on a display screen;
Input receiving means for receiving an input of an operation instruction from an operator,
The sound effect information generating apparatus according to claim 1, wherein the character action control unit controls the action of the character in accordance with an operation instruction received by the input receiving unit.
前記基礎音声情報は、音声が発生する条(以下、「音声発生条件」という。)含み、
前記基礎音声情報検索手段は、前記基礎音声情報記憶手段を参照して、前記動作種類特定手段により特定された動作種類が対応する音声発生条件を満たしている場合に、前記基礎音声情報検索を行う
請求項1または請求項2記載の効果音情報生成装置。
The basic audio information, conditions (hereinafter referred to as. "Voice generation conditions") sound that occur include,
The basic sound information retrieval means, by referring to the basic sound information storing means, in case the identified operation type that meets the corresponding voice generation condition by the operation type specifying means, search of the basic sound information The sound effect information generation device according to claim 1 or 2.
前記基礎音声情報は、前記基礎音声に対応付けされた音声設定条件を含み
前記基礎音声情報検索手段は、前記基礎音声情報記憶手段を参照して、前記キャラクタが前記音声設定条件を満たす基礎音声情報を検索する
請求項1から請求項3のうちいずれかに記載の効果音情報生成装置。
The basic voice information includes a voice setting condition associated with the basic voice,
The basic sound information retrieval means, by referring to the basic voice information storage means, said character according to any one of claims 1 to 3 to find the foundation audio information that meets the voice setting condition Sound effect information generator.
前記効果音情報生成手段により生成された効果音情報を記憶する効果音情報記憶手段を含み、
前記基礎音声情報検索手段は、前記効果音情報記憶手段を参照して、前記動作種類特定手段により特定された動作種類を含む効果音情報が生成されていない場合に前記基礎音声情報の検索を行う
請求項1から請求項4のうちいずれかに記載の効果音情報生成装置。
Including sound effect information storing means for storing sound effect information generated by the sound effect information generating means,
The basic sound information retrieval means, by referring to the sound effect information storage means, when the sound effect information including the operation type specified is not generated by the operation type specifying means, a search of the basic sound information The sound effect information generating device according to any one of claims 1 to 4.
前記キャラクタが存在するゲーム空間の環境を示す環境情報を記憶する環境情報記憶手段を含み、
前記効果音情報生成手段は、前記基礎音声情報検索手段により検索された基礎音声情報に含まれる基礎音声が前記環境情報を用いて変換された音声を含む効果音情報を生成する
請求項1から請求項5のうちいずれかに記載の効果音情報生成装置。
Environmental information storage means for storing environmental information indicating the environment of the game space in which the character exists,
The sound effect information generating unit generates sound effect information including a sound obtained by converting a basic sound included in the basic sound information searched by the basic sound information searching unit using the environment information. Item 6. The sound effect information generation device according to any one of Items 5 to 6.
前記キャラクタ動作検出手段は、前記キャラクタに設定した仮想センサによって前記キャラクタの動作を検出する
請求項1から請求項6のうちいずれかに記載の効果音情報生成装置。
The sound effect information generation device according to any one of claims 1 to 6, wherein the character motion detection means detects the motion of the character by a virtual sensor set for the character.
ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成方法であって、
操作指示に応じて前記キャラクタの動作を制御するキャラクタ動作制御処理と、
前記キャラクタの動作を検出するキャラクタ動作検出処理と、
該キャラクタ動作検出処理にて検出された動作に対応する動作の種類(以下、「動作種類」という。)を特定する動作種類特定処理と、
前記動作種類と基礎音声とを含む基礎音声情報を記憶する基礎音声情報記憶手段に記憶された基礎音声情報の中から、前記動作種類特定処理にて特定された動作種類に応じた基礎音声情報を検索する基礎音声情報検索処理と、
該基礎音声情報検索処理にて検索された基礎音声情報に含まれる基礎音声と、前記動作種類特定処理にて特定された動作種類とを含む効果音情報を生成する効果音情報生成処理とを含む
ことを特徴とする効果音情報生成方法。
A sound effect information generation method for generating sound effect information related to a sound effect that is output in accordance with the action of a character used in a video game,
A character action control process for controlling the action of the character in response to an operation instruction;
A character motion detection process for detecting the motion of the character;
Type of operation corresponding to the detected operating at the character motion detection processing (hereinafter, referred to as. "Operation Type") and operation type specifying process of specifying a
From the basic sound information stored in the basic voice information storage means for storing basic audio information including the operation type and basic voice, the basic sound information corresponding to the operation type specified by the operation type specifying process Basic voice information search processing to search,
A foundation sound that is part of the basic audio information retrieved by the basic sound information retrieving process, the sound effect information generating process for generating a sound effect information including the operation type specified by the operation type specifying process A sound effect information generation method characterized by comprising:
ビデオゲームで用いられるキャラクタの動作に応じて出力される効果音に関する効果音情報を生成する効果音情報生成装置に動作制御させるための効果音情報生成プログラムであって、
前記効果音情報生成装置に、
操作指示に応じて前記キャラクタの動作を制御するキャラクタ動作制御機能と、
前記キャラクタの動作を検出するキャラクタ動作検出機能と、
該キャラクタ動作検出機能によりて検出した動作に対応する動作の種類(以下、「動作種類」という。)を特定する動作種類特定機能と、
前記動作種類と基礎音声とを含む基礎音声情報を記憶する基礎音声情報記憶手段に記憶された基礎音声情報の中から、前記動作種類特定機能により特定した動作種類に応じた基礎音声情報を検索する基礎音声情報検索機能と、
該基礎音声情報検索機能により検索した基礎音声情報に含まれる基礎音声と、前記動作種類特定機能により特定した動作種類とを含む効果音情報を生成する効果音情報生成機能とを
実現させるための効果音情報生成プログラム。
A sound effect information generation program for causing a sound effect information generation device that generates sound effect information related to a sound effect output according to a motion of a character used in a video game to perform operation control,
In the sound effect information generation device,
A character motion control function for controlling the motion of the character in response to an operation instruction;
A character motion detection function for detecting the motion of the character;
Type of operation corresponding to the operation detected by by the character motion detection function (hereinafter, referred to as. "Operation Type") and operation type specifying function for specifying a,
From among the operation type and basic audio information stored in the basic voice information storage means for storing basic audio data including a basic audio, retrieves the basic sound information corresponding to the operation type specified by the operation type specific function Basic voice information search function ,
A foundation sound that is part of the basic audio information retrieved by the basic audio information retrieving function, and the effect sound information generation function of generating a sound effect information including the operation type specified by the operation type specific function
Sound effect information generation program for realizing .
JP2009285336A 2009-12-16 2009-12-16 Sound effect information generating device, sound effect information generating method, and sound effect information generating program Active JP5546846B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009285336A JP5546846B2 (en) 2009-12-16 2009-12-16 Sound effect information generating device, sound effect information generating method, and sound effect information generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009285336A JP5546846B2 (en) 2009-12-16 2009-12-16 Sound effect information generating device, sound effect information generating method, and sound effect information generating program

Publications (2)

Publication Number Publication Date
JP2011125435A JP2011125435A (en) 2011-06-30
JP5546846B2 true JP5546846B2 (en) 2014-07-09

Family

ID=44288708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009285336A Active JP5546846B2 (en) 2009-12-16 2009-12-16 Sound effect information generating device, sound effect information generating method, and sound effect information generating program

Country Status (1)

Country Link
JP (1) JP5546846B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5905687B2 (en) * 2011-09-09 2016-04-20 株式会社カプコン GAME PROGRAM AND GAME DEVICE
JP6329616B1 (en) * 2016-11-28 2018-05-23 株式会社スクウェア・エニックス Program, computer apparatus, and determination method
JP6797867B2 (en) * 2018-07-23 2020-12-09 株式会社カプコン Game program and game equipment
JP7399623B2 (en) * 2019-03-25 2023-12-18 株式会社バンダイナムコエンターテインメント Game systems, programs and game devices
JP7398199B2 (en) * 2019-03-25 2023-12-14 株式会社バンダイナムコエンターテインメント Game systems, programs and game devices
JP6923593B2 (en) * 2019-06-04 2021-08-25 株式会社カプコン Game program and game system
CN114189738B (en) * 2021-12-17 2023-06-30 中国传媒大学 Sound effect synthesis method, device, electronic equipment and storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3168781B2 (en) * 1993-09-02 2001-05-21 株式会社セガ Image and audio processing device
US6115036A (en) * 1994-10-31 2000-09-05 Nintendo Co., Ltd. Video game/videographics program editing apparatus with program halt and data transfer features
JPH11347250A (en) * 1998-06-04 1999-12-21 Enix Corp Video game device and recording medium storing program
JP4688267B2 (en) * 2000-09-20 2011-05-25 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2004054300A (en) * 2001-11-13 2004-02-19 Equos Research Co Ltd On-vehicle device, data creation apparatus and data creation program
JP3546209B1 (en) * 2003-06-30 2004-07-21 株式会社コナミコンピュータエンタテインメント東京 GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
JP4372571B2 (en) * 2004-02-06 2009-11-25 任天堂株式会社 GAME DEVICE AND GAME PROGRAM
JP3822883B2 (en) * 2004-04-27 2006-09-20 株式会社コナミデジタルエンタテインメント Game software and game device
JP5146813B2 (en) * 2005-09-09 2013-02-20 株式会社セガ GAME DEVICE, GAME SYSTEM, AND GAME SYSTEM SOUND SOUND GENERATION METHOD
JP3962079B1 (en) * 2006-02-16 2007-08-22 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM

Also Published As

Publication number Publication date
JP2011125435A (en) 2011-06-30

Similar Documents

Publication Publication Date Title
JP5546846B2 (en) Sound effect information generating device, sound effect information generating method, and sound effect information generating program
JP5036797B2 (en) Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program
JP4410284B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
US20110293144A1 (en) Method and System for Rendering an Entertainment Animation
CN102441276A (en) Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
JP4397421B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
US20230186541A1 (en) System for customizing in-game character animations by players
JP3792502B2 (en) Thinking support system
WO2020003670A1 (en) Information processing device and information processing method
US8500555B2 (en) Input device and game device provided therewith
JP2010233742A (en) Game device, operation determination method, and program
JP6032710B2 (en) Simulation apparatus and program
US9421469B2 (en) Game machine, game system, game machine control method, and information storage medium
JP7144931B2 (en) Program and game system
JP2009131360A (en) Portable terminal, program and information storage medium
JP6329616B1 (en) Program, computer apparatus, and determination method
JP7138204B2 (en) Gap Simulation of Stretchable Characters in Computer Games
JP2008033964A (en) Image generating apparatus and information storage medium
Figueiredo et al. An open-source framework for air guitar games
JP3822883B2 (en) Game software and game device
JP6576544B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP3822882B2 (en) GAME PROGRAM AND GAME DEVICE
JP4467590B2 (en) Drawing apparatus, drawing method, and drawing program
JP4476255B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP5462851B2 (en) GAME DEVICE, EVALUATION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140514

R150 Certificate of patent or registration of utility model

Ref document number: 5546846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250