JP2007014444A - Game apparatus, and control method and program therefor - Google Patents

Game apparatus, and control method and program therefor Download PDF

Info

Publication number
JP2007014444A
JP2007014444A JP2005197093A JP2005197093A JP2007014444A JP 2007014444 A JP2007014444 A JP 2007014444A JP 2005197093 A JP2005197093 A JP 2005197093A JP 2005197093 A JP2005197093 A JP 2005197093A JP 2007014444 A JP2007014444 A JP 2007014444A
Authority
JP
Japan
Prior art keywords
game
delay time
distance
event
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005197093A
Other languages
Japanese (ja)
Other versions
JP3917630B2 (en
Inventor
Yuichi Asami
祐一 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2005197093A priority Critical patent/JP3917630B2/en
Publication of JP2007014444A publication Critical patent/JP2007014444A/en
Application granted granted Critical
Publication of JP3917630B2 publication Critical patent/JP3917630B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game apparatus which enables the ideal expression of the way a player's ears hear a sound emitted at a distant position being delayed with a relatively simple structure. <P>SOLUTION: A judgment part 76 judges whether a pronounciative event is generated in a game or not. A voice output control part 88 starts the output of voices corresponding to the pronounciative event according to the result of the judgment by the judgment part 76. A distance information acquisition part 80 acquires distance information pertaining to the distance between the pronunciation position corresponding to the pronounciative event and the given reference position. A delay control part 82 controls the length of the time to the timing of starting the output of voice by the voice output control part 88 from the timing at which the pronounciative event is judged to be generated by the judgment part 76 based on the distance information acquired by the distance information acquisition part 80. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はゲーム装置、ゲーム装置の制御方法及びプログラムに関する。   The present invention relates to a game apparatus, a game apparatus control method, and a program.

ゲームにおいて発音イベントが発生した場合に所定音声を出力させるゲーム装置が知られている。例えば、3次元ゲーム空間に配置される所定オブジェクトに他のオブジェクトが衝突した場合に、該所定オブジェクトが爆発する様子をゲーム画面に表示するとともに、その爆発音を出力するようにしたゲーム装置が知られている(特許文献1)。
特開平11−47442号公報
There is known a game device that outputs a predetermined sound when a sounding event occurs in a game. For example, when a predetermined object placed in a three-dimensional game space collides with another object, a game apparatus that displays the explosion of the predetermined object on the game screen and outputs the explosion sound is known. (Patent Document 1).
Japanese Patent Laid-Open No. 11-47442

以上のようなゲーム装置では、離れた位置で発せられた音がプレイヤの耳に遅れて聞こえる様子を好適に表現できるようになると、ゲームのリアリティを向上できるようになり、ゲームの興趣を向上できるようになる。   In the game device as described above, when it is possible to appropriately express the sound emitted at a distant position behind the ears of the player, the reality of the game can be improved, and the interest of the game can be improved. It becomes like this.

本発明は上記課題に鑑みてなされたものであって、その目的は、離れた位置で発せられた音がプレイヤの耳に遅れて聞こえる様子を比較的簡易な構成で好適に表現できるようになるゲーム装置、ゲーム装置の制御方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to be able to suitably express a state in which a sound emitted at a distant position is heard behind a player's ear with a relatively simple configuration. A game device, a game device control method, and a program are provided.

上記課題を解決するために、本発明に係るゲーム装置は、ゲームを実行するゲーム装置において、前記ゲームにおいて発音イベントが発生したか否かを判定する判定手段と、前記判定手段による判定結果に応じて、前記発音イベントに対応する音声の出力を開始する音声出力制御手段と、前記発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得する距離情報取得手段と、前記判定手段によって前記発音イベントが発生したと判定されたタイミングから、前記音声出力制御手段によって前記音声の出力が開始されるタイミングまでの時間の長さを、前記距離情報取得手段によって取得される距離情報に基づいて制御する遅延制御手段と、を含むことを特徴とする。   In order to solve the above-described problems, a game device according to the present invention is a game device that executes a game, in accordance with a determination unit that determines whether a sounding event has occurred in the game, and a determination result by the determination unit Distance information acquisition for acquiring distance information regarding the distance between the sound output control means for starting the sound output corresponding to the sounding event, the sounding position corresponding to the sounding event, and the given reference position And the distance information acquisition means obtains the length of time from the timing when the sound generation event is determined by the determination means and the timing when the sound output control means starts the output of the sound. Delay control means for controlling based on the distance information.

また、本発明に係るゲーム装置の制御方法は、ゲームを実行するゲーム装置の制御方法において、前記ゲームにおいて発音イベントが発生したか否かを判定するための判定ステップと、前記判定ステップによる判定結果に応じて、前記発音イベントに対応する音声の出力を開始するための音声出力制御ステップと、前記発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得するための距離情報取得ステップと、前記判定ステップによって前記発音イベントが発生したと判定されたタイミングから、前記音声出力制御ステップによって前記音声の出力が開始されるタイミングまでの時間の長さを、前記距離情報取得ステップによって取得される距離情報に基づいて制御するための遅延制御ステップと、を含むことを特徴とする。   The game device control method according to the present invention includes a determination step for determining whether or not a sounding event has occurred in the game, and a determination result by the determination step in the game device control method for executing a game. In response, a sound output control step for starting output of sound corresponding to the pronunciation event, and distance information relating to a distance between the sound generation position corresponding to the sound generation event and a given reference position are acquired. A distance information acquisition step for performing, and a time length from a timing at which the sounding event is determined by the determination step to a timing at which the audio output is started by the audio output control step, A delay control step for controlling based on the distance information acquired by the distance information acquisition step; And wherein the Mukoto.

また、本発明に係るプログラムは、ゲームを実行するゲーム装置として、家庭用ゲーム機、携帯用ゲーム機、業務用ゲーム機、携帯電話機、携帯情報端末(PDA)やパーソナルコンピュータなどのコンピュータを機能させるためのプログラムであって、前記ゲームにおいて発音イベントが発生したか否かを判定する判定手段、前記判定手段による判定結果に応じて、前記発音イベントに対応する音声の出力を開始する音声出力制御手段、前記発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得する距離情報取得手段、及び、前記判定手段によって前記発音イベントが発生したと判定されたタイミングから、前記音声出力制御手段によって前記音声の出力が開始されるタイミングまでの時間の長さを、前記距離情報取得手段によって取得される距離情報に基づいて制御する遅延制御手段、として前記コンピュータを機能させるためのプログラムである。   The program according to the present invention causes a computer such as a home game machine, a portable game machine, an arcade game machine, a mobile phone, a personal digital assistant (PDA), or a personal computer to function as a game device that executes a game. Determining means for determining whether or not a sounding event has occurred in the game, and sound output control means for starting output of sound corresponding to the sounding event in accordance with a determination result by the determining means , Distance information acquisition means for acquiring distance information regarding the distance between the sound generation position corresponding to the sound generation event and a given reference position, and timing when the sound generation event is determined to have occurred by the determination means To the timing at which the audio output control means starts the output of the audio. Is a program for causing the computer to function as a delay control means, for controlling on the basis of the distance information acquired by the distance information acquisition means.

また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。また、本発明に係るプログラム配信装置は、上記プログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信装置である。また、本発明に係るプログラム配信方法は、上記プログラムを記録した情報記憶媒体を備え、当該情報記憶媒体から上記プログラムを読み出し、配信するプログラム配信方法である。   An information storage medium according to the present invention is a computer-readable information storage medium recording the above program. A program distribution apparatus according to the present invention is a program distribution apparatus that includes an information storage medium that records the program, reads the program from the information storage medium, and distributes the program. A program distribution method according to the present invention is a program distribution method that includes an information storage medium storing the program, reads the program from the information storage medium, and distributes the program.

本発明では、ゲームにおいて発音イベントが発生したか否かが判定される。そして、その判定結果に応じて、発音イベントに対応する音声の出力が開始される。ただし、発音イベントが発生したと判定されたタイミングから、発音イベントに対応する音声の出力が開始されるタイミングまでの時間の長さが、発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報に基づいて制御される。本発明によれば、離れた位置で発せられた音がプレイヤの耳に遅れて聞こえる様子を比較的簡易な構成で好適に表現できるようになる。   In the present invention, it is determined whether or not a pronunciation event has occurred in the game. And according to the determination result, the output of the sound corresponding to the sounding event is started. However, the length of time from the time when it is determined that the sounding event has occurred to the time when the output of the sound corresponding to the sounding event is started depends on the sounding position corresponding to the sounding event and the given reference position. , Based on distance information regarding the distance between. According to the present invention, it is possible to suitably represent a state in which a sound emitted at a distant position is heard behind a player's ear with a relatively simple configuration.

また、本発明の一態様では、発音体を表す発音オブジェクトが配置される3次元ゲーム空間を所与の視点から見た様子を表すゲーム画面を表示する表示手段と、前記判定手段による判定結果に応じて、前記発音イベントに対応する変化を前記ゲーム画面に与える表示制御手段と、を含み、前記判定手段は、前記発音オブジェクトに関連する発音イベント発生条件が満足されたか否かを判定し、前記発音位置は、前記発音オブジェクトの位置であり、前記基準位置は、前記視点の位置又は前記3次元ゲーム空間に配置される操作対象オブジェクトの位置であってもよい。こうすれば、いわゆる3次元ゲームにおいて、離れた位置で発せられた音がプレイヤの耳に遅れて聞こえる様子を比較的簡易な構成で好適に表現できるようになる。   In one aspect of the present invention, a display means for displaying a game screen representing a state in which a three-dimensional game space in which a sounding object representing a sounding body is arranged is viewed from a given viewpoint, and a determination result by the determination means. And a display control means for giving a change corresponding to the sounding event to the game screen, wherein the determining means determines whether or not a sounding event occurrence condition related to the sounding object is satisfied, The sound generation position may be the position of the sound generation object, and the reference position may be the position of the viewpoint or the position of the operation target object arranged in the three-dimensional game space. In this way, in a so-called three-dimensional game, it is possible to suitably represent a state in which sounds emitted at a distant position are heard behind the ears of the player with a relatively simple configuration.

また、本発明の一態様では、前記遅延制御手段は、前記距離情報取得手段によって取得される距離情報に基づいて、遅延時間を取得する遅延時間取得手段と、前記判定手段によって前記発音イベントが発生したと判定されたタイミングの後、少なくとも前記遅延時間取得手段によって取得された遅延時間が経過したか否かを監視する監視手段と、を含み、前記監視手段による監視結果に応じて、前記音声出力制御手段に前記音声の出力を開始させるようにしてもよい。こうすれば、発音イベントが発生したと判断されてから、「該発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報に基づいて決定される遅延時間」が少なくとも経過した後に、該発音イベントに対応する音声の出力を開始させることが可能になる。   In the aspect of the invention, the delay control unit may generate the sounding event by the delay time acquisition unit that acquires a delay time based on the distance information acquired by the distance information acquisition unit and the determination unit. Monitoring means for monitoring whether or not at least the delay time acquired by the delay time acquisition means has passed after the timing determined to have been performed, and according to a monitoring result by the monitoring means, the audio output You may make it a control means start the said audio | voice output. In this way, after it is determined that the sounding event has occurred, “the delay time determined based on the distance information regarding the distance between the sounding position corresponding to the sounding event and the given reference position” is At least after elapse, it becomes possible to start outputting the sound corresponding to the sounding event.

また、本発明の一態様では、前記遅延時間取得手段は、前記距離情報に対する条件を示す距離条件情報に対応づけて、前記遅延時間を示す遅延時間情報を記憶する遅延時間情報記憶手段を含み、前記距離情報取得手段によって取得される距離情報によって満足される距離条件情報に対応づけて前記遅延時間情報記憶手段に記憶される遅延時間情報を読み出し、該遅延時間情報によって示される遅延時間を取得するようにしてもよい。こうすれば、遅延時間の取得に係る処理を比較的簡易な処理にすることが可能になる。   In one aspect of the present invention, the delay time acquisition means includes delay time information storage means for storing delay time information indicating the delay time in association with distance condition information indicating a condition for the distance information, The delay time information stored in the delay time information storage means is read in association with the distance condition information satisfied by the distance information acquired by the distance information acquisition means, and the delay time indicated by the delay time information is acquired. You may do it. In this way, it is possible to make the process relating to the acquisition of the delay time a relatively simple process.

また、本発明の一態様では、前記発音イベントに対応する音声に対応づけて、複数のグループ識別情報のうちのいずれかを記憶するグループ識別情報記憶手段を含み、前記遅延時間情報記憶手段は、前記距離条件情報と前記グループ識別情報との組み合わせに対応づけて前記遅延時間情報を記憶し、前記遅延時間取得手段は、前記距離情報取得手段によって取得される距離情報によって満足される距離条件情報と、前記発音イベントに対応する音声に対応づけて前記グループ識別情報記憶手段に記憶されるグループ識別情報と、の組み合わせに対応づけて前記遅延時間情報記憶手段に記憶される遅延時間情報を読み出し、該遅延時間情報によって示される遅延時間を取得するようにしてもよい。こうすれば、発音位置と基準位置との間の距離に関する距離情報と、遅延時間と、の関係を音声の属するグループごとに変えることが可能になる。その結果、音声の特徴(例えば、高音であるか低音であるか等)に基づいてグループ分けを行うことにより、音声の特徴に基づいて、発音位置と基準位置との間の距離に関する距離情報と、遅延時間と、の関係を変えることが可能になる。   Further, in one aspect of the present invention, it includes group identification information storage means for storing any one of a plurality of group identification information in association with the sound corresponding to the pronunciation event, and the delay time information storage means is The delay time information is stored in association with a combination of the distance condition information and the group identification information, and the delay time acquisition means is distance condition information satisfied by the distance information acquired by the distance information acquisition means; The delay time information stored in the delay time information storage means in association with the combination of the group identification information stored in the group identification information storage means in association with the sound corresponding to the pronunciation event, You may make it acquire the delay time shown by delay time information. In this way, the relationship between the distance information regarding the distance between the sound generation position and the reference position and the delay time can be changed for each group to which the sound belongs. As a result, by performing grouping based on the characteristics of the voice (for example, whether the sound is high or low), based on the characteristics of the voice, distance information regarding the distance between the sound generation position and the reference position and It becomes possible to change the relationship with the delay time.

また、本発明の一態様では、前記遅延時間取得手段は、前記距離情報取得手段によって取得される距離情報に基づいて所定の演算処理を実行することによって、前記遅延時間を取得するようにしてもよい。こうすれば、発音位置と基準位置との間の距離に関する距離情報に基づき所定の演算処理を実行することによって、遅延時間を取得できるようになる。   In the aspect of the invention, the delay time acquisition unit may acquire the delay time by executing a predetermined calculation process based on the distance information acquired by the distance information acquisition unit. Good. In this way, the delay time can be acquired by executing a predetermined calculation process based on the distance information regarding the distance between the sound generation position and the reference position.

また、本発明の一態様では、前記発音イベントに対応する音声に対応づけて、複数のグループ識別情報のうちのいずれかを記憶するグループ識別情報記憶手段を含み、前記遅延時間取得手段は、前記発音イベントに対応する音声に対応づけて前記グループ識別情報記憶手段に記憶されるグループ識別情報に応じて、前記演算処理を異ならせるようにしてもよい。こうしても、発音位置と基準位置との間の距離に関する距離情報と、遅延時間と、の関係を音声の属するグループごとに変えることが可能になる。その結果、音声の特徴(例えば、高音であるか低音であるか等)に基づいてグループ分けを行うことにより、音声の特徴に基づいて、発音位置と基準位置との間の距離に関する距離情報と、遅延時間と、の関係を変えることが可能になる。   Further, in one aspect of the present invention, it includes group identification information storage means for storing any one of a plurality of group identification information in association with a sound corresponding to the sounding event, and the delay time acquisition means The calculation processing may be made different in accordance with group identification information stored in the group identification information storage means in association with a sound corresponding to a pronunciation event. Even in this case, the relationship between the distance information regarding the distance between the sound generation position and the reference position and the delay time can be changed for each group to which the sound belongs. As a result, by performing grouping based on the characteristics of the voice (for example, whether the sound is high or low), based on the characteristics of the voice, distance information regarding the distance between the sound generation position and the reference position and It becomes possible to change the relationship with the delay time.

以下、本発明の実施形態の一例について図面に基づき詳細に説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係るゲーム装置の構成を示す図である。同図に示すゲーム装置10は、家庭用ゲーム機11に情報記憶媒体たるDVD−ROM25及びメモリカード28が装着され、さらにモニタ18及びスピーカ22が接続されることによって構成される。例えば、モニタ18には家庭用テレビ受像機が用いられ、スピーカ22にはその内蔵スピーカが用いられる。   FIG. 1 is a diagram showing a configuration of a game device according to an embodiment of the present invention. The game apparatus 10 shown in the figure is configured by attaching a DVD-ROM 25 and a memory card 28 as information storage media to a consumer game machine 11 and further connecting a monitor 18 and a speaker 22. For example, a home television receiver is used for the monitor 18, and its built-in speaker is used for the speaker 22.

家庭用ゲーム機11は、バス12、マイクロプロセッサ14、画像処理部16、音声処理部20、DVD−ROM再生部24、主記憶26、入出力処理部30及びコントローラ32を含んで構成される公知のコンピュータゲームシステムである。コントローラ32以外の構成要素は筐体内に収容される。   The home game machine 11 includes a bus 12, a microprocessor 14, an image processing unit 16, an audio processing unit 20, a DVD-ROM playback unit 24, a main memory 26, an input / output processing unit 30, and a controller 32. It is a computer game system. Components other than the controller 32 are accommodated in a housing.

バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。マイクロプロセッサ14、画像処理部16、主記憶26及び入出力処理部30は、バス12によって相互データ通信可能に接続される。   The bus 12 is for exchanging addresses and data among the units of the consumer game machine 11. The microprocessor 14, the image processing unit 16, the main memory 26, and the input / output processing unit 30 are connected by the bus 12 so that mutual data communication is possible.

マイクロプロセッサ14は、図示しないROMに格納されるオペレーティングシステム、DVD−ROM25から読み出されるプログラムや、メモリカード28から読み出されるデータに基づいて、家庭用ゲーム機11の各部を制御する。主記憶26は、例えばRAMを含んで構成されるものであり、DVD−ROM25から読み出されたプログラムやメモリカード28から読み出されたデータが必要に応じて書き込まれる。主記憶26はマイクロプロセッサ14の作業用としても用いられる。   The microprocessor 14 controls each part of the consumer game machine 11 based on an operating system stored in a ROM (not shown), a program read from the DVD-ROM 25, and data read from the memory card 28. The main memory 26 is configured to include, for example, a RAM, and a program read from the DVD-ROM 25 and data read from the memory card 28 are written as necessary. The main memory 26 is also used for work of the microprocessor 14.

画像処理部16はVRAMを含んで構成されており、マイクロプロセッサ14から送られる画像データに基づいてVRAM上にゲーム画面を描画する。そして、その内容をビデオ信号に変換して所定のタイミングでモニタ18に出力する。   The image processing unit 16 includes a VRAM, and draws a game screen on the VRAM based on the image data sent from the microprocessor 14. Then, the content is converted into a video signal and output to the monitor 18 at a predetermined timing.

入出力処理部30は、マイクロプロセッサ14が音声処理部20、DVD−ROM再生部24、メモリカード28及びコントローラ32にアクセスするためのインタフェースである。入出力処理部30には、音声処理部20、DVD−ROM再生部24、メモリカード28及びコントローラ32が接続される。   The input / output processing unit 30 is an interface for the microprocessor 14 to access the audio processing unit 20, the DVD-ROM playback unit 24, the memory card 28, and the controller 32. An audio processing unit 20, a DVD-ROM playback unit 24, a memory card 28 and a controller 32 are connected to the input / output processing unit 30.

音声処理部20はサウンドバッファを含んで構成されており、DVD−ROM25から読み出され、該サウンドバッファに記憶されたゲーム音楽、ゲーム効果音、メッセージ等の各種音声データを再生してスピーカ22から出力する。   The sound processing unit 20 is configured to include a sound buffer, and reproduces various sound data such as game music, game sound effects, and messages read from the DVD-ROM 25 and stored in the sound buffer, from the speaker 22. Output.

DVD−ROM再生部24は、マイクロプロセッサ14からの指示に従ってDVD−ROM25に記録されたプログラムを読み取る。なお、ここではプログラムを家庭用ゲーム機11に供給するためにDVD−ROM25を用いることとするが、CD−ROMやROMカード等、他のあらゆる情報記憶媒体を用いるようにしてもよい。また、インターネット等のデータ通信網を介して遠隔地からプログラムを家庭用ゲーム機11に供給するようにしてもよい。   The DVD-ROM playback unit 24 reads a program recorded on the DVD-ROM 25 in accordance with an instruction from the microprocessor 14. Here, the DVD-ROM 25 is used to supply the program to the consumer game machine 11, but any other information storage medium such as a CD-ROM or a ROM card may be used. Further, the program may be supplied to the consumer game machine 11 from a remote place via a data communication network such as the Internet.

メモリカード28は、不揮発性メモリ(例えばEEPROM等)を含んで構成される。家庭用ゲーム機11は、メモリカード28を装着するための複数のメモリカードスロットを備えており、複数のメモリカード28を同時に装着可能となっている。メモリカード28は、このメモリカードスロットに対して脱着可能に構成され、例えばセーブデータなどの各種ゲームデータを記憶させるために用いられる。   The memory card 28 includes a nonvolatile memory (for example, EEPROM). The home-use game machine 11 includes a plurality of memory card slots for mounting the memory card 28, and the plurality of memory cards 28 can be mounted simultaneously. The memory card 28 is configured to be removable from the memory card slot, and is used for storing various game data such as saved data.

コントローラ32は、プレイヤが各種ゲーム操作の入力をするための汎用操作入力手段である。入出力処理部30は一定周期毎(例えば1/60秒毎)にコントローラ32の各部の状態をスキャンし、そのスキャン結果を表す操作信号をバス12を介してマイクロプロセッサ14に渡す。マイクロプロセッサ14は、その操作信号に基づいてプレイヤのゲーム操作を判定する。家庭用ゲーム機11は複数のコントローラ32を接続可能に構成されており、各コントローラ32から入力される操作信号に基づいて、マイクロプロセッサ14がゲーム制御を行うようになっている。   The controller 32 is general-purpose operation input means for the player to input various game operations. The input / output processing unit 30 scans the state of each unit of the controller 32 at regular intervals (for example, every 1/60 seconds), and passes an operation signal representing the scan result to the microprocessor 14 via the bus 12. The microprocessor 14 determines the player's game operation based on the operation signal. The home game machine 11 is configured so that a plurality of controllers 32 can be connected, and the microprocessor 14 performs game control based on an operation signal input from each controller 32.

図2はコントローラ32の一例を示す図である。同図に示すコントローラ32は汎用ゲームコントローラである。同図(a)に示すように、コントローラ32の表面には方向ボタン34,スタートボタン36、ボタン38X,38Y,38A,38Bが備えられている。また、同図(b)に示すように、コントローラ32の奥側側面には、表面側左右にボタン42L,42Rがそれぞれ備えられており、裏面側左右にボタン40L,40Rがそれぞれ備えられている。方向ボタン34は十字形状を有しており、通常はキャラクタやカーソルの移動方向を設定するのに用いられる。スタートボタン36は三角形状を有する小型の押しボタンであり、通常はゲームのスタートやゲームの強制終了などに用いられる。ボタン38X,38Y,38A,38B,40L,40R,42L,42Rは、その他のゲーム操作に用いられる。   FIG. 2 is a diagram illustrating an example of the controller 32. The controller 32 shown in the figure is a general-purpose game controller. As shown in FIG. 5A, the controller 32 is provided with a direction button 34, a start button 36, and buttons 38X, 38Y, 38A, and 38B on the surface. Further, as shown in FIG. 4B, the back side surface of the controller 32 is provided with buttons 42L and 42R on the left and right sides of the front surface, and buttons 40L and 40R are provided on the left and right sides of the back surface, respectively. . The direction button 34 has a cross shape, and is usually used to set a moving direction of a character or a cursor. The start button 36 is a small push button having a triangular shape, and is usually used for starting a game or forcibly ending a game. Buttons 38X, 38Y, 38A, 38B, 40L, 40R, 42L, and 42R are used for other game operations.

以上の構成を有するゲーム装置10では、標的に向けて攻撃を行うシューティングゲームが提供される。   In the game apparatus 10 having the above-described configuration, a shooting game that performs an attack toward a target is provided.

図3は、モニタ18に表示されるゲーム画面の一例を示す図である。同図に示すように、ゲーム画面50には照準カーソル52と、弾オブジェクト54と、標的オブジェクト56と、が表示される。照準カーソル52は、例えば方向ボタン34を用いた方向指示操作に応じてゲーム画面50内を移動する。弾オブジェクト54は、例えばボタン38Aを用いた発射指示操作に応じて発射されるものである。すなわち、弾オブジェクト54は、発射指示操作が行われた時点の照準カーソル52の位置を初期位置として、そこから画面奥方向に向かってまっすぐに移動していく。標的オブジェクト56は画面手前方向に向かって移動してくる。弾オブジェクト54は標的オブジェクト56に命中すると砕け散り、ゲーム画面50から消えるようになっている。また、標的オブジェクト56に弾オブジェクト54が3回命中すると、その標的オブジェクト56は爆発し、ゲーム画面50から消えるようになっている。プレイヤは方向ボタン34やボタン38Aを駆使して、標的オブジェクト56の接近を阻止する。   FIG. 3 is a diagram illustrating an example of a game screen displayed on the monitor 18. As shown in the figure, an aiming cursor 52, a bullet object 54, and a target object 56 are displayed on the game screen 50. The aiming cursor 52 moves in the game screen 50 according to a direction instruction operation using the direction button 34, for example. The bullet object 54 is fired in response to a firing instruction operation using the button 38A, for example. That is, the bullet object 54 moves straight from the position of the aiming cursor 52 at the time when the firing instruction operation is performed, toward the back of the screen. The target object 56 moves toward the front of the screen. When the bullet object 54 hits the target object 56, it is shattered and disappears from the game screen 50. When the bullet object 54 hits the target object 56 three times, the target object 56 explodes and disappears from the game screen 50. The player uses the direction button 34 and the button 38A to prevent the target object 56 from approaching.

ゲーム装置10ではゲーム画面50を表示するために、例えば図4に示すような仮想的な3次元ゲーム空間が主記憶26に構築される。同図に示すように、3次元ゲーム空間60には球状の標的オブジェクト56が配置される。実際には、複数の弾オブジェクト54と複数の標的オブジェクト56とが3次元ゲーム空間60に配置されるが、同図では省略されている。3次元ゲーム空間60には視点Cが仮想的に設定されており、この視点Cから3次元ゲーム空間60を見た様子がゲーム画面50に表されるようになっている。   In the game apparatus 10, in order to display the game screen 50, for example, a virtual three-dimensional game space as shown in FIG. As shown in the figure, a spherical target object 56 is arranged in the three-dimensional game space 60. Actually, a plurality of bullet objects 54 and a plurality of target objects 56 are arranged in the three-dimensional game space 60, but are omitted in the figure. A viewpoint C is virtually set in the three-dimensional game space 60, and a state of viewing the three-dimensional game space 60 from this viewpoint C is displayed on the game screen 50.

ゲーム装置10では、弾オブジェクト54が標的オブジェクト56に命中すると、その様子がゲーム画面50に表されるとともに、所定の命中音がスピーカ22から出力されるようになっている。また、標的オブジェクト56が爆発する場合には、その様子がゲーム画面50に表されるとともに、所定の爆発音が出力されるようになっている。特に、ゲーム装置10では、弾オブジェクト54が標的オブジェクト56に命中した場合、ゲーム画面50にはその様子が直ちに表されるのに対し、命中音の出力は、視点Cと標的オブジェクト56との間の距離に基づく時間が経過するのを待って開始されるようになっている。また、標的オブジェクト56が爆発する場合も同様に、ゲーム画面50にはその様子が直ちに表されるのに対し、爆発音の出力は、視点Cと標的オブジェクト56との間の距離に基づく時間が経過するのを待って開始されるようになっている。このようにして、ゲーム装置10では、視点Cから離れた標的オブジェクト56や弾オブジェクト54に関連して発せされる命中音や爆発音がプレイヤの耳に遅れて届く様子が比較的簡易な構成で好適に表現されるようになっている。以下、この点について詳しく説明する。   In the game apparatus 10, when the bullet object 54 hits the target object 56, the state is displayed on the game screen 50, and a predetermined hit sound is output from the speaker 22. Further, when the target object 56 explodes, the state is displayed on the game screen 50 and a predetermined explosion sound is output. In particular, in the game apparatus 10, when the bullet object 54 hits the target object 56, the state is immediately displayed on the game screen 50, whereas the output of the hit sound is between the viewpoint C and the target object 56. It starts to wait for the time based on the distance to pass. Similarly, when the target object 56 explodes, the state is immediately displayed on the game screen 50, whereas the explosion sound is output based on the time based on the distance between the viewpoint C and the target object 56. It starts to wait for the passage of time. In this manner, the game apparatus 10 has a relatively simple configuration in which the hit sound and explosion sound emitted in association with the target object 56 and the bullet object 54 that are distant from the viewpoint C arrive behind the player's ear. It is suitably expressed. Hereinafter, this point will be described in detail.

図5は、ゲーム装置10で実現される機能のうち本発明に関連するものを主として示す機能ブロック図である。同図に示すように、ゲーム装置10はゲームデータ記憶部70とゲーム制御部74とを含んでいる。ゲームデータ記憶部70は主記憶26やDVD−ROM25を主として実現され、ゲーム制御部74はDVD−ROM25から読み出されたプログラムがマイクロプロセッサ14によって実行されることによって実現される。   FIG. 5 is a functional block diagram mainly showing functions related to the present invention among the functions realized by the game apparatus 10. As shown in the figure, the game apparatus 10 includes a game data storage unit 70 and a game control unit 74. The game data storage unit 70 is realized mainly by the main memory 26 and the DVD-ROM 25, and the game control unit 74 is realized by the microprocessor 14 executing a program read from the DVD-ROM 25.

[1.ゲームデータ記憶部]
ゲームデータ記憶部70は、上記シューティングゲームの実行に必要な各種データを記憶する。例えば、弾オブジェクト54や標的オブジェクト56のモデルデータがゲームデータ記憶部70に記憶される。また例えば、視点Cの3次元ゲーム空間60における位置座標(xc,yc,zc)や、照準カーソル52のゲーム画面50における位置座標(xs,ys)が記憶される。また例えば、図6に示すような標的オブジェクトテーブルや、図7に示すような弾オブジェクトテーブルが記憶される。
[1. Game data storage unit]
The game data storage unit 70 stores various data necessary for executing the shooting game. For example, model data of the bullet object 54 and the target object 56 is stored in the game data storage unit 70. Further, for example, the position coordinates (xc, yc, zc) of the viewpoint C in the three-dimensional game space 60 and the position coordinates (xs, ys) of the aiming cursor 52 on the game screen 50 are stored. Further, for example, a target object table as shown in FIG. 6 and a bullet object table as shown in FIG. 7 are stored.

標的オブジェクトテーブルには、3次元ゲーム空間60に配置される各標的オブジェクト56の位置を示す位置情報が主として記憶される。図6に示すように、標的オブジェクトテーブルには「標的オブジェクトID」フィールドと、「位置」フィールドと、「被弾回数」フィールドと、が含まれる。「標的オブジェクトID」フィールドには、標的オブジェクト56を一意に識別するための識別情報(標的オブジェクトID)が格納される。「位置」フィールドには、標的オブジェクト56の代表点(例えば中心点)の3次元ゲーム空間60における位置座標(xt,yt,zt)が格納される。「被弾回数」フィールドには、その標的オブジェクト56が被弾した回数が格納される。すなわち、その標的オブジェクト56に弾オブジェクト54が命中した回数が格納される。   In the target object table, position information indicating the position of each target object 56 arranged in the three-dimensional game space 60 is mainly stored. As shown in FIG. 6, the target object table includes a “target object ID” field, a “position” field, and a “number of shots” field. In the “target object ID” field, identification information (target object ID) for uniquely identifying the target object 56 is stored. The “position” field stores the position coordinates (xt, yt, zt) of the representative point (for example, the center point) of the target object 56 in the three-dimensional game space 60. The “number of shots” field stores the number of times the target object 56 has been shot. That is, the number of times the bullet object 54 has hit the target object 56 is stored.

弾オブジェクトテーブルには、3次元ゲーム空間60に配置される各弾オブジェクト54の位置を示す位置情報が主として記憶される。図7に示すように、弾オブジェクトテーブルには「弾オブジェクトID」フィールドと、「位置」フィールドと、「命中フラグ」フィールドと、が含まれる。「弾オブジェクトID」フィールドには、弾オブジェクト54を一意に識別するための識別情報(弾オブジェクトID)が格納される。「位置」フィールドには、弾オブジェクト54の代表点(例えば中心点)の3次元ゲーム空間60における位置座標(xb,yb,zb)が格納される。「命中フラグ」フィールドには、その弾オブジェクト54が標的オブジェクト56に命中したか否かを示す数値情報が格納される。弾オブジェクト54が標的オブジェクト56にまだ命中していない場合には「0」が格納され、弾オブジェクト54が標的オブジェクト56に命中した場合に「1」が格納される。   The bullet object table mainly stores position information indicating the position of each bullet object 54 arranged in the three-dimensional game space 60. As shown in FIG. 7, the bullet object table includes a “bullet object ID” field, a “position” field, and a “hit flag” field. In the “bullet object ID” field, identification information (bullet object ID) for uniquely identifying the bullet object 54 is stored. The “position” field stores the position coordinates (xb, yb, zb) of the representative point (for example, the center point) of the bullet object 54 in the three-dimensional game space 60. The “hit flag” field stores numerical information indicating whether or not the bullet object 54 has hit the target object 56. “0” is stored when the bullet object 54 has not yet hit the target object 56, and “1” is stored when the bullet object 54 has hit the target object 56.

[2.音声データ記憶部]
ゲームデータ記憶部70は音声データ記憶部72を含んでいる。音声データ記憶部72は、上記シューティングゲームの実行に用いられる音声データを記憶する。例えば、標的オブジェクト56に弾オブジェクト54が命中した場合の命中音を示す命中音データや、標的オブジェクト56が爆発する場合の爆発音を示す爆発音データが音声データ記憶部72に記憶される。
[2. Audio data storage unit]
The game data storage unit 70 includes an audio data storage unit 72. The voice data storage unit 72 stores voice data used for executing the shooting game. For example, the sound data storage unit 72 stores hit sound data indicating a hit sound when the bullet object 54 hits the target object 56 and explosive sound data indicating an explosive sound when the target object 56 explodes.

また、音声データ記憶部72には、記憶される音声データに関し、例えば図8に示すような音声データテーブルが記憶される。同図に示すように、音声データテーブルには「音声データID」フィールドと、「音声データ」フィールドと、「グループID」フィールドと、が含まれる。「音声データID」フィールドには、音声データを一意に識別するための識別情報(音声データID)が格納される。「音声データ」フィールドには、音声データの記憶場所を特定するための情報が格納される。例えば、音声データのファイル名や音声データの記憶領域を示す情報が格納される。「グループID」フィールドには、音声データが属するグループの識別情報(グループID)が格納される。本実施の形態では、比較的高音の音声データが属するグループ「G1」と、比較的低音の音声データが属するグループ「G2」と、が用意されている。   The audio data storage unit 72 stores an audio data table as shown in FIG. 8, for example, regarding the audio data to be stored. As shown in the figure, the audio data table includes an “audio data ID” field, an “audio data” field, and a “group ID” field. In the “voice data ID” field, identification information (voice data ID) for uniquely identifying the voice data is stored. In the “voice data” field, information for specifying the storage location of the voice data is stored. For example, information indicating a file name of audio data and a storage area of the audio data is stored. The “group ID” field stores identification information (group ID) of the group to which the audio data belongs. In the present embodiment, a group “G1” to which relatively high-pitched sound data belongs and a group “G2” to which relatively-low sound data belong are prepared.

[3.ゲーム制御部]
ゲーム制御部74はゲームデータ記憶部70の記憶内容を読み出し、ゲーム制御を実行する。また、ゲーム制御部74はゲーム制御の実行結果に基づいて、ゲームデータ記憶部70の記憶内容を更新する。ゲーム制御部74は判定部76と、表示制御部78と、距離情報取得部80と、遅延制御部82と、音声出力制御部88と、を含んでいる。
[3. Game control unit]
The game control unit 74 reads the stored contents of the game data storage unit 70 and executes game control. In addition, the game control unit 74 updates the stored content of the game data storage unit 70 based on the execution result of the game control. The game control unit 74 includes a determination unit 76, a display control unit 78, a distance information acquisition unit 80, a delay control unit 82, and an audio output control unit 88.

[4.判定部]
判定部76は、上記シューティングゲームにおいて発音イベントが発生したか否かを判定する。より具体的には、命中音や爆発音の発音イベントが発生したか否かが判定部76によって判定される。本実施の形態では、命中音の発音イベントは、標的オブジェクト56(発音オブジェクト)に関連する命中音の発音イベント発生条件が満足された場合に発生するようになっている。このため、判定部76は、標的オブジェクト56に関連する命中音の発音イベント発生条件が満足されたか否かを判定する。具体的には、標的オブジェクト56に弾オブジェクト54が衝突したか否かが判定部76によって判定される。また、爆発音の発音イベントは、標的オブジェクト56に関連する爆発音の発音イベント発生条件が満足された場合に発生するようになっている。このため、判定部76は、標的オブジェクト56に関連する爆発音の発音イベント発生条件が満足されたか否かを判定する。具体的には、標的オブジェクト56に弾オブジェクト54が衝突し、かつ、標的オブジェクト56の被弾回数が3回に達したか否かが判定部76によって判定される。なお、標的オブジェクト56に弾オブジェクト54が衝突したか否かの判定は、公知の衝突判定処理によって行われるようにすればよい。
[4. Judgment unit]
The determination unit 76 determines whether a pronunciation event has occurred in the shooting game. More specifically, the determination unit 76 determines whether a sounding event such as a hit sound or an explosion sound has occurred. In the present embodiment, the hit sound generation event is generated when the hit sound generation event generation condition related to the target object 56 (sound generation object) is satisfied. Therefore, the determination unit 76 determines whether or not the hit sound generation event generation condition related to the target object 56 is satisfied. Specifically, the determination unit 76 determines whether or not the bullet object 54 collides with the target object 56. The explosion sound generation event is generated when the explosion sound generation event generation condition related to the target object 56 is satisfied. Therefore, the determination unit 76 determines whether or not the explosion sound generation event generation condition related to the target object 56 is satisfied. Specifically, the determination unit 76 determines whether or not the bullet object 54 collides with the target object 56 and the number of shots of the target object 56 has reached three. It should be noted that whether or not the bullet object 54 has collided with the target object 56 may be determined by a known collision determination process.

[5.表示制御部]
表示制御部78は、判定部76による判定結果に応じて、発音イベントに対応する変化をゲーム画面50に与える。例えば、表示制御部78は、命中音の発音イベントが発生したと判定部76によって判定された場合、標的オブジェクト56に命中した弾オブジェクト54が砕け散って消える様子をゲーム画面50に表示させる。また例えば、表示制御部78は、爆発音の発音イベントが発生したと判定部76によって判定された場合、標的オブジェクト56が爆発する様子をゲーム画面50に表示させる。
[5. Display control unit]
The display control unit 78 gives a change corresponding to the pronunciation event to the game screen 50 according to the determination result by the determination unit 76. For example, if the determination unit 76 determines that a sounding event of a hit sound has occurred, the display control unit 78 displays on the game screen 50 a state in which the bullet object 54 that hits the target object 56 is shattered and disappears. Further, for example, if the determination unit 76 determines that an explosion sounding event has occurred, the display control unit 78 displays on the game screen 50 a state in which the target object 56 explodes.

[6.距離情報取得部]
距離情報取得部80は、発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得する。本実施の形態では、標的オブジェクト56の代表点Fと、視点Cと、の間の距離d(d=((xt−xc)+(yt−yc)+(zt−zc)1/2)が距離情報取得部80によって取得される(図4参照)。なお、標的オブジェクト56の代表点FをX−Z平面(X−Y平面やY−Z平面でもよい)に平行投影(正投影)してなる点F’と、視点CをX−Z平面に平行投影してなる点C’と、の間の距離d’(d’=((xt−xc)+(zt−zc)1/2)が距離情報取得部80によって取得されるようにしてもよい(図4参照)。このようにして、距離情報取得部80による距離情報の取得に係る処理負荷が軽減されるようにしてもよい。
[6. Distance information acquisition unit]
The distance information acquisition unit 80 acquires distance information related to the distance between the sound generation position corresponding to the sound generation event and the given reference position. In the present embodiment, the distance d between the representative point F of the target object 56 and the viewpoint C (d = ((xt−xc) 2 + (yt−yc) 2 + (zt−zc) 2 ) 1 / 2 ) is acquired by the distance information acquisition unit 80 (see FIG. 4). Note that a point F ′ obtained by parallel projection (orthogonal projection) of the representative point F of the target object 56 on the XZ plane (which may be an XY plane or a YZ plane) and the viewpoint C on the XZ plane. The distance d ′ (d ′ = ((xt−xc) 2 + (zt−zc) 2 ) 1/2 ) between the point C ′ formed by parallel projection is acquired by the distance information acquisition unit 80. Alternatively, see FIG. In this way, the processing load related to the acquisition of distance information by the distance information acquisition unit 80 may be reduced.

[7.音声出力制御部]
音声出力制御部88は、判定部76による判定結果に応じて、発音イベントに対応する音声の出力を開始する。本実施の形態では、命中音の発音イベントが発生したと判定された場合、音声出力制御部88は命中音の出力を開始する。また、爆発音の発音イベントが発生したと判定された場合、音声出力制御部88は爆発音の出力を開始する。なお、音声出力制御部88による命中音や爆発音の出力は、後述の監視部86による監視結果に応じて開始される。言い換えれば、音声出力制御部88による命中音や爆発音の出力の開始は、監視部86による監視結果によって制限される。
[7. Audio output control unit]
The sound output control unit 88 starts outputting the sound corresponding to the sounding event according to the determination result by the determination unit 76. In the present embodiment, when it is determined that a hit sound generation event has occurred, the audio output control unit 88 starts to output a hit sound. If it is determined that an explosion sounding event has occurred, the audio output control unit 88 starts outputting explosion sound. Note that the output of the hit sound and the explosion sound by the voice output control unit 88 is started according to the monitoring result by the monitoring unit 86 described later. In other words, the start of the output of the hit sound or explosion sound by the audio output control unit 88 is limited by the monitoring result by the monitoring unit 86.

[8.遅延制御部]
遅延制御部82は、判定部76によって発音イベントが発生したと判定されたタイミングから、音声出力制御部88によって音声の出力が開始されるタイミングまでの時間の長さを、距離情報取得部80によって取得される距離情報に基づいて制御する。遅延制御部82は遅延時間取得部84と監視部86とを含んでいる。
[8. Delay control unit]
The delay control unit 82 uses the distance information acquisition unit 80 to calculate the length of time from the timing at which the sound generation event is determined by the determination unit 76 to the timing at which the audio output control unit 88 starts to output audio. Control based on the acquired distance information. The delay control unit 82 includes a delay time acquisition unit 84 and a monitoring unit 86.

[9.遅延時間取得部]
遅延時間取得部84は、距離情報取得部80によって取得される距離情報に基づいて、遅延時間を取得する。
[9. Delay time acquisition unit]
The delay time acquisition unit 84 acquires a delay time based on the distance information acquired by the distance information acquisition unit 80.

本実施の形態では、例えば図9に示すような遅延時間テーブルが遅延時間取得部84(遅延時間情報記憶手段)に記憶される。同図に示すように、この遅延時間テーブルは「距離範囲」フィールドと、「G1」フィールドと、「G2」フィールドと、を含んでいる。「距離範囲」フィールドには距離の範囲を示す情報(距離条件情報)が格納される。「G1」フィールドには、グループID「G1」に対応づけられた音声データに対して適用される遅延時間が格納される。「G2」フィールドには、グループID「G2」に対応づけられた音声データに対して適用される遅延時間が格納される。なお、「G1」及び「G2」フィールドには、遅延時間を所定時間(本実施の形態では1/60秒)単位で示す情報(遅延時間情報)が格納される。また、同図において、ΔT1,ΔT2,ΔT3,ΔT4,ΔT5,ΔT6は所定の定数であり、ΔT1<ΔT3<ΔT5,ΔT2<ΔT4<ΔT6,ΔT3<ΔT4,ΔT5<ΔT6,ΔT1<ΔT2,ΔT3<ΔT4,ΔT5<ΔT6の関係を有している。すなわち、比較的低音の音声データが属するグループ「G2」については、比較的高音の音声データが属するグループ「G1」に比べて、遅延時間が大きくなるようになっている。   In the present embodiment, for example, a delay time table as shown in FIG. 9 is stored in the delay time acquisition unit 84 (delay time information storage means). As shown in the figure, this delay time table includes a “distance range” field, a “G1” field, and a “G2” field. Information indicating the range of distance (distance condition information) is stored in the “distance range” field. The “G1” field stores a delay time applied to the audio data associated with the group ID “G1”. The “G2” field stores a delay time applied to the audio data associated with the group ID “G2”. The “G1” and “G2” fields store information (delay time information) indicating the delay time in units of a predetermined time (in this embodiment, 1/60 seconds). In the figure, ΔT1, ΔT2, ΔT3, ΔT4, ΔT5, ΔT6 are predetermined constants, and ΔT1 <ΔT3 <ΔT5, ΔT2 <ΔT4 <ΔT6, ΔT3 <ΔT4, ΔT5 <ΔT6, ΔT1 <ΔT2, ΔT3 < There is a relationship of ΔT4, ΔT5 <ΔT6. That is, the delay time of the group “G2” to which relatively low-pitched sound data belongs is larger than that of the group “G1” to which relatively high-pitched sound data belongs.

遅延時間取得部84は、距離情報取得部80によって取得される距離が含まれる範囲と、出力対象の音声データ(判定部76によって発生したと判定された発音イベントに対応する音声データ)のグループIDと、の組み合わせに対応する遅延時間を遅延時間テーブルから取得する。例えば、距離情報取得部80によって取得される距離が「D1以上D2未満」であり、出力対象の音声データのグループIDが「G2」である場合、遅延時間「ΔT4」が取得される。   The delay time acquisition unit 84 includes a range including the distance acquired by the distance information acquisition unit 80 and a group ID of the audio data to be output (audio data corresponding to the sounding event determined to have occurred by the determination unit 76). The delay time corresponding to the combination is acquired from the delay time table. For example, when the distance acquired by the distance information acquisition unit 80 is “D1 or more and less than D2” and the group ID of the audio data to be output is “G2”, the delay time “ΔT4” is acquired.

なお、遅延時間取得部84は、距離情報取得部80によって取得される距離情報に基づいて所定の演算処理を実行することによって、遅延時間を算出するようにしてもよい。例えば、遅延時間取得部84は、距離を変数とした所定の演算式に、距離情報取得部80によって取得された距離を代入することによって、遅延時間を算出するようにしてもよい。この場合、距離情報取得部80によって取得される距離が大きくなるにつれて、遅延時間が大きくなるように演算式を設けるようにすればよい。また、音声データのグループIDごとに演算式(演算処理の内容)が異なるようにすればよい。本実施の形態であれば、比較的低音の音声データが属するグループ「G2」については、比較的高音の音声データが属するグループ「G1」に比べて、距離情報取得部80によって取得される距離が同じであっても遅延時間が大きくなるように、演算式が設けられるようにすればよい。   The delay time acquisition unit 84 may calculate the delay time by executing a predetermined calculation process based on the distance information acquired by the distance information acquisition unit 80. For example, the delay time acquisition unit 84 may calculate the delay time by substituting the distance acquired by the distance information acquisition unit 80 into a predetermined arithmetic expression using the distance as a variable. In this case, an arithmetic expression may be provided so that the delay time increases as the distance acquired by the distance information acquisition unit 80 increases. Further, the arithmetic expression (contents of arithmetic processing) may be different for each group ID of the audio data. In the present embodiment, for the group “G2” to which relatively low-pitched sound data belongs, the distance acquired by the distance information acquisition unit 80 is smaller than the group “G1” to which relatively high-pitched sound data belongs. An arithmetic expression may be provided so as to increase the delay time even if they are the same.

[10.監視部]
監視部86は、音声出力制御部88に命中音や爆発音の出力を開始させるタイミングが到来したか否かを監視する。具体的には、監視部86は、判定部76によって発音イベントが発生したと判定されたタイミングの後、少なくとも遅延時間取得部84によって取得された遅延時間が経過したか否かを監視する。遅延制御部82は、監視部86による監視結果に応じて、音声出力制御部88による命中音や爆発音の出力を開始させる。
[10. Monitoring department]
The monitoring unit 86 monitors whether or not it is time to cause the audio output control unit 88 to start outputting a hit sound or an explosion sound. Specifically, the monitoring unit 86 monitors whether or not at least the delay time acquired by the delay time acquisition unit 84 has elapsed after the timing at which the sound generation event is determined by the determination unit 76. The delay control unit 82 causes the sound output control unit 88 to start outputting a hit sound or an explosion sound according to the monitoring result by the monitoring unit 86.

遅延制御部82には、例えば図10に示すような音声出力開始タイミングテーブルが記憶される。同図に示すように、音声出力開始タイミングテーブルには「音声データID」フィールドと、「残時間」フィールドと、が含まれる。「音声データID」フィールドには、音声データID(図8参照)が格納される。「残時間」フィールドには、音声出力制御部88に命中音や爆発音の出力を開始させるまでの残り時間を所定時間(本実施の形態では1/60秒)単位で示す数値情報が格納される。音声出力開始タイミングテーブルの内容は遅延時間取得部84及び監視部86によって更新される。詳細については後述する(図13のS208及びS211,図12のS110参照)。   For example, an audio output start timing table as shown in FIG. 10 is stored in the delay control unit 82. As shown in the figure, the audio output start timing table includes an “audio data ID” field and a “remaining time” field. In the “voice data ID” field, a voice data ID (see FIG. 8) is stored. The “remaining time” field stores numerical information indicating the remaining time in units of a predetermined time (in this embodiment, 1/60 second) until the sound output control unit 88 starts outputting a hit sound or an explosion sound. The The contents of the audio output start timing table are updated by the delay time acquisition unit 84 and the monitoring unit 86. Details will be described later (see S208 and S211 in FIG. 13 and S110 in FIG. 12).

ここで、ゲーム装置10で実行される処理について説明する。図11及び図12は、ゲーム装置10で所定時間(本実施の形態では1/60秒)ごとに実行される処理を示すフロー図である。これらの図に示す処理は、DVD−ROM25から読み出されるプログラムがマイクロプロセッサ14によって実行されることによって実現される。   Here, a process executed by the game apparatus 10 will be described. FIG. 11 and FIG. 12 are flowcharts showing processing executed by the game apparatus 10 every predetermined time (in this embodiment, 1/60 seconds). The processes shown in these drawings are realized by the microprocessor 14 executing a program read from the DVD-ROM 25.

図11に示すように、まず各標的オブジェクト56の位置が更新される(S101)。具体的には、各標的オブジェクト56の新たな位置として、その標的オブジェクト56の現在位置から所定方向に所定距離(1/60秒ごとの移動距離)だけ移動してなる位置が算出される。そして、標的オブジェクトテーブルの「位置」フィールドが更新される。   As shown in FIG. 11, first, the position of each target object 56 is updated (S101). Specifically, as a new position of each target object 56, a position that is moved from the current position of the target object 56 by a predetermined distance (movement distance every 1/60 seconds) in a predetermined direction is calculated. Then, the “position” field of the target object table is updated.

次に、各弾オブジェクト54の位置が更新される(S102)。具体的には、各弾オブジェクト54の新たな位置として、その弾オブジェクト54の現在位置から所定方向に所定距離(1/60秒ごとの移動距離)だけ移動してなる位置が算出される。そして、弾オブジェクトテーブルの「位置」フィールドが更新される。   Next, the position of each bullet object 54 is updated (S102). Specifically, as a new position of each bullet object 54, a position obtained by moving from the current position of the bullet object 54 by a predetermined distance (moving distance every 1/60 seconds) in a predetermined direction is calculated. Then, the “position” field of the bullet object table is updated.

次に、照準カーソル52の位置が更新される(S103)。具体的には、照準カーソル52の新たな位置として、照準カーソル52の現在位置から方向ボタン34の操作内容に対応する方向に所定距離(1/60秒ごとの移動距離)だけ移動してなる位置が算出される。そして、その位置がゲームデータ記憶部70に保持される。   Next, the position of the aiming cursor 52 is updated (S103). Specifically, as a new position of the aiming cursor 52, a position that is moved from the current position of the aiming cursor 52 by a predetermined distance (movement distance every 1/60 seconds) in a direction corresponding to the operation content of the direction button 34. Is calculated. The position is held in the game data storage unit 70.

次に、発射指示操作が行われたか否かが判断される(S104)。すなわち、発射指示操作が行われたことを示す操作信号がコントローラ32から入力されたか否かが判断される。   Next, it is determined whether or not a firing instruction operation has been performed (S104). That is, it is determined whether or not an operation signal indicating that the firing instruction operation has been performed is input from the controller 32.

発射指示操作が行われたと判断された場合、弾オブジェクト発射処理が実行される(S105)。弾オブジェクト発射処理では、弾オブジェクトテーブルにレコードが追加される。このレコードの「弾オブジェクトID」フィールドには、適宜生成される弾オブジェクトIDが格納され、「位置」フィールドには、その時点の照準カーソル52の位置に対応する3次元ゲーム空間60上の位置が格納される。   If it is determined that a firing instruction operation has been performed, bullet object firing processing is executed (S105). In the bullet object firing process, a record is added to the bullet object table. In the “bullet object ID” field of this record, an appropriately generated bullet object ID is stored, and in the “position” field, the position on the three-dimensional game space 60 corresponding to the position of the aiming cursor 52 at that time is stored. Stored.

次に、各弾オブジェクト54ごとに命中判定処理が実行される(S106)。図13は命中判定処理を示すフロー図である。   Next, a hit determination process is executed for each bullet object 54 (S106). FIG. 13 is a flowchart showing the hit determination process.

図13に示すように、命中判定処理では、弾オブジェクト54が標的オブジェクト56に衝突したか否かが判定部76によって判定される(S201)。この判定は、標的オブジェクトテーブルや弾オブジェクトテーブルの「位置」フィールドの記憶内容に基づいて公知の衝突判定処理が実行されることによって行われる。そして、弾オブジェクト54が標的オブジェクト56に衝突したと判定された場合、その弾オブジェクト54に関し、弾オブジェクトテーブルの「命中フラグ」フィールドが「1」に更新されるとともに(S202)、視点Cからその標的オブジェクト56の代表点Fまでの距離dが距離情報取得部80によって算出される(S203)。さらに、その標的オブジェクト56に関し、標的オブジェクトテーブルの「被弾回数」フィールドの値がインクリメントされる(S204)。そして、「被弾回数」フィールドの値が「3」未満であるか否かが判定部76によって判定される(S205)。   As shown in FIG. 13, in the hit determination process, the determination unit 76 determines whether the bullet object 54 has collided with the target object 56 (S201). This determination is performed by executing a known collision determination process based on the stored contents of the “position” field of the target object table or the bullet object table. If it is determined that the bullet object 54 has collided with the target object 56, the “hit flag” field of the bullet object table is updated to “1” for the bullet object 54 (S202) and The distance d to the representative point F of the target object 56 is calculated by the distance information acquisition unit 80 (S203). Further, regarding the target object 56, the value of the “number of shots” field of the target object table is incremented (S204). Then, the determination unit 76 determines whether or not the value of the “number of shots” field is less than “3” (S205).

「被弾回数」フィールドの値が「3」未満である場合、命中音の音声データのグループIDが音声データテーブルから取得される(S206)。次に、遅延時間取得部84によって、S203で算出された距離とS206で取得されたグループIDとの組み合わせに対応する遅延時間が遅延時間テーブルから取得される(S207)。そして、音声出力開始タイミングテーブルにレコードが追加される(S208)。このレコードの「音声データID」フィールドには、命中音の音声データの音声データID「S1」が格納され、「残時間」フィールドには、S207で取得された遅延時間が格納される。   When the value of the “number of shots” field is less than “3”, the group ID of the sound data of the hit sound is acquired from the sound data table (S206). Next, the delay time acquisition unit 84 acquires the delay time corresponding to the combination of the distance calculated in S203 and the group ID acquired in S206 from the delay time table (S207). Then, a record is added to the audio output start timing table (S208). The voice data ID “S1” of the hit sound data is stored in the “voice data ID” field of this record, and the delay time acquired in S207 is stored in the “remaining time” field.

一方、「被弾回数」フィールドの値が「3」未満でない場合、爆発音の音声データのグループIDが音声データテーブルから取得される(S209)。次に、遅延時間取得部84によって、S203で算出された距離とS209で取得されたグループIDとの組み合わせに対応する遅延時間が遅延時間テーブルから取得される(S210)。そして、音声出力開始タイミングテーブルにレコードが追加される(S211)。このレコードの「音声データID」フィールドには、爆発音の音声データの音声データID「S2」が格納され、「残時間」フィールドには、S210で取得された遅延時間が格納される。   On the other hand, when the value of the “number of shots” field is not less than “3”, the group ID of the explosion sound data is obtained from the sound data table (S209). Next, the delay time acquisition unit 84 acquires the delay time corresponding to the combination of the distance calculated in S203 and the group ID acquired in S209 from the delay time table (S210). Then, a record is added to the audio output start timing table (S211). The voice data ID “S2” of the explosion sound data is stored in the “voice data ID” field of this record, and the delay time acquired in S210 is stored in the “remaining time” field.

S106の処理が実行された後、すなわち各弾オブジェクト54について上記命中判定処理が実行された後、ゲーム画面50がVRAM上に生成される(S107)。具体的には、「弾オブジェクト54や標的オブジェクト56が弾オブジェクトテーブルや標的オブジェクトテーブルの『位置』フィールドの内容に基づいて配置された3次元ゲーム空間60」を視点Cから見た様子を表す画像がVRAM上に形成される。その後、VRAM上に形成された画像上の、ゲームデータ記憶部70に記憶される位置に照準カーソル52が描画される。なお、被弾回数が「3」になった標的オブジェクト56については、標的オブジェクト56が爆発する様子を表すための所定オブジェクト(破片オブジェクト等)が、元の標的オブジェクト56に代えて3次元ゲーム空間60に配置されるようにすればよい。同様に、命中フラグが「1」に弾オブジェクト54についても、弾オブジェクト54が砕け散る様子を表すための所定オブジェクト(破片オブジェクト等)が、元の弾オブジェクト54に代えて3次元ゲーム空間60に配置されるようにすればよい。   After the process of S106 is executed, that is, after the hit determination process is executed for each bullet object 54, the game screen 50 is generated on the VRAM (S107). Specifically, an image representing a state in which “the three-dimensional game space 60 in which the bullet object 54 and the target object 56 are arranged based on the contents of the“ position ”field of the bullet object table and the target object table is viewed from the viewpoint C. Are formed on the VRAM. Thereafter, the aiming cursor 52 is drawn at a position stored in the game data storage unit 70 on the image formed on the VRAM. For the target object 56 whose number of shots has reached “3”, a predetermined object (debris object or the like) for representing the state of the target object 56 exploding is replaced with the original target object 56 in the three-dimensional game space 60. It should just be arranged in. Similarly, with respect to the bullet object 54 whose hit flag is “1”, a predetermined object (debris object or the like) for representing how the bullet object 54 is shattered is replaced with the original bullet object 54 in the three-dimensional game space 60. What is necessary is just to arrange | position.

次に、「被弾回数」フィールドの値が「3」であるレコードが標的オブジェクトテーブルから削除され(S108)、「命中フラグ」フィールドの値が「1」であるレコードが弾オブジェクトテーブルから削除される(S109)。すなわち、標的オブジェクト56に命中した弾オブジェクト54や爆発する標的オブジェクト56に関するレコードが、弾オブジェクトテーブルや標的オブジェクトテーブルから削除される。   Next, the record whose “number of shots” field value is “3” is deleted from the target object table (S108), and the record whose “hit flag” field value is “1” is deleted from the bullet object table. (S109). That is, the record related to the bullet object 54 that hits the target object 56 or the target object 56 that explodes is deleted from the bullet object table or the target object table.

次に、音声出力開始タイミングテーブルのすべてのレコードの「残時間」フィールドの値が監視部86によってデクリメントされる(S110)。そして、「残時間」フィールドの値が「0」になったレコードが存在するか否かが監視部86によって判定される(S111)。「残時間」フィールドの値が「0」になったレコードが存在する場合、そのレコードの「音声データID」フィールドによって識別される音声データに基づく音声の出力が開始されるとともに(S112)、そのレコードが音声出力開始タイミングテーブルから削除される(S113)。   Next, the value of the “remaining time” field of all records in the audio output start timing table is decremented by the monitoring unit 86 (S110). Then, the monitoring unit 86 determines whether or not there is a record in which the value of the “remaining time” field is “0” (S111). When there is a record whose value of the “remaining time” field is “0”, voice output based on the voice data identified by the “voice data ID” field of the record is started (S112), The record is deleted from the audio output start timing table (S113).

以上説明したように、ゲーム装置10では、弾オブジェクト54が標的オブジェクト56に命中した場合、弾オブジェクト54が標的オブジェクト56に命中した様子がゲーム画面50に直ちに表されるのに対し、命中音の出力は、視点Cと標的オブジェクト56との間の距離に基づく時間が経過するのを待って開始されるようになっている。同様に、標的オブジェクト56が爆発する場合には、標的オブジェクト56が爆発する様子がゲーム画面50に直ちに表されるのに対し、爆発音の出力は、視点Cと標的オブジェクト56との間の距離に応じた時間が経過するのを待って開始されるようになっている。このため、ゲーム装置10では、視点Cから離れた位置で発せされる命中音や爆発音がプレイヤの耳に遅れて届く様子が好適に演出されるようになっている。さらに、ゲーム装置10では、視点Cから離れた位置で発せられた音が低音である場合には、かかる音が高音である場合に比べて、遅延時間が大きくなるようになっている。このため、視点Cから離れた位置で発せられた音が低音である場合には、かかる音が高音である場合に比べて、プレイヤの耳に遅く届く様子が好適に演出されるようになっている。そして、本発明では、以上のような演出が比較的簡易な構成(処理)で実現されるようになっている。   As described above, in the game device 10, when the bullet object 54 hits the target object 56, the state in which the bullet object 54 hits the target object 56 is immediately displayed on the game screen 50, whereas The output is started after the time based on the distance between the viewpoint C and the target object 56 elapses. Similarly, when the target object 56 explodes, the state in which the target object 56 explodes is immediately displayed on the game screen 50, whereas the explosion sound output is the distance between the viewpoint C and the target object 56. It starts to wait for the time according to the elapse of time. For this reason, in the game apparatus 10, a state in which a hit sound or explosion sound emitted at a position away from the viewpoint C arrives behind the ears of the player is suitably produced. Furthermore, in the game apparatus 10, when the sound emitted at a position away from the viewpoint C is a low sound, the delay time is longer than that when the sound is a high sound. For this reason, when the sound emitted at a position distant from the viewpoint C is a low tone, a state in which the sound reaches the player's ears is favorably produced as compared with a case where the sound is a high tone. Yes. And in this invention, the above effects are implement | achieved by a comparatively simple structure (process).

なお、本発明は以上説明した実施の形態に限定されるものではない。   The present invention is not limited to the embodiment described above.

例えば、プレイヤの操作対象が登場するゲームがゲーム装置10において提供される場合、距離情報取得部80は、発音位置と、操作対象の位置と、の間の距離に関する距離情報を取得するようにしてもよい。例えば、プレイヤの操作対象である操作対象オブジェクトが配置される3次元ゲーム空間を所与の視点から見た様子をゲーム画面を表示するゲームがゲーム装置10において提供される場合、距離情報取得部80は、発音位置と、操作対象オブジェクトの位置と、の間の距離に関する距離情報を取得するようにしてもよい。   For example, when a game in which a player's operation target appears is provided in the game apparatus 10, the distance information acquisition unit 80 acquires distance information regarding the distance between the sound generation position and the operation target position. Also good. For example, when the game device 10 provides a game that displays a game screen as seen from a given viewpoint in a three-dimensional game space in which an operation target object that is an operation target of a player is arranged, the distance information acquisition unit 80 May acquire distance information related to the distance between the sound generation position and the position of the operation target object.

また例えば、本発明が適用されるのは、以上に説明したようなシューティングゲームに限られない。本発明は、シューティングゲーム以外の他の種類のゲーム(アクションゲーム、ロールプレイングゲームやスポーツゲーム等)にも適用することができるものである。また、本発明はいわゆる2次元ゲームにも適用できるものである。   Further, for example, the present invention is not limited to the shooting game as described above. The present invention can also be applied to other types of games (action games, role playing games, sports games, etc.) other than shooting games. The present invention can also be applied to so-called two-dimensional games.

また、以上の説明では、プログラムを情報記憶媒体たるDVD−ROM25から家庭用ゲーム機11に供給するようにしたが、通信ネットワークを介してプログラムを家庭等に配信するようにしてもよい。図14は、通信ネットワークを用いたプログラム配信システムの全体構成を示す図である。同図に基づいて本発明に係るプログラム配信方法を説明する。同図に示すように、このプログラム配信システム100は、ゲームデータベース102、サーバ104、通信ネットワーク106、パソコン108、家庭用ゲーム機110、PDA(携帯情報端末)112を含んでいる。このうち、ゲームデータベース102とサーバ104とによりプログラム配信装置114が構成される。通信ネットワーク106は、例えばインターネットやケーブルテレビネットワークを含んで構成されている。このシステムでは、ゲームデータベース(情報記憶媒体)102に、DVD−ROM25の記憶内容と同様のプログラムが記憶されている。そして、パソコン108、家庭用ゲーム機110又はPDA112等を用いて需要者がゲーム配信要求をすることにより、それが通信ネットワーク106を介してサーバ104に伝えられる。そして、サーバ104はゲーム配信要求に応じてゲームデータベース102からプログラムを読み出し、それをパソコン108、家庭用ゲーム機110、PDA112等、ゲーム配信要求元に送信する。ここではゲーム配信要求に応じてゲーム配信するようにしたが、サーバ104から一方的に送信するようにしてもよい。また、必ずしも一度にゲームの実現に必要な全てのプログラムを配信(一括配信)する必要はなく、ゲームの局面に応じて必要な部分を配信(分割配信)するようにしてもよい。このように通信ネットワーク106を介してゲーム配信するようにすれば、プログラムを需要者は容易に入手することができるようになる。   In the above description, the program is supplied from the DVD-ROM 25, which is an information storage medium, to the consumer game machine 11. However, the program may be distributed to a home or the like via a communication network. FIG. 14 is a diagram showing an overall configuration of a program distribution system using a communication network. A program distribution method according to the present invention will be described with reference to FIG. As shown in the figure, the program distribution system 100 includes a game database 102, a server 104, a communication network 106, a personal computer 108, a consumer game machine 110, and a PDA (personal digital assistant) 112. Among these, the game database 102 and the server 104 constitute a program distribution device 114. The communication network 106 includes, for example, the Internet and a cable television network. In this system, a game database (information storage medium) 102 stores a program similar to the content stored in the DVD-ROM 25. Then, when a consumer makes a game distribution request using the personal computer 108, the home game machine 110, the PDA 112, or the like, it is transmitted to the server 104 via the communication network 106. Then, the server 104 reads the program from the game database 102 in response to the game distribution request, and transmits it to the game distribution request source such as the personal computer 108, the home game machine 110, the PDA 112, and the like. Here, the game is distributed in response to the game distribution request, but the server 104 may transmit the game unilaterally. Further, it is not always necessary to distribute (collectively distribute) all programs necessary for realizing the game at a time, and a necessary portion may be distributed (divided distribution) according to the situation of the game. If the game is distributed via the communication network 106 in this way, the consumer can easily obtain the program.

本実施の形態に係るゲーム装置の構成を示す図である。It is a figure which shows the structure of the game device which concerns on this Embodiment. コントローラの一例を示す図である。It is a figure which shows an example of a controller. ゲーム画面の一例を示す図である。It is a figure which shows an example of a game screen. 3次元ゲーム空間の一例を示す図である。It is a figure which shows an example of a three-dimensional game space. 本実施の形態に係るゲーム装置の機能ブロック図である。It is a functional block diagram of the game device concerning this embodiment. 標的オブジェクトテーブルの一例を示す図である。It is a figure which shows an example of a target object table. 弾オブジェクトテーブルの一例を示す図である。It is a figure which shows an example of a bullet object table. 音声データテーブルの一例を示す図である。It is a figure which shows an example of an audio | voice data table. 遅延時間テーブルの一例を示す図である。It is a figure which shows an example of a delay time table. 音声出力開始タイミングテーブルの一例を示す図である。It is a figure which shows an example of an audio | voice output start timing table. ゲーム装置で実行される処理を示すフロー図である。It is a flowchart which shows the process performed with a game device. ゲーム装置で実行される処理を示すフロー図である。It is a flowchart which shows the process performed with a game device. ゲーム装置で実行される処理を示すフロー図である。It is a flowchart which shows the process performed with a game device. 本発明の他の実施形態に係るプログラム配信システムの全体構成を示す図である。It is a figure which shows the whole structure of the program delivery system which concerns on other embodiment of this invention.

符号の説明Explanation of symbols

10 ゲーム装置、11,110 家庭用ゲーム機、12 バス、14 マイクロプロセッサ、16 画像処理部、18 モニタ、20 音声処理部、22 スピーカ、24 DVD−ROM再生部、25 DVD−ROM、26 主記憶、28 メモリカード、30 入出力処理部、32 コントローラ、34 方向ボタン、36 スタートボタン、38A,38B,38X,38Y,40L,40R,42L,42R ボタン、50 ゲーム画面、52 照準カーソル、54 弾オブジェクト、56 標的オブジェクト、60 3次元ゲーム空間、70 ゲームデータ記憶部、72 音声データ記憶部、74 ゲーム制御部、76 判定部、78 表示制御部、80 距離情報取得部、82 遅延制御部、84 遅延時間取得部、86 監視部、88 音声出力制御部、100 プログラム配信システム、102 ゲームデータベース、104 サーバ、106 通信ネットワーク、108 パソコン、112 携帯情報端末(PDA)、114 プログラム配信装置。   DESCRIPTION OF SYMBOLS 10 Game device, 11,110 Home-use game machine, 12 bus | bath, 14 Microprocessor, 16 Image processing part, 18 Monitor, 20 Sound processing part, 22 Speaker, 24 DVD-ROM reproduction | regeneration part, 25 DVD-ROM, 26 Main memory , 28 Memory card, 30 Input / output processing unit, 32 Controller, 34 direction button, 36 Start button, 38A, 38B, 38X, 38Y, 40L, 40R, 42L, 42R button, 50 game screen, 52 Aiming cursor, 54 bullet object 56 target object, 60 three-dimensional game space, 70 game data storage unit, 72 voice data storage unit, 74 game control unit, 76 determination unit, 78 display control unit, 80 distance information acquisition unit, 82 delay control unit, 84 delay Time acquisition unit, 86 monitoring unit, 88 audio output Control unit, 100 program distribution system, 102 game database, 104 server, 106 communication network, 108 personal computer, 112 personal digital assistant (PDA), 114 program distribution device.

Claims (9)

ゲームを実行するゲーム装置において、
前記ゲームにおいて発音イベントが発生したか否かを判定する判定手段と、
前記判定手段による判定結果に応じて、前記発音イベントに対応する音声の出力を開始する音声出力制御手段と、
前記発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得する距離情報取得手段と、
前記判定手段によって前記発音イベントが発生したと判定されたタイミングから、前記音声出力制御手段によって前記音声の出力が開始されるタイミングまでの時間の長さを、前記距離情報取得手段によって取得される距離情報に基づいて制御する遅延制御手段と、
を含むことを特徴とするゲーム装置。
In a game device that executes a game,
Determining means for determining whether or not a pronunciation event has occurred in the game;
Sound output control means for starting output of sound corresponding to the pronunciation event according to the determination result by the determination means;
Distance information acquisition means for acquiring distance information regarding the distance between the pronunciation position corresponding to the pronunciation event and a given reference position;
The distance acquired by the distance information acquiring unit from the timing at which the sounding event is determined by the determining unit to the timing at which the audio output control unit starts outputting the audio Delay control means for controlling based on information;
A game apparatus comprising:
請求項1に記載のゲーム装置において、
発音体を表す発音オブジェクトが配置される3次元ゲーム空間を所与の視点から見た様子を表すゲーム画面を表示する表示手段と、
前記判定手段による判定結果に応じて、前記発音イベントに対応する変化を前記ゲーム画面に与える表示制御手段と、を含み、
前記判定手段は、前記発音オブジェクトに関連する発音イベント発生条件が満足されたか否かを判定し、
前記発音位置は、前記発音オブジェクトの位置であり、
前記基準位置は、前記視点の位置又は前記3次元ゲーム空間に配置される操作対象オブジェクトの位置である、
ことを特徴とするゲーム装置。
The game device according to claim 1,
Display means for displaying a game screen representing a state in which a three-dimensional game space in which a sound generation object representing a sound body is arranged is viewed from a given viewpoint;
Display control means for giving a change corresponding to the pronunciation event to the game screen in accordance with a determination result by the determination means,
The determination means determines whether or not a sounding event occurrence condition related to the sounding object is satisfied,
The pronunciation position is a position of the pronunciation object,
The reference position is the position of the viewpoint or the position of the operation target object placed in the three-dimensional game space.
A game device characterized by that.
請求項1又は2に記載のゲーム装置において、
前記遅延制御手段は、
前記距離情報取得手段によって取得される距離情報に基づいて、遅延時間を取得する遅延時間取得手段と、
前記判定手段によって前記発音イベントが発生したと判定されたタイミングの後、少なくとも前記遅延時間取得手段によって取得された遅延時間が経過したか否かを監視する監視手段と、を含み、
前記監視手段による監視結果に応じて、前記音声出力制御手段に前記音声の出力を開始させる、
ことを特徴とするゲーム装置。
The game device according to claim 1 or 2,
The delay control means includes
A delay time acquiring means for acquiring a delay time based on the distance information acquired by the distance information acquiring means;
Monitoring means for monitoring whether at least the delay time acquired by the delay time acquisition means has elapsed after the timing at which the sounding event has been determined by the determination means;
In response to a monitoring result by the monitoring unit, the audio output control unit starts output of the audio;
A game device characterized by that.
請求項3に記載のゲーム装置において、
前記遅延時間取得手段は、
前記距離情報に対する条件を示す距離条件情報に対応づけて、前記遅延時間を示す遅延時間情報を記憶する遅延時間情報記憶手段を含み、
前記距離情報取得手段によって取得される距離情報によって満足される距離条件情報に対応づけて前記遅延時間情報記憶手段に記憶される遅延時間情報を読み出し、該遅延時間情報によって示される遅延時間を取得する、
ことを特徴とするゲーム装置。
The game device according to claim 3.
The delay time acquisition means includes
A delay time information storage means for storing delay time information indicating the delay time in association with distance condition information indicating a condition for the distance information;
The delay time information stored in the delay time information storage means is read in association with the distance condition information satisfied by the distance information acquired by the distance information acquisition means, and the delay time indicated by the delay time information is acquired. ,
A game device characterized by that.
請求項4に記載のゲーム装置において、
前記発音イベントに対応する音声に対応づけて、複数のグループ識別情報のうちのいずれかを記憶するグループ識別情報記憶手段を含み、
前記遅延時間情報記憶手段は、前記距離条件情報と前記グループ識別情報との組み合わせに対応づけて前記遅延時間情報を記憶し、
前記遅延時間取得手段は、前記距離情報取得手段によって取得される距離情報によって満足される距離条件情報と、前記発音イベントに対応する音声に対応づけて前記グループ識別情報記憶手段に記憶されるグループ識別情報と、の組み合わせに対応づけて前記遅延時間情報記憶手段に記憶される遅延時間情報を読み出し、該遅延時間情報によって示される遅延時間を取得する、
ことを特徴とするゲーム装置。
The game device according to claim 4,
Group identification information storage means for storing any of a plurality of group identification information in association with the sound corresponding to the pronunciation event;
The delay time information storage means stores the delay time information in association with a combination of the distance condition information and the group identification information,
The delay time acquisition unit associates distance condition information satisfied by the distance information acquired by the distance information acquisition unit, and a group identification stored in the group identification information storage unit in association with the sound corresponding to the pronunciation event. Read the delay time information stored in the delay time information storage means in association with the combination of information, and obtain the delay time indicated by the delay time information,
A game device characterized by that.
請求項3に記載のゲーム装置において、
前記遅延時間取得手段は、前記距離情報取得手段によって取得される距離情報に基づいて所定の演算処理を実行することによって、前記遅延時間を取得することを特徴とするゲーム装置。
The game device according to claim 3.
The game apparatus characterized in that the delay time acquisition means acquires the delay time by executing a predetermined calculation process based on the distance information acquired by the distance information acquisition means.
請求項6に記載のゲーム装置において、
前記発音イベントに対応する音声に対応づけて、複数のグループ識別情報のうちのいずれかを記憶するグループ識別情報記憶手段を含み、
前記遅延時間取得手段は、前記発音イベントに対応する音声に対応づけて前記グループ識別情報記憶手段に記憶されるグループ識別情報に応じて、前記演算処理を異ならせる、
ことを特徴とするゲーム装置。
The game device according to claim 6,
Group identification information storage means for storing any of a plurality of group identification information in association with the sound corresponding to the pronunciation event;
The delay time acquisition means makes the calculation process different according to group identification information stored in the group identification information storage means in association with a sound corresponding to the sounding event.
A game device characterized by that.
ゲームを実行するゲーム装置の制御方法において、
前記ゲームにおいて発音イベントが発生したか否かを判定するための判定ステップと、
前記判定ステップによる判定結果に応じて、前記発音イベントに対応する音声の出力を開始するための音声出力制御ステップと、
前記発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得するための距離情報取得ステップと、
前記判定ステップによって前記発音イベントが発生したと判定されたタイミングから、前記音声出力制御ステップによって前記音声の出力が開始されるタイミングまでの時間の長さを、前記距離情報取得ステップによって取得される距離情報に基づいて制御するための遅延制御ステップと、
を含むことを特徴とするゲーム装置の制御方法。
In a control method of a game device for executing a game,
A determination step for determining whether a pronunciation event has occurred in the game;
An audio output control step for starting output of audio corresponding to the pronunciation event according to the determination result of the determination step;
A distance information acquisition step for acquiring distance information regarding a distance between the pronunciation position corresponding to the pronunciation event and a given reference position;
The distance acquired by the distance information acquisition step from the timing at which the sounding event is determined by the determination step to the timing at which the audio output is started by the audio output control step A delay control step for controlling based on the information;
A method for controlling a game device, comprising:
ゲームを実行するゲーム装置としてコンピュータを機能させるためのプログラムであって、
前記ゲームにおいて発音イベントが発生したか否かを判定する判定手段、
前記判定手段による判定結果に応じて、前記発音イベントに対応する音声の出力を開始する音声出力制御手段、
前記発音イベントに対応する発音位置と、所与の基準位置と、の間の距離に関する距離情報を取得する距離情報取得手段、及び、
前記判定手段によって前記発音イベントが発生したと判定されたタイミングから、前記音声出力制御手段によって前記音声の出力が開始されるタイミングまでの時間の長さを、前記距離情報取得手段によって取得される距離情報に基づいて制御する遅延制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to function as a game device for executing a game,
Determining means for determining whether or not a pronunciation event has occurred in the game;
Sound output control means for starting output of sound corresponding to the pronunciation event according to the determination result by the determination means;
Distance information acquisition means for acquiring distance information regarding the distance between the pronunciation position corresponding to the pronunciation event and a given reference position; and
The distance acquired by the distance information acquiring unit from the timing at which the sounding event is determined by the determining unit to the timing at which the audio output control unit starts outputting the audio Delay control means for controlling based on information,
A program for causing the computer to function as
JP2005197093A 2005-07-06 2005-07-06 GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM Expired - Fee Related JP3917630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005197093A JP3917630B2 (en) 2005-07-06 2005-07-06 GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005197093A JP3917630B2 (en) 2005-07-06 2005-07-06 GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2007014444A true JP2007014444A (en) 2007-01-25
JP3917630B2 JP3917630B2 (en) 2007-05-23

Family

ID=37752121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005197093A Expired - Fee Related JP3917630B2 (en) 2005-07-06 2005-07-06 GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP3917630B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229292A (en) * 2008-03-24 2009-10-08 Denso Corp Sound output device and program
CN105159655A (en) * 2014-05-28 2015-12-16 腾讯科技(深圳)有限公司 Playing method and playing device for behavior event
CN111135572A (en) * 2019-12-24 2020-05-12 北京像素软件科技股份有限公司 Game sound effect management method and device, storage medium and electronic equipment

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229292A (en) * 2008-03-24 2009-10-08 Denso Corp Sound output device and program
CN105159655A (en) * 2014-05-28 2015-12-16 腾讯科技(深圳)有限公司 Playing method and playing device for behavior event
WO2015184959A3 (en) * 2014-05-28 2016-01-28 Tencent Technology (Shenzhen) Company Limited Method and apparatus for playing behavior event
CN105159655B (en) * 2014-05-28 2020-04-24 腾讯科技(深圳)有限公司 Behavior event playing method and device
CN111135572A (en) * 2019-12-24 2020-05-12 北京像素软件科技股份有限公司 Game sound effect management method and device, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP3917630B2 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
US20100035686A1 (en) Method of controlling computer device, storage medium, and computer device
KR100907205B1 (en) Message image display device, message image display device control method, and information recording medium
KR100935570B1 (en) Game device, control method for the game device, and information storage medium
JP4837988B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
KR20070106562A (en) Message image display device, massage image display device control method, and information storage medium
JP5457071B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD
JP4205747B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2006204671A (en) Game device, game device control method, and program
JP3881363B1 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
WO2007015383A1 (en) Game device, game device control method, and information storage medium
KR20080070764A (en) Game machine, game machine control method, and information storage medium
JP3917630B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP3880603B2 (en) Image processing apparatus, image processing method, and program
WO2006073051A1 (en) Game device, game device control method, and information storage medium
JP3496149B1 (en) Shooting game apparatus and program
JP4456135B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2006167479A (en) Game device, and control method and program of game device
JP2007143684A (en) Game device, method of processing image for game, and program
JP3881361B1 (en) Sound output device, sound output method and program
TWI381870B (en) Game device, method of controlling game device and information recording medium
JP3707740B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2005192878A (en) Game device, method of controlling game device and program
JP3819926B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP4226426B2 (en) 3D image processing apparatus, 3D image processing method and program
JP2006164168A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070208

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100216

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100216

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110216

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120216

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130216

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140216

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees