JP2007289713A - Virtual three dimensional sound image formation apparatus, its method, and medium - Google Patents

Virtual three dimensional sound image formation apparatus, its method, and medium Download PDF

Info

Publication number
JP2007289713A
JP2007289713A JP2007118554A JP2007118554A JP2007289713A JP 2007289713 A JP2007289713 A JP 2007289713A JP 2007118554 A JP2007118554 A JP 2007118554A JP 2007118554 A JP2007118554 A JP 2007118554A JP 2007289713 A JP2007289713 A JP 2007289713A
Authority
JP
Japan
Prior art keywords
sound
virtual
information
space
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007118554A
Other languages
Japanese (ja)
Inventor
Teruhiko Nakagawa
輝彦 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2007118554A priority Critical patent/JP2007289713A/en
Publication of JP2007289713A publication Critical patent/JP2007289713A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a virtual three dimensional sound image formation apparatus based on new conception which positively uses a sound for the development of a game. <P>SOLUTION: The virtual three dimensional sound image formation apparatus comprises an object information storage means 202 which memorizes physical information on a virtual object arranged in a virtual three-dimensional space and information on the material of the virtual object, an operating means 2 for controlling movement of a character and a sound marker within the virtual space for executing the emission direction of a sound source object of the character and sound emission control of the sound source object and the sound marker, a sound source storage means 203 which memorizes information about each sound source, two or more sound conversion means 204 which convert an acoustic signal into an audible sound, and a sound image processing means 205 which gives to the sound conversion means after variable controlling the sound information on the sound source object and the sound marker according to the location of the virtual space of the sound source object and the sound marker, information on the virtual object within the virtual three-dimensional space, and information about the material of the virtual object and forming an audible acoustic signal in the predetermined location and direction within the three-dimensional space. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は三次元音像生成装置及びその方法並びに媒体に関し、特に、遊戯者の聴覚を中心としてゲームを展開させる仮想三次元音像生成装置その方法並びに媒体に関する。   The present invention relates to a three-dimensional sound image generation apparatus, method and medium thereof, and more particularly to a virtual three-dimensional sound image generation apparatus method and medium for developing a game with a focus on a player's hearing.

この種の仮想三次元音像生成装置としては、三次元的物体情報を記憶する物体記憶部と、音源情報を記憶する音源記憶部と、これら記憶部に記憶されている壁等の物体の情報、音源の情報及びゲームの進行に伴って遊戯者の位置に到達する音響を発生させるための音響信号を形成する中央処理部と、この中央処理部で形成した音響信号を可聴音に変換するスピーカと、ゲーム画像を表示する表示手段と、この表示手段に表示されるキャラクタを移動させる操作盤とを備えたものが知られている(例えば、特開平4−316168号公報)。   As this type of virtual three-dimensional sound image generation device, an object storage unit that stores three-dimensional object information, a sound source storage unit that stores sound source information, information on objects such as walls stored in these storage units, A central processing unit that forms an acoustic signal for generating information that reaches the player's position as the sound source information and the game progress, and a speaker that converts the acoustic signal formed by the central processing unit into an audible sound A device including a display means for displaying a game image and an operation panel for moving a character displayed on the display means is known (for example, Japanese Patent Laid-Open No. 4-316168).

このような仮想三次元音像生成装置によれば、上記操作盤で表示手段上のキャラクタを移動させた位置及び方向に自己が存在するような状態で各種効果音が聴取されることになり、高度な仮想現実感を得ることができる。
特開平4−316168号公報
According to such a virtual three-dimensional sound image generating device, various sound effects are heard in a state where the user exists at the position and direction in which the character on the display means is moved on the operation panel. Can get a sense of virtual reality.
JP-A-4-316168

しかしながら、上述した従来の仮想三次元音像生成装置は、キャラクタと他のオブジェクトとの相対的位置関係において聞こえてくるであろう位置と向きで単に音響を再現しているだけであって、音響による仮想現実感は従来のゲーム装置より多く得られるものの、結局、音響は、従来の他のゲーム装置と同様にゲームの展開を効果的にするための道具でしかなく、音を積極的に使用してゲームを展開させるという発想のものではなかった。   However, the above-described conventional virtual three-dimensional sound image generation device simply reproduces the sound at the position and orientation that would be heard in the relative positional relationship between the character and the other object. Although virtual reality can be gained more than conventional game devices, sound is only a tool for making game development effective like other conventional game devices. It was not the idea of developing a game.

本発明は、上記従来技術に鑑み、音を積極的にゲームの展開に用いる新規な発想に基づく仮想三次元音像生成装置及びその方法並びに媒体を提供することを目的としている。   An object of the present invention is to provide a virtual three-dimensional sound image generation device based on a novel idea that uses sound actively for game development, a method thereof, and a medium.

本発明は、遊戯者が音源を任意に移動等させることにより音の持つ情報の変化からゲームを展開させる仮想三次元音像生成装置及びその方法並びに媒体を提供することを目的としている。   An object of the present invention is to provide a virtual three-dimensional sound image generating apparatus, a method thereof, and a medium that allow a player to develop a game from a change in information of sound by arbitrarily moving a sound source.

上記目的を達成するために、本発明に係る仮想三次元音像生成装置は、仮想空間内に音像を形成させる仮想三次元音像生成装置において、仮想三次元空間に配置された仮想物体の物理的な情報および当該仮想物体の材質に関する情報を記憶する物体情報記憶手段と、仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタを移動制御させるとともに音源オブジェクトの発射方向及び発音制御できる操作手段と、前記音源オブジェクトの音源に関する情報を記憶する音源記憶手段と、前記音響信号を可聴音に変換する複数の音響変換手段と、前記キャラクタの音源オブジェクトの仮想物体による空間内の位置、仮想三次元空間に配置された仮想物体の情報及びその仮想物体の材質に関する情報に応じて前記キャラクタの音響オブジェクトの音響情報を可変制御させるとともに前記三次元空間内の所定の位置及び向きで音響が聴取できるようにする音響信号に形成して前記音響変換手段に与える音像処理手段とを備えたことを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation device according to the present invention is a virtual three-dimensional sound image generation device that forms a sound image in a virtual space, and a physical object of a virtual object arranged in the virtual three-dimensional space. Object information storage means for storing information and information related to the material of the virtual object, operation means for controlling the movement of the player character in the space of the virtual object arranged in the virtual space and controlling the firing direction and sound generation of the sound source object, Sound source storage means for storing information related to the sound source of the sound source object, a plurality of sound conversion means for converting the acoustic signal into audible sound, a position of the character sound source object in the space by the virtual object, in a virtual three-dimensional space According to information on the arranged virtual object and information on the material of the virtual object, the character's acoustic object is displayed. And a sound image processing means that is formed into an acoustic signal that allows the sound information to be heard at a predetermined position and orientation in the three-dimensional space and is applied to the acoustic conversion means. It is what.

上記目的を達成するために、本発明に係る仮想三次元音像生成装置は、仮想空間内に音像を形成させる仮想三次元音像生成装置において、仮想三次元空間に配置された仮想物体の物理的な情報および当該仮想物体の材質に関する情報を記憶する物体情報記憶手段と、仮想空間に配置された仮想物体による空間内で音マーカーの移動制御させるとともに発音制御させる操作手段と、前記音マーカの音源に関する情報を記憶する音源記憶手段と、前記音響信号を可聴音に変換する複数の音響変換手段と、前記音マーカの仮想物体による空間内の位置、仮想三次元空間に配置された仮想物体の情報及びその構造物を構成する仮想物体の材質に関する情報に応じて前記音マーカの音響情報を可変制御させるとともに前記三次元空間内の所定の位置及び向きで音響が聴取できるようにする音響信号に形成して前記音響変換手段に与える音像処理手段とを備えたことを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation device according to the present invention is a virtual three-dimensional sound image generation device that forms a sound image in a virtual space, and a physical object of a virtual object arranged in the virtual three-dimensional space. Object information storage means for storing information and information on the material of the virtual object, operation means for controlling movement of the sound marker in the space by the virtual object arranged in the virtual space, and sound generation control, and a sound source of the sound marker A sound source storage means for storing information, a plurality of acoustic conversion means for converting the acoustic signal into an audible sound, a position of the sound marker in a space by a virtual object, information on a virtual object arranged in a virtual three-dimensional space, and The acoustic information of the sound marker is variably controlled according to information on the material of the virtual object constituting the structure, and a predetermined position in the three-dimensional space and It is characterized in that a sound image processing means for sound is formed in the acoustic signal to be able to listen given to the acoustic transducer means in the gas.

上記目的を達成するために、本発明に係る仮想三次元音像生成装置は、仮想空間内に音像を形成させる仮想三次元音像生成装置において、仮想三次元空間に配置された仮想物体の物理的な情報および当該仮想物体の材質に関する情報を記憶する物体情報記憶手段と、仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタ、音マーカを移動制御させるとともに音源オブジェクトの発射方向、あるいは音源オブジェクト及び音マーカ発音制御させる操作手段と、前記キャラクタの音源オブジェクト及び前記音マーカの音源に関する情報を記憶する音源記憶手段と、前記音響信号を可聴音に変換する複数の音響変換手段と、前記キャラクタの音源オブジェクト及び音マーカの仮想物体による空間内の相対位置、仮想三次元空間に配置された仮想物体の情報及びその構造物を構成する仮想物体の材質に関する情報に応じて前記キャラクタの音源オブジェクト及び/または音マーカの音響情報を可変制御させるとともに、前記三次元空間内の所定の位置及び向きで音響が聴取できるようにする音響信号に形成して前記音響変換手段に与える音像処理手段とを備えたことを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation device according to the present invention is a virtual three-dimensional sound image generation device that forms a sound image in a virtual space, and a physical object of a virtual object arranged in the virtual three-dimensional space. Object information storage means for storing information and information related to the material of the virtual object, movement control of the player character and sound marker in the space of the virtual object arranged in the virtual space, and the firing direction of the sound source object, or the sound source object and Operation means for controlling sound marker sound generation, sound source storage means for storing information relating to the sound source object of the character and the sound marker, a plurality of sound conversion means for converting the acoustic signal into an audible sound, and the sound source of the character Relative position in space by virtual object of object and sound marker, placed in virtual 3D space The acoustic information of the sound source object and / or the sound marker of the character is variably controlled in accordance with the information on the virtual object and the information on the material of the virtual object constituting the structure, and a predetermined position in the three-dimensional space. And a sound image processing means which is formed into an acoustic signal that allows the sound to be heard in the direction and is given to the acoustic conversion means.

本発明では、前記音像処理手段は、操作手段からの操作指令により音マーカが仮想物体による空間内を移動し当該仮想物体に衝突したと判定したときに、当該物体の材質の情報に応じて音マーカに属する音響情報を変化させる手段を備えたことを特徴とするものである。   In the present invention, when the sound image processing means determines that the sound marker has moved in the space of the virtual object and collided with the virtual object according to the operation command from the operation means, the sound image processing means performs sound according to the material information of the object. Means for changing acoustic information belonging to the marker is provided.

本発明では、前記音像処理手段は、前記キャラクタが仮想物体による空間内の移動状態を音響の移動した状態の音響情報に形成する手段を備えたことを特徴とするものである。   In the present invention, the sound image processing means includes means for forming the moving state of the character in the space by the virtual object into acoustic information in a state in which the sound has moved.

本発明では、前記音響変換手段は、三次元サウンドを再生できるものであることを特徴とするものである。   In the present invention, the acoustic conversion means is capable of reproducing a three-dimensional sound.

上記目的を達成するために、本発明に係る仮想三次元音像生成方法は、仮想空間内に音像を形成させる仮想三次元音像生成方法において、操作手段からの操作指令を基に仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタを移動制御し、かつ、その音源オブジェクトの発射方向及び発音制御し、当該キャラクタの音源オブジェクトの仮想物体による空間内の位置と、仮想三次元空間に配置された仮想物体の情報と、その仮想物体の材質に関する情報とに応じて前記キャラクタの音響情報を可変制御し、かつ、前記三次元空間内の所定の位置及び向きで音響が聴取可能にすることを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation method according to the present invention is a virtual three-dimensional sound image generation method for forming a sound image in a virtual space, and is arranged in a virtual space based on an operation command from an operation means. The player character is controlled to move in the space by the virtual object, and the sound source object's launch direction and sound generation are controlled, and the position of the sound source object of the character in the virtual object is placed in the virtual three-dimensional space. The acoustic information of the character is variably controlled according to information on the virtual object and information on the material of the virtual object, and the sound can be heard at a predetermined position and orientation in the three-dimensional space. It is what.

上記目的を達成するために、本発明に係る仮想三次元音像生成方法は、仮想空間内に音像を形成させる仮想三次元音像生成方法において、操作手段からの操作指令を基に仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタを移動制御し、かつ、その音源オブジェクトの発射方向及び発音制御し、当該キャラクタの音源オブジェクトの仮想物体による空間内の位置と、仮想三次元空間に配置された仮想物体の情報と、その仮想物体の材質に関する情報とに応じて前記キャラクタの音響情報を可変制御し、かつ、前記三次元空間内の所定の位置及び向きで音響が聴取可能にすることを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation method according to the present invention is a virtual three-dimensional sound image generation method for forming a sound image in a virtual space, and is arranged in a virtual space based on an operation command from an operation means. The player character is controlled to move in the space by the virtual object, and the sound source object's launch direction and sound generation are controlled, and the position of the sound source object of the character in the virtual object is placed in the virtual three-dimensional space. The acoustic information of the character is variably controlled according to information on the virtual object and information on the material of the virtual object, and the sound can be heard at a predetermined position and orientation in the three-dimensional space. It is what.

上記目的を達成するために、本発明に係る仮想三次元音像生成方法は、仮想空間内に音像を形成させる仮想三次元音像生成方法において、操作手段からの操作指令を基に仮想空間に配置された仮想物体による空間内で音マーカを配置制御し、かつ、その音マーカの発音制御し、当該音マーカの仮想物体による空間内の位置と、仮想三次元空間に配置された仮想物体の情報と、その仮想物体の材質に関する情報とに応じて前記音マーカ音響情報を可変制御し、かつ、前記三次元空間内の所定の位置及び向きで音響が聴取可能にすることを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation method according to the present invention is a virtual three-dimensional sound image generation method for forming a sound image in a virtual space, and is arranged in a virtual space based on an operation command from an operation means. The placement of the sound marker in the space of the virtual object, the sound control of the sound marker, the position of the sound marker in the space by the virtual object, and the information on the virtual object placed in the virtual three-dimensional space The sound marker acoustic information is variably controlled in accordance with information on the material of the virtual object, and the sound can be heard at a predetermined position and orientation in the three-dimensional space. .

上記目的を達成するために、本発明に係る仮想三次元音像生成方法は、仮想空間内に音像を形成させる仮想三次元音像生成方法において、操作手段からの操作指令を基に、仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタ、音マーカを移動制御させるとともに音源オブジェクトの発射方向、あるいは音源オブジェクト及び音マーカ発音制御し、前記キャラクタの音源オブジェクト及び音マーカの仮想物体による空間内の相対位置、仮想三次元空間に配置された仮想物体の情報及びその構造物を構成する仮想物体の材質に関する情報に応じて前記キャラクタの音源オブジェクト及び/または音マーカの音響情報を可変制御させるとともに、前記三次元空間内の所定の位置及び向きで音響が聴取可能にすることを特徴とするものである。   In order to achieve the above object, a virtual three-dimensional sound image generation method according to the present invention is a virtual three-dimensional sound image generation method for forming a sound image in a virtual space, and is arranged in a virtual space based on an operation command from an operation means. The player character and the sound marker are controlled to move in the space by the virtual object and the sound source object is emitted or the sound source object and the sound marker are controlled to be sounded. The acoustic information of the sound source object and / or the sound marker of the character is variably controlled according to the position, information on the virtual object arranged in the virtual three-dimensional space and information on the material of the virtual object constituting the structure, and It is characterized in that sound can be heard at a predetermined position and orientation in a three-dimensional space. It is.

本発明では、コンピュータを、上記の処理部及びデータ装置として機能させるプログラムを記録した媒体であることを特徴とする。   The present invention is characterized in that it is a medium recording a program that causes a computer to function as the processing unit and the data device.

なお、ここでいう媒体とは、何らかの物理的手段により情報(例えば、ゲームプログラム)が記憶されているものであって、ゲーム装置等の情報処理装置に所定の機能、例えば、ゲームプログラムの実行を行わせることができるものである。   Here, the medium is a medium in which information (for example, a game program) is stored by some physical means, and a predetermined function, for example, the execution of a game program is performed on an information processing apparatus such as a game apparatus. It can be done.

例えば、CD−R、ゲームカートリッジ、フロッピー(登録商標)ディスク、磁気テープ、光磁気ディスク、CD−ROM、DVD−ROM、DVD−RAM、ROMカートリッジ、パッテリバックアップRAM、フラッシュメモリ、不揮発性カートリッジ等を含む。   For example, CD-R, game cartridge, floppy (registered trademark) disk, magnetic tape, magneto-optical disk, CD-ROM, DVD-ROM, DVD-RAM, ROM cartridge, battery backup RAM, flash memory, nonvolatile cartridge, etc. including.

また、媒体には、電話回線や光ケーブル等の有線通信媒体、無線通信媒体等の通信媒体も含む。インターネットもここでいう通信媒体に含む。   The medium also includes a communication medium such as a wired communication medium such as a telephone line and an optical cable, and a wireless communication medium. The Internet is also included in the communication medium here.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔構成〕
図1は、本発明の実施の形態に係る仮想三次元音像生成装置が適用されたゲーム装置の概要を表すブロック図である。この図1において、ゲーム装置は、処理装置本体1と、操作装置2と、ディスプレイ3と、複数のスピーカ4,4とを備えている。
〔Constitution〕
FIG. 1 is a block diagram showing an outline of a game device to which a virtual three-dimensional sound image generating device according to an embodiment of the present invention is applied. In FIG. 1, the game device includes a processing device main body 1, an operation device 2, a display 3, and a plurality of speakers 4 and 4.

この処理装置本体1は、装置全体の制御を行うCPUブロック10、ゲーム画面の表示制御を行うビデオブロック11、効果音等を生成するサウンドブロック12、CD−ROM5の読み出しを行うサブシステム13等により構成されている。   The processing apparatus main body 1 includes a CPU block 10 that controls the entire apparatus, a video block 11 that controls display of a game screen, a sound block 12 that generates sound effects, a subsystem 13 that reads out a CD-ROM 5, and the like. It is configured.

CPUブロック10は、SCU(System Control Unit )100、メインCPU101、RAM102、ROM103、サブCPU104、CPUバス105等により構成されている。   The CPU block 10 includes an SCU (System Control Unit) 100, a main CPU 101, a RAM 102, a ROM 103, a sub CPU 104, a CPU bus 105, and the like.

メインCPU101は、装置全体の制御を行うものである。このメインCPU101は、内部にDSP(Digital Signal Processor)と同様の演算機能を備え、アプリケーションソフトを高速に実行可能である。RAM102は、メインCPU101のワークエリアとして使用されるものである。ROM103には、初期化処理用のイニシャルプログラム等が書き込まれている。SCU100は、バス105、106、107を制御することにより、メインCPU101、VDP120、130、DSP140、CPU141等の間におけるデータ入出力を円滑に行うものである。また、SCU100は、内部にDMAコントローラを備え、ゲーム中のスプライトデータをビデオブロック11内のVRAMに転送することができる。これにより、ゲーム等のアプリケーションソフトを高速に実行することが可能である。   The main CPU 101 controls the entire apparatus. The main CPU 101 has an arithmetic function similar to that of a DSP (Digital Signal Processor) inside, and can execute application software at high speed. The RAM 102 is used as a work area for the main CPU 101. In the ROM 103, an initial program for initialization processing and the like are written. The SCU 100 smoothly performs data input / output between the main CPU 101, the VDP 120, 130, the DSP 140, the CPU 141, and the like by controlling the buses 105, 106, and 107. Further, the SCU 100 includes a DMA controller therein, and can transfer sprite data during the game to the VRAM in the video block 11. Thereby, application software such as a game can be executed at high speed.

サブCPU104は、SMPC(System Manager & Peripheral Control )と呼ばれるもので、メインCPU101からの要求に応じて、操作装置(ペリフェラル)2を介して収集する機能等を備えている。メインCPU101はサブCPU104から受け取った操作(ペリフェラル)データに基づき、例えばゲーム画面中のキャラクタを移動させる等の処理を行うものである。サブCPU104は、コネクタ6に接続されたペリフェラルの種類を自動的に認識し、ペリフェラルの種類に応じた通信方式に従いペリフェラルデータ等を収集する機能を備えている。   The sub CPU 104 is called SMPC (System Manager & Peripheral Control) and has a function of collecting via the operation device (peripheral) 2 in response to a request from the main CPU 101. Based on the operation (peripheral) data received from the sub CPU 104, the main CPU 101 performs processing such as moving a character on the game screen, for example. The sub CPU 104 has a function of automatically recognizing the type of peripheral connected to the connector 6 and collecting peripheral data and the like according to a communication method corresponding to the type of peripheral.

ビデオブロック11は、ビデオゲームのポリゴンデータからなるキャラクタ等の描画を行うVDP(Video Display Processor )120、背景画面の描画、ポリゴン画像データおよび背景画像の合成、クリッピング処理等を行うVDP130とを備えている。VDP120はVRAM121およびフレームバッファ122、123に接続されている。ビデオゲーム機のキャラクタを表すポリゴンの描画データはメインCPU101からSCU100を介してVDP120に送られ、VRAM121に書き込まれる。VRAM121に書き込まれた描画データは、例えば、16または8ビット/pixel の形式で描画用のフレームバッファ122または123に描画される。描画されたフレームバッファ122または123のデータはVDP130に送られる。描画を制御する情報は、メインCPU101からSCU100を介してVDP120に与えられる。そして、VDP120は、この指示に従い描画処理を実行する。   The video block 11 includes a VDP (Video Display Processor) 120 for drawing a character or the like made of polygon data of a video game, and a VDP 130 for drawing a background screen, combining polygon image data and a background image, clipping processing, and the like. Yes. The VDP 120 is connected to the VRAM 121 and the frame buffers 122 and 123. Polygon drawing data representing a video game machine character is sent from the main CPU 101 to the VDP 120 via the SCU 100 and written to the VRAM 121. The drawing data written in the VRAM 121 is drawn in the drawing frame buffer 122 or 123 in a format of 16 or 8 bits / pixel, for example. The drawn data in the frame buffer 122 or 123 is sent to the VDP 130. Information for controlling drawing is provided from the main CPU 101 to the VDP 120 via the SCU 100. Then, the VDP 120 executes drawing processing according to this instruction.

VDP130はVRAM131に接続され、VDP130から出力された画像データはメモリ132を介してエンコーダ160に出力される構成となっている。エンコーダ160は、この画像データに同期信号等を付加することにより映像信号を生成し、ディスプレイ3に出力する。これにより、ディスプレイ3にゲームの画面が表示される。   The VDP 130 is connected to the VRAM 131, and image data output from the VDP 130 is output to the encoder 160 via the memory 132. The encoder 160 generates a video signal by adding a synchronization signal or the like to the image data and outputs the video signal to the display 3. Thereby, a game screen is displayed on the display 3.

サウンドブロック12は、PCM方式あるいはFM方式に従い音声合成を行うDSP140と、このDSP140の制御等を行うCPU141とにより構成されている。DSP140により生成された音声データは、D/Aコンバータ170により多チャンネルのアナログ音響信号に変換された後に電力増幅回路6,6で電力増幅して複数のスピーカ4,4にそれぞれ出力される。   The sound block 12 includes a DSP 140 that performs speech synthesis in accordance with the PCM method or the FM method, and a CPU 141 that controls the DSP 140 and the like. The audio data generated by the DSP 140 is converted into a multi-channel analog acoustic signal by the D / A converter 170 and then amplified by the power amplification circuits 6 and 6 and output to the plurality of speakers 4 and 4, respectively.

このサブシステム13は、CD−ROM5の形態で供給されるアプリケーションソフトの読み込みや、動画データおよび音声データの再生等を行う機能を備えている。   The sub-system 13 has functions for reading application software supplied in the form of the CD-ROM 5, reproducing video data and audio data, and the like.

〔機能ブロック〕
図2は、上記仮想三次元音像生成装置を示すブロック図である。この図2において、この仮想三次元音像生成装置201は、仮想三次元空間に配置された仮想物体の物理的な情報及び当該仮想物体の材質に関する情報を記憶する物体情報記憶手段202と、仮想空間に配置された仮想物体による空間内でキャラクタおよび/または音マーカを移動制御するとともにキャラクタの音源オブジェクトの発射向、音源オヤジェクト及び音マーカの発音制御をする操作手段2と、前記キャラクタおよび前記音源オブジェクトの各音源に関する情報を記憶する音源記憶手段203と、前記音響信号を可聴音に変換する複数の音響変換手段204と、前記キャラクタの音源オブジェクトおよび/または音マーカの仮想空間に配置された物体による空間内の位置、仮想三次元空間に配置された仮想物体の情報および仮想物体の材質に関する情報に応じて前記キャラクタの音源オブジェクトあるいは音マーカの音響情報を可変制御させるとともに前記三次元空間内の所定の位置及び向きで音響が聴取できるようにする音響信号に形成して前記音響変換手段204に与える音像処理手段205とからなる。
[Function block]
FIG. 2 is a block diagram showing the virtual three-dimensional sound image generating apparatus. In FIG. 2, the virtual three-dimensional sound image generating apparatus 201 includes an object information storage unit 202 that stores physical information of a virtual object arranged in the virtual three-dimensional space and information on the material of the virtual object, and a virtual space. Operating means 2 for controlling the movement of the character's sound source object, the sound source object's sound source object, and the sound marker's pronunciation control, and the character and the sound source object. Sound source storage means 203 for storing information related to each sound source, a plurality of sound conversion means 204 for converting the sound signal into audible sound, and an object placed in the virtual space of the sound source object and / or sound marker of the character Position in space, information on virtual objects placed in virtual three-dimensional space, and virtual objects The acoustic information of the sound source object or the sound marker of the character is variably controlled according to the information on the material of the character, and the acoustic signal is formed into an acoustic signal that allows the sound to be heard at a predetermined position and orientation in the three-dimensional space. It comprises sound image processing means 205 given to the conversion means 204.

なお、前記音響変換手段204は、複数のスピーカ4,4と、D/Aコンバータ170からの出力信号を電力増幅して前記複数のスピーカ4,4を駆動する電力増幅回路6,6と、これら電力増幅回路6,6にそれぞれ音響信号を与えるD/Aコンバータ170とからなる。   The acoustic conversion means 204 includes a plurality of speakers 4 and 4, power amplification circuits 6 and 6 that drive the plurality of speakers 4 and 4 by amplifying the output signal from the D / A converter 170, and these It comprises a D / A converter 170 for supplying acoustic signals to the power amplifier circuits 6 and 6, respectively.

ここで、音像処理手段205は次のようにして実現される。すなわち、メインCPU101は、まず、CD−ROM5に格納されたプログラムをRAM102に展開する。また、メインCPU101は、このRAM102に展開されたプログラムをが実行するとともに操作装置2からの操作データを取り込んで処理しつつビデオブロック11およびサウンドブロック12の動作を制御することにより、音像処理手段205が実現される。また、仮想三次元空間に配置された仮想物体の物理的な情報および当該仮想物体の材質に関する情報は、前記RAM102における物体情報記憶エリアに記憶されている。同様に、前記キャラクタ及び前記音源オブジェクトの音源に関する情報も、前記RAM102おける音源記憶エリアに記憶されている。なお、全ての情報をRAM102に記憶させることができないときには、ゲームの展開における当該場面の所定シーン後までのデータをCD−ROM5から取り出してきてはRAM102の所望エリアに展開するようにしてもよい。   Here, the sound image processing means 205 is realized as follows. That is, the main CPU 101 first develops a program stored in the CD-ROM 5 in the RAM 102. The main CPU 101 executes the program developed in the RAM 102 and controls the operations of the video block 11 and the sound block 12 while taking in and processing the operation data from the operation device 2, thereby obtaining the sound image processing means 205. Is realized. The physical information of the virtual object arranged in the virtual three-dimensional space and the information related to the material of the virtual object are stored in the object information storage area in the RAM 102. Similarly, information related to the sound source of the character and the sound source object is also stored in the sound source storage area in the RAM 102. When all information cannot be stored in the RAM 102, data up to a predetermined scene of the scene in the game development may be extracted from the CD-ROM 5 and developed in a desired area of the RAM 102.

〔ゲームの概要〕
図6は、ゲームにおいて使用する仮想空間に配置した物体で構成された空間の例を示す構成図である。この図では、建物250が平面図が示されている。ゲームは、プレイヤキャラクタ410を建物250のスタート地点251からゴール地点252までたどりつかせることを目的とするものである。
[Game Overview]
FIG. 6 is a configuration diagram illustrating an example of a space configured by objects arranged in a virtual space used in a game. In this figure, a plan view of the building 250 is shown. The game is intended to reach the player character 410 from the start point 251 to the goal point 252 of the building 250.

この建物250の構成について説明すると、建物250は、外壁253,254、255,256で囲まれている。また、建物250の内部には、部屋261,262,263,264が設けられている。部屋261は、所定の面積分を壁面271,272,273,274でもって囲むことにより構成されている。部屋262は、所定の面積分を壁面274,275,…,281でもって囲むことにより構成されている。部屋263は、所定の面積分を壁面282,283,284,285でもって囲むことにより構成されている。部屋264は、所定の面積分を壁面285,286,287,285でもって囲むことにより構成されている。   The configuration of the building 250 will be described. The building 250 is surrounded by outer walls 253, 254, 255, and 256. In addition, rooms 261, 262, 263, and 264 are provided inside the building 250. The room 261 is configured by surrounding a predetermined area with wall surfaces 271, 272, 273, and 274. The room 262 is configured by surrounding a predetermined area with wall surfaces 274, 275,. The room 263 is configured by surrounding a predetermined area with wall surfaces 282, 283, 284, and 285. The room 264 is configured by surrounding a predetermined area with wall surfaces 285, 286, 287, 285.

部屋261には壁面274部分にドア290が取り付けられており、部屋262との間のみ行き来ができる。部屋262には壁面277にドア291が設けられており、廊下303と部屋262との間で行き来ができる。部屋263には、壁面284にドア292が、壁面285にドア293がそれぞれ設けられており、ドア292によって廊下301と部屋263との間で、ドア293によって部屋263と部屋264との間で行き来ができる。部屋264には、壁面287にドア294が設けられており、ドア294によって廊下305と部屋264との間で行き来ができる。   A door 290 is attached to the wall surface 274 of the room 261, so that it can only go to and from the room 262. The room 262 is provided with a door 291 on the wall surface 277, and can be moved between the hallway 303 and the room 262. The room 263 is provided with a door 292 on the wall surface 284 and a door 293 on the wall surface 285, and the door 292 moves between the hallway 301 and the room 263, and the door 293 moves between the room 263 and the room 264. Can do. In the room 264, a door 294 is provided on the wall surface 287, and the door 294 can go between the hallway 305 and the room 264.

廊下301は、廊下302、303、304、305とつながっている。また、廊下306は、廊下302、304、305とつながっている。   The hallway 301 is connected to the hallways 302, 303, 304, and 305. The hallway 306 is connected to the hallways 302, 304, and 305.

なお、例えば廊下301、305のつながる付近にはエネミーキャラクタ420が配置されていたりする。   For example, an enemy character 420 may be disposed near the corridors 301 and 305.

このように壁面やドア等の仮想物体を仮想空間に配置して構成した空間内は、視界が濁った水中にいるように暗く遠くが見えない状況にあるものとする。したがって、ゲームの画面は、ディスプレイ5にほとんど表示されていない。   The space configured by arranging virtual objects such as walls and doors in the virtual space as described above is in a situation where the field of view is dark and indistinguishable as if the field of view is muddy. Therefore, the game screen is hardly displayed on the display 5.

ところで、このゲームにおける仮想物体で構成される空間に詰まっている媒質は、驚異的な音響伝播能力を持っており、かつ、その音響の伝播速度が極めて遅いという条件を備えたものとしてある。そして、この空間内において、プレーヤキャラクタ410は、指向性のある音波を前後左右上下の方向に向かって発射できる音源オブジェクト411を持っている。また、プレーヤキャラクタ410は、複数種の音マーカ412,412,…を持っていて、音マーカ412を投げたり、置いたりすることができるようになっている。また、音源オブジェクト411、音マーカ412から発射される音響は、物体の性質に応じて変調されるようにしてあるものとする。   By the way, the medium packed in the space composed of virtual objects in this game has an amazing acoustic propagation capability, and has the condition that the acoustic propagation speed is extremely slow. In this space, the player character 410 has a sound source object 411 that can emit directional sound waves in the front, rear, left, and right directions. Further, the player character 410 has a plurality of types of sound markers 412, 412,... So that the sound marker 412 can be thrown or placed. In addition, it is assumed that the sound emitted from the sound source object 411 and the sound marker 412 is modulated according to the properties of the object.

遊戯者は、操作装置2を操作してキャラクタを移動させて空間内をスタート地点251からゴール地点252までたどりつくことを目的をする。途中、エネミーキャラクタ420が出現することもある。攻撃は、別に仲間がいるかもしれないため、相手を音波で確認してから行うものとする。   The player aims at reaching the goal point 252 from the start point 251 in the space by operating the operation device 2 to move the character. On the way, the enemy character 420 may appear. Since the attack may have another mate, it is assumed that the opponent is confirmed with sound waves.

この音波を発射できる手段から発射された音波が反射音がされたときには、反射音が帰ってくる方向に何らかの物体が存在し、反射音が帰ってこない方向には物体が存在しないことがわかる。また、反射音の音の強さを感じ取ることにより、プレーヤキャラクタ410と物体との距離を想定することができる。例えば、廊下301の図示上側に音波を発射すれば反射音がないため、物体が存在しないことになる。一方、壁面272に向けて発射すれば、直ぐに、反射音が聞こえ、かつその反射音が大きいために、直ぐ近くに物体があると判断できる。   When the sound wave emitted from the means capable of emitting this sound wave is reflected, it can be seen that some object exists in the direction in which the reflected sound returns, and no object exists in the direction in which the reflected sound does not return. Further, by sensing the intensity of the reflected sound, the distance between the player character 410 and the object can be assumed. For example, if a sound wave is emitted to the upper side of the corridor 301 in the figure, there is no reflected sound, and therefore no object is present. On the other hand, if it is launched toward the wall surface 272, the reflected sound can be heard immediately and the reflected sound is loud, so that it can be determined that there is an object in the immediate vicinity.

音マーカ412は、各種の音響、例えば連続音、パルス音等の音を発射できるようにしたのものである。また、音マーカ412は、特殊な音を発生するものもある。さらに、この音マーカ412はプレーヤキャラクタ410が操作することができる。また、プレーヤキャラクタ410は、この音マーカ412の音響の発停制御ができる。これは、実際には、プレイヤが操作装置2を操作することにより指示できる。また、同じ所を何回も通ることを防止したり、袋小路に陥らないようにするために、ところどころに、音マーカ412を落としてゆくこともできる。   The sound marker 412 can emit various sounds such as continuous sounds and pulse sounds. Some of the sound markers 412 generate special sounds. Further, the player character 410 can operate the sound marker 412. Further, the player character 410 can control the on / off of the sound of the sound marker 412. In practice, this can be instructed by the player operating the operation device 2. In addition, the sound marker 412 can be dropped at various points in order to prevent the same place from being passed many times or to avoid falling into a dead end.

そして、プレーヤキャラクタ410がスタート地点251に立ったときに、ディスプレイ5には例えば図7に示すような廊下のイメージ画像500が表示されて暗い廊下内に侵入してゆかなければならない状況が与えられて、この中に入ってゆくと、ほとんどディスプレイ5の上には画像が表示されない状況の中で、音響の状況を確かめながらゴール地点252を目指してプレーヤキャラクタを進めてゆくものとする。   Then, when the player character 410 stands at the start point 251, for example, an image image 500 of a corridor as shown in FIG. 7 is displayed on the display 5, and a situation in which the player character 410 has to enter a dark corridor is given. Then, when the player enters the player character, the player character is advanced toward the goal point 252 while confirming the state of the sound in a situation where an image is hardly displayed on the display 5.

物体情報記憶手段202には、上記外壁253〜256、壁面271〜282、ドア290〜294の配置(3次元)データ、図示しないが床面、天井面等も配置(3次元)データや、当該部材253〜256,271〜282,290〜294、床面、天井面の材質の関するデータ、廊下301〜306に関するデータ、エネミーキャラクタ420の配置(3次元)データ等が記憶されている。また、音源記憶手段203には、プレーヤキャラクタ410、音源オブジェクトの音響に関するデータが記憶されている。   In the object information storage means 202, arrangement (three-dimensional) data of the outer walls 253 to 256, wall surfaces 271 to 282, doors 290 to 294, arrangement (three-dimensional) data (not shown) of the floor, ceiling, etc. Data on members 253 to 256, 271-282, 290 to 294, floor and ceiling materials, data on corridors 301 to 306, arrangement (three-dimensional) data of enemy characters 420, and the like are stored. The sound source storage unit 203 stores data relating to the sound of the player character 410 and the sound source object.

〔プレーヤキャラクタの音源オブジェクトによる音像処理動作〕
次に、同実施の形態におけるプレーヤキャラクタの持つ音源オブジェクトによる音像処理動作について図1乃至図3、図6、図7を参照して説明する。ここで、図3は、プレーヤキャラクタに持っている音源オブジェクトによる音像処理を説明するためのフローチャートである。
[Sound image processing operation by sound source object of player character]
Next, the sound image processing operation by the sound source object possessed by the player character in the embodiment will be described with reference to FIGS. 1 to 3, 6, and 7. FIG. Here, FIG. 3 is a flowchart for explaining the sound image processing by the sound source object possessed by the player character.

プレーヤキャラクタ410は、直交座標系(X,Y,Z)の仮想三次元空間にいるものとして当該音像処理が進められることになる。このプレーヤキャラクタ410の立っている地点を現地点とし、この現地点を、X0 ,Y0 ,Z0 とすることにする。   The sound image processing is advanced on the assumption that the player character 410 is in the virtual three-dimensional space of the orthogonal coordinate system (X, Y, Z). A point where the player character 410 stands is a local point, and these local points are X0, Y0 and Z0.

そして、プレイヤは、プレーヤキャラクタ410が立っている地点からある方向に何があるか調査したと考えたときには、プレーヤキャラクタ410が持っている音源オブジェクト411から調査したい方向に向けて音波を発射する。   Then, when the player thinks that the player character 410 has investigated what is in a certain direction from the point where the player character 410 is standing, the player emits sound waves from the sound source object 411 held by the player character 410 in the direction to be investigated.

これにより、メインCPU101は、図3に示すフローチャートを実行することになる。いま仮に、例えばX軸方向に音波を発射したとする。メインCPU101の負担を少なくするため、この音波の進行については、X軸方向に音波の進行速度に合わせて所定の領域DがX軸上を進んでゆくものとして処理をする。この領域Dは、例えば{Y2 +Z2 =K2 }として表現し、半径Kの円板が当該空間内の音波の進む速度で移動することとして処理する。 As a result, the main CPU 101 executes the flowchart shown in FIG. For example, assume that a sound wave is emitted in the X-axis direction. In order to reduce the burden on the main CPU 101, the progress of the sound wave is processed on the assumption that the predetermined region D advances on the X axis in accordance with the traveling speed of the sound wave in the X axis direction. This region D is expressed as, for example, {Y 2 + Z 2 = K 2 }, and is processed as a disk having a radius K moves at a speed at which sound waves travel in the space.

まず、メインCPU101では、領域Dを音波の進行速度に合わせて進行させるため、X軸の値を進行速度に従って変化させる(S301)。既に説明したが、当該空間に詰まっている媒質は驚異的な音響伝播能力を持っており、かつ、その音響の伝播速度が極めて遅いという条件になっているものの、音響の振幅の減衰は距離に比例するようになっている。   First, the main CPU 101 changes the value of the X axis in accordance with the traveling speed in order to advance the region D according to the traveling speed of the sound wave (S301). As already explained, although the medium packed in the space has a tremendous acoustic propagation capability and the acoustic propagation speed is extremely slow, the attenuation of the acoustic amplitude is dependent on the distance. Proportional.

メインCPU101は、上記条件でX軸の値を変化させて音波が所定時刻後に到達する座標位置に当該領域Dを配置することにより当該領域Dを音波の進行速度に合わせた形で等価的に移動させ、かつ当該座標位置を基にしてRAM102の物体情報記憶手段202内を検索し、当該座標位置に物体があるかを判定する(S302)。メインCPU101は、当該領域Dの座標位置に物体がないと判定したときには(S302;NO)、音波が到達限界距離まですすんだかを判定する(S303)。ここで、「到達限界距離」とは、音波が媒質内を進行してゆく過程で音波の振幅が徐々に減衰し、反射されてもプレーヤキャラクタ410の位置まで音波が到達できない距離のことをいう。   The main CPU 101 changes the value of the X axis under the above conditions and moves the region D in an equivalent manner to the traveling speed of the sound wave by arranging the region D at the coordinate position where the sound wave reaches after a predetermined time. Then, the object information storage unit 202 of the RAM 102 is searched based on the coordinate position, and it is determined whether there is an object at the coordinate position (S302). When determining that there is no object at the coordinate position of the area D (S302; NO), the main CPU 101 determines whether the sound wave has reached the reachable limit distance (S303). Here, the “arrival limit distance” means a distance in which the sound wave cannot reach the position of the player character 410 even if the sound wave amplitude is gradually attenuated and reflected while the sound wave travels in the medium. .

ここで、メインCPU101は、当該領域Dが到達限界距離に達していないと判断したときには(S303;YES)、既に減衰処理したかを判定する(S304)。メインCPU101は、減衰処理をしていないと判断したときには(S304;NO)、音源オブジェクト411から発射された音波を減衰させながら消滅させる命令をサウンドブロック12に与える(S305)。これにより、スピーカ4,4からは、プレーヤキャラクタ410の手元の音源オブジェクト411から音波が発射された状態、例えば発射音が聞こえて直ぐにその音が消滅する状態の音像が再現される。そして、メインCPU101は、再び、ステップS301に処理に移行する。   Here, when the main CPU 101 determines that the area D has not reached the reach limit distance (S303; YES), the main CPU 101 determines whether attenuation processing has already been performed (S304). When determining that the attenuation process is not performed (S304; NO), the main CPU 101 gives a command to the sound block 12 to extinguish the sound wave emitted from the sound source object 411 while attenuating (S305). As a result, a sound image is reproduced from the speakers 4 and 4 in a state in which sound waves are emitted from the sound source object 411 at hand of the player character 410, for example, a state in which the sound disappears immediately after the emission sound is heard. Then, the main CPU 101 proceeds to the process again at step S301.

すると、メインCPU101は音波の進行速度に合わせてX軸の値、すなわち一定時間後に音波が到達しているX軸上の距離となるようにX軸の値を変化させる(S301)。これにより、領域Dは、先程の位置よりX軸上を進んだ位置に移動したことになる。メインCPU101は、当該領域Dの座標位置を基にしてRAM102の物体情報記憶手段202内を検索し、当該座標位置に物体があるかを判定する(S302)。メインCPU101は、当該領域Dの座標位置に物体がないと判定したときには(S302;NO)、再び、当該領域Dが到達限界距離に達したかを判断する(S303)。この到達限界距離に領域Dが達していないとメインCPU101で判断されたときには(S303;NO)、既に減衰処理したかを判定する(S304)。この処理は既に実行しているとメインCPU101によって判断されるので(S304;YES)、再び、メインCPU101は処理をステップS301に移行させる。   Then, the main CPU 101 changes the value of the X axis in accordance with the traveling speed of the sound wave, that is, the value of the X axis so as to be the distance on the X axis where the sound wave reaches after a certain time (S301). Thereby, the region D has moved to a position advanced on the X axis from the previous position. The main CPU 101 searches the object information storage unit 202 of the RAM 102 based on the coordinate position of the area D, and determines whether there is an object at the coordinate position (S302). When determining that there is no object at the coordinate position of the area D (S302; NO), the main CPU 101 determines again whether the area D has reached the reach limit distance (S303). When the main CPU 101 determines that the area D has not reached this reachable limit distance (S303; NO), it is determined whether attenuation processing has already been performed (S304). Since the main CPU 101 determines that this process has already been executed (S304; YES), the main CPU 101 shifts the process to step S301 again.

このステップS301〜S304あるいはS305の処理をメインCPU101は繰り返して実行してゆく。   The main CPU 101 repeats the processing of steps S301 to S304 or S305.

ここで、ステップS301〜S304をメインCPU101が繰り返し実行してゆき、メインCPU101は領域D(音波)が到達限界距離に達したと判定したときには(S303;YES)、この処理を抜ける。このとき、音波の振幅の減衰特性はプレーヤには当初わからないので、音波が到達限界距離に達したことをプレーヤに知らせるために、ビデオブロック11に命令を出して例えば音源オブジェクト411上に点滅表示さけるようにし、また、サウンドブロック12に命令を出して特別な音響を発するようにしてもよい。このようにすることにより、プレイヤは音波が到達限界距離の感覚を掴むことができ、次の段階にその感覚を利用することができる。   Here, when the main CPU 101 repeatedly executes steps S301 to S304 and the main CPU 101 determines that the region D (sound wave) has reached the reach limit distance (S303; YES), the process exits this process. At this time, since the player does not know the attenuation characteristic of the sound wave amplitude at first, in order to notify the player that the sound wave has reached the reachable limit distance, a command is issued to the video block 11 and blinked on the sound source object 411, for example. Alternatively, a special sound may be emitted by giving a command to the sound block 12. By doing so, the player can grasp the sense of the reach limit distance by the sound wave, and can use that sense in the next stage.

一方、このステップS301〜S304の処理をメインCPU101が繰り返して実行してゆき、メインCPU101は、該座標位置を基にしてRAM102の物体情報記憶手段202内を検索し、当該領域Dの座標位置に物体があると判定したときには(S302;YES)、RAM102の物体情報記憶手段202内から当該物体の性質に関するデータを取り出す(S306)。そして、メインCPU101は、当該データから当該物体の性質が反射するものか否かを判断し(S307)、反射しないものの場合には(S307;NO)、ステップ303の到達限界距離の判断に移行する。これは、音波が反射しない物体の場合には、音波は透過してしまうか、その物体内において減衰してしまうので、まったく物体の無い場合と同じに扱うことができるからである。   On the other hand, the main CPU 101 repeatedly executes the processing of steps S301 to S304, the main CPU 101 searches the object information storage unit 202 of the RAM 102 based on the coordinate position, and sets the coordinate position of the region D to the coordinate position. When it is determined that there is an object (S302; YES), data relating to the property of the object is extracted from the object information storage unit 202 of the RAM 102 (S306). Then, the main CPU 101 determines whether or not the property of the object is reflected from the data (S307). If it is not reflected (S307; NO), the main CPU 101 proceeds to the determination of the reachable limit distance in step 303. . This is because, in the case of an object that does not reflect sound waves, the sound waves are transmitted or attenuated within the object, and can be handled in the same manner as when there is no object at all.

また、当該データを基に反射する物体であるとメインCPU101が判断したときには(S307;YES)、音源オブジェクト411と物体との距離を計算する(S308)。そして、メインCPU101は、その計算結果に基づいて反射音が当該物体から反射されかつその往復距離に基づいた音波の振幅の減衰状態にして出力するような指令を形成する(S309)。   When the main CPU 101 determines that the object is a reflection object based on the data (S307; YES), the distance between the sound source object 411 and the object is calculated (S308). Then, the main CPU 101 forms a command for reflecting the reflected sound from the object based on the calculation result and outputting the sound wave in an attenuation state based on the reciprocating distance (S309).

そして、メインCPU101は、前記物体の性質に関するデータから物体が壁等の造形物であると判断したときには(S310;YES)、上記ステップ309の指令とともに音源オブジェクト411から発射された音質のままで出力する指令をサウンドブロック12に供給する。これにより、発射してから一定の時間経過してから、音源オブジェクト411から発射した音波の方向の側から全く同じ音質の反射音が聞こえ、しかも、距離に応じて音波の振幅が減少した状態の音像をプレーヤに与えることになる。この結果、プレーヤは、プレーヤキャラクタ410の音源オブジェクト411に向けた方向に壁があって、しかも、その壁までの距離は音源オブジェクト411から音波を発射してから反射音が聞こえた時間に相当する距離の半分の距離だけ離れていることを理解する。   When the main CPU 101 determines that the object is a modeled object such as a wall from the data on the properties of the object (S310; YES), the main CPU 101 outputs the sound quality emitted from the sound source object 411 together with the instruction in step 309. To the sound block 12. As a result, after a certain period of time has elapsed since the launch, a reflected sound of exactly the same sound quality is heard from the direction of the sound wave emitted from the sound source object 411, and the amplitude of the sound wave is reduced according to the distance. A sound image is given to the player. As a result, the player has a wall in the direction of the player character 410 toward the sound source object 411, and the distance to the wall corresponds to the time when the reflected sound is heard after the sound wave is emitted from the sound source object 411. Understand that they are half the distance away.

一方、メインCPU101は、前記物体の性質に関するデータから物体が壁等の造形物ではないと判断したときには(S310;YES)、過去にでてきた物体に関するデータを登録しておく登録エリアを調べ、前記物体の性質に関するデータと当該登録エリアのデータを突き合わせ、同一でないと判断したときには(S312;NO)、音質をいままで出てきた音質とは変化させる指令を形成して、上記ステップ309の指令とともに、サウンドブロック12に供給する(S313)。これにより、発射してから一定の時間経過してから、音源オブジェクト411から発射した音波の方向の側から反射音が聞こえ、しかも、今まで聞いたこともない音質が出力されるようにし、しかも、距離に応じて音波の振幅が減少した状態の音像をプレーヤに与えることになる。これにより、プレイヤーは、音質から未確認物体であると判断することができる。そして、メインCPU101は、その物体の性質のデータを登録エリアに格納し(S314)、この処理を抜ける。なお、このステップS314の処理は、以降の処理において同一の性質をもつ物体が出現したときに、同一の状態の反射音を形成するためのものである。   On the other hand, when the main CPU 101 determines that the object is not a shaped object such as a wall from the data regarding the property of the object (S310; YES), the main CPU 101 checks a registration area in which data regarding the object that has appeared in the past is registered. When the data relating to the property of the object is matched with the data in the registration area and it is determined that they are not the same (S312; NO), a command for changing the sound quality from the sound quality that has come out so far is formed. At the same time, it is supplied to the sound block 12 (S313). As a result, after a certain period of time has elapsed since the launch, the reflected sound is heard from the direction of the sound wave emitted from the sound source object 411, and the sound quality that has never been heard is output. The sound image with the amplitude of the sound wave decreased according to the distance is given to the player. Thus, the player can determine that the object is an unconfirmed object from the sound quality. Then, the main CPU 101 stores the property data of the object in the registration area (S314), and exits this process. Note that the processing in step S314 is for forming reflected sound in the same state when an object having the same property appears in the subsequent processing.

さらに、メインCPU101は、前記物体の性質に関するデータから物体が壁等の造形物ではないと判断したときには(S310;YES)、過去にでてきた物体に関するデータを登録しておく登録エリアを調べ、前記物体の性質に関するデータと当該登録エリアのデータを突き合わせ、同一である判断したときには(S312;YES)、前に出力した音質の音響が発生するような指令を、上記ステップ309の指令とともに、サウンドブロック12に供給する(S315)。これにより、発射してから一定の時間経過してから、音源オブジェクト411から発射した音波の方向の側から反射音が聞こえ、しかも、過去に聞いたことがある音質が出力されるようにし、しかも、距離に応じて音波の振幅が減少した状態の音像をプレーヤに与えることになる。   Further, when the main CPU 101 determines that the object is not a shaped object such as a wall from the data relating to the property of the object (S310; YES), the main CPU 101 checks a registration area in which data relating to the object that has appeared in the past is registered, When the data relating to the property of the object and the data in the registered area are matched and it is determined that they are the same (S312; YES), a command for generating sound of the sound quality output previously is generated together with the command in step 309. It supplies to the block 12 (S315). As a result, after a certain time has passed since the launch, the reflected sound is heard from the direction of the sound wave emitted from the sound source object 411, and the sound quality that has been heard in the past is output. The sound image with the amplitude of the sound wave decreased according to the distance is given to the player.

なお、上記説明では、領域DがX軸上を移動する例で説明したが、もちろん、X,Y,Zの直交座標系における任意の座標を移動するものとして取り扱うことができる。   In the above description, the example in which the region D moves on the X axis has been described, but of course, any coordinate in the X, Y, Z orthogonal coordinate system can be handled as moving.

このようにしてプレーヤキャラクタ410が持っている音源オブジェクト411から音波を発射し、プレーヤキャラクタ410の建物250の内部の状況を音波の反射がある無しで調査し、上記建物250の内部をスタート地点251からゴール地点252までを通過してゆくことになる。   In this way, sound waves are emitted from the sound source object 411 possessed by the player character 410, the situation inside the building 250 of the player character 410 is examined without reflection of sound waves, and the inside of the building 250 is checked at the start point 251. To the goal point 252.

〔音マーカによる第1の音像処理動作〕
次に、同実施の形態における音マーカによる音像処理動作について図1図2、図4、図6及び図7を参照して説明する。ここで、図4は、音マーカによる第1の音像処理を説明するためのフローチャートである。
[First sound image processing operation by sound marker]
Next, the sound image processing operation by the sound marker in the embodiment will be described with reference to FIGS. 1, 2, 4, 6 and 7. Here, FIG. 4 is a flowchart for explaining the first sound image processing by the sound marker.

この音マーカによる第1の音像処理は、音マーカ412を所定の位置に置き、この音マーカ412とプレーヤキャラクタ410との位置関係で音像が変化することにより、プレーヤキャラクタ410の置かれている状況を判断することができるようにするための音像処理である。具体的には、プレーヤキャラクタ410が移動したときに、「音が減衰する」、「音が増幅する」、「音の大きさが変わらず定位が変化する」、あるいは、「音が急激に聞こえにくくなる」というような音像が得られたときに、プレーヤキャラクタ410はどのような状況にあるかを判定させるための音像を形成する音像処理である。   In the first sound image processing by this sound marker, the sound marker 412 is placed at a predetermined position, and the sound image changes depending on the positional relationship between the sound marker 412 and the player character 410, whereby the player character 410 is placed. Is a sound image process for making it possible to determine Specifically, when the player character 410 moves, “the sound is attenuated”, “the sound is amplified”, “the position is changed without changing the loudness”, or “the sound is heard rapidly. This is sound image processing for forming a sound image for determining what state the player character 410 is in when a sound image such as “becomes difficult” is obtained.

すなわち、プレイヤーが操作装置2を操作してプレーヤキャラクタ410を移動させているときに、「音が減衰する」音像をメインCPU101が形成してサウンドブロック12に指令すると、プレイヤーには音が減衰した状態の音像が与えられることになる。したがって、プレイヤーは、この音像からプレーヤキャラクタ410が音マーカ412から離れていく状況にあると判断させる。   That is, when the player operates the controller device 2 to move the player character 410 and the main CPU 101 forms a sound image that “sound is attenuated” and commands the sound block 12, the sound is attenuated to the player. A sound image of the state will be given. Therefore, the player determines that the player character 410 is away from the sound marker 412 from this sound image.

また、プレーヤキャラクタ410を移動させているときに、「音が増幅する」音像をメインCPU101が形成してサウンドブロック12に指令すると、プレイヤーには音が増幅した状態の音像が与えられることになる。したがって、プレイヤーは、この音像からプレーヤキャラクタ410が音マーカ412に近づいてゆく状況にあると判断させる。   Further, when the main CPU 101 forms a sound image “amplifies sound” and instructs the sound block 12 while moving the player character 410, the player is given a sound image in a state where the sound is amplified. . Therefore, the player determines that the player character 410 is approaching the sound marker 412 from this sound image.

さらに、プレーヤキャラクタ410を移動させているときに、「音の大きさが変わらず定位が変わる」音像をメインCPU101が形成してサウンドブロック12に指令すると、プレイヤーには音の大きさが変化せずに定位が変化した状態の音像が与えられることになる。したがって、プレイヤーは、この音像からプレーヤキャラクタ410が音マーカ412に平行に移動している状況にあると判断させる。   Further, when the main CPU 101 forms a sound image “the sound volume does not change and the localization changes” when the player character 410 is moved, the sound volume is changed for the player. Therefore, a sound image in which the localization is changed is given. Therefore, the player determines that the player character 410 is moving in parallel with the sound marker 412 from this sound image.

加えて、プレーヤキャラクタ410を移動させているときに、「音が急激に聞こえにくくなる」音像をメインCPU101が形成してサウンドブロック12に指令すると、プレイヤーには音が急激に聞こえにくくなる状態の音像が与えられることになる。したがって、プレイヤーは、この音像からプレーヤキャラクタ410と音マーカ412との間に障害物があると判断させる。   In addition, when the main CPU 101 forms a sound image that makes sound difficult to hear when the player character 410 is moved and commands the sound block 12, the sound is difficult to hear for the player. A sound image will be given. Accordingly, the player determines from this sound image that there is an obstacle between the player character 410 and the sound marker 412.

このような音像を形成するための動作を図4のフローチャートを説明する。この前提になるのは、音マーカ412を所定の場所に配置することにある。そして、操作装置2を操作してプレーヤキャラクタ410を移動させる。まず、メインCPU101は、音マーカ412の位置を取り込む(S401)。ついで、メインCPU101は、プレーヤキャラクタ410の位置を取り込む(S402)。メインCPU101は、音マーカ412とプレーヤキャラクタ410との位置データに基づいて、音マーカ412とプレーヤキャラクタ410との間に物体があるかをRAM102の物体情報記憶手段202を検索して判定する(S403)。ここで、メインCPU101は、音マーカ412とプレーヤキャラクタ410との間に物体があると判断したときには(S403;YES)、物体情報記憶手段202から物体の性質のデータを取り込む(S404)。ここで、メインCPU101は、物体の性質のデータを基に音が反射する物体であるか否かを判断する(S405)。ここで、メインCPU101は反射する物体であると判断したときには(S405;YES)、音を聞こえ難くする処理を実行して(S406)、処理を抜ける。すなわち、ステップS401〜S406が処理されることにより、「音が急激に聞こえにくくなる」音像が形成されることになる。   The operation for forming such a sound image will be described with reference to the flowchart of FIG. This premise is that the sound marker 412 is arranged at a predetermined location. Then, the player character 410 is moved by operating the controller device 2. First, the main CPU 101 captures the position of the sound marker 412 (S401). Next, the main CPU 101 captures the position of the player character 410 (S402). Based on the position data of the sound marker 412 and the player character 410, the main CPU 101 searches the object information storage unit 202 of the RAM 102 to determine whether there is an object between the sound marker 412 and the player character 410 (S403). ). Here, when the main CPU 101 determines that there is an object between the sound marker 412 and the player character 410 (S403; YES), the main CPU 101 takes in the data of the property of the object from the object information storage means 202 (S404). Here, the main CPU 101 determines whether or not the object reflects sound based on the object property data (S405). Here, when the main CPU 101 determines that the object is a reflecting object (S405; YES), a process for making it difficult to hear the sound is executed (S406), and the process is exited. That is, by performing steps S401 to S406, a sound image that makes it difficult to hear sound suddenly is formed.

一方、反射しない物体であるとメインCPU101が判断したときには(S405;NO)、メインCPU101はフラッグFに“1”を設定し(S407)、プレーヤキャラクタ410と音マーカ412との距離を計算する(S408)。次に、メインCPU101は、前回求め記憶しておいたプレーヤキャラクタ410と音マーカ412との距離を取り出す(S409)。そして、メインCPU101は、プレーヤキャラクタ410と音マーカ412との今回の距離と、前回の距離との比較を行う(S410)。   On the other hand, when the main CPU 101 determines that the object is not reflected (S405; NO), the main CPU 101 sets “1” to the flag F (S407), and calculates the distance between the player character 410 and the sound marker 412 (S407). S408). Next, the main CPU 101 takes out the distance between the player character 410 and the sound marker 412 that has been obtained and stored last time (S409). Then, the main CPU 101 compares the current distance between the player character 410 and the sound marker 412 with the previous distance (S410).

プレーヤキャラクタ410と音マーカ412との間の距離が減少しているとメインCPU101が判定したときには(S410;減少)、メインCPU101はフラッグFに“1”が設定されているかを判定する(S411)。この場合、フラッグFに“1”が設定されているので(S411;YES)、メインCPU101は物体の性質に応じた減衰係数を設定し(S412)、音を物体の性質に応じた一定の減衰係数だけ音波の振幅を減衰させる(S414)。そして、メインCPU101は、到達限界距離に到達したかを判断する(S415)。到達限界距離に到達しないときには(S415;NO)、メインCPU101は、再び、プレーヤキャラクタ410の位置のデータを取り込む(S402)。このようにステップS401〜S405、S407〜S415の処理して、サウンドブロック12に指令を与えることにより、音が透過する物体中を通った音波の減少状況がスピーカ4,4から再現する。したがって、通常の距離により急激に音波の大きさが減少したような音像がプレイヤーに提供される。   When the main CPU 101 determines that the distance between the player character 410 and the sound marker 412 is decreasing (S410; decrease), the main CPU 101 determines whether “1” is set in the flag F (S411). . In this case, since the flag F is set to “1” (S411; YES), the main CPU 101 sets an attenuation coefficient according to the property of the object (S412), and the sound is attenuated at a certain amount according to the property of the object. The amplitude of the sound wave is attenuated by the coefficient (S414). Then, the main CPU 101 determines whether or not the reach limit distance has been reached (S415). When the reach limit distance is not reached (S415; NO), the main CPU 101 takes in the data of the position of the player character 410 again (S402). In this way, the processing of steps S401 to S405 and S407 to S415 is performed to give a command to the sound block 12, so that the sound wave reduction state passing through the sound transmitting object is reproduced from the speakers 4 and 4. Therefore, the player is provided with a sound image in which the magnitude of the sound wave is suddenly reduced by the normal distance.

一方、プレーヤキャラクタ410と音マーカ412との間の距離が増大しているとメインCPU101が判定したときには(S410;増大)、メインCPU101はフラッグFに“1”が設定されているかを判定する(S416)。この場合、フラッグFに“1”が設定されているので(S416;YES)、メインCPU101は物体の性質に応じた減衰係数を設定し(S417)、音を物体の性質に応じた一定の減衰係数の基に音波の振幅を大きくなるようにする(S418)。そして、メインCPU101は、プレーヤキャラクタ410が物体にが到達したかを判断する(S419)。物体に一致したときには(S419;物体に一致)、それ以上音波を大きくしない処理をして(S420)、ステップS402に戻る。   On the other hand, when the main CPU 101 determines that the distance between the player character 410 and the sound marker 412 has increased (S410; increase), the main CPU 101 determines whether "1" is set in the flag F ( S416). In this case, since “1” is set in the flag F (S416; YES), the main CPU 101 sets an attenuation coefficient according to the property of the object (S417), and the sound is attenuated at a certain amount according to the property of the object. The amplitude of the sound wave is increased based on the coefficient (S418). Then, the main CPU 101 determines whether or not the player character 410 has reached the object (S419). When it matches with the object (S419; matches with the object), the process of further increasing the sound wave is performed (S420), and the process returns to step S402.

さらに、プレーヤキャラクタ410と音マーカ412との間の距離が変化していないとメインCPU101が判定したときには(S410;変化なし)、メインCPU101はフラッグFに“1”が設定されているかを判定する(S421)。この場合、フラッグFに“1”が設定されているので(S421;YES)、メインCPU101は物体の性質に応じた減衰係数で音波を減衰させた状態で(S422)、音波のレベルを変更しないで定位を変化させる処理をする(S423)。これにより、プレーヤキャラクタ410は音マーカ412から一定の距離をおいて移動していることになる。   Further, when the main CPU 101 determines that the distance between the player character 410 and the sound marker 412 has not changed (S410; no change), the main CPU 101 determines whether “1” is set in the flag F. (S421). In this case, since the flag F is set to “1” (S421; YES), the main CPU 101 does not change the sound wave level in a state where the sound wave is attenuated by the attenuation coefficient corresponding to the property of the object (S422). In step S423, the localization is changed. As a result, the player character 410 moves at a certain distance from the sound marker 412.

以上の動作はプレーヤキャラクタ410と音マーカ412との間に物体があり、音波が完全に反射する物体であるときには音波を大きく減少あるいは遮断させる処理をし、または、音波が透過する物体であるときには、プレーヤキャラクタ410が音マーカ412に近づいているときには音波の振幅が所定の減衰をした状態で音波の振幅を増加させ、あるいは、プレーヤキャラクタ410が音マーカ412から遠ざかるときには音波が通常の減衰状況より大きな減衰状態で音波の振幅を減少させるような音像を形成させている。   In the above operation, there is an object between the player character 410 and the sound marker 412, and when the sound wave is an object that completely reflects, processing for greatly reducing or blocking the sound wave is performed, or when the object is a sound wave transmitting object. When the player character 410 is approaching the sound marker 412, the sound wave amplitude is increased in a state where the sound wave amplitude is attenuated to a predetermined level, or when the player character 410 is moved away from the sound marker 412, the sound wave is less than the normal attenuation state. A sound image that reduces the amplitude of the sound wave in a large attenuation state is formed.

また、プレーヤキャラクタ410と音マーカ412との間に物体がないとメインCPU101が判断したときには(S403;NO)、ステップS408、S409の処理を実行して比較する(S410)。   When the main CPU 101 determines that there is no object between the player character 410 and the sound marker 412 (S403; NO), the processing of steps S408 and S409 is executed and compared (S410).

プレーヤキャラクタ410と音マーカ412との間の距離が減少しているとメインCPU101が判定したときには(S410;減少)、メインCPU101はフラッグFに“1”が設定されているかを判定する(S411)。この場合、物体がないのでフラッグFに“0”が設定されているので(S411;NO)、空間の減衰係数だけ音波の振幅を減衰させる(S414)。そして、メインCPU101は、到達限界距離に到達したかを判断する(S415)。到達限界距離に到達しないときには(S415;NO)、メインCPU101は、再び、プレーヤキャラクタ410の位置のデータを取り込む(S402)。このようにステップS401〜S403、S408〜S410、S412、S414、S415の処理して、サウンドブロック12に指令を与えることにより、空間だけの減衰係数でもって音が減少する状況がスピーカ4,4から再現される。したがって、通常の距離により音波の大きさが減少したような音像がプレイヤーに提供される。これにより、プレーヤキャラクタ410が音マーカ412から徐々に遠ざかっている状況の音像が提供される。   When the main CPU 101 determines that the distance between the player character 410 and the sound marker 412 is decreasing (S410; decrease), the main CPU 101 determines whether “1” is set in the flag F (S411). . In this case, since there is no object, the flag F is set to “0” (S411; NO), so the amplitude of the sound wave is attenuated by the spatial attenuation coefficient (S414). Then, the main CPU 101 determines whether or not the reach limit distance has been reached (S415). When the reach limit distance is not reached (S415; NO), the main CPU 101 takes in the data of the position of the player character 410 again (S402). As described above, the process of steps S401 to S403, S408 to S410, S412, S414, and S415, and giving a command to the sound block 12, the situation where the sound is reduced by the attenuation coefficient of only the space is from the speakers 4 and 4. It is reproduced. Therefore, a sound image in which the magnitude of the sound wave is reduced by the normal distance is provided to the player. As a result, a sound image in a state where the player character 410 gradually moves away from the sound marker 412 is provided.

一方、プレーヤキャラクタ410と音マーカ412との間の距離が増加しているとメインCPU101が判定したときには(S410;増加)、メインCPU101はフラッグFに“1”が設定されているかを判定する(S416)。この場合、物体がないのでフラッグFに“0”が設定されているので(S416;NO)、空間の減衰係数に応じて音波の振幅を増大させる(S418)。そして、メインCPU101は、プレーヤキャラクタ410と音マーカ412との位置が一致したかを判断する(S419)。プレーヤキャラクタ410と音マーカ412との位置が一致しないときには、(S419;NO)、メインCPU101は、再び、プレーヤキャラクタ410の位置のデータを取り込む処理に戻る(S402)。このようにステップS401〜S403、S408〜S410、S416、S418、S419の処理して、サウンドブロック12に指令を与えることにより、空間中を音が徐々に増大する状況がスピーカ4,4から再現される。したがって、通常の距離により音波の大きさが減少したような音像がプレイヤーに提供される。これにより、プレーヤキャラクタ410が音マーカ412に近づいている状況の音像が提供される。   On the other hand, when the main CPU 101 determines that the distance between the player character 410 and the sound marker 412 has increased (S410; increase), the main CPU 101 determines whether "1" is set in the flag F ( S416). In this case, since there is no object, “0” is set in the flag F (S416; NO), and the amplitude of the sound wave is increased according to the attenuation coefficient of the space (S418). Then, the main CPU 101 determines whether or not the positions of the player character 410 and the sound marker 412 match (S419). When the positions of the player character 410 and the sound marker 412 do not match (S419; NO), the main CPU 101 returns to the process of taking in the data of the position of the player character 410 again (S402). In this manner, the process of steps S401 to S403, S408 to S410, S416, S418, and S419 is performed to give a sound block 12 a command, and the situation in which the sound gradually increases in the space is reproduced from the speakers 4 and 4. The Therefore, a sound image in which the magnitude of the sound wave is reduced by the normal distance is provided to the player. As a result, a sound image in a situation where the player character 410 is approaching the sound marker 412 is provided.

さらに、プレーヤキャラクタ410と音マーカ412との間の距離が変化していないとメインCPU101が判定したときには(S410;変化なし)、メインCPU101はフラッグFに“1”が設定されているかを判定する(S421)。この場合、フラッグFに“0”が設定されているので(S421;NO)、音波のレベルを変更しないで定位を変化させる処理をする(S423)。これにより、プレーヤキャラクタ410は音マーカ412から一定の距離をおいて移動していることになる。   Further, when the main CPU 101 determines that the distance between the player character 410 and the sound marker 412 has not changed (S410; no change), the main CPU 101 determines whether “1” is set in the flag F. (S421). In this case, since “0” is set in the flag F (S421; NO), the localization is changed without changing the sound wave level (S423). As a result, the player character 410 moves at a certain distance from the sound marker 412.

以上の動作はプレーヤキャラクタ410と音マーカ412との間に物体がなく、プレーヤキャラクタ410が音マーカ412に近づいているときには音波の振幅を徐々に増加させ、あるいは、プレーヤキャラクタ410が音マーカ412から遠ざかるときには音波の振幅を徐々に減少させるような音像を形成させている。そして、プレーヤキャラクタ410と音マーカ412の位置が一致したときには、プレーヤキャラクタ410は音マーカ412を拾うことになる。   In the above operation, when there is no object between the player character 410 and the sound marker 412 and the player character 410 is approaching the sound marker 412, the amplitude of the sound wave is gradually increased, or the player character 410 is moved from the sound marker 412. When moving away, a sound image is formed so that the amplitude of the sound wave gradually decreases. When the positions of the player character 410 and the sound marker 412 match, the player character 410 picks up the sound marker 412.

なお、到達限界距離に達したとメインCPU101が判断したときには(S415;YES)、音波を完全に減衰させて(S101)、処理を抜ける。   When the main CPU 101 determines that the reach limit distance has been reached (S415; YES), the sound wave is completely attenuated (S101), and the process is exited.

この実施の形態では、このように音マーカ412を所定の位置に配置することにより、あるいは、音マーカ412を投げつけることにより、所定の位置に音マーカ412を配置し、かつ、この音マーカ412からの音波の状況により、プレーヤキャラクタ410の状況を判断することが可能になる。   In this embodiment, the sound marker 412 is arranged at a predetermined position by placing the sound marker 412 at a predetermined position in this way, or by throwing the sound marker 412. The situation of the player character 410 can be determined based on the state of the sound wave.

図5は、音マーカの第1の音像処理を説明するためのフローチャートである。この図5のフローチャートでは、例えば音マーカ412からの音波あるいはこの音マーカ412に似たような音波を発信する物体が存在するときに、音マーカ412か、それとも他の物体なのかの判断をするための処理である。   FIG. 5 is a flowchart for explaining the first sound image processing of the sound marker. In the flowchart of FIG. 5, for example, when there is an object that emits a sound wave from the sound marker 412 or a sound wave similar to the sound marker 412, it is determined whether the sound marker 412 is another object. Process.

まず、プレーヤキャラクタ410を仮想空間内の建物250内を移動させていったときに、音マーカ412あるいは他の音源からの音波が聞こえてきたときには、既に自分で置いた音マーカ412かあるいは他の音源なのかを判定する必要がある。   First, when the player character 410 is moved within the building 250 in the virtual space, when a sound wave from the sound marker 412 or another sound source is heard, the sound marker 412 already placed by himself or other It is necessary to determine whether it is a sound source.

そこで、プレイヤーは、音マーカ412を当該座標位置にある発信源の近くに配置してみる。例えば、音マーカ412をその発信源の近くに投げてみる。   Therefore, the player places the sound marker 412 near the transmission source at the coordinate position. For example, throw a sound marker 412 near the source.

メインCPU101は、音マーカ412が配置されたか否かを常に判定してる(S501−S501;NO)。ここで、音マーカ412が当該座標位置の近傍に配置されたときには(S501;YES)、メインCPU101は、当該発信源のデータを取り込む(S102)。そして、メインCPU101は、当該データを基に既に置かれた音マーカ412であると判断したときには(S503;YES)、音波に唸りを発生させない指令をサウンドブロック12にする(S504)。これにより、スピーカ4,4からは、唸りのない音波が発生されることになり、プレイヤーは、既に自分が配置した音マーカ412であることを知ることができる。   The main CPU 101 always determines whether or not the sound marker 412 is arranged (S501 to S501; NO). Here, when the sound marker 412 is arranged in the vicinity of the coordinate position (S501; YES), the main CPU 101 captures data of the transmission source (S102). When the main CPU 101 determines that the sound marker 412 has already been placed based on the data (S503; YES), the main CPU 101 sets the sound block 12 to give a command that does not cause the sonic wave (S504). As a result, sound waves with no resounding are generated from the speakers 4 and 4, and the player can know that the sound marker 412 is already placed.

一方、メインCPU101は、当該データを基に音マーカ412ではないと判断したときには(S503;NO)、音波に唸りを発生させる指令をサウンドブロック12にする(S505)。これにより、スピーカ4,4からは、唸りがある音波が発生されることになり、プレイヤーは、異なる物体(例えば、エネミーオブジェクト)から発せられる音であると判断することができる。   On the other hand, when the main CPU 101 determines that it is not the sound marker 412 based on the data (S503; NO), the main CPU 101 sets the sound block 12 as a command for generating a sound wave (S505). As a result, a sound wave with resounding is generated from the speakers 4 and 4, and the player can determine that the sound is emitted from a different object (for example, an enemy object).

このように発信源からの音との関連で既に置かれた音マーカ412であるか、他の物体であるかの判定をすることができる。   In this way, it is possible to determine whether the sound marker 412 has already been placed in relation to the sound from the transmission source or another object.

したがって、上述した実施の形態によれば、プレイヤーに提供される音像を基にゲームを楽しむことができる。   Therefore, according to the above-described embodiment, the game can be enjoyed based on the sound image provided to the player.

以上説明したように本発明によれば、プレイヤーが任意に音源を操作して、音源からの音波の反射や音質の変化を基に、視覚によらないゲームを楽しむことができる。   As described above, according to the present invention, a player can freely operate a sound source and enjoy a game that does not depend on vision based on reflection of sound waves from the sound source and changes in sound quality.

また、本発明によれば、操作装置からの操作に基づいて音が三次元空間内の所定の位置及び向きにおいて聴取され、かつその物体に基づいた音が聴取できることから、当該音の内容からその空間内の物理的位置や物体の内容を判断することが可能になり、映像によらない新なゲーム環境を提供することができる。   Further, according to the present invention, the sound is heard at a predetermined position and orientation in the three-dimensional space based on the operation from the operation device, and the sound based on the object can be heard. The physical position in the space and the contents of the object can be determined, and a new game environment that does not depend on video can be provided.

本発明の実施の形態に係る仮想三次元音像生成装置が適用されたゲーム装置の概要を表すブロック図である。It is a block diagram showing the outline | summary of the game device to which the virtual three-dimensional sound image generation device which concerns on embodiment of this invention was applied. 同実施の形態における上記仮想三次元音像生成装置を示すブロック図である。It is a block diagram which shows the said virtual three-dimensional sound image production | generation apparatus in the embodiment. 同実施の形態におけるプレーヤキャラクタに持っている音源オブジェクトによる音像処理を説明するためのフローチャートである。It is a flowchart for demonstrating the sound image process by the sound source object which the player character has in the embodiment. 同実施の形態における音マーカによる第1の音像処理を説明するためのフローチャートである。It is a flowchart for demonstrating the 1st sound image process by the sound marker in the embodiment. 同実施の形態における音マーカの第1の音像処理を説明するためのフローチャートである。It is a flowchart for demonstrating the 1st sound image process of the sound marker in the embodiment. 同実施の形態におけるゲームにおいて使用する仮想空間に配置した物体で構成された空間の例を示す構成図である。It is a block diagram which shows the example of the space comprised by the object arrange | positioned in the virtual space used in the game in the embodiment. 同実施の形態において用いられる仮想空間内に配置した物体で構成される構造物の例を示す説明図である。It is explanatory drawing which shows the example of the structure comprised with the object arrange | positioned in the virtual space used in the embodiment.

符号の説明Explanation of symbols

1 処理装置本体
2 操作装置
3 ディスプレイ
4 スピーカ
5 CD−ROM
10 CPUブロック
11 ビデオブロック
12 サウンドブロック
13 サブシステム
100 SCU(System Control Unit )
101 メインCPU
102 RAM
103 ROM
104 サブCPU
105 CPUバス
106、107 バス
120、130 VDP
121 VRAM
122、123 フレームバッファ
131 VRAM
132 メモリ
140 DSP
141 CPU
160 エンコーダ
201 仮想三次元音像生成装置
202 物体情報記憶手段
203 音源記憶手段
204 音響変換手段
205 音像処理手段
DESCRIPTION OF SYMBOLS 1 Processing apparatus main body 2 Operating device 3 Display 4 Speaker 5 CD-ROM
10 CPU block 11 Video block 12 Sound block 13 Subsystem 100 SCU (System Control Unit)
101 Main CPU
102 RAM
103 ROM
104 Sub CPU
105 CPU bus 106, 107 Bus 120, 130 VDP
121 VRAM
122, 123 Frame buffer 131 VRAM
132 Memory 140 DSP
141 CPU
160 Encoder 201 Virtual three-dimensional sound image generating apparatus 202 Object information storage means 203 Sound source storage means 204 Acoustic conversion means 205 Sound image processing means

Claims (3)

仮想空間内に音像を形成させる仮想三次元音像生成装置において、
仮想三次元空間に配置された仮想物体の物理的な情報および当該仮想物体の材質に関する情報を記憶する物体情報記憶手段と、
仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタを移動制御させるとともに音源オブジェクトの発射方向及び発音制御できる操作手段と、
前記音源オブジェクトの音源に関する情報を記憶する音源記憶手段と、
前記音響信号を可聴音に変換する複数の音響変換手段と、
前記キャラクタの音源オブジェクトの仮想物体による空間内の位置、仮想三次元空間に配置された仮想物体の情報及びその仮想物体の材質に関する情報に応じて前記キャラクタの音響オブジェクトの音響情報を可変制御させるとともに前記三次元空間内の所定の位置及び向きで音響が聴取できるようにする音響信号に形成して前記音響変換手段に与える音像処理手段と、
を備えたことを特徴とする仮想三次元音像生成装置。
In a virtual three-dimensional sound image generation device that forms a sound image in a virtual space,
Object information storage means for storing physical information of a virtual object arranged in a virtual three-dimensional space and information on the material of the virtual object;
Operation means capable of controlling movement of a player character while controlling movement of a player character in a space by a virtual object arranged in the virtual space,
Sound source storage means for storing information relating to the sound source of the sound source object;
A plurality of acoustic conversion means for converting the acoustic signal into an audible sound;
The sound information of the character's sound object is variably controlled in accordance with the position of the sound source object of the character in the space of the virtual object, the information of the virtual object arranged in the virtual three-dimensional space, and the information on the material of the virtual object. A sound image processing means that is formed into an acoustic signal that enables sound to be heard at a predetermined position and orientation in the three-dimensional space and is given to the acoustic conversion means;
A virtual three-dimensional sound image generating device comprising:
仮想空間内に音像を形成させる仮想三次元音像生成方法において、
操作手段からの操作指令を基に仮想空間に配置された仮想物体による空間内でプレイヤーキャラクタを移動制御し、かつ、その音源オブジェクトの発射方向及び発音制御し、
当該キャラクタの音源オブジェクトの仮想物体による空間内の位置と、仮想三次元空間に配置された仮想物体の情報と、その仮想物体の材質に関する情報とに応じて前記キャラクタの音響情報を可変制御し、かつ、前記三次元空間内の所定の位置及び向きで音響が聴取可能にすることを特徴とする仮想三次元音像生成方法。
In a virtual three-dimensional sound image generation method for forming a sound image in a virtual space,
Based on the operation command from the operation means, the player character is moved and controlled in the space by the virtual object arranged in the virtual space, and the firing direction and sound generation control of the sound source object are controlled,
The acoustic information of the character is variably controlled according to the position of the sound source object of the character in the space by the virtual object, the information of the virtual object arranged in the virtual three-dimensional space, and the information on the material of the virtual object, And a method of generating a virtual three-dimensional sound image, wherein sound can be heard at a predetermined position and orientation in the three-dimensional space.
コンピュータを、請求項1記載の仮想三次元音源生成装置として機能させるプログラムを記録したことを特徴とする媒体。   A medium in which a program for causing a computer to function as the virtual three-dimensional sound source generating device according to claim 1 is recorded.
JP2007118554A 2007-04-27 2007-04-27 Virtual three dimensional sound image formation apparatus, its method, and medium Withdrawn JP2007289713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007118554A JP2007289713A (en) 2007-04-27 2007-04-27 Virtual three dimensional sound image formation apparatus, its method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007118554A JP2007289713A (en) 2007-04-27 2007-04-27 Virtual three dimensional sound image formation apparatus, its method, and medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10077769A Division JPH11272156A (en) 1998-03-25 1998-03-25 Virtual three-dimensional sound image generating device and method and medium thereof

Publications (1)

Publication Number Publication Date
JP2007289713A true JP2007289713A (en) 2007-11-08

Family

ID=38760871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007118554A Withdrawn JP2007289713A (en) 2007-04-27 2007-04-27 Virtual three dimensional sound image formation apparatus, its method, and medium

Country Status (1)

Country Link
JP (1) JP2007289713A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198646A1 (en) * 2014-06-25 2015-12-30 株式会社カプコン Game device, sound effect processing method, and recording medium
JP2016049222A (en) * 2014-08-29 2016-04-11 株式会社スクウェア・エニックス Video game processing device, video game processing program, and server

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198646A1 (en) * 2014-06-25 2015-12-30 株式会社カプコン Game device, sound effect processing method, and recording medium
JP2016007399A (en) * 2014-06-25 2016-01-18 株式会社カプコン Sound effect processing program and game device
US11027200B2 (en) 2014-06-25 2021-06-08 Capcom Co., Ltd. Game device, method and non-transitory computer-readable storage medium
JP2016049222A (en) * 2014-08-29 2016-04-11 株式会社スクウェア・エニックス Video game processing device, video game processing program, and server

Similar Documents

Publication Publication Date Title
JPH11272156A (en) Virtual three-dimensional sound image generating device and method and medium thereof
JP6461850B2 (en) Simulation system and program
JP5036797B2 (en) Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program
JP6055657B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JP6147486B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
JPWO2005107903A1 (en) Electronic game device, data processing method in electronic game device, program therefor, and storage medium
JP2017119032A (en) Game device and program
EP1795240B1 (en) Game machine, game machine control method, information recording medium, and program
WO2000049579A1 (en) Image displaying device, image processing device, image displaying system
CN108379842B (en) Game audio processing method and device, electronic equipment and storage medium
JP6329994B2 (en) Game program and game system
JPH10333834A (en) Information storage medium and picture generating device
JP2020031303A (en) Voice generating program and voice generating apparatus in virtual space
WO2019069743A1 (en) Audio controller, ultrasonic speaker, and audio system
JP2019000138A (en) Game program, game device, and server device
JP6863936B2 (en) Speech generator in virtual space, quadtree generation method, and speech generator
JP2007289713A (en) Virtual three dimensional sound image formation apparatus, its method, and medium
JP6343048B1 (en) GAME PROGRAM AND GAME DEVICE
JP6427212B2 (en) Game program and game apparatus
JP4464064B2 (en) Reverberation imparting device and reverberation imparting program
JP2017221554A (en) Game program and game system
JP2003190624A (en) Game device, and program
JP5357801B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP2008188308A (en) Game device, game program, and storage medium
JP6740297B2 (en) Game program and game device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090708

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090901