JP2009246600A - Production control program of sound generated from sound source in virtual space - Google Patents

Production control program of sound generated from sound source in virtual space Download PDF

Info

Publication number
JP2009246600A
JP2009246600A JP2008089336A JP2008089336A JP2009246600A JP 2009246600 A JP2009246600 A JP 2009246600A JP 2008089336 A JP2008089336 A JP 2008089336A JP 2008089336 A JP2008089336 A JP 2008089336A JP 2009246600 A JP2009246600 A JP 2009246600A
Authority
JP
Japan
Prior art keywords
sound
dimensional
sound source
virtual
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008089336A
Other languages
Japanese (ja)
Other versions
JP5146054B2 (en
Inventor
Naoki Matsumoto
直樹 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2008089336A priority Critical patent/JP5146054B2/en
Publication of JP2009246600A publication Critical patent/JP2009246600A/en
Application granted granted Critical
Publication of JP5146054B2 publication Critical patent/JP5146054B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program of controlling the generation of a sound from a sound source object in virtual reality in response to a state change of an object as an obstacle of a sound source and a sound. <P>SOLUTION: The size of the object in a predetermined three-dimensional shape is decided in response to sound data correlated with the sound source object, and the object in the three-dimensional shape of the decided size is arranged in a virtual three-dimensional space. An angle of view of the object in the three-dimensional shape is set from a position of a second viewpoint inside the virtual three-dimensional space, and the object in the three-dimensional shape is perspectively converted into a two-dimensional plane so as to achieve the preset image size. Two-dimensional image data for deciding the magnitude of a sound is produced, the magnitude of a sound to generate from the sound source object is decided based on a size ratio of an overlapping portion between an image area of the produced two-dimensional image data and an image area in a two-dimensional shape for the other objects barring the sound, and a sound to generate by the sound source object is output at the decided magnitude of the sound. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、仮想空間における音源より発生される音の生成制御プログラムに関する。   The present invention relates to a sound generation control program generated from a sound source in a virtual space.

ゲーム装置等の画像処理システムにおいて、仮想三次元又は二次元画像処理に連動して仮想音源から音を発生させる制御が行われている。   In an image processing system such as a game device, control is performed to generate sound from a virtual sound source in conjunction with virtual three-dimensional or two-dimensional image processing.

かかる制御に関する従来技術として、特許文献1に記載の発明がある。かかる特許文献1に記載の発明では、上位システムから与えられるオブジェクトの位置情報及び、音種情報から三次元サウンドを生成する場合、音の出る向きに応じた聞こえ方を制御するという細かな制御が不可能であったことを指摘している。   As a prior art related to such control, there is an invention described in Patent Document 1. In the invention described in Patent Document 1, when generating a three-dimensional sound from the position information of the object and the sound type information given from the host system, there is a fine control of controlling the way of hearing according to the direction in which the sound comes out. It points out that it was impossible.

そして、これを解決するべく、対象画像を構成する1つ又は複数のポリゴンの各々の頂点座標及び各ポリゴンから発生されるべき音の情報を保持するオブジェクトテーブルを用意し、前記対象画像をビューポイント(仮想視点)から見た時の前記各ポリゴンの位置及び向きと前記オブジェクトテーブルの情報に基づき、ポリゴンから出る音の向きに応じた音の聞こえ方を制御するものである。
特開平8−149600号公報
In order to solve this problem, an object table for holding information on the vertex coordinates of each of one or more polygons constituting the target image and the sound to be generated from each polygon is prepared. Based on the position and orientation of each polygon when viewed from the (virtual viewpoint) and the information in the object table, it controls how the sound is heard according to the direction of the sound coming out of the polygon.
JP-A-8-149600

ここで、ゲーム装置において表示される画像が、仮想三次元空間の画像を二次元面に透視変換して得られる画像である場合、前記仮想三次元空間に置かれる音源との間に障害物が存在する場合、音の聞こえ方(音の大きさ)は、直接音源からの音が聞こえる場合と異なってくる。   Here, when the image displayed on the game device is an image obtained by perspective-transforming an image in the virtual three-dimensional space into a two-dimensional plane, there is an obstacle between the sound source placed in the virtual three-dimensional space. When present, the way the sound is heard (the volume of the sound) is different from when the sound from the sound source is heard directly.

さらに、音を遮る障害物は、ゲームの進行に対応して仮想三次元空間においてその態様が変化する。これに伴い、音源からの音の聞こえ方も変化するはずである。   Furthermore, the form of the obstacle that blocks the sound changes in the virtual three-dimensional space in accordance with the progress of the game. Along with this, the way the sound from the sound source is heard should also change.

然るに、上記特許文献1に記載の発明では、かかる障害物を考慮した音の生成については記載がない。   However, in the invention described in Patent Document 1, there is no description about the generation of sound in consideration of such an obstacle.

したがって、本願発明の目的は、仮想三次元空間に置かれるオブジェクトの移動を制御してその状態を二次元画面に透視変換して表示するゲーム装置において、ゲームの進行に応じた音源と音の障害物となるオブジェクトの状態変化に対応して音源オブジェクトからの音の発生を制御する制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide a sound source and a sound failure according to the progress of a game in a game device that controls the movement of an object placed in a virtual three-dimensional space and displays the state of the object on a two-dimensional screen. An object of the present invention is to provide a control program for controlling the generation of sound from a sound source object in response to a change in state of an object to be a thing.

上記課題を達成する本発明の基本的側面は、仮想三次元座標空間内に第1視点及びオブジェクトを配置し、前記第1視点から見た前記オブジェクトを含む仮想三次元空間の様子を透視変換した二次元画像を生成し、生成した前記二次元画像を表示部に表示させる処理と、前記オブジェクトに対して予め設定された音を音出力部に出力させる処理とをコンピュータに実行させるためのプログラムであって、
前記コンピュータに、
音を発生するように予め設定された音源オブジェクトに対応付けて記憶部に記憶される音データを読み出し、前記音源データに対応して所定の三次元形状のオブジェクトの大きさを決定する手段と、
前記決定された大きさの三次元形状のオブジェクトを前記音源オブジェクトに対応させて仮想三次元空間に配置し、前記仮想三次元空間内の第2視点の位置から前記三次元形状のオブジェクトに対する視方向における画角を設定して予め設定された画像サイズとなるように、前記三次元形状のオブジェクトを二次元面に透視変換して、音の大きさを決定するための二次元画像データを生成する手段と、
前記生成された前記二次元画像データにおける前記三次元形状のオブジェクトに対応する二次元形状の画像領域と、音を遮る他のオブジェクトに対応する二次元形状の画像領域との重なり部分の大きさ割合に基づき、前記音源オブジェクトから発生させる音の大きさを決定する手段と、
前記決定される音の大きさで、前記音源オブジェクトが発生する音を音出力部から出力させる手段として機能させることを特徴とする。
A basic aspect of the present invention that achieves the above object is that a first viewpoint and an object are arranged in a virtual three-dimensional coordinate space, and the state of the virtual three-dimensional space including the object viewed from the first viewpoint is perspective-transformed. A program for causing a computer to execute a process of generating a two-dimensional image, displaying the generated two-dimensional image on a display unit, and outputting a sound preset for the object to a sound output unit There,
In the computer,
Means for reading sound data stored in a storage unit in association with a sound source object set in advance to generate sound, and determining a size of a predetermined three-dimensional object corresponding to the sound source data;
The three-dimensional object having the determined size is arranged in a virtual three-dimensional space in correspondence with the sound source object, and the viewing direction with respect to the three-dimensional object from the position of the second viewpoint in the virtual three-dimensional space The two-dimensional image data for determining the volume of sound is generated by perspective-transforming the three-dimensional object into a two-dimensional plane so that the angle of view is set and the image size is set in advance. Means,
The size ratio of the overlapping part of the two-dimensional shape image region corresponding to the three-dimensional shape object in the generated two-dimensional image data and the two-dimensional shape image region corresponding to another object that blocks sound Means for determining a loudness generated from the sound source object, based on
The sound output unit may function as a means for outputting a sound generated by the sound source object from a sound output unit at the determined sound volume.

これにより、音源と音の障害物となるオブジェクトの状態変化に対応して音源オブジェクトからの音の発生を仮想現実的に制御することが可能である。   Thereby, it is possible to virtually control the generation of sound from the sound source object in response to the state change of the sound source and the object that becomes a sound obstacle.

以下に図面に従い、本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、ゲーム装置本体の構成例の機能ブロック図である。各機能部は、バス11を通してデータの授受を行う。   FIG. 1 is a functional block diagram of a configuration example of the game apparatus main body. Each functional unit transmits and receives data through the bus 11.

外部メモリあるいは、内部メモリとして機能するROM2に格納されるゲームプログラムに従い、制御手段としてのメインCPU1が、ゲームの実行を実現するために必要となる各機能部として機能する。   In accordance with the game program stored in the external memory or the ROM 2 functioning as the internal memory, the main CPU 1 as the control means functions as each functional unit necessary for realizing the execution of the game.

ゲーム実行において、メインCPU1による画像データ作成機能部100として、ROM2に格納されるオブジェクトデータに対し座標変換を行い、ワールド座標系の仮想三次元空間においてゲームプログラムに従い移動制御されるオブジェクトのデータを形成する。   In the game execution, the image data creation function unit 100 by the main CPU 1 performs coordinate conversion on the object data stored in the ROM 2 to form object data that is controlled to move according to the game program in the virtual three-dimensional space of the world coordinate system. To do.

さらに、移動制御される仮想三次元空間座標を有するオブジェクトのデータは、レンダリングプロセッサ4により、表示装置5に表示されるべく二次元座標に透視変換される。   Further, the data of the object having the virtual three-dimensional space coordinates whose movement is controlled is perspective-transformed into two-dimensional coordinates to be displayed on the display device 5 by the rendering processor 4.

この際、レンダリングプロセッサ4は、この二次元座標に座標変換されるオブジェクトデータに対し、ゲームプログラムに従い、テクスチャメモリ6からテクスチャデータを読み出し、読み出したテクスチャを貼り付け、画像データとしてビデオメモリ7に描画する。   At this time, the rendering processor 4 reads the texture data from the texture memory 6 and pastes the read texture on the object data coordinate-converted to the two-dimensional coordinates in accordance with the game program, and draws it in the video memory 7 as image data. To do.

ビデオメモリ7に描画された画像データは、所定周期で読み出され、表示装置5に送られることにより、表示装置5に、ゲームプログラムに従い移動制御されるオブジェクトを含むゲーム画像が表示される。   The image data drawn in the video memory 7 is read at a predetermined cycle and sent to the display device 5, whereby a game image including an object whose movement is controlled according to the game program is displayed on the display device 5.

さらに、音出力部として音源装置9を有し、ゲームプログラムに従い、メインCPU1による音発生制御機能部101として、音源装置9に音を生成させ、スピーカ10から出力させる。   Furthermore, the sound source device 9 is provided as a sound output unit, and the sound source device 9 generates sound and outputs from the speaker 10 as the sound generation control function unit 101 by the main CPU 1 according to the game program.

音源装置9により生成される音のうち、ゲームプログラムに従い移動制御されるオブジェクトからの発生音が含まれる。   Among sounds generated by the sound source device 9, sounds generated from objects that are controlled to move according to the game program are included.

かかるゲーム装置における基本的な動作に対し、実施例としてROM2に格納されるゲームプログラムに従い処理されるオブジェクトからの発生音の生成を制御する方法に特徴を有する。   In contrast to the basic operation of such a game apparatus, the present invention is characterized by a method for controlling generation of sound generated from an object processed in accordance with a game program stored in a ROM 2 as an embodiment.

図2は、かかるゲーム装置により対戦ゲームプログラムに従って、仮想三次元空間に置かれる2つの敵対するキャラクタオブジェクトC1、C2の例を示す図である。キャラクタオブジェクトC1、C2は、複数のポリゴンにより形成され、それぞれのポリゴンを構成する頂点に対して三次元座標、法線ベクトル、透明度等が定義されている。   FIG. 2 is a diagram showing an example of two hostile character objects C1 and C2 placed in a virtual three-dimensional space according to a battle game program by such a game device. The character objects C1 and C2 are formed by a plurality of polygons, and three-dimensional coordinates, normal vectors, transparency, etc. are defined for the vertices constituting each polygon.

図2に示す例は、音源オブジェクトとして敵キャラクタオブジェクトC2が、遊戯者が制御するキャラクタオブジェクトC1に向かって発音している状態を示している。   The example shown in FIG. 2 shows a state where the enemy character object C2 is sounding toward the character object C1 controlled by the player as a sound source object.

レンダリングプロセッサ4により仮想三次元空間内の第1の視点20を原点として、キャラクタオブジェクトC1、C2を含む三次元画像データを、前方クリッピング面22Aと後方クリッピング面22Bとの範囲で二次元面21に透視変換して二次元面画像データを生成する。   The rendering processor 4 converts the three-dimensional image data including the character objects C1 and C2 from the first viewpoint 20 in the virtual three-dimensional space to the two-dimensional plane 21 within the range of the front clipping plane 22A and the rear clipping plane 22B. Perspective transformation is performed to generate two-dimensional surface image data.

この二次元面画像データとして、キャラクタオブジェクトC1、C2を構成する複数のポリゴンのそれぞれに付属されたポリゴンデータに従って、レンダリングプロセッサ4が、テクスチャメモリ6から読み出したテクスチャを貼り付けてビデオメモリ7に描画する。ビデオメモリ7に描画されたゲーム画像の二次元面画像データは、表示装置5に順次読み出されて表示される。   As the two-dimensional surface image data, the rendering processor 4 pastes the texture read from the texture memory 6 and draws it in the video memory 7 according to the polygon data attached to each of the plurality of polygons constituting the character objects C1 and C2. To do. The two-dimensional plane image data of the game image drawn in the video memory 7 is sequentially read out and displayed on the display device 5.

さらに、ゲーム画像の二次元面画像データの処理と同期して後に詳細に説明するように、音源オブジェクトとなるキャラクタオブジェクトが発生する音の大きさを制御するために、メインCPU1の音発生制御機能部101により仮想三次元空間の音源画像データを生成する。   Further, as will be described later in detail in synchronization with the processing of the two-dimensional plane image data of the game image, the sound generation control function of the main CPU 1 is used to control the volume of sound generated by the character object that becomes the sound source object. The unit 101 generates sound source image data in a virtual three-dimensional space.

レンダリングプロセッサ4は、この音発生制御機能部101により生成される仮想三次元空間の音源画像データを二次元面画像データに透視変換してビデオメモリ7あるいは、適宜のRAMに描画する。   The rendering processor 4 perspective-converts the sound source image data in the virtual three-dimensional space generated by the sound generation control function unit 101 into two-dimensional plane image data and draws it in the video memory 7 or an appropriate RAM.

図3は、表示装置5の表示面22にゲーム画像の二次元面画像データが表示された状態を示している。   FIG. 3 shows a state in which the two-dimensional surface image data of the game image is displayed on the display surface 22 of the display device 5.

音源オブジェクトとなる敵キャラクタオブジェクトC2からの発音が表示面22の表示と同期してプログラムに従って生成されるように、CPU1の音発生制御機能部101により発生する音の大きさを設定して音出力部である音源装置9により、スピーカ10から設定された大きさで音を出力する。   The sound output by setting the sound generation control function unit 101 of the CPU 1 is set so that the sound generation from the enemy character object C2 as the sound source object is generated according to the program in synchronization with the display on the display surface 22. The sound source device 9 serving as a unit outputs a sound with a set magnitude from the speaker 10.

一方、図4は、図2に対応する仮想三次元空間に置かれる2つのキャラクタオブジェクトC1、C2の例を示す図である。遊戯者の操作するキャラクタオブジェクトC1と、音源オブジェクトと成る敵キャラクタオブジェクトC2の間に音に対する遮蔽物となる音障害オブジェクトC3が位置する。音障害オブジェクトC3も複数のポリゴンで構成されている。   On the other hand, FIG. 4 is a diagram illustrating an example of two character objects C1 and C2 placed in the virtual three-dimensional space corresponding to FIG. A sound obstacle object C3 serving as a sound shielding object is positioned between the character object C1 operated by the player and the enemy character object C2 serving as a sound source object. The sound obstacle object C3 is also composed of a plurality of polygons.

図5は、図4の三次元画像を二次元面画像データに変換し、表示装置5の表示面22に表示した状態を示している。   FIG. 5 shows a state in which the three-dimensional image of FIG. 4 is converted into two-dimensional surface image data and displayed on the display surface 22 of the display device 5.

ここで、図4に示した仮想三次元空間を想定すると、音源オブジェクトである敵キャラクタオブジェクトC2からの発音がキャラクタオブジェクトC1に到達する際に、図2の例ではキャラクタオブジェクトC1、C2間に障害物がなく敵キャラクタオブジェクトC2からの発音がそのまま到達する。   Here, assuming the virtual three-dimensional space shown in FIG. 4, when the pronunciation from the enemy character object C2 that is a sound source object reaches the character object C1, in the example of FIG. 2, there is a failure between the character objects C1 and C2. There is no object and the pronunciation from the enemy character object C2 arrives as it is.

一方、図4に示す例ではキャラクタオブジェクトC1、C2間に障害物である障害オブジェクトC3が存在する。この場合は、敵キャラクタオブジェクトC2からの発音が障害オブジェクトC3に遮られ、到達する際は、減衰されて聞こえる状態に発音量を制御することが、より仮想現実感を与える。   On the other hand, in the example shown in FIG. 4, there is an obstacle object C3 that is an obstacle between the character objects C1 and C2. In this case, the pronunciation from the enemy character object C2 is blocked by the obstacle object C3, and when reaching, it is more virtual reality to control the amount of pronunciation so that it can be attenuated and heard.

したがって、かかる好ましい仮想現実感を与えるために、本発明に従いゲーム画面状況に対応して発音を制御する。   Therefore, in order to give such a preferable virtual reality, the pronunciation is controlled in accordance with the game screen situation according to the present invention.

かかる発音の制御は、プログラムに従いCPU1の音発生制御機能部101により実行される。   The sound generation control is executed by the sound generation control function unit 101 of the CPU 1 according to a program.

図6は、メインCPU1の音発生制御機能部101による制御の全体動作フローである。   FIG. 6 is an overall operation flow of control by the sound generation control function unit 101 of the main CPU 1.

かかる制御のためにゲームデータとして、ROM2には、図7、図8に示すキャラクタデータがテーブル化して予め用意されている。   For such control, character data shown in FIGS. 7 and 8 is prepared as a table in advance in the ROM 2 as game data.

図7に示すテーブルには、ゲームプログラムの進行中に表示される全てのキャラクタのパラメータがリストされている。なお、図7は、かかるリストされたパラメータの項目のうち本発明と関係する音データ部分のみを示している。   In the table shown in FIG. 7, parameters of all characters displayed during the progress of the game program are listed. FIG. 7 shows only the sound data portion related to the present invention among the listed parameter items.

すなわち、図7において、キャラクタのNo.対応に構成ポリゴン、構成ポリゴンの音に対する透明度及び、音源オブジェクトか否か(1は音源オブジェクト、0は非音源オブジェクト)のパラメータが含まれる、非音源オブジェクトは、発音をしないキャラクタである。   That is, in FIG. Correspondingly, the non-sound source object is a character that does not pronounce sound, including the constituent polygon, transparency of the sound of the constituent polygon, and parameters of whether or not it is a sound source object (1 is a sound source object, 0 is a non-sound source object).

図7において、例えばキャラクタNo.が“1”のキャラクタは、音源オブジェクトであって、ポリゴンP11,P12,…P1nで構成され、それぞれの構成ポリゴンの音の透明度が、P11=50、P12=56,…P1n=50であることが登録されている。   In FIG. The character with “1” is a sound source object, and is composed of polygons P11, P12,... P1n, and the sound transparency of each component polygon is P11 = 50, P12 = 56,. Is registered.

ここで、音の透明度とは、キャラクタがどのような構造物であるかに対応して設定されている。例えば、キャラクタが岩山のような固いものであれば、音を通し難く、従って音の透明度は小さい数値である。一方、薄い形状のものでは、音は通し易く音の透明度は大きい数値である。   Here, the sound transparency is set corresponding to what structure the character is. For example, if the character is hard like a rocky mountain, it is difficult to pass through the sound, so the sound transparency is a small value. On the other hand, in the thin shape, the sound is easy to pass and the sound transparency is a large numerical value.

図8は、図7の音源オブジェクト(図7で、キャラクタ区別が“1”に設定されている)について、更に音データとして発音の音色、音の高低、音量レベルが定義されている。たとえば、図7で音源オブジェクトとして示されるキャラクタNo.1について、音色はAA,音の高低はデフォルトレベルに対して+1、音量レベルはデフォルトレベルに対して+1に設定されている。   In FIG. 8, for the sound source object of FIG. 7 (character distinction is set to “1” in FIG. 7), the tone color, tone pitch, and volume level are further defined as sound data. For example, the character No. shown as the sound source object in FIG. For 1, the tone color is set to AA, the pitch of the tone is set to +1 with respect to the default level, and the volume level is set to +1 with respect to the default level.

図6に戻り、メインCPU1は、ゲープログラムの進行に対応して、図7のリストに登録されているキャラクタオブジェクトから表示するべき対象であるキャラクタオブジェクトの音データを読み出し、仮想三次元空間に配置する位置を決定する(ステップS1)。   Returning to FIG. 6, the main CPU 1 reads the sound data of the character object to be displayed from the character objects registered in the list of FIG. 7 and arranges it in the virtual three-dimensional space in accordance with the progress of the game program. The position to be performed is determined (step S1).

このとき表示するべき対象であるキャラクタオブジェクトは、一つとは限らず複数でありうる。すなわち、音発生制御手段101は、複数の音源オブジェクトが前記仮想三次元空間において設定された前記第2視点の位置から所定範囲内に存在するかを判定する。そして、前記複数の音源オブジェクトが前記所定範囲内に存在する場合は、前記音源オブジェクトごとに、前記音の大きさを決定する。   At this time, the number of character objects to be displayed is not limited to one and may be plural. That is, the sound generation control unit 101 determines whether a plurality of sound source objects exist within a predetermined range from the position of the second viewpoint set in the virtual three-dimensional space. When the plurality of sound source objects exist within the predetermined range, the volume of the sound is determined for each sound source object.

なお、以下の説明では簡単化のために、以下の実施例説明においても、表示装置5に遊戯者の操作対象であるキャラクタオブジェクトC1と、一つの敵キャラクタオブジェクトC2が対峙するように表示される場合を例にする。   In the following description, for the sake of simplification, also in the following description of the embodiments, the character object C1 that is the operation target of the player and the one enemy character object C2 are displayed on the display device 5 so as to face each other. Take the case as an example.

したがって、以下の処理は、表示するべきキャラクタオブジェクトが複数あるときは、キャラクタオブジェクトの数分繰り返して行われる。   Therefore, the following processing is repeated for the number of character objects when there are a plurality of character objects to be displayed.

音発生制御機能部101は、図7のテーブルを参照して、表示するべき対象であるキャラクタオブジェクトが、音源オブジェクトであるか否かを判定する。   The sound generation control function unit 101 refers to the table in FIG. 7 and determines whether or not the character object that is the target to be displayed is a sound source object.

音源オブジェクトであれば、更に図8のテーブルを参照して対応する音源オブジェクトの音の高低レベルを抽出する。   If it is a sound source object, the level of the sound of the corresponding sound source object is further extracted with reference to the table of FIG.

そして、所定の三次元形状例えば、球形であって、デフォルトの径を有する球体(以降、音基準キャラクタSOという)の大きさを音データに設定されている当該音源オブジェクトの音の高低レベルに基づき変更決定する(ステップS2)。   Then, based on the sound level of the sound source object in which the size of a predetermined three-dimensional shape, for example, a sphere having a default diameter (hereinafter referred to as sound reference character SO) is set in the sound data. The change is determined (step S2).

このようにして決定された径の大きさを有する、一例として球体で表示される音基準キャラクタSOを、三次元空間に位置する敵キャラクタオブジェクトC2と置き換える。   For example, the sound reference character SO displayed as a sphere having the diameter determined as described above is replaced with an enemy character object C2 located in the three-dimensional space.

図9A、図9Bは、このように敵キャラクタオブジェクトC2と置き換えられた音基準キャラクタSOを三次元空間に置いたときの状態を示す図である。   FIG. 9A and FIG. 9B are diagrams showing a state when the sound reference character SO replaced with the enemy character object C2 is placed in a three-dimensional space.

図9Aでは、音基準キャラクタSO1となる敵キャラクタオブジェクトC2の音の高低レベル(図8参照)が基準音の高低レベルSSより大きい場合であり、図9Bでは、音基準キャラクタSO2となる敵キャラクタオブジェクトC2の音の高低レベル(図8参照)が基準音の高低レベルSSより小さい場合である。   9A shows a case where the pitch level (see FIG. 8) of the enemy character object C2 serving as the sound reference character SO1 is larger than the pitch level SS of the reference sound, and FIG. 9B shows an enemy character object serving as the sound reference character SO2. This is a case where the level of the sound C2 (see FIG. 8) is smaller than the level SS of the reference sound.

次いで、図6において、CPU1のゲーム画面表示用の画像データを作成する画像データ作成機能部100による処理と並行して、音発生制御機能部101は、レンダリングプロセッサ4に図9A(図9B)に示す三次元空間に置かれた音基準キャラクタSO1(又は、SO2)を二次元平面に透視変換する音画像生成処理を指令する(ステップS3)。   Next, in FIG. 6, the sound generation control function unit 101 sends the rendering processor 4 to FIG. 9A (FIG. 9B) in parallel with the processing by the image data creation function unit 100 that creates image data for game screen display of the CPU 1. The sound reference character SO1 (or SO2) placed in the three-dimensional space shown is instructed for sound image generation processing for perspective transformation into a two-dimensional plane (step S3).

レンダリングプロセッサ4は、音画像生成処理の指令(ステップS3)に基づき三次元空間に置かれた音源オブジェクトに対応して音基準キャラクタSO1(SO2)を二次元平面に透視変換する。   The rendering processor 4 perspective-converts the sound reference character SO1 (SO2) into a two-dimensional plane corresponding to the sound source object placed in the three-dimensional space based on the sound image generation processing command (step S3).

その際に、図10A(図9Aに対応)、図10B(図9B対応)に示すように、当該二次元平面を音基準キャラクタSO1(SO2)に接する形状(音基準キャラクタの形状を球体とする場合は、正方形)、例えば32×32画素の面積の正方形に投影するように三次元空間データを二次元データに透視変換して、音の大きさ決定のための二次元面の画像データを得る(ステップS4)。   At that time, as shown in FIG. 10A (corresponding to FIG. 9A) and FIG. 10B (corresponding to FIG. 9B), the shape in which the two-dimensional plane is in contact with the sound reference character SO1 (SO2) (the shape of the sound reference character is a sphere). In the case of a square), for example, perspective transformation of 3D spatial data to 2D data so as to project onto a square with an area of 32 × 32 pixels to obtain 2D surface image data for sound volume determination (Step S4).

このとき、仮想三次元空間内の第2の視点20’を基準に音基準キャラクタO1(SO2)の視方向に32×32画素の面積の正方形の周辺と音基準キャラクタSO1(SO2)が接するように画角が設定される。また、第2の視点20’は、先の第1の視点20と同じであってもよい。   At this time, the sound reference character SO1 (SO2) is in contact with the periphery of the square having an area of 32 × 32 pixels in the viewing direction of the sound reference character O1 (SO2) based on the second viewpoint 20 ′ in the virtual three-dimensional space. The angle of view is set to. The second viewpoint 20 ′ may be the same as the first viewpoint 20.

具体的には、音基準キャラクタSO1(SO2)が球体のオブジェクトである場合、投影面に投影して得られる円形の大きさが、その円と同じ中心を持つ32×32画素の正方形の大きさに対して小さいときは、第2の視点20’の画角を徐々に小さくして行き、その円の外周が正方形の周辺に接するまでズームアップすればよい。一方、大きいときは、その円の外周が正方形の周辺に接するまで第2の視点20’の画角を徐々に大きくすればよい。   Specifically, when the sound reference character SO1 (SO2) is a spherical object, the size of a circle obtained by projecting on the projection plane is the size of a 32 × 32 pixel square having the same center as the circle. Is smaller, the angle of view of the second viewpoint 20 ′ may be gradually decreased, and zoomed up until the outer circumference of the circle touches the square. On the other hand, when it is larger, the angle of view of the second viewpoint 20 'may be gradually increased until the outer periphery of the circle touches the periphery of the square.

図11Aは、図10Aにおいて32×32画素の二次元面に透視変換した結果である。図11Bは、図10Bにおいて32×32画素の二次元面に透視変換した結果である。   FIG. 11A shows the result of perspective transformation into a two-dimensional surface of 32 × 32 pixels in FIG. 10A. FIG. 11B shows the result of perspective transformation into a two-dimensional surface of 32 × 32 pixels in FIG. 10B.

図11Aと図11Bとの比較において明らかなように、図10Aに示すように、音の高低レベルが基準レベルSSよりも大きい音基準キャラクタSO1に対して、音の障害キャラクタオブジェクトC3の投影される面積が小さいことが理解できる。   As is apparent from the comparison between FIG. 11A and FIG. 11B, as shown in FIG. 10A, the sound obstacle character object C3 is projected on the sound reference character SO1 whose sound level is larger than the reference level SS. It can be understood that the area is small.

図6に戻り、CPU1の音発生制御機能部101は、次いで、ステップS4で二次元面に透視変換された音画像データに基づいて、音の大きさを決定する(ステップS5)。   Returning to FIG. 6, the sound generation control function unit 101 of the CPU 1 then determines the loudness based on the sound image data that is perspective-transformed into the two-dimensional plane in step S4 (step S5).

すなわち、前記透視変換により生成された前記二次元画像データにおける前記三次元形状のオブジェクトに対応する二次元形状の画像領域と、音を遮る他のオブジェクトに対応する二次元形状の画像領域との重なり部分の大きさ割合に基づき、前記音源オブジェクトから発生させる音の大きさを決定する。   That is, the two-dimensional image region corresponding to the three-dimensional object in the two-dimensional image data generated by the perspective transformation overlaps with the two-dimensional image region corresponding to another object that blocks sound. Based on the volume ratio of the portion, the volume of sound generated from the sound source object is determined.

ついで、決定された大きさの音が音源装置9によりスピーカ10から出力される(ステップS6)。   Next, the sound having the determined magnitude is output from the speaker 10 by the sound source device 9 (step S6).

上記処理において、音の大きさ決定のための画像変換を行うステップS4及び、音の大きさを決定する手順(ステップS5)について以下に更に詳細に説明する。   In the above processing, step S4 for performing image conversion for sound volume determination and a procedure for determining the sound volume (step S5) will be described in more detail below.

音の大きさ決定のための画像変換を行うステップS4の詳細が、図12のフローに示される。   The details of step S4 for performing image conversion for sound volume determination are shown in the flow of FIG.

図11A(図11B)に示したように、音基準キャラクタSO1(SO2)を二次元面に透視変換された領域25Aは、32×32画素分の正方形領域24の辺に接している。   As shown in FIG. 11A (FIG. 11B), the area 25A obtained by perspective-transforming the sound reference character SO1 (SO2) into a two-dimensional plane is in contact with the side of the square area 24 of 32 × 32 pixels.

図12において、レンダリングプロセッサ4は、図11A(図11B)に示すように二次元面に投影された「音の大きさ決定用の画像データ」において、音源オブジェクトSO1(SO2)に対応する円形の透視変換領域25Aを任意の色、例えば、赤色にテクスチャを貼り付ける(ステップS40)。   In FIG. 12, the rendering processor 4 has a circular shape corresponding to the sound source object SO1 (SO2) in the “image data for sound volume determination” projected onto the two-dimensional surface as shown in FIG. 11A (FIG. 11B). The texture is pasted on the perspective transformation area 25A in an arbitrary color, for example, red (step S40).

ついで、音を遮る地形等の音に対する不透明度の高いオブジェクト、図11A(図11B)に示す例では家の屋根の形状を有するオブジェクトについて、当該オブジェクトを構成するポリゴン毎に、完全な音遮蔽となるポリゴン(不透明ポリゴン)の部分を、上記ステップS40において赤色でレンダリングした「音の大きさ決定用の画像データ」上に黒色をレンダリングする(ステップS41)。   Next, with respect to an object having high opacity with respect to sound such as terrain that blocks sound, an object having the shape of a house roof in the example shown in FIG. 11A (FIG. 11B), complete sound shielding for each polygon constituting the object. The portion of the polygon (opaque polygon) to be formed is rendered black on the “image data for sound volume determination” rendered in red in step S40 (step S41).

さらに、当該音を遮るオブジェクトを構成するポリゴン毎に、不完全な音遮蔽となるポリゴン(半透明ポリゴン)に対して、例えば、図11A(図11B)に示す例では家の本体部の形状の部分に、上記ステップS40において赤色でレンダリングした「音の大きさ決定用の画像データ」に対し、黒の半透明を描画する(ステップS42)。   Furthermore, for each polygon constituting the object that blocks the sound, a polygon (semi-transparent polygon) that is incompletely sound-blocking, for example, in the example shown in FIG. 11A (FIG. 11B), the shape of the main body of the house Black translucency is drawn on the portion of the “image data for determining sound volume” rendered in red in step S40 (step S42).

ここで、色の足しこみについて考える。RGB表示において、赤色のレベルは(255,0,0)、黒色は(0,0,0)で表される。ここでは、分かりやすいように色のレベルを0〜1に正規化すると、 赤は(1,0,0)、黒は(0,0,0)で表される。   Here, let us consider the addition of colors. In RGB display, the red level is represented by (255,0,0) and the black level is represented by (0,0,0). Here, when the color level is normalized to 0 to 1 for easy understanding, red is represented by (1,0,0) and black is represented by (0,0,0).

したがって、色の足しこみ処理は次のようになる。   Therefore, the color addition process is as follows.

元の色(既に書かれている色)に、ある不透明率を有する塗りつぶす色を重ねる場合、足しこみ結果の色は、[元の色(既に書かれている色)*(1−不透明率)+塗りつぶす色*不透明率]となる。   When a color to be filled with a certain opacity is superimposed on the original color (already written color), the resulting color is [original color (already written color) * (1-opacity) + Color to fill * Opacity].

元の色(既に書かれている色)を“dest”
塗りつぶす色を“source”
塗りつぶす色の不透明率(0〜1)を“sourceα”と表記すると、
足しこみ結果の色S’は、
S‘=dest * (1-sourceα) + source * sourceα になる。これは通常の半透明の計算と同じである。
“Dest” the original color (already written)
“Source” the color to fill
When the opacity (0 to 1) of the fill color is expressed as “sourceα”,
The color S 'as a result of the addition is
S ′ = dest * (1-sourceα) + source * sourceα. This is the same as a normal translucent calculation.

例として、元の色赤(1)、黒(0)、不透明(1)とする場合、
S’=1*(1−1)+0*1=0+0=0 (0で書き込まれる結果となる)
元の色赤(1)、黒(0)、不透明(0.5)の場合は、
S’=1*(1-0.5)+0*0.5=0.5+0=0.5(0.5で書き込まれる結果となる)
そして、この色の足しこみに関し、黒(0,0,0)〜赤(1,0,0)で単純に赤のみを足していく。半透明率αの処理もステップS41とS42の足しこみ部分で行う。
For example, if the original color is red (1), black (0), opaque (1),
S ′ = 1 * (1-1) + 0 * 1 = 0 + 0 = 0 (result is written as 0)
If the original color is red (1), black (0), opaque (0.5),
S ′ = 1 * (1-0.5) + 0 * 0.5 = 0.5 + 0 = 0.5 (result is written at 0.5)
Then, regarding the addition of this color, only red is simply added from black (0,0,0) to red (1,0,0). The process of translucency α is also performed at the added portion of steps S41 and S42.

ついで、32×32画素分の「音の大きさ決定用の仮想画像データ」について、ステップS41、S42で使用した赤色のRについて足し込みを行う(ステップS43)。   Next, the red R used in steps S41 and S42 is added to the “virtual image data for determining the sound volume” for 32 × 32 pixels (step S43).

すなわち、赤色でレンダリングした領域の画素の足しこみ値は、255とし、黒色でレンダリングした領域の画素の足しこみ値は、0となる。   That is, the addition value of the pixel in the area rendered in red is 255, and the addition value of the pixel in the area rendered in black is 0.

さらに、音の大きさを決定する手順(ステップS5)の詳細は図13のフローに示される。   Further, details of the procedure for determining the loudness (step S5) are shown in the flow of FIG.

このステップS5の処理に関し、図11A(図11B)における音を遮るものがなかった場合の、32×32ドットの二次元画像内の音基準キャラクタの円形領域25Aの赤でレンダリングの値を足し込んだ値SがROM2に予め登録されている。   With regard to the processing in step S5, the rendering value is added in red in the circular area 25A of the sound reference character in the 32 × 32 dot two-dimensional image when there is nothing to block the sound in FIG. 11A (FIG. 11B). The value S is registered in the ROM 2 in advance.

音発生制御機能部101は、「何も遮るものがなかった場合の32×32ドット画像内の円形面積に対応する値S」を、記憶部(ROM2)から読み出す(ステップS50)。   The sound generation control function unit 101 reads “a value S corresponding to a circular area in a 32 × 32 dot image when there is nothing to block” from the storage unit (ROM 2) (step S50).

ついで、ステップS43において、レンダリングされた「音の大きさ決定用の画像データ」について色の成分を足し込んだ値S’を読み込む(ステップS51)。   Next, in step S43, a value S 'obtained by adding a color component to the rendered "image data for determining sound volume" is read (step S51).

そして、値S’と図11A(図11B)の円形面積25Aに対応し予めROM2に登録されている対応する基準値Sの比S’/Sを計算する。   Then, a ratio S ′ / S between the value S ′ and the corresponding reference value S registered in advance in the ROM 2 corresponding to the circular area 25A of FIG. 11A (FIG. 11B) is calculated.

かかる比S’/Sにより、最終的に音を遮らなかった透過率PSを求めることができる(ステップS52)。   With this ratio S ′ / S, it is possible to obtain the transmittance PS that has not finally blocked the sound (step S52).

次いで、最初に設定したキャラクタオブジェクト対応に設定されている「基準音量レベル」に、この透過率PSを乗算した結果を求める(ステップS53)。   Next, a result obtained by multiplying the “reference volume level” set for the character object set first by this transmittance PS is obtained (step S53).

したがって、音源装置10に対し、スピーカから出力されるべく決定された音量レベルとしてステップS53の結果を送り、制御された音量の発音がスピーカ10から出力される(図6:ステップS6)。   Therefore, the result of step S53 is sent to the sound source device 10 as the volume level determined to be output from the speaker, and the sound generation of the controlled volume is output from the speaker 10 (FIG. 6: step S6).

本発明の適用されるゲーム装置本体の構成例の機能ブロック図である。It is a functional block diagram of the structural example of the game device main body to which this invention is applied. ゲーム装置により対戦ゲームプログラムに従って、仮想三次元空間に位置される2つの敵対するキャラクタオブジェクトC1、C2の例を示す図である。It is a figure which shows the example of two hostile character objects C1 and C2 located in virtual three-dimensional space according to a battle game program with a game device. 表示装置5の表示面22にゲーム画像の二次元面画像データが表示された状態を示す図である。It is a figure which shows the state by which the two-dimensional surface image data of the game image was displayed on the display surface 22 of the display apparatus 5. FIG. 図2に対応する仮想三次元空間に位置される2つのキャラクタオブジェクトC1、C2間に音障害オブジェクトが位置する例を示す図である。It is a figure which shows the example in which a sound disorder | damage | failure object is located between the two character objects C1 and C2 located in the virtual three-dimensional space corresponding to FIG. 図4に対応して、表示装置の表示面に表示した状態を示す図である。It is a figure which shows the state displayed on the display surface of a display apparatus corresponding to FIG. 本発明に従う発音の制御の実施例の全体動作フローである。It is the whole operation | movement flow of the Example of the control of the pronunciation according to this invention. ゲームプログラムの進行中に表示される全てのキャラクタのパラメータをリストしているテーブルの一部データを示す図である。It is a figure which shows the partial data of the table which lists the parameter of all the characters displayed during the progress of a game program. 図7の音源キャラクタについて、更に発音の音色、音の高低、音量レベルを定義いているテーブルのデータを示す図である。FIG. 8 is a diagram showing data of a table that further defines the tone color, tone pitch, and volume level of the sound source character of FIG. 基準音の高低レベルSSより大きい場合の敵キャラクタオブジェクトC2と置き換えられた音基準キャラクタSOを三次元空間に置いたときの状態を示す図である。It is a figure which shows the state when the sound reference character SO replaced with the enemy character object C2 in the case where it is larger than the high and low level SS of the reference sound is placed in the three-dimensional space. 基準音の高低レベルSSより小さい場合の敵キャラクタオブジェクトC2と置き換えられた音基準キャラクタSOを三次元空間に置いたときの状態を示す図である。It is a figure which shows a state when the sound reference character SO replaced with the enemy character object C2 in the case where it is smaller than the high and low level SS of the reference sound is placed in the three-dimensional space. 図9Aに対応して、三次元空間データを二次元データに透視変換して音の大きさ決定のための画像変換を行うことを説明する図である。FIG. 9B is a diagram for explaining that image conversion for sound volume determination is performed by perspective-transforming three-dimensional space data into two-dimensional data, corresponding to FIG. 9A. 図9Bに対応して、三次元空間データを二次元データに透視変換して音の大きさ決定のための画像変換を行うことを説明する図である。FIG. 9C is a diagram for explaining that image conversion for sound volume determination is performed by perspective-transforming three-dimensional space data into two-dimensional data, corresponding to FIG. 9B. 図10Aにおいて32×32画素の二次元面に透視変換した結果である。FIG. 10A shows the result of perspective transformation into a two-dimensional surface of 32 × 32 pixels. 図10Bにおいて32×32画素の二次元面に透視返還した結果である。FIG. 10B shows the result of perspective return to a two-dimensional surface of 32 × 32 pixels in FIG. 10B. 図6における音の大きさ決定のための画像変換を行うステップS4の詳細を示すフロー図である。It is a flowchart which shows the detail of step S4 which performs image conversion for the loudness determination in FIG. 図6における音の大きさを決定するステップS5の詳細を示すフロー図である。It is a flowchart which shows the detail of step S5 which determines the loudness in FIG.

符号の説明Explanation of symbols

1 メインCPU
100 画像データ作成機能部
101 音発生制御機能部
2 ROM
3 RAM
4 レンダリングプロセッサ
5 表示装置
6 テクスチャメモリ
7 ビデオRAM(VRAM)
8 入力装置
9 音源装置
10 スピーカ
11 バス
1 Main CPU
100 Image data creation function unit 101 Sound generation control function unit 2 ROM
3 RAM
4 Rendering processor 5 Display device 6 Texture memory 7 Video RAM (VRAM)
8 Input device 9 Sound source device 10 Speaker 11 Bus

Claims (5)

仮想三次元座標空間内に第1視点及びオブジェクトを配置し、前記第1視点から見た前記オブジェクトを含む仮想三次元空間の様子を透視変換した二次元画像を生成し、生成した前記二次元画像を表示部に表示させる処理と、前記オブジェクトに対して予め設定された音を音出力部に出力させる処理とをコンピュータに実行させるためのプログラムであって、
前記コンピュータに、
音を発生するように予め設定された音源オブジェクトに対応付けて記憶部に記憶される音データを読み出し、前記音源データに対応して所定の三次元形状のオブジェクトの大きさを決定する手段と、
前記決定された大きさの三次元形状のオブジェクトを前記音源オブジェクトに対応させて仮想三次元空間に配置し、前記仮想三次元空間内の第2視点の位置から前記三次元形状のオブジェクトに対する視方向における画角を設定して予め設定された画像サイズとなるように、前記三次元形状のオブジェクトを二次元面に透視変換して、音の大きさを決定するための二次元画像データを生成する手段と、
前記生成された前記二次元画像データにおける前記三次元形状のオブジェクトに対応する二次元形状の画像領域と、音を遮る他のオブジェクトに対応する二次元形状の画像領域との重なり部分の大きさ割合に基づき、前記音源オブジェクトから発生させる音の大きさを決定する手段と、
前記決定される音の大きさで、前記音源オブジェクトが発生する音を音出力部から出力させる手段として機能させる、
ことを特徴とするプログラム。
The two-dimensional image generated by arranging a first viewpoint and an object in a virtual three-dimensional coordinate space, generating a two-dimensional image obtained by perspective-transforming the state of the virtual three-dimensional space including the object viewed from the first viewpoint. Is a program for causing a computer to execute a process of displaying a sound on a display unit and a process of outputting a sound preset for the object to a sound output unit,
In the computer,
Means for reading sound data stored in a storage unit in association with a sound source object set in advance to generate sound, and determining a size of a predetermined three-dimensional object corresponding to the sound source data;
The three-dimensional object having the determined size is arranged in a virtual three-dimensional space in correspondence with the sound source object, and the viewing direction with respect to the three-dimensional object from the position of the second viewpoint in the virtual three-dimensional space The two-dimensional image data for determining the volume of sound is generated by perspective-transforming the three-dimensional object into a two-dimensional plane so that the angle of view is set and the image size is set in advance. Means,
The size ratio of the overlapping part of the two-dimensional shape image region corresponding to the three-dimensional shape object in the generated two-dimensional image data and the two-dimensional shape image region corresponding to another object that blocks sound Means for determining a loudness generated from the sound source object, based on
Function as means for outputting the sound generated by the sound source object from the sound output unit at the determined sound volume;
A program characterized by that.
請求項1において、
前記所定の三次元形状のオブジェクトは球形を成し、前記所定の三次元形状のオブジェクトに対応して透視変換された二次元形状の画像が円形であることを特徴とするプログラム。
In claim 1,
The predetermined three-dimensional object has a spherical shape, and the two-dimensional image obtained by perspective transformation corresponding to the predetermined three-dimensional object is circular.
請求項1において、
前記第2視点の位置は、前記第1視点の位置に一致するように設定し、
前記第2視点からの視方向は、前記オブジェクトに向かう方向に設定し、
前記第2視点の画角は、前記画像サイズの周囲辺に円形が接するように設定する、
ことを特徴とするプログラム。
In claim 1,
The position of the second viewpoint is set to coincide with the position of the first viewpoint,
The viewing direction from the second viewpoint is set to the direction toward the object,
The angle of view of the second viewpoint is set so that a circle touches the periphery of the image size.
A program characterized by that.
請求項2又は3において、
前記コンピュータに、更に
複数の音源オブジェクトが前記仮想三次元空間において設定された前記第2視点の位置から所定範囲内に存在するかを判定する手段と、
前記複数の音源オブジェクトが前記所定範囲内に存在する場合は、前記音源オブジェクトごとに、前記音の大きさを決定する、
ことを特徴とするプログラム。
In claim 2 or 3,
Means for determining whether the computer further includes a plurality of sound source objects within a predetermined range from the position of the second viewpoint set in the virtual three-dimensional space;
When the plurality of sound source objects exist within the predetermined range, the volume of the sound is determined for each sound source object.
A program characterized by that.
請求項1において、
前記音源オブジェクトから発生させる音の大きさを決定する手段は、前記音を遮る他のオブジェクトに対応する二次元形状の画像領域との重なり部分に対し、前記音を遮る他のオブジェクトの音に対する透明度を係数として乗算することを特徴とするプログラム。
In claim 1,
The means for determining the magnitude of the sound generated from the sound source object is a transparency with respect to the sound of the other object that blocks the sound with respect to an overlapping portion with a two-dimensional image area corresponding to the other object that blocks the sound. A program characterized by multiplying as a coefficient.
JP2008089336A 2008-03-31 2008-03-31 Generation control program of sound generated from sound source in virtual space Active JP5146054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008089336A JP5146054B2 (en) 2008-03-31 2008-03-31 Generation control program of sound generated from sound source in virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008089336A JP5146054B2 (en) 2008-03-31 2008-03-31 Generation control program of sound generated from sound source in virtual space

Publications (2)

Publication Number Publication Date
JP2009246600A true JP2009246600A (en) 2009-10-22
JP5146054B2 JP5146054B2 (en) 2013-02-20

Family

ID=41308050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008089336A Active JP5146054B2 (en) 2008-03-31 2008-03-31 Generation control program of sound generated from sound source in virtual space

Country Status (1)

Country Link
JP (1) JP5146054B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123374A (en) * 2009-12-11 2011-06-23 Square Enix Co Ltd Sounding processing apparatus, sounding processing method and sounding processing program
JP2012045200A (en) * 2010-08-27 2012-03-08 Square Enix Co Ltd Video game processing apparatus and video game processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123374A (en) * 2009-12-11 2011-06-23 Square Enix Co Ltd Sounding processing apparatus, sounding processing method and sounding processing program
EP2332622A3 (en) * 2009-12-11 2012-01-25 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Sound generation apparatus, sound generation method and sound generation program
US8466363B2 (en) 2009-12-11 2013-06-18 Kabushiki Kaisha Square Enix Sound generation processing apparatus, sound generation processing method and a tangible recording medium
JP2012045200A (en) * 2010-08-27 2012-03-08 Square Enix Co Ltd Video game processing apparatus and video game processing program

Also Published As

Publication number Publication date
JP5146054B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
JP2009237680A (en) Program, information storage medium, and image generation system
JP2004005452A (en) Image processor, image processing method, semiconductor device, computer program and record medium
JP2006346507A (en) Game apparatus and image processing program
JP2006195882A (en) Program, information storage medium and image generation system
JP4267646B2 (en) Image generating apparatus, image generating method, and program
JP3748451B1 (en) Program, information storage medium, and image generation system
JP2011053737A (en) Program, information storage medium and image generation device
JP2005032140A (en) Image generation system, program, and information storage medium
JP4868586B2 (en) Image generation system, program, and information storage medium
JP3639286B2 (en) GAME PROGRAM AND GAME DEVICE
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
JP2007272356A (en) Program, information storage medium and image generation system
JP2005100109A (en) Image generation information, information storage medium and image generation apparatus
JP2005346417A (en) Method for controlling display of object image by virtual three-dimensional coordinate polygon and image display device using the method
JP4861862B2 (en) Program, information storage medium, and image generation system
JP2009169471A (en) Program, information storage medium, and image generation system
JP4528008B2 (en) Program, information storage medium, and image generation system
JP3745659B2 (en) Image generating apparatus and image generating program
JP2005141647A (en) Program, information storage medium and image generating system
JP5063022B2 (en) Program, information storage medium, and image generation system
JP2009140370A (en) Program, information storage medium, and image generation system
JP2010231364A (en) Image generation system, program and information recording medium
JP2009140371A (en) Program, information storage medium, and image generation system
JP2007164736A (en) Image generation system, program and information storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R150 Certificate of patent or registration of utility model

Ref document number: 5146054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250