JP2008079748A - Image sound output device, image sound output method, and image sound output program - Google Patents

Image sound output device, image sound output method, and image sound output program Download PDF

Info

Publication number
JP2008079748A
JP2008079748A JP2006261704A JP2006261704A JP2008079748A JP 2008079748 A JP2008079748 A JP 2008079748A JP 2006261704 A JP2006261704 A JP 2006261704A JP 2006261704 A JP2006261704 A JP 2006261704A JP 2008079748 A JP2008079748 A JP 2008079748A
Authority
JP
Japan
Prior art keywords
audio
collision
video
data
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006261704A
Other languages
Japanese (ja)
Inventor
Takafumi Fujimoto
貴文 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taito Corp
Original Assignee
Taito Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taito Corp filed Critical Taito Corp
Priority to JP2006261704A priority Critical patent/JP2008079748A/en
Publication of JP2008079748A publication Critical patent/JP2008079748A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To permit natural sounds according to the situation of an object expressed in an image to be output. <P>SOLUTION: The image sound output device such as a game device which outputs images and sounds is provided with a physical engine 18 which computes the movement of the object in a three-dimensional space and detects the strength of collision and the site of collision of the object in the three-dimensional space. A CPU 10 displays the object in the image expressing the three-dimensional space on the basis of the result of computation by the physical engine 18. The CPU 10 acquires basic sound data of the object, the collision of which is detected by the physical engine 18 from a basic sound data base 16a, generates waveform data corresponding to the strength of collision and the site of collision on the basis of the basic sound data and outputs sounds corresponding to the generated sound waveform data from a speaker 24 by a sound processor 22. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ゲーム装置などの映像と音声を出力する映像音声出力装置、同装置における映像音声出力方法、及び映像音声出力プログラムに関する。   The present invention relates to a video / audio output device that outputs video and audio, such as a game device, a video / audio output method in the same device, and a video / audio output program.

一般に、映像と音声とをゲーム中に出力するゲーム装置では、映像中に表示されているオブジェクトの変化に合わせて、効果音やBGM(back ground music)などの音声を出力させている。例えば、ゲーム空間内でオブジェクトが別のオブジェクトなどと衝突したりするような場合には、オブジェクトが衝突する映像に合わせて、オブジェクトに応じた効果音を出力させる。   In general, in a game device that outputs video and audio during a game, sound such as sound effects and BGM (back ground music) is output in accordance with changes in objects displayed in the video. For example, when an object collides with another object or the like in the game space, a sound effect corresponding to the object is output in accordance with a video where the object collides.

従来のゲーム装置では、オブジェクトに応じた効果音を出力するために、予めオブジェクトが衝突した時に出力する音声の音声データを用意している。そして、ゲーム状況に応じて音声データに対してボリュームやピッチを変更する調整を施した後に音声を出力する。   In a conventional game device, in order to output a sound effect corresponding to an object, voice data to be output when an object collides is prepared in advance. Then, after adjusting the volume or pitch to the sound data according to the game situation, the sound is output.

例えば、特許文献1に開示されたゲーム装置では、ディスクから読み込まれた音波形データ(サウンドデータ)に対して、ピッチ処理をしたり、音声データや効果音の音量調整および他のトラックとのミキシング処理を行って音声を出力している。
特開2005−321514号公報
For example, in the game device disclosed in Patent Document 1, pitch processing is performed on sound waveform data (sound data) read from a disc, volume adjustment of sound data and sound effects, and mixing with other tracks. It is processing and outputting sound.
JP 2005-321514 A

このように従来では、オブジェクトに対して予め決められた音声を、ゲーム状況に応じてボリュームやピッチなどを変更しながら出力していた。通常、映像空間(ゲーム空間)で表現されるオブジェクトの全ての状況に対して音声データが用意されていない。従って、ボリュームやピッチを調整したとしても、オブジェクトの全ての状況に応じた自然な音声を出力することができなかった。   As described above, conventionally, a predetermined voice for an object is output while changing a volume, a pitch, or the like according to a game situation. Usually, audio data is not prepared for all situations of an object expressed in a video space (game space). Therefore, even if the volume and pitch are adjusted, it is impossible to output a natural sound corresponding to all the situations of the object.

本発明は前述した事情に考慮してなされたもので、その目的は、映像中で表現されるオブジェクトの状況に応じた自然な音声を出力することが可能な映像音声出力装置、映像音声出力方法、映像音声出力プログラムを提供することにある。   The present invention has been made in consideration of the above-described circumstances, and an object of the present invention is to provide a video / audio output apparatus and a video / audio output method capable of outputting natural audio in accordance with the status of an object represented in the video. Another object is to provide a video / audio output program.

本発明は、映像と音声とを出力する映像音声出力装置において、三次元空間におけるオブジェクトの動きを演算し、三次元空間において衝突するオブジェクトの衝突した時の強さと衝突した場所を検出する演算手段と、前記演算手段による演算結果をもとに、三次元空間を表現する映像中にオブジェクトを表示するオブジェクト表示手段と、映像中に表示されるオブジェクトに対応する基本音声データを記憶する基本音声データ記憶手段と、前記演算手段により衝突が検出されたオブジェクトの基本音声データを前記基本音声データ記憶手段から取得し、この基本音声データをもとに前記衝突した時の強さと衝突した場所に応じた音波形データを生成する音波形生成手段と、前記音波形生成手段によって生成された音声波形データに応じた音声を出力する音声出力手段とを具備したことを特徴とする。   The present invention relates to a video / audio output device that outputs video and audio, and calculates a motion of an object in a three-dimensional space and detects a collision strength and a place where the colliding object collides in the three-dimensional space. And object display means for displaying an object in a video representing a three-dimensional space based on a calculation result by the calculation means, and basic audio data for storing basic audio data corresponding to the object displayed in the video The basic voice data of the object whose collision is detected by the storage means and the calculation means is acquired from the basic voice data storage means, and the strength at the time of the collision and the location of the collision are determined based on the basic voice data. Sound waveform generation means for generating sound waveform data, and sound corresponding to the voice waveform data generated by the sound waveform generation means Characterized by comprising an audio output means for outputting.

本発明によれば、三次元空間を表現する映像中のオブジェクトの衝突を検出し、このオブジェクが衝突した時の強さと衝突した場所に応じた音波形データを生成して出力するので、映像中で表示されるオブジェクトが衝突した時の個々の状況に応じた音声が出力される。このため、映像中で表現されるオブジェクトの状況に応じた自然な音声を出力することが可能となる。   According to the present invention, a collision of an object in a video representing a three-dimensional space is detected, and sound waveform data corresponding to the strength when the object collides and the location of the collision is generated and output. The sound corresponding to the individual situation when the object displayed in is collided is output. For this reason, it is possible to output natural sound according to the state of the object expressed in the video.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施形態における映像音声出力装置の構成を示すブロック図である。本実施形態における映像音声出力装置は、ゲーム装置として実現されているものとして説明する。   FIG. 1 is a block diagram showing a configuration of a video / audio output apparatus according to the present embodiment. The video / audio output device in the present embodiment will be described as being realized as a game device.

図1に示すゲーム装置には、CPU10、記憶装置12、メモリ14、データベース16、物理エンジン18、ディスプレイ20、サウンドプロセッサ22、スピーカ24、及び入力デバイス26が設けられている。   The game device shown in FIG. 1 includes a CPU 10, a storage device 12, a memory 14, a database 16, a physical engine 18, a display 20, a sound processor 22, a speaker 24, and an input device 26.

CPU10は、ゲーム機全体の制御を司るもので、メモリ14に記憶された各種プログラムに応じたゲーム処理を実行する。ゲーム処理では、ゲームの進行に合わせた映像と音声とを出力させる。本実施形態で使用されるCPU10は、マルチスレッドプログラムを実行可能であり、後述するゲーム処理と並行して、音波形作成スレッドを立ち上げて実行することができる。オブジェクト波形作成スレッドは、ゲーム空間でオブジェクトが衝突した時に出力させる音の音波形データを生成するために実行される。   The CPU 10 controls the entire game machine and executes game processing according to various programs stored in the memory 14. In the game process, video and audio in accordance with the progress of the game are output. The CPU 10 used in the present embodiment can execute a multi-thread program, and can launch and execute a sound waveform creation thread in parallel with a game process described later. The object waveform creation thread is executed to generate sound waveform data of a sound to be output when an object collides in the game space.

記憶装置12は、ハードディスク、CD−ROM、DVD等の記憶媒体に各種プログラムやデータを記憶するもので、基本システムを制御するOS(オペレーティングシステム)の他、ゲームを実現するためのゲームメイン処理プログラム、画像処理プログラム、音波形作成プログラムなどの各種プログラム、ゲーム中に表れる各種オブジェクト(プレイヤキャラクタやノンプレイヤキャラクタなども含む)に関するデータ(パラメータデータ、画像データ、音声データ等)などの各種データなどが記憶される。記憶装置12に記憶されたプログラムやデータは、必要に応じて読み出されてメモリ14に記憶される。なお、パラメータデータは、オブジェクトのゲーム空間における特性を示すデータであり、例えばオブジェクトの質量、形状、摩擦力などの、オブジェクトが衝突時に発生する音に変化を及ぼす特性を示すデータが含まれている。   The storage device 12 stores various programs and data in a storage medium such as a hard disk, a CD-ROM, and a DVD. In addition to an OS (operating system) that controls the basic system, a game main processing program for realizing a game , Various programs such as image processing programs, sound waveform creation programs, various data such as data (parameter data, image data, audio data, etc.) related to various objects (including player characters and non-player characters) appearing in the game, etc. Remembered. The programs and data stored in the storage device 12 are read as necessary and stored in the memory 14. The parameter data is data indicating characteristics of the object in the game space, and includes data indicating characteristics that change the sound generated when the object collides, such as the mass, shape, and frictional force of the object. .

メモリ14は、RAMやROMなどを含み、CPU10により実行されるプログラムや各種データが記憶される。メモリ14(RAM)は、CPU10により実行される処理のバッファ領域として使用され、例えばディスプレイ20において表示される映像中のオブジェクトに対応する音波形データを生成するための作業に使用される。   The memory 14 includes a RAM, a ROM, and the like, and stores programs executed by the CPU 10 and various data. The memory 14 (RAM) is used as a buffer area for processing executed by the CPU 10, and is used for, for example, work for generating sound waveform data corresponding to an object in a video displayed on the display 20.

データベース16は、ゲーム処理で利用されるデータが登録されるもので、例えば基本音声データベース16aが含まれている。基本音声データベース16aは、ゲーム空間を表現する映像中で表示されるオブジェクトに応じた音声を出力するための音声データが登録されている(図3参照)。   The database 16 is for registering data used in the game process, and includes, for example, a basic voice database 16a. In the basic audio database 16a, audio data for outputting audio corresponding to an object displayed in a video representing the game space is registered (see FIG. 3).

物理エンジン18は、ゲーム空間を表現する三次元映像において、オブジェクト(3Dオブジェクト)を現実の三次元空間と同じ動きをするように表示するためもので、剛体力学や流体力学などの物理法則に従って物理処理だけを専門に実行する物理処理プロセッサである(物理(physics)プロセッシングユニット(PPU))。物理エンジン18は、ゲーム空間中で定義される各オブジェクトの特性をもとに、例えばゲーム処理において実行されるある1つの事象に対して、ゲーム空間内における各オブジェクトが相互にどのような関係にあり、どのように状況が変化(運動)するかを物理法則に従って演算して求める。物理エンジン18による演算処理によって、ゲーム空間内におけるオブジェクトの他のオブジェクト等に対する衝突などが検出される。物理エンジン18は、衝突が検出されたオブジェクトについて、オブジェクトの衝突した時の強さと衝突した場所を表すデータ(以下、ヒットデータと称する(図4参照))をCPU10に出力する。   The physics engine 18 is used to display an object (3D object) in a 3D image representing a game space so as to move in the same manner as an actual 3D space. A physical processing processor that specializes in processing only (physics processing unit (PPU)). Based on the characteristics of each object defined in the game space, the physics engine 18 determines how the objects in the game space relate to each other, for example, for a certain event executed in the game process. Yes, how the situation changes (exercises) is calculated according to the laws of physics. By the arithmetic processing by the physics engine 18, a collision with another object or the like in the game space is detected. The physics engine 18 outputs, to the CPU 10, data representing the strength of the collision of the object and the location of the collision (hereinafter referred to as hit data (see FIG. 4)) for the object in which the collision is detected.

なお、図示していないが、物理エンジン18の他に、三次元のゲーム映像を表示するためにGPU(Graphic Processing Unit)などが設けられていても良い。例えば、GPUは、CPU10からの命令に応じて、三次元座標系のゲーム空間における各オブジェクト(キャラクタ等を含む)の回転、移動、変形等の座標演算処理や、ゲーム空間を表現する映像内で表示すべき三次元画像データの生成処理などを実行する。   Although not shown, in addition to the physics engine 18, a GPU (Graphic Processing Unit) or the like may be provided to display a three-dimensional game image. For example, in response to a command from the CPU 10, the GPU performs coordinate calculation processing such as rotation, movement, and deformation of each object (including characters) in a game space of a three-dimensional coordinate system, or in a video representing the game space. A process for generating three-dimensional image data to be displayed is executed.

ディスプレイ20は、オブジェクト描画処理により生成された表示データに応じた画面(映像)を表示する。
サウンドプロセッサ22は、CPU10により実行される音声波形作成処理によって生成された音波形データに応じた音声をスピーカ24から出力させる。サウンドプロセッサ22は、ゲーム空間内のオブジェクトの状況に応じて生成された音波形データに応じて音声を出力することで、ディスプレイ20において表示されるゲーム空間を表す映像のオブジェクトの状況に応じた自然な音声を出力することができる。その他、サウンドプロセッサ22は、ピッチ変調、BGM音声等とのミキシング、他のトラックとのミックス等の処理を実行する。
The display 20 displays a screen (video) corresponding to the display data generated by the object drawing process.
The sound processor 22 causes the speaker 24 to output sound corresponding to the sound waveform data generated by the sound waveform creation process executed by the CPU 10. The sound processor 22 outputs sound according to sound waveform data generated according to the state of the object in the game space, so that the natural state corresponding to the state of the object of the video representing the game space displayed on the display 20 is obtained. Sound can be output. In addition, the sound processor 22 performs processing such as pitch modulation, mixing with BGM audio, etc., and mixing with other tracks.

スピーカ24は、サウンドプロセッサ22により生成された音声信号に応じた音声を出力する。   The speaker 24 outputs sound corresponding to the sound signal generated by the sound processor 22.

図2は、メモリ14のメモリマップを示す図である。図2に示すように、メモリ14には、プログラム記憶エリア30、オブジェクトデータエリア32、オブジェクト画像データエリア34、基本音声データエリア36等が設けられる。   FIG. 2 is a diagram showing a memory map of the memory 14. As shown in FIG. 2, the memory 14 includes a program storage area 30, an object data area 32, an object image data area 34, a basic audio data area 36, and the like.

プログラム記憶エリア30は、ゲーム処理を実行するための各種プログラムが記憶されるエリアであり、OS(オペレーティングシステム)の他に、ゲームメイン処理プログラム30a、画像処理プログラム30b、音波形作成プログラム30cなどが含まれている。   The program storage area 30 is an area where various programs for executing game processing are stored. In addition to the OS (operating system), a game main processing program 30a, an image processing program 30b, a sound waveform creation program 30c, and the like. include.

ゲームメイン処理プログラム30aは、ゲーム処理全体を制御するためのプログラムであり、ゲームの実行に伴ってオブジェクトを含む三次元空間を表現する画像(映像)と同映像に対応する音声を出力させる。   The game main processing program 30a is a program for controlling the entire game processing, and outputs a sound corresponding to an image (video) representing a three-dimensional space including objects and the same video as the game is executed.

画像処理プログラム30bは、ゲームメイン処理プログラム30aによるゲーム処理に伴う画像(映像)をディスプレイ20において表示させるためのプログラムである。   The image processing program 30b is a program for causing the display 20 to display an image (video) associated with the game processing by the game main processing program 30a.

音波形作成プログラム30cは、画像処理プログラム30bにより表示される画像(映像)に応じた自然な音声を出力するために、各オブジェクトに対応する音声の音声波形データを生成するための音声波形生成処理を実行するためのプログラムである。音波形作成プログラム30cにより、物理エンジン18における演算処理によって得られるヒットデータ(オブジェクトの衝突した時の強さと衝突した場所を示す)をもとに、オブジェクトに対応する基本音声データを基本音声データベース16aから読み出し、この基本音声データをもとに衝突した時の強さと衝突した場所に応じた音波形データを生成する。   The sound waveform creation program 30c generates speech waveform data of speech corresponding to each object in order to output natural speech corresponding to the image (video) displayed by the image processing program 30b. It is a program for executing. Based on the hit data (indicating the strength when the object collides and the location where the object collided) obtained by the sound waveform creation program 30c by the arithmetic processing in the physics engine 18, the basic audio data corresponding to the object is converted into the basic audio database 16a. The sound waveform data corresponding to the strength at the time of collision and the location of the collision is generated based on the basic voice data.

オブジェクトデータエリア32は、ゲーム空間中で表示される各種のオブジェクトに関するデータが記憶されるエリアであり、各オブジェクト1,2,…のそれぞれについてのデータが記憶される。例えば、オブジェクト1について、オブジェクトのゲーム空間内における位置を示す位置データ40、ゲーム空間における特性を示すパラメータデータ42(例えばオブジェクトの質量、形状、摩擦力などを示す)が含まれている。各オブジェクト2,…についても同様に、位置データ40、パラメータデータ42が設定されているものとする。   The object data area 32 is an area for storing data related to various objects displayed in the game space, and stores data for each of the objects 1, 2,. For example, the object 1 includes position data 40 indicating the position of the object in the game space, and parameter data 42 indicating characteristics in the game space (for example, indicating the mass, shape, frictional force, etc. of the object). Similarly, it is assumed that position data 40 and parameter data 42 are set for each object 2.

オブジェクト画像データエリア34は、ゲーム空間中でオブジェクトを表示するための画像データが記憶されるエリアであり、各オブジェクト1,2,…のそれぞれについてのデータが記憶される。   The object image data area 34 is an area for storing image data for displaying an object in the game space, and stores data for each of the objects 1, 2,.

基本音声データエリア36は、ゲーム空間中で表示されるオブジェクトに対応する基本音声データが記憶されるエリアであり、表示対象となっているオブジェクトの基本音声データが基本音声データベース16aから読み出されて記憶される。   The basic audio data area 36 is an area for storing basic audio data corresponding to an object displayed in the game space, and the basic audio data of the object to be displayed is read from the basic audio database 16a. Remembered.

図3は、データベース16に記憶される基本音声データベース16aの一例を示す図である。
図3に示すように、基本音声データベース16aには、ゲーム空間中で定義されるオブジェクトの材質毎に、オブジェクトが他のオブジェクト等と衝突(ヒット)した時に出力させる基本的な音声データ(基本音声データ)が登録されている。基本音声データは、例えばPCM(pulse cord modulation)データにより作成されている。基本音声データベース16aに記憶された基本音声データをもとに、サウンドプロセッサ22によって音声を出力させるための音波形データを生成することができる。
FIG. 3 is a diagram showing an example of the basic voice database 16 a stored in the database 16.
As shown in FIG. 3, in the basic audio database 16a, basic audio data (basic audio) to be output when an object collides (hits) with another object or the like for each object material defined in the game space. Data) is registered. The basic audio data is created by, for example, PCM (pulse cord modulation) data. Sound waveform data for outputting sound can be generated by the sound processor 22 based on the basic sound data stored in the basic sound database 16a.

図4は、物理エンジン18から取得されるヒットデータの一例を示す図である。
ヒットデータは、物理エンジン18における物理処理によって検出されるデータであり、ゲーム空間中で衝突が検出されたオブジェクトの衝突した時の強さを示すヒットパワーデータと、衝突した場所を表すヒット場所データが含まれている。物理エンジン18は、ゲーム空間を表す映像中で表示される全てのオブジェクトのそれぞれについてのヒットデータ(ヒットパワーデータ、ヒット場所データ)を、物理処理による演算結果としてCPU10に通知する。
FIG. 4 is a diagram illustrating an example of hit data acquired from the physics engine 18.
The hit data is data detected by physics processing in the physics engine 18, hit power data indicating the strength when an object whose collision has been detected in the game space, and hit location data representing the location of the collision. It is included. The physics engine 18 notifies the CPU 10 of hit data (hit power data, hit location data) for each of all objects displayed in the video representing the game space as a calculation result by physical processing.

次に、本実施形態におけるゲーム装置における動作について説明する。
図5は、本実施形態におけるゲーム処理を説明するためのフローチャートである。
CPU10は、メモリ14にロードされたゲームメイン処理プログラム30aを起動してゲーム処理を開始する。
Next, the operation of the game device in this embodiment will be described.
FIG. 5 is a flowchart for explaining the game processing in the present embodiment.
The CPU 10 activates the game main process program 30a loaded in the memory 14 and starts the game process.

CPU10は、ゲームメイン処理プログラム30aを実行することによりゲーム空間を作成し、このゲーム空間中でゲームを進行させる。ゲーム空間には、プレイヤが入力デバイス26を操作することにより動作させるプレイヤキャラクタや、予め決められたアルゴリズムに従ってゲーム空間中を動作するノンプレイヤキャラクタ、さらにはゲーム状況に応じてゲーム空間で所定の運動を行う様々なオブジェクトがゲーム空間中に定義されている。   The CPU 10 creates a game space by executing the game main processing program 30a, and advances the game in this game space. In the game space, a player character that is operated by the player operating the input device 26, a non-player character that operates in the game space according to a predetermined algorithm, and a predetermined motion in the game space according to the game situation Various objects are defined in the game space.

ゲーム処理が開始されると、CPU10は、操作入力処理を実行して、ユーザによる入力デバイス26に対する操作により入力される指示を入力する(ステップA1)。   When the game process is started, the CPU 10 executes an operation input process and inputs an instruction input by an operation on the input device 26 by the user (step A1).

CPU10は、操作入力処理によって入力されたユーザ指示に応じて、以下の処理を実行する(ステップA2〜A6)。   CPU10 performs the following processes according to the user instruction input by the operation input process (steps A2 to A6).

まず、CPU10は、ユーザ指示に応じてキャラクタ動作処理を実行する(ステップA2)。CPU10は、ユーザ指示応じてプレイヤキャラクタを動作されるための処理、及びプレイヤキャラクタの動作に応じて関連するノンプレイヤキャラクタ(例えば、敵キャラクタ、静止キャラクタなど)を動作させるための処理などを実行する。   First, the CPU 10 executes character action processing in accordance with a user instruction (step A2). The CPU 10 executes a process for moving the player character in response to a user instruction, a process for operating a related non-player character (for example, an enemy character, a stationary character, etc.) in accordance with the action of the player character, and the like. .

例えば、ユーザが入力デバイス26(十字キーやジョイスティック)を操作して方向を指示した場合、CPU10は、ゲーム空間内において、プレイヤキャラクタを指示された方向に移動させるためのキャラクタ動作処理を実行する。また、入力デバイス26に設けられた所定のボタンがユーザによって操作されると、CPU10は、プレイヤキャラクタに設けられている武器(銃や剣など)を使った攻撃動作をさせるための処理を実行する。   For example, when the user operates the input device 26 (cross key or joystick) and designates a direction, the CPU 10 executes a character action process for moving the player character in the designated direction in the game space. In addition, when a predetermined button provided on the input device 26 is operated by the user, the CPU 10 executes a process for causing an attacking action using a weapon (gun, sword, etc.) provided on the player character. .

次に、CPU10は、画像処理プログラム30bにより、ゲームの実行状況に応じてゲーム空間中のキャラクタやオブジェクトが変化する画像(映像)を表示させるためのオブジェクト描画処理を実行する(ステップA3)。この時、CPU10は、ゲーム空間中で表示する各オブジェクトのオブジェクトデータ(位置データ、パラメータデータ)を物理エンジン18に出力して、各オブジェクトの三次元のゲーム空間における動きを演算させる。   Next, the CPU 10 uses the image processing program 30b to execute object drawing processing for displaying an image (video) in which characters and objects in the game space change according to the game execution status (step A3). At this time, the CPU 10 outputs object data (position data, parameter data) of each object to be displayed in the game space to the physics engine 18 to calculate the movement of each object in the three-dimensional game space.

物理エンジン18は、CPU10から入力されるオブジェクトデータをもとに、ゲーム空間内における各オブジェクトが相互にどのような関係にあり、どのように状況が変化(運動)するかを物理法則に従って演算して求める。CPU10は、物理エンジン18による演算結果、すなわち各オブジェクトのゲーム空間における位置を示す位置データをもとに、オブジェクトをゲーム空間において表示させる。物理エンジン18は、物理法則に従ってオブジェクトの動きを演算するため、この演算結果をもとにオブジェクトを表示することで、現実の三次元空間と同じ動きをするようにオブジェクトを表示することができる。   Based on the object data input from the CPU 10, the physics engine 18 calculates the relationship between the objects in the game space and how the situation changes (exercises) according to the laws of physics. Ask. The CPU 10 displays the object in the game space based on the calculation result by the physics engine 18, that is, the position data indicating the position of each object in the game space. Since the physics engine 18 calculates the movement of the object in accordance with the laws of physics, by displaying the object based on the calculation result, it is possible to display the object so as to perform the same movement as in the actual three-dimensional space.

また、物理エンジン18は、各オブジェクトについての物理処理によって、オブジェクト間の衝突(ヒット)を検出した場合、衝突が発生した各オブジェクトのヒットデータ、すなわち衝突が検出されたオブジェクトの衝突した時の強さを示すヒットパワーデータと、オブジェクトにおける衝突した場所を表すヒット場所データをCPU10に出力する。物理エンジン18は、物理法則に従う演算を実行するため、単にオブジェクトの衝突の有無を検出するのではなく、衝突時の強さやオブジェクトの何れの部分から衝突したかを検出することができる。   When the physics engine 18 detects a collision (hit) between the objects by physical processing for each object, the hit data of each object in which the collision has occurred, that is, the strength when the object in which the collision is detected collides. The hit power data indicating the height and the hit location data representing the colliding location in the object are output to the CPU 10. Since the physics engine 18 performs an operation in accordance with the laws of physics, the physics engine 18 can detect not only the presence / absence of collision of the object but also the strength at the time of collision and from which part of the object the collision occurs.

CPU10は、物理エンジン18によりオブジェクトの衝突が検出され、各オブジェクトについてのヒットデータを受信すると、音波形作成プログラム30cによる音波形作成スレッドを起動して音波形作成処理を実行する(ステップA5)。CPU10は、音波形作成処理を実行することにより、オブジェクトが三次元空間で衝突した時の各オブジェクトの状況(衝突の強さ、衝突場所)に応じた自然な音を出力させる。   When the collision of the object is detected by the physics engine 18 and hit data for each object is received, the CPU 10 activates a sound waveform creation thread by the sound waveform creation program 30c and executes a sound waveform creation process (step A5). The CPU 10 outputs a natural sound corresponding to the situation (intensity of collision, collision location) of each object when the object collides in the three-dimensional space by executing the sound waveform creation process.

図6は、本実施形態における音波形作成処理を説明するためのフローチャートである。
まず、CPU10は、物理エンジン18からゲーム空間内で衝突したオブジェクトのヒットデータを取得し(ステップB1)、この衝突したオブジェクトの音波形データを作成するための基本音声データを基本音声データベース16aから取得してメモリ14に記憶させる(ステップB2)。
FIG. 6 is a flowchart for explaining the sound waveform creation processing in the present embodiment.
First, the CPU 10 acquires hit data of an object collided in the game space from the physics engine 18 (step B1), and acquires basic audio data for creating sound waveform data of the collided object from the basic audio database 16a. And stored in the memory 14 (step B2).

CPU10は、ヒットデータに応じて、基本音声データをもとにしたオブジェクトが衝突した時の音を出力するための音波形データを生成する(ステップB3)。基本音データは、オブジェクトのゲーム空間中で定義されている材質(例えば、金属、木材、ガラス)に応じて作成されている。また、オブジェクトは、材質が異なると、衝突時の強さの違いによる音の変化が異なる。また、衝突した相手のオブジェクトの材質の違いによっても音の変化が異なる。さらに、オブジェクトが何れの場所において衝突したか、例えば角部分から衝突したのか、また面部分が衝突したのかによって音の変化が異なる。さらに、オブジェクトの衝突方向(正面衝突など)によっても音の変化が異なる。   In accordance with the hit data, the CPU 10 generates sound waveform data for outputting a sound when the object collides based on the basic voice data (step B3). The basic sound data is created according to the material (for example, metal, wood, glass) defined in the game space of the object. In addition, when the material of the object is different, the sound changes due to the difference in strength at the time of collision. The change in sound also varies depending on the material of the colliding opponent's object. Furthermore, the change in sound differs depending on where the object collides, for example, from a corner portion or a surface portion. Furthermore, the change in sound varies depending on the collision direction (frontal collision, etc.) of the object.

CPU10は、前述したような、オブジェクトが衝突した時の状況に応じて、基本音データが示す音波形を変形して、オブジェクトが衝突した時の音を表す音波形データを生成する。   The CPU 10 deforms the sound waveform indicated by the basic sound data according to the situation when the object collides as described above, and generates sound waveform data representing the sound when the object collides.

CPU10は、物理エンジン18において衝突したことが検出されたオブジェクトのそれぞれについて音波形データを生成し、この音波形データをサウンドプロセッサ22に送り込み、サウンドプロセッサ22により音波形データに応じた音をスピーカ24から出力させる(ステップB4)。スピーカ24から出力される音は、物理エンジン18によって物理法則に従う演算によって検出された現実と同様なオブジェクトの動きに合わせて生成されているため、映像中のオブジェクトの変化に対応する自然な音となっている。   The CPU 10 generates sound waveform data for each object detected to have collided in the physics engine 18, sends the sound waveform data to the sound processor 22, and the sound processor 22 generates sound corresponding to the sound waveform data from the speaker 24. (Step B4). Since the sound output from the speaker 24 is generated in accordance with the movement of the object similar to the reality detected by the calculation according to the physical law by the physics engine 18, a natural sound corresponding to the change of the object in the video is obtained. It has become.

CPU10は、音波形作成処理によって各オブジェクトの状況に応じて音を出力させた後、その他のゲーム処理を実行する(ステップA6)。CPU10は、ゲームを終了するかどうか判別し、ゲーム処理を継続する場合には(ステップA7、No)、ステップA1に戻って前述と同様の処理を繰り返して実行する(ステップA1〜A6)。一方、ゲームを終了すると判別した場合には(ステップA7、Yes)、CPU10は、所定のゲーム終了処理を実行してゲーム処理を終了する。   The CPU 10 outputs other sounds according to the state of each object by the sound waveform creation process, and then executes other game processes (step A6). The CPU 10 determines whether or not to end the game. If the game process is to be continued (No at Step A7), the CPU 10 returns to Step A1 and repeatedly executes the same process as described above (Steps A1 to A6). On the other hand, when it is determined that the game is to be ended (step A7, Yes), the CPU 10 executes a predetermined game end process and ends the game process.

このようにして、本実施形態におけるゲーム装置(映像音声出力装置)によれば、物理エンジン18による物理処理の演算結果を利用して、ゲーム空間中で衝突したオブジェクトに対する音波形データを生成して出力することができるので、物理エンジン18を利用した現実の三次元空間と同様に変化するように表示されたオブジェクトと対応付けて、オブジェクトの状況に合わせた自然な音声を出力することができる。   In this manner, according to the game device (video / audio output device) in the present embodiment, the sound waveform data for the object collided in the game space is generated using the calculation result of the physical processing by the physics engine 18. Since it can be output, it is possible to output a natural sound in accordance with the state of the object in association with the object displayed so as to change in the same manner as an actual three-dimensional space using the physics engine 18.

なお、前述した説明では、物理エンジン18によってオブジェクト間の衝突を検出するとしているが、この衝突には、固体を表すオブジェクト同士の衝突の他にも、固体と流体(気体、液体)との衝突、オブジェクト間の接触(接した状態で移動する)なども含まれているものとする。   In the above description, collision between objects is detected by the physics engine 18, but this collision includes collision between a solid and a fluid (gas, liquid) in addition to collision between objects representing the solid. In addition, contact between objects (moving in contact) is also included.

また、前述した説明では、ゲーム装置を例にして説明しているが、オブジェクトを含む映像と共に、映像に応じた音声を出力する各種の映像音声出力装置に適用することが可能である。   In the above description, the game apparatus is described as an example. However, the present invention can be applied to various video / audio output apparatuses that output audio corresponding to video together with video including objects.

また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、実施形態に記載した手法は、コンピュータに実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、コンピュータに実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)をコンピュータ内に構成させる設定プログラムをも含む。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、コンピュータ内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。   In addition, the method described in the embodiment uses, as a program (software means) that can be executed by a computer, for example, a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, etc.), and a semiconductor memory. It can also be stored in a recording medium such as (ROM, RAM, flash memory, etc.), or transmitted and distributed via a communication medium. The program stored on the medium side also includes a setting program that configures in the computer software means (including not only the execution program but also a table and data structure) that is executed by the computer. A computer that implements the present apparatus reads the program recorded on the recording medium, constructs software means by a setting program in some cases, and executes the above-described processing by controlling the operation by the software means. The recording medium referred to in this specification is not limited to distribution, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network.

本実施形態における映像音声出力装置の構成を示すブロック図。The block diagram which shows the structure of the audio-video output apparatus in this embodiment. メモリ14のメモリマップを示す図。The figure which shows the memory map of the memory. データベース16に記憶される基本音声データベース16aの一例を示す図。The figure which shows an example of the basic audio | voice database 16a memorize | stored in the database 16. 物理エンジン18から取得されるヒットデータの一例を示す図。The figure which shows an example of the hit data acquired from the physics engine. 本実施形態におけるゲーム処理を説明するためのフローチャート。The flowchart for demonstrating the game process in this embodiment. 本実施形態における音波形作成処理を説明するためのフローチャート。The flowchart for demonstrating the sound wave formation process in this embodiment.

符号の説明Explanation of symbols

10…CPU、12…記憶装置、14…メモリ、16…データベース、16a…基本音声データベース、18…物理エンジン、20…ディスプレイ、22…サウンドプロセッサ、24…スピーカ、26…入力デバイス、30…プログラム記憶エリア、30a…ゲームメイン処理プログラム、30b…画像処理プログラム、30c…音波形作成プログラム、32…オブジェクトデータエリア、34…オブジェクト画像データエリア、36…基本音声データエリア、40…位置データ、42…パラメータデータ。   DESCRIPTION OF SYMBOLS 10 ... CPU, 12 ... Storage device, 14 ... Memory, 16 ... Database, 16a ... Basic voice database, 18 ... Physical engine, 20 ... Display, 22 ... Sound processor, 24 ... Speaker, 26 ... Input device, 30 ... Program storage Area 30a ... Game main processing program 30b ... Image processing program 30c ... Sound waveform creation program 32 ... Object data area 34 ... Object image data area 36 ... Basic audio data area 40 ... Position data 42 ... Parameter data.

Claims (6)

映像と音声とを出力する映像音声出力装置において、
三次元空間におけるオブジェクトの動きを演算し、三次元空間において衝突するオブジェクトの衝突した時の強さと衝突した場所を検出する演算手段と、
前記演算手段による演算結果をもとに、三次元空間を表現する映像中にオブジェクトを表示するオブジェクト表示手段と、
映像中に表示されるオブジェクトに対応する基本音声データを記憶する基本音声データ記憶手段と、
前記演算手段により衝突が検出されたオブジェクトの基本音声データを前記基本音声データ記憶手段から取得し、この基本音声データをもとに前記衝突した時の強さと衝突した場所に応じた音波形データを生成する音波形生成手段と、
前記音波形生成手段によって生成された音声波形データに応じた音声を出力する音声出力手段と
を具備したことを特徴とする映像音声出力装置。
In a video / audio output device that outputs video and audio,
A calculation means for calculating the movement of the object in the three-dimensional space, detecting the strength of the collision of the colliding object in the three-dimensional space, and the location of the collision;
An object display means for displaying an object in a video representing a three-dimensional space, based on a calculation result by the calculation means;
Basic audio data storage means for storing basic audio data corresponding to an object displayed in a video;
The basic voice data of the object whose collision is detected by the computing means is acquired from the basic voice data storage means, and the sound waveform data corresponding to the strength at the time of the collision and the location of the collision is obtained based on the basic voice data. Sound waveform generating means for generating;
An audio / video output apparatus comprising: audio output means for outputting audio corresponding to the audio waveform data generated by the sound waveform generating means.
前記演算手段は、三次元空間におけるオブジェクトの動きを、物理法則に従って演算する物理処理プロセッサにより実現されることを特徴とする請求項1記載の映像音声出力装置。   The video / audio output apparatus according to claim 1, wherein the calculation unit is realized by a physical processing processor that calculates the movement of an object in a three-dimensional space according to a physical law. 前記演算手段は、オブジェクトの特性を示すパラメータデータをもとに、オブジェクトの衝突した時の強さと衝突した場所を検出することを特徴とする請求項1記載の映像音声出力装置。   2. The video / audio output apparatus according to claim 1, wherein the computing means detects the strength when the object collides and the location where the object collides, based on parameter data indicating the characteristics of the object. オブジェクトを含む三次元空間を表現する映像と同映像に対応する音声を出力するためのプログラムを実行するCPUと、
前記CPUのプログラムの実行により三次元空間に定義されるオブジェクトの動きを、物理法則に従って演算する物理処理プロセッサと、
前記オブジェクトに対応する基本音声データを記憶する基本音声データ記憶手段とを有し、
前記物理処理プロセッサによる演算結果をもとに、三次元空間において衝突するオブジェクトの衝突した時の強さと衝突した場所を検出し、
この衝突が検出されたオブジェクトの基本音声データを前記基本音声データ記憶手段から取得し、この基本音声データをもとに前記衝突した時の強さと衝突した場所に応じた音波形データを生成し、
この生成された音波形データに応じた音声を出力することを特徴とする映像音声出力装置。
A CPU that executes a program for outputting audio corresponding to the video representing the three-dimensional space including the object;
A physical processor that calculates the movement of an object defined in a three-dimensional space by executing the program of the CPU according to a physical law;
Basic voice data storage means for storing basic voice data corresponding to the object,
Based on the calculation result by the physical processor, the collision strength of the colliding object in the three-dimensional space and the location of the collision are detected.
Obtaining the basic audio data of the object in which this collision is detected from the basic audio data storage means, and generating sound waveform data according to the strength and location of the collision based on the basic audio data,
An audio / video output device that outputs audio corresponding to the generated sound waveform data.
映像と音声とを出力する映像音声出力方法において、
三次元空間におけるオブジェクトの動きを演算し、三次元空間において衝突するオブジェクトの衝突した時の強さと衝突した場所を検出する演算ステップと、
前記演算ステップによる演算結果をもとに、三次元空間を表現する映像中にオブジェクトを表示するオブジェクト表示ステップと、
前記演算ステップにより衝突が検出されたオブジェクトに対応する基本音声データをもとに前記衝突した時の強さと衝突した場所に応じた音波形データを生成する音波形生成ステップと、
前記音波形生成ステップによって生成された音声波形データに応じた音声を出力する音声出力ステップとを有したことを特徴とする映像音声出力方法。
In a video / audio output method for outputting video and audio,
A calculation step of calculating the movement of the object in the three-dimensional space, detecting the strength of the collision of the colliding object in the three-dimensional space, and the location of the collision;
An object display step for displaying an object in a video representing a three-dimensional space based on the calculation result of the calculation step;
A sound waveform generating step for generating sound waveform data corresponding to the strength and the location of the collision based on the basic audio data corresponding to the object in which the collision is detected by the calculation step;
An audio / video output method comprising: an audio output step for outputting audio corresponding to the audio waveform data generated by the sound waveform generation step.
コンピュータを、
映像と音声とを出力する映像音声出力装置において、
三次元空間におけるオブジェクトの動きを演算し、三次元空間において衝突するオブジェクトの衝突した時の強さと衝突した場所を検出する演算手段と、
前記演算手段による演算結果をもとに、三次元空間を表現する映像中にオブジェクトを表示するオブジェクト表示手段と、
映像中に表示されるオブジェクトに対応する基本音声データを記憶する基本音声データ記憶手段と、
前記判別手段により衝突が判別されたオブジェクトの基本音声データを前記基本音声データ記憶手段から取得し、この基本音声データをもとに前記衝突した時の強さと衝突した場所に応じた音波形データを生成する音波形生成手段と、
前記音波形生成手段によって生成された音声波形データに応じた音声を出力する音声出力手段として機能させるための映像音声出力プログラム。
Computer
In a video / audio output device that outputs video and audio,
A calculation means for calculating the movement of the object in the three-dimensional space, detecting the strength of the collision of the colliding object in the three-dimensional space, and the location of the collision;
An object display means for displaying an object in a video representing a three-dimensional space, based on a calculation result by the calculation means;
Basic audio data storage means for storing basic audio data corresponding to an object displayed in a video;
The basic sound data of the object whose collision is determined by the determining means is acquired from the basic sound data storage means, and the sound waveform data corresponding to the strength at the time of the collision and the location of the collision is obtained based on the basic sound data. Sound waveform generating means for generating;
A video / audio output program for functioning as an audio output unit that outputs audio corresponding to the audio waveform data generated by the sound waveform generation unit.
JP2006261704A 2006-09-27 2006-09-27 Image sound output device, image sound output method, and image sound output program Pending JP2008079748A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006261704A JP2008079748A (en) 2006-09-27 2006-09-27 Image sound output device, image sound output method, and image sound output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006261704A JP2008079748A (en) 2006-09-27 2006-09-27 Image sound output device, image sound output method, and image sound output program

Publications (1)

Publication Number Publication Date
JP2008079748A true JP2008079748A (en) 2008-04-10

Family

ID=39351204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006261704A Pending JP2008079748A (en) 2006-09-27 2006-09-27 Image sound output device, image sound output method, and image sound output program

Country Status (1)

Country Link
JP (1) JP2008079748A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011528947A (en) * 2008-07-22 2011-12-01 ソニー オンライン エンタテインメント エルエルシー System and method for physical interaction in simulation
KR101582336B1 (en) * 2009-09-10 2016-01-12 삼성전자주식회사 Apparatus and method for improving sound effect in portable terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113225A (en) * 1998-10-08 2000-04-21 Sega Enterp Ltd Image processor and image processing method
JP2001006000A (en) * 1999-06-17 2001-01-12 Namco Ltd Image generation system and information storage medium
JP2001204957A (en) * 2000-01-28 2001-07-31 Namco Ltd Game system and information storing medium
JP2003071134A (en) * 2001-09-07 2003-03-11 Namco Ltd Game information, information storage medium, and game device
JP2004062666A (en) * 2002-07-30 2004-02-26 Koei:Kk Program, recording medium, game character drawing method and game machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113225A (en) * 1998-10-08 2000-04-21 Sega Enterp Ltd Image processor and image processing method
JP2001006000A (en) * 1999-06-17 2001-01-12 Namco Ltd Image generation system and information storage medium
JP2001204957A (en) * 2000-01-28 2001-07-31 Namco Ltd Game system and information storing medium
JP2003071134A (en) * 2001-09-07 2003-03-11 Namco Ltd Game information, information storage medium, and game device
JP2004062666A (en) * 2002-07-30 2004-02-26 Koei:Kk Program, recording medium, game character drawing method and game machine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011528947A (en) * 2008-07-22 2011-12-01 ソニー オンライン エンタテインメント エルエルシー System and method for physical interaction in simulation
US8554526B2 (en) 2008-07-22 2013-10-08 Sony Online Entertainment Llc System and method for physics interactions in a simulation
KR101582336B1 (en) * 2009-09-10 2016-01-12 삼성전자주식회사 Apparatus and method for improving sound effect in portable terminal

Similar Documents

Publication Publication Date Title
JP3986535B2 (en) Video game program, video game apparatus, and video game control method
JP5036797B2 (en) Pronunciation processing apparatus, pronunciation processing method, and pronunciation processing program
JP4883759B2 (en) Program, information storage medium, and image generation system
JP2007301039A (en) Game program and game apparatus
JP3707995B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP2007212635A (en) Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same
JP2005095403A (en) Method for game processing, game apparatus, game program, and storage medium for the game program
JP4110186B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP5546846B2 (en) Sound effect information generating device, sound effect information generating method, and sound effect information generating program
JP5363452B2 (en) GAME DEVICE, GAME PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4508918B2 (en) Image generation system and information storage medium
US8538736B1 (en) System and method for simulating object weight in animations
JP5140101B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2008079748A (en) Image sound output device, image sound output method, and image sound output program
JP2005312758A (en) Game system and game program
JP2001038043A (en) Video game device, video game display method and readable recording medium recording video game display program
JP4397410B2 (en) Image generating apparatus and information storage medium
JP2007312900A (en) Game program, game device and game control method
JP2008237387A (en) Game program, game device and game control method
TWI313617B (en)
JP2007159817A (en) Game program, game device and game method
JP3927986B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP6576544B2 (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP2008061874A (en) Game program, game device, and game control method
JP2017148592A (en) Game system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100203

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100408

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100608