JP2012018491A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2012018491A
JP2012018491A JP2010154372A JP2010154372A JP2012018491A JP 2012018491 A JP2012018491 A JP 2012018491A JP 2010154372 A JP2010154372 A JP 2010154372A JP 2010154372 A JP2010154372 A JP 2010154372A JP 2012018491 A JP2012018491 A JP 2012018491A
Authority
JP
Japan
Prior art keywords
image
pixel
virtual space
predetermined object
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010154372A
Other languages
English (en)
Other versions
JP4929380B2 (ja
Inventor
Kazuya Adachi
和弥 足立
Norio Hanawa
記央 花輪
Hiroyuki Watanabe
寛之 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010154372A priority Critical patent/JP4929380B2/ja
Publication of JP2012018491A publication Critical patent/JP2012018491A/ja
Application granted granted Critical
Publication of JP4929380B2 publication Critical patent/JP4929380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能な画像処理装置を提供すること。
【解決手段】第1画像生成手段(62)は、所定オブジェクトが取り除かれてなる仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する。第1画像の画素の輝度は、該画素と該画素の周辺画素との間の輝度の差又は/及び深度の差に関する情報に基づいて増減される。さらに、第1画像にぼかし処理と画素ずらし処理との少なくとも一方が施される。第2画像生成手段(70)は、仮想空間の対象領域内に所定オブジェクトが含まれる場合、視点から仮想空間を見た場合の所定オブジェクトの様子を表す第2画像を生成する。そして、第1画像と第2画像とが、第2画像に表される所定オブジェクトを歪ませるようにして合成されてなる画像が表示される。
【選択図】図6

Description

本発明は画像処理装置、画像処理方法、及びプログラムに関する。
仮想空間の様子を表す画像を表示手段に表示させる画像処理装置が知られている。例えば、ゲーム空間の様子を表すゲーム画面を表示手段に表示させるゲーム装置が知られている。
特開2001−314647号公報
上記のような画像処理装置では、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を表現したい場合がある。
本発明は上記課題に鑑みてなされたものであって、その目的は、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能な画像処理装置、画像処理方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明に係る画像処理装置は、仮想空間の様子を表す画像を表示手段に表示させる画像処理装置において、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段と、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段と、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に関する情報に基づいて増減する輝度変更手段と、前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段と、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段と、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段と、を含むことを特徴とする。
また、本発明に係る画像処理方法は、仮想空間の様子を表す画像を表示手段に表示させる画像処理方法において、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成ステップと、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得ステップと、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更ステップと、前記輝度変更ステップによって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行ステップと、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成ステップと、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、仮想空間の様子を表す画像を表示手段に表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段、前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段、前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更手段、前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段、前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段、及び、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段、として前記コンピュータを機能させるためのプログラムである。
また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
本発明によれば、例えば、暗闇や霧などによって仮想空間における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現することが可能になる。
また本発明の一態様では、前記表示制御手段は、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを前記対象領域の基準点から離れるにつれて歪みの程度が大きくなるように歪ませて合成してなる前記画像を前記表示手段に表示させるようにしてもよい。
また本発明の一態様では、前記第2画像生成手段は、前記仮想空間内の音源位置を取得する手段と、前記音源位置に基づいて前記対象領域を設定する手段と、前記対象領域の大きさを時間経過に伴って増やす手段と、を含むようにしてもよい。
本発明の実施形態に係るゲーム装置(画像処理装置)のハードウェア構成を示す図である。 仮想空間の一例を示す図である。 表示部に表示される画面の一例を示す模式図である。 ユーザキャラクタによるロッカーの認識について説明するための図である。 表示部に表示される画面の他の一例を示す模式図である。 本発明の実施形態に係るゲーム装置(画像処理装置)の機能ブロック図である。 ゲーム装置で実行される処理の一例を示すフロー図である。 処理の過程で生成される画像の一例を示す模式図である。 画像ずらし処理の一例について説明するための図である。
以下、本発明の実施形態の例について図面に基づき詳細に説明する。ここでは、画像処理装置の一態様であるゲーム装置に本発明を適用した場合について説明する。本発明の実施形態に係るゲーム装置は、例えば家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、携帯電話機、携帯情報端末(PDA)、又はパーソナルコンピュータなどによって実現される。ここでは、本発明の実施形態に係るゲーム装置を家庭用ゲーム機によって実現する場合について説明する。
図1は、本発明の実施形態に係るゲーム装置(画像処理装置)のハードウェア構成を示す。図1に示すゲーム装置10は、家庭用ゲーム機11、表示部32、音声出力部34、及び光ディスク36(情報記憶媒体)を含む。表示部32及び音声出力部34は家庭用ゲーム機11に接続される。表示部32としては例えば家庭用テレビ受像機又は液晶ディスプレイなどが用いられ、音声出力部34としては例えば家庭用テレビ受像機に内蔵されたスピーカ又はヘッドホンなどが用いられる。
家庭用ゲーム機11は公知のコンピュータシステムである。家庭用ゲーム機11は、バス12、制御部14、主記憶16、画像処理部18、入出力処理部20、音声処理部22、光ディスクドライブ24、ハードディスク26、通信インタフェース28、及びコントローラ30を含む。
制御部14は一又は複数のマイクロプロセッサを含む。制御部14は、光ディスク36から読み出されるプログラムに基づいて、各部の制御処理や情報処理を実行する。主記憶16は例えばRAMを含み、光ディスク36から読み出されたプログラム及びデータが主記憶16に書き込まれる。主記憶16は制御部14の作業用メモリとしても用いられる。バス12はアドレス及びデータを家庭用ゲーム機11の各部でやり取りするためのものである。
画像処理部18はVRAMを含み、制御部14から供給される画像データに基づいてVRAM上に画面を描画する。VRAM上に描画された画面はビデオ信号に変換されて所定のタイミングで表示部32に出力される。
入出力処理部20は、制御部14が音声処理部22、光ディスクドライブ24、ハードディスク26、通信インタフェース28、及びコントローラ30にアクセスするためのインタフェースである。音声処理部22はサウンドバッファを含み、光ディスク36からサウンドバッファに読み出された音声データを音声出力部34から出力する。通信インタフェース28は、インターネットなどの通信ネットワークに家庭用ゲーム機11を有線又は無線接続するためのインタフェースである。
光ディスクドライブ24は光ディスク36に記録されたプログラムやデータを読み取る。家庭用ゲーム機11では各種ゲームが光ディスク36に記録されたプログラムに基づいて実行される。ここでは、プログラムやデータを家庭用ゲーム機11に供給するために光ディスク36を用いるが、メモリカード等、他の情報記憶媒体を用いるようにしてもよい。また、例えば通信ネットワークを介して遠隔地からプログラムやデータを家庭用ゲーム機11に供給するようにしてもよい。ハードディスク26は一般的なハードディスク装置(補助記憶装置)である。光ディスク36に記憶されることとして説明するプログラムやデータはハードディスク26に記憶されていてもよい。
コントローラ30はユーザが操作を行うための操作部である。入出力処理部20は一定周期毎(例えば1/60秒ごと)にコントローラ30の各操作部材の状態をスキャンし、そのスキャン結果を表す操作信号をバス12を介して制御部14に供給する。制御部14は操作信号に基づいてユーザの操作を判定する。
以下では、暗闇や霧などによって仮想空間(ゲーム空間)における視界が悪いが故に仮想空間内の物やキャラクタをおぼろげにしか認識できない様子を好適に表現するための技術について説明する。なお、ここでは、聴力に優れているゲームキャラクタが暗闇の中に置かれた物の存在を音を頼りに認識しながら暗闇の中を移動していくゲームがゲーム装置10で実行される例について説明する。
図2は仮想空間の一例を示す。図2に示す仮想空間40は、互いに直交する三つの座標軸(Xw軸、Yw軸、及びZw軸)が設定された仮想的な3次元空間になっている。仮想空間40に配置されるオブジェクトの位置などはこれら三つの座標軸の座標値によって特定される。
図2に示す仮想空間40には、床を表すオブジェクトである床42が配置されている。また、床42上には、壁を表すオブジェクトである壁44と、ロッカー(戸棚)を表すオブジェクトであるロッカー46a,46bとが配置されている。床42、壁44及びロッカー46a,46bは配置位置が変化しない静的オブジェクトである。なお、以下では、ロッカー46a,46bのことを総称して「ロッカー46」と記載する場合がある。
さらに、床42上には、ユーザによって操作されるキャラクタオブジェクトであるユーザキャラクタ48と、敵キャラクタを表すオブジェクトである敵キャラクタ50と、が配置されている。ユーザキャラクタ48はユーザの操作に従って仮想空間40内を移動する。一方、敵キャラクタ50は所定のアルゴリズムに従って自律的に仮想空間40内を移動する。ユーザキャラクタ48及び敵キャラクタ50は配置位置や姿勢が変化する動的オブジェクトである。
ユーザキャラクタ48が敵キャラクタ50から攻撃を受けると、ユーザキャラクタ48の体力パラメータが減少する。このため、ユーザはユーザキャラクタ48が敵キャラクタ50からの攻撃を受けないように留意しながらユーザキャラクタ48を移動させる。
仮想空間40には仮想カメラ52(視点)が設定される。図2に示す例では、仮想カメラ52がユーザキャラクタ48の後方かつ上方に設定されている。仮想カメラ52はユーザキャラクタ48の移動に従って移動する。
仮想カメラ52から見た仮想空間40を表す画面が表示部32に表示される。図3は表示部32に表示される画面の一例を示す。図3に示す画面には床42、壁44、ユーザキャラクタ48、及び敵キャラクタ50が表示されている。なお、図3において画面の大部分に付された斜線は、仮想空間40が暗いことを表している。また、図3では床42、壁44、及び敵キャラクタ50が点線で表されている。これは、画面に床42、壁44、及び敵キャラクタ50がおぼろげに表示されることを示している。暗い仮想空間40内における床42、壁44、及び敵キャラクタ50をおぼろげに表示するための技術については後述する(図7のステップS102〜S108参照)。
図3に示す画面にはロッカー46a,46bが表示されていない。図3に示す画面は、ユーザキャラクタ48がロッカー46a,46bの存在(輪郭や形状)を認識できていない状態を表している。このゲームでは、例えば、床42又は壁44を叩いた場合などに発生する音によってユーザキャラクタ48がロッカー46の存在を認識するようになっている。
図4はユーザキャラクタ48によるロッカー46の存在の認識について説明するための図である。図4に示すように、音が発生した場合には音源位置54が設定される。例えば、ユーザキャラクタ48が壁44を叩いたことによって音が発生した場合には、ユーザキャラクタ48が叩いた位置が音源位置54に設定される。
音源位置54が設定されると、音源位置54に基づいて音領域56が設定される。例えば、音領域56は音源位置54を中心とする球状領域である。音領域56は音の伝搬を表しており、音領域56は時間経過に伴って大きくなっていく。つまり、音領域56の半径(r)は時間経過に伴って所定の初期値(例えば0)から所定の最大値(R)まで徐々に大きくなっていく。そして、音領域56の半径(r)が最大値(R)になると、音領域56は消滅する。なお、ここでは音領域56が球状領域であることとして説明するが、音領域56は球状領域以外の領域であってもよい。
音領域56の表面がロッカー46と接触した場合(言い換えれば、音領域56内にロッカー46に含まれる場合)、そのロッカー46の存在がユーザキャラクタ48によって認識されたことになり、そのロッカー46は画面に表示される。例えば、図4に示す例では、ロッカー46aが音領域56と接触しているため、ロッカー46aが画面に表示される。図5は、この場合に表示部32に表示される画面の一例を示す。図5に示す画面には、ユーザキャラクタ48が認識したロッカー46aが表示されている。なお、ロッカー46aはおぼろげに表示されるようになっている。ユーザキャラクタ48が認識したロッカー46aをおぼろげに表示するための技術については後述する(図7のステップS111,S112参照)。
以下、以上に説明したような画面を表示するための構成について説明する。図6は、ゲーム装置10で実現される機能ブロックのうち、本発明に関連する機能ブロックを主として示す機能ブロック図である。図6に示すように、ゲーム装置10は、データ記憶部60、第1画像生成部62、距離情報取得部64、輝度変更部66、ぼかし処理/画像ずらし処理実行部68、第2画像生成部70、及び表示制御部72を含む。
データ記憶部60は例えば主記憶16及び光ディスク36によって実現される。データ記憶部60は各種データを記憶する。例えば、仮想空間40に配置される各オブジェクトの形状データがデータ記憶部60に記憶される。また、静的オブジェクト(例えば、床42、壁44、及びロッカー46)の位置データがデータ記憶部60に記憶される。
さらに、ゲームの状況を示すゲーム状況データがデータ記憶部60に記憶される。例えば、下記に示すようなデータがゲーム状況データに含まれる。
[1]ユーザキャラクタ48及び敵キャラクタ50の状態データ(例えば位置、姿勢、移動方向、及び移動速度など)
[2]ユーザキャラクタ48のパラメータデータ(例えば体力パラメータ)
[3]仮想カメラ52の状態データ(例えば位置、視線方向、及び画角)
[4]音領域フラグ、音源位置54、及び音領域56の半径(r)
なお、音領域フラグは、音領域56が発生中であるか否かを示す情報、言い換えれば、音源位置54で発生した音が伝搬中である否かを示す情報である。音領域フラグは「0」又は「1」の値をとる。値「0」は音領域56が発生中でないことを示し、値「1」は音領域56が発生中であることを示す。また、音領域56が発生中である場合には、音領域56の基準位置である音源位置54と、音領域56の現在の半径(r)と、がゲーム状況データの一部として記憶される。
データ記憶部60以外の機能ブロックは、制御部14が光ディスク36に記憶されたプログラムに従って処理を実行することによって実現される。図7は、制御部14が所定時間(例えば1/60秒)ごとに実行する処理のうち、本発明に関連する処理の一例を主に示すフロー図である。以下、図7に示す処理を説明しながら、データ記憶部60以外の機能ブロックの動作について説明する。
図7に示すように、まず制御部14はゲーム状況データを更新する(S101)。例えば、制御部14はユーザキャラクタ48の状態データをユーザの操作に基づいて更新し、敵キャラクタ50の状態データを所定のアルゴリズムに基づいて更新する。また、制御部14は仮想カメラ52の状態データも更新する。
また例えば、制御部14は、ユーザキャラクタ48が敵キャラクタ50から攻撃を受けたか否かを判定する。そして、ユーザキャラクタ48が敵キャラクタ50から攻撃を受けた場合、制御部14はユーザキャラクタ48のパラメータデータ(例えば体力パラメータ)を更新する。
また例えば、制御部14は音発生条件が満足されたか否かを判定する。「音発生条件」は、例えば、ユーザキャラクタ48が壁44などを叩いたか否かの条件である。音発生条件が満足された場合、制御部14は音源位置54をゲーム状況データの一部として記憶させるとともに、音領域フラグを「0」から「1」に更新する。また、音領域フラグが「1」である場合、制御部14は、ゲーム状況データの一部として記憶される音領域56の半径(r)を更新する。上述したように、制御部14は、音領域56の半径(r)を時間経過に伴って徐々に増加することによって、音領域56の大きさを時間経過に伴って徐々に増やす。なお、音領域56の半径(r)が最大値(R)になると、音領域フラグは「1」から「0」に更新される。
ステップS101の処理が実行された後、制御部14(第1画像生成部62)は、仮想カメラ52から見た仮想空間40の様子を表す背景画像(第1画像)をVRAM上に生成する(S102)。このとき、仮想空間40に配置されるオブジェクトのうち、所定オブジェクトが取り除かれている。また、背景画像はグレースケールの画像として生成される。
本実施形態の場合、ロッカー46(所定オブジェクト)が仮想空間40から取り除かれる。また、ユーザキャラクタ48及び敵キャラクタ50も仮想空間40から取り除かれる。そして、それらのオブジェクトが取り除かれてなる仮想空間40を仮想カメラ52から見た様子を表す画像が背景画像として生成される。
この場合、仮想空間40から取り除かれないオブジェクト(例えば床42や壁44など)にマッピングされるテクスチャ画像は、そのテクスチャ画像の各画素の輝度に基づいてグレースケールの画像に変換される。そして、グレースケールに変換されたテクスチャ画像に基づいて背景画像が生成される。その結果、背景画像はグレースケールの画像になる。図8(A)は、ステップS102で生成される背景画像の一例を示す模式図である。
ステップS102の処理が実行された後、制御部14(距離情報取得部64)は、ステップS102で生成された背景画像(第1画像)の距離情報(深度情報)を取得する(S103)。制御部14は、背景画像の各画素について、仮想カメラ52からの距離に関する距離情報を取得する。この距離情報は、画素に表示される仮想空間40内の位置と、仮想カメラ52の位置と、の間の距離に関する情報である。例えば、壁44上の一点が表示される画素の場合、壁44上の該点と仮想カメラ52の位置との間の距離に関する情報が取得される。なお、上記距離は仮想カメラ52から視線方向への奥行き(深さ)に相当するため、以下では上記距離のことを「深度」と記載する。例えば、深度は0〜255の数値で表される。
ステップS103の処理が実行された後、制御部14(輝度変更部66)は、ステップS102で生成された背景画像(第1画像)の画素の輝度を変更する(S104)。制御部14は、背景画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度差又は/及び深度差に関する情報に基づいて増減する。
ステップS104では、例えば、周辺画素との間の輝度差が大きい画素の輝度が元々の輝度よりも高くなるように(言い換えれば、より白くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の輝度差が大きいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の輝度の平均を算出する。「対象画素の周辺画素」は、例えば、「対象画素を中心とする縦:m(例えば3)画素×横:n(例えば3)画素の領域」に含まれるm×n個の画素のうちの対象画素以外の画素である。そして、制御部14は、対象画素の輝度と、周辺画素の輝度の平均と、の間の差が第1基準値よりも大きいか否かを判定する。上記差が第1基準値よりも大きい場合、制御部14は対象画素とその周辺画素との間の輝度差が大きいと判定し、対象画素の輝度を元々の輝度よりも高くなるように変更する。
またステップS104では、例えば、周辺画素との間の輝度差が小さい画素の輝度が元々の輝度よりも低くなるように(言い換えれば、より黒くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の輝度差が小さいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の輝度の平均を算出する。その後、制御部14は、対象画素の輝度と、周辺画素の輝度の平均と、の間の差が第2基準値よりも小さいか否かを判定する。そして、上記差が第2基準値よりも小さい場合、制御部14は対象画素と周辺画素との間の輝度差が小さいと判定し、対象画素の輝度を元々の輝度よりも低くなるように変更する。
またステップS104では、例えば、周辺画素との間の深度差が大きい画素の輝度が元々の輝度よりも高くなるように(言い換えれば、より白くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の深度差が大きいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の深度の平均を算出する。その後、制御部14は、対象画素の深度と、周辺画素の深度の平均と、の間の差が第3基準値よりも大きいか否かを判定する。そして、上記差が第3基準値よりも大きい場合、制御部14は対象画素と周辺画素との間の深度差が大きいと判定し、対象画素の輝度を元々の輝度よりも高くなるように変更する。
またステップS104では、例えば、周辺画素との間の深度差が小さい画素の輝度が元々の輝度よりも低くなるように(言い換えれば、より黒くなるように)変更される。この場合、画素(対象画素)とその周辺画素との間の深度差が小さいか否かは下記に説明するようにして判定される。まず、制御部14は対象画素の周辺画素の深度の平均を算出する。その後、制御部14は、対象画素の深度と、周辺画素の深度の平均と、の間の差が第4基準値よりも小さいか否かを判定する。そして、上記差が第4基準値よりも小さい場合、制御部14は対象画素と周辺画素との間の深度差が小さいと判定し、対象画素の輝度を元々の輝度よりも低くなるように変更する。
ステップS104の処理が実行される結果として、背景画像において、輝度や深度が大きく変化する部分、つまり各オブジェクトの境界(輪郭)部分が強調され、それ以外の部分はぼかされる。
ステップS104の処理が実行された後、制御部14(ぼかし処理/画像ずらし処理実行部68)は、ステップS104で画素の輝度が変更された背景画像(第1画像)にぼかし処理を施す(S105)。ここでは一般的なぼかし処理が用いられる。さらに、制御部14(ぼかし処理/画像ずらし処理実行部68)は、ステップS105でぼかし処理が施された背景画像(第1画像)に画素ずらし処理を施す(S106)。
図9は画素ずらし処理の一例について説明するための図である。本実施形態の場合、制御部14は、背景画像80の画素82を正弦波に基づいて所定方向にずらす。具体的には、各画素82に正弦波の振幅値が関連づけられる。図9に示す例では、各画素列84ごとに正弦波の振幅値が関連づけられている。そして、制御部14は、画素82を、その画素82に関連づけられた振幅値に対応する画素数だけ上方向又は下方向にずらす。振幅値が正の値である場合に画素82は上方向にずらされ、振幅値が負の値である場合に画素82は下方向にずらされる。なお、各画素行86ごとに正弦波の振幅値が関連づけるようにしてもよい。また制御部14は、画素82を、その画素82に関連づけられた振幅値に対応する画素数だけ右方向又は左方向にずらすようにしてもよい。
さらに、本実施形態の場合、ステップS106で画素ずらし処理が施された背景画像に対して、前フレームにおいて生成された背景画像(ぼかし処理及び画素ずらし処理が施された背景画像)が半透明合成される。
ステップS106の処理が実行された後、制御部14は敵キャラクタ画像をVRAM上に生成する(S107)。ステップS107では、例えば、敵キャラクタ50が床42や壁44とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像が敵キャラクタ画像として生成される。この敵キャラクタ画像では、敵キャラクタ50が描画された部分以外の部分が透明に設定される。図8(B)は、ステップS107で生成される敵キャラクタ画像の一例を示す模式図である。
なお、ステップS107では、仮想カメラ52の位置、視線方向、及び画角が、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、ステップS107では、ライティングが、敵キャラクタ50のうちの、光源からの光が当たっている部分が青白くなり、かつ、敵キャラクタ50のうちの、光源からの光が当たっていない部分が黒くなるように設定される。さらに、敵キャラクタ画像は、ステップS102で生成される背景画像よりも低い解像度の画像として生成される。例えば、ステップS102で生成される背景画像の解像度は「1024×600」に設定され、敵キャラクタ画像の解像度は「128×90」に設定される。
ステップS107の処理が実行された後、制御部14は、ステップS106で画素ずらし処理が施された背景画像に対して、ステップS107で生成された敵キャラクタ画像を半透明合成する(S108)。この場合、敵キャラクタ画像はぼかし処理が施され、かつ、背景画像と同じ大きさまで伸張された状態で背景画像に半透明合成される。ステップS107,S108の処理が実行される結果として、敵キャラクタ50のうちの、光源からの光が当たっている部分のみが青白く表示されるようになり、敵キャラクタ50が画面におぼろげに表示されることになる。
ステップS108の処理が実行された後、制御部14はユーザキャラクタ画像を生成する(S109)。ステップS109では、ユーザキャラクタ48が床42、壁44、及び敵キャラクタ50とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像がユーザキャラクタ画像として生成される。なお、この場合、仮想カメラ52の位置、視線方向、及び画角は、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、このユーザキャラクタ画像では、ユーザキャラクタ48が描画された部分以外の部分が透明に設定される。図8(C)は、ステップS109で生成されるユーザキャラクタ画像の一例を示す模式図である。
ステップS109の処理が実行された後、制御部14は音領域フラグが「1」であるか否かを判定する(S110)。音領域フラグが「1」である場合、すなわち、音領域56が発生中である場合、制御部14(第2画像生成部70)はロッカー画像(第2画像)を生成する(S111)。すなわち、制御部14は、音領域56(対象領域)内に含まれるロッカー46(所定オブジェクト)の画像を生成する。
ステップS111では、まず、音領域56がゲーム状況データに基づいて特定される。さらに、音領域56内に含まれるロッカー46が検出される。例えば、ロッカー46の全体又は一部が音領域56内に含まれる場合、そのロッカー46は音領域56内に含まれると判断される。そして、音領域56内に含まれるロッカー46が床42、壁44、ユーザキャラクタ48、及び敵キャラクタ50とともに配置された仮想空間40を仮想カメラ52から見た様子を表す画像がロッカー画像として生成される。
なお、この場合、仮想カメラ52の位置、視線方向、及び画角は、ステップS102における仮想カメラ52の位置、視線方向、及び画角と同じに設定される。また、この場合、ロッカー46には、歪んだ空間内に配置されたロッカーを表現するべく予め作成されたテクスチャ画像がマッピングされる。また、ここで生成されるロッカー画像では、ロッカー46が描画された部分以外の部分が透明に設定される。図8(D)は、ステップS111で生成されるロッカー画像の一例を示す模式図である。
ステップS111の処理が実行された後、制御部14(表示制御部72)は表示部32に表示する画像を生成する(S112)。制御部14は、ステップS108で敵キャラクタ画像が半透明合成された背景画像(第1画像)と、ステップS111で生成されたロッカー画像(第2画像)とを合成してなる画像を生成する。なお、「ステップS108で敵キャラクタ画像が半透明合成された背景画像」は、「背景画像と敵キャラクタ画像とを半透明合成してなる画像」と言い換えることができる。
背景画像とロッカー画像とを半透明合成する場合、制御部14は、背景画像とロッカー画像とを、ロッカー画像に表されるロッカー46を歪ませるようにして半透明合成する。すなわち、制御部14はロッカー画像を歪ませ、歪んだロッカー画像を背景画像と半透明合成する。また、ロッカー画像を歪ませる場合、制御部14は、音源位置54(音領域56の基準位置)から離れるにつれて歪みの程度が大きくなるようにして、ロッカー画像を歪ませる。
なお、ロッカー画像に表されるロッカー46を歪ませるための処理としては様々な処理を用いることができる。例えば、制御部14は画素ずらし処理をロッカー画像に施すことによって、ロッカー画像に表されるロッカー46を歪ませる。またこの場合、制御部14は、音源位置54から離れるにつれてずらしの程度が大きくなるようにして、画素ずらし処理をロッカー画像に施す。さらにこの場合、画素をずらす方向は一定方向としてもよいし、ステップS106と同様に、正弦波に基づいて、画素をずらす方向が決定されるようにしてもよい。
さらに、ステップS112において、制御部14は、背景画像とロッカー画像とを半透明合成してなる画像に対して、ステップS109で生成されたユーザキャラクタ画像を合成する。そして、このようにして生成された画像が表示部32に表示される。
一方、音領域フラグが「1」でない場合、ステップS111の処理を実行せずに、制御部14(表示制御部72)は表示部32に表示する画像を生成する(S112)。この場合のステップS112では、ステップS108で敵キャラクタ画像が半透明合成された背景画像に対して、ステップS109で生成されたユーザキャラクタ画像が合成される。そして、こうして生成された画像が表示部32に表示される。
以上に説明したゲーム装置10(画像処理装置)では、図7のステップS102〜S108の処理が実行されることによって、暗い仮想空間40内における床42、壁44、及び敵キャラクタ50をおぼろげに画面に表示される。また、図7のステップS111,S112の処理が実行されることによって、ユーザキャラクタ48が音を頼りに認識したロッカー46がおぼろげに画面に表示される。ゲーム装置10によれば、暗闇内で音を頼りに物(ロッカー46)の存在を認識するが故に物の存在をおぼろげにしか認識できないことを好適に表現できるようになる。
なお、本発明は以上に説明した実施の形態に限定されるものではない。
(1)例えば、図7のステップS105,S106の一方を省略するようにしてもよい。例えば、図7のステップS105は省略するようにしてもよい。
(2)また例えば、ユーザキャラクタ48が過去に認識したロッカー46(すなわち、過去に音領域56内に含まれたことがあるロッカー46)は、音領域56に含まれていない場合であっても、画面に表示されるようにしてもよい。
この場合、図7のステップS101では、ユーザキャラクタ48が過去に認識したことがないロッカー46(すなわち、過去に音領域56に含まれたことがないロッカー46)が仮想空間40から取り除かれる。また、ユーザキャラクタ48及び敵キャラクタ50も仮想空間40から取り除かれる。そして、それらのオブジェクトが取り除かれてなる仮想空間40を仮想カメラ52から見た様子を表す画像が背景画像として生成される。また、図7のステップS111では、音領域56(対象領域)内に含まれるロッカー46であって、それまでユーザキャラクタ48が認識していなかったロッカー46(つまり、それまで音領域56内に含まれたことがなかったロッカー46)の画像が生成される。
(3)また例えば、仮想空間40には、ロッカー46以外の物を表すオブジェクトが配置されるようにしてもよい。例えば、他の家具(ベッド、テーブル、又はいすなど)を表すオブジェクトが配置されるようにしてもよい。また例えば、家具以外の物を表すオブジェクトが配置されるようにしてもよい。これらのオブジェクトに関してはロッカー46と同様に処理を実行するようにすればよい。
(4)以上では、ユーザキャラクタ48が暗闇の中で音を頼りに物(ロッカー46)の存在を認識するゲームに本発明を適用した例について説明したが、例えば、ユーザキャラクタ48が暗闇の中でペンライトなどの弱い光を頼りに物の存在を認識するゲームにも本発明を適用することができる。
この場合、音領域56の代わりに、ペンライトの光が届く領域を示す光領域を設定するようにすればよい。この場合、光領域の基準位置は光源位置(ペンライト又はユーザキャラクタの位置)となり、光領域は光源位置に基づいて設定される。例えば、光源位置を中心とする所定半径の球状領域が光領域として設定される。
このようにすれば、暗闇内で弱い光を頼りに物の存在を認識するが故に物の存在をおぼろげにしか認識できないことを好適に表現できるようになる。
(5)以上では、ユーザキャラクタ48が暗闇の中を移動するゲームに本発明を適用した例について説明したが、例えば、ゲームキャラクタが深い霧の中を移動するゲームにも本発明は適用することができる。本発明は、視界の悪い仮想空間(見通しの悪い仮想空間)内をゲームキャラクタが移動するゲームに適用することができる。
なお、例えば、ゲームキャラクタが深い霧の中を移動するゲームの場合、そのような状況に応じたオブジェクトが仮想空間40に配置される。例えば、床42の代わりに、地面を表すオブジェクトが配置される。また例えば、ロッカー46の代わりに、例えば、宝箱を表すオブジェクトが配置される。
(6)また例えば、仮想カメラ52(視点)はユーザキャラクタ48の目の位置に設定されるようにしてもよい。
(7)また例えば、本発明はゲーム装置10以外の画像処理装置に適用することができる。本発明は、仮想空間の様子を表す画像を生成する画像処理装置に適用することができる。
10 ゲーム装置、11 家庭用ゲーム機、12 バス、14 制御部、16 主記憶、18 画像処理部、20 入出力処理部、22 音声処理部、24 光ディスクドライブ、26 ハードディスク、28 通信インタフェース、30 コントローラ、32 表示部、34 音声出力部、36 光ディスク、40 仮想空間、42 床、44 壁、46a,46b ロッカー、48 ユーザキャラクタ、50 敵キャラクタ、52 仮想カメラ、54 音源位置、56 音領域、60 データ記憶部、62 第1画像生成部、64 距離情報取得部、66 輝度変更部、68 ぼかし処理/画素ずらし処理実行部、70 第2画像生成部、72 表示制御部、80 背景画像、82 画素、84 画素列、86 画素行。

Claims (5)

  1. 仮想空間の様子を表す画像を表示手段に表示させる画像処理装置において、
    前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段と、
    前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段と、
    前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に関する情報に基づいて増減する輝度変更手段と、
    前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段と、
    前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段と、
    前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段と、
    を含むことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記表示制御手段は、前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを前記対象領域の基準点から離れるにつれて歪みの程度が大きくなるように歪ませて合成してなる前記画像を前記表示手段に表示させることを特徴とする画像処理装置。
  3. 請求項1又は2に記載の画像処理装置において、
    前記第2画像生成手段は、
    前記仮想空間内の音源位置を取得する手段と、
    前記音源位置に基づいて前記対象領域を設定する手段と、
    前記対象領域の大きさを時間経過に伴って増やす手段と、を含む、
    ことを特徴とする画像処理装置。
  4. 仮想空間の様子を表す画像を表示手段に表示させる画像処理方法において、
    前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成ステップと、
    前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得ステップと、
    前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更ステップと、
    前記輝度変更ステップによって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行ステップと、
    前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成ステップと、
    前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御ステップと、
    を含むことを特徴とする画像処理方法。
  5. 仮想空間の様子を表す画像を表示手段に表示させる画像処理装置としてコンピュータを機能させるためのプログラムであって、
    前記仮想空間に配置されるオブジェクトのうちの所定オブジェクトが取り除かれてなる前記仮想空間を視点から見た様子を表す第1画像をグレースケールの画像として生成する第1画像生成手段、
    前記第1画像の各画素に関し、前記視点からの距離に関する情報を取得する距離情報取得手段、
    前記第1画像の画素の輝度を、該画素と該画素の周辺画素との間の輝度の差又は/及び前記距離の差に基づいて増減する輝度変更手段、
    前記輝度変更手段によって画素の輝度が増減された前記第1画像にぼかし処理と画素ずらし処理との少なくとも一方を施すぼかし処理/画素ずらし処理実行手段、
    前記仮想空間の対象領域内に前記所定オブジェクトが含まれる場合、前記視点から前記仮想空間を見た場合の前記所定オブジェクトの様子を表す第2画像を生成する第2画像生成手段、及び、
    前記第1画像と前記第2画像とを、前記第2画像に表される前記所定オブジェクトを歪ませるようにして合成してなる画像を前記表示手段に表示させる表示制御手段、
    として前記コンピュータを機能させるためのプログラム。
JP2010154372A 2010-07-06 2010-07-06 画像処理装置、画像処理方法、及びプログラム Active JP4929380B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010154372A JP4929380B2 (ja) 2010-07-06 2010-07-06 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010154372A JP4929380B2 (ja) 2010-07-06 2010-07-06 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012018491A true JP2012018491A (ja) 2012-01-26
JP4929380B2 JP4929380B2 (ja) 2012-05-09

Family

ID=45603708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010154372A Active JP4929380B2 (ja) 2010-07-06 2010-07-06 画像処理装置、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP4929380B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058629A (ja) * 2015-09-18 2017-03-23 日本電信電話株式会社 空間像演出装置、その制御方法およびプログラム
CN113965664A (zh) * 2020-07-20 2022-01-21 武汉Tcl集团工业研究院有限公司 一种图像虚化方法、存储介质以及终端设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314647A (ja) * 2000-05-09 2001-11-13 Namco Ltd ゲーム装置および情報記憶媒体
JP2003093734A (ja) * 2001-09-27 2003-04-02 Namco Ltd ゲーム情報、情報記憶媒体、及びゲーム装置
JP2005319189A (ja) * 2004-05-11 2005-11-17 Namco Ltd プログラム、情報記憶媒体、及び画像生成システム
JP2005346165A (ja) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc 画像処理装置及び画像処理方法
JP2007536997A (ja) * 2004-05-10 2007-12-20 任天堂株式会社 同一のビデオゲーム世界の異なる一人称体験を提供する効果を持つビデオゲーム及びこのビデオゲームのソフトウェアを記憶する記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314647A (ja) * 2000-05-09 2001-11-13 Namco Ltd ゲーム装置および情報記憶媒体
JP2003093734A (ja) * 2001-09-27 2003-04-02 Namco Ltd ゲーム情報、情報記憶媒体、及びゲーム装置
JP2007536997A (ja) * 2004-05-10 2007-12-20 任天堂株式会社 同一のビデオゲーム世界の異なる一人称体験を提供する効果を持つビデオゲーム及びこのビデオゲームのソフトウェアを記憶する記憶媒体
JP2005319189A (ja) * 2004-05-11 2005-11-17 Namco Ltd プログラム、情報記憶媒体、及び画像生成システム
JP2005346165A (ja) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc 画像処理装置及び画像処理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
""METAL GEAR SOLID PEACE WALKER"", 電撃PLAYSTATION, vol. 第16巻, 第19号, JPN6011059429, 28 May 2010 (2010-05-28), pages 24 - 47, ISSN: 0002134821 *
""METAL GEAR SOLID PEACE WALKER"", 電撃ゲームス, vol. 第10巻, 第14号, JPN6011059430, 21 May 2010 (2010-05-21), pages 30 - 45, ISSN: 0002134822 *
ふじのっち, 外4名: ""メタルギア ソリッド 4 ガンズ・オブ・ザ・パトリオット"", 週刊ファミ通, vol. 第23巻, 第28号, JPN6011059431, 11 July 2008 (2008-07-11), pages 115 - 127, ISSN: 0002134824 *
貴傳名英行, 外6名, "KONAMI OFFICIAL BOOKS メタルギア ソリッド4 ガンズ・オブ・ザ・パトリオット, vol. 第1版, JPN6011059428, 11 September 2008 (2008-09-11), pages 39 - 51, ISSN: 0002069834 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058629A (ja) * 2015-09-18 2017-03-23 日本電信電話株式会社 空間像演出装置、その制御方法およびプログラム
CN113965664A (zh) * 2020-07-20 2022-01-21 武汉Tcl集团工业研究院有限公司 一种图像虚化方法、存储介质以及终端设备
CN113965664B (zh) * 2020-07-20 2024-02-09 武汉Tcl集团工业研究院有限公司 一种图像虚化方法、存储介质以及终端设备

Also Published As

Publication number Publication date
JP4929380B2 (ja) 2012-05-09

Similar Documents

Publication Publication Date Title
US9652063B2 (en) Input direction determination system, terminal, server, network system, information storage medium, and input direction determination method
JP5026692B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8520901B2 (en) Image generation system, image generation method, and information storage medium
JP3442270B2 (ja) 画像生成装置及び情報記憶媒体
JP2009237680A (ja) プログラム、情報記憶媒体および画像生成システム
CN108176049B (zh) 一种信息提示方法、装置、终端和计算机可读存储介质
KR20010042671A (ko) 화상 표시 장치, 화상 처리 장치, 화상 표시 시스템
JP5913709B1 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
WO2004107270A1 (ja) 画像処理装置及び画像処理方法
JP5236674B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP2011186834A (ja) ゲームプログラム、記録媒体、及びコンピュータ装置
JP3881363B1 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2008077372A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4929380B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5256153B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
TW478943B (en) Game machine, and image processing method for use with the game machine
JP3639286B2 (ja) ゲームプログラム、及びゲーム装置
JP7116410B2 (ja) プログラム及び画像生成システム
WO2018173445A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及びプログラム
JP3646988B2 (ja) ゲーム装置、ゲーム画面表示方法及びプログラム
JP4847572B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP6960968B2 (ja) プログラム及びサーバ
JP2005050070A (ja) 画像処理装置、画像処理方法及びプログラム
JP3766394B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP3686928B2 (ja) ゲーム装置、プログラム及び画像表示方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4929380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250