JP2006198136A - ゲーム装置 - Google Patents

ゲーム装置 Download PDF

Info

Publication number
JP2006198136A
JP2006198136A JP2005012475A JP2005012475A JP2006198136A JP 2006198136 A JP2006198136 A JP 2006198136A JP 2005012475 A JP2005012475 A JP 2005012475A JP 2005012475 A JP2005012475 A JP 2005012475A JP 2006198136 A JP2006198136 A JP 2006198136A
Authority
JP
Japan
Prior art keywords
image
character
moving image
generating
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005012475A
Other languages
English (en)
Inventor
Tatsunori Tachibana
辰憲 橘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Aruze Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aruze Corp filed Critical Aruze Corp
Priority to JP2005012475A priority Critical patent/JP2006198136A/ja
Publication of JP2006198136A publication Critical patent/JP2006198136A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 設置スペースの小型化を図ることができるとともに、プレーヤの奥行き方向の動きを表現した立体的に展開する映像を生成することが可能なゲーム装置を提供すること。
【解決手段】 1のキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を、予め設定された初期視点から透視投影することにより、第1画像を生成する手段と、撮像手段と、撮像手段が撮像対象を撮像して得られた画像から、撮像対象を表す第2画像を抽出する手段と、1のキャラクタのZ軸座標と初期視点のZ軸座標とに基づいて第2画像のサイズを変更する手段と、第1画像に、サイズが変更された第2画像を重ね合わせて合成画像を生成する手段と、複数の合成画像を順に繋ぎ合わせて合成動画像を生成する手段と、合成動画像を記録媒体に記録する手段とを備えたことを特徴とするゲーム装置。
【選択図】 図1

Description

本発明は、ゲーム装置に関する。
プリクラ(登録商標)とも称される写真シール販売機は、1人又は複数人で撮影した写真に、好みの文字や図形等を書き込んで編集した合成画像を、シール台紙に印刷して払い出す装置である。写真シール販売機は、若年層を中心とした強い支持を集めていて、例えば、所謂ゲームセンタ等のアミューズメント施設や商業施設等、各所に設置されている。
従来、例えば、ビデオカメラでプレーヤを撮像した画像からプレーヤを表す画像のみを輪郭抽出して得た画像を、予め準備された背景映像に合成した合成映像を記録媒体に記録してプレーヤに提供する装置が存在する(例えば、特許文献1参照)。特許文献1に記載の装置によれば、写真シールのような静止画ではなく動画としてプレーヤ自身が登場している映像を取得することが可能であり、背景映像を変更すれば、様々な場面にプレーヤ自身が登場しているかのような映像を取得することができるため、非日常・非現実な体験をすることが可能であり、さらに、その映像を他人に見せて楽しむことができる。
特開平8−79792号公報
しかしながら、特許文献1に記載の装置のように、プレーヤを表す画像と背景映像とを合成した合成映像を記録媒体に記録してプレーヤに提供する装置を、アミューズメント施設や商業施設等に設置する場合、プレーヤの奥行き方向の動きをどのように表現するかが問題となる。すなわち、プレーヤの奥行き方向の動きを表現するためには、プレーヤが実際にビデオカメラに近づいたりビデオカメラから離れたりすればよいが、そのためにはビデオカメラの前方に広いスペースを確保しなければならないという問題がある。特に、アミューズメント施設や商業施設等においては、収益を上げるためにより多くの装置を設置したいという要請があることから、広い設置スペースを必要とするような装置は好まれないという問題がある。その一方で、プレーヤの奥行き方向の動きを充分に表現できなければ、得られる映像が平面的で興趣性の低いものになってしまい、非日常・非現実な体験も現実味を欠いたものとなってしまうという問題がある。近年の映像技術の著しい発展に伴って、多くの人は、立体的に展開する様々な映像を見慣れているため、平面的な映像では満足することができないのが現状であり、そのような映像を他人に見せても自己顕示欲を満たすことは困難である。
本発明は、上述した課題に鑑みてなされたものであり、その目的は、設置スペースの小型化を図ることができるとともに、プレーヤの奥行き方向の動きを表現した立体的に展開する映像を生成することが可能なゲーム装置を提供することにある。
以上のような目的を達成するために、本発明は、以下のようなものを提供する。
(1) 複数のキャラクタを含む動画内のいずれか1のキャラクタをプレーヤが演じるゲームを実行可能なゲーム装置であって、
プレーヤの操作に応じて、複数のキャラクタのなかから、プレーヤが演じる1のキャラクタを選択する選択手段と、
上記選択手段により選択されたキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を、予め設定された初期視点から透視投影することにより、第1画像を生成する第1画像生成手段と、
撮像対象を撮像する撮像手段と、
上記撮像手段が撮像対象を撮像して得られた画像から、上記撮像対象を表す第2画像を抽出する第2画像抽出手段と、
上記選択手段により選択されたキャラクタのZ軸座標と上記初期視点のZ軸座標とに基づいて、上記第2画像抽出手段により抽出された第2画像のサイズを変更するサイズ変更手段と、
上記第1画像生成手段により生成された第1画像に、上記サイズ変更手段によりサイズが変更された第2画像を重ね合わせることにより、合成画像を生成する合成画像生成手段と、
上記合成画像生成手段により生成される複数の合成画像を順に繋ぎ合わせて合成動画像を生成する合成動画像生成手段と、
上記合成動画像生成手段により生成された合成動画像を記録媒体に記録する記録手段と
を備えたことを特徴とするゲーム装置。
(1)のゲーム装置では、第1画像生成手段は、選択手段により選択された1のキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を初期視点から透視投影して第1画像を生成するとともに、第2画像抽出手段は、撮像手段(例えば、デジタルビデオカメラ等)が撮像対象(例えば、プレーヤの全部又は一部等)を撮像して得られた画像から、撮像対象を表す第2画像を生成する。次に、サイズ変更手段は、選択手段により選択されたキャラクタのZ軸座標と初期視点のZ軸座標とに基づいて、第2画像のサイズを変更する。そして、合成画像生成手段は、第1画像生成手段により生成された第1画像に、サイズ変更手段によりサイズが変更された第2画像を重ね合わせることにより、合成画像を生成する。
合成動画像生成手段は、このような過程を繰り返した結果、合成画像生成手段により生成される複数の合成画像を、順に繋ぎ合わせて合成動画像を生成する。そして、記録手段は、生成された合成動画像を記録媒体に記録する。
このように、(1)の発明によれば、例えば、選択手段により選択された1のキャラクタを演じるプレーヤの顔を表す第2画像を、該1のキャラクタの顔を除く複数のキャラクタを含む第1画像に合成する前に、該1のキャラクタのZ軸座標と初期視点のZ軸座標とに基づいて、第2画像のサイズを、第1画像に合致するように変更することができるため、プレーヤが実際に撮像手段から離れたり近づいたりしなくても、プレーヤの奥行き方向の動きを表現することが可能である。従って、設置スペースの小型化を図ることができるとともに、プレーヤの奥行き方向の動きを表現した立体的に展開する合成動画像を生成することができる。その結果、プレーヤは、非日常・非現実な体験に対する憧れを満たすことができ、記録媒体に記録された合成動画像を他人に見せて自己顕示欲を満たすこともできる。
さらに、本発明は、以下のようなものを提供する。
(2) 上記(1)のゲーム装置であって、
上記選択手段により選択されたキャラクタのZ軸方向への移動と同期して移動する移動視点を設定する移動視点設定手段と、
上記選択手段により選択されたキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を、上記移動視点から透視投影することにより、第3画像を生成する第3画像生成手段と、
上記選択手段により選択されたキャラクタの全部又は一部が配置された仮想3次元空間を、上記移動視点から透視投影することにより、第4画像を生成する第4画像生成手段と、
上記第4画像生成手段により生成された第4画像に、その背面が視認し得るように透明化処理を施す透明化処理手段と、
上記第3画像生成手段により生成された第3画像に、上記第2画像抽出手段により抽出された第2画像と上記透明化処理手段により透明化処理が施された第4画像とを順に重ね合わせることにより、手本画像を生成する手本画像生成手段と、
上記手本画像生成手段により生成される複数の手本画像を、順に繋ぎ合わせた手本動画像として表示する手本動画像表示手段と
を備えたことを特徴とする。
(2)のゲーム装置では、第3画像生成手段は、選択手段により選択されたキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を、選択手段により選択されたキャラクタのZ軸方向への移動と同期して移動する移動視点から透視投影した第3画像を生成するとともに、第4画像生成手段は、選択手段により選択されたキャラクタの全部又は一部が配置された仮想3次元空間を、該移動視点から透視投影した第4画像を生成する。第3画像及び第4画像においては、選択手段により選択されたキャラクタは奥行き方向に移動しない。そして、手本画像生成手段は、第3画像に第2画像を重ね合わせ、さらに、透明化処理を施した第4画像を重ね合わせることにより、手本画像を生成する。手本動画像表示手段は、複数の手本画像を順に繋ぎ合わせて手本動画像として表示する。
このように、(2)の発明によれば、プレーヤが演じるべきキャラクタが奥行き方向に移動しないように視点を移動させて、第1画像と同内容の第3画像を生成し、第2画像を重ね合わせ、さらに、プレーヤが演じるべきキャラクタを表す第4画像を、透明化処理を施して重ね合わせることにより、手本画像を生成する。その結果、手本動画像では、プレーヤが演じるべきキャラクタが奥行き方向に移動せず、そのキャラクタを基準として他のキャラクタ等が奥行き方向に移動することになる。従って、プレーヤは、キャラクタの奥行き方向の移動を意識することなく手本動画像を見ながらキャラクタを演じればよく、スムーズにキャラクタを演じることが可能になる。
(3) 上記(1)又は(2)のゲーム装置であって、
上記合成動画像生成手段により生成された合成動画像を表示する合成動画像表示手段と、
プレーヤの操作に応じて、上記合成動画像生成手段により生成された合成動画像を容認又は拒絶する旨の指示を入力する指示入力手段と
を備え、
上記記録手段は、上記指示入力手段により合成動画像を容認する旨の指示が入力されたことを契機として、上記合成動画像生成手段により生成された合成動画像を記録媒体に記録することを特徴とする。
(3)の発明によれば、合成動画像生成手段により生成された合成動画像が、直ちに記録手段によって記録媒体に記録されるのではなく、合成動画像表示手段が合成動画像を表示し、指示入力手段により合成動画像を容認する旨の指示が入力されたことを契機として、記録手段は、合成動画像を記録媒体に記録するため、プレーヤは、生成された合成動画像を確認して、記録媒体に記録させるか否かを選択することができる。
本発明のゲーム装置によれば、設置スペースの小型化を図ることができるとともに、プレーヤの奥行き方向の動きを表現した立体的に展開する映像を生成することができる。
図1は、本発明の一実施形態に係るゲーム装置を模式的に示す斜視図である。
ゲーム装置1は、前方に突出する一対の連結ロット4がその上面に設けられた本体筐体2を備えている。連結ロッド4の突出した端部は互いに連結し、所定色(例えば青色)の背景幕3を支持している。本体筐体2の前面には、LCDからなる表示装置5が設けられている。表示装置5は、手本動画像表示手段及び合成動画像表示手段として機能するものである。表示装置5の下側には、CCDカメラ6が設けられている。CCDカメラ6は、背景幕3の前方にある撮像対象(プレーヤの全部又は一部)を撮像可能である。CCDカメラ6は、撮像手段として機能するものである。なお、本実施形態においては、撮像対象が、プレーヤの頭部である場合について説明するが、本発明において、撮像対象は、特に限定されるものではなく、例えば、プレーヤの上半身等、プレーヤの一部であってもよく、プレーヤの全身、すなわち、プレーヤの全部であってもよい。また、後述するコントローラ7をプレーヤが操作することにより、プレーヤ自身が撮像対象を決定し得るように構成されていてもよい。
CCDカメラ6の下側には、多方向レバーや複数の押ボタン等からなるコントローラ7が設けられている。プレーヤは、コントローラ7を操作することにより、各種の指示を入力することができる。コントローラ7は、指示入力手段として機能するものである。また、コントローラ7の右横には、コイン投入口8が設けられていて、コントローラ7の下側には、DVD払出口9が設けられている。
ゲーム装置1において行われるゲームは、動画内に登場する複数のキャラクタのうち、いずれか1のキャラクタを演じると、プレーヤ自身が登場する動画を収録したDVDを取得することができるというゲームである。ここで、ゲーム装置1において行われるゲームの流れについて、簡単に説明する。まず、プレーヤがコイン投入口8に所定額の硬貨を投入すると、表示装置5において、サンプルの動画が再生され、スピーカ10からは、該動画に応じた音声が出力される。なお、本実施形態における動画は、2人のキャラクタ(以下、キャラクタA、Bともいう)がリング上で対戦する様子を所定の視点から撮影したものである。プレーヤは、このときに再生された動画を見て、その内容を把握することができ、その後、コントローラ7を操作して、演じるキャラクタを選択する指示を入力する。
ここでは、プレーヤがキャラクタAを選択した場合について説明することとする。
プレーヤがキャラクタを選択すると、ゲームが開始され、CCDカメラ6によるプレーヤの撮像が開始されるとともに、表示装置5には、手本動画像が表示される。
手本動画像は、手本動画像は、サンプルの動画と同内容(同じストーリー)のものであるが、プレーヤによって選択されたキャラクタAの奥行き方向の移動に同期して移動する視点から撮影したものであるため、キャラクタAは奥行き方向には移動しない。また、手本動画像では、CCDカメラ6によって撮像されたプレーヤがあわせて表示され、プレーヤが演じるべきキャラクタAは半透明の状態で表示される。プレーヤは、キャラクタの奥行き方向の移動を意識することなく手本動画像を見ながらキャラクタを演じればよく、スムーズにキャラクタを演じることが可能になる。また、CCDカメラ6によって撮像されたプレーヤを表す画像は、そのサイズが変更されて、キャラクタAを除いた動画像に合成される。従って、プレーヤが実際にCCDカメラ6から離れたり近づいたりしなくても、プレーヤの奥行き方向の動きを表現することができる。合成された動画像はDVDに記録され、DVD払出口9から払い出される。本実施形態では、記録媒体がDVDである場合について説明するが、本発明において、記録媒体は、特に限定されるものではなく、例えば、CD、ビデオテープ、半導体メモリ等を挙げることができる。また、本実施形態では、記録媒体が予めゲーム装置1の本体筐体2内に格納されている場合について説明するが、本発明はこの例に限定されず、例えば、プレーヤが記録媒体をゲーム装置1に接続又は挿入することとしてもよい。
図2は、図1に示したゲーム装置の内部構成を示すブロック図である。
CPU31には、ROM32、RAM33及びコントローラ7が接続されている。ROM32には、ゲーム装置1の全体の動作を制御するためのプログラムや各種のデータ等が記憶されていて、CPU31は、ROM32から該プログラムを読み出して実行し、コントローラ7から入力された指示等に基づいて、各種の演算・処理を行う。RAM33には、各種の演算・処理の結果等が一時的に記憶される。また、RAM33には、合成動画像データが記憶される。合成動画像データは、後述する画像生成回路40によって生成された複数の合成画像が順に繋ぎ合わされた画像データである。
CPU31には、CCDカメラ6、コインセンサ38、画像生成回路40、表示制御回路34、音声制御回路35及び記録装置駆動回路36が接続されている。
CCDカメラ6は、CPU31によってその動作が制御され、CCDカメラ6によって撮像された画像はデータとして画像生成回路40に供給される。
コインセンサ38は、コイン投入口8に投入されたコインを検出した際にCPU31に検出信号を供給する。
画像生成回路40は、CPU31によってその動作が制御され、合成画像と手本画像とを生成するものである。画像生成回路40によって生成された合成画像と手本画像とはデータとして、RAM33又は表示制御回路34に供給される。画像生成回路40については、後で詳述することにする。
表示制御回路34は、CPU31によってその動作が制御され、表示制御回路34に接続された表示装置5の表示制御を行う。表示制御回路34は、VDP(Video Digital Processor)、画像データROM、バッファ等からなり、VDPは、画像データROMから抽出した画像データ、及び/又は、RAM33若しくは画像生成回路40から供給される画像データをバッファに一時的に格納し、順次、表示装置5に供給する。
音声制御回路35は、CPU31によってその動作が制御され、音声制御回路35に接続されたスピーカ10からの音声の出力制御を行う。音声制御回路35は、音源IC、音声データROM、バッファ、パワーアンプ等からなり、音源ICは、音声データROMから抽出した音声データをバッファに一時的に格納し、順次、パワーアンプを介してスピーカ10に供給する。
記録装置駆動回路36は、CPU31によってその動作が制御され、記録装置駆動回路36に接続された記録装置37の駆動制御を行う。記録装置駆動回路36が備えるバッファには、RAM33に記憶された合成動画像データ及び音声データが順次供給され、記録装置37は、バッファに格納されたデータをDVDに記録する。記録装置37によってデータが記録されたDVDはDVD払出口9から払い出される。
図3は、画像生成回路の内部構成を示すブロック図である。
画像生成回路40は、グラフィックプロセッサ50、60、70、80を備えるとともに、制御ユニット41、グラフィックメモリ42、合成画像生成回路43及び手本画像生成回路44を備えている。
グラフィックプロセッサ50は、CCDカメラ6から供給される画像データから、第2画像データを抽出するためのものであり、処理ユニット(プロセッサ)52、輪郭抽出回路54及びフレームバッファ56を備えている。本実施形態においては、第2画像データを生成する際に輪郭抽出処理としてクロマキー処理を行う場合について説明するが、本発明において第2画像データを生成する際に行う輪郭抽出処理は、特に限定されるものではなく、従来公知の処理を行うこととすればよい。グラフィックプロセッサ60は、グラフィックメモリ42から供給される画像データに基づいて、第1画像データを生成するためのものであり、処理ユニット(プロセッサ)62、レンダリングユニット64及びフレームバッファ66を備えている。グラフィックプロセッサ70は、グラフィックメモリ42から供給される画像データに基づいて、第3画像データを生成するためのものであり、処理ユニット(プロセッサ)72、レンダリングユニット74及びフレームバッファ76を備えている。グラフィックプロセッサ80は、グラフィックメモリ42から供給される画像データに基づいて、第4画像データを生成するためのものであり、処理ユニット(プロセッサ)82、レンダリングユニット84及びフレームバッファ86を備えている。
グラフィックメモリ42は、画像データとして、キャラクタや背景等のオブジェクトを記憶している。制御ユニット41は、CPU31から供給されるコマンドに基づいて動作し、各グラフィックプロセッサ50、60、70、80にコマンドを供給する。
合成画像生成回路43は、グラフィックプロセッサ50から供給される第2画像データのサイズを変更して、グラフィックプロセッサ60から供給される第1画像データに重ね合わせることにより、合成画像データを生成して出力する。
手本画像生成回路44は、グラフィックプロセッサ70から供給される第3画像データに、グラフィックプロセッサ50から供給される第2画像データを重ね合わせ、さらに、グラフィックプロセッサ80から供給される第4画像データに透明化処理を施し、透明化処理を施した第4画像データを重ね合わせて出力する。
図4は、ゲーム装置において実行されるゲーム処理を示すフローチャートである。
まず、CPU31は、ゲームを開始する旨の指示が入力されたか否かを判断する(ステップS10)。この処理において、CPU31は、コイン投入口8にコインが投入された際にコインセンサ38から供給される検出信号を受信し、さらに、コントローラ7によって、ゲームを開始する旨の指示が入力されたか否かを判断する。ゲームを開始する旨の指示が入力されていないと判断した場合、ステップS10に処理を戻す。
ステップS10において、ゲームを実行する旨の指示が入力されたと判断した場合、CPU31は、サンプルの動画を再生する処理を実行する(ステップS11)。この処理において、CPU31は、表示制御回路34を制御し、表示装置5にサンプルの動画を表示するとともに、音声制御回路35を制御し、スピーカ10から該動画に応じた音声を出力する。
ここで、ゲーム装置1におけるサンプルの動画の一例について図面を用いて説明する。
図5(a)〜(d)は、図4のステップS11の処理が実行された際に表示装置5に表示されるサンプルの動画を示す図である。
サンプルの動画では、図5(a)に示すように、まず、奥側のキャラクタAと手前側のキャラクタBとがリング上で対峙する(シーン1)。次に、図5(b)に示すように、キャラクタAが手前側に駆け寄り、キャラクタBがキャラクタAに対してパンチを繰り出し、キャラクタAがそのパンチを避ける(シーン2)。次に、図5(c)に示すように、キャラクタAがキャラクタBに対してパンチを繰り出し、キャラクタBにヒットする(シーン3)。その後、図5(d)に示すように、キャラクタBは手前側に吹っ飛び、キャラクタAがファイティングポーズをとる(シーン4)。
図6(a)〜(d)は、サンプルの動画(図5参照)における仮想3次元空間を説明するための図である。なお、図6(a)〜(d)は、夫々シーン1〜4に対応している。図中、X、Y、Z軸は、仮想3次元空間におけるX、Y、Z軸を示し、Dは初期視点、Sは投影面を示している。仮想3次元空間におけるZ軸は、奥行き方向を示すものである。また、説明の便宜上、仮想3次元空間に配置されるキャラクタA、B以外のオブジェクトは図示していない。
シーン1では、仮想3次元空間に、図6(a)に示すように、視点Vを基準として、キャラクタAが奥側、キャラクタBが手前側に配置されている。シーン1からシーン2に移るとき、キャラクタAはZ軸方向に移動するが、視点Vは移動しない。シーン2では、仮想3次元空間に、図6(b)に示すように、キャラクタA、Bが略同じ位置に配置されている。シーン2からシーン3に移るとき、キャラクタA、BはZ軸方向に移動せず、視点VもZ軸方向には移動しない。シーン3では、仮想3次元空間に、図6(c)に示すように、キャラクタA、Bが略同じ位置に配置されている。シーン3からシーン4に移るとき、キャラクタAはZ軸方向に移動せずに、キャラクタBはZ軸方向に移動し、視点Vは、キャラクタBのZ軸方向の移動に伴って移動する。シーン4では、仮想3次元空間に、図6(d)に示すように、視点Vを基準として、キャラクタBは手前側、キャラクタAは奥側に配置されている。
図4のステップS11において、上述したような動画の再生が行われると、続いて、キャラクタを選択する指示の入力を受け付ける処理を行う(ステップS12)。この処理は、動画に登場する2人のキャラクタA、Bのなかから、プレーヤが演じる1のキャラクタを選択する指示の入力を受け付ける処理である。次に、CPU31は、コントローラ7により、いずれか1のキャラクタを選択する指示が入力されたか否かを判断する(ステップS13)。キャラクタを選択する指示が入力されていないと判断した場合、ステップS12に処理を戻す一方、キャラクタを選択する指示が入力されたと判断した場合、ステップS14に処理を移す。なお、以下においては、キャラクタAを選択する指示が入力された場合について説明することとする。ステップS13において、CPU31は、プレーヤの操作に応じて、複数のキャラクタのなかから、プレーヤが演じるキャラクタを選択する選択手段として機能する。
ステップS13において、キャラクタを選択する指示が入力されたと判断した場合、CPU31は、収録処理を行う(ステップS14)。この処理において、CPU31は、画像生成回路40、表示制御回路34及び音声制御回路35にコマンドを供給し、合成動画像の生成、手本動画像の生成及び表示、並びに、音声の出力を制御する。
ステップS14において、画像生成回路40は、CPU31から供給されるコマンドに基づいて、合成動画像の生成に係る処理(図7〜図13参照)を行うとともに、手本動画像の生成に係る処理(図14〜図19参照)を行う。また、表示制御回路34は、CPU31から供給されるコマンドに基づいて、画像生成回路40において生成された手本動画像を表示装置5に表示する処理を行う。さらに、音声制御回路35は、CPU31から供給されるコマンドに基づいて、手本動画像にあわせて音声を出力する処理を行う。
ステップS14の処理を実行した後、合成動画像を再生する処理を行う(ステップS15)。この処理において、CPU31は、表示制御回路34及び音声制御回路35にコマンドを供給し、合成動画像の表示、及び、音声の出力を制御する。
ステップS15において、表示制御回路34は、CPU31から供給されるコマンドに基づいて、ステップS14において画像生成回路40により生成された合成動画像を、表示装置5に表示する処理を行う。また、音声制御回路35は、CPU31から供給されるコマンドに基づいて、合成動画像にあわせて音声を出力する処理を行う。
このとき、表示装置5は、合成動画像表示手段として機能する。
ステップS15の処理を実行した後、CPU31は、合成動画像の記録媒体への記録を容認又は拒絶する指示の入力を受け付ける処理を行い(ステップS16)、コントローラ7により、記録を容認する指示が入力されたか否かを判断する(ステップS17)。
このとき、コントローラ7は、プレーヤの操作に応じて、合成動画像を容認又は拒絶する旨の指示を入力する指示入力手段として機能する。
ステップS17において、記録を容認する指示が入力されていない、すなわち、記録を拒絶する指示が入力されたと判断した場合、CPU31は、RAM33に記憶された合成動画像を削除し、ステップS14に処理を戻し、再度、収録処理を行う。
一方、ステップS17において、記録を容認する指示が入力されたと判断した場合、CPU31は、記録装置駆動回路36にコマンドを供給し、合成動画像の記録を制御する(ステップS18)。記録装置駆動回路36は、CPU31から供給されるコマンドに基づいて、RAM33に記憶された合成動画像を、音声データと対応付けて、ゲーム装置1内に格納されているDVDに記録する。このとき、記録装置37は、合成動画像を記録媒体に記録する記録手段として機能し、指示入力手段としてのコントローラ7により、合成動画像を容認する指示が入力されたことを契機として、合成動画像を記録媒体に記録しているのである。続いて、CPU31は、ステップS18において合成動画像が記録されたDVDを、DVD払出口9から払い出し(ステップS19)、本サブルーチンを終了する。
次に、画像生成回路40において合成画像を生成する処理について、図7〜図13を用いて説明することとする。合成画像は、第1画像と第2画像とを合成したものである。そこで、まず、第1画像を生成する処理について説明することとする。
図7は、第1画像データ生成処理を示すフローチャートである。図8は、第1画像データを生成する際における仮想3次元空間を説明するための図である。
グラフィックプロセッサ60は、制御ユニット41を介してCPU31から供給されるコマンドを受信すると、該コマンドに基づいて、シーンを決定し、さらに、該シーンに配置されるオブジェクトを決定する(ステップS20)。このとき、シーンに配置するオブジェクトには、図4のステップS12において選択されたキャラクタAの一部(頭部)を除いたキャラクタA、Bが含まれる。
次に、グラフィックプロセッサ60は、グラフィックメモリ42からオブジェクトを抽出し、予め設定した仮想3次元空間(ワールド空間)内に配置する(ステップS21)。例えば、上記コマンドにより指定されたシーンが、シーン1である場合(図5(a)参照)、図8(a)に示すように、仮想3次元空間にキャラクタA、Bを配置する。また、上記コマンドにより指定されたシーンが、シーン2である場合(図5(b)参照)、図8(b)に示すように、仮想3次元空間にキャラクタA、Bを配置する。また、上記コマンドにより指定されたシーンが、シーン3である場合(図5(c)参照)、図8(c)に示すように、仮想3次元空間にキャラクタA、Bを配置する。また、上記コマンドにより指定されたシーンが、シーン4である場合(図5(d)参照)、図8(d)に示すように、仮想3次元空間にキャラクタA、Bを配置する。
なお、ステップS21において、仮想3次元空間には、図8に示すように、キャラクタAの一部(頭部)を除いたキャラクタA、Bが配置される。
また、ステップS21における処理は、オブジェクトごとに設定されたモデル空間を仮想3次元空間(ワールド空間)に変換する処理であり、オブジェクトの回転、位置やサイズ等の変換に係る処理が含まれる。また、オブジェクトには、例えば、キャラクタ以外の背景等を構成するオブジェクトが含まれる。
次に、仮想3次元空間内の初期視点Dの位置及び方向から、仮想3次元空間を、初期視点Dを原点としたカメラ空間に変換する(ステップS23)。初期視点Dは、サンプルの動画における視点Vと同じであり、図8に示すように、シーンごとに予めその位置及び方向が定められている。本発明において、初期視点とは、予め定められた視点、すなわち、サンプルの動画と同じ視点をいう。従って、初期視点は、移動せずに固定されていてもよく、移動するものであってもよい。次に、上記カメラ空間を、初期視点Dからの視野(視野角)に対応する立体空間に変換する(ステップS24)。その結果、視野内のオブジェクトを抽出することができ、さらに、初期視点Dに近いオブジェクトを拡大するとともに、初期視点Dから遠いオブジェクトを縮小することができる。
次に、初期視点Dからの視野に対応した立体空間内のオブジェクト(ポリゴンデータ)を、表示装置5のスクリーン座標に対応する空間にクリッピングする(ステップS25)。次に、クリッピングされた各ポリゴンデータについて、仮想3次元空間に設定された光源に基づいて、陰影や反射等のライティング処理を実行する(ステップS26)。次に、各ポリゴンの表面に所定のテクスチャデータを貼り付けるテクスチャマッピングを行い、オブジェクトの外観を決定する(ステップS27)。このテクスチャマッピングには、単なるテクスチャデータの貼り付けのみならず、ライトマッピングや環境マッピング、バンプマッピング、透明度マッピング等のテクスチャに対する各種の操作も含まれる。
次に、全てのポリゴンについて、各ポリゴンの画素ごとに深度情報を調査し、より深度情報が初期視点Dに近い画素を表示するとともに、深度バッファの深度情報を更新する(ステップS28)。その結果、レンダリングされた3次元の描画データを生成することができる。次に、この描画データを、フレームバッファ66の所定領域に書き込み、1フレーム分の第1画像データを生成する(ステップS29)。
このように、グラフィックプロセッサ60は、制御ユニット41を介してCPU31から供給されるコマンドに基づいて、ステップS20〜S29の処理を繰り返し実行する。その結果、1フレーム分の第1画像データが順次生成されることになる。生成された1フレーム分の第1画像データは、順次、合成画像生成回路43に供給される。図7に示す処理を実行するとき、グラフィックプロセッサ60は、第1画像生成手段として機能する。
次に、第2画像を抽出する処理について説明することとする。
図9は、第2画像データ抽出処理を示すフローチャートである。ここで、X、Yは表示装置5の画面上の画素位置を表す2次元座標である。
グラフィックプロセッサ50は、制御ユニット41を介してCPU31から供給されるコマンドに応じて、CCDカメラ6から1フレーム分の画像データを取得し、フレームバッファ56に格納する(ステップS30)。この画像データは、青色の背景幕3の前方のプレーヤを撮影して得られた画像データであり、撮像対象はプレーヤの頭部である。
次に、X及びYを初期化する(ステップS31)。その後、画像データ(X,Y)が青色(背景幕3の色)を表しているか否かを判断し(ステップS32)、青色ではない場合、画像データ(X,Y)を第2画像データ(X,Y)とする一方(ステップS33)、青色である場合には、画像データ(X,Y)を空白とする(ステップS34)。続いて、Xをカウントアップし(ステップS35)、Xが所定の上限値以内あるか否かを判断する(ステップS36)。Xが所定の上限値以内であれば、ステップS32に処理を戻す。Xが所定の上限値を超えている場合には、Xを1に初期化するとともに、Yをカウントアップする(ステップS37)。次に、Yが所定の上限値以内であるか否かを判断し(ステップS38)、所定の上限値以内であれば、ステップS32に処理を戻す。一方、Yが所定の上限値を超えている場合には、本サブルーチンを終了する。その結果、CCDカメラ6から取得した1フレーム分の画像データから、撮像対象を表す第2画像データを抽出することができる。
図10は、第2画像データ抽出処理について説明するための図である。
図10(a)は、CCDカメラ6から取得した画像データを示している。図中、3′は、青色の背景幕3を表す領域であり、12′は、プレーヤPが羽織った青色のマント12(図示せず)を表す領域であり、P′は、プレーヤPを表す領域である。また、斜線のハッチングを施した領域は、背景幕3と同色の領域を示し、格子状のハッチングを施した領域は、空白(透過)領域を示している。図10(a)に示す画像データに対して、図9を用いて説明した第2画像データ生成処理を行うと、青色の領域3′、12′が消去され、図10(b)に示すように、領域P′が残る。このようにして、撮像対象としてのプレーヤPを表す第2画像データを抽出することができる。
このように、グラフィックプロセッサ50は、制御ユニット41を介してCPU31から供給されるコマンドに基づいて、図9のステップS30〜S38の処理を繰り返し実行する。その結果、1フレーム分の第2画像データが順次生成されることになる。生成された1フレーム分の第2画像データは、順次、合成画像生成回路43及び手本画像生成回路44に供給される。図9に示す処理を実行するとき、グラフィックプロセッサ50は、第2画像抽出手段として機能する。なお、第2画像データを生成する際に、例えば、アンチエンリアス処理等、従来公知の処理を施すこととしてもよい。
合成画像生成回路43は、グラフィックプロセッサ60から供給される第1画像データと、グラフィックプロセッサ50から供給される第2画像データとに基づいて、合成画像データを生成する。
図11は、合成画像データ生成処理を示すフローチャートである。ここで、X、Yは表示装置5の画面上の画素位置を表す2次元座標である。
まず、グラフィックプロセッサ60から第1画像データ(X,Y)を取得し(ステップS40)、グラフィックプロセッサ50から第2画像データを取得する(ステップS41)。続いて、選択されたキャラクタAのZ軸座標と初期視点DのZ軸座標とに基づいて(図8参照)、第2画像データのサイズを変更する(ステップS42)。この処理では、キャラクタAと初期視点DとのZ軸方向の距離に応じて拡大率(%)を決定し、その拡大率に基づいて第2画像データを拡大又は縮小する。キャラクタAと初期視点Dとの距離が相対的に短い場合には、拡大率は大きくなり、キャラクタAと初期視点Dとの距離が相対的に長い場合には、拡大率は小さくなる。従って、シーン1の拡大率は、シーン2の拡大率より小さくなる(図5、図8参照)。このとき、合成画像生成回路34は、サイズ変更手段として機能する。次に、シーンに応じて第2画像データの位置(X,Y)を設定する。続いて、X及びYを1に初期化する(ステップS44)。その後、第2画像データ(X,Y)が空白であるか否かを判断し(ステップS45)、空白ではない場合、合成画像データ(X,Y)を第2画像データ(X,Y)とする一方(ステップS46)、空白である場合、合成画像データ(X,Y)を第1画像データ(X,Y)とする(ステップS47)。続いて、Xをカウントアップし(ステップS48)、Xが所定の上限値以内であるか否かを判断する(ステップS49)。所定の上限値以内であれば、ステップS45に処理を戻す。一方、Xが所定の上限値を超えている場合には、Xを1に初期化するとともに、Yをカウントアップする(ステップS50)。次に、Yが所定の上限値以内であるか否かを判断し(ステップS51)、所定の上限値以内であれば、ステップS45に処理を戻す。一方、Yが所定の上限値を超えている場合には、本サブルーチンを終了する。その結果、1フレーム分の合成画像データが生成されることになる。なお、生成された合成画像データは、画像生成回路40からRAM33に供給される。図11に示す処理を実行するとき、合成画像生成回路34は、合成画像生成手段として機能する。
図12は、合成画像データ生成処理について説明するための図である。図中、91は第1画像データ、92は第2画像データ、92′はサイズ変更後の第2画像データ、95は合成画像データ、A′はキャラクタAを表す領域、B′はキャラクタBを表す領域、P′はプレーヤPを表す領域を示している。図中、格子状のハッチングを施した領域は、空白(透過)領域を示している。合成画像生成回路43においては、第2画像データ92のサイズが変更され、サイズ変更後の第2画像データ92′が第1画像データ91と重ね合わされる(図12(a)参照)、その結果、合成画像データ95が生成される(図12(b)参照)。
このように、合成画像生成回路43は、1フレーム分の第1画像データと第2画像データとから順次、1フレーム分の合成画像データを生成し、RAM33に供給する。CPU31は、RAM33に供給される複数の合成画像データを順に繋ぎ合わせて合成動画像データを生成する。図13は、合成動画像について説明するための図である。
図13に示す画像は、図5に示す画像と同内容のものであるが、キャラクタAの頭部が、プレーヤの頭部と置き換わっている。CPU31は、合成動画像生成手段として機能するものである。
次に、画像生成回路40において手本画像を生成する処理について、図14〜図20を用いて説明することとする。手本画像は、第2画像、第3画像及び第4画像を合成したものである。第2画像については既に説明済みであるから、ここでは、まず、第3画像を生成する処理について説明することとする。
図14は、第3画像データ生成処理を示すフローチャートである。図15は、第3画像データを生成する際における仮想3次元空間を説明するための図である。
グラフィックプロセッサ70は、制御ユニット41を介してCPU31から供給されるコマンドを受信すると、該コマンドに基づいて、シーンを決定し、さらに、該シーンに配置されるオブジェクトを決定する(ステップS60)。ステップS60において決定されるシーン及びオブジェクトは、図7のステップS20において決定されるものと同じである。
次に、グラフィックプロセッサ70は、グラフィックメモリ42からオブジェクトを抽出し、予め設定した仮想3次元空間(ワールド空間)内に配置する(ステップS61)。例えば、上記コマンドにより指定されたシーンが、シーン1である場合(図5(a)参照)、図15(a)に示すように、仮想3次元空間にキャラクタA、Bを配置する。また、上記コマンドにより指定されたシーンが、シーン2である場合(図5(b)参照)、図15(b)に示すように、仮想3次元空間にキャラクタA、Bを配置する。また、上記コマンドにより指定されたシーンが、シーン3である場合(図5(c)参照)、図15(c)に示すように、仮想3次元空間にキャラクタA、Bを配置する。また、上記コマンドにより指定されたシーンが、シーン4である場合(図5(d)参照)、図15(d)に示すように、仮想3次元空間にキャラクタA、Bを配置する。
なお、ステップS61において、仮想3次元空間には、図15に示すように、キャラクタAの一部(頭部)を除いたキャラクタA、Bが配置される。
また、ステップS61における処理は、オブジェクトごとに設定されたモデル空間を仮想3次元空間(ワールド空間)に変換する処理であり、オブジェクトの回転、位置やサイズ等の変換に係る処理が含まれる。また、オブジェクトには、例えば、キャラクタ以外の背景等を構成するオブジェクトが含まれる。
次に、キャラクタAのZ軸座標に基づいて、移動視点Mの位置を決定する(ステップS62)。移動視点Mは、常にキャラクタAから所定距離だけ離れた箇所に位置し、キャラクタAの移動に伴って移動する(図15(a)〜(d)参照)。
次に、移動視点Mの位置及び方向から、仮想3次元空間を、移動視点Mを原点としたカメラ空間に変換する(ステップS63)。次に、上記カメラ空間を、移動視点Mからの視野(視野角)に対応する立体空間に変換する(ステップS64)。その結果、視野角内のオブジェクトを抽出することができ、さらに、移動視点Mに近いオブジェクトを拡大するとともに、移動視点Mから遠いオブジェクトを縮小することができる。
次に、移動視点Mからの視野に対応した立体空間内のオブジェクト(ポリゴンデータ)を、表示装置5のスクリーン座標に対応する空間にクリッピングする(ステップS65)。次に、クリッピングされた各ポリゴンデータについて、仮想3次元空間に設定された光源に基づいて、陰影や反射等のライティング処理を実行する(ステップS66)。次に、各ポリゴンの表面に所定のテクスチャデータを貼り付けるテクスチャマッピングを行い、オブジェクトの外観を決定する(ステップS67)。このテクスチャマッピングには、単なるテクスチャデータの貼り付けのみならず、ライトマッピングや環境マッピング、バンプマッピング、透明度マッピング等のテクスチャに対する各種の操作も含まれる。
次に、全てのポリゴンについて、各ポリゴンの画素ごとに深度情報を調査し、より深度情報が移動視点Mに近い画素を表示するとともに、深度バッファの深度情報を更新する(ステップS68)。その結果、レンダリングされた3次元の描画データを生成することができる。次に、この描画データを、フレームバッファ76の所定領域に書き込み、1フレーム分の第3画像データを生成する(ステップS69)。
このように、グラフィックプロセッサ70は、制御ユニット41を介してCPU31から供給されるコマンドに基づいて、ステップS60〜S69の処理を繰り返し実行する。その結果、1フレーム分の第3画像データが順次生成されることになる。生成された1フレーム分の第3画像データは、順次、手本画像生成回路44に供給される。図14に示す処理を実行するとき、グラフィックプロセッサ70は、第3画像生成手段として機能する。
次に、第4画像を生成する処理について説明することとする。
図16は、第4画像データ生成処理を示すフローチャートである。図17は、第4画像を生成する際における仮想3次元空間を説明するための図である。
グラフィックプロセッサ80は、制御ユニット41を介してCPU31から供給されるコマンドを受信すると、該コマンドに基づいて、シーンを決定し、さらに、該シーンに配置されるオブジェクトを決定する(ステップS70)。このとき、シーンに配置するオブジェクトは、図4のステップS12において選択されたキャラクタAの一部(頭部)のみであり、その他のオブジェクトは含まれない。
次に、グラフィックプロセッサ60は、グラフィックプロセッサ42からオブジェクトを抽出し、予め設定した仮想3次元空間(ワールド空間)内に配置する(ステップS71)。例えば、上記コマンドにより指定されたシーンが、シーン1である場合(図5(a)参照)、図17(a)に示すように、仮想3次元空間にキャラクタAの一部(頭部)を配置する。また、上記コマンドにより指定されたシーンが、シーン2である場合(図5(b)参照)、図17(b)に示すように、仮想3次元空間にキャラクタAの一部(頭部)を配置する。また、上記コマンドにより指定されたシーンが、シーン3である場合(図5(c)参照)、図17(c)に示すように、仮想3次元空間にキャラクタAの一部(頭部)を配置する。また、上記コマンドにより指定されたシーンが、シーン4である場合(図5(d)参照)、図17(d)に示すように、仮想3次元空間にキャラクタAの一部(頭部)を配置する。
なお、ステップS71における処理は、オブジェクトごとに設定されたモデル空間を仮想3次元空間(ワールド空間)に変換する処理であり、オブジェクトの回転、位置やサイズ等の変換に係る処理が含まれる。
次に、キャラクタAのZ軸座標に基づいて、移動視点Mの位置を決定する(ステップS72)。移動視点Mは、常にキャラクタAから所定距離だけ離れた箇所に位置し、キャラクタAの移動に伴って移動する(図17(a)〜(d)参照)。
次に、移動視点Mの位置及び方向から、仮想3次元空間を、移動視点Mを原点としたカメラ空間に変換する(ステップS73)。次に、上記カメラ空間を、移動視点Mからの視野(視野角)に対応する立体空間に変換する(ステップS74)。移動視点Mは、キャラクタAと一定の距離を保って、キャラクタAの移動に伴って移動するため、仮想3次元空間に配置されるキャラクタAの頭部と移動視点Mとの位置関係は常に同じである。従って、視野角内におけるキャラクタAの位置、大きさは、キャラクタAのZ軸方向の移動によって変化しない。
次に、移動視点Mからの視野に対応した立体空間内のオブジェクト(ポリゴンデータ)を、表示装置5のスクリーン座標に対応する空間にクリッピングする(ステップS75)。次に、クリッピングされた各ポリゴンデータについて、仮想3次元空間に設定された光源に基づいて、陰影や反射等のライティング処理を実行する(ステップS76)。次に、各ポリゴンの表面に所定のテクスチャデータを貼り付けるテクスチャマッピングを行い、オブジェクトの外観を決定する(ステップS77)。このテクスチャマッピングには、単なるテクスチャデータの貼り付けのみならず、ライトマッピングや環境マッピング、バンプマッピング、透明度マッピング等のテクスチャに対する各種の操作も含まれる。
次に、全てのポリゴンについて、各ポリゴンの画素ごとに深度情報を調査し、より深度情報が移動視点Mに近い画素を表示するとともに、深度バッファの深度情報を更新する(ステップS78)。その結果、レンダリングされた3次元の描画データを生成することができる。次に、この描画データからキャラクタAの頭部を表す領域のみを抽出してフレームバッファ86の所定領域に書き込み、1フレーム分の第4画像データを生成する(ステップS79)。
このように、グラフィックプロセッサ80は、制御ユニット41を介してCPU31から供給されるコマンドに基づいて、ステップS70〜S79の処理を繰り返し実行する。その結果、1フレーム分の第4画像データが順次生成されることになる。生成された1フレーム分の第4画像データは、順次、手本画像生成回路44に供給される。図16に示す処理を実行するとき、グラフィックプロセッサ80は、第4画像生成手段として機能する。
手本画像生成回路44は、グラフィックプロセッサ70から供給される第3画像データと、グラフィックプロセッサ60から供給される第2画像データと、グラフィックプロセッサ80から供給される第4画像データとに基づいて、手本画像データを生成する。
図18は、手本画像データ生成処理を示すフローチャートである。ここで、X、Yは表示装置5の画面上の画素位置を示す2次元座標である。
まず、グラフィックプロセッサ70から第3画像データ(X,Y)を取得する(ステップS80)。続いて、グラフィックプロセッサ50から第2画像データ(X,Y)を取得し(ステップS81)、グラフィックプロセッサ80から第4画像データ(X,Y)を取得する(ステップS82)。次に、第4画像データに透明化処理を施し(ステップS83)、各画素の明るさを所定値まで低下させる。
なお、本発明において、透明化とは、その画像を視認し得るとともに、その背面に位置する画像を視認し得るようにすることをいい、本実施形態では、第4画像の画素の明るさを低下させ、明るさを低下させた画素の色をその背面に位置する画素の色と混合させることにより、第4画像を視認し得るとともに、その背面に位置する画像を視認し得るようにする。なお、本発明において、透明化処理は、特に限定されるものではなく、例えば、第4画像の画素を所定間隔で間引いて、重ね合わせる処理等、従来公知の処理を採用することができる。このとき、手本画像生成回路44は、透明化処理手段として機能する。
続いて、X及びYを1に初期化する(ステップS84)。その後、第2画像データ(X,Y)が空白であるか否かを判断し(ステップS85)、空白ではないと判断した場合、第4画像データ(X,Y)が空白であるか否かを判断する(ステップS86)。
第2画像データ(X,Y)が空白ではなく、第4画像データ(X,Y)が空白ではないと判断した場合、第2画像データ(X,Y)と第4画像データ(X,Y)とを混合して、手本画像データ(X,Y)とする(ステップS87)。
一方、第2画像データ(X,Y)が空白ではなく、第4画像データ(X,Y)が空白であると判断した場合、第2画像データ(X,Y)を、手本画像データ(X,Y)とする(ステップS88)。
また、ステップS85において、第2画像データ(X,Y)が空白であると判断した場合、第4画像データ(X,Y)が空白であるか否かを判断する(ステップS89)。
第2画像データ(X,Y)が空白であり、第4画像データ(X,Y)が空白ではないと判断した場合、第3画像データ(X,Y)と第4画像データ(X,Y)とを混合して、手本画像データ(X,Y)とする(ステップS90)。
一方、第2画像データ(X,Y)が空白であり、第4画像データ(X,Y)が空白であると判断した場合、第3画像データ(X,Y)を、手本画像データ(X,Y)とする(ステップS91)。
ステップS87、S88、S90又はS91の処理を実行した場合、Xをカウントアップし(ステップS92)、Xが所定の上限値以内であるか否かを判断する(ステップS93)。所定の上限値以内であれば、ステップS85に処理を戻す。一方、Xが所定の上限値を超えている場合には、Xを1に初期化するとともに、Yをカウントアップする(ステップS94)。次に、Yが所定の上限値以内であるか否かを判断し(ステップS95)、所定の上限値以内であれば、ステップS95に処理を戻す。一方、Yが所定の上限値を超えている場合には、本サブルーチンを終了する。その結果、1フレーム分の手本画像データが生成されることになる。
図19は、手本画像データ生成処理について説明するための図である。図中、92は、第2画像データ、93は第3画像データ、94は第4画像データ、96は合成画像データを示している。また、図中、破線により示す画像は、透明化処理が施された画像を示し、格子状のハッチングを施した領域は、空白(透過)領域を示している。手本画像生成回路44においては、図18を用いて説明したように、第3画像データ93に、第2画像データ92が重ね合わされ、さらに、透明化処理が施された第4画像データ94が重ね合わされる(図19(a)参照)。その結果、手本画像データ96が生成される(図19(b)参照)。
本実施形態では、第2画像のサイズを変更する処理を行わずに手本画像を生成する場合について説明するが、本発明においては、手本画像を生成する際に第2画像のサイズを変更することとしてもよい。
上述した処理により生成された手本画像データは、順次、表示制御回路34に供給される。表示制御回路34は、画像生成回路40から供給される複数の手本画像データに基づいて、複数の手本画像を順に繋ぎ合わせて手本動画像として、表示装置5に表示する。このとき、表示装置5は、手本動画像表示手段として機能する。
図20は、手本動画像について説明するための図である。図20(a)〜(d)に示すように、手本動画像は、サンプルの動画と同内容(同じストーリー)のものであるが、キャラクタAの奥行き方向の移動に同期して移動視点Mが移動するため(図15、図17参照)、キャラクタAは奥行き方向に移動しない。また、手本動画像では、CCDカメラ6によって撮像されたプレーヤがあわせて表示され、プレーヤが演じるべきキャラクタAは半透明の状態で表示される。
以上、ゲーム装置1によれば、キャラクタAを演じるプレーヤの顔を表す第2画像を、キャラクタAの顔を除くキャラクタA、Bを含む第1画像に合成する前に、キャラクタAのZ軸座標と初期視点DのZ軸座標とに基づいて、第2画像のサイズを、第1画像に合致するように変更することができるため(図11、図12参照)、プレーヤが実際にCCDカメラ6から離れたり近づいたりしなくても、プレーヤの奥行き方向の動きを表現することが可能である。従って、設置スペースの小型化を図ることができるとともに、プレーヤの奥行き方向の動きを表現した立体的に展開する合成動画像を生成することができる。その結果、プレーヤは、あたかもリング上でキャラクタBと対戦するキャラクタAになったかのような体験をすることができ(図13参照)、非日常・非現実な体験に対する憧れを満たすことができる。また、DVDに記録された合成動画像を他人に見せて自己顕示欲を満たすこともできる。
また、ゲーム装置1によれば、プレーヤが演じるべきキャラクタAが奥行き方向に移動しないように移動視点Mを移動させて(図14〜図17参照)、第1画像と同内容の第3画像を生成し、第2画像を重ね合わせ、さらに、プレーヤが演じるべきキャラクタAを表す第4画像を、透明化処理を施して重ね合わせることにより、手本画像を生成する。その結果、プレーヤが演じるべきキャラクタAが奥行き方向に移動せず、そのキャラクタを基準として他のキャラクタ等が奥行き方向に移動することになる。従って、プレーヤは、キャラクタAの奥行き方向の移動を意識することなく手本動画像(図20参照)を見ながらキャラクタAを演じればよく、スムーズにキャラクタAを演じることができる。
さらに、ゲーム装置1によれば、合成動画像が記録装置37によって直ちにDVDに記録されるのではなく、合成動画像が表示装置5に表示され、その後に、コントローラ7により合成動画像を容認する旨の指示が入力されたことを契機として、記録装置37は、合成動画像をDVDに記録するため、プレーヤは、生成された合成動画像を確認して、DVDに記録させるか否かを選択することができる。
本実施形態においては、画像のみを収録する場合について説明したが、本発明のゲーム装置は、この例に限定されず、例えば、ゲーム装置にマイクロホンを設置し、プレーヤが発した音声を収録することとしてもよい。このようにする場合、例えば、画像の収録と同時に音声を収録することとしてもよく、画像の収録前又は収録後に音声を収録することとしてもよい。
また、本発明のゲーム装置は、例えば、プレーヤが演じたキャラクタの合成動画像における服装、又は、所定のキャラクタを演じるプレーヤの合成動画像内における服装を、プレーヤの操作等に応じて、変更し得るように構成されていてもよい。なお、プレーヤの画像内における服装を変更する方法については、従来公知の方法を採用することが可能であり、そのような方法については、例えば、特開2004−110383号公報に詳述されているので、ここでの説明は省略する。
本実施形態においては、第3画像に第2画像と第4画像とを順に重ね合わせて手本画像を生成する場合について説明したが、本発明においては、第3画像に第2画像を重ね合わせて手本画像としてもよく、第3画像に第4画像を重ね合わせて手本画像としてもよい。第3画像に第4画像を重ね合わせて手本画像とする場合には、必ずしも第4画像に透明化処理を施す必要はない。また、本実施形態では、第3画像に第2画像を重ね合わせ、さらに、透明化処理を施した第4画像を重ね合わせる場合について説明したが、本発明においては、例えば、第3画像に第4画像を重ね合わせ、さらに、透明化処理を施した第2画像を重ね合わせることとしてもよい。
本実施形態においては、合成画像を生成する過程に、所謂3次元画像を生成する処理(仮想3次元空間にオブジェクトを配置して所定の視点からの透視投影を行うことにより画像を生成する処理)が含まれる場合について説明したが、本発明は、この例に限定されず、例えば、合成画像を生成する過程に、3次元画像を生成する処理を含めず、予めゲーム装置が備える記憶手段に記憶されている映像としての第1画像に、第2画像を合成することとしてもよい。このようにする場合、プレーヤによって選択され得る複数のキャラクタの夫々に応じた映像としての第1画像を、予めゲーム装置が備える記憶手段に記憶させることとすればよい。また、手本画像についても同様であり、本発明においては、必ずしも、手本画像を生成する過程に、3次元画像を生成する処理を含める必要はなく、予めゲーム装置が備える記憶手段に第3画像や第4画像を記憶しておくこととしてもよい。
以上、本発明の実施例を説明したが、具体例を例示したに過ぎず、特に本発明を限定するものではなく、具体的構成などは、適宜設計変更可能である。尚、発明の実施の形態に記載された、作用及び効果は、本発明から生じる最も好適な作用及び効果を列挙したに過ぎず、本発明による作用及び効果は、本発明の実施の形態に記載されたものに限定されるものではない。
本発明の一実施形態に係るゲーム装置を模式的に示す斜視図である。 図1に示したゲーム装置の内部構成を示すブロック図である。 画像生成回路の内部構成を示すブロック図である。 ゲーム装置において実行されるゲーム処理を示すフローチャートである。 図4のステップS11の処理が実行された際に表示装置に表示されるサンプルの動画を示す図である。 サンプルの動画における仮想3次元空間を説明するための図である。 第1画像データ生成処理を示すフローチャートである。 第1画像データを生成する際における仮想3次元空間を説明するための図である。 第2画像データ抽出処理を示すフローチャートである。 第2画像データ抽出処理について説明するための図である。 合成画像データ生成処理を示すフローチャートである。 合成画像データ生成処理について説明するための図である。 合成動画像について説明するための図である。 第3画像データ生成処理を示すフローチャートである。 第3画像データを生成する際における仮想3次元空間を説明するための図である。 第4画像データ生成処理を示すフローチャートである。 第4画像データを生成する際における仮想3次元空間を説明するための図である。 手本画像データ生成処理を示すフローチャートである。 手本画像データ生成処理について説明するための図である。 手本動画像について説明するための図である。
符号の説明
1 ゲーム装置
2 本体筐体
3 背景幕
4 連結ロッド
5 表示装置
6 CCDカメラ
7 コントローラ
8 コイン投入口
9 DVD払出口
10 スピーカ
31 CPU
32 ROM
33 RAM
34 表示制御回路
35 音声制御回路
36 記録装置駆動回路
37 記録装置
38 コインセンサ
40 画像生成回路
41 制御ユニット
42 グラフィックメモリ
43 合成画像生成回路
44 手本画像生成回路
50、60、70、80 グラフィックプロセッサ
52、62、72、82 処理ユニット
54 輪郭抽出回路
56、66、76、86 フレームバッファ
64、74、84 レンダリングユニット
91 第1画像データ
92 第2画像データ
93 第3画像データ
94 第4画像データ
95 合成画像データ
96 手本画像データ

Claims (3)

  1. 複数のキャラクタを含む動画内のいずれか1のキャラクタをプレーヤが演じるゲームを実行可能なゲーム装置であって、
    プレーヤの操作に応じて、複数のキャラクタのなかから、プレーヤが演じる1のキャラクタを選択する選択手段と、
    前記選択手段により選択されたキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を、予め設定された初期視点から透視投影することにより、第1画像を生成する第1画像生成手段と、
    撮像対象を撮像する撮像手段と、
    前記撮像手段が撮像対象を撮像して得られた画像から、前記撮像対象を表す第2画像を抽出する第2画像抽出手段と、
    前記選択手段により選択されたキャラクタのZ軸座標と前記初期視点のZ軸座標とに基づいて、前記第2画像抽出手段により抽出された第2画像のサイズを変更するサイズ変更手段と、
    前記第1画像生成手段により生成された第1画像に、前記サイズ変更手段によりサイズが変更された第2画像を重ね合わせることにより、合成画像を生成する合成画像生成手段と、
    前記合成画像生成手段により生成される複数の合成画像を順に繋ぎ合わせて合成動画像を生成する合成動画像生成手段と、
    前記合成動画像生成手段により生成された合成動画像を記録媒体に記録する記録手段と
    を備えたことを特徴とするゲーム装置。
  2. 前記選択手段により選択されたキャラクタのZ軸方向への移動と同期して移動する移動視点を設定する移動視点設定手段と、
    前記選択手段により選択されたキャラクタの全部又は一部を除く複数のキャラクタが配置された仮想3次元空間を、前記移動視点から透視投影することにより、第3画像を生成する第3画像生成手段と、
    前記選択手段により選択されたキャラクタの全部又は一部が配置された仮想3次元空間を、前記移動視点から透視投影することにより、第4画像を生成する第4画像生成手段と、
    前記第4画像生成手段により生成された第4画像に、その背面が視認し得るように透明化処理を施す透明化処理手段と、
    前記第3画像生成手段により生成された第3画像に、前記第2画像抽出手段により抽出された第2画像と前記透明化処理手段により透明化処理が施された第4画像とを順に重ね合わせることにより、手本画像を生成する手本画像生成手段と、
    前記手本画像生成手段により生成される複数の手本画像を、順に繋ぎ合わせた手本動画像として表示する手本動画像表示手段と
    を備えたことを特徴とする請求項1に記載のゲーム装置。
  3. 前記合成動画像生成手段により生成された合成動画像を表示する合成動画像表示手段と、
    プレーヤの操作に応じて、前記合成動画像生成手段により生成された合成動画像を容認又は拒絶する旨の指示を入力する指示入力手段と
    を備え、
    前記記録手段は、前記指示入力手段により合成動画像を容認する旨の指示が入力されたことを契機として、前記合成動画像生成手段により生成された合成動画像を記録媒体に記録することを特徴とする請求項1又は2に記載のゲーム装置。
JP2005012475A 2005-01-20 2005-01-20 ゲーム装置 Withdrawn JP2006198136A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005012475A JP2006198136A (ja) 2005-01-20 2005-01-20 ゲーム装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005012475A JP2006198136A (ja) 2005-01-20 2005-01-20 ゲーム装置

Publications (1)

Publication Number Publication Date
JP2006198136A true JP2006198136A (ja) 2006-08-03

Family

ID=36956639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005012475A Withdrawn JP2006198136A (ja) 2005-01-20 2005-01-20 ゲーム装置

Country Status (1)

Country Link
JP (1) JP2006198136A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158602A (ja) * 2006-12-21 2008-07-10 Olympus Imaging Corp 画像取扱方法、画像取扱装置、および画像取扱システム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158602A (ja) * 2006-12-21 2008-07-10 Olympus Imaging Corp 画像取扱方法、画像取扱装置、および画像取扱システム
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Similar Documents

Publication Publication Date Title
US11962741B2 (en) Methods and system for generating and displaying 3D videos in a virtual, augmented, or mixed reality environment
JP6317854B2 (ja) 仮想三次元空間生成方法、映像システム、その制御方法およびコンピュータ装置での読み取りが可能な記録媒体
CN107851299B (zh) 信息处理装置、信息处理方法以及程序
CN112154658A (zh) 图像处理装置、图像处理方法和程序
JPH11219446A (ja) 映像音響再生システム
JP2008250813A (ja) 画像生成装置、画像処理方法、および、プログラム
JP2020074041A (ja) 遊戯用撮影装置、画像処理装置、および画像処理方法
CN114669059A (zh) 一种生成游戏角色的表情的方法
WO2002033660A1 (fr) Dispositif de production d'informations video
JP2006198136A (ja) ゲーム装置
KR20130107895A (ko) 2차원 코믹 콘텐츠의 이펙트 적용에 의한 애니코믹 제작 방법 및 2차원 코믹 콘텐츠의 이펙트 적용에 의한 애니코믹 제작 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
JP6313003B2 (ja) カラオケ装置、画像出力方法、およびプログラム
CN109561338B (zh) 一种点歌系统的界面无缝切换显示方法及存储介质
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
JP4637161B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP5509287B2 (ja) 再生表示装置、再生表示プログラム、再生表示方法、および画像処理サーバー
JPH11149285A (ja) 映像音響システム
US11758112B2 (en) Information processing apparatus, control method, and storage medium
JP2013003412A (ja) 自動写真作成装置、自動写真作成方法およびプログラム
JP7317322B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
US20230326161A1 (en) Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
US20230410416A1 (en) Image processing system, image processing method, and storage medium
JP2005142788A (ja) 自動写真作成装置および自動写真作成方法
JP5106240B2 (ja) 画像処理装置および画像処理サーバー
JP2022152443A (ja) 情報処理システム、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071011

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100127