JP2011243019A - 画像表示システム - Google Patents

画像表示システム Download PDF

Info

Publication number
JP2011243019A
JP2011243019A JP2010114971A JP2010114971A JP2011243019A JP 2011243019 A JP2011243019 A JP 2011243019A JP 2010114971 A JP2010114971 A JP 2010114971A JP 2010114971 A JP2010114971 A JP 2010114971A JP 2011243019 A JP2011243019 A JP 2011243019A
Authority
JP
Japan
Prior art keywords
image
real object
color
real
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010114971A
Other languages
English (en)
Inventor
Masayuki Imanishi
政之 今西
Takamune Hojo
高宗 北條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koto Co Ltd
Original Assignee
Koto Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koto Co Ltd filed Critical Koto Co Ltd
Priority to JP2010114971A priority Critical patent/JP2011243019A/ja
Publication of JP2011243019A publication Critical patent/JP2011243019A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】実空間の撮像画像に、実オブジェクトに対応する仮想オブジェクトの画像を重畳して表示する画像表示システムにおいて、画像処理の簡単化を図る。
【解決手段】ゲームシステム1は、プレーヤP1,P2によって選択された実オブジェクトとカラープレート11,12との対応関係が登録される登録部と、登録されたカラープレート11,12に対応する仮想オブジェクト101,102の画像を特定する仮想オブジェクト特定部と、カラープレート11,12の着色領域11a,12aを認識することにより、カラープレート11,12の位置を検出する位置検出部と、実空間の撮像画像におけるカラープレート11,12の位置に仮想オブジェクト101,102の画像を重畳することにより、表示装置9に表示させる合成画像を生成する画像生成部と、を備える。
【選択図】図1

Description

本発明は、現実に存在するオブジェクト(以下、実オブジェクトという)を撮像した実空間の撮像画像に、実オブジェクトに対応付けられた仮想的なオブジェクト(以下、仮想オブジェクトという)の画像を重畳して表示させる画像表示システムに関する。
いわゆる拡張現実(Augmented Reality)の一種として、実オブジェクトを撮像した実空間の撮像画像に、実オブジェクトに対応付けられた3次元の仮想オブジェクトを重畳して表示する技術が知られている(例えば、特許文献1および2参照)。
特許文献1および2には、2次元バーコード等からなる識別コードが印刷されたカードをビデオカメラで撮像し、撮像画像のカード上に、識別コードに対応する仮想オブジェクトの画像を重畳表示するゲームシステムが記載されている。これらのゲームシステムでは、プレーヤが実空間にてカードを移動させると、表示装置に表示される画像において、仮想オブジェクトがカードに追従して移動する。これにより、実空間と仮想空間とを融合した視覚効果を表現することができる。
特開2005−230156号公報 特開2006−072667号公報
ところで、上記システムでは、個々のカードに対応した仮想オブジェクトをカードの動きに追従して表示させるために、カードに印刷された識別コードの認識とカードの位置の検出とを周期的に連続して行わなければならない。
ところが、カードの位置はプレーヤによって不規則に変更される。そのように位置が不規則に変更されるカードの識別コードを随時認識するためには、複雑な処理が必要となる。また、カードの位置の検出には画像マッチング技術等が用いられるが、その処理も複雑である。そのため、カードの位置を検出しつつ識別コードを認識するという処理を周期的に連続して行う上記システムでは、その処理を行うコンピュータの負荷が大きいという課題があった。
本発明はかかる点に鑑みてなされたものであり、その目的とするところは、実空間の撮像画像に、実オブジェクトに対応付けられた仮想オブジェクトの画像を重畳して表示する画像表示システムにおいて、画像処理の簡単化を図ることにある。
本発明に係る画像表示システムは、実空間を撮像した撮像画像に、複数の実オブジェクトの中からユーザが選択した実オブジェクトに対応する仮想オブジェクトの画像を重畳してなる合成画像を表示装置に表示させる画像表示システムであって、所定の色が付された着色領域を有する1又は2以上の着色部材と、前記着色部材を含んだ前記着色部材よりも大きな領域の実空間を撮像する撮像手段と、複数の実オブジェクトのそれぞれに対応する複数の仮想オブジェクトの画像の情報を記憶した記憶手段と、ユーザによって選択された実オブジェクトを特定する実オブジェクト特定手段と、ユーザによって選択された実オブジェクトと着色部材との対応関係が登録される登録手段と、前記登録手段に前記対応関係が登録されると、前記実オブジェクト特定手段によって特定された実オブジェクトと前記記憶手段に記憶されている情報とに基づいて、前記ユーザによって選択された実オブジェクトに対応する仮想オブジェクトの画像を、登録された着色部材に対応する仮想オブジェクトの画像として特定する仮想オブジェクト特定手段と、前記着色部材の着色領域の色および位置を認識することにより、前記着色部材の位置を検出する位置検出手段と、前記実空間の撮像画像における前記着色部材の位置に応じた位置に、前記仮想オブジェクト特定手段によって特定された仮想オブジェクトの画像を重畳することにより、前記表示装置に表示させる合成画像を生成する画像生成手段と、を備えたものである。
本発明によれば、実空間の撮像画像に、実オブジェクトに対応する仮想オブジェクトの画像を重畳して表示する画像表示システムにおいて、画像処理の簡単化を図ることができる。
ゲームシステムの斜視図である。 ゲームシステムの正面図である。 ゲームフィールドの撮像画像の図である。 撮像画像に仮想オブジェクトを重畳してなる表示画像の図である。 (a)は実オブジェクトの斜視図であり、(b)は識別コードの模式図である。 ゲーム機本体のブロック図である。 ゲームシステムの機能ブロック図である。 ゲームシステムが行う処理のフローチャートである。 カラーキャリブレーション処理のフローチャートである。 カラープレートの撮像画像である。
図1および図2に示すように、本実施形態に係る画像表示システムは、拡張現実を利用したゲームシステム1である。ただし、ゲームシステム1は本発明の実施の形態の一例に過ぎず、本発明に係る画像表示システムは、他に種々の形態で実施することができる。
ゲームシステム1は、ゲーム機本体2と、液晶ディスプレイ等からなる表示装置9と、ゲームフィールド6を有する台4とを備えている。ゲームシステム1では、第1のプレーヤP1と第2のプレーヤP2とが、実在する複数のオブジェクト(実オブジェクト)から任意の実オブジェクトを選び、ゲームフィールド6上でそれぞれ手持ちのカラープレート11,12を移動させることによって、表示装置9に表示される仮想的なオブジェクト(仮想オブジェクト)を操作する。本実施形態では、仮想オブジェクトは、実オブジェクトを模擬した3次元の仮想オブジェクトである。ゲームシステム1では、ゲームの開始に先立って、プレーヤP1,P2が選択した実オブジェクトとカラープレート11,12との対応関係が予め登録される。ゲーム中は、ゲームフィールド6を撮像した撮像画像(図3参照)におけるカラープレート11,12の上に、仮想オブジェクト101,102の画像が重畳して表示される(図4参照)。
図5(a)に示すように、プレーヤP1,P2が選択する実オブジェクトは、3次元のマスコット90である。ゲームシステム1では、形状、寸法、色彩等が異なる複数の種類のマスコット90が利用可能である。各マスコット90の所定箇所、例えば足91の裏(図5(b)参照)には、2次元バーコードからなる識別コード95が印刷されている。識別コード95は、各マスコット90の種類を識別するためのものである。なお、識別コード95は2次元バーコードに限らず、他の種類の識別コードであってもよい。また、識別コード95の印刷箇所は特定の箇所に限定されない。識別コード95は、マスコット90の足95以外の部分に印刷されていてもよい。
図1に示すように、ゲーム機本体2は、撮像手段としてのビデオカメラ3と、画像処理装置50(図6参照)と、スピーカ7(図6参照)と、それら画像処理装置50、ビデオカメラ3、およびスピーカ7を収容する筐体5とを備えている。ゲーム機本体2および表示装置9は、台4の上に載置されている。ゲームフィールド6は、プレーヤP1,P2がカラープレート11,12を配置するための領域である。本実施形態では、ゲームフィールド6には格子状の線が印刷されている。これにより、ゲームフィールド6は他の領域と明確に区別されている。ただし、ゲームフィールド6はカラープレート11,12を配置することができる領域であれば足り、格子状の線等は必ずしも必要ではない。本実施形態では、プレーヤP1,P2はゲームフィールド6上でカラープレート11,12をスライドさせることにより、カラープレート11,12を移動させる。ただし、ゲームフィールド6は、必ずしもカラープレート11,12がスライド可能になっていなくてもよい。例えば、ゲームフィールド6にカラープレート11,12を嵌め込むための複数の孔が形成され、プレーヤP1,P2がカラープレート11,12を嵌め込む孔を適宜変更することによって、カラープレート11,12を移動させるようになっていてもよい。
ゲームシステム1は、プレーヤP1,P2がカラープレート11,12をゲームフィールド6上で移動させながら、所定のゲームを行うものである。表示装置9には、ビデオカメラ3で撮像したゲームフィールド6の撮像画像に、カラープレート11,12に対応した仮想オブジェクト101,102の画像を重畳した合成画像が表示される。プレーヤP1,P2は、表示装置9に表示される合成画像を見ながら、カラープレート11,12を適宜移動させる。カラープレート11,12の位置や仮想オブジェクト101,102の種類等に応じて、ゲームが進行する。例えば、両プレーヤP1,P2の仮想オブジェクト101,102同士の距離が接近した場合、両仮想オブジェクト101,102の相性が良ければ(例えば、同種類の動物である場合等)、両仮想オブジェクト101,102は会話を行い、逆に、相性が悪ければ(例えば、一方が他方の天敵である場合等)、両仮想オブジェクト101,102は戦う等のアクションを行う。そのようにして、仮想オブジェクト101,102の位置や種類等に応じて、ゲームが進行していく。
本実施形態のビデオカメラ3は、CMOSイメージセンサ3A(図6参照)を備えている。CMOSイメージセンサ3Aは、実空間の映像を動画像として撮像し、2次元格子状に配列されたデジタルのピクセル(画素)データとして出力するものである。ただし、ビデオカメラ3の種類は特に限定されず、CCDセンサ等の他の撮像素子を備えたビデオカメラを用いることも可能である。ビデオカメラ3は、カラープレート11,12を含めたゲームフィールド6の全体を撮像するように配置されている。なお、本実施形態ではビデオカメラ3はゲームフィールド6の側方に配置されているが、ビデオカメラ3をゲームフィールド6の上方に配置してもよい。ビデオカメラ3の配置位置および姿勢は何ら限定されない。
図6に示すように、画像処理装置50は、マルチメディアプロセッサ51と、ROM52と、SDRAM53とを備えている。マルチメディアプロセッサ51は、いわゆるSoC(System−on−a−Chip)であり、CPU54、グラフィックプロセッサ55、サウンドプロセッサ56等を一つの半導体チップ上に集積したプロセッサである。言い換えると、マルチメディアプロセッサ51は、映像および音声をコンピューティングにより生成、再生、または出力するために必要な機能を備えた単一の半導体チップである。
ROM52は、種々のプログラムおよびデータから構成されるソフトウェアを格納するための不揮発性半導体メモリである。ROM52には、CPU54が実行するプログラムコードおよび当該プログラムコードが使用するデータ、グラフィックプロセッサ55が利用するグラフィックデータ、並びに、サウンドプロセッサ56が利用するサウンドデータが格納されている。これらのプログラムコードおよびデータの一部または全部は、圧縮された状態でROM52に格納されている。ROM52の種類は特に限定されず、例えば、書き換え不能なマスクROM、一度だけ書き込みが可能なOTP(One Time Programmable)ROM、書き換え可能なNOR型フラッシュメモリ等を用いることができる。
SDRAM53は、VRAM兼用メインメモリであり、ROM52の上記プログラムコードおよびデータを展開し、一時保持するための半導体メモリである。マルチメディアプロセッサ51では、UMA(Unified Memory Architecture)を採用しており、マルチメディアプロセッサ51内のメインシステムバスのバスマスタ(CPU54、グラフィックプロセッサ55、サウンドプロセッサ56等)がSDRAM53を共用している。このSDRAM53の一部の領域は、グラフィックプロセッサ55が使用するVRAMとしても利用される。
次に、マルチメディアプロセッサ51の各要素を説明する。メインシステムバス57は、マルチメディアプロセッサ51内のシステムバスであり、バスマスタがデータを高速に転送するためのものである。メインシステムバス57には、バスマスタとして、CPU54、カメラインターフェース58、グラフィックプロセッサ55、ディスプレイコントローラ59、およびサウンドプロセッサ56が接続されている。また、メインシステムバス57には、バススレーブとしてメモリコントローラ60が接続されている。
サブシステムバス61もマルチメディアプロセッサ51内のシステムバスであるが、メインシステムバス57と異なり、高速なデータ転送が必要でないデータを転送するためのものである。サブシステムバス61には、バススレーブとして汎用デジタルI/O62が接続されている。メインシステムバス57とサブシステムバス61とは、バスブリッジ63を介して接続されている。
CPU54は、プログラムコードを実行するための中央演算処理プロセッサである。CPU54は、後述する識別コード95の認識処理と、カラープレート11,12の色認識処理とを実行する。また、CPU54は、グラフィックプロセッサ55およびサウンドプロセッサ56等を制御し、映像や音声を生成、再生、または出力するための指揮を司る。
汎用デジタルI/O62は、マルチメディアプロセッサ51に接続される外部デバイスの制御、または外部デバイスとの通信を行うための汎用I/Oである。ここでは、CPU54がCMOSイメージセンサ3Aの各種設定(解像度、露光時間、ホワイトバランス等の設定)を行うための通信ポートとして利用される。
カメラインターフェース58は、CMOSイメージセンサ3Aからの映像信号(ピクセルデータ並びに同期信号等)を受信し、必要に応じてピクセルデータのフォーマット変換や色空間変換を行い、SDRAM53にピクセルデータを書き出す。
メモリコントローラ60は、マルチメディアプロセッサ51と接続される半導体メモリデバイス、すなわちROM52およびSDRAM53の制御を行う。また、メモリコントローラ60は、マルチメディアプロセッサ51のバスマスタとROM52およびSDRAM53との間のデータ転送を司る。
サウンドプロセッサ56は、SDRAM53に格納されているPCMデータまたはADPCMデータを音源として、ピッチ変換や振幅制御等の加工を施し、音楽、効果音、人声などの音声を生成または再生し、D級アンプ64または外部のD/Aコンバータ(図示せず)に出力する。
グラフィックプロセッサ55は、3次元グラフィックデータの2次元空間への投影変換処理、2次元画像の加工処理(拡大、縮小、回転等)を行うとともに、これらの処理を通じて得られた2次元のピクセルデータをSDRAM53(VRAM領域)に書き込む。グラフィックプロセッサ55は、3次元および2次元の座標変換処理を行うジオメトリ処理部55Aと、ピクセルデータ列を生成し、VRAM領域に書き込むピクセル描画部55Bとを有している。グラフィックプロセッサ55は、カメラインターフェース58から得られたピクセルデータと、コンピューティングによって生成されたコンピュータ・グラフィックスとを合成することも行う。ただし、この合成は、ディスプレイコントローラ59で行うことも可能である。
ディスプレイコントローラ59は、グラフィックプロセッサ55によって書き込まれたピクセルデータをVRAM領域から読み出し、そのピクセルデータを必要に応じて他のビデオプレーンデータ(カメラインターフェース58から得られたピクセルデータを含む)と合成し、外部の表示装置9に出力するためのデジタル映像信号を生成または出力する。
ビデオエンコーダ65は、ディスプレイコントローラ59によって生成されたデジタル映像信号を、NTSC/PAL規格のアナログビデオ信号に変換し、外部に出力するものである。出力されるビデオ信号は、映像信号と同期信号が複合されたコンポジットビデオ信号であり、表示装置9に出力される。
次に、ゲームフィールド6の撮像画像に仮想オブジェクト101,102の画像を重畳して表示する方法、すなわち合成画像の表示方法について説明する。
各プレーヤP1,P2がどのような仮想オブジェクトをどのように移動させたいのかを把握するためには、各プレーヤP1,P2が選択した実オブジェクトの種類と、実空間における各プレーヤP1,P2の操作とを認識する必要がある。ここで例えば、各プレーヤP1,P2がゲームフィールド6上で実オブジェクトを移動させることが考えられる。この場合、ゲームシステム1は、実オブジェクトに印刷された識別コード95をビデオカメラ3を用いて認識するとともに、画像マッチング技術等を用いて実オブジェクトの位置を検出することになる。しかも、その識別コード95の認識と実オブジェクトの位置検出とを、一定の周期(例えば、1/15秒)ごとに行うことになる。しかし、短い周期で識別コード95の認識および実オブジェクトの位置検出を行うことは、画像処理装置50の処理の負荷を大きくし、誤認識を招く要因ともなる。そこで、本ゲームシステム1では、実オブジェクトをそのまま用いるのではなく、実オブジェクトの代わりに、着色されたカラープレート11,12を用いることとした。すなわち、プレーヤP1,P2が選択した実オブジェクトと各プレーヤP1,P2のカラープレート11,12とを対応付けておき、色認識技術を用いてカラープレート11,12の色および位置を周期的に検出することによって、プレーヤP1,P2の操作を認識することとした。
図7は、ゲームシステム1の機能ブロック図である。ゲームシステム1は、撮像部71と、登録部72と、記憶部73と、実オブジェクト特定部74と、仮想オブジェクト特定部75と、位置検出部76と、画像生成部77とを備えている。
撮像部71は撮像画像を生成する部分である。撮像部71は、ビデオカメラ3、画像処理装置50のCPU54、およびグラフィックプロセッサ55等により実現される。
前述したように、ゲームシステム1では、プレーヤP1,P2によって選択された実オブジェクトは、プレーヤP1,P2のカラープレート11,12と対応付けられる。登録部72は、選択された実オブジェクトとカラープレート11,12との対応関係が登録される部分である。登録部72は、例えば、上記対応関係の情報がSDRAM53に書き込まれることによって実現される。記憶部73は、実オブジェクトに対応する仮想オブジェクトの画像の情報を記憶している。本実施形態では、仮想オブジェクトの画像は、実オブジェクトの形状、色彩、および模様を模擬した画像である。記憶部73は、例えば、上記情報のデータが書き込まれたROM52等によって実現される。
実オブジェクト特定部74は、プレーヤP1,P2によって選択された実オブジェクトの種類を特定する。本実施形態に係る実オブジェクト特定部74は、実オブジェクトに印刷された2次元バーコードに基づいて、実オブジェクトの種類を特定するように構成されている。実オブジェクト特定部74は、例えば、2次元バーコードの認識処理を行うCPU54等によって実現される。仮想オブジェクト特定部75は、登録部72に登録されたプレーヤP1,P2とカラープレート11,12との対応関係と、実オブジェクト特定部74によって特定された各プレーヤP1,P2の実オブジェクトの種類と、記憶部73に記憶されている情報(すなわち、実オブジェクトに対応する仮想オブジェクトの画像の情報)とに基づいて、各プレーヤP1,P2が使用するカラープレート11,12に対応する仮想オブジェクトを、各プレーヤP1,P2の仮想オブジェクト101,102として特定する。
位置検出部76は、後述する色認識技術を用いて、カラープレート11,12の位置を検出する。画像生成部77は、撮像部71が生成したゲームフィールド6の撮像画像に仮想オブジェクト101,102の画像を重畳することにより、表示装置9に表示すべき合成画像を生成する。
次に、図8のフローチャートを参照しながら、ゲームシステム1が行う各種の処理を説明する。以下の説明では、第1のプレーヤP1が白色のマスコット90(図5(a)参照)を選択するとともに第1のカラープレート11を用い、第2のプレーヤP2が黒色のマスコット(図示せず)を選択するとともに第2のカラープレート12を用いるものとする。
まず、ステップS1において、ROM52に格納されているブートローダにより、ゲームプログラムがSDRAM53にロードされる。すると、ステップS2において初期設定が行われる。次に、ステップS3に進み、CPU54が後述するカラーキャリブレーション処理を実行する。
前述したように、カラープレート11,12の位置の検出には、色認識技術が用いられる。すなわち、ゲームシステム1は、カラープレート11,12に付された色に基づいて、カラープレート11,12の位置を検出する。なお、カラープレート11,12の位置を検出する際、画像処理装置50のCPU54は、本発明に係る位置検出手段として機能する。
図1に示すように、カラープレート11は、所定の色が付された着色領域11aと、着色領域11aの周囲を囲む黒枠領域11bとから構成されている。同様に、カラープレート12も、着色領域12aと黒枠領域12bとから構成されている。着色領域11aと着色領域12aとには、異なる色が付されている。本実施形態では、着色領域11aと着色領域12aとには、蛍光色が付されている。着色領域11aに付された色と着色領域12aに付された色とは、互いに色相が大きく異なっていることが好ましい。例えば、HSV色空間において、着色領域11aの色と着色領域12aの色との色相差は90度〜270度であることが好ましく、135度〜225度であることが更に好ましく、実質的に180度であることが特に好ましい。本実施形態では、カラープレート11の着色領域11aには青緑の蛍光色が印刷され、カラープレート12の着色領域12aには赤の蛍光色が印刷されている。なお、黒枠領域11b,12bには、黒色が印刷されている。
カラープレート11,12の位置は、カラープレート11,12の着色領域11a,12aの位置を検出することによって検出される。本実施形態では、色相、彩度および明度が所定の条件を満たす領域の面積が所定値以上か否かに基づいて、着色領域11a,12aが検出される。具体的には、画像処理装置50のCPU54は、着色領域11a,12aのそれぞれの色について、色相H、彩度S、明度Vがそれぞれ下記式(1)〜(2)を満たす領域の面積を演算し、その面積が所定値以上であれば、その領域に着色領域11a,12aが存在すると見なす。
Nmin≦H≦HNmax ・・・(1)
S+V≧SVNmin ・・・(2)
なお、Nはカラープレートの変数であり、ここではN=1,2である。
ところで、ゲームシステム1の周囲の環境(例えば、周囲の明るさ等)によって、着色領域11a,12aの実際の色と、ビデオカメラ3で検出される色との間には差が生じる。そのため、ゲームシステム1の周囲の環境に応じて、色相Hの下限値HNminおよび上限値HNmaxや、彩度Sと明度Vとの和の下限値SVNminを適宜設定することが好ましい。そこで、ゲームシステム1では、ステップS3のカラーキャリブレーション処理を行うように構成されている。
次に、図9を参照しながら、カラーキャリブレーション処理の具体的方法について説明する。以下では、カラープレート11のカラーキャリブレーション処理を説明する。
まず、ステップS31において、撮像画像の所定の点(例えば、ゲームフィールド6の中心位置)Pがカラープレート11の着色領域11a内に位置するように、ビデオカメラ3に対してカラープレート11を位置付ける(図10参照)。次にステップS32において、ビデオカメラ3で撮像した撮像画像から点Pの色情報、すなわち色相H(P)、彩度S(P)、および明度V(P)を取得する。次にステップS33に進み、CPU54は、色相H(x)、彩度S(x)、明度V(x)が下記式(3)〜(5)を満たす点xを探査し、それらの点xの集合を、点Pを内包する第1の領域Sとして特定する。
H(P)−H11≦H(x)≦H(P)+H21 ・・・(3)
S(x)≧S(P)−S1 ・・・(4)
V(x)≧V(P)−V1 ・・・(5)
ここで色相、彩度、明度は、正規化された無次元数であり、0〜255の範囲の値をとり得る。なお、H11、H21、S1、V1は所定の正数である。本実施形態では、H11=H21=30、S1=120、V1=120に設定されている。CPU54は上記第1の領域Sを特定する際、本発明に係る「第1領域特定手段」として機能する。
次に、ステップS34に進み、CPU54が第1の領域Sの色相、彩度、明度の平均値H、S、Vを演算する。この際、CPU54は「第1演算手段」として機能する。そして、ステップS35において、CPU54は、色相H(x)、彩度S(x)、明度V(x)が下記式(6)〜(8)を満たす点xを探査し、それらの点xの集合を、点Pを内包する第2の領域S′として特定する。
−H12≦H(x)≦H+H22 ・・・(6)
S(x)≧S−S2 ・・・(7)
V(x)≧V−V2 ・・・(8)
第2の領域S′は第1の領域Sよりも厳しい条件で探査された着色領域である。言い換えると、第2の領域S′は第1の領域Sよりも高精度に探査された着色領域である。H12はH11未満の正数、H22はH21未満の正数、S2はS1未満の正数、V2はV1未満の正数である。ここでは、H12=3、H22=12、S2=40、V2=40に設定されている。CPU54は上記第2の領域S′を特定する際、「第2領域特定手段」として機能する。
次に、ステップS36に進み、CPU54が第2の領域S′の色相、彩度、明度の平均値H′、S′、V′を演算する。この際、CPU54は「第2演算手段」として機能する。そして、ステップS37において、CPU54は、下記式(9)〜(10)を色相H(x)、彩度S(x)、明度V(x)の最終的な条件とする。
′−H13≦H(x)≦H′+H23 ・・・(9)
S(x)+V(x)≧SV ・・・(10)
ここで、H13はH12以下の正数、H23はH22以下の正数、SVはS′+V′−SV1、SV2のうちの最小値である。SV1、SV2は、所定の正数である。本実施形態では、H13=3、H23=12、SV1=80、SV2=320に設定されている。なお、前述の式(1)〜(2)において、H1min=H′−H13、H1max=H′+H23、SV1min=SVとなる。
以上がステップS3におけるカラーキャリブレーション処理である。図8に示すように、ステップS3のカラーキャリブレーション処理が終了すると、ステップS4〜S10において、カラープレートと実オブジェクトとの対応付けを行う。
まずステップS4において、CPU54がカラープレートの変数Nを初期化する。すなわち、変数N=1とする。次に、ステップS5に進み、CPU54がグラフィックプロセッサ55等を指揮して、プレーヤに実オブジェクトの識別コード95をビデオカメラ3にかざすように指示する画像を、表示装置9に表示する。なお、表示装置9に画像を表示する代わりに、そのような指示を伝える音声をスピーカ7から出力するようにしてもよい。この識別コード95は、N番目のカラープレートに対応付けられる。この画像を見たプレーヤは、識別コード95がビデオカメラ3に撮像されるように、自分が選択した実オブジェクトをビデオカメラ3にかざす。本実施形態では、識別コード95は、実オブジェクトであるマスコット90の足91の裏に印刷されている(図5参照)。そのため、ユーザは、マスコット90の足91の裏をビデオカメラ3にかざすことになる。
すると、ステップS6において、CPU54によって識別コード95の認識処理が行われる。この認識処理は、識別コード95である2次元バーコードを読み取り、その2次元バーコードの情報に基づいて、実オブジェクトの種類を特定する処理である。2次元バーコードの読み取り処理は周知の技術であるので、その詳細な説明は省略する。本実施形態では、各種の周知技術を利用することができる。なお、ステップS6の認識処理を実行する際、CPU54は実オブジェクト特定手段として機能する。
ステップS7では、CPU54によって、所定時間内に正当なコードが認識されたか否かが判定される。判定結果がNOの場合には、ステップS5に戻り、上述の処理をやり直す。判定結果がYESの場合には、ステップS8に進む。
ステップS8では、ステップS6で特定された実オブジェクトと、N番目のカラープレートとの対応関係が登録される。例えば、CPU54がSDRAM53に上記対応関係のデータを保存する。この際、SDRAM53は登録手段として機能する。
次に、ステップS9に進み、変数Nの値が、使用するカラープレートの総数と等しいか否かが判定される。ここでは、変数N=1であり、使用するカラープレートの枚数が2であるため、判定結果はNOとなる。ステップS9の判定結果がNOの場合には、ステップS10に進み、変数Nの値をインクリメントする。すなわち、変数Nの値を1つ大きくする。ステップS10の後は、ステップS5に戻り、再び上述の処理を繰り返す。言い換えると、次のカラープレートを対象として、ステップS5以降の処理が行われる。一方、ステップS9の判定結果がYESであれば、カラープレートと実オブジェクトとの対応付けを終了し、ゲームのメイン処理に進む。
本ゲームシステム1では、カラープレート11,12の撮像画像と仮想オブジェクト101,102の画像とを重畳させた合成画像を用いて、様々なゲームが可能である。プレーヤP1,P2は表示装置9に表示される合成画像を見ながら、ゲームフィールド6上で自分のカラープレート11,12を移動させる。これに応じて合成画像上では、仮想オブジェクト101,102がそれぞれのカラープレート11,12に追従して移動する。そして、両プレーヤP1,P2の仮想オブジェクト101,102同士が所定のアクション(例えば、会話を行う、戦う、等)を行うことによって、ゲームが進行する。ゲームのメイン処理では、CPU54により、カラープレート11,12の色および位置の検出処理と、仮想オブジェクト101,102をカラープレート11,12の上に重畳表示する処理とが、周期的に連続して行われる。
カラープレート11,12の位置は、カラープレート11,12の着色領域11a,12aの位置を検出することによって検出される。詳しくは、CPU54は、撮像画像の全ピクセルの色情報、すなわち色相H、彩度S、および明度Vを取得し、それらがカラープレート11,12ごとに定められた所定の条件式を満たす領域を演算する。そして、CPU54はその領域を着色領域として検出する。例えば、CPU54は、カラープレート11について、前述の条件式(9)〜(10)を満たす点xの集合を着色領域11aとして検出し、その着色領域11aの位置をカラープレート11の位置とする。なお、便宜上、着色領域11a内の所定点(例えば中央の点)、カラープレート11内の所定点(例えば中央の点)を、それぞれ着色領域11a、カラープレート11の位置としてもよい。CPU54は、他のカラープレート12についても同様に、所定の条件式、すなわち下記の式(11)〜(12)を満たす点xの集合を着色領域12aとして検出し、その着色領域12aの位置をカラープレート12の位置とする。
2min≦H≦H2max ・・・(11)
S+V≧SV2min ・・・(12)
カラープレート11,12とプレーヤが選択した実オブジェクトとの対応関係は登録部72に登録されており、また、実オブジェクトに対応する仮想オブジェクト101,102の情報は記憶部73に記憶されている。そのため、カラープレート11,12の着色領域11a,12aの色を検出することにより、そのカラープレート11,12上に表示させるべき仮想オブジェクト101,102を容易に認識することができる。したがって、ゲームのメイン処理において、プレーヤP1,P2によるカラープレート11,12の移動に応じて仮想オブジェクト101,102を所定の位置に表示させる処理は、迅速かつ容易に行われる。
なお、仮想オブジェクト101,102は、常にカラープレート11,12の上に表示させるようにしてもよいが、仮想オブジェクト101,102を所定時間前のカラープレート11,12の上に表示するようにしてもよい。これにより、仮想オブジェクト101,102があたかもカラープレート11,12を追いかけるような演出が可能となる。仮想オブジェクト101,102はカラープレート11,12の位置に応じた位置に表示すればよく、具体的な表示位置は特に限定される訳ではない。
以上のように、ゲームシステム1では、プレーヤP1,P2がゲームフィールド6上でカラープレート11,12を操作すると、表示装置9には、プレーヤP1,P2が選択した実オブジェクトに対応する仮想オブジェクト101,102の画像が、カラープレート11,12に重畳するように表示される。プレーヤP1,P2がゲームフィールド6上でカラープレート11,12を移動させると、表示装置9において、仮想オブジェクト101,102がカラープレート11,12に追従するように表示される。ゲームシステム1では、実オブジェクトに対応する仮想オブジェクトの画像の情報が予め記憶されており、また、ゲームを始める前にカラープレート11,12と実オブジェクトとの対応関係が登録される。そのため、ゲームシステム1によれば、カラープレート11,12の着色領域11a,12aの色に基づいて、表示すべき仮想オブジェクト101,102を容易に特定することができる。また、カラープレート11,12の着色領域11a,12aの位置を検出することにより、仮想オブジェクト101,102を表示すべき位置を容易に特定することができる。このように、ゲームシステム1によれば、プレーヤP1,P2がどのような仮想オブジェクトをどの位置に出現させたいかを、色認識技術を用いて特定することができる。したがって、画像処理の簡単化を図ることができる。本実施形態によれば、画像処理装置50に大きな負荷をかけることなく、仮想オブジェクト101,102をカラープレート11,12に追従しかつ重畳するように表示することができる。
本実施形態のゲームシステム1によれば、識別コードが付された実オブジェクト(例えば、マスコットやカード等)自体をゲームフィールド6上で動かし、その識別コードを所定の周期で読み取るようなシステムと異なり、識別コードの読み取りは一回で済む。また、ゲーム中は、識別コードを読み取る代わりに、カラープレート11,12の着色領域11a,12aの色を認識することにより、表示すべき仮想オブジェクト101,102を特定する。そのため、実オブジェクトに対応しない仮想オブジェクトを誤って表示してしまうおそれが少ない。このように、本実施形態のゲームシステム1によれば、画像処理の簡単化および精度の向上を図ることができる。
カラープレート11,12には、着色領域11a,12aの周囲に黒枠領域11b,12bが形成されている。着色領域11a,12aと黒枠領域11b,12bとでは、色情報すなわち色相、明度、および彩度が大きく異なる。そのため、着色領域11a,12aと黒枠領域11b,12bとの境界が明確となり、着色領域11a,12aの領域を容易に検出することができる、したがって、着色領域11a,12aの位置、ひいてはカラープレート11,12の位置を容易かつ正確に検出することができる。
本実施形態では、カラープレート11,12の着色領域11a,12aには、蛍光色が付されている。そのため、カラープレート11,12の位置をより一層容易かつ正確に検出することができる。
カラープレート11,12の位置は、撮像画像において、色相が所定の条件を満たし、かつ、彩度と明度との和が所定の条件を満たす領域の面積が所定値以上か否かに基づいて検出される。これにより、画像マッチング技術を用いる場合等に比べて、カラープレート11,12の位置を簡単に検出することができる。また、彩度および明度のそれぞれに条件を課す場合に比べて、手や体等の影や、撮像範囲内の場所による照明の当たり具合のバラツキによる影響を受けにくくすることができる。したがって、カラープレート11,12の位置を簡単に高効率に検出することができる。
ゲームシステム1では、ゲームのメイン処理に先立って、前述したカラーキャリブレーション処理を実行する(図9参照)。そのため、カラープレート11,12の色および位置の検出の精度を高めることができる。したがって、仮想オブジェクト101,102の表示の精度を向上させることができる。
ゲームシステム1では、ビデオカメラ3で撮像された実オブジェクトの識別コードの撮像画像に基づいて、実オブジェクトの種類が特定される。すなわち、ゲームフィールド6を撮像するビデオカメラ3が、実オブジェクトの種類を特定する手段の一部として流用される。したがって、実オブジェクトの種類を特定する手段を別途設ける必要がなく、システム構成の簡素化を図ることができる。ただし、本発明において、ビデオカメラ3とは別に、実オブジェクトの種類を特定する手段を別途設けることも可能である。例えば、実オブジェクトにICタグを設けておき、そのICタグに格納された情報を読み取る無線の通信手段等を用いることも可能である。
なお、仮想オブジェクトは実オブジェクトを模擬した3次元のオブジェクトに限らず、実オブジェクトに類似しない2次元または3次元のオブジェクト等であってもよい。ただし、本実施形態のように、実オブジェクトを模擬した3次元のオブジェクトを仮想オブジェクトとすれば、プレーヤが選択した実オブジェクト(動かないマスコット)があたかも合成画像において現実に存在し、行動するかのように表示されるので、プレーヤの趣向性を高めることができる。
なお、前述の実施形態は本発明の実施の形態の一例に過ぎず、本発明は他に種々の形態で実施することができる。
本発明に係る画像表示システムは、ゲームシステム1の全体を構成していてもよく、ゲーム機本体2のみを構成していてもよい。すなわち、本発明に係る画像表示システムは、汎用的な表示装置9を利用することができ、必ずしも当該画像表示システムの構成要素の一つとして表示装置9を備えている必要はない。
前記実施形態では、ゲームシステム1は、ゲーム機本体2および表示装置9を置くための専用の台4を備えていた。また、台4にゲームフィールド6が設けられ、プレーヤP1,P2は台4の上でカラープレート11,12を移動させることとしていた。しかし、ゲームシステム1は、必ずしもゲーム機本体2および表示装置9を置くための専用の台4を備えている必要はない。例えば、専用の台4の代わりに、床や汎用的な台(例えば、プレーヤが家庭で所有するテーブル等)を流用してもよい。前記実施形態では、ゲームフィールド6に格子状の線が印刷されているが、この線は必ずしも必要ではない。床や汎用的な台の一部をゲームフィールド6として利用してもよい。
前記実施形態では、実オブジェクトはマスコット90であった。しかし、実オブジェクトの種類は何ら限定されない。実オブジェクトとして、例えば、自動車等の乗り物や建築物等の模型を用いてもよく、円柱や立方体などの単純な3次元形状物を用いてもよい。
仮想オブジェクトは実オブジェクトを模擬したものでなくてもよい。すなわち、仮想オブジェクトは、実オブジェクトと同一または類似の形状でなくてもよい。仮想オブジェクトは、実オブジェクトと対応付けられたものであればよい。例えば前記実施形態において、実オブジェクトとしてマスコット90の代わりに、マスコット90を表す文字または絵が印刷されたカード等を用いてもよい。
前記実施形態では、実オブジェクトの識別に際して、2次元バーコードからなる識別コードを利用することとしていた。識別コードを用いることにより、実オブジェクトの種類を容易に検出することができる。しかし、実オブジェクトの識別に関して、識別コード以外の手段を用いることも可能である。例えば、画像認識技術を利用し、実オブジェクトの形状や色彩等から実オブジェクトの種類を検出することも可能である。また、入力装置を設けておき、プレーヤがその入力装置を用いて実オブジェクトの種類を入力することにより、実オブジェクトの種類を認識するようにしてもよい。入力装置には、ゲーム機本体2に設けられたボタン、ゲーム機本体2と別体のコントローラ、表示装置9に設けられたタッチパネル等を用いることができる。
前記実施形態では2枚のカラープレート11,12が用いられていたが、カラープレートの枚数は2枚に限らず、1枚であってもよく、3枚以上であってもよい。プレーヤの人数も2人に限られない。また、前記実施形態では、各プレーヤが1枚のカラープレートを用いていたが、各プレーヤが2枚以上のカラープレートを用いることも可能である。
本発明に係る着色部材はカラープレート11,12に限定されない。プレート状の部材を用いると、着色領域の色認識が容易となる。しかし、着色部材として、プレート状の部材以外の部材を用いることも勿論可能である。
着色領域の色は蛍光色に限らず、他の色であってもよい。なお、着色領域の色には、有彩色だけでなく、無彩色(例えば白色)も含まれる。
1 ゲームシステム
2 ゲーム機本体
3 ビデオカメラ(撮像手段)
4 台
6 ゲームフィールド
9 表示装置
11,12 カラープレート(着色部材)
11a,12a 着色領域
11b,12b 黒枠領域
P1,P2 プレーヤ(ユーザ)
90 マスコット(実オブジェクト)
95 識別コード
101,102 仮想オブジェクト

Claims (7)

  1. 実空間を撮像した撮像画像に、複数の実オブジェクトの中からユーザが選択した実オブジェクトに対応する仮想オブジェクトの画像を重畳してなる合成画像を表示装置に表示させる画像表示システムであって、
    所定の色が付された着色領域を有する1又は2以上の着色部材と、
    前記着色部材を含んだ前記着色部材よりも大きな領域の実空間を撮像する撮像手段と、
    複数の実オブジェクトのそれぞれに対応する複数の仮想オブジェクトの画像の情報を記憶した記憶手段と、
    ユーザによって選択された実オブジェクトを特定する実オブジェクト特定手段と、
    ユーザによって選択された実オブジェクトと着色部材との対応関係が登録される登録手段と、
    前記登録手段に前記対応関係が登録されると、前記実オブジェクト特定手段によって特定された実オブジェクトと前記記憶手段に記憶されている情報とに基づいて、前記ユーザによって選択された実オブジェクトに対応する仮想オブジェクトの画像を、登録された着色部材に対応する仮想オブジェクトの画像として特定する仮想オブジェクト特定手段と、
    前記着色部材の着色領域の色および位置を認識することにより、前記着色部材の位置を検出する位置検出手段と、
    前記実空間の撮像画像における前記着色部材の位置に応じた位置に、前記仮想オブジェクト特定手段によって特定された仮想オブジェクトの画像を重畳することにより、前記表示装置に表示させる合成画像を生成する画像生成手段と、
    を備えた画像表示システム。
  2. 前記着色部材は、前記着色領域の周囲を囲む黒枠領域を有している、請求項1に記載の画像表示システム。
  3. 前記着色部材の着色領域には蛍光色が付されている、請求項1または2に記載の画像表示システム。
  4. 前記位置検出手段は、色相が所定の条件を満たし、かつ、彩度と明度との和が所定の条件を満たす領域の面積が所定値以上か否かに基づいて、前記着色部材の位置を検出する、請求項1〜3のいずれか一つに記載の画像表示システム。
  5. 前記位置検出手段は、
    前記着色領域内の所定点の色相、彩度、明度の値をそれぞれHp、Sp、Vpとしたときに、
    色相H、彩度S、明度Vが、前記所定点を含み、かつ、Hp−H11≦H≦Hp+H21、S≧Sp−S1、V≧Vp−V1(ただし、H11、H21、S1、V1は所定の正数)を満たす第1領域を特定する第1領域特定手段と、
    前記第1領域の色相、彩度、明度のそれぞれの平均値H、S、Vを演算する第1演算手段と、
    色相H、彩度S、明度Vが、前記所定点を含み、かつ、H−H12≦H≦H+H22、S≧S−S2、V≧V−V2(ただし、H12はH11未満の正数、H22はH21未満の正数、S2はS1未満の正数、V2はV1未満の正数)を満たす第2領域を特定する第2領域特定手段と、
    前記第2領域の色相、彩度、明度のそれぞれの平均値H′、S′、V′を演算する第2演算手段と、を有し、
    ′−H13≦H≦H′+H23、S+V≧SV(ただし、H13はH12以下の正数、H23はH22以下の正数。SVは、S′+V′−SV1、SV2のうちの最小値であって、SV1、SV2はそれぞれ所定の正数)を満たす領域の面積が所定値以上であるか否かに基づいて、前記着色部材の位置を検出する、請求項4に記載の画像表示システム。
  6. 前記実オブジェクトには、当該実オブジェクトを識別するための識別コードが付され、
    前記実オブジェクト特定手段は、前記撮像手段によって撮像された前記実オブジェクトの識別コードの画像に基づいて、前記実オブジェクトを特定するように構成されている、請求項1〜5のいずれか一つに記載の画像表示システム。
  7. 前記仮想オブジェクトは、前記実オブジェクトを模擬した3次元のオブジェクトである、請求項1〜6のいずれか一つに記載の画像表示システム。
JP2010114971A 2010-05-19 2010-05-19 画像表示システム Pending JP2011243019A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010114971A JP2011243019A (ja) 2010-05-19 2010-05-19 画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010114971A JP2011243019A (ja) 2010-05-19 2010-05-19 画像表示システム

Publications (1)

Publication Number Publication Date
JP2011243019A true JP2011243019A (ja) 2011-12-01

Family

ID=45409597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010114971A Pending JP2011243019A (ja) 2010-05-19 2010-05-19 画像表示システム

Country Status (1)

Country Link
JP (1) JP2011243019A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239996A (ja) * 2010-05-19 2011-12-01 Bandai Co Ltd ゲーム装置
JP2012065760A (ja) * 2010-09-22 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP2013545510A (ja) * 2010-10-12 2013-12-26 株式会社ソニー・コンピュータエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP2014126682A (ja) * 2012-12-26 2014-07-07 Nitto Denko Corp 表示装置
JP2018036869A (ja) * 2016-08-31 2018-03-08 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
JP2021176460A (ja) * 2020-05-10 2021-11-11 望月 貴里子 仮想空間表示装置、プログラム
WO2023233583A1 (ja) * 2022-06-01 2023-12-07 株式会社ソニー・インタラクティブエンタテインメント 電子機器および情報処理システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239996A (ja) * 2010-05-19 2011-12-01 Bandai Co Ltd ゲーム装置
JP2012065760A (ja) * 2010-09-22 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP2013545510A (ja) * 2010-10-12 2013-12-26 株式会社ソニー・コンピュータエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP2016219056A (ja) * 2010-10-12 2016-12-22 株式会社ソニー・インタラクティブエンタテインメント 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP2014126682A (ja) * 2012-12-26 2014-07-07 Nitto Denko Corp 表示装置
WO2018043732A1 (ja) * 2016-08-31 2018-03-08 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
JP2018036869A (ja) * 2016-08-31 2018-03-08 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
CN109661686A (zh) * 2016-08-31 2019-04-19 卡西欧计算机株式会社 对象显示系统、用户终端装置、对象显示方法及程序
US10831436B2 (en) 2016-08-31 2020-11-10 Casio Computer Co., Ltd. Object display system, user communication device, and object display method and program
CN109661686B (zh) * 2016-08-31 2023-05-05 卡西欧计算机株式会社 对象显示系统、用户终端装置、对象显示方法及程序
JP2021176460A (ja) * 2020-05-10 2021-11-11 望月 貴里子 仮想空間表示装置、プログラム
JP7229198B2 (ja) 2020-05-10 2023-02-27 望月 貴里子 仮想空間表示装置、プログラム
WO2023233583A1 (ja) * 2022-06-01 2023-12-07 株式会社ソニー・インタラクティブエンタテインメント 電子機器および情報処理システム

Similar Documents

Publication Publication Date Title
US9348950B2 (en) Perceptually guided capture and stylization of 3D human figures
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
JP2011243019A (ja) 画像表示システム
US8698902B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
WO2021104037A1 (zh) 数据处理方法、装置、电子设备及存储介质
US9071808B2 (en) Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP5081964B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
KR101989447B1 (ko) 증강현실을 이용하여 사용자에게 영상 피드백을 제공하는 댄스 모션 피드백 시스템
US20120262485A1 (en) System and method of input processing for augmented reality
US20110304611A1 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
KR101961758B1 (ko) 3차원 컨텐츠 제공 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
US8451287B2 (en) Color conversion apparatus, imaging apparatus, storage medium storing color conversion program, and storage medium storing imaging program
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
CN103748893A (zh) 显示器作为照片或视频的照明
US20190272658A1 (en) Image processing device, image processing method, and program
US11941763B2 (en) Viewing system, model creation apparatus, and control method
US20220189078A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
KR20180106572A (ko) 가상현실 제공장치 및 그 방법
JP6431259B2 (ja) カラオケ装置、ダンス採点方法、およびプログラム
KR20150124208A (ko) 증강 현실 기반 가상 피팅을 위한 의상의 물리적 시뮬레이션 장치 및 방법
KR20140077029A (ko) 복강경 수술용 시뮬레이션 장치 및 방법
JP2003085571A (ja) 塗り絵玩具
JP6313003B2 (ja) カラオケ装置、画像出力方法、およびプログラム
KR101850134B1 (ko) 3차원 동작 모델 생성 방법 및 장치