JP2002269585A - 画像処理方法、画像処理装置、記憶媒体及びプログラム - Google Patents

画像処理方法、画像処理装置、記憶媒体及びプログラム

Info

Publication number
JP2002269585A
JP2002269585A JP2001071112A JP2001071112A JP2002269585A JP 2002269585 A JP2002269585 A JP 2002269585A JP 2001071112 A JP2001071112 A JP 2001071112A JP 2001071112 A JP2001071112 A JP 2001071112A JP 2002269585 A JP2002269585 A JP 2002269585A
Authority
JP
Japan
Prior art keywords
image
photographing
display
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001071112A
Other languages
English (en)
Inventor
Hideo Noro
英生 野呂
Hiroaki Sato
宏明 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001071112A priority Critical patent/JP2002269585A/ja
Priority to PCT/JP2002/002344 priority patent/WO2002073955A1/en
Publication of JP2002269585A publication Critical patent/JP2002269585A/ja
Priority to US10/654,014 priority patent/US20040041822A1/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

(57)【要約】 【課題】 演技者よりも極端に大きなキャラクターやシ
ナリオの進行に応じて大きさ、色、材質、形状等の変化
するキャラクターを演じることができる画像処理方法、
画像処理装置、記憶媒体及びプログラムを提供する。 【解決手段】 演技者の位置・姿勢を測定する演技者ト
ラッキング手段1801と、演技者トラッキング手段1
801により得られた位置・姿勢を演技者全体を覆うC
G(コンピュータグラフィックス)キャラクターデータ
1802に反映させるCGキャラクターデータ反映手段
1803とを有する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、実写画像(映像)
とCG(コンピュータグラフィックス)画像(映像)と
を処理する画像処理方法、画像処理装置、記憶媒体及び
プログラムに関する。
【0002】
【従来の技術】従来から、映画やテレビ番組の撮影にお
いて、演技者がシナリオに応じて種々のキャラクターを
演じるため、身体全体を覆うような着ぐるみを着用する
ことがあった。
【0003】
【発明が解決しようとする課題】この際、着ぐるみの大
きさは演技者の大きさに強く依存しており、極端に大き
なキャラクターやシナリオの進行に応じて大きさ、色、
材質、形状等が変化するキャラクターを演じることは不
可能であった。
【0004】MR技術を用いて、演技者のみ別のスタジ
オで撮影したとしても、その場に前記演技者がいないた
めに、また、現実セットの障害物が無いために、着ぐる
みを着ている演技者及びその演技者と共に演じる演技者
にとって臨場感に欠けたものとなってしまう。
【0005】また、前記両演技者同士及び両演技者の演
じるキャラクター同士の大きさの比が略一定である場合
には、互いの絡みも可能になるが、別スタジオで撮影す
る場合は、演技自体が非常に困難となる。
【0006】これは、例えば、着ぐるみのキャラクター
と殺陣を演じた場合、刀同士が現実空間で衝突すること
がないことからも明らかである。
【0007】更に、現実の着ぐるみを着用した場合、着
ぐるみの物理特性は、材質に大きく影響されてしまう。
【0008】加えて、現実の着ぐるみの多くは非常に重
いため、キャラクターの機敏な動きを制限されていた。
【0009】また、現実の着ぐるみは、演技者にとって
は蒸し暑く感じるものが多いが、これは演技者に負担を
強いるものであり、長時間に渉る撮影が困難でもあっ
た。
【0010】本発明は、上記のような問題点に鑑みてな
されたもので、その目的は、演技者よりも極端に大きな
キャラクターやシナリオの進行に応じて大きさ、色、形
状の変化するキャラクターを演じることが可能で、ま
た、着ぐるみを着用している演技者及びその演技者と共
に演じる演技者にとって臨場感を持たせることができ、
また、着ぐるみのキャラクターの物理特性を自由に設定
することができ、また、現実の着ぐるみにおけるキャラ
クターの機敏な動きの制限を緩和することができ、更
に、現実の着ぐるみの蒸し暑さからくる演技者への負担
を取り除き、長時間に渉る撮影の困難を緩和することが
できる画像処理方法、画像処理装置、記憶媒体及びプロ
グラムを提供することである。
【0011】
【課題を解決するための手段】上記目的を達成するため
に、本発明の請求項1に記載の画像処理方法は、演技者
等の被写体の位置・姿勢を測定するトラッキング工程
と、前記トラッキング工程により得られた位置・姿勢を
前記被写体の画像に重畳されるCG(コンピュータグラ
フィックス)データに反映させるCGデータ反映工程と
を有することを特徴とする。
【0012】また、上記目的を達成するために、本発明
の請求項2に記載の画像処理装置は、演技者等の被写体
の位置・姿勢を測定するトラッキング手段と、前記トラ
ッキング手段により得られた位置・姿勢を前記被写体の
画像に重畳されるCG(コンピュータグラフィックス)
データに反映させるCGデータ反映手段とを有すること
を特徴とする。
【0013】また、上記目的を達成するために、本発明
の請求項3に記載の画像処理方法は、演技者等の被写体
の位置・姿勢を測定し、測定された位置・姿勢を前記被
写体の画像に重畳されるCG(コンピュータグラフィッ
クス)データに反映させて表示手段に表示させるための
画像処理方法であって、撮影手段により前記被写体を撮
影する撮影工程と、前記撮影手段の視点からのCG画像
を、前記撮影手段の撮影パラメータ及び前記表示手段の
表示パラメータに基づいて作成するCG画像作成工程
と、前記撮影手段により撮影された前記被写体の実写画
像に、前記CG画像作成工程により作成されたCG画像
を合成して前記表示手段に表示する画像合成工程と、前
記画像合成工程において、前記CG画像の存在可能領域
を制限する禁則領域処理工程とを有することを特徴とす
る。
【0014】また、上記目的を達成するために、本発明
の請求項4に記載の画像処理方法は、請求項3に記載の
画像処理方法において、前記CG画像作成工程は、前記
CGを生成するためのシナリオ情報を管理するシナリオ
管理工程を有することを特徴とする。
【0015】また、上記目的を達成するために、本発明
の請求項5に記載の画像処理方法は、請求項3に記載の
画像処理方法において、前記撮影パラメータは、前記撮
影手段の撮影位置であることを特徴とする。
【0016】また、上記目的を達成するために、本発明
の請求項6に記載の画像処理方法は、請求項3に記載の
画像処理方法において、前記撮影パラメータは、前記撮
影手段の撮影方向であることを特徴とする。
【0017】また、上記目的を達成するために、本発明
の請求項7に記載の画像処理方法は、請求項3に記載の
画像処理方法において、前記表示パラメータは、前記表
示手段の表示位置であることを特徴とする。
【0018】また、上記目的を達成するために、本発明
の請求項8に記載の画像処理方法は、請求項3に記載の
画像処理方法において、前記表示パラメータは、前記表
示手段の表示方向であることを特徴とする。
【0019】また、上記目的を達成するために、本発明
の請求項9に記載の画像処理方法は、請求項3乃至7の
いずれかに記載の画像処理方法において、前記表示手段
は、HMD(ヘッドマウントディスプレイ)であること
を特徴とする。
【0020】また、上記目的を達成するために、本発明
の請求項10に記載の画像処理装置は、演技者等の被写
体の位置・姿勢を測定し、測定された位置・姿勢を前記
被写体の画像に重畳されるCG(コンピュータグラフィ
ックス)データに反映させて表示手段に表示させるため
の画像処理装置であって、前記被写体を撮影手段により
撮影する撮影手段と、前記撮影手段の視点からのCG画
像を前記撮影手段の撮影パラメータ及び前記表示手段の
表示パラメータに基づいて作成するCG画像作成手段
と、前記撮影手段により撮影された前記被写体の実写画
像に、前記CG画像作成手段により作成されたCG画像
を合成して前記表示手段に表示する画像合成手段と、前
記画像合成手段の画像合成処理において、前記CG画像
の存在可能領域を制限する禁則領域処理手段と、を有す
ることを特徴とする。
【0021】また、上記目的を達成するために、本発明
の請求項11に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記CG画像作成手段は、
前記CGを生成するためのシナリオ情報を管理するシナ
リオ管理手段を有することを特徴とする。
【0022】また、上記目的を達成するために、本発明
の請求項12に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記撮影パラメータは、前
記撮影手段の撮影位置であることを特徴とする。
【0023】また、上記目的を達成するために、本発明
の請求項13に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記撮影パラメータは、前
記撮影手段の撮影方向であることを特徴とする。
【0024】また、上記目的を達成するために、本発明
の請求項14に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記表示パラメータは、前
記表示手段の表示位置であることを特徴とする。
【0025】また、上記目的を達成するために、本発明
の請求項15に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記表示パラメータは、前
記表示手段の表示方向であることを特徴とする。
【0026】また、上記目的を達成するために、本発明
の請求項16に記載の画像処理装置は、請求項10乃至
15のいずれかに記載の画像処理装置において、前記表
示手段は、HMD(ヘッドマウントディスプレイ)であ
ることを特徴とする。
【0027】また、上記目的を達成するために、本発明
の請求項17に記載の記憶媒体は、実写画像とCG(コ
ンピュータグラフィックス)画像とを処理する画像処理
装置を制御するためのコンピュータ読み取り可能な制御
プログラムを格納した記憶媒体であって、演技者等の被
写体の位置・姿勢を測定するトラッキング工程と、前記
トラッキング工程により得られた位置・姿勢を前記被写
体の画像に重畳されるCG(コンピュータグラフィック
ス)データに反映させるCGデータ反映工程とをコンピ
ュータに実行させるためのプログラムコードを備えたこ
とを特徴とする。
【0028】また、上記目的を達成するために、本発明
の請求項18に記載の記憶媒体は、実写画像とCG(コ
ンピュータグラフィックス)画像とを処理する画像処理
装置において、演技者等の被写体の位置・姿勢を測定
し、測定された位置・姿勢を前記被写体の画像に重畳さ
れるCG画像に反映させて表示手段に表示させるための
画像生成処理を制御するためのコンピュータ読み取り可
能な制御プログラムを格納した記憶媒体であって、前記
被写体を撮影手段により撮影する撮影工程と、前記撮影
手段の視点からのCG画像を前記撮影手段の撮影パラメ
ータと前記表示手段の表示パラメータに基づいて作成す
るCG画像作成工程と、前記撮影手段により撮影された
前記被写体の実写画像に、前記CG画像作成工程により
作成されたCG画像を合成して前記表示手段に表示する
画像合成工程と、前記画像合成工程において、前記CG
画像の存在可能領域を制限する禁則領域処理工程とを有
し、これらの各工程をコンピュータに実行させるための
プログラムコードを備えたことを特徴とする。
【0029】また、上記目的を達成するために、本発明
の請求項19に記載の記憶媒体は、請求項18に記載の
記憶媒体において、さらに、背景を構成するセット工程
と、出演者や撮影に関わる人が装着する表示手段により
画像を表示する表示工程と、前記CG画像を生成するた
めのシナリオ情報を管理するシナリオ管理工程とを有す
ることを特徴とする。
【0030】また、上記目的を達成するために、本発明
の請求項20に記載の記憶媒体は、請求項18に記載の
記憶媒体において、前記撮影パラメータは、前記撮影手
段の撮影位置であることを特徴とする。
【0031】また、上記目的を達成するために、本発明
の請求項21に記載の記憶媒体は、請求項18に記載の
記憶媒体において、前記撮影パラメータは、前記撮影手
段の撮影方向であることを特徴とする。
【0032】また、上記目的を達成するために、本発明
の請求項22に記載の記憶媒体は、請求項18に記載の
記憶媒体において、前記表示パラメータは、前記表示手
段の表示位置であることを特徴とする。
【0033】また、上記目的を達成するために、本発明
の請求項23に記載の記憶媒体は、請求項18に記載の
記憶媒体において、前記表示パラメータは、前記表示手
段の表示方向であることを特徴とする。
【0034】また、上記目的を達成するために、本発明
の請求項24に記載の記憶媒体は、請求項18乃至23
のいずれかに記載の記憶媒体において、前記表示手段
は、HMD(ヘッドマウントディスプレイ)であること
を特徴とする。
【0035】また、上記目的を達成するために、本発明
の請求項25に記載のプログラムは、実写画像とCG
(コンピュータグラフィックス)画像とを処理する画像
処理装置を制御するためのコンピュータ読み取り可能な
プログラムであって、演技者等の被写体の位置・姿勢を
測定するトラッキング工程と、前記トラッキング工程に
より得られた位置・姿勢を前記被写体の画像に重畳され
るCG(コンピュータグラフィックス)データに反映さ
せるCGデータ反映工程とをコンピュータに実行させる
ためのプログラムコードから成ることを特徴とする。
【0036】また、上記目的を達成するために、本発明
の請求項26に記載のプログラムは、実写画像とCG
(コンピュータグラフィックス)画像とを処理する画像
処理装置において、演技者等の被写体の位置・姿勢を測
定し、測定された位置・姿勢を前記被写体の画像に重畳
されるCG画像に反映させて表示させるための画像生成
処理を制御するためのコンピュータ読み取り可能な制御
プログラムであって、前記被写体を撮影手段により撮影
する撮影工程と、前記撮影手段の視点からのCG画像を
前記撮影手段の撮影パラメータと前記表示手段の表示パ
ラメータに基づいて作成するCG画像作成工程と、前記
撮影手段により撮影された前記被写体の実写画像に、前
記CG画像作成工程により作成されたCG画像を合成し
て前記表示手段に表示する画像合成工程と、前記画像合
成工程において、前記CG画像の存在可能領域を制限す
る禁則領域処理工程とを有し、これらの各工程をコンピ
ュータに実行させるためのプログラムコードからなるこ
とを特徴とする。
【0037】また、上記目的を達成するために、本発明
の請求項27に記載のプログラムは、請求項26に記載
のプログラムにおいて、さらに、背景を構成するセット
工程と、出演者や撮影に関わる人が装着する表示手段に
より画像を表示する表示工程と、前記CG画像の生成す
るためのシナリオ情報を管理するシナリオ管理工程を有
することを特徴とする。
【0038】また、上記目的を達成するために、本発明
の請求項28に記載のプログラムは、請求項26に記載
のプログラムにおいて、前記撮影パラメータは、前記撮
影手段の撮影位置であることを特徴とする。
【0039】また、上記目的を達成するために、本発明
の請求項29に記載のプログラムは、請求項26に記載
のプログラムにおいて、前記撮影パラメータは、前記撮
影手段の撮影方向であることを特徴とする。
【0040】また、上記目的を達成するために、本発明
の請求項30に記載のプログラムは、請求項26に記載
のプログラムにおいて、前記表示パラメータは、前記表
示手段の表示位置であることを特徴とする。
【0041】また、上記目的を達成するために、本発明
の請求項31に記載のプログラムは、請求項26に記載
のプログラムにおいて、前記表示パラメータは、前記表
示手段の表示方向であることを特徴とする。
【0042】また、上記目的を達成するために、本発明
の請求項32に記載のプログラムは、請求項26乃至3
1のいずれかに記載のプログラムにおいて、前記表示手
段は、HMD(ヘッドマウントディスプレイ)であるこ
とを特徴とする。
【0043】
【発明の実施の形態】以下、本発明の各実施の形態を、
図面に基づき説明する。
【0044】(第1の実施の形態)まず、本発明の第1
の実施の形態を図1乃至図16に基づき説明する。
【0045】図1は、本実施の形態に係る画像処理装置
のシステム構成を示す図であり、同図において、101
は撮影場所となる撮影スタジオ(MRスタジオ)、10
2はスタジオ101に置かれたセット、103は演技
者、104は撮影用のカメラ(撮影手段)、105は演
技者103の装着する頭部装着型ディスプレイ装置(H
ead−Maunted Display、以下、HM
Dと記述する)、106はHMD105に組み込まれた
位置センサー(表示パラメータ取得手段)、107は演
技者103の見る映像及びカメラ104の撮影映像に重
畳される仮想物体、108は演技者103の見る映像を
生成する映像生成装置、109はカメラ104の撮影映
像に仮想物体107の映像を重畳する映像重畳装置、1
10は仮想物体107の状態を管理・操作するオペレー
タ装置、111は映像生成装置108、映像重畳装置1
09及びオペレータ装置110を接続するネットワー
ク、112は映像重畳装置109の出力を蓄積するビデ
オ装置、113は映像重畳装置109の出力を発信或い
は放映する伝送装置である。
【0046】位置センサー106としては、例えば磁気
方式の位置・方位センサー、米国ポヒマス社のFast
rak等の装置が利用可能である。また、映像生成装置
108若しくは映像重畳装置109は、PC(パーソナ
ルコンピュータ)とビデオキャプチャカード及びCG描
画機能を有するビデオカードで構成することができる。
更に、オペレータ装置110は、一般のPCで構成する
ことができる。
【0047】HMD105及び映像生成装置108等
は、演技者或いは同時観察するスタッフの人数に応じて
増やすことができ、カメラ104及び映像重畳装置10
9等は、撮影用のカメラの数に応じて増やすことが可能
である。
【0048】図2は、HMD105の内部構成を示す図
である。このHMD105は、表示装置であると共に撮
像装置の機能も持つもので、外部から入ってくる光線を
画像センサーに導く第1のプリズム光学素子201、光
線を受けて撮像する撮像素子202、映像を提示する表
示素子203及び表示映像を目に導く第2のプリズム光
学素子204等から構成される。
【0049】図1に示すように、撮影スタジオ101に
はセット102が置かれ、その中で演技者103が演技
する。演技者103はHMD105を装着し、このHM
D105には位置センサー106が組み込まれ、その位
置センサー106は位置情報を出力する。同時に、HM
D105には外界を撮影するカメラが組み込まれ、撮影
された映像データを映像生成装置108に出力する。オ
ペレータ装置110は、オペレータの操作により仮想物
体107を表示したり、動かしたりする指示を受け、こ
れをネットワーク111を介して、映像生成装置108
及び映像重畳装置109に伝達する。
【0050】映像生成装置108は、指示された仮想物
体107の状態と位置センサー106等から得られる頭
部の位置情報に対応してCG映像を生成し、これをHM
D105から得られる撮像データと合成し、その合成映
像をHMD105へ出力・表示する。演技者103はH
MD105に映る映像を見ることにより、恰も仮想物体
107がセット102内にあるように観察することがで
きる。カメラ104は、演技者103やセット102を
含む撮影スタジオ101の様子を撮像し、その撮影デー
タを映像重畳装置109に出力する。映像重畳装置10
9は、オペレータ装置110からの指示による仮想物体
107の状態とカメラ104の位置・姿勢に対応したC
G映像を生成し、これをカメラ104から得られる映像
データと合成することにより、出力映像を作成・表示す
る。この出力映像は、ビデオ装置112で録画された
り、伝送装置113で放映されたりすることで用いられ
る。
【0051】図3は、図1に示す本実施の形態に係る画
像処理装置の動作の詳細を示すブロック図である。
【0052】図3において、301は所謂シースルー機
能を持つHMDで、撮像部と画像表示部とを有する。3
02は第1の画像合成手段で、HMD301の撮像部で
撮影した映像と後述する第1のCG描画手段303によ
り生成したCG映像とを合成する。303はHMD30
1の視点からのCG映像を描画する第1のCG描画手
段、304はCGオブジェクトの存在範囲を制御する禁
則領域処理手段、305はシナリオ管理手段で、CG描
画に必要なシナリオ進行とシナリオ情報とを管理する。
306は位置センサー等を含む位置合わせ手段、307
はCGデータ管理手段で、CG描画に必要なCGデータ
を管理する。308はカメラ等の撮影手段、309は第
2の画像合成手段で、撮影手段308により撮影した映
像と後述する第2のCG描画手段310により生成した
CG映像とを合成する。310は撮影手段308の視点
からのCG映像を描画する第2のCG描画手段、311
は画像表示手段で、合成画像を表示する。
【0053】HMD301で撮像された画像は、第1の
画像合成手段302で第1のCG描画手段303の生成
したCGシーン画像と合成された後、HMD301に表
示されることになる。この際、HMD301で撮像され
た画像は、一旦位置合わせ手段306に送られ、この位
置合わせ手段306は、その情報と位置センサー106
(図1参照)等から得られるトラッキング情報を元にH
MD(即ち、頭部)の位置・方向を計算し、第1のCG
描画手段303に伝達する。
【0054】第1のCG描画手段303は、位置合わせ
手段306から得られる頭部の位置・方向情報と、第1
のCGデータ管理手段307から得られるCGデータと
を元にHMD301視点からのCG画像を描画する。シ
ナリオ管理手段305は、禁則領域処理手段304から
得られる情報とシナリオ進行状況、即ち、リハーサルや
演技の進行状況或いはオペレータの指示等に従い、シー
ン構成に必要なシナリオ情報を第1のCGデータ管理手
段307に伝達し、この第1のCGデータ管理手段30
7は、これに応じたCGデータを第1のCG描画手段3
03若しくは第2のCG描画手段310に指示する。
【0055】撮影手段308から得られる画像に対する
処理も同様であり、撮影手段308で撮影された画像
は、第2の画像合成手段309で第2のCG描画手段3
10の生成したCG画像と合成され、得られた合成画像
は画像表示手段311に表示されることになる。この
際、撮影手段308で撮像された画像は、位置合わせ手
段306に送られ、この位置合わせ手段306は、その
情報と位置センサー106等から得られるトラッキング
情報を元に撮影手段(即ち、カメラ)308の位置、方
向を計算し、その結果を第2のCG描画手段310に伝
達する。第2のCG描画手段310は、位置合わせ手段
306から得られるCGデータを元に撮影手段(即ち、
カメラ)308の視点からのCG映像を描画する。
【0056】また、位置合わせ手段306は、得られた
HMD(即ち、頭部)105(図1参照)の位置・方向
データと撮影手段(即ち、カメラ)308の位置・方向
データとを禁則領域処理手段304に伝達し、この禁則
領域処理手段304は、これらのデータからCGオブジ
ェクトの存在すべき範囲を決定し、シナリオ管理手段3
05は、前記CGオブジェクトの存在すべき範囲に応じ
て、CGオブジェクトの位置を修正するようになってい
る。
【0057】シナリオ管理手段305の管理するCG描
画に必要な情報は、表示されるキャラクター毎に、表示
するCGモデルの番号、基準となる位置・姿勢のデー
タ、動作の種類を示す番号、動作に付随するパラメータ
等である。シナリオはシーン単位で管理されており、各
シーンではキャラクターの持つパワー、状態等のステー
タス値とオペレータからの操作入力、演技者の動き等に
応じて上述のデータの組が選択される。例えば、ランダ
ムに選択されたキャラクターの種類とそのキャラクター
のパワー値(これはゲームの進行によるポイントで加減
される)により表示するCGモデルの番号が決定する。
オペレータはキャラクターの移動及び回転等に必要な情
報を入力し、これで基準となる位置・姿勢・動作でキャ
ラクターの動作及びそのパラメータが決定される。
【0058】なお、上述の位置・姿勢については、禁則
領域処理により補正される。
【0059】また、HMD105が外界を透過的に見ら
れるように構成することにより、シースルー機能を実現
すること(光学シースルー方式)も可能であり、この場
合には、上述の第1の画像合成手段302は不要とな
る。
【0060】また、位置合わせ手段306は、例えば、
機械式のエンコーダ等、三次元での位置・姿勢を検出す
る手段から構成することや、前述した磁気方式の位置セ
ンサー或いは画像認識等による位置合わせから構成する
ことができる。また、撮影手段308に対する位置合わ
せ手段とHMD105に対する位置合わせ手段として
は、別々のものを用いることも可能である。
【0061】図4は、機械式エンコーダを用いたカメラ
装置の一例を示す図である。同図において、401はカ
メラ、402はカメラ401を載置した台車、403は
ロータリーエンコーダ等の計測装置で、各ジョイントに
設けられている。そして、計測装置403により、台車
402の位置からカメラ401の位置及び方位を計測し
て出力することができる。
【0062】なお、図3における第2の画像合成手段3
09からの出力をカメラ401のファインダ部に出すこ
とも可能であり、これによりカメラマンにも仮想の世界
を合わせたカメラワークが可能となる。
【0063】図5は、磁気式の位置・方位センサーを用
いた手持ちのカメラ装置の一例を示す図である。
【0064】同図において、501はカメラで、このカ
メラ501には磁気の受信機(計測器)502が固定的
に装着されている。そして、受信器502により計測さ
れた磁気状態から、カメラ501の三次元的な位置及び
方位を計算するようになっている。前述したように、こ
のように用いることができる機器として、例えば、米国
ポヒマス社のFastrakといった装置がある。
【0065】503はHMDで、このHMD503につ
いてもカメラ501と同様の方法で位置・方位を計算す
るようになっている。このような手持ちのカメラ装置の
場合には、カメラマンはHMD503(或いはその片目
版)を装着し、このHMD503に画像合成手段の出力
を表示することで、仮想の世界に合わせたカメラワーク
が可能となる。
【0066】なお、ズーム可能なカメラ装置の場合煮
は、ズームレンズのズーム情報も外部の処理装置に伝達
する。
【0067】CGデータ管理手段307には、CGの三
次元モデルやアニメーションデータ、実写映像等の画像
データが記録されており、たとえば、CGキャラクター
の三次元アニメーションデータ等が記録されている。そ
して、シナリオ管理手段305から受け取ったキャラク
ター毎の表示するCGモデルの番号、基準となる位置・
姿勢のデータ、動作の種類を示す番号、動作に付随する
パラメータ等に従って、表示すべきCGモデルやアニメ
ーションを選択し、位置・姿勢、その他のパラメータを
設定することで、CG描画に用いるシーングラフを変更
する。
【0068】シナリオ管理手段305は、演技の補助に
必要な台本・台詞・説明等の情報を蓄え、シーンに応じ
て必要な情報をCGデータ管理手段307に送り、この
CGデータ管理手段307は、これらの情報を第1のC
G描画手段303及び第2のCG描画手段310に指示
する。シーンの進行は、任意のユーザインタフェース
(マウス、キーボード、音声入力等)を用いて行われ
る。
【0069】次に、図1における、演技者103の装着
したHMD105に表示される映像が作成される動作に
ついて、図1及び図6を用いて説明する。
【0070】図6は、図1における、演技者103の装
着したHMD105に表示される映像が作成される動作
の流れを示すフローチャートであり、同図において、ス
テップS610〜ステップS612は、近年当該分野で
一般化した並列処理プログラムの技法を用いて、別々に
並行動作するスレッドとして実装されるものである。
【0071】また、図6に示す処理は、動き出すと、割
り込みが入るまでは無限ループで動作し、割り込みが入
ると他の処理に移行する。
【0072】映像生成装置108内での処理プロセス
は、まず、オペレータ装置110から得られた指示に応
じて、CGを描画するための状態フラグ(表示物体の種
類、位置、状態)を更新する処理である内部状態更新処
理を行う(ステップS601)。次いで、頭部位置の決
定処理から得られる頭部位置情報を内部に取り込む(ス
テップS602)。次いで、ビデオキャプチャカードか
ら得られた最新の画像を背景画像として取り込む(ステ
ップS603)。次いで、背景画像の上に前記ステップ
S601において設定された内部状態に応じてCGデー
タを更新し、前記ステップS602において設定された
頭部位置をCG生成の仮想カメラとしてCGを描画する
(ステップS604)。最後に、描画結果の合成画像を
表示するCGコマンドをビデオカードに与えることで、
HMD105に合成画像が表示される(ステップS60
5)。その後、前記ステップS601へ戻る。
【0073】ここで、ステップS610はオペレータ装
置110からの指示データがネットワーク111を介し
て送信されてくるのを受け取るスレッドである。また、
ステップS611は位置センサー106からの情報を受
け取り、ビデオキャプチャカードから得られる画像デー
タと合わせて頭部の位置を決定するスレッドである。更
に、ステップS612は定期的にビデオキャプチャカー
ドから画像データを読み出す画像キャプチャスレッドで
ある。
【0074】次に、頭部位置決定動作について、図1及
び図7を用いて説明する。
【0075】図7は、頭部位置決定動作の流れを示すフ
ローチャートであり、同図において、ステップS710
は位置センサー106からのデータ読み込みのスレッ
ド、ステップS711はマーカー位置の通知を受け取る
スレッドである。
【0076】ここで、位置センサー106からのデータ
は、通常のRS232Cのポートへのデータ通信であ
り、ステップS710では、このポートのデータを定期
的に読み出している。また、ステップS711の通知
は、一般的なネットワーク通信プロトコル(TCP−I
P)で通信される。
【0077】また、図7に示す処理は、動き出すと、割
り込みが入るまでは無限ループで動作し、割り込みが入
ると他の処理に移行する。
【0078】映像生成装置108は、まず、位置センサ
ー106から得られる最新の位置情報に頭部位置を更新
する(ステップS701)。次いで、HMD105のカ
メラから得られた画像データから特定のマーカー画像を
認識することで、頭部位置の補正情報を得、これに応じ
て頭部の方向データを更新する(ステップS702)。
最後に、得られた頭部の位置(方向を含む)データを頭
部位置決定スレッドであるステップS711に受け渡す
(ステップS703)。その後、前記ステップS701
へ戻る。
【0079】ここで、頭部の方向の補正は、まず、位置
センサー106から得られたワールド座標系での頭(視
点)の三次元位置及び方位とマーカーの三次元位置か
ら、マーカーが画像中のどこに見えるかの予測値(x
0,y0)を計算する。次いで、この予測値(x0,y
0)から画像中の実際のマーカー位置(x1,y1)に
向かう移動ベクトルを計算する。最後に、この移動ベク
トルを見込む角度を補正値として、これに相当する分だ
け頭部の方位を回転させた値をHMD105の方向とし
て出力する。
【0080】図8は、位置計測に用いるために、スタジ
オ内に貼り込むマーカーの一例を示す図である。マーカ
ーには単色のものを用いることも可能であるが、本実施
の形態においては、3つの色票801,802,803
からなり、それぞれ特定の大きさを持つ矩形の色票を特
定の位置関係に配置したものである。それぞれの色票8
01,802,803には、任意の色を選ぶことができ
る。このように構成することにより、より多種類のマー
カーを安定的に検出することが可能となる。
【0081】次に、マーカー位置決定動作について、図
1及び図9を用いて説明する。
【0082】図9は、マーカー位置決定動作の流れを示
すフローチャートであり、同図において、ステップS9
10は画像認識の対象となる画像データを得るステップ
であり、画像キャプチャカードから画像を定期的に読み
出すスレッドとなっている。
【0083】また、図9に示す処理は、動き出すと、割
り込みが入るまでは無限ループで動作し、割り込みが入
ると他の処理に移行する。
【0084】映像生成装置108或いは映像重畳装置1
09は、まず、最新の画像データを更新する(ステップ
S901)。次いで、登録されたマーカーを判別するた
めの幾つかの色情報によって画像を閾値処理する(ステ
ップS902)。次いで、得られた2値画像を連結化し
てラベリング処理する(ステップS903)。次いで、
各ラベルの領域の面積を計数し(ステップS904)、
重心位置を計算する(ステップS905)。次いで、各
ラベルの面積とラベル間の重心位置との関係から、登録
されたマーカーのパターンと一致するか否かを判定する
(ステップS906)。最後に、前記ステップS906
において判定された中心のラベルの重心をもってマーカ
ー位置として出力する(ステップS907)。その後、
前記ステップS901へ戻る。
【0085】ここで、前記ステップS907において出
力されたマーカー位置の情報は、HMD105或いはカ
メラ104の方位の補正に利用され、HMD105・カ
メラ104の位置及び方位の情報をCGレンダリングの
際の仮想カメラの位置・方位とすることで、現実世界と
位置合わせされたCG画像が生成される。
【0086】次に、映像重畳装置109の映像処理動作
について、図1及び図10を用いて説明する。
【0087】図10は、映像重畳装置109の処理動作
の流れを示すフローチャートであり、同図において、ス
テップS1010〜ステップS1012は近年当該分野
で一般化した並列処理プログラムの技法を用いて、別々
に並行動作するスレッドとして実装されるものである。
【0088】また、図10に示す処理は、動き出すと、
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
【0089】映像重畳装置109内での処理プロセス
は、まず、オペレータ装置110から得られた指示に応
じて、CGを描画するための状態フラグ(表示物体の種
類、位置、状態)を更新する処理である内部状態更新処
理を行う(ステップS1001)。次いで、カメラ位置
の決定処理から得られるカメラ位置情報を内部に取り込
む(ステップS1002)。次いで、ビデオキャプチャ
カードから得られた最新の画像を背景画像として取り込
む(ステップS1003)。次いで、背景画像の上に前
記ステップS1001において設定された内部状態に応
じてCGデータを更新し、前記ステップS1002にお
いて設定されたカメラ位置をCG生成の仮想カメラとし
てCGを描画する(ステップS1004)。最後に、描
画結果のである合成画像を表示するCGコマンドをビデ
オカードに与えることで、HMD105に合成画像が表
示される(ステップS1005)。その後、前記ステッ
プS1001へ戻る。
【0090】ここで、ステップS1010はオペレータ
装置110からの指示データがネットワーク111を介
して送信されてくるのを受け取るスレッドである。ま
た、ステップS1011は図4或いは図5のカメラ装置
からの情報を受け取り、ビデオキャプチャカードから得
られる画像データと合わせてカメラの位置を決定するス
レッドである。更に、ステップS1012は定期的にビ
デオキャプチャカードから画像データを読み出す画像キ
ャプチャスレッドである。
【0091】なお、本実施の形態では、映像生成装置3
08及び映像重畳装置309の出力であるリアルタイム
の合成映像を装置全体の出力としているが、撮像手段
(或いはHMD)から得られる映像データと撮像手段
(或いはHMD)の位置・姿勢を示すデータの両者を分
岐して出力することで、所謂ポストプロダクション(時
間をかけて後処理で最終生成物となるビデオ映像を作成
する工程)で用いるデータを同時に得ることができる。
【0092】また、映像生成装置108或いは映像重畳
装置109、オペレータ装置110を構成するハードウ
ェアは、一般的なコンピュータと周辺機器との組み合わ
せで実現できる。
【0093】図11は、映像生成装置108のハードウ
ェア構成の一例を示すブロック図である。同図におい
て、1101は入力手段であるマウス、1102は同じ
く入力手段であるキーボード、1103は画像を表示す
るディスプレイ装置、1104は画像を表示すると共に
画像を撮像するHMD、1105は周辺コントローラ、
1106は位置センサーとの間の情報授受のためのシリ
アル・インターフェース(I/F)、1107はプログ
ラムによる各種の処理を実行するCPU(中央演算処理
装置)、1108はメモリ、1109はネットワーク・
インターフェース(I/F)、1110はプログラムを
記憶媒体からロードするためのハードディスク(HD)
装置、1111はプログラムを記憶媒体からロードする
ためのフロッピー(登録商標)ディスク(FD)装置、
1112は画像キャプチャカード、1113はビデオグ
ラフィックカードである。
【0094】なお、映像重畳装置109の場合には、H
MD1104の代わりに撮影装置(カメラ)からの入力
を受け、画像表示装置であるディスプレイ装置1103
へ映像信号を出力する。また、オペレータ装置110の
場合には、HMD1104及び画像キャプチャカード1
112は不要となる。
【0095】本発明の実施の形態を実現するためのプロ
グラムは、FD装置やネットワーク等を介してプログラ
ム記憶媒体からロードすることができる。
【0096】次に、本実施の形態に係る画像処理装置に
おけるオペレータ装置110の動作を、図1及び図12
に基づき説明する。
【0097】図12は、本実施の形態に係る画像処理装
置におけオペレータ装置110の処理動作の流れを示す
フローチャートであり、同図において、ステップS12
10は、ユーザ入力スレッドである。
【0098】また、図12に示す処理は、動き出すと、
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
【0099】オペレータ装置110は、まず、ステップ
S1210におけるユーザ入力処理によるユーザからの
入力操作を受け取り(ステップS1201)、これに応
じて内部状態(シナリオの進行ポインタ、表示モード
等)を更新する(ステップS1202)。次いで、カメ
ラ104及び演技者103の位置情報から禁則領域を決
定し、CGによる仮想オブジェクトがこの領域内に入ら
ないに位置データを更新する(ステップS1203)。
次いで、更新された状態の情報を映像生成装置108や
映像重畳装置109に伝達する(ステップS120
4)。その後は、前記ステップS1201へ戻る。
【0100】前述したようにユーザからの入力操作は、
マウスやキーボード等の入力装置若しくは音声入力やジ
ェスチャーコマンド等を介して行うことができる。
【0101】ここで、禁則領域処理は、仮想のCGオブ
ジェクトと実在のオブジェクトの隠れ関係等が不自然に
ならないように、CGオブジェクトの存在可能領域を制
限する処理である。隠れ関係については、固定の実在オ
ブジェクトの場合には前もって実在オブジェクトと同じ
形状及び位置・方向にCGオブジェクトを設定し、実在
オブジェクトに対するCGオブジェクトの領域には実写
映像を用い、仮想オブジェクトのレンダリングの際には
設定した実在オブジェクトに対応するCGオブジェクト
との隠面処理を行うことにより、仮想オブジェクトの実
在オブジェクトによる隠れは正しく処理される。
【0102】一方、演技者等のように、移動したり変形
したりする場合には、そのオブジェクトが占める空間領
域を確定することは容易ではない。そして、実在の演技
者等と仮想のオブジェクトが接近したり、前後したりし
た場合に、隠れ関係を正しく処理できないと、見えない
はずのものが見えたり、前後関係が逆転して見えたりと
いったように、大きな視覚的な障害となる。
【0103】本発明では、そのような不自然な見え方が
発生する可能性のある領域(禁則領域)を特定し、その
ような領域に仮想オブジェクトが侵入する場合には、そ
の位置を禁則領域外に修正することにより、視覚的な障
害を取り除くことができる。
【0104】図13は、スタジオを上から鳥瞰した状況
で、最も単純な禁則領域を示す図であり、同図におい
て、1301は撮影手段(カメラ)、1302及び13
03は演技者或いは移動する実在オブジェクト、130
4は演技者等の周辺領域、1305は固定的な実在のオ
ブジェクト(スタジオセット)である。
【0105】ここで、例えば、カメラ1301と演技者
1302とを結ぶ直線上を演技者1302から周辺領域
1304の半径分だけカメラ1301側に偏位した点を
通る直線と直交する直線AA′を計算すると、直線直線
AA′で区分された空間のカメラ1301のない方が禁
則領域となる(実際には禁則領域を含む領域となるが、
視覚的な障害を取り除くという点では実用上全く問題が
ない)。同様に、その他の対象オブジェクト1303に
対する区分直線BB′とその禁則領域も計算でき、これ
らの和集合領域として全体の禁則領域が決定される。
【0106】次に、本実施の形態に係る画像処理装置に
おける禁則領域処理手段304の禁則領域計算処理動作
を、図13及び図14に基づき説明する。
【0107】図14は、本実施の形態に係る画像処理装
置におけ禁則領域処理手段304の禁則領域計算処理動
作の流れを示すフローチャートであり、同図において、
ステップS1410及びステップS1411は、近年当
該分野で一般化した並列処理プログラムの技法を用い
て、別々に並行動作するスレッドとして実装されるもの
である。
【0108】また、図14に示す処理は、動き出すと、
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
【0109】まず、カメラ1301の位置情報が最新の
カメラ位置に更新され(ステップS1401)、次い
で、演技者(プレイヤー)1302の位置情報が最新の
プレイヤー位置に更新される(ステップS1402)。
続いて、これらの情報から領域区分直線が計算され(ス
テップS1403)、仮想オブジェクトの領域区分直線
からの距離が計算される(ステップS1404)。この
値の正負の符号で禁則領域内か否かを判断し、禁則領域
内の場合には、最も近い領域外の点(これはカメラ13
01と仮想オブジェクトとを結ぶ直線と領域区分直線の
交点として計算できる)に仮想オブジェクトの位置を修
正する(ステップS1405)。その後、前記ステップ
S1401へ戻る。
【0110】図15は、厳密な禁則領域を示す図で、同
図において図13と同一部分には同一符号が付してあ
る。
【0111】ここでは、カメラ1301から発し、演技
者1302等の周辺領域1304を示す円弧と接する直
線OC,OD,OE,OFが示されている。厳密な禁則
領域は、例えば、演技者1302の周辺領域1304と
直線OC・ODで囲まれる領域の円弧1304よりカメ
ラ1301から見て遠方となる領域の和集合となる。こ
のような領域についても初等数学で簡単に計算できる。
処理速度が許すならば、このような計算にすることも可
能である。
【0112】図16は、スタジオを側面から見た状態
で、禁則領域を示す図であり、同図において、図13と
同一部分には同一符号が付してある。
【0113】ここで、演技者1302等の位置から、そ
の禁則領域の高さを推定することができ、これと接する
直線(実際には横方向に延びる平面)、例えば、直線O
K,OLで領域区分直線が計算される。この上下方向に
関する計算の場合には、領域区分直線OK,OLの区分
する2つの領域で演技者1302等の実体が存在する側
が禁則領域となる。
【0114】以上のように本実施の形態によれば、ダイ
ナミックに禁則領域を計算して仮想オブジェクトの位置
を制御することにより、撮影映像とCG映像等との実時
間での合成映像を体感するスタジオシステムにおいて、
良好な映像を得ることができる。
【0115】また、本発明における禁則領域の処理をリ
アルタイム処理でない用い方をした場合、カメラの移動
範囲と演技者の移動範囲とから可能性のある全ての禁則
領域の和をもって計算し、この領域に入らないように仮
想オブジェクトを制御することにより、実時間の計算を
省略することも可能である。
【0116】(第2の実施の形態)次に、本発明の第2
の実施の形態を、図17及び図18に基づき説明する。
【0117】図17は、本実施の形態に係る画像処理装
置のシステム構成を示す図であり、同図において、上述
した第1の実施の形態における図1と同一部分には同一
符号が付してある。
【0118】図17において図1と異なる点は、図1の
構成に仮想着ぐるみ1701、演技者トラッキング装置
1702を付加したことである。
【0119】仮想着ぐるみ1701は演技者103を覆
うものであり、また、演技者トラッキング装置1702
は演技者103の位置・姿勢を測定するものである。こ
の演技者トラッキング装置1702は、一般にモーショ
ントラッキング装置と呼ばれるもので、複数製品化され
ている。例えば、演技者の関節等、動きに関する特徴点
にマーカーを付け、それをビデオカメラで撮影し、前記
マーカーを追跡しながら書くマーカーの位置を算出する
もの或いは関節の位置にロータリーエンコーダを取り付
けたやぐら状の装置を装着するものである。また、位置
センサー106と同様のセンサーを動きに関する特徴点
に装着しても良い。更には、奥行きを撮影できるビデオ
カメラを用いて、身体の空間的連続性等から各部の位置
や姿勢を算出しても良い。
【0120】図18は、本実施の形態に係る画像処理装
置の動作の詳細を示すブロック図であり、同図におい
て、上述した第1の実施の形態における図3と同一部分
には同一符号が付してある。
【0121】図18において図3と異なる点は、図3の
構成に演技者トラッキング手段1801、CGキャラク
ターデータ1802、CGキャラクターデータ反映手段
1803を付加したことである。
【0122】図18において、演技者トラッキング手段
1801は演技者の位置・姿勢情報を演技者トラッキン
グ装置1701から取得し、その結果を位置合わせ手段
306に伝達する。位置合わせ手段306は、その情報
から演技者103の位置や姿勢を計算し、禁則領域処理
手段304を経由してシナリオ管理手段305に伝達す
る。シナリオ管理手段305は、CGキャラクターデー
タ反映手段1803を持つ。CGキャラクターデータ反
映手段1803は、演技者103の位置や姿勢を該演技
者103の仮想きぐるみ1701の位置や姿勢に対応付
ける。その対応付けの結果はCGデータ管理手段307
に伝達され、このCGデータ管理手段307が管理する
CGキャラクターデータ1802に対して変形等の操作
が行なわれる。その結果第2のCG描画手段310、第
2の画像合成手段309、画像表示手段311を通じて
生成・表示される画像には、演技者103は仮想着ぐる
み1701の内部にいるので、完全に隠蔽され、恰も仮
想着ぐるみ1701が動いているように表示される。
【0123】なお、本発明の目的は、上記実施の形態の
機能を実現するソフトウェアのプログラムコードを記録
した記憶媒体を、システム或いは装置に供給し、そのシ
ステム或いは装置のコンピュータ(またはCPUやMP
U等)が記憶媒体に格納されたプログラムコードを読み
出して実行することによっても達成されることは言うま
でもない。
【0124】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した各実施の形態の機能を実現
することになり、そのプログラムコードを記憶した記憶
媒体は本発明を構成することになる。
【0125】また、プログラムコードを供給するための
記憶媒体としては、例えば、フロッピーディスク、ハー
ドディスク、光磁気ディスク、CD−ROM、CD−
R、CD−RW、DVD−ROM、DVD−RAM、D
VD−RW、DVD+RW、磁気テープ、不揮発性のメ
モリカード、ROM等を用いることができる。
【0126】また、コンピュータが読み出したプログラ
ムコードを実行することにより、上記各実施の形態の機
能が実現されるだけでなく、そのプログラムコードの指
示に基づき、コンピュータ上で稼動しているOS(オペ
レーティングシステム)等が実際の処理の一部または全
部を行い、その処理によって前述した各実施の形態の機
能が実現される場合も含まれることは言うまでもない。
【0127】更に、記憶媒体から読み出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書き込まれた後、そのプログラムコードの指示
に基づき、その機能拡張ボードや機能拡張ユニットに備
わるCPU等が実際の処理の一部または全部を行い、そ
の処理によって前述した実施の形態の機能が実現される
場合も含まれることは言うまでもない。
【0128】
【発明の効果】以上説明したように本発明によれば、演
技者よりも極端に大きなキャラクターやシナリオの進行
に応じて大きさ、色、材質、形状等の変化するキャラク
ターを演じることができ、また、着ぐるみを装着してい
る演技者及びその演技者と共に演じる演技者にとって臨
場感をもたせることができ、また、前記着ぐるみのキャ
ラクターの物理特性を自由に設定することができ、ま
た、現実の着ぐるみの場合に問題となっていたキャラク
ターの機敏な動きの制限を緩和することができ、更に、
現実の着ぐるみの場合における蒸し暑さからくる演技者
への負担を取り除き、長時間に渉る撮影の困難性を緩和
することができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る画像処理装置
を具備したスタジオのシステム構成を示す図である。
【図2】本発明の第1の実施の形態に係る画像処理装置
におけるHMDの内部構成を示す図である。
【図3】本発明の第1の実施の形態に係る画像処理装置
の動作の詳細を示す図である。
【図4】本発明の第1の実施の形態に係る画像処理装置
における機械式エンコーダを用いたカメラ装置の構成を
示す図である。
【図5】本発明の第1の実施の形態に係る画像処理装置
における磁気式の位置・方位センサーを用いた手持ちカ
メラ装置の構成を示す図である。
【図6】本発明の第1の実施の形態に係る画像処理装置
におけるHMDに表示される映像を作成する処理動作の
流れを示すフローチャートである。
【図7】本発明の第1の実施の形態に係る画像処理装置
における頭部位置を決定する処理動作の流れを示すフロ
ーチャートである。
【図8】本発明の第1の実施の形態に係る画像処理装置
におけるマーカーの一例を示す図である。
【図9】本発明の第1の実施の形態に係る画像処理装置
におけるマーカー位置を決定する処理動作の流れを示す
フローチャートである。
【図10】本発明の第1の実施の形態に係る画像処理装
置における映像重畳装置の動作を示すフローチャートで
ある。
【図11】本発明の第1の実施の形態に係る画像処理装
置における映像生成装置の構成を示すブロック図であ
る。
【図12】本発明の第1の実施の形態に係る画像処理装
置におけるオペレータ装置の処理動作の流れを示すフロ
ーチャートである。
【図13】本発明の第1の実施の形態に係る画像処理装
置を具備したスタジオを上から鳥瞰した状況で、最も単
純な禁則領域を示す図である。
【図14】本発明の第1の実施の形態に係る画像処理装
置における禁則領域処理手段の処理動作の流れを示すフ
ローチャートである。
【図15】本発明の第1の実施の形態に係る画像処理装
置を具備したスタジオを上から鳥瞰した状況で、厳密な
禁則領域を示す図である。
【図16】本発明の第1の実施の形態に係る画像処理装
置を具備したスタジオを側面から見た状態で、禁則領域
を示す図である。
【図17】本発明の第2の実施の形態に係る画像処理装
置を具備したスタジオのシステム構成を示す図である。
【図18】本発明の第2の実施の形態に係る画像処理装
置の動作の詳細を示す図である。
【符号の説明】
101 撮影スタジオ 102 セット 103 演技者 104 カメラ(撮影手段) 105 HMD(ヘッドマウントディスプレイ:表
示手段) 106 位置・姿勢センサー(撮影パラメータ取得
手段) 107 仮想物体 108 映像生成装置 109 映像重畳装置 110 オペレータ装置 111 ネットワーク 112 ビデオ装置 113 伝送装置(放送) 201 第1のプリズム光学素子 202 撮像素子 203 第2のプリズム光学素子 301 HMD 302 第1の画像合成手段 303 第1のCG描画手段 304 禁則領域処理手段 305 シナリオ管理手段 306 位置合わせ手段 307 CGデータ管理手段 308 撮影手段 309 第2の画像合成手段 310 第2のCG描画手段 311 画像表示手段 401 カメラ 402 台車 403 計測装置 501 カメラ 502 受信機(計測器) 503 HMD 801 色票 802 色票 803 色票 1101 マウス(入力手段) 1102 キーボード(入力手段) 1103 ディスプレイ装置 1104 HMD 1105 周辺コントローラ 1106 シリアル・インターフェース(I/F) 1107 CPU(中央演算処理装置) 1108 メモリ 1109 ネットワーク・インターフェース(I/
F) 1110 ハードディスク(HD)装置 1111 フロッピーディスク(FD)装置 1112 画像キャプチャカード 1113 ビデオグラフィックカード 1301 カメラ(撮影手段) 1302 演技者(プレイヤー)または移動する実在
オブジェクト 1303 演技者(プレイヤー)または移動する実在
オブジェクト 1304 演技者等の周辺領域 1305 固定的な実在オブジェクト 1701 仮想着ぐるみ 1702 演技者トラッキング装置 1801 演技者トラッキング手段 1802 CGキャラクターデータ 1803 CGキャラクターデータ反映手段
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA09 BA07 BA08 BA11 BA18 EA07 EA19 FA02 FA09 5B057 BA24 CA13 CB13 CC03 CE08 DA08 DA16 DB03 5C023 AA11 AA34 CA03

Claims (32)

    【特許請求の範囲】
  1. 【請求項1】 演技者等の被写体の位置・姿勢を測定す
    るトラッキング工程と、 前記トラッキング工程により得られた位置・姿勢を前記
    被写体の画像に重畳されるCG(コンピュータグラフィ
    ックス)データに反映させるCGデータ反映工程とを有
    することを特徴とする画像処理方法。
  2. 【請求項2】 演技者等の被写体の位置・姿勢を測定す
    るトラッキング手段と、 前記トラッキング手段により得られた位置・姿勢を前記
    被写体の画像に重畳されるCG(コンピュータグラフィ
    ックス)データに反映させるCGデータ反映手段とを有
    することを特徴とする画像処理装置。
  3. 【請求項3】 演技者等の被写体の位置・姿勢を測定
    し、測定された位置・姿勢を前記被写体の画像に重畳さ
    れるCG(コンピュータグラフィックス)データに反映
    させて表示手段に表示させるための画像処理方法であっ
    て、 撮影手段により前記被写体を撮影する撮影工程と、 前記撮影手段の視点からのCG画像を、前記撮影手段の
    撮影パラメータ及び前記表示手段の表示パラメータに基
    づいて作成するCG画像作成工程と、 前記撮影手段により撮影された前記被写体の実写画像
    に、前記CG画像作成工程により作成されたCG画像を
    合成して前記表示手段に表示する画像合成工程と、 前記画像合成工程において、前記CG画像の存在可能領
    域を制限する禁則領域処理工程とを有することを特徴と
    する画像処理方法。
  4. 【請求項4】 前記CG画像作成工程は、前記CGを生
    成するためのシナリオ情報を管理するシナリオ管理工程
    を有することを特徴とする請求項3に記載の画像処理方
    法。
  5. 【請求項5】 前記撮影パラメータは、前記撮影手段の
    撮影位置であることを特徴とする請求項3に記載の画像
    処理方法。
  6. 【請求項6】 前記撮影パラメータは、前記撮影手段の
    撮影方向であることを特徴とする請求項3に記載の画像
    処理方法。
  7. 【請求項7】 前記表示パラメータは、前記表示手段の
    表示位置であることを特徴とする請求項3に記載の画像
    処理方法。
  8. 【請求項8】 前記表示パラメータは、前記表示手段の
    表示方向であることを特徴とする請求項3に記載の画像
    処理方法。
  9. 【請求項9】 前記表示手段は、HMD(ヘッドマウン
    トディスプレイ)であることを特徴とする請求項3乃至
    7のいずれかに記載の画像処理方法。
  10. 【請求項10】 演技者等の被写体の位置・姿勢を測定
    し、測定された位置・姿勢を前記被写体の画像に重畳さ
    れるCG(コンピュータグラフィックス)データに反映
    させて表示手段に表示させるための画像処理装置であっ
    て、 前記被写体を撮影手段により撮影する撮影手段と、 前記撮影手段の視点からのCG画像を前記撮影手段の撮
    影パラメータ及び前記表示手段の表示パラメータに基づ
    いて作成するCG画像作成手段と、 前記撮影手段により撮影された前記被写体の実写画像
    に、前記CG画像作成手段により作成されたCG画像を
    合成して前記表示手段に表示する画像合成手段と、 前記画像合成手段の画像合成処理において、前記CG画
    像の存在可能領域を制限する禁則領域処理手段と、を有
    することを特徴とする画像処理装置。
  11. 【請求項11】 前記CG画像作成手段は、前記CGを
    生成するためのシナリオ情報を管理するシナリオ管理手
    段を有することを特徴とする請求項10に記載の画像処
    理装置。
  12. 【請求項12】 前記撮影パラメータは、前記撮影手段
    の撮影位置であることを特徴とする請求項10に記載の
    画像処理装置。
  13. 【請求項13】 前記撮影パラメータは、前記撮影手段
    の撮影方向であることを特徴とする請求項10に記載の
    画像処理装置。
  14. 【請求項14】 前記表示パラメータは、前記表示手段
    の表示位置であることを特徴とする請求項10に記載の
    画像処理装置。
  15. 【請求項15】 前記表示パラメータは、前記表示手段
    の表示方向であることを特徴とする請求項10に記載の
    画像処理装置。
  16. 【請求項16】 前記表示手段は、HMD(ヘッドマウ
    ントディスプレイ)であることを特徴とする請求項10
    乃至15のいずれかに記載の画像処理装置。
  17. 【請求項17】 実写画像とCG(コンピュータグラフ
    ィックス)画像とを処理する画像処理装置を制御するた
    めのコンピュータ読み取り可能な制御プログラムを格納
    した記憶媒体であって、 演技者等の被写体の位置・姿勢を測定するトラッキング
    工程と、 前記トラッキング工程により得られた位置・姿勢を前記
    被写体の画像に重畳されるCG(コンピュータグラフィ
    ックス)データに反映させるCGデータ反映工程とをコ
    ンピュータに実行させるためのプログラムコードを備え
    たことを特徴とする記憶媒体。
  18. 【請求項18】 実写画像とCG(コンピュータグラフ
    ィックス)画像とを処理する画像処理装置において、演
    技者等の被写体の位置・姿勢を測定し、測定された位置
    ・姿勢を前記被写体の画像に重畳されるCG画像に反映
    させて表示手段に表示させるための画像生成処理を制御
    するためのコンピュータ読み取り可能な制御プログラム
    を格納した記憶媒体であって、 前記被写体を撮影手段により撮影する撮影工程と、 前記撮影手段の視点からのCG画像を前記撮影手段の撮
    影パラメータと前記表示手段の表示パラメータに基づい
    て作成するCG画像作成工程と、 前記撮影手段により撮影された前記被写体の実写画像
    に、前記CG画像作成工程により作成されたCG画像を
    合成して前記表示手段に表示する画像合成工程と、 前記画像合成工程において、前記CG画像の存在可能領
    域を制限する禁則領域処理工程とを有し、これらの各工
    程をコンピュータに実行させるためのプログラムコード
    を備えたことを特徴とする記憶媒体。
  19. 【請求項19】 さらに、背景を構成するセット工程
    と、出演者や撮影に関わる人が装着する表示手段により
    画像を表示する表示工程と、前記CG画像を生成するた
    めのシナリオ情報を管理するシナリオ管理工程とを有す
    ることを特徴とする請求項18に記載の記憶媒体。
  20. 【請求項20】 前記撮影パラメータは、前記撮影手段
    の撮影位置であることを特徴とする請求項18に記載の
    記憶媒体。
  21. 【請求項21】 前記撮影パラメータは、前記撮影手段
    の撮影方向であることを特徴とする請求項18に記載の
    記憶媒体。
  22. 【請求項22】 前記表示パラメータは、前記表示手段
    の表示位置であることを特徴とする請求項18に記載の
    記憶媒体。
  23. 【請求項23】 前記表示パラメータは、前記表示手段
    の表示方向であることを特徴とする請求項18に記載の
    記憶媒体。
  24. 【請求項24】 前記表示手段は、HMD(ヘッドマウ
    ントディスプレイ)であることを特徴とする請求項18
    乃至23のいずれかに記載の記憶媒体。
  25. 【請求項25】 実写画像とCG(コンピュータグラフ
    ィックス)画像とを処理する画像処理装置を制御するた
    めのコンピュータ読み取り可能なプログラムであって、 演技者等の被写体の位置・姿勢を測定するトラッキング
    工程と、 前記トラッキング工程により得られた位置・姿勢を前記
    被写体の画像に重畳されるCG(コンピュータグラフィ
    ックス)データに反映させるCGデータ反映工程とをコ
    ンピュータに実行させるためのプログラムコードから成
    ることを特徴とするプログラム。
  26. 【請求項26】実写画像とCG(コンピュータグラフィ
    ックス)画像とを処理する画像処理装置において、演技
    者等の被写体の位置・姿勢を測定し、測定された位置・
    姿勢を前記被写体の画像に重畳されるCG画像に反映さ
    せて表示させるための画像生成処理を制御するためのコ
    ンピュータ読み取り可能な制御プログラムであって、 前記被写体を撮影手段により撮影する撮影工程と、 前記撮影手段の視点からのCG画像を前記撮影手段の撮
    影パラメータと前記表示手段の表示パラメータに基づい
    て作成するCG画像作成工程と、 前記撮影手段により撮影された前記被写体の実写画像
    に、前記CG画像作成工程により作成されたCG画像を
    合成して前記表示手段に表示する画像合成工程と、 前記画像合成工程において、前記CG画像の存在可能領
    域を制限する禁則領域処理工程とを有し、これらの各工
    程をコンピュータに実行させるためのプログラムコード
    からなることを特徴とするプログラム。
  27. 【請求項27】 さらに、背景を構成するセット工程
    と、出演者や撮影に関わる人が装着する表示手段により
    画像を表示する表示工程と、前記CG画像の生成するた
    めのシナリオ情報を管理するシナリオ管理工程を有する
    ことを特徴とする請求項26に記載のプログラム。
  28. 【請求項28】 前記撮影パラメータは、前記撮影手段
    の撮影位置であることを特徴とする請求項267に記載
    のプログラム。
  29. 【請求項29】 前記撮影パラメータは、前記撮影手段
    の撮影方向であることを特徴とする請求項26に記載の
    プログラム。
  30. 【請求項30】 前記表示パラメータは、前記表示手段
    の表示位置であることを特徴とする請求項26に記載の
    プログラム。
  31. 【請求項31】 前記表示パラメータは、前記表示手段
    の表示方向であることを特徴とする請求項26に記載の
    プログラム。
  32. 【請求項32】 前記表示手段は、HMD(ヘッドマウ
    ントディスプレイ)であることを特徴とする請求項26
    乃至31のいずれかに記載のプログラム。
JP2001071112A 2001-03-13 2001-03-13 画像処理方法、画像処理装置、記憶媒体及びプログラム Pending JP2002269585A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001071112A JP2002269585A (ja) 2001-03-13 2001-03-13 画像処理方法、画像処理装置、記憶媒体及びプログラム
PCT/JP2002/002344 WO2002073955A1 (en) 2001-03-13 2002-03-13 Image processing apparatus, image processing method, studio apparatus, storage medium, and program
US10/654,014 US20040041822A1 (en) 2001-03-13 2003-09-04 Image processing apparatus, image processing method, studio apparatus, storage medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001071112A JP2002269585A (ja) 2001-03-13 2001-03-13 画像処理方法、画像処理装置、記憶媒体及びプログラム

Publications (1)

Publication Number Publication Date
JP2002269585A true JP2002269585A (ja) 2002-09-20

Family

ID=18928881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001071112A Pending JP2002269585A (ja) 2001-03-13 2001-03-13 画像処理方法、画像処理装置、記憶媒体及びプログラム

Country Status (1)

Country Link
JP (1) JP2002269585A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130754B2 (en) 2002-03-19 2006-10-31 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
CN102096469A (zh) * 2011-01-21 2011-06-15 中科芯集成电路股份有限公司 一种多功能手势互动系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130754B2 (en) 2002-03-19 2006-10-31 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
CN102096469A (zh) * 2011-01-21 2011-06-15 中科芯集成电路股份有限公司 一种多功能手势互动系统

Similar Documents

Publication Publication Date Title
JP7068562B2 (ja) 拡張現実データを記録するための手法
US9299184B2 (en) Simulating performance of virtual camera
US20110181601A1 (en) Capturing views and movements of actors performing within generated scenes
US20040041822A1 (en) Image processing apparatus, image processing method, studio apparatus, storage medium, and program
US20080024523A1 (en) Generating images combining real and virtual images
KR20010074508A (ko) 스포츠 경기의 가상시야를 생성하기 위한 방법 및 장치
JP2002157607A (ja) 画像生成システム、画像生成方法および記憶媒体
US20070252833A1 (en) Information processing method and information processing apparatus
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2006012042A (ja) 画像生成方法及び装置
JP2003346190A (ja) 画像処理装置
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JP7387286B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2005157610A (ja) 画像処理装置および方法
JP2002269585A (ja) 画像処理方法、画像処理装置、記憶媒体及びプログラム
JP2002271692A (ja) 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム
WO2023145571A1 (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
JP7459199B1 (ja) 画像処理システム
WO2024070762A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2004013309A (ja) 情報処理方法および複合現実感提示装置
JPH10326357A (ja) 画像処理方法及び装置並びに画像処理用パネル並びに記録媒体
JP2022060058A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2024011831A (ja) 情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060414

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626