JP2002271692A - 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム - Google Patents
画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラムInfo
- Publication number
- JP2002271692A JP2002271692A JP2001071113A JP2001071113A JP2002271692A JP 2002271692 A JP2002271692 A JP 2002271692A JP 2001071113 A JP2001071113 A JP 2001071113A JP 2001071113 A JP2001071113 A JP 2001071113A JP 2002271692 A JP2002271692 A JP 2002271692A
- Authority
- JP
- Japan
- Prior art keywords
- image
- photographing
- display
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
像を作成することが可能な画像処理方法、画像処理装
置、スタジオ装置、スタジオシステム及びプログラムを
提供する。 【解決手段】 撮影スタジオ101にネットワーク11
3を介して接続され且つCG映像生成機能及び画像合成
機能を有する高速処理装置114を撮影スタジオ101
とは別の編集スタジオ112に設けることにより、撮影
現場である撮影スタジオ101ではリアルタイム性を重
視した処理を行いつつ、編集スタジオ112において高
品位な合成画像を生成する。
Description
とCG(コンピュータグラフィックス)画像(映像)と
を処理する画像処理方法、画像処理装置、スタジオ装
置、スタジオシステム及びプログラムに関する。
像)と、別途作成されたCG映像若しくは別の場所で撮
影された映像とを合成し、この合成映像をビデオとして
録画或いは放送していた。
るような場合には、リアルタイムで映像合成処理が必要
なため、スタジオでの撮影は、ブルーバックと呼ばれる
青または緑一色の壁を背景として行われ、このブルーバ
ックの部分に別の映像を合成するクロマキーと呼ばれる
方法で作成されていた。
撮影(均一な青色または緑一色の背景の前で対象物を撮
影)した後、背景色以外の領域を自動的に切り出す方法
で、これを図18に示す。
802は被写体、1803はカメラ、1804はカメラ
1803で撮影した映像、1805は別途作成されたC
G映像、1806は別の場所で撮影された映像、180
7は映像合成手段であるクロマキー、1808はクロマ
キー1807で合成された合成映像である。
03による被写体1802の撮影は、ブルーバック18
09と呼ばれる青或いは緑一色の壁を背景として行わ
れ、このブルーバック1809の部分に別の映像180
5若しくは1806をクロマキー1807により合成
し、その合成映像1808をビデオとして録画或いは放
送するものである。
合した映像が必要な場合、ポストプロダクション、即
ち、後処理で非常に大掛かりな処理設備を用いて、実写
映像とCG映像とを合成した高品位な映像を作成してい
た。この場合、撮影現場における演技、撮影において
は、予め後からCG合成する対象物の位置等を念頭にお
いて、実写映像を作成していた。
めの応用システムとしては、例えば、特開平11−30
9269号や特開平11−88913号が提案されてい
る。
用い、その上にCG映像等を重畳することにより、映像
の合成処理を行っていた。
た図18に示すようなブルーバックのような方法や、ポ
ストプロダクション処理による方法では、合成される映
像が演技者に見えないため、演技が不自然になり、ま
た、演技の自由度が少なく、更に、カメラワークに関し
てもポジションが限定されるという問題点があった。
号や特開平11−88913号の方法では、実写映像部
分とこれに合成される映像との関係が固定的な場合には
問題ないが、演技者・カメラ・仮想物体等が大幅且つ複
雑に動く場合に、正しい合成映像を得ることは困難であ
った。
置やWearableコンピュータ等の発達により、合
成映像を実時間で見ながら演技を行うようになってき
た。
ーサル、演劇、ゲーム、カラオケ等の用途で使う場合、
撮影現場では機材の可搬性等が重要となる。しかしなが
ら、可搬性のある設備を用いた場合、撮影現場での実時
間処理による合成映像は、一般的に高品位な画質を求め
るのは困難で、そのまま放送や映画のための最終出力と
はなり難かった。その一方で、高品位な映像に対する要
求は強く、高品位な処理を求めると撮影現場に非常に大
掛かりなポストプロダクション用の機材を持ち込む必要
があるが、現実には難しい。
されたもので、その目的は、高品位な画像合成処理を行
って、きれいな画像を作成することが可能な画像処理方
法、画像処理装置、スタジオ装置、スタジオシステム及
びプログラムを提供することである。
に、本発明の請求項1に記載の画像処理方法は、被写体
の位置・姿勢を測定し、測定された位置・姿勢を前記被
写体の画像に重畳されるCG(コンピュータグラフィッ
クス)データに反映させて表示手段に表示させるための
画像処理方法であって、撮影手段により前記被写体を撮
影する撮影工程と、前記撮影手段によって撮影された実
写画像データと、前記撮影手段の撮影パラメータと、前
記表示手段の表示パラメータとをネットワークに接続さ
れた画像合成手段へと送信する送信工程と、前記画像合
成手段により、前記撮影パラメータ及び表示パラメータ
に基づいて、前記撮影手段の撮影視点からのCG画像を
作成すると共に、前記撮影手段により撮影された前記被
写体の実写画像に前記CG画像を合成する画像合成工程
と、前記画像合成工程によって生成された前記実写画像
とCG画像との合成画像を、前記ネットワークを介して
受信する受信工程と、前記受信工程によって受信した前
記合成画像を、前記表示手段に表示する表示制御工程と
を有することを特徴とする。
の請求項2に記載の画像処理方法は、請求項1に記載の
画像処理方法において、前記画像合成工程は、前記CG
画像の存在可能領域を制限する禁則領域処理工程を有す
ることを特徴とする。
の請求項3に記載の画像処理方法は、請求項1に記載の
画像処理方法において、前記画像合成工程は、前記CG
を生成するためのシナリオを情報を管理するシナリオ管
理工程を有することを特徴とする。
の請求項4に記載の画像処理方法は、請求項1に記載の
画像処理方法において、前記撮影パラメータは、前記撮
影手段の撮影位置であることを特徴とする。
の請求項5に記載の画像処理方法は、請求項1に記載の
画像処理方法において、前記撮影パラメータは、前記撮
影手段の撮影方向であることを特徴とする。
の請求項6に記載の画像処理方法は、請求項1に記載の
画像処理方法において、前記表示パラメータは、前記表
示手段の表示位置であることを特徴とする。
の請求項7に記載の画像処理方法は、請求項1に記載の
画像処理方法において、前記表示パラメータは、前記表
示手段の表示方向であることを特徴とする。
の請求項8に記載の画像処理方法は、請求項1乃至7の
いずれかに記載の画像処理方法において、前記表示手段
は、HMD(ヘッドマウントディスプレイ)であること
を特徴とする。
の請求項9に記載の画像処理方法は、請求項1乃至8の
いずれかに記載の画像処理方法において、前記撮影手段
及び表示手段は撮影スタジオに配置され、前記画像合成
工程は編集スタジオにて実行されることを特徴とする。
の請求項10に記載の画像処理装置は、被写体の位置・
姿勢を測定し、測定された位置・姿勢を前記被写体の画
像に重畳されるCG(コンピュータグラフィックス)デ
ータに反映させて表示手段に表示させる画像処理装置で
あって、撮影手段により前記被写体を撮影する撮影手段
と、前記撮影手段によって撮影された実写画像データ
と、前記撮影手段の撮影パラメータと、前記表示手段の
表示パラメータとをネットワークに接続された画像合成
手段へと送信する送信手段と、前記撮影パラメータ及び
表示パラメータに基づいて、前記撮影手段の撮影視点か
らのCG画像を作成すると共に、前記撮影手段により撮
影された前記被写体の実写画像に前記CG画像を合成す
る画像合成手段と、前記画像合成手段によって生成され
た前記実写画像とCG画像との合成画像を、前記ネット
ワークを介して受信する受信手段と、前記受信手段によ
って受信した前記合成画像を、前記表示手段に表示する
表示制御手段とを有することを特徴とする。
の請求項11に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記画像合成手段は、前記
CG画像の存在可能領域を制限する禁則領域処理手段を
有することを特徴とする。
の請求項12に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記画像合成手段は、前記
CGを生成するためのシナリオを情報を管理するシナリ
オ管理手段を有することを特徴とする。
の請求項13に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記撮影パラメータは、前
記撮影手段の撮影位置であることを特徴とする。
の請求項14に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記撮影パラメータは、前
記撮影手段の撮影方向であることを特徴とする。
の請求項15に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記表示パラメータは、前
記表示手段の表示位置であることを特徴とする。
の請求項16に記載の画像処理装置は、請求項10に記
載の画像処理装置において、前記表示パラメータは、前
記表示手段の表示方向であることを特徴とする。
の請求項17に記載の画像処理装置は、請求項10乃至
16のいずれかに記載の画像処理装置において、前記表
示手段は、HMD(ヘッドマウントディスプレイ)であ
ることを特徴とする。
の請求項18に記載の画像処理装置は、請求項10乃至
17のいずれかに記載の画像処理装置において、前記撮
影手段及び表示手段は撮影スタジオに配置され、画像合
成工程は編集スタジオにて実行されることを特徴とす
る。
の請求項19に記載のプログラムは、実写画像とCG
(コンピュータグラフィックス)画像とを処理する画像
処理装置において、演技者等の被写体の位置・姿勢を測
定し、測定された位置・姿勢を前記被写体の画像に重畳
されるCG画像に反映させて表示させるための画像生成
処理を制御するためのコンピュータ読み取り可能な制御
プログラムであって、前記撮影手段によって撮影された
実写画像データと、前記撮影手段の撮影パラメータと、
前記表示手段の表示パラメータをネットワークに接続さ
れた画像合成手段へと送信する送信工程と、前記画像合
成手段により、前記撮影パラメータ及び表示パラメータ
に基づいて、前記撮影手段の撮影視点からのCG画像を
作成すると共に、前記撮影手段により撮影された前記被
写体の実写画像に前記CG画像を合成する画像合成工程
と、前記画像合成工程によって生成された前記実写画像
とCG画像との合成画像を、前記ネットワークを介して
受信する受信工程と、前記受信工程によって受信した前
記合成画像を、前記表示手段に表示する表示制御工程と
を有し、これらの各工程をコンピュータに実行させるた
めのプログラムコードからなることを特徴とする。
の請求項20に記載のプログラムは、請求項19に記載
のプログラムにおいて、さらに、背景を構成するセット
工程と、出演者や撮影に関わる人が装着する表示手段に
より画像を表示する表示工程と、前記CG画像の生成す
るためのシナリオ情報を管理するシナリオ管理工程を有
することを特徴とする。
の請求項21に記載のプログラムは、請求項19に記載
のプログラムにおいて、前記撮影パラメータは、前記撮
影手段の撮影位置であることを特徴とする。
の請求項22に記載のプログラムは、請求項19に記載
のプログラムにおいて、前記撮影パラメータは、前記撮
影手段の撮影方向であることを特徴とする。
の請求項23に記載のプログラムは、請求項19に記載
のプログラムにおいて、前記表示パラメータは、前記表
示手段の表示位置であることを特徴とする。
の請求項24に記載のプログラムは、請求項19に記載
のプログラムにおいて、前記表示パラメータは、前記表
示手段の表示方向であることを特徴とする。
の請求項25に記載のプログラムは、請求項19乃至2
4のいずれかに記載のプログラムにおいて、前記表示手
段は、HMD(ヘッドマウントディスプレイ)であるこ
とを特徴とする。
の請求項26に記載の撮影スタジオ装置は、請求項10
に記載の前記撮影手段、表示手段、送信手段、受信手
段、表示制御手段を装備したことを特徴とする。
の請求項27に記載の撮影スタジオ装置は、請求項10
に記載の画像合成を装備したことを特徴とする。
の請求項28に記載のスタジオシステムは、前記請求項
26に記載の撮影スタジオ装置と前記請求項27に記載
の編集スタジオ装置とからなることを特徴とする。
図1乃至図16に基づき説明する。
を装備したスタジオ装置のシステム構成を示すブロック
図である。
影スタジオ(MRスタジオ)、102はスタジオ101
に置かれたセット、103は演技者(被写体)、104は
撮影用のカメラ(撮影手段)、105は演技者103の
装着する頭部装着型ディスプレイ装置(Head−Ma
unted Display、以下、HMDと記述す
る)、106はHMD105に組み込まれた位置センサ
ー(表示パラメータ取得手段)、107は演技者103
の見る映像及びカメラ104の撮影映像に重畳される仮
想物体、108は演技者103の見る映像を生成する映
像生成装置、109はカメラ104の撮影映像に仮想物
体107の映像を重畳する映像重畳装置、110は仮想
物体107の状態を管理・操作するオペレータ装置、1
11は映像生成装置108、映像重畳装置109及びオ
ペレータ装置110を接続するネットワークである。
くに設置する。また、一般に以上の構成要素は、可搬性
の高い機材を使用する。また、映像重畳装置109で
は、カメラ104の映像に仮想物体107の映像を重畳
した合成映像をリアルタイムで確認することもできる。
途ネットワーク113で接続された場所にある編集スタ
ジオであり、114は高品位な合成処理を行う高速処理
装置、115は高速処理装置114の出力を蓄積するビ
デオ装置、116は映像重畳装置109の出力を発信或
いは放映する伝送装置である。高速処理装置114で
は、映像重畳装置109における合成映像をより高品位
にした放送向け映像を出力する。編集スタジオ112の
機材は、高品位の合成を旨としているため、一般に大掛
かりな設備となる。
方式の位置・方位センサー、米国ポヒマス社のFast
rak等の装置が利用可能である。また、映像生成装置
108若しくは映像重畳装置109は、PC(パーソナ
ルコンピュータ)とビデオキャプチャカード及びCG描
画機能を有するビデオカードで構成することができる。
更に、オペレータ装置110は、一般のPCで構成する
ことができる。
は、演技者或いは同時観察するスタッフの人数に応じて
増やすことができ、カメラ104及び映像重畳装置10
9等は、撮影用のカメラの数に応じて増やすことが可能
である。
である。このHMD105は、表示装置であると共に撮
像装置の機能も持つもので、外部から入ってくる光線を
画像センサーに導く第1のプリズム光学素子201、光
線を受けて撮像する撮像素子202、映像を提示する表
示素子203及び表示映像を目に導く第2のプリズム光
学素子204等から構成される。
はセット102が置かれ、その中で演技者103が演技
する。演技者103はHMD105を装着し、このHM
D105には位置センサー106が組み込まれ、その位
置センサー106は位置情報を出力する。同時に、HM
D105には外界を撮影するカメラが組み込まれ、撮影
された映像データを映像生成装置108に出力する。オ
ペレータ装置110は、オペレータの操作により仮想物
体107を表示したり、動かしたりする指示を受け、こ
れをネットワーク111を介して、映像生成装置108
及び映像重畳装置109に伝達する。
体107の状態と位置センサー106等から得られる頭
部の位置情報に対応してCG映像を生成し、これをHM
D105から得られる撮像データと合成し、その合成映
像をHMD105へ出力・表示する。演技者103はH
MD105に映る映像を見ることにより、恰も仮想物体
107がセット102内にあるように観察することがで
きる。カメラ104は、演技者103やセット102を
含む撮影スタジオ101の様子を撮像し、その撮影デー
タを映像重畳装置109に出力する。映像重畳装置10
9は、オペレータ装置110からの指示による仮想物体
107の状態とカメラ104の位置・姿勢に対応したC
G映像を生成し、これをカメラ104から得られる映像
データと合成することにより、出力映像を作成・表示す
る。
重畳装置109での処理に対応した高品位な映像合成処
理を行うため、合成映像生成に必要なデータをネットワ
ーク113経由で高速処理装置114に送信する、この
高速処理装置114では、より精度の高い映像合成処理
を行い、出力映像を生成する。この出力映像は、ビデオ
装置115で録画されたり、伝送装置116で放映され
たりするのに用いられる。
像処理装置の動作の詳細を示すブロック図である。
能を持つHMDで、撮像部と画像表示部とを有する。3
02は第1の画像合成手段で、HMD301の撮像部で
撮影した映像と後述する第1のCG描画手段303によ
り生成したCG映像とを合成する。303はHMD30
1の視点からのCG映像を描画する第1のCG描画手
段、304はCGオブジェクトの存在範囲を制御する禁
則領域処理手段、305はシナリオ管理手段で、CG描
画に必要なシナリオ進行とシナリオ情報とを管理する。
306は位置センサー等を含む位置合わせ手段、307
は第1のCGデータ管理手段で、CG描画に必要なCG
データを管理する。308はカメラ等の撮影手段、30
9は第2の画像合成手段で、撮影手段308により撮影
した映像と後述する第2のCG描画手段310により生
成したCG映像とを合成する。310は撮影手段308
の視点からのCG映像を描画する第2のCG描画手段、
311は画像表示手段で、合成画像を表示する。312
はデータを送信する送信手段、313は送信手段312
から送信されるデータを受信する受信手段、314は第
3の画像合成手段、315は第2のCGデータ管理手
段、316は第3のCG描画手段、317は画像出力手
段である。
毎に、表示するCGモデルの番号、基準となる位置・姿
勢のデータ、動作の種類を示す番号、動作に付随するパ
ラメータ等からなる。シナリオ情報は、シーン単位で管
理されている。各シーンでは、キャラクターの持つパワ
ー、状態等のステータス値とオペレータからの操作入
力、演技者の動き等に応じて上述のデータの組が選択さ
れる。例えば、ランダムに選択されたキャラクターの種
類とそのキャラクターのパワー値(これはゲームの進行
によるポイントで加減される)により表示するCGモデ
ルの番号が決定する。オペレータは、キャラクターの移
動及び回転等に必要な情報を入力し、これにとり基準と
なる位置・姿勢データが決定する。また、この際のキャ
ラクターの位置・姿勢・ステータス値と演技者の位置・
姿勢・動作とでキャラクターの動作及びそのパラメータ
が決定される。
する禁則領域処理により補正される。
補助に必要な台本・台詞・説明等の情報も蓄え、シーン
に応じて必要な情報を第1のCGデータ管理手段307
に送り、この第1のCGデータ管理手段307は、これ
らの情報を第1のCG描画手段303及び第2のCG描
画手段310に指示する。
ーフェース(マウス、キーボード、音声入力等)を用い
て行われる。
Gシーンの描画に必要な三次元モデルやアニメーション
データ、実写映像等の画像データが記録されている。例
えば、CGキャラクターの三次元アニメーションデータ
等が記録されている。そして、シナリオ管理手段305
から受け取ったシナリオ情報、即ち、キャラクター毎の
表示するCGモデルの番号、基準と成る位置・姿勢デー
タ、動作の種類を示す番号、動作に付随するパラメータ
等に従って、表示すべきCGモデルやアニメーションを
選択し、位置・姿勢、その他のパラメータを設定するこ
とで、CG描画に用いるシーングラフの生成・変更を行
う。第1のCG描画手段303では、第1のCGデータ
管理手段307が生成・変更したシーングラフを受け取
り、CGシーンを描画する。
画像合成手段302で第1のCG描画手段303の生成
したCGシーン画像と合成された後、HMD301に表
示されることになる。この際、HMD301で撮像され
た画像は、一旦位置合わせ手段306に送られ、この位
置合わせ手段306は、その情報と位置センサー106
(図1参照)等から得られるトラッキング情報を元にH
MD(即ち、頭部)の位置・方向を計算し、第1のCG
描画手段303に伝達する。
手段306から得られる頭部の位置・方向情報と、第1
のCGデータ管理手段307から得られるCGデータと
を元にHMD301視点からのCG画像を描画する。シ
ナリオ管理手段305は、禁則領域処理手段304から
得られる情報とシナリオ進行状況、即ち、リハーサルや
演技の進行状況或いはオペレータの指示等に従い、シー
ン構成に必要なシナリオ情報を第1のCGデータ管理手
段307に伝達し、この第1のCGデータ管理手段30
7は、これに応じたCGデータ等からシーングラフデー
タを作成し、第1のCG描画手段303若しくは第2の
CG描画手段310に渡し、CG画像を生成する。
処理も同様であり、撮影手段308で撮影された画像
は、第2の画像合成手段309で第2のCG描画手段3
10の生成したCG画像と合成され、得られた合成画像
は画像表示手段311に表示されることになる。この
際、撮影手段308で撮像された画像は、位置合わせ手
段306に送られ、この位置合わせ手段306は、その
情報と位置センサー106等から得られるトラッキング
情報を元に撮影手段(即ち、カメラ)308の位置、方
向を計算し、その結果を第2のCG描画手段310に伝
達する。第2のCG描画手段310は、位置合わせ手段
306から得られるCGデータを元に撮影手段(即ち、
カメラ)308の視点からのCG映像を描画する。
は、タイムコードが挿入される。同時にタイムコード
は、更に位置合わせ手段306を経由して第2のCG描
画手段310にも伝達され、ここで生成されるCG画像
にも挿入される。
とCG画像とのタイムコードを見て同期を取りながら合
成することで、時間的な位置ズレを少なくしている。
される情報に「*」を付してあるものは、タイムコード
を含むデータを表わす。
HMD(即ち、頭部)105(図1参照)の位置・方向
データと撮影手段(即ち、カメラ)308の位置・方向
データとを禁則領域処理手段304に伝達し、この禁則
領域処理手段304は、これらのデータからCGオブジ
ェクトの存在すべき範囲を決定し、シナリオ管理手段3
05は、前記CGオブジェクトの存在すべき範囲に応じ
て、CGオブジェクトの位置を修正するようになってい
る。
ための処理であるため、速度の限られた処理装置でリア
ルタイム処置できるバランスを考慮した画像品質を提供
するものであった。
成映像を生成するために、図1に示すように、ネットワ
ーク113を介して接続された編集スタジオ112に置
かれた高速処理装置114を用いて、以下の処理を行
う。
8で撮影された映像と、撮影手段308の位置・方向情
報、シナリオ情報が渡され、より高品位なCG画像生成
及び映像処理が可能な編集スタジオ112に送信され
る。より高品位なCG画像生成及び映像処理が可能なス
タジオ112では、受信手段313を通じて、撮影され
た映像、撮影手段308の位置・方向情報、シナリオ情
報を受け取ると、第1のCGデータ管理手段307と同
様に、第2のCGデータ管理手段315において送られ
て来たシナリオ情報からCGシーングラフを生成し、第
3のCG描画手段316において送られて来た位置・方
向情報の撮影手段(即ち、カメラ)の視点からのCG画
像を生成し、送られて来た撮影画像とCG画像とを第3
の画像合成手段314によりタイムコードで同期しなが
ら合成処理する。
は、第1のCGデータ管理手段307の監理するCGデ
ータよりも高品位な三次元モデルやアニメーションデー
タ、実写画像として保持されている。また、第3のCG
描画手段316では、第2のCG描画手段310よりも
より精密且つ高品位なCGレンダリング処理を行う。
画像合成手段309より高品位な第3の画像合成手段3
14で合成処理し、得られた合成画像を最終出力として
画像出力手段317から出力する。
置(放送)116や、ビデオ装置115である。
動での高品位処理だけではなく、人手を介して、より高
度な処理を行いながら綺麗な映像を生成しても良い。
れるように構成することにより、シースルー機能を実現
すること(光学シースルー方式)も可能であり、この場
合には、上述の第1の画像合成手段302は不要とな
る。
機械式のエンコーダ等、三次元での位置・姿勢を検出す
る手段から構成することや、前述した磁気方式の位置セ
ンサー或いは画像認識等による位置合わせから構成する
ことができる。また、撮影手段308に対する位置合わ
せ手段とHMD105に対する位置合わせ手段として
は、別々のものを用いることも可能である。
装置の一例を示す図である。同図において、401はカ
メラ、402はカメラ401を載置した台車、403は
ロータリーエンコーダ等の計測装置で、各ジョイントに
設けられている。そして、計測装置403により、台車
402の位置からカメラ401の位置及び方位を計測し
て出力することができる。
09からの出力をカメラ401のファインダ部に出すこ
とも可能であり、これによりカメラマンにも仮想の世界
を合わせたカメラワークが可能となる。
いた手持ちのカメラ装置の一例を示す図である。
メラ501には磁気の受信機(計測器)502が固定的
に装着されている。そして、受信器502により計測さ
れた磁気状態から、カメラ501の三次元的な位置及び
方位を計算するようになっている。前述したように、こ
のように用いることができる機器として、例えば、米国
ポヒマス社のFastrakといった装置がある。
いてもカメラ501と同様の方法で位置・方位を計算す
るようになっている。このような手持ちのカメラ装置の
場合には、カメラマンはHMD503(或いはその片目
版)を装着し、このHMD503に画像合成手段の出力
を表示することで、仮想の世界に合わせたカメラワーク
が可能となる。
は、ズームレンズのズーム情報も外部の処理装置に伝達
する。
したHMD105に表示される映像が作成される動作に
ついて、図1及び図6を用いて説明する。
着したHMD105に表示される映像が作成される動作
の流れを示すフローチャートであり、同図において、ス
テップS610〜ステップS612は、近年当該分野で
一般化した並列処理プログラムの技法を用いて、別々に
並行動作するスレッドとして実装されるものである。
り込みが入るまでは無限ループで動作し、割り込みが入
ると他の処理に移行する。
は、まず、オペレータ装置110から得られた指示に応
じて、CGを描画するための状態フラグ(表示物体の種
類、位置、状態)を更新する処理である内部状態更新処
理を行う(ステップS601)。次いで、頭部位置の決
定処理から得られる頭部位置情報を内部に取り込む(ス
テップS602)。次いで、ビデオキャプチャカードか
ら得られた最新の画像を背景画像として取り込む(ステ
ップS603)。次いで、背景画像の上に前記ステップ
S601において設定された内部状態に応じてCGデー
タを更新し、前記ステップS602において設定された
頭部位置をCG生成の仮想カメラとしてCGを描画する
(ステップS604)。最後に、描画結果の合成画像を
表示するCGコマンドをビデオカードに与えることで、
HMD105に合成画像が表示される(ステップS60
5)。その後、前記ステップS601へ戻る。
置110からの指示データがネットワーク111を介し
て送信されてくるのを受け取るスレッドである。また、
ステップS611は位置センサー106からの情報を受
け取り、ビデオキャプチャカードから得られる画像デー
タと合わせて頭部の位置を決定するスレッドである。更
に、ステップS612は定期的にビデオキャプチャカー
ドから画像データを読み出す画像キャプチャスレッドで
ある。
び図7を用いて説明する。
ローチャートであり、同図において、ステップS710
は位置センサー106からのデータ読み込みのスレッ
ド、ステップS711はマーカー位置の通知を受け取る
スレッドである。
は、通常のRS232Cのポートへのデータ通信であ
り、ステップS710では、このポートのデータを定期
的に読み出している。また、ステップS711の通知
は、一般的なネットワーク通信プロトコル(TCP−I
P)で通信される。
り込みが入るまでは無限ループで動作し、割り込みが入
ると他の処理に移行する。
ー106から得られる最新の位置情報に頭部位置を更新
する(ステップS701)。次いで、HMD105のカ
メラから得られた画像データから特定のマーカー画像を
認識することで、頭部位置の補正情報を得、これに応じ
て頭部の方向データを更新する(ステップS702)。
最後に、得られた頭部の位置(方向を含む)データを頭
部位置決定スレッドであるステップS711に受け渡す
(ステップS703)。その後、前記ステップS701
へ戻る。
センサー106から得られたワールド座標系での頭(視
点)の三次元位置及び方位とマーカーの三次元位置か
ら、マーカーが画像中のどこに見えるかの予測値(x
0,y0)を計算する。次いで、この予測値(x0,y
0)から画像中の実際のマーカー位置(x1,y1)に
向かう移動ベクトルを計算する。最後に、この移動ベク
トルを見込む角度を補正値として、これに相当する分だ
け頭部の方位を回転させた値をHMD105の方向とし
て出力する。
オ内に貼り込むマーカーの一例を示す図である。マーカ
ーには単色のものを用いることも可能であるが、本実施
の形態においては、3つの色票801,802,803
からなり、それぞれ特定の大きさを持つ矩形の色票を特
定の位置関係に配置したものである。それぞれの色票8
01,802,803には、任意の色を選ぶことができ
る。このように構成することにより、より多種類のマー
カーを安定的に検出することが可能となる。
1及び図9を用いて説明する。
すフローチャートであり、同図において、ステップS9
10は画像認識の対象となる画像データを得るステップ
であり、画像キャプチャカードから画像を定期的に読み
出すスレッドとなっている。
り込みが入るまでは無限ループで動作し、割り込みが入
ると他の処理に移行する。
09は、まず、最新の画像データを更新する(ステップ
S901)。次いで、登録されたマーカーを判別するた
めの幾つかの色情報によって画像を閾値処理する(ステ
ップS902)。次いで、得られた2値画像を連結化し
てラベリング処理する(ステップS903)。次いで、
各ラベルの領域の面積を計数し(ステップS904)、
重心位置を計算する(ステップS905)。次いで、各
ラベルの面積とラベル間の重心位置との関係から、登録
されたマーカーのパターンと一致するか否かを判定する
(ステップS906)。最後に、前記ステップS906
において判定された中心のラベルの重心をもってマーカ
ー位置として出力する(ステップS907)。その後、
前記ステップS901へ戻る。
力されたマーカー位置の情報は、HMD105或いはカ
メラ104の方位の補正に利用され、HMD105・カ
メラ104の位置及び方位の情報をCGレンダリングの
際の仮想カメラの位置・方位とすることで、現実世界と
位置合わせされたCG画像が生成される。
について、図1及び図10を用いて説明する。
の流れを示すフローチャートであり、同図において、ス
テップS1010〜ステップS1012は近年当該分野
で一般化した並列処理プログラムの技法を用いて、別々
に並行動作するスレッドとして実装されるものである。
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
は、まず、オペレータ装置110から得られた指示に応
じて、CGを描画するための状態フラグ(表示物体の種
類、位置、状態)を更新する処理である内部状態更新処
理を行う(ステップS1001)。次いで、カメラ位置
の決定処理から得られるカメラ位置情報を内部に取り込
む(ステップS1002)。次いで、ビデオキャプチャ
カードから得られた最新の画像を背景画像として取り込
む(ステップS1003)。次いで、背景画像の上に前
記ステップS1001において設定された内部状態に応
じてCGデータを更新し、前記ステップS1002にお
いて設定されたカメラ位置をCG生成の仮想カメラとし
てCGを描画する(ステップS1004)。最後に、描
画結果のである合成画像を表示するCGコマンドをビデ
オカードに与えることで、HMD105に合成画像が表
示される(ステップS1005)。その後、前記ステッ
プS1001へ戻る。
装置110からの指示データがネットワーク111を介
して送信されてくるのを受け取るスレッドである。ま
た、ステップS1011は図4或いは図5のカメラ装置
からの情報を受け取り、ビデオキャプチャカードから得
られる画像データと合わせてカメラの位置を決定するス
レッドである。更に、ステップS1012は定期的にビ
デオキャプチャカードから画像データを読み出す画像キ
ャプチャスレッドである。
おける高速処理装置114の動作について、図1、図3
及び図11を用いて説明する。
置における高速処理装置114の動作の流れを示すフロ
ーチャートであり、同図において、ステップS1110
〜ステップS1112は、近年当該分野で一般化した並
列処理プログラムの技法を用いて、別々に並行動作する
スレッドとして実装されるものである。
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
は、まず、受信手段手段313、即ち、別途動作してい
るスレッド(ステップS1110,ステップS111
1,ステップS1112)を通じて次の3種類のデータ
を受け取る。即ち、ステップS1110では、シナリオ
管理手段305の出力であるシナリオ情報データ、即
ち、CGを描画するための各種状態フラグ(表示物体の
種類、位置、状態)、ステップS1111では、位置合
わせ手段306の出力である位置・方向情報データ、ス
テップS1112では、カメラ104或いは撮影手段3
08から得られる撮影映像データを受け付ける。
タにはタイムコードが含まれており、ステップS110
1〜ステップS1105の一連の処理は、このタイムコ
ードで同期して処理されるようになっている。
Gを描画するための状態フラグ(表示物体の種類、位
置、状態)を更新し、内部状態、即ち、シーングラフを
更新する(ステップS1101)。次いで、カメラ位置
情報を更新する(ステップS1102)。次いで、画像
データを背景画像として取り込む(ステップS110
3)。次いで、前記ステップS1102において設定さ
れたカメラ位置をCG生成の仮想カメラとして、前記ス
テップS1101において設定されたシーングラフに応
じてCG画像を背景画像の上に描画する(ステップS1
104)。最後に、描画結果の合成映像を表示するCG
コマンドをビデオカードに与えることで、画像表示手段
311に合成映像が表示される(ステップS110
5)。
4の出力として、リアルタイムの合成映像を出力するも
のとしているが、一旦、シナリオ情報データ、位置・方
向情報データ、撮影映像データを蓄積しておき、所謂ポ
ストプロダクション(時間をかけて後処理で最終生成物
となるビデオ映像を作成する工程)によって処理して、
高品位な映像を作成してもかまわない。
装置109、オペレータ装置110を構成するハードウ
ェアは、一般的なコンピュータと周辺機器との組み合わ
せで実現できる。
ェア構成の一例を示すブロック図である。同図におい
て、1201は入力手段であるマウス、1202は同じ
く入力手段であるキーボード、1203は画像を表示す
るディスプレイ装置、1204は画像を表示すると共に
画像を撮像するHMD、1205は周辺コントローラ、
1206は位置センサーとの間の情報授受のためのシリ
アル・インターフェース(I/F)、1207はプログ
ラムによる各種の処理を実行するCPU(中央演算処理
装置)、1208はメモリ、1209はネットワーク・
インターフェース(I/F)、1210はプログラムを
記憶媒体からロードするためのハードディスク(HD)
装置、1211はプログラムを記憶媒体からロードする
ためのフロッピー(登録商標)ディスク(FD)装置、
1212は画像キャプチャカード、1213はビデオグ
ラフィックカードである。
MD1204の代わりに撮影装置(カメラ)からの入力
を受け、画像表示装置であるディスプレイ装置1203
へ映像信号を出力する。また、オペレータ装置110の
場合には、HMD1204及び画像キャプチャカード1
212は不要となる。
グラムは、FD装置やネットワーク等を介してプログラ
ム記憶媒体からロードすることができる。次に、本実施
の形態に係る画像処理装置におけるオペレータ装置11
0の動作を、図1及び図13に基づき説明する。
置におけオペレータ装置110の処理動作の流れを示す
フローチャートであり、同図において、ステップS13
10は、ユーザ入力スレッドである。
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
S1310におけるユーザ入力処理によるユーザからの
入力操作を受け取り(ステップS1301)、これに応
じて内部状態(シナリオの進行ポインタ、表示モード
等)を更新する(ステップS1302)。次いで、カメ
ラ104及び演技者103の位置情報から禁則領域を決
定し、CGによる仮想オブジェクトがこの領域内に入ら
ないに位置データを更新する(ステップS1303)。
次いで、更新された状態の情報を映像生成装置108や
映像重畳装置109に伝達する(ステップS130
4)。その後は、前記ステップS1301へ戻る。
マウスやキーボード等の入力装置若しくは音声入力やジ
ェスチャーコマンド等を介して行うことができる。
ジェクトと実在のオブジェクトの隠れ関係等が不自然に
ならないように、CGオブジェクトの存在可能領域を制
限する処理である。隠れ関係については、固定の実在オ
ブジェクトの場合には前もって実在オブジェクトと同じ
形状及び位置・方向にCGオブジェクトを設定し用意し
ておく(以下、設定したCGオブジェクトをオブジェク
トAと記述する)。ここで、オブジェクトAの領域の部
分はそのままの実写映像を流す。
想CGオブジェクト(以下、この仮想CGオブジェクト
をオブジェクトBと記述する)に関しては、オブジェク
トBのレンダリングの際にオブジェクトAとの隠面処理
を行う。これにより、オブジェクトBの実在オブジェク
トによる隠れは正しく処理されることになる。
したりする場合には、そのオブジェクトが占める空間領
域を確定することは容易ではない。そして、実在の演技
者等と仮想のオブジェクトが接近したり、前後したりし
た場合に、隠れ関係を正しく処理できないと、見えない
はずのものが見えたり、前後関係が逆転して見えたりと
いったように、大きな視覚的な障害となる。
発生する可能性のある領域(禁則領域)を特定し、その
ような領域に仮想オブジェクトが侵入する場合には、そ
の位置を禁則領域外に修正することにより、視覚的な障
害を取り除くことができる。
で、最も単純な禁則領域を示す図であり、同図におい
て、1401は撮影手段(カメラ)、1402及び14
03は演技者或いは移動する実在オブジェクト、140
4は演技者等の周辺領域、1405は固定的な実在のオ
ブジェクト(スタジオセット)である。
1402とを結ぶ直線上を演技者1402から周辺領域
1404の半径分だけカメラ1410側に偏位した点を
通る直線と直交する直線AA′を計算すると、直線直線
AA′で区分された空間のカメラ1401のない方が禁
則領域となる(実際には禁則領域を含む領域となるが、
視覚的な障害を取り除くという点では実用上全く問題が
ない)。同様に、その他の対象オブジェクト1403に
対する区分直線BB′とその禁則領域も計算でき、これ
らの和集合領域として全体の禁則領域が決定される。
ト1405による仮想オブジェクトの隠れは正しく処理
されるが、禁則領域内の実在オブジェクトによる仮想オ
ブジェクトの隠れの処理はされないことになる。
おける禁則領域処理手段304の禁則領域計算処理動作
を、図14及び図15に基づき説明する。
置におけ禁則領域処理手段304の禁則領域計算処理動
作の流れを示すフローチャートであり、同図において、
ステップS1510及びステップS1511は、近年当
該分野で一般化した並列処理プログラムの技法を用い
て、別々に並行動作するスレッドとして実装されるもの
である。
割り込みが入るまでは無限ループで動作し、割り込みが
入ると他の処理に移行する。
カメラ位置に更新され(ステップS1501)、次い
で、演技者(プレイヤー)1402の位置情報が最新の
プレイヤー位置に更新される(ステップS1502)。
続いて、これらの情報から領域区分直線が計算され(ス
テップS1503)、仮想オブジェクトの領域区分直線
からの距離が計算される(ステップS1504)。この
値の正負の符号で禁則領域内か否かを判断し、禁則領域
内の場合には、最も近い領域外の点(これはカメラ14
01と仮想オブジェクトとを結ぶ直線と領域区分直線の
交点として計算できる)に仮想オブジェクトの位置を修
正する(ステップS1505)。その後、前記ステップ
S1501へ戻る。
図において図14と同一部分には同一符号が付してあ
る。
者1402等の周辺領域1404を示す円弧と接する直
線OC,OD,OE,OFが示されている。厳密な禁則
領域は、例えば、演技者1402の周辺領域1404と
直線OC・ODで囲まれる領域の円弧1404よりカメ
ラ1401から見て遠方となる領域の和集合となる。こ
のような領域についても初等数学で簡単に計算できる。
処理速度が許すならば、このような計算にすることも可
能である。
で、禁則領域を示す図であり、同図において、図14と
同一部分には同一符号が付してある。
の禁則領域の高さを推定することができ、これと接する
直線(実際には横方向に延びる平面)、例えば、直線O
K,OLで領域区分直線が計算される。この上下方向に
関する計算の場合には、領域区分直線OK,OLの区分
する2つの領域で演技者1402等の実体が存在する側
が禁則領域となる。
機能を実現するソフトウェアのプログラムコードを記録
した記憶媒体を、システム或いは装置に供給し、そのシ
ステム或いは装置のコンピュータ(またはCPUやMP
U等)が記憶媒体に格納されたプログラムコードを読み
出して実行することによっても達成されることは言うま
でもない。
グラムコード自体が前述した各実施の形態の機能を実現
することになり、そのプログラムコードを記憶した記憶
媒体は本発明を構成することになる。
記憶媒体としては、例えば、フロッピーディスク、ハー
ドディスク、光磁気ディスク、CD−ROM、CD−
R、CD−RW、DVD−ROM、DVD−RAM、D
VD−RW、DVD+RW、磁気テープ、不揮発性のメ
モリカード、ROM等を用いることができる。
ムコードを実行することにより、上記各実施の形態の機
能が実現されるだけでなく、そのプログラムコードの指
示に基づき、コンピュータ上で稼動しているOS(オペ
レーティングシステム)等が実際の処理の一部または全
部を行い、その処理によって前述した各実施の形態の機
能が実現される場合も含まれることは言うまでもない。
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書き込まれた後、そのプログラムコードの指示
に基づき、その機能拡張ボードや機能拡張ユニットに備
わるCPU等が実際の処理の一部または全部を行い、そ
の処理によって前述した実施の形態の機能が実現される
場合も含まれることは言うまでもない。
スタジオ101にネットワーク113を介して接続され
且つCG映像生成機能及び画像合成機能を有する高速処
理装置114を撮影スタジオ101とは別の編集スタジ
オ112に設けることにより、撮影現場である撮影スタ
ジオ101ではリアルタイム性を重視した処理を行いつ
つ、編集スタジオ112において高品位な合成画像を生
成することができる。また、ネットワーク経由で、ポス
トプロダクション処理に必要な情報を蓄積しておき、後
で処理することで、更に高品位な画像を生成することが
可能である。
品位な画像合成処理を行って、きれいな画像を作成する
ことが可能となるという効果を奏する。
備したスタジオのシステム構成を示す図である。
けるHMDの内部構成を示す図である。
作の詳細を示す図である。
ける機械式エンコーダを用いたカメラ装置の構成を示す
図である。
ける磁気式の位置・方位センサーを用いた手持ちカメラ
装置の構成を示す図である。
けるHMDに表示される映像を作成する処理動作の流れ
を示すフローチャートである。
ける頭部位置を決定する処理動作の流れを示すフローチ
ャートである。
けるマーカーの一例を示す図である。
けるマーカー位置を決定する処理動作の流れを示すフロ
ーチャートである。
おける映像重畳装置の動作を示すフローチャートであ
る。
おける高速処理装置の処理動作の流れを示すフローチャ
ートである。
おける映像生成装置の構成を示すブロック図である。
おけるオペレータ装置の処理動作の流れを示すフローチ
ャートである。
具備したスタジオを上から鳥瞰した状況で、最も単純な
禁則領域を示す図である。
おける禁則領域処理手段の処理動作の流れを示すフロー
チャートである。
具備したスタジオを上から鳥瞰した状況で、厳密な禁則
領域を示す図である。
具備したスタジオを側面から見た状態で、禁則領域を示
す図である。
である。
示手段) 106 位置・姿勢センサー(撮影パラメータ取得
手段) 107 仮想物体 108 映像生成装置 109 映像重畳装置 110 オペレータ装置 111 ネットワーク 112 編集スタジオ 113 ネットワーク 114 高速処理装置 115 ビデオ装置 116 伝送装置(放送) 201 第1のプリズム光学素子 202 撮像素子 203 第2のプリズム光学素子 301 HMD 302 第1の画像合成手段 303 第1のCG描画手段 304 禁則領域処理手段 305 シナリオ管理手段 306 位置合わせ手段 307 第1のCGデータ管理手段 308 撮影手段 309 第2の画像合成手段 310 第2のCG描画手段 311 画像表示手段 312 送信手段 313 受信手段 314 第3の画像合成手段 315 第2のCGデータ管理手段 316 第3のCG描画手段 317 画像出力手段 401 カメラ 402 台車 403 計測装置 501 カメラ 502 受信機(計測器) 503 HMD 801 色票 802 色票 803 色票 1201 マウス(入力手段) 1202 キーボード(入力手段) 1203 ディスプレイ装置 1204 HMD 1205 周辺コントローラ 1206 シリアル・インターフェース(I/F) 1207 CPU(中央演算処理装置) 1208 メモリ 1209 ネットワーク・インターフェース(I/
F) 1210 ハードディスク(HD)装置 1211 フロッピーディスク(FD)装置 1212 画像キャプチャカード 1213 ビデオグラフィックカード 1401 カメラ(撮影手段) 1402 演技者(プレイヤー)または移動する実在
オブジェクト 1403 演技者(プレイヤー)または移動する実在
オブジェクト 1404 演技者等の周辺領域 1405 固定的な実在オブジェクト
Claims (28)
- 【請求項1】 被写体の位置・姿勢を測定し、測定され
た位置・姿勢を前記被写体の画像に重畳されるCG(コ
ンピュータグラフィックス)データに反映させて表示手
段に表示させるための画像処理方法であって、 撮影手段により前記被写体を撮影する撮影工程と、 前記撮影手段によって撮影された実写画像データと、前
記撮影手段の撮影パラメータと、前記表示手段の表示パ
ラメータとをネットワークに接続された画像合成手段へ
と送信する送信工程と、 前記画像合成手段により、前記撮影パラメータ及び表示
パラメータに基づいて、前記撮影手段の撮影視点からの
CG画像を作成すると共に、前記撮影手段により撮影さ
れた前記被写体の実写画像に前記CG画像を合成する画
像合成工程と、 前記画像合成工程によって生成された前記実写画像とC
G画像との合成画像を、前記ネットワークを介して受信
する受信工程と、 前記受信工程によって受信した前記合成画像を、前記表
示手段に表示する表示制御工程とを有することを特徴と
する画像処理方法。 - 【請求項2】 前記画像合成工程は、前記CG画像の存
在可能領域を制限する禁則領域処理工程を有することを
特徴とする請求項1に記載の画像処理方法。 - 【請求項3】 前記画像合成工程は、前記CGを生成す
るためのシナリオを情報を管理するシナリオ管理工程を
有することを特徴とする請求項1に記載の画像処理方
法。 - 【請求項4】 前記撮影パラメータは、前記撮影手段の
撮影位置であることを特徴とする請求項1に記載の画像
処理方法。 - 【請求項5】 前記撮影パラメータは、前記撮影手段の
撮影方向であることを特徴とする請求項1に記載の画像
処理方法。 - 【請求項6】 前記表示パラメータは、前記表示手段の
表示位置であることを特徴とする請求項1に記載の画像
処理方法。 - 【請求項7】 前記表示パラメータは、前記表示手段の
表示方向であることを特徴とする請求項1に記載の画像
処理方法。 - 【請求項8】 前記表示手段は、HMD(ヘッドマウン
トディスプレイ)であることを特徴とする請求項1乃至
7のいずれかに記載の画像処理方法。 - 【請求項9】 前記撮影手段及び表示手段は撮影スタジ
オに配置され、前記画像合成工程は編集スタジオにて実
行されることを特徴とする請求項1乃至8のいずれかに
記載の画像処理方法。 - 【請求項10】 被写体の位置・姿勢を測定し、測定さ
れた位置・姿勢を前記被写体の画像に重畳されるCG
(コンピュータグラフィックス)データに反映させて表
示手段に表示させる画像処理装置であって、 撮影手段により前記被写体を撮影する撮影手段と、 前記撮影手段によって撮影された実写画像データと、前
記撮影手段の撮影パラメータと、前記表示手段の表示パ
ラメータとをネットワークに接続された画像合成手段へ
と送信する送信手段と、 前記撮影パラメータ及び表示パラメータに基づいて、前
記撮影手段の撮影視点からのCG画像を作成すると共
に、前記撮影手段により撮影された前記被写体の実写画
像に前記CG画像を合成する画像合成手段と、 前記画像合成手段によって生成された前記実写画像とC
G画像との合成画像を、前記ネットワークを介して受信
する受信手段と、 前記受信手段によって受信した前記合成画像を、前記表
示手段に表示する表示制御手段とを有することを特徴と
する画像処理装置。 - 【請求項11】 前記画像合成手段は、前記CG画像の
存在可能領域を制限する禁則領域処理手段を有すること
を特徴とする請求項10に記載の画像処理装置。 - 【請求項12】 前記画像合成手段は、前記CGを生成
するためのシナリオを情報を管理するシナリオ管理手段
を有することを特徴とする請求項10に記載の画像処理
装置。 - 【請求項13】 前記撮影パラメータは、前記撮影手段
の撮影位置であることを特徴とする請求項10に記載の
画像処理装置。 - 【請求項14】 前記撮影パラメータは、前記撮影手段
の撮影方向であることを特徴とする請求項10に記載の
画像処理装置。 - 【請求項15】 前記表示パラメータは、前記表示手段
の表示位置であることを特徴とする請求項10に記載の
画像処理装置。 - 【請求項16】 前記表示パラメータは、前記表示手段
の表示方向であることを特徴とする請求項10に記載の
画像処理装置。 - 【請求項17】 前記表示手段は、HMD(ヘッドマウ
ントディスプレイ)であることを特徴とする請求項10
乃至16のいずれかに記載の画像処理装置。 - 【請求項18】 前記撮影手段及び表示手段は撮影スタ
ジオに配置され、画像合成工程は編集スタジオにて実行
されることを特徴とする画像処理装置。 - 【請求項19】 実写画像とCG(コンピュータグラフ
ィックス)画像とを処理する画像処理装置において、演
技者等の被写体の位置・姿勢を測定し、測定された位置
・姿勢を前記被写体の画像に重畳されるCG画像に反映
させて表示させるための画像生成処理を制御するための
コンピュータ読み取り可能な制御プログラムであって、 前記撮影手段によって撮影された実写画像データと、前
記撮影手段の撮影パラメータと、前記表示手段の表示パ
ラメータをネットワークに接続された画像合成手段へと
送信する送信工程と、 前記画像合成手段により、前記撮影パラメータ及び表示
パラメータに基づいて、前記撮影手段の撮影視点からの
CG画像を作成すると共に、前記撮影手段により撮影さ
れた前記被写体の実写画像に前記CG画像を合成する画
像合成工程と、前記画像合成工程によって生成された前
記実写画像とCG画像との合成画像を、前記ネットワー
クを介して受信する受信工程と、 前記受信工程によって受信した前記合成画像を、前記表
示手段に表示する表示制御工程とを有し、これらの各工
程をコンピュータに実行させるためのプログラムコード
からなることを特徴とするプログラム。 - 【請求項20】 さらに、背景を構成するセット工程
と、出演者や撮影に関わる人が装着する表示手段により
画像を表示する表示工程と、前記CG画像の生成するた
めのシナリオ情報を管理するシナリオ管理工程を有する
ことを特徴とする請求項19に記載のプログラム。 - 【請求項21】 前記撮影パラメータは、前記撮影手段
の撮影位置であることを特徴とする請求項19に記載の
プログラム。 - 【請求項22】 前記撮影パラメータは、前記撮影手段
の撮影方向であることを特徴とする請求項19に記載の
プログラム。 - 【請求項23】 前記表示パラメータは、前記表示手段
の表示位置であることを特徴とする請求項19に記載の
プログラム。 - 【請求項24】 前記表示パラメータは、前記表示手段
の表示方向であることを特徴とする請求項19に記載の
プログラム。 - 【請求項25】 前記表示手段は、HMD(ヘッドマウ
ントディスプレイ)であることを特徴とする請求項19
乃至24のいずれかに記載のプログラム。 - 【請求項26】 前記請求項10に記載の前記撮影手
段、表示手段、送信手段、受信手段、表示制御手段を装
備したことを特徴とする撮影スタジオ装置。 - 【請求項27】 前記請求項10に記載の画像合成手段
を装備したことを特徴とする編集スタジオ装置。 - 【請求項28】 前記請求項26に記載の撮影スタジオ
装置と前記請求項27に記載の編集スタジオ装置とから
なることを特徴とするスタジオシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001071113A JP2002271692A (ja) | 2001-03-13 | 2001-03-13 | 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001071113A JP2002271692A (ja) | 2001-03-13 | 2001-03-13 | 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002271692A true JP2002271692A (ja) | 2002-09-20 |
JP2002271692A5 JP2002271692A5 (ja) | 2007-04-19 |
Family
ID=18928882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001071113A Withdrawn JP2002271692A (ja) | 2001-03-13 | 2001-03-13 | 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002271692A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130754B2 (en) | 2002-03-19 | 2006-10-31 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
JP2007318628A (ja) * | 2006-05-29 | 2007-12-06 | Matsushita Electric Ind Co Ltd | 実時間映像処理システム |
JP2010113335A (ja) * | 2008-11-04 | 2010-05-20 | Korea Electronics Telecommun | 動的閾値を用いたマーカ認識方法及びこれを活用した増強現実に基づく学習システム |
CN103313069A (zh) * | 2012-03-08 | 2013-09-18 | 三菱电机株式会社 | 图像合成装置 |
KR101680367B1 (ko) * | 2015-10-29 | 2016-11-28 | 동서대학교산학협력단 | 시뮬레이터 카메라와 가상카메라 동기화에 의한 cg적용 영상제작시스템 |
-
2001
- 2001-03-13 JP JP2001071113A patent/JP2002271692A/ja not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130754B2 (en) | 2002-03-19 | 2006-10-31 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
JP2007318628A (ja) * | 2006-05-29 | 2007-12-06 | Matsushita Electric Ind Co Ltd | 実時間映像処理システム |
JP4643494B2 (ja) * | 2006-05-29 | 2011-03-02 | パナソニック株式会社 | 実時間映像処理システム |
JP2010113335A (ja) * | 2008-11-04 | 2010-05-20 | Korea Electronics Telecommun | 動的閾値を用いたマーカ認識方法及びこれを活用した増強現実に基づく学習システム |
CN103313069A (zh) * | 2012-03-08 | 2013-09-18 | 三菱电机株式会社 | 图像合成装置 |
CN103313069B (zh) * | 2012-03-08 | 2015-10-07 | 三菱电机株式会社 | 图像合成装置 |
US9613597B2 (en) | 2012-03-08 | 2017-04-04 | Mitsubishi Electric Corporation | Apparatus and method for image compositing based on detected presence or absence of base image |
KR101680367B1 (ko) * | 2015-10-29 | 2016-11-28 | 동서대학교산학협력단 | 시뮬레이터 카메라와 가상카메라 동기화에 의한 cg적용 영상제작시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109889914B (zh) | 视频画面推送方法、装置、计算机设备及存储介质 | |
WO2018121333A1 (zh) | 一种360度vr全景图形图像及视频实时生成方法 | |
US9041899B2 (en) | Digital, virtual director apparatus and method | |
US20060165310A1 (en) | Method and apparatus for a virtual scene previewing system | |
JP5861499B2 (ja) | 動画提示装置 | |
JP4285422B2 (ja) | 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体 | |
US20240029761A1 (en) | Camera Tracking System For Live Composting | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
EP3503101A1 (en) | Object based user interface | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US20230353717A1 (en) | Image processing system, image processing method, and storage medium | |
US20090153550A1 (en) | Virtual object rendering system and method | |
JP2003346190A (ja) | 画像処理装置 | |
US20240054739A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2004515169A (ja) | 回転画に存在する物体を一つのウィンドウに表示する方法およびそのデーターを送受信する機器 | |
JP2002271692A (ja) | 画像処理方法、画像処理装置、スタジオ装置、スタジオシステム及びプログラム | |
JP2002271694A (ja) | 画像処理方法、画像処理装置、スタジオ装置、記憶媒体及びプログラム | |
KR20230017745A (ko) | 화상 처리장치, 화상 처리방법, 및 기억매체 | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
JP4899733B2 (ja) | 画像生成方法及び画像生成システム | |
JP2002271692A5 (ja) | 画像処理方法、画像処理装置、及び、コンピュータプログラム | |
US11682175B2 (en) | Previsualization devices and systems for the film industry | |
JP2002269585A (ja) | 画像処理方法、画像処理装置、記憶媒体及びプログラム | |
CN113674433B (zh) | 混合现实显示方法及系统 | |
CN219802409U (zh) | 一种xr虚拟制片实时合成系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060414 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070307 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070307 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20070626 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080108 |