JPH10327349A - 画像生成装置および画像生成方法 - Google Patents
画像生成装置および画像生成方法Info
- Publication number
- JPH10327349A JPH10327349A JP9134037A JP13403797A JPH10327349A JP H10327349 A JPH10327349 A JP H10327349A JP 9134037 A JP9134037 A JP 9134037A JP 13403797 A JP13403797 A JP 13403797A JP H10327349 A JPH10327349 A JP H10327349A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- unit
- viewpoint
- performer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 9
- 239000002131 composite material Substances 0.000 claims abstract description 70
- 238000003384 imaging method Methods 0.000 claims description 36
- 230000009466 transformation Effects 0.000 claims description 25
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 230000003111 delayed effect Effects 0.000 claims description 6
- 238000002156 mixing Methods 0.000 abstract description 36
- 230000000007 visual effect Effects 0.000 abstract 2
- 239000003550 marker Substances 0.000 description 15
- 230000004044 response Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
(57)【要約】
【課題】出演者の動きに対する演技を補助する画像の遅
れをなくし、出演者が演技しやすくする。 【解決手段】背景2で出演者1を移動可能なカメラ4で
撮影し、出力画像データVDaを遅延処理することなく
αブレンディング部13に供給する。カメラ4の3次元
位置情報PDTより求められたそのカメラ4の視点情報
POVと所定のCG物体の3次元位置情報PCGとか
ら、その所定のCG物体をカメラ4の視点から見た投影
像に対応した2次元画像データVDcを作成し、これを
αブレンディング部13に供給する。カメラ4の出力画
像データVDaを簡易型キー生成部11に供給し、ハー
ドキー処理をするためのキー信号としてのα値を簡単か
つ高速に得る。αブレンディング部13ではα値に基づ
いて画像データVDa,VDcに対する合成処理をして
合成画像データVDeを形成し、モニタ15に画像デー
タVDeによる演技補助画像を表示する。
れをなくし、出演者が演技しやすくする。 【解決手段】背景2で出演者1を移動可能なカメラ4で
撮影し、出力画像データVDaを遅延処理することなく
αブレンディング部13に供給する。カメラ4の3次元
位置情報PDTより求められたそのカメラ4の視点情報
POVと所定のCG物体の3次元位置情報PCGとか
ら、その所定のCG物体をカメラ4の視点から見た投影
像に対応した2次元画像データVDcを作成し、これを
αブレンディング部13に供給する。カメラ4の出力画
像データVDaを簡易型キー生成部11に供給し、ハー
ドキー処理をするためのキー信号としてのα値を簡単か
つ高速に得る。αブレンディング部13ではα値に基づ
いて画像データVDa,VDcに対する合成処理をして
合成画像データVDeを形成し、モニタ15に画像デー
タVDeによる演技補助画像を表示する。
Description
【0001】
【発明の属する技術分野】この発明は、例えばテレビ局
のバーチャルスタジオで使用して好適な画像生成装置お
よび画像生成方法に関する。詳しくは、出演者を移動可
能な撮像手段で撮影して得られる第1の画像データを遅
延処理して第3の画像データを得、この第3の画像デー
タと撮像手段の視点で見た透視変換を施した所定物体の
投影像に対応した第2の画像データとを合成して視聴者
用の合成画像データを得ると共に、上記第1の画像デー
タと第2の画像データとを合成して出演者に対して演技
を補助する画像を表示するための合成画像データを得る
ことによって、出演者の動きに対する演技を補助する画
像の遅れをなくし、出演者が演技しやすいようにした画
像生成装置等に係るものである。
のバーチャルスタジオで使用して好適な画像生成装置お
よび画像生成方法に関する。詳しくは、出演者を移動可
能な撮像手段で撮影して得られる第1の画像データを遅
延処理して第3の画像データを得、この第3の画像デー
タと撮像手段の視点で見た透視変換を施した所定物体の
投影像に対応した第2の画像データとを合成して視聴者
用の合成画像データを得ると共に、上記第1の画像デー
タと第2の画像データとを合成して出演者に対して演技
を補助する画像を表示するための合成画像データを得る
ことによって、出演者の動きに対する演技を補助する画
像の遅れをなくし、出演者が演技しやすいようにした画
像生成装置等に係るものである。
【0002】
【従来の技術】最近は、テレビ局において、バーチャル
スタジオあるいはバーチャルセットと呼ばれるスタジオ
で撮影し、この撮影した画像に対して、CG(コンピュ
ータグラフィクス)で作成した画像を合成し、この合成
画像を放送するということが行われるようになってきて
いる。
スタジオあるいはバーチャルセットと呼ばれるスタジオ
で撮影し、この撮影した画像に対して、CG(コンピュ
ータグラフィクス)で作成した画像を合成し、この合成
画像を放送するということが行われるようになってきて
いる。
【0003】天気予報番組を例にとって、詳しく説明す
る。まず、青色の背景をバックに出演者を立たせ、この
出演者をテレビカメラで撮影する。そして、このテレビ
カメラからの画像データに、CGで作成された物体、例
えば気象情報の描かれた日本地図等の画像データを合成
し、視聴者に提供される合成画像に係る合成画像データ
を作成する。
る。まず、青色の背景をバックに出演者を立たせ、この
出演者をテレビカメラで撮影する。そして、このテレビ
カメラからの画像データに、CGで作成された物体、例
えば気象情報の描かれた日本地図等の画像データを合成
し、視聴者に提供される合成画像に係る合成画像データ
を作成する。
【0004】図3は、バーチャルスタジオの具体例を示
している。
している。
【0005】出演者101は、青色の背景102を使用
して撮影される。この背景102には、青色系統で目立
たないマーカー(模様)M1〜M9が付されている。マー
カーM1〜M9の3次元上での位置は、特定の絶対不動の
座標系(ワールド座標系)を基準として、あらかじめ測
定されている。
して撮影される。この背景102には、青色系統で目立
たないマーカー(模様)M1〜M9が付されている。マー
カーM1〜M9の3次元上での位置は、特定の絶対不動の
座標系(ワールド座標系)を基準として、あらかじめ測
定されている。
【0006】次に、画像生成装置103を説明する。こ
の画像生成装置103は、背景102をバックに出演者
101を撮影する移動可能なテレビカメラ104を有し
ている。上述したようにマーカーM1〜M9は、青色の背
景102の中にあることから目立たないが、テレビカメ
ラ104で認識することがかろうじてできる。そのた
め、テレビカメラ104を基準としたマーカーM1〜M9
の3次元位置を測定することができる。
の画像生成装置103は、背景102をバックに出演者
101を撮影する移動可能なテレビカメラ104を有し
ている。上述したようにマーカーM1〜M9は、青色の背
景102の中にあることから目立たないが、テレビカメ
ラ104で認識することがかろうじてできる。そのた
め、テレビカメラ104を基準としたマーカーM1〜M9
の3次元位置を測定することができる。
【0007】また、画像生成装置103は、ワールド座
標系を基準としたマーカーM1〜M9の3次元位置情報P
DWが格納されているマーカー位置情報格納部105
と、テレビカメラ104で得られる、テレビカメラ10
4を基準としたマーカーM1〜M9の3次元位置情報PD
Tと、マーカー位置情報格納部105より読み出される
3次元位置情報PDWとから、ワールド座標系を基準と
したテレビカメラ104の3次元位置および向きを求め
るカメラパラメータ算出部106とを有している。
標系を基準としたマーカーM1〜M9の3次元位置情報P
DWが格納されているマーカー位置情報格納部105
と、テレビカメラ104で得られる、テレビカメラ10
4を基準としたマーカーM1〜M9の3次元位置情報PD
Tと、マーカー位置情報格納部105より読み出される
3次元位置情報PDWとから、ワールド座標系を基準と
したテレビカメラ104の3次元位置および向きを求め
るカメラパラメータ算出部106とを有している。
【0008】ここで、ワールド座標系を基準としたマー
カーM1〜M9の3次元位置と、テレビカメラ104を基
準としたマーカーM1〜M9の3次元位置との関係が、あ
る回転変換Rとある並進変換Tの関係にあるとすると、
カメラパラメータ算出部106では、ワールド座標系を
基準としたテレビカメラ104の3次元位置はTとさ
れ、向きはRとされる。このカメラパラメータ算出部1
06からは、求められた3次元位置および向きの情報
が、テレビカメラ104の視点情報POVとして出力さ
れる。
カーM1〜M9の3次元位置と、テレビカメラ104を基
準としたマーカーM1〜M9の3次元位置との関係が、あ
る回転変換Rとある並進変換Tの関係にあるとすると、
カメラパラメータ算出部106では、ワールド座標系を
基準としたテレビカメラ104の3次元位置はTとさ
れ、向きはRとされる。このカメラパラメータ算出部1
06からは、求められた3次元位置および向きの情報
が、テレビカメラ104の視点情報POVとして出力さ
れる。
【0009】また、画像生成装置103は、ワールド座
標系を基準としたCG物体の3次元位置情報PCG、例
えば、3次元空間上のどの位置に、CGで作られた「気
象情報の描かれた日本地図」が仮想的に存在しているか
という情報が格納されているCG情報格納部107を有
している。この場合、CG情報格納部107には、多く
のCG物体のワールド座標系を基準にした3次元位置情
報PCGが格納されており、その中から適切なCG物体
の3次元位置情報PCGが選択的に読み出されて使用さ
れるが、この選択は後述する制御部によって行われる。
すなわち、制御部よりCG情報格納部107に供給され
る読み出し要求信号RRQにより、所定のCG物体の3
次元位置情報PCGが読み出される。
標系を基準としたCG物体の3次元位置情報PCG、例
えば、3次元空間上のどの位置に、CGで作られた「気
象情報の描かれた日本地図」が仮想的に存在しているか
という情報が格納されているCG情報格納部107を有
している。この場合、CG情報格納部107には、多く
のCG物体のワールド座標系を基準にした3次元位置情
報PCGが格納されており、その中から適切なCG物体
の3次元位置情報PCGが選択的に読み出されて使用さ
れるが、この選択は後述する制御部によって行われる。
すなわち、制御部よりCG情報格納部107に供給され
る読み出し要求信号RRQにより、所定のCG物体の3
次元位置情報PCGが読み出される。
【0010】また、画像生成装置103は、カメラパラ
メータ算出部106より出力されるテレビカメラ104
の視点情報POVとCG情報格納部107より読み出さ
れる所定のCG物体の3次元位置情報PCGとをもと
に、その所定のCG物体にテレビカメラ104の視点か
ら見た透視変換を施した投影像に対応した2次元画像デ
ータVDcを作成するCGデータ作成部108を有して
いる。この場合、CGデータ作成部108では、例え
ば、「気象情報の描かれた日本地図」を、あたかもテレ
ビカメラ104の視点(3次元位置、向き)から見た場
合の2次元画像データ(透視変換した画像に対応)VD
cが作成される。
メータ算出部106より出力されるテレビカメラ104
の視点情報POVとCG情報格納部107より読み出さ
れる所定のCG物体の3次元位置情報PCGとをもと
に、その所定のCG物体にテレビカメラ104の視点か
ら見た透視変換を施した投影像に対応した2次元画像デ
ータVDcを作成するCGデータ作成部108を有して
いる。この場合、CGデータ作成部108では、例え
ば、「気象情報の描かれた日本地図」を、あたかもテレ
ビカメラ104の視点(3次元位置、向き)から見た場
合の2次元画像データ(透視変換した画像に対応)VD
cが作成される。
【0011】また、画像生成装置103は、テレビカメ
ラ104より出力される画像データVDaを遅延させる
ための時間調整用のディレイ部109を有している。こ
の場合、CGデータ作成部108より時刻T1における
テレビカメラ104の視点から見た場合の2次元画像デ
ータVDcが出力されるとき、ディレイ部109より画
像データVDbとしてテレビカメラ104により時刻T
1で撮影して得られる画像データVDaが出力されるよ
うに、ディレイ部109の遅延時間が設定される。
ラ104より出力される画像データVDaを遅延させる
ための時間調整用のディレイ部109を有している。こ
の場合、CGデータ作成部108より時刻T1における
テレビカメラ104の視点から見た場合の2次元画像デ
ータVDcが出力されるとき、ディレイ部109より画
像データVDbとしてテレビカメラ104により時刻T
1で撮影して得られる画像データVDaが出力されるよ
うに、ディレイ部109の遅延時間が設定される。
【0012】すなわち、カメラパラメータ算出部106
やCGデータ作成部108における計算には時間がかか
るが、テレビカメラ104よりカメラパラメータ算出部
106にある時刻の3次元位置情報PDTが供給されて
からCGデータ作成部108よりその3次元位置情報P
DTに対応した2次元画像データVDcが出力されるま
でにt秒を要するとき、ディレイ部109の遅延時間は
t秒とされる。
やCGデータ作成部108における計算には時間がかか
るが、テレビカメラ104よりカメラパラメータ算出部
106にある時刻の3次元位置情報PDTが供給されて
からCGデータ作成部108よりその3次元位置情報P
DTに対応した2次元画像データVDcが出力されるま
でにt秒を要するとき、ディレイ部109の遅延時間は
t秒とされる。
【0013】このようにディレイ部109で時間調整を
することで、後述するようにCGデータ作成部108よ
り出力される2次元画像データVDcとディレイ部10
9より出力される画像データVDbとを合成する場合、
あたかもCG物体と出演者101とが同一の空間に存在
しているものを撮影して得られた画像であるかのような
合成画像を得ることが可能となる。
することで、後述するようにCGデータ作成部108よ
り出力される2次元画像データVDcとディレイ部10
9より出力される画像データVDbとを合成する場合、
あたかもCG物体と出演者101とが同一の空間に存在
しているものを撮影して得られた画像であるかのような
合成画像を得ることが可能となる。
【0014】また、画像生成装置103は、CGデータ
作成部108より出力される2次元画像データVDcと
ディレイ部109より出力される画像データVDbとを
ミックスするαブレンディング部110と、テレビカメ
ラ104より出力される画像データVDaよりαブレン
ディング部110にキー信号として供給するα値を得る
キー生成部111とを有している。
作成部108より出力される2次元画像データVDcと
ディレイ部109より出力される画像データVDbとを
ミックスするαブレンディング部110と、テレビカメ
ラ104より出力される画像データVDaよりαブレン
ディング部110にキー信号として供給するα値を得る
キー生成部111とを有している。
【0015】キー生成部111では、画像データVDa
から、青色系統の画素部分と、完全に「青色でない」画
素部分とを切り分ける作業が行われる。そして、このキ
ー生成部111からは画像データVDaの各画素毎にα
値が出力される。この場合、青色系統の画素部分ではα
=0とされ、完全に「青色でない」画素部分ではα=1
とされ、さらに中間色の部分では、0<α<1とされ
る。
から、青色系統の画素部分と、完全に「青色でない」画
素部分とを切り分ける作業が行われる。そして、このキ
ー生成部111からは画像データVDaの各画素毎にα
値が出力される。この場合、青色系統の画素部分ではα
=0とされ、完全に「青色でない」画素部分ではα=1
とされ、さらに中間色の部分では、0<α<1とされ
る。
【0016】テレビカメラ104は、青色の背景102
を使用して、例えば天気予報を説明するキャスター等の
出演者101を撮影している。したがって、背景102
の投影像の部分は青色なので、画像データVDaのうち
背景102に対応する画素部分では、α=0となる。一
方、出演者101の投影像の部分は青色ではないので、
画像データVDaのうち出演者101に対応する画素部
分では、α=1となる。さらに、出演者101と背景1
02との境界の投影像の部分は撮像レンズの歪みなどに
よりぼやけており、背景102の青色と出演者101の
青色以外の色とが混じった色となるので、画像データV
Daのうち出演者101と背景102との境界に対応す
る画素部分では、0<α<1となる。
を使用して、例えば天気予報を説明するキャスター等の
出演者101を撮影している。したがって、背景102
の投影像の部分は青色なので、画像データVDaのうち
背景102に対応する画素部分では、α=0となる。一
方、出演者101の投影像の部分は青色ではないので、
画像データVDaのうち出演者101に対応する画素部
分では、α=1となる。さらに、出演者101と背景1
02との境界の投影像の部分は撮像レンズの歪みなどに
よりぼやけており、背景102の青色と出演者101の
青色以外の色とが混じった色となるので、画像データV
Daのうち出演者101と背景102との境界に対応す
る画素部分では、0<α<1となる。
【0017】なお、上述したように、CGデータ作成部
108より時刻T1におけるテレビカメラ104の視点
から見た場合の2次元画像データVDcが出力されると
き、ディレイ部109より画像データVDbとしてテレ
ビカメラ104により時刻T1で撮影して得られる画像
データDVaが出力されるようにされるが、同様にCG
データ作成部108より時刻T1におけるテレビカメラ
104の視点から見た場合の2次元画像データVDcが
出力されるとき、キー生成部111よりテレビカメラ1
04により時刻T1で撮影して得られる画像データVD
aから得られたα値が出力されるように時間調整されて
いる。
108より時刻T1におけるテレビカメラ104の視点
から見た場合の2次元画像データVDcが出力されると
き、ディレイ部109より画像データVDbとしてテレ
ビカメラ104により時刻T1で撮影して得られる画像
データDVaが出力されるようにされるが、同様にCG
データ作成部108より時刻T1におけるテレビカメラ
104の視点から見た場合の2次元画像データVDcが
出力されるとき、キー生成部111よりテレビカメラ1
04により時刻T1で撮影して得られる画像データVD
aから得られたα値が出力されるように時間調整されて
いる。
【0018】αブレンディング部110では、CGデー
タ作成部108で作成される2次元画像データVDcと
ディレイ部109より出力される画像データVDbに対
して、以下の(1)式の演算が施されて、合成画像デー
タVDdが得られる。 VDd=α×VDb+(1−α)×VDc ・・・(1)
タ作成部108で作成される2次元画像データVDcと
ディレイ部109より出力される画像データVDbに対
して、以下の(1)式の演算が施されて、合成画像デー
タVDdが得られる。 VDd=α×VDb+(1−α)×VDc ・・・(1)
【0019】ここで、画像データVDbの背景102に
対応する画素部分ではα=0であるため、αブレンディ
ング部110からは合成画像データVDdとして2次元
画像データVDcがそのまま出力される。また、画像デ
ータVDbの出演者101に対応する画素部分ではα=
1であるため、αブレンディング部110からは合成画
像データVDdとして画像データVDbがそのまま出力
される。さらに、画像データVDbの背景102と出演
者101との境界に対応する画素部分では0<α<1で
あり、αブレンディング部110からは画像データVD
b,VDcが混じった合成画像データVDdが出力され
る。このように、画像データVDbの背景102と出演
者101との境界に対応する画素部分で、画像データV
Db,VDcが混じった合成画像データVDdが出力さ
れるようにすることで、いわゆる境界部分のなじみをよ
くできる。
対応する画素部分ではα=0であるため、αブレンディ
ング部110からは合成画像データVDdとして2次元
画像データVDcがそのまま出力される。また、画像デ
ータVDbの出演者101に対応する画素部分ではα=
1であるため、αブレンディング部110からは合成画
像データVDdとして画像データVDbがそのまま出力
される。さらに、画像データVDbの背景102と出演
者101との境界に対応する画素部分では0<α<1で
あり、αブレンディング部110からは画像データVD
b,VDcが混じった合成画像データVDdが出力され
る。このように、画像データVDbの背景102と出演
者101との境界に対応する画素部分で、画像データV
Db,VDcが混じった合成画像データVDdが出力さ
れるようにすることで、いわゆる境界部分のなじみをよ
くできる。
【0020】また、画像生成装置103は、合成画像デ
ータVDdを視聴者に提供される合成画像のデータとし
て出力する出力端子112と、この合成画像データVD
dが供給され、その合成画像データVDdによる画像を
出演者101の演技を補助するための画像として表示す
るモニタ113とを有している。
ータVDdを視聴者に提供される合成画像のデータとし
て出力する出力端子112と、この合成画像データVD
dが供給され、その合成画像データVDdによる画像を
出演者101の演技を補助するための画像として表示す
るモニタ113とを有している。
【0021】また、画像生成装置103は、ディレクタ
の操作に応じてCG情報格納部107に読み出し要求信
号RRQを供給する制御部114を有している。この制
御部114には、通常ユーザインタフェースが設けられ
ている。すなわち、テレビカメラ104より出力される
画像データVDaが供給され、モニタ(図示せず)にそ
の画像データVDaによる画像が表示され、バーチャル
スタジオ全体を運営管理しているディレクタに対して、
テレビカメラ104の撮影情報が提供される。ディレク
タは、例えば天気予報番組の現在の進行状況に合わせ
て、適切なCGの画像を選択し、制御部114の入力装
置(図示せず)に、その情報を入力する。これに対応し
て、制御部114はその情報を読み出し要求信号RRQ
としてCG情報格納部107に供給する。
の操作に応じてCG情報格納部107に読み出し要求信
号RRQを供給する制御部114を有している。この制
御部114には、通常ユーザインタフェースが設けられ
ている。すなわち、テレビカメラ104より出力される
画像データVDaが供給され、モニタ(図示せず)にそ
の画像データVDaによる画像が表示され、バーチャル
スタジオ全体を運営管理しているディレクタに対して、
テレビカメラ104の撮影情報が提供される。ディレク
タは、例えば天気予報番組の現在の進行状況に合わせ
て、適切なCGの画像を選択し、制御部114の入力装
置(図示せず)に、その情報を入力する。これに対応し
て、制御部114はその情報を読み出し要求信号RRQ
としてCG情報格納部107に供給する。
【0022】例えば、ディレクタが、現在、日本の天気
予報を放送する時間であると判断した場合は、「気象情
報の描かれた日本地図」を提供するように制御部114
に指示する。制御部114は、この情報を読み出し要求
信号RRQとしてCG情報格納部107に供給する。こ
れにより、CGで作られた「気象情報の描かれた日本地
図」の3次元位置情報PCGが、CG情報格納部107
より読み出されてCGデータ作成部108に供給され
る。
予報を放送する時間であると判断した場合は、「気象情
報の描かれた日本地図」を提供するように制御部114
に指示する。制御部114は、この情報を読み出し要求
信号RRQとしてCG情報格納部107に供給する。こ
れにより、CGで作られた「気象情報の描かれた日本地
図」の3次元位置情報PCGが、CG情報格納部107
より読み出されてCGデータ作成部108に供給され
る。
【0023】次に、画像生成装置103の動作を説明す
る。背景102をバックに出演者101がテレビカメラ
104で撮影され、このテレビカメラ104より画像デ
ータVDaが得られ、この画像データVDaはディレイ
部109でカメラパラメータ算出部106およびCGデ
ータ作成部108の処理時間に対応する時間だけ遅延さ
れ、画像データVDbとしてαブレンディング部110
に供給される。
る。背景102をバックに出演者101がテレビカメラ
104で撮影され、このテレビカメラ104より画像デ
ータVDaが得られ、この画像データVDaはディレイ
部109でカメラパラメータ算出部106およびCGデ
ータ作成部108の処理時間に対応する時間だけ遅延さ
れ、画像データVDbとしてαブレンディング部110
に供給される。
【0024】また、テレビカメラ104より、このテレ
ビカメラ104を基準としたマーカーM1〜M9の3次元
位置情報PDTが出力され、この3次元位置情報PDT
はカメラパラメータ算出部106に供給される。一方、
ワールド座標系を基準としたマーカーM1〜M9の3次元
位置情報PDWがマーカー位置情報格納部105より読
み出されてカメラパラメータ算出部106に供給され
る。カメラパラメータ算出部106では、マーカーM1
〜M9の3次元位置情報PDT,PDWから、ワールド
座標系を基準としたテレビカメラ104の3次元位置お
よび向きが算出される。
ビカメラ104を基準としたマーカーM1〜M9の3次元
位置情報PDTが出力され、この3次元位置情報PDT
はカメラパラメータ算出部106に供給される。一方、
ワールド座標系を基準としたマーカーM1〜M9の3次元
位置情報PDWがマーカー位置情報格納部105より読
み出されてカメラパラメータ算出部106に供給され
る。カメラパラメータ算出部106では、マーカーM1
〜M9の3次元位置情報PDT,PDWから、ワールド
座標系を基準としたテレビカメラ104の3次元位置お
よび向きが算出される。
【0025】カメラパラメータ算出部106で求められ
るテレビカメラ104の3次元位置および向きの情報
は、テレビカメラ104の視点情報POVとしてCGデ
ータ作成部108に供給される。一方、制御部114よ
り供給される読み出し要求信号RRQに対応してCG情
報格納部107より所定のCG物体の3次元位置情報P
CGが読み出され、この3次元位置情報PCGはCGデ
ータ作成部108に供給される。CGデータ作成部10
8では、テレビカメラ104の視点情報POVと所定の
CG物体の3次元位置情報PCGとをもとに、その所定
のCG物体にテレビカメラ104の視点から見た透視変
換を施した投影像に対応した2次元画像データVDcが
作成される。例えば、「気象情報の描かれた日本地図」
を、あたかもテレビカメラ104の視点から見た場合の
2次元画像データVDcが作成される。そして、このC
Gデータ作成部108で作成される2次元画像データV
Dcはαブレンディング部110に供給される。
るテレビカメラ104の3次元位置および向きの情報
は、テレビカメラ104の視点情報POVとしてCGデ
ータ作成部108に供給される。一方、制御部114よ
り供給される読み出し要求信号RRQに対応してCG情
報格納部107より所定のCG物体の3次元位置情報P
CGが読み出され、この3次元位置情報PCGはCGデ
ータ作成部108に供給される。CGデータ作成部10
8では、テレビカメラ104の視点情報POVと所定の
CG物体の3次元位置情報PCGとをもとに、その所定
のCG物体にテレビカメラ104の視点から見た透視変
換を施した投影像に対応した2次元画像データVDcが
作成される。例えば、「気象情報の描かれた日本地図」
を、あたかもテレビカメラ104の視点から見た場合の
2次元画像データVDcが作成される。そして、このC
Gデータ作成部108で作成される2次元画像データV
Dcはαブレンディング部110に供給される。
【0026】また、テレビカメラ104より出力される
画像データVDaがキー生成部111に供給され、キー
生成部111では画像データVDaからいわゆるソフト
キーを達成するキー信号としてのα値が生成される。そ
して、このα値はαブレンディング部110に供給され
る。そして、αブレンディング部110では、CGデー
タ作成部108より出力される2次元画像データVDc
とディレイ部109より出力される画像データVDbに
対して、(1)式の演算が施されて、所定のCG物体の
投影像と出演者101の投影像との合成画像を表示する
ための合成画像データVDdが得られる。
画像データVDaがキー生成部111に供給され、キー
生成部111では画像データVDaからいわゆるソフト
キーを達成するキー信号としてのα値が生成される。そ
して、このα値はαブレンディング部110に供給され
る。そして、αブレンディング部110では、CGデー
タ作成部108より出力される2次元画像データVDc
とディレイ部109より出力される画像データVDbに
対して、(1)式の演算が施されて、所定のCG物体の
投影像と出演者101の投影像との合成画像を表示する
ための合成画像データVDdが得られる。
【0027】αブレンディング部110より出力される
合成画像データVDdは出力端子112に出力され、視
聴者に提供される合成画像のデータとされる。また、こ
の合成画像データVDdはモニタ113に供給され、こ
のモニタ113の画面上に合成画像データVDdによる
画像が出演者101の演技を補助するための画像として
表示される。
合成画像データVDdは出力端子112に出力され、視
聴者に提供される合成画像のデータとされる。また、こ
の合成画像データVDdはモニタ113に供給され、こ
のモニタ113の画面上に合成画像データVDdによる
画像が出演者101の演技を補助するための画像として
表示される。
【0028】図4A〜Dを使用して、画像生成装置10
3の各処理において、実際にどのような画像が生成され
ているかを説明する。
3の各処理において、実際にどのような画像が生成され
ているかを説明する。
【0029】図4Aは、テレビカメラ104よりある時
刻において出力される画像データVDaによる画像を示
している。背景102に対応する画素部分は青色系統で
ある。出演者101に対応する画素部分は青色ではな
い。さらに、出演者101と背景102との境界の画素
部分は青色と青色以外の色とが混じった色となる。な
お、出演者101、背景102、マーカーM1〜M9に対
応する画像部分には、それぞれ同一符号を付して示して
いる。以下の各画像においても同様である。
刻において出力される画像データVDaによる画像を示
している。背景102に対応する画素部分は青色系統で
ある。出演者101に対応する画素部分は青色ではな
い。さらに、出演者101と背景102との境界の画素
部分は青色と青色以外の色とが混じった色となる。な
お、出演者101、背景102、マーカーM1〜M9に対
応する画像部分には、それぞれ同一符号を付して示して
いる。以下の各画像においても同様である。
【0030】図4Bは、キー生成部111より出力され
るα値を示している。背景102に対応する画素部分で
はα=0である。出演者101に対応する画素部分では
α=1である。さらに、出演者101と背景102との
境界の画素部分では、0<α<1となる。
るα値を示している。背景102に対応する画素部分で
はα=0である。出演者101に対応する画素部分では
α=1である。さらに、出演者101と背景102との
境界の画素部分では、0<α<1となる。
【0031】図4Cは、CGデータ作成部108で作成
される2次元画像データVDcによる画像を示してい
る。ここでは、CG情報格納部107から、CGで作ら
れた「気象情報の描かれた日本地図」の3次元位置情報
PCGが読み出された場合を示している。
される2次元画像データVDcによる画像を示してい
る。ここでは、CG情報格納部107から、CGで作ら
れた「気象情報の描かれた日本地図」の3次元位置情報
PCGが読み出された場合を示している。
【0032】図4Dは、αブレンディング部110より
出力される合成画像データVDdによる画像を示してい
る。すなわち、各画素のα値によって、各画素毎に、図
4Aに示す画像と図4Cに示す画像とがミックスされた
画像である。
出力される合成画像データVDdによる画像を示してい
る。すなわち、各画素のα値によって、各画素毎に、図
4Aに示す画像と図4Cに示す画像とがミックスされた
画像である。
【0033】さらに、次の時刻において、テレビカメラ
104が移動した場合を考えてみる。この場合、出演者
101が静止していたとしても、テレビカメラ104よ
り出力される画像データVDaによる画像内の出演者1
01に対応する画像部分は画面上で移動することにな
る。カメラパラメータ算出部106では、ワールド座標
系を基準としたテレビカメラ104の3次元位置および
向きが算出され、この3次元位置および向きの情報がテ
レビカメラ104の視点情報POVとしてCGデータ作
成部108に供給されるので、CG情報格納部107よ
り読み出されるCG物体の3次元位置情報PCGが同じ
であっても、CGデータ作成部108より出力される2
次元画像データVDcは変化する。なぜなら、透視変換
において、見る位置が変化すれば、投影像も変化するか
らである。
104が移動した場合を考えてみる。この場合、出演者
101が静止していたとしても、テレビカメラ104よ
り出力される画像データVDaによる画像内の出演者1
01に対応する画像部分は画面上で移動することにな
る。カメラパラメータ算出部106では、ワールド座標
系を基準としたテレビカメラ104の3次元位置および
向きが算出され、この3次元位置および向きの情報がテ
レビカメラ104の視点情報POVとしてCGデータ作
成部108に供給されるので、CG情報格納部107よ
り読み出されるCG物体の3次元位置情報PCGが同じ
であっても、CGデータ作成部108より出力される2
次元画像データVDcは変化する。なぜなら、透視変換
において、見る位置が変化すれば、投影像も変化するか
らである。
【0034】ある時刻とその次の時刻における透視変換
した画像データVDcによる画像のの変化量は、テレビ
カメラ104の移動による画像の変化量と同じである。
したがって、ある時刻とその次の時刻における透視変換
した画像データVDcによる画像の変化量は、テレビカ
メラ104で撮影された出演者101の投影像の移動量
に対応したものとなる。そのため、最終的に得られる合
成画像データVDdによる画像において、出演者101
の投影像およびCD物体の投影像は同じように動くこと
になる。つまり、最終的に得られる合成画像データVD
dによる画像は、あたかも、CGの物体、例えば、気象
情報の描かれた日本地図と出演者101とが同一の空間
に存在しているものを撮影した画像であるかのように見
える。
した画像データVDcによる画像のの変化量は、テレビ
カメラ104の移動による画像の変化量と同じである。
したがって、ある時刻とその次の時刻における透視変換
した画像データVDcによる画像の変化量は、テレビカ
メラ104で撮影された出演者101の投影像の移動量
に対応したものとなる。そのため、最終的に得られる合
成画像データVDdによる画像において、出演者101
の投影像およびCD物体の投影像は同じように動くこと
になる。つまり、最終的に得られる合成画像データVD
dによる画像は、あたかも、CGの物体、例えば、気象
情報の描かれた日本地図と出演者101とが同一の空間
に存在しているものを撮影した画像であるかのように見
える。
【0035】
【発明が解決しようとする課題】上述した画像生成装置
103においては、モニタ113に合成画像データVD
dによる画像、つまり出演者101の投影像とCG物体
の投影像との合成画像が表示される。出演者101はそ
の画像を見ながら演技することで、自分がいまCG物体
とどのような位置関係にあるかを把握できる。これによ
り、出演者101は、例えばCGで作られた「気象情報
の描かれた日本地図」の特定の部分を指し示すことも可
能である。
103においては、モニタ113に合成画像データVD
dによる画像、つまり出演者101の投影像とCG物体
の投影像との合成画像が表示される。出演者101はそ
の画像を見ながら演技することで、自分がいまCG物体
とどのような位置関係にあるかを把握できる。これによ
り、出演者101は、例えばCGで作られた「気象情報
の描かれた日本地図」の特定の部分を指し示すことも可
能である。
【0036】ところで、上述したように、カメラパラメ
ータ算出部106およびCGデータ作成部108の処理
にt秒を要するとき、ディレイ部109の遅延時間がt
秒とされて時間調整が行われている。そのため、モニタ
113に表示される画像は、t秒前の時刻の事象を撮影
した画像となる。具体的には、出演者101が手をあげ
た場合、、モニタ113に表示される出演者101の投
影像はt秒後に手をあげることになる。このように、t
秒前の自分自身の動作をモニタ113で見ながら演技を
していくことは、出演者101にとって演技しずらいと
いう問題点があった。
ータ算出部106およびCGデータ作成部108の処理
にt秒を要するとき、ディレイ部109の遅延時間がt
秒とされて時間調整が行われている。そのため、モニタ
113に表示される画像は、t秒前の時刻の事象を撮影
した画像となる。具体的には、出演者101が手をあげ
た場合、、モニタ113に表示される出演者101の投
影像はt秒後に手をあげることになる。このように、t
秒前の自分自身の動作をモニタ113で見ながら演技を
していくことは、出演者101にとって演技しずらいと
いう問題点があった。
【0037】そこで、この発明では、出演者の動きに対
する演技を補助する画像の遅れをなくし、出演者が演技
しやすいようにすることを目的とする。
する演技を補助する画像の遅れをなくし、出演者が演技
しやすいようにすることを目的とする。
【0038】
【課題を解決するための手段】この発明に係る画像生成
装置は、所定の背景をバックに出演者を撮影して第1の
画像データを得る移動可能な撮像手段と、この撮像手段
の視点を求めるカメラパラメータ算出手段と、このカメ
ラパラメータ算出手段で求められる撮像手段の視点から
見た場合の透視変換を施した所定物体の投影像に対応し
た第2の画像データを作成する第1の画像データ作成手
段と、第1の画像データをカメラパラメータ算出手段お
よび第1の画像データ作成手段における処理時間に対応
して遅延させた第3の画像データを得るデータ遅延手段
と、第3の画像データと第2の画像データとを合成して
第1の合成画像データを得る第1の画像データ合成手段
と、第1の画像データと第2の画像データとを合成して
第2の合成画像データを得る第2の画像データ合成手段
と、この第2の合成画像データによる出演者に対しての
演技補助のための画像を表示する画像表示手段とを備え
るものである。
装置は、所定の背景をバックに出演者を撮影して第1の
画像データを得る移動可能な撮像手段と、この撮像手段
の視点を求めるカメラパラメータ算出手段と、このカメ
ラパラメータ算出手段で求められる撮像手段の視点から
見た場合の透視変換を施した所定物体の投影像に対応し
た第2の画像データを作成する第1の画像データ作成手
段と、第1の画像データをカメラパラメータ算出手段お
よび第1の画像データ作成手段における処理時間に対応
して遅延させた第3の画像データを得るデータ遅延手段
と、第3の画像データと第2の画像データとを合成して
第1の合成画像データを得る第1の画像データ合成手段
と、第1の画像データと第2の画像データとを合成して
第2の合成画像データを得る第2の画像データ合成手段
と、この第2の合成画像データによる出演者に対しての
演技補助のための画像を表示する画像表示手段とを備え
るものである。
【0039】この発明に係る画像生成方法は、移動可能
な撮像手段により所定の背景をバックに出演者を撮影し
て第1の画像データを得るステップと、撮像手段の視点
を求めるステップと、撮像手段の視点から見た場合の透
視変換を施した所定物体の投影像に対応した第2の画像
データを作成するステップと、第1の画像データを撮像
手段の視点を求めるステップおよび第2の画像データを
作成するステップにおける処理時間に対応して遅延させ
て第3の画像データを得るステップと、第3の画像デー
タと第2の画像データとを合成して第1の合成画像デー
タを得るステップと、第1の画像データと第2の画像デ
ータとを合成して第2の合成画像データを得るステップ
と、第2の合成画像データによる上記出演者に対しての
演技補助のための画像を表示するステップとを備えるも
のである。
な撮像手段により所定の背景をバックに出演者を撮影し
て第1の画像データを得るステップと、撮像手段の視点
を求めるステップと、撮像手段の視点から見た場合の透
視変換を施した所定物体の投影像に対応した第2の画像
データを作成するステップと、第1の画像データを撮像
手段の視点を求めるステップおよび第2の画像データを
作成するステップにおける処理時間に対応して遅延させ
て第3の画像データを得るステップと、第3の画像デー
タと第2の画像データとを合成して第1の合成画像デー
タを得るステップと、第1の画像データと第2の画像デ
ータとを合成して第2の合成画像データを得るステップ
と、第2の合成画像データによる上記出演者に対しての
演技補助のための画像を表示するステップとを備えるも
のである。
【0040】所定の背景、例えば青色の背景をバックに
出演者が移動可能な撮像手段で撮影されて第1の画像デ
ータが得られ、この第1の画像データが遅延処理されて
第3の画像データが得られる。また、撮像手段の視点、
例えばワールド座標系を基準とした撮像手段の3次元位
置および向きが求められ、この視点から見た場合の透視
変換を施した所定物体、例えばCG物体の投影像に対応
した第2の画像データが作成される。そして、第3の画
像データと第2の画像データとが合成され、例えば視聴
者に提供する合成画像に係る第1の合成画像データが得
られる。
出演者が移動可能な撮像手段で撮影されて第1の画像デ
ータが得られ、この第1の画像データが遅延処理されて
第3の画像データが得られる。また、撮像手段の視点、
例えばワールド座標系を基準とした撮像手段の3次元位
置および向きが求められ、この視点から見た場合の透視
変換を施した所定物体、例えばCG物体の投影像に対応
した第2の画像データが作成される。そして、第3の画
像データと第2の画像データとが合成され、例えば視聴
者に提供する合成画像に係る第1の合成画像データが得
られる。
【0041】この場合、第3の画像データは第2の画像
データを得るための処理時間に対応して第1の画像デー
タが遅延処理されてなるものであり、ある時刻に撮像手
段で撮影して得られた第3の画像データと、このある時
刻における撮像手段の視点から見た場合の透視変換を施
した所定物体の投影像に対応した第2の画像データとが
合成されるようにされる。そのため、出演者の動きに対
して、第1の合成画像データによる画像における出演者
の投影像の動きは、第3の画像データが遅延処理された
ものである分だけ遅れたものとなる。
データを得るための処理時間に対応して第1の画像デー
タが遅延処理されてなるものであり、ある時刻に撮像手
段で撮影して得られた第3の画像データと、このある時
刻における撮像手段の視点から見た場合の透視変換を施
した所定物体の投影像に対応した第2の画像データとが
合成されるようにされる。そのため、出演者の動きに対
して、第1の合成画像データによる画像における出演者
の投影像の動きは、第3の画像データが遅延処理された
ものである分だけ遅れたものとなる。
【0042】また、撮像手段より出力される第1の画像
データと第2の画像データとが合成されて第2の合成画
像データが得られる。そして、この第2の合成画像デー
タによる画像が出演者に対しての演技補助のための画像
として表示される。第2の合成画像データを得る際に第
1の画像データを遅延処理をせずにそのまま使用してい
るので、第2の合成画像データによる画像における出演
者の投影像の動きは、ほとんど遅れのないものとなる。
データと第2の画像データとが合成されて第2の合成画
像データが得られる。そして、この第2の合成画像デー
タによる画像が出演者に対しての演技補助のための画像
として表示される。第2の合成画像データを得る際に第
1の画像データを遅延処理をせずにそのまま使用してい
るので、第2の合成画像データによる画像における出演
者の投影像の動きは、ほとんど遅れのないものとなる。
【0043】また、第1の画像データに基づいて第1の
画像データまたは第2の画像データのいずれかを取り出
すための画像切換信号を得る画像切換信号発生手段をさ
らに備え、第2の画像データ合成手段では、画像切換信
号によって第1の画像データおよび第2の画像データが
切り換え合成されるようにしてもよい。例えば、画像デ
ータ合成手段がαブレンディング部で構成される場合、
画像切換信号としてのα値は、0または1となる。すな
わち、画像切換信号発生手段では、第1の画像データが
ある閾値を越えるか否かでα値を決定して出力でき、画
像切換信号を簡単かつ高速に得ることが可能となる。
画像データまたは第2の画像データのいずれかを取り出
すための画像切換信号を得る画像切換信号発生手段をさ
らに備え、第2の画像データ合成手段では、画像切換信
号によって第1の画像データおよび第2の画像データが
切り換え合成されるようにしてもよい。例えば、画像デ
ータ合成手段がαブレンディング部で構成される場合、
画像切換信号としてのα値は、0または1となる。すな
わち、画像切換信号発生手段では、第1の画像データが
ある閾値を越えるか否かでα値を決定して出力でき、画
像切換信号を簡単かつ高速に得ることが可能となる。
【0044】また、カメラパラメータ算出手段で求めら
れる撮像手段の視点から、現在時刻あるいはそれより後
の時刻における撮像手段の視点を予測するカメラパラメ
ータ予測手段と、このカメラパラメータ予測手段で予測
された撮像手段の視点から見た場合の透視変換を施した
所定物体の投影像に対応した第4の画像データを作成す
る第2の画像データ作成手段とをさらに備え、第2の画
像データ合成手段では、第1および第2の画像データを
合成する代わりに、第1および第4の画像データを合成
するようにしてもよい。
れる撮像手段の視点から、現在時刻あるいはそれより後
の時刻における撮像手段の視点を予測するカメラパラメ
ータ予測手段と、このカメラパラメータ予測手段で予測
された撮像手段の視点から見た場合の透視変換を施した
所定物体の投影像に対応した第4の画像データを作成す
る第2の画像データ作成手段とをさらに備え、第2の画
像データ合成手段では、第1および第2の画像データを
合成する代わりに、第1および第4の画像データを合成
するようにしてもよい。
【0045】この場合、第4の画像データは、現在時刻
における撮像手段の視点から見た場合の透視変換を施し
た所定物体の投影像に対応したものとなる。したがっ
て、現在時刻の第1の画像データと、その現在時刻にお
ける撮像手段の視点から見た場合の透視変換を施した所
定物体の投影像に対応した画像データとが合成されて第
2の合成画像データが得られることとなり、撮像手段が
移動している間であっても、あたかも所定物体と出演者
とが同一の空間に存在しているものを撮影して得られた
画像であるかのような正確な合成画像(演技補助画像)
を得ることが可能となり、出演者は移動時の演技がしや
すくなる。
における撮像手段の視点から見た場合の透視変換を施し
た所定物体の投影像に対応したものとなる。したがっ
て、現在時刻の第1の画像データと、その現在時刻にお
ける撮像手段の視点から見た場合の透視変換を施した所
定物体の投影像に対応した画像データとが合成されて第
2の合成画像データが得られることとなり、撮像手段が
移動している間であっても、あたかも所定物体と出演者
とが同一の空間に存在しているものを撮影して得られた
画像であるかのような正確な合成画像(演技補助画像)
を得ることが可能となり、出演者は移動時の演技がしや
すくなる。
【0046】
【発明の実施の形態】以下、図面を参照しながら、この
発明の実施の形態について説明する。図1は、この発明
の第1の実施の形態としての画像生成装置3が備えられ
たバーチャルスタジオを示している。このバーチャルス
タジオでは、図3に示すバーチャルスタジオと同様に、
青色の背景をバックにテレビカメラにより出演者を撮影
し、このテレビカメラからの画像データに、CGで作成
された物体、例えば気象情報の描かれた日本地図等の画
像データを合成し、視聴者に提供する合成画像に係る合
成画像データを得ることが行われている。
発明の実施の形態について説明する。図1は、この発明
の第1の実施の形態としての画像生成装置3が備えられ
たバーチャルスタジオを示している。このバーチャルス
タジオでは、図3に示すバーチャルスタジオと同様に、
青色の背景をバックにテレビカメラにより出演者を撮影
し、このテレビカメラからの画像データに、CGで作成
された物体、例えば気象情報の描かれた日本地図等の画
像データを合成し、視聴者に提供する合成画像に係る合
成画像データを得ることが行われている。
【0047】このバーチャルスタジオにおいて、出演者
1は、青色の背景2を使用して撮影される。この背景2
には、図3に示すバーチャルスタジオにおける背景10
2と同様に、青色系統で目立たないマーカー(模様)M
1〜M9が付されている。マーカーM1〜M9の3次元上で
の位置は、特定の絶対不動の座標系(ワールド座標系)
を基準として、あらかじめ測定されている。
1は、青色の背景2を使用して撮影される。この背景2
には、図3に示すバーチャルスタジオにおける背景10
2と同様に、青色系統で目立たないマーカー(模様)M
1〜M9が付されている。マーカーM1〜M9の3次元上で
の位置は、特定の絶対不動の座標系(ワールド座標系)
を基準として、あらかじめ測定されている。
【0048】次に、画像生成装置3を説明する。この画
像生成装置3は、背景2をバックに出演者1を撮影する
移動可能なテレビカメラ4を有している。上述したよう
にマーカーM1〜M9は、青色の背景2の中にあることか
ら目立たないが、テレビカメラ4で認識することがかろ
うじてできる。そのため、テレビカメラ4を基準とした
マーカーM1〜M9の3次元位置を測定できる。
像生成装置3は、背景2をバックに出演者1を撮影する
移動可能なテレビカメラ4を有している。上述したよう
にマーカーM1〜M9は、青色の背景2の中にあることか
ら目立たないが、テレビカメラ4で認識することがかろ
うじてできる。そのため、テレビカメラ4を基準とした
マーカーM1〜M9の3次元位置を測定できる。
【0049】また、画像生成装置3は、ワールド座標系
を基準としたマーカーM1〜M9の3次元位置情報PDW
が格納されているマーカー位置情報格納部5と、テレビ
カメラ4で得られる、テレビカメラ4を基準としたマー
カーM1〜M9の3次元位置情報PDTと、マーカー位置
情報格納部5より読み出される3次元位置情報PDWと
から、ワールド座標系を基準としたテレビカメラ4の3
次元位置および向きを求めるカメラパラメータ算出部6
とを有している。
を基準としたマーカーM1〜M9の3次元位置情報PDW
が格納されているマーカー位置情報格納部5と、テレビ
カメラ4で得られる、テレビカメラ4を基準としたマー
カーM1〜M9の3次元位置情報PDTと、マーカー位置
情報格納部5より読み出される3次元位置情報PDWと
から、ワールド座標系を基準としたテレビカメラ4の3
次元位置および向きを求めるカメラパラメータ算出部6
とを有している。
【0050】ここで、ワールド座標系を基準としたマー
カーM1〜M9の3次元位置と、テレビカメラ4を基準と
したマーカーM1〜M9の3次元位置との関係が、ある回
転変換Rとある並進変換Tの関係にあるとすると、カメ
ラパラメータ算出部6では、ワールド座標系を基準とし
たテレビカメラ4の3次元位置はTとされ、向きはRと
される。このカメラパラメータ算出部6からは、求めら
れた3次元位置および向きの情報が、テレビカメラ4の
視点情報POVとして出力される。
カーM1〜M9の3次元位置と、テレビカメラ4を基準と
したマーカーM1〜M9の3次元位置との関係が、ある回
転変換Rとある並進変換Tの関係にあるとすると、カメ
ラパラメータ算出部6では、ワールド座標系を基準とし
たテレビカメラ4の3次元位置はTとされ、向きはRと
される。このカメラパラメータ算出部6からは、求めら
れた3次元位置および向きの情報が、テレビカメラ4の
視点情報POVとして出力される。
【0051】なお、背景2の中のマーカーM1〜M9の個
数は9個であるが、これ以外の個数であってもよい。ま
た、テレビカメラ4に機械的に取り付けられたセンサに
より、テレビカメラ4のワールド座標系における3次元
位置および向きを求めることも可能である。例えば、テ
レビカメラ4を雲台に載せておき、歯車を使ってテレビ
カメラ4を回転できるようにしておく。歯車の回転した
量によって、テレビカメラ4の向きを知ることができ
る。この場合、テレビカメラ4よりカメラパラメータ算
出部6に供給されるデータは、歯車の回転量であり、こ
の回転量からテレビカメラ4の向きなどを算出するよう
にカメラパラメータ算出部6を構成しておく。マーカー
位置情報格納部5は不要となる。いずれにせよ、カメラ
パラメータ算出部6からは、ワールド座標系を基準とし
たテレビカメラ4の3次元位置および向きの情報が、テ
レビカメラ4の視点情報POVとして出力される。
数は9個であるが、これ以外の個数であってもよい。ま
た、テレビカメラ4に機械的に取り付けられたセンサに
より、テレビカメラ4のワールド座標系における3次元
位置および向きを求めることも可能である。例えば、テ
レビカメラ4を雲台に載せておき、歯車を使ってテレビ
カメラ4を回転できるようにしておく。歯車の回転した
量によって、テレビカメラ4の向きを知ることができ
る。この場合、テレビカメラ4よりカメラパラメータ算
出部6に供給されるデータは、歯車の回転量であり、こ
の回転量からテレビカメラ4の向きなどを算出するよう
にカメラパラメータ算出部6を構成しておく。マーカー
位置情報格納部5は不要となる。いずれにせよ、カメラ
パラメータ算出部6からは、ワールド座標系を基準とし
たテレビカメラ4の3次元位置および向きの情報が、テ
レビカメラ4の視点情報POVとして出力される。
【0052】また、画像生成装置3は、ワールド座標系
を基準としたCG物体の3次元位置情報PCG、例え
ば、3次元空間上のどの位置に、CGで作られた「気象
情報の描かれた日本地図」が仮想的に存在しているかと
いう情報が格納されているCG情報格納部7を有してい
る。この場合、CG情報格納部7には、多くのCG物体
のワールド座標系を基準にした3次元位置情報PCGが
格納されており、その中から適切なCG物体の3次元位
置情報PCGが選択的に読み出されて使用されるが、こ
の選択は後述する制御部によって行われる。すなわち、
制御部よりCG情報格納部7に供給される読み出し要求
信号RRQにより、所定のCG物体の3次元位置情報P
CGが読み出される。
を基準としたCG物体の3次元位置情報PCG、例え
ば、3次元空間上のどの位置に、CGで作られた「気象
情報の描かれた日本地図」が仮想的に存在しているかと
いう情報が格納されているCG情報格納部7を有してい
る。この場合、CG情報格納部7には、多くのCG物体
のワールド座標系を基準にした3次元位置情報PCGが
格納されており、その中から適切なCG物体の3次元位
置情報PCGが選択的に読み出されて使用されるが、こ
の選択は後述する制御部によって行われる。すなわち、
制御部よりCG情報格納部7に供給される読み出し要求
信号RRQにより、所定のCG物体の3次元位置情報P
CGが読み出される。
【0053】また、画像生成装置3は、カメラパラメー
タ算出部6より出力されるテレビカメラ4の視点情報P
OVとCG情報格納部7より読み出される所定のCG物
体の3次元位置情報PCGとをもとに、その所定のCG
物体にテレビカメラ4の視点から見た透視変換を施した
投影像に対応した2次元画像データVDcを作成するC
Gデータ作成部8を有している。この場合、CGデータ
作成部8では、例えば、「気象情報の描かれた日本地
図」を、あたかもテレビカメラ4の視点(3次元位置、
向き)から見た場合の2次元画像データ(透視変換した
画像に対応)VDcが作成される。
タ算出部6より出力されるテレビカメラ4の視点情報P
OVとCG情報格納部7より読み出される所定のCG物
体の3次元位置情報PCGとをもとに、その所定のCG
物体にテレビカメラ4の視点から見た透視変換を施した
投影像に対応した2次元画像データVDcを作成するC
Gデータ作成部8を有している。この場合、CGデータ
作成部8では、例えば、「気象情報の描かれた日本地
図」を、あたかもテレビカメラ4の視点(3次元位置、
向き)から見た場合の2次元画像データ(透視変換した
画像に対応)VDcが作成される。
【0054】また、画像生成装置3は、テレビカメラ4
より出力される画像データVDaを遅延させるための時
間調整用のディレイ部9を有している。この場合、CG
データ作成部8より時刻T1におけるテレビカメラ4の
視点から見た場合の2次元画像データVDcが出力され
るとき、ディレイ部9より画像データVDbとしてテレ
ビカメラ4により時刻T1で撮影して得られる画像デー
タVDaが出力されるように、ディレイ部9の遅延時間
が設定されている。
より出力される画像データVDaを遅延させるための時
間調整用のディレイ部9を有している。この場合、CG
データ作成部8より時刻T1におけるテレビカメラ4の
視点から見た場合の2次元画像データVDcが出力され
るとき、ディレイ部9より画像データVDbとしてテレ
ビカメラ4により時刻T1で撮影して得られる画像デー
タVDaが出力されるように、ディレイ部9の遅延時間
が設定されている。
【0055】すなわち、カメラパラメータ算出部6やC
Gデータ作成部8における計算には一定の時間がかかる
が、テレビカメラ4よりカメラパラメータ算出部6にあ
る時刻の3次元位置情報PDTが供給されてからCGデ
ータ作成部8よりその3次元位置情報PDTに対応した
2次元画像データVDcが出力されるまでにt秒を要す
るとき、ディレイ部9の遅延時間はt秒とされる。
Gデータ作成部8における計算には一定の時間がかかる
が、テレビカメラ4よりカメラパラメータ算出部6にあ
る時刻の3次元位置情報PDTが供給されてからCGデ
ータ作成部8よりその3次元位置情報PDTに対応した
2次元画像データVDcが出力されるまでにt秒を要す
るとき、ディレイ部9の遅延時間はt秒とされる。
【0056】このようにディレイ部9で時間調整をする
ことで、後述するようにCGデータ作成部8より出力さ
れる2次元画像データVDcとディレイ部9より出力さ
れる画像データVDbとを合成する場合、あたかもCG
物体と出演者1とが同一の空間に存在しているものを撮
影して得られた画像であるかのような合成画像を得るこ
とが可能となる。
ことで、後述するようにCGデータ作成部8より出力さ
れる2次元画像データVDcとディレイ部9より出力さ
れる画像データVDbとを合成する場合、あたかもCG
物体と出演者1とが同一の空間に存在しているものを撮
影して得られた画像であるかのような合成画像を得るこ
とが可能となる。
【0057】また、画像生成装置3は、CGデータ作成
部8より出力される2次元画像データVDcとディレイ
部9より出力される画像データVDbとをミックスして
合成画像データVDdを得るαブレンディング部10
と、テレビカメラ4より出力される画像データVDaよ
りαブレンディング部10にキー信号として供給するα
値を得るキー生成部11とを有している。
部8より出力される2次元画像データVDcとディレイ
部9より出力される画像データVDbとをミックスして
合成画像データVDdを得るαブレンディング部10
と、テレビカメラ4より出力される画像データVDaよ
りαブレンディング部10にキー信号として供給するα
値を得るキー生成部11とを有している。
【0058】キー生成部11では、画像データVDaか
ら、青色系統の画素部分と、完全に「青色でない」画素
部分とを切り分ける作業が行われる。そして、このキー
生成部11からは画像データVDaの各画素毎にα値が
出力される。この場合、青色系統の画素部分ではα=0
とされ、完全に「青色でない」画素部分ではα=1とさ
れ、さらに中間色の部分では、0<α<1とされる。
ら、青色系統の画素部分と、完全に「青色でない」画素
部分とを切り分ける作業が行われる。そして、このキー
生成部11からは画像データVDaの各画素毎にα値が
出力される。この場合、青色系統の画素部分ではα=0
とされ、完全に「青色でない」画素部分ではα=1とさ
れ、さらに中間色の部分では、0<α<1とされる。
【0059】テレビカメラ4は、青色の背景2を使用し
て、例えば天気予報を説明するキャスター等の出演者1
を撮影している。したがって、背景2の投影像の部分は
青色なので、画像データVDaのうち背景2に対応する
画素部分では、α=0となる。一方、出演者1の投影像
の部分は青色ではないので、画像データVDaのうち出
演者1に対応する画素部分では、α=1となる。さら
に、出演者1と背景2との境界の投影像の部分は撮像レ
ンズの歪みなどによりぼやけており、背景2の青色と出
演者1の青色以外の色とが混じった色となるので、画像
データVDaのうち出演者1と背景1との境界に対応す
る画素部分では、0<α<1となる。
て、例えば天気予報を説明するキャスター等の出演者1
を撮影している。したがって、背景2の投影像の部分は
青色なので、画像データVDaのうち背景2に対応する
画素部分では、α=0となる。一方、出演者1の投影像
の部分は青色ではないので、画像データVDaのうち出
演者1に対応する画素部分では、α=1となる。さら
に、出演者1と背景2との境界の投影像の部分は撮像レ
ンズの歪みなどによりぼやけており、背景2の青色と出
演者1の青色以外の色とが混じった色となるので、画像
データVDaのうち出演者1と背景1との境界に対応す
る画素部分では、0<α<1となる。
【0060】なお、上述したように、CGデータ作成部
8より時刻T1におけるテレビカメラ4の視点から見た
場合の2次元画像データVDcが出力されるとき、ディ
レイ部9より画像データVDbとしてテレビカメラ4に
より時刻T1で撮影して得られる画像データVDaが出
力されるようにされるが、同様にCGデータ作成部8よ
り時刻T1におけるテレビカメラ4の視点から見た場合
の2次元画像データVDcが出力されるとき、キー生成
部11よりテレビカメラ4により時刻T1で撮影して得
られる画像データVDaから得られたα値が出力される
ように時間調整されている。
8より時刻T1におけるテレビカメラ4の視点から見た
場合の2次元画像データVDcが出力されるとき、ディ
レイ部9より画像データVDbとしてテレビカメラ4に
より時刻T1で撮影して得られる画像データVDaが出
力されるようにされるが、同様にCGデータ作成部8よ
り時刻T1におけるテレビカメラ4の視点から見た場合
の2次元画像データVDcが出力されるとき、キー生成
部11よりテレビカメラ4により時刻T1で撮影して得
られる画像データVDaから得られたα値が出力される
ように時間調整されている。
【0061】αブレンディング部10では、CGデータ
作成部8で作成される2次元画像データVDcとディレ
イ部9より出力される画像データVDbに対して、上述
した(1)式の演算が施されて、合成画像データVDd
が得られる。ここで、画像データVDbの背景2に対応
する画素部分ではα=0であるため、αブレンディング
部10からは合成画像データVDdとして2次元画像デ
ータVDcがそのまま出力される。また、画像データV
Dbの出演者1に対応する画素部分ではα=1であるた
め、αブレンディング部10からは合成画像データVD
dとして画像データVDbがそのまま出力される。さら
に、画像データVDbの背景2と出演者1との境界に対
応する画素部分では0<α<1であり、αブレンディン
グ部10からは画像データVDb,VDcが混じった合
成画像データVDdが出力される。このように、画像デ
ータVDbの背景2と出演者1との境界に対応する画素
部分で、画像データVDb,VDcが混じった合成画像
データVDdが出力されるようにすることで、いわゆる
境界部分のなじみをよくできる。
作成部8で作成される2次元画像データVDcとディレ
イ部9より出力される画像データVDbに対して、上述
した(1)式の演算が施されて、合成画像データVDd
が得られる。ここで、画像データVDbの背景2に対応
する画素部分ではα=0であるため、αブレンディング
部10からは合成画像データVDdとして2次元画像デ
ータVDcがそのまま出力される。また、画像データV
Dbの出演者1に対応する画素部分ではα=1であるた
め、αブレンディング部10からは合成画像データVD
dとして画像データVDbがそのまま出力される。さら
に、画像データVDbの背景2と出演者1との境界に対
応する画素部分では0<α<1であり、αブレンディン
グ部10からは画像データVDb,VDcが混じった合
成画像データVDdが出力される。このように、画像デ
ータVDbの背景2と出演者1との境界に対応する画素
部分で、画像データVDb,VDcが混じった合成画像
データVDdが出力されるようにすることで、いわゆる
境界部分のなじみをよくできる。
【0062】また、画像生成装置3は、合成画像データ
VDdを視聴者に提供される合成画像のデータとして出
力する出力端子12を有している。なお、本実施の形態
においては、この合成画像データVDdを、演技を補助
するための画像を表示するためには使用しない。上述し
たテレビカメラ4、マーカー位置情報格納部5、カメラ
パラメータ算出部6、CG情報格納部7、CGデータ作
成部8、ディレイ部9、αブレンディング部10および
キー生成部11は、それぞれ図5に示す画像生成装置1
03のテレビカメラ104、マーカー位置情報格納部1
05、カメラパラメータ算出部106、CG情報格納部
107、CGデータ作成部108、ディレイ部109、
αブレンディング部110およびキー生成部111と同
様に構成されている。
VDdを視聴者に提供される合成画像のデータとして出
力する出力端子12を有している。なお、本実施の形態
においては、この合成画像データVDdを、演技を補助
するための画像を表示するためには使用しない。上述し
たテレビカメラ4、マーカー位置情報格納部5、カメラ
パラメータ算出部6、CG情報格納部7、CGデータ作
成部8、ディレイ部9、αブレンディング部10および
キー生成部11は、それぞれ図5に示す画像生成装置1
03のテレビカメラ104、マーカー位置情報格納部1
05、カメラパラメータ算出部106、CG情報格納部
107、CGデータ作成部108、ディレイ部109、
αブレンディング部110およびキー生成部111と同
様に構成されている。
【0063】また、画像生成装置3は、テレビカメラ4
より出力される画像データVDaとCGデータ作成部8
で作成される2次元画像データVDcとをミックスして
合成画像データVDeを得るαブレンディング部13
と、テレビカメラ4より出力される画像データVDaよ
りαブレンディング部13にキー信号として供給するα
値を得る簡易型キー生成部14とを有している。
より出力される画像データVDaとCGデータ作成部8
で作成される2次元画像データVDcとをミックスして
合成画像データVDeを得るαブレンディング部13
と、テレビカメラ4より出力される画像データVDaよ
りαブレンディング部13にキー信号として供給するα
値を得る簡易型キー生成部14とを有している。
【0064】簡易型キー生成部14では、画像データV
Daから、青色系統の画素部分と、それ以外の部分とを
切り分ける作業が行われる。そして、このキー生成部1
4からは画像データVDaの各画素毎にα値が出力され
る。この場合、青色系統の画素部分ではα=0とされ、
それ以外の画素部分ではα=1とされる。α値の取りう
る値は0また1である。ここで、背景2の投影像の部分
は青色なので、画像データVDaのうち背景2に対応す
る画素部分では、α=0となる。出演者1の投影像の部
分は青色ではないので、画像データVDaのうち出演者
1に対応する画素部分では、α=1となる。さらに、出
演者1と背景2との境界の投影像の部分は撮像レンズの
歪みなどによりぼやけており、背景2の青色と出演者1
の青色以外の色とが混じった色となるので、画像データ
VDaのうち出演者1と背景2との境界に対応する画素
部分では、α=0またはα=1のいずれかである。
Daから、青色系統の画素部分と、それ以外の部分とを
切り分ける作業が行われる。そして、このキー生成部1
4からは画像データVDaの各画素毎にα値が出力され
る。この場合、青色系統の画素部分ではα=0とされ、
それ以外の画素部分ではα=1とされる。α値の取りう
る値は0また1である。ここで、背景2の投影像の部分
は青色なので、画像データVDaのうち背景2に対応す
る画素部分では、α=0となる。出演者1の投影像の部
分は青色ではないので、画像データVDaのうち出演者
1に対応する画素部分では、α=1となる。さらに、出
演者1と背景2との境界の投影像の部分は撮像レンズの
歪みなどによりぼやけており、背景2の青色と出演者1
の青色以外の色とが混じった色となるので、画像データ
VDaのうち出演者1と背景2との境界に対応する画素
部分では、α=0またはα=1のいずれかである。
【0065】上述したキー生成部11では、中間色に対
しては0<α<1なる値を求めている。しかし、キー生
成部14では、あるしきい値を越えるか越えないかによ
って、α値を0か1に決定している。そのため、キー生
成部14の処理は、キー生成部11の処理に比べて簡単
であって高速処理が可能となる。なお、キー生成部11
が十分に高速処理可能であるならば、キー生成部14の
代わりに、キー生成部11と同様に構成されたキー生成
部を使用するようにしてもよい。
しては0<α<1なる値を求めている。しかし、キー生
成部14では、あるしきい値を越えるか越えないかによ
って、α値を0か1に決定している。そのため、キー生
成部14の処理は、キー生成部11の処理に比べて簡単
であって高速処理が可能となる。なお、キー生成部11
が十分に高速処理可能であるならば、キー生成部14の
代わりに、キー生成部11と同様に構成されたキー生成
部を使用するようにしてもよい。
【0066】αブレンディング部13では、テレビカメ
ラ4より出力される画像データVDaとCGデータ作成
部8で作成された2次元画像データVDcに対して、以
下の(2)式の演算が施されて、合成画像データVDe
が得られる。 VDe=α×VDa+(1−α)×VDc ・・・(2)
ラ4より出力される画像データVDaとCGデータ作成
部8で作成された2次元画像データVDcに対して、以
下の(2)式の演算が施されて、合成画像データVDe
が得られる。 VDe=α×VDa+(1−α)×VDc ・・・(2)
【0067】また、画像生成装置3は、合成画像データ
VDeが供給され、その合成画像データVDeによる画
像を出演者1の演技を補助するための画像として表示す
るモニタ15を有している。ここで、画像データVDa
の背景2に対応する画素部分ではα=0であるため、α
ブレンディング部13からは合成画像データVDeとし
て2次元画像データVDcがそのまま出力される。画像
データVDaの出演者1に対応する画素部分ではα=1
であるため、αブレンディング部13からは合成画像デ
ータVDeとして画像データVDaがそのまま出力され
る。そして、画像データVDaの背景2と出演者1との
境界に対応する画素部分では、α=0またはα=1であ
って、合成画像データVDeは極端に変化してしまうの
で、合成画像データVDeによる合成画像は、背景2と
出演者1との境界に対応する画素部分で不自然に見え
る。しかし、この合成画像は、出演者1の演技を補助す
るための画像であり、出演者1とCG物体との位置関係
が把握できればよいので、境界上で不自然に見えていて
も問題はない。
VDeが供給され、その合成画像データVDeによる画
像を出演者1の演技を補助するための画像として表示す
るモニタ15を有している。ここで、画像データVDa
の背景2に対応する画素部分ではα=0であるため、α
ブレンディング部13からは合成画像データVDeとし
て2次元画像データVDcがそのまま出力される。画像
データVDaの出演者1に対応する画素部分ではα=1
であるため、αブレンディング部13からは合成画像デ
ータVDeとして画像データVDaがそのまま出力され
る。そして、画像データVDaの背景2と出演者1との
境界に対応する画素部分では、α=0またはα=1であ
って、合成画像データVDeは極端に変化してしまうの
で、合成画像データVDeによる合成画像は、背景2と
出演者1との境界に対応する画素部分で不自然に見え
る。しかし、この合成画像は、出演者1の演技を補助す
るための画像であり、出演者1とCG物体との位置関係
が把握できればよいので、境界上で不自然に見えていて
も問題はない。
【0068】また、画像生成装置3は、ディレクタの操
作に応じてCG情報格納部7に読み出し要求信号RRQ
を供給する制御部16を有している。この制御部16に
は、通常ユーザインタフェースが設けられている。すな
わち、テレビカメラ4より出力される画像データVDa
が供給され、モニタ(図示せず)にその画像データVD
aによる画像が表示され、バーチャルスタジオ全体を運
営管理しているディレクタに対して、テレビカメラ4の
撮影情報が提供される。ディレクタは、例えば天気予報
番組の現在の進行状況に合わせて、CGの画像を選択
し、制御部16の入力装置(図示せず)に、その情報を
入力する。これに対応して、制御部16はその情報を読
み出し要求信号RRQとしてCG情報格納部7に供給す
る。
作に応じてCG情報格納部7に読み出し要求信号RRQ
を供給する制御部16を有している。この制御部16に
は、通常ユーザインタフェースが設けられている。すな
わち、テレビカメラ4より出力される画像データVDa
が供給され、モニタ(図示せず)にその画像データVD
aによる画像が表示され、バーチャルスタジオ全体を運
営管理しているディレクタに対して、テレビカメラ4の
撮影情報が提供される。ディレクタは、例えば天気予報
番組の現在の進行状況に合わせて、CGの画像を選択
し、制御部16の入力装置(図示せず)に、その情報を
入力する。これに対応して、制御部16はその情報を読
み出し要求信号RRQとしてCG情報格納部7に供給す
る。
【0069】例えば、ディレクタが、現在、日本の天気
予報を放送する時間であると判断した場合は、「気象情
報の描かれた日本地図」を提供するように制御部16に
指示する。制御部16は、この情報を読み出し要求信号
RRQとしてCG情報格納部7に供給する。これによ
り、CGで作られた「気象情報の描かれた日本地図」の
3次元位置情報PCGが、CG情報格納部7より読み出
されてCGデータ作成部8に供給される。
予報を放送する時間であると判断した場合は、「気象情
報の描かれた日本地図」を提供するように制御部16に
指示する。制御部16は、この情報を読み出し要求信号
RRQとしてCG情報格納部7に供給する。これによ
り、CGで作られた「気象情報の描かれた日本地図」の
3次元位置情報PCGが、CG情報格納部7より読み出
されてCGデータ作成部8に供給される。
【0070】次に、画像生成装置3の動作を説明する。
背景2をバックに出演者1がテレビカメラ4で撮影さ
れ、このテレビカメラ4より画像データVDaが得ら
れ、この画像データVDaはディレイ部9でカメラパラ
メータ算出部6およびCGデータ作成部8の処理時間に
対応する時間だけ遅延され、画像データDVbとしてα
ブレンディング部10に供給される。
背景2をバックに出演者1がテレビカメラ4で撮影さ
れ、このテレビカメラ4より画像データVDaが得ら
れ、この画像データVDaはディレイ部9でカメラパラ
メータ算出部6およびCGデータ作成部8の処理時間に
対応する時間だけ遅延され、画像データDVbとしてα
ブレンディング部10に供給される。
【0071】また、テレビカメラ4より、このテレビカ
メラ4を基準としたマーカーM1〜M9の3次元位置情報
PDTが出力され、この3次元位置情報PDTはカメラ
パラメータ算出部6に供給される。一方、ワールド座標
系を基準としたマーカーM1〜M9の3次元位置情報PD
Wがマーカー位置情報格納部5より読み出されてカメラ
パラメータ算出部6に供給される。カメラパラメータ算
出部6では、マーカーM1〜M9の3次元位置情報PD
T,PDWとから、ワールド座標系を基準としたテレビ
カメラ4の3次元位置および向きが算出される。
メラ4を基準としたマーカーM1〜M9の3次元位置情報
PDTが出力され、この3次元位置情報PDTはカメラ
パラメータ算出部6に供給される。一方、ワールド座標
系を基準としたマーカーM1〜M9の3次元位置情報PD
Wがマーカー位置情報格納部5より読み出されてカメラ
パラメータ算出部6に供給される。カメラパラメータ算
出部6では、マーカーM1〜M9の3次元位置情報PD
T,PDWとから、ワールド座標系を基準としたテレビ
カメラ4の3次元位置および向きが算出される。
【0072】カメラパラメータ算出部6で求められるテ
レビカメラ4の3次元位置および向きの情報は、テレビ
カメラ4の視点情報POVとしてCGデータ作成部8に
供給される。一方、制御部16より供給される読み出し
要求信号RRQに対応してCG情報格納部7より所定の
CG物体の3次元位置情報PCGが読み出され、この3
次元位置情報PCGはCGデータ作成部8に供給され
る。CGデータ作成部8では、テレビカメラ4の視点情
報POVと所定のCG物体の3次元位置情報PCGとを
もとに、その所定のCG物体にテレビカメラ4の視点か
ら見た透視変換を施した投影像に対応した2次元画像デ
ータVDcが作成される。例えば、「気象情報の描かれ
た日本地図」を、あたかもテレビカメラ4の視点から見
た場合の2次元画像データVDcが作成される。そし
て、この2次元画像データVDcはαブレンディング部
10に供給される。
レビカメラ4の3次元位置および向きの情報は、テレビ
カメラ4の視点情報POVとしてCGデータ作成部8に
供給される。一方、制御部16より供給される読み出し
要求信号RRQに対応してCG情報格納部7より所定の
CG物体の3次元位置情報PCGが読み出され、この3
次元位置情報PCGはCGデータ作成部8に供給され
る。CGデータ作成部8では、テレビカメラ4の視点情
報POVと所定のCG物体の3次元位置情報PCGとを
もとに、その所定のCG物体にテレビカメラ4の視点か
ら見た透視変換を施した投影像に対応した2次元画像デ
ータVDcが作成される。例えば、「気象情報の描かれ
た日本地図」を、あたかもテレビカメラ4の視点から見
た場合の2次元画像データVDcが作成される。そし
て、この2次元画像データVDcはαブレンディング部
10に供給される。
【0073】また、テレビカメラ4より出力される画像
データVDaがキー生成部11に供給され、キー生成部
11では画像データVDaからいわゆるソフトキーを達
成するキー信号としてのα値が生成される。このα値は
αブレンディング部10に供給される。そして、αブレ
ンディング部10では、CGデータ作成部8より出力さ
れる2次元画像データVDcとディレイ部9より出力さ
れる画像データVDbに対して、上述の(1)式の演算
が施されて、所定のCG物体の投影像と出演者1の投影
像との合成画像を表示するための合成画像データDVd
が得られる。この合成画像データVDdは出力端子12
に出力され、視聴者に提供される合成画像のデータとさ
れる。
データVDaがキー生成部11に供給され、キー生成部
11では画像データVDaからいわゆるソフトキーを達
成するキー信号としてのα値が生成される。このα値は
αブレンディング部10に供給される。そして、αブレ
ンディング部10では、CGデータ作成部8より出力さ
れる2次元画像データVDcとディレイ部9より出力さ
れる画像データVDbに対して、上述の(1)式の演算
が施されて、所定のCG物体の投影像と出演者1の投影
像との合成画像を表示するための合成画像データDVd
が得られる。この合成画像データVDdは出力端子12
に出力され、視聴者に提供される合成画像のデータとさ
れる。
【0074】また、テレビカメラ4より出力される画像
データVDaが簡易型キー生成部14に供給され、キー
生成部14では画像データVDaからいわゆるハードキ
ーを達成するキー信号としてのα値(α=0またはα=
1)が生成される。このα値はαブレンディング部13
に供給される。そして、αブレンディング部13では、
テレビカメラ4より出力される画像データVDaとCG
データ作成部VDcに対して、上述の(2)式の演算が
施されて、所定のCG物体の投影像と出演者1の投影像
との合成画像を表示するための合成画像データDVeが
得られる。この合成画像データVDeはモニタ15に供
給され、このモニタ15の画面上に合成画像データDV
eによる画像が出演者1の演技を補助するための画像と
して表示される。
データVDaが簡易型キー生成部14に供給され、キー
生成部14では画像データVDaからいわゆるハードキ
ーを達成するキー信号としてのα値(α=0またはα=
1)が生成される。このα値はαブレンディング部13
に供給される。そして、αブレンディング部13では、
テレビカメラ4より出力される画像データVDaとCG
データ作成部VDcに対して、上述の(2)式の演算が
施されて、所定のCG物体の投影像と出演者1の投影像
との合成画像を表示するための合成画像データDVeが
得られる。この合成画像データVDeはモニタ15に供
給され、このモニタ15の画面上に合成画像データDV
eによる画像が出演者1の演技を補助するための画像と
して表示される。
【0075】以上説明した画像生成装置3においては、
出演者1の演技を補助するための合成画像を得るための
合成画像データVDeが、遅延処理を行っていないテレ
ビカメラ4の出力画像データDVaを使用して合成され
る。そのため、出演者1の動きに対して、合成画像デー
タVDeによる合成画像における出演者の投影像の動き
は遅れのないものとなり、出演者が演技しやすくなる利
益がある。
出演者1の演技を補助するための合成画像を得るための
合成画像データVDeが、遅延処理を行っていないテレ
ビカメラ4の出力画像データDVaを使用して合成され
る。そのため、出演者1の動きに対して、合成画像デー
タVDeによる合成画像における出演者の投影像の動き
は遅れのないものとなり、出演者が演技しやすくなる利
益がある。
【0076】なお、図1に示す画像生成装置3におい
て、テレビカメラ4が移動していないときは、ある時刻
にテレビカメラ4で撮影されて得られた画像データVD
aと、このある時刻におけるテレビカメラ4の視点から
見た場合の透視変換を施した所定のCG物体の投影像に
対応した2次元画像データVDcとが合成されて合成画
像データVDeが得られることとなり、あたかもCG物
体と出演者1とが同一の空間に存在しているものを撮影
して得られた画像であるかのような正確な合成画像を得
ることができる。
て、テレビカメラ4が移動していないときは、ある時刻
にテレビカメラ4で撮影されて得られた画像データVD
aと、このある時刻におけるテレビカメラ4の視点から
見た場合の透視変換を施した所定のCG物体の投影像に
対応した2次元画像データVDcとが合成されて合成画
像データVDeが得られることとなり、あたかもCG物
体と出演者1とが同一の空間に存在しているものを撮影
して得られた画像であるかのような正確な合成画像を得
ることができる。
【0077】一方、テレビカメラ4が移動しているとき
は、CGデータ作成部8より出力される2次元画像デー
タVDcは、カメラパラメータ算出部6およびCGデー
タ作成部8の処理時間だけ前の時刻におけるテレビカメ
ラ4の視点から見た場合の透視変換を施した所定のCG
物体の投影像に対応した2次元画像データVDcとな
る。そのため、この2次元画像データVDcとテレビカ
メラ4で撮影されて得られた画像データVDaとが合成
された合成画像データVDeによる合成画像は不正確な
ものとなる。しかし、一般的に、CG物体がワールド座
標系を基準にしてほとんど動かない場合にしか出演者1
はそのCG物体を指し示したりしないので、この遅れは
問題にはならない。
は、CGデータ作成部8より出力される2次元画像デー
タVDcは、カメラパラメータ算出部6およびCGデー
タ作成部8の処理時間だけ前の時刻におけるテレビカメ
ラ4の視点から見た場合の透視変換を施した所定のCG
物体の投影像に対応した2次元画像データVDcとな
る。そのため、この2次元画像データVDcとテレビカ
メラ4で撮影されて得られた画像データVDaとが合成
された合成画像データVDeによる合成画像は不正確な
ものとなる。しかし、一般的に、CG物体がワールド座
標系を基準にしてほとんど動かない場合にしか出演者1
はそのCG物体を指し示したりしないので、この遅れは
問題にはならない。
【0078】また、仮に、テレビカメラ4が移動してい
るときに、出演者1がモニタ15を見ながら演技する場
合を考えてみる。モニタ15の画面上の不正確な合成画
像を参考にして出演者1が演技することで、その演技に
多少のずれを生じる。具体的には、出演者1がCG物体
を指し示すとき、多少ずれた場所を指し示してしまうこ
とが起こる。しかしながら、テレビカメラ4は移動撮影
しているので、視聴者に提供する合成画像も全体が動い
ていることになる。人間の目の特性は、全体の風景が動
いている場合、劣化するので、この場合、視聴者は、出
演者1が多少ずれた場所を指し示していることに気が付
かない。つまり、テレビカメラ4が移動しているとき
は、モニタ15の画面上に表示される合成画像は、多少
不正確でもよい。
るときに、出演者1がモニタ15を見ながら演技する場
合を考えてみる。モニタ15の画面上の不正確な合成画
像を参考にして出演者1が演技することで、その演技に
多少のずれを生じる。具体的には、出演者1がCG物体
を指し示すとき、多少ずれた場所を指し示してしまうこ
とが起こる。しかしながら、テレビカメラ4は移動撮影
しているので、視聴者に提供する合成画像も全体が動い
ていることになる。人間の目の特性は、全体の風景が動
いている場合、劣化するので、この場合、視聴者は、出
演者1が多少ずれた場所を指し示していることに気が付
かない。つまり、テレビカメラ4が移動しているとき
は、モニタ15の画面上に表示される合成画像は、多少
不正確でもよい。
【0079】次に、図2を使用して、この発明の第2の
実施の形態としての画像生成装置3Aについて説明す
る。
実施の形態としての画像生成装置3Aについて説明す
る。
【0080】この画像生成装置3Aでは、カメラパラメ
ータ算出部6より出力されるテレビカメラ4の視点情報
POVに基づいて、現在時刻におけるそのテレビカメラ
4の視点(ワールド座標系を基準にした3次元位置およ
び向き)を予測するカメラパラメータ予測部17を有し
ている。因に、テレビカメラ4が移動しているとき、視
点情報POVは現在時刻よりカメラパラメータ算出部6
の処理時間だけ前の時刻におけるテレビカメラ4の視点
を示すものとなっている。
ータ算出部6より出力されるテレビカメラ4の視点情報
POVに基づいて、現在時刻におけるそのテレビカメラ
4の視点(ワールド座標系を基準にした3次元位置およ
び向き)を予測するカメラパラメータ予測部17を有し
ている。因に、テレビカメラ4が移動しているとき、視
点情報POVは現在時刻よりカメラパラメータ算出部6
の処理時間だけ前の時刻におけるテレビカメラ4の視点
を示すものとなっている。
【0081】ここで、カメラパラメータ予測部17にお
ける具体的なカメラパラメータ(テレビカメラの位置、
向き)の予測の方法を説明する。例えば、過去の2つの
時刻におけるテレビカメラ4の位置および向きが、それ
ぞれ、「T1およびR1」、「T2およびR2」であっ
たとする。位置の移動量の割合は、T2−T1と考えら
れる。したがって、この過去の2つの時刻の位置情報
(T1、T2)より、現在時刻における位置は、T2+
(T2−T1)と線形予測される。同様に、現在時刻に
おける向きは、R2+(R2−RI)と線形予測され
る。なお、さらに沢山の過去の時刻における位置および
向きの情報をもってすれば、より正確な予測が可能とな
る。いずれにせよ、カメラパラメータ予測部17から
は、予測された現在時刻におけるテレビカメラ4の視点
情報POVcが出力される。
ける具体的なカメラパラメータ(テレビカメラの位置、
向き)の予測の方法を説明する。例えば、過去の2つの
時刻におけるテレビカメラ4の位置および向きが、それ
ぞれ、「T1およびR1」、「T2およびR2」であっ
たとする。位置の移動量の割合は、T2−T1と考えら
れる。したがって、この過去の2つの時刻の位置情報
(T1、T2)より、現在時刻における位置は、T2+
(T2−T1)と線形予測される。同様に、現在時刻に
おける向きは、R2+(R2−RI)と線形予測され
る。なお、さらに沢山の過去の時刻における位置および
向きの情報をもってすれば、より正確な予測が可能とな
る。いずれにせよ、カメラパラメータ予測部17から
は、予測された現在時刻におけるテレビカメラ4の視点
情報POVcが出力される。
【0082】また、画像生成装置3Aは、カメラパラメ
ータ予測部17からの予測されたテレビカメラ4の視点
情報POVcとCG情報格納部7より読み出される所定
のCG物体の3次元位置情報PCGとをもとに、その所
定のCG物体にテレビカメラ4の視点から見た透視変換
を施した投影像に対応した2次元画像データVDfを作
成するCGデータ作成部18を有している。
ータ予測部17からの予測されたテレビカメラ4の視点
情報POVcとCG情報格納部7より読み出される所定
のCG物体の3次元位置情報PCGとをもとに、その所
定のCG物体にテレビカメラ4の視点から見た透視変換
を施した投影像に対応した2次元画像データVDfを作
成するCGデータ作成部18を有している。
【0083】図1に示す画像生成装置3では、αブレン
ディング部13でテレビカメラ4より出力される画像デ
ータVDaとCGデータ作成部8で作成される2次元画
像データVDcとがミックスされて合成画像データVD
eが形成されるものであった。しかし、この画像生成装
置3Aで、αブレンディング部13でテレビカメラ4よ
り出力される画像データVDaとCGデータ作成部18
で作成される2次元画像データVDfとがミックスされ
て合成画像データVDeが形成される。この画像生成装
置3Aのその他の構成および動作は、上述した画像生成
装置3と同様であるので、その説明は省略する。
ディング部13でテレビカメラ4より出力される画像デ
ータVDaとCGデータ作成部8で作成される2次元画
像データVDcとがミックスされて合成画像データVD
eが形成されるものであった。しかし、この画像生成装
置3Aで、αブレンディング部13でテレビカメラ4よ
り出力される画像データVDaとCGデータ作成部18
で作成される2次元画像データVDfとがミックスされ
て合成画像データVDeが形成される。この画像生成装
置3Aのその他の構成および動作は、上述した画像生成
装置3と同様であるので、その説明は省略する。
【0084】このように、図2に示す画像生成装置3A
においては、CGデータ作成部18からは予測された現
在時刻におけるテレビカメラ4の視点から見た場合の透
視変換を施した所定のCG物体の投影像に対応した2次
元画像データVDfが出力され、この2次元画像データ
VDfとテレビカメラ4で撮影されて得られた画像デー
タVDaとが合成されて合成画像データVDeが形成さ
れるものであり、テレビカメラ4が移動しているときで
も、この合成画像データVDeによる合成画像はほぼ正
確なものとなり、出演者1はCG物体を指し示すことが
容易となる。
においては、CGデータ作成部18からは予測された現
在時刻におけるテレビカメラ4の視点から見た場合の透
視変換を施した所定のCG物体の投影像に対応した2次
元画像データVDfが出力され、この2次元画像データ
VDfとテレビカメラ4で撮影されて得られた画像デー
タVDaとが合成されて合成画像データVDeが形成さ
れるものであり、テレビカメラ4が移動しているときで
も、この合成画像データVDeによる合成画像はほぼ正
確なものとなり、出演者1はCG物体を指し示すことが
容易となる。
【0085】なお、カメラパラメータ予測部17では、
現在時刻におけるテレビカメラ4の視点を予測するもの
であったが、さらにCGデータ作成部18の処理時間だ
け現在時刻より後の時刻におけるテレビカメラ4の視点
を予測するようにしてもよい。これにより、αブレンデ
ィング部13では、ある時刻にテレビカメラ4より出力
される画像データVDaとそのある時刻におけるテレビ
カメラ4の視点から見た場合の透視変換を施した所定の
CG物体の投影像に対応した2次元画像データVDfと
を合成して合成画像データVDeを得ることができ、一
層正確な合成画像を得ることが可能となる。
現在時刻におけるテレビカメラ4の視点を予測するもの
であったが、さらにCGデータ作成部18の処理時間だ
け現在時刻より後の時刻におけるテレビカメラ4の視点
を予測するようにしてもよい。これにより、αブレンデ
ィング部13では、ある時刻にテレビカメラ4より出力
される画像データVDaとそのある時刻におけるテレビ
カメラ4の視点から見た場合の透視変換を施した所定の
CG物体の投影像に対応した2次元画像データVDfと
を合成して合成画像データVDeを得ることができ、一
層正確な合成画像を得ることが可能となる。
【0086】
【発明の効果】この発明によれば、出演者を移動可能な
撮像手段で撮影して得られる第1の画像データを遅延処
理して第3の画像データを得、この第3の画像データと
撮像手段の視点で見た透視変換を施した所定物体の投影
像に対応した第2の画像データとを合成して視聴者用の
合成画像データを得ると共に、遅延処理されていない第
1の画像データと第2の画像データとを合成して出演者
に対して演技を補助する画像を表示するための合成画像
データを得るものであり、出演者の動きに対する演技を
補助する画像の遅れはほとんどなく、出演者が演技しや
すくなる利益がある。
撮像手段で撮影して得られる第1の画像データを遅延処
理して第3の画像データを得、この第3の画像データと
撮像手段の視点で見た透視変換を施した所定物体の投影
像に対応した第2の画像データとを合成して視聴者用の
合成画像データを得ると共に、遅延処理されていない第
1の画像データと第2の画像データとを合成して出演者
に対して演技を補助する画像を表示するための合成画像
データを得るものであり、出演者の動きに対する演技を
補助する画像の遅れはほとんどなく、出演者が演技しや
すくなる利益がある。
【0087】また、演技補助画像を表示するための合成
画像データを得る際の画像切換信号は第1の画像データ
または第2の画像データのいずれかを取り出すためのも
のであり、第1の画像データがある閾値を越えるか否か
によって発生でき、画像切換信号を簡単かつ高速に得る
ことができる。
画像データを得る際の画像切換信号は第1の画像データ
または第2の画像データのいずれかを取り出すためのも
のであり、第1の画像データがある閾値を越えるか否か
によって発生でき、画像切換信号を簡単かつ高速に得る
ことができる。
【0088】また、カメラパラメータ算出手段で求めら
れる撮像手段の視点から、現在時刻あるいはそれより後
の時刻における撮像手段の視点を予測し、その予測され
た撮像手段の視点から見た場合の透視変換を施した所定
物体の投影像に対応した第4の画像データを作成し、こ
の第4の画像データと第1の画像データとを合成して演
技補助画像を得るための合成画像データを形成すること
で、撮像手段が移動している間であっても、所定物体と
出演者とが同一の空間に存在しているものを撮影して得
られた画像であるかのようなほぼ正確な合成画像を得る
ことができ、出演者は移動時の演技がしやすくなる利益
がある。
れる撮像手段の視点から、現在時刻あるいはそれより後
の時刻における撮像手段の視点を予測し、その予測され
た撮像手段の視点から見た場合の透視変換を施した所定
物体の投影像に対応した第4の画像データを作成し、こ
の第4の画像データと第1の画像データとを合成して演
技補助画像を得るための合成画像データを形成すること
で、撮像手段が移動している間であっても、所定物体と
出演者とが同一の空間に存在しているものを撮影して得
られた画像であるかのようなほぼ正確な合成画像を得る
ことができ、出演者は移動時の演技がしやすくなる利益
がある。
【図1】第1の実施の形態としての画像生成装置が備え
られたバーチャルスタジオを示す図である。
られたバーチャルスタジオを示す図である。
【図2】第2の実施の形態としての画像生成装置を示す
ブロック図である。
ブロック図である。
【図3】従来の画像生成装置が備えられたバーチャルス
タジオを示す図である。
タジオを示す図である。
【図4】従来の画像生成装置の各部の画像を説明するた
めの図である。
めの図である。
1・・・出演者、2・・・背景、3,3A・・・画像生
成装置、4・・・移動可能なテレビカメラ、5・・・マ
ーカー位置情報格納部、6・・・カメラパラメータ算出
部、7・・・CG情報格納部、8,18・・・CGデー
タ作成部、9・・・ディレイ部、10,13・・・αブ
レンディング部、11・・・キー生成部、12・・・出
力端子、14・・・簡易型キー生成部、15・・・モニ
タ、16・・・制御部、17・・・カメラパラメータ予
測部
成装置、4・・・移動可能なテレビカメラ、5・・・マ
ーカー位置情報格納部、6・・・カメラパラメータ算出
部、7・・・CG情報格納部、8,18・・・CGデー
タ作成部、9・・・ディレイ部、10,13・・・αブ
レンディング部、11・・・キー生成部、12・・・出
力端子、14・・・簡易型キー生成部、15・・・モニ
タ、16・・・制御部、17・・・カメラパラメータ予
測部
Claims (8)
- 【請求項1】 所定の背景をバックに出演者を撮影して
第1の画像データを得る移動可能な撮像手段と、 上記撮像手段の視点を求めるカメラパラメータ算出手段
と、 上記カメラパラメータ算出手段で求められる上記撮像手
段の視点から見た場合の透視変換を施した所定物体の投
影像に対応した第2の画像データを作成する第1の画像
データ作成手段と、 上記第1の画像データを上記カメラパラメータ算出手段
および上記第1の画像データ作成手段における処理時間
に対応して遅延させた第3の画像データを得るデータ遅
延手段と、 上記第3の画像データと上記第2の画像データとを合成
して第1の合成画像データを得る第1の画像データ合成
手段と、 上記第1の画像データと上記第2の画像データとを合成
して第2の合成画像データを得る第2の画像データ合成
手段と、 上記第2の合成画像データによる上記出演者に対しての
演技補助のための画像を表示する画像表示手段とを備え
ることを特徴とする画像生成装置。 - 【請求項2】 上記第1の画像データに基づいて上記第
1の画像データまたは上記第2の画像データのいずれか
を取り出すための画像切換信号を得る画像切換信号発生
手段をさらに備え、 上記第2の画像データ合成手段では、上記画像切換信号
によって上記第1の画像データおよび上記第2の画像デ
ータが切り換え合成されることを特徴とする請求項1に
記載の画像生成装置。 - 【請求項3】 上記カメラパラメータ算出手段で求めら
れる上記撮像手段の視点から、現在時刻あるいはそれよ
り後の時刻における上記撮像手段の視点を予測するカメ
ラパラメータ予測手段と、 上記カメラパラメータ予測手段で予測された上記撮像手
段の視点から見た場合の透視変換を施した上記所定物体
の投影像に対応した第4の画像データを作成する第2の
画像データ作成手段とをさらに備え、 上記第2の画像データ合成手段では、上記第1および第
2の画像データを合成する代わりに、上記第1および第
4の画像データを合成することを特徴とする請求項1に
記載の画像生成装置。 - 【請求項4】 上記第1の画像データに基づいて上記第
1の画像データまたは上記第4の画像データのいずれか
を取り出すための画像切換信号を得る画像切換信号発生
手段をさらに備え、 上記第2の画像データ合成手段では、上記画像切換信号
によって上記第1の画像データおよび上記第4の画像デ
ータが切り換え合成されることを特徴とする請求項3に
記載の画像生成装置。 - 【請求項5】 移動可能な撮像手段により所定の背景を
バックに出演者を撮影して第2の画像データを得るステ
ップと、 上記撮像手段の視点を求めるステップと、 上記撮像手段の視点から見た場合の透視変換を施した所
定物体の投影像に対応した第2の画像データを作成する
ステップと、 上記第1の画像データを上記撮像手段の視点を求めるス
テップおよび上記第2の画像データを作成するステップ
における処理時間に対応して遅延させて第3の画像デー
タを得るステップと、 上記第3の画像データと上記第2の画像データとを合成
して第1の合成画像データを得るステップと、 上記第1の画像データと上記第2の画像データとを合成
して第2の合成画像データを得るステップと、 上記第2の合成画像データによる上記出演者に対しての
演技補助のための画像を表示するステップとを備えるこ
とを特徴とする画像生成方法。 - 【請求項6】 上記第1の画像データに基づいて上記第
1の画像データまたは上記第2の画像データのいずれか
を取り出すための画像切換信号を得るステップをさらに
備え、 上記第2の合成画像データを得るステップでは、上記画
像切換信号によって上記第1の画像データおよび上記第
2の画像データを切り換え合成することを特徴とする請
求項5に記載の画像生成方法。 - 【請求項7】 上記撮像手段の視点を求めるステップで
求められる上記撮像手段の視点から、現在時刻あるいは
それより後の時刻における上記撮像手段の視点を予測す
るステップと、上記予測された上記撮像手段の視点から
見た場合の透視変換を施した上記所定物体の投影像に対
応した第4の画像データを作成するステップとさらに備
え、 上記第2の合成画像データを得るステップでは、上記第
1および第2の画像データを合成する代わりに、上記第
1および第4の画像データを合成することを特徴とする
請求項5に記載の画像生成方法。 - 【請求項8】 上記第1の画像データに基づいて上記第
1の画像データまたは上記第4の画像データのいずれか
を取り出すための画像切換信号を得るステップをさらに
備え、 上記第2の合成画像データを得るステップでは、上記画
像切換信号によって上記第1の画像データおよび上記第
4の画像データを切り換え合成することを特徴とする請
求項7に記載の画像生成方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13403797A JP3724117B2 (ja) | 1997-05-23 | 1997-05-23 | 画像生成装置および画像生成方法 |
EP98921760A EP0921678A4 (en) | 1997-05-23 | 1998-05-22 | IMAGER AND CORRESPONDING PRINCIPLE |
IL12818498A IL128184A (en) | 1997-05-23 | 1998-05-22 | Image generating device and image generating method |
PCT/JP1998/002246 WO1998053606A1 (fr) | 1997-05-23 | 1998-05-22 | Imageur et principe correspondant |
US09/233,762 US6147716A (en) | 1997-05-23 | 1999-01-20 | Picture generator and picture generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13403797A JP3724117B2 (ja) | 1997-05-23 | 1997-05-23 | 画像生成装置および画像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10327349A true JPH10327349A (ja) | 1998-12-08 |
JP3724117B2 JP3724117B2 (ja) | 2005-12-07 |
Family
ID=15118901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13403797A Expired - Fee Related JP3724117B2 (ja) | 1997-05-23 | 1997-05-23 | 画像生成装置および画像生成方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6147716A (ja) |
EP (1) | EP0921678A4 (ja) |
JP (1) | JP3724117B2 (ja) |
IL (1) | IL128184A (ja) |
WO (1) | WO1998053606A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063572A (ja) * | 2000-08-23 | 2002-02-28 | For-A Co Ltd | カメラパラメータ検知手段を有する画像合成システム |
JP2011124634A (ja) * | 2009-12-08 | 2011-06-23 | Nippon Hoso Kyokai <Nhk> | ロボットカメラ及びバーチャルスタジオシステム |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11219446A (ja) * | 1998-02-03 | 1999-08-10 | Matsushita Electric Ind Co Ltd | 映像音響再生システム |
US7101988B2 (en) * | 2000-10-12 | 2006-09-05 | Marical, Inc. | Polyvalent cation-sensing receptor in Atlantic salmon |
JP2002324239A (ja) * | 2001-04-25 | 2002-11-08 | Olympus Optical Co Ltd | 情報呈示システム |
US6990681B2 (en) * | 2001-08-09 | 2006-01-24 | Sony Corporation | Enhancing broadcast of an event with synthetic scene using a depth map |
US7173672B2 (en) * | 2001-08-10 | 2007-02-06 | Sony Corporation | System and method for transitioning between real images and virtual images |
US7339609B2 (en) * | 2001-08-10 | 2008-03-04 | Sony Corporation | System and method for enhancing real-time data feeds |
US7091989B2 (en) | 2001-08-10 | 2006-08-15 | Sony Corporation | System and method for data assisted chroma-keying |
US20030030658A1 (en) * | 2001-08-10 | 2003-02-13 | Simon Gibbs | System and method for mixed reality broadcast |
US20030187820A1 (en) | 2002-03-29 | 2003-10-02 | Michael Kohut | Media management system and process |
JP4909176B2 (ja) * | 2007-05-23 | 2012-04-04 | キヤノン株式会社 | 複合現実感提示装置及びその制御方法、コンピュータプログラム |
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
EP3132597A1 (en) * | 2014-04-15 | 2017-02-22 | Navigate Surgical Technologies Inc. | Marker-based pixel replacement |
JP7075252B2 (ja) | 2018-03-23 | 2022-05-25 | キヤノン株式会社 | 情報処理装置およびその制御方法、プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4109278A (en) * | 1975-03-21 | 1978-08-22 | Sonex International Corp. | Video traveling matte system |
CA1187166A (en) * | 1981-07-09 | 1985-05-14 | Kaichi Yamamoto | Digital chromakey apparatus |
JPS5850571A (ja) * | 1981-09-22 | 1983-03-25 | 株式会社石田衡器製作所 | シ−ル構体及びその製造方法 |
JPS5850571U (ja) * | 1981-09-30 | 1983-04-05 | ソニー株式会社 | 写真合成装置 |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4847543A (en) * | 1988-04-08 | 1989-07-11 | Ultimatte Corporation | Motion control drive interface |
US5227985A (en) * | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
GB9119964D0 (en) * | 1991-09-18 | 1991-10-30 | Sarnoff David Res Center | Pattern-key video insertion |
JPH06337898A (ja) * | 1993-05-27 | 1994-12-06 | Toshiba Corp | 動画編集装置 |
US5500684A (en) * | 1993-12-10 | 1996-03-19 | Matsushita Electric Industrial Co., Ltd. | Chroma-key live-video compositing circuit |
US5416529A (en) * | 1994-01-14 | 1995-05-16 | Immix | Method and system for digital video processing with combined downstream keyer and fade to black mixer |
JP3620069B2 (ja) * | 1994-06-28 | 2005-02-16 | ソニー株式会社 | 信号変換装置および方法 |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
JP3301679B2 (ja) * | 1994-12-07 | 2002-07-15 | 松下電器産業株式会社 | 映像合成回路 |
EP0773672B1 (en) * | 1995-05-31 | 2003-03-12 | Sony Corporation | Special effect device |
BR9609169A (pt) * | 1995-06-16 | 1999-12-14 | Princeton Video Image Inc | Sistema e processo para inserção de imagens estática e dinâmica em uma transmissão de vìdeo ao vivo. |
US5790124A (en) * | 1995-11-20 | 1998-08-04 | Silicon Graphics, Inc. | System and method for allowing a performer to control and interact with an on-stage display device |
FR2741769B1 (fr) * | 1995-11-23 | 1997-12-19 | Thomson Broadcast Systems | Procede de traitement du signal constitue par un sujet evoluant devant un fond colore et dispositif mettant en oeuvre ce procede |
US5812214A (en) * | 1996-03-14 | 1998-09-22 | Sierra Video Systems, Inc. | Apparatus and method for compositing video images |
US5914748A (en) * | 1996-08-30 | 1999-06-22 | Eastman Kodak Company | Method and apparatus for generating a composite image using the difference of two images |
-
1997
- 1997-05-23 JP JP13403797A patent/JP3724117B2/ja not_active Expired - Fee Related
-
1998
- 1998-05-22 WO PCT/JP1998/002246 patent/WO1998053606A1/ja not_active Application Discontinuation
- 1998-05-22 EP EP98921760A patent/EP0921678A4/en not_active Withdrawn
- 1998-05-22 IL IL12818498A patent/IL128184A/xx not_active IP Right Cessation
-
1999
- 1999-01-20 US US09/233,762 patent/US6147716A/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063572A (ja) * | 2000-08-23 | 2002-02-28 | For-A Co Ltd | カメラパラメータ検知手段を有する画像合成システム |
JP2011124634A (ja) * | 2009-12-08 | 2011-06-23 | Nippon Hoso Kyokai <Nhk> | ロボットカメラ及びバーチャルスタジオシステム |
Also Published As
Publication number | Publication date |
---|---|
EP0921678A4 (en) | 2001-03-21 |
IL128184A0 (en) | 1999-11-30 |
WO1998053606A1 (fr) | 1998-11-26 |
EP0921678A1 (en) | 1999-06-09 |
JP3724117B2 (ja) | 2005-12-07 |
US6147716A (en) | 2000-11-14 |
IL128184A (en) | 2003-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gibbs et al. | Virtual studios: An overview | |
JP3363861B2 (ja) | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 | |
US8395711B2 (en) | Method and system for fusing video streams | |
JP4072330B2 (ja) | 表示装置および情報処理方法 | |
JP3724117B2 (ja) | 画像生成装置および画像生成方法 | |
JP5861499B2 (ja) | 動画提示装置 | |
JP4700476B2 (ja) | 多視点映像合成装置及び多視点映像合成システム | |
JP2001351126A (ja) | ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体、ゲームのプログラム、ゲーム処理方法およびゲーム処理装置 | |
JP3526897B2 (ja) | 画像表示装置 | |
WO2009035199A1 (en) | Virtual studio posture correction machine | |
JP3496205B2 (ja) | ゲーム機における球技ゲームでの視点変更方法 | |
JP2021086189A (ja) | 情報処理装置、情報処理方法、映像処理システム、およびプログラム | |
JP2024124469A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP7387286B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JPH10327350A (ja) | 画像生成装置および画像生成方法 | |
JP2000270261A (ja) | 撮像装置及び画像合成方法並びに記録媒体 | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
JPH10336703A (ja) | 画像合成装置、方法および記憶媒体 | |
JP7011728B2 (ja) | 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法 | |
WO2020121844A1 (en) | Image processing device, image processing method, and program | |
JP2022043539A (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
JP4741434B2 (ja) | Cg合成装置およびcg合成プログラム | |
KR20050105308A (ko) | 삼차원 가상 스투디오를 이용한 가라오케 | |
JP2015126826A (ja) | 情報処理装置及びプログラム | |
JP5411806B2 (ja) | 画像合成装置およびそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050912 |
|
LAPS | Cancellation because of no payment of annual fees |