JPH07212653A - Picture processing unit - Google Patents

Picture processing unit

Info

Publication number
JPH07212653A
JPH07212653A JP345994A JP345994A JPH07212653A JP H07212653 A JPH07212653 A JP H07212653A JP 345994 A JP345994 A JP 345994A JP 345994 A JP345994 A JP 345994A JP H07212653 A JPH07212653 A JP H07212653A
Authority
JP
Japan
Prior art keywords
image
unit
pixel data
output
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP345994A
Other languages
Japanese (ja)
Inventor
Tomoo Yamashita
智郎 山下
Kiyoshi Maenobu
潔 前信
Akio Nishimura
明夫 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP345994A priority Critical patent/JPH07212653A/en
Publication of JPH07212653A publication Critical patent/JPH07212653A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

PURPOSE:To synthesize a CG picture and a real pickup picture in real time synchronously between the CG picture and the real pickup picture by generating the CG picture in matching with the real pickup picture. CONSTITUTION:The processing unit is provided with an image pickup position, detection section 102 detecting a position direction of an image pickup section 101 outputting real pickup picture element data 108 and a pickup condition 109 picking up an object, an image generating section 103 receiving the image pickup condition and the position direction to generate an image based on the shape of a 3-dimension geometrical model and attribute data, a real pickup video image delay section 104 delaying the real pickup picture element data 108 by a processing time of the image generating section 103, a synthesis key signal generating section 105 outputting a synthesis key signal 112 and real pickup picture element data 116 corresponding to the synthesis key signal used to discriminate whether or not an area is a synthesis object area based on a key being a discrimination reference of the given synthesis object area, and a picture synthesis section 106 synthesizing the real pickup picture element data 116 and the generated picture element data 111 based on a synthesis key signal 112 and outputting the synthesis picture element data 113.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はCG画像と実写画像とを
合成する画像処理装置に関するものであり、特にリアル
タイムで実写画像と整合のとれたCG画像生成を行ない
その生成画面と実写画像との同期をとり合成する画像処
理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for synthesizing a CG image and a photographed image, and particularly, for generating a CG image matched with the photographed image in real time, and generating the CG image and the photographed image. The present invention relates to an image processing apparatus that synchronizes and synthesizes.

【0002】[0002]

【従来の技術】近年、CG技術の発達に伴いCG画像が
様々なところで利用されるようになった。特にテレビ番
組、コマーシャルにおいてCG画像と実写画像との合成
技術が多く使われている(特開平4−372079号公
報など)。以下従来の画像処理装置の一例としてクロマ
キーと呼ばれる画像合成を行なう画像処理装置について
説明する。
2. Description of the Related Art In recent years, with the development of CG technology, CG images have come to be used in various places. In particular, a technique for synthesizing a CG image and a photographed image is often used in television programs and commercials (Japanese Patent Laid-Open No. 4-372079, etc.). As an example of the conventional image processing apparatus, an image processing apparatus called "chroma key" for performing image synthesis will be described below.

【0003】クロマキー画像合成は、テレビ放送でよく
使われており、二つの画像のうち1方の画像をもう一方
の画像にはめ込む画像合成技術である。クロマキー画像
合成を用いた画像処理装置を図9に示す。キー信号生成
部901においてキー検出対象画像905から特定の色
や信号レベルをキー909としてキーが検出される領域
903かキーが検出されない領域904かの検出処理を
行なう。キー信号生成部901においてキー909を検
出した場合はキー信号908を発生する。画像合成部9
02においてキー信号908を検出したときに対応する
画素を置き換え対象画像906の画素に置き換え、合成
画像907を出力する。一方の画像を実写画像、もう一
方の画像をCG画像にすることで、実写画像とCG画像
との合成画像が出力される。
Chromakey image composition is often used in television broadcasting, and is an image composition technology in which one of two images is embedded in the other image. FIG. 9 shows an image processing apparatus using chroma key image composition. The key signal generation unit 901 performs a detection process on the key detection target image 905 with a specific color or signal level as a key 909, which is a region 903 where a key is detected or a region 904 where a key is not detected. When the key signal generator 901 detects the key 909, the key signal 908 is generated. Image synthesizer 9
When the key signal 908 is detected in 02, the corresponding pixel is replaced with the pixel of the replacement target image 906, and the composite image 907 is output. By making one image a real image and the other image a CG image, a composite image of the real image and the CG image is output.

【0004】従来の別の画像処理装置としてZバッファ
法と呼ばれる奥行き値比較による画像合成を行なう画像
処理装置について図10を参照しながら説明する。Zバ
ッファ法を用いた画像処理装置は、少なくとも二つ以上
の入力画像をもち一つの入力画像に対して、画素データ
を一時的に取り込むフレームバッファ1001と画素デ
ータに対応する奥行きデータを一時的に取り込む奥行き
バッファ1002を構成し、各入力画像のフレームバッ
ファの出力と奥行きバッファの出力を取り込む画像合成
部1003で構成される。画像合成部1003において
奥行き値が最小である入力画像を比較回路1005で選
択し、比較回路1005で選択された側の入力画像にセ
レクタ1004の出力を切替えてその画素データが出力
され、少なくとも二つ以上の入力画像に対し隠面消去処
理された合成画像1006ができあがる。なお、図10
において、奥行きバッファ1002で暗くなっている領
域ほど奥行き値は大きくなっていることを示す。少なく
とも一つの実写画像と少なくとも一つのCG画像を入力
画像とすることで実写画像とCG画像との合成画像が出
力される。
As another conventional image processing apparatus, an image processing apparatus called "Z buffer method" for performing image synthesis by depth value comparison will be described with reference to FIG. An image processing apparatus using the Z buffer method has at least two or more input images, and for one input image, a frame buffer 1001 for temporarily taking in pixel data and a depth data corresponding to the pixel data are temporarily taken. The depth buffer 1002 that captures the input image is configured by the image synthesis unit 1003 that captures the output of the frame buffer and the output of the depth buffer of each input image. The comparison circuit 1005 selects the input image having the smallest depth value in the image composition unit 1003, and the output of the selector 1004 is switched to the input image on the side selected by the comparison circuit 1005, and the pixel data thereof is output. A composite image 1006 in which hidden surface removal processing has been performed on the above input image is completed. Note that FIG.
Indicates that the darker the depth buffer 1002 is, the larger the depth value is. A composite image of the real image and the CG image is output by using at least one real image and at least one CG image as input images.

【0005】[0005]

【発明が解決しようとする課題】しかしながら上記従来
の構成では、リアルタイムで実写画像と実写画像と整合
のとれたCG画像とを合成する場合に、CG画像生成時
間分実写画像に対してCG画像が遅れ同期のとれていな
い画像になるという問題がある。その様子を図12に示
す。実写画像と相関のあるCG画像とは、たとえば実写
画像を撮影したときのカメラのズーム、フォーカス、ア
イリス(以下撮像条件と呼ぶ)と、撮影位置、カメラの
視線方向(以下撮像位置データと呼ぶ)などをもとに生
成されるCG画像のことである。
However, in the above-mentioned conventional configuration, when the real image and the CG image matched with the real image are combined in real time, the CG image is generated with respect to the real image for the CG image generation time. There is a problem that the image becomes out of sync with the delay. This is shown in FIG. The CG image having a correlation with the live-action image is, for example, the zoom, focus, and iris of the camera (hereinafter referred to as image-pickup condition), the shooting position, and the line-of-sight direction of the camera (hereinafter referred to as image-pickup position data) when the real-shot image is shot It is a CG image generated based on the above.

【0006】そこで本発明は、リアルタイムで実写画像
と実写画像と整合のとれたCG画像との同期をとり合成
する画像処理装置を提供することを目的とする。
It is therefore an object of the present invention to provide an image processing apparatus for synthesizing a real shot image and a CG image matched with the real shot image in real time.

【0007】[0007]

【課題を解決するための手段】第1の発明は、被写体を
撮影し実写画素データと撮影条件を出力する撮像部と、
前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、前記撮像部から出力される撮影条件
と前記撮像位置検出部から出力される位置方向を入力と
し三次元幾何学形状モデルの形状及び属性データをもと
に画像生成し生成画素データを出力する画像生成部と、
前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、
前記実写映像遅延部出力を入力とし与えられた合成対象
領域の識別基準であるキーをもとに合成対象領域である
かを識別する合成キー信号と前記合成キー信号に対応し
て実写画素データとを出力する合成キー信号生成部と、
前記合成キー信号生成部出力と前記画像生成部出力とを
入力とし前記合成キー信号に基づき前記実写画素データ
と前記生成画素データを画像合成し合成画素データを出
力する画像合成部と、前記画像合成部出力を入力とし映
像として出力する画像出力部とを具備することを特徴と
している。
According to a first aspect of the present invention, there is provided an image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions.
An imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, and a three-dimensional geometry with the imaging conditions output from the imaging unit and the position direction output from the imaging position detection unit as inputs. An image generation unit that generates an image based on the shape and attribute data of the shape model and outputs generated pixel data;
A live-action video delay unit that receives the live-action pixel data output of the imaging unit as an input and delays the output by a processing time of the image generation unit;
A synthetic key signal for identifying whether the region is a synthesis target region on the basis of a key which is an identification reference of the synthesis target region provided with the output of the live-action image delay unit as input, and real-image pixel data corresponding to the synthesis key signal. A synthetic key signal generator that outputs
An image synthesizing unit that inputs the synthetic key signal generating unit output and the image generating unit output, synthesizes the image data of the real shot pixel data and the generated pixel data based on the synthetic key signal, and outputs synthetic pixel data; It is characterized by comprising an image output unit which receives a partial output as an input and outputs it as a video image.

【0008】第2の発明は、被写体を撮影し実写画素デ
ータと撮影条件を出力する撮像部と、前記撮像部の位置
方向を前記撮像部と同期して検出する撮像位置検出部
と、前記撮像部から出力される撮影条件と前記撮像位置
検出部から出力される位置方向を入力とし三次元幾何学
形状モデルの形状及び属性データと与えられた合成対象
領域の識別基準であるキーをもとに画像生成し生成画素
データと前記生成画素データが合成対象領域であるかを
識別する生成キー信号とを出力する画像生成部と、前記
撮像部の実写画素データ出力を入力とし前記画像生成部
の処理時間分遅らせて出力する実写映像遅延部と、前記
実写映像遅延部出力と前記画像生成部出力とを入力とし
前記生成キー信号に基づき前記実写画素データと前記生
成画素データを画像合成し合成画素データを出力する画
像合成部と、前記画像合成部出力を入力とし映像として
出力する画像出力部とを具備することを特徴としてい
る。
According to a second aspect of the present invention, an image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, an image pickup position detecting section for detecting the position direction of the image pickup section in synchronization with the image pickup section, and the image pickup section. Based on the image condition output from the image capturing unit and the position direction output from the image capturing position detecting unit as input, the shape and attribute data of the three-dimensional geometric shape model and the given key that is the identification reference of the synthesis target region An image generation unit that generates an image and outputs generated pixel data and a generated key signal that identifies whether the generated pixel data is a combination target region, and a process of the image generation unit that receives the actual pixel data output of the imaging unit as an input The photographed image delay unit that delays and outputs the time, the photographed image delay unit output and the image generation unit output are input, and the photographed pixel data and the generated pixel data are imaged based on the generation key signal. An image synthesizing unit for outputting a form composite pixel data, is characterized by comprising an image output unit for outputting a video as input the image synthesizing unit output.

【0009】第3の発明は、被写体を撮影し実写画素デ
ータと撮影条件を出力する撮像部と、前記撮像部で撮影
する被写体の位置を測定し実写奥行き値を前記撮像部と
同期して出力する奥行き情報検出部と、前記撮像部の位
置方向を前記撮像部と同期して検出する撮像位置検出部
と、前記撮像部から出力される撮影条件と前記撮像位置
検出部から出力される位置方向を入力とし三次元幾何学
形状モデルの形状及び属性データをもとに画像生成し生
成画素データと前記生成画素データの生成奥行き値とを
出力する画像生成部と、前記撮像部の実写画素データ出
力を入力とし前記画像生成部の処理時間分遅らせて出力
する実写映像遅延部と、前記奥行き情報検出部出力を入
力とし前記画像生成部の処理時間分遅らせて出力する奥
行き情報遅延部と、前記実写映像遅延部出力と前記画像
生成部出力と前記奥行き情報遅延部出力とを入力とし前
記実写奥行き値と前記生成奥行き値に基づき前記実写画
素データと前記生成画素データを画像合成し合成画素デ
ータを出力する画像合成部と、前記画像合成部から出力
される合成画像データを入力とし映像として出力する画
像出力部とを具備することを特徴としている。
According to a third aspect of the present invention, an image pickup section for photographing a subject and outputting the actually photographed pixel data and photographing conditions, and measuring the position of the subject photographed by the image pickup section and outputting the actually photographed depth value in synchronization with the image pickup section. Depth information detection unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, shooting conditions output from the imaging unit, and a position direction output from the imaging position detection unit An image generation unit that generates an image based on the shape and attribute data of the three-dimensional geometric shape model and outputs the generated pixel data and the generated depth value of the generated pixel data, and the actual pixel data output of the imaging unit And a depth information delay unit that outputs the image information after delaying the processing time of the image generation unit, and a depth information delay unit that inputs the output of the depth information detection unit and outputs the image after delaying the processing time of the image generation unit. Inputting the output of the photographed image delay unit, the output of the image generation unit, and the output of the depth information delay unit, the synthesized image data of the photographed pixel data and the generated pixel data is synthesized based on the photographed depth value and the generated depth value. Is provided, and an image output section that receives the combined image data output from the image combining section as an input and outputs as an image.

【0010】第4の発明は、被写体を撮影し実写画素デ
ータと撮影条件を出力する撮像部と、前記撮像部で撮影
する被写体の位置を測定し実写奥行き値を前記撮像部と
同期して出力する奥行き情報検出部と、前記撮像部の位
置方向を前記撮像部と同期して検出する撮像位置検出部
と、前記撮像部から出力される撮影条件と前記撮像位置
検出部から出力される位置方向を入力とし三次元幾何学
形状モデルの形状及び属性データをもとに画像生成し生
成画素データと前記生成画素データの生成奥行き値とを
出力する画像生成部と、前記撮像部の実写画素データ出
力を入力とし前記画像生成部の処理時間分遅らせて出力
する実写映像遅延部と、前記奥行き情報検出部出力を入
力とし前記画像生成部の処理時間分遅らせて出力する奥
行き情報遅延部と、前記実写映像遅延部出力を入力とし
与えられた合成対象領域の識別基準であるキーをもとに
合成対象領域であるかを識別する合成キー信号と前記合
成キー信号に対応して実写画素データとを出力する合成
キー信号生成部と、前記合成キー信号生成部出力と前記
画像生成部出力と前記奥行き情報遅延部出力とを入力と
し前記合成キー信号と前記実写奥行き値と前記生成奥行
き値に基づき前記実写画素データと前記生成画素データ
を画像合成し合成画素データを出力する画像合成部と、
前記画像合成部から出力される合成画像データを入力と
し映像として出力する画像出力部とを具備することを特
徴としている。
According to a fourth aspect of the present invention, an image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, a position of the subject shot by the image pickup section is measured, and a real shot depth value is output in synchronization with the image pickup section. Depth information detection unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, shooting conditions output from the imaging unit, and a position direction output from the imaging position detection unit An image generation unit that generates an image based on the shape and attribute data of the three-dimensional geometric shape model and outputs the generated pixel data and the generated depth value of the generated pixel data, and the actual pixel data output of the imaging unit And a depth information delay unit that outputs the image information after delaying the processing time of the image generation unit, and a depth information delay unit that inputs the output of the depth information detection unit and outputs the image after delaying the processing time of the image generation unit. A synthetic key signal for identifying whether the region is a synthesis target region on the basis of a key which is an identification reference of the synthesis target region provided with the output of the live-action image delay unit as input, and real-image pixel data corresponding to the synthesis key signal. Based on the synthetic key signal, the actual shooting depth value, and the generated depth value, with the synthetic key signal generation unit for outputting, the synthetic key signal generation unit output, the image generation unit output, and the depth information delay unit output as inputs. An image synthesizing unit for synthesizing the image of the photographed pixel data and the generated pixel data and outputting synthesized pixel data,
An image output unit that receives the combined image data output from the image combining unit as an input and outputs the image as a video is provided.

【0011】第5の発明は、被写体を撮影し実写画素デ
ータと撮影条件を出力する撮像部と、前記撮像部で撮影
する被写体の位置を測定し実写奥行き値を前記撮像部と
同期して出力する奥行き情報検出部と、前記撮像部の位
置方向を前記撮像部と同期して検出する撮像位置検出部
と、前記撮像部から出力される撮影条件と前記撮像位置
検出部から出力される位置方向を入力とし三次元幾何学
形状モデルの形状及び属性データと与えられた合成対象
領域の識別基準であるキーをもとに画像生成し生成画素
データと前記生成画素データが合成対象領域であるかを
識別する生成キー信号と前記画素データの生成奥行き値
とを出力する画像生成部と、前記撮像部の実写画素デー
タ出力を入力とし前記画像生成部の処理時間分遅らせて
出力する実写映像遅延部と、前記奥行き情報検出部出力
を入力とし前記画像生成部の処理時間分遅らせて出力す
る奥行き情報遅延部と、前記実写映像遅延部出力と前記
画像生成部出力と前記奥行き情報遅延部出力とを入力と
し前記生成キー信号と前記実写奥行き値と前記生成奥行
き値に基づき前記実写画素データと前記生成画素データ
を画像合成し合成画素データを出力する画像合成部と、
前記画像合成部から出力される合成画像データを入力と
し映像として出力する画像出力部とを具備することを特
徴としている。
According to a fifth aspect of the present invention, an image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, a position of the subject shot by the image pickup section is measured, and a real shot depth value is output in synchronization with the image pickup section. Depth information detection unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, shooting conditions output from the imaging unit, and a position direction output from the imaging position detection unit Is input and the shape and attribute data of the three-dimensional geometric shape model and an image are generated based on the given key that is the identification criterion of the synthesis target area, and whether the generated pixel data and the generated pixel data are the synthesis target area. An image generation unit that outputs a generated key signal for identification and a generated depth value of the pixel data, and a live-action image that is output with the actual pixel data output of the imaging unit as an input and delayed by the processing time of the image generation unit. A delay section, a depth information delay section that receives the output of the depth information detection section as an input and delays the output by the processing time of the image generation section, and outputs the real image delay section output, the image generation section output, and the depth information delay section output. And an image synthesizing section for synthesizing the real shot pixel data and the generated pixel data based on the generated key signal, the real shot depth value, and the generated depth value, and outputting the synthesized pixel data.
An image output unit that receives the combined image data output from the image combining unit as an input and outputs the image as a video is provided.

【0012】第6の発明は、被写体を撮影し実写画素デ
ータと撮影条件を出力する撮像部と、前記撮像部で撮影
する被写体の位置を測定し実写奥行き値を前記撮像部と
同期して出力する奥行き情報検出部と、前記撮像部の位
置方向を前記撮像部と同期して検出する撮像位置検出部
と、前記撮像部から出力される撮影条件と前記撮像位置
検出部から出力される位置方向を入力とし三次元幾何学
形状モデルの形状及び属性データと与えられた合成対象
領域の識別基準であるキーをもとに画像生成し生成画素
データと前記生成画素データが合成対象領域であるかを
識別する生成キー信号と前記画素データの生成奥行き値
とを出力する画像生成部と、前記撮像部の実写画素デー
タ出力を入力とし前記画像生成部の処理時間分遅らせて
出力する実写映像遅延部と、前記奥行き情報検出部出力
を入力とし前記画像生成部の処理時間分遅らせて出力す
る奥行き情報遅延部と、前記実写映像遅延部出力を入力
とし与えられた合成対象領域の識別基準であるキーをも
とに合成対象領域であるかを識別する合成キー信号と前
記合成キー信号に対応して実写画素データとを出力する
合成キー信号生成部と、前記合成キー信号生成部出力と
前記画像生成部出力と前記奥行き情報遅延部出力と与え
られた背景画像の背景画素データとを入力とし前記合成
キー信号と前記生成キー信号と前記実写奥行き値と前記
生成奥行き値に基づき前記実写画素データと前記生成画
素データを画像合成し合成画素データを出力する画像合
成部と、前記画像合成部から出力される合成画像データ
を入力とし映像として出力する画像出力部とを具備する
ことを特徴としている。
According to a sixth aspect of the present invention, an image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, a position of the subject shot by the image pickup section is measured, and a real shot depth value is output in synchronization with the image pickup section. Depth information detection unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, shooting conditions output from the imaging unit, and a position direction output from the imaging position detection unit Is input and the shape and attribute data of the three-dimensional geometric shape model and an image are generated based on the given key that is the identification criterion of the synthesis target area, and whether the generated pixel data and the generated pixel data are the synthesis target area. An image generation unit that outputs a generated key signal for identification and a generated depth value of the pixel data, and a live-action image that is output with the actual pixel data output of the imaging unit as an input and delayed by the processing time of the image generation unit. An extension part, a depth information delay part that receives the output of the depth information detection part as an input and delays the output by the processing time of the image generation part, and outputs the real image delay part as an input A synthetic key signal generation unit that outputs a synthetic key signal for identifying whether the region is a synthetic target region based on a certain key and actual pixel data corresponding to the synthetic key signal; an output of the synthetic key signal generation unit; The output of the image generation unit, the output of the depth information delay unit, and the background pixel data of the given background image are input, and the real pixel data based on the composite key signal, the generated key signal, the real depth value, and the generated depth value. And an image that combines the generated pixel data and outputs the combined pixel data, and an image that receives the combined image data output from the image combining unit as an input and outputs the image. It is characterized by comprising a power unit.

【0013】第7の発明は、第3、第4または第5の発
明の画像合成部を合成画素データと前記合成画素データ
に対応する合成奥行き値を出力する画像合成部に置き換
えることを特徴としている。
A seventh invention is characterized in that the image synthesizing unit of the third, fourth or fifth invention is replaced with an image synthesizing unit for outputting synthetic pixel data and a synthetic depth value corresponding to the synthetic pixel data. There is.

【0014】第8の発明については、第6の発明の画像
合成部を、与えられた背景画像の背景画素データと背景
奥行き値とを加え、合成画素データと前記合成画素デー
タに対応する合成奥行き値を出力する画像合成部に置き
換えることを特徴としている。
In an eighth aspect of the invention, the image synthesizing unit of the sixth aspect of the invention adds the background pixel data and the background depth value of a given background image to generate the synthetic pixel data and the synthetic depth corresponding to the synthetic pixel data. It is characterized in that it is replaced with an image combining unit that outputs a value.

【0015】第9の発明は、上記各発明に被写体に対す
る照明条件を検出して照明条件データを出力する照明条
件抽出部をさらに備え、画像生成部を前記照明条件抽出
部から入力された照明条件データにしたがって画像を生
成する画像生成部に置き換えることを特徴としている。
A ninth aspect of the present invention further comprises an illumination condition extraction unit for detecting the illumination condition for the subject and outputting illumination condition data to each of the above inventions, and the image generation unit receives the illumination condition input from the illumination condition extraction unit. It is characterized in that it is replaced with an image generation unit that generates an image according to data.

【0016】[0016]

【作用】上記した構成により、第1の発明は、画像生成
部において実写画像と整合のとれたCG画像を生成し、
実写画素データを画像生成部の処理時間分遅らせ実写画
像側からキー信号を生成し、実写画像とCG画像との同
期のとれたリアルタイムキー合成を行なう。
According to the first aspect of the present invention having the above-described structure, the image generation unit generates a CG image matched with a real image,
The real photographed pixel data is delayed by the processing time of the image generation unit to generate a key signal from the real photographed image side, and real-time key combination in which the real photographed image and the CG image are synchronized is performed.

【0017】第2の発明は、画像生成部において実写画
像と整合のとれたCG画像を生成し、実写画素データを
画像生成部の処理時間分遅らせCG画像側からキー信号
を生成し、実写画像とCG画像との同期のとれたリアル
タイムキー合成を行なう。
According to a second aspect of the present invention, a CG image matched with the real image is generated in the image generation unit, the real pixel data is delayed by the processing time of the image generation unit to generate a key signal from the CG image side, and the real image is generated. And real-time key composition in synchronization with the CG image.

【0018】第3の発明は、画像生成部において実写画
像と整合のとれたCG画像を生成し、実写画素データと
実写奥行き値を画像生成部の処理時間分遅らせ実写奥行
き値とCG画像の奥行き値である生成奥行き値とを用い
て実写画像とCG画像との同期のとれたリアルタイムZ
バッファ合成を行ない合成画像を出力する。
According to a third aspect of the present invention, the CG image matched with the photographed image is generated in the image generating section, and the photographed pixel data and the photographed depth value are delayed by the processing time of the image generating section and the photographed depth value and the depth of the CG image. Real-time Z synchronized between the real image and the CG image using the generated depth value which is the value
Buffer composition is performed and a composite image is output.

【0019】第4の発明は、画像生成部において実写画
像と整合のとれたCG画像を生成し、実写画素データと
実写奥行き値を画像生成部の処理時間分遅らせ実写奥行
き値とCG画像の奥行き値である生成奥行き値と実写画
像側から生成されたキー信号である合成キー信号とを用
いて実写画像とCG画像との同期のとれたリアルタイム
でのZバッファ合成とキー合成の複合合成を行ない合成
画像を出力する。
According to a fourth aspect of the present invention, a CG image matched with the real image is generated in the image generation unit, and the real pixel data and the real depth value are delayed by the processing time of the image generation unit and the real depth value and the depth of the CG image. By using the generated depth value that is a value and the synthesized key signal that is a key signal that is generated from the real shot image side, real-time Z buffer synthesis and real-time composite synthesis of the real shot image and the CG image are performed. Output a composite image.

【0020】第5の発明は、画像生成部において実写画
像と整合のとれたCG画像を生成し、実写画素データと
実写奥行き値を画像生成部の処理時間分遅らせ実写奥行
き値とCG画像の奥行き値である生成奥行き値とCG画
像側から生成されたキー信号である生成キー信号とを用
いて実写画像とCG画像との同期のとれたリアルタイム
でのZバッファ合成とキー合成の複合合成を行ない合成
画像を出力する。
According to a fifth aspect of the present invention, the CG image matched with the photographed image is generated in the image generating section, and the photographed pixel data and the photographed depth value are delayed by the processing time of the image generating section and the photographed depth value and the depth of the CG image. By using the generated depth value that is a value and the generated key signal that is a key signal generated from the CG image side, real-time image and CG image are combined in real time in a combined manner of Z buffer synthesis and key synthesis. Output a composite image.

【0021】第6の発明は、画像生成部において実写画
像と整合のとれたCG画像を生成し、実写画素データと
実写奥行き値を画像生成部の処理時間分遅らせ実写奥行
き値とCG画像の奥行き値である生成奥行き値と実写画
像側から生成されたキー信号である合成キー信号とCG
画像側から生成されたキー信号である生成キー信号とを
用いて実写画像とCG画像との同期のとれたリアルタイ
ムでのZバッファ合成とキー合成の複合合成を行ない合
成画像を出力する。
According to a sixth aspect of the present invention, the CG image matched with the photographed image is generated in the image generating section, and the photographed pixel data and the photographed depth value are delayed by the processing time of the image generating section, and the photographed depth value and the CG image depth. A generated depth value which is a value, a synthetic key signal which is a key signal generated from the photographed image side, and a CG
By using a generated key signal which is a key signal generated from the image side, a real-time image and a CG image are combined in real time to perform a composite combination of Z buffer composition and key composition, and a composite image is output.

【0022】第7の発明は、第3、第4または第5の発
明の装置の出力に合成画素奥行き値を追加する。
A seventh invention adds a composite pixel depth value to the output of the device of the third, fourth or fifth invention.

【0023】第8の発明は、第6の発明の装置に背景画
像と背景奥行き値を合成対象に追加し第6の発明の装置
の出力に合成画素奥行き値を追加する。
An eighth aspect of the present invention adds a background image and a background depth value to the apparatus of the sixth aspect of the invention as a compositing target and adds a synthesized pixel depth value to the output of the apparatus of the sixth aspect of the invention.

【0024】第9の発明は、各発明の装置の合成画像に
さらに照明条件の整合をとるようにする。
The ninth aspect of the present invention is adapted to further match the illumination condition to the composite image of the apparatus of each aspect.

【0025】[0025]

【実施例】【Example】

(実施例1)以下本発明の実施例1について図1を参照
しながら説明する。図1は本発明の実施例1における画
像処理装置の構成を示している。
(Embodiment 1) Hereinafter, Embodiment 1 of the present invention will be described with reference to FIG. FIG. 1 shows the configuration of an image processing apparatus according to the first embodiment of the present invention.

【0026】図1において、101は被写体を撮影し実
写画素データ108、撮影条件109を出力する撮像
部、102は撮像部101の三次元空間内での位置、視
線方向などの撮像部の撮像位置データ110を出力する
撮像位置検出部、103は与えられた三次元幾何学形状
モデルの形状及び属性データ114と、撮像位置データ
110、撮影条件109とから生成画素データ111を
出力する画像生成部、104は実写画素データ108か
ら遅延実写画素データ115を出力する実写映像遅延
部、105は遅延実写画素データ115と与えられたキ
ー117から合成キー信号112と合成キー信号対応実
写画素データ116を出力する合成キー信号生成部、1
06は生成画素データ111と合成キー信号112と合
成キー信号対応実写画素データ116から合成画素11
3を出力する画像合成部、107は合成画素113から
合成映像を出力する画像出力部である。
In FIG. 1, reference numeral 101 denotes an image pickup section for picking up an image of a subject and outputting the real shot pixel data 108 and shooting conditions 109. An imaging position detection unit that outputs data 110, an image generation unit 103 that outputs generated pixel data 111 from the shape and attribute data 114 of the given three-dimensional geometric shape model, the imaging position data 110, and the imaging conditions 109, Reference numeral 104 denotes an actual-image video delay unit that outputs delayed actual-photographed pixel data 115 from the actual-photographed pixel data 108; Synthetic key signal generator, 1
Reference numeral 06 denotes the generated pixel data 111, the synthetic key signal 112, the synthetic key signal corresponding real shot pixel data 116, and the synthetic pixel 11
3 is an image synthesizing unit that outputs 3, and 107 is an image output unit that outputs a synthetic video from the synthetic pixel 113.

【0027】次に実施例1の動作について説明する。ま
ず、撮像部101においては、被写体118を撮影し、
その画像を実写画素データ108として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件109として出力する。撮像位置検出部102は、
超音波を使った距離センサ(図示せず)によって三次元
空間内のカメラの位置を検出し、ロータリーエンコーダ
(図示せず)によってカメラの方向を検出し、撮像位置
データ110として出力する。
Next, the operation of the first embodiment will be described. First, in the imaging unit 101, the subject 118 is photographed,
The image is output as the real image pixel data 108. Also, the zoom, focus, iris, etc. of the lens are output as the shooting condition 109. The imaging position detection unit 102
The position of the camera in the three-dimensional space is detected by a distance sensor (not shown) using ultrasonic waves, the direction of the camera is detected by a rotary encoder (not shown), and output as imaging position data 110.

【0028】次に、与えられた三次元幾何学形状モデル
114の形状および属性データに対して、画像生成部1
03は撮像部101から出力された撮像条件109と、
撮像位置検出部102から出力された撮像位置データ1
10とに従って画像生成の際の視点位置と視線方向と画
角を決定し、これらのデータを基に画像生成を行なっ
て、その結果を生成画素データ111として出力する。
Next, for the given shape and attribute data of the three-dimensional geometric shape model 114, the image generation unit 1
03 is the imaging condition 109 output from the imaging unit 101,
Imaging position data 1 output from the imaging position detection unit 102
10, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, the image is generated based on these data, and the result is output as generated pixel data 111.

【0029】次に実写映像遅延部104では、実写画素
データ108をFIFOを用いて画像生成部103の処
理時間分遅らせ、遅延実写画素データ115を出力す
る。このため画像合成部106の入力段階で、遅延実写
画像データ115と生成画素データ111の同期がとれ
ている。
Next, the actually-photographed image delay unit 104 delays the actually-photographed pixel data 108 by the processing time of the image generation unit 103 using the FIFO, and outputs the delayed actually-photographed pixel data 115. Therefore, at the input stage of the image synthesizing unit 106, the delayed actual shot image data 115 and the generated pixel data 111 are synchronized.

【0030】次に、合成キー信号生成部105では、従
来例と同様に、遅延実写画素データ115に対してあら
かじめ指定されたキー117に基づいて合成キー信号1
12と合成キー信号112に対応して合成キー信号対応
実写画素データ116を出力する。
Next, in the synthetic key signal generation unit 105, the synthetic key signal 1 is generated based on the key 117 designated in advance for the delayed actual image pixel data 115 as in the conventional example.
12 and the synthetic key signal 112 corresponding to the synthetic key signal 112 are output.

【0031】次に画像合成部106は、合成キー信号生
成部105から出力された合成キー信号112において
キー検出されている場合、合成キー信号対応実写画素デ
ータに代わって生成画素データが選択出力され、合成キ
ー信号112においてキー検出されていない場合、合成
キー信号対応実写画素データが出力される。次に画像出
力部107においては、合成画素113を映像信号に変
換しディスプレイ等に出力する。
Next, the image synthesizing unit 106 selectively outputs the generated pixel data instead of the synthetic key signal corresponding real shot pixel data when a key is detected in the synthetic key signal 112 output from the synthetic key signal generating unit 105. If no key is detected in the combined key signal 112, the combined key signal corresponding real pixel data is output. Next, in the image output unit 107, the composite pixel 113 is converted into a video signal and output to a display or the like.

【0032】以上のように本実施例によれば、画像生成
部において実写画像と整合のとれたCG画像が生成さ
れ、実写画素データを画像生成部の処理時間分遅らせ実
写画像側からキー信号を生成するので、実写画像と整合
のとれたCG画像が生成され、実写画像とCG画像との
同期のとれた実写画像でキー信号検出を行なうリアルタ
イムキー合成ができる。
As described above, according to the present embodiment, the CG image matched with the photographed image is generated in the image generation section, the photographed pixel data is delayed by the processing time of the image generation section, and the key signal is transmitted from the photographed image side. Since it is generated, a CG image matched with the real photographed image is generated, and real-time key combination is possible in which a key signal is detected in the real photographed image in which the real photographed image and the CG image are synchronized.

【0033】尚、本実施例ではカメラの方向測定にロー
タリーエンコーダを用いているが、方向測定方法はこれ
に限定するものではなく、ステレオカメラの画像処理に
よる方法や磁気センサによる測定といった種々の方法で
も同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in this embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. However, the same operation is possible.

【0034】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
In this embodiment, a distance sensor using ultrasonic waves is used to measure the position of the camera, but the position detecting method is not limited to this, and a rotary encoder or a magnetic sensor is used. It can also be obtained by the method.

【0035】また、本実施例では、合成キー信号生成部
において合成キー信号を生成する際クロマキー手法を用
いたものを開示しているが、合成キー信号生成方法はこ
れに限定するものではなく、画像認識による領域抽出に
よって合成キー信号を生成することもできる。
In this embodiment, the chroma key method is used for generating the synthetic key signal in the synthetic key signal generating section, but the synthetic key signal generating method is not limited to this. It is also possible to generate a synthetic key signal by extracting a region by image recognition.

【0036】(実施例2)以下本発明の実施例2につい
て図2を参照しながら説明する。図2は本発明の実施例
2における画像処理装置の構成を示している。
(Second Embodiment) A second embodiment of the present invention will be described below with reference to FIG. FIG. 2 shows the configuration of the image processing apparatus according to the second embodiment of the present invention.

【0037】図2において、201は被写体を撮影し実
写画素データ207、撮影条件208を出力する撮像
部、202は撮像部201の三次元空間内での位置、視
線方向などの撮像部の撮像位置データ209を出力する
撮像位置検出部、203は与えられた三次元幾何学形状
モデルの形状及び属性データ212と、撮像位置データ
209、撮影条件208と与えられたキー信号214か
ら生成画素データと生成キー信号216を出力する画像
生成部、204は実写画素データ207から遅延実写画
素データ213を出力する実写映像遅延部、205は生
成画素データ210と生成キー信号216と遅延実写画
素データ213から合成画素211を出力する画像合成
部、206は合成画素211から合成映像を出力する画
像出力部である。
In FIG. 2, reference numeral 201 denotes an image pickup section for picking up an image of an object and outputting the real shot pixel data 207 and shooting conditions 208, and 202, the position of the image pickup section 201 in the three-dimensional space and the image pickup position of the image pickup section such as the line-of-sight direction. An imaging position detecting unit 203 for outputting data 209 generates pixel data and generation from the given three-dimensional geometric shape model shape and attribute data 212, the imaging position data 209, the photographing condition 208 and the given key signal 214. An image generation unit that outputs the key signal 216, 204 is a real image delay unit that outputs delayed real image pixel data 213 from the real image pixel data 207, and 205 is generated pixel data 210, generated key signal 216, and synthetic pixel from the delayed actual image pixel data 213. An image composition unit that outputs 211, and an image output unit 206 that outputs a composite video from the composite pixel 211.

【0038】次に実施例2の動作について説明する。ま
ず、撮像部201においては、被写体215を撮影し、
その画像を実写画素データ207として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件208として出力する。撮像位置検出部202は、
超音波を使った距離センサによって三次元空間内のカメ
ラの位置を、ロータリーエンコーダによってカメラの方
向を検出し、撮像位置データ209として出力する。
Next, the operation of the second embodiment will be described. First, in the imaging unit 201, the subject 215 is photographed,
The image is output as the real pixel data 207. Also, the zoom, focus, iris, etc. of the lens are output as the shooting condition 208. The imaging position detection unit 202
The position of the camera in the three-dimensional space is detected by the distance sensor using ultrasonic waves, the direction of the camera is detected by the rotary encoder, and the detected position data 209 is output.

【0039】次に、与えられた三次元幾何学形状モデル
212の形状および属性データに対して、画像生成部2
03は撮像部201から出力された撮像条件208と、
撮像位置検出部202から出力された撮像位置データ2
09とに従って画像生成の際の視点位置と視線方向と画
角を決定し、これらのデータを基に画像生成を行なっ
て、その結果を生成画素データ210として出力する。
また生成画素データ210があらかじめ与えられたキー
214に基づきキーとして検出されているかを生成キー
信号216で示し生成画素データ210と対応して出力
する。
Next, for the given shape and attribute data of the three-dimensional geometric shape model 212, the image generation unit 2
03 is an imaging condition 208 output from the imaging unit 201,
Imaging position data 2 output from the imaging position detection unit 202
09, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, the image is generated based on these data, and the result is output as generated pixel data 210.
A generated key signal 216 indicates whether or not the generated pixel data 210 is detected as a key based on the key 214 given in advance, and is output in correspondence with the generated pixel data 210.

【0040】次に実写映像遅延部204では、実写画素
データ207をFIFOを用いて画像生成部203の処
理時間分遅らせ、遅延実写画素データ213を出力す
る。このため画像合成部205の入力段階で、遅延実写
画像データ213と生成画素データ210の同期がとれ
ている。
Next, the actually-photographed image delay unit 204 delays the actually-photographed pixel data 207 by the processing time of the image generation unit 203 using the FIFO, and outputs the delayed actually-photographed pixel data 213. Therefore, at the input stage of the image synthesizing unit 205, the delayed real shot image data 213 and the generated pixel data 210 are synchronized.

【0041】次に画像合成部206は、画像生成部20
3から出力された生成キー信号216においてキー検出
されている場合、生成画素データに代わって実写画素デ
ータが選択出力され、生成キー信号216においてキー
検出されていない場合、生成画素データが出力される。
次に画像出力部206においては合成画素211を映像
信号に変換しディスプレイ等に出力する。
Next, the image synthesizing unit 206 makes the image generating unit 20.
When a key is detected in the generated key signal 216 output from No. 3, real pixel data is selectively output instead of the generated pixel data, and when no key is detected in the generated key signal 216, generated pixel data is output. .
Next, in the image output unit 206, the composite pixel 211 is converted into a video signal and output to a display or the like.

【0042】以上のように本実施例によれば、画像生成
部において実写画像と整合のとれたCG画像が生成さ
れ、実写画素データを画像生成部の処理時間分遅らせC
G画像側からキー信号を生成することで実写画像とCG
画像との同期のとれたリアルタイムキー合成ができる。
As described above, according to the present embodiment, the CG image matched with the photographed image is generated in the image generation unit, and the photographed pixel data is delayed by the processing time of the image generation unit C.
By generating a key signal from the G image side, a real image and CG can be obtained.
Real-time key composition that is synchronized with the image can be performed.

【0043】尚、本実施例ではカメラの方向測定にロー
タリーエンコーダを用いているが、方向測定方法はこれ
に限定するものではなく、ステレオカメラの画像処理に
よる方法や磁気センサによる測定といった種々の方法で
も同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in the present embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. However, the same operation is possible.

【0044】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
In this embodiment, a distance sensor using ultrasonic waves is used for measuring the position of the camera, but the position detecting method is not limited to this, and a rotary encoder or a magnetic sensor is used. It can also be obtained by the method.

【0045】また、本実施例では、画像生成部において
生成キー信号を生成する際クロマキー手法を用いたもの
を開示しているが、生成キー信号生成方法はこれに限定
するものではなく、画像認識による領域抽出によって生
成キー信号を生成することもできる。
In this embodiment, the chroma key method is used in the generation of the generation key signal in the image generation unit, but the generation key signal generation method is not limited to this, and image recognition is not limited to this. It is also possible to generate the generated key signal by extracting the area with.

【0046】(実施例3)以下本発明の実施例3につい
て図3を参照しながら説明する。図3は本発明の実施例
3における画像処理装置の構成を示している。
(Embodiment 3) A third embodiment of the present invention will be described below with reference to FIG. FIG. 3 shows the configuration of the image processing apparatus according to the third embodiment of the present invention.

【0047】図3において、301は被写体319を撮
影し実写画素データ309、撮影条件310を出力する
撮像部、302は撮像部301の三次元空間内での位
置、視線方向などの撮像部の撮像位置データ311を出
力する撮像位置検出部、306は撮像部301で撮影す
る被写体の位置を測定し実写奥行き値313を出力する
奥行き情報検出部、303は与えられた三次元幾何学形
状モデルの形状及び属性データ318と、撮像位置デー
タ311、撮影条件310から生成画素データ312と
生成奥行き値315を出力する画像生成部、304は実
写画素データ309から遅延実写画素データ316を出
力する実写映像遅延部、307は実写奥行き値313か
ら遅延実写奥行き値314を出力する奥行き情報遅延
部、305は生成画素データ312と生成奥行き値31
5と遅延実写画素データ316と遅延実写奥行き値31
4から合成画素317を出力する画像合成部、308は
合成画素317から合成映像を出力する画像出力部であ
る。
In FIG. 3, reference numeral 301 denotes an image pickup section for picking up an image of a subject 319 and outputting the real shot pixel data 309 and shooting conditions 310. Reference numeral 302 denotes an image pickup section for picking up an image pickup section 301 such as a position in a three-dimensional space and a line-of-sight direction. An imaging position detection unit that outputs position data 311; a depth information detection unit 306 that measures the position of a subject imaged by the imaging unit 301 and outputs an actual depth value 313; and a shape 303 of a given three-dimensional geometric shape model. And an attribute data 318, an image pickup position data 311, and an image generation unit that outputs generated pixel data 312 and a generated depth value 315 based on the shooting condition 310, and a real image delay unit 304 that outputs delayed real image pixel data 316 from the real image pixel data 309. , 307 is a depth information delay unit that outputs a delayed actual-photographed depth value 314 from the actual-photographed depth value 313, and 305 is a generated pixel Over data 312 and generates a depth value 31
5, delayed actual shot pixel data 316, and delayed actual shot depth value 31
4 is an image synthesizing unit that outputs a synthetic pixel 317, and 308 is an image output unit that outputs a synthetic image from the synthetic pixel 317.

【0048】次に実施例3の動作について説明する。ま
ず、撮像部301においては、被写体319を撮影し、
その画像を実写画素データ309として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件310として出力する。撮像位置検出部302は、
超音波を使った距離センサによって三次元空間内のカメ
ラの位置を、ロータリーエンコーダによってカメラの方
向を検出し、撮像位置データ311として出力する。
Next, the operation of the third embodiment will be described. First, in the imaging unit 301, a subject 319 is photographed,
The image is output as the real shot pixel data 309. Also, the zoom, focus, iris, etc. of the lens are output as the shooting condition 310. The imaging position detection unit 302
The position of the camera in the three-dimensional space is detected by the distance sensor using ultrasonic waves, the direction of the camera is detected by the rotary encoder, and output as the imaging position data 311.

【0049】次に奥行き情報検出部306では、磁気セ
ンサを用いてカメラから被写体319までの距離を測定
する。磁気センサを用いた距離測定方法を図11に示
す。図11において、磁気センサ1101の片方を被写
体1102の一部に、もう片方をカメラ1103の一部
に装着し、カメラ1103から被写体1102までの距
離である実写奥行き値1104を求めている。図11の
場合、被写体全体が実写奥行き値1104で代表されて
おり、平面の物体として扱われる。そのため実写奥行き
値1104は、フィールドもしくはフレームの切替えタ
イミングで取り込まなければならない。
Next, the depth information detecting section 306 measures the distance from the camera to the object 319 using a magnetic sensor. A distance measuring method using a magnetic sensor is shown in FIG. In FIG. 11, one of the magnetic sensors 1101 is attached to a part of the subject 1102 and the other is attached to a part of the camera 1103, and an actual depth value 1104 which is a distance from the camera 1103 to the subject 1102 is obtained. In the case of FIG. 11, the entire subject is represented by the real shot depth value 1104 and is treated as a planar object. Therefore, the photographed depth value 1104 must be fetched at the switching timing of the field or frame.

【0050】図11のような方法を奥行き情報検出部に
用いると被写体一つしか扱うことができず、しかも平面
として扱われてしまうという問題があるが、ステレオカ
メラを使って被写体の奥行きを算出するとこれらの問題
は解決される。また、図11では距離センサに磁気セン
サを用いたが、超音波センサを用いても同様の動作が可
能である。
When the method shown in FIG. 11 is used for the depth information detecting section, there is a problem that only one subject can be handled and it is treated as a plane. However, the depth of the subject is calculated using a stereo camera. Then these problems are solved. Further, although the magnetic sensor is used as the distance sensor in FIG. 11, the same operation can be performed by using the ultrasonic sensor.

【0051】次に、与えられた三次元幾何学形状モデル
318の形状及び属性データに対して、画像生成部30
3は撮像部301から出力された撮像条件310と、撮
像位置検出部302から出力された撮像位置データ31
1に従って画像生成の際の視点位置と視線方向と画角を
決定し、これらのデータを基に画像生成を行なって、そ
の結果を生成画素データ312と生成画素データ312
に対応する奥行き値である生成奥行き値315として出
力する。
Next, with respect to the shape and attribute data of the given three-dimensional geometric shape model 318, the image generation unit 30
3 is the imaging condition 310 output from the imaging unit 301, and the imaging position data 31 output from the imaging position detection unit 302.
1, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, image generation is performed based on these data, and the result is generated pixel data 312 and generated pixel data 312.
Is output as a generated depth value 315 which is a depth value corresponding to.

【0052】次に実写映像遅延部304では、実写画素
データ309をFIFOを用いて画像生成部303の処
理時間分遅らせ、遅延実写画素データ316を出力す
る。このため画像合成部305の入力段階で、遅延実写
画像データ316と生成画素データ315の同期がとれ
ている。
Next, the actually-photographed image delay unit 304 delays the actually-photographed pixel data 309 by the processing time of the image generation unit 303 by using the FIFO, and outputs the delayed actually-photographed pixel data 316. Therefore, at the input stage of the image synthesizing unit 305, the delayed real shot image data 316 and the generated pixel data 315 are synchronized.

【0053】次に奥行き情報遅延部307では、実写画
素データ309をFIFOを用いて画像生成部303の
処理時間分遅らせ、遅延実写画素データ316を出力す
る。このため画像合成部305の入力段階で、遅延実写
奥行き値314と生成奥行き値315の同期がとれてい
る。
Next, the depth information delaying unit 307 delays the actually-photographed pixel data 309 by the processing time of the image generating unit 303 by using the FIFO, and outputs the delayed actually-photographed pixel data 316. Therefore, the delayed actual shooting depth value 314 and the generated depth value 315 are synchronized at the input stage of the image composition unit 305.

【0054】次に画像合成部305は、画像生成部30
3で出力された生成奥行き値315と生成画素データ3
12と奥行き情報遅延部307から出力された遅延実写
奥行き値314と実写映像遅延部304から出力された
遅延実写画素データ316を用いて、Zバッファ法を用
いた隠面消去処理を行ない、合成画素317を出力す
る。次に画像出力部308においては合成画素317を
映像信号に変換しディスプレイ等に出力する。
Next, the image synthesizing unit 305, the image generating unit 30.
Generated depth value 315 and generated pixel data 3 output in 3
12 and the delayed actual captured depth value 314 output from the depth information delay unit 307 and the delayed actual captured pixel data 316 output from the actual captured image delay unit 304, a hidden surface removal process using the Z buffer method is performed to generate a composite pixel. 317 is output. Next, the image output unit 308 converts the composite pixel 317 into a video signal and outputs it to a display or the like.

【0055】以上のように本実施例によれば、画像生成
部において実写画像と整合のとれたCG画像を生成し、
実写画素データと実写奥行き値を画像生成部の処理時間
分遅らせ、実写奥行き値とCG画像の奥行き値である生
成奥行き値とを用いて実写画像とCG画像との同期のと
れたリアルタイムZバッファ合成を行なうことができ
る。
As described above, according to the present embodiment, the image generation unit generates the CG image matched with the photographed image,
Real image pixel data and real depth value are delayed by the processing time of the image generation unit, and real-time Z-buffer synthesis in which the real image and the CG image are synchronized by using the real depth value and the generated depth value which is the depth value of the CG image. Can be done.

【0056】尚、本実施例ではカメラの方向測定にロー
タリーエンコーダを用いているが、方向測定方法はこれ
に限定するものではなく、ステレオカメラの画像処理に
よる方法や磁気センサによる測定といった種々の方法で
も同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in this embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. However, the same operation is possible.

【0057】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
In this embodiment, a distance sensor using ultrasonic waves is used for measuring the position of the camera, but the position detecting method is not limited to this, and a rotary encoder or a magnetic sensor is used. It can also be obtained by the method.

【0058】(実施例4)次に本発明の実施例4につい
て図4を参照しながら説明する。図4は本発明の実施例
4における画像処理装置の構成を示している。
(Fourth Embodiment) Next, a fourth embodiment of the present invention will be described with reference to FIG. FIG. 4 shows the configuration of the image processing apparatus according to the fourth embodiment of the present invention.

【0059】図4において、401は被写体422を撮
影し実写画素データ410、撮影条件411を出力する
撮像部、402は撮像部401の三次元空間内での位
置、視線方向などの撮像部の撮像位置データ413を出
力する撮像位置検出部、406は撮像部401で撮影す
る被写体の位置を測定し実写奥行き値414を出力する
奥行き情報検出部、403は与えられた三次元幾何学形
状モデルの形状及び属性データ421と、撮像位置デー
タ413、撮影条件411から生成画素データ412と
生成奥行き値416を出力する画像生成部、404は実
写画素データ410から遅延実写画素データ417を出
力する実写映像遅延部、407は実写奥行き値414か
ら遅延実写奥行き値415を出力する奥行き情報遅延
部、408は遅延実写画素データ417と与えられたキ
ー423から合成キー信号418と合成キー信号対応実
写画素データ419を出力する合成キー信号生成部、4
05は生成画素データ412と生成奥行き値416と合
成キー信号418と合成キー信号対応実写画素データ4
19と遅延実写奥行き値415から合成画素420を出
力する画像合成部、409は合成画素420から合成映
像を出力する画像出力部である。
In FIG. 4, reference numeral 401 denotes an image pickup section for picking up an image of a subject 422 and outputting real shot pixel data 410 and shooting conditions 411. Reference numeral 402 denotes an image pickup section such as a position of the image pickup section 401 in a three-dimensional space and a line-of-sight direction. An imaging position detection unit that outputs position data 413, a depth information detection unit 406 that measures the position of the subject imaged by the imaging unit 401, and outputs an actual depth value 414, and a shape 403 of the given three-dimensional geometric shape model. And an image generation unit that outputs the generated pixel data 412 and the generated depth value 416 from the attribute data 421, the imaging position data 413, and the shooting condition 411, and a real image delay unit that outputs delayed real image pixel data 417 from the real image pixel data 410. , 407 is a depth information delay unit that outputs a delayed actual-shot depth value 415 from the actual-shot depth value 414, and 408 is a delayed actual-shot image. Synthetic key signal generator for outputting a synthetic key signal 418 a synthetic key signal corresponding photographed pixel data 419 from the key 423 with the given raw data 417, 4
Reference numeral 05 denotes the generated pixel data 412, the generated depth value 416, the combined key signal 418, and the combined key signal corresponding real shot pixel data 4
19 is an image synthesizing unit that outputs a synthetic pixel 420 based on the delayed actual shooting depth value 415, and 409 is an image output unit that outputs a synthetic video from the synthetic pixel 420.

【0060】次に実施例4の動作について説明する。ま
ず、撮像部401においては、被写体422を撮影し、
その画像を実写画素データ410として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件411として出力する。撮像位置検出部402は、
超音波距離センサによって三次元空間内のカメラの位置
を、ロータリーエンコーダによってカメラの方向を検出
し、撮像位置データ413として出力する。
Next, the operation of the fourth embodiment will be described. First, in the imaging unit 401, a subject 422 is photographed,
The image is output as the real shot pixel data 410. Further, the zoom, focus, iris, etc. of the lens are output as the shooting condition 411. The imaging position detection unit 402
The position of the camera in the three-dimensional space is detected by the ultrasonic distance sensor, the direction of the camera is detected by the rotary encoder, and the detected position data 413 is output.

【0061】次に奥行き情報検出部406では、実施例
3と同様にカメラから被写体422までの距離を測定す
る。
Next, the depth information detecting section 406 measures the distance from the camera to the subject 422 as in the third embodiment.

【0062】次に、与えられた三次元幾何学形状モデル
421の形状及び属性データに対して、画像生成部40
3は撮像部401から出力された撮像条件411と、撮
像位置検出部402から出力された撮像位置データ41
3に従って画像生成の際の視点位置と視線方向と画角を
決定し、これらのデータを基に画像生成を行なって、そ
の結果を生成画素データ412と生成画素データ412
に対応する奥行き値である生成奥行き値416として出
力する。
Next, with respect to the shape and attribute data of the given three-dimensional geometric shape model 421, the image generation unit 40
3 is the imaging condition 411 output from the imaging unit 401 and the imaging position data 41 output from the imaging position detection unit 402.
3, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, the image is generated based on these data, and the result is generated pixel data 412 and generated pixel data 412.
Is output as a generated depth value 416 which is a depth value corresponding to.

【0063】次に実写映像遅延部404では、実写画素
データ410をFIFOを用いて画像生成部403の処
理時間分遅らせ、遅延実写画素データ417を出力す
る。このため画像合成部の入力段階で、合成キー信号対
応実写画素データ419と生成画素データ416の同期
がとれている。
Next, the actually-photographed image delay unit 404 delays the actually-photographed pixel data 410 by the processing time of the image generation unit 403 using the FIFO, and outputs the delayed actually-photographed pixel data 417. Therefore, at the input stage of the image synthesizing unit, the synthetic key signal corresponding real shot pixel data 419 and the generated pixel data 416 are synchronized.

【0064】次に奥行き情報遅延部407では、実写奥
行き値414をFIFOを用いて画像生成部403の処
理時間分遅らせ、遅延実写奥行き値415を出力する。
このため画像合成部の入力段階で、遅延実写奥行き値4
15と生成奥行き値416の同期がとれている。
Next, the depth information delay unit 407 delays the actual captured depth value 414 by the processing time of the image generation unit 403 using the FIFO and outputs the delayed actual captured depth value 415.
Therefore, at the input stage of the image synthesizing unit, the delay actual shooting depth value 4
15 and the generated depth value 416 are synchronized.

【0065】次に、合成キー信号生成部408では、従
来例と同様に、遅延実写画素データ417に対してあら
かじめ指定されたキー423に基づいて合成キー信号4
18と合成キー信号418に対応して合成キー信号対応
実写画素データ419を出力する。
Next, in the synthetic key signal generation unit 408, the synthetic key signal 4 is generated based on the key 423 previously designated for the delayed actual image pixel data 417, as in the conventional example.
18 and synthetic key signal 418 are output corresponding to synthetic key signal corresponding real pixel data 419.

【0066】次に画像合成部405は、画像生成部で出
力された生成奥行き値415と生成画素データ412と
合成キー信号生成部408から出力された合成キー信号
418と合成キー信号対応実写画素データ419と奥行
き情報遅延部407から出力された遅延実写奥行き値4
15とを用いて、クロマキー処理とZバッファ法を用い
た隠面消去処理を行ない、合成画素420を出力する。
この処理を図13に示す。
Next, the image synthesizing unit 405 outputs the generated depth value 415 and the generated pixel data 412 output from the image generating unit, the synthetic key signal 418 output from the synthetic key signal generating unit 408, and the synthetic key signal corresponding real shot pixel data. 419 and the delay actual shooting depth value 4 output from the depth information delay unit 407.
15 is used to perform the chroma key processing and the hidden surface removal processing using the Z buffer method, and output the composite pixel 420.
This process is shown in FIG.

【0067】図13において、比較回路1305はCG
画像側奥行きバッファ1302と実写画像側奥行きバッ
ファ1304の比較を行ない奥行き値が手前にある方の
入力画像の選択を行なう。キー信号生成部1307につ
いては従来例にしめす処理を行ない、キー信号1309
を出力する。入力画像選択回路1306はキー信号が検
出される領域についてはCG画像側を、キー信号が検出
されない領域については比較回路1305で選択された
結果を選択画像1314として出力するセレクタ130
6は、選択画像1314に基づき、画像の切り替えを行
なう。
In FIG. 13, the comparison circuit 1305 is a CG.
The image-side depth buffer 1302 and the photographed image-side depth buffer 1304 are compared to select the input image whose depth value is closer to the front. The key signal generation unit 1307 performs the processing shown in the conventional example, and outputs the key signal 1309.
Is output. The input image selection circuit 1306 outputs the result selected by the comparison circuit 1305 as the selected image 1314 on the CG image side for the region where the key signal is detected, and the selector 130 for the region where the key signal is not detected.
6 switches images based on the selected image 1314.

【0068】次に画像出力部409においては合成画素
420を映像信号に変換しディスプレイ等に出力する。
Next, the image output section 409 converts the composite pixel 420 into a video signal and outputs it to a display or the like.

【0069】以上のように本実施例によれば、画像生成
部において実写画像と整合のとれたCG画像を生成し、
実写画素データと実写奥行き値を画像生成部の処理時間
分遅らせ、実写奥行き値とCG画像の奥行き値である生
成奥行き値と実写画像側から生成されたキー信号である
合成キー信号とを用いて実写画像とCG画像との同期の
とれたリアルタイムでのZバッファ合成とキー合成の複
合合成を行なうことができる。
As described above, according to this embodiment, the image generation unit generates the CG image matched with the photographed image,
The actual-photographed pixel data and the actual-photographed depth value are delayed by the processing time of the image generator, and the actual-photographed depth value and the generated depth value that is the depth value of the CG image and the synthetic key signal that is the key signal generated from the actual-photographed image side are used. It is possible to perform real-time Z buffer composition and key composition compound composition in real time in synchronization with the CG image.

【0070】尚、本実施例ではカメラの方向測定にロー
タリーエンコーダを用いているが、方向測定方法はこれ
に限定するものではなく、ステレオカメラの画像処理に
よる方法や磁気センサによる測定といった種々の方法で
も同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in the present embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. However, the same operation is possible.

【0071】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
In this embodiment, a distance sensor using ultrasonic waves is used for measuring the position of the camera, but the position detecting method is not limited to this, and a rotary encoder or a magnetic sensor is used. It can also be obtained by the method.

【0072】また、本実施例では、合成キー信号生成部
において合成キー信号を生成する際クロマキー手法を用
いたものを開示しているが、合成キー信号生成方法はこ
れに限定するものではなく、画像認識による領域抽出に
よって合成キー信号を生成することもできる。
In this embodiment, the chroma key method is used for generating the synthetic key signal in the synthetic key signal generating section, but the synthetic key signal generating method is not limited to this. It is also possible to generate a synthetic key signal by extracting a region by image recognition.

【0073】(実施例5)次に本発明の実施例5につい
て図5を参照しながら説明する。図5は本発明の実施例
5における画像処理装置の構成を示している。
(Fifth Embodiment) Next, a fifth embodiment of the present invention will be described with reference to FIG. FIG. 5 shows the configuration of an image processing apparatus according to the fifth embodiment of the present invention.

【0074】図5において、501は被写体520を撮
影し実写画素データ509、撮影条件510を出力する
撮像部、502は撮像部501の三次元空間内での位
置、視線方向などの撮像部の撮像位置データ512を出
力する撮像位置検出部、506は撮像部501で撮影す
る被写体の位置を測定し実写奥行き値513を出力する
奥行き情報検出部、503は与えられた三次元幾何学形
状モデルの形状及び属性データ519と、撮像位置デー
タ512、撮影条件510と与えられたキー521から
生成画素データ511と生成奥行き値515と生成キー
信号516を出力する画像生成部、504は実写画素デ
ータ509から遅延実写画素データ517を出力する実
写映像遅延部、507は実写奥行き値513から遅延実
写奥行き値514を出力する奥行き情報遅延部、505
は生成画素データ511と生成奥行き値515と生成キ
ー信号516と遅延実写画素データ517と遅延実写奥
行き値514から合成画素518を出力する画像合成
部、508は合成画素518から合成映像を出力する画
像出力部である。
In FIG. 5, reference numeral 501 denotes an image pickup section for picking up an image of a subject 520 and outputting the real shot pixel data 509 and shooting conditions 510. An image pickup position detection unit that outputs position data 512, a depth information detection unit 506 that measures the position of a subject photographed by the image pickup unit 501 and outputs an actual shot depth value 513, and a shape 503 of a given three-dimensional geometric shape model. And the attribute data 519, the imaging position data 512, the imaging condition 510, and the image generation unit that outputs the generated pixel data 511, the generated depth value 515, and the generated key signal 516 from the given key 521, and 504 is delayed from the actual pixel data 509. A live-action image delay unit that outputs the live-action pixel data 517, and 507 changes the real-action depth value 513 to the delayed live-action depth value 514. Depth information delay section that force, 505
Is an image synthesizing unit that outputs a synthetic pixel 518 from the generated pixel data 511, the generated depth value 515, the generated key signal 516, the delayed actual shot pixel data 517, and the delayed actual shot depth value 514, and 508 is an image that outputs a synthetic video from the synthetic pixel 518. It is an output part.

【0075】次に実施例5の動作について説明する。ま
ず、撮像部501においては、被写体520を撮影し、
その画像を実写画素データ509として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件510として出力する。撮像位置検出部502は、
超音波距離センサによって三次元空間内のカメラの位置
を、ロータリーエンコーダによってカメラの方向を検出
し、撮像位置データ512として出力する。
Next, the operation of the fifth embodiment will be described. First, in the imaging unit 501, the subject 520 is photographed,
The image is output as the real pixel data 509. Further, the zoom, focus, iris, etc. of the lens are output as the shooting condition 510. The imaging position detection unit 502
The position of the camera in the three-dimensional space is detected by the ultrasonic distance sensor, the direction of the camera is detected by the rotary encoder, and output as imaging position data 512.

【0076】次に奥行き情報検出部506では、実施例
3と同様にカメラから被写体520までの距離を測定す
る。次に、与えられた三次元幾何学形状モデル519の
形状および属性データに対して、画像生成部503は撮
像部501から出力された撮像条件510と、撮像位置
検出部502から出力された撮像位置データ513に従
って画像生成の際の視点位置と視線方向と画角を決定
し、これらのデータを基に画像生成を行なって、その結
果を生成画素データ511と生成画素データ511に対
応する奥行き値である生成奥行き値516として出力す
る。さらに生成画素データ511に対して従来例と同様
に、あらかじめ与えられたキー521に基づいて生成キ
ー信号515を出力する。
Next, the depth information detecting section 506 measures the distance from the camera to the object 520 as in the third embodiment. Next, for the given shape and attribute data of the three-dimensional geometric shape model 519, the image generation unit 503 outputs the image capturing condition 510 output from the image capturing unit 501 and the image capturing position output from the image capturing position detecting unit 502. The viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined according to the data 513, image generation is performed based on these data, and the result is generated as the generated pixel data 511 and the depth value corresponding to the generated pixel data 511. It is output as a certain generated depth value 516. Further, similarly to the conventional example, a generated key signal 515 is output to the generated pixel data 511 based on a key 521 given in advance.

【0077】次に実写映像遅延部504では、実写画素
データ509をFIFOを用いて画像生成部503の処
理時間分遅らせ、遅延実写画素データ517を出力す
る。このため画像合成部の入力段階で、遅延実写画素デ
ータ517と生成画素データ511の同期がとれてい
る。
Next, the actually-photographed image delay unit 504 delays the actually-photographed pixel data 509 by the processing time of the image generation unit 503 using the FIFO, and outputs the delayed actually-photographed pixel data 517. For this reason, the delayed actual-photographed pixel data 517 and the generated pixel data 511 are synchronized at the input stage of the image composition unit.

【0078】次に奥行き情報遅延部507では、実写奥
行き値513をFIFOを用いて画像生成部503の処
理時間分遅らせ、遅延実写奥行き値514を出力する。
このため画像合成部の入力段階で、遅延実写奥行き値5
14と生成奥行き値516の同期がとれている。
Next, the depth information delay unit 507 delays the actual captured depth value 513 by the processing time of the image generation unit 503 using the FIFO, and outputs the delayed actual captured depth value 514.
Therefore, at the input stage of the image synthesizing unit, the delay actual shooting depth value 5
14 and the generated depth value 516 are synchronized.

【0079】次に画像合成部505は、画像生成部で出
力された生成奥行き値516と生成画素データ511と
生成キー信号515と実写映像遅延部504から出力さ
れた遅延実写画素データ517と奥行き情報遅延部50
7から出力された遅延実写奥行き値514とを用いて、
クロマキー処理とZバッファ法を用いた隠面消去処理を
行ない、合成画素518を出力する。この処理は、キー
の検出対象画像をCG画像に変更し、あとは図13と同
様の処理を行なう。
Next, the image synthesizing unit 505 outputs the generated depth value 516, the generated pixel data 511, the generated key signal 515, the delayed actual pixel data 517 output from the actual image delay unit 504, and the depth information output from the image generation unit. Delay unit 50
7 and the delayed real-life depth value 514 output from
Hidden surface removal processing using the chroma key processing and the Z buffer method is performed, and the composite pixel 518 is output. In this process, the key detection target image is changed to a CG image, and then the same process as in FIG. 13 is performed.

【0080】次に画像出力部508においては合成画素
518を映像信号に変換しディスプレイ等に出力する。
Next, the image output section 508 converts the composite pixel 518 into a video signal and outputs it to a display or the like.

【0081】以上のように本実施例によれば、画像生成
部において実写画像と整合のとれたCG画像を生成し、
実写画素データと実写奥行き値を画像生成部の処理時間
分遅らせ実写奥行き値とCG画像の奥行き値である生成
奥行き値とCG画像側から生成されたキー信号である生
成キー信号とを用いて実写画像とCG画像との同期のと
れたリアルタイムでのZバッファ合成とキー合成の複合
合成を行なうことができる。
As described above, according to this embodiment, the image generation unit generates the CG image matched with the photographed image,
The actual-photographed pixel data and the actual-photographed depth value are delayed by the processing time of the image generation unit, and the actual-photographed depth value, the generated depth value that is the depth value of the CG image, and the generated key signal that is the key signal generated from the CG image side are actually photographed. It is possible to perform composite real-time composite Z buffer composition and key composition of an image and a CG image.

【0082】尚、本実施例ではカメラの方向測定にロー
タリーエンコーダを用いているが、方向測定方法はこれ
に限定するものではなく、ステレオカメラの画像処理に
よる方法や磁気センサによる測定といった種々の方法で
も同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in the present embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. However, the same operation is possible.

【0083】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
In this embodiment, a distance sensor using ultrasonic waves is used for measuring the position of the camera, but the position detecting method is not limited to this, and a rotary encoder or a magnetic sensor is used. It can also be obtained by the method.

【0084】また、本実施例では、画像生成部503に
おいて生成キー信号515を生成する際クロマキー手法
を用いたものを開示しているが、生成キー信号生成方法
はこれに限定するものではなく、画像認識による領域抽
出によって生成キー信号を生成することもできる。
In the present embodiment, the chroma key method is used to generate the generated key signal 515 in the image generation unit 503, but the generated key signal generation method is not limited to this. It is also possible to generate the generated key signal by extracting the area by image recognition.

【0085】(実施例6)次に本発明の実施例6につい
て図6を参照しながら説明する。図6は本発明の実施例
6における画像処理装置の構成を示している。
(Sixth Embodiment) Next, a sixth embodiment of the present invention will be described with reference to FIG. FIG. 6 shows the configuration of an image processing apparatus in Embodiment 6 of the present invention.

【0086】図6において、601は被写体623を撮
影し実写画素データ610、撮影条件611を出力する
撮像部、602は撮像部601の三次元空間内での位
置、視線方向などの撮像部の撮像位置データ613を出
力する撮像位置検出部、606は撮像部601で撮影す
る被写体の位置を測定し実写奥行き値614を出力する
奥行き情報検出部、603は与えられた三次元幾何学形
状モデルの形状及び属性データ622と、撮像位置デー
タ613、撮影条件611と与えられたキー625から
生成画素データ612と生成奥行き値616と生成キー
信号620を出力する画像生成部、604は実写画素デ
ータ610から遅延実写画素データ617を出力する実
写映像遅延部、607は実写奥行き値614から遅延実
写奥行き値615を出力する奥行き情報遅延部、608
は遅延実写画素データ617と与えられたキー624か
ら合成キー信号618と合成キー信号対応実写画素デー
タ619を出力する合成キー信号生成部、605は生成
画素データ612と生成奥行き値616と生成キー信号
620と合成キー信号618と合成キー信号対応実写画
素データ619と遅延実写奥行き値615とあらかじめ
与えられた背景画素データから合成画素621を出力す
る画像合成部、609は合成画素621から合成映像を
出力する画像出力部である。
In FIG. 6, reference numeral 601 denotes an image pickup section for picking up an image of the subject 623 and outputting the real shot pixel data 610 and the shooting conditions 611. An imaging position detection unit that outputs position data 613, a depth information detection unit 606 that measures the position of a subject imaged by the imaging unit 601, and outputs an actual depth value 614, and a reference numeral 603 represents the shape of a given three-dimensional geometric shape model. An image generation unit that outputs the generated pixel data 612, the generated depth value 616, and the generated key signal 620 from the attribute data 622, the image pickup position data 613, the shooting condition 611, and the given key 625, and 604 is a delay from the actually shot pixel data 610. A live-action video delay unit that outputs live-action pixel data 617, and 607 converts a delay live-action depth value 615 from a live-action depth value 614. Depth information delay section that force, 608
Is a synthetic key signal generation unit which outputs the synthetic key signal 618 and the synthetic key signal corresponding real image pixel data 619 from the delayed actual image pixel data 617 and the given key 624, and 605 is the generated pixel data 612, the generated depth value 616, and the generated key signal. 620, a synthetic key signal 618, a synthetic key signal corresponding real pixel data 619, a delayed real depth value 615, and an image synthesizing unit 609 which outputs a synthetic pixel 621 from background pixel data given in advance, and 609 a synthetic image from the synthetic pixel 621. It is an image output unit that does.

【0087】次に実施例6の動作について説明する。ま
ず、撮像部601においては、被写体623を撮影し、
その画像を実写画素データ610として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件611として出力する。撮像位置検出部602は、
超音波距離センサによって三次元空間内のカメラの位置
を、ロータリーエンコーダによってカメラの方向を検出
し、撮像位置データ613として出力する。次に奥行き
情報検出部606では、実施例3と同様にカメラから被
写体623までの距離を測定する。
Next, the operation of the sixth embodiment will be described. First, in the imaging unit 601, a subject 623 is photographed,
The image is output as the real shot pixel data 610. Further, the zoom, focus, iris, etc. of the lens are output as the shooting condition 611. The imaging position detection unit 602
The position of the camera in the three-dimensional space is detected by the ultrasonic distance sensor, the direction of the camera is detected by the rotary encoder, and the detected position data 613 is output. Next, the depth information detection unit 606 measures the distance from the camera to the subject 623 as in the third embodiment.

【0088】次に、与えられた三次元幾何学形状モデル
622の形状及び属性データに対して、画像生成部60
3は撮像部601から出力された撮像条件611と、撮
像位置検出部602から出力された撮像位置データ61
3に従って画像生成の際の視点位置と視線方向と画角を
決定し、これらのデータを基に画像生成を行なって、そ
の結果を生成画素データ612と生成画素データ612
に対応する奥行き値である生成奥行き値616として出
力する。さらに生成画素データ612に対して従来例と
同様に、あらかじめ与えられたキー625に基づいて生
成キー信号620を出力する。
Next, for the shape and attribute data of the given three-dimensional geometric shape model 622, the image generation unit 60
3 is the imaging condition 611 output from the imaging unit 601 and the imaging position data 61 output from the imaging position detection unit 602.
3, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, image generation is performed based on these data, and the result is generated pixel data 612 and generated pixel data 612.
Is output as a generated depth value 616 which is a depth value corresponding to. Further, similarly to the conventional example, a generated key signal 620 is output to the generated pixel data 612 based on a key 625 given in advance.

【0089】次に実写映像遅延部604では、実写画素
データ610をFIFOを用いて画像生成部603の処
理時間分遅らせ、遅延実写画素データ617を出力す
る。このため画像合成部の入力段階で、合成キー信号対
応実写画素データ619と生成画素データ612の同期
がとれている。
Next, the real image delay unit 604 delays the real pixel data 610 by the processing time of the image generation unit 603 using the FIFO, and outputs the delayed real pixel data 617. Therefore, in the input stage of the image synthesizing unit, the synthetic key signal corresponding real shot pixel data 619 and the generated pixel data 612 are synchronized.

【0090】次に奥行き情報遅延部607では、実写奥
行き値614をFIFOを用いて画像生成部603の処
理時間分遅らせ、遅延実写奥行き値615を出力する。
このため画像合成部の入力段階で、遅延実写奥行き値6
15と生成奥行き値616の同期がとれている。
Next, the depth information delay unit 607 delays the actual captured depth value 614 by the processing time of the image generation unit 603 using the FIFO and outputs the delayed actual captured depth value 615.
Therefore, at the input stage of the image synthesizing unit, the delay actual shooting depth value 6
15 and the generated depth value 616 are synchronized.

【0091】次に、合成キー信号生成部608では、従
来例と同様に、遅延実写画素データ617に対してあら
かじめ指定されたキー616に基づいて合成キー信号6
18と合成キー信号618に対応して合成キー信号対応
実写画素データ619を出力する。
Next, in the synthetic key signal generator 608, the synthetic key signal 6 is generated based on the key 616 designated in advance for the delayed actual pixel data 617, as in the conventional example.
18 and the synthetic key signal 618, the synthetic key signal corresponding real image pixel data 619 is output.

【0092】次に画像合成部605は、画像生成部で出
力された生成奥行き値615と生成画素データ612と
生成キー信号620と合成キー信号生成部608から出
力された合成キー信号618と合成キー信号対応実写画
素データ619と奥行き情報遅延部607から出力され
た遅延実写奥行き値615とを用いて、クロマキー処理
とZバッファ法を用いた隠面消去処理を行ない、合成画
素621を出力する。この処理を図14に示す。
Next, the image synthesizing unit 605 outputs the generated depth value 615 output from the image generating unit, the generated pixel data 612, the generated key signal 620, and the combined key signal 618 and the combined key output from the combined key signal generating unit 608. Using the signal-based actual captured pixel data 619 and the delayed actual captured depth value 615 output from the depth information delaying unit 607, a hidden surface removal process using chroma key processing and the Z buffer method is performed, and a synthetic pixel 621 is output. This process is shown in FIG.

【0093】図14において、CG画像側キー信号生成
回路1407は、あらかじめ与えられたCG画像側キー
1406に基づき、CG画像側フレームバッファからC
G画像側のキー信号である生成キー信号1414を出力
する。この動作は、図6の画像生成部603の動作の一
部である。実写画像側キー信号生成部1408は、あら
かじめ与えられた実写画像側キー1409に基づき、実
写画像側フレームバッファ1403から実写画像側のキ
ー信号である合成キー信号1415を出力する。この動
作は、図6の合成画像生成部608の動作の一部であ
る。
In FIG. 14, a CG image side key signal generation circuit 1407 outputs a C signal from the CG image side frame buffer based on a CG image side key 1406 given in advance.
The generated key signal 1414 which is the key signal on the G image side is output. This operation is a part of the operation of the image generation unit 603 in FIG. The captured image side key signal generation unit 1408 outputs a combined key signal 1415, which is a captured image side key signal, from the captured image side frame buffer 1403 based on a captured image side key 1409 given in advance. This operation is a part of the operation of the composite image generation unit 608 in FIG.

【0094】比較回路1410はCG画像側奥行きバッ
ファ1402と実写画像側奥行きバッファ1404のZ
比較結果1416を出力する。入力画像選択回路141
3は生成キー信号1414のみ検出される領域について
は、実写画像を選択し、合成キー信号1415のみ検出
される領域については、CG画像を選択し、生成キー信
号1414と合成キー信号1415の両方とも検出され
る領域については背景を選択し、生成キー信号1414
と合成キー信号1415のともに検出されない領域につ
いてはZ比較結果1416より、手前にある画像を選択
する。セレクタ1412は入力画像選択回路1411か
ら出力される選択画像1417に従って、画像の出力を
切り換える。
The comparison circuit 1410 uses the Z of the depth buffer 1402 on the CG image side and the depth buffer 1404 on the photographed image side.
The comparison result 1416 is output. Input image selection circuit 141
3 selects a photographed image for an area in which only the generated key signal 1414 is detected, selects a CG image for an area in which only the synthesized key signal 1415 is detected, and both the generated key signal 1414 and the synthesized key signal 1415. The background is selected for the detected area, and the generated key signal 1414 is selected.
For a region in which neither the composite key signal 1415 is detected, the image in front of the Z comparison result 1416 is selected. The selector 1412 switches the image output according to the selected image 1417 output from the input image selection circuit 1411.

【0095】次に画像出力部609においては合成画素
621を映像信号に変換しディスプレイ等に出力する。
Next, the image output unit 609 converts the composite pixel 621 into a video signal and outputs it to a display or the like.

【0096】以上のように本実施例によれば、画像生成
部において実写画像と整合のとれたCG画像を生成し、
実写画素データと実写奥行き値を画像生成部の処理時間
分遅らせ実写奥行き値とCG画像の奥行き値である生成
奥行き値と実写画像側から生成されたキー信号である合
成キー信号とCG画像側から生成されたキー信号である
生成キー信号とを用いて実写画像とCG画像との同期の
とれたリアルタイムでのZバッファ合成とキー合成の複
合合成を行なうことができる。
As described above, according to the present embodiment, the image generation unit generates a CG image matched with a real image,
The actual pixel data and the actual depth value are delayed by the processing time of the image generation unit, the actual depth value and the generated depth value which is the depth value of the CG image, the synthetic key signal which is the key signal generated from the actual image side, and the CG image side. By using the generated key signal which is the generated key signal, real-time Z-buffer synthesis and key synthesis compound synthesis can be performed in real time in synchronization with the CG image.

【0097】尚、本実施例ではカメラの方向測定にロー
タリーエンコーダを用いているが、方向測定方法はこれ
に限定するものではなく、ステレオカメラの画像処理に
よる方法や磁気センサによる測定といった種々の方法で
も同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in this embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measuring by a magnetic sensor are used. However, the same operation is possible.

【0098】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
Further, although the present embodiment discloses the one using the distance sensor using the ultrasonic wave for the position measurement of the camera, the position detecting method is not limited to this, and the rotary encoder or the magnetic sensor is used. It can also be obtained by the method.

【0099】また、本実施例では、合成キー信号生成部
608において合成キー信号618を生成する際と画像
生成部603において生成キー信号620を生成する際
にクロマキー手法を用いたものを開示しているが、合成
キー信号生成方法はこれに限定するものではなく、画像
認識による領域抽出によって合成キー信号、生成キー信
号を生成することもできる。
Further, the present embodiment discloses that the chroma key method is used when the synthetic key signal generating unit 608 generates the synthetic key signal 618 and when the image generating unit 603 generates the generated key signal 620. However, the synthetic key signal generation method is not limited to this, and the synthetic key signal and the generated key signal can be generated by area extraction by image recognition.

【0100】(実施例7)次に本発明の実施例7につい
て図7を参照しながら説明する。図7は本発明の実施例
7における画像処理装置の構成を示している。
(Seventh Embodiment) Next, a seventh embodiment of the present invention will be described with reference to FIG. FIG. 7 shows the configuration of the image processing apparatus according to the seventh embodiment of the present invention.

【0101】図7において、701は被写体723を撮
影し実写画素データ710、撮影条件711を出力する
撮像部、702は撮像部701の三次元空間内での位
置、視線方向などの撮像部の撮像位置データ713を出
力する撮像位置検出部、706は撮像部701で撮影す
る被写体の位置を測定し実写奥行き値714を出力する
奥行き情報検出部、703は与えられた三次元幾何学形
状モデルの形状及び属性データ722と、撮像位置デー
タ713、撮影条件711と与えられたキー725から
生成画素データ712と生成奥行き値716と生成キー
信号720を出力する画像生成部、704は実写画素デ
ータ710から遅延実写画素データ717を出力する実
写映像遅延部、707は実写奥行き値714から遅延実
写奥行き値715を出力する奥行き情報遅延部、708
は遅延実写画素データ717と与えられたキー724か
ら合成キー信号718と合成キー信号対応実写画素デー
タ719を出力する合成キー信号生成部、705は生成
画素データ712と生成奥行き値716と生成キー信号
720と合成キー信号718と合成キー信号対応実写画
素データ719と遅延実写奥行き値715とあらかじめ
与えられた背景画素データ726と背景奥行き値727
から合成画素721と合成奥行き値728を出力する画
像合成部、709は合成画素721から合成映像を出力
する画像出力部である。
In FIG. 7, reference numeral 701 denotes an image pickup section for picking up an image of a subject 723 and outputting the real shot pixel data 710 and shooting conditions 711. An image pickup position detection unit that outputs the position data 713, a depth information detection unit 706 that measures the position of the subject imaged by the image pickup unit 701 and outputs an actual depth value 714, and a reference numeral 703 represents the shape of the given three-dimensional geometric shape model. An image generation unit that outputs the generated pixel data 712, the generated depth value 716, and the generated key signal 720 from the attribute data 722, the image pickup position data 713, the shooting condition 711, and the given key 725, and 704 is a delay from the actually shot pixel data 710. A live-action image delay unit that outputs the live-action pixel data 717, and 707 changes the delay-actual-use depth value 714 from the actual-use depth value 714. Depth information delay section that force, 708
Is a synthetic key signal generator for outputting the synthetic key signal 718 and the synthetic key signal corresponding real pixel data 719 from the delayed real image pixel data 717 and the given key 724, and 705 is the generated pixel data 712, the generated depth value 716 and the generated key signal. 720, composite key signal 718, composite key signal corresponding real image pixel data 719, delayed real image depth value 715, preset background pixel data 726 and background depth value 727.
Is an image combining unit that outputs a combined pixel 721 and a combined depth value 728, and 709 is an image output unit that outputs a combined image from the combined pixel 721.

【0102】次に実施例7の動作について説明する。ま
ず、撮像部701においては、被写体723を撮影し、
その画像を実写画素データ710として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件711として出力する。撮像位置検出部702は、
超音波距離センサによって三次元空間内のカメラの位置
を、ロータリーエンコーダによってカメラの方向を検出
し、撮像位置データ713として出力する。次に奥行き
情報検出部706では、実施例3と同様にカメラから被
写体723までの距離を測定する。
Next, the operation of the seventh embodiment will be described. First, in the imaging unit 701, a subject 723 is photographed,
The image is output as the real pixel data 710. Also, the zoom, focus, iris, etc. of the lens are output as the shooting condition 711. The imaging position detection unit 702
The position of the camera in the three-dimensional space is detected by the ultrasonic distance sensor, the direction of the camera is detected by the rotary encoder, and the detected position data 713 is output. Next, the depth information detection unit 706 measures the distance from the camera to the subject 723 as in the third embodiment.

【0103】次に、与えられた三次元幾何学形状モデル
722の形状および属性データに対して、画像生成部7
03は撮像部701から出力された撮像条件711と、
撮像位置検出部702から出力された撮像位置データ7
13に従って画像生成の際の視点位置と視線方向と画角
を決定し、これらのデータを基に画像生成を行なって、
その結果を生成画素データ712と生成画素データ71
2に対応する奥行き値である生成奥行き値716として
出力する。さらに生成画素データ712に対して従来例
と同様に、あらかじめ与えられたキー725に基づいて
生成キー信号720を出力する。
Next, for the shape and attribute data of the given three-dimensional geometric shape model 722, the image generation unit 7
03 is an imaging condition 711 output from the imaging unit 701,
Imaging position data 7 output from the imaging position detection unit 702
13, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, image generation is performed based on these data,
The result is generated pixel data 712 and generated pixel data 71.
It is output as a generated depth value 716 which is a depth value corresponding to 2. Further, similarly to the conventional example, a generated key signal 720 is output to the generated pixel data 712 based on a key 725 given in advance.

【0104】次に実写映像遅延部704では、実写画素
データ710をFIFOを用いて画像生成部703の処
理時間分遅らせ、遅延実写画素データ717を出力す
る。このため画像合成部の入力段階で、合成キー信号対
応実写画素データ719と生成画素データ712の同期
がとれている。
Next, the actually-photographed image delay unit 704 delays the actually-photographed pixel data 710 by the processing time of the image generation unit 703 by using FIFO, and outputs the delayed actually-photographed pixel data 717. Therefore, at the input stage of the image synthesizing unit, the synthetic key signal corresponding real shot pixel data 719 and the generated pixel data 712 are synchronized.

【0105】次に奥行き情報遅延部707では、実写奥
行き値714をFIFOを用いて画像生成部703の処
理時間分遅らせ、遅延実写奥行き値715を出力する。
このため画像合成部の入力段階で、遅延実写奥行き値7
15と生成奥行き値716の同期がとれている。
Next, the depth information delay unit 707 delays the actual captured depth value 714 by the processing time of the image generation unit 703 using the FIFO and outputs the delayed actual captured depth value 715.
Therefore, at the input stage of the image synthesizing unit, the delay actual shooting depth value 7
15 and the generated depth value 716 are synchronized.

【0106】次に、合成キー信号生成部708では、従
来例と同様に、遅延実写画素データ717に対してあら
かじめ指定されたキー716に基づいて合成キー信号7
18と合成キー信号718に対応して合成キー信号対応
実写画素データ719を出力する。
Next, in the synthetic key signal generator 708, the synthetic key signal 7 is generated based on the key 716 previously designated for the delayed actual image pixel data 717, as in the conventional example.
18 and composite key signal 718 corresponding to the composite key signal 718 are output.

【0107】次に画像合成部705は、画像生成部で出
力された生成奥行き値715と生成画素データ712と
生成キー信号720と合成キー信号生成部708から出
力された合成キー信号718と合成キー信号対応実写画
素データ719と奥行き情報遅延部707から出力され
た遅延実写奥行き値715とを用いて、クロマキー処理
とZバッファ法を用いた隠面消去処理を行ない、合成画
素721と合成奥行き値728を出力する。この処理を
図15に示す。
Next, the image synthesizing unit 705 outputs the generated depth value 715 output from the image generating unit, the generated pixel data 712, the generated key signal 720, the combined key signal 718 output from the combined key signal generating unit 708, and the combined key. The signal-corresponding actual-photographed pixel data 719 and the delayed actual-photographed depth value 715 output from the depth information delay unit 707 are used to perform the hidden surface elimination process using the chroma key process and the Z-buffer method, and the synthetic pixel 721 and the synthetic depth value 728. Is output. This process is shown in FIG.

【0108】図15において、CG画像側キー信号生成
回路1507は、あらかじめ与えられたCG画像側キー
1506に基づき、CG画像側フレームバッファからC
G画像側のキー信号である生成キー信号1514を出力
する。この動作は、図6の画像生成部603の動作の一
部である。実写画像側キー信号生成部1508は、あら
かじめ与えられた実写画像側キー1509に基づき、実
写画像側フレームバッファ1503から実写画像側のキ
ー信号である合成キー信号1515を出力する。この動
作は、図6の合成画像生成部608の動作の一部であ
る。
In FIG. 15, the CG image side key signal generation circuit 1507 outputs a C signal from the CG image side frame buffer based on a CG image side key 1506 given in advance.
A generated key signal 1514 which is a key signal on the G image side is output. This operation is a part of the operation of the image generation unit 603 in FIG. The photographed image side key signal generation unit 1508 outputs a synthesized key signal 1515 which is a key signal on the photographed image side from the photographed image side frame buffer 1503 based on a photographed image side key 1509 given in advance. This operation is a part of the operation of the composite image generation unit 608 in FIG.

【0109】比較回路1510はCG画像側奥行きバッ
ファ1502と実写画像側奥行きバッファ1504のZ
比較結果1516を出力する。入力画像選択回路151
3は生成キー信号1514のみ検出される領域について
は、実写画像を選択し、合成キー信号1515のみ検出
される領域については、CG画像を選択し、生成キー信
号1514と合成キー信号1515の両方とも検出され
る領域については背景を選択し、生成キー信号1514
と合成キー信号1515のともに検出されない領域につ
いてはZ比較結果1516より、手前にある画像を選択
する。セレクタ1512は入力画像選択回路1511か
ら出力される選択画像1517に従って、画像の出力を
切り換える。セレクタ1520は入力画像選択回路15
11から出力される選択画像1517に従って、その画
像に対応する奥行き値の出力を切り換える。
The comparison circuit 1510 uses the Z in the depth buffer 1502 on the CG image side and the depth buffer 1504 on the photographed image side.
The comparison result 1516 is output. Input image selection circuit 151
3 selects a photographed image for an area in which only the generated key signal 1514 is detected, selects a CG image for an area in which only the synthesized key signal 1515 is detected, and both the generated key signal 1514 and the synthesized key signal 1515. The background is selected for the detected area, and the generated key signal 1514 is selected.
For the area where neither the composite key signal 1515 is detected, the image in front of the Z comparison result 1516 is selected. The selector 1512 switches the image output according to the selected image 1517 output from the input image selection circuit 1511. The selector 1520 is an input image selection circuit 15
According to the selected image 1517 output from No. 11, the output of the depth value corresponding to that image is switched.

【0110】次に画像出力部709においては合成画素
721を映像信号に変換しディスプレイ等に出力する。
Next, the image output unit 709 converts the composite pixel 721 into a video signal and outputs it to a display or the like.

【0111】なお、本実施例ではカメラの方向測定にロ
ータリーエンコーダを用いているが、方向測定方法はこ
れに限定するものではなく、ステレオカメラの画像処理
による方法や、磁気センサによる測定といった種々の方
法でも同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in the present embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. The same operation can be performed by the method.

【0112】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
Further, although the present embodiment discloses the one using the distance sensor using the ultrasonic wave for measuring the position of the camera, the position detecting method is not limited to this, and the rotary encoder or the magnetic sensor is used. It can also be obtained by the method.

【0113】また、本実施例では、合成キー信号生成部
708において合成キー信号718を生成する際と画像
生成部703において生成キー信号720を生成する際
にクロマキー手法を用いたものを開示しているが、合成
キー信号生成方法はこれに限定するものではなく、画像
認識による領域抽出によって合成キー信号、生成キー信
号を生成することもできる。
Further, the present embodiment discloses that the chroma key method is used when the synthetic key signal generation unit 708 generates the synthetic key signal 718 and when the image generation unit 703 generates the generation key signal 720. However, the synthetic key signal generation method is not limited to this, and the synthetic key signal and the generated key signal can be generated by area extraction by image recognition.

【0114】また、本実施例に示すように、実施例6に
ついても、画像合成部の入力として背景画素データと背
景奥行き値が削れるだけで、同様の動作となる。
Further, as shown in the present embodiment, the same operation is performed in the sixth embodiment only by deleting the background pixel data and the background depth value as the input of the image synthesizing unit.

【0115】(実施例8)以下本発明の実施例8につい
て図8を参照しながら説明する。図8は本発明の実施例
8における画像処理装置の構成を示している。
(Embodiment 8) An embodiment 8 of the present invention will be described below with reference to FIG. FIG. 8 shows the configuration of an image processing apparatus according to the eighth embodiment of the present invention.

【0116】図8において、801は被写体823を撮
影し実写画素データ810、撮影条件811を出力する
撮像部、802は撮像部801の三次元空間内での位
置、視線方向などの撮像部の撮像位置データ813を出
力する撮像位置検出部、806は撮像部801で撮影す
る被写体の位置を測定し実写奥行き値814を出力する
奥行き情報検出部、829は実写画像の撮影環境におけ
る照明条件を検出し、照明条件データ830を出力する
照明条件抽出部、803は与えられた三次元幾何学形状
モデルの形状及び属性データ822と、撮像位置データ
813、撮影条件811と与えられたキー825と、照
明条件データ830から生成画素データ812と生成奥
行き値816と生成キー信号820を出力する画像生成
部、804は実写画素データ810から遅延実写画素デ
ータ817を出力する実写映像遅延部、807は実写奥
行き値814から遅延実写奥行き値815を出力する奥
行き情報遅延部、808は遅延実写画素データ817と
与えられたキー824から合成キー信号818と合成キ
ー信号対応実写画素データ819を出力する合成キー信
号生成部、805は生成画素データ812と生成奥行き
値816と生成キー信号820と合成キー信号818と
合成キー信号対応実写画素データ819と遅延実写奥行
き値815とあらかじめ与えられた背景画素データ82
6と背景奥行き値827から合成画素821と合成奥行
き値828を出力する画像合成部、809は合成画素8
21から合成映像を出力する画像出力部である。
In FIG. 8, reference numeral 801 denotes an image pickup section for picking up an image of the subject 823 and outputting the real shot pixel data 810 and the shooting condition 811, and 802 for picking up the image pickup section 801's position in the three-dimensional space, line-of-sight direction and the like. An imaging position detection unit that outputs position data 813, a depth information detection unit 806 that measures the position of a subject to be captured by the imaging unit 801, and outputs a captured depth value 814, and a reference numeral 829 that detects illumination conditions in the captured environment of the captured image. A lighting condition extraction unit that outputs lighting condition data 830. Reference numeral 803 denotes the shape and attribute data 822 of the given three-dimensional geometric shape model, the imaging position data 813, the shooting condition 811, and the given key 825, and the lighting condition. An image generation unit that outputs the generated pixel data 812, the generated depth value 816, and the generated key signal 820 from the data 830, and 804 is an actual image. A live-action video delay unit that outputs delayed live-action pixel data 817 from the data 810, a depth information delay unit 807 that outputs a delay live-action depth value 815 from the real-action depth value 814, and a delayed real-action pixel data 817 and a key 824 assigned to it. A synthetic key signal generation unit that outputs a synthetic key signal 818 and a synthetic key signal corresponding real pixel data 819, and 805 a generated pixel data 812, a generated depth value 816, a generated key signal 820, a synthetic key signal 818, and a synthetic key signal corresponding real pixel. The data 819, the delay image depth value 815, and the background pixel data 82 given in advance.
6 and a background depth value 827, an image combining unit that outputs a combined pixel 821 and a combined depth value 828;
21 is an image output unit that outputs a composite video.

【0117】次に実施例8の動作について説明する。ま
ず、撮像部801においては、被写体823を撮影し、
その画像を実写画素データ810として出力する。ま
た、レンズのズーム、フォーカス、アイリスなどを撮影
条件811として出力する。撮像位置検出部802は、
超音波距離センサによって三次元空間内のカメラの位置
を、ロータリーエンコーダによってカメラの方向を検出
し、撮像位置データ813として出力する。
Next, the operation of the eighth embodiment will be described. First, in the imaging unit 801, a subject 823 is photographed,
The image is output as the real pixel data 810. Also, the zoom, focus, iris, etc. of the lens are output as the shooting condition 811. The imaging position detection unit 802
The ultrasonic distance sensor detects the position of the camera in the three-dimensional space, the rotary encoder detects the direction of the camera, and outputs it as imaging position data 813.

【0118】次に奥行き情報検出部806では、実施例
3と同様にカメラから被写体823までの距離を測定す
る。
Next, the depth information detecting unit 806 measures the distance from the camera to the subject 823 as in the third embodiment.

【0119】次に照明条件抽出部829は、照明状態の
計測あるいは調光器の操作盤の状態取り込みなどによっ
て実写の照明条件を抽出し、照明条件データ830を出
力する。
Next, the illumination condition extraction unit 829 extracts the illumination condition of the actual image by measuring the illumination condition or taking in the condition of the operation panel of the dimmer, and outputs the illumination condition data 830.

【0120】次に、与えられた三次元幾何学形状モデル
822の形状および属性データに対して、画像生成部8
03は撮像部801から出力された撮像条件811と、
撮像位置検出部802から出力された撮像位置データ8
13に従って画像生成の際の視点位置と視線方向と画角
を決定し、照明条件抽出部829から出力された照明条
件データ830に従って照明シミュレーション演算を行
なって照度データを求め、これらのデータを基に画像生
成を行なって、その結果を生成画素データ812と生成
画素データ812に対応する奥行き値である生成奥行き
値816として出力する。さらに生成画素データ812
に対して従来例と同様に、あらかじめ与えられたキー8
25に基づいて生成キー信号820を出力する。
Next, for the shape and attribute data of the given three-dimensional geometric shape model 822, the image generation unit 8
03 is an imaging condition 811 output from the imaging unit 801;
Imaging position data 8 output from the imaging position detection unit 802
13, the viewpoint position, the line-of-sight direction, and the angle of view at the time of image generation are determined, the illumination simulation calculation is performed according to the illumination condition data 830 output from the illumination condition extraction unit 829 to obtain the illuminance data, and based on these data. The image is generated, and the result is output as the generated pixel data 812 and the generated depth value 816 which is the depth value corresponding to the generated pixel data 812. Further, the generated pixel data 812
In contrast to the conventional example, the key
Based on 25, the generated key signal 820 is output.

【0121】次に実写映像遅延部804では、実写画素
データ810をFIFOを用いて画像生成部803の処
理時間分遅らせ、遅延実写画素データ817を出力す
る。このため画像合成部の入力段階で、合成キー信号対
応実写画素データ819と生成画素データ812の同期
がとれている。
Next, the actually-photographed image delay unit 804 delays the actually-photographed pixel data 810 by the processing time of the image generation unit 803 using the FIFO, and outputs the delayed actually-photographed pixel data 817. Therefore, at the input stage of the image synthesizing unit, the synthetic key signal corresponding real shot pixel data 819 and the generated pixel data 812 are synchronized.

【0122】次に奥行き情報遅延部807では、実写奥
行き値814をFIFOを用いて画像生成部803の処
理時間分遅らせ、遅延実写奥行き値815を出力する。
このため画像合成部の入力段階で、遅延実写奥行き値8
15と生成奥行き値816の同期がとれている。
Next, the depth information delay unit 807 delays the actual captured depth value 814 by the processing time of the image generation unit 803 using the FIFO, and outputs the delayed actual captured depth value 815.
Therefore, at the input stage of the image synthesizing unit, the delay actual shooting depth value 8
15 and the generated depth value 816 are synchronized.

【0123】次に、合成キー信号生成部808では、従
来例と同様に、遅延実写画素データ817に対してあら
かじめ指定されたキー816に基づいて合成キー信号8
18と合成キー信号818に対応して合成キー信号対応
実写画素データ819を出力する。
Next, in the synthetic key signal generation unit 808, the synthetic key signal 8 is generated based on the key 816 designated in advance for the delayed actual pixel data 817, as in the conventional example.
18 and synthetic key signal 818 corresponding to the synthetic key signal 818 are output.

【0124】次に画像合成部805は、画像生成部で出
力された生成奥行き値815と生成画素データ812と
生成キー信号820と合成キー信号生成部808から出
力された合成キー信号818と合成キー信号対応実写画
素データ819と奥行き情報遅延部807から出力され
た遅延実写奥行き値815とを用いて、実施例7と同様
にクロマキー処理とZバッファ法を用いた隠面消去処理
を行ない、合成画素821と合成奥行き値828を出力
する。
Next, the image synthesizing unit 805 outputs the generated depth value 815, the generated pixel data 812, the generated key signal 820, the synthetic key signal 818 and the synthetic key output from the image generation unit 808. Using the signal-corresponding real-photographed pixel data 819 and the delayed real-photographed depth value 815 output from the depth information delay unit 807, the hidden surface erasing process using the chroma key process and the Z-buffer method is performed in the same manner as in the seventh embodiment, and the composite pixel is obtained. 821 and the composite depth value 828 are output.

【0125】次に画像出力部809においては合成画素
821を映像信号に変換しディスプレイ等に出力する。
Next, the image output unit 809 converts the composite pixel 821 into a video signal and outputs it to a display or the like.

【0126】なお、本実施例ではカメラの方向測定にロ
ータリーエンコーダを用いているが、方向測定方法はこ
れに限定するものではなく、ステレオカメラの画像処理
による方法や、磁気センサによる測定といった種々の方
法でも同様の動作が可能である。
Although the rotary encoder is used for measuring the direction of the camera in this embodiment, the direction measuring method is not limited to this, and various methods such as a method by image processing of a stereo camera and a measurement by a magnetic sensor are used. The same operation can be performed by the method.

【0127】また、本実施例では、カメラの位置測定に
超音波を使った距離センサを用いたものを開示している
が、位置検出方法はこれに限定するものではなく、ロー
タリーエンコーダや磁気センサによる方法でも求めるこ
とができる。
Further, although the present embodiment discloses the one using the distance sensor using the ultrasonic wave for the position measurement of the camera, the position detecting method is not limited to this, and the rotary encoder or the magnetic sensor is used. It can also be obtained by the method.

【0128】また、本実施例では、合成キー信号生成部
808において合成キー信号818を生成する際と画像
生成部803において生成キー信号820を生成する際
にクロマキー手法を用いたものを開示しているが、合成
キー信号生成方法はこれに限定するものではなく、画像
認識による領域抽出によって合成キー信号、生成キー信
号を生成することもできる。
Further, the present embodiment discloses that the chroma key method is used when the synthetic key signal generation unit 808 generates the synthetic key signal 818 and when the image generation unit 803 generates the generated key signal 820. However, the synthetic key signal generation method is not limited to this, and the synthetic key signal and the generated key signal can be generated by area extraction by image recognition.

【0129】なお、実施例3、4、5の画像合成部にお
いて、合成画素データと前記合成画素データに対応する
合成奥行き値を出力するように構成してもよい。
The image synthesizing unit of the third, fourth, and fifth embodiments may be configured to output the synthetic pixel data and the synthetic depth value corresponding to the synthetic pixel data.

【0130】[0130]

【発明の効果】以上のように第1の発明では、撮像部か
ら出力される撮影条件と撮像位置検出部から出力される
位置方向を入力とし三次元幾何学形状モデルの形状及び
属性データをもとに画像生成し生成画素データを出力す
る画像生成部と、撮像部の実写画素データを画像生成部
の処理時間分遅らせ、与えられた合成対象領域の識別基
準であるキーをもとに合成対象領域であるかを識別する
合成キー信号と合成キー信号に対応して遅延させた実写
画素データとを出力する合成キー信号生成部と、合成キ
ー信号に基づき実写画素データと生成画素データを画像
合成し合成画素データを出力する画像合成部とを備えた
ことにより、実写画像と整合のとれたCG画像が生成さ
れ、実写画像とCG画像との同期のとれた実写画像でキ
ー信号検出を行なうリアルタイムキー合成ができる。
As described above, according to the first aspect of the invention, the shape and the attribute data of the three-dimensional geometric shape model are also input with the shooting condition output from the image pickup section and the position direction output from the image pickup position detection section as inputs. An image generation unit that generates an image and outputs generated pixel data, and the real shot pixel data of the image pickup unit is delayed by the processing time of the image generation unit, and the synthesis target is based on the key that is the given identification reference of the synthesis target region. A synthetic key signal generation unit that outputs a synthetic key signal for identifying whether it is a region and real pixel data delayed corresponding to the synthetic key signal, and an image of the real pixel data and the generated pixel data based on the synthetic key signal. By providing an image synthesizing unit that outputs synthetic pixel data, a CG image matched with the real shot image is generated, and key signal detection is performed on the real shot image in which the real shot image and the CG image are synchronized. It is real-time key synthesis.

【0131】第2の発明では、撮像部から出力される撮
影条件と撮像位置検出部から出力される位置方向を入力
とし三次元幾何学形状モデルの形状及び属性データと与
えられた合成対象領域の識別基準であるキーをもとに画
像生成し生成画素データと生成画素データが合成対象領
域であるかを識別する生成キー信号とを出力する画像生
成部と、撮像部の実写画素データを画像生成部の処理時
間分遅らせ、生成キー信号に基づき遅延させた実写画素
データと生成画素データを画像合成し合成画素データを
出力する画像合成部とを備えたことにより、実写画像と
整合のとれたCG画像が生成され、実写画像とCG画像
との同期のとれたCG画像でキー信号検出を行なうリア
ルタイムキー合成ができる。
According to the second aspect of the present invention, the photographing condition output from the image pickup unit and the position direction output from the image pickup position detection unit are used as inputs, and the shape and attribute data of the three-dimensional geometric shape model and the given synthesis target region are combined. An image generating unit that generates an image based on a key that is an identification reference and outputs a generated pixel data and a generated key signal that identifies whether the generated pixel data is a combination target area, and an image generation of the actual pixel data of the imaging unit By providing an image synthesizing unit that delays the processing time of the image processing unit and delays the generated pixel data based on the generated key signal to synthesize the image, and output the synthesized pixel data, the CG that is matched with the photographed image. An image is generated, and real-time key combination can be performed in which a key signal is detected in a CG image in which a real image and a CG image are synchronized.

【0132】第3の発明では、撮像部で撮影する被写体
の位置を測定し実写奥行き値を撮像部と同期して出力す
る奥行き情報検出部と、撮像部から出力される撮影条件
と撮像位置検出部から出力される位置方向を入力とし三
次元幾何学形状モデルの形状及び属性データをもとに画
像生成し生成画素データと生成画素データの生成奥行き
値とを出力する画像生成部と、撮像部の実写画素データ
を画像生成部の処理時間分遅らせ、実写奥行き値を画像
生成部の処理時間分遅らせ、遅延させた実写奥行き値と
生成奥行き値に基づき実写画素データと生成画素データ
を画像合成し合成画素データを出力する画像合成部とを
備えたことにより、実写画像と整合のとれたCG画像が
生成され、実写画像とCG画像との同期のとれたリアル
タイムZバッファ合成ができる。
According to the third aspect of the invention, the depth information detecting section for measuring the position of the object to be photographed by the image pickup section and outputting the actually photographed depth value in synchronization with the image pickup section, the photographing condition and the image pickup position detection outputted from the image pickup section. An image generation unit that generates an image based on the shape and attribute data of the three-dimensional geometric shape model with the position and direction output from the unit as an input, and outputs the generated pixel data and the generated depth value of the generated pixel data, and an imaging unit Of the real shot pixel data of 1 is delayed by the processing time of the image generation unit, the real shot depth value is delayed by the processing time of the image generation unit, and the real shot pixel data and the generated pixel data are image-synthesized based on the delayed real shot depth value and the generated depth value. By providing the image synthesizing unit for outputting the synthetic pixel data, a CG image matched with the real shot image is generated, and the real time Z buffer in which the real shot image and the CG image are synchronized. Adult can.

【0133】第4の発明では、撮像部で撮影する被写体
の位置を測定し実写奥行き値を撮像部と同期して出力す
る奥行き情報検出部と、撮像部の位置方向を撮像部と同
期して検出する撮像位置検出部と、撮像部から出力され
る撮影条件と撮像位置検出部から出力される位置方向を
入力とし三次元幾何学形状モデルの形状及び属性データ
をもとに画像生成し生成画素データと生成画素データの
生成奥行き値とを出力する画像生成部と、撮像部の実写
画素データを画像生成部の処理時間分遅らせ、実写奥行
き値を画像生成部の処理時間分遅らせ、与えられた合成
対象領域の識別基準であるキーをもとに合成対象領域で
あるかを識別する合成キー信号と合成キー信号に対応し
かつ遅延させた実写画素データとを出力する合成キー信
号生成部と、合成キー信号と遅延させた実写奥行き値と
生成奥行き値に基づき実写画素データと生成画素データ
を画像合成し合成画素データを出力する画像合成部とを
備えたことにより、実写画像と整合のとれたCG画像が
生成され、実写奥行き値とCG画像の奥行き値である生
成奥行き値と実写画像側から生成されたキーである合成
キー信号とを用いて実写画像とCG画像との同期のとれ
たリアルタイムでのZバッファ合成とキー合成の複合合
成ができる。
According to the fourth aspect of the present invention, the depth information detecting section for measuring the position of the object photographed by the image pickup section and outputting the actual depth value in synchronization with the image pickup section, and the position direction of the image pickup section in synchronization with the image pickup section. The image pickup position detection unit to detect, the image pickup condition output from the image pickup unit and the position direction output from the image pickup position detection unit as input, image generation based on the shape and attribute data of the three-dimensional geometric shape model The image generation unit that outputs the data and the generated depth value of the generated pixel data, and the real pixel data of the imaging unit is delayed by the processing time of the image generation unit, and the real depth value is delayed by the processing time of the image generation unit. A synthetic key signal generation unit that outputs a synthetic key signal that identifies whether the region is a synthetic target region based on the key that is the identification criterion of the synthetic target region and the real pixel data that is delayed and that corresponds to the synthetic key signal; Synthesis CG that is matched with the actual shot image by including an image synthesizing unit for synthesizing the image of the actual shot pixel data and the generated pixel data based on the delayed signal and the delayed actual shot depth value and the generated depth value. An image is generated, and in real time synchronized with the real image and the CG image by using the real depth value and the generated depth value which is the depth value of the CG image, and the synthetic key signal which is a key generated from the real image side. It is possible to perform composite composition of Z buffer composition and key composition.

【0134】第5の発明では、撮像部で撮影する被写体
の位置を測定し実写奥行き値を撮像部と同期して出力す
る奥行き情報検出部と、撮像部から出力される撮影条件
と撮像位置検出部から出力される位置方向を入力とし三
次元幾何学形状モデルの形状及び属性データと与えられ
た合成対象領域の識別基準であるキーをもとに画像生成
し生成画素データと生成画素データが合成対象領域であ
るかを識別する生成キー信号と画素データの生成奥行き
値とを出力する画像生成部と、撮像部の実写画素データ
を画像生成部の処理時間分遅らせ、実写奥行き値を画像
生成部の処理時間分遅らせ、生成キー信号と遅延させた
実写奥行き値と生成奥行き値に基づき遅延させた実写画
素データと生成画素データを画像合成し合成画素データ
を出力する画像合成部とを備えたことにより、実写画像
と整合のとれたCG画像が生成され、実写奥行き値とC
G画像の奥行き値である生成奥行き値とCG画像側から
生成されたキー信号である生成キー信号とを用いて実写
画像とCG画像との同期のとれたリアルタイムでのZバ
ッファ合成とキー合成の複合合成ができる。
According to the fifth aspect of the invention, the depth information detecting section for measuring the position of the subject to be photographed by the image pickup section and outputting the actual photographed depth value in synchronization with the image pickup section, the photographing condition output from the image pickup section and the image pickup position detection. The image is generated based on the shape and attribute data of the 3D geometric shape model and the given key that is the identification criterion of the target area for synthesis, and the generated pixel data and the generated pixel data are combined. An image generation unit that outputs a generated key signal that identifies whether the region is a target region and a generated depth value of pixel data, and delays the real shot pixel data of the image pickup unit by the processing time of the image generation unit, and sets the real shot depth value to the image generation unit. The image combination that delays the processing time of, and generates the generated key signal, delays the actual shooting depth value, and the delayed actual shooting pixel data and the generated pixel data based on the generated depth value, and outputs the combined pixel data. By having a part, CG image is generated in which a well-aligned with the real image, the photographed depth value and C
By using the generated depth value which is the depth value of the G image and the generated key signal which is the key signal generated from the CG image side, the real-time image and the CG image are synchronized in real time for the Z buffer composition and the key composition. Complex synthesis is possible.

【0135】第6の発明では、撮像部で撮影する被写体
の位置を測定し実写奥行き値を撮像部と同期して出力す
る奥行き情報検出部と、撮像部から出力される撮影条件
と撮像位置検出部から出力される位置方向を入力とし三
次元幾何学形状モデルの形状及び属性データと与えられ
た合成対象領域の識別基準であるキーをもとに画像生成
し生成画素データと生成画素データが合成対象領域であ
るかを識別する生成キー信号と画素データの生成奥行き
値とを出力する画像生成部と、撮像部の実写画素データ
出力を入力とし画像生成部の処理時間分遅らせて出力す
る実写映像遅延部と、奥行き情報検出部出力を入力とし
画像生成部の処理時間分遅らせて出力する奥行き情報遅
延部と、実写映像遅延部出力を入力とし与えられた合成
対象領域の識別基準であるキーをもとに合成対象領域で
あるかを識別する合成キー信号と合成キー信号に対応し
て実写画素データとを出力する合成キー信号生成部と、
前記合成キー信号と生成キー信号と遅延実写奥行き値と
生成奥行き値に基づき遅延され合成キー信号に対応した
実写画素データと生成画素データを画像合成し合成画素
データを出力する画像合成部とを備えたことにより、実
写画像と整合のとれたCG画像が生成され、実写奥行き
値とCG画像の奥行き値である生成奥行き値と実写画像
側から生成されたキー信号である合成キー信号とCG画
像側から生成されたキー信号である生成キー信号とを用
いて実写画像とCG画像との同期のとれたリアルタイム
でのZバッファ合成とキー合成の複合合成ができる。
According to the sixth aspect of the invention, the depth information detecting section for measuring the position of the subject to be photographed by the image pickup section and outputting the actual photographed depth value in synchronization with the image pickup section, the photographing condition output from the image pickup section and the image pickup position detection. The image is generated based on the shape and attribute data of the 3D geometric shape model and the given key that is the identification criterion of the target area for synthesis, and the generated pixel data and the generated pixel data are combined. An image generation unit that outputs a generated key signal for identifying whether it is a target region and a generated depth value of pixel data, and a photographed image that is output with the actual pixel data output of the image pickup unit as input and delayed by the processing time of the image generation unit. A delay unit and a depth information delay unit that receives the output of the depth information detection unit as an input and delays the output by the processing time of the image generation unit and outputs the captured image delay unit as an input A synthetic key signal generator that outputs the original synthesis target region in which either corresponds to the synthesis key signal and the synthetic key signals identifying photographed pixel data key is,
An image synthesizing unit for synthesizing image data of real pixel data and generated pixel data, which are delayed based on the synthetic key signal, the generated key signal, the delayed actual shooting depth value and the generated depth value, and which correspond to the synthetic key signal, and output the synthetic pixel data. As a result, a CG image matched with the live-action image is generated, and the real-life depth value and the generated depth value that is the depth value of the CG image, the combined key signal that is the key signal generated from the real-image side, and the CG image side. By using the generated key signal which is the key signal generated from, the real-time image and the CG image can be combined in real time in combination with Z buffer composition and key composition.

【0136】第7の発明では、第3、4または5の発明
の画像合成部を合成画素データと前記合成画素データに
対応する合成奥行き値を出力する画像合成部に置き換え
ることで第3、4または5の発明の出力に奥行き値を追
加することができる。
In the seventh invention, the image synthesizing section of the third, fourth or fifth invention is replaced with an image synthesizing section which outputs synthetic pixel data and a synthetic depth value corresponding to the synthetic pixel data. Alternatively, depth values can be added to the output of the invention of 5.

【0137】第8の発明では、第6の発明の画像合成部
を背景画素データと背景奥行き値を入力に追加し、合成
画素データとそれに対応する合成奥行き値を出力する画
像合成部に置き換えることで第6の発明の出力に奥行き
値を追加することができる。
In the eighth invention, the image synthesizing unit of the sixth invention is added with the background pixel data and the background depth value as an input and replaced with the image synthesizing unit which outputs the synthetic pixel data and the synthetic depth value corresponding thereto. Then, the depth value can be added to the output of the sixth invention.

【0138】第9の発明では、被写体に対する照明条件
を検出して画像生成部に照明条件データを出力する照明
条件抽出部をさらに備え、照明条件抽出部から入力され
た照明条件データにしたがって画像を生成する画像生成
部を備えることで合成画像において実写画像とCG画像
との照明条件の整合がとれる。
In the ninth invention, an illumination condition extraction unit for detecting the illumination condition for the subject and outputting the illumination condition data to the image generation unit is further provided, and the image is generated in accordance with the illumination condition data input from the illumination condition extraction unit. By providing the image generation unit for generating, the illumination conditions of the real image and the CG image can be matched in the composite image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1における画像処理装置の構成
FIG. 1 is a configuration diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】本発明の実施例2における画像処理装置の構成
FIG. 2 is a configuration diagram of an image processing apparatus according to a second embodiment of the present invention.

【図3】本発明の実施例3における画像処理装置の構成
FIG. 3 is a configuration diagram of an image processing apparatus according to a third embodiment of the present invention.

【図4】本発明の実施例4における画像処理装置の構成
FIG. 4 is a configuration diagram of an image processing apparatus according to a fourth embodiment of the present invention.

【図5】本発明の実施例5における画像処理装置の構成
FIG. 5 is a configuration diagram of an image processing apparatus according to a fifth embodiment of the present invention.

【図6】本発明の実施例6における画像処理装置の構成
FIG. 6 is a configuration diagram of an image processing apparatus according to a sixth embodiment of the present invention.

【図7】本発明の実施例7における画像処理装置の構成
FIG. 7 is a configuration diagram of an image processing apparatus according to a seventh embodiment of the present invention.

【図8】本発明の実施例8における画像処理装置の構成
FIG. 8 is a configuration diagram of an image processing apparatus according to an eighth embodiment of the present invention.

【図9】従来のクロマキー合成の処理方法を示した図FIG. 9 is a diagram showing a conventional chroma key composition processing method.

【図10】従来のZバッファ法の処理方法を示した図FIG. 10 is a diagram showing a processing method of a conventional Z buffer method.

【図11】本実施例における磁気センサを用いた距離測
定方法を示した図
FIG. 11 is a diagram showing a distance measuring method using a magnetic sensor according to the present embodiment.

【図12】リアルタイムで生成されるCG画像の実写画
像に対する時間的遅れを示す図
FIG. 12 is a diagram showing a time delay of a CG image generated in real time with respect to a photographed image.

【図13】実施例4のクロマキー処理とZバッファ法を
用いた隠面消去処理方法を示す図
FIG. 13 is a diagram showing a hidden surface erasing processing method using the chroma key processing and the Z buffer method according to the fourth embodiment.

【図14】実施例6のクロマキー処理とZバッファ法を
用いた隠面消去処理方法を示す図
FIG. 14 is a diagram showing a hidden surface erasing processing method using the chroma key processing and the Z buffer method of the sixth embodiment.

【図15】実施例7のクロマキー処理とZバッファ法を
用いた隠面消去処理方法を示す図
FIG. 15 is a diagram showing a hidden surface erasing processing method using the chroma key processing and the Z buffer method according to the seventh embodiment.

【符号の説明】[Explanation of symbols]

101 撮像部 102 撮像位置検出部 103 画像生成部 104 実写映像遅延部 105 合成キー信号生成部 106 画像合成部 107 画像出力部 201 撮像部 202 撮像位置検出部 203 画像生成部 204 実写映像遅延部 205 画像合成部 206 画像出力部 301 撮像部 302 撮像位置検出部 303 画像生成部 304 実写映像遅延部 305 画像合成部 306 奥行き情報検出部 307 奥行き情報遅延部 308 画像出力部 401 撮像部 402 撮像位置検出部 403 画像生成部 404 実写映像遅延部 405 画像合成部 406 奥行き情報検出部 407 奥行き情報遅延部 408 合成キー信号生成部 409 画像出力部 501 撮像部 502 撮像位置検出部 503 画像生成部 504 実写映像遅延部 505 画像合成部 506 奥行き情報検出部 507 奥行き情報遅延部 508 画像出力部 601 撮像部 602 撮像位置検出部 603 画像生成部 604 実写映像遅延部 605 画像合成部 606 奥行き情報検出部 607 奥行き情報遅延部 608 合成キー信号生成部 609 画像出力部 701 撮像部 702 撮像位置検出部 703 画像生成部 704 実写映像遅延部 705 画像合成部 706 奥行き情報検出部 707 奥行き情報遅延部 708 合成キー信号生成部 709 画像出力部 801 撮像部 802 撮像位置検出部 803 画像生成部 804 実写映像遅延部 805 画像合成部 806 奥行き情報検出部 807 奥行き情報遅延部 808 合成キー信号生成部 809 画像出力部 829 照明条件抽出部 101 Image pickup unit 102 Image pickup position detection unit 103 Image generation unit 104 Real image delay unit 105 Synthetic key signal generation unit 106 Image synthesis unit 107 Image output unit 201 Image pickup unit 202 Image pickup position detection unit 203 Image generation unit 204 Real image delay unit 205 image Compositing unit 206 Image output unit 301 Imaging unit 302 Imaging position detection unit 303 Image generation unit 304 Real image delay unit 305 Image composition unit 306 Depth information detection unit 307 Depth information delay unit 308 Image output unit 401 Imaging unit 402 Imaging position detection unit 403 Image generation unit 404 Real image delay unit 405 Image synthesis unit 406 Depth information detection unit 407 Depth information delay unit 408 Synthetic key signal generation unit 409 Image output unit 501 Imaging unit 502 Imaging position detection unit 503 Image generation unit 504 Real image delay unit 505 Image synthesizer 506 Depth information detection unit 507 Depth information delay unit 508 Image output unit 601 Imaging unit 602 Imaging position detection unit 603 Image generation unit 604 Real image delay unit 605 Image synthesis unit 606 Depth information detection unit 607 Depth information delay unit 608 Synthetic key signal generation Part 609 Image output part 701 Imaging part 702 Imaging position detection part 703 Image generation part 704 Real image delay part 705 Image combination part 706 Depth information detection part 707 Depth information delay part 708 Synthetic key signal generation part 709 Image output part 801 Imaging part 802 Imaging position detection unit 803 Image generation unit 804 Real image delay unit 805 Image synthesis unit 806 Depth information detection unit 807 Depth information delay unit 808 Synthetic key signal generation unit 809 Image output unit 829 Lighting condition extraction unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】被写体を撮影し実写画素データと撮影条件
を出力する撮像部と、 前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、 前記撮像部から出力される撮影条件と前記撮像位置検出
部から出力される位置方向を入力とし三次元幾何学形状
モデルの形状及び属性データをもとに画像生成し生成画
素データを出力する画像生成部と、 前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、 前記実写映像遅延部出力を入力とし与えられた合成対象
領域の識別基準であるキーをもとに合成対象領域である
かを識別する合成キー信号と前記合成キー信号に対応し
て実写画素データとを出力する合成キー信号生成部と、 前記合成キー信号生成部出力と前記画像生成部出力とを
入力とし前記合成キー信号に基づき前記実写画素データ
と前記生成画素データを画像合成し合成画素データを出
力する画像合成部と、 前記画像合成部出力を入力とし映像として出力する画像
出力部とを具備した画像処理装置。
1. An image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, an image pickup position detecting section for detecting a position direction of the image pickup section in synchronization with the image pickup section, and an output from the image pickup section. An image generation unit that inputs an image capturing condition and a position direction output from the image capturing position detection unit as an input, generates an image based on the shape and attribute data of a three-dimensional geometric shape model, and outputs generated pixel data; Based on a key which is the identification reference of the synthesis target area given as an input, the real image delay unit that outputs the real image pixel data output as the input and delays the output by the processing time of the image generation unit A composite key signal generating section for outputting a composite key signal for identifying whether the area is a composition target area and actual pixel data corresponding to the composite key signal; an output of the composite key signal generating section; and an image generating section. An image combining unit that inputs the input force and outputs the combined pixel data by combining the imaged pixel data and the generated pixel data based on the combined key signal; and an image output unit that outputs the image combining unit output as an image. An image processing apparatus comprising:
【請求項2】被写体を撮影し実写画素データと撮影条件
を出力する撮像部と、 前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、 前記撮像部から出力される撮影条件と前記撮像位置検出
部から出力される位置方向を入力とし三次元幾何学形状
モデルの形状及び属性データと与えられた合成対象領域
の識別基準であるキーをもとに画像生成し生成画素デー
タと前記生成画素データが合成対象領域であるかを識別
する生成キー信号とを出力する画像生成部と、 前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、 前記実写映像遅延部出力と前記画像生成部出力とを入力
とし前記生成キー信号に基づき前記実写画素データと前
記生成画素データを画像合成し合成画素データを出力す
る画像合成部と、 前記画像合成部出力を入力とし映像として出力する画像
出力部とを具備した画像処理装置。
2. An image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions; an image pickup position detecting section for detecting a position direction of the image pickup section in synchronization with the image pickup section; Image generation and generation based on the shooting conditions and the position and direction output from the image pickup position detection unit, based on the shape and attribute data of the three-dimensional geometric shape model and the given key that is the identification reference of the synthesis target area An image generation unit that outputs pixel data and a generated key signal that identifies whether the generated pixel data is a combining target region, and an actual pixel data output of the image pickup unit as input, and delay the processing time of the image generation unit. A live-action image delay unit for outputting, an input of the output of the live-action image delay unit and an output of the image generation unit, and an image combination of the real-image pixel data and the generated pixel data based on the generation key signal. An image processing apparatus comprising: an image synthesizing unit that outputs raw data; and an image output unit that receives the output of the image synthesizing unit as an input and outputs as an image.
【請求項3】被写体を撮影し実写画素データと撮影条件
を出力する撮像部と、 前記撮像部で撮影する被写体の位置を測定し実写奥行き
値を前記撮像部と同期して出力する奥行き情報検出部
と、 前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、 前記撮像部から出力される撮影条件と前記撮像位置検出
部から出力される位置方向を入力とし三次元幾何学形状
モデルの形状及び属性データをもとに画像生成し生成画
素データと前記生成画素データの生成奥行き値とを出力
する画像生成部と、 前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、 前記奥行き情報検出部出力を入力とし前記画像生成部の
処理時間分遅らせて出力する奥行き情報遅延部と、 前記実写映像遅延部出力と前記画像生成部出力と前記奥
行き情報遅延部出力とを入力とし前記実写奥行き値と前
記生成奥行き値に基づき前記実写画素データと前記生成
画素データを画像合成し合成画素データを出力する画像
合成部と、 前記画像合成部から出力される合成画像データを入力と
し映像として出力する画像出力部とを具備した画像処理
装置。
3. An image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, and depth information detection for measuring the position of the subject shot by the image pickup section and outputting a real shot depth value in synchronization with the image pickup section. Unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, a shooting condition output from the imaging unit, and a position direction output from the imaging position detection unit as a third order An image generation unit that generates an image based on the shape and attribute data of the original geometric shape model and outputs the generated pixel data and the generated depth value of the generated pixel data, and the actual pixel data output of the imaging unit as an input. A live-action video delay unit that delays and outputs the processing time of the image generation unit; a depth information delay unit that inputs the output of the depth information detection unit and delays and outputs the processing time of the image generation unit; The image delay unit output, the image generation unit output, and the depth information delay unit output are input, and the actual shot pixel data and the generated pixel data are image-synthesized based on the actual shot depth value and the generated depth value to output synthetic pixel data. An image processing apparatus comprising: an image synthesizing unit that outputs the image, and an image output unit that inputs the synthetic image data output from the image synthesizing unit and outputs the image as a video.
【請求項4】被写体を撮影し実写画素データと撮影条件
を出力する撮像部と、 前記撮像部で撮影する被写体の位置を測定し実写奥行き
値を前記撮像部と同期して出力する奥行き情報検出部
と、 前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、 前記撮像部から出力される撮影条件と前記撮像位置検出
部から出力される位置方向を入力とし三次元幾何学形状
モデルの形状及び属性データをもとに画像生成し生成画
素データと前記生成画素データの生成奥行き値とを出力
する画像生成部と、 前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、 前記奥行き情報検出部出力を入力とし前記画像生成部の
処理時間分遅らせて出力する奥行き情報遅延部と、 前記実写映像遅延部出力を入力とし与えられた合成対象
領域の識別基準であるキーをもとに合成対象領域である
かを識別する合成キー信号と前記合成キー信号に対応し
て実写画素データとを出力する合成キー信号生成部と、 前記合成キー信号生成部出力と前記画像生成部出力と前
記奥行き情報遅延部出力とを入力とし前記合成キー信号
と前記実写奥行き値と前記生成奥行き値に基づき前記実
写画素データと前記生成画素データを画像合成し合成画
素データを出力する画像合成部と、 前記画像合成部から出力される合成画像データを入力と
し映像として出力する画像出力部とを具備した画像処理
装置。
4. An image pickup section for photographing a subject and outputting real shot pixel data and shooting conditions, and depth information detection for measuring the position of the subject photographed by the image pickup section and outputting a real shot depth value in synchronization with the image pickup section. Unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, a shooting condition output from the imaging unit, and a position direction output from the imaging position detection unit as a third order An image generation unit that generates an image based on the shape and attribute data of the original geometric shape model and outputs the generated pixel data and the generated depth value of the generated pixel data, and the actual pixel data output of the imaging unit as an input. A live-action video delay unit that delays and outputs the processing time of the image generation unit; a depth information delay unit that inputs the output of the depth information detection unit and delays and outputs the processing time of the image generation unit; Outputs a composite key signal for identifying whether or not the target area is a composite target area based on a key, which is an identification reference of the composite target area, to which the output of the image delay unit is input, and the actual pixel data corresponding to the composite key signal. A synthetic key signal generating unit, and the synthetic key signal generating unit output, the image generating unit output, and the depth information delay unit output as inputs, and the real image based on the synthetic key signal, the actual depth value, and the generated depth value. An image processing apparatus including an image synthesizing unit for synthesizing image data of pixel data and the generated pixel data and outputting synthetic pixel data, and an image output unit for inputting and outputting synthetic image data output from the image synthesizing unit as an image. .
【請求項5】被写体を撮影し実写画素データと撮影条件
を出力する撮像部と、 前記撮像部で撮影する被写体の位置を測定し実写奥行き
値を前記撮像部と同期して出力する奥行き情報検出部
と、 前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、 前記撮像部から出力される撮影条件と前記撮像位置検出
部から出力される位置方向を入力とし三次元幾何学形状
モデルの形状及び属性データと与えられた合成対象領域
の識別基準であるキーをもとに画像生成し生成画素デー
タと前記生成画素データが合成対象領域であるかを識別
する生成キー信号と前記画素データの生成奥行き値とを
出力する画像生成部と、 前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、 前記奥行き情報検出部出力を入力とし前記画像生成部の
処理時間分遅らせて出力する奥行き情報遅延部と、 前記実写映像遅延部出力と前記画像生成部出力と前記奥
行き情報遅延部出力とを入力とし前記生成キー信号と前
記実写奥行き値と前記生成奥行き値に基づき前記実写画
素データと前記生成画素データを画像合成し合成画素デ
ータを出力する画像合成部と、 前記画像合成部から出力される合成画像データを入力と
し映像として出力する画像出力部とを具備した画像処理
装置。
5. An image pickup section for photographing a subject and outputting real shot pixel data and shooting conditions, and depth information detection for measuring the position of the subject photographed by the image pickup section and outputting a real shot depth value in synchronization with the image pickup section. Unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, a shooting condition output from the imaging unit, and a position direction output from the imaging position detection unit as a third order An image generated based on the shape and attribute data of the original geometric shape model and a key that is a given identification criterion of the synthesis target area, and the generated pixel data and the generated key that identifies whether the generated pixel data is the synthesis target area. An image generation unit that outputs a signal and a generated depth value of the pixel data; and a photographed image delay unit that receives the photographed pixel data output of the image pickup unit as an input and delays the image generation unit by the processing time of the image generation unit and outputs the image. The depth information detecting unit output is input, and the depth information delaying unit delays and outputs the processing time of the image generating unit, the actual image delay unit output, the image generating unit output, and the depth information delaying unit input are input. An image synthesizing section for synthesizing the image of the photographed pixel data and the generated pixel data based on the generated key signal, the photographed depth value, and the generated depth value, and outputting synthesized pixel data, and a synthesized image output from the image synthesizing section. An image processing apparatus comprising an image output unit that receives data and outputs it as a video.
【請求項6】被写体を撮影し実写画素データと撮影条件
を出力する撮像部と、 前記撮像部で撮影する被写体の位置を測定し実写奥行き
値を前記撮像部と同期して出力する奥行き情報検出部
と、 前記撮像部の位置方向を前記撮像部と同期して検出する
撮像位置検出部と、 前記撮像部から出力される撮影条件と前記撮像位置検出
部から出力される位置方向を入力とし三次元幾何学形状
モデルの形状及び属性データと与えられた合成対象領域
の識別基準であるキーをもとに画像生成し生成画素デー
タと前記生成画素データが合成対象領域であるかを識別
する生成キー信号と前記画素データの生成奥行き値とを
出力する画像生成部と、 前記撮像部の実写画素データ出力を入力とし前記画像生
成部の処理時間分遅らせて出力する実写映像遅延部と、 前記奥行き情報検出部出力を入力とし前記画像生成部の
処理時間分遅らせて出力する奥行き情報遅延部と、 前記実写映像遅延部出力を入力とし与えられた合成対象
領域の識別基準であるキーをもとに合成対象領域である
かを識別する合成キー信号と前記合成キー信号に対応し
て実写画素データとを出力する合成キー信号生成部と、 前記合成キー信号生成部出力と前記画像生成部出力と前
記奥行き情報遅延部出力と与えられた背景画像の背景画
素データとを入力とし前記合成キー信号と前記合成キー
信号と前記生成キー信号と前記実写奥行き値と前記生成
奥行き値に基づき前記実写画素データと前記生成画素デ
ータを画像合成し合成画素データを出力する画像合成部
と、 前記画像合成部から出力される合成画像データを入力と
し映像として出力する画像出力部とを具備した画像処理
装置。
6. An image pickup section for picking up an image of a subject and outputting real shot pixel data and shooting conditions, and depth information detection for measuring the position of the subject shot by the image pickup section and outputting a real shot depth value in synchronization with the image pickup section. Unit, an imaging position detection unit that detects the position direction of the imaging unit in synchronization with the imaging unit, a shooting condition output from the imaging unit, and a position direction output from the imaging position detection unit as a third order An image generated based on the shape and attribute data of the original geometric shape model and a key that is a given identification criterion of the synthesis target area, and the generated pixel data and the generated key that identifies whether the generated pixel data is the synthesis target area. An image generation unit that outputs a signal and a generated depth value of the pixel data; and a photographed image delay unit that receives the photographed pixel data output of the image pickup unit as an input and delays the image generation unit by the processing time of the image generation unit and outputs the image. A depth information delay unit that receives the output of the depth information detection unit and outputs the image after delaying the processing time of the image generation unit, and a key that is the input of the output of the actual image delay unit and that is the identification reference of the synthesis target area And a synthetic key signal generating unit that outputs a synthetic key signal for identifying whether the region is a synthetic target region and real pixel data corresponding to the synthetic key signal, an output of the synthetic key signal generation unit, and an output of the image generation unit And the output of the depth information delay unit and the background pixel data of the given background image as input, the synthesized key signal, the synthesized key signal, the generated key signal, the photographed depth value, and the photographed pixel based on the generated depth value. An image synthesizing unit for synthesizing the image of the data and the generated pixel data and outputting the synthesized pixel data; Image processing apparatus including an image output unit for
【請求項7】画像合成部において、合成画素データと前
記合成画素データに対応する合成奥行き値を出力する請
求項3、4または5のいずれかに記載の画像処理装置。
7. The image processing apparatus according to claim 3, wherein the image synthesizing unit outputs synthetic pixel data and a synthetic depth value corresponding to the synthetic pixel data.
【請求項8】画像合成部において、与えられた背景画像
の背景画素データと背景奥行き値とを追加入力とし、合
成画素データと前記合成画素データに対応する合成奥行
き値を出力する請求項6記載の画像処理装置。
8. The image synthesizing unit additionally receives the background pixel data and the background depth value of a given background image, and outputs the synthetic pixel data and a synthetic depth value corresponding to the synthetic pixel data. Image processing device.
【請求項9】被写体に対する照明条件を検出して画像生
成部に照明条件データを出力する照明条件抽出部をさら
に備え、前記画像生成部においては、前記照明条件抽出
部から出力された照明条件データにしたがって画像を生
成する請求項1から8のいずれかに記載の画像処理装
置。
9. An illumination condition extraction unit that detects an illumination condition for a subject and outputs illumination condition data to an image generation unit, wherein the image generation unit outputs the illumination condition data output from the illumination condition extraction unit. The image processing apparatus according to claim 1, wherein the image processing apparatus generates an image according to the above.
JP345994A 1994-01-18 1994-01-18 Picture processing unit Pending JPH07212653A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP345994A JPH07212653A (en) 1994-01-18 1994-01-18 Picture processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP345994A JPH07212653A (en) 1994-01-18 1994-01-18 Picture processing unit

Publications (1)

Publication Number Publication Date
JPH07212653A true JPH07212653A (en) 1995-08-11

Family

ID=11557915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP345994A Pending JPH07212653A (en) 1994-01-18 1994-01-18 Picture processing unit

Country Status (1)

Country Link
JP (1) JPH07212653A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331700A (en) * 1998-05-15 1999-11-30 Sony Corp Image processing unit and image processing method
US6072832A (en) * 1996-10-25 2000-06-06 Nec Corporation Audio/video/computer graphics synchronous reproducing/synthesizing system and method
JP2002077586A (en) * 2000-09-01 2002-03-15 Omron Corp Image printer
JP2002095008A (en) * 2000-09-14 2002-03-29 Mixed Reality Systems Laboratory Inc Video processing equipment, its method and storage medium
JP2004282784A (en) * 2004-05-12 2004-10-07 Canon Inc Video processing apparatus and its method
JP2008227813A (en) * 2007-03-12 2008-09-25 Sony Corp Image processor, and method and system for processing image
JP2013070274A (en) * 2011-09-22 2013-04-18 Sharp Corp Image processing device, image processing method, image processing program, and imaging device
JP2019153956A (en) * 2018-03-05 2019-09-12 日本テレビ放送網株式会社 Image composition apparatus, image composition method, and program
JP2020064592A (en) * 2018-10-16 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント Image generator, image generation system, image generation method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072832A (en) * 1996-10-25 2000-06-06 Nec Corporation Audio/video/computer graphics synchronous reproducing/synthesizing system and method
USRE39345E1 (en) * 1996-10-25 2006-10-17 Nec Corporation Audio/Video/Computer graphics synchronous reproducing/synthesizing system and method
JPH11331700A (en) * 1998-05-15 1999-11-30 Sony Corp Image processing unit and image processing method
JP2002077586A (en) * 2000-09-01 2002-03-15 Omron Corp Image printer
JP2002095008A (en) * 2000-09-14 2002-03-29 Mixed Reality Systems Laboratory Inc Video processing equipment, its method and storage medium
JP2004282784A (en) * 2004-05-12 2004-10-07 Canon Inc Video processing apparatus and its method
JP2008227813A (en) * 2007-03-12 2008-09-25 Sony Corp Image processor, and method and system for processing image
JP2013070274A (en) * 2011-09-22 2013-04-18 Sharp Corp Image processing device, image processing method, image processing program, and imaging device
JP2019153956A (en) * 2018-03-05 2019-09-12 日本テレビ放送網株式会社 Image composition apparatus, image composition method, and program
JP2020064592A (en) * 2018-10-16 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント Image generator, image generation system, image generation method, and program

Similar Documents

Publication Publication Date Title
KR101590871B1 (en) Photographing apparatus and photographing method
JP2003219271A (en) System for synthesizing multipoint virtual studio
US20050280702A1 (en) Imaging apparatus
KR101605419B1 (en) Photographing apparatus and method of photographing
JPH0628449A (en) Image synthesizing device
KR101723210B1 (en) Method For Producting Virtual Stereo Studio Image In Real-Time Virtual Stereo Studio System
Shrestha et al. Synchronization of multiple video recordings based on still camera flashes
US20110012991A1 (en) Moving image recording method and apparatus, and moving image coding method and moving image coder
JP2004021388A (en) Image processor and photographing system equipped therewith
JP2003134385A (en) Image synthesizing device
JPH07212653A (en) Picture processing unit
JP3740394B2 (en) High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program
JP2011035638A (en) Virtual reality space video production system
JPH0918773A (en) Image pickup device
WO2017134770A1 (en) Video synchronization device
JP2005020606A (en) Digital camera
JP2010103612A (en) Electronic camera and image processing program
JPH1127577A (en) Image system with virtual visual point
JP2004096488A (en) Object detection apparatus, object detection method and object detection program
JP5267279B2 (en) Image composition apparatus and program
KR20000051171A (en) Digital zoom out processing apparatus
JP3122099B2 (en) Image synthesizing apparatus and image synthesizing method
JP4231216B2 (en) Virtual scene shooting method and apparatus
KR20050015737A (en) Real image synthetic process by illumination control
JP2001008216A (en) Image processing unit