JPH10336703A - Image compositing device, its method and storage medium - Google Patents

Image compositing device, its method and storage medium

Info

Publication number
JPH10336703A
JPH10336703A JP15167597A JP15167597A JPH10336703A JP H10336703 A JPH10336703 A JP H10336703A JP 15167597 A JP15167597 A JP 15167597A JP 15167597 A JP15167597 A JP 15167597A JP H10336703 A JPH10336703 A JP H10336703A
Authority
JP
Japan
Prior art keywords
image
images
subject
model information
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15167597A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
光太郎 矢野
Katsumi Iijima
克己 飯島
Takeo Sakimura
岳生 崎村
Sunao Kurahashi
直 倉橋
Katsuhiko Mori
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP15167597A priority Critical patent/JPH10336703A/en
Publication of JPH10336703A publication Critical patent/JPH10336703A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image compositing device by which a computer graphics CG image is simply composited on a stereoscopic video image so as to obtain the composite stereoscopic video image without a sense of incongruity in the stereoscopic sense. SOLUTION: In the case that a left and right composites image resulting from overwriting a CG image onto an object image is composited with a horizontal stripe image and the resulting image is displayed on a 3-dimension display device 130 stereoscopically, since the composite CG image is generated by using a camera parameter at object image photographing through perspective projection, a stereoscopic sensor of the composite image displayed stereoscopically does not give any sense of incongruity with respect to the stereoscopic sensor of the object. When a photographer instructs rotation, movement, magnification to the CG image displayed on the 3-dimension display device 130, the CG image based on an operation parameter changed by the instructed data is generated by a CG image generating section 105 compositing with the object image that is photographed and then the result is displayed stereoscopically on the 3-dimension display device 130 again.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元被写体を撮
影、表示する際、撮影した被写体画像にコンピュータグ
ラフィックス(CG)画像を合成する画像合成装置、方
法および記憶媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image synthesizing apparatus, method and storage medium for synthesizing a computer graphics (CG) image with a photographed subject image when photographing and displaying a three-dimensional subject.

【0002】[0002]

【従来の技術】従来、複数のカメラから視差を持った一
組の画像を得て、それぞれの画像を観察者の左右別々の
眼で観察させることにより立体映像を提供するシステム
が知られている。
2. Description of the Related Art Conventionally, there has been known a system which provides a stereoscopic image by obtaining a set of images having parallax from a plurality of cameras and observing each image with separate left and right eyes of an observer. .

【0003】また一方では、カメラで撮影した画像にコ
ンピュータで作成した画像(CG画像)を合成する画像
合成装置が知られている。
On the other hand, there is known an image synthesizing apparatus for synthesizing an image (CG image) created by a computer with an image photographed by a camera.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、立体映
像を撮影、表示する従来のシステムにおいて、CG画像
を立体画像に合成するためには撮影したそれぞれの画像
にCG画像を合成して再び立体映像として表示する必要
があり、合成する画像中でのCG画像の大きさや向き、
位置を複数の画像それぞれで調整しなければならず、画
像を合成する作業が複雑であった。
However, in a conventional system for photographing and displaying a stereoscopic image, in order to combine a CG image with a stereoscopic image, a CG image is synthesized with each of the photographed images and converted into a stereoscopic image again. Must be displayed, the size and orientation of the CG image in the image to be synthesized,
The position has to be adjusted for each of the plurality of images, and the operation of synthesizing the images is complicated.

【0005】しかも、撮影した画像の立体感とCG画像
の立体感を一致させるために、合成後の立体映像を観察
して立体感に違和感がある場合にはCG画像の合成から
再度やり直さなければならず、作業が困難であり、それ
らが一致しない場合には合成した画像を立体映像として
観察した場合、違和感のある合成画像となってしまって
いた。
In addition, in order to match the stereoscopic effect of the photographed image with the stereoscopic effect of the CG image, if the stereoscopic image after the synthesis is observed and the stereoscopic effect is unnatural, it is necessary to start again from the synthesis of the CG image. However, the work is difficult, and if they do not match, when the synthesized image is observed as a stereoscopic image, the synthesized image has a strange feeling.

【0006】そこで、本発明は、立体映像に簡単にCG
画像を合成し、立体感に違和感のない合成した立体映像
を得ることができる画像合成装置、方法および記憶媒体
を提供することを第1の目的とする。
[0006] Accordingly, the present invention provides a simple CG image for stereoscopic images.
It is a first object of the present invention to provide an image synthesizing apparatus, method, and storage medium capable of synthesizing images and obtaining a synthesized stereoscopic video without a sense of strangeness in stereoscopic effect.

【0007】また、本発明は、第1の目的に加え、立体
映像の撮影およびCG画像との合成をさらに容易に実現
することができる画像合成装置、方法および記憶媒体を
提供することを第2の目的とする。
In addition, the present invention provides, in addition to the first object, an image synthesizing apparatus, a method and a storage medium capable of easily realizing shooting of a stereoscopic video and synthesizing with a CG image. The purpose of.

【0008】さらに、本発明は、第1および第2の目的
に加え、撮影した画像の被写体とCGモデルが重なる場
合にも 合成した立体画像の隠蔽関係に違和感のない立
体映像を得ることができる画像合成装置、方法および記
憶媒体を提供することを第3の目的とする。
Further, according to the present invention, in addition to the first and second objects, even when the subject of the photographed image and the CG model overlap with each other, it is possible to obtain a three-dimensional video image that does not make the concealment relationship of the synthesized three-dimensional image strange. A third object is to provide an image synthesizing apparatus, a method, and a storage medium.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明の請求項1に記載の画像合成装置は、異なる
視点で撮影された視野の重なる複数の被写体画像を立体
視表示することが可能な表示手段を備えた画像合成装置
において、三次元構造を表すモデル情報を記憶するモデ
ル情報記憶手段と、該記憶されたモデル情報の向き、位
置を含む操作パラメータと、前記複数の被写体画像の少
なくとも撮影時のカメラの焦点距離と視点間の距離を含
むカメラパラメータとを用いて、前記モデル情報の回
転、移動を算出する算出手段と、該回転、移動が算出さ
れたモデル情報の画像を透視投影によって複数生成する
画像生成手段と、該生成された複数のモデル情報の画像
と前記複数の被写体画像とを合成する画像合成手段とを
備え、該合成された画像を前記表示手段によって立体視
表示することを特徴とする。
In order to achieve the above object, an image synthesizing apparatus according to the first aspect of the present invention displays a plurality of subject images, which are photographed from different viewpoints and have overlapping visual fields, in a stereoscopic view. An image synthesizing apparatus provided with a display unit capable of performing the following operations: a model information storage unit for storing model information representing a three-dimensional structure; operation parameters including a direction and a position of the stored model information; Calculating means for calculating the rotation and movement of the model information using at least the focal length of the camera at the time of shooting and camera parameters including the distance between viewpoints, and an image of the model information for which the rotation and movement have been calculated. Image generating means for generating a plurality of images by perspective projection, and image synthesizing means for synthesizing the generated plurality of model information images and the plurality of subject images; And displaying stereoscopic by said display means an image.

【0010】請求項2に記載の画像合成装置は、複数の
撮像系と、該複数の撮像系で撮影された複数の被写体画
像を立体視表示することが可能な表示手段とを備えた画
像合成装置において、三次元構造を表すモデル情報を記
憶するモデル情報記憶手段と、該記憶されたモデル情報
の向き、位置を含む操作パラメータと、前記複数の撮像
系の焦点距離、視点間の距離を含むカメラパラメータと
を用いて、前記モデル情報の回転、移動を算出する算出
手段と、該回転、移動が算出されたモデル情報の画像を
透視投影によって複数生成する画像生成手段と、該生成
された複数のモデル情報の画像と前記複数の被写体画像
とを合成する画像合成手段とを備え、該合成された画像
を前記表示手段によって立体視表示することを特徴とす
る。
According to a second aspect of the present invention, there is provided an image synthesizing apparatus comprising: a plurality of imaging systems; and a display unit capable of stereoscopically displaying a plurality of subject images photographed by the plurality of imaging systems. In the apparatus, model information storage means for storing model information representing a three-dimensional structure, operation parameters including directions and positions of the stored model information, focal lengths of the plurality of imaging systems, and distances between viewpoints. Calculating means for calculating rotation and movement of the model information using camera parameters; image generation means for generating a plurality of images of the model information for which rotation and movement are calculated by perspective projection; Image combining means for combining the image of the model information and the plurality of subject images, and the combined image is stereoscopically displayed by the display means.

【0011】請求項3に記載の画像合成装置は、請求項
1または請求項2に係る画像合成装置において前記複数
の被写体画像の視差により該被写体画像の奥行きを抽出
する奥行き抽出手段を備え、前記画像合成手段は、該抽
出された被写体画像の奥行きに基づき、前記生成された
モデル情報の画像と前記被写体画像とを合成することを
特徴とする。
According to a third aspect of the present invention, in the image synthesizing apparatus according to the first or second aspect, the image synthesizing apparatus further comprises depth extracting means for extracting a depth of the plurality of subject images based on a parallax of the plurality of subject images. The image combining means combines the image of the generated model information and the subject image based on the depth of the extracted subject image.

【0012】請求項4に記載の画像合成方法は、異なる
視点で撮影された視野の重なる複数の被写体画像とコン
ピュータで作成された三次元情報を表すモデル画像とを
合成する画像合成方法において、前記三次元構造を表す
モデル情報を記憶しておく工程と、該記憶されたモデル
情報の向き、位置を含む操作パラメータと、前記複数の
撮像系の焦点距離、視点間の距離を含むカメラパラメー
タとを用いて、前記モデル情報の回転、移動を算出する
工程と、該回転、移動が算出されたモデル情報の画像を
透視投影によって複数生成する工程と、該生成された複
数のモデル情報の画像と前記複数の被写体画像とを合成
する工程と、該合成された画像を立体視表示する工程と
を備えたことを特徴とする。
According to a fourth aspect of the present invention, there is provided an image combining method for combining a plurality of subject images having overlapping fields of view taken from different viewpoints with a model image representing three-dimensional information created by a computer. A step of storing model information representing a three-dimensional structure, operation parameters including the orientation and position of the stored model information, and focal lengths of the plurality of imaging systems, and camera parameters including a distance between viewpoints. Using, the step of calculating the rotation and movement of the model information, the step of generating a plurality of images of the rotation and movement of the calculated model information by perspective projection, and the images of the generated plurality of model information and It is characterized by comprising a step of combining a plurality of subject images, and a step of displaying the combined image in a stereoscopic view.

【0013】請求項5に記載の画像合成方法は、請求項
4に係る画像合成方法において前記複数の被写体画像の
視差により該被写体画像の奥行きを抽出する工程を備
え、前記画像を合成する工程では、該抽出された被写体
画像の奥行きに基づき、前記生成されたモデル情報の画
像と前記被写体画像とを合成することを特徴とする。
According to a fifth aspect of the present invention, there is provided an image synthesizing method according to the fourth aspect, further comprising a step of extracting a depth of the subject image based on a parallax of the plurality of subject images. Combining the generated model information image and the subject image based on the depth of the extracted subject image.

【0014】請求項6に記載の記憶媒体には、異なる視
点で撮影された視野の重なる複数の被写体画像とコンピ
ュータで作成された三次元情報を表すモデル画像とを合
成する際、前記モデル情報の向き、位置を含む操作パラ
メータと、前記複数の撮像系の焦点距離、視点間の距離
を含むカメラパラメータとを用いて、前記モデル情報の
回転、移動を算出するパラメータ算出モジュールと、該
回転、移動が算出されたモデル情報の画像を透視投影に
よって複数生成する画像生成モジュールと、該生成され
た複数のモデル情報の画像と前記複数の被写体画像とを
合成する画像合成モジュールとを含むコンピュータに実
行させるためのプログラムが格納されたことを特徴とす
る。
In the storage medium according to the present invention, when combining a plurality of subject images taken from different viewpoints and having overlapping visual fields with a model image representing three-dimensional information created by a computer, A parameter calculation module that calculates rotation and movement of the model information using operation parameters including orientation and position, and camera parameters including the focal length of the plurality of imaging systems and the distance between viewpoints; A computer that includes an image generation module that generates a plurality of images of the calculated model information by perspective projection, and an image synthesis module that synthesizes the generated plurality of model information images and the plurality of subject images. A program for storing the program.

【0015】請求項7に記載の記憶媒体には、請求項6
に係る記憶媒体において前記複数の被写体画像の視差に
より該被写体画像の奥行きを抽出する奥行き抽出モジュ
ールを含み、前記画像を合成する画像合成モジュールで
は、該抽出された被写体画像の奥行きに基づき、前記生
成されたモデル情報の画像と前記被写体画像とを合成す
る前記プログラムが格納されたことを特徴とする。
[0015] The storage medium according to claim 7 includes:
A depth extracting module for extracting a depth of the subject image based on a parallax of the plurality of subject images in the storage medium according to the first aspect of the present invention. The program for synthesizing the image of the model information and the subject image is stored.

【0016】[0016]

【発明の実施の形態】本発明の画像合成装置、方法およ
び記憶媒体の実施の形態について説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the image synthesizing apparatus, method and storage medium of the present invention will be described.

【0017】[第1の実施の形態]図1は第1の実施形
態における画像合成装置の構成を示すブロック図であ
る。図において、200はステレオカメラであり、左右
2系統の画像データを出力する。101はカメラパラメ
ータ記憶部であり、ステレオカメラ200で撮影した左
右画像データのカメラパラメータを記憶している。
[First Embodiment] FIG. 1 is a block diagram showing a configuration of an image synthesizing apparatus according to a first embodiment. In the figure, reference numeral 200 denotes a stereo camera, which outputs left and right image data of two systems. Reference numeral 101 denotes a camera parameter storage unit that stores camera parameters of left and right image data captured by the stereo camera 200.

【0018】110は奥行き抽出部であり、ステレオカ
メラ200から出力される左右画像データそれぞれの奥
行き分布を抽出して出力する。102はCG操作部であ
り、ポインティングデバイスを介して合成するCG画像
の向きや位置を指示する。
Reference numeral 110 denotes a depth extraction unit which extracts and outputs the depth distribution of each of the left and right image data output from the stereo camera 200. Reference numeral 102 denotes a CG operation unit for instructing a direction and a position of a CG image to be synthesized via a pointing device.

【0019】103はCGパラメータ算出部であり、C
G操作部102のデータにしたがってCG画像を生成す
るためのパラメータを算出する。104は着脱可能なメ
モリカード等からなるモデル記憶部であり、外部コンピ
ュータによりあらかじめ作成されたCGモデルのデータ
を記憶している。
Reference numeral 103 denotes a CG parameter calculation unit.
A parameter for generating a CG image is calculated according to the data of the G operation unit 102. Reference numeral 104 denotes a model storage unit including a removable memory card or the like, which stores CG model data created in advance by an external computer.

【0020】105はCG画像生成部であり、モデル記
憶部104に記憶されているCGモデルの左右画像デー
タをCGパラメータ算出部103の出力に応じて生成す
る。
Reference numeral 105 denotes a CG image generation unit which generates left and right image data of the CG model stored in the model storage unit 104 in accordance with the output of the CG parameter calculation unit 103.

【0021】120、121は画像合成部であり、被写
体画像データとCG画像データを左右それぞれ合成して
出力する。106はステレオ画像合成部であり、2つの
画像合成部120、121から出力される合成画像デー
タを用いてステレオ画像データを生成し、表示メモリ1
07に出力する。
Reference numerals 120 and 121 denote image synthesizing units, which synthesize subject image data and CG image data on the left and right, respectively, and output them. Reference numeral 106 denotes a stereo image synthesizing unit which generates stereo image data using the synthesized image data output from the two image synthesizing units 120 and 121,
07.

【0022】108は表示制御部であり、表示メモリ1
07に記憶されたステレオ画像データを三次元表示装置
130で三次元画像として表示するように制御する。1
40は画像記録部であり、ステレオ画像データを記録す
る。
Reference numeral 108 denotes a display control unit, which is a display memory 1
The stereoscopic image data stored in 07 is controlled by the three-dimensional display device 130 to be displayed as a three-dimensional image. 1
An image recording unit 40 records stereo image data.

【0023】図2はステレオカメラ200の構成を示す
ブロック図である。201、202は撮影レンズであ
り、2つの視点からステレオ画像を撮影する。203、
204は画像を電気信号として取り込むCCD等のイメ
ージセンサである。この2つの撮像系はそれぞれの撮像
レンズ201、202の光軸がイメージセンサ203、
204の水平方向に対して左右平行になるように配置さ
れている。
FIG. 2 is a block diagram showing the configuration of the stereo camera 200. Reference numerals 201 and 202 denote photographing lenses, which photograph stereo images from two viewpoints. 203,
Reference numeral 204 denotes an image sensor such as a CCD that captures an image as an electric signal. In these two imaging systems, the optical axes of the imaging lenses 201 and 202 are the same as those of the image sensor 203,
It is arranged so as to be parallel to the horizontal direction of 204.

【0024】205、206はイメージセンサ203、
204の画像の取り込みを制御する画像取り込み制御回
路である。207、208は画像信号処理部であり、イ
メージセンサ203、204からの電気信号を保持して
画像信号を生成し、その画像信号の利得を自動的に制御
し、階調補正を行って出力する。209、210はA/
D変換器であり、画像信号処理部207、208から出
力される画像信号をアナログディジタル変換し、ディジ
タル画像データを出力する。
Reference numerals 205 and 206 denote image sensors 203,
An image capturing control circuit 204 controls the image capturing. Reference numerals 207 and 208 denote image signal processing units which generate an image signal by holding the electric signals from the image sensors 203 and 204, automatically control the gain of the image signal, perform gradation correction, and output the image signal. . 209 and 210 are A /
A D converter converts the image signals output from the image signal processing units 207 and 208 from analog to digital, and outputs digital image data.

【0025】211、212は色信号処理回路であり、
A/D変換器209、210から出力されるディジタル
画像データ(以下、単に画像データと称する)を、RG
B24ビットを1画素として1画面分出力する。尚、撮
影レンズ201、202およびイメージセンサ203、
204などの構成要素は左右同一の特性のものから構成
されている。
Reference numerals 211 and 212 denote color signal processing circuits.
Digital image data (hereinafter simply referred to as image data) output from the A / D converters 209 and 210 is
One screen is output with B24 bits as one pixel. Note that the photographing lenses 201 and 202 and the image sensor 203,
Components such as 204 have the same characteristics on the left and right.

【0026】図3は三次元表示装置130の構成を示す
分解斜視図である。三次元表示装置130は本出願人が
先に提案したものであり(特願平8−148611
号)、つぎのように構成される。すなわち、図におい
て、131は表示メモリ107に記憶された画像を表示
する液晶表示素子である。132はバックライト、13
3はスリット、134、135はレンチキュラレンズで
ある。
FIG. 3 is an exploded perspective view showing the configuration of the three-dimensional display device 130. The three-dimensional display device 130 has been previously proposed by the present applicant (Japanese Patent Application No. 8-148611).
No.) and the following configuration. That is, in the drawing, reference numeral 131 denotes a liquid crystal display element that displays an image stored in the display memory 107. 132 is a backlight, 13
3 is a slit, and 134 and 135 are lenticular lenses.

【0027】バックライト132からの光はスリット1
33、レンチキュラレンズ134、135を通って液晶
表示素子131を照明する。液晶表示素子131では適
当な観察範囲において、観察者は図中L、Rで示した左
画像、右画像をそれぞれ左目、右目に分離して観察する
ことができ、左右の画像に視差がある場合、液晶表示素
子131に表示された画像を立体画像として認識するこ
とができる。
The light from the backlight 132 is transmitted through the slit 1
33, the liquid crystal display element 131 is illuminated through the lenticular lenses 134 and 135. In the liquid crystal display element 131, the observer can observe the left image and the right image indicated by L and R in the drawing separately from the left eye and the right eye, respectively, in an appropriate observation range. Thus, the image displayed on the liquid crystal display element 131 can be recognized as a stereoscopic image.

【0028】つぎに、上記構成を有する画像合成装置の
動作について説明する。本実施形態における画像合成装
置は、3つのモード、すなわちCG画像と合成しないで
撮影中の被写体画像だけを三次元表示装置130に表示
して記録する通常モードと、撮影中の被写体画像とCG
画像を合成した合成画像を三次元表示装置130に表示
しかつ撮影者がCG画像を操作可能な合成モードと、被
写体画像とCG画像を合成した合成画像を記録する記録
モードとを有する。
Next, the operation of the image synthesizing apparatus having the above configuration will be described. The image synthesizing apparatus according to the present embodiment includes three modes, that is, a normal mode in which only a subject image that is being shot without being combined with a CG image is displayed on the three-dimensional display device 130 and recorded;
It has a combination mode in which the combined image obtained by combining the images is displayed on the three-dimensional display device 130 and the photographer can operate the CG image, and a recording mode in which the combined image in which the subject image and the CG image are combined is recorded.

【0029】まず、通常モードについて説明する。撮影
者が図示しないカメラの電源スイッチを入れると、画像
取り込み制御回路205は撮影レンズ201を通して、
イメージセンサ203に結像した被写体の右視点からの
画像を電気信号として取り込むように制御し、画像信号
処理部207、A/D変換器209、色信号処理回路2
11を介して、右画像データが得られる。同様に、画像
取り込み制御回路206は撮影レンズ202を通して、
イメージセンサ204に結像した被写体の左視点からの
画像を電気信号として取り込むように制御し、画像信号
処理部208、A/D変換器210、色信号処理回路2
12を介して、左画像データが得られる。
First, the normal mode will be described. When a photographer turns on a power switch of a camera (not shown), the image capturing control circuit 205
The image sensor 203 controls so as to capture an image of the subject formed from the right viewpoint as an electric signal, and outputs an image signal processing unit 207, an A / D converter 209, and a color signal processing circuit 2.
Via 11, right image data is obtained. Similarly, the image capture control circuit 206 passes through the photographing lens 202,
An image from the left viewpoint of the subject formed on the image sensor 204 is controlled to be taken in as an electric signal, and the image signal processing unit 208, the A / D converter 210, and the color signal processing circuit 2 are controlled.
Via 12, left image data is obtained.

【0030】このとき得られる2つの画像データは、図
示しない同期信号発生回路から出力される同期信号によ
り同じタイミングで撮影された画像データとしてステレ
オカメラ200から出力される。
The two image data obtained at this time are output from the stereo camera 200 as image data captured at the same timing by a synchronization signal output from a synchronization signal generation circuit (not shown).

【0031】ステレオカメラ200から出力された画像
データは、画像合成部120、121に送られる。通常
モードでは画像合成部120、121は入力した画像デ
ータをそのままステレオ画像合成部106に出力する。
ステレオ画像合成部106は左右の画像データを合成し
て三次元表示装置130に表示すべきステレオ画像を生
成し、出力する。
The image data output from the stereo camera 200 is sent to the image synthesizing units 120 and 121. In the normal mode, the image combining units 120 and 121 output the input image data to the stereo image combining unit 106 as it is.
The stereo image combining unit 106 combines left and right image data to generate a stereo image to be displayed on the three-dimensional display device 130, and outputs the generated stereo image.

【0032】図4はステレオ画像合成部106の処理を
示す図である。同図(A)、(B)はそれぞれステレオ
カメラ200から出力された左画像データ、右画像デー
タである。同図(C)はステレオ画像合成部106で合
成されたステレオ画像である。ステレオ画像合成部10
6では、同図(C)に示すように左右の画像データが水
平1ラインごとに組み合わされることにより、三次元表
示装置130に表示すべきステレオ画像(水平ストライ
プ画像とも称する)が生成される。そして、この水平ス
トライプ画像が表示メモリ107に書き込まれると、表
示制御部108により三次元表示装置130にステレオ
カメラ200で撮影中の被写体画像が立体表示される。
FIG. 4 is a diagram showing the processing of the stereo image synthesizing unit 106. FIGS. 7A and 7B show left image data and right image data output from the stereo camera 200, respectively. FIG. 3C shows a stereo image synthesized by the stereo image synthesis unit 106. Stereo image synthesis unit 10
In 6, the left and right image data are combined for each horizontal line as shown in FIG. 9C, thereby generating a stereo image (also referred to as a horizontal stripe image) to be displayed on the three-dimensional display device 130. When the horizontal stripe image is written into the display memory 107, the display control unit 108 stereoscopically displays the subject image being captured by the stereo camera 200 on the three-dimensional display device 130.

【0033】そして、撮影者は三次元表示装置130に
表示される立体画像を見ながら、フレーミングを行い、
図示しないシャッターボタンを押す。シャッターボタン
が押されると、ステレオ画像合成部106から出力され
る水平ストライプ画像は表示メモリ107でなく、画像
記録部140に書き込まれる。そして、画像記録部14
0のデータが表示メモリ107に書き込まれて、表示制
御部108により三次元表示装置130に画像記録部1
40に記録された画像データが立体表示される。
The photographer performs framing while viewing the stereoscopic image displayed on the three-dimensional display device 130,
Press the shutter button (not shown). When the shutter button is pressed, the horizontal stripe image output from the stereo image synthesizing unit 106 is written not in the display memory 107 but in the image recording unit 140. Then, the image recording unit 14
0 is written to the display memory 107, and the display control unit 108 stores the data in the image recording unit 1 in the three-dimensional display device 130.
The image data recorded in 40 is stereoscopically displayed.

【0034】つぎに、合成モードについて説明する。撮
影者が図示しない合成ボタンを押すと、CG画像生成部
105はモデル記憶部104が装着状態であることを確
認してモデル記憶部104に記憶されているCGモデル
のデータを読み込み、初期CGパラメータにしたがって
CGモデルの左右画像データを生成する。このアルゴリ
ズムについて説明する。
Next, the combining mode will be described. When the photographer presses a synthesis button (not shown), the CG image generation unit 105 confirms that the model storage unit 104 is in the mounted state, reads the CG model data stored in the model storage unit 104, and sets the initial CG parameters. To generate left and right image data of the CG model. This algorithm will be described.

【0035】まず、CG操作部102はCGパラメータ
算出部103に操作パラメータを出力する。ここで、操
作パラメータは、CGモデルの向きを示す回転パラメー
タ(直交座標系の3つの座標軸の各軸周りの回転量を表
す値)と、CGモデルの中心の左右画像でのそれぞれの
位置を示す位置パラメータ(水平、垂直方向の位置を表
す値)と、CGモデルの画像中での大きさを制御する変
倍パラメータとから構成される。
First, the CG operation unit 102 outputs operation parameters to the CG parameter calculation unit 103. Here, the operation parameter indicates a rotation parameter indicating the direction of the CG model (a value indicating the amount of rotation around each of the three coordinate axes of the rectangular coordinate system) and the position of the center of the CG model in the left and right images. It consists of a position parameter (a value representing a position in the horizontal and vertical directions) and a scaling parameter for controlling the size of the CG model in the image.

【0036】ステレオカメラ200の2つの撮像系はそ
れぞれの撮像レンズ201、202の光軸がイメージセ
ンサの水平方向に対して左右平行になるように配置され
ているので、操作パラメータの2つの位置パラメータの
うち、垂直方向の位置パラメータは左右同一の値とな
る。
The two image pickup systems of the stereo camera 200 are arranged so that the optical axes of the respective image pickup lenses 201 and 202 are parallel to the horizontal direction of the image sensor. Among them, the position parameter in the vertical direction has the same value on the left and right.

【0037】初期動作時には、CG操作部102から出
力される操作パラメータの代わりにCGパラメータ算出
部103は初期操作パラメータを生成する。この初期操
作パラメータでは、CGモデルの向きを示す回転パラメ
ータはCGモデルの正面を表す向きに生成される。ま
た、CGモデルの中心の左右画像でのそれぞれの位置を
示す位置パラメータは、左右画像内でCG画像の大きさ
が所定の面積(例えば、全画像領域の1/4)であり、
左右画像内でのCG画像の位置が所定の視差を持ち、画
像中心に対して対称となる位置に生成される。
At the time of the initial operation, the CG parameter calculation unit 103 generates the initial operation parameters instead of the operation parameters output from the CG operation unit 102. In the initial operation parameters, the rotation parameter indicating the direction of the CG model is generated in the direction indicating the front of the CG model. Further, the position parameter indicating the position of the center of the CG model in the left and right images is such that the size of the CG image in the left and right images is a predetermined area (for example, 1 / of the entire image area),
The position of the CG image in the left and right images has a predetermined parallax and is generated at a position symmetric with respect to the image center.

【0038】そして、操作パラメータの変倍パラメータ
を用いる代わりに、CGモデルの大きさを示す倍率パラ
メータが、カメラパラメータ記憶部101に記憶されて
いるカメラパラメータとCGモデルの大きさと位置パラ
メータにおける左右画像の視差とから算出されて設定さ
れる。このとき、CGモデルの大きさはモデル記憶部1
04に記憶されているCGモデルの三次元構造から算出
される。
Then, instead of using the scaling parameters of the operation parameters, the magnification parameter indicating the size of the CG model is replaced by the camera parameters stored in the camera parameter storage unit 101 and the left and right images in the size and position parameters of the CG model. And is set based on the parallax. At this time, the size of the CG model is stored in the model storage unit 1.
04 is calculated from the three-dimensional structure of the CG model stored in the CG model.

【0039】CGパラメータ算出部103はCG操作部
102から出力される操作パラメータとカメラパラメー
タ記憶部101に記憶されているカメラパラメータとか
らCGパラメータを算出する。
The CG parameter calculation section 103 calculates CG parameters from the operation parameters output from the CG operation section 102 and the camera parameters stored in the camera parameter storage section 101.

【0040】ここで、カメラパラメータは、2つの撮像
系のレンズ中心(視点)間での距離(以下、基線長と称
する)、撮像系の焦点距離(撮像系の光軸に沿った視点
から撮像面までの距離)、および画像データの画素間隔
のデータから構成される。
Here, the camera parameters include a distance between the lens centers (viewpoints) of the two image pickup systems (hereinafter, referred to as a base line length) and a focal length of the image pickup system (image pickup from the viewpoint along the optical axis of the image pickup system). (A distance to a plane) and pixel interval data of image data.

【0041】また、CGパラメータは、CGモデルの3
次元回転マトリクス、CGモデルの空間位置を示す位置
パラメータ、および被写体画像空間におけるCGモデル
の大きさとモデル記憶部104に記憶されているCGモ
デルの大きさとの比を示す倍率パラメータから構成され
る。
The CG parameter is the CG model 3
It is composed of a dimensional rotation matrix, a position parameter indicating the spatial position of the CG model, and a magnification parameter indicating a ratio between the size of the CG model in the subject image space and the size of the CG model stored in the model storage unit 104.

【0042】ここで、CGモデルの空間位置を示す位置
パラメータは、ステレオカメラ200の左右撮像系のレ
ンズ中心とCGモデルとのそれぞれの相対位置関係を表
しており、2つの左右位置パラメータからなる。また、
回転マトリクスは操作パラメータの回転パラメータから
算出される。さらに、左右位置パラメータは、それぞれ
操作パラメータの位置パラメータと位置パラメータのう
ち水平方向の位置の差(すなわち視差を表すパラメー
タ)およびカメラパラメータから算出される。また、倍
率パラメータはあらかじめCGパラメータ算出部103
が持つ倍率パラメータに変倍パラメータが乗算して得ら
れる。
Here, the position parameter indicating the spatial position of the CG model represents the relative positional relationship between the lens centers of the left and right imaging systems of the stereo camera 200 and the CG model, and is composed of two left and right position parameters. Also,
The rotation matrix is calculated from the rotation parameters of the operation parameters. Further, the left and right position parameters are calculated from the position parameters of the operation parameters and the difference between the positions in the horizontal direction (that is, the parameter indicating parallax) and the camera parameters. The magnification parameter is set in advance by the CG parameter calculation unit 103.
Is obtained by multiplying the magnification parameter of the variable by the magnification parameter.

【0043】CG画像生成部105は、モデル記憶部1
04から読み込んだCGモデルのデータを、CGモデル
の大きさを示す倍率パラメータにしたがって被写体空間
における大きさに変換し、それぞれCGパラメータの回
転マトリクスと位置パラメータに従い、CGモデルの回
転、移動の変換を行った後、カメラパラメータの焦点距
離および画素間隔のデータを用いて透視投影を行うこと
により、左右のCG画像データを生成する。
The CG image generation unit 105 stores the data in the model storage unit 1
The CG model data read from the G.04 is converted into the size in the subject space according to a magnification parameter indicating the size of the CG model, and the rotation and movement of the CG model are converted according to the rotation matrix and the position parameter of the CG parameter, respectively. After that, left and right CG image data are generated by performing perspective projection using the data of the focal length and the pixel interval of the camera parameters.

【0044】図5は透視投影の様子を示す図である。
L、Rはそれぞれ基線長分だけ離れた左右撮像系の視点
であり、IL、IRはCGモデルに対する左右のCG画
像である。そして、この2つのCG画像データをそれぞ
れ画像合成部120、121に出力する。画像合成部1
20、121はそれぞれステレオカメラ200で撮影中
の被写体画像データにCG画像データを合成する。
FIG. 5 is a diagram showing a state of perspective projection.
L and R are viewpoints of the left and right imaging systems separated by the base line length, respectively, and IL and IR are left and right CG images with respect to the CG model. Then, the two CG image data are output to the image synthesizing units 120 and 121, respectively. Image synthesis unit 1
Reference numerals 20 and 121 respectively combine CG image data with subject image data being captured by the stereo camera 200.

【0045】図6は図4(A)、(B)の被写体画像に
CG画像データを合成した様子を示す図である。合成モ
ードにおいてはCG画像は被写体画像に上書きされて合
成される(図6(A)、(B)参照)。そして、画像合
成部120、121から出力される合成画像は、通常モ
ードと同様の処理により水平ストライプ画像に合成され
て三次元表示装置130に立体表示される。このとき、
合成したCG画像データは、前述したように被写体画像
撮影時のカメラパラメータを用いて透視投影により生成
したものであるので、立体表示された合成画像の立体感
は、被写体の立体感に対して違和感がない。
FIG. 6 is a diagram showing a state in which CG image data is combined with the subject images of FIGS. 4 (A) and 4 (B). In the combining mode, the CG image is overwritten on the subject image and combined (see FIGS. 6A and 6B). Then, the combined images output from the image combining units 120 and 121 are combined with a horizontal stripe image by the same processing as in the normal mode, and are three-dimensionally displayed on the three-dimensional display device 130. At this time,
Since the synthesized CG image data is generated by perspective projection using the camera parameters at the time of capturing the subject image as described above, the three-dimensional effect of the three-dimensionally displayed composite image is uncomfortable with the three-dimensional effect of the subject. There is no.

【0046】撮影者は三次元表示装置130に表示され
る立体画像を見ながら、CG操作部102のインターフ
ェースを介して3D操作を行う。すなわち、撮影者はポ
インティングデバイスによって、三次元表示装置130
に表示されているCG画像の回転、移動、変倍の指示を
行い、指示されたデータの分だけ変位した操作パラメー
タがCG操作部102から出力される。
The photographer performs a 3D operation via the interface of the CG operation unit 102 while viewing the stereoscopic image displayed on the three-dimensional display device 130. That is, the photographer can operate the three-dimensional display device 130 using the pointing device.
, An instruction to rotate, move, or change the magnification of the CG image displayed on the screen is output from the CG operation unit 102 by an amount corresponding to the instructed data.

【0047】そして、変更後の操作パラメータに基づく
CG画像がCG画像生成部105で生成され、ステレオ
カメラ200で撮影中の被写体画像データと合成された
後、再び、三次元表示装置130に立体表示される。
Then, a CG image based on the changed operation parameters is generated by the CG image generation unit 105 and combined with the subject image data being photographed by the stereo camera 200, and then displayed again on the three-dimensional display device 130. Is done.

【0048】このような動作により、合成モードにおい
て撮影中の被写体画像とCG画像とを合成したステレオ
画像が三次元表示装置130で立体表示され、撮影者が
CG操作部102によりインタラクティブにCGモデル
を操作することができる。
By such an operation, a stereo image obtained by synthesizing the subject image being captured and the CG image in the synthesizing mode is stereoscopically displayed on the three-dimensional display device 130, and the photographer can interactively display the CG model using the CG operation unit 102. Can be operated.

【0049】つぎに、記録モードについて説明する。記
録モードは合成モード中にシャッターボタンが押される
ことにより動作する。シャッターボタンが押されるとス
テレオカメラ200から出力される画像データは奥行き
抽出部110内の画像メモリに記憶される。
Next, the recording mode will be described. The recording mode operates when the shutter button is pressed during the combination mode. When the shutter button is pressed, image data output from the stereo camera 200 is stored in an image memory in the depth extracting unit 110.

【0050】図7は奥行き抽出部110の構成を示すブ
ロック図である。奥行き抽出部110は画像メモリ11
1、112、対応抽出部113、領域分割部114、1
15および奥行き算出部116から構成される。
FIG. 7 is a block diagram showing the configuration of the depth extracting unit 110. The depth extracting unit 110 is used for the image memory 11
1, 112, correspondence extraction unit 113, region division unit 114, 1
15 and a depth calculation unit 116.

【0051】奥行き抽出部110では、画像メモリ11
1および画像メモリ112にそれぞれ記憶された右画像
データおよび左画像データを用いて、対応抽出部113
は基準となる右画像を矩形の小領域に分割し、各領域ご
とに左画像の対応する領域を探索する。
In the depth extracting unit 110, the image memory 11
1 and the right image data and the left image data stored in the image memory 112, respectively.
Divides the reference right image into rectangular small areas, and searches the corresponding area of the left image for each area.

【0052】図8は右画像の各領域毎に対応する左画像
の領域を探索する様子を示す図である。同図(B)は右
画像であり、破線で示した小領域に分割されている。こ
のとき、各領域に対する探索範囲を、カメラパラメータ
記憶部101に記憶されているカメラパラメータからあ
らかじめ推定しておく。例えば、同図(A)に示す右画
像中の太い実線で示される領域に対し、同図(B)に示
す左画像中の矩形領域を探索範囲とし、その中で最も画
像データの差の小さい領域を対応する領域として抽出す
る。そして、各領域に対応する抽出結果を視差データと
して出力する。
FIG. 8 is a diagram showing a state of searching for a region of the left image corresponding to each region of the right image. FIG. 7B shows the right image, which is divided into small areas indicated by broken lines. At this time, the search range for each area is estimated in advance from the camera parameters stored in the camera parameter storage unit 101. For example, for a region indicated by a thick solid line in the right image shown in FIG. 7A, a rectangular region in the left image shown in FIG. The region is extracted as a corresponding region. Then, the extraction result corresponding to each area is output as parallax data.

【0053】一方、領域分割部114、115は画像デ
ータからエッジ部分を抽出し、抽出されたエッジ部分を
境界として、画像データの類似性を基に被写体領域毎に
画像を分割する。図9は図4(A)に示す左画像に対す
る領域分割を行った結果を示す図である。左画像はA、
B、C、Dの4つの領域に分割されている。
On the other hand, the area dividing sections 114 and 115 extract an edge portion from the image data, and use the extracted edge portion as a boundary to divide an image for each subject area based on the similarity of the image data. FIG. 9 is a diagram showing a result of region division performed on the left image shown in FIG. The left image is A,
It is divided into four areas B, C and D.

【0054】奥行き算出部116は領域分割部114、
115の出力である領域分割された各被写体領域に対
し、対応抽出部113から出力される視差データを基
に、平均視差を計算し、カメラパラメータを用いて奥行
き(撮像系のカメラ中心から光軸に沿った被写体までの
距離)に変換し、左右の奥行きマップを出力する。これ
らの奥行きマップは被写体領域に分割された画像データ
に算出された奥行きが割り当てられたものである。例え
ば、図9に示す被写体領域A、C、Dには遠距離が、被
写体領域Bには近距離が奥行きとして割り当てられる。
このように、奥行き抽出部110は画像合成部120、
121に対してそれぞれ画像データと奥行きマップを出
力する。
The depth calculation unit 116 includes a region division unit 114,
An average parallax is calculated based on the parallax data output from the correspondence extraction unit 113 for each of the divided subject areas output from 115, and the depth is calculated using camera parameters (from the camera center of the imaging system to the optical axis). ), And outputs a left and right depth map. These depth maps are obtained by assigning calculated depths to image data divided into subject areas. For example, a long distance is assigned to the subject areas A, C, and D shown in FIG. 9, and a short distance is assigned to the subject area B as the depth.
Thus, the depth extracting unit 110 includes the image synthesizing unit 120,
The image data and the depth map are respectively output to 121.

【0055】CG画像生成部105は、左右CG画像デ
ータと共に、CG画像データ生成時に用いたCGモデ
ル、CGパラメータ、カメラパラメータに基づき、奥行
き抽出部110から出力される奥行きマップと等価な左
右2つのCG画像データそれぞれに対する奥行きマップ
を作成し、画像合成部120、121に出力する。これ
らのCG画像に対する奥行きマップはCGモデル以外の
領域では無限遠の値をとる。
The CG image generation unit 105 generates two left and right CG image data based on the CG model, CG parameters, and camera parameters used in generating the CG image data, and the two CG images are equivalent to the depth map output from the depth extraction unit 110. A depth map is created for each of the CG image data, and output to the image synthesis units 120 and 121. The depth map for these CG images takes an infinite value in an area other than the CG model.

【0056】画像合成部120、121は、それぞれ一
時的に奥行き抽出部110の画像メモリ111、112
に記憶された画像データとCG画像生成部105から出
力されたCG画像データを、奥行き抽出部110から出
力された被写体画像に対する奥行きマップとCG画像生
成部105から出力されたCG画像に対する奥行きマッ
プを用いて比較し、CGモデル内の領域においては奥行
きの近い画像を選択して合成し、出力する。
The image synthesizing units 120 and 121 temporarily store the image memories 111 and 112 of the depth extracting unit 110, respectively.
The CG image data output from the CG image generation unit 105 and the image data stored in the CG image generation unit 105 are combined with the depth map for the subject image output from the depth extraction unit 110 and the depth map for the CG image output from the CG image generation unit 105. Then, an image having a close depth is selected in a region in the CG model, synthesized, and output.

【0057】図10は図4(A)に示す左画像に左CG
画像を合成した画像を示す図である。本実施形態では、
CGモデルが中間距離に位置しており、図6(A)に示
した合成モードにおける合成画像に対して隠蔽関係が修
正されている。
FIG. 10 shows the left image shown in FIG.
It is a figure showing the picture which combined the picture. In this embodiment,
The CG model is located at the intermediate distance, and the concealment relationship has been corrected for the synthesized image in the synthesis mode shown in FIG.

【0058】そして、通常モードと同様の処理により、
ステレオカメラ200で撮影した被写体画像とCG画像
を合成した水平ストライプ画像は画像記録部140に書
き込まれ、三次元表示装置130に立体表示される。
Then, by the same processing as in the normal mode,
The horizontal stripe image obtained by synthesizing the subject image captured by the stereo camera 200 and the CG image is written to the image recording unit 140, and is displayed three-dimensionally on the three-dimensional display device 130.

【0059】このような動作により、撮影者は立体映像
に簡単にCG画像を合成することができる。そして、C
G画像を生成するときのCGパラメータとしてカメラで
撮影したときのカメラパラメータを用いたので、違和感
のない立体映像に合成することができる。また、撮影し
たステレオ画像中の奥行きを利用することにより、自然
な隠蔽関係の合成画像が得られる。
By such an operation, the photographer can easily synthesize a CG image with a stereoscopic video. And C
Since the camera parameters at the time of photographing with the camera are used as the CG parameters for generating the G image, it is possible to synthesize a three-dimensional image without a sense of incongruity. Also, by using the depth in the captured stereo image, a synthetic image having a natural concealment relationship can be obtained.

【0060】本実施形態では、合成モードでは被写体画
像にCG画像を重ねて合成して表示し、記録モードで奥
行きを利用し、隠蔽関係を考慮して合成するようにした
ので、撮影者は常にCG画像の全体を見て操作すること
ができる。尚、合成モードにおいて、奥行きを利用し、
隠蔽関係を考慮して合成するようにしてもよい。このと
き、撮影者がCGモデルを3D操作する際、自然な隠蔽
関係の合成画像をインタラクティブに三次元表示装置で
見ることができる。
In this embodiment, the CG image is superimposed on the subject image in the synthesizing mode and synthesized and displayed, and in the recording mode, the depth is used and the concealing relationship is taken into account, so that the photographer is always synthesized. The user can view and operate the entire CG image. In addition, in the synthesis mode, using the depth,
The composition may be performed in consideration of the concealment relationship. At this time, when the photographer performs a 3D operation on the CG model, a synthetic image having a natural concealment relationship can be interactively viewed on the three-dimensional display device.

【0061】また、本実施形態のように、奥行き抽出を
画面全体で行わないで、CGモデルの領域内だけで奥行
き抽出を行うようにしてもよい。左右被写体画像間での
対応抽出領域を限定できるので、この処理を軽減でき
る。
Further, as in the present embodiment, the depth extraction may be performed only in the CG model area without performing the depth extraction on the entire screen. Since the corresponding extraction region between the left and right subject images can be limited, this processing can be reduced.

【0062】さらに、本実施形態では、ステレオカメラ
の撮像系のフォーカス位置が可変な撮像系を持つ場合に
は、カメラパラメータのうち焦点距離をフォーカス位置
に対応したものを用いてCGパラメータを算出し、CG
画像生成、奥行き抽出の各処理を行うようにする。この
とき、カメラパラメータをカメラパラメータ記憶部で保
持する代わりにステレオカメラから出力するようにす
る。
Further, in the present embodiment, when the stereo camera has an imaging system in which the focus position is variable, the CG parameter is calculated using a camera parameter whose focal length corresponds to the focus position. , CG
Each processing of image generation and depth extraction is performed. At this time, the camera parameters are output from the stereo camera instead of being stored in the camera parameter storage unit.

【0063】また、本実施形態では、ステレオカメラの
2つの撮像系のそれぞれの撮像レンズの光軸が左右平行
に配置されている場合について説明したが、光軸が所定
の距離において交差するように輻輳をつけた構成にして
もよいし、輻輳角を変更可能な構成にしてもよい。
In this embodiment, the case where the optical axes of the respective imaging lenses of the two imaging systems of the stereo camera are arranged in the left and right directions has been described. However, the optical axes intersect at a predetermined distance. A configuration with convergence may be used, or a configuration that can change the convergence angle may be used.

【0064】輻輳角を変更可能な構成にした場合、より
広い距離範囲において左右画像の重複する領域を確保で
き、立体視可能となる。光軸に輻輳をつけた構成にした
場合、カメラパラメータ記憶部に輻輳角の値を記憶して
おき、CGパラメータ算出、CG画像生成、奥行き抽出
の各処理で輻輳角のパラメータを利用する。
When the convergence angle can be changed, a region where the left and right images overlap can be secured in a wider distance range, and stereoscopic viewing becomes possible. When a configuration is adopted in which convergence is added to the optical axis, the value of the convergence angle is stored in the camera parameter storage unit, and the parameters of the convergence angle are used in each of the CG parameter calculation, CG image generation, and depth extraction processing.

【0065】また、輻輳角を変更可能な構成にした場
合、撮影時の輻輳角の値をカメラパラメータとしてステ
レオカメラから出力するようにする。これらのカメラパ
ラメータとして、キーボードなどの入力部を外部に設
け、あらかじめ測定した値を入力することにより設定し
てもよい。あるいは、あらかじめ三次元構造の既知な補
正チャートをステレオカメラで撮影し、特徴点の画像中
での位置から焦点距離を、左右画像データ間での特徴点
の対応から基線長、輻輳角などの左右撮像系間の位置関
係に関するパラメータを算出し、CGパラメータ算出、
CG画像生成、奥行き抽出の各処理に用いるようにして
もよい。
When the convergence angle can be changed, the value of the convergence angle at the time of photographing is output as a camera parameter from the stereo camera. As these camera parameters, an input unit such as a keyboard may be provided externally and set by inputting values measured in advance. Alternatively, a known correction chart of a three-dimensional structure is photographed in advance with a stereo camera, and the focal length is calculated from the position of the feature point in the image, and the left and right of the base line length, the convergence angle, etc. Calculating parameters related to the positional relationship between the imaging systems, calculating CG parameters,
It may be used for each processing of CG image generation and depth extraction.

【0066】さらに、本実施形態では、ステレオカメラ
の撮像レンズの焦点距離や絞り値が変更可能な場合、被
写体画像は奥行きに応じてぼけ量が変わるが、特に焦点
距離が長い場合や絞り径が大きい場合には、ぼけ量の変
化が顕著になるので、CGモデルを生成する場合、撮像
レンズの焦点距離や絞り値に合わせてぼかしたCG画像
を生成し、被写体画像と合成することにより、より自然
な合成画像を得ることができる。この場合、焦点距離、
絞り値をカメラパラメータとしてステレオカメラから出
力するようにし、CG画像生成処理でカメラパラメータ
に応じたぼけ量を持つCG画像を生成するようにする。
Further, in this embodiment, when the focal length and the aperture value of the imaging lens of the stereo camera can be changed, the amount of blur of the subject image changes according to the depth. In particular, when the focal length is long and the aperture diameter is large. When the size is large, the change in the amount of blur becomes remarkable. Therefore, when generating a CG model, a CG image that is blurred according to the focal length and the aperture value of the imaging lens is generated and combined with the subject image, so that A natural composite image can be obtained. In this case, the focal length,
The aperture value is output from the stereo camera as a camera parameter, and a CG image having a blur amount corresponding to the camera parameter is generated in the CG image generation processing.

【0067】また、ステレオカメラで撮影した被写体画
像の明るさや色は撮像系の絞り値、画像信号処理部や色
信号処理回路の処理パラメータに応じて変わるが、CG
モデルを生成する場合にも、撮像系の絞り値、画像信号
処理部や色信号処理回路の処理パラメータに合わせて生
成するCG画像の明るさや色を調整し、被写体画像と合
成することにより、より自然な合成画像を得ることがで
きる。この場合、撮像系の絞り値、画像信号処理部や色
信号処理回路の処理パラメータをカメラパラメータとし
てステレオカメラから出力するようにし、CG画像生成
処理でカメラパラメータに応じて生成するCG画像の明
るさや色を調整するようにする。
The brightness and color of the subject image captured by the stereo camera vary depending on the aperture value of the imaging system and the processing parameters of the image signal processing unit and the color signal processing circuit.
When generating a model, the brightness and color of the generated CG image are adjusted in accordance with the aperture value of the imaging system and the processing parameters of the image signal processing unit and the color signal processing circuit, and are synthesized with the subject image. A natural composite image can be obtained. In this case, the aperture value of the imaging system, the processing parameters of the image signal processing unit and the color signal processing circuit are output as camera parameters from the stereo camera, and the brightness and the brightness of the CG image generated according to the camera parameters in the CG image generation processing are determined. Try to adjust the color.

【0068】[第2の実施の形態]図11は第2の実施
形態の画像合成装置の構成を示すブロック図である。図
において、図1および図7と同じ記号を有するものはほ
ぼ同等の機能を有する。
[Second Embodiment] FIG. 11 is a block diagram showing a configuration of an image synthesizing apparatus according to a second embodiment. In the drawings, those having the same symbols as those in FIGS. 1 and 7 have substantially the same functions.

【0069】300は記録媒体であり、カメラで撮影、
記録した左右視点での右画像データ、左画像データ、左
右画像の対応抽出の結果得られる視差データ、撮影時の
カメラパラメータを記録している。
Reference numeral 300 denotes a recording medium, which is photographed by a camera,
The recorded right image data and left image data at the left and right viewpoints, parallax data obtained as a result of corresponding extraction of the left and right images, and camera parameters at the time of shooting are recorded.

【0070】画像合成装置の動作を説明する。まず、C
G操作部102はCGパラメータ算出部103に操作パ
ラメータを出力する。前記第1の実施形態の画像合成装
置と同様に、CGパラメータ算出部103は、CG操作
部102から出力される操作パラメータと記録媒体30
0に記憶されているカメラパラメータとからCGパラメ
ータを算出する。CGパラメータ算出部103は、初期
動作時に初期操作パラメータを内部で生成してCGパラ
メータを算出する。
The operation of the image synthesizing apparatus will be described. First, C
The G operation unit 102 outputs operation parameters to the CG parameter calculation unit 103. As in the image synthesizing apparatus of the first embodiment, the CG parameter calculation unit 103 stores the operation parameters output from the CG operation unit 102 and the recording medium 30.
The CG parameter is calculated from the camera parameter stored in 0. The CG parameter calculation unit 103 internally generates an initial operation parameter at the time of an initial operation to calculate a CG parameter.

【0071】CG画像生成部105は、モデル記憶部1
04から読み込んだCGモデルのデータに対し、CGモ
デルの大きさを倍率パラメータに従って被写体空間にお
ける大きさに変換し、それぞれCGパラメータの回転マ
トリクスと位置パラメータに従い、CGモデルの回転、
移動の変換を行った後、カメラパラメータの焦点距離お
よび画素間隔のデータを用いて透視投影を行うことによ
り、左右のCG画像データを得る。そして、左右の2つ
のCG画像データをそれぞれ画像合成部120、121
に出力する。画像合成部120、121はそれぞれ記録
媒体300に記憶されている左右画像データにCG画像
データを合成する。
The CG image generation unit 105 stores the data in the model storage unit 1
The data of the CG model read from the C.G.04 is converted into the size in the subject space according to the magnification parameter according to the magnification parameter, and the rotation of the CG model and the rotation matrix and position parameter of the CG parameter are respectively performed.
After the conversion of the movement, the perspective projection is performed using the data of the focal length and the pixel interval of the camera parameter to obtain left and right CG image data. Then, the two left and right CG image data are respectively combined with the image combining units 120 and 121.
Output to The image synthesizing units 120 and 121 synthesize CG image data with the left and right image data stored in the recording medium 300, respectively.

【0072】ステレオ画像合成部106では、左右画像
データが水平1ラインごとに組み合わされ、三次元表示
装置130に表示すべきステレオ画像が生成される。そ
して、この水平ストライプ画像が表示メモリ107に書
き込まれ、表示制御部108により三次元表示装置13
0にステレオカメラ200で撮影中の被写体画像が立体
表示される。
The stereo image synthesizing unit 106 combines the left and right image data for each horizontal line to generate a stereo image to be displayed on the three-dimensional display device 130. Then, the horizontal stripe image is written into the display memory 107, and the display control unit 108 controls the three-dimensional display device 13.
At 0, the subject image being photographed by the stereo camera 200 is stereoscopically displayed.

【0073】このような動作により、記録媒体300に
記録された左右ステレオ画像とCG画像とを合成したス
テレオ画像が三次元表示装置130で立体表示され、使
用者はCG操作部102によりインタラクティブにCG
モデルを操作することができる。
By such an operation, a stereo image obtained by synthesizing the left and right stereo images and the CG image recorded on the recording medium 300 is stereoscopically displayed on the three-dimensional display device 130, and the user interactively performs the CG operation by the CG operation unit 102.
Can manipulate the model.

【0074】そして、CGモデルの向きや位置、大きさ
が決定されると、使用者は図示しない合成記録ボタンを
押し、前記第1の実施形態の画像合成装置と同様、画像
中の被写体とCGモデルの隠蔽関係が奥行きを利用して
修正される。つづいて、この動作を説明する。
When the orientation, position, and size of the CG model are determined, the user presses a combining recording button (not shown), and the subject and the CG in the image are displayed in the same manner as in the image combining apparatus of the first embodiment. The concealment relationship of the model is modified using the depth. Next, this operation will be described.

【0075】まず、領域分割部114、115は記録媒
体300に記録されている左右画像データからエッジ部
分を抽出し、抽出されたエッジ部分を境界として、画像
データの類似性を基に被写体領域毎に画像を分割する。
First, the region dividing units 114 and 115 extract edge portions from the left and right image data recorded on the recording medium 300, and use the extracted edge portions as boundaries, based on the similarity of the image data, for each subject region. Divide the image into

【0076】そして、奥行き算出部116は領域分割部
114、115の出力である領域分割された各被写体領
域に対して、記録媒体300に記録されている視差デー
タを基に平均視差を計算し、カメラパラメータを用いて
奥行きに変換し、左右の奥行きマップを出力する。
The depth calculator 116 calculates the average parallax for each of the divided subject areas output from the area dividers 114 and 115 based on the parallax data recorded on the recording medium 300. The depth is converted into a depth using the camera parameters, and a left and right depth map is output.

【0077】また、CG画像生成部105は、左右のC
G画像データと共に、それぞれのCG画像に対する奥行
きマップを作成し、画像合成部120、121に出力す
る。画像合成部120、121は、それぞれ記録媒体3
00に記録されている左右画像データとCG画像生成部
105から出力されたCG画像データを、奥行き算出部
116から出力された被写体画像に対する奥行きマップ
とCG画像生成部105から出力されたCG画像に対す
る奥行きマップを用いて比較し、CGモデル内の領域に
おいては奥行きの近い画像を選択して合成し、出力す
る。
Further, the CG image generating unit 105
Along with the G image data, a depth map for each CG image is created and output to the image synthesis units 120 and 121. The image synthesizing units 120 and 121 are respectively provided on the recording medium 3
00 and the CG image data output from the CG image generation unit 105 with the depth map for the subject image output from the depth calculation unit 116 and the CG image output from the CG image generation unit 105 The comparison is performed using the depth map, and in a region in the CG model, an image having a close depth is selected, synthesized, and output.

【0078】そして、画像合成部120、121の出力
である合成画像から水平ストライプ画像がステレオ画像
合成部106で合成され、画像記録部140に書き込ま
れると、三次元表示装置130に立体表示される。
Then, a horizontal stripe image is synthesized from the synthesized images output from the image synthesizing units 120 and 121 by the stereo image synthesizing unit 106 and written into the image recording unit 140, and is then stereoscopically displayed on the three-dimensional display device 130. .

【0079】本実施形態では、あらかじめ記録された左
右のステレオ画像にCGモデルを合成した水平ストライ
プ画像を静止画として記録し、三次元表示装置で立体表
示する場合を示したが、被写体空間中で使用者が決定し
た大きさのCGモデルの複数の向き、位置から画像を生
成し、合成することで左右のステレオ画像とCGモデル
とのアニメーション画像を生成することも可能である。
In this embodiment, the horizontal stripe image obtained by synthesizing the CG model with the pre-recorded left and right stereo images is recorded as a still image, and is displayed three-dimensionally on the three-dimensional display device. It is also possible to generate an animation image of the left and right stereo images and the CG model by generating and combining images from a plurality of directions and positions of the CG model of the size determined by the user.

【0080】この場合、画像合成装置は、CG操作部1
02で指定された複数のCGモデルのCGパラメータの
うち、向き、位置に従ったCGパラメータを複数記憶し
ておくCGパラメータ記憶部と、複数記憶されたCGパ
ラメータからCGモデルの軌跡を補間して出力する軌跡
算出部とを備え、軌跡算出部のそれぞれのCGパラメー
タに従ってCG画像生成部がCG画像を生成するように
することで実現される。
In this case, the image synthesizing apparatus operates the CG operation unit 1
Among the CG parameters of the plurality of CG models designated by 02, a CG parameter storage unit that stores a plurality of CG parameters according to directions and positions, and interpolates a trajectory of the CG model from the plurality of stored CG parameters. This is realized by providing a trajectory calculation unit for outputting, and causing the CG image generation unit to generate a CG image according to each CG parameter of the trajectory calculation unit.

【0081】上記実施形態では、モデル記憶部にCGモ
デルが1つ記憶されている場合について説明したが、複
数のCGモデルが記憶されていてもよい。その場合、例
えば三次元表示装置の表示部の周辺領域に複数のモデル
を一覧表示し、撮影者がポインティングデバイス等で選
択するようにしてもよい。また、被写体画像へ合成可能
なCGモデルも1つに限定せず、複数であってもよい。
In the above embodiment, the case where one CG model is stored in the model storage unit has been described, but a plurality of CG models may be stored. In this case, for example, a plurality of models may be displayed in a list in the peripheral area of the display unit of the three-dimensional display device, and the photographer may select the model using a pointing device or the like. Further, the number of CG models that can be combined with the subject image is not limited to one, but may be plural.

【0082】また、上記実施形態では、画像記録部にお
いて水平ストライプ画像を記録するようにしたが、ステ
レオ合成する前の複数の画像合成部の出力画像を記録す
るようにしてもよい。
Further, in the above embodiment, the horizontal stripe image is recorded in the image recording section. However, output images of a plurality of image synthesizing sections before stereo synthesis may be recorded.

【0083】さらに、上記実施形態では、図3に示した
三次元表示装置で立体画像を表示する構成としたが、左
右の画像を時間的に交互に表示して、表示に同期した液
晶シャッター眼鏡をかけて観察することにより、左右画
像をそれぞれ左目、右目で分離して観察可能な三次元表
示装置で立体画像を表示する構成としてもよい。この場
合、2つの画像合成部の出力画像を2つの表示メモリに
書き込み、表示制御部で表示メモリ内のデータを時間的
に切り替えて表示する。
Further, in the above embodiment, the stereoscopic image is displayed by the three-dimensional display device shown in FIG. 3. However, the left and right images are alternately displayed temporally, and the liquid crystal shutter glasses synchronized with the display are displayed. The stereoscopic image may be displayed on a three-dimensional display device that allows the left and right images to be separated and observed by the left eye and the right eye, respectively, by observing the image. In this case, the output images of the two image synthesizing units are written into the two display memories, and the data in the display memories are temporally switched and displayed by the display control unit.

【0084】また、上記実施形態では、ハードウェアで
構成することを前提に説明したが、各処理部をソフトウ
ェアの処理モジュールに置き換えたプログラムを、コン
ピュータで実行して処理を行うようにしてもよく、つぎ
に第1の実施形態と同様の画像合成装置をソフトウェア
の処理モジュールで実現した場合を、第3の実施形態と
してつぎに説明する。
Although the above embodiment has been described on the assumption that the processing unit is configured by hardware, the computer may execute a program by executing a program in which each processing unit is replaced by a processing module of software. Next, a case where an image synthesizing apparatus similar to that of the first embodiment is realized by a processing module of software will be described as a third embodiment.

【0085】[第3の実施の形態]図12は第3の実施
形態における画像合成装置の構成を示すブロック図であ
る。第3の実施形態の画像合成装置では、前記第1の実
施形態における画像合成部120、121、CG画像生
成部105、CGパラメータ算出部103、ステレオ画
像合成部106および奥行き抽出部110の機能をソフ
トウェアの処理モジュールで代替するために、これらの
ハードウェアの代わりにCPU301、ROM302、
RAM303、I/O304が付加されている。前記第
1の実施形態と同一の構成要素に同一の番号を付すこと
によりその説明を省略する。
[Third Embodiment] FIG. 12 is a block diagram showing a configuration of an image synthesizing apparatus according to a third embodiment. In the image synthesizing apparatus according to the third embodiment, the functions of the image synthesizing units 120 and 121, the CG image generating unit 105, the CG parameter calculating unit 103, the stereo image synthesizing unit 106, and the depth extracting unit 110 according to the first embodiment are described. Instead of these hardware, CPU 301, ROM 302,
A RAM 303 and an I / O 304 are added. The description of the same components as those in the first embodiment will be omitted by retaining the same reference numerals.

【0086】図13は画像合成処理プログラムが格納さ
れたROM302のメモリマップを示す図である。RO
M302には、画像合成処理プログラムを構成する複数
の処理モジュールが格納されている。複数の処理モジュ
ールには、CG画像生成モジュール、CGパラメータ算
出モジュール、画像合成モジュール、ステレオ画像合成
モジュール、奥行き抽出モジュールが含まれており、奥
行き抽出モジュールは対応抽出モジュール、領域分割モ
ジュール、奥行き算出モジュールから構成されている。
FIG. 13 is a diagram showing a memory map of the ROM 302 in which the image composition processing program is stored. RO
M302 stores a plurality of processing modules constituting an image synthesis processing program. The plurality of processing modules include a CG image generation module, a CG parameter calculation module, an image synthesis module, a stereo image synthesis module, and a depth extraction module. The depth extraction module is a correspondence extraction module, a region division module, and a depth calculation module. It is composed of

【0087】第3の実施形態の画像合成装置において
も、前記第1の実施形態の画像合成装置と同様に通常モ
ード、合成モード、記録モードの各動作を行うが、ここ
では、合成モードおよび記録モード動作についてだけ説
明する。
In the image synthesizing apparatus of the third embodiment, each operation of the normal mode, the synthesizing mode and the recording mode is performed similarly to the image synthesizing apparatus of the first embodiment. Only the mode operation will be described.

【0088】図14はCPU301によって実行される
画像合成処理プログラムのうち合成モードの処理手順を
示すフローチャートである。この処理は、撮影者によっ
て図示しない合成ボタンが押されることにより開始され
る。まず、CPU301は、モデム記憶部104が装着
状態であることを確認し、モデル記憶部104に記憶さ
れているCGモデルのデータを読み込み、初期CGパラ
メータにしたがってCGモデルの左右画像データを生成
する(ステップS1、CG画像生成モジュール)。
FIG. 14 is a flowchart showing the processing procedure of the combining mode in the image combining processing program executed by the CPU 301. This process is started when the photographer presses a combining button (not shown). First, the CPU 301 confirms that the modem storage unit 104 is in the mounted state, reads the CG model data stored in the model storage unit 104, and generates left and right image data of the CG model according to the initial CG parameters ( Step S1, CG image generation module).

【0089】CC操作部102からの操作パラメータを
入力する(ステップS2)。CG操作部102から入力
した操作パラメータとカメラパラメータ記憶部101に
記憶されているカメラパラメータからCGパラメータを
算出する(ステップS3、CGパラメータ算出モジュー
ル)。
Operation parameters are input from the CC operation unit 102 (step S2). CG parameters are calculated from the operation parameters input from the CG operation unit 102 and the camera parameters stored in the camera parameter storage unit 101 (step S3, CG parameter calculation module).

【0090】モデル記憶部104から読み込んだCGモ
デルのデータに対し、CGモデルの大きさを倍率パラメ
ータにしたがって被写体空間における大きさに変換し、
それぞれCGパラメータの回転マトリクスと位置パラメ
ータに従い、CGモデルの回転、移動の変換を行った
後、カメラパラメータの焦点距離および画素間隔のデー
タを用いて透視投影を行うことにより左右のCG画像デ
ータを生成する(ステップS4、CG画像生成モジュー
ル)。
For the data of the CG model read from the model storage unit 104, the size of the CG model is converted into the size in the subject space according to the magnification parameter.
After performing rotation and movement conversion of the CG model according to the rotation matrix and the position parameters of the CG parameters, respectively, the perspective projection is performed using the focal length and pixel interval data of the camera parameters to generate left and right CG image data. (Step S4, CG image generation module).

【0091】生成されたCG画像データをそれぞれステ
レオカメラ200で撮影中の被写体画像データに合成す
る(ステップS5、画像合成モジュール)。
The generated CG image data is combined with the subject image data being captured by the stereo camera 200 (step S5, image combining module).

【0092】CG画像データが被写体画像データに合成
された左右の合成画像データを用いて、ステレオ画像デ
ータ(水平ストライプ画像データ)を生成し、生成した
水平ストライプ画像データを表示メモリ107に出力す
ることにより、三次元表示装置130に立体表示が行わ
れる(ステップS6、ステレオ画像合成モジュール)。
Using left and right combined image data obtained by combining CG image data with subject image data, generate stereo image data (horizontal stripe image data), and output the generated horizontal stripe image data to the display memory 107. Thus, a three-dimensional display is performed on the three-dimensional display device 130 (step S6, stereo image synthesis module).

【0093】撮影者によってCG操作部102が操作さ
れるのを待ち(ステップS7)、操作されると、ステッ
プS2の処理に戻る。
Waiting for the photographer to operate the CG operation unit 102 (step S7), the operation returns to step S2.

【0094】つぎに、記録モードの動作について説明す
る。図15はCPU301によって実行される画像合成
処理プログラムのうち記録モードの処理手順を示すフロ
ーチャートである。この処理は合成モード中、図示しな
いシャッタボタンが押されることにより開始される。
Next, the operation in the recording mode will be described. FIG. 15 is a flowchart illustrating a processing procedure of a recording mode in the image synthesis processing program executed by the CPU 301. This process is started when a shutter button (not shown) is pressed during the combination mode.

【0095】まず、CPU301は、ステレオカメラ2
00の出力画像データをRAM303に記憶し、RAM
303に記憶された右画像データおよび左画像データか
ら、基準となる右画像を矩形の小領域に分割し、各領域
毎に左画像の対応する領域を探索し、各領域における対
応の抽出結果を視差データとして得る(ステップS1
1、対応抽出モジュール)。
First, the CPU 301 controls the stereo camera 2
00 is stored in the RAM 303.
From the right image data and the left image data stored in 303, the reference right image is divided into rectangular small regions, a corresponding region of the left image is searched for each region, and a corresponding extraction result in each region is obtained. Obtained as parallax data (step S1
1, corresponding extraction module).

【0096】画像データからエッジ部分を抽出し、抽出
されたエッジ部分を境界として画像データの類似性を基
に被写体領域毎に画像を分割する(ステップS12、領
域分割モジュール)。
An edge part is extracted from the image data, and the image is divided for each subject area based on the similarity of the image data with the extracted edge part as a boundary (step S12, area dividing module).

【0097】領域分割された各被写体領域に対して、ス
テップS11の視差データを基に、平均視差を計算し、
カメラパラメータを用いて奥行き(撮像系のカメラ中心
から光軸に沿った被写体までの距離)に変換し、左右の
奥行きマップを得る(ステップS13、奥行き算出モジ
ュール)。
An average parallax is calculated for each of the divided subject areas based on the parallax data in step S11.
Using the camera parameters, the depth is converted into the depth (the distance from the camera center of the imaging system to the subject along the optical axis) to obtain a left and right depth map (step S13, depth calculation module).

【0098】左右のCG画像データと共に、CG画像デ
ータ生成時に用いたCGモデルとCGパラメータ、カメ
ラパラメータから、ステップS13で得られた奥行きマ
ップと等価な2つのCG画像それぞれに対する奥行きマ
ップを作成する(ステップS14、CG画像生成モジュ
ール)。
From the left and right CG image data, a depth map for each of two CG images equivalent to the depth map obtained in step S13 is created from the CG model, CG parameters, and camera parameters used in generating the CG image data ( Step S14, CG image generation module).

【0099】RAM303に記憶された画像データとス
テップS14で作成されたCG画像データを、被写体画
像に対する奥行きマップとCG画像に対する奥行きマッ
プを用いて比較し、CGモデル内の領域においては奥行
きの近い画像を選択して合成する(ステップS15、画
像合成モジュール)。
The image data stored in the RAM 303 and the CG image data created in step S14 are compared using a depth map for the subject image and a depth map for the CG image. Are selected and synthesized (step S15, image synthesis module).

【0100】ステレオカメラ200で撮影した被写体画
像とCG画像とを合成した左右の合成画像を用いて、水
平ストライプ画像データを合成して画像記録部140に
記録することにより、三次元表示装置130に立体表示
が行われる(ステップS16、ステレオ画像合成モジュ
ール)。
The horizontal stripe image data is synthesized using the left and right synthesized images obtained by synthesizing the subject image captured by the stereo camera 200 and the CG image, and is recorded in the image recording unit 140. Stereoscopic display is performed (step S16, stereo image synthesis module).

【0101】このように、ソフトウェアの処理モジュー
ルにより画像合成を行う画像合成装置では、前記第1の
実施形態と同様の効果を得ることができる他、各処理モ
ジュールの機能の変更、追加を容易に行うことができ、
画像合成装置の汎用性を高めることができる。
As described above, in the image synthesizing apparatus for synthesizing images using the software processing module, the same effects as those of the first embodiment can be obtained, and the function of each processing module can be easily changed or added. Can do
The versatility of the image synthesizing device can be improved.

【0102】尚、本発明は複数の機器から構成されるシ
ステムに適用してもよいし、1つの機器からなる装置に
適用してもよい。また、本発明はシステムあるいは装置
にプログラムを供給することによって達成される場合に
も適用できることはいうまでもない。この場合、本発明
を達成するためのソフトウェアによって表されるプログ
ラムを格納した記憶媒体をシステムあるいは装置に読み
出すことによってそのシステムあるいは装置が本発明の
効果を享受することが可能となる。
The present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of one device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or an apparatus. In this case, by reading out a storage medium storing a program represented by software for achieving the present invention into a system or an apparatus, the system or the apparatus can enjoy the effects of the present invention.

【0103】本実施の形態では、記憶媒体としてROM
302が用いられているが、記憶媒体としては、これに
限らず、例えばフロッピーディスク、ハードディスク、
光ディスク、光磁気ディスク、CD−ROM、CD−
R、DVD、磁気テープ、不揮発性のメモリカードなど
を用いることができる。
In this embodiment, a ROM is used as a storage medium.
Although the storage medium 302 is used, the storage medium is not limited to this, and for example, a floppy disk, a hard disk,
Optical disk, magneto-optical disk, CD-ROM, CD-
R, DVD, magnetic tape, nonvolatile memory card, and the like can be used.

【0104】[0104]

【発明の効果】本発明の請求項1に記載の画像合成装置
によれば、表示手段により異なる視点で撮影された視野
の重なる複数の被写体画像を立体視表示する際、モデル
情報記憶手段により三次元構造を表すモデル情報を記憶
しておき、該記憶されたモデル情報の向き、位置を含む
操作パラメータと、前記複数の被写体画像の少なくとも
撮影時のカメラの焦点距離と視点間の距離を含むカメラ
パラメータとを用いて、算出手段により前記モデル情報
の回転、移動を算出し、画像生成手段により該回転、移
動が算出されたモデル情報の画像を透視投影によって複
数生成し、画像合成手段により該生成された複数のモデ
ル情報の画像と前記複数の被写体画像とを合成し、該合
成された画像を前記表示手段によって立体視表示するの
で、立体映像に簡単にCG画像を合成し、立体感に違和
感のない合成した立体映像を得ることができる。また、
請求項4に記載の画像合成方法においても同様の効果を
得ることができる。
According to the image synthesizing apparatus according to the first aspect of the present invention, when a plurality of subject images having overlapping fields of view taken at different viewpoints by the display means are displayed in a stereoscopic manner, the tertiary image is stored by the model information storage means. A camera that stores model information representing an original structure, and includes operation parameters including the orientation and position of the stored model information and at least the focal length of the camera and the distance between viewpoints at the time of shooting of the plurality of subject images. Using the parameters, rotation and movement of the model information are calculated by calculation means, a plurality of images of the model information whose rotation and movement are calculated are generated by the image generation means by perspective projection, and the generation is performed by the image synthesis means. The plurality of model information images thus synthesized and the plurality of subject images are synthesized, and the synthesized image is stereoscopically displayed by the display means. It is possible to synthesize CG image to obtain a synthesized stereoscopic video without uncomfortable stereoscopic effect. Also,
The same effect can be obtained in the image synthesizing method according to the fourth aspect.

【0105】請求項2に記載の画像合成装置によれば、
表示手段により複数の撮像系で撮影された複数の被写体
画像を立体視表示する際、モデル情報記憶手段により三
次元構造を表すモデル情報を記憶しておき、該記憶され
たモデル情報の向き、位置を含む操作パラメータと、前
記複数の撮像系の焦点距離、視点間の距離を含むカメラ
パラメータとを用いて、算出手段により前記モデル情報
の回転、移動を算出し、画像生成手段により該回転、移
動が算出されたモデル情報の画像を透視投影によって複
数生成し、画像合成手段により該生成された複数のモデ
ル情報の画像と前記複数の被写体画像とを合成し、該合
成された画像を前記表示手段によって立体視表示するの
で、請求項1に係る画像合成装置と同等の効果を得るこ
とができる。また、複数の撮像系を備えているので、立
体映像の撮影を容易に行うことができ、しかも、撮影時
のカメラパラメータをそのまま利用できるので、CG画
像との合成を容易に実現することができる。
According to the image synthesizing device of the second aspect,
When stereoscopically displaying a plurality of subject images photographed by a plurality of imaging systems by the display means, model information representing a three-dimensional structure is stored by the model information storage means, and the orientation and position of the stored model information are stored. Using operation parameters including the following, and the camera parameters including the focal lengths of the plurality of imaging systems and the distance between viewpoints, the rotation and movement of the model information are calculated by calculation means, and the rotation and movement are calculated by the image generation means. A plurality of images of the calculated model information are generated by perspective projection, the generated plurality of model information images and the plurality of subject images are synthesized by an image synthesizing unit, and the synthesized image is displayed on the display unit. Therefore, the same effect as the image synthesizing apparatus according to the first aspect can be obtained. In addition, since a plurality of imaging systems are provided, it is possible to easily shoot a stereoscopic video, and since the camera parameters at the time of shooting can be used as they are, it is possible to easily realize synthesis with a CG image. .

【0106】請求項3に記載の画像合成装置によれば、
奥行き抽出手段によって前記複数の被写体画像の視差に
より該被写体画像の奥行きを抽出し、前記画像合成手段
は、該抽出された被写体画像の奥行きに基づき、前記生
成されたモデル情報の画像と前記被写体画像とを合成す
るので、視差から求めた被写体画像の奥行きと生成した
CGモデルの奥行きとを比較することにより、撮影した
画像の被写体とCGモデルか重なる場合にも合成した立
体映像の隠蔽関係に違和感のない立体映像を得ることが
できる。請求項5の画像合成方法においても同様の効果
を得ることができる。
According to the image synthesizing device of the third aspect,
The depth extracting means extracts the depth of the subject image from the parallax of the plurality of subject images, and the image synthesizing means determines the image of the generated model information and the subject image based on the extracted depth of the subject image. By comparing the depth of the subject image obtained from the parallax with the depth of the generated CG model, even when the subject of the captured image and the CG model overlap, the concealment relationship of the synthesized stereoscopic image is discomfort. It is possible to obtain a three-dimensional image without images. A similar effect can be obtained in the image synthesizing method according to the fifth aspect.

【0107】請求項6に記載の記憶媒体によれば、異な
る視点で撮影された視野の重なる複数の被写体画像とコ
ンピュータで作成された三次元情報を表すモデル画像と
を合成する際、前記モデル情報の向き、位置を含む操作
パラメータと、前記複数の撮像系の焦点距離、視点間の
距離を含むカメラパラメータとを用いて、前記モデル情
報の回転、移動を算出するパラメータ算出モジュール
と、該回転、移動が算出されたモデル情報の画像を透視
投影によって複数生成する画像生成モジュールと、該生
成された複数のモデル情報の画像と前記複数の被写体画
像とを合成する画像合成モジュールとを含むコンピュー
タに実行させるためのプログラムが格納されているの
で、立体映像に簡単にCG画像を合成し、立体感に違和
感のない合成した立体映像をコンピュータの処理により
得ることができる。また、各処理モジュールの機能の変
更、追加を容易に行うことができ、画像合成装置の汎用
性を高めることができる。
According to the storage medium of the present invention, when synthesizing a plurality of subject images having overlapping visual fields taken from different viewpoints and a model image representing three-dimensional information created by a computer, the model information is used. The orientation, the operation parameters including the position, the focal length of the plurality of imaging systems, using camera parameters including the distance between the viewpoint, the rotation of the model information, a parameter calculation module that calculates the movement, the rotation, An image generation module that generates a plurality of images of model information for which movement has been calculated by perspective projection, and an image synthesis module that synthesizes the generated plurality of model information images and the plurality of subject images. Since a program for causing the CG image to be stored is stored, the CG image can be easily synthesized with the three-dimensional image, and the synthesized three-dimensional image has no strange feeling. Image can be obtained by treatment of the computer. Further, the function of each processing module can be easily changed or added, and the versatility of the image synthesizing apparatus can be enhanced.

【0108】請求項7に記載の記憶媒体によれば、前記
複数の被写体画像の視差により該被写体画像の奥行きを
抽出する奥行き抽出モジュールを含み、前記画像を合成
する画像合成モジュールでは、該抽出された被写体画像
の奥行きに基づき、前記生成されたモデル情報の画像と
前記被写体画像とを合成するので、視差から求めた被写
体画像の奥行きと生成したCGモデルの奥行きとを比較
することによって撮影した画像の被写体とCGモデルが
重なる場合にも合成した立体映像の隠蔽関係に違和感の
ない立体映像をコンピュータの処理により得ることがで
きる。
According to the storage medium of the present invention, the image processing apparatus further includes a depth extracting module for extracting a depth of the subject image based on a parallax of the plurality of subject images. Based on the depth of the subject image, the image of the generated model information and the subject image are combined, so the image captured by comparing the depth of the subject image obtained from parallax with the depth of the generated CG model Even when the subject and the CG model overlap, it is possible to obtain a stereoscopic image by the computer processing that does not make the concealment relationship of the synthesized stereoscopic image strange.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態における画像合成装置の構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image composition device according to a first embodiment.

【図2】ステレオカメラ200の構成を示すブロック図
である。
FIG. 2 is a block diagram illustrating a configuration of a stereo camera 200.

【図3】三次元表示装置130の構成を示す分解斜視図
である。
FIG. 3 is an exploded perspective view showing a configuration of the three-dimensional display device 130.

【図4】ステレオ画像合成部106の処理を示す図であ
る。
FIG. 4 is a diagram illustrating processing of a stereo image combining unit 106.

【図5】透視投影の様子を示す図である。FIG. 5 is a diagram showing a state of perspective projection.

【図6】図4(A)、(B)の被写体画像にCG画像デ
ータを合成した様子を示す図である。
FIG. 6 is a diagram showing a state in which CG image data is combined with the subject images of FIGS. 4 (A) and (B).

【図7】奥行き抽出部110の構成を示すブロック図で
ある。
FIG. 7 is a block diagram showing a configuration of a depth extracting unit 110.

【図8】右画像の各領域毎に対応する左画像の領域を探
索する様子を示す図である。
FIG. 8 is a diagram showing a state of searching for a region of the left image corresponding to each region of the right image.

【図9】図4(A)に示す左画像に対する領域分割を行
った結果を示す図である。
FIG. 9 is a diagram showing a result of region division performed on the left image shown in FIG.

【図10】図4(A)に示す左画像に左CG画像を合成
した画像を示す図である。
FIG. 10 is a diagram showing an image obtained by combining a left CG image with the left image shown in FIG.

【図11】第2の実施形態の画像合成装置の構成を示す
ブロック図である。
FIG. 11 is a block diagram illustrating a configuration of an image composition device according to a second embodiment.

【図12】第3の実施形態における画像合成装置の構成
を示すブロック図である。
FIG. 12 is a block diagram illustrating a configuration of an image composition device according to a third embodiment.

【図13】画像合成処理プログラムが格納されたROM
302のメモリマップを示す図である。
FIG. 13 is a ROM storing an image synthesis processing program;
FIG. 3 is a diagram illustrating a memory map of a memory 302;

【図14】CPU301によって実行される画像合成処
理プログラムのうち合成モードの処理手順を示すフロー
チャートである。
FIG. 14 is a flowchart illustrating a processing procedure in a synthesis mode in an image synthesis processing program executed by the CPU 301;

【図15】CPU301によって実行される画像合成処
理プログラムのうち記録モードの処理手順を示すフロー
チャートである。
FIG. 15 is a flowchart illustrating a processing procedure of a recording mode in an image synthesis processing program executed by the CPU 301;

【符号の説明】[Explanation of symbols]

101 カメラパラメータ記憶部 102 CG操作部 103 CGパラメータ算出部 105 CG画像生成部 106 ステレオ画像合成部 110 奥行き抽出部 120、121 画像合成部 200 ステレオカメラ 300 記録媒体 301 CPU 302 ROM Reference Signs List 101 camera parameter storage unit 102 CG operation unit 103 CG parameter calculation unit 105 CG image generation unit 106 stereo image synthesis unit 110 depth extraction unit 120, 121 image synthesis unit 200 stereo camera 300 recording medium 301 CPU 302 ROM

───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉橋 直 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 森 克彦 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Nao Kurahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo Inside Canon Inc. (72) Inventor Katsuhiko Mori 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inside the corporation

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 異なる視点で撮影された視野の重なる複
数の被写体画像を立体視表示することが可能な表示手段
を備えた画像合成装置において、 三次元構造を表すモデル情報を記憶するモデル情報記憶
手段と、 該記憶されたモデル情報の向き、位置を含む操作パラメ
ータと、前記複数の被写体画像の少なくとも撮影時のカ
メラの焦点距離と視点間の距離を含むカメラパラメータ
とを用いて、前記モデル情報の回転、移動を算出する算
出手段と、 該回転、移動が算出されたモデル情報の画像を透視投影
によって複数生成する画像生成手段と、 該生成された複数のモデル情報の画像と前記複数の被写
体画像とを合成する画像合成手段とを備え、 該合成された画像を前記表示手段によって立体視表示す
ることを特徴とする画像合成装置。
1. An image synthesizing apparatus comprising a display unit capable of stereoscopically displaying a plurality of subject images having overlapping fields of view taken from different viewpoints, wherein the model information storage stores model information representing a three-dimensional structure. Means, an operation parameter including an orientation and a position of the stored model information, and a camera parameter including a distance between a viewpoint and a focal length of the camera at least when the plurality of subject images are captured. Calculation means for calculating rotation and movement of the image, image generation means for generating a plurality of images of the model information for which the rotation and movement have been calculated by perspective projection, and a plurality of images of the generated model information and the plurality of subjects An image synthesizing device, comprising: image synthesizing means for synthesizing an image with the image, wherein the synthesized image is stereoscopically displayed by the display means.
【請求項2】 複数の撮像系と、 該複数の撮像系で撮影された複数の被写体画像を立体視
表示することが可能な表示手段とを備えた画像合成装置
において、 三次元構造を表すモデル情報を記憶するモデル情報記憶
手段と、 該記憶されたモデル情報の向き、位置を含む操作パラメ
ータと、前記複数の撮像系の焦点距離、視点間の距離を
含むカメラパラメータとを用いて、前記モデル情報の回
転、移動を算出する算出手段と、 該回転、移動が算出されたモデル情報の画像を透視投影
によって複数生成する画像生成手段と、 該生成された複数のモデル情報の画像と前記複数の被写
体画像とを合成する画像合成手段とを備え、 該合成された画像を前記表示手段によって立体視表示す
ることを特徴とする画像合成装置。
2. An image synthesizing apparatus comprising: a plurality of imaging systems; and a display unit capable of displaying a plurality of subject images photographed by the plurality of imaging systems in a stereoscopic manner. Model information storage means for storing information; operating parameters including the orientation and position of the stored model information; and camera parameters including a focal length of the plurality of imaging systems and a distance between viewpoints. Calculation means for calculating rotation and movement of information; image generation means for generating a plurality of images of the model information for which rotation and movement have been calculated by perspective projection; and images for the generated plurality of model information and the plurality of images. An image synthesizing apparatus, comprising: image synthesizing means for synthesizing a subject image; and displaying the synthesized image stereoscopically on the display means.
【請求項3】 前記複数の被写体画像の視差により該被
写体画像の奥行きを抽出する奥行き抽出手段を備え、 前記画像合成手段は、該抽出された被写体画像の奥行き
に基づき、前記生成されたモデル情報の画像と前記被写
体画像とを合成することを特徴とする請求項1または請
求項2記載の画像合成装置。
3. The apparatus according to claim 1, further comprising a depth extracting unit configured to extract a depth of the subject image based on a parallax of the plurality of subject images, wherein the image combining unit is configured to generate the model information based on the extracted depth of the subject image. The image synthesizing apparatus according to claim 1, wherein the image is synthesized with the subject image.
【請求項4】 異なる視点で撮影された視野の重なる複
数の被写体画像とコンピュータで作成された三次元情報
を表すモデル画像とを合成する画像合成方法において、 前記三次元構造を表すモデル情報を記憶しておく工程
と、 該記憶されたモデル情報の向き、位置を含む操作パラメ
ータと、前記複数の撮像系の焦点距離、視点間の距離を
含むカメラパラメータとを用いて、前記モデル情報の回
転、移動を算出する工程と、 該回転、移動が算出されたモデル情報の画像を透視投影
によって複数生成する工程と、 該生成された複数のモデル情報の画像と前記複数の被写
体画像とを合成する工程と、 該合成された画像を立体視表示する工程とを備えたこと
を特徴とする画像合成方法。
4. An image synthesizing method for synthesizing a plurality of subject images having overlapping visual fields photographed from different viewpoints and a model image representing three-dimensional information created by a computer, wherein the model information representing the three-dimensional structure is stored. Using the operation parameters including the orientation and the position of the stored model information, the focal lengths of the plurality of imaging systems, and the camera parameters including the distance between viewpoints. Calculating the movement; generating a plurality of images of the model information for which the rotation and movement have been calculated by perspective projection; and combining the generated plurality of model information images with the plurality of subject images. And a step of stereoscopically displaying the synthesized image.
【請求項5】 前記複数の被写体画像の視差により該被
写体画像の奥行きを抽出する工程を備え、 前記画像を合成する工程では、該抽出された被写体画像
の奥行きに基づき、前記生成されたモデル情報の画像と
前記被写体画像とを合成することを特徴とする請求項4
記載の画像合成方法。
5. The method according to claim 5, further comprising the step of extracting a depth of the subject image based on a parallax of the plurality of subject images, wherein the step of synthesizing the images includes generating the model information based on the depth of the extracted subject image. 5. The method according to claim 4, wherein the image of the subject and the subject image are combined.
The image synthesizing method as described above.
【請求項6】 異なる視点で撮影された視野の重なる複
数の被写体画像とコンピュータで作成された三次元情報
を表すモデル画像とを合成する際、 前記モデル情報の向き、位置を含む操作パラメータと、
前記複数の撮像系の焦点距離、視点間の距離を含むカメ
ラパラメータとを用いて、前記モデル情報の回転、移動
を算出するパラメータ算出モジュールと、 該回転、移動が算出されたモデル情報の画像を透視投影
によって複数生成する画像生成モジュールと、 該生成された複数のモデル情報の画像と前記複数の被写
体画像とを合成する画像合成モジュールとを含むコンピ
ュータに実行させるためのプログラムが格納されたこと
を特徴とする記憶媒体。
6. When compositing a plurality of subject images having overlapping visual fields taken from different viewpoints and a model image representing three-dimensional information created by a computer, an operation parameter including a direction and a position of the model information;
Using a focal length of the plurality of imaging systems, camera parameters including the distance between viewpoints, a parameter calculation module for calculating the rotation and movement of the model information, and an image of the rotation and movement calculated model information. A program to be executed by a computer including an image generation module that generates a plurality of images by perspective projection, and an image synthesis module that synthesizes the generated plurality of model information images and the plurality of subject images is stored. Characteristic storage medium.
【請求項7】 前記複数の被写体画像の視差により該被
写体画像の奥行きを抽出する奥行き抽出モジュールを含
み、 前記画像を合成する画像合成モジュールでは、該抽出さ
れた被写体画像の奥行きに基づき、前記生成されたモデ
ル情報の画像と前記被写体画像とを合成する前記プログ
ラムが格納されたことを特徴とする請求項6記載の記憶
媒体。
7. A depth synthesizing module for extracting a depth of the subject image based on a parallax of the plurality of subject images, wherein the image synthesizing module for synthesizing the images includes generating the depth based on the depth of the extracted subject image. 7. The storage medium according to claim 6, wherein the program for synthesizing the image of the model information and the subject image is stored.
JP15167597A 1997-05-27 1997-05-27 Image compositing device, its method and storage medium Pending JPH10336703A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15167597A JPH10336703A (en) 1997-05-27 1997-05-27 Image compositing device, its method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15167597A JPH10336703A (en) 1997-05-27 1997-05-27 Image compositing device, its method and storage medium

Publications (1)

Publication Number Publication Date
JPH10336703A true JPH10336703A (en) 1998-12-18

Family

ID=15523797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15167597A Pending JPH10336703A (en) 1997-05-27 1997-05-27 Image compositing device, its method and storage medium

Country Status (1)

Country Link
JP (1) JPH10336703A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285715A (en) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd Image synthesizer
WO2007018111A1 (en) * 2005-08-05 2007-02-15 Pioneer Corporation Image display device
WO2012060169A1 (en) * 2010-11-02 2012-05-10 シャープ株式会社 3d image display device and display adjustment method for same
WO2012169698A1 (en) * 2011-06-10 2012-12-13 주식회사 넥서스칩스 Device and method for generating a stereoscopic augmented reality image by using a stereoscopic 3d image and gpu
WO2013005816A1 (en) * 2011-07-01 2013-01-10 Sharp Kabushiki Kaisha Mobile device
JP2013520924A (en) * 2010-02-24 2013-06-06 トムソン ライセンシング Subtitles for stereoscopic video
US8666143B2 (en) 2010-02-03 2014-03-04 Samsung Electronics Co., Ltd. Image processing apparatus and method
JP2015080199A (en) * 2013-09-11 2015-04-23 ソニー株式会社 Image processor and method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285715A (en) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd Image synthesizer
WO2007018111A1 (en) * 2005-08-05 2007-02-15 Pioneer Corporation Image display device
JPWO2007018111A1 (en) * 2005-08-05 2009-02-19 パイオニア株式会社 Image display device
JP4651672B2 (en) * 2005-08-05 2011-03-16 パイオニア株式会社 Image display device
US8264477B2 (en) 2005-08-05 2012-09-11 Pioneer Corporation Image display apparatus
US8666143B2 (en) 2010-02-03 2014-03-04 Samsung Electronics Co., Ltd. Image processing apparatus and method
JP2013520924A (en) * 2010-02-24 2013-06-06 トムソン ライセンシング Subtitles for stereoscopic video
WO2012060169A1 (en) * 2010-11-02 2012-05-10 シャープ株式会社 3d image display device and display adjustment method for same
JP5512821B2 (en) * 2010-11-02 2014-06-04 シャープ株式会社 Stereoscopic image display device and display adjustment method thereof
KR101242764B1 (en) 2011-06-10 2013-03-13 주식회사 넥서스칩스 Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu
WO2012169698A1 (en) * 2011-06-10 2012-12-13 주식회사 넥서스칩스 Device and method for generating a stereoscopic augmented reality image by using a stereoscopic 3d image and gpu
WO2013005816A1 (en) * 2011-07-01 2013-01-10 Sharp Kabushiki Kaisha Mobile device
US8837813B2 (en) 2011-07-01 2014-09-16 Sharp Laboratories Of America, Inc. Mobile three dimensional imaging system
JP2015080199A (en) * 2013-09-11 2015-04-23 ソニー株式会社 Image processor and method
US10587864B2 (en) 2013-09-11 2020-03-10 Sony Corporation Image processing device and method

Similar Documents

Publication Publication Date Title
JP5214826B2 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
US8243123B1 (en) Three-dimensional camera adjunct
JP5036132B2 (en) Critical alignment of parallax images for autostereoscopic display
JP2883265B2 (en) Image processing device
US5835133A (en) Optical system for single camera stereo video
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JP4072330B2 (en) Display device and information processing method
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
JP3691444B2 (en) Stereo imaging device
JP4156893B2 (en) Image processing apparatus, method, and program
JPH1127703A (en) Display device and its control method
JP2011035509A (en) Compound-eye photographing apparatus, and control method for the same
US8345085B2 (en) Method and apparatus for generating files for stereographic image display and method and apparatus for controlling stereographic image display
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
JP3724117B2 (en) Image generating apparatus and image generating method
KR100321897B1 (en) Stereoscopic image conversion method and apparatus
KR101212223B1 (en) Device taking a picture and method to generating the image with depth information
JPH10336703A (en) Image compositing device, its method and storage medium
JPH1188912A (en) Compound eye camera and display control method for the compound eye camera
JP2006267767A (en) Image display device
JPS63142991A (en) Panoramic image synthesizing system
JPH089422A (en) Stereoscopic image output device
JP4006105B2 (en) Image processing apparatus and method
JP7011728B2 (en) Image data output device, content creation device, content playback device, image data output method, content creation method, and content playback method
JPH03179994A (en) Method and device for displaying picture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040524

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060627