JPH09322040A - Image generator - Google Patents

Image generator

Info

Publication number
JPH09322040A
JPH09322040A JP8133646A JP13364696A JPH09322040A JP H09322040 A JPH09322040 A JP H09322040A JP 8133646 A JP8133646 A JP 8133646A JP 13364696 A JP13364696 A JP 13364696A JP H09322040 A JPH09322040 A JP H09322040A
Authority
JP
Japan
Prior art keywords
image
images
synthesizing
unit
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8133646A
Other languages
Japanese (ja)
Other versions
JP3817302B2 (en
Inventor
Tatsushi Katayama
達嗣 片山
Kotaro Yano
光太郎 矢野
Hideo Takiguchi
英夫 滝口
Kenji Hatori
健司 羽鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP13364696A priority Critical patent/JP3817302B2/en
Priority to US08/864,470 priority patent/US6389179B1/en
Publication of JPH09322040A publication Critical patent/JPH09322040A/en
Priority to US10/101,222 priority patent/US6788828B2/en
Application granted granted Critical
Publication of JP3817302B2 publication Critical patent/JP3817302B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the image generator in which panorama images with high image quality are simply obtained at all times. SOLUTION: A detection means 190 detects image pickup conditions used for picking up an image of an object by an image pickup means in a way that the object is picked up as a plurality of images where part of adjacent images is overlapped. A storage means 130 stores a series of images obtained by the image pickup means 110 and stores the image pickup conditions obtained by the detection means 190 in cross reference with each image. An image synthesis means 172 selects adaptively a plurality of synthesis means based on the image pickup condition corresponding to each image to generate a synthesized image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、パノラマ撮影モー
ドを有する電子カメラシステム等に用いて好適な画像生
成装置に関し、特に、画像の一部が重複する複数の画像
を接合させてパノラマ画像を生成する画像生成装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating apparatus suitable for use in an electronic camera system or the like having a panoramic image capturing mode, and in particular, a panoramic image is generated by joining a plurality of images which partially overlap each other. The present invention relates to an image generating device that does.

【0002】[0002]

【従来の技術】従来より、画界の一部が重複するように
撮影して得られた複数の画像を合成してパノラマ画像
(以下、合成画像とも言う)を生成する画像生成装置と
して、例えば、特開平5−122606に開示されてい
る画像合成処理装置がある。この画像合成処理装置は、
接合すべき複数の画像を互いに一部重複するように撮影
し、接合される画像の端部の領域の輝度差又は色度差を
求め、輝度差又は色度差が「0」もしくは最小値を取る
領域を重複するように連結することにより画像を合成す
る装置である。これにより、上記画像合成処理装置は、
複数の画像を接合するための撮像装置や撮像対象を精密
に移動させて位置決めする必要がないため簡便で、しか
も画像間に輝度差又は色度差を用いて連結位置を求める
ため、正確に連結性を失うことなく画像を合成すること
ができる。
2. Description of the Related Art Conventionally, as an image generating apparatus for generating a panoramic image (hereinafter, also referred to as a combined image) by combining a plurality of images obtained by photographing so that a part of the field of view overlaps, for example, There is an image composition processing device disclosed in Japanese Patent Laid-Open No. 5-122606. This image composition processing device
A plurality of images to be joined are photographed so as to partially overlap each other, and the luminance difference or chromaticity difference of the end regions of the images to be joined is obtained. The luminance difference or chromaticity difference is set to "0" or the minimum value. This is a device that synthesizes images by connecting overlapping areas so that they overlap. As a result, the image composition processing device
It is simple because there is no need to precisely move and position the imaging device or the imaging target for joining multiple images, and the connection position is determined using the brightness difference or chromaticity difference between the images, so that the connection is accurate. Images can be combined without loss of sex.

【0003】また、上述のような画像生成装置におい
て、画界の一部が重複するように撮影して得られた複数
の画像から画角の広いパノラマ画像を生成する場合、2
つの画像の重複する領域内の同一な点が一致するように
アフィン変換等の幾何学変換を行って2つの画像を平面
上で連結する、という処理が行われる。具体的に説明す
ると、まず、カメラを水平方向にパンニングして2つの
画像を撮影する場合、図35に示すように、カメラレン
ズの被写体側の主点Oをパンニング動作の際に略一致さ
せるようにして撮影する。ここで、上記図35におい
て、I1,I2は、各々パンニング動作前後の撮像面で
あり、h1はパンニング動作前に撮影した画像の水平方
向の視野、h2はパンニング動作後に撮影した画像の水
平方向の視野である。そこで、カメラレンズの水平視野
の角度を「θ」とすると、撮像面I1,I2から各々左
右に「θ」の広さの視野の画像が得られる。したがっ
て、2つの画像の重複する角度を「α」とすると、2つ
の画像から得られる画像の水平方向の視野は、(2θ−
α)となる。このとき、2つの撮像面I1,I2に対し
て略均等な角度でカメラの前に長方形の枠がある平面が
存在する場合、2つの撮像面I1,I2の画像は、図3
6に示すような画像a,bとなる。この2つの画像a,
bにマフィン変換処理を行い、例えば、拡大及び画像平
面内での回転を含まない平行移動のみで2つの画像a,
bを合成すると、図37に示すような合成画像abが得
られる。
Further, in the image generating apparatus as described above, when a panoramic image having a wide angle of view is generated from a plurality of images obtained by photographing so that part of the field of view overlaps, 2
A process of connecting two images on a plane by performing geometric transformation such as affine transformation so that the same points in the overlapping regions of the two images coincide with each other is performed. More specifically, first, when the camera is panned in the horizontal direction to capture two images, as shown in FIG. 35, the principal point O on the subject side of the camera lens is made to substantially match during the panning operation. And shoot. Here, in FIG. 35, I1 and I2 are the image pickup surfaces before and after the panning operation, h1 is the horizontal visual field of the image taken before the panning operation, and h2 is the horizontal direction of the image taken after the panning operation. The field of view. Therefore, assuming that the angle of the horizontal field of view of the camera lens is “θ”, an image with a field of view of “θ” to the left and right is obtained from the imaging planes I1 and I2. Therefore, when the overlapping angle of the two images is “α”, the horizontal field of view of the images obtained from the two images is (2θ−
α). At this time, when there is a plane with a rectangular frame in front of the camera at substantially equal angles with respect to the two imaging planes I1 and I2, the images of the two imaging planes I1 and I2 are as shown in FIG.
Images a and b as shown in FIG. These two images a,
A muffin transformation process is performed on b, and for example, two images a, a are obtained only by a translation without enlargement and rotation in the image plane.
When b is combined, a combined image ab as shown in FIG. 37 is obtained.

【0004】しかし、上述のようにして得られた合成画
像abは、上記図37に示すように、重複部分Pabにお
いて枠線が二重に生じてしまい、不自然な画像になって
しまっていた。これは、撮影時での2つの撮像面I1,
I2が空間的に1つの平面内に存在しないため、画像平
面内での平行移動、拡大及び画像平面内での回転では、
正確に画像を合成できないためである。
However, as shown in FIG. 37, the composite image ab obtained as described above has double frame lines in the overlapping portion P ab , resulting in an unnatural image. It was This is because the two imaging planes I1,
Since I2 is not spatially in one plane, translation in the image plane, magnification, and rotation in the image plane result in
This is because the images cannot be combined accurately.

【0005】そこで、上述のような重複部分Pabでの画
像の不自然さを解消するために、特開平5−14751
には、画像の一部が重複するように撮影して得られた複
数の画像を円柱面上に投影して幾何学変換することによ
り画像を合成するパノラマ画像取り込み装置が開示され
ている。このパノラマ画像取り込み装置によれば、2つ
の撮像面I1,I2の各画像a,bを一旦共通の円柱面
上に投影変換することにより、重複部分Pabで枠線が
2重に生じる様なことなく、不自然さのない合成画像を
得ることができる。
Therefore, in order to eliminate the unnaturalness of the image in the overlapping portion P ab as described above, Japanese Unexamined Patent Publication No. 5-14751.
Discloses a panoramic image capturing device that synthesizes images by projecting a plurality of images obtained by shooting so that a part of the images are overlapped on a cylindrical surface and performing geometric conversion. According to this panoramic image capturing device, the images a and b of the two image pickup surfaces I1 and I2 are once projected and converted onto a common cylindrical surface, so that a frame line is doubled in the overlapping portion Pab. In addition, a synthetic image without unnaturalness can be obtained.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、各画像
の重複部の輝度差又は色度差が「0」もしくは最小値を
取る領域を接合して各画像を合成するような従来の画像
生成装置は、輝度差又は色度差が「0」もしくは最小値
を取る領域を単純に接合していたため、接合する画像に
対して接合される画像が回転している画像であったり、
接合する画像と接合される画像の間に倍率比が生じてい
る場合には、合成画像の画質が著しく低下してしまって
いた。
However, a conventional image generating apparatus that joins the images by joining the regions in which the luminance difference or the chromaticity difference of the overlapping portions of the images is "0" or the minimum value is combined with each other. , The area where the luminance difference or the chromaticity difference is “0” or the minimum value is simply joined, so that the image to be joined is a rotated image,
When a magnification ratio is generated between the image to be joined and the image to be joined, the image quality of the composite image is significantly deteriorated.

【0007】また、各画像を円柱面に投影し幾何学変換
して各画像を合成するような従来の画像生成装置は、例
えば、水平方向及び垂直方向の両方向にパンニンングし
て撮影して得られた複数の画像を合成した場合、平行移
動のみを行って得られた上記図37の合成画像abと同
様に、合成画像の重複部分において枠線が二重に生じる
ような不自然な画像となってしまっていた。例えば、長
方形の枠を4回のフレーミングで撮影した場合、図38
に示すような4つの画像c1〜c4が得られる。そこ
で、円柱面上への画像の投影は行わずに平行移動のみで
画像c1〜c4を合成すると、図39に示すように、重
複部分Pcにおいて枠線が二重に生じるような不自然な
合成画像cとなり、一旦円柱面上への画像の投影を行っ
て平行移動して画像c1〜c4を合成した場合も、図4
0に示すように、重複部分Pc’において枠線が二重に
生じるような不自然な合成画像c’となってしまってい
た。また、このことは、パンして撮影して得られた2つ
の画像を水平方向に合成する場合においても、撮影時に
多少のカメラのチルトが生じた場合には合成画像の重複
部分において枠線が二重に生じるような不自然な画像に
なってしまうことを意味している。
Further, a conventional image generating apparatus for projecting each image on a cylindrical surface and geometrically transforming each image to synthesize each image is obtained by, for example, panning in both horizontal and vertical directions and photographing. When a plurality of images are combined, as in the case of the composite image ab in FIG. 37 obtained by performing only parallel movement, an unnatural image in which a frame line is doubled in the overlapping portion of the composite images is obtained. It was dead. For example, when a rectangular frame is photographed by framing four times, FIG.
Four images c1 to c4 as shown in are obtained. Therefore, if the images c1 to c4 are combined only by the parallel movement without projecting the image on the cylindrical surface, as shown in FIG. 39, an unnatural combination such that a frame line is doubled in the overlapping portion Pc. When the image becomes the image c, and the image is once projected on the cylindrical surface and is moved in parallel to synthesize the images c1 to c4, FIG.
As shown in 0, an unnatural composite image c ′ in which a frame line is doubled in the overlapping portion Pc ′ is generated. In addition, this means that even when two images obtained by panning and shooting are combined in the horizontal direction, if a slight camera tilt occurs during shooting, a frame line will appear in the overlapping portion of the combined images. This means that an unnatural image will appear that will occur twice.

【0008】そこで、本発明は、上記の欠点を除去する
ために成されたもので、常に高画質のパノラマ画像を簡
便に得る画像生成装置を提供することを目的とする。
Therefore, the present invention has been made in order to eliminate the above-mentioned drawbacks, and an object of the present invention is to provide an image generating apparatus which can always easily obtain a high quality panoramic image.

【0009】[0009]

【課題を解決するための手段】本発明に係る画像生成装
置は、画面の一部が重複するように被写体像を複数画面
に分割して撮影し、上記撮影手段で得られた一連の複数
の画像を合成して合成画像を生成する画像生成装置であ
って、撮影時の撮影条件を検出する検出手段と、上記撮
影手段で得られた複数の画像と共に各画像に対応して上
記検出手段により検出された撮影条件を記憶する記憶手
段と、上記記憶手段に記憶された一連の複数の画像を合
成して合成画像を生成する画像合成手段と、上記画像合
成手段を制御する制御手段とを備え、上記画像合成手段
は、上記撮影条件に対応した複数の合成手段からなり、
上記制御手段は、各画像に対応する撮影条件に基づいて
上記複数の合成手段を選択的に切り替え、上記制御手段
により選択的に切り替えられた合成手段は、一連の複数
の画像を合成することを特徴とする。また、本発明に係
る画像生成装置は、上記画像合成手段に、各画像の重複
部分における対応点を検出する対応点検出手段と、各画
像に座標変換処理を施して合成画像を生成する座標変換
手段と、上記対応点検出手段で検出された対応点に基い
て撮影パラメータを生成するパラメータ生成手段とを設
け、上記座標変換手段は、上記パラメータ生成手段で生
成された撮影パラメータを用いて上記座標変換処理を行
うことを特徴とする。また、本発明に係る画像生成装置
は、上記検出手段により、撮影条件として撮影時の焦点
位置情報を検出し、上記画像合成手段は、近距離撮影に
より得られた一連の複数の画像を合成する近距離合成手
段と、遠距離撮影により得られた一連の複数の画像を合
成する遠距離合成手段とを備え、上記制御手段は、各画
像に対応する焦点位置情報により合成する一連の複数の
画像が近距離撮影により得られたものであるか遠距離撮
影により得られたものであるかを判別し、その判別結果
に基づいて上記近距離合成手段と上記遠距離合成手段を
選択的に切り替えることを特徴とする。また、本発明に
係る画像生成装置は、上記画像合成手段に、各画像に対
応する撮影条件に基づいて各画像の重複部分の画素値を
変換する変換手段を設けることを特徴とする。また、本
発明に係る画像生成装置は、上記検出手段により、撮影
条件として撮影時の露出情報を検出し、上記変換手段
は、各画像に対応する露出情報に基づいて各画像の重複
部分の濃度レベルを補正することを特徴とする。また、
本発明に係る画像生成装置は、上記画像合成手段に、各
画像に対応する撮影条件に基づいて各画像を球面上に投
影変換して球面投影画像を生成する球面投影変換手段を
設け、上記球面投影変換手段で得られた複数の球面投影
画像を合成することを特徴とする。また、本発明に係る
画像生成装置は、上記球面投影変換手段により、撮影時
の焦点位置を中心とする球面に投影変換することを特徴
とする。また、本発明に係る画像生成装置は、上記画像
合成手段に、上記球面投影変換手段で得られた複数の球
面投影画像を合成した合成画像を平面上に投影変換して
平面投影合成画像を生成する平面投影変換手段を設ける
ことを特徴とする。また、本発明に係る画像生成装置
は、上記画像合成手段に、処理対象となる画像が上記球
面投影画像であるか上記平面投影合成画像であるかを示
す投影面タイプ情報を上記画像に付加する付加手段を設
けることを特徴とする。また、本発明に係る画像生成装
置は、上記画像合成手段に、上記球面投影変換手段で得
られた複数の球面投影画像を合成した合成画像の視野に
応じて、上記合成画像と上記平面投影合成画像を選択的
に切り換えて出力する出力手段を設けることを特徴とす
る。また、本発明に係る画像生成装置は、上記撮影手段
に、複数の撮像手段を設け、上記検出手段により検出さ
れた撮影条件に基づいて上記複数の撮像手段の各光軸の
向きを制御する光軸制御手段とを備えることを特徴とす
る。また、本発明に係る画像生成装置は、複数の撮影画
像を合成して一枚の画像を生成する画像生成装置であっ
て、パノラマ撮影モードを設定する手段と、装置の角度
を検出する手段と、パノラマ撮影モードにより撮影して
得られた複数の撮影画像と共に上記角度の情報を保持す
る手段と、上記複数の撮影画像を合成する手段を備え、
上記複数の撮影画像を合成する際に、上記角度の情報に
基づいて適応的に合成方式を切り換えることを特徴とす
る。また、本発明に係る画像生成装置は、複数の撮影画
像を合成して一枚の画像を生成する画像生成装置であっ
て、パノラマ撮影モードを設定する手段と、装置の位置
を検出する手段と、パノラマ撮影モードにより撮影して
得られた複数の撮影画像と共に上記位置の情報を保持す
る手段と、上記複数の撮影画像を合成する手段を備え、
上記複数の撮影画像を合成する際に、上記位置の情報に
基づいて適応的に合成方式を切り換えることを特徴とす
る。
An image generating apparatus according to the present invention divides an image of a subject into a plurality of screens so that a part of the screens overlaps each other, and photographs the images. An image generating apparatus for synthesizing images to generate a synthetic image, comprising: detecting means for detecting photographing conditions at the time of photographing; and a plurality of images obtained by the photographing means together with the detecting means corresponding to each image. The image forming apparatus includes a storage unit that stores the detected shooting conditions, an image combining unit that combines a series of images stored in the storage unit to generate a combined image, and a control unit that controls the image combining unit. , The image synthesizing means comprises a plurality of synthesizing means corresponding to the photographing conditions,
The control means selectively switches the plurality of synthesizing means based on shooting conditions corresponding to each image, and the synthesizing means selectively switched by the control means is configured to synthesize a series of a plurality of images. Characterize. Further, in the image generating apparatus according to the present invention, the image synthesizing means includes corresponding point detecting means for detecting corresponding points in overlapping portions of the images, and coordinate transformation for subjecting each image to coordinate transformation processing to generate a synthesized image. Means and parameter generating means for generating a photographing parameter based on the corresponding point detected by the corresponding point detecting means, and the coordinate converting means uses the photographing parameter generated by the parameter generating means for the coordinates. It is characterized in that conversion processing is performed. Further, in the image generating apparatus according to the present invention, the detecting unit detects the focus position information at the time of photographing as the photographing condition, and the image synthesizing unit synthesizes a series of a plurality of images obtained by the close-range photographing. The control means includes a short-distance synthesizing unit and a long-distance synthesizing unit that synthesizes a series of a plurality of images obtained by long-distance shooting, and the control unit includes a series of a plurality of images that are synthesized based on focal position information corresponding to each image Is determined by close-up photography or long-distance photography, and selectively switches between the short-distance synthesis means and the long-distance synthesis means based on the determination result. Is characterized by. Further, the image generating apparatus according to the present invention is characterized in that the image synthesizing means is provided with a converting means for converting a pixel value of an overlapping portion of each image based on a photographing condition corresponding to each image. Further, in the image generating apparatus according to the present invention, the detecting unit detects the exposure information at the time of shooting as the shooting condition, and the converting unit determines the density of the overlapping portion of each image based on the exposure information corresponding to each image. It is characterized by correcting the level. Also,
In the image generating apparatus according to the present invention, the image synthesizing means is provided with a spherical projection converting means for projecting and converting each image onto a spherical surface based on a photographing condition corresponding to each image to generate a spherical projection image, It is characterized in that a plurality of spherical projection images obtained by the projection conversion means are combined. Further, the image generating apparatus according to the present invention is characterized in that the spherical surface projection conversion means performs projection conversion to a spherical surface having a focus position at the time of photographing as a center. Further, the image generating apparatus according to the present invention generates a plane projection composite image by projecting the composite image obtained by combining the plurality of spherical projection images obtained by the spherical projection converting unit onto the plane by the image combining unit to convert the image onto a plane. It is characterized in that a plane projection conversion means is provided. Further, the image generating apparatus according to the present invention adds, to the image combining means, projection plane type information indicating whether the image to be processed is the spherical projection image or the plane projection combined image, to the image. It is characterized in that additional means is provided. Further, the image generating apparatus according to the present invention is configured such that the composite image and the plane projection composition are combined with the image composition means in accordance with the field of view of the composite image obtained by combining the plurality of spherical projection images obtained by the spherical projection conversion means. It is characterized in that an output means for selectively switching and outputting an image is provided. Further, in the image generating apparatus according to the present invention, a plurality of image pickup means is provided in the image pickup means, and an optical system for controlling the direction of each optical axis of the plurality of image pickup means based on the image pickup condition detected by the detection means. And axis control means. Further, an image generating apparatus according to the present invention is an image generating apparatus that synthesizes a plurality of captured images to generate one image, and means for setting a panoramic shooting mode, and means for detecting an angle of the apparatus. A means for holding the angle information together with a plurality of shot images obtained by shooting in the panorama shooting mode, and a means for synthesizing the plurality of shot images,
When synthesizing the plurality of captured images, the synthesizing method is adaptively switched based on the angle information. Further, an image generating apparatus according to the present invention is an image generating apparatus that synthesizes a plurality of captured images to generate one image, and includes means for setting a panoramic shooting mode, and means for detecting the position of the apparatus. A means for holding the position information together with a plurality of shot images obtained by shooting in the panorama shooting mode, and means for synthesizing the plurality of shot images,
When synthesizing the plurality of captured images, the synthesizing method is adaptively switched based on the position information.

【0010】[0010]

【作用】本発明によれば、撮影手段で被写体像を撮影す
る際の撮影条件を検出手段により検出する。記憶手段
は、上記撮影手段により得られた一連の複数の画像を記
憶すると共に、上記検出手段により得られた撮影条件を
各画像に対応させて記憶する。そして、制御手段は、各
画像に対応する撮影条件に基づいて、複数の合成手段を
適応的に切り換える。これにより、合成する一連の複数
の画像に対して、適切な合成手段が選択され、適切な合
成処理が行われる。また、本発明によれば、対応点検出
手段は、合成する一連の複数の画像の重複部分における
対応点を検出する。パラメータ生成手段は、座標変換手
段で合成処理を行う際に用いる撮影パラメータを、上記
対応点検出手段で検出された対応点に基づいて生成す
る。そして、上記座標変換手段は、上記パラメータ生成
手段で得られた撮影パラメータを用いて合成処理を行
う。また、本発明によれば、上記検出手段は、撮影条件
として撮影時の焦点位置情報を検出する。したがって、
上記記憶手段には、各画像に対応して焦点位置情報が記
憶される。上記制御手段は、合成する一連の複数の画像
に対応した焦点位置情報により、それらの画像が近距離
撮影により得られたものであるか、又は遠距離撮影によ
り得られたものであるかを判定する。そして、制御手段
は、その判定結果により、近距離撮影であった場合には
近距離合成手段を選択し、遠距離撮影であった場合には
遠距離合成手段を選択する。これにより、近距離撮影で
得られた一連の複数の画像は、上記近距離合成手段で適
切な合成処理により合成され、遠距離撮影で得られた一
連の複数の画像は、上記遠距離合成手段で適切な合成処
理により合成される。また、本発明によれば、変換手段
は、合成する一連の複数の画像に対応する撮影条件に基
づいて、各画像の重複部分の画素値を変換する。これに
より、隣り合う各画像の連結部付近の画像が変換され
る。また、本発明によれば、上記検出手段は、撮影条件
として撮影時の露出情報を検出する。したがって、上記
記憶手段には、各画像に対応して焦点位置情報が記憶さ
れる。上記変換手段は、合成する一連の複数の画像に対
応する露出情報に基づいて、各画像の重複部分の濃度レ
ベルを補正する。また、本発明によれば、上記画像合成
手段は、合成する一連の複数の画像に対応する撮影条件
に基づいて、球面投影変換手段により得られた複数の球
面投影画像を合成する。また、本発明によれば、上記球
面投影変換手段は、撮影時の焦点位置を中心とする球面
に各画像を投影変換して、合成する複数の球面投影画像
を生成する。また、本発明によれば、上記画像合成手段
は、上記球面投影変換手段で得られた複数の球面投影画
像を合成し、平面投影変換手段により、その合成画像を
再度平面上に投影変換して平面投影合成画像を生成す
る。また、本発明によれば、付加手段は、上記球面投影
変換手段で得られた画像には、球面投影画像であること
を示す投影面タイプ情報を付加し、上記平面投影変換手
段で得られた画像には、平面投影合成画像であることを
示す投影面タイプ情報を付加する。また、本発明によれ
ば、上記画像合成手段は、上記球面投影変換手段で得ら
れた複数の球面投影画像を合成し、その合成画像の視野
に応じて、出力手段により上記合成画像と上記平面投影
合成画像を選択的に切り換えて出力する。また、本発明
によれば、光軸制御手段は、上記検出手段により検出さ
れた撮影条件に基づいて複数の撮像手段の各光軸の向き
を制御する。したがって、上記複数の撮像手段により、
画像の一部が重複するように分割して撮影される。ま
た、本発明によれば、装置の角度を検出し、その角度の
情報をパノラマ撮影モードにより撮影して得られた各画
像と共に保持する。そして、各画像を合成する際には、
上記角度の情報に基づいて、適応的に合成方式を切り換
える。これにより、装置の角度に対して最適な合成方式
で画像合成処理が行われる。また、本発明によれば、装
置の位置を検出し、その位置の情報をパノラマ撮影モー
ドにより撮影して得られた各画像と共に保持する。そし
て、各画像を合成する際には、上記位置の情報に基づい
て、適応的に合成方式を切り換える。これにより、装置
の位置に対して最適な合成方式で画像合成処理が行われ
る。
According to the present invention, the photographing condition for photographing the subject image by the photographing means is detected by the detecting means. The storage means stores a series of a plurality of images obtained by the photographing means, and also stores the photographing condition obtained by the detecting means in association with each image. Then, the control means adaptively switches the plurality of synthesizing means based on the photographing condition corresponding to each image. As a result, an appropriate combining means is selected and an appropriate combining process is performed on a series of a plurality of images to be combined. Further, according to the present invention, the corresponding point detecting means detects a corresponding point in an overlapping portion of a plurality of images to be combined. The parameter generating means generates a photographing parameter used when the synthesizing process is performed by the coordinate converting means, based on the corresponding points detected by the corresponding point detecting means. Then, the coordinate conversion means performs a combining process using the shooting parameters obtained by the parameter generation means. Further, according to the present invention, the detection means detects focus position information at the time of shooting as the shooting condition. Therefore,
The storage unit stores focus position information corresponding to each image. The control means determines, based on focus position information corresponding to a series of a plurality of images to be combined, whether those images are obtained by short-distance photographing or long-distance photographing. To do. Then, according to the determination result, the control means selects the short-distance combining means when the short-distance photographing is performed, and selects the long-distance combining means when the long-distance photographing is performed. Thereby, the series of plural images obtained by the short-distance photographing are combined by the short-distance combining means by an appropriate combining process, and the series of plural images obtained by the long-distance photographing are combined by the long-distance combining means. Are combined by an appropriate combining process. Further, according to the present invention, the conversion means converts the pixel value of the overlapping portion of each image based on the shooting condition corresponding to the series of plural images to be combined. As a result, the image in the vicinity of the connecting portion between the adjacent images is converted. Further, according to the present invention, the detection means detects exposure information at the time of shooting as a shooting condition. Therefore, the focus position information is stored in the storage means in association with each image. The converting means corrects the density level of the overlapping portion of each image based on the exposure information corresponding to the series of plural images to be combined. Further, according to the present invention, the image synthesizing means synthesizes the plurality of spherical projection images obtained by the spherical projection converting means on the basis of shooting conditions corresponding to a series of plural images to be synthesized. Further, according to the present invention, the spherical projection conversion means project-converts each image into a spherical surface centered on the focus position at the time of shooting to generate a plurality of spherical projection images to be combined. Further, according to the present invention, the image synthesizing means synthesizes a plurality of spherical projection images obtained by the spherical projection transforming means, and the plane projection transforming means projects and transforms the synthesized image again on a plane. Generate a plane projection composite image. Further, according to the present invention, the adding means adds projection plane type information indicating that the image is the spherical projection image to the image obtained by the spherical projection converting means, and obtains by the plane projection converting means. Projection plane type information indicating that the image is a plane projection composite image is added to the image. Further, according to the present invention, the image synthesizing means synthesizes a plurality of spherical projection images obtained by the spherical projection converting means, and outputs the synthetic image and the plane according to the visual field of the synthetic image. The projected composite image is selectively switched and output. Further, according to the present invention, the optical axis control means controls the direction of each optical axis of the plurality of image pickup means based on the photographing condition detected by the detection means. Therefore, by the plurality of imaging means,
The image is divided and captured so that some of the images overlap. Further, according to the present invention, the angle of the device is detected, and the information on the angle is held together with each image obtained by photographing in the panoramic photographing mode. And when synthesizing each image,
The synthesizing method is adaptively switched based on the angle information. As a result, the image synthesizing process is performed by the synthesizing method optimal for the angle of the device. Further, according to the present invention, the position of the device is detected, and the information on the position is held together with each image obtained by photographing in the panoramic photographing mode. Then, when synthesizing each image, the synthesizing method is adaptively switched based on the information on the position. As a result, the image synthesizing process is performed in the optimal synthesizing method for the position of the device.

【0011】[0011]

【発明の実施の形態】まず、本発明の第1の実施の形態
について図面を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION First, a first embodiment of the present invention will be described with reference to the drawings.

【0012】本発明に係る画像生成装置は、例えば、図
1に示すような電子カメラシステム100に適用され
る。この電子カメラシステム100は、例えば、撮影し
た被写体のRGB成分の輝度情報としての各画素データ
が二次元配列のディジタル画素データとして得られる電
子スチルカメラからなる。また、電子カメラシステム1
00において、画像合成処理部172は、計算機からな
り、この画像合成処理部172は、予め設定されたプロ
グラムに従って動作するようになされている。さらに、
画像合成処理部172は、外部記憶装置である画像メモ
リ130を有しており、画像メモリ130は、上記ディ
ジタル画素データを記憶するようになされている。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system 100 as shown in FIG. The electronic camera system 100 is, for example, an electronic still camera in which each pixel data as luminance information of RGB components of a photographed subject is obtained as digital pixel data of a two-dimensional array. In addition, the electronic camera system 1
In 00, the image composition processing unit 172 is composed of a computer, and the image composition processing unit 172 operates according to a preset program. further,
The image composition processing unit 172 has an image memory 130 which is an external storage device, and the image memory 130 is adapted to store the digital pixel data.

【0013】すなわち、電子カメラ100は、上記図1
に示すように、撮像部110と、撮像部110の出力が
供給される映像信号処理部107と、映像信号処理部1
07の出力が各々供給される画像メモリ130、合焦検
出部142及び露出検出部143と、映像信号処理部1
07と接続されたホワイトバランス検出部141及び信
号処理ユニット190と、信号処理ユニット190の出
力が供給されるコントローラ120と、コントローラ1
20の出力が各々供給されるズーム制御部121、フォ
ーカス制御部122、絞り制御部123、シャッタ制御
部124及びフラッシュ制御部125と、信号処理ユニ
ット190に接続された撮影モード設定部160及び入
出力インターフェース(I/F)部170と、I/F部
170の出力が供給される画像合成処理部172と、画
像合成処理部172の出力が供給される表示部173と
を備えており、信号処理ユニット190の出力は撮像部
110及び画像メモリ130にも供給され、合焦検出部
142及び露出検出部143の各出力は信号処理ユニッ
ト190に供給され、画像メモリ130の出力はI/F
部170に供給されるようになされている。また、電子
カメラシステム100は、フラッシュ制御部125によ
り制御されるフラッシュ109と、レリーズボタン検出
部150とを備えており、レリーズボタン検出部150
の出力は信号処理ユニット190に供給されるようにな
されている。そして、撮像部110は、被写体側から順
次設けられた撮像レンズ101、絞り102、シャッタ
108及び撮像素子103と、撮像素子103の出力が
供給される増幅器104と、増幅器104の出力が供給
される自動利得制御(AGC)回路105と、AGC回
路105の出力が供給されるアナログ/ディジタル(A
/D)変換器106とを備えており、AGC回路105
に信号処理ユニット190の出力が供給され、A/D変
換器106の出力は映像信号処理部107に供給される
ようになされている。
That is, the electronic camera 100 is the same as that shown in FIG.
As shown in FIG. 1, the imaging unit 110, the video signal processing unit 107 to which the output of the imaging unit 110 is supplied, and the video signal processing unit 1
The image memory 130, the focus detection unit 142, the exposure detection unit 143, and the video signal processing unit 1 to which the outputs of 07 are respectively supplied.
07, the white balance detecting unit 141 and the signal processing unit 190, the controller 120 to which the output of the signal processing unit 190 is supplied, and the controller 1
The zoom control unit 121, the focus control unit 122, the aperture control unit 123, the shutter control unit 124, and the flash control unit 125 to which the outputs of 20 are respectively supplied, the shooting mode setting unit 160 connected to the signal processing unit 190, and the input / output. An interface (I / F) unit 170, an image synthesis processing unit 172 to which the output of the I / F unit 170 is supplied, and a display unit 173 to which the output of the image synthesis processing unit 172 is supplied are provided, and signal processing is performed. The output of the unit 190 is also supplied to the imaging unit 110 and the image memory 130, the outputs of the focus detection unit 142 and the exposure detection unit 143 are supplied to the signal processing unit 190, and the output of the image memory 130 is the I / F.
It is adapted to be supplied to the section 170. The electronic camera system 100 also includes a flash 109 controlled by the flash control unit 125 and a release button detection unit 150, and the release button detection unit 150.
Is output to the signal processing unit 190. The imaging unit 110 is supplied with the imaging lens 101, the diaphragm 102, the shutter 108, and the image sensor 103, which are sequentially provided from the subject side, the amplifier 104 to which the output of the image sensor 103 is supplied, and the output of the amplifier 104. An automatic gain control (AGC) circuit 105 and an analog / digital (A) to which the output of the AGC circuit 105 is supplied.
/ D) converter 106 and AGC circuit 105
The output of the signal processing unit 190 is supplied to the video signal processing unit 107, and the output of the A / D converter 106 is supplied to the video signal processing unit 107.

【0014】上述のような電子カメラシステム(以下、
単に電子カメラと言う)100は、撮影モード設定部1
60を操作することにより、通常撮影モード及びパノラ
マ撮影モードを設定することができるようになされてい
る。
The electronic camera system as described above (hereinafter,
100 is an electronic camera).
By operating 60, the normal photographing mode and the panoramic photographing mode can be set.

【0015】そこで、まず、電子カメラ100がパノラ
マ撮影モードに設定され、近距離の対象物、又は遠距離
の対象物をパノラマ撮影する場合についての概略を説明
する。
Therefore, first, the outline of the case where the electronic camera 100 is set to the panoramic image capturing mode and the object at a short distance or the object at a long distance is panoramic imaged will be described.

【0016】例えば、電子カメラ100で図2に示すよ
うな近距離の原稿10を撮影する場合、図3に示すよう
に、先ず、電子カメラ100を位置P11に設置して原
稿10の領域R11を撮影し、次に、電子カメラ100
を位置P12に設置して原稿10の領域R12を撮影す
る。このとき、領域R11と領域R12を互いに一部が
重複するように撮影する。したがって、位置P11での
撮影では、図4に示すような画像I11が得られ、位置
P12での撮影では、同図に示すような画像I12が得
られる。ここで、電子カメラ100では、近距離の対象
物をパノラマ撮影する(以下、近距離パノラマ撮影と言
う)場合、電子カメラ100を移動する際のパラメータ
として、上記図3に示すように、上下左右の並進Δx及
びΔyと、光軸回りの回転角θと、光軸に沿った並進に
よる倍率の変化fとを用い、画像I11と画像I12を
合成する際、上記パラメータに基づいて座標変換処理を
行うことにより、図5に示すような合成画像I13を得
ることができるようになされている。
For example, when the electronic camera 100 is used to photograph a document 10 at a short distance as shown in FIG. 2, first, the electronic camera 100 is installed at a position P11 so that the area R11 of the document 10 is located as shown in FIG. Take a picture, then electronic camera 100
Is set at the position P12 and the region R12 of the document 10 is photographed. At this time, the region R11 and the region R12 are photographed so as to partially overlap each other. Therefore, an image I11 as shown in FIG. 4 is obtained by the image pickup at the position P11, and an image I12 as shown in the same figure is obtained by the image pickup at the position P12. Here, in the electronic camera 100, when panoramic photographing of an object at a short distance (hereinafter referred to as short-distance panoramic photographing) is performed, as a parameter for moving the electronic camera 100, as shown in FIG. When the image I11 and the image I12 are combined, a coordinate conversion process is performed based on the above-mentioned parameters by using the translations Δx and Δy of A, the rotation angle θ around the optical axis, and the change f of the magnification due to the translation along the optical axis. By doing so, a composite image I13 as shown in FIG. 5 can be obtained.

【0017】一方、電子カメラ100で図6に示すよう
な遠距離の風景20をパノラマ撮影する場合、近距離パ
ノラマ撮影時とは異なり、電子カメラ100を上下左右
に並進させても撮影領域は殆どかわらない。このため、
上記図6に示すように、先ず、電子カメラ100を位置
P21に設置した状態において、座標系XYZ、各座標
軸まわりの回転角を「Ψ」、「Φ」及び「θ」とし、Y
軸まわりの回転(パン)あるいはX軸まわりの回転(チ
ルト)の動作を行うことにより、風景20の領域R21
を撮影する。また、位置P22及びP23においても、
位置P21の場合と同様にして、パンあるいはチルト動
作を行うことにより、風景20の領域R22及びR23
を撮影する。このとき、領域R21と領域R22を互い
に一部が重複するように、また、領域R22と領域R2
3を互いに一部が重複するように撮影する。したがっ
て、位置P21での撮影では、図7に示すような画像I
21が得られ、位置P22での撮影では、同図に示すよ
うな画像I22が得られ、位置P23での撮影では、同
図に示すような画像I23が得られる。ところで、遠距
離の対象物をパノラマ撮影する(以下、遠距離パノラマ
撮影と言う)場合、電子カメラ100をパンしながら撮
影するため、上記図7に示すように、風景20の中央の
領域R22に対応した画像I22を基準とした場合、風
景20の両端の領域R21、R23に対応した画像I2
1及びI23の被写体像に点線L21及びL23で示す
台形状の歪みが発生する。このような台形状の歪みは、
近距離パノラマ撮影時の画像合成処理では一般には考慮
されていないため、近距離パノラマ撮影時の画像合成処
理と同様にして3つの画像I21〜I23を合成する
と、画質劣化が生じた合成画像が得られることとなる。
そこで、この電子カメラ100では、遠距離パノラマ撮
影時には、電子カメラ100を移動する際のパラメータ
として、各座標軸まわりの回転角Ψ、Φ及びθを用い、
3つの画像I21〜I23を合成する際、上記パラメー
タに基づいて座標変換処理を行うことにより、図8に示
すような台形状の歪みのない合成画像I24を得ること
ができるようになされている。
On the other hand, in the case of panoramic photographing of a long-distance landscape 20 as shown in FIG. 6 with the electronic camera 100, unlike the short-distance panoramic photographing, even if the electronic camera 100 is translated vertically and horizontally, the photographing area is almost the same. Unchanged. For this reason,
As shown in FIG. 6, first, in the state where the electronic camera 100 is installed at the position P21, the coordinate system XYZ, the rotation angles around each coordinate axis are set to “Ψ”, “Φ”, and “θ”, and Y
The region R21 of the landscape 20 is rotated by rotating around the axis (pan) or rotating around the X axis (tilt).
To shoot. Also at positions P22 and P23,
Similar to the case of the position P21, by performing the pan or tilt operation, the regions R22 and R23 of the landscape 20 are obtained.
To shoot. At this time, the regions R21 and R22 are partially overlapped with each other, and the regions R22 and R2 are
3 is photographed so as to partially overlap each other. Therefore, in the shooting at the position P21, the image I as shown in FIG.
21 is obtained, and an image I22 as shown in the same figure is obtained by photographing at the position P22, and an image I23 as shown in the same figure is obtained by photographing at the position P23. By the way, in panoramic photographing of a long-distance target (hereinafter, referred to as long-distance panoramic photographing), since the electronic camera 100 is photographed while panning, as shown in FIG. 7, a central region R22 of the landscape 20 is displayed. When the corresponding image I22 is used as a reference, the image I2 corresponding to the regions R21 and R23 at both ends of the landscape 20 is displayed.
Trapezoidal distortions indicated by dotted lines L21 and L23 occur in the subject images 1 and I23. Such trapezoidal distortion is
Since this is not generally taken into consideration in the image compositing process at the time of short-distance panoramic photography, if the three images I21 to I23 are combined in the same manner as the image compositing process at the time of short-distance panoramic photography, a composite image with degraded image quality is obtained. Will be done.
Therefore, in this electronic camera 100, during long-distance panoramic photography, the rotation angles Ψ, Φ, and θ around each coordinate axis are used as parameters when moving the electronic camera 100.
When the three images I21 to I23 are combined, coordinate conversion processing is performed on the basis of the above parameters, so that a trapezoidal distortion-free combined image I24 as shown in FIG. 8 can be obtained.

【0018】すなわち、電子カメラ100は、パノラマ
撮影モード設定時において、撮影状態が近距離パノラマ
撮影又は遠距離パノラマ撮影であるかを判別し、その判
別結果に応じた画像合成処理を行うようになされてい
る。
That is, when the panoramic shooting mode is set, the electronic camera 100 determines whether the shooting state is short-distance panoramic shooting or long-distance panoramic shooting, and performs image synthesis processing according to the result of the determination. ing.

【0019】以下、上記図1を用いて、電子カメラ10
0について具体的に説明する。
Hereinafter, referring to FIG. 1, the electronic camera 10 will be described.
0 will be specifically described.

【0020】先ず、被写体像は、撮像レンズ101によ
り、絞り102を介して撮像素子103の受光面に投影
される。このとき、撮像レンズ101のズーム位置及び
フォーカス位置は、ズーム制御部121及びフォーカス
制御部122により制御され、絞り102の絞り量は、
絞り制御部123により制御される。
First, the subject image is projected by the image pickup lens 101 through the diaphragm 102 onto the light receiving surface of the image pickup element 103. At this time, the zoom position and the focus position of the imaging lens 101 are controlled by the zoom control unit 121 and the focus control unit 122, and the diaphragm amount of the diaphragm 102 is
It is controlled by the aperture control unit 123.

【0021】撮像素子103は、CCD(Charge
d Coupled Device)等からなり、受光
した被写体像を電気信号に変換して増幅器104に供給
する。増幅器104は、撮像素子103からの電気信号
(以下、映像信号と言う)を増幅してAGC回路105
に供給する。AGC回路105は、信号処理ユニット1
90からの制御信号に基づいて、増幅器104からの映
像信号を増幅又は減衰してA/D変換器106に供給す
る。A/D変換器106は、AGC回路105からの映
像信号をディジタル化して画像データとして映像信号処
理部107に供給する。このとき、信号処理ユニット1
90は、映像信号処理部107に供給された画像データ
の信号レベルを検出し、検出した信号レベルが所定のレ
ベルより低い場合には、AGC回路105で映像信号に
与える利得が上がるような制御信号を生成してAGC回
路105に供給し、検出した信号レベルが所定のレベル
より高い場合には、AGC回路105で映像信号に与え
る利得が下がるような制御信号を生成してAGC回路1
05に供給する。これにより、AGC回路105から出
力される映像信号は、映像信号処理部107で行われる
信号処理に適した所定のレベル幅の信号となる。
The image pickup element 103 is a CCD (Charge).
d Coupled Device) and the like, which converts the received subject image into an electric signal and supplies it to the amplifier 104. The amplifier 104 amplifies an electric signal (hereinafter, referred to as a video signal) from the image sensor 103 to amplify the AGC circuit 105.
To supply. The AGC circuit 105 is the signal processing unit 1
Based on the control signal from 90, the video signal from the amplifier 104 is amplified or attenuated and supplied to the A / D converter 106. The A / D converter 106 digitizes the video signal from the AGC circuit 105 and supplies it to the video signal processing unit 107 as image data. At this time, the signal processing unit 1
A control signal 90 detects the signal level of the image data supplied to the video signal processing unit 107, and when the detected signal level is lower than a predetermined level, the control signal for increasing the gain given to the video signal by the AGC circuit 105. Is generated and supplied to the AGC circuit 105, and when the detected signal level is higher than a predetermined level, the AGC circuit 105 generates a control signal for lowering the gain given to the video signal.
05. As a result, the video signal output from the AGC circuit 105 becomes a signal having a predetermined level width suitable for the signal processing performed by the video signal processing unit 107.

【0022】映像信号処理部107は、A/D変換器1
06からの画像データに所定の信号処理を施して画像メ
モリ130に記憶すると共に、ホワイトバランス検出部
141、合焦検出部142及び露出検出部143に各々
供給する。ホワイトバランス検出部141は、映像信号
処理部107からの画像データのホワイトバランスの状
態を検出し、その検出結果を映像信号処理部107に供
給する。合焦検出部142は、映像信号処理部107か
らの画像データから撮像レンズ101の焦点を検出し、
その検出結果を信号処理ユニット190に供給する。露
出検出部143は、映像信号処理部107からの画像デ
ータから撮像素子103における露光量を検出し、その
検出結果を信号処理ユニット190に供給する。
The video signal processing unit 107 includes an A / D converter 1
The image data from 06 is subjected to predetermined signal processing, stored in the image memory 130, and supplied to the white balance detection unit 141, the focus detection unit 142, and the exposure detection unit 143. The white balance detection unit 141 detects the white balance state of the image data from the video signal processing unit 107, and supplies the detection result to the video signal processing unit 107. The focus detection unit 142 detects the focus of the imaging lens 101 from the image data from the video signal processing unit 107,
The detection result is supplied to the signal processing unit 190. The exposure detection unit 143 detects the exposure amount in the image sensor 103 from the image data from the video signal processing unit 107, and supplies the detection result to the signal processing unit 190.

【0023】映像信号処理部107は、ホワイトバラン
ス検出部141からの検出結果に基づいて、A/D変換
器106からの画像データに対してカラーバランスの調
整を行う。したがって、画像メモリ130には、カラー
バランスの調整が行われた画像データが記憶されること
となる。信号処理ユニット190は、合焦検出部142
及び露出検出部143からの各検出結果に基づいて、撮
影条件設定のための制御信号を生成してコントローラ1
20に供給する。また、信号処理ユニット190は、後
述する撮影条件に関する情報を画像メモリ130に記憶
する。コントローラ120は、信号処理ユニット190
からの制御信号に基づいて、ズーム制御部121、フォ
ーカス制御部122、絞り制御部123、シャッタ制御
部124及びフラッシュ制御部125に各々制御信号を
供給する。
The video signal processor 107 adjusts the color balance of the image data from the A / D converter 106 based on the detection result from the white balance detector 141. Therefore, the image memory 130 stores the image data whose color balance has been adjusted. The signal processing unit 190 includes a focus detection unit 142.
And a controller 1 for generating a control signal for setting a shooting condition based on each detection result from the exposure detection unit 143.
Supply to 20. In addition, the signal processing unit 190 stores information regarding shooting conditions, which will be described later, in the image memory 130. The controller 120 includes the signal processing unit 190.
A control signal is supplied to each of the zoom control unit 121, the focus control unit 122, the aperture control unit 123, the shutter control unit 124, and the flash control unit 125 based on the control signal from.

【0024】したがって、ズーム制御部121、フォー
カス制御部122及び絞り制御部123は、各々、コン
トローラ120からの制御信号に基づいて、撮像レンズ
101のズーム位置、撮像レンズ101のフォーカス位
置、及び絞り102の絞り量が適切な状態となるように
制御することとなる。
Therefore, the zoom control section 121, the focus control section 122, and the aperture control section 123 are respectively based on the control signal from the controller 120, the zoom position of the imaging lens 101, the focus position of the imaging lens 101, and the aperture 102. It is controlled so that the aperture amount of is in an appropriate state.

【0025】上述のようにして、電子カメラ100にお
ける撮影条件が適切に設定される。
As described above, the shooting conditions in the electronic camera 100 are set appropriately.

【0026】次に、撮影者は、撮影モード設定部160
を操作することにより、撮影モードを通常撮影モード又
はパノラマ撮影モードに設定して撮影を開始する。ま
た、撮影者は、レリーズボタン検出部150の図示して
いない第1及び第2ストロークを操作することにより、
撮影条件のロック又は撮影の実行を指示する。
Next, the photographer selects the photographing mode setting section 160.
By operating, the shooting mode is set to the normal shooting mode or the panoramic shooting mode, and shooting is started. In addition, the photographer operates the first and second strokes (not shown) of the release button detector 150,
It is instructed to lock the shooting conditions or execute the shooting.

【0027】撮影モード設定部160は、撮影者の操作
により、どの撮影モードが設定されたかを検出し、その
検出結果を信号処理ユニット190に供給する。レリー
ズボタン検出部150は、撮影者の上記第1及び第2ス
トロークの操作により、各ストロークが押し下げられた
かを検出し、各ストロークに対応した2つの第1及び第
2検出信号を信号処理ユニット190に供給する。
The photographing mode setting unit 160 detects which photographing mode is set by the photographer's operation and supplies the detection result to the signal processing unit 190. The release button detection unit 150 detects whether or not each stroke is pushed down by the photographer's operation of the first and second strokes, and outputs two first and second detection signals corresponding to each stroke to the signal processing unit 190. Supply to.

【0028】信号処理ユニット190は、撮影モード設
定部160からの検出結果により、設定された撮影モー
ド応じた制御信号を生成してコントローラ120に供給
する。また、信号処理ユニット190は、レリーズボタ
ン検出部150からの第1検出信号により、第1ストロ
ークが押し下げられたと判断した場合には、撮影条件が
ロックされるような制御信号を生成し、レリーズボタン
検出部150からの第2検出信号により、第2ストロー
クが押し下げられたと判断した場合には、シャッタ動作
が行われるような制御信号を生成してコントローラ12
0に供給する。コントローラ120は、信号処理ユニッ
ト190からの制御信号に基づいて、ズーム制御部12
1、フォーカス制御部122、絞り制御部123、シャ
ッタ制御部124及びフラッシュ制御部125に各々制
御信号を供給すると共に、シャッタ制御部124及びフ
ラッシュ制御部125にも供給する。
The signal processing unit 190 generates a control signal according to the set shooting mode according to the detection result from the shooting mode setting section 160 and supplies it to the controller 120. Further, when the signal processing unit 190 determines from the first detection signal from the release button detection unit 150 that the first stroke is pushed down, it generates a control signal that locks the shooting condition and releases the release button. When it is determined that the second stroke is pushed down by the second detection signal from the detection unit 150, the controller 12 generates a control signal for performing the shutter operation.
Supply 0. The controller 120 controls the zoom controller 12 based on the control signal from the signal processing unit 190.
1, the focus control unit 122, the aperture control unit 123, the shutter control unit 124, and the flash control unit 125, and supplies the control signals to the shutter control unit 124 and the flash control unit 125.

【0029】したがって、撮像レンズ101のズーム位
置、撮像レンズ101のフォーカス位置、及び絞り10
2の絞り量は、撮影者の操作に応じた状態となる。ま
た、シャッタ制御部124がコントローラ120からの
制御信号に基づいてシャッタ108を制御することによ
り、シャッタ108が撮影者の操作に応じたシャッタ速
度に制御され、フラッシュ制御部125がコントローラ
120からの制御信号に基づいてフラッシュ109を制
御することにより、撮影者の操作に応じてフラッシュ1
09のON/OFF動作が制御される。
Therefore, the zoom position of the image pickup lens 101, the focus position of the image pickup lens 101, and the diaphragm 10.
The aperture amount of 2 is in a state according to the operation of the photographer. Further, the shutter control unit 124 controls the shutter 108 based on the control signal from the controller 120, so that the shutter 108 is controlled to the shutter speed according to the operation of the photographer, and the flash control unit 125 controls from the controller 120. By controlling the flash 109 based on the signal, the flash 1 can be operated according to the operation of the photographer.
The ON / OFF operation of 09 is controlled.

【0030】上述のようにして撮影が開始されると、映
像信号処理部107から出力される画像データは、信号
処理ユニット190により予め記憶されている撮影条件
と共に、画像メモリ130に記憶される。
When shooting is started as described above, the image data output from the video signal processing unit 107 is stored in the image memory 130 together with the shooting conditions prestored by the signal processing unit 190.

【0031】すなわち、画像メモリ130には、図9に
示すように、ヘッダ部Hとデータ部Dからなる画像デー
タが記憶される。ヘッダ部Hには、画像データの番号N
oと、撮影モードに応じた識別情報Pxが書き込まれ、
撮影条件に関する情報fc,fl,s,vが信号処理ユ
ニット190により予め書き込まれる。ここで、ヘッダ
部Hに書き込む撮影条件に関する情報fc,fl,s,
vは、例えば、フォーカス情報fc、焦点距離fl、絞
りs、シャッタ速度vとする。一方、データ部Dには、
例えば、パノラマ撮影モード設定時に得られた上記図7
に示したような一連の画像I21、I22、I23の各
データが、画像データ番号No2、3、4に対応して書
き込まれる。この場合、ヘッダ部Hに書き込まれる識別
情報Pxは、画像I21、I22、I23が一連のパノ
ラマ画像であることを示す識別情報P1として書き込ま
れる。
That is, as shown in FIG. 9, the image memory 130 stores image data including a header portion H and a data portion D. In the header part H, the image data number N
o and identification information Px corresponding to the shooting mode are written,
Information fc, fl, s, and v relating to shooting conditions is written in advance by the signal processing unit 190. Here, the information fc, fl, s, regarding the shooting conditions to be written in the header section H
v is, for example, focus information fc, focal length fl, diaphragm s, and shutter speed v. On the other hand, in the data part D,
For example, in FIG. 7 obtained when the panoramic shooting mode is set.
The respective data of the series of images I21, I22, and I23 as shown in (4) are written corresponding to the image data numbers No2, 3, and 4. In this case, the identification information Px written in the header portion H is written as the identification information P1 indicating that the images I21, I22, and I23 are a series of panoramic images.

【0032】したがって、画像メモリ130に記憶され
た複数の画像データにおいて、識別情報Pxが同一であ
る画像が一組のパノラマ画像となる。これにより、この
電子カメラ100では、画像メモリ130に記憶された
複数の画像データを合成してパノラマ画像を生成する場
合、各画像データに付加されている識別情報Pxを判別
することにより、自動的に画像合成処理を行うことがで
きるようになされている。このような画像合成処理は、
画像合成処理部172で行うようになされており、例え
ば、使用者が図示していない画像出力操作部を操作する
ことにより行われる。
Therefore, in the plurality of image data stored in the image memory 130, the images having the same identification information Px form a set of panoramic images. As a result, in the electronic camera 100, when a plurality of image data stored in the image memory 130 are combined to generate a panoramic image, the identification information Px added to each image data is determined to automatically It is designed to be able to perform image composition processing. Such image composition processing is
The image combining processing unit 172 is performed, for example, by a user operating an image output operation unit (not shown).

【0033】すなわち、使用者により上記画像出力操作
部が操作されると、上記画像出力操作部は、その操作に
応じた信号を信号処理ユニット190に供給する。信号
処理ユニット190は、上記画像出力操作部からの信号
に基づいて、例えば、パノラマ画像の出力動作を示す制
御信号を画像メモリ130及びI/F回路170に各々
供給する。これにより、画像メモリ130に記憶されて
いる複数の画像データは、I/F回路170を介して画
像合成処理部172に供給される。
That is, when the user operates the image output operation section, the image output operation section supplies a signal corresponding to the operation to the signal processing unit 190. The signal processing unit 190 supplies, for example, a control signal indicating a panoramic image output operation to the image memory 130 and the I / F circuit 170 based on the signal from the image output operation unit. As a result, the plurality of image data stored in the image memory 130 is supplied to the image synthesis processing unit 172 via the I / F circuit 170.

【0034】画像合成処理部172は、例えば、図10
に示すように、上記図1のI/F回路170からの画像
データが入出力(I/O)回路172aを介して供給さ
れる画像情報分離部172fと、画像情報分離部172
fの出力が供給されるコントローラ172e及び画像メ
モリ172gと、画像メモリ172gの出力が供給され
る対応点検出部172b、近距離撮影座標変換処理部1
72i及び遠距離撮影座標変換処理部172jと、近距
離撮影座標変換処理部172i及び遠距離撮影座標変換
処理部172jの各出力が供給される合成画像メモリ1
72hと、対応点検出部172bの出力が供給されるセ
レクタ172kと、セレクタ172kの出力が供給され
る近距離撮影パラメータ抽出部172c及び遠距離撮影
パラメータ抽出部172dとを備えており、近距離撮影
座標変換処理部172iには近距離撮影パラメータ抽出
部172cの出力も供給され、遠距離撮影座標変換処理
部172jには遠距離撮影パラメータ抽出部172dの
出力も供給されるようになされている。また、コントロ
ーラ172eは、画像メモリ172gと対応点検出部1
72bに接続されている。そして、合成画像メモリ17
2hの出力は、I/O回路172aを介して上記図1の
表示部173等に供給されるようになされている。
The image composition processing section 172 is, for example, as shown in FIG.
1, the image data from the I / F circuit 170 shown in FIG. 1 is supplied through the input / output (I / O) circuit 172a to the image information separating section 172f and the image information separating section 172.
The controller 172e and the image memory 172g to which the output of f is supplied, the corresponding point detection unit 172b to which the output of the image memory 172g is supplied, and the short-distance photographing coordinate conversion processing unit 1
72i and long-distance shooting coordinate conversion processing unit 172j, and output of the short-distance shooting coordinate conversion processing unit 172i and long-distance shooting coordinate conversion processing unit 172j.
72h, a selector 172k to which the output of the corresponding point detection unit 172b is supplied, and a short-distance shooting parameter extraction unit 172c and a long-distance shooting parameter extraction unit 172d to which the output of the selector 172k is supplied. The coordinate conversion processing unit 172i is also supplied with the output of the short distance shooting parameter extraction unit 172c, and the long distance shooting coordinate conversion processing unit 172j is also supplied with the output of the long distance shooting parameter extraction unit 172d. Further, the controller 172e includes the image memory 172g and the corresponding point detection unit 1
It is connected to 72b. Then, the composite image memory 17
The output of 2h is supplied to the display unit 173 of FIG. 1 and the like via the I / O circuit 172a.

【0035】この画像合成処理部172において、先
ず、画像情報分離部172fは、I/O回路172aか
らの画像データ、すなわち上記図9に示したような画像
データをヘッダ部とデータ部に分離し、データ部の情報
(以下、画像情報と言う)を画像メモリ172gに記憶
すると共に、ヘッダ部の情報(以下、ヘッダ情報と言
う)をコントローラ172eに供給する。コントローラ
172eは、画像情報分離部172fからのヘッダ情報
に基づいて画像合成処理部172の各部を制御する。
In the image composition processing section 172, first, the image information separating section 172f separates the image data from the I / O circuit 172a, that is, the image data shown in FIG. 9 into a header section and a data section. The information of the data section (hereinafter referred to as image information) is stored in the image memory 172g, and the information of the header section (hereinafter referred to as header information) is supplied to the controller 172e. The controller 172e controls each unit of the image synthesis processing unit 172 based on the header information from the image information separation unit 172f.

【0036】例えば、コントローラ172eは、画像情
報分離部172fからのヘッダ情報を基に、パノラマ撮
影で得られた一連の複数の画像情報を画像メモリ172
gから読み出して対応点検出部172bに供給する。対
応点検出部172bは、コントローラ172eからの複
数の画像情報において、各画像の重複部分の対応点を検
出する。この対応点の検出は、相関法やテンプレートマ
ッチング法等が用いられる。そして、対応点検出部17
2bは、検出した対応点をセレクタ172kに供給す
る。
For example, the controller 172e, based on the header information from the image information separating unit 172f, stores a series of plural image information obtained by panoramic photography in the image memory 172.
It is read from g and supplied to the corresponding point detection unit 172b. The corresponding point detecting unit 172b detects corresponding points in the overlapping portions of the images in the plurality of pieces of image information from the controller 172e. A correlation method, a template matching method, or the like is used to detect the corresponding points. Then, the corresponding point detection unit 17
2b supplies the detected corresponding point to the selector 172k.

【0037】ここで、上述したように、近距離パノラマ
撮影及び遠距離パノラマ撮影に応じた最適な画像合成処
理を行うために、コントローラ172eは、処理対象と
なる一連の複数の画像が近距離パノラマ撮影で得られた
ものであるか、又は遠距離パノラマ撮影で得られたもの
であるかを、画像情報分離部172fからのヘッダ情報
により判別する。
Here, as described above, in order to perform the optimum image compositing process according to the short-distance panoramic photography and the long-distance panoramic photography, the controller 172e causes the series of plural images to be processed to be the short-distance panoramic photography. The header information from the image information separating unit 172f determines whether the image is obtained by photographing or is obtained by long-distance panoramic photographing.

【0038】すなわち、コントローラ172eは、例え
ば、画像情報分離部172fからのヘッダ情報に含まれ
るフォーカス情報fcを用いて、フォーカス情報fcと
所定のしきい値の大小関係を検出し、フォーカス情報f
cが所定のしきい値以上であった場合には遠距離パノラ
マ撮影、フォーカス情報fcが所定のしきい値より小さ
い場合には近距離パノラマ撮影であると判別する。そし
て、コントローラ172eは、その判別結果をセレクタ
172kに供給する。また、コントローラ172eは、
上記判別結果に基づいて、上述のようにして画像メモリ
172gから読み出した一連の複数の画像情報を近距離
撮影座標変換処理部172i又は遠距離撮影座標変換処
理部172jに供給する。セレクタ172kは、コント
ローラ172eからの判別結果に応じて、対応点検出部
172bからの対応点を近距離撮影パラメータ抽出部1
72c又は遠距離撮影パラメータ抽出部172dに供給
する。
That is, the controller 172e detects the magnitude relationship between the focus information fc and a predetermined threshold value by using the focus information fc included in the header information from the image information separating unit 172f, and the focus information f is detected.
When c is equal to or larger than the predetermined threshold value, it is determined that the long-distance panoramic photographing is performed, and when the focus information fc is smaller than the predetermined threshold value, the short-distance panoramic photographing is determined. Then, the controller 172e supplies the determination result to the selector 172k. In addition, the controller 172e is
Based on the determination result, the series of plural pieces of image information read from the image memory 172g as described above are supplied to the short-distance photographing coordinate conversion processing unit 172i or the long-distance photographing coordinate conversion processing unit 172j. The selector 172k determines the corresponding point from the corresponding point detection unit 172b according to the determination result from the controller 172e and uses the short-distance photographing parameter extraction unit 1
72c or the long-distance photographing parameter extraction unit 172d.

【0039】したがって、コントローラ172eの判別
結果により、処理対象となる一連の複数の画像が近距離
パノラマ撮影で得られたものであった場合、近距離撮影
パラメータ抽出部172cに対応点検出部172bで得
られた対応点が供給され、近距離撮影座標変換処理部1
72iに合成する一連の複数の画像情報が供給される。
この場合、近距離撮影パラメータ抽出部172cは、対
応点検出部172bからの対応点から、上記図3に示し
たような上下左右の並進Δx及びΔyと、光軸回りの回
転角θと、光軸に沿った並進による倍率の変化fとをパ
ラメータとして抽出し、そのパラメータを近距離撮影座
標変換処理部172iに供給する。近距離撮影座標変換
処理部172iは、近距離撮影パラメータ抽出部172
cからのパラメータに基づいて、コントローラ172e
により供給された一連の複数の画像情報に座標変換処理
を施して合成画像を生成し、その合成画像を合成画像用
メモリ172hに書き込む。
Therefore, if the series of images to be processed are obtained by the short-distance panoramic photography according to the determination result of the controller 172e, the short-distance photography parameter extraction unit 172c causes the corresponding point detection unit 172b to perform the processing. The obtained corresponding points are supplied, and the short-distance photographing coordinate conversion processing unit 1
A series of plural image information to be combined into 72i is supplied.
In this case, the short-distance shooting parameter extraction unit 172c determines the vertical and horizontal translations Δx and Δy as shown in FIG. 3 from the corresponding points from the corresponding point detection unit 172b, the rotation angle θ around the optical axis, and the optical axis. A change in magnification f due to translation along the axis is extracted as a parameter, and the parameter is supplied to the short-range shooting coordinate conversion processing unit 172i. The short-distance shooting coordinate conversion processing unit 172i includes a short-distance shooting parameter extraction unit 172.
controller 172e based on the parameters from c
The coordinate conversion processing is performed on the series of image information supplied by to generate a combined image, and the combined image is written in the combined image memory 172h.

【0040】一方、コントローラ172eの判別結果に
より、処理対象となる一連の複数の画像が遠距離パノラ
マ撮影で得られたものであった場合、遠距離撮影パラメ
ータ抽出部172dに対応点検出部172bで得られた
対応点が供給され、遠距離撮影座標変換処理部172j
に合成する一連の複数の画像情報が供給される。この場
合、遠距離撮影パラメータ抽出部172dは、対応点検
出部172bからの対応点から、上記図6に示したよう
な各座標軸まわりの回転角Ψ、Φ及びθをパラメータと
して抽出し、そのパラメータを遠距離撮影座標変換処理
部172jに供給する。遠距離撮影座標変換処理部17
2jは、遠距離撮影パラメータ抽出部172dからのパ
ラメータに基づいて、コントローラ172eにより供給
された一連の複数の画像情報に座標変換処理を施して合
成画像を生成し、その合成画像を合成画像用メモリ17
2hに書き込む。
On the other hand, when the series of a plurality of images to be processed are obtained by the long-distance panoramic photographing according to the determination result of the controller 172e, the long-distance photographing parameter extraction unit 172d is operated by the corresponding point detection unit 172b. The obtained corresponding points are supplied, and the long-distance photographing coordinate conversion processing unit 172j.
A series of plural pieces of image information to be combined with is supplied. In this case, the long-distance photographing parameter extraction unit 172d extracts the rotation angles Ψ, Φ, and θ around each coordinate axis as shown in FIG. 6 from the corresponding points from the corresponding point detection unit 172b as parameters, and the parameters are extracted. Is supplied to the long-distance photographing coordinate conversion processing unit 172j. Long-distance shooting coordinate conversion processing unit 17
2j performs a coordinate conversion process on a series of image information supplied by the controller 172e based on a parameter from the long-distance shooting parameter extraction unit 172d to generate a composite image, and stores the composite image in the composite image memory. 17
Write to 2h.

【0041】したがって、合成画像用メモリ172hに
は、撮影状況に応じた適切な画像合成処理により得られ
た合成画像が書き込まれ、この合成画像は、I/O部1
72aを介して上記図1の表示部173に供給され、表
示部173により画面表示される。
Therefore, the synthetic image obtained by the appropriate image synthesizing process according to the photographing condition is written in the synthetic image memory 172h, and the synthetic image is stored in the I / O unit 1
It is supplied to the display unit 173 of FIG. 1 via 72a and is displayed on the screen by the display unit 173.

【0042】上述のように、電子カメラ100では、撮
影して得られた画像データを画像メモリ130に記憶す
る際、撮影モードに応じた識別情報Pxを各画像データ
に対応させて記憶すると共に、撮影時の撮影条件に関す
る情報として、フォーカス情報fc、焦点距離fl、絞
りs、シャッタ速度v等も各画像データに対応させて記
憶するようになされているため、処理対象となる画像デ
ータがどの撮影モードで撮影されたものであるか、ま
た、パノラマ撮影モードに関しては、撮影状況が近距離
パノラマ撮影であるか遠距離パノラマ撮影であるかを容
易に判別することができる。また、識別情報Pxが同一
であるか否かを判別することにより、画像メモリ130
に記憶された複数の画像データから一連のパノラマ画像
を容易に判別することができるため、画像合成処理を自
動的に行うことができる。また、電子カメラ100で
は、画像合成処理を行う際に、撮影状況に応じて適切な
画像合成処理を自動的に選択するようになされているた
め、近距離パノラマ撮影で得られた複数の画像データに
対して最適な画像合成処理を行うことができ、遠距離パ
ノラマ撮影で得られた複数の画像データに対して最適な
画像合成処理を行うことができる。また、電子カメラ1
00では、合成する複数の画像において、各画像の重複
部分の対応点から撮影パラメータを抽出し、抽出した撮
影パラメータを用いて画像処理を行うようになされてい
るため、使用者は、画像を合成するための特別な操作を
行う必要はない。したがって、電子カメラ100は、画
像合成する複数の画像が近距離パノラマ撮影された画像
であっても遠距離パノラマ撮影された画像であっても、
画質が劣化することなく、簡便にしかも常に高画質のパ
ノラマ画像を得ることができる。
As described above, in the electronic camera 100, when the image data obtained by shooting is stored in the image memory 130, the identification information Px corresponding to the shooting mode is stored in association with each image data, and Focus information fc, focal length fl, diaphragm s, shutter speed v, and the like are stored as information relating to shooting conditions at the time of shooting in association with each image data. It is possible to easily determine whether the image was captured in the mode or the panoramic image capturing mode, that is, whether the image capturing condition is the short-distance panoramic photography or the long-distance panoramic photography. Further, by determining whether or not the identification information Px is the same, the image memory 130
Since a series of panoramic images can be easily discriminated from the plurality of image data stored in, the image combination processing can be automatically performed. Further, in the electronic camera 100, when performing the image combining process, an appropriate image combining process is automatically selected according to the shooting situation, so that a plurality of image data obtained by the short-distance panoramic shooting is acquired. The optimum image combining process can be performed on the image data, and the optimum image combining process can be performed on the plurality of image data obtained by the long-distance panoramic shooting. Also, the electronic camera 1
In 00, in a plurality of images to be combined, the shooting parameters are extracted from the corresponding points of the overlapping portions of the images, and the image processing is performed using the extracted shooting parameters. Therefore, the user combines the images. You do not have to take any special action to do so. Therefore, the electronic camera 100 may be configured such that the plurality of images to be image-synthesized may be either a short-distance panoramic image or a long-distance panoramic image.
It is possible to obtain a panoramic image of high quality easily and always without deterioration of image quality.

【0043】尚、上記図10の画像合成処理部172で
は、合成する画像用の画像メモリ172gと、合成画像
用の合成画像用メモリ172hとを各々設けることとし
たが、1つの画像メモリを合成する画像用と合成画像用
で共用するようにしてもよい。また、I/O部172a
から出力される合成画像は、ハードディスク等の記録部
に保存されるようにしてもよい。
In the image synthesizing processing unit 172 of FIG. 10, the image memory 172g for the image to be synthesized and the synthetic image memory 172h for the synthetic image are provided, but one image memory is synthesized. It may be shared for the image to be used and the composite image. Also, the I / O unit 172a
The composite image output from the computer may be stored in a recording unit such as a hard disk.

【0044】つぎに、本発明の第2の実施の形態につい
て図面を用いて説明する。
Next, a second embodiment of the present invention will be described with reference to the drawings.

【0045】本発明に係る画像生成装置は、例えば、図
11に示すような画像合成処理部182を備える電子カ
メラシステムに適用される。この電子カメラシステム
(以下、単に電子カメラと言う)は、上述した電子カメ
ラ100に設けられた上記図10の画像合成処理部17
2の代わりに上記図11の画像合成処理部182を設け
たものである。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system including an image synthesis processing section 182 as shown in FIG. This electronic camera system (hereinafter, simply referred to as an electronic camera) has an image composition processing unit 17 of FIG.
The image synthesis processing unit 182 shown in FIG.

【0046】尚、この電子カメラにおいて、画像合成処
理部182の構成及び動作以外は、上述した電子カメラ
100と同様であるため、画像合成処理部182以外の
各部についての詳細な説明は省略する。また、上記図1
1の画像合成処理部182において、上記図10の画像
合成処理部172と同様に動作する箇所には同じ符号を
付し、その詳細な説明は省略する。
Since this electronic camera is the same as the electronic camera 100 described above except for the configuration and operation of the image composition processing unit 182, detailed description of each unit other than the image composition processing unit 182 will be omitted. In addition, FIG.
In the image synthesizing processing unit 182 of No. 1, the same operation as that of the image synthesizing processing unit 172 of FIG. 10 is denoted by the same reference numeral, and detailed description thereof will be omitted.

【0047】すなわち、画像合成処理部182は、上記
図11に示すように、球面写像変換処理部182aを備
えており、球面写像変換処理部182aには、セレクタ
172kの出力が供給されるようになされている。ま
た、対応点検出部172bは、セレクタ172kの後段
に設けられており、コントローラ172e及び画像メモ
リ172gの各出力がセレクタ172kに供給され、セ
レクタ172kの出力が対応点検出部172bに直接供
給されると共に球面写像変換処理部182aを介して対
応点検出部172bに供給されるようになされている。
さらに、画像合成処理部182では、撮影パラメータ抽
出部及び座標変換処理部としては、近距離撮影パラメー
タ抽出部172c及び近距離撮影座標変換処理部172
iのみが設けられており、対応点検出部172bの出力
が近距離撮影パラメータ抽出部172cに供給され、近
距離撮影パラメータ抽出部172cの出力が近距離撮影
座標変換処理部172iに供給されるようになされてい
る。したがって、画像メモリ172gの出力は、近距離
撮影座標変換処理部172iに供給され、近距離撮影座
標変換処理部172iの出力が合成画像用メモリ172
hに供給されるようになされている。
That is, as shown in FIG. 11, the image synthesizing processing unit 182 includes a spherical mapping conversion processing unit 182a, and the output of the selector 172k is supplied to the spherical mapping conversion processing unit 182a. Has been done. Further, the corresponding point detection unit 172b is provided in the subsequent stage of the selector 172k, each output of the controller 172e and the image memory 172g is supplied to the selector 172k, and the output of the selector 172k is directly supplied to the corresponding point detection unit 172b. At the same time, it is supplied to the corresponding point detection unit 172b via the spherical mapping conversion processing unit 182a.
Further, in the image synthesis processing unit 182, the short-distance shooting parameter extraction unit 172c and the short-distance shooting coordinate conversion processing unit 172 are used as the shooting parameter extraction unit and the coordinate conversion processing unit.
Only i is provided, and the output of the corresponding point detection unit 172b is supplied to the short-distance shooting parameter extraction unit 172c, and the output of the short-distance shooting parameter extraction unit 172c is supplied to the short-distance shooting coordinate conversion processing unit 172i. Has been done. Therefore, the output of the image memory 172g is supplied to the short-distance shooting coordinate conversion processing unit 172i, and the output of the short-distance shooting coordinate conversion processing unit 172i is output to the composite image memory 172.
It is designed to be supplied to h.

【0048】以下、画像合成処理部182の動作につい
て説明する。
The operation of the image composition processing unit 182 will be described below.

【0049】先ず、上記図10の画像合成処理部172
と同様にして、画像情報分離部172fは、I/O回路
172aからの画像データをヘッダ部とデータ部に分離
し、画像情報を画像メモリ172gに記憶すると共に、
ヘッダ情報をコントローラ172eに供給する。コント
ローラ172eは、画像情報分離部172fからのヘッ
ダ情報に含まれるフォーカス情報fcを用いて、処理対
象となる一連の複数の画像が近距離パノラマ撮影で得ら
れたものであるか、又は遠距離パノラマ撮影で得られた
ものであるかを判別し、その判別結果をセレクタ172
kに供給する。また、コントローラ172eは、画像情
報分離部172fからのヘッダ情報に含まれる焦点距離
f1もセレクタ172kに供給する。
First, the image composition processing section 172 shown in FIG.
Similarly, the image information separating unit 172f separates the image data from the I / O circuit 172a into a header portion and a data portion, stores the image information in the image memory 172g, and
The header information is supplied to the controller 172e. The controller 172e uses the focus information fc included in the header information from the image information separation unit 172f to obtain a series of a plurality of images to be processed by short-distance panoramic photography, or a long-distance panoramic photography. It is determined whether the image is obtained by shooting, and the determination result is selected by the selector 172.
supply to k. The controller 172e also supplies the focal length f1 included in the header information from the image information separation unit 172f to the selector 172k.

【0050】セレクタ172kは、コントローラ172
eからの判別結果により、処理対象となる一連の複数の
画像が近距離パノラマ撮影で得られたものであった場合
には、その一連の複数の画像情報を画像メモリ172g
から読み出して直接対応点検出部172bに供給する。
一方、処理対象となる一連の複数の画像が遠距離パノラ
マ撮影で得られたものであった場合、セレクタ172k
は、その一連の複数の画像情報を画像メモリ172gか
ら読み出して球面写像変換処理部182aに供給すると
共に、コントローラ172eからの焦点距離f1を球面
写像変換処理部182aに供給する。
The selector 172k is the controller 172.
If the series of images to be processed is obtained by short-distance panoramic photography according to the determination result from e, the series of image information is stored in the image memory 172g.
It is read from and is directly supplied to the corresponding point detecting unit 172b.
On the other hand, if the series of multiple images to be processed were obtained by long-distance panoramic photography, the selector 172k
Reads out the series of image information from the image memory 172g and supplies it to the spherical mapping conversion processing unit 182a, and also supplies the focal length f1 from the controller 172e to the spherical mapping conversion processing unit 182a.

【0051】したがって、球面写像変換処理部182a
には、遠距離パノラマ撮影により得られた複数の画像を
合成する場合に、その複数の画像情報及び焦点距離f1
が供給されることとなる。
Therefore, the spherical mapping conversion processing unit 182a
When combining a plurality of images obtained by long-distance panoramic photography, the plurality of image information and focal length f1
Will be supplied.

【0052】球面写像変換処理部182aは、セレクタ
172kからの複数の画像情報に対して、球面写像変換
処理を施す。
The spherical surface mapping conversion processing unit 182a performs spherical surface mapping conversion processing on the plurality of image information from the selector 172k.

【0053】この球面写像変換処理とは、図12に示す
ように、任意の画像I31に接する球面30を仮定し、
上記図1の撮影レンズ101の主点Oについて画像I3
1を球面30に投影することにより、球面画像I32を
生成する処理のことである。
This spherical mapping conversion processing assumes a spherical surface 30 in contact with an arbitrary image I31, as shown in FIG.
An image I3 of the principal point O of the taking lens 101 of FIG.
It is a process of generating a spherical image I32 by projecting 1 onto the spherical surface 30.

【0054】そこで、球面写像変換処理部182aに供
給される複数の画像情報を、例えば、任意の位置で遠距
離パノラマ撮影して得られた画像I31と、任意の角度
パンニングして得られた画像I33とした場合、球面写
像変換処理部182aは、図13に示すように、セレク
タ172kからの焦点距離f1を用いて、焦点距離f1
として画像I31を球面30に投影することにより球面
画像I32を生成し、また、焦点距離f1として画像I
33を球面30に投影することにより球面画像I34を
生成する。
Therefore, for example, an image I31 obtained by long-distance panoramic photography at an arbitrary position and an image obtained by arbitrary angle panning of a plurality of image information supplied to the spherical mapping conversion processing unit 182a. When I33 is set, the spherical surface mapping conversion processing unit 182a uses the focal length f1 from the selector 172k, as shown in FIG.
To generate a spherical image I32 by projecting the image I31 onto the spherical surface 30 as the focal length f1.
A spherical image I34 is generated by projecting 33 onto the spherical surface 30.

【0055】したがって、焦点距離f1が同一で、かつ
光軸まわりの回転がない場合、球面写像変換処理部18
2aで得られた球面画像I32と球面画像I34は、球
面30上で連続しているため、上記図3に示したような
上下左右の並進Δx及びΔyのみを座標変換処理で用い
るパラメータとすることにより、球面画像I32と球面
画像I34を合成することができる。しかし、実際に
は、焦点距離f1及び光軸まわりの回転θの誤差等があ
るため、ここでは、座標変換処理を行う際に、上下左右
の並進Δx及びΔyと、焦点距離f1と、光軸まわりの
回転θとを上記パラメータとして用いる。すなわち、こ
の電子カメラでは、遠距離パノラマ撮影により得られた
複数の画像を合成する場合にも、上述した近距離パノラ
マ撮影により得られた複数の画像を座標変換する際に用
いたパラメータと同一のパラメータを用いて座標変換処
理を行うことにより、合成画像を得るようになされてい
る。
Therefore, when the focal length f1 is the same and there is no rotation around the optical axis, the spherical mapping conversion processing unit 18
Since the spherical image I32 and the spherical image I34 obtained in 2a are continuous on the spherical surface 30, only the vertical and horizontal translations Δx and Δy as shown in FIG. 3 are used as the parameters used in the coordinate conversion process. Thus, the spherical image I32 and the spherical image I34 can be combined. However, in reality, there are errors in the focal length f1 and the rotation θ around the optical axis, so here, when performing the coordinate conversion process, the vertical and horizontal translations Δx and Δy, the focal length f1, and the optical axis Around rotation θ and the above parameters are used. That is, in this electronic camera, even when a plurality of images obtained by the long-distance panoramic photography are combined, the same parameters as those used for coordinate conversion of the plurality of images obtained by the short-distance panoramic photography described above are used. By performing coordinate conversion processing using parameters, a composite image is obtained.

【0056】したがって、対応点検出部172bには、
撮影状況に応じて、セレクタ172kからの複数の画像
情報、又は球面写像変換処理部182aからの複数の球
面画像の情報が供給される。対応点検出部172bは、
供給された複数の画像情報において、各画像の重複部分
の対応点を検出し、検出した対応点、及びセレクタ17
2k又は球面写像変換処理部182aからの複数の画像
情報を近距離撮影パラメータ抽出部172cに供給す
る。近距離撮影パラメータ抽出部172cは、対応点検
出部172bからの対応点から、上記図3に示したよう
な上下左右の並進Δx及びΔyと、光軸回りの回転角θ
と、光軸に沿った並進による倍率の変化fとをパラメー
タとして抽出し、抽出したパラメータ及び対応点検出部
172bからの複数の画像情報を近距離撮影座標変換処
理部172iに供給する。近距離撮影座標変換処理部1
72iは、近距離撮影パラメータ抽出部172cからの
パラメータに基づいて、近距離撮影パラメータ抽出部1
72cからの複数の画像情報に座標変換処理を施して合
成画像を生成し、その合成画像を合成画像用メモリ17
2hに書き込む。
Therefore, the corresponding point detector 172b is
A plurality of pieces of image information from the selector 172k or a plurality of pieces of spherical image information from the spherical surface mapping conversion processing unit 182a are supplied according to the shooting situation. The corresponding point detector 172b
In the supplied plurality of image information, the corresponding points of the overlapping portions of the respective images are detected, and the detected corresponding points and the selector 17
The plural pieces of image information from the 2k or spherical mapping conversion processing unit 182a are supplied to the short-distance shooting parameter extraction unit 172c. The short-distance shooting parameter extraction unit 172c calculates the vertical and horizontal translations Δx and Δy as shown in FIG. 3 and the rotation angle θ around the optical axis from the corresponding points from the corresponding point detection unit 172b.
And the change in magnification f due to translation along the optical axis are extracted as parameters, and the extracted parameters and the plurality of pieces of image information from the corresponding point detection unit 172b are supplied to the short-distance photographing coordinate conversion processing unit 172i. Close-up shooting coordinate conversion processing unit 1
72i is a short-distance shooting parameter extraction unit 1 based on the parameters from the short-distance shooting parameter extraction unit 172c.
A plurality of image information from 72c is subjected to coordinate conversion processing to generate a composite image, and the composite image is stored in the composite image memory 17
Write to 2h.

【0057】上述のように、この電子カメラでは、処理
対象となる一連の複数の画像が遠距離パノラマ撮影で得
られたものであった場合、球面写像変換処理部182a
で球面写像変換処理を行うようになされているため、上
記図7に示したような台形状の歪みの成分が除去された
画像を得ることができる。このため、遠距離パノラマ撮
影で得られた一連の複数の画像を合成する場合も、近距
離パノラマ撮影で得られた複数の画像を合成する場合の
撮影パラメータ抽出処理及び座標変換処理と同一の処理
で高画質の合成画像を得ることができる。したがって、
上記電子カメラは、撮影状況に係わらず常に高画質のパ
ノラマ画像を得ることができる。また、上記電子カメラ
は、遠距離パノラマ撮影用及び近距離パノラマ撮影用と
して各々撮影パラメータ抽出処理部及び座標変換処理部
を設ける必要がないため、装置の構成を簡略化すること
ができる。これは、装置のコストダウンにもつながる。
As described above, in this electronic camera, when the series of a plurality of images to be processed are those obtained by the long-distance panoramic photography, the spherical mapping conversion processing unit 182a.
Since the spherical mapping conversion process is performed in (1), an image in which the trapezoidal distortion component as shown in FIG. 7 is removed can be obtained. Therefore, even when a series of a plurality of images obtained by long-distance panoramic shooting is combined, the same processing as the shooting parameter extraction processing and coordinate conversion processing when combining a plurality of images obtained by short-distance panoramic shooting Thus, a high quality composite image can be obtained. Therefore,
The electronic camera can always obtain a high-quality panoramic image regardless of the shooting situation. Further, since the electronic camera does not need to be provided with a shooting parameter extraction processing unit and a coordinate conversion processing unit for long-distance panoramic shooting and short-distance panoramic shooting, respectively, the configuration of the device can be simplified. This also leads to cost reduction of the device.

【0058】つぎに、本発明の第3の実施の形態につい
て図面を用いて説明する。
Next, a third embodiment of the present invention will be described with reference to the drawings.

【0059】本発明に係る画像生成装置は、例えば、図
14に示すような画像合成処理部192を備える電子カ
メラシステムに適用される。この電子カメラシステム
(以下、単に電子カメラと言う)は、上述した電子カメ
ラ100に設けられた上記図10の画像合成処理部17
2の代わりに上記図14の画像合成処理部192を設け
たものである。また、この電子カメラでは、上記図9に
示した画像メモリ130において、ヘッダ部Hに書き込
む撮影条件に関する情報は、フォーカス情報fc、焦点
距離fl、絞りs、シャッタ速度vに、露出レベルe
と、上記図1のAGC回路105の利得レベル(ゲイン
レベル)gとを加えたものとする。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system including an image synthesis processing section 192 as shown in FIG. This electronic camera system (hereinafter, simply referred to as an electronic camera) has an image composition processing unit 17 of FIG.
The image synthesis processing unit 192 of FIG. Further, in this electronic camera, in the image memory 130 shown in FIG. 9, the information regarding the shooting conditions to be written in the header portion H includes the focus information fc, the focal length fl, the aperture s, the shutter speed v, and the exposure level e.
And the gain level (gain level) g of the AGC circuit 105 of FIG. 1 are added.

【0060】尚、この電子カメラにおいて、画像合成処
理部192の構成及び動作以外は、上述した電子カメラ
100と同様であるため、画像合成処理部192以外の
各部についての詳細な説明は省略する。また、上記図1
4の画像合成処理部192において、上記図10の画像
合成処理部172と同様に動作する箇所には同じ符号を
付し、その詳細な説明は省略する。
Since this electronic camera is the same as the electronic camera 100 described above except for the configuration and operation of the image composition processing unit 192, detailed description of each unit other than the image composition processing unit 192 will be omitted. In addition, FIG.
In the image synthesis processing unit 192 of No. 4, the same operation as that of the image synthesis processing unit 172 of FIG. 10 is denoted by the same reference numeral, and the detailed description thereof will be omitted.

【0061】すなわち、画像合成処理部192は、上記
図14に示すように、上記図10の画像合成処理部17
2の構成要件に加えて、近距離撮影パラメータ抽出部1
72c及び遠距離撮影パラメータ抽出部172dと近距
離撮影座標変換処理部172i及び遠距離撮影座標変換
処理部172jの間に設けられた濃度レベル補正処理部
192aと、遠距離撮影座標変換処理部172jの後段
に設けられたシームレス処理部192bとを備えてい
る。そして、濃度レベル補正処理部192aは、コント
ローラ172eと接続されており、画像メモリ172g
の出力が供給されるようになされている。また、合成画
像メモリ172hには、近距離撮影座標変換処理部17
2i及びシームレス処理部192bの各出力が供給され
るようになされている。
That is, the image composition processing unit 192, as shown in FIG. 14, is the image composition processing unit 17 of FIG.
In addition to the configuration requirements of 2, the short-distance shooting parameter extraction unit 1
72c and a long-distance photographing parameter extraction unit 172d, a short-distance photographing coordinate conversion processing unit 172i, and a long-distance photographing coordinate conversion processing unit 172j provided between a density level correction processing unit 192a and a long-distance photographing coordinate conversion processing unit 172j. The seamless processing unit 192b provided at the latter stage. The density level correction processing unit 192a is connected to the controller 172e, and the image memory 172g.
The output of is supplied. Further, the short-distance shooting coordinate conversion processing unit 17 is stored in the composite image memory 172h.
2i and each output of the seamless processing unit 192b are supplied.

【0062】以下、画像合成処理部192の動作につい
て説明する。
The operation of the image composition processing section 192 will be described below.

【0063】まず、画像合成処理部192で合成される
複数の画像は、例えば、図15に示すような画像I40
L及びI40Rとする。これらの画像I40L及びI4
0Rは、上記図6に示したようにして遠距離パノラマ撮
影により得られたものである。ここで、上記図6の3つ
の領域R21〜R23において、左側の領域R21を撮
影して得られた画像を、上記図15に示すように画像I
40Lとし、中央の領域R22を撮影して得られた画像
を、上記図15に示すように画像I40Rとする。ま
た、画像I40Lと、画像I40Lに隣り合う画像I4
0Rとの重複する領域を領域R41とし、画像I40R
と、画像I40Rに隣り合う画像との重複する領域を領
域R42とする。
First, the plurality of images synthesized by the image synthesis processing unit 192 are, for example, an image I40 as shown in FIG.
L and I40R. These images I40L and I4
0R is obtained by long-distance panoramic photography as shown in FIG. Here, in the three regions R21 to R23 of FIG. 6, an image obtained by photographing the left region R21 is an image I as shown in FIG.
The image obtained by photographing the central region R22 with 40L is referred to as an image I40R as shown in FIG. Also, the image I40L and the image I4 adjacent to the image I40L
The region overlapping with 0R is set as region R41, and image I40R
And an area where an image adjacent to the image I40R overlaps is referred to as an area R42.

【0064】そこで、画像情報分離部172fは、I/
O回路172aからの画像データ、すなわち画像I40
L及びI40Rのデータをヘッダ部とデータ部に分離
し、データ部の情報(画像情報)を画像メモリ172g
に記憶すると共に、ヘッダ部の情報(ヘッダ情報)をコ
ントローラ172eに供給する。
Therefore, the image information separation section 172f is operated by the I / O
Image data from the O circuit 172a, that is, image I40
The data of L and I40R is separated into a header part and a data part, and information of the data part (image information) is stored in the image memory 172g.
And the header information (header information) is supplied to the controller 172e.

【0065】コントローラ172eは、画像情報分離部
172fからのヘッダ情報に含まれる画像I40Lの露
出レベルeLと画像I40Rの露出レベルeRを読み出
し、各露出レベルeL、eRのレベル差と所定値の比較
処理を行う。そして、コントローラ172eは、その比
較結果により、各露出レベルeL、eRのレベル差が所
定値よりも大きい場合に、濃度レベル補正処理部192
aに動作命令を発行し、これと同時に画像情報分離部1
72fからのヘッダ情報も濃度レベル補正処理部192
aに供給する。一方、各露出レベルeL、eRのレベル
差が所定値以下の場合、コントローラ172eは、非動
作命令を濃度レベル補正処理部192aに発行する。
The controller 172e reads out the exposure level eL of the image I40L and the exposure level eR of the image I40R contained in the header information from the image information separating unit 172f, and compares the level difference between the exposure levels eL and eR with a predetermined value. I do. Then, the controller 172e determines from the comparison result that the density level correction processing unit 192 when the level difference between the exposure levels eL and eR is larger than a predetermined value.
A operation command is issued to a and at the same time, the image information separation unit 1
The header information from 72f is also included in the density level correction processing unit 192.
a. On the other hand, when the level difference between the exposure levels eL and eR is less than or equal to the predetermined value, the controller 172e issues a non-operation instruction to the density level correction processing unit 192a.

【0066】このとき、濃度レベル補正処理部192a
には、遠距離撮影パラメータ抽出部172dで得られた
パラメータが供給されると共に、コントローラ172e
により画像メモリ172gから読み出された画像I40
L及びI40Rの画像情報が供給される。
At this time, the density level correction processing unit 192a
Is supplied with the parameters obtained by the long-distance photographing parameter extraction unit 172d, and the controller 172e
Image I40 read from the image memory 172g by
L and I40R image information is provided.

【0067】濃度レベル補正処理部192aは、コント
ローラ172eから動作命令が与えられると、コントロ
ーラ172eにより供給された画像I40L及びI40
Rの画像情報において、図16に示すように、画像I4
0L及びI40Rの重複領域R41における各平均濃度
レベルの差Δmを求める。そして、濃度レベル補正処理
部192aは、上記動作命令と同時に供給されたコント
ローラ172eからのヘッダ情報に含まれる絞りs、シ
ャッタ速度v及びAGC回路105のゲインレベルg等
に基づいて、重複領域R41における各画像I40L及
びI40Rの各濃度レベルが同一レベルとなるように、
差Δmを用いて、画像I40Rの濃度レベルを補正す
る。これにより、画像I40Rから、画像I40Lの重
複領域R41における平均濃度レベルに合わせられた画
像I40R’が生成される。そして、濃度レベル補正処
理部192aは、画像I40Lと、濃度レベルが補正さ
れた画像I40R’と、遠距離撮影パラメータ抽出部1
72dからのパラメータとを遠距離撮影座標変換処理部
172jに供給する。
The density level correction processing unit 192a receives the operation command from the controller 172e, and the images I40L and I40 supplied by the controller 172e.
In the image information of R, as shown in FIG.
The difference Δm between the average density levels in the overlapping region R41 of 0L and I40R is obtained. Then, the density level correction processing unit 192a in the overlapping region R41 based on the aperture s, the shutter speed v, the gain level g of the AGC circuit 105, and the like included in the header information from the controller 172e supplied at the same time as the operation command. Make sure that the density levels of the images I40L and I40R are the same level.
The difference Δm is used to correct the density level of the image I40R. As a result, an image I40R ′ matched with the average density level in the overlapping region R41 of the image I40L is generated from the image I40R. Then, the density level correction processing unit 192a, the image I40L, the density level-corrected image I40R ', and the long-distance photographing parameter extraction unit 1
The parameters from 72d are supplied to the long-distance photographing coordinate conversion processing unit 172j.

【0068】遠距離撮影座標変換処理部172jは、濃
度レベル補正処理部192aからのパラメータに基づい
て、濃度レベル補正処理部192aからの画像I40L
及びI40R’に座標変換処理を施して、画像I40L
と画像I40R’の合成画像を生成し、その合成画像を
シームレス処理部192bに供給する。
The long-distance photographing coordinate conversion processing unit 172j, based on the parameters from the density level correction processing unit 192a, outputs the image I40L from the density level correction processing unit 192a.
And I40R 'are subjected to coordinate conversion processing to obtain an image I40L.
And a composite image of the image I40R 'are generated, and the composite image is supplied to the seamless processing unit 192b.

【0069】シームレス処理部192bは、上記図15
に示すように、重複領域R41における合成画像のXY
座標(i,j)に対応する画像I40L及び画像I40
R’の画素値を各々「SL」及び「SR」とし、重複領
域R41の幅を「W」として、上記合成画像の画素値S
(i,j)を、 S(i,j)=SL(1.0−X/W)+SRX/W なる重み付け加算の演算式により求める。そして、シー
ムレス処理部192bは、上記演算式により得られた画
素値S(i,j)で重複領域R41の各画素を置換し、
その結果得られた合成画像を合成画像用メモリ172h
に書き込む。
The seamless processing section 192b is the same as that shown in FIG.
XY of the composite image in the overlapping area R41 as shown in FIG.
Image I40L and image I40 corresponding to coordinates (i, j)
The pixel values of R ′ are “SL” and “SR” respectively, the width of the overlapping region R41 is “W”, and the pixel value S of the composite image is S.
(I, j) is obtained by a weighted addition arithmetic expression S (i, j) = SL (1.0−X / W) + SRX / W. Then, the seamless processing unit 192b replaces each pixel in the overlapping region R41 with the pixel value S (i, j) obtained by the above arithmetic expression,
The resultant composite image is stored in the composite image memory 172h.
Write in.

【0070】また、画像合成処理部192で合成される
複数の画像が近距離パノラマ撮影により得られたもので
あっても、上述した遠距離パノラマ撮影の場合と同様に
して、濃度レベル補正処理部192aで濃度レベル補正
処理が行われた後、近距離撮影パラメータ抽出部172
cにより得られたパラメータに基づいて近距離撮影座標
変換処理部172iで座標変換処理が行われることによ
り合成画像が生成され、合成画像用メモリ172hに書
き込まれる。
Even if the plurality of images synthesized by the image synthesis processing unit 192 are obtained by short-distance panoramic photography, the density-level correction processing unit is used in the same manner as in the case of long-distance panoramic photography described above. After the density level correction processing is performed in 192a, the short-distance shooting parameter extraction unit 172
Coordinate conversion processing is performed by the short-distance photographing coordinate conversion processing unit 172i based on the parameter obtained by c, and a combined image is generated and written in the combined image memory 172h.

【0071】そして、合成画像用メモリ172hに書き
込まれた合成画像は、I/O部172aを介して上記図
1の表示部173に供給され、表示部173により、画
面表示される。
Then, the composite image written in the composite image memory 172h is supplied to the display unit 173 of FIG. 1 through the I / O unit 172a and is displayed on the screen by the display unit 173.

【0072】上述のように、この電子カメラは、接合す
る各画像の重複領域の濃度レベルが略同一となるような
構成としているため、その接合部分を目立たなくするこ
とができる。したがって、この電子カメラは、さらに高
画質のパノラマ画像を得ることができる。
As described above, since this electronic camera is constructed so that the density levels of the overlapping areas of the images to be joined are substantially the same, the joined portion can be made inconspicuous. Therefore, this electronic camera can obtain a higher quality panoramic image.

【0073】尚、上述した電子カメラでは、濃度レベル
補正処理部192aで用いる撮影条件を、露出レベルe
と、上記図1のAGC回路105のゲインレベルgとし
たが、この限りではない。また、上述した電子カメラで
は、遠距離パノラマ撮影により得られた複数の画像を合
成する場合のみ、シームレス処理を行うこととしたが、
近距離パノラマ撮影により得られた複数の画像を合成す
る場合にもシームレス処理を行うようにしてもよい。但
し、合成する画像が近距離パノラマ撮影で得られた原稿
等の文字画像であった場合、撮影パラメータの微小な誤
差により文字エッジが一致しないため、合成した結果、
二重像となる可能性がある。そこで、この場合には、近
距離撮影座標変換処理部172iの後段にシームレス処
理部192bに相当するシームレス処理部を設けると共
に、近距離パノラマ撮影と判断された場合に合成する画
像が原稿画像であるか否かを判別する手段(原稿画像判
別部)を設けるようにする。そして、上記原稿画像判別
部の判別結果により原稿画像であると判別された場合の
み、上記シームレス処理部が非動作状態となるようにす
る。
In the electronic camera described above, the photographing conditions used in the density level correction processing unit 192a are the exposure level e
Then, the gain level g of the AGC circuit 105 in FIG. 1 is set, but the present invention is not limited to this. In the electronic camera described above, seamless processing is performed only when combining a plurality of images obtained by long-distance panoramic shooting.
Seamless processing may be performed even when a plurality of images obtained by short-distance panoramic photography are combined. However, when the image to be combined is a character image such as a document obtained by short-distance panoramic shooting, the character edges do not match due to a minute error in the shooting parameters, so the result of combining
It may be a double image. Therefore, in this case, a seamless processing unit corresponding to the seamless processing unit 192b is provided in the subsequent stage of the short-distance shooting coordinate conversion processing unit 172i, and the image to be combined when the short-distance panoramic shooting is determined is the original image. A means (original image discrimination unit) for discriminating whether or not there is provided. The seamless processing unit is set to the inactive state only when it is determined that the document image is a document image based on the determination result of the document image determining unit.

【0074】つぎに、本発明の第4の実施の形態につい
て図面を用いて説明する。
Next, a fourth embodiment of the present invention will be described with reference to the drawings.

【0075】本発明に係る画像生成装置は、例えば、図
17に示すような電子カメラシステム200に適用され
る。この電子カメラシステム(以下、電子カメラと言
う)200は、上記図17に示すように、上記図1の電
子カメラ100の構成要件に加えて、撮像部210を備
えており、撮像部110と撮像部210の2つの撮像部
からなる複眼撮像系により構成されるものである。撮像
部210は、撮像部110と同様の構成をしており、被
写体側から順次設けられた撮像レンズ201、絞り20
2、シャッタ208及び撮像素子203と、撮像素子2
03の出力が供給される増幅器204と、増幅器204
の出力が供給されるAGC回路205と、AGC回路2
05の出力が供給されるA/D変換器206とを備えて
おり、A/D変換器206の出力は映像信号処理部20
7に供給されるようになされている。そして、撮像部2
10において、ズーム、フォーカス、絞り及びシャッタ
の各制御は、撮像部110と同様に、ズーム制御部12
1、フォーカス制御部122、絞り制御部123及びシ
ャッタ制御部124により行われるようになされてい
る。また、電子カメラ200は、撮像部110の光軸L
と撮像部210の光軸Rの向きを制御する輻輳角制御部
220を備えており、輻輳角制御部220は、コントロ
ーラ120により制御されるようになされている。さら
に、電子カメラ200では、コントローラ120及び信
号処理ユニット190は、複眼撮像系に対応した処理を
行うようになされている。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system 200 as shown in FIG. As shown in FIG. 17, the electronic camera system (hereinafter, referred to as an electronic camera) 200 includes an image pickup unit 210 in addition to the configuration requirements of the electronic camera 100 shown in FIG. It is configured by a compound-eye image pickup system including two image pickup units of the unit 210. The image pickup unit 210 has the same configuration as the image pickup unit 110, and includes an image pickup lens 201 and a diaphragm 20 that are sequentially provided from the subject side.
2, shutter 208 and image sensor 203, and image sensor 2
Amplifier 204 to which the output of 03 is supplied, and amplifier 204
AGC circuit 205 to which the output of
05 is supplied to the A / D converter 206, and the output of the A / D converter 206 is the video signal processing unit 20.
7 is supplied. And the imaging unit 2
10, the zoom, focus, aperture, and shutter controls are performed by the zoom control unit 12 as in the image pickup unit 110.
1, the focus control unit 122, the aperture control unit 123, and the shutter control unit 124. In addition, the electronic camera 200 has the optical axis L of the imaging unit 110.
And a convergence angle control unit 220 that controls the direction of the optical axis R of the imaging unit 210, and the convergence angle control unit 220 is controlled by the controller 120. Further, in the electronic camera 200, the controller 120 and the signal processing unit 190 are adapted to perform processing corresponding to the compound eye imaging system.

【0076】尚、上記図17の電子カメラ200におい
て、上記図1の電子カメラ100と同様に動作する箇所
には同じ符号を付し、その詳細な説明は省略する
In the electronic camera 200 shown in FIG. 17, parts that operate similarly to those of the electronic camera 100 shown in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted.

【0077】以下、電子カメラ200の動作について説
明する。
The operation of the electronic camera 200 will be described below.

【0078】先ず、合焦検出部142により合焦が検出
されると、信号処理ユニット190は、合焦検出部14
2の検出結果により、フォーカス制御のための制御信号
をコントローラ120に供給すると共に、撮影されてい
る被写体が近距離被写体であるか遠距離被写体であるか
を判別する。そして、信号処理ユニット190は、近距
離被写体であると判別した場合、図18(a)に示すよ
うに、撮像部110の光軸Lと撮像部210の光軸Rが
平行となるような制御信号をコントローラ120を介し
て輻輳角制御部220に供給する。また、信号処理ユニ
ット190は、遠距離被写体であると判別した場合、同
図(b)に示すように、撮像部110の光軸Lと撮像部
210の光軸Rが外向きとなるような制御信号をコント
ローラ120を介して輻輳角制御部220に供給する。
First, when the focus detection section 142 detects the focus, the signal processing unit 190 causes the focus detection section 14 to move.
Based on the detection result of 2, the control signal for focus control is supplied to the controller 120, and it is determined whether the subject being photographed is a short-distance subject or a long-distance subject. When the signal processing unit 190 determines that the object is a short-distance subject, the signal processing unit 190 performs control such that the optical axis L of the image capturing unit 110 and the optical axis R of the image capturing unit 210 are parallel to each other, as shown in FIG. The signal is supplied to the convergence angle control unit 220 via the controller 120. In addition, when the signal processing unit 190 determines that the object is a long-distance object, the optical axis L of the image capturing unit 110 and the optical axis R of the image capturing unit 210 are outward as shown in FIG. The control signal is supplied to the convergence angle control unit 220 via the controller 120.

【0079】したがって、輻輳角制御部220は、コン
トローラ120からの制御信号により、近距離パノラマ
撮影時には、撮像部110の光軸Lと撮像部210の光
軸Rが平行となるように、また、遠距離パノラマ撮影時
には、撮像部110の光軸Lと撮像部210の光軸Rが
外向きとなるように、撮像部110と撮像部210を各
々制御する。
Therefore, the convergence angle control unit 220 is controlled by the control signal from the controller 120 so that the optical axis L of the image pickup unit 110 and the optical axis R of the image pickup unit 210 are parallel to each other during the short-distance panoramic photographing. During long-distance panoramic photography, the image capturing unit 110 and the image capturing unit 210 are controlled so that the optical axis L of the image capturing unit 110 and the optical axis R of the image capturing unit 210 face outward.

【0080】ここで、上記図18(a)、(b)に示し
たように、撮像部110の光軸Lと撮像部210の光軸
Rの向きが制御されて撮影が行われる状況は、上記図3
の撮影状況及び上記図6の撮影状況と同じである。この
ため、上記図18(a)に示したようにして撮影して得
られた複数の画像からは、上述した近距離パノラマ撮影
時の合成処理により合成画像を得ることができ、同図
(b)に示したようにして撮影して得られた複数の画像
からは、上述した遠距離パノラマ撮影時の合成処理によ
り合成画像を得ることができる。
Here, as shown in FIGS. 18 (a) and 18 (b), the situation in which the direction of the optical axis L of the image pickup section 110 and the optical axis R of the image pickup section 210 is controlled to perform image pickup is as follows. Figure 3 above
The shooting situation is the same as that of FIG. 6 and the shooting situation of FIG. Therefore, a composite image can be obtained from the plurality of images obtained by shooting as shown in FIG. 18A by the above-described combining processing at the time of short-distance panoramic shooting. ), A composite image can be obtained from the plurality of images obtained by photographing as described above by the synthesizing process at the time of the long-distance panoramic photographing described above.

【0081】したがって、上記図1の電子カメラ100
と同様に、画像合成処理部172において、合成する複
数の画像が近距離パノラマ撮影により得られたものであ
るか、遠距離パノラマ撮影により得られたものであるか
を判別し、その判別結果に応じて適切な合成処理を選択
することにより、高画質の合成ラマ画像を得ることがで
きる。
Therefore, the electronic camera 100 shown in FIG.
Similarly, in the image synthesizing processing unit 172, it is determined whether the plurality of images to be synthesized are obtained by the short-distance panoramic photography or the long-distance panoramic photography, and the determination result is By selecting an appropriate synthesizing process accordingly, a high-quality synthesized llama image can be obtained.

【0082】上述のように、この電子カメラ200で
は、被写体距離に応じて自動的に撮像部110の光軸と
撮像部210の光軸の向きが制御されるようになされて
いるため、使用者は、パノラマ撮影する際に画像の一部
が重複するように撮影するための操作を行う必要がな
い。したがって、電子カメラ200は、操作性を向上さ
せることができると共に、簡便に高画質の合成画像を得
ることができる。
As described above, in this electronic camera 200, the directions of the optical axes of the image pickup section 110 and the image pickup section 210 are automatically controlled according to the subject distance, so that the user Does not need to perform an operation for taking a picture so that a part of the image overlaps when taking a panorama picture. Therefore, the electronic camera 200 can improve operability and can easily obtain a high-quality composite image.

【0083】尚、上記図17において、画像合成処理部
172を上記図11の画像合成処理部182、又は上記
図14の画像合成処理部192としてもよい。
In FIG. 17, the image composition processing unit 172 may be the image composition processing unit 182 of FIG. 11 or the image composition processing unit 192 of FIG.

【0084】つぎに、本発明の第5の実施の形態につい
て図面を用いて説明する。
Next, a fifth embodiment of the present invention will be described with reference to the drawings.

【0085】本発明に係る画像生成装置は、例えば、図
19のフローチャートに従って画像合成処理を行う電子
カメラシステムに適用される。この電子カメラシステム
(以下、電子カメラと言う)は、上記図1の電子カメラ
100と同様の構成をしており、特に、電子カメラを上
記図33に示したようにして水平にパンニングして撮影
された2つの画像から水平方向に画角の広い合成画像を
生成するものである。また、この電子カメラでは、画像
合成処理部172に相当する画像合成処理部に、上記図
19のフローチャートに対応するプログラムが予め設定
されており、上記画像合成処理部は、上記プログラムに
従った処理を行うようになされている。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system which performs an image synthesizing process according to the flowchart of FIG. This electronic camera system (hereinafter referred to as an electronic camera) has the same configuration as that of the electronic camera 100 shown in FIG. 1, and particularly, the electronic camera is horizontally panned as shown in FIG. A composite image having a wide angle of view in the horizontal direction is generated from the two generated images. Further, in this electronic camera, a program corresponding to the flowchart of FIG. 19 is set in advance in an image composition processing unit corresponding to the image composition processing unit 172, and the image composition processing unit performs processing according to the program. Is designed to do.

【0086】尚、この電子カメラにおいて、上記画像合
成処理部が行う画像合成処理以外については、上記図1
の電子カメラ100と同様であるため、上記画像合成処
理以外についての詳細な説明は省略する。また、この電
子カメラを電子カメラ100として、上記図1及び上記
19を用いて以下の説明を行う。
In this electronic camera, except for the image synthesizing process performed by the image synthesizing processing section, the above-mentioned FIG.
The electronic camera 100 is the same as the electronic camera 100 of FIG. Further, the following description will be given by using this electronic camera as the electronic camera 100 with reference to FIGS.

【0087】まず、電子カメラ100では、例えば、撮
像部110により得られた640×480画素の画素デ
ータが画像メモリ130に記憶される。また、画像メモ
リ130には、パノラマ撮影により得られた一連の複数
の画像データが1つのファイルデータとして記憶され
る。
First, in the electronic camera 100, for example, the pixel data of 640 × 480 pixels obtained by the image pickup section 110 is stored in the image memory 130. Further, the image memory 130 stores a series of plural image data obtained by panoramic photography as one file data.

【0088】そこで、画像合成処理部172において、
先ず、画像メモリ130に記憶されたファイルデータの
うち、一連の2つの画像データからなる任意のファイル
データを図示していないメモリ上に読み出す(ステップ
S11)。
Therefore, in the image composition processing section 172,
First, of the file data stored in the image memory 130, arbitrary file data consisting of a series of two image data is read out onto a memory (not shown) (step S11).

【0089】次に、上記メモリに読み出した各画像デー
タに対して、撮影レンズ101により生じた歪みを補正
する(ステップS12)。
Next, the distortion caused by the taking lens 101 is corrected for each image data read into the memory (step S12).

【0090】具体的に説明すると、撮影レンズ101の
歪みが画像中心に対して回転対称であるとした場合、画
像中心を原点とした画素の撮影レンズ101の歪みのな
い時の理想位置を(x,y)とし、歪みのある時の位置
を(xd,xy)とすると、 xd=x・(1+k1・r2 +k2・r4 ) yd=y・(1+k1・r2 +k2・r4 ) ・・・ (1) なる関係式(1)が成り立つ。ここで、この関係式
(1)において、「k1」及び「k2」は、歪曲補正係
数であり、 r2 =x2 +y2 の関係式が成り立つものとする。
Specifically, assuming that the distortion of the photographic lens 101 is rotationally symmetric with respect to the image center, the ideal position of the pixel having the image center as the origin when the photographic lens 101 is not distorted is (x , Y) and the position when there is distortion is (xd, xy), xd = x · (1 + k1 · r 2 + k2 · r 4 ) yd = y · (1 + k1 · r 2 + k2 · r 4 ) ··・ The relational expression (1) is established. Here, in this relational expression (1), “k1” and “k2” are distortion correction coefficients, and the relational expression of r 2 = x 2 + y 2 is established.

【0091】そこで、このステップS12では、関係式
(1)を用いて画像データの歪みを補正する処理を行
う。
Therefore, in step S12, a process of correcting the distortion of the image data is performed using the relational expression (1).

【0092】このステップS12においては、図20に
示すように、先ず、歪みを補正した補正画像データを格
納する領域を入力画像データと同じ二次元配列のサイズ
分だけ上記メモリ上に確保する(ステップS121)。
そして、画像データの各画素に対して、後述するステッ
プS121〜S125の処理を行うことにより、撮影レ
ンズ101の歪みを補正した補正画像データを得る。
In this step S12, as shown in FIG. 20, first, an area for storing the corrected image data in which the distortion has been corrected is secured in the memory by the same two-dimensional array size as the input image data (step S12). S121).
Then, the correction image data in which the distortion of the taking lens 101 is corrected is obtained by performing the processes of steps S121 to S125 described below for each pixel of the image data.

【0093】すなわち、画像データの各画素に対して
は、先ず、入力画像データ取得時の水平及び垂直方向の
撮像面の大きさ及び画素ピッチを用いて、補正画像デー
タの画素アドレスを画像中心を原点とした座標系に変換
する(ステップS122)。このステップS122で得
られた座標は、歪みのない時の理想位置(x,y)とな
る。
That is, for each pixel of the image data, first, the pixel address of the corrected image data is set to the image center by using the size and the pixel pitch of the image pickup surface in the horizontal and vertical directions when the input image data is acquired. The coordinate system is converted to the origin coordinate system (step S122). The coordinates obtained in step S122 become the ideal position (x, y) when there is no distortion.

【0094】次に、ステップS122で得られた理想位
置(x,y)を関係式(1)に代入することにより、歪
みのある時の位置(xd,xy)を求める(ステップS
123)。ここで、関係式(1)において、歪曲補正係
数k1及びk2は、撮像レンズ101の3次及び5次の
歪曲収差係数に比例する値であり、撮像レンズ101の
材料の屈折率、面形状及びレンズ配置を含む構成情報に
より決定できる。したがって、ここでは、上記構成情報
により決定された所定値が歪曲補正係数k1及びk2と
して予め与えられているものとし、この歪曲補正係数k
1及びk2を用いて、関係式(1)により歪みのある時
の位置(xd,xy)を求める。
Next, the ideal position (x, y) obtained in step S122 is substituted into the relational expression (1) to obtain the position (xd, xy) at the time of distortion (step S).
123). Here, in the relational expression (1), the distortion correction coefficients k1 and k2 are values proportional to the third-order and fifth-order distortion aberration coefficients of the imaging lens 101, and the refractive index of the material of the imaging lens 101, the surface shape, and It can be determined by the configuration information including the lens arrangement. Therefore, here, it is assumed that the predetermined value determined by the configuration information is given in advance as the distortion correction coefficients k1 and k2, and the distortion correction coefficient k
Using 1 and k2, the position (xd, xy) at the time of distortion is obtained by the relational expression (1).

【0095】次に、入力画像データ取得時の水平及び垂
直方向の撮像面の大きさ及び画素ピッチを用いて、ステ
ップS122で行った変換処理の逆変換処理を行い、歪
みを補正する前の画像データでの、ステップS123で
得られた歪みのある時の位置(xd,xy)に対応する
画素アドレスを求める(ステップS124)。
Next, using the size of the image pickup surface and the pixel pitch in the horizontal and vertical directions at the time of acquiring the input image data, the inverse conversion process of the conversion process performed in step S122 is performed to obtain the image before the distortion is corrected. In the data, the pixel address corresponding to the position (xd, xy) at the time of distortion obtained in step S123 is obtained (step S124).

【0096】そして、ステップS124で得られた画素
アドレスの画素値であるRGBデータを補正画像データ
の画素アドレスの画素値としてコピーする(ステップS
125)。この時、ステップS124で得られた画素ア
ドレスが画像領域外である場合は、ダミー画素値とし
て、例えば、白画素値を割り当てるようにする。
Then, the RGB data, which is the pixel value of the pixel address obtained in step S124, is copied as the pixel value of the pixel address of the corrected image data (step S).
125). At this time, if the pixel address obtained in step S124 is outside the image area, for example, a white pixel value is assigned as the dummy pixel value.

【0097】上述のようなステップS12の処理によ
り、2つの入力画像データから、撮像レンズ101の歪
みを補正した2つの補正画像データが得られ、その後、
ステップS121で補正画像データを格納するために確
保したメモリ領域を解放する。
By the processing of step S12 as described above, two corrected image data in which the distortion of the image pickup lens 101 is corrected are obtained from the two input image data, and thereafter,
The memory area reserved for storing the corrected image data in step S121 is released.

【0098】尚、2つの入力画像データが、撮像レンズ
101の歪みを殆ど無視できる程度の画像であった場合
には、ステップS12の処理は行わなくてもよい。
If the two input image data are images in which the distortion of the image pickup lens 101 can be almost ignored, the process of step S12 need not be performed.

【0099】次に、ステップS12で歪みが補正された
2つの補正画像データに対して、球面に投影変換した球
面画像データを生成する(ステップS13)。
Next, spherical image data is generated by projecting and converting the two corrected image data whose distortions have been corrected in step S12 into spherical surfaces (step S13).

【0100】具体的に説明すると、このステップS13
では、図21に示すように、先ず、球面投影変換後の画
像データを格納する領域を入力画像データ(補正画像デ
ータ)と同じ二次元配列のサイズ分だけ上記メモリ上に
確保する(ステップS131)。
More specifically, this step S13
Then, as shown in FIG. 21, first, an area for storing the image data after the spherical projection conversion is secured in the memory by the same two-dimensional array size as the input image data (corrected image data) (step S131). .

【0101】次に、球面投影変換を行う際の画素の角度
ピッチを求める(ステップS132)。このとき、水平
及び垂直方向の画素の角度ピッチは、球面投影変換後の
画像データの水平及び垂直方向の画角が、元の入力画像
データの水平及び垂直方向の画角と等価となるような等
しいピッチに設定する。すなわち、入力画像データ取得
時の水平及び垂直方向の画像面のサイズを「h×v」画
素、撮像レンズ101の焦点距離を「f」とすると、水
平及び垂直方向の画角は、 (2・Tan-1(h/(2・f))) (2・Tan-1(v/(2・f))) となる。尚、焦点距離fは、撮像レンズ101の被写体
像側主点と撮像素子103の受光面の距離を示す。した
がって、補正画像データのサイズを「H×V」画素とす
ると、球面投影を行う際の画素の水平及び垂直方向の角
度ピッチdθ及びdφは、 dθ=(2・Tan-1(h/(2・f)))/H dφ=(2・Tan-1(v/(2・f)))/V ・・・(2) なる式(2)により求められる。尚、式(2)におい
て、「Tan-1」は、「Tan」の逆変換を示す。
Next, the angular pitch of the pixels when performing the spherical projection conversion is obtained (step S132). At this time, the horizontal and vertical pixel angle pitches are such that the horizontal and vertical field angles of the image data after spherical projection conversion are equivalent to the horizontal and vertical field angles of the original input image data. Set equal pitch. That is, assuming that the size of the horizontal and vertical image planes at the time of input image data acquisition is “h × v” pixels and the focal length of the imaging lens 101 is “f”, the horizontal and vertical angle of view is (2. Tan −1 (h / (2 · f))) (2 · Tan −1 (v / (2 · f))). The focal length f indicates the distance between the subject image side principal point of the image pickup lens 101 and the light receiving surface of the image pickup element 103. Therefore, assuming that the size of the corrected image data is “H × V” pixels, the angular pitches dθ and dφ in the horizontal and vertical directions of the spherical projection are as follows: dθ = (2 · Tan −1 (h / (2 .F))) / H dφ = (2 · Tan −1 (v / (2 · f))) / V (2) In Expression (2), “Tan −1 ” indicates an inverse conversion of “Tan”.

【0102】そして、画像データの各画素に対して、後
述するステップS133〜S137の処理を行うことに
より、球面投影画像データを得る。
Then, for each pixel of the image data, the processes of steps S133 to S137, which will be described later, are performed to obtain spherical projection image data.

【0103】すなわち、画像データの各画素に対して
は、先ず、ステップS132で得られた水平及び垂直方
向の角度ピッチdθ及びdφと、補正画像データのサイ
ズとを用いて、球面投影画像データの画素アドレスを画
像中心を原点とした角度座標系(θ,φ)に変換する
(ステップS133)。
That is, for each pixel of the image data, first, the spherical projection image data of the spherical projection image data is obtained using the horizontal and vertical angular pitches dθ and dφ obtained in step S132 and the size of the corrected image data. The pixel address is converted into an angular coordinate system (θ, φ) with the image center as the origin (step S133).

【0104】次に、ステップS133で得られた角度座
標系(θ,φ)を直交座標系(X,Y,Z)に、 X=cosφ・sinθ Y=sinφ Z=cosφ・sinθ ・・・(3) なる式(3)により変換する(ステップS134)。
尚、式(3)に示すように、Y軸を回転軸とした極座標
から直交座標変換への変換を行うものとし、半径方向の
座標値は、このステップS134以後の処理で影響しな
いため「1」とする。
Next, the angular coordinate system (θ, φ) obtained in step S133 is set to the orthogonal coordinate system (X, Y, Z) as follows: X = cosφ · sin θ Y = sin φ Z = cos φ · sin θ. 3) Conversion is performed by the following equation (3) (step S134).
Incidentally, as shown in the equation (3), it is assumed that the polar coordinate with the Y axis as the rotation axis is converted into the orthogonal coordinate conversion, and the coordinate value in the radial direction is not affected by the processing after this step S134, so that "1" is given. ".

【0105】次に、撮影レンズ101の焦点位置(以
下、視点と言う)を中心とした透視変換処理により、ス
テップS134で得られた直交座標系(X,Y,Z)か
ら焦点距離fの位置にある撮像面上での位置(x,y)
を、 x=X・f/Z y=Y・f/Z ・・・(4) なる式(4)により求める(ステップS135)。
Next, the position of the focal length f from the Cartesian coordinate system (X, Y, Z) obtained in step S134 is obtained by the perspective transformation process centered on the focal position of the photographing lens 101 (hereinafter referred to as "viewpoint"). Position (x, y) on the imaging plane at
Is calculated by the equation (4): x = X · f / Z y = Y · f / Z (4) (step S135).

【0106】次に、入力画像データ取得時の水平及び垂
直方向の撮像面の大きさ及び画素ピッチを用いて、上述
したステップS124の処理と同様にして、ステップS
134で行った変換処理の逆変換処理を行い、球面投影
変換前の補正画像データでの、ステップS135で得ら
れた位置(x,y)に対応する画素アドレスを求める
(ステップS136)。
Next, using the size and pixel pitch of the image pickup surface in the horizontal and vertical directions at the time of acquiring the input image data, in the same manner as the above-described processing of step S124, step S124 is performed.
The inverse conversion process of the conversion process performed in 134 is performed to obtain the pixel address corresponding to the position (x, y) obtained in step S135 in the corrected image data before spherical projection conversion (step S136).

【0107】そして、上述したステップS125の処理
と同様にして、ステップS136で得られた画素アドレ
スの画素値であるRGBデータを球面投影画像データの
画素アドレスの画素値としてコピーする(ステップS1
37)。
Then, similar to the process of step S125 described above, the RGB data which is the pixel value of the pixel address obtained in step S136 is copied as the pixel value of the pixel address of the spherical projection image data (step S1).
37).

【0108】上述のようなステップS13の処理によ
り、ステップS12で得られた2つの補正画像データか
ら、例えば、図22に示すような球面に投影した2つの
球面画像I61,I62のデータが得られる。そして、
2つの球面画像データが得られた後、ステップS131
で球面画像データを格納するために確保したメモリ領域
を解放する。
By the processing in step S13 as described above, from the two corrected image data obtained in step S12, for example, data of two spherical images I61 and I62 projected on a spherical surface as shown in FIG. 22 can be obtained. . And
After the two spherical image data are obtained, step S131
The memory area reserved for storing the spherical image data is released.

【0109】次に、ステップS13で得られた2つの球
面画像データ間の対応点を抽出する(ステップS1
4)。
Next, the corresponding points between the two spherical image data obtained in step S13 are extracted (step S1).
4).

【0110】ここで、この電子カメラ100では、使用
者が2つの球面画像データ間の対応点の組を数点カーソ
ル等で指定することができるようになされている。そこ
で、ステップS14では、その指定された対応点の正確
な位置をテンプレートマッチング処理により求める。
Here, in this electronic camera 100, the user can specify a set of corresponding points between two spherical image data with a cursor of several points or the like. Therefore, in step S14, the exact position of the designated corresponding point is obtained by the template matching process.

【0111】具体的に説明すると、ステップS14で
は、図23に示すように、先ず、2つの球面画像データ
を表示部173により画面表示する(ステップS14
1)。ここで、2つの球面画像データを、以下、左画
像、右画像とも言う。
More specifically, in step S14, as shown in FIG. 23, first, two spherical image data are displayed on the screen by the display unit 173 (step S14).
1). Here, the two spherical image data are also referred to as a left image and a right image hereinafter.

【0112】次に、使用者が図示していない操作部を操
作することにより、対応点の組が数点指定され、この指
定された数組の対応点の座標を読み取る(ステップS1
42)。
Next, the user operates an operation unit (not shown) to specify several sets of corresponding points, and the coordinates of the specified several sets of corresponding points are read (step S1).
42).

【0113】そして、指定された数組の対応点各々に対
して、後述するステップS143〜S146に示すテン
プレートマッチング処理を行う。
Then, the template matching process shown in steps S143 to S146, which will be described later, is performed on each of the designated sets of corresponding points.

【0114】すなわち、各対応点の組に対しては、先
ず、2つの球面画像データのうち、左画像から画像デー
タをテンプレートとして切り出す(ステップS14
3)。この切り出されるテンプレートは、左画像の指示
された点を中心とした所定の大きさの矩形領域の画像デ
ータである。
That is, for each set of corresponding points, first, of the two spherical image data, the image data is cut out from the left image as a template (step S14).
3). The cut-out template is image data of a rectangular area of a predetermined size centered on the designated point on the left image.

【0115】次に、ステップS143で切り出されたテ
ンプレートに対応する点を検索する領域を右画像から設
定する(ステップS144)。この検索領域は、右画像
の指示された点を中心とした所定の大きさの矩形領域と
する。
Next, a region for retrieving points corresponding to the template cut out in step S143 is set from the right image (step S144). The search area is a rectangular area of a predetermined size centered on the designated point on the right image.

【0116】次に、ステップS144で設定された検索
領域内において、ステップS143で切り出されたテン
プレートを平行にずらしていき、左画像と右画像の差分
を求める。この差分は、画像データのRGB成分のう
ち、G成分のみで求める。そして、求めた差分の絶対値
の総和が最小となる位置を対応点位置とする(ステップ
S145)。
Next, in the search area set in step S144, the templates cut out in step S143 are shifted in parallel to obtain the difference between the left image and the right image. This difference is obtained only by the G component of the RGB components of the image data. Then, the position where the sum of the absolute values of the obtained differences is the minimum is set as the corresponding point position (step S145).

【0117】そして、ステップS145で得られた対応
点位置に対する信頼性の判定を行う(ステップS14
6)。この信頼性の判定処理は、最小値となった差分の
絶対値の総和、及び2番目に小さい値となった差分の絶
対値の総和を用いて行う。例えば、差分の絶対値の総和
の最小値が第2の所定のしきい値以下であり、差分の絶
対値の総和の2番目に小さい値が第1の所定のしきい値
以上であった場合に、ステップS145で得られた対応
点位置に信頼性があると判定する。このようにして、信
頼性ありと判定された対応点位置の左右画像の座標を、
抽出した対応点データとして上記メモリに格納する。
Then, the reliability of the corresponding point position obtained in step S145 is judged (step S14).
6). This reliability determination processing is performed by using the sum of absolute values of the differences having the minimum value and the sum of absolute values of the differences having the second smallest values. For example, when the minimum sum of absolute differences is less than or equal to a second predetermined threshold and the second smallest sum of absolute differences is greater than or equal to a first predetermined threshold. First, it is determined that the corresponding point position obtained in step S145 is reliable. In this way, the coordinates of the left and right images of the corresponding point positions determined to be reliable are
The extracted corresponding point data is stored in the memory.

【0118】上述のようなステップS14の処理によ
り、ステップS13で得られた2つの球面画像データ間
の対応点の位置座標が得られる。
By the processing in step S14 as described above, the position coordinates of the corresponding points between the two spherical image data obtained in step S13 can be obtained.

【0119】次に、ステップS14で得られた対応点の
位置座標から、2つの球面画像データを合成するための
パラメータを算出する(ステップS15)。ここでは、
パンニング前後の撮影レンズ101の焦点距離は変化し
ていないものとし、上記パラメータとして、水平及垂直
方向の平行移動と回転の3つのパラメータを算出するも
のとする。また、これら3つのパラメータの算出は、2
組以上の対応点の位置座標から最小自乗法により行う。
したがって、このステップS15により、右画像の左画
像に対しての水平及び垂直方向の平行移動と回転のパラ
メータが得られる。
Next, the parameters for synthesizing the two spherical image data are calculated from the position coordinates of the corresponding points obtained in step S14 (step S15). here,
It is assumed that the focal length of the taking lens 101 before and after the panning does not change, and three parameters of parallel movement and rotation in the horizontal and vertical directions are calculated as the above parameters. The calculation of these three parameters is 2
The least squares method is used from the position coordinates of the corresponding points of the set or more.
Therefore, in this step S15, the parameters of the horizontal and vertical translation and rotation of the right image with respect to the left image are obtained.

【0120】尚、ステップS15において、パンニング
前後の撮影レンズ101の焦点距離が変化している場合
には、拡大/縮小のパラメータも算出する必要がある。
また、水平及垂直方向の平行移動と回転の3つのパラメ
ータのうち、垂直方向の平行移動と回転のパラメータは
殆ど「0」に近い値であるため、これら2つのパラメー
タに対して拘束条件を設定して最適化を行い、パラメー
タを算出するようにしてもよい。
In step S15, if the focal length of the taking lens 101 before and after panning has changed, it is necessary to calculate the enlargement / reduction parameters.
Also, among the three parameters of horizontal and vertical translation and rotation, the parameters of translation and rotation in the vertical direction are values close to “0”, so constraint conditions are set for these two parameters. Then, optimization may be performed to calculate the parameters.

【0121】次に、ステップS15で得られたパラメー
タに従って、右画像を水平及び垂直方向の平行移動させ
回転させることにより、左右画像を合成する(ステップ
S16)。ここで、ステップS16で合成される2つの
画像は、予めステップS13で球面投影された画像であ
るため、画像の水平及び垂直方向の平行移動は球面投影
前の画像の水平及び垂直方向のパンニングの相当する。
Next, the right and left images are synthesized by horizontally moving and rotating the right image in accordance with the parameters obtained in step S15 (step S16). Here, since the two images combined in step S16 are images that have been spherically projected in advance in step S13, the horizontal and vertical translations of the images are the same as the panning in the horizontal and vertical directions of the image before spherical projection. Equivalent to.

【0122】具体的に説明すると、ステップS16にお
いて、図24に示すように、先ず、合成後の画像データ
の二次元配列のサイズを求め、求めたサイズ分の領域を
合成画像データを格納する領域として上記メモリに確保
する(ステップS161)。ここで、垂直方向の平行移
動と回転のパラメータは殆ど「0」に近い値であるた
め、ステップS161において、垂直方向のサイズは合
成前の画像データの垂直方向のサイズと同じ値とし、水
平方向のサイズは合成前の画像データの水平方向のサイ
ズにステップS15で得られた水平方向の平行移動のパ
ラメータの画素数に相当するサイズ分加えた値とする。
More specifically, in step S16, as shown in FIG. 24, first, the size of the two-dimensional array of the combined image data is found, and the area of the found size is the area for storing the combined image data. Is secured in the memory (step S161). Here, since the parameters of the parallel translation and rotation in the vertical direction are close to "0", the size in the vertical direction is set to the same value as the size in the vertical direction of the image data before composition in step S161, and The size of is the value obtained by adding the size corresponding to the number of pixels of the horizontal translation parameter obtained in step S15 to the horizontal size of the image data before composition.

【0123】そして、合成画像データの各画素に対し
て、後述するステップS162〜S165の処理を行
う。
Then, the processing of steps S162 to S165, which will be described later, is performed on each pixel of the composite image data.

【0124】すなわち、合成画像データの各画素に対し
ては、先ず、ステップS13で得られた球面投影時の角
度ピッチを用いて、合成画像データの画素アドレスを角
座標系に変換する(ステップS162)。このとき、角
座標系の原点は、左画像の中心点と一致させることによ
り、左画像に関しては、座標変換なしでそのまま画素デ
ータをコピーできるようにする。
That is, for each pixel of the composite image data, first, the pixel address of the composite image data is converted into the angular coordinate system using the angular pitch at the time of spherical projection obtained in step S13 (step S162). ). At this time, the origin of the angular coordinate system is made to coincide with the center point of the left image, so that the pixel data of the left image can be directly copied without coordinate conversion.

【0125】次に、ステップS15で得られたパラメー
タに従って、合成画像データを水平及び垂直方向に平行
移動させ回転させることにより、ステップS162で得
られた合成画像データの角座標系を右画像の角座標系に
変換する(ステップS163)。
Next, the combined image data is translated and rotated in the horizontal and vertical directions in accordance with the parameters obtained in step S15, so that the angular coordinate system of the combined image data obtained in step S162 is changed to the corner of the right image. The coordinate system is converted (step S163).

【0126】次に、右画像のサイズと、ステップS13
で得られた球面投影時の角度ピッチとを用いて、右画像
の角座標系を右画像の画素アドレスに変換する(ステッ
プS164)。
Next, the size of the right image and step S13
The angular coordinate system of the right image is converted into the pixel address of the right image using the angular pitch at the time of spherical projection obtained in (step S164).

【0127】そして、合成画像データの画素アドレスに
対して画素値を割り当てる(ステップS165)。この
とき、画素アドレスが左画像の画像領域内で、かつステ
ップS164で得られた画素アドレスが右画像の画像領
域内である画素に対しては、RGB成分各々に対して左
右画像の画素値の平均値を割り当てる。また、左画像の
みの画像領域内の画素に対しては、右画像の画素値を割
り当て、左画像と右画像の両方の画像の画像領域外の画
素に対しては、ダミー画素値として、例えば、白画素値
を割り当てる。
Then, a pixel value is assigned to the pixel address of the composite image data (step S165). At this time, for the pixel whose pixel address is in the image area of the left image and whose pixel address obtained in step S164 is in the image area of the right image, the pixel values of the left and right images Assign an average value. Further, the pixel value of the right image is assigned to the pixel in the image area of only the left image, and the pixel value outside the image area of both the left image and the right image is set as a dummy pixel value, for example, , Assign white pixel values.

【0128】上述のようなステップS16の処理によ
り、ステップS13で得られた2つの球面画像データが
合成された、例えば、図25に示すような合成画像I6
3が得られ、その後、ステップS161で合成画像デー
タを格納するために確保したメモリ領域を解放する。
By the processing in step S16 as described above, the two spherical image data obtained in step S13 are combined, for example, a combined image I6 as shown in FIG.
3 is obtained, and thereafter, the memory area secured for storing the combined image data in step S161 is released.

【0129】次に、ステップS16で得られた合成画像
データに対して、平面上に再投影変換した画像データを
得る(ステップS17)。
Next, the composite image data obtained in step S16 is reprojected onto a plane to obtain image data (step S17).

【0130】具体的に説明すると、ステップS17にお
いて、図26に示すように、先ず、平面投影変換後の画
像データを格納する領域を合成画像データと同じ二次元
配列のサイズ分だけ上記メモリ上に確保する(ステップ
S171)。
More specifically, in step S17, as shown in FIG. 26, first, the area for storing the image data after the plane projection conversion is stored in the memory by the same size of the two-dimensional array as the composite image data. It is secured (step S171).

【0131】次に、平面投影を行う際の画素ピッチを求
める(ステップS172)。このときの水平及び垂直方
向の画素ピッチは、焦点距離fの撮像面において、平面
投影変換後の画像データ(平面合成画像データ)の水平
及び垂直方向の画角と等価となるようなピッチに設定す
る。すなわち、水平及び垂直方向の半画角は、合成画像
データのサイズを「H×V」画素とし、ステップS13
で得られた球面投影画像データの角度ピッチdθ及びd
φを用いて、 (tan(dθ・(H/2))) (tan(dφ・(V/2))) で表される。したがって、平面投影変換した画像の画素
ピッチは、 dx=ftan(dθ・(H/2))/(H/2) dy=ftan(dφ・(V/2))/(V/2) ・・・(5) なる式(5)により求められる。この式(5)で得られ
る画素ピッチは、撮影時と同じ焦点距離の撮像面に投影
した画像を生成する場合、撮影時に得られた画像の画素
ピッチと等しくなる。
Next, the pixel pitch for the plane projection is obtained (step S172). The pixel pitch in the horizontal and vertical directions at this time is set to a pitch that is equivalent to the angle of view in the horizontal and vertical directions of the image data (planar composite image data) after the plane projection conversion on the imaging surface of the focal length f. To do. That is, for the half angles of view in the horizontal and vertical directions, the size of the composite image data is set to “H × V” pixels, and step S13 is performed.
The angular pitches dθ and d of the spherical projection image data obtained in
By using φ, it is represented by (tan (dθ · (H / 2))) (tan (dφ · (V / 2))). Therefore, the pixel pitch of the image subjected to the plane projection conversion is: dx = ftan (dθ · (H / 2)) / (H / 2) dy = ftan (dφ · (V / 2)) / (V / 2) -(5) It is calculated by the equation (5). The pixel pitch obtained by the equation (5) is equal to the pixel pitch of the image obtained at the time of shooting when an image projected on the imaging surface having the same focal length as that at the time of shooting is generated.

【0132】そして、画像データの各画素に対して、後
述するステップS173〜S177の処理を行うことに
より、平面合成画像データを得る。
Then, for each pixel of the image data, the processes of steps S173 to S177, which will be described later, are performed to obtain the plane composite image data.

【0133】すなわち、画像データの各画素に対して
は、先ず、ステップS172で得られた水平及び垂直方
向の画素ピッチと画像データのサイズを用いて、上述し
たステップS122の処理と同様にして、合成画像デー
タの画素アドレスを画像中心を原点とした座標系(x,
y)に変換する(ステップS173)。
That is, for each pixel of the image data, first, using the pixel pitches in the horizontal and vertical directions and the size of the image data obtained in step S172, in the same manner as the above-described step S122, The coordinate system (x,
y) (step S173).

【0134】次に、視点から撮像面上の点(x,y,
f)に引いた直線と、視点を中心とした球面との交点
(X,Y,Z)を求める(ステップS174)。このと
き、球面の半径は、このステップS174以降の処理に
影響しないため「1」とする。次に、ステップS174
で得られた交点、すなわち直交座標系(X,Y,Z)
を、 θ=sin-1(X/sqrt(X2 +Z2 )) φ=sin-1(Y/Z) ・・・(6) なる式(6)により、球面座標系に変換する(ステップ
S175)。ここで、式(6)において、「sin-1
は「sin」の逆変換を表し、「sqrt」は平方根を
表す。
Next, from the viewpoint, a point (x, y,
The intersection (X, Y, Z) between the straight line drawn in f) and the spherical surface centering on the viewpoint is obtained (step S174). At this time, the radius of the spherical surface is set to "1" because it does not affect the processing after step S174. Next, step S174.
Intersection obtained in, ie, Cartesian coordinate system (X, Y, Z)
Is converted to a spherical coordinate system by the equation (6) such that θ = sin −1 (X / sqrt (X 2 + Z 2 )) φ = sin −1 (Y / Z) (6) (step S175 ). Here, in formula (6), “sin −1
Represents the inverse transformation of "sin", and "sqrt" represents the square root.

【0135】次に、合成画像データの水平及び垂直方向
の撮像面の大きさと角度ピッチを用いて、平面投影変換
前の画像データでの、ステップS175で得られた球面
座標に対応する画素アドレスを求める(ステップS17
6)。
Next, using the size and angle pitch of the image pickup surface in the horizontal and vertical directions of the combined image data, the pixel address corresponding to the spherical coordinates obtained in step S175 in the image data before the plane projection conversion is determined. Obtain (step S17
6).

【0136】そして、上述したステップS125の処理
と同様にして、ステップS176で得られた画素アドレ
スの画素値であるRGBデータを平面投影変換後の画像
データの画素アドレスの画素値としてコピーする(ステ
ップS177)。
Then, similar to the processing of step S125 described above, the RGB data which is the pixel value of the pixel address obtained in step S176 is copied as the pixel value of the pixel address of the image data after the plane projection conversion (step). S177).

【0137】上述のようなステップS17の処理によ
り、ステップS16で得られた合成画像データから、例
えば、図27に示すような平面上に投影した平面合成画
像I64が得られ、その後、ステップS171で平面合
成画像データを格納するために確保したメモリ領域を解
放する。
By the processing in step S17 as described above, for example, a plane composite image I64 projected on a plane as shown in FIG. 27 is obtained from the composite image data obtained in step S16, and then in step S171. The memory area reserved for storing the plane composite image data is released.

【0138】そして最後に、ステップS17で得られた
平面合成画像データを表示部173により画面表示し、
必要に応じて、画像メモリ130に記憶する(ステップ
S18)。
Finally, the plane composite image data obtained in step S17 is displayed on the screen by the display unit 173,
If necessary, the image is stored in the image memory 130 (step S18).

【0139】上述のように、この電子カメラ100で
は、画像合成処理時の画像の平行移動が、撮影時の画像
の水平及び垂直方向のパンニングに相当するような構成
とすることにより、撮影レンズ101の焦点位置を中心
にパンして撮影して得られた2つの画像を合成する場
合、撮影時に多少のカメラのチルトが生じた場合でも合
成画像の重複部分において枠線が二重に生じるようなこ
とがない。したがって、この電子カメラ100は、実際
に撮影したカメラレンズよりも広角のカメラレンズで撮
影したような、自然な合成画像を得ることができる。
As described above, in the electronic camera 100, the taking lens 101 is configured so that the parallel movement of the images during the image synthesizing process corresponds to the horizontal and vertical panning of the images during the photographing. When synthesizing two images obtained by panning around the focus position of the image, even if some camera tilt occurs at the time of shooting, a double border appears in the overlapping portion of the combined image. Never. Therefore, the electronic camera 100 can obtain a natural composite image as if it were taken with a camera lens having a wider angle than the actually taken camera lens.

【0140】尚、上述した電子カメラでは、上記図1の
電子カメラ100と同様な構成であるとしたが、例え
ば、上記図2の電子カメラ200と同様な構成であるも
のとしてもよい。
Although the electronic camera described above has the same configuration as the electronic camera 100 in FIG. 1, it may have the same configuration as the electronic camera 200 in FIG. 2, for example.

【0141】つぎに、本発明の第6の実施の形態につい
て図面を用いて説明する。
Next, a sixth embodiment of the present invention will be described with reference to the drawings.

【0142】本発明に係る画像生成装置は、例えば、図
28に示すような画像合成処理部300を備える電子カ
メラシステムに適用される。この電子カメラシステム
(以下、電子カメラと言う)は、上記図1の電子カメラ
100と同様の構成をしており、画像合成処理部172
の代わりに上記図28の画像合成処理部300が設けら
れたものである。また、画像合成処理部300には、所
定のプログラムが予め設定されており、画像合成処理部
300は、上記プログラムに従った処理を行うようにな
されている。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system including an image synthesizing processing unit 300 as shown in FIG. This electronic camera system (hereinafter referred to as an electronic camera) has the same configuration as the electronic camera 100 shown in FIG.
Instead of the above, the image composition processing unit 300 of FIG. 28 is provided. Further, a predetermined program is set in advance in the image synthesizing processing unit 300, and the image synthesizing processing unit 300 is adapted to perform processing according to the program.

【0143】尚、この電子カメラにおいて、画像合成処
理部300以外の各部は、上記図1の電子カメラ100
と同様であるため、画像合成処理部300以外の各部に
ついての詳細な説明は省略する。
In this electronic camera, each unit other than the image synthesis processing unit 300 is the same as the electronic camera 100 shown in FIG.
Therefore, detailed description of each unit other than the image synthesis processing unit 300 will be omitted.

【0144】まず、画像合成処理部300は、上記図2
8に示すように、制御部301と、制御部301に各々
接続された画像入力部302、画像変換部303及び画
像合成部304とを備えている。
First, the image synthesizing processor 300 operates as shown in FIG.
As shown in FIG. 8, it includes a control unit 301, and an image input unit 302, an image conversion unit 303, and an image synthesis unit 304 which are connected to the control unit 301.

【0145】制御部301は、上記プログラムに従った
処理を行うように装置全体の動作制御を行うものであ
り、例えば、使用者の図示していない操作部の操作に従
って、画像入力部302、画像変換部303及び画像合
成部304に各々制御信号を供給する。これにより、画
像合成処理部300により得られた合成画像等が上記図
1の表示部173により画面表示される。画像入力部3
02には、上記図19に示したステップS11と同様の
処理を行うプログラムが予め設定されている。これによ
り、画像入力部302は、制御部301からの制御信号
に基づいて、使用者により指定された一連の複数の画像
データを図示していないメモリに読み出す。画像変換部
303には、上記図19に示したステップS12、S1
3及びS17と同様の処理を行うプログラムが予め設定
されている。これにより、この画像変換部303は、制
御部301からの制御信号に基づいて、画像入力部30
2で読み出された複数の画像データに対して、歪み補正
処理、球面投影変換処理及び平面投影変換処理を行う。
画像合成部304には、上記図19に示したステップS
14〜S16と同様の処理を行うプログラムが予め設定
されている。これにより、この画像合成部304は、制
御部301からの制御信号に基づいて、画像入力部30
2で読み出された複数の画像データに対して、対応点抽
出処理、上記対応点抽出処理で得られた対応点の座標か
ら複数の画像データを合成するためのパラメータ算出処
理、及び上記パラメータ算出処理で得られたパラメータ
に従って平行移動及び回転を行うって合成画像を生成す
る合成処理を行う。
The control unit 301 controls the operation of the entire apparatus so as to perform the processing in accordance with the above-mentioned program. For example, the image input unit 302 and the image are input according to the operation of the operation unit (not shown) by the user. Control signals are supplied to the conversion unit 303 and the image synthesis unit 304, respectively. As a result, the composite image and the like obtained by the image composition processing unit 300 is displayed on the screen by the display unit 173 of FIG. Image input unit 3
In 02, a program for performing the same processing as step S11 shown in FIG. 19 is preset. As a result, the image input unit 302 reads out a series of a plurality of image data designated by the user to a memory (not shown) based on the control signal from the control unit 301. The image conversion unit 303 has steps S12 and S1 shown in FIG.
3 and a program for performing the same processing as S17 are set in advance. As a result, the image conversion unit 303 causes the image input unit 30 to operate based on the control signal from the control unit 301.
The distortion correction process, the spherical projection conversion process, and the planar projection conversion process are performed on the plurality of image data read in step 2.
The image synthesizing unit 304 has the step S shown in FIG.
A program that performs the same processing as 14 to S16 is set in advance. As a result, the image synthesizing unit 304, based on the control signal from the control unit 301,
Corresponding point extraction processing for the plurality of image data read in step 2, parameter calculation processing for synthesizing a plurality of image data from the coordinates of the corresponding points obtained by the corresponding point extraction processing, and the above parameter calculation A synthesizing process for generating a synthetic image is performed by performing parallel movement and rotation according to the parameters obtained by the process.

【0146】以下、上述のような画像合成処理部300
において、例えば、上記図36に示したように、水平及
び垂直方向の両方向にパンして4回のフレーミングで撮
影して得られた画像c1〜c4を合成する場合について
説明する。
Hereinafter, the image composition processing section 300 as described above.
In the following, for example, as shown in FIG. 36, a case will be described in which images c1 to c4 obtained by panning in both the horizontal and vertical directions and shooting with four times of framing are combined.

【0147】ここで、使用者は、図示していない操作部
を操作することにより、画像c1とc2、画像c3とc
4を合成し、各合成結果の画像を合成するように装置に
指示(コマンド)を与えるものとする。また、画像c1
〜c4は、画像メモリ130に記憶されており、画像変
換処理時に必要な画像サイズ、画素ピッチ及び焦点距離
等のパラメータは、予め与えられているものとする。
Here, the user operates the operation unit (not shown) to display images c1 and c2 and images c3 and c.
4 is given, and an instruction (command) is given to the apparatus so as to synthesize the images of the respective synthesis results. Also, the image c1
It is assumed that parameters c4 to c4 are stored in the image memory 130, and parameters such as an image size, a pixel pitch, and a focal length necessary for the image conversion process are given in advance.

【0148】そこで、図29は、上述のような場合にお
ける画像合成処理部300の処理を示すフローチャート
である。以下、上記図29を用いて、画像合成処理部3
00の各部の動作及び画像合成処理について説明する。
Therefore, FIG. 29 is a flow chart showing the processing of the image composition processing unit 300 in the above case. Hereinafter, the image composition processing unit 3 will be described with reference to FIG.
The operation of each unit of 00 and the image combining process will be described.

【0149】先ず、画像入力部302は、制御部301
からの制御信号に基づいて、画像メモリ130に記憶さ
れた画像c1のデータを図示していないメモリ上に読み
出す(ステップS201)。この読み出された画像c1
は、制御部301の制御により、表示部173で画面表
示される。
First, the image input unit 302 includes the control unit 301.
The data of the image c1 stored in the image memory 130 is read out onto a memory (not shown) based on the control signal from the (step S201). This read image c1
Is displayed on the screen of the display unit 173 under the control of the control unit 301.

【0150】次に、使用者は、表示部173で画面表示
された画像c1を確認し、図示していない操作部を操作
することにより、画像変換部303で画像c1に対する
歪み補正処理、球面投影変換処理が行われるようなコマ
ンドを装置に与える。このコマンドに基づいて制御部3
01が画像変換部303に制御信号を供給することによ
り、画像変換部303は、画像c1に対して、歪み補正
処理及び球面投影変換処理を行う(ステップS20
2)。そして、制御部301は、画像変換部303で歪
み補正処理及び球面投影変換処理が行われた画像c1を
表示部173により画面表示する。
Next, the user confirms the image c1 displayed on the screen of the display unit 173 and operates an operation unit (not shown) to cause the image conversion unit 303 to perform distortion correction processing and spherical projection on the image c1. Give the device a command by which the conversion process is performed. Based on this command, the control unit 3
When 01 supplies the control signal to the image conversion unit 303, the image conversion unit 303 performs the distortion correction process and the spherical projection conversion process on the image c1 (step S20).
2). Then, the control unit 301 causes the display unit 173 to display a screen of the image c1 that has been subjected to the distortion correction processing and the spherical projection conversion processing by the image conversion unit 303.

【0151】次に、ステップS201、S202の各処
理と同様にして、画像c2も上記メモリ上に読み出さ
れ、歪み補正処理及び球面投影変換処理が行われて表示
部173で画面表示される(ステップS203、S20
4)。
Next, the image c2 is also read into the above memory, subjected to the distortion correction processing and the spherical projection conversion processing, and displayed on the screen of the display unit 173 in the same manner as the processing of steps S201 and S202. Steps S203 and S20
4).

【0152】次に、使用者は、図示していない操作部を
操作することにより、表示部173に表示された2つの
画像c1、c2の対応する点を数組指定する。この指定
に基づいて制御部301が画像合成部304に制御信号
を供給することにより、画像合成部304は、指定され
た数組の対応点の座標を求め、正確な対応点の位置を検
出するために、各対応点に対してテンプレートマッチン
グ処理を行う。そして、画像合成部304は、上記テン
プレートマッチング処理により検出された対応点の位置
から、2つの画像c1、c2間の平行移動及び回転のパ
ラメータを最小自乗法により求め、求めたパラメータに
基づいて2つの画像c1、c2を合成する(ステップS
205)。
Next, the user operates an operation unit (not shown) to specify several sets of corresponding points of the two images c1 and c2 displayed on the display unit 173. Based on this designation, the control unit 301 supplies a control signal to the image synthesizing unit 304, so that the image synthesizing unit 304 obtains the coordinates of the designated sets of corresponding points and detects the position of the accurate corresponding points. Therefore, template matching processing is performed for each corresponding point. Then, the image synthesizing unit 304 obtains the parameters of translation and rotation between the two images c1 and c2 from the positions of the corresponding points detected by the template matching process by the method of least squares, and based on the obtained parameters, 2 Two images c1 and c2 are combined (step S
205).

【0153】そして、制御部301は、画像合成部30
4で得られた図30に示すような合成画像c12を表示
部173により画面表示する。また、制御部301は、
合成画像c12を一旦画像メモリ130に記憶する(ス
テップS206)。
Then, the control unit 301 controls the image synthesizing unit 30.
The composite image c12 obtained in No. 4 as shown in FIG. 30 is displayed on the screen by the display unit 173. In addition, the control unit 301
The composite image c12 is temporarily stored in the image memory 130 (step S206).

【0154】次に、ステップS201〜S206と同様
にして、2つの画像c3、c4を合成し、上記図30に
示すような合成画像c34を生成して一旦メモリ130
に記憶する(ステップS207〜S212)。
Next, as in steps S201 to S206, the two images c3 and c4 are combined to generate a combined image c34 as shown in FIG.
(Steps S207 to S212).

【0155】次に、画像入力部302は、制御部301
からの制御信号に基づいて、画像メモリ130に記憶さ
れた2つの合成画像c12、c34を図示していないメ
モリ上に読み出す(ステップS213、S214)。
Next, the image input unit 302 is controlled by the control unit 301.
The two composite images c12 and c34 stored in the image memory 130 are read out onto a memory (not shown) on the basis of the control signal from (steps S213 and S214).

【0156】次に、画像合成部304は、ステップS2
05及びS211の処理と同様にして、2つの合成画像
c12、c34を合成する(ステップS215)。ここ
で、合成画像c12、c34は、画像変換部303で歪
み補正処理及び球面投影変換処理が行われた画像である
ため、画像変換部303で歪み補正処理及び球面投影変
換処理は行う必要はない。このステップS215によ
り、図31に示すような、4つの画像c1〜c4を合成
した合成画像I71が得られる。尚、合成画像I71は
球面投影変換された2つの画像を合成したものであるた
め、以下、球面合成画像I71と言う。
Next, the image synthesizing section 304 carries out step S2.
The two combined images c12 and c34 are combined in the same manner as the processing of 05 and S211 (step S215). Here, since the composite images c12 and c34 are images that have undergone distortion correction processing and spherical projection conversion processing by the image conversion unit 303, there is no need to perform distortion correction processing and spherical projection conversion processing by the image conversion unit 303. . By this step S215, a combined image I71 obtained by combining the four images c1 to c4 as shown in FIG. 31 is obtained. Since the composite image I71 is a composite of two spherical projection-converted images, it will be referred to as a spherical composite image I71 hereinafter.

【0157】次に、画像変換部303は、画像合成部3
04で得られた球面合成画像I71から、平面上に投影
変換した図32に示すような平面合成画像I72を得る
(ステップS216)。
Next, the image conversion section 303 uses the image composition section 3
From the spherical composite image I71 obtained in 04, a plane composite image I72 as shown in FIG. 32 is obtained by projecting and converting the spherical composite image I71 (step S216).

【0158】そして、制御部301は、画像変換部30
3で得られた平面合成画像I72を画像メモリ130に
記憶する(ステップS217)。
Then, the control unit 301 controls the image conversion unit 30.
The plane composite image I72 obtained in 3 is stored in the image memory 130 (step S217).

【0159】上述のように、この電子カメラは、使用者
が図示していない操作部を操作することにより与えられ
た所定のコマンドに従って画像合成処理を行うような構
成としているため、使用者は、所望の合成画像を得るこ
とができる。また、この電子カメラは、カメラレンズの
焦点位置を中心に水平及び垂直方向の両方にパンして撮
影して得られた複数の画像に対して、2つの画像を合成
する処理を順次繰り返して合成画像を生成し、その合成
画像を平面上に再度投影変換するようになされているた
め、実際に撮影したカメラレンズより広角なカメラレン
ズで撮影したような、画角の広い自然な合成画像を得る
ことができる。
As described above, since this electronic camera is constructed so as to perform the image synthesizing process in accordance with the predetermined command given by the user operating the operation unit (not shown), the user A desired composite image can be obtained. In addition, this electronic camera sequentially repeats a process of combining two images with respect to a plurality of images obtained by panning in both the horizontal and vertical directions around the focal position of the camera lens. Since the image is generated and the composite image is projected and converted again on a plane, a natural composite image with a wide angle of view, which is taken by a camera lens wider than the actual camera lens, is obtained. be able to.

【0160】尚、上記図28の画像合成処理部300に
おいて、合成する画像が常に球面投影変換された画像で
ある場合には、画像変換部303の処理を自動化するよ
うにしてもよい。具体的に説明すると、画像合成処理部
300で合成する画像データに対して、歪み補正処理済
のデータであるか否かを示すフラグ(歪み補正フラ
グ)、及び球面投影変換処理済のデータ又は平面投影変
換処理済のデータであるかを示すフラグ(投影面フラ
グ)が付加情報として付加するものとする。そこで、画
像変換部303は、歪み補正処理を行った場合には、歪
み補正フラグを処理済に設定し、球面投影変換処理を行
った場合には、投影面フラグを球面投影変換処理済に設
定し、平面投影変換処理を行った場合には、投影面フラ
グを平面投影変換処理済に設定するようにする。また、
画像合成処理を行う際には、画像変換部303は、合成
する画像データの付加情報に基づいて、常に歪み補正処
理を行い、画像合成部304は、球面投影変換された画
像を合成するようにする。さらに、合成画像を出力する
際には、画像合成部304は、合成する画像データの付
加情報に基づいて、常に平面投影変換した合成画像を出
力するようにする。上述のような構成とすることによ
り、効率よく高画質の合成画像を得ることができる。
If the image to be combined in the image combining processing unit 300 shown in FIG. 28 is always an image subjected to spherical projection conversion, the process of the image converting unit 303 may be automated. More specifically, a flag (distortion correction flag) indicating whether or not the image data to be combined by the image combining processing unit 300 is distortion correction processed data, and spherical projection conversion processed data or plane. A flag (projection plane flag) indicating whether the data has been subjected to the projection conversion process is added as additional information. Therefore, the image conversion unit 303 sets the distortion correction flag to processed when the distortion correction processing is performed, and sets the projection surface flag to spherical projection conversion processing when the spherical projection conversion processing is performed. Then, when the plane projection conversion process is performed, the projection plane flag is set to the plane projection conversion process completed. Also,
When performing the image synthesizing process, the image converting unit 303 always performs the distortion correcting process based on the additional information of the image data to be synthesized, and the image synthesizing unit 304 synthesizes the spherical projection-converted images. To do. Further, when outputting the combined image, the image combining unit 304 always outputs the combined image subjected to the plane projection conversion based on the additional information of the image data to be combined. With the configuration as described above, a high quality composite image can be efficiently obtained.

【0161】また、上述した電子カメラは、平面投影変
換処理を行うことにより、実際に撮影したカメラレンズ
より広角なカメラレンズで撮影したような自然な合成画
像を得るようになされているが、必ずしも平面投影変換
処理が行われた合成画像を出力する必要はない。具体的
に説明すると、上記電子カメラは、2つの画像を合成す
る処理を順次繰り返して合成画像を生成する構成として
いるため、例えば、5つ以上の画像をも合成することが
できる。しかし、合成画像の視野が180°に達する
と、平面投影変換処理を行うことはできないため、この
ような場合、球面投影変換処理を行った合成画像を出力
することが望ましい。したがって、合成画像の視野に応
じて、平面投影変換処理で得られた画像と球面投影変換
処理で得られた画像を選択的に出力するようにしてもよ
い。
The above-described electronic camera is designed to obtain a natural composite image as if it was taken by a camera lens having a wider angle than the actually taken camera lens by performing the plane projection conversion process. It is not necessary to output the composite image that has undergone the plane projection conversion process. More specifically, since the electronic camera is configured to sequentially repeat the process of synthesizing two images to generate a synthetic image, it is possible to synthesize, for example, five or more images. However, when the field of view of the combined image reaches 180 °, the plane projection conversion process cannot be performed. Therefore, in such a case, it is desirable to output the combined image subjected to the spherical projection conversion process. Therefore, the image obtained by the plane projection conversion process and the image obtained by the spherical projection conversion process may be selectively output according to the visual field of the composite image.

【0162】また、上述した電子カメラでは、画像変換
処理時に必要な画像サイズ、画素ピッチ及び焦点距離等
のパラメータが予め与えられているものとしたが、これ
らのパラメータを、画像合成処理部300で合成する画
像データに付加情報として付加するようにしてもよい。
この場合、画像変換部303及び画像合成部304は、
合成する画像データに付加された付加情報からパラメー
タを読み出し、そのパラメータに基づいて処理を行うよ
うにする。
このとき、平面投影変換処理が行われた画像
に対しては、画素ピッチのパラメータとして、撮像面上
でのピッチを用い、球面投影変換処理が行われた画像に
対しては、画素ピッチのパラメータとして、角度ピッチ
を用いるのが望ましい。
In the electronic camera described above, parameters such as image size, pixel pitch, and focal length necessary for image conversion processing are given in advance. However, these parameters are used by the image synthesizing processing unit 300. It may be added as additional information to the image data to be combined.
In this case, the image conversion unit 303 and the image composition unit 304
A parameter is read from the additional information added to the image data to be combined, and processing is performed based on the parameter.
At this time, the pitch on the imaging surface is used as the pixel pitch parameter for the image subjected to the plane projection conversion process, and the pixel pitch parameter is used for the image subjected to the spherical projection conversion process. Therefore, it is desirable to use the angular pitch.

【0163】また、上述した電子カメラでは、所定のプ
ログラムに従って上述したような各処理を行うこととし
たが、上記プログラムをそのままハードウェア化して、
画像合成処理装置として用いることもできる。
In the electronic camera described above, the above-described processes are performed according to a predetermined program. However, the program is directly implemented as hardware,
It can also be used as an image composition processing device.

【0164】また、上述した電子カメラでは、上記図1
の電子カメラ100と同様な構成であるとしたが、例え
ば、上記図2の電子カメラ200と同様の構成であると
してもよい。
Further, in the electronic camera described above,
Although the electronic camera 100 has the same configuration as that of the electronic camera 100, it may have the same configuration as the electronic camera 200 of FIG.

【0165】つぎに、本発明の第7の実施の形態につい
て図面を用いて説明する。
Next, a seventh embodiment of the present invention will be described with reference to the drawings.

【0166】本発明に係る画像生成装置は、例えば、図
33に示すような電子カメラシステム400に適用され
る。
The image generating apparatus according to the present invention is applied to, for example, an electronic camera system 400 as shown in FIG.

【0167】この電子カメラシステム(以下、単に電子
カメラと言う)400は、上記図33に示すように、上
記図1の電子カメラ100の構成要件に加えて、信号処
理ユニット190に接続された角度検出部401を備え
ている。この角度検出部401は、ジャイロ等を使用し
ており、撮影時に電子カメラ400が移動されたことに
より発生するパンニング角度を検出するものである。そ
して、電子カメラ400は、角度検出部401により検
出されたパンニング角度の情報に基づいた画像合成処理
を行うようになされている。
As shown in FIG. 33, this electronic camera system (hereinafter, simply referred to as an electronic camera) 400 has, in addition to the structural requirements of the electronic camera 100 of FIG. 1, an angle connected to the signal processing unit 190. The detector 401 is provided. The angle detection unit 401 uses a gyro or the like, and detects a panning angle generated due to the movement of the electronic camera 400 during shooting. Then, the electronic camera 400 is configured to perform an image synthesizing process based on the information of the panning angle detected by the angle detection unit 401.

【0168】尚、上記図33の電子カメラ400におい
て、上記1の電子カメラ100と同様に動作する箇所に
は同じ符号を付し、その詳細な説明は省略する。また、
後述する画像合成処理部172の動作については、上述
した第1の実施の形態での動作と異なる箇所を具体的に
説明し、その他の箇所については上記第1の実施の形態
と同様であるため、その詳細な説明は省略する。
In the electronic camera 400 shown in FIG. 33, parts that operate in the same manner as in the electronic camera 100 described above are given the same reference numerals, and detailed description thereof will be omitted. Also,
Regarding the operation of the image synthesizing processing unit 172 described later, a part different from the operation in the above-described first embodiment will be specifically described, and the other parts are the same as those in the above-described first embodiment. , Its detailed description is omitted.

【0169】すなわち、角度検出部401は、図34に
示すように、角速度センサ401aと、角速度センサ4
01aの出力が供給されるA/D変換器401bと、A
/D変換器401bの出力が供給される角度演算器40
1cからなり、角度演算器401cの出力が信号処理ユ
ニット190に供給されるようになされている。
That is, as shown in FIG. 34, the angle detector 401 includes the angular velocity sensor 401a and the angular velocity sensor 4a.
A / D converter 401b to which the output of 01a is supplied,
Angle calculator 40 to which the output of the D / D converter 401b is supplied
1c, and the output of the angle calculator 401c is supplied to the signal processing unit 190.

【0170】先ず、角度センサ401aは、装置の移動
により発生する角度変化に従った出力信号VをA/D変
換器401bに供給する。この出力信号Vのレベルは、
角速度に比例したものである。A/D変換器401b
は、角度センサ401aからの出力信号Vをディジタル
化してディジタルデータDとして角度演算器401cに
供給する。角度演算器401cは、A/D変換器401
bからのディジタルデータDを、例えば、1s分積分す
ることにより平均レベルDavgを求め、この平均レベ
ルDavgを角度成分に変換して角度信号を得る。そし
て、角度演算器401cで得られた角度信号は、信号処
理ユニット190に供給される。
First, the angle sensor 401a supplies the A / D converter 401b with the output signal V according to the angle change generated by the movement of the device. The level of this output signal V is
It is proportional to the angular velocity. A / D converter 401b
Outputs the output signal V from the angle sensor 401a as digital data D to the angle calculator 401c. The angle calculator 401c is the A / D converter 401
An average level Davg is obtained by integrating the digital data D from b for 1 s, for example, and this average level Davg is converted into an angle component to obtain an angle signal. Then, the angle signal obtained by the angle calculator 401c is supplied to the signal processing unit 190.

【0171】そして、信号処理ユニット190は、角度
検出部401により得られた角度信号の情報を、画像メ
モリ130に書き込まれる画像データに対応ずけて画像
メモリ130のヘッダ部に書き込む。
Then, the signal processing unit 190 writes the information of the angle signal obtained by the angle detector 401 in the header portion of the image memory 130 in correspondence with the image data written in the image memory 130.

【0172】次に、画像合成処理部172においては、
上記図10に示すように、画像情報分離部172fによ
り画像メモリ130から読み出された画像データがヘッ
ダ部とデータ部に分離され、コントローラ172eに
は、ヘッダ部の情報(ヘッダ情報)が供給され、画像メ
モリ172gには、データ部の情報(画像情報)が書き
込まれる。
Next, in the image composition processing section 172,
As shown in FIG. 10, the image information separating section 172f separates the image data read from the image memory 130 into a header section and a data section, and the controller 172e is supplied with header section information (header information). Information of the data section (image information) is written in the image memory 172g.

【0173】コントローラ172eは、画像情報分離部
172fから供給されたヘッダ情報に含まれる撮影時の
角度成分の情報と、予め設定されているしきい値とを比
較し、上記角度成分がしきい値以上であった場合には遠
距離パノラマ撮影と判別し、上記角度成分がしきい値以
下であった場合には近距離パノラマ撮影と判別して、そ
の判別結果をセレクタ172kに供給する。
The controller 172e compares the information of the angle component at the time of photographing included in the header information supplied from the image information separating unit 172f with a preset threshold value, and the angle component is the threshold value. If it is greater than or equal to the above, it is determined to be the long-distance panoramic shooting, and if the angle component is equal to or less than the threshold value, it is determined to be the short-distance panoramic shooting and the determination result is supplied to the selector 172k.

【0174】セレクタ172kは、コントローラ172
eからの判別結果に応じて、近距離パラメータ抽出部1
72c又は遠距離パラメータ抽出部172dの何れかを
選択して、対応点検出部172bで得られた対応点の情
報を供給する。
The selector 172k is the controller 172.
According to the determination result from e, the short-distance parameter extraction unit 1
Either 72c or the long-distance parameter extraction unit 172d is selected, and the information of the corresponding points obtained by the corresponding point detection unit 172b is supplied.

【0175】以降、上述した第1の実施の形態と同様の
処理を行うことにより、合成画像を生成する。
Thereafter, the same processing as in the above-described first embodiment is performed to generate a composite image.

【0176】上述のように、電子カメラ400では、撮
影時の装置の移動により発生する角度成分に基づいて、
画像合成処理を自動的に選択するようになされているた
め、パンイング等の装置の移動に対して適切な画像合成
処理を行うことができる。したがって、電子カメラ40
0は、高画質のパノラマ画像を効率良く得ることができ
る。
As described above, in the electronic camera 400, based on the angle component generated by the movement of the device at the time of photographing,
Since the image synthesizing process is automatically selected, it is possible to perform an appropriate image synthesizing process with respect to movement of the device such as panning. Therefore, the electronic camera 40
With 0, a high quality panoramic image can be obtained efficiently.

【0177】尚、上述した電子カメラ400では、角速
度センサ401aを設けることにより、電子カメラ40
0の移動により発生する角度成分を検出することとした
が、加速度センサ等を設けることにより、電子カメラ4
00の移動により発生する並進成分(並進移動量)を検
出するようにしてもよい。この場合、画像合成処理部1
72において、コントローラ172eは、検出された撮
影時の並進移動量が予め設定されているしきい値より大
きい場合には近距離パノラマ撮影と判別し、上記並進移
動量がしきい値より小さい場合には遠距離パノラマ撮影
と判別する。この場合も、角度成分を検出する場合と同
様に、高画質のパノラマ画像を効率良く得ることができ
る。
In the electronic camera 400 described above, the electronic camera 40 is provided by providing the angular velocity sensor 401a.
Although the angle component generated by the movement of 0 is detected, by providing an acceleration sensor or the like, the electronic camera 4
The translational component (translational movement amount) generated by the movement of 00 may be detected. In this case, the image composition processing unit 1
At 72, the controller 172e determines to be a short-distance panoramic shooting when the detected translational movement amount is larger than a preset threshold value, and when the translational movement amount is smaller than the threshold value. Is a long-distance panoramic shot. Also in this case, a high quality panoramic image can be efficiently obtained as in the case of detecting the angle component.

【0178】[0178]

【発明の効果】以上説明したように本発明によれば、撮
影条件に応じて選択された適切な画像合成処理で合成画
像を生成するように構成したことにより、常に高画質の
合成画像を得ることができる。また、本発明によれば、
使用者が画像を合成するための操作を行うことなく、自
動的に合成画像を生成するように構成したことにより、
使用者の負荷を低減することができ、簡便に合成画像を
得ることができる。また、本発明によれば、焦点位置情
報により、合成する画像が近距離撮影で得られたもので
あるか、遠距離撮影で得られたものであるかを自動的に
判別し、その判別結果により選択した適切な画像合成処
理で合成画像を生成するように構成したことにより、被
写体距離に依存せずに簡便に高画質の合成画像を得るこ
とができる。また、本発明によれば、複数の画像を合成
する際に、撮影条件に基づいて複数の画像において隣り
合う画像との連結部付近の画像を変換して、上記連結部
付近目立たなくするように構成したことにより、違和感
のない高画質の合成画像を得ることができる。また、本
発明によれば、撮影条件に基づいて複数の画像において
隣り合う画像との連結部付近の画像の濃度レベルを補正
して、上記連結部付近目立たなくするように構成したこ
とにより、違和感のない高画質の合成画像を得ることが
できる。また、本発明によれば、撮影条件に基づいて合
成する複数の画像に球面変換処理を行うように構成した
ことにより、歪みの除去された自然な高画質の合成画像
を得ることができる。また、本発明によれば、撮影時の
焦点位置を中心に水平及び垂直の両方向にパンして得ら
れた複数の画像を合成する場合でも、複数の画像におい
て隣り合う画像との連結部付近の画像が重複することが
ないように構成したことにより、自然な高画質の合成画
像を得ることができる。また、本発明によれば、合成画
像を平面上に再投影変換するように構成したことによ
り、実際に撮影したカメラレンズよりも広角のカメラレ
ンズで撮影したような高画質の合成画像を得ることがで
きる。例えば、2つの画像の合成処理を順次繰り返すこ
とにより、自由なフレーミングで撮影した多数の画像か
ら、さらに画角の広い合成画像を得ることができる。ま
た、本発明によれば、球面投影変換処理及び平面投影変
換処理を指示することなく自動的に行うように構成した
ことにより、簡便に高画質の合成画像を得ることができ
る。また、本発明によれば、合成画像の視野に応じた適
切な画像合成処理で合成画像を生成するように構成した
ことにより、撮影する画像の視野に依存することなく、
常に高画質の合成画像を得ることができる。また、本発
明によれば、使用者が近距離撮影及び遠距離撮影のため
の操作を行うことなく、被写体距離に応じて自動的に近
距離撮影及び遠距離撮影を行うように構成したことによ
り、簡便に合成画像を得ることができる。また、本発明
によれば、撮影時の撮影情報に応じて画像の合成方式を
切り換えるように構成したことにより、装置の移動情報
に対して最適な画像合成処理を行うことができる。した
がって、高画質の合成画像を効率よく得ることができ
る。例えば、パンニング等の装置の移動に対して最適な
画像合成処理を行うことができる。
As described above, according to the present invention, since the composite image is generated by the appropriate image composition processing selected according to the photographing conditions, a high quality composite image is always obtained. be able to. According to the present invention,
By configuring to automatically generate a composite image without the user performing an operation to combine the images,
The load on the user can be reduced, and a composite image can be easily obtained. Further, according to the present invention, it is automatically determined whether the image to be combined is obtained by short-distance photography or long-distance photography based on the focus position information, and the discrimination result Since the composite image is configured to be generated by the appropriate image composition processing selected by, the high-quality composite image can be easily obtained without depending on the subject distance. Further, according to the present invention, when synthesizing a plurality of images, an image in the vicinity of a connecting portion between adjacent images in the plurality of images is converted based on the shooting condition so that the vicinity of the connecting portion becomes inconspicuous. With the configuration, it is possible to obtain a high-quality composite image without a feeling of strangeness. Further, according to the present invention, the density level of the image in the vicinity of the connecting portion between the adjacent images in the plurality of images is corrected based on the photographing condition so as to make the image in the vicinity of the connecting portion inconspicuous, thereby making the user feel uncomfortable. It is possible to obtain a high-quality composite image with no image. Further, according to the present invention, since the spherical conversion processing is performed on the plurality of images to be combined based on the shooting condition, it is possible to obtain a natural high-quality combined image from which distortion is removed. Further, according to the present invention, even when a plurality of images obtained by panning in both the horizontal and vertical directions around the focus position at the time of shooting are combined, a plurality of images in the vicinity of a connection portion with adjacent images are combined. By configuring so that the images do not overlap, a natural high quality composite image can be obtained. Further, according to the present invention, since the composite image is configured so as to be re-projected on a plane, a high quality composite image as if taken by a camera lens having a wider angle than the actually taken camera lens can be obtained. You can For example, by sequentially repeating the combining process of two images, it is possible to obtain a combined image having a wider angle of view from a large number of images photographed by free framing. Further, according to the present invention, since the spherical projection conversion processing and the plane projection conversion processing are automatically performed without instructing, a high quality composite image can be easily obtained. Further, according to the present invention, since the composite image is configured to be generated by the appropriate image composition processing according to the visual field of the composite image, the visual field of the image to be captured does not depend on the visual field.
It is possible to always obtain a high quality composite image. Further, according to the present invention, the user is configured to automatically perform short-distance photography and long-distance photography according to the subject distance without performing operations for short-distance photography and long-distance photography. Therefore, a composite image can be easily obtained. Further, according to the present invention, since the image synthesizing method is switched according to the photographing information at the time of photographing, the optimum image synthesizing process can be performed on the movement information of the device. Therefore, a high-quality composite image can be efficiently obtained. For example, it is possible to perform optimal image composition processing with respect to movement of the device such as panning.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態において、本発明に
係る画像生成装置を適用した電子カメラシステムの構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an electronic camera system to which an image generating apparatus according to the present invention is applied in a first embodiment of the present invention.

【図2】近距離パノラマ撮影をする被写体を示す平面図
である。
FIG. 2 is a plan view showing a subject for short-distance panoramic photography.

【図3】上記近距離パノラマ撮影の撮影状況を説明する
ための図である。
FIG. 3 is a diagram for explaining a shooting condition of the short-distance panoramic shooting.

【図4】上記近距離パノラマ撮影で得られた2つの画像
を示す平面図である。
FIG. 4 is a plan view showing two images obtained by the short-distance panoramic photography.

【図5】上記2つの画像を合成して得られた合成画像を
示す平面図である。
FIG. 5 is a plan view showing a combined image obtained by combining the two images.

【図6】遠距離パノラマ撮影の撮影状況を説明するため
の図である。
FIG. 6 is a diagram for explaining a shooting situation of long-distance panoramic shooting.

【図7】上記遠距離パノラマ撮影で得られた3つの画像
を示す平面図である。
FIG. 7 is a plan view showing three images obtained by the long-distance panoramic photography.

【図8】上記3つの画像を合成して得られた合成画像を
示す平面図である。
FIG. 8 is a plan view showing a combined image obtained by combining the above three images.

【図9】上記電子カメラシステムの画像メモリに記憶さ
れる画像データを説明するための図である。
FIG. 9 is a diagram for explaining image data stored in an image memory of the electronic camera system.

【図10】上記電子カメラシステムの画像合成処理部の
構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of an image composition processing unit of the electronic camera system.

【図11】本発明の第2の実施の形態において、本発明
に係る撮像装置を適用した電子カメラシステムの画像合
成処理部の構成を示すブロック図である。
FIG. 11 is a block diagram showing a configuration of an image composition processing unit of an electronic camera system to which an image pickup apparatus according to the present invention is applied in the second embodiment of the present invention.

【図12】上記画像合成処理部の球面投影処理を説明す
るための図である。
FIG. 12 is a diagram for explaining spherical projection processing of the image composition processing unit.

【図13】上記球面投影処理により得られる球面投影画
像を説明するための図である。
FIG. 13 is a diagram for explaining a spherical projection image obtained by the spherical projection processing.

【図14】本発明の第3の実施の形態において、本発明
に係る撮像装置を適用した電子カメラシステムの画像合
成処理部の構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of an image composition processing unit of an electronic camera system to which an image pickup apparatus according to the present invention is applied in the third embodiment of the present invention.

【図15】上記画像合成処理部で処理対象となる画像を
示す平面図である。
FIG. 15 is a plan view showing an image to be processed by the image composition processing unit.

【図16】上記画像合成処理部の濃度レベル補正処理を
説明するための図である。
FIG. 16 is a diagram for explaining a density level correction process of the image composition processing unit.

【図17】本発明の第4の実施の形態において、本発明
に係る撮像装置を適用した電子カメラシステムの構成を
示すブロック図である。
FIG. 17 is a block diagram showing a configuration of an electronic camera system to which an image pickup apparatus according to the present invention has been applied in the fourth embodiment of the present invention.

【図18】2つの撮像部の各光軸を制御する処理を説明
するための図である。
FIG. 18 is a diagram for explaining a process of controlling each optical axis of two imaging units.

【図19】本発明の第5の実施の形態において、本発明
に係る撮像装置を適用した電子カメラシステムの画像合
成処理部の処理を示すフローチャートである。
FIG. 19 is a flowchart showing a process of an image synthesizing processing unit of an electronic camera system to which an image pickup apparatus according to the present invention has been applied, in the fifth embodiment of the present invention.

【図20】上記画像合成処理部の処理において、画像入
力処理を具体的に示すフローチャートである。
FIG. 20 is a flowchart specifically showing an image input process in the process of the image composition processing unit.

【図21】上記画像合成処理部の処理において、球面投
影変換処理を具体的に示すフローチャートである。
FIG. 21 is a flowchart specifically showing spherical projection conversion processing in the processing of the image composition processing section.

【図22】上記球面投影変換処理により得られる2つの
球面投影画像を示す平面図である。
FIG. 22 is a plan view showing two spherical projection images obtained by the spherical projection conversion processing.

【図23】上記画像合成処理部の処理において、対応点
抽出処理を具体的に示すフローチャートである。
FIG. 23 is a flowchart specifically showing a corresponding point extraction process in the process of the image composition processing unit.

【図24】上記画像合成処理部の処理において、画像合
成処理を具体的に示すフローチャートである。
FIG. 24 is a flowchart specifically showing an image synthesizing process in the process of the image synthesizing processing unit.

【図25】上記画像合成処理により得られる球面投影合
成画像を示す平面図である。
FIG. 25 is a plan view showing a spherical projection combined image obtained by the image combining processing.

【図26】上記画像合成処理部の処理において、平面投
影変換処理を具体的に示すフローチャートである。
FIG. 26 is a flowchart specifically showing a plane projection conversion process in the process of the image composition processing unit.

【図27】上記平面投影変換処理により得られる平面投
影合成画像を示す平面図である。
FIG. 27 is a plan view showing a plane projection combined image obtained by the plane projection conversion process.

【図28】本発明の第6の実施の形態において、本発明
に係る撮像装置を適用した電子カメラシステムの画像合
成処理部の構成を示すブロック図である。
FIG. 28 is a block diagram showing a configuration of an image composition processing unit of an electronic camera system to which an image pickup apparatus according to the present invention has been applied, in the sixth embodiment of the present invention.

【図29】上記画像合成処理部の処理を示すフローチャ
ートである。
FIG. 29 is a flowchart showing the processing of the image composition processing unit.

【図30】上記画像合成処理部において、各々2つの球
面投影画像を合成して得られる2つの合成画像を示す平
面図である。
FIG. 30 is a plan view showing two synthetic images obtained by synthesizing two spherical projection images in the image synthesis processing unit.

【図31】上記2つの合成画像を合成して得られる合成
画像を示す平面図である。
FIG. 31 is a plan view showing a composite image obtained by combining the two composite images.

【図32】上記合成画像に平面投影変換処理を行うこと
により得られる画像を示す平面図である。
FIG. 32 is a plan view showing an image obtained by performing a plane projection conversion process on the composite image.

【図33】本発明の第7の実施の形態において、本発明
に係る画像生成装置を適用した電子カメラシステムの構
成を示すブロック図である。
FIG. 33 is a block diagram showing the configuration of an electronic camera system to which an image generating apparatus according to the present invention has been applied in the seventh embodiment of the present invention.

【図34】上記電子カメラシステムの角度検出部の構成
を示すブロック図である。
FIG. 34 is a block diagram showing a configuration of an angle detection unit of the electronic camera system.

【図35】従来の電子カメラシステムを水平方向にパン
ニングして2つの画像を撮影する場合を説明するための
図である。
FIG. 35 is a diagram for explaining a case where two images are captured by panning a conventional electronic camera system in the horizontal direction.

【図36】上記電子カメラシステムにより得られた2つ
の画像を示す平面図である。
FIG. 36 is a plan view showing two images obtained by the electronic camera system.

【図37】上記2つの画像を合成して得られる合成画像
を示す平面図である。
FIG. 37 is a plan view showing a combined image obtained by combining the two images.

【図38】上記電子カメラシステムにより、長方形の枠
を4回のフレーミングで撮影した場合に得られる4つの
画像を示す平面図である。
FIG. 38 is a plan view showing four images obtained when the rectangular frame is photographed by framing four times by the electronic camera system.

【図39】円柱面上への画像の投影は行わずに平行移動
のみで上記4つの画像を合成して得られる合成画像を示
す平面図である。
FIG. 39 is a plan view showing a combined image obtained by combining the above four images only by parallel movement without projecting the image on the cylindrical surface.

【図40】一旦円柱面上への画像の投影を行って平行移
動して上記4つの画像を合成して得られる合成画像を示
す平面図である。
FIG. 40 is a plan view showing a combined image obtained by temporarily projecting an image on a cylindrical surface and translating the image and combining the four images.

【符号の説明】[Explanation of symbols]

172 画像合成処理部 172a 入出力部 172b 対応点検出部 172c 近距離撮影パラメータ抽出部 172d 遠距離撮影パラメータ抽出部 172e コントローラ 172f 画像情報分離部 172g 画像メモリ 172h 合成画像用メモリ 172i 近距離撮影座標変換処理部 172j 遠距離撮影座標変換処理部 172k セレクタ 172 Image synthesis processing unit 172a Input / output unit 172b Corresponding point detection unit 172c Short-distance shooting parameter extraction unit 172d Long-distance shooting parameter extraction unit 172e Controller 172f Image information separation unit 172g Image memory 172h Composite image memory 172i Short-distance shooting coordinate conversion process Part 172j long-distance photographing coordinate conversion processing part 172k selector

───────────────────────────────────────────────────── フロントページの続き (72)発明者 羽鳥 健司 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kenji Hatori 3-30-2 Shimomaruko, Ota-ku, Tokyo Inside Canon Inc.

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 撮影手段により画面の一部が重複するよ
うに被写体像を複数画面に分割して撮影し、上記撮影手
段で得られた一連の複数の画像を合成して合成画像を生
成する画像生成装置であって、 撮影時の撮影条件を検出する検出手段と、 上記撮影手段で得られた複数の画像と共に各画像に対応
して上記検出手段により検出された撮影条件を記憶する
記憶手段と、 上記記憶手段に記憶された一連の複数の画像を合成して
合成画像を生成する画像合成手段と、 上記画像合成手段を制御する制御手段とを備え、 上記画像合成手段は、上記撮影条件に対応した複数の合
成手段からなり、 上記制御手段は、各画像に対応する撮影条件に基づいて
上記複数の合成手段を選択的に切り替え、 上記制御手段により選択的に切り替えられた合成手段
は、一連の複数の画像を合成することを特徴とする画像
生成装置。
1. A photographing device divides an image of a subject into a plurality of screens so that a part of the screens overlaps each other, and a series of a plurality of images obtained by the photographing device is combined to generate a combined image. An image generating apparatus, a detection means for detecting shooting conditions at the time of shooting, and a storage means for storing the plurality of images obtained by the shooting means and the shooting conditions detected by the detection means corresponding to each image. And an image synthesizing unit that synthesizes a series of images stored in the storage unit to generate a synthetic image, and a control unit that controls the image synthesizing unit. And a control means for selectively switching the plurality of composition means based on a photographing condition corresponding to each image, and the composition means selectively switched by the control means is Image generation apparatus characterized by combining a plurality of images of communicating.
【請求項2】 上記画像合成手段は、各画像の重複部分
における対応点を検出する対応点検出手段と、各画像に
座標変換処理を施して合成画像を生成する座標変換手段
と、上記対応点検出手段で検出された対応点に基いて撮
影パラメータを生成するパラメータ生成手段とを備え、 上記座標変換手段は、上記パラメータ生成手段で生成さ
れた撮影パラメータを用いて上記座標変換処理を行うこ
とを特徴とする請求項1記載の画像生成装置。
2. The image synthesizing means, the corresponding point detecting means for detecting corresponding points in the overlapping portions of the respective images, the coordinate converting means for subjecting the respective images to a coordinate converting process to generate a synthetic image, and the correspondence check. Parameter generating means for generating a photographing parameter based on the corresponding point detected by the outputting means, wherein the coordinate converting means performs the coordinate converting process using the photographing parameter generated by the parameter generating means. The image generation apparatus according to claim 1, characterized in that
【請求項3】 上記検出手段は、撮影条件として撮影時
の焦点位置情報を検出し、 上記画像合成手段は、近距離撮影により得られた一連の
複数の画像を合成する近距離合成手段と、遠距離撮影に
より得られた一連の複数の画像を合成する遠距離合成手
段とを備え、 上記制御手段は、各画像に対応する焦点位置情報により
合成する一連の複数の画像が近距離撮影により得られた
ものであるか遠距離撮影により得られたものであるかを
判別し、その判別結果に基づいて上記近距離合成手段と
上記遠距離合成手段を選択的に切り替えることを特徴と
する請求項1記載の画像生成装置。
3. The detecting means detects focus position information at the time of photographing as the photographing condition, and the image synthesizing means combines short-distance synthesizing means for synthesizing a series of a plurality of images obtained by short-distance photographing. A long-distance synthesizing means for synthesizing a series of a plurality of images obtained by the long-distance shooting; It is discriminated whether it is the one obtained by long-distance photographing or the one obtained by long-distance photographing, and the short-distance composition means and the long-distance composition means are selectively switched based on the discrimination result. 1. The image generation device according to 1.
【請求項4】 上記画像合成手段は、各画像に対応する
撮影条件に基づいて各画像の重複部分の画素値を変換す
る変換手段を備えることを特徴とする請求項1記載の画
像生成装置。
4. The image generating apparatus according to claim 1, wherein the image synthesizing unit includes a converting unit that converts a pixel value of an overlapping portion of each image based on a shooting condition corresponding to each image.
【請求項5】 上記検出手段は、撮影条件として撮影時
の露出情報を検出し、 上記変換手段は、各画像に対応する露出情報に基づいて
各画像の重複部分の濃度レベルを補正することを特徴と
する請求項4記載の画像生成装置。
5. The detecting means detects exposure information at the time of shooting as a shooting condition, and the converting means corrects the density level of an overlapping portion of each image based on the exposure information corresponding to each image. The image generating apparatus according to claim 4, characterized in that
【請求項6】 上記画像合成手段は、各画像に対応する
撮影条件に基づいて各画像を球面上に投影変換して球面
投影画像を生成する球面投影変換手段を有し、上記球面
投影変換手段で得られた複数の球面投影画像を合成する
ことを特徴とする請求項1記載の画像生成装置。
6. The image synthesizing means has a spherical projection converting means for projecting and converting each image onto a spherical surface to generate a spherical projection image based on a photographing condition corresponding to each image, and the spherical projection converting means. The image generation apparatus according to claim 1, wherein the plurality of spherical projection images obtained in (1) are combined.
【請求項7】 上記球面投影変換手段は、撮影時の焦点
位置を中心とする球面に投影変換することを特徴とする
請求項6記載の画像生成装置。
7. The image generation apparatus according to claim 6, wherein the spherical projection conversion means performs projection conversion into a spherical surface centered on a focal position at the time of photographing.
【請求項8】 上記画像合成手段は、上記球面投影変換
手段で得られた複数の球面投影画像を合成した合成画像
を平面上に投影変換して平面投影合成画像を生成する平
面投影変換手段を備えることを特徴とする請求項6記載
の画像生成装置。
8. The plane image conversion means is a plane projection conversion means for projecting a composite image obtained by combining the plurality of spherical projection images obtained by the spherical projection converting means onto a plane to generate a plane projection combined image. The image generating apparatus according to claim 6, further comprising:
【請求項9】 上記画像合成手段は、処理対象となる画
像が上記球面投影画像であるか上記平面投影合成画像で
あるかを示す投影面タイプ情報を上記画像に付加する付
加手段を備えることを特徴とする請求項8記載の画像生
成装置。
9. The image synthesizing means comprises addition means for adding projection plane type information indicating whether the image to be processed is the spherical projection image or the plane projection synthetic image to the image. The image generating apparatus according to claim 8, which is characterized in that.
【請求項10】 上記画像合成手段は、上記球面投影変
換手段で得られた複数の球面投影画像を合成した合成画
像の視野に応じて、上記合成画像と上記平面投影合成画
像を選択的に切り換えて出力する出力手段を備えること
を特徴とする請求項8記載の画像生成装置。
10. The image synthesizing means selectively switches between the synthetic image and the plane projection synthetic image according to the field of view of the synthetic image obtained by synthesizing the plurality of spherical projection images obtained by the spherical projection converting means. The image generating apparatus according to claim 8, further comprising an output unit that outputs the image.
【請求項11】 上記撮影手段は、複数の撮像手段から
なり、 上記検出手段により検出された撮影条件に基づいて上記
複数の撮像手段の各光軸の向きを制御する光軸制御手段
とを備えることを特徴とする請求項1記載の画像生成装
置。
11. The image pickup means comprises a plurality of image pickup means, and optical axis control means for controlling the directions of the respective optical axes of the plurality of image pickup means based on the image pickup conditions detected by the detection means. The image generation apparatus according to claim 1, wherein
【請求項12】 複数の撮影画像を合成して一枚の画像
を生成する画像生成装置であって、 パノラマ撮影モードを設定する手段と、 装置の角度を検出する手段と、 パノラマ撮影モードにより撮影して得られた複数の撮影
画像と共に上記角度の情報を保持する手段と、 上記複数の撮影画像を合成する手段を備え、 上記複数の撮影画像を合成する際に、上記角度の情報に
基づいて適応的に合成方式を切り換えることを特徴とす
る画像生成装置。
12. An image generating apparatus for synthesizing a plurality of captured images to generate one image, comprising means for setting a panoramic shooting mode, means for detecting an angle of the apparatus, and shooting in the panoramic shooting mode. A means for holding the information of the angle together with the plurality of captured images obtained by, and means for synthesizing the plurality of captured images, when synthesizing the plurality of captured images, based on the information of the angle An image generating apparatus characterized by adaptively switching a synthesizing method.
【請求項13】 複数の撮影画像を合成して一枚の画像
を生成する画像生成装置であって、 パノラマ撮影モードを設定する手段と、 装置の位置を検出する手段と、 パノラマ撮影モードにより撮影して得られた複数の撮影
画像と共に上記位置の情報を保持する手段と、 上記複数の撮影画像を合成する手段を備え、 上記複数の撮影画像を合成する際に、上記位置の情報に
基づいて適応的に合成方式を切り換えることを特徴とす
る画像生成装置。
13. An image generating apparatus for synthesizing a plurality of photographed images to generate one image, comprising means for setting a panoramic photographing mode, means for detecting the position of the apparatus, and photographing in the panoramic photographing mode. A means for holding the position information together with the plurality of captured images obtained by, and means for synthesizing the plurality of captured images, based on the position information when synthesizing the plurality of captured images An image generating apparatus characterized by adaptively switching a synthesizing method.
JP13364696A 1996-05-28 1996-05-28 Image generation device Expired - Fee Related JP3817302B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP13364696A JP3817302B2 (en) 1996-05-28 1996-05-28 Image generation device
US08/864,470 US6389179B1 (en) 1996-05-28 1997-05-28 Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
US10/101,222 US6788828B2 (en) 1996-05-28 2002-03-20 Adaptive image combination according to image sensing condition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13364696A JP3817302B2 (en) 1996-05-28 1996-05-28 Image generation device

Publications (2)

Publication Number Publication Date
JPH09322040A true JPH09322040A (en) 1997-12-12
JP3817302B2 JP3817302B2 (en) 2006-09-06

Family

ID=15109679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13364696A Expired - Fee Related JP3817302B2 (en) 1996-05-28 1996-05-28 Image generation device

Country Status (1)

Country Link
JP (1) JP3817302B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205674A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
JPH11205675A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
EP0942598A2 (en) * 1998-03-11 1999-09-15 Canon Kabushiki Kaisha Method and apparatus for panoramic imaging, control method therefor, and storage medium
JP2000215317A (en) * 1998-11-16 2000-08-04 Sony Corp Image processing method and image processor
JP2000228748A (en) * 1999-02-05 2000-08-15 Ricoh Co Ltd Image inputting device
JP2001045369A (en) * 1999-07-30 2001-02-16 Canon Inc Method and device for composting image and recording medium
EP1170173A2 (en) 2000-07-07 2002-01-09 Matsushita Electric Industrial Co., Ltd. Picture composing apparatus and method
JP2002190942A (en) * 2000-12-22 2002-07-05 Sony Corp Device and method for compositing picked up image
JP2002223382A (en) * 2001-01-25 2002-08-09 Seiko Epson Corp Digital camera and image filing method
JP2002290966A (en) * 2001-03-28 2002-10-04 Victor Co Of Japan Ltd Compound image display system
JP2005044077A (en) * 2003-07-25 2005-02-17 Ricoh Co Ltd Method for composing plurality of images
JP2005122100A (en) * 2003-06-02 2005-05-12 Fuji Photo Film Co Ltd Image displaying system, image displaying apparatus, and program
US7110021B2 (en) 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Photographing apparatus
JP2007121837A (en) * 2005-10-31 2007-05-17 Olympus Corp Microscope system
JP2008244708A (en) * 2007-03-27 2008-10-09 Canon Inc Imaging apparatus and portable device
JP2009505543A (en) * 2005-08-17 2009-02-05 ウェセックス テクノロジー オプト−エレクトロニック プロダクツ リミテッド Handheld image processing device
KR101027992B1 (en) * 2004-03-18 2011-04-13 메가 비전 코퍼레이션 Processing apparatus and recording medium storing computer program for adjusting gamma value
JP2012114617A (en) * 2010-11-24 2012-06-14 Canon Inc Image processing device, method and program
US8379054B2 (en) 1999-07-30 2013-02-19 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
WO2016013634A1 (en) * 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 Image registration device, image registration method, and image registration program
JP2019519128A (en) * 2016-04-06 2019-07-04 フェイスブック,インク. Transition between binocular vision / monocular vision

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205675A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
JPH11205674A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
EP0942598A2 (en) * 1998-03-11 1999-09-15 Canon Kabushiki Kaisha Method and apparatus for panoramic imaging, control method therefor, and storage medium
EP0942598A3 (en) * 1998-03-11 2002-09-25 Canon Kabushiki Kaisha Method and apparatus for panoramic imaging, control method therefor, and storage medium
US7136096B1 (en) 1998-03-11 2006-11-14 Canon Kabushiki Kaisha Image processing method and apparatus, control method therefor, and storage medium
JP2000215317A (en) * 1998-11-16 2000-08-04 Sony Corp Image processing method and image processor
JP2000228748A (en) * 1999-02-05 2000-08-15 Ricoh Co Ltd Image inputting device
JP2001045369A (en) * 1999-07-30 2001-02-16 Canon Inc Method and device for composting image and recording medium
US8379054B2 (en) 1999-07-30 2013-02-19 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
US7034861B2 (en) 2000-07-07 2006-04-25 Matsushita Electric Industrial Co., Ltd. Picture composing apparatus and method
EP1170173A2 (en) 2000-07-07 2002-01-09 Matsushita Electric Industrial Co., Ltd. Picture composing apparatus and method
KR100414708B1 (en) * 2000-07-07 2004-01-07 마츠시타 덴끼 산교 가부시키가이샤 Picture composing apparatus and method
JP2002190942A (en) * 2000-12-22 2002-07-05 Sony Corp Device and method for compositing picked up image
JP2002223382A (en) * 2001-01-25 2002-08-09 Seiko Epson Corp Digital camera and image filing method
JP2002290966A (en) * 2001-03-28 2002-10-04 Victor Co Of Japan Ltd Compound image display system
US7110021B2 (en) 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP2005122100A (en) * 2003-06-02 2005-05-12 Fuji Photo Film Co Ltd Image displaying system, image displaying apparatus, and program
US8184156B2 (en) 2003-06-02 2012-05-22 Fujifilm Corporation Image displaying system and apparatus for displaying images by changing the displayed images based on direction or direction changes of a displaying unit
JP2005044077A (en) * 2003-07-25 2005-02-17 Ricoh Co Ltd Method for composing plurality of images
KR101027992B1 (en) * 2004-03-18 2011-04-13 메가 비전 코퍼레이션 Processing apparatus and recording medium storing computer program for adjusting gamma value
JP2009505543A (en) * 2005-08-17 2009-02-05 ウェセックス テクノロジー オプト−エレクトロニック プロダクツ リミテッド Handheld image processing device
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Photographing apparatus
JP2007121837A (en) * 2005-10-31 2007-05-17 Olympus Corp Microscope system
JP2008244708A (en) * 2007-03-27 2008-10-09 Canon Inc Imaging apparatus and portable device
JP2012114617A (en) * 2010-11-24 2012-06-14 Canon Inc Image processing device, method and program
WO2016013634A1 (en) * 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 Image registration device, image registration method, and image registration program
JPWO2016013634A1 (en) * 2014-07-24 2017-06-01 国立研究開発法人科学技術振興機構 Image alignment apparatus, image alignment method, and image alignment program
US10628948B2 (en) 2014-07-24 2020-04-21 Japan Science And Technology Agency Image registration device, image registration method, and image registration program
JP2019519128A (en) * 2016-04-06 2019-07-04 フェイスブック,インク. Transition between binocular vision / monocular vision

Also Published As

Publication number Publication date
JP3817302B2 (en) 2006-09-06

Similar Documents

Publication Publication Date Title
JP3817302B2 (en) Image generation device
US6389179B1 (en) Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
JP6115606B2 (en) Imaging apparatus and imaging system
JP3832895B2 (en) Image composition apparatus and image composition system
US20040061774A1 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
WO2014023231A1 (en) Wide-view-field ultrahigh-resolution optical imaging system and method
CN112085659B (en) Panorama splicing and fusing method and system based on dome camera and storage medium
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP2017143390A (en) Image processing apparatus and method thereof
JP2013046270A (en) Image connecting device, photographing device, image connecting method, and image processing program
CN114651275B (en) Image stitching of full field of view reference images
JP2004135209A (en) Generation device and method for wide-angle view high-resolution video image
US11825213B2 (en) Removal of image capture device from omnidirectional image created by stitching partial images
JPH09322055A (en) Electronic camera system
WO2020261101A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP2020191624A (en) Electronic apparatus and control method for the same
CN116245734A (en) Panoramic image generation method, device, equipment and storage medium
JP6079838B2 (en) Image processing apparatus, program, image processing method, and imaging system
CN110784642B (en) Image processing apparatus, control method thereof, storage medium, and imaging apparatus
KR102052725B1 (en) Method and apparatus for generating virtual reality image inside the vehicle by using image stitching technique
JP6439845B2 (en) Image processing device
JP2020160773A (en) Image processing device, imaging device, image processing method, and program
JP2009169884A (en) Photographing device, control method of photographing device, and image reproduction device, method and program
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP6833772B2 (en) Image processing equipment, imaging equipment, image processing methods and programs

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060612

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110616

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120616

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120616

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130616

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees