JPH09322055A - Electronic camera system - Google Patents

Electronic camera system

Info

Publication number
JPH09322055A
JPH09322055A JP8133647A JP13364796A JPH09322055A JP H09322055 A JPH09322055 A JP H09322055A JP 8133647 A JP8133647 A JP 8133647A JP 13364796 A JP13364796 A JP 13364796A JP H09322055 A JPH09322055 A JP H09322055A
Authority
JP
Japan
Prior art keywords
image
electronic camera
unit
camera system
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8133647A
Other languages
Japanese (ja)
Inventor
Tatsushi Katayama
達嗣 片山
Kotaro Yano
光太郎 矢野
Kenji Hatori
健司 羽鳥
Hideo Takiguchi
英夫 滝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8133647A priority Critical patent/JPH09322055A/en
Priority to US08/864,470 priority patent/US6389179B1/en
Publication of JPH09322055A publication Critical patent/JPH09322055A/en
Priority to US10/101,222 priority patent/US6788828B2/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide the high performance electronic camera system in which a high quality panorama image is simply obtained. SOLUTION: An angle detection section 126 detects an angle component of a device caused by movement of the device. An image memory 130 stores information of angle components detected by the angle detection section 126 and an image pickup condition detected by a signal processing unit 190 as additional information in cross reference with each image obtained through image pickup. An overlap area prediction means of an image synthesis processing section 172 predicts an overlapped area of the images to be synthesized based on the additional information stored in the image memory 130. Furthermore, a cross reference detection means detects a cross reference point in the overlapped area predicted by the overlap area prediction means. Then the image synthesis means synthesizes a series of images based on the cross reference point detected by the cross reference detection means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、パノラマ撮影モー
ドで撮影して得られた複数の画像を合成してパノラマ画
像を生成する電子カメラシステムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic camera system for synthesizing a plurality of images obtained by photographing in a panoramic photographing mode to generate a panoramic image.

【0002】[0002]

【従来の技術】従来より、隣り合う画面の一部が重複す
るように被写体像を複数画面に分割して撮影(パノラマ
撮影)し、その撮影で得られた複数の画像を合成してパ
ノラマ画像を生成する電子カメラシステムとして、例え
ば、特開平4−52635に開示されている電子カメラ
とその再生装置がある。この電子カメラシステムは、装
置の三次元位置や方位等のコマ間あるいはカット間を関
係づける情報を検出して映像信号と共に記憶し、該情報
に基づいて映像信号を再生するようになされたものであ
る。これにより、上記電子カメラシステムは、撮影した
画像のコマ間あるいはカット間の位置関係を保持して再
生を行うことにより、コンピュータ内部で三次元空間で
再現する等、種々のアプリケーションに対応することが
できるとしている。
2. Description of the Related Art Conventionally, a subject image is divided into a plurality of screens so as to overlap a part of adjacent screens, and a panorama image is taken by combining the plurality of images obtained by the shooting. As an electronic camera system for generating the, there is, for example, the electronic camera and its reproducing device disclosed in Japanese Patent Laid-Open No. 4-52635. This electronic camera system is designed to detect information relating to frames or cuts such as a three-dimensional position and orientation of the device, store the information together with a video signal, and reproduce the video signal based on the information. is there. As a result, the electronic camera system can support various applications such as reproduction in a three-dimensional space inside the computer by retaining the positional relationship between frames or cuts of a captured image and reproducing the image. I am going to do it.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述の
ような従来の電子カメラシステムは、複数の画像を合成
してパノラマ画像を生成する場合、ズーム倍率の情報に
基づいて各画像を等倍率の画像に変換してフレームメモ
リに記録すると共に、三次元位置及び方位等の情報を付
帯情報として各画像に対応づけて同時に記録し、その記
録した各画像データを単に合成してパノラマ画像を生成
していた。すなわち、上記電子カメラシステムは、パノ
ラマ撮影して得られた複数の画像を三次元位置及び方位
等の情報に従ってフレームメモリ上にはりつけるのみで
あったため、合成して得られるパノラマ画像は、各画像
が単に配置されたものであった。したがって、つなぎ目
が不連続となり非常に見苦しいパノラマ画像となってし
まっていた。
However, in the conventional electronic camera system as described above, when a plurality of images are combined to generate a panoramic image, each image is converted into an image of equal magnification based on the zoom magnification information. In addition to converting it to a frame memory and recording it in a frame memory, information such as three-dimensional position and orientation is recorded simultaneously as supplementary information in association with each image, and the recorded image data are simply combined to generate a panoramic image. It was That is, the electronic camera system only mounts a plurality of images obtained by panoramic photography on the frame memory according to information such as the three-dimensional position and orientation. It was just placed. Therefore, the seams were discontinuous, resulting in a very unsightly panoramic image.

【0004】そこで、本発明は、上記の欠点を除去する
ために成されたもので、高品質のパノラマ画像を簡便に
得る高性能な電子カメラシステムを提供することを目的
とする。
Therefore, the present invention has been made to eliminate the above-mentioned drawbacks, and an object of the present invention is to provide a high-performance electronic camera system which can easily obtain a high-quality panoramic image.

【0005】[0005]

【課題を解決するための手段】本発明に係る電子カメラ
システムは、撮像手段により画面の一部が重複するよう
に被写体像を複数画面に分割して撮影し、上記撮像手段
で得られた一連の複数の画像を合成してパノラマ画像を
生成する電子カメラシステムであって、撮影時の撮影条
件を検出する撮影条件検出手段と、撮影時の装置の移動
状態を検出する移動状態検出手段と、撮影して得られた
複数の画像と共に、各画像に対応して上記撮影条件検出
手段で検出された撮影条件及び上記移動状態検出手段で
検出された移動状態の情報を付加情報として記憶する記
憶手段と、上記記憶手段に記憶された付加情報に基づい
て各画像の重複領域を予測して検出する重複領域予測手
段と、上記重複領域予測手段で得られた重複領域を用い
て各画像の該重複領域内の対応関係を検出する対応点検
出手段と、上記対応点検出手段で得られた対応関係の情
報に基づいて上記記憶手段に記憶された一連の複数の画
像を合成してパノラマ画像を生成する画像合成手段とを
備えることを特徴とする。また、本発明に係る電子カメ
ラシステムは、上記移動状態検出手段により、装置の移
動により発生した角度成分を検出することを特徴とす
る。また、本発明に係る電子カメラシステムは、上記移
動状態検出手段で、角速度センサにより上記角度成分を
検出することを特徴とする。また、本発明に係る電子カ
メラシステムは、上記移動状態検出手段により、装置の
移動により発生した並進成分を検出することを特徴とす
る。また、本発明に係る電子カメラシステムは、上記移
動状態検出手段で、加速度センサにより上記並進成分を
検出することを特徴とする。また、本発明に係る電子カ
メラシステムは、撮影時の装置の位置を検出する位置検
出手段を備え、上記記憶手段は、上記位置検出手段で検
出された位置の情報を上記付加情報に含めて記憶するこ
とを特徴とする。また、本発明に係る電子カメラシステ
ムは、上記位置検出手段により、装置の三次元位置を検
出することを特徴とする。また、本発明に係る電子カメ
ラシステムは、上記撮影条件検出手段で検出された撮影
条件及び上記移動状態検出手段で検出された移動状態の
情報に基づいて、上記撮像手段に画像が入力される毎に
各画像の重複領域を示す重複度を逐次検出する重複領域
検出手段と、上記重複領域検出手段で得られた重複度と
所定値とを比較する比較手段と、上記比較手段の比較結
果に基づいて撮影タイミングを制御する制御手段とを備
えることを特徴とする。また、本発明に係る電子カメラ
システムは、上記記憶手段に記憶された一連の複数の画
像を各々球面上に投影変換して球面投影画像を生成する
球面投影変換手段と、上記記憶手段に記憶された一連の
複数の画像及び上記球面投影変換手段で得られた複数の
球面投影画像を選択的に切り換えて上記対応点検出手段
に出力する切換手段と、上記記憶手段に記憶された付加
情報から撮影状況を検出する撮影状況検出手段と、上記
撮影状況検出手段の検出結果に基づいて上記球面投影変
換手段の動作制御を行うと共に、上記切換手段の切り換
え動作を制御する切換制御手段とを備えることを特徴と
する。また、本発明に係る電子カメラシステムは、上記
画像合成手段で得られたパノラマ画像を外部出力する出
力手段を備えることを特徴とする。
An electronic camera system according to the present invention divides a subject image into a plurality of screens so that a part of the screens is overlapped by the image pickup means, and photographs it. An electronic camera system for synthesizing a plurality of images to generate a panoramic image, the shooting condition detecting means for detecting shooting conditions at the time of shooting, and a moving state detecting means for detecting a moving state of the device at the time of shooting, A storage unit that stores, as additional information, a plurality of images obtained by shooting, together with the information of the shooting condition detected by the shooting condition detecting unit and the moving state detected by the moving state detecting unit corresponding to each image. And an overlap area prediction unit that predicts and detects an overlap area of each image based on the additional information stored in the storage unit, and the overlap of each image using the overlap area obtained by the overlap area prediction unit. A panoramic image is generated by synthesizing a corresponding point detecting means for detecting a corresponding relationship in the area and a series of a plurality of images stored in the storing means on the basis of the information on the corresponding relationship obtained by the corresponding point detecting means. And an image synthesizing means. Further, the electronic camera system according to the present invention is characterized in that the moving state detecting means detects an angular component generated by the movement of the apparatus. Also, the electronic camera system according to the present invention is characterized in that the moving state detecting means detects the angle component by an angular velocity sensor. Further, the electronic camera system according to the present invention is characterized in that the movement state detecting means detects the translational component generated by the movement of the apparatus. Further, an electronic camera system according to the present invention is characterized in that the movement state detecting means detects the translational component by an acceleration sensor. Also, the electronic camera system according to the present invention includes position detection means for detecting the position of the device at the time of photographing, and the storage means stores the position information detected by the position detection means in the additional information. It is characterized by doing. The electronic camera system according to the present invention is characterized in that the position detecting means detects the three-dimensional position of the device. Further, the electronic camera system according to the present invention is arranged such that every time an image is inputted to the image pickup means, based on the information of the photographing condition detected by the photographing condition detecting means and the moving state detected by the moving state detecting means. In the overlapping area detecting means for sequentially detecting the overlapping degree indicating the overlapping area of each image, the comparing means for comparing the overlapping degree and the predetermined value obtained by the overlapping area detecting means, based on the comparison result of the comparing means. And a control means for controlling the photographing timing. Further, the electronic camera system according to the present invention is stored in the storage means, and a spherical projection conversion means for projecting and converting a series of images stored in the storage means onto a spherical surface to generate a spherical projection image. Switching means for selectively switching the series of a plurality of images and the plurality of spherical projection images obtained by the spherical projection conversion means for output to the corresponding point detecting means, and photographing from the additional information stored in the storage means A shooting situation detecting means for detecting a situation; and a switching control means for controlling the operation of the spherical projection converting means based on the detection result of the shooting situation detecting means and controlling the switching operation of the switching means. Characterize. Further, the electronic camera system according to the present invention is characterized by comprising an output unit for externally outputting the panoramic image obtained by the image synthesizing unit.

【0006】[0006]

【作用】本発明によれば、移動状態検出手段は、装置の
移動により発生する装置の姿勢を移動状態の情報として
検出する。記憶手段には、上記移動状態検出手段で検出
された装置の移動状態の情報及び撮影条件検出手段で検
出された撮影条件を付加情報として、撮影して得られた
各画像に対応して記憶される。重複領域予測手段は、上
記記憶手段に記憶された付加情報に基づいて、合成する
各画像間の重複領域を予測する。対応検出手段は、合成
する各画像において、上記重複領域予測手段で予測され
た重複領域内での対応点を検出する。画像合成手段は、
上記対応検出手段で検出された対応点に基づいて、一連
の複数の画像を合成する。また、本発明によれば、上記
移動状態検出手段は、撮影時の装置の回転移動により発
生した装置の角度成分を検出する。また、本発明によれ
ば、上記移動状態検出手段は、角速度センサにより、上
記角度成分を検出する。また、本発明によれば、上記移
動状態検出手段は、撮影時の装置の並進移動により発生
した装置の並進成分を検出する。また、本発明によれ
ば、上記移動状態検出手段は、加速度センサにより、上
記並進成分を検出する。また、本発明によれば、位置検
出手段は、撮影時の装置の移動により発生した装置の位
置を検出する。上記記憶手段は、上記位置検出手段で得
られた位置の情報を上記付加情報に含めて記憶する。ま
た、本発明によれば、上記位置検出手段は、撮影時の装
置の移動により発生した装置の三次元位置を検出する。
また、本発明によれば、重複領域検出手段は、上記移動
情報検出手段で検出された装置の移動状態の情報及び撮
影条件検出手段で検出された撮影条件に基づいて、逐次
入力される各画像の重複度を演算により逐次検出する。
比較手段は、上記重複領域検出手段で検出された重複度
と予め設定されているしきい値とを比較する。制御手段
は、上記比較手段の比較結果により、上記重複度が上記
しきい値と同等であると判断したタイミングで、装置が
撮影状態となるように装置全体の動作制御を行う。ま
た、本発明によれば、撮影状況検出手段は、記憶手段に
記憶された付加情報から、合成する複数の画像がどのよ
うな撮影により得られたものであるかを検出する。切換
制御手段は、上記撮影状況検出手段の検出結果により、
合成する複数の画像が回転移動により得られたものであ
った場合に、その複数の画像を各々球面上に投影変換し
て球面投影画像を生成するように球面投影変換手段を制
御すると共に、上記球面投影変換手段で得られた球面投
影画像を選択し出力するように切換手段を制御する。ま
た、本発明によれば、出力手段は、上記画像合成手段で
生成されたパノラマ画像を外部出力する。
According to the present invention, the moving state detecting means detects the posture of the device generated by the movement of the device as information on the moving state. The storage means stores the movement state information of the device detected by the movement state detection means and the photographing condition detected by the photographing condition detection means as additional information corresponding to each image obtained by photographing. It The overlapping area predicting means predicts an overlapping area between the images to be combined based on the additional information stored in the storage means. The correspondence detection unit detects, in each image to be combined, a corresponding point in the overlap region predicted by the overlap region prediction unit. The image composition means
A series of plural images are combined based on the corresponding points detected by the correspondence detecting means. Further, according to the present invention, the movement state detecting means detects the angular component of the device generated by the rotational movement of the device during photographing. Further, according to the present invention, the moving state detecting means detects the angle component by the angular velocity sensor. Further, according to the present invention, the movement state detecting means detects the translational component of the device generated by the translational movement of the device at the time of photographing. Further, according to the present invention, the moving state detecting means detects the translational component by an acceleration sensor. Further, according to the present invention, the position detecting means detects the position of the device generated by the movement of the device during photographing. The storage means stores the position information obtained by the position detection means in the additional information. Further, according to the present invention, the position detecting means detects the three-dimensional position of the device generated by the movement of the device at the time of photographing.
Further, according to the present invention, the overlapping area detecting unit is configured to sequentially input each image based on the information on the moving state of the device detected by the moving information detecting unit and the photographing condition detected by the photographing condition detecting unit. The degree of overlap of is sequentially detected by calculation.
The comparing means compares the degree of overlap detected by the overlapping area detecting means with a preset threshold value. The control means controls the operation of the entire device so that the device is in the shooting state at the timing when it is determined from the comparison result of the comparison device that the degree of overlap is equal to the threshold value. Further, according to the present invention, the photographing condition detecting means detects from what additional photographing the plurality of images to be combined were obtained from the additional information stored in the storage means. The switching control means, according to the detection result of the shooting situation detection means,
When the plurality of images to be combined are obtained by rotational movement, the spherical projection conversion means is controlled to project and convert the plurality of images onto the spherical surface to generate a spherical projection image. The switching means is controlled so that the spherical projection image obtained by the spherical projection conversion means is selected and output. According to the invention, the output means outputs the panoramic image generated by the image synthesizing means to the outside.

【0007】[0007]

【発明の実施の形態】まず、本発明の第1の実施の形態
について図面を用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION First, a first embodiment of the present invention will be described with reference to the drawings.

【0008】本発明に係る電子カメラシステムは、例え
ば、図1に示すような電子カメラシステム100に適用
される。
The electronic camera system according to the present invention is applied to, for example, an electronic camera system 100 as shown in FIG.

【0009】この電子カメラシステム(以下、単に電子
カメラと言う)100は、上記図1に示すように、被写
体側から順次設けられた撮像レンズ101、絞り10
2、シャッタ108及び撮像素子103と、撮像素子1
03の出力が供給される増幅器104と、増幅器104
の出力が供給される自動利得制御(AGC)回路105
と、AGC回路105の出力が供給されるアナログ/デ
ィジタル(A/D)変換器106と、A/D変換器10
6の出力が供給される映像信号処理部107と、映像信
号処理部107の出力が各々供給される画像メモリ13
0、合焦検出部142及び露出検出部143と、映像信
号処理部107と接続されたホワイトバランス検出部1
41及び信号処理ユニット190と、信号処理ユニット
190の出力が供給されるコントローラ120と、コン
トローラ120の出力が各々供給されるズーム制御部1
21、フォーカス制御部122、絞り制御部123、シ
ャッタ制御部124及びフラッシュ制御部125と、信
号処理ユニット190に接続された撮影モード設定部1
60及び入出力インターフェース(I/F)部170
と、I/F部170の出力が供給される画像合成処理部
172と、画像合成処理部172の出力が供給される表
示部173とを備えている。また、電子カメラ100
は、フラッシュ制御部125により制御されるフラッシ
ュ109と、レリーズボタン検出部150とを備えてい
る。さらに、電子カメラ100は、図示していない位置
センサを備えており、上記位置センサの出力は信号処理
ユニット190に供給されるようになされている。そし
て、信号処理ユニット190の出力はAGC回路105
及び画像メモリ130にも供給され、合焦検出部142
及び露出検出部143の各出力は信号処理ユニット19
0に供給されるようになされている。また、画像メモリ
130の出力はI/F部170に供給され、レリーズボ
タン検出部150の出力は信号処理ユニット190に供
給されるようになされている。
As shown in FIG. 1, an electronic camera system (hereinafter, simply referred to as an electronic camera) 100 includes an imaging lens 101 and a diaphragm 10 which are sequentially provided from a subject side.
2, shutter 108 and image sensor 103, and image sensor 1
Amplifier 104 to which the output of 03 is supplied, and amplifier 104
Gain control (AGC) circuit 105 supplied with the output of
, An analog / digital (A / D) converter 106 to which the output of the AGC circuit 105 is supplied, and an A / D converter 10
6 is supplied to the video signal processing unit 107, and the output of the video signal processing unit 107 is supplied to the image memory 13 respectively.
0, the focus detection unit 142 and the exposure detection unit 143, and the white balance detection unit 1 connected to the video signal processing unit 107.
41 and the signal processing unit 190, the controller 120 to which the output of the signal processing unit 190 is supplied, and the zoom control unit 1 to which the output of the controller 120 is respectively supplied.
21, focus control unit 122, aperture control unit 123, shutter control unit 124, flash control unit 125, and shooting mode setting unit 1 connected to the signal processing unit 190.
60 and input / output interface (I / F) unit 170
An image synthesis processing unit 172 to which the output of the I / F unit 170 is supplied, and a display unit 173 to which the output of the image synthesis processing unit 172 is supplied. In addition, the electronic camera 100
Includes a flash 109 controlled by the flash controller 125 and a release button detector 150. Further, the electronic camera 100 includes a position sensor (not shown), and the output of the position sensor is supplied to the signal processing unit 190. The output of the signal processing unit 190 is the AGC circuit 105.
And the focus detection unit 142 is also supplied to the image memory 130.
Each output of the exposure detection unit 143 is the signal processing unit 19.
It is designed to be supplied to 0. The output of the image memory 130 is supplied to the I / F unit 170, and the output of the release button detection unit 150 is supplied to the signal processing unit 190.

【0010】ここで、電子カメラ100は、上述したよ
うな各構成要件に加えて、信号処理ユニット190に接
続された角度検出部126を備えている。
Here, the electronic camera 100 is provided with an angle detecting section 126 connected to the signal processing unit 190 in addition to the above-mentioned respective constituents.

【0011】この角度検出部126は、ジャイロ等を使
用しており、撮影時に電子カメラ100が移動されたこ
とにより発生する装置の姿勢を角度成分として検出する
ものである。すなわち、角度検出部126は、図2に示
すように、角速度センサ126aと、角速度センサ12
6aの出力が供給されるA/D変換器126bと、A/
D変換器126bの出力が供給される角度演算器126
cからなり、角度演算器126cの出力が信号処理ユニ
ット190に供給されるようになされている。
The angle detection unit 126 uses a gyro or the like, and detects the posture of the apparatus generated as the electronic camera 100 is moved at the time of photographing as an angle component. That is, as shown in FIG. 2, the angle detector 126 includes the angular velocity sensor 126a and the angular velocity sensor 12a.
A / D converter 126b to which the output of 6a is supplied, and A / D converter 126b
Angle calculator 126 to which the output of the D converter 126b is supplied
c, and the output of the angle calculator 126c is supplied to the signal processing unit 190.

【0012】角度センサ126aは、装置の移動により
発生する角度変化に従った出力信号VをA/D変換器1
26bに供給する。この出力信号Vのレベルは、角速度
に比例したものである。A/D変換器126bは、角度
センサ126aからの出力信号Vをディジタル化してデ
ィジタルデータDとして角度演算器126cに供給す
る。角度演算器126cは、A/D変換器126bから
のディジタルデータDを、例えば、1s分積分すること
により平均レベルDavgを求め、この平均レベルDa
vgを角度成分に変換して角度信号を得る。そして、角
度演算器126cで得られた角度信号は、信号処理ユニ
ット190に供給される。
The angle sensor 126a uses the A / D converter 1 to output the output signal V according to the angle change generated by the movement of the device.
26b. The level of the output signal V is proportional to the angular velocity. The A / D converter 126b digitizes the output signal V from the angle sensor 126a and supplies it to the angle calculator 126c as digital data D. The angle calculator 126c obtains an average level Davg by integrating the digital data D from the A / D converter 126b for 1 s, for example, and calculates the average level Davg.
An angle signal is obtained by converting vg into an angle component. Then, the angle signal obtained by the angle calculator 126c is supplied to the signal processing unit 190.

【0013】したがって、この電子カメラ100は、撮
影時の撮影条件に関する情報等と共に、上述のようにし
て角度検出部126で得られた角度信号とを用いてパノ
ラマ画像を生成するようになされている。
Therefore, the electronic camera 100 is adapted to generate a panoramic image by using the angle signal obtained by the angle detecting unit 126 as described above together with the information regarding the photographing condition at the time of photographing. .

【0014】そこで、まず、パノラマ撮影について説明
する。
Therefore, first, panoramic photography will be described.

【0015】電子カメラ100は、撮影モード設定部1
60を操作することにより、通常撮影モード及びパノラ
マ撮影モード等の撮影モードを設定することができるよ
うになされており、例えば、パノラマ撮影モードに設定
され、図3に示すような遠距離の風景20を撮影する場
合、近距離の被写体を撮影する場合とは異なり、電子カ
メラ100を上下左右に並進させても撮影領域は殆どか
わらない。このため、上記図3に示すように、先ず、電
子カメラ100を位置P21に設置した状態(状態1)
において、座標系XYZ、各座標軸まわりの回転角を
「Ψ」、「Φ」及び「θ」とし、Y軸まわりの回転(パ
ン)あるいはX軸まわりの回転(チルト)の動作を行う
ことにより、風景20の領域R21を撮影する。また、
電子カメラ100を位置P22及びP23に設置した状
態(状態2及び状態3)においても、位置P21の場合
と同様にして、パンあるいはチルト動作を行うことによ
り、風景20の領域R22及びR23を撮影する。この
とき、領域R21と領域R22を互いに一部が重複する
ように、また、領域R22と領域R23を互いに一部が
重複するように撮影する。
The electronic camera 100 includes a photographing mode setting section 1
By operating 60, a shooting mode such as a normal shooting mode and a panoramic shooting mode can be set. For example, the panorama shooting mode is set, and a long-distance landscape 20 as shown in FIG. Unlike in the case of shooting a subject at a short distance, the shooting area of the camera is almost unchanged even when the electronic camera 100 is translated vertically and horizontally. Therefore, as shown in FIG. 3, first, the electronic camera 100 is installed in the position P21 (state 1).
In the coordinate system XYZ, the rotation angles around each coordinate axis are “Ψ”, “Φ”, and “θ”, and the rotation around the Y axis (pan) or the rotation around the X axis (tilt) is performed. A region R21 of the landscape 20 is photographed. Also,
Even in the state where the electronic camera 100 is installed at the positions P22 and P23 (states 2 and 3), the regions R22 and R23 of the landscape 20 are photographed by performing the pan or tilt operation as in the case of the position P21. . At this time, the regions R21 and R22 are photographed so as to partially overlap each other, and the regions R22 and R23 are photographed so as to partially overlap each other.

【0016】したがって、位置P21での撮影では、図
4に示すような画像I21が得られ、位置P22での撮
影では、同図に示すような画像I22が得られ、位置P
23での撮影では、同図に示すような画像I23が得ら
れる。そして、3つの画像I21,I22,I23は、
上述した角度検出部126で得られた角度信号を用い
て、画像合成処理部172により合成された結果、図5
に示すような各画像のつなぎ目(点線部分)が連続とな
るパノラマ画像I24が得られる。
Therefore, when the image is taken at the position P21, the image I21 shown in FIG. 4 is obtained, and when the image is taken at the position P22, the image I22 shown in FIG.
When shooting at 23, an image I23 as shown in the figure is obtained. Then, the three images I21, I22, I23 are
As a result of being synthesized by the image synthesis processing unit 172 using the angle signal obtained by the angle detection unit 126 described above, FIG.
A panoramic image I24 in which the joints (dotted line portions) of the respective images are continuous is obtained as shown in FIG.

【0017】つぎに、電子カメラ100の動作について
具体的に説明する。
Next, the operation of the electronic camera 100 will be specifically described.

【0018】先ず、被写体像は、撮像レンズ101によ
り、絞り102を介して撮像素子103の受光面に投影
される。このとき、撮像レンズ101のズーム位置及び
フォーカス位置は、各々コントローラ120に接続され
たズーム制御部121及びフォーカス制御部122によ
り制御される。また、絞り102の絞り量も、コントロ
ーラ120に接続された絞り制御部123により制御さ
れる。
First, the subject image is projected by the image pickup lens 101 through the diaphragm 102 onto the light receiving surface of the image pickup element 103. At this time, the zoom position and the focus position of the imaging lens 101 are controlled by the zoom control unit 121 and the focus control unit 122, which are connected to the controller 120, respectively. The aperture amount of the aperture 102 is also controlled by the aperture controller 123 connected to the controller 120.

【0019】撮像素子103は、CCD(Charge
d Coupled Device)等からなり、受光
した被写体像を電気信号に変換して増幅器104に供給
する。増幅器104は、撮像素子103からの電気信号
(以下、映像信号と言う)を増幅してAGC回路105
に供給する。AGC回路105は、信号処理ユニット1
90からの制御信号に基づいて、増幅器104からの映
像信号を増幅又は減衰してA/D変換器106に供給す
る。A/D変換器106は、AGC回路105からの映
像信号をディジタル化して画像データとして映像信号処
理部107に供給する。このとき、信号処理ユニット1
90は、映像信号処理部107に供給された画像データ
の信号レベルを検出し、検出した信号レベルが所定のレ
ベルより低い場合には、AGC回路105で映像信号に
与える利得が上がるような制御信号を生成してAGC回
路105に供給し、検出した信号レベルが所定のレベル
より高い場合には、AGC回路105で映像信号に与え
る利得が下がるような制御信号を生成してAGC回路1
05に供給する。これにより、AGC回路105から出
力される映像信号は、映像信号処理部107で行われる
信号処理に適した所定のレベル幅の信号となる。
The image sensor 103 is a CCD (Charge).
d Coupled Device) and the like, which converts the received subject image into an electric signal and supplies it to the amplifier 104. The amplifier 104 amplifies an electric signal (hereinafter, referred to as a video signal) from the image sensor 103 to amplify the AGC circuit 105.
To supply. The AGC circuit 105 is the signal processing unit 1
Based on the control signal from 90, the video signal from the amplifier 104 is amplified or attenuated and supplied to the A / D converter 106. The A / D converter 106 digitizes the video signal from the AGC circuit 105 and supplies it to the video signal processing unit 107 as image data. At this time, the signal processing unit 1
A control signal 90 detects the signal level of the image data supplied to the video signal processing unit 107, and when the detected signal level is lower than a predetermined level, the control signal for increasing the gain given to the video signal by the AGC circuit 105. Is generated and supplied to the AGC circuit 105, and when the detected signal level is higher than a predetermined level, the AGC circuit 105 generates a control signal for lowering the gain given to the video signal.
05. As a result, the video signal output from the AGC circuit 105 becomes a signal having a predetermined level width suitable for the signal processing performed by the video signal processing unit 107.

【0020】映像信号処理部107は、A/D変換器1
06からの画像データに所定の信号処理を施して画像メ
モリ130に記憶すると共に、ホワイトバランス検出部
141、合焦検出部142及び露出検出部143に各々
供給する。ホワイトバランス検出部141は、映像信号
処理部107からの画像データのホワイトバランスの状
態を検出し、その検出結果を映像信号処理部107に供
給する。合焦検出部142は、映像信号処理部107か
らの画像データから撮像レンズ101の焦点を検出し、
その検出結果を信号処理ユニット190に供給する。露
出検出部143は、映像信号処理部107からの画像デ
ータから撮像素子103における露光量を検出し、その
検出結果を信号処理ユニット190に供給する。
The video signal processing unit 107 includes an A / D converter 1
The image data from 06 is subjected to predetermined signal processing, stored in the image memory 130, and supplied to the white balance detection unit 141, the focus detection unit 142, and the exposure detection unit 143. The white balance detection unit 141 detects the white balance state of the image data from the video signal processing unit 107, and supplies the detection result to the video signal processing unit 107. The focus detection unit 142 detects the focus of the imaging lens 101 from the image data from the video signal processing unit 107,
The detection result is supplied to the signal processing unit 190. The exposure detection unit 143 detects the exposure amount in the image sensor 103 from the image data from the video signal processing unit 107, and supplies the detection result to the signal processing unit 190.

【0021】映像信号処理部107は、ホワイトバラン
ス検出部141からの検出結果に基づいて、A/D変換
器106からの画像データに対してカラーバランスの調
整を行う。したがって、画像メモリ130には、カラー
バランスの調整が行われた画像データが記憶されること
となる。信号処理ユニット190は、合焦検出部142
及び露出検出部143からの各検出結果に基づいて、撮
影条件設定のための制御信号を生成してコントローラ1
20に供給する。また、信号処理ユニット190は、撮
影条件に関する情報を画像メモリ130に記憶する。コ
ントローラ120は、信号処理ユニット190からの制
御信号に基づいて、ズーム制御部121、フォーカス制
御部122、絞り制御部123、シャッタ制御部124
及びフラッシュ制御部125に各々制御信号を供給す
る。
The video signal processing unit 107 adjusts the color balance of the image data from the A / D converter 106 based on the detection result from the white balance detection unit 141. Therefore, the image memory 130 stores the image data whose color balance has been adjusted. The signal processing unit 190 includes a focus detection unit 142.
And a controller 1 for generating a control signal for setting a shooting condition based on each detection result from the exposure detection unit 143.
Supply to 20. Further, the signal processing unit 190 stores information regarding the shooting conditions in the image memory 130. The controller 120, based on the control signal from the signal processing unit 190, the zoom control unit 121, the focus control unit 122, the aperture control unit 123, and the shutter control unit 124.
And a control signal to the flash controller 125.

【0022】したがって、ズーム制御部121、フォー
カス制御部122及び絞り制御部123は、各々、コン
トローラ120からの制御信号に基づいて、撮像レンズ
101のズーム位置、撮像レンズ101のフォーカス位
置、及び絞り102の絞り量が適切な状態となるように
制御することとなる。
Therefore, the zoom control section 121, the focus control section 122, and the aperture control section 123 are respectively based on the control signal from the controller 120, the zoom position of the imaging lens 101, the focus position of the imaging lens 101, and the aperture 102. It is controlled so that the aperture amount of is in an appropriate state.

【0023】上述のようにして、電子カメラ100にお
ける撮影条件が適切に設定される。
As described above, the shooting conditions in the electronic camera 100 are set appropriately.

【0024】次に、撮影者は、撮影モード設定部160
を操作することにより、撮影モードを、例えば、パノラ
マ撮影モードに設定して撮影を開始する。また、撮影者
は、図示していないレリーズボタンを操作することによ
り、撮影条件の設定(ロック)又は撮影の実行を指示す
る。
Next, the photographer selects the photographing mode setting section 160.
By operating, the shooting mode is set to, for example, the panoramic shooting mode, and shooting is started. In addition, the photographer operates a release button (not shown) to instruct the setting (lock) of the photographing condition or the execution of the photographing.

【0025】撮影モード設定部160は、撮影者の操作
により、どの撮影モードが設定されたかを検出し、その
検出信号を信号処理ユニット190に供給する。レリー
ズボタン検出部150は、上記レリーズボタンの操作に
より、第1のストローク位置まで押し下げられたか、又
は第2のストローク位置まで押し下げられたかを検出
し、その検出信号を信号処理ユニット190に供給す
る。
The photographing mode setting section 160 detects which photographing mode is set by the photographer's operation and supplies the detection signal to the signal processing unit 190. The release button detection unit 150 detects whether the release button is pressed down to the first stroke position or the second stroke position and supplies the detection signal to the signal processing unit 190.

【0026】角度検出部126は、上述のようにして、
電子カメラ100の移動により発生する角度変化に基づ
いた角度信号を生成して信号処理ユニット190に供給
する。また、図示していない位置センサは、電子カメラ
100の三次元位置や方位等を検出し、その検出信号を
信号処理ユニット190に供給する。
The angle detection unit 126, as described above,
An angle signal based on an angle change generated by the movement of the electronic camera 100 is generated and supplied to the signal processing unit 190. A position sensor (not shown) detects the three-dimensional position, azimuth, etc. of the electronic camera 100 and supplies the detection signal to the signal processing unit 190.

【0027】信号処理ユニット190は、撮影モード設
定部160からの検出信号により、設定された撮影モー
ド応じた制御信号を生成してコントローラ120に供給
する。また、信号処理ユニット190は、レリーズボタ
ン検出部150からの検出信号により、第1ストローク
位置まで押し下げられたと判断した場合には、撮影条件
がロックされるような制御信号を生成してコントローラ
120に供給する。これと同時に、信号処理ユニット1
90は、上記位置センサの検出信号、及び角度検出部1
26からの角度信号をリセットする。一方、第2ストロ
ーク位置まで押し下げられたと判断された場合、信号処
理ユニット190は、シャッタ動作が行われるような制
御信号を生成してコントローラ120に供給する。
The signal processing unit 190 generates a control signal according to the set shooting mode according to the detection signal from the shooting mode setting section 160 and supplies it to the controller 120. In addition, when the signal processing unit 190 determines from the detection signal from the release button detection unit 150 that the button has been pushed down to the first stroke position, the signal processing unit 190 generates a control signal to lock the shooting condition and causes the controller 120 to do so. Supply. At the same time, the signal processing unit 1
Reference numeral 90 denotes a detection signal of the position sensor and the angle detection unit 1
Reset the angle signal from 26. On the other hand, if it is determined that the signal processing unit 190 is pushed down to the second stroke position, the signal processing unit 190 generates a control signal for performing the shutter operation and supplies the control signal to the controller 120.

【0028】コントローラ120は、信号処理ユニット
190からの制御信号に基づいて、ズーム制御部12
1、フォーカス制御部122、絞り制御部123、シャ
ッタ制御部124及びフラッシュ制御部125に各々制
御信号を供給すると共に、シャッタ制御部124及びフ
ラッシュ制御部125にも供給する。
The controller 120 controls the zoom controller 12 based on the control signal from the signal processing unit 190.
1, the focus control unit 122, the aperture control unit 123, the shutter control unit 124, and the flash control unit 125, and supplies the control signals to the shutter control unit 124 and the flash control unit 125.

【0029】したがって、撮像レンズ101のズーム位
置、撮像レンズ101のフォーカス位置、及び絞り10
2の絞り量は、撮影者の操作に応じた状態となる。ま
た、シャッタ制御部124がコントローラ120からの
制御信号に基づいてシャッタ108を制御することによ
り、シャッタ108が撮影者の操作に応じたシャッタ速
度に制御され、フラッシュ制御部125がコントローラ
120からの制御信号に基づいてフラッシュ109を制
御することにより、撮影者の操作に応じてフラッシュ1
09のON/OFF動作が制御される。
Therefore, the zoom position of the image pickup lens 101, the focus position of the image pickup lens 101, and the diaphragm 10.
The aperture amount of 2 is in a state according to the operation of the photographer. Further, the shutter control unit 124 controls the shutter 108 based on the control signal from the controller 120, so that the shutter 108 is controlled to the shutter speed according to the operation of the photographer, and the flash control unit 125 controls from the controller 120. By controlling the flash 109 based on the signal, the flash 1 can be operated according to the operation of the photographer.
The ON / OFF operation of 09 is controlled.

【0030】上述のようにして撮影が開始されると、映
像信号処理部107から出力される画像データは、画像
メモリ130に記憶される。このとき、信号処理ユニッ
ト190は、レリーズボタン検出部150からの検出信
号に基づいて、フォーカス距離、焦点距離、撮影モード
の識別情報等の撮影条件に関する情報、上述した位置セ
ンサの検出信号及び角度検出部126からの角度信号の
情報を付加情報として、映像信号処理部107から出力
される画像データに対応づけて画像メモリ130に記憶
する。
When shooting is started as described above, the image data output from the video signal processing unit 107 is stored in the image memory 130. At this time, the signal processing unit 190, on the basis of the detection signal from the release button detection unit 150, information regarding the shooting conditions such as the focus distance, the focal length, the identification information of the shooting mode, the detection signal of the position sensor and the angle detection described above. Information of the angle signal from the unit 126 is stored as additional information in the image memory 130 in association with the image data output from the video signal processing unit 107.

【0031】画像合成処理部172は、画像メモリ13
0に記憶されたデータをI/F部170を介して読み出
してパノラマ画像を生成する。
The image composition processing unit 172 is connected to the image memory 13
The data stored in 0 is read out via the I / F unit 170 to generate a panoramic image.

【0032】具体的に説明すると、この画像合成処理部
172は、図6に示すように、上記図1のI/F回路1
70からの画像データが入出力(I/O)回路172a
を介して供給される画像情報分離部172fと、画像情
報分離部172fの出力が供給されるコントローラ17
2e及び画像メモリ172gと、画像メモリ172gの
出力が供給される対応点検出部172bと、対応点検出
部172bの出力が供給されるパラメータ抽出部172
dと、パラメータ抽出部172dの出力が供給される座
標変換処理部172hと、座標変換処理部172hの出
力が供給される合成画像用メモリ172iとを備えてお
り、合成画像用メモリ172iの出力はI/O回路17
2aを介して上記図1の表示部173に供給されるよう
になされている。また、画像合成処理部172は、コン
トローラ172eの出力が供給される重複領域予測部1
72cを備えており、重複領域予測部172cの出力は
対応点検出部172bに供給されるようになされてい
る。そして、コントローラ172eは、画像メモリ17
2gと接続されており、画像メモリ172gの出力は、
座標変換処理部172hにも供給されるようになされて
いる。
More specifically, as shown in FIG. 6, the image synthesizing processing unit 172 is configured so that the I / F circuit 1 of FIG.
Image data from the input / output (I / O) circuit 172a
Image information separating unit 172f supplied via the controller 17 and the controller 17 to which the output of the image information separating unit 172f is supplied.
2e and the image memory 172g, the corresponding point detection unit 172b to which the output of the image memory 172g is supplied, and the parameter extraction unit 172 to which the output of the corresponding point detection unit 172b is supplied.
d, a coordinate conversion processing unit 172h to which the output of the parameter extraction unit 172d is supplied, and a combined image memory 172i to which the output of the coordinate conversion processing unit 172h is supplied. The output of the combined image memory 172i is I / O circuit 17
It is configured to be supplied to the display unit 173 of FIG. 1 via 2a. Further, the image composition processing unit 172 receives the output of the controller 172e, and the overlapping region prediction unit 1
72c, and the output of the overlapping area prediction unit 172c is supplied to the corresponding point detection unit 172b. Then, the controller 172e controls the image memory 17
2g is connected, and the output of the image memory 172g is
The coordinate conversion processing unit 172h is also supplied.

【0033】上述のような画像合成処理部172におい
て、先ず、画像情報分離部172fは、I/O回路17
2aからのデータ、すなわち画像メモリ130に記憶さ
れた画像データ及び付加情報からなるデータを分離し
て、画像データを画像メモリ172gに記憶し、付加情
報をコントローラ172eに供給する。
In the image composition processing section 172 as described above, first, the image information separating section 172f is operated by the I / O circuit 17.
The data from 2a, that is, the data consisting of the image data stored in the image memory 130 and the additional information is separated, the image data is stored in the image memory 172g, and the additional information is supplied to the controller 172e.

【0034】コントローラ172eは、画像情報分離部
172fからの付加情報により、各部を制御する。ま
た、コントローラ172eは、上記付加情報に含まれる
撮影モードの識別情報に基づいて、パノラマ撮影により
得られた一連の複数の画像に対応する画像データを画像
メモリ172gから順次読み出して対応点検出部172
b及び座標変換処理部172hに供給する。さらに、コ
ントローラ172eは、上記付加情報に含まれる焦点距
離、三次元位置等の検出信号及び角度信号の情報を重複
領域予測部172cに供給する。
The controller 172e controls each unit by the additional information from the image information separating unit 172f. In addition, the controller 172e sequentially reads out image data corresponding to a series of a plurality of images obtained by panoramic photography from the image memory 172g based on the photography mode identification information included in the additional information, and the corresponding point detection unit 172.
b and the coordinate conversion processing unit 172h. Further, the controller 172e supplies the overlap region prediction unit 172c with information on the detection signal such as the focal length and the three-dimensional position and the angle signal included in the additional information.

【0035】重複領域予測部172cは、コントローラ
172eからの焦点距離、三次元位置等の検出信号及び
角度信号の情報をデコードすることにより、各画像の重
複領域を求める。
The overlap area prediction unit 172c obtains the overlap area of each image by decoding the information of the detection signal such as the focal length and the three-dimensional position and the angle signal from the controller 172e.

【0036】ここで、上記重複領域を求める処理につい
て具体的に説明すると、例えば、図7に示すように、原
点Oを中心とするパンニングによりパノラマ撮影する場
合、三次元位置及び角度信号の情報は、上記図3に示し
たY軸まわりの回転「Φ」のみの情報となる。そこで、
上記図7において、パン角度(パンニング動作前後の各
光軸31a,31bからなる角度)を「Φ」、電子カメ
ラ100の画角を「2α」、焦点距離(原点Oからセン
サ面32a,32bまでの距離)を「f」とすると、重
複角βは、 β=2α−β ・・・(1) なる式(1)により得られる。また、各センサ面32
a,32bの各サイズを「H(mm)×V(mm)」と
すると、センサ面32a,32bにおける各領域dx
は、 dx=f・(tan(α)−tan(α−β)) ・・・(2) なる式(2)により得られる。これらの式(1)及び
(2)により、各画像33a,33bの重複領域Sは、
画像メモリ172gから読み出された画像33a,33
bの各サイズを「nx×ny」とすると、 S=nx・dx/H ・・・(3) なる式(3)により得られる。
Here, the processing for obtaining the overlapping area will be specifically described. For example, as shown in FIG. 7, when panoramic image capturing is performed by panning around the origin O, the information of the three-dimensional position and the angle signal is as follows. , Information about only the rotation “Φ” around the Y axis shown in FIG. Therefore,
In FIG. 7, the pan angle (angle formed by the optical axes 31a and 31b before and after the panning operation) is “Φ”, the angle of view of the electronic camera 100 is “2α”, and the focal length (from the origin O to the sensor surfaces 32a and 32b). The overlapping angle β is obtained by the equation (1): β = 2α−β (1). In addition, each sensor surface 32
Assuming that each size of a and 32b is “H (mm) × V (mm)”, each area dx on the sensor surfaces 32a and 32b.
Is obtained by the equation (2): dx = f · (tan (α) −tan (α−β)) (2) From these equations (1) and (2), the overlapping region S of the images 33a and 33b is
The images 33a and 33 read from the image memory 172g
When each size of b is “nx × ny”, S = nx · dx / H (3) is obtained by the equation (3).

【0037】したがって、重複領域予測部172cは、
式(1)〜式(3)を用いて各画像の重複領域を求め
る。すなわち、三次元位置等の検出信号及び角度信号の
情報を基に重複領域を予測する。そして、重複領域予測
部172cは、予測した重複領域の情報を対応点検出部
172bに供給する。
Therefore, the overlapping area prediction unit 172c
The overlapping area of each image is obtained using Expressions (1) to (3). That is, the overlapping area is predicted based on the information of the detection signal such as the three-dimensional position and the angle signal. Then, the overlapping area prediction unit 172c supplies information on the predicted overlapping area to the corresponding point detection unit 172b.

【0038】対応点検出部172bは、例えば、図8に
示すように、画像メモリ172aからの画像33aにお
いて、重複領域予測部172cからの重複領域の情報が
示す領域(重複領域)Sから「m×m」サイズの任意の
テンプレートTを切り出す。そして、対応点検出部17
2bは、切り出したテンプレートTと、画像33aに隣
り合う画像33bのサーチ領域S’内の画像との間でテ
ンプレートマッチング法による演算を行うことにより、
サーチ領域S’からテンプレートTに対応する位置を決
定する。尚、サーチ領域S’のサイズは、重複領域Sと
同じサイズとする。したがって、図9に示すように、上
述のようなテンプレートマッチング法による演算処理
が、重複領域S内に含まれる各テンプレートT1
2 ,・・・,T n に対して順次行われることにより、
同図の矢印で示されるような対応点が検出される。そし
て、対応点検出部172bで検出された対応点の情報
は、パラメータ抽出部172dに供給される。
The corresponding point detector 172b is shown in FIG.
As shown in the image 33a from the image memory 172a.
Information of the overlapping area from the overlapping area prediction unit 172c
From the indicated area (overlapping area) S, an arbitrary "m × m" size
Cut out the template T. Then, the corresponding point detection unit 17
2b is next to the cut-out template T and the image 33a.
A test is performed between the matching image 33b and the image in the search area S '.
By performing the calculation using the template matching method,
Determine the position corresponding to the template T from the search area S '
Set. The size of the search area S'is equal to that of the overlapping area S.
Have the same size. Therefore, as shown in FIG.
Calculation processing by the template matching method as described above
, Each template T included in the overlapping area S1,
TTwo, ..., T nBy performing sequentially for
Corresponding points as indicated by arrows in the figure are detected. Soshi
Information of the corresponding points detected by the corresponding point detecting unit 172b.
Is supplied to the parameter extraction unit 172d.

【0039】パラメータ抽出部172dは、対応点検出
部172bからの対応点の情報に基づいて、合成処理の
ためのパラメータを抽出し、そのパラメータを座標変換
処理部172hに供給する。
The parameter extracting unit 172d extracts a parameter for the combining process based on the information of the corresponding points from the corresponding point detecting unit 172b, and supplies the parameter to the coordinate conversion processing unit 172h.

【0040】座標変換処理部172hは、パラメータ抽
出部172dからのパラメータを用いて、コントローラ
172eにより読み出された一連の複数の画像データに
アフィン変換等の座標変換処理を施すことによりパノラ
マ画像を生成し、そのパノラマ画像を合成画像用メモリ
172iに書き込む。
The coordinate conversion processing section 172h uses the parameters from the parameter extraction section 172d to generate a panoramic image by performing coordinate conversion processing such as affine transformation on a series of a plurality of image data read by the controller 172e. Then, the panoramic image is written in the composite image memory 172i.

【0041】合成画像用メモリ172iに書き込まれた
パノラマ画像は、I/F回路172aを介して上記図1
の表示部173に供給され、表示部173により画面表
示される。
The panoramic image written in the composite image memory 172i is transmitted through the I / F circuit 172a as shown in FIG.
Are displayed on the screen by the display unit 173.

【0042】上述のように、電子カメラ100は、装置
の三次元位置及び角度成分に基づいて各画像の重複領域
を予測し、予測した重複領域内の各画像の対応関係を検
出して合成処理を行うようになされているため、つなぎ
目が連続した自然なパノラマ画像を得ることができる。
また、電子カメラ100は、上記角度成分の情報を各画
像に対応させて画像メモリ130に記憶するようになさ
れているため、各画像の重複領域内における対応関係を
検出する際、各画像のデータと共に、各画像に対応した
角度成分の情報を瞬時に得ることができる。このため、
画像のデータのみで重複領域内における対応関係を検出
した場合に比べて、誤対応の発生を低減することができ
ると共に、その検出処理時間を著しく短縮することがで
きる。
As described above, the electronic camera 100 predicts the overlapping area of each image based on the three-dimensional position and the angle component of the apparatus, detects the correspondence of each image in the predicted overlapping area, and performs the combining process. Therefore, it is possible to obtain a natural panoramic image with continuous seams.
Further, since the electronic camera 100 is configured to store the information of the angle component in the image memory 130 in association with each image, the data of each image is detected when the correspondence relationship in the overlapping area of each image is detected. At the same time, information on the angle component corresponding to each image can be instantaneously obtained. For this reason,
It is possible to reduce the occurrence of erroneous correspondence and to significantly shorten the detection processing time, as compared with the case where the correspondence in the overlapping area is detected only by the image data.

【0043】尚、上述した電子カメラ100では、角速
度センサ126aを設けることにより、電子カメラ10
0の移動により発生する角度成分を検出することとした
が、加速度センサ等を設けることにより、電子カメラ1
00の移動により発生する並進成分を検出するようにし
てもよい。また、画像合成処理部172で得られたパノ
ラマ画像は、表示部173で画面表示されることとした
が、ハードディスク等の記録媒体に保存するようにして
もよい。また、画像合成処理部172において、合成す
る画像用の画像メモリ172gと、パノラマ画像用の合
成画像用メモリ172hとを各々設けることとしたが、
1つの画像メモリを合成する画像用とパノラマ画像用で
共用するようにしてもよい。また、パノラマ撮影時にチ
ルト動作等が伴う場合にも、上述したパンニング動作に
よる撮影時と同様に、装置の三次元位置及び角度成分を
基に、各画像の重複領域を予測することにより、高品質
のパノラマ画像を生成することができることは言うまで
もない。
In the electronic camera 100 described above, the electronic camera 10 is provided by providing the angular velocity sensor 126a.
Although the angular component generated by the movement of 0 is detected, the electronic camera 1 is provided by providing an acceleration sensor or the like.
The translational component generated by the movement of 00 may be detected. Although the panoramic image obtained by the image composition processing unit 172 is displayed on the screen of the display unit 173, it may be stored in a recording medium such as a hard disk. Further, in the image synthesizing processing unit 172, the image memory 172g for the images to be synthesized and the synthetic image memory 172h for the panoramic image are respectively provided.
One image memory may be shared for an image to be combined and for a panoramic image. In addition, even when a tilting operation is performed during panoramic shooting, high-quality images can be obtained by predicting the overlapping area of each image based on the three-dimensional position and angular components of the device, as in the case of shooting by the panning operation described above. It goes without saying that it is possible to generate a panoramic image of.

【0044】つぎに、本発明の第2の実施の形態につい
て図面を用いて説明する。
Next, a second embodiment of the present invention will be described with reference to the drawings.

【0045】本発明に係る電子カメラシステムは、例え
ば、図10に示すような電子カメラシステム200に適
用される。
The electronic camera system according to the present invention is applied to, for example, an electronic camera system 200 as shown in FIG.

【0046】この電子カメラシステム(以下、単に電子
カメラと言う)200は、上記図1の電子カメラ100
に重複領域演算部201を設けたものである。そして、
重複領域演算部201には、映像信号処理回路107の
出力が供給され、重複領域演算部201の出力は、レリ
ーズボタン検出部150に供給されるようになされてい
る。
This electronic camera system (hereinafter, simply referred to as an electronic camera) 200 is the electronic camera 100 shown in FIG.
The overlap area calculation unit 201 is provided in the. And
The output of the video signal processing circuit 107 is supplied to the overlapping area calculating unit 201, and the output of the overlapping area calculating unit 201 is supplied to the release button detecting unit 150.

【0047】尚、上記図10の電子カメラ200におい
て、上記図1の電子カメラ100と同様に動作する箇所
には同じ符号を付し、その詳細な説明は省略する。
In the electronic camera 200 shown in FIG. 10, parts that operate similarly to those of the electronic camera 100 shown in FIG. 1 are designated by the same reference numerals, and detailed description thereof will be omitted.

【0048】ここで、上記図3に示したように、パンニ
ング動作により、遠距離の風景20を各画像の一部が重
複するように撮影し、この重複領域25,26の画像情
報を基にパノラマ画像を生成するためには、撮影時に、
重複領域25,26が適切に設定される必要がある。
Here, as shown in FIG. 3 above, the long-distance landscape 20 is photographed by the panning operation so that a part of each image overlaps, and based on the image information of the overlapping regions 25 and 26. To generate a panoramic image,
The overlapping areas 25 and 26 need to be set appropriately.

【0049】そこで、この電子カメラ200は、重複領
域演算部201により、画像が入力される毎に重複領域
を逐次検出するようになされている。
Therefore, in the electronic camera 200, the overlapping area calculation unit 201 sequentially detects the overlapping areas each time an image is input.

【0050】例えば、図11に示すように、パンニング
動作により、映像信号処理部107には、第1フレーム
の画像F1 が入力された後、第2フレームの画像F2
・・・,第nフレームの画像Fn ,第(n+1)フレー
ムの画像Fn+1 ,第(n+2)フレームの画像Fn+2
順次入力される。そして、映像信号処理部107で所定
の信号処理が行われた各フレームの画像データは、重複
領域演算部201に順次供給される。
For example, as shown in FIG. 11, after the image F 1 of the first frame is input to the video signal processing unit 107 by the panning operation, the image F 2 of the second frame,
..., the image F n of the n-th frame, the (n + 1) image F n + 1 of the frame, the (n + 2) image F n + 2 of the frame are sequentially inputted. Then, the image data of each frame subjected to the predetermined signal processing in the video signal processing unit 107 is sequentially supplied to the overlapping region calculation unit 201.

【0051】重複領域演算部201は、映像信号処理部
107から画像データが供給される毎に、例えば、第1
フレームの画像F1 と第nフレームの画像Fn の重複領
域40a、第1フレームの画像F1 と第(n+1)フレ
ームの画像Fn+1 の重複領域40b、第1フレームの画
像F1 と第(n+2)フレームの画像Fn+2 の重複領域
40cを逐次求める。すなわち、重複領域演算部201
は、上記図1の電子カメラ100における重複領域の検
出処理と同様にして、電子カメラ200の三次元位置及
び角度成分等の情報を用いてパンニング角を求め、上記
式(1)及び式(2)により重複領域を求める。そし
て、重複領域演算部201は、求めた重複領域と、予め
設定されているしきい値kとを逐次比較し、上記重複領
域としきい値kが略等しくなったとき、レリーズボタン
検出部150にシャッタ制御信号を供給する。したがっ
て、上記図11では、第(n+2)フレームの画像F
n+2 の入力時にレリーズボタン検出部150にシャッタ
制御信号が供給されることとなる。
The overlap area calculation unit 201 receives, for example, the first data every time the image data is supplied from the video signal processing unit 107.
Overlapping area 40a of the image F n of the n-th frame image F 1 of the frame, the image F 1 of the first frame (n + 1) th frame image F n + 1 overlap region 40b, the image F 1 of the first frame The overlapping area 40c of the image F n + 2 of the (n + 2) th frame is sequentially obtained. That is, the overlap area calculation unit 201
Is the same as the detection processing of the overlapping area in the electronic camera 100 of FIG. 1, the panning angle is obtained by using the information such as the three-dimensional position and the angle component of the electronic camera 200, and the above equations (1) and (2) ) To obtain the overlap area. Then, the overlapping area calculation unit 201 sequentially compares the obtained overlapping area with a preset threshold value k, and when the overlapping area and the threshold value k become substantially equal, the release button detecting unit 150 Provides a shutter control signal. Therefore, in FIG. 11 above, the image F of the (n + 2) th frame
A shutter control signal is supplied to the release button detector 150 when n + 2 is input.

【0052】レリーズボタン検出部150は、重複領域
演算部201からシャッタ制御信号が供給されると、第
2ストローク位置まで押し下げられたことを示す検出信
号に相当する信号、すなわちシャッタ動作を指示する検
出信号を信号処理ユニット190に供給する。
When the shutter control signal is supplied from the overlap area calculation unit 201, the release button detection unit 150 is a signal corresponding to a detection signal indicating that the shutter button has been pushed down to the second stroke position, that is, detection for instructing a shutter operation. The signal is supplied to the signal processing unit 190.

【0053】信号処理ユニット190は、レリーズボタ
ン検出部150からの検出信号に基づいて、シャッタ制
御部124に制御信号を供給する。これにより、シャッ
タ制御部124がシャッタ108の動作を制御し、シャ
ッタがきられる。
The signal processing unit 190 supplies a control signal to the shutter controller 124 based on the detection signal from the release button detector 150. As a result, the shutter control unit 124 controls the operation of the shutter 108 and the shutter is released.

【0054】上述のように、電子カメラ200では、上
記図1の電子カメラ100における重複領域の検出処理
と同様にして、順次入力された各画像の重複領域を逐次
求めし、求めた重複領域が予め設定されたしきい値と略
等しくなったとき、自動的にシャッタ動作するようにな
されているため、パノラマ画像を生成するために適切な
重複度で一連の複数の画像を得ることができる。したが
って、撮影を失敗することなく、つなぎ目が連続した自
然なパノラマ画像を得ることができる。
As described above, in the electronic camera 200, similarly to the detection processing of the overlapping area in the electronic camera 100 of FIG. 1, the overlapping areas of the sequentially input images are sequentially obtained, and the obtained overlapping area is Since the shutter operation is automatically performed when the threshold value is substantially equal to the preset threshold value, it is possible to obtain a series of a plurality of images with an appropriate degree of overlap for generating a panoramic image. Therefore, it is possible to obtain a natural panoramic image with continuous seams without failing in shooting.

【0055】つぎに、本発明の第3の実施の形態につい
て図面を用いて説明する。
Next, a third embodiment of the present invention will be described with reference to the drawings.

【0056】本発明に係る電子カメラシステムは、例え
ば、図12に示すような画像合成処理部300を備える
電子カメラシステムに適用される。
The electronic camera system according to the present invention is applied to, for example, an electronic camera system including an image synthesis processing section 300 as shown in FIG.

【0057】この電子カメラシステム(以下、単に電子
カメラと言う)は、上記図1の電子カメラ100に設け
られた上記図6の画像合成処理部172の代わりに上記
図12の画像合成処理部300を設けたものである。ま
た、上記電子カメラは、上記図1の電子カメラ100の
構成要件に加えて、図示していないが、上述したような
電子カメラの移動の際に発生する並進成分を検出するた
めの角速度センサ等の検出部を設けた構成としている。
This electronic camera system (hereinafter, simply referred to as an electronic camera) has an image composition processing unit 300 of FIG. 12 instead of the image composition processing unit 172 of FIG. 6 provided in the electronic camera 100 of FIG. Is provided. Further, in addition to the constituent requirements of the electronic camera 100 shown in FIG. 1, the electronic camera has an angular velocity sensor for detecting a translational component generated when the electronic camera moves as described above, although not shown. The detector is provided.

【0058】尚、画像合成処理部300の構成及び動作
以外は、上記図1の電子カメラ100と同様であるた
め、画像合成処理部300以外の各部についての詳細な
説明は省略する。また、上記図12の画像合成処理部3
00において、上記図6の画像合成処理部172と同様
に動作する箇所には同じ符号を付し、その詳細な説明は
省略する。
Since the configuration and operation of the image composition processing unit 300 are the same as those of the electronic camera 100 shown in FIG. 1, detailed description of each unit other than the image composition processing unit 300 will be omitted. In addition, the image composition processing unit 3 of FIG.
00, the same operation as that of the image composition processing unit 172 of FIG. 6 is denoted by the same reference numeral, and the detailed description thereof will be omitted.

【0059】ここで、例えば、図13に示すように、電
子カメラ100で近距離の原稿40をパノラマ撮影する
場合、電子カメラ100を位置P41に設置して原稿4
0の領域R41を撮影し、電子カメラ100を位置P4
1から位置P12へ並進移動(上下左右の並進Δx及び
Δy)させて原稿10の領域R42を撮影する。これに
対して、遠距離の被写体を撮影する場合には、電子カメ
ラ100を上下左右に並進させても撮影領域は殆どかわ
らないため、上記図3に示したように、パンニングによ
り風景20等を撮影する。このパンニングによる撮影で
は、例えば、風景20の中央領域R22の画像を基準と
したとき、その両端の領域R21,R23の画像に台形
状の歪みが発生する。このため、各画像を合成する際に
は、その発生した画像の歪みを考慮する必要ある。
Here, for example, as shown in FIG. 13, when the electronic camera 100 takes a panoramic image of an original 40 at a short distance, the electronic camera 100 is installed at a position P41 and the original 4 is placed.
The region R41 of 0 is photographed, and the electronic camera 100 is moved to the position P4.
The region R42 of the document 10 is photographed by performing translational movement (translations Δx and Δy in the vertical and horizontal directions) from 1 to the position P12. On the other hand, when shooting a long-distance subject, since the shooting area hardly changes even if the electronic camera 100 is translated vertically and horizontally, as shown in FIG. 3, the landscape 20 or the like is panned as shown in FIG. Take a picture. In this panning photography, for example, when an image of the central region R22 of the landscape 20 is used as a reference, trapezoidal distortion occurs in the images of the regions R21 and R23 at both ends thereof. Therefore, when composing each image, it is necessary to consider the generated distortion of the image.

【0060】しかしながら、上述のようなパンニングに
よる撮影で発生する画像の歪みは、並進移動による撮影
時の画像合成処理では一般に考慮されていないため、パ
ンニングによる撮影と並進移動による撮影に対して同一
の画像合成処理を行うと、画像の劣化が生じることにな
る。
However, since the image distortion caused by the panning photographing as described above is not generally taken into consideration in the image synthesizing process at the time of the translational photographing, it is the same for the panning photographing and the translational photographing. When the image combining process is performed, the image is deteriorated.

【0061】そこで、この電子カメラは、画像合成処理
部300により、合成する各画像の重複領域を予測する
と共に、パンニングによる撮影と並進移動による撮影の
各々に対して最適な画像合成処理を行うようになされて
いる。
Therefore, in this electronic camera, the image synthesizing unit 300 predicts the overlapping area of each image to be synthesized, and performs the optimum image synthesizing process for each of the photographing by panning and the photographing by translation. Has been done.

【0062】すなわち、画像合成処理部300は、上記
図12に示すように、上記図6の画像合成処理部172
の構成要件に加えて、コントローラ172e及び画像メ
モリ172gの各出力が供給されるセレクタ304と、
セレクタ304の出力が供給される球面写像変換処理部
302とを備えており、対応点検出部172bには、セ
レクタ304の出力が直接供給されると共に、セレクタ
304の出力が球面写像変換処理部302を介して供給
されるようになされている。
That is, as shown in FIG. 12, the image synthesizing processor 300 has the image synthesizing processor 172 shown in FIG.
And a selector 304 to which each output of the controller 172e and the image memory 172g is supplied,
The output of the selector 304 is supplied to the spherical mapping conversion processing unit 302, and the corresponding point detection unit 172b is directly supplied with the output of the selector 304 and the output of the selector 304 is converted into the spherical mapping conversion processing unit 302. It is designed to be supplied via.

【0063】以下、画像合成処理部300の動作につい
て説明する。
The operation of the image composition processing section 300 will be described below.

【0064】先ず、コントローラ172aは、画像情報
分離部172fからの付加情報に含まれる三次元位置及
び角度成分の情報を抽出することによりパンニング角度
を得る。そして、コントローラ172aは、そのパンニ
ング角度と予め設定されているしきい値を比較し、パン
ニング角度がしきい値より大きい場合には上記図3に示
したようなパンニングにより撮影されたものであると判
別し、その判別信号をセレクタ304に供給する。ま
た、コントローラ172aは、パンニングにより撮影さ
れたものであると判別した場合には、上記付加情報に含
まれる焦点距離の情報もセレクタ304に供給する。さ
らに、コントローラ172aは、画像情報分離部172
fからの付加情報に含まれるフォーカス位置(被写体距
離)、焦点距離、三次元位置及び角度成分の情報を重複
領域予測部301に供給する。
First, the controller 172a obtains the panning angle by extracting the information of the three-dimensional position and the angle component included in the additional information from the image information separating unit 172f. Then, the controller 172a compares the panning angle with a preset threshold value, and if the panning angle is larger than the threshold value, it is determined that the image was taken by the panning as shown in FIG. It discriminates and supplies the discrimination signal to the selector 304. Further, when the controller 172a determines that the image is captured by panning, it also supplies the focal length information included in the additional information to the selector 304. Further, the controller 172a includes an image information separation unit 172.
Information on the focus position (subject distance), the focal length, the three-dimensional position, and the angle component included in the additional information from f is supplied to the overlap region prediction unit 301.

【0065】セレクタ304は、コントローラ172a
からの判別信号により、パンニングによる撮影であった
場合、画像メモリ172gに書き込まれた一連の複数の
画像データを読み出して球面写像変換処理部302に供
給すると共に、コントローラ172aからの焦点距離の
情報も球面写像変換処理部302に供給する。一方、並
進移動による撮影であった場合、セレクタ304は、画
像メモリ172gから読み出した一連の複数の画像デー
タを直接対応点検出部172bに供給する。
The selector 304 is the controller 172a.
When the image is captured by panning, the series of plural image data written in the image memory 172g is read out and supplied to the spherical mapping conversion processing unit 302, and the focal length information from the controller 172a is also output. It is supplied to the spherical mapping conversion processing unit 302. On the other hand, in the case of shooting by translational movement, the selector 304 directly supplies the series of plural image data read from the image memory 172g to the corresponding point detecting unit 172b.

【0066】球面写像変換処理部302は、セレクタ3
04からの各画像データに対して球面写像変換処理を施
す。
The sphere mapping conversion processing unit 302 includes a selector 3
Spherical mapping conversion processing is performed on each image data from 04.

【0067】具体的に説明すると、まず、球面写像変換
処理とは、図14に示すように、任意の画像I51に接
する球面50を仮定し、上記図1の撮影レンズ101の
主点Oについて画像I51を球面50に投影することに
より、球面画像I52を生成する処理のことである。
More specifically, first, in the spherical mapping conversion processing, as shown in FIG. 14, an image of the principal point O of the taking lens 101 of FIG. It is a process of generating a spherical image I52 by projecting I51 onto the spherical surface 50.

【0068】そこで、図15に示すように、球面写像変
換処理部302に供給される画像データを、例えば、任
意の位置で遠距離撮影された画像I51aと、任意の角
度パンニングして得られた画像I51bとした場合、球
面写像変換処理部302は、セレクタ304からの焦点
距離の情報を用いて、焦点距離f1として画像I51a
を球面50に投影することにより球面画像I52aを生
成し、また、焦点距離f1として画像I51bを球面5
0に投影することにより球面画像I52bを生成する。
Therefore, as shown in FIG. 15, the image data supplied to the spherical mapping conversion processing unit 302 is obtained by, for example, panning an image I51a photographed at a long distance at an arbitrary position and an arbitrary angle. In the case of the image I51b, the spherical mapping conversion processing unit 302 uses the information on the focal length from the selector 304 to set the image I51a as the focal length f1.
Is projected onto the spherical surface 50 to generate a spherical image I52a, and the image I51b is taken as the spherical surface 5 as the focal length f1.
A spherical image I52b is generated by projecting it on 0.

【0069】したがって、焦点距離f1が同一で、かつ
光軸まわりの回転がない場合、球面写像変換処理部30
2で得られた球面画像I52aと球面画像I52bは、
球面50上で連続しているため、これらの球面画像を座
標変換する際に用いるパラメータは、上記図13に示し
たような上下左右の並進Δx及びΔyのみのパラメータ
とすることができる。しかしながら、実際には、焦点距
離f1及び光軸まわりの回転θの誤差等があるため、こ
こでは、座標変換処理を行う際に、上下左右の並進Δx
及びΔyと、焦点距離f1と、光軸まわりの回転θとを
上記パラメータとして用いる。これにより、パンニング
による撮影時の座標変換処理に、並進移動による撮影時
と同一のパラメータを用いることができる。
Therefore, when the focal lengths f1 are the same and there is no rotation around the optical axis, the spherical mapping conversion processing unit 30
The spherical image I52a and the spherical image I52b obtained in 2 are
Since they are continuous on the spherical surface 50, the parameters used for coordinate conversion of these spherical images can be parameters for only the vertical and horizontal translations Δx and Δy as shown in FIG. However, in reality, there are errors in the focal length f1 and the rotation θ around the optical axis, and so on.
And Δy, the focal length f1, and the rotation θ around the optical axis are used as the above parameters. Accordingly, the same parameters as those used for the image capturing by the translational movement can be used for the coordinate conversion process during the image capturing by the panning.

【0070】上述のようにして、パンニングにより撮影
された画像であった場合には、球面写像変換処理部30
2で球面写像変換処理が行われ、その処理により得られ
た一連の複数の球面画像データが対応点検出部172b
に供給される。また、並進移動により撮影された画像で
あった場合には、画像メモリ172gに書き込まれた一
連の複数の画像データがそのまま対応点検出部172b
に供給される。
As described above, in the case of an image taken by panning, the spherical mapping conversion processing unit 30
2 performs spherical mapping conversion processing, and a series of a plurality of spherical image data obtained by the processing is used as the corresponding point detection unit 172b.
Is supplied to. In the case of an image photographed by translational movement, a series of a plurality of image data written in the image memory 172g is the corresponding point detection unit 172b.
Is supplied to.

【0071】一方、重複領域予測部301は、コントロ
ーラ172eからの被写体距離、焦点距離、三次元位置
及び角度成分の情報を用いて、各画像の重複領域を予測
する。
On the other hand, the overlapping area predicting section 301 predicts the overlapping area of each image using the information on the object distance, the focal length, the three-dimensional position and the angle component from the controller 172e.

【0072】例えば、各画像の位置関係を上下左右の並
進Δx及びΔyで略表すことができるとした場合、図1
6に示すように、被写体距離を「L」、並進量を「Δ
x」、センサ面の幅を「h」、焦点距離を「f」とする
と、重複領域Sは、 S=h−f・Δx/L ・・・(5) なる式(5)により得ることができる。
For example, assuming that the positional relationship of each image can be roughly represented by vertical and horizontal translations Δx and Δy, FIG.
6, the subject distance is “L” and the translation amount is “Δ”.
x ", the width of the sensor surface is" h ", and the focal length is" f ", the overlapping region S can be obtained by the following equation (5): S = hf ?? x / L (5) it can.

【0073】したがって、重複領域予測部301は、上
記(5)を用いて、重複領域Sを画像メモリ172gに
書き込まれた画像データのサイズに変換して重複領域を
予測し、その結果得られた重複領域の情報を対応点検出
部172bに供給する。
Therefore, the overlapping area prediction unit 301 uses the above (5) to convert the overlapping area S into the size of the image data written in the image memory 172g, predict the overlapping area, and obtain the result. Information on the overlapping area is supplied to the corresponding point detecting unit 172b.

【0074】対応点検出部172bは、重複領域予測部
301からの重複領域の情報に基づいて、セレクタ30
4又は球面写像変換処理部302からの各画像の重複領
域内の対応点を検出してパラメータ抽出部303に供給
する。
The corresponding point detection unit 172b, based on the overlap area information from the overlap area prediction unit 301, selects the selector 30.
4 or the corresponding point in the overlapping area of each image from the spherical mapping conversion processing unit 302 is detected and supplied to the parameter extraction unit 303.

【0075】パラメータ抽出部303は、対応点検出部
172bからの対応点の情報に基づいて、合成処理のた
めのパラメータを抽出し、そのパラメータを座標変換処
理部172hに供給する。
The parameter extracting unit 303 extracts a parameter for the combining process based on the information of the corresponding points from the corresponding point detecting unit 172b, and supplies the parameter to the coordinate conversion processing unit 172h.

【0076】座標変換処理部172hは、パラメータ抽
出部172dからのパラメータを用いて、コントローラ
172eにより読み出された一連の複数の画像データに
アフィン変換等の座標変換処理を施すことによりパノラ
マ画像を生成し、そのパノラマ画像を合成画像用メモリ
172iに書き込む。
The coordinate conversion processing section 172h uses the parameters from the parameter extraction section 172d to generate a panoramic image by performing coordinate conversion processing such as affine transformation on a series of a plurality of image data read by the controller 172e. Then, the panoramic image is written in the composite image memory 172i.

【0077】上述のように、この電子カメラでは、パン
ニングして得られた画像であると判別された画像に対し
て球面写像変換処理を行うようになされているため、パ
ンニングによる撮影又は並進移動による撮影等の撮影状
況に係わらず同一の画像合成処理を行うことができる。
すなわち、撮影状況によらずに常に適切な画像合成処理
を行うことができる。したがって、パンニングして撮影
した場合でも、移動並進して撮影した場合でも、常に高
品質のパノラマ画像を得ることができる。また、三次元
位置及び角度成分の情報に基づいて、各画像の重複領域
を予測してパノラマ画像を生成するようになされている
ため、処理時間を短縮することができ、高精度にパノラ
マ画像を生成することができる。
As described above, in this electronic camera, the spherical mapping conversion process is performed on the image determined to be the image obtained by panning. The same image composition processing can be performed regardless of the shooting situation such as shooting.
That is, it is possible to always perform an appropriate image synthesizing process regardless of the shooting condition. Therefore, it is possible to always obtain a high quality panoramic image regardless of whether the panning is performed or the moving translation is performed. Further, since the panoramic image is generated by predicting the overlapping area of each image based on the information of the three-dimensional position and the angle component, the processing time can be shortened and the panoramic image can be generated with high accuracy. Can be generated.

【0078】尚、上述した電子カメラでは、画像合成処
理部300を上記図1の電子カメラ100に設けられた
画像合成処理部172の代わりに設けることとしたが、
上記図10の電子カメラ200に設けられた画像合成処
理部172の代わりに設けるようにしてもよい。
In the electronic camera described above, the image composition processing section 300 is provided instead of the image composition processing section 172 provided in the electronic camera 100 shown in FIG.
It may be provided instead of the image composition processing unit 172 provided in the electronic camera 200 of FIG.

【発明の効果】以上説明したように本発明によれば、撮
影して得られた画像と共に保持されている撮影時の撮影
条件及び撮影時の装置の移動により発生した装置の移動
状態の情報を瞬時に得て、それらの情報に基づいて各画
像間の重複領域を予測し、その重複領域内における各画
像の対応関係を得るように構成したことにより、撮影し
て得られた画像のみで各画像の重複領域内の対応関係を
得る場合に比べて、処理時間を著しく短縮することがで
きる。また、対応関係の誤検出の発生も著しく低減する
ことができる。したがって、短時間で高品質のパノラマ
画像を得ることができる。すなわち、装置の性能を高性
能とすることができ、高品質のパノラマ画像を簡易に得
ることができる。また、本発明によれば、撮影時の撮影
条件及び撮影時の装置の移動により発生した角度成分の
情報に基づいて、合成する各画像間の重複領域を予測す
るように構成したことにより、短時間で高品質のパノラ
マ画像を得ることができる。また、本発明によれば、角
速度センサにより上記角度成分を得るように構成したこ
とにより、短時間で高品質のパノラマ画像を得ることが
できる。また、本発明によれば、撮影時の撮影条件及び
撮影時の装置の移動により発生した並進成分の情報に基
づいて、合成する各画像間の重複領域を予測するように
構成したことにより、短時間で高品質のパノラマ画像を
得ることができる。また、本発明によれば、加速度セン
サにより上記並進成分を得るように構成したことによ
り、短時間で高品質のパノラマ画像を得ることができ
る。また、本発明によれば、撮影時の装置の移動により
発生した装置の位置の情報に基づいて、合成する各画像
間の重複領域をさらに瞬時に予測するように構成したこ
とにより、さらに短時間で高品質のパノラマ画像を得る
ことができる。また、本発明によれば、撮影時の装置の
移動により発生した装置の三次元位置の情報に基づい
て、合成する各画像間の重複領域をさらに瞬時に予測す
るように構成したことにより、さらに短時間で高品質の
パノラマ画像を得ることができる。また、本発明によれ
ば、撮影時の装置の移動により発生した装置の移動状態
の情報に基づいて、画像が入力される毎に各画像の重複
領域を逐次求め、画像を合成するために適切な重複度に
おいて自動的に撮影するように構成したことにより、装
置の性能をさらに高性能とすることができる。例えば、
撮影の失敗を防止することができると共に、操作性を著
しく向上させることができる。また、本発明によれば、
撮影時の装置の移動により発生した装置の移動状態の情
報に基づいて判別された撮影状況に対して、適切な画像
合成処理を行うような構成としたことにより、常に高品
質のパノラマ画像を簡易に得ることができる。また、本
発明によれば、生成したパノラマ画像を外部出力するよ
うな構成としたことにより、外部接続された装置に上記
パノラマ画像を与えることができる。
As described above, according to the present invention, it is possible to store information on the shooting condition at the time of shooting held together with the image obtained by shooting and the moving state of the device generated by the movement of the device at the time of shooting. It is configured so that the overlap area between each image can be predicted instantly based on the information, and the correspondence relationship of each image in the overlap area can be obtained. The processing time can be remarkably shortened as compared with the case of obtaining the correspondence in the overlapping area of the images. Further, the occurrence of false detection of correspondence can be significantly reduced. Therefore, a high quality panoramic image can be obtained in a short time. That is, the performance of the device can be improved, and a high-quality panoramic image can be easily obtained. Further, according to the present invention, since the overlapping area between the images to be combined is predicted based on the shooting condition at the time of shooting and the information of the angle component generated by the movement of the device at the time of shooting, A high quality panoramic image can be obtained in time. Further, according to the present invention, since the angular component is configured to be obtained by the angular velocity sensor, a high quality panoramic image can be obtained in a short time. Further, according to the present invention, since the overlapping area between the images to be combined is predicted based on the shooting condition at the time of shooting and the information of the translational component generated by the movement of the device at the time of shooting, A high quality panoramic image can be obtained in time. Moreover, according to the present invention, since the translational component is obtained by the acceleration sensor, a high quality panoramic image can be obtained in a short time. Further, according to the present invention, based on the information on the position of the device generated by the movement of the device at the time of shooting, the overlapping area between the images to be combined is further instantly predicted, so that the time is further shortened. You can get high quality panoramic images. Further, according to the present invention, based on the information of the three-dimensional position of the device generated by the movement of the device at the time of shooting, the overlapping area between the images to be combined is configured to be more instantaneously predicted. It is possible to obtain a high quality panoramic image in a short time. Further, according to the present invention, it is suitable for sequentially obtaining an overlapping area of each image based on the information on the movement state of the device generated by the movement of the device at the time of image capturing and synthesizing the images. Since the apparatus is configured to automatically capture images at various overlapping degrees, the performance of the apparatus can be further enhanced. For example,
It is possible to prevent the failure of shooting and significantly improve the operability. According to the present invention,
A high quality panoramic image is always simplified by adopting a configuration that performs an appropriate image composition process for the shooting situation determined based on the information of the movement state of the device generated by the movement of the device at the time of shooting. Can be obtained. Further, according to the present invention, the generated panoramic image is externally output, so that the panoramic image can be given to an externally connected device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態において、本発明に
係る電子カメラシステムの構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration of an electronic camera system according to the present invention in a first embodiment of the present invention.

【図2】上記電子カメラシステムの角度検出部の構成を
示すブロック図である。
FIG. 2 is a block diagram showing a configuration of an angle detection unit of the electronic camera system.

【図3】パンニングして遠距離の被写体をパノラマ撮影
する場合を説明するための図である。
FIG. 3 is a diagram for explaining a case where panning is performed to panoramicly photograph a long-distance subject.

【図4】上記パノラマ撮影により得られる一連の複数の
画像を説明するための図である。
FIG. 4 is a diagram for explaining a series of images obtained by the panoramic photography.

【図5】上記一連の複数の画像を合成して得られるパノ
ラマ画像を説明するための図である。
FIG. 5 is a diagram for explaining a panoramic image obtained by synthesizing a series of a plurality of images.

【図6】上記電子カメラシステムの画像合成処理部の構
成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of an image composition processing unit of the electronic camera system.

【図7】上記画像合成処理部で重複領域を予測する処理
を説明するための図である。
FIG. 7 is a diagram for explaining a process of predicting an overlapping area in the image synthesis processing unit.

【図8】上記画像合成処理部で重複領域における対応点
を検出する処理を説明するための図である。
FIG. 8 is a diagram illustrating a process of detecting corresponding points in an overlapping area by the image synthesis processing unit.

【図9】上記対応点の検出より得られる対応点を説明す
るための図である。
FIG. 9 is a diagram for explaining corresponding points obtained by detecting the corresponding points.

【図10】本発明の第2の実施の形態において、本発明
に係る電子カメラシステムの構成を示すブロック図であ
る。
FIG. 10 is a block diagram showing a configuration of an electronic camera system according to the present invention in a second embodiment of the present invention.

【図11】上記電子カメラシステムで重複領域を予測す
る処理を説明するための図である。
FIG. 11 is a diagram for explaining a process of predicting an overlapping area in the electronic camera system.

【図12】本発明の第3の実施の形態において、本発明
に係る電子カメラシステムの画像合成処理部の構成を示
すブロック図である。
FIG. 12 is a block diagram showing a configuration of an image composition processing unit of the electronic camera system according to the third embodiment of the present invention.

【図13】並進移動して近距離の被写体をパノラマ撮影
する場合を説明するための図である。
FIG. 13 is a diagram for explaining a case where a panoramic image of a subject at a short distance is obtained by translational movement.

【図14】球面写像を説明するための図である。FIG. 14 is a diagram for explaining a spherical mapping.

【図15】上記画像合成処理部で球面写像変換を行う処
理を説明するための図である。
FIG. 15 is a diagram for explaining a process of performing spherical mapping conversion in the image synthesis processing unit.

【図16】上記画像合成処理部で重複領域を予測する処
理を説明するための図である。
FIG. 16 is a diagram for explaining a process of predicting an overlapping area in the image synthesis processing unit.

【符号の説明】[Explanation of symbols]

100 電子カメラシステム 101 撮影レンズ 102 絞り 103 シャッタ 104 増幅器 105 自動利得制御回路 106 A/D変換器 107 映像信号処理回路 109 フラッシュ 120 コントローラ 121 ズーム制御部 122 フォーカス制御部 123 絞り制御部 124 シャッタ制御部 126 角度検出部 130 画像メモリ 141 ホワイトバランス検出部 142 合焦検出部 143 露出検出部 150 レリーズボタン検出部 155 リセットボタン 160 撮影モード設定部 170 I/F部 172 画像合成部 173 表示部 100 electronic camera system 101 shooting lens 102 aperture 103 shutter 104 amplifier 105 automatic gain control circuit 106 A / D converter 107 video signal processing circuit 109 flash 120 controller 121 zoom control unit 122 focus control unit 123 aperture control unit 124 shutter control unit 126 Angle detection unit 130 Image memory 141 White balance detection unit 142 Focus detection unit 143 Exposure detection unit 150 Release button detection unit 155 Reset button 160 Shooting mode setting unit 170 I / F unit 172 Image composition unit 173 Display unit

フロントページの続き (72)発明者 滝口 英夫 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内Front page continuation (72) Inventor Hideo Takiguchi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により画面の一部が重複するよ
うに被写体像を複数画面に分割して撮影し、上記撮像手
段で得られた一連の複数の画像を合成してパノラマ画像
を生成する電子カメラシステムであって、 撮影時の撮影条件を検出する撮影条件検出手段と、 撮影時の装置の移動状態を検出する移動状態検出手段
と、 撮影して得られた複数の画像と共に、各画像に対応して
上記撮影条件検出手段で検出された撮影条件及び上記移
動状態検出手段で検出された移動状態の情報を付加情報
として記憶する記憶手段と、 上記記憶手段に記憶された付加情報に基づいて各画像の
重複領域を予測して検出する重複領域予測手段と、 上記重複領域予測手段で得られた重複領域を用いて各画
像の該重複領域内の対応関係を検出する対応点検出手段
と、 上記対応点検出手段で得られた対応関係の情報に基づい
て上記記憶手段に記憶された一連の複数の画像を合成し
てパノラマ画像を生成する画像合成手段とを備えること
を特徴とする電子カメラシステム。
1. A panoramic image is generated by dividing an image of a subject into a plurality of screens by an image pickup means so as to overlap a part of the screens, and synthesizing a series of a plurality of images obtained by the image pickup means. An electronic camera system comprising: shooting condition detection means for detecting shooting conditions at the time of shooting; moving state detection means for detecting a moving state of the device at the time of shooting; and a plurality of images obtained by shooting Storage means for storing, as additional information, information on the shooting condition detected by the shooting condition detecting means and the moving state detected by the moving state detecting means, and based on the additional information stored in the storing means. An overlapping area prediction unit that predicts and detects an overlapping area of each image, and a corresponding point detection unit that detects a correspondence relationship between the images in the overlapping area using the overlapping area obtained by the overlapping area prediction unit. , Up An electronic camera comprising: an image synthesizing unit for synthesizing a series of a plurality of images stored in the storage unit to generate a panoramic image based on the information on the correspondence obtained by the corresponding point detecting unit. system.
【請求項2】 上記移動状態検出手段は、装置の移動に
より発生した角度成分を検出することを特徴とする請求
項1記載の電子カメラシステム。
2. The electronic camera system according to claim 1, wherein the movement state detecting means detects an angle component generated by movement of the device.
【請求項3】 上記移動状態検出手段は、角速度センサ
により上記角度成分を検出することを特徴とする請求項
2記載の電子カメラシステム。
3. The electronic camera system according to claim 2, wherein the moving state detecting means detects the angular component by an angular velocity sensor.
【請求項4】 上記移動状態検出手段は、装置の移動に
より発生した並進成分を検出することを特徴とする請求
項1記載の電子カメラシステム。
4. The electronic camera system according to claim 1, wherein the moving state detecting means detects a translational component generated by the movement of the device.
【請求項5】 上記移動状態検出手段は、加速度センサ
により上記並進成分を検出することを特徴とする請求項
4記載の電子カメラシステム。
5. The electronic camera system according to claim 4, wherein the moving state detecting means detects the translational component by an acceleration sensor.
【請求項6】 撮影時の装置の位置を検出する位置検出
手段を備え、 上記記憶手段は、上記位置検出手段で検出された位置の
情報を上記付加情報に含めて記憶することを特徴とする
請求項1記載の電子カメラシステム。
6. A position detecting means for detecting the position of the apparatus at the time of photographing is provided, and the storage means stores the information of the position detected by the position detecting means in the additional information. The electronic camera system according to claim 1.
【請求項7】 上記位置検出手段は、装置の三次元位置
を検出することを特徴とする請求項6記載の電子カメラ
システム。
7. The electronic camera system according to claim 6, wherein the position detecting means detects a three-dimensional position of the device.
【請求項8】 上記撮影条件検出手段で検出された撮影
条件及び上記移動状態検出手段で検出された移動状態の
情報に基づいて、上記撮像手段に画像が入力される毎に
各画像の重複領域を示す重複度を逐次検出する重複領域
検出手段と、 上記重複領域検出手段で得られた重複度と所定値とを比
較する比較手段と、 上記比較手段の比較結果に基づいて撮影タイミングを制
御する制御手段とを備えることを特徴とする請求項1記
載の電子カメラシステム。
8. An overlapping area of each image, every time an image is input to the image pickup means, based on the information of the image pickup condition detected by the image pickup condition detection means and the movement state detected by the movement state detection means. The overlapping area detecting means for sequentially detecting the overlapping degree, the comparing means for comparing the overlapping degree obtained by the overlapping area detecting means with a predetermined value, and the photographing timing is controlled based on the comparison result of the comparing means. The electronic camera system according to claim 1, further comprising a control unit.
【請求項9】 上記記憶手段に記憶された一連の複数の
画像を各々球面上に投影変換して球面投影画像を生成す
る球面投影変換手段と、 上記記憶手段に記憶された一連の複数の画像及び上記球
面投影変換手段で得られた複数の球面投影画像を選択的
に切り換えて上記対応点検出手段に出力する切換手段
と、 上記記憶手段に記憶された付加情報から撮影状況を検出
する撮影状況検出手段と、 上記撮影状況検出手段の検出結果に基づいて上記球面投
影変換手段の動作制御を行うと共に、上記切換手段の切
り換え動作を制御する切換制御手段とを備えることを特
徴とする請求項1記載の電子カメラシステム。
9. A spherical projection conversion means for projecting a series of a plurality of images stored in the storage means onto a spherical surface to generate a spherical projection image, and a series of a plurality of images stored in the storage means. And a switching means for selectively switching a plurality of spherical projection images obtained by the spherical projection conversion means to output to the corresponding point detecting means, and a shooting situation for detecting the shooting situation from the additional information stored in the storage means. 2. A detection means and a switching control means for controlling the switching operation of the switching means while controlling the operation of the spherical projection conversion means based on the detection result of the photographing condition detection means. Electronic camera system described.
【請求項10】 上記画像合成手段で得られたパノラマ
画像を外部出力する出力手段を備えることを特徴とする
請求項1記載の電子カメラシステム。
10. The electronic camera system according to claim 1, further comprising output means for externally outputting the panoramic image obtained by the image synthesizing means.
JP8133647A 1996-05-28 1996-05-28 Electronic camera system Pending JPH09322055A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8133647A JPH09322055A (en) 1996-05-28 1996-05-28 Electronic camera system
US08/864,470 US6389179B1 (en) 1996-05-28 1997-05-28 Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
US10/101,222 US6788828B2 (en) 1996-05-28 2002-03-20 Adaptive image combination according to image sensing condition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8133647A JPH09322055A (en) 1996-05-28 1996-05-28 Electronic camera system

Publications (1)

Publication Number Publication Date
JPH09322055A true JPH09322055A (en) 1997-12-12

Family

ID=15109699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8133647A Pending JPH09322055A (en) 1996-05-28 1996-05-28 Electronic camera system

Country Status (1)

Country Link
JP (1) JPH09322055A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205674A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
JPH11205675A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
JPH11298837A (en) * 1998-04-13 1999-10-29 Ricoh Co Ltd Image input device and image input method
JP2001243012A (en) * 2000-01-18 2001-09-07 Hewlett Packard Co <Hp> Pointing device for display of digital camera
JP2004153691A (en) * 2002-10-31 2004-05-27 Casio Comput Co Ltd Image pickup device, image pickup method and program
JP2007143064A (en) * 2005-11-22 2007-06-07 Canon Inc Imaging device and imaging method
US7324135B2 (en) 2002-10-15 2008-01-29 Seiko Epson Corporation Panoramic composition of multiple image data
EP2134080A2 (en) 2008-06-11 2009-12-16 Sony Corporation Information processing apparatus, image-capturing system, reproduction control method, recording control method, and program
JP2010045587A (en) * 2008-08-12 2010-02-25 Sony Ericsson Mobile Communications Ab Camera apparatus, image photography support device, image photography support method, and image photography support program
JP2012068380A (en) * 2010-09-22 2012-04-05 Sony Corp Image processor, imaging apparatus, image processing method, and program
US9781340B2 (en) 2011-07-27 2017-10-03 Olympus Corporation Image processing system, information processing device, information storage device, and image processing method
WO2018180214A1 (en) * 2017-03-28 2018-10-04 富士フイルム株式会社 Image processing device, camera device, and image processing method
JP2019106075A (en) * 2017-12-13 2019-06-27 三菱重工業株式会社 Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205675A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
JPH11205674A (en) * 1998-01-19 1999-07-30 Olympus Optical Co Ltd Image synthesizing processor and record medium for recording image synthesizing processing program
JPH11298837A (en) * 1998-04-13 1999-10-29 Ricoh Co Ltd Image input device and image input method
JP2001243012A (en) * 2000-01-18 2001-09-07 Hewlett Packard Co <Hp> Pointing device for display of digital camera
US7324135B2 (en) 2002-10-15 2008-01-29 Seiko Epson Corporation Panoramic composition of multiple image data
US7423671B2 (en) 2002-10-31 2008-09-09 Casio Computer Co., Ltd. Image pickup apparatus and photographing method with image angle correction for combining image data
KR100703958B1 (en) * 2002-10-31 2007-04-05 가시오게산키 가부시키가이샤 Image pickup apparatus, photographing method, and storage medium recording photographing method
JP2004153691A (en) * 2002-10-31 2004-05-27 Casio Comput Co Ltd Image pickup device, image pickup method and program
JP2007143064A (en) * 2005-11-22 2007-06-07 Canon Inc Imaging device and imaging method
EP2134080A2 (en) 2008-06-11 2009-12-16 Sony Corporation Information processing apparatus, image-capturing system, reproduction control method, recording control method, and program
US8279296B2 (en) 2008-06-11 2012-10-02 Sony Corporation Information processing apparatus, image-capturing system, reproduction control method, recording control method, and program
JP2010045587A (en) * 2008-08-12 2010-02-25 Sony Ericsson Mobile Communications Ab Camera apparatus, image photography support device, image photography support method, and image photography support program
JP2012068380A (en) * 2010-09-22 2012-04-05 Sony Corp Image processor, imaging apparatus, image processing method, and program
US9781340B2 (en) 2011-07-27 2017-10-03 Olympus Corporation Image processing system, information processing device, information storage device, and image processing method
WO2018180214A1 (en) * 2017-03-28 2018-10-04 富士フイルム株式会社 Image processing device, camera device, and image processing method
JP2019106075A (en) * 2017-12-13 2019-06-27 三菱重工業株式会社 Inspection image synthesizing device, inspection image synthesizing system, inspection image synthesizing method and program

Similar Documents

Publication Publication Date Title
US8208034B2 (en) Imaging apparatus
JP2006245726A (en) Digital camera
JP5106142B2 (en) Electronic camera
JP2005311789A (en) Digital camera
US7978254B2 (en) Image capturing apparatus, its controlling method, and program
JP2008109336A (en) Image processor and imaging apparatus
JP2007201539A (en) Digital camera
JP2009284394A (en) Imaging apparatus and imaging method
JP2008236645A (en) Photographing device
JP2019033344A (en) Image processing apparatus, image processing method, and program
JPH09322055A (en) Electronic camera system
JP2001223932A (en) Image pickup device and digital camera
JP2015053741A (en) Image reproduction device
JP2000101895A (en) Image signal photographing device and its method
JPH1169288A (en) Image processor
JP4565909B2 (en) camera
JPH0918750A (en) Electronic camera, electronic camera system using it image pickup device and signal processing unit
JP2011035752A (en) Imaging apparatus
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
KR100561449B1 (en) Digital zoom out processing apparatus
US20110221914A1 (en) Electronic camera
JP3122099B2 (en) Image synthesizing apparatus and image synthesizing method
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
KR20110020521A (en) Digital photographing apparatus
JP7051586B2 (en) Imaging equipment, imaging methods and programs