JP7051586B2 - Imaging equipment, imaging methods and programs - Google Patents

Imaging equipment, imaging methods and programs Download PDF

Info

Publication number
JP7051586B2
JP7051586B2 JP2018100077A JP2018100077A JP7051586B2 JP 7051586 B2 JP7051586 B2 JP 7051586B2 JP 2018100077 A JP2018100077 A JP 2018100077A JP 2018100077 A JP2018100077 A JP 2018100077A JP 7051586 B2 JP7051586 B2 JP 7051586B2
Authority
JP
Japan
Prior art keywords
region
image
exposure
alignment
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018100077A
Other languages
Japanese (ja)
Other versions
JP2019205100A (en
Inventor
佳絵 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018100077A priority Critical patent/JP7051586B2/en
Publication of JP2019205100A publication Critical patent/JP2019205100A/en
Application granted granted Critical
Publication of JP7051586B2 publication Critical patent/JP7051586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の画像を合成してパノラマ画像を作成する撮像装置に関するものである。特に、撮像中に露出が変化するシーンにおいてパノラマ画像を作成する撮像装置に関するものである。 The present invention relates to an image pickup device that creates a panoramic image by synthesizing a plurality of images. In particular, the present invention relates to an imaging device that creates a panoramic image in a scene where the exposure changes during imaging.

撮像装置がパンニング動作をされながら連続撮像した複数の画像を位置合わせして合成することで、より画角の広い画像に合成するパノラマ撮像が広く行われている(特許文献1)。パノラマ撮像では、合成画像に露出の段差による不自然が生じないよう、撮像画角に存在する主要被写体の適正露出に露出条件を固定して全画角を撮像することが一般的である。 Panorama imaging is widely performed in which a plurality of images continuously captured while the image pickup device is panning are aligned and combined to form an image having a wider angle of view (Patent Document 1). In panoramic imaging, it is common to fix the exposure condition to the appropriate exposure of the main subject existing at the imaging angle of view and capture the entire angle of view so that the composite image does not have unnaturalness due to the step of exposure.

特開平11-46317号公報Japanese Unexamined Patent Publication No. 11-46317

しかしながら、特許文献1に記載の方法を用いて、以下のような課題が生じることがある。図9は、被写体の露出が大きく変化したシーンにおけるパノラマ撮像を説明するための図である。図9(a)には被写体の露出がパノラマ撮像の間に大きく変化するシーン(落陽を主被写体とした風景シーン)が示されている。図9(a)では、中央の領域901に対して測光し得られた露出条件を固定にしてパノラマ画像900を撮像する。しかし、露出を領域901における適正露出とは異なる適正露出の領域902を撮像する際に適正露出とならず、領域902を適正露出で撮像した場合には信号がある領域903が非常に低信号(以下、黒つぶれと表現する)となる。黒つぶれした領域では位置合わせのための特徴点が取得できず、位置合わせが困難となる。ゆえに、被写体の露出が撮像の間に大きく変化するシーンでは位置合わせが困難で、合成画像が作成できないこともある。逆に、暗い被写体を主被写体とするシーン(トンネルを主被写体とする風景シーンなど)では、適正露出で撮像した場合には信号がある部分が略飽和した信号(以下、白飛びと表現する)となり、位置合わせが困難となる。 However, the following problems may occur by using the method described in Patent Document 1. FIG. 9 is a diagram for explaining panoramic imaging in a scene in which the exposure of a subject changes significantly. FIG. 9A shows a scene in which the exposure of the subject changes significantly during panoramic imaging (a landscape scene with the setting sun as the main subject). In FIG. 9A, the panoramic image 900 is imaged with the exposure conditions obtained by metering the central region 901 fixed. However, when the region 902 with the proper exposure different from the proper exposure in the region 901 is imaged, the exposure is not the proper exposure, and when the region 902 is imaged with the proper exposure, the region 903 with the signal is very low signal ( Hereinafter, it is expressed as blackout). In the blackened area, the feature points for alignment cannot be obtained, which makes alignment difficult. Therefore, in a scene where the exposure of the subject changes significantly during imaging, it is difficult to align the subject, and it may not be possible to create a composite image. On the other hand, in a scene where a dark subject is the main subject (such as a landscape scene where the tunnel is the main subject), the signal is almost saturated when the image is taken with proper exposure (hereinafter referred to as overexposure). Therefore, it becomes difficult to align.

本発明は、上記の課題を鑑みてなされたものであり、露出が大きく変わるようなシーンにおいて、位置合わせの失敗を減らし、パノラマ画像を作成できる撮像装置を提供するものである。 The present invention has been made in view of the above problems, and provides an imaging device capable of creating a panoramic image by reducing misalignment in a scene where the exposure changes significantly.

上記課題を解決するため、本願発明は、少なくともイメージセンサを有し、複数の画像を撮像する撮像手段と、前記複数の画像の少なくとも一部のそれぞれの画像において、第1の領域と第2の領域と第3の領域とを設定する設定手段と、前記第2の領域と前記第3の領域との露出の調整を行う調整手段と、前記複数の画像の少なくとも一部の画像のそれぞれの前記第1の領域に対して位置合わせを行う位置合わせ手段と、前記位置合わせ手段が前記位置合わせを行った後の前記第1の領域に対して合成を行う合成手段と、を有し、前記画像の前記第2の領域の露出と該画像の前のフレームの画像の前記第3の領域の露出とが、同じでないとき、前記調整手段が、該第2の領域の露出と該第3の領域の露出とが同じになるように調整してから、前記位置合わせ手段が、該画像の該第2の領域と該画像の前のフレームの画像の該第3の領域とに対して位置合わせのための係数を算出し、前記位置合わせ手段が、該係数を用いて前記第1の領域に対して位置合わせを行う撮像装置を提供する。 In order to solve the above problems, the present invention has at least an image sensor, an image pickup means for capturing a plurality of images, and a first region and a second region in each image of at least a part of the plurality of images. The setting means for setting the region and the third region, the adjusting means for adjusting the exposure between the second region and the third region, and the said for each of at least a part of the plurality of images. The image has an alignment means for aligning with respect to the first region and a synthesis means for synthesizing with respect to the first region after the alignment means has performed the alignment. When the exposure of the second region of the image and the exposure of the third region of the image of the image in the previous frame of the image are not the same, the adjusting means measures the exposure of the second region and the third region. After adjusting so that the exposure of the image is the same, the alignment means aligns the second region of the image with the third region of the image of the previous frame of the image. Provided is an image pickup device in which the alignment means performs alignment with respect to the first region using the coefficient.

本発明の構成によれば、露出の大きく変わるシーンにおいても、パノラマ画像を作成することができる。 According to the configuration of the present invention, it is possible to create a panoramic image even in a scene where the exposure changes greatly.

本発明の実施形態に係るデジタルカメラの概略構成を示す背面斜視図である。It is a rear perspective view which shows the schematic structure of the digital camera which concerns on embodiment of this invention. 本発明の実施形態に係るデジタルカメラのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of the digital camera which concerns on embodiment of this invention. 第1の実施形態におけるパノラマ撮像を説明するためのフローチャートである。It is a flowchart for demonstrating panoramic photography in 1st Embodiment. 第1の実施形態における位置合わせを説明するための図である。It is a figure for demonstrating the alignment in 1st Embodiment. 第1の実施形態におけるイメージセンサの変更例を説明するための図である。It is a figure for demonstrating the modification example of the image sensor in 1st Embodiment. 第2の実施形態におけるパノラマ撮像を説明するためのフローチャートである。It is a flowchart for demonstrating panoramic photography in 2nd Embodiment. 第2の実施形態における撮像および画像処理を説明するための図である。It is a figure for demonstrating image pickup and image processing in 2nd Embodiment. 第2の実施形態におけるイメージセンサの変更例を説明するための図である。It is a figure for demonstrating the modification example of the image sensor in 2nd Embodiment. 被写体の露出が大きく変化したシーンにおけるパノラマ撮像を説明するための図である。It is a figure for demonstrating panoramic imaging in a scene where the exposure of a subject changes greatly.

以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の実施形態に係るデジタルカメラ100の概略構成を示す背面斜視図である。
(First Embodiment)
FIG. 1 is a rear perspective view showing a schematic configuration of a digital camera 100 according to an embodiment of the present invention.

デジタルカメラ100の背面には、画像や各種の情報を表示する表示部101と、ユーザによる各種操作を受け付ける各種スイッチやボタン等の操作部材からなる操作部102が設けられている。また、デジタルカメラ100の背面には、撮像モード等を切り替えるモード切替スイッチ104と、回転操作可能なコントローラホイール103が設けられている。デジタルカメラ100の上面には、撮像指示を行うシャッタボタン121と、デジタルカメラ100の電源のオン/オフを切り替える電源スイッチ122と、被写体に対して閃光を照射するストロボ141が設けられている。 On the back surface of the digital camera 100, a display unit 101 for displaying images and various information, and an operation unit 102 composed of operation members such as various switches and buttons for receiving various operations by the user are provided. Further, on the back surface of the digital camera 100, a mode changeover switch 104 for switching an imaging mode or the like and a controller wheel 103 capable of rotation operation are provided. On the upper surface of the digital camera 100, a shutter button 121 for instructing an image pickup, a power switch 122 for switching the power of the digital camera 100 on / off, and a strobe 141 for irradiating a subject with a flash of light are provided.

デジタルカメラ100は、有線あるいは無線通信を介して外部装置と接続可能であり、外部装置に画像データ(静止画データ、動画データ)等を出力することができる。デジタルカメラ100の下面には、蓋131により開閉可能な記録媒体スロット(不図示)が設けられており、記録媒体スロットに対してメモリカード等の記録媒体130を挿抜することができるようになっている。 The digital camera 100 can be connected to an external device via wired or wireless communication, and can output image data (still image data, moving image data) or the like to the external device. A recording medium slot (not shown) that can be opened and closed by a lid 131 is provided on the lower surface of the digital camera 100 so that a recording medium 130 such as a memory card can be inserted and removed from the recording medium slot. There is.

記録媒体スロットに格納された記録媒体130は、デジタルカメラ100のシステム制御部210(図2参照)と通信可能である。なお、記録媒体130は、記録媒体スロットに対して挿抜可能なメモリカード等に限定されるものではなく、光学ディスクやハードディスク等の磁気ディスクであってもよく、更に、デジタルカメラ100の本体に内蔵されていてもよい。 The recording medium 130 stored in the recording medium slot can communicate with the system control unit 210 (see FIG. 2) of the digital camera 100. The recording medium 130 is not limited to a memory card or the like that can be inserted into and removed from the recording medium slot, but may be a magnetic disk such as an optical disk or a hard disk, and is further built in the main body of the digital camera 100. It may have been done.

図2は、デジタルカメラ100のハードウェア構成を示すブロック図である。デジタルカメラ100は、バリア201、撮像レンズ202、シャッタ203及び撮像部204を備える。バリア201は、撮像光学系を覆うことにより、撮像光学系の汚れや破損を防止する。撮像レンズ202は、ズームレンズ、フォーカスレンズを含むレンズ群により構成されており、撮像光学系を構成する。シャッタ203は、絞り機能を備え、撮像部204に対する露光量を調節する。撮像部204は、光学像を電気信号(アナログ信号)に変換する撮像素子であり、例えば、RGBの画素が規則的に配置されたベイヤー配列構造を有するCCDセンサやCMOSセンサ等のイメージセンサである。なお、シャッタ203は、機械式シャッタ(以下、メカシャッタという)であってもよいし、撮像素子のリセットタイミングの制御によって蓄積時間を制御する電子シャッタであってもよい。 FIG. 2 is a block diagram showing a hardware configuration of the digital camera 100. The digital camera 100 includes a barrier 201, an image pickup lens 202, a shutter 203, and an image pickup unit 204. The barrier 201 covers the image pickup optical system to prevent the image pickup optical system from becoming dirty or damaged. The image pickup lens 202 is composed of a lens group including a zoom lens and a focus lens, and constitutes an image pickup optical system. The shutter 203 has a diaphragm function and adjusts the exposure amount to the image pickup unit 204. The image pickup unit 204 is an image pickup element that converts an optical image into an electric signal (analog signal), and is, for example, an image sensor such as a CCD sensor or a CMOS sensor having a Bayer array structure in which RGB pixels are regularly arranged. .. The shutter 203 may be a mechanical shutter (hereinafter referred to as a mechanical shutter) or an electronic shutter whose accumulation time is controlled by controlling the reset timing of the image pickup device.

または、撮像部204を、ステレオ画像が取得できる、1つ画素に複数の光電変換部に設けられる構造にすれば、後述する自動焦点検出(AF)処理がより素早くできる。 Alternatively, if the image pickup unit 204 has a structure provided in a plurality of photoelectric conversion units in one pixel capable of acquiring a stereo image, the automatic focus detection (AF) process described later can be performed more quickly.

デジタルカメラ100は、A/D変換器205、画像処理部206、メモリ制御部207、D/A変換器208、メモリ209及びシステム制御部210を備える。撮像部204からA/D変換器205へアナログ信号が出力され、A/D変換器205は、取得したアナログ信号をデジタル信号からなる画像データに変換して、画像処理部206またはメモリ制御部207へ出力する。 The digital camera 100 includes an A / D converter 205, an image processing unit 206, a memory control unit 207, a D / A converter 208, a memory 209, and a system control unit 210. An analog signal is output from the image pickup unit 204 to the A / D converter 205, and the A / D converter 205 converts the acquired analog signal into image data consisting of a digital signal, and the image processing unit 206 or the memory control unit 207. Output to.

画像処理部206は、A/D変換器205から取得した画像データまたはメモリ制御部207から取得したデータに対して、画素補間やシェーディング補正等の補正処理、ホワイトバランス処理、γ補正処理、色変換処理などを行う。また、画像処理部206は、画像の切り出し(トリミング)や変倍処理を行うことで電子ズーム機能を実現する。更に、画像処理部206は撮像した画像の画像データを用いて所定の演算処理を行い、こうして得られた演算結果に基づいてシステム制御部210が露光制御や測距制御を行う。例えば、システム制御部210により、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(ストロボプリ発光)処理が行われる。画像処理部206は、撮像した画像の画像データを用いて所定の演算処理を行い、得られた演算結果を用いて、システム制御部210はTTL方式のAWB(オートホワイトバランス)処理を行う。 The image processing unit 206 performs correction processing such as pixel interpolation and shading correction, white balance processing, γ correction processing, and color conversion for the image data acquired from the A / D converter 205 or the data acquired from the memory control unit 207. Perform processing etc. Further, the image processing unit 206 realizes an electronic zoom function by cutting out (trimming) an image and performing scaling processing. Further, the image processing unit 206 performs a predetermined calculation process using the image data of the captured image, and the system control unit 210 performs exposure control and distance measurement control based on the calculation result obtained in this way. For example, the system control unit 210 performs TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (strobe pre-flash) processing. The image processing unit 206 performs a predetermined calculation process using the image data of the captured image, and the system control unit 210 performs a TTL method AWB (auto white balance) process using the obtained calculation result.

画像処理部206は、複数の画像からパノラマ画像を合成し、またその合成結果の判断を行う画像合成処理回路を有する。画像合成処理回路は、単純な加算平均合成だけでなく、合成対象の画像データの各領域において最も明るい値または暗い値を持つ画素を選択して1枚の画像データを生成する比較明合成や比較暗合成等の処理を行うことができる。また、合成結果を特定の基準に基づいて評価し、判定する。たとえば、合成された画像の数が所定数に満たさない場合や、合成後の画像の長さが基準値に満たさない場合に、合成に失敗したと判定する。 The image processing unit 206 has an image composition processing circuit that synthesizes a panoramic image from a plurality of images and determines the result of the composition. The image composition processing circuit is not limited to simple additive average composition, but also comparative bright composition and comparison in which pixels having the brightest value or the darkest value in each area of the image data to be synthesized are selected to generate one image data. Processing such as dark composition can be performed. In addition, the synthesis result is evaluated and judged based on a specific criterion. For example, if the number of combined images does not meet the predetermined number, or if the length of the combined images does not meet the reference value, it is determined that the composition has failed.

また、画像処理部206は、撮像で得られた画像データをJPEGなどの画像形式に変換する圧縮・伸長の機能も有する。それ以外、画像処理部206は、後述するテンプレートマッチングを実現するための機能も有する。テンプレートマッチングの詳細については後述する。なお、画像処理部206を備える構成の代わりに、システム制御部210によるソフトウェア処理によって画像合成処理の機能を実現する構成としてもよい。 The image processing unit 206 also has a compression / decompression function for converting the image data obtained by imaging into an image format such as JPEG. Other than that, the image processing unit 206 also has a function for realizing template matching described later. The details of template matching will be described later. Instead of the configuration including the image processing unit 206, the configuration may be such that the function of the image composition processing is realized by software processing by the system control unit 210.

A/D変換器205から出力される画像データは、画像処理部206及びメモリ制御部207を介して、或いは、メモリ制御部207を介して、メモリ209に書き込まれる。メモリ209は、表示部101に表示する画像データを格納する画像表示用メモリ(ビデオメモリ)を兼ねている。メモリ209は、所定枚数の静止画像、パノラマ画像(広角画像)、パノラマ画像合成結果を格納することができる記憶容量を備えている。なお、メモリ209は、システム制御部210が不揮発性メモリ211から読み出したプログラム等を展開する作業領域として用いることもできる。 The image data output from the A / D converter 205 is written to the memory 209 via the image processing unit 206 and the memory control unit 207, or via the memory control unit 207. The memory 209 also serves as an image display memory (video memory) for storing image data to be displayed on the display unit 101. The memory 209 has a storage capacity capable of storing a predetermined number of still images, panoramic images (wide-angle images), and panoramic image composition results. The memory 209 can also be used as a work area for developing a program or the like read from the non-volatile memory 211 by the system control unit 210.

メモリ209に格納されている画像表示用データ(デジタルデータ)は、D/A変換器208に送信される。D/A変換器208は、受信したデジタルデータをアナログ信号に変換して表示部101に供給し、これにより、表示部101に画像が表示される。表示部101は、液晶ディスプレイまたは有機ELディスプレイ等の表示装置であり、D/A変換器208からのアナログ信号に基づいて画像を表示する。表示部101における画像表示のオン/オフは、システム制御部210によって切り替えられ、画像表示をオフにすることで電力消費を低減させることができる。なお、撮像部204からA/D変換器205を通じてメモリ209に蓄積されるデジタル信号をD/A変換器208によりアナログ信号に変換して表示部101に逐次表示することにより、スルー画像を表示する電子ビューファインダ機能を実現することができる。 The image display data (digital data) stored in the memory 209 is transmitted to the D / A converter 208. The D / A converter 208 converts the received digital data into an analog signal and supplies it to the display unit 101, whereby the image is displayed on the display unit 101. The display unit 101 is a display device such as a liquid crystal display or an organic EL display, and displays an image based on an analog signal from the D / A converter 208. The on / off of the image display on the display unit 101 is switched by the system control unit 210, and the power consumption can be reduced by turning off the image display. The digital signal stored in the memory 209 from the image pickup unit 204 through the A / D converter 205 is converted into an analog signal by the D / A converter 208 and sequentially displayed on the display unit 101 to display a through image. The electronic viewfinder function can be realized.

デジタルカメラ100は、不揮発性メモリ211、システムタイマ212、システムメモリ213、検出部215及びストロボ制御部217を備える。不揮発性メモリ211は、電気的に消去や記憶が可能なメモリ(例えば、EEPROM等)であり、システム制御部210が実行するプログラムや動作用の定数等を格納する。また、不揮発性メモリ211は、システム情報を記憶する領域やユーザ設定情報を記憶する領域を有しており、システム制御部210は、デジタルカメラ100の起動時に不揮発性メモリ211に記憶された種々の情報や設定を読み出して復元する。 The digital camera 100 includes a non-volatile memory 211, a system timer 212, a system memory 213, a detection unit 215, and a strobe control unit 217. The non-volatile memory 211 is a memory (for example, EEPROM or the like) that can be electrically erased and stored, and stores a program executed by the system control unit 210, a constant for operation, and the like. Further, the non-volatile memory 211 has an area for storing system information and an area for storing user setting information, and the system control unit 210 has various types of areas stored in the non-volatile memory 211 when the digital camera 100 is started. Read and restore information and settings.

システム制御部210は、CPUを備え、不揮発性メモリ211に記憶されている各種のプログラムコードを実行することにより、デジタルカメラ100の全体的な動作を制御する。なお、システム制御部210が不揮発性メモリ211から読み出したプログラムや動作用の定数、変数等は、システムメモリ213上に展開される。システムメモリ213には、RAMが用いられる。更に、システム制御部210は、メモリ209やD/A変換器208、表示部101等を制御することにより、表示制御を行う。システムタイマ212は、各種の制御に用いる時間や内蔵された時計の時間を計測する。ストロボ制御部217は、被写体の明るさに応じて、ストロボ141の発光を制御する。検出部215は、ジャイロセンサや加速度センサを含み、デジタルカメラ100の角速度情報、加速度情報、および、姿勢情報等を取得する。なお、角速度情報は、デジタルカメラ100によるパノラマ撮像時の角速度及び角加速度の情報を含む。また、姿勢情報は、水平方向に対するデジタルカメラ100の傾き等の情報を含む。 The system control unit 210 includes a CPU and controls the overall operation of the digital camera 100 by executing various program codes stored in the non-volatile memory 211. The programs, operation constants, variables, and the like read from the non-volatile memory 211 by the system control unit 210 are expanded on the system memory 213. RAM is used for the system memory 213. Further, the system control unit 210 controls the display by controlling the memory 209, the D / A converter 208, the display unit 101, and the like. The system timer 212 measures the time used for various controls and the time of the built-in clock. The strobe control unit 217 controls the light emission of the strobe 141 according to the brightness of the subject. The detection unit 215 includes a gyro sensor and an acceleration sensor, and acquires angular velocity information, acceleration information, attitude information, and the like of the digital camera 100. The angular velocity information includes information on the angular velocity and the angular acceleration at the time of panoramic imaging by the digital camera 100. Further, the posture information includes information such as the inclination of the digital camera 100 with respect to the horizontal direction.

図2に示される表示部101、操作部102、コントローラホイール103、シャッタボタン121、モード切替スイッチ104、電源スイッチ122及びストロボ141は、図1を参照して説明したものと同じである。 The display unit 101, the operation unit 102, the controller wheel 103, the shutter button 121, the mode changeover switch 104, the power switch 122, and the strobe 141 shown in FIG. 2 are the same as those described with reference to FIG.

操作部102を構成する各種の操作部材は、例えば、表示部101に表示される種々の機能アイコンの選択に用いられ、所定の機能アイコンが選択されることにより、場面毎に機能が割り当てられる。即ち、操作部102の各操作部材は、各種の機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン、DISPボタン等が挙げられる。例えば、メニューボタンが押下されると、各種の設定を行うためのメニュー画面が表示部101に表示される。ユーザは、表示部101に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて、直感的に設定操作を行うことができる。 The various operation members constituting the operation unit 102 are used, for example, for selecting various function icons displayed on the display unit 101, and when a predetermined function icon is selected, the function is assigned to each scene. That is, each operation member of the operation unit 102 acts as various function buttons. Examples of the function button include an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, a DISP button, and the like. For example, when the menu button is pressed, a menu screen for making various settings is displayed on the display unit 101. The user can intuitively perform the setting operation by using the menu screen displayed on the display unit 101 and the up / down / left / right four-direction buttons and the SET button.

回転操作が可能な操作部材であるコントローラホイール103は、4方向ボタンと共に選択項目を指定するとき等に使用される。コントローラホイール103を回転操作すると、操作量(回転角度や回転回数等)に応じた電気的なパルス信号が発生する。システム制御部210は、このパルス信号を解析して、デジタルカメラ100の各部を制御する。 The controller wheel 103, which is an operating member capable of rotating, is used when designating a selection item together with a four-way button. When the controller wheel 103 is rotated, an electric pulse signal corresponding to the amount of operation (rotation angle, number of rotations, etc.) is generated. The system control unit 210 analyzes this pulse signal and controls each unit of the digital camera 100.

シャッタボタン121は、第1スイッチSW1と第2スイッチSW2を有する。第1スイッチSW1は、シャッタボタン121の操作途中の半押し状態でオンとなり、これにより、撮像準備を指示する信号がシステム制御部210に送信される。システム制御部210は、第1スイッチSW1がオンになった信号を受信すると、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。第2スイッチSW2は、シャッタボタン121の操作が完了する全押し状態でオンとなり、これにより、撮像開始を指示する信号がシステム制御部210に送信される。システム制御部210は、第2スイッチSW2がオンになった信号を受信すると、撮像部204からの信号読み出しから記録媒体130への画像データの書き込みまでの一連の撮像動作を行う。 The shutter button 121 has a first switch SW1 and a second switch SW2. The first switch SW1 is turned on in a half-pressed state during the operation of the shutter button 121, whereby a signal instructing preparation for imaging is transmitted to the system control unit 210. Upon receiving the signal that the first switch SW1 is turned on, the system control unit 210 starts operations such as AF processing, AE processing, AWB processing, and EF processing. The second switch SW2 is turned on in a fully pressed state in which the operation of the shutter button 121 is completed, whereby a signal instructing the start of imaging is transmitted to the system control unit 210. When the system control unit 210 receives the signal that the second switch SW2 is turned on, the system control unit 210 performs a series of image pickup operations from reading the signal from the image pickup unit 204 to writing the image data to the recording medium 130.

モード切替スイッチ104は、デジタルカメラ100の動作モードを、静止画撮像モード、動画撮像モード、再生モード等の各種モードの間で切り替えるためのスイッチである。静止画撮像モードは、オート撮像モード等の他に、パノラマ撮像によりパノラマ画像を合成するパノラマ画像撮像モードを含む。 The mode changeover switch 104 is a switch for switching the operation mode of the digital camera 100 between various modes such as a still image image pickup mode, a moving image image pickup mode, and a reproduction mode. The still image imaging mode includes a panoramic image imaging mode for synthesizing a panoramic image by panoramic imaging, in addition to an auto imaging mode and the like.

デジタルカメラ100は、電源部214及び電源制御部218を備える。電源部214は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li電池等の二次電池、或いは、ACアダプタ等であり、電源制御部218へ電力を供給する。電源制御部218は、電源部214における電池の装着の有無、電池の種類、電池残量等を検出し、その検出結果及びシステム制御部210の指示に基づいて、必要な電圧を必要な期間、記録媒体130を含む各部へ供給する。 The digital camera 100 includes a power supply unit 214 and a power supply control unit 218. The power supply unit 214 is a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like, and supplies power to the power supply control unit 218. The power supply control unit 218 detects whether or not a battery is installed in the power supply unit 214, the type of battery, the remaining battery level, and the like, and based on the detection result and the instruction of the system control unit 210, a necessary voltage is applied for a necessary period. It is supplied to each part including the recording medium 130.

デジタルカメラ100は、記録媒体130が記録媒体スロット(不図示)に装着された際に、記録媒体130とシステム制御部210との間の通信を可能にするための記録媒体I/F216を備える。記録媒体130の詳細については、図1を参照して既に説明しているため、ここでの説明を省略する。 The digital camera 100 includes a recording medium I / F 216 for enabling communication between the recording medium 130 and the system control unit 210 when the recording medium 130 is installed in a recording medium slot (not shown). Since the details of the recording medium 130 have already been described with reference to FIG. 1, the description thereof will be omitted here.

図3は、本実施形態におけるパノラマ撮像を説明するためのフローチャートである。図3に示したフローの処理は、デジタルカメラ100がパンニング動作しながら行うとする。以下では、図3に示したフローチャートを用いて本実施形態について説明する。 FIG. 3 is a flowchart for explaining the panoramic image pickup in the present embodiment. It is assumed that the flow processing shown in FIG. 3 is performed while the digital camera 100 is panning. Hereinafter, the present embodiment will be described with reference to the flowchart shown in FIG.

ステップS301で、SW1が押下されたら、ステップS302に進む。 When SW1 is pressed in step S301, the process proceeds to step S302.

ステップS302で、ユーザがデジタルカメラ100を主被写体に向けるように移動させ、撮像部204が撮像光学系を通して輝度情報などを取得し、測光する。続いてステップS303で、システム制御部210は、主被写体が適正露出となるような絞り、感度、シャッタ速度を算出する。主被写体が注目されやすいので、主被写体が適正露出となることがユーザに求められる。 In step S302, the user moves the digital camera 100 toward the main subject, and the image pickup unit 204 acquires luminance information and the like through the image pickup optical system and measures the light. Subsequently, in step S303, the system control unit 210 calculates the aperture, sensitivity, and shutter speed so that the main subject has an appropriate exposure. Since the main subject is easily noticed, the user is required to have an appropriate exposure of the main subject.

ステップS304で、SW2が押下されたら、ステップS305に進む。このとき、ユーザが、すでにパノラマ撮像のためのパンニング動作を開始し、デジタルカメラ100が最初の撮像位置に向けているとする。なお、ここの「パンニング」という言葉は、水平に動くことに限定されず、つまりティルティングなども含まれているとする。 When SW2 is pressed in step S304, the process proceeds to step S305. At this time, it is assumed that the user has already started the panning operation for panoramic image pickup and the digital camera 100 is directed to the first image pickup position. It should be noted that the word "panning" here is not limited to moving horizontally, that is, it also includes tilting and the like.

ステップS305で、撮像部204が再度測光する。この時点で、パンニング動作がすでに始まったので、デジタルカメラ100が主被写体と異なる場所に向かい、その場所に対して測光する。 In step S305, the image pickup unit 204 measures the light again. At this point, since the panning operation has already started, the digital camera 100 heads to a place different from the main subject and measures light at that place.

ステップS306で、システム制御部210は、ステップS305での撮像部204の測光結果に基づいて、ステップS305で撮像した部分の適正露出を算出する。 In step S306, the system control unit 210 calculates the appropriate exposure of the portion imaged in step S305 based on the photometric result of the image pickup unit 204 in step S305.

ステップS307で、撮像部204が撮像する。ここでの撮像では、システム制御部210は、ステップS303で算出した条件のもとで行われる。システム制御部210がステップS306で算出した適正露出で撮像するのではない。 In step S307, the image pickup unit 204 takes an image. In the imaging here, the system control unit 210 is performed under the conditions calculated in step S303. The system control unit 210 does not take an image with the proper exposure calculated in step S306.

ステップS308で、システム制御部210は、ステップS307で撮像部204が撮像した画像が1枚目の画像かどうかについて判断する。1枚目の画像である場合、ステップS314に進み、1枚目の画像でない場合、ステップS309に進む。 In step S308, the system control unit 210 determines whether or not the image captured by the image pickup unit 204 in step S307 is the first image. If it is the first image, the process proceeds to step S314, and if it is not the first image, the process proceeds to step S309.

ステップS309では、画像処理部206は、合成用領域を現像する。ここでいう合成用領域は、パノラマ画像の合成に用いられる領域である。画像の歪などを防ぐために、画像処理部206は、ステップS307で撮像部204が撮像した画像の中央付近を切り出して合成用領域とする。 In step S309, the image processing unit 206 develops the compositing area. The compositing area referred to here is a region used for compositing panoramic images. In order to prevent image distortion and the like, the image processing unit 206 cuts out the vicinity of the center of the image captured by the image pickup unit 204 in step S307 and uses it as a compositing region.

最終的なパノラマ画像では、露出の段差による違和感を防ぐため、合成に用いられる各々の領域の露出が一定でなければならない。従って、ステップS309での現像は、主被写体が適正露出となるように現像する。つまり、ステップS302での測光で得られた条件のもとで現像する。 In the final panoramic image, the exposure of each area used for compositing must be constant in order to prevent discomfort due to the difference in exposure. Therefore, in the development in step S309, the main subject is developed so as to have an appropriate exposure. That is, the development is performed under the conditions obtained by the photometry in step S302.

ステップS310で、画像処理部206は、位置合わせ用領域を現像する。ここでいう位置合わせ用領域とは、合成に用いられる合成用領域の位置合わせのための領域である。ステップS310での現像の詳細は後述する。 In step S310, the image processing unit 206 develops the alignment area. The alignment area referred to here is an area for alignment of the synthesis area used for synthesis. Details of the development in step S310 will be described later.

ステップS311で、画像処理部206は、露出追従用領域を適正露出で現像する。ここでいう露出追従用領域とは、前述した位置合わせ用領域と位置合わせするための領域である。 In step S311, the image processing unit 206 develops the exposure tracking region with an appropriate exposure. The exposure tracking area referred to here is an area for aligning with the above-mentioned alignment area.

図4は、本実施形態における位置合わせを説明するための図である。1枚目の画像に対して、画像処理部206は、まず、主被写体が適正露出となるような条件(ステップS303で算出した条件)で現像し、合成用領域411を得る。次に、画像処理部206は、合成用領域411が適正露出となるように合成用領域411を再度現像し、露出追従用領域413を作成する。 FIG. 4 is a diagram for explaining alignment in the present embodiment. The image processing unit 206 first develops the first image under the condition that the main subject has an appropriate exposure (the condition calculated in step S303), and obtains the compositing area 411. Next, the image processing unit 206 redevelops the compositing region 411 so that the compositing region 411 has an appropriate exposure, and creates an exposure tracking region 413.

次に、撮像部204が2枚目の画像を撮像し、画像処理部206は同様に主被写体が適正露出となるような条件(ステップS303で算出した条件)で現像し、合成用領域421を得る。次に、画像処理部206は、合成用領域421が露出追従用領域413の露出と同様になるように輝度を調整し(合成用領域412に対しゲインをかけ)、位置合わせ用領域422を作成する。そして、画像処理部206は、合成用領域421が適正露出となるように合成用領域421に対して輝度を調整し(合成用領域412に対しゲインをかけ)、露出追従用領域423を作成する。このように、位置合わせ用領域と露出追従用領域との露出を調整する。 Next, the image pickup unit 204 captures the second image, and the image processing unit 206 similarly develops under the condition that the main subject has an appropriate exposure (condition calculated in step S303), and the composite area 421 is formed. obtain. Next, the image processing unit 206 adjusts the brightness so that the compositing region 421 is similar to the exposure of the exposure tracking region 413 (gain is applied to the compositing region 412), and the alignment region 422 is created. do. Then, the image processing unit 206 adjusts the brightness of the compositing region 421 so that the compositing region 421 has an appropriate exposure (gain is applied to the compositing region 412), and creates an exposure tracking region 423. .. In this way, the exposure between the alignment area and the exposure tracking area is adjusted.

画像処理部206は、3枚目の画像に対しても同様な処理を行う。まず、画像処理部206は同様に主被写体が適正露出となるような条件(ステップS303で算出した条件)で現像し、合成用領域431を得る。次に、画像処理部206は、合成用領域431が露出追従用領域423の露出と同様になるように現像し、位置合わせ用領域432を作成する。そして、画像処理部206は、合成用領域431が適正露出となるように合成用領域431を再度現像し、露出追従用領域433を作成する。 The image processing unit 206 performs the same processing on the third image. First, the image processing unit 206 similarly develops under the condition that the main subject has an appropriate exposure (condition calculated in step S303) to obtain the compositing area 431. Next, the image processing unit 206 develops the compositing region 431 so as to have the same exposure as the exposure tracking region 423, and creates the alignment region 432. Then, the image processing unit 206 redevelops the compositing region 431 so that the compositing region 431 has an appropriate exposure, and creates an exposure tracking region 433.

ステップS312では、画像処理部206は、ステップS310で作成した位置合わせ用領域を用いて位置合わせを行う。具体的に、画像処理部206は、前のフレームの画像の露出追従用領域と現在のフレームの位置合わせ用領域とに対して位置合わせを行う。ステップS310で作成した位置合わせ用領域は、ステップS309で作成した合成用領域から作成されるもので、合成用領域と位置合わせ用領域との位置が同じである。従って、画像処理部206は、位置合わせ用領域に対して位置合わせをできれば、合成用領域に対しても位置合わせができる。 In step S312, the image processing unit 206 performs alignment using the alignment area created in step S310. Specifically, the image processing unit 206 aligns the exposure tracking region of the image of the previous frame with the alignment region of the current frame. The alignment area created in step S310 is created from the composition area created in step S309, and the positions of the composition area and the alignment area are the same. Therefore, if the image processing unit 206 can align with the alignment area, the image processing unit 206 can also align with the compositing area.

以下では、アフィン変換を例として、位置合わせの方法について簡単に説明する。アフィン変換のほかに、回転や平行移動が可能なユークリッド変換、さらに台形補正が可能な射影変換などがあるが、平行移動のできない線形変換は使用できない。アフィン変換は、X軸、Y軸への移動や回転のほかに、拡大、スキューなども補正可能である。 In the following, the alignment method will be briefly described using the affine transformation as an example. In addition to the affine transformation, there are Euclidean transformations that can be rotated and translated, and projective transformations that can be corrected for trapezoidal shapes, but linear transformations that cannot be translated cannot be used. The affine transformation can correct expansion, skew, etc. in addition to movement and rotation to the X-axis and Y-axis.

まず、ユーザを中心にデジタルカメラ100がパンニングすることが多いために、必要に応じて架空の円筒に撮像された画像を投影する円筒変換を後述する位置合わせの処理の前に行うことが好ましい。 First, since the digital camera 100 often pans around the user, it is preferable to perform a cylindrical conversion for projecting an image captured on a fictitious cylinder before the alignment process described later.

最初に、画像処理部206は、位置合わせの対象のうちの1つの領域(例えば現在のフレームの位置合わせ用領域)を任意のサイズの小ブロックに分割する。ブロック数が少ないとデジタルカメラ100のあおりによる台形や光軸方向の回転などの補正が正確にできないが、ブロック数が大きすぎると1ブロックのサイズが小さくなり、特徴点が近くなるため誤差を含むようになる。このようなことから特徴点の見つけやすさ、被写体の画角などによって適宜最適なブロック数を決めるようにする。画像処理部206は、各々のブロックのサイズが同じになるように設定することが好ましい。次に、画像処理部206は、もう1つの領域(例えば、前のフレームの露出追従用領域)に、設定したそれぞれのブロックと同じ位置に、該ブロックよりも広い範囲を、探索範囲を設定する。最後に、画像処理部206は、それぞれの探索範囲に、最初に設定したブロックとの輝度の差分絶対値和(Sum of Absolute Difference、以下、SADをいう)が最小となる対応点を算出する。画像処理部206は、最初に設定したブロックの中心と前述した対応点から、動きベクトルを算出する。また、画像のある領域にコントラストが設定された閾値より低い場合、検出した動きベクトルの誤差が大きくなるので、該領域から検出した動きベクトルを使用しないようにする。画像処理部206は、前述する対応点の算出において、SADのほかに、差分二乗和(Sum of Squared Difference、以下SSDをいう)や正規化相互相関(Normalized Cross Correlation、以下NCCをいう)などを用いてもよい。 First, the image processing unit 206 divides one region of the alignment targets (for example, the alignment region of the current frame) into small blocks of arbitrary size. If the number of blocks is small, the trapezoid and rotation in the optical axis direction due to the tilt of the digital camera 100 cannot be corrected accurately. It will be like. Therefore, the optimum number of blocks should be appropriately determined according to the ease of finding the feature points and the angle of view of the subject. The image processing unit 206 is preferably set so that the size of each block is the same. Next, the image processing unit 206 sets a search range wider than the block at the same position as each set block in another area (for example, an exposure tracking area of the previous frame). .. Finally, the image processing unit 206 calculates a corresponding point in each search range in which the sum of the absolute differences in brightness from the initially set block (Su of Absolute Difference, hereinafter referred to as SAD) is minimized. The image processing unit 206 calculates a motion vector from the center of the initially set block and the corresponding point described above. Further, when the contrast is lower than the threshold value set in a certain area of the image, the error of the detected motion vector becomes large, so the motion vector detected from the area is not used. In the calculation of the corresponding points described above, the image processing unit 206 performs, in addition to SAD, sum of differences (Sum of Squared Difference, hereinafter referred to as SSD), normalized cross-correlation (hereinafter referred to as NCC), and the like. You may use it.

次に、画像処理部206は、検出した動きベクトルを用いてアフィン係数の算出を行う。画像処理部206は、(式1)に示した式を用いて変換を行うことができる。 Next, the image processing unit 206 calculates the affine coefficient using the detected motion vector. The image processing unit 206 can perform conversion using the equation shown in (Equation 1).

Figure 0007051586000001
Figure 0007051586000001

(式1)では、(x´、y´)は変換を行った後の座標を示し、(x、y)は変換を行う前の座標を示す。行列Aは前述した変換係数を示す。こうして、画像処理部206は、検出した動きベクトルを用いてアフィン係数を算出する。変換係数Aを位置合わせの対象の領域にそれぞれの座標にある画素に(式1)を用いて変換後の座標を算出すると、位置合わせを行うことができる。 In (Equation 1), (x', y') indicates the coordinates after the conversion, and (x, y) indicates the coordinates before the conversion. The matrix A shows the above-mentioned conversion coefficients. In this way, the image processing unit 206 calculates the affine coefficient using the detected motion vector. Alignment can be performed by calculating the converted coordinates using (Equation 1) for the pixels at the respective coordinates in the region to be aligned with the conversion coefficient A.

ステップS313で、画像処理部206は、位置合わせした後の合成用領域を用いて合成を行う。 In step S313, the image processing unit 206 performs compositing using the compositing region after the alignment.

一方、ステップS308でシステム制御部210は、ステップS307で撮像部204が撮像した画像が1枚目の画像でないと判断した場合、ステップS314に進む。画像処理部206は、ステップS314で合成用領域を現像し、ステップS315で露出追従用領域を現像する。それぞれの現像の方法は、ステップS309、ステップS311と同様である。 On the other hand, if the system control unit 210 determines in step S308 that the image captured by the image pickup unit 204 is not the first image in step S307, the system control unit 210 proceeds to step S314. The image processing unit 206 develops the composition region in step S314, and develops the exposure tracking region in step S315. Each development method is the same as in step S309 and step S311.

ステップS318で、システム制御部210は、撮像を終了するかどうかについて判断する。判断の基準としては、たとえば、SW2が離されたか、または、記録媒体130の容量の上限に達したか、または、予め定められた撮像枚数に達したかなどでよい。撮像を終了する場合、ステップS319に進み、撮像を終了しない場合、ステップS304に戻る。 In step S318, the system control unit 210 determines whether or not to end the imaging. The criterion for determination may be, for example, whether SW2 is released, the upper limit of the capacity of the recording medium 130 is reached, or whether a predetermined number of images is taken. If the imaging is finished, the process proceeds to step S319, and if the imaging is not finished, the process returns to step S304.

なお、以上の説明では、合成用領域、位置合わせ用領域、露出追従用領域は、1回撮像して得られた画像を異なる方法で3回現像することで作成するように説明しているが、これに限りではない。とくに、撮像部204に設けられるイメージセンサの構造を変更すればより便利に上記の領域が得られる。 In the above description, the composition area, the alignment area, and the exposure tracking area are described so as to be created by developing the image obtained by capturing the image once three times by different methods. , Not limited to this. In particular, the above region can be obtained more conveniently by changing the structure of the image sensor provided in the image pickup unit 204.

図5は、本実施形態におけるイメージセンサの変更例を説明するための図である。 FIG. 5 is a diagram for explaining a modified example of the image sensor in the present embodiment.

図5は、合成用領域、位置合わせ用領域、露出追従用領域の作成に用いられる画素が分けられるようなイメージセンサを示している。領域501、502、503のそれぞれで取得した画像信号は、合成用領域、位置合わせ用領域、露出追従用領域の生成に用いられる。このようなイメージセンサを用いて、合成画像の解像度が低下するが、特徴点の偏りが弱くなる。 FIG. 5 shows an image sensor in which the pixels used for creating the composition area, the alignment area, and the exposure tracking area are separated. The image signals acquired in each of the regions 501, 502, and 503 are used to generate the compositing region, the alignment region, and the exposure tracking region. By using such an image sensor, the resolution of the composite image is lowered, but the bias of the feature points is weakened.

本実施形態によれば、複数回現像し異なる露出の画像領域を作成し、露出が同様な2つの領域を用いて位置合わせのための係数を算出することで、位置合わせが失敗する可能性を低くすることができる。 According to this embodiment, by developing multiple times to create image regions with different exposures and calculating a coefficient for alignment using two regions with similar exposures, there is a possibility that alignment may fail. Can be lowered.

(第2の実施形態)
第1の実施形態では、合成用領域、位置合わせ用領域、露出追従用領域が撮像画像の同じ位置にある構成を有している。それに対して、第2の実施形態は、合成用領域、位置合わせ用領域、露出追従用領域が撮像画像の異なる位置にある構成を有している。以下では、第2の実施形態の詳細について説明する。なお、第1の実施形態と同様な所については説明を省略する。
(Second embodiment)
In the first embodiment, the composition region, the alignment region, and the exposure tracking region are located at the same position on the captured image. On the other hand, the second embodiment has a configuration in which the composition region, the alignment region, and the exposure tracking region are located at different positions of the captured image. Hereinafter, the details of the second embodiment will be described. The description of the same parts as those of the first embodiment will be omitted.

図6は、第2の実施形態におけるパノラマ撮像を説明するためのフローチャートである。ステップS601乃至ステップS608での処理は、第1の実施形態のステップS301乃至ステップS308と同様である。 FIG. 6 is a flowchart for explaining the panoramic image pickup in the second embodiment. The processing in steps S601 to S608 is the same as in steps S301 to S308 of the first embodiment.

ステップS609で、画像処理部206は、合成用領域を現像する。合成用領域についての詳細は後述する。 In step S609, the image processing unit 206 develops the compositing area. The details of the synthesis area will be described later.

ステップS620で、画像処理部206は、位置合わせ用領域および露出追従用領域の設定を行う。具体的に、まず、画像処理部206がステップS607で撮像部204が得た画像信号を2つの領域に分ける。次に、ステップS621で、システム制御部210は、それぞれの領域において、前のフレームの撮像露出と現在のフレームの適正露出との差を算出する。ここでの撮像露出は、つまり、主被写体が適正露出となるような条件で撮像するときの露出である。最後に、ステップS622で、画像処理部206は、ステップS621で算出した差の小さいほうの領域を位置合わせ用領域として設定し、差の大きいほうの領域を露出追従用領域として設定する。 In step S620, the image processing unit 206 sets the alignment area and the exposure tracking area. Specifically, first, the image processing unit 206 divides the image signal obtained by the image pickup unit 204 in step S607 into two regions. Next, in step S621, the system control unit 210 calculates the difference between the imaging exposure of the previous frame and the proper exposure of the current frame in each region. The imaging exposure here is, in other words, the exposure when imaging is performed under conditions such that the main subject has an appropriate exposure. Finally, in step S622, the image processing unit 206 sets the region having the smaller difference calculated in step S621 as the alignment region, and sets the region having the larger difference as the exposure tracking region.

ステップS610乃至S615での処理は、第1の実施形態のステップS310乃至S315と概ね同様である。次に、図を用いて本実施形態における位置合わせの処理について説明する。 The processing in steps S610 to S615 is substantially the same as in steps S310 to S315 of the first embodiment. Next, the alignment process in the present embodiment will be described with reference to the drawings.

図7は、本実施形態における位置合わせを説明するための図である。画像処理部206は、右半分の領域712と左半分の領域713とを分けて、前述した「2つの領域」とする。画像処理部206は、まず、1枚目の画像に対して、第1の実施形態と同様に、画像信号の中央付近の領域を合成用領域として設定し、主被写体が適正露出となるような条件で現像する。次に、画像処理部206は、領域712と713を、露出追従用領域として設定し、それぞれを適正露出で現像する。2枚目の画像に対して、画像処理部206が同様に、まず、中央付近の領域721を合成用領域として設定し、主被写体が適正露出となるような条件で現像する。次に、画像処理部206は、左半分の領域722を位置合わせ用領域として設定し、領域713と同じ露出で現像する。さらに、画像処理部206は、右半分の領域723を露出追従用領域として設定し、領域723が写る被写体が適正露出となるように現像する。同様に、3枚目の画像に対して、画像処理部206がまず、中央付近の領域731を合成用領域として設定し、主被写体が適正露出となるような条件で現像する。次に、画像処理部206は、右半分の領域732を位置合わせ用領域として設定し、領域723と同じ露出で現像する。さらに、画像処理部206は、右半分の領域723を露出追従用領域として設定し、領域723が写る被写体が適正露出となるように現像する。 FIG. 7 is a diagram for explaining alignment in the present embodiment. The image processing unit 206 divides the right half area 712 and the left half area 713 into the above-mentioned "two areas". First, the image processing unit 206 sets a region near the center of the image signal as a compositing region for the first image, as in the first embodiment, so that the main subject is properly exposed. Develop under the conditions. Next, the image processing unit 206 sets the regions 712 and 713 as exposure tracking regions, and develops each of them with an appropriate exposure. Similarly, for the second image, the image processing unit 206 first sets the area 721 near the center as the area for compositing, and develops the image under the condition that the main subject has an appropriate exposure. Next, the image processing unit 206 sets the left half region 722 as the alignment region and develops it with the same exposure as the region 713. Further, the image processing unit 206 sets the right half region 723 as an exposure tracking region, and develops the subject in which the region 723 is captured so that the exposure is appropriate. Similarly, for the third image, the image processing unit 206 first sets the region 731 near the center as the compositing region, and develops the third image under the condition that the main subject is properly exposed. Next, the image processing unit 206 sets the right half region 732 as the alignment region and develops it with the same exposure as the region 723. Further, the image processing unit 206 sets the right half region 723 as an exposure tracking region, and develops the subject in which the region 723 is captured so that the exposure is appropriate.

なお、図7において、領域711、721、731は、それぞれの画像と上下ずれているように示されているが、あくまでも見やすくするために図示を変えているだけで、実際の撮像画像において、領域711、721、731の上下がずれているものではない。 In FIG. 7, the areas 711, 721, and 731 are shown to be vertically displaced from the respective images, but the illustrations are changed only for the sake of clarity, and the areas are shown in the actual captured image. The top and bottom of 711, 721, and 731 are not offset.

次に位置合わせについて説明する。位置合わせの方法は、一例として第1の実施形態で述べたアフィン係数を用いる方法でよい。 Next, alignment will be described. As an example, the alignment method may be a method using the affine coefficient described in the first embodiment.

ステップS612において、システム制御部210は、2枚目以降のそれぞれのフレームの位置合わせ用領域と前のフレームの露出追従用領域とに対してアフィン係数の算出を行う。つまり、システム制御部210は、領域713と領域722に対して、領域723と領域732に対してアフィン係数の算出を行う。また、これに限らず、領域722と領域733に対してアフィン係数の算出を行ってもよい。画像処理部206は、算出したアフィン係数を用いて領域711、721、731に対して位置合わせを行う。最後に、ステップS613で画像処理部206は位置合わせした後の領域711、721、731に対して合成を行う。 In step S612, the system control unit 210 calculates the affine coefficient for the alignment region of each of the second and subsequent frames and the exposure tracking region of the previous frame. That is, the system control unit 210 calculates the affine coefficient for the region 723 and the region 722 for the region 723 and the region 732. Further, the present invention is not limited to this, and the affine coefficient may be calculated for the region 722 and the region 733. The image processing unit 206 aligns the regions 711, 721, and 731 using the calculated affine coefficient. Finally, in step S613, the image processing unit 206 performs composition on the regions 711, 721, and 731 after the alignment.

なお、ステップS612で位置合わせを行う際に、十分な特徴点が取得できず位置合わせができない場合、一例として、前述したステップS622での設定を逆にしてもう一度処理してよい。つまり、前述したステップS622で、画像処理部206は、露出の差が小さい領域を露出追従用領域として設定し、差の大きい領域を位置合わせ用領域として設定する。 When the alignment is performed in step S612, if sufficient feature points cannot be acquired and the alignment cannot be performed, as an example, the setting in step S622 described above may be reversed and the process may be performed again. That is, in step S622 described above, the image processing unit 206 sets the region where the difference in exposure is small as the exposure tracking region, and sets the region where the difference is large as the region for alignment.

図7に示した方法では、位置合わせ用領域の重複領域は、範囲714と範囲724にあたるが、図4に示した方法では、位置合わせ用領域の重複領域は、範囲715と範囲725にあたる。一般的に、重複領域が広いほど位置合わせの精度がよいので、第2の実施形態で用いられる方法は第1の実施形態より精度がよいと思われる。 In the method shown in FIG. 7, the overlapping area of the alignment area corresponds to the range 714 and the range 724, but in the method shown in FIG. 4, the overlapping area of the alignment area corresponds to the range 715 and the range 725. In general, the wider the overlapping region is, the better the alignment accuracy is, so that the method used in the second embodiment seems to be more accurate than the first embodiment.

第2の実施形態も、イメージセンサの構造を変更することで、より便利に合成用領域、位置合わせ用領域、露出追従用領域の信号を得ることができる。 Also in the second embodiment, by changing the structure of the image sensor, it is possible to more conveniently obtain signals in the composition region, the alignment region, and the exposure tracking region.

図8は、本実施形態におけるイメージセンサの変更例を説明するための図である。 FIG. 8 is a diagram for explaining a modified example of the image sensor in the present embodiment.

図8は、位置合わせ用領域、露出追従用領域が合成用領域の両側にラインごとに配列している構造を有しているイメージセンサを示している。このような構造を用いると、前述した図5と同じように特徴点の偏りが弱くなる。 FIG. 8 shows an image sensor having a structure in which an alignment region and an exposure tracking region are arranged line by line on both sides of a composition region. When such a structure is used, the bias of the feature points is weakened as in FIG. 5 described above.

前述したように、第2の実施形態では、画像処理部206は、領域を分けて一画面上に位置合わせ用領域、露出追従用領域を設定することで、より精度のよい位置合わせが実現できる。 As described above, in the second embodiment, the image processing unit 206 divides the area and sets the alignment area and the exposure tracking area on one screen, so that more accurate alignment can be realized. ..

(その他の実施形態)
なお、上記実施形態においては、個人向けのデジタルカメラをもとに説明を行ったが、パノラマ撮像および合成機能を搭載していれば、携帯機器やスマートフォン、あるいは、サーバーに接続されたネットワークカメラなどに適用することも可能である。または、前述した処理の一部を、携帯機器やスマートフォン、あるいは、サーバーに接続されたネットワークカメラなどに行わせてもよい。
(Other embodiments)
In the above embodiment, the description is based on a digital camera for individuals, but if it is equipped with panoramic imaging and compositing functions, it may be a mobile device, a smartphone, or a network camera connected to a server. It is also possible to apply to. Alternatively, a part of the above-mentioned processing may be performed on a mobile device, a smartphone, a network camera connected to a server, or the like.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記録媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 It should be noted that the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or an apparatus via a network or a recording medium, and one or more processors in the computer of the system or the apparatus are a program. It can also be realized by the process of reading and operating. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ
102 操作部
104 モード切替スイッチ
130 記録媒体
204 撮像部
206 画像処理部
207 メモリ制御部
209 メモリ
210 システム制御部
215 検出部
216 I/F
100 Digital camera 102 Operation unit 104 Mode changeover switch 130 Recording medium 204 Imaging unit 206 Image processing unit 207 Memory control unit 209 Memory 210 System control unit 215 Detection unit 216 I / F

Claims (16)

少なくともイメージセンサを有し、複数の画像を撮像する撮像手段と、
前記複数の画像の少なくとも一部の画像のそれぞれにおいて、第1の領域と第2の領域と第3の領域とを設定する設定手段と、
前記第2の領域と前記第3の領域との露出の調整を行う調整手段と、
前記複数の画像の少なくとも一部の画像のそれぞれの前記第1の領域に対して位置合わせを行う位置合わせ手段と、
前記位置合わせ手段が前記位置合わせを行った後の前記第1の領域に対して合成を行う合成手段と、を有し、
前記画像の前記第2の領域の露出と、該画像の前のフレームの画像の前記第3の領域の露出とが同じでないとき、前記調整手段が、該第2の領域の露出と該第3の領域の露出とが同じになるように該画像と該画像の前のフレームの画像との輝度を調整してから、前記位置合わせ手段が、該画像の該第2の領域と該画像の前のフレームの画像の該第3の領域とに対して位置合わせのための係数を算出し、
前記位置合わせ手段が、該係数を用いて前記第1の領域に対して位置合わせを行うことを特徴とする撮像装置。
An imaging means that has at least an image sensor and captures a plurality of images,
A setting means for setting a first region, a second region, and a third region in each of at least a part of the plurality of images.
An adjusting means for adjusting the exposure of the second region and the third region, and
An alignment means for aligning with respect to the first region of each of at least a part of the plurality of images.
The alignment means has a synthesis means for synthesizing the first region after the alignment.
When the exposure of the second region of the image is not the same as the exposure of the third region of the image in the previous frame of the image, the adjusting means is the exposure of the second region and the third region. After adjusting the brightness of the image and the image of the frame in front of the image so that the exposure of the region is the same, the alignment means causes the second region of the image and the front of the image. Calculate the coefficient for alignment with respect to the third region of the image of the frame of
An image pickup apparatus in which the alignment means aligns with respect to the first region using the coefficient.
前記撮像手段は、露出を固定にして前記複数の画像を撮像することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the imaging means captures the plurality of images with a fixed exposure. 前記調整手段は、前記第2の領域と前記第3の領域とに対して、再度現像すること、または、ゲインをかけることで前記調整を行うことを特徴とする請求項1または2に記載の撮像装置。 The adjustment means according to claim 1 or 2, wherein the adjustment means performs the adjustment by redeveloping the second region and the third region, or by applying a gain. Imaging device. 前記調整手段は、前記第3の領域の露出が適正露出になるように前記調整を行うことを特徴とする請求項1または2に記載の撮像装置。 The imaging device according to claim 1 or 2, wherein the adjusting means makes the adjustment so that the exposure of the third region becomes an appropriate exposure. 前記位置合わせ手段は、特徴点を検出し、動きベクトルを算出することで前記位置合わせを行うことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 4, wherein the alignment means performs the alignment by detecting a feature point and calculating a motion vector. 前記位置合わせのための係数は、アフィン係数であることを特徴とする請求項5に記載の撮像装置。 The imaging device according to claim 5, wherein the coefficient for alignment is an affine coefficient. 1つの前記画像における前記第2の領域と前記第3の領域とが互いに重ならないことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 6, wherein the second region and the third region in one image do not overlap each other. 前記設定手段は、前記複数の画像のうちの1枚目の画像に前記第3の領域を設定し、前記第2の領域を設定しないことを特徴とする請求項7に記載の撮像装置。 The imaging device according to claim 7, wherein the setting means sets the third region on the first image of the plurality of images, and does not set the second region. 前記設定手段は、前記複数の画像のうちの2枚目以降の画像に対して、該画像と該画像の前のフレームの画像との露出を比較することで、前記第2の領域と前記第3の領域とを設定することを特徴とする請求項8に記載の撮像装置。 The setting means compares the exposure of the image with the image of the frame before the image with respect to the second and subsequent images of the plurality of images, whereby the second region and the first image are compared. The image pickup apparatus according to claim 8, wherein the area of 3 is set. 前記設定手段は、前記複数の画像のうちの2枚目以降の画像に対して、それぞれ同じ位置に予め第1の部分と第2の部分とを設定し、該画像の適正露出と該画像の前のフレームの画像の露出との第1の部分と第2の部分とにおける差を算出し、前記差の小さいほうに前記第2の領域を設定することを特徴とする請求項9に記載の撮像装置。 The setting means sets a first portion and a second portion in advance at the same positions for the second and subsequent images of the plurality of images, and appropriately exposes the image and the image. The ninth aspect of claim 9, wherein the difference between the exposure of the image of the previous frame and the first portion and the second portion is calculated, and the second region is set to the smaller of the difference. Imaging device. 前記第1の領域と前記第2の領域と前記第3の領域とは、前記画像の中央に位置することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 6, wherein the first region, the second region, and the third region are located in the center of the image. 前記第1の領域と前記第2の領域と前記第3の領域とは、前記画像の同じ位置に位置することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 6, wherein the first region, the second region, and the third region are located at the same position in the image. 前記第2の領域と前記第3の領域とは、ラインごとに配列されることを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 6, wherein the second region and the third region are arranged for each line. 前記第1の領域は、ラインごとに配列されることを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 6, wherein the first region is arranged for each line. 複数の画像を撮像する撮像ステップと、
前記複数の画像の少なくとも一部の画像のそれぞれにおいて、第1の領域と第2の領域と第3の領域とを設定する設定ステップと、
前記第2の領域と前記第3の領域との露出の調整を行う調整ステップと、
前記複数の画像の少なくとも一部の画像のそれぞれの前記第1の領域に対して位置合わせを行う位置合わせステップと、
前記位置合わせステップにおいて前記位置合わせを行った後の前記第1の領域に対して合成を行う合成ステップと、を有し、
前記画像の前記第2の領域の露出と、該画像の前のフレームの画像の前記第3の領域の露出とが同じでないとき、前記調整ステップにおいては、該第2の領域の露出と該第3の領域の露出とが同じになるように該画像と該画像の前のフレームの画像との輝度を調整してから、前記位置合わせステップにおいて、該画像の該第2の領域と該画像の前のフレームの画像の該第3の領域とに対して位置合わせのための係数を算出し、
前記位置合わせステップにおいては、該係数を用いて前記第1の領域に対して位置合わせを行うことを特徴とする撮像方法。
An imaging step that captures multiple images and
A setting step for setting a first region, a second region, and a third region in each of at least a part of the plurality of images.
An adjustment step for adjusting the exposure of the second region and the third region,
An alignment step of aligning with respect to the first region of each of at least a part of the plurality of images.
It has a synthesis step of synthesizing with respect to the first region after the alignment is performed in the alignment step.
When the exposure of the second region of the image is not the same as the exposure of the third region of the image in the previous frame of the image, in the adjustment step, the exposure of the second region and the second region. After adjusting the brightness of the image and the image of the frame before the image so that the exposure of the region 3 is the same, in the alignment step, the second region of the image and the image A coefficient for alignment with respect to the third region of the image in the previous frame was calculated.
An imaging method characterized in that, in the alignment step, alignment is performed with respect to the first region using the coefficient.
画像処理装置のコンピュータに動作させるコンピュータのプログラムであって、
複数の画像を撮像する撮像ステップと、
前記複数の画像の少なくとも一部の画像のそれぞれにおいて、第1の領域と第2の領域と第3の領域とを設定する設定ステップと、
前記第2の領域と前記第3の領域との露出の調整を行う調整ステップと、
前記複数の画像の少なくとも一部の画像のそれぞれの前記第1の領域に対して位置合わせを行う位置合わせステップと、
前記位置合わせステップにおいて前記位置合わせを行った後の前記第1の領域に対して合成を行う合成ステップと、を行わせ、
前記画像の前記第2の領域の露出と、該画像の前のフレームの画像の前記第3の領域の露出とが同じでないとき、前記調整ステップにおいては、該第2の領域の露出と該第3の領域の露出とが同じになるように該画像と該画像の前のフレームの画像との輝度を調整してから、前記位置合わせステップにおいて、該画像の該第2の領域と該画像の前のフレームの画像の該第3の領域とに対して位置合わせのための係数を算出し、
前記位置合わせステップにおいては、該係数を用いて前記第1の領域に対して位置合わせを行うことを特徴とするプログラム。
A computer program that runs on the computer of an image processing device.
An imaging step that captures multiple images and
A setting step for setting a first region, a second region, and a third region in each of at least a part of the plurality of images.
An adjustment step for adjusting the exposure of the second region and the third region,
An alignment step of aligning with respect to the first region of each of at least a part of the plurality of images.
In the alignment step, the synthesis step of synthesizing the first region after the alignment is performed is performed.
When the exposure of the second region of the image is not the same as the exposure of the third region of the image in the previous frame of the image, in the adjustment step, the exposure of the second region and the second region. After adjusting the brightness of the image and the image of the frame before the image so that the exposure of the region 3 is the same, in the alignment step, the second region of the image and the image A coefficient for alignment with respect to the third region of the image in the previous frame was calculated.
In the alignment step, a program characterized in that alignment is performed with respect to the first region using the coefficient.
JP2018100077A 2018-05-24 2018-05-24 Imaging equipment, imaging methods and programs Active JP7051586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018100077A JP7051586B2 (en) 2018-05-24 2018-05-24 Imaging equipment, imaging methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018100077A JP7051586B2 (en) 2018-05-24 2018-05-24 Imaging equipment, imaging methods and programs

Publications (2)

Publication Number Publication Date
JP2019205100A JP2019205100A (en) 2019-11-28
JP7051586B2 true JP7051586B2 (en) 2022-04-11

Family

ID=68727448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018100077A Active JP7051586B2 (en) 2018-05-24 2018-05-24 Imaging equipment, imaging methods and programs

Country Status (1)

Country Link
JP (1) JP7051586B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111741228B (en) * 2020-06-30 2022-07-08 浙江大华技术股份有限公司 Exposure adjusting method and device for panoramic image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165259A (en) 2011-02-08 2012-08-30 Olympus Corp Image processing device, image processing method, image processing program and photograph device
JP2018077581A (en) 2016-11-07 2018-05-17 キヤノン株式会社 Information processing device, and control method and program of information processing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165259A (en) 2011-02-08 2012-08-30 Olympus Corp Image processing device, image processing method, image processing program and photograph device
JP2018077581A (en) 2016-11-07 2018-05-17 キヤノン株式会社 Information processing device, and control method and program of information processing device

Also Published As

Publication number Publication date
JP2019205100A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP7023662B2 (en) Image processing device, image pickup device, control method and program of image processing device
JP6833746B2 (en) Imaging equipment, imaging methods, programs and recording media
US10469741B2 (en) Image processing apparatus and image processing method
JP6604831B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2007201539A (en) Digital camera
JP2016076805A (en) Image processing apparatus, control method and control program therefor, and imaging device
JP7005324B2 (en) Imaging device, control method and program of imaging device
JP6833801B2 (en) Imaging equipment, imaging methods, programs and recording media
JP7163057B2 (en) IMAGING DEVICE, IMAGING METHOD, PROGRAM AND RECORDING MEDIUM
JP2018190092A (en) Image processing system, and method and program for controlling image processing system
CN110505394B (en) Image processing apparatus, image processing method, image pickup apparatus, and storage medium
JP6647246B2 (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program
US7616247B2 (en) Reproducing apparatus, image data reproducing method, program, and storage medium
CN110891140B (en) Image pickup apparatus, image processing apparatus, control method therefor, and storage medium
JP7051586B2 (en) Imaging equipment, imaging methods and programs
JP2015186062A (en) Image composition processing device
JP2019125928A (en) Imaging device, imaging method, and program
JP7086774B2 (en) Imaging equipment, imaging methods and programs
JP6869841B2 (en) Image processing device, control method of image processing device, and program
JP6184077B2 (en) Imaging device and control method thereof.
JP6353585B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP6604998B2 (en) Image processing apparatus, imaging apparatus, image processing apparatus control method, and program
JP2007336228A (en) Imaging apparatus and its control method and program and storage medium
JP6929133B2 (en) Imaging device, control method and program of imaging device
JP2019153208A (en) Image processor, method for processing image, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R151 Written notification of patent or utility model registration

Ref document number: 7051586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151