JP2014066959A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2014066959A
JP2014066959A JP2012213631A JP2012213631A JP2014066959A JP 2014066959 A JP2014066959 A JP 2014066959A JP 2012213631 A JP2012213631 A JP 2012213631A JP 2012213631 A JP2012213631 A JP 2012213631A JP 2014066959 A JP2014066959 A JP 2014066959A
Authority
JP
Japan
Prior art keywords
input image
area
image
region
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012213631A
Other languages
Japanese (ja)
Inventor
Atsushi Kiyama
淳 木山
Kazuhiro Kojima
和浩 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012213631A priority Critical patent/JP2014066959A/en
Publication of JP2014066959A publication Critical patent/JP2014066959A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make the exposure of each input image to be composited with a swing panorama proper.SOLUTION: A plurality of input images are sequentially photographed while a camera is swung. A segmentation area (CR) is set in each input image and the images in the segmentation areas of the respective input images are joined to each other in a swing direction, to produce a panorama composite image. When the swing direction is a right direction, the segmentation area is set on the left side from the center of the image in each input image (I"i"). In each input image, an area located in the swing direction from the segmentation area is included in an AE evaluation area. The luminance of an object in the AE evaluation area is evaluated by photometric processing, so that the luminance of the object in the segmentation area of a future input image is derived (predicted) and an exposure value is changed or fixed based on the result.

Description

本発明は、デジタルカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera.

スイングパノラマとも呼ばれるパノラマ撮影機能がデジタルカメラに搭載されることも多い。スイングパノラマでは、カメラを水平や垂直方向に振りながら複数の入力画像の順次撮影を行い、複数の入力画像をイメージモザイキング法によって貼りあわせ合成することで各入力画像よりも画角の広いパノラマ合成画像を生成する。図29(a)及び(b)において、符号900はパノラマ合成画像として取得されるべき全景を表し、矩形領域901、902は、夫々、第i番目、第(i+1)番目の入力画像の撮影時における撮影領域を表し、符号905は、被写体の1つである太陽を表している(iは整数)。図29(a)及び(b)の例では、パノラマ撮影中、図面の右方向に向かってカメラがスイングされている。一般的には例えば、各入力画像の中央に切り出し領域CRを設定して各入力画像から切り出し領域CR内の画像(画像信号)を切り出し、切り出した各画像をスイング方向に沿ってつなぎ合わせることでパノラマ合成画像910(図30参照)を得る。   Digital cameras often have a panorama shooting function called a swing panorama. Swing panorama is a panoramic composite image with a wider angle of view than each input image by sequentially shooting multiple input images while shaking the camera horizontally and vertically, and combining the input images by image mosaicing method. Is generated. In FIGS. 29A and 29B, reference numeral 900 represents a whole view to be acquired as a panoramic composite image, and rectangular areas 901 and 902 are taken when the i-th and (i + 1) -th input images are taken, respectively. The reference numeral 905 represents the sun as one of the subjects (i is an integer). In the examples of FIGS. 29A and 29B, the camera is swung in the right direction of the drawing during panorama shooting. In general, for example, a cutout region CR is set at the center of each input image, an image (image signal) in the cutout region CR is cut out from each input image, and the cut out images are connected along the swing direction. A panorama composite image 910 (see FIG. 30) is obtained.

一方、デジタルカメラには、通常、撮影画像の露出の適正化を図る露出制御機能が設けられている。尚、特許文献1において以下のような方法も提案されている。最初の静止画像(入力画像)の撮影時にISO感度を最大に設定して撮影を行い、以降の静止画像の撮影時には前記ISO感度を最大に設定したままで且つ撮影された前記最初の静止画像の露出に合うようにシャッタ速度を設定する(特許文献1の請求項10参照)。   On the other hand, a digital camera is usually provided with an exposure control function for optimizing exposure of captured images. Patent Document 1 also proposes the following method. At the time of shooting the first still image (input image), the ISO sensitivity is set to the maximum, and at the subsequent shooting of the still image, the ISO sensitivity is set to the maximum and the first still image that has been shot is taken. The shutter speed is set so as to match the exposure (see claim 10 of Patent Document 1).

また、デジタルズーム等を用いて動画像撮影を行う場合、図31(a)及び(b)に示す如く、撮像素子の有効画素領域に相当する撮影領域901、902に切り出し領域921、922が設定され、切り出し領域921及び922を含む各時刻の切り出し領域の画像信号を抽出することで、動画像が生成される。図31(a)及び(b)の例では、動画像撮影中、図面の右方向に向かってカメラがスイングされている(所謂パン操作が成されている)。   In addition, when moving image shooting is performed using digital zoom or the like, as shown in FIGS. 31A and 31B, cutout regions 921 and 922 are set in shooting regions 901 and 902 corresponding to effective pixel regions of the image sensor. The moving image is generated by extracting the image signal of the clip region at each time including the clip regions 921 and 922. In the example of FIGS. 31A and 31B, the camera is swung in the right direction of the drawing during the moving image shooting (so-called pan operation is performed).

特開2008−289095号公報JP 2008-289095 A

パノラマ撮影中の露出制御方法として、パノラマ撮影中には、露出条件(絞り値、シャッタ速度、撮影感度など)を固定しておくという第1制御方法も検討される。但し、露出条件を固定した場合、撮影終了時近辺の露出が異常になることがある。例えば、露出条件を固定した状態において、撮影領域の明るさがカメラのスイング方向に沿って徐々に暗くなるようなシーンをパノラマ撮影すると、撮影開始時近辺の領域は適正露出で撮影されるが、撮影終了時近辺は露出アンダーで撮影され、結果、得られるパノラマ合成画像に適正露出の画像領域と露出アンダーの画像領域が混在することになる。   As an exposure control method during panoramic photography, a first control method is also considered in which exposure conditions (aperture value, shutter speed, photographing sensitivity, etc.) are fixed during panoramic photography. However, if the exposure conditions are fixed, the exposure near the end of shooting may become abnormal. For example, if you take a panoramic shot of a scene where the brightness of the shooting area gradually darkens along the camera swing direction with the exposure conditions fixed, the area near the start of shooting is shot with appropriate exposure. In the vicinity of the end of shooting, the image is shot with underexposure, and as a result, the obtained panoramic composite image includes a properly exposed image region and an underexposed image region.

動画像撮影用の露出制御として一般的に利用されるコンティニアスAEを、パノラマ撮影中の露出制御に適用する方法(以下、第2制御方法という)も検討される。第2制御方法では、パノラマ撮影中に逐次測光処理を行い、各時刻の測光処理結果に基づき露出条件を更新してゆく(特許文献1の方法は、この第2制御方法に近い)。典型的なコンティニアスAEでは、現フレームの撮影領域の全体がAE評価領域として設定され、AE評価領域内の輝度(即ち撮影領域の全体輝度)に応じて次フレームの露出条件が決定される。このような第2制御方法を上述のパノラマ撮影に対して単純に適用すると、次フレームの露出が、切り出し領域CRとは関係の無い領域の被写体輝度(例えば、図29(a)の領域CRの左側に位置する太陽905の被写体輝度)の影響を強く受けて異常になることがある。尚、そのような影響を排除すべく、図29(a)、(b)の切り出し領域CRの左側領域をAE評価領域から単に除外した場合、被写体輝度を評価できる領域が狭くなって露出制御に利用できる輝度情報量が低減するため、露出制御の精度低減が懸念される。   A method of applying continuous AE generally used as exposure control for moving image shooting to exposure control during panoramic shooting (hereinafter referred to as a second control method) is also considered. In the second control method, the photometric process is sequentially performed during panoramic photography, and the exposure condition is updated based on the photometric process result at each time (the method of Patent Document 1 is close to the second control method). In typical continuous AE, the entire shooting area of the current frame is set as the AE evaluation area, and the exposure condition of the next frame is determined according to the luminance in the AE evaluation area (that is, the overall luminance of the shooting area). When such a second control method is simply applied to the above panoramic shooting, the exposure of the next frame is subject luminance in a region that is not related to the cutout region CR (for example, the region CR in FIG. 29A). It may become abnormal under the strong influence of the subject brightness of the sun 905 located on the left side. In order to eliminate such an influence, when the left area of the cutout area CR in FIGS. 29A and 29B is simply excluded from the AE evaluation area, the area where the subject luminance can be evaluated becomes narrower and exposure control is performed. Since the amount of luminance information that can be used is reduced, there is a concern that the accuracy of exposure control may be reduced.

撮影領域内の一部を切り出して動画像信号を得る場合にも、パノラマ撮影に類似した事情が存在する。即ち例えば、動画像を形成する現フレーム及び次フレームの領域が切り出し領域921及び922(図31(a)及び(b))であった場合において、現フレームの切り出し領域921の被写体輝度のみに応じて次フレームの露出を決定したならば、次フレームの露出が切り出し領域922とは関係の無い領域の被写体輝度の影響を強く受けて異常になることがある。同様の事情が、動画像撮影における焦点調整やホワイトバランス調整にも存在する。   Even when a moving image signal is obtained by cutting out a part of the shooting area, there is a situation similar to panoramic shooting. That is, for example, in the case where the current frame and next frame regions that form a moving image are the cutout regions 921 and 922 (FIGS. 31A and 31B), only the subject luminance in the cutout region 921 of the current frame is determined. If the exposure of the next frame is determined, the exposure of the next frame may be abnormally influenced strongly by the subject brightness in an area unrelated to the cut-out area 922. The same situation exists in focus adjustment and white balance adjustment in moving image shooting.

そこで本発明は、合成されるべき複数の入力画像の露出適正化に寄与する撮像装置、及び、動画像の露出制御、焦点調整又はホワイトバランス調整の適正化に寄与する撮像装置を提供することを目的とする。   Therefore, the present invention provides an imaging device that contributes to optimizing exposure of a plurality of input images to be combined, and an imaging device that contributes to optimizing moving image exposure control, focus adjustment, or white balance adjustment. Objective.

本発明に係る第1の撮像装置は、撮影によって被写体の画像を取得する撮像素子を有する撮像装置であって、当該撮像装置の動きを伴いながら前記撮像素子にて順次取得される複数の入力画像の夫々に設定された切り出し領域内の画像信号を合成することで、各入力画像よりも画角の広い出力画像を生成する合成処理部と、当該撮像装置の動き方向を検出する動き検出部と、前記動き方向に応じて各入力画像に前記切り出し領域を設定する切り出し領域設定部と、前記切り出し領域より前記動き方向に位置する領域内の被写体輝度を測光処理を用いて評価する輝度評価部と、前記輝度評価部の評価結果に基づき前記複数の入力画像に対する露出制御を行う露出制御部と、を備えたことを特徴とする。   A first imaging apparatus according to the present invention is an imaging apparatus having an imaging element that acquires an image of a subject by shooting, and a plurality of input images that are sequentially acquired by the imaging element with movement of the imaging apparatus. A synthesis processing unit that generates an output image having a wider angle of view than each input image by synthesizing the image signals in the cutout region set for each of the above, and a motion detection unit that detects the motion direction of the imaging device, A cutout region setting unit that sets the cutout region in each input image according to the movement direction; and a luminance evaluation unit that evaluates subject luminance in a region located in the movement direction from the cutout region using photometry processing And an exposure control unit that performs exposure control on the plurality of input images based on an evaluation result of the luminance evaluation unit.

現在の入力画像の切り出し領域より動き方向に位置する領域には、次回又は次回以降の入力画像の切り出し領域中の被写体が存在している。従って、切り出し領域より動き方向に位置する領域内の被写体輝度を評価し、その評価結果に基づき露出制御を行うことにより、次回又は次回以降の入力画像により適した露出制御を実現することが可能となる。この際、動き方向に応じて切り出し領域を設定する構成を採用することにより、評価される被写体輝度の情報量を確保することか可能となり、制御等の高精度化が促進されて、各入力画像の露出適正化が図られる。   In the region located in the movement direction from the current input image cutout region, there is a subject in the input image cutout region for the next time or the next time or later. Therefore, it is possible to realize exposure control more suitable for the next or next input image by evaluating subject luminance in an area located in the movement direction from the cutout area and performing exposure control based on the evaluation result. Become. At this time, by adopting a configuration in which the clip region is set according to the movement direction, it is possible to ensure the information amount of the subject luminance to be evaluated, and the high accuracy of control and the like is promoted, and each input image is promoted. The exposure is optimized.

本発明に係る第2の撮像装置は、撮影によって被写体の画像を取得して取得画像の画像信号を出力する撮像素子を有する撮像装置であって、前記撮像素子にて順次取得される複数の入力画像の夫々に設定された切り出し領域内の画像信号から動画像の画像信号を生成する動画像処理部と、当該撮像装置の動きを検出する動き検出部と、前記動き検出部の検出結果に基づき各入力画像に前記切り出し領域を設定する切り出し領域設定部と、を備えるとともに、各入力画像に設定された第1評価領域内の被写体輝度を測光処理を用いて評価することで撮影における露出制御を行う第1制御部、各入力画像に設定された第2評価領域内の画像信号に基づき撮影における焦点調整を行う第2制御部、及び、各入力画像に設定された第3評価領域内の画像信号に基づき撮影におけるホワイトバランス調整を行う第3制御部の内、少なくとも1つの制御部を備え、更に、前記切り出し領域に応じて、前記第1、第2又は第3評価領域である対象評価領域を各入力画像に設定する対象評価領域設定部を備え、前記対象評価領域設定部は、当該撮像装置が一定方向に動いている場合、前記切り出し領域より当該撮像装置の動き方向に位置する領域を前記対象評価領域に含めることを特徴とする。   A second imaging device according to the present invention is an imaging device having an imaging device that acquires an image of a subject by shooting and outputs an image signal of the acquired image, and a plurality of inputs sequentially acquired by the imaging device. Based on a moving image processing unit that generates a moving image signal from an image signal in a cutout region set for each of the images, a motion detection unit that detects the movement of the imaging device, and a detection result of the motion detection unit A cut-out area setting unit that sets the cut-out area in each input image, and performs exposure control in shooting by evaluating the subject luminance in the first evaluation area set in each input image using photometry processing. A first control unit to perform, a second control unit to perform focus adjustment in shooting based on an image signal in the second evaluation region set in each input image, and an image in the third evaluation region set in each input image A target evaluation area that includes at least one control section among the third control sections that perform white balance adjustment in photographing based on the signal, and is the first, second, or third evaluation area according to the cutout area. The target evaluation area setting unit sets an area located in the moving direction of the imaging apparatus from the cutout area when the imaging apparatus is moving in a certain direction. It is included in the target evaluation area.

現在の入力画像の切り出し領域より動き方向に位置する領域には、次回又は次回以降の入力画像の切り出し領域中の被写体が存在している。従って、切り出し領域より動き方向に位置する領域を対象評価領域に含めて露出制御等を行うことにより、次回又は次回以降の入力画像により適した露出制御等を実現することが可能となる。この際、撮像装置の動きに応じて切り出し領域を設定する構成を採用することにより、対象評価領域から得られる情報量を確保することが可能となり、制御等の高精度化が促進されて、適正な露出等による動画像を得ることが可能となる。   In the region located in the movement direction from the current input image cutout region, there is a subject in the input image cutout region for the next time or the next time or later. Therefore, by performing exposure control or the like by including the region positioned in the movement direction from the cutout region in the target evaluation region, it is possible to realize exposure control or the like that is more suitable for the next or subsequent input image. At this time, it is possible to secure the amount of information obtained from the target evaluation area by adopting a configuration in which the cutout area is set according to the movement of the imaging device. It is possible to obtain a moving image by various exposures.

本発明によれば、合成されるべき複数の入力画像の露出適正化に寄与する撮像装置、及び、動画像の露出制御、焦点調整又はホワイトバランス調整の適正化に寄与する撮像装置を提供することが可能である。   According to the present invention, it is possible to provide an imaging device that contributes to optimization of exposure of a plurality of input images to be combined, and an imaging device that contributes to optimization of moving image exposure control, focus adjustment, or white balance adjustment. Is possible.

本発明の第1実施形態に係るカメラの概略全体ブロック図である。1 is a schematic overall block diagram of a camera according to a first embodiment of the present invention. 本発明の第1実施形態に係る撮像部の内部構成図である。It is an internal block diagram of the imaging part which concerns on 1st Embodiment of this invention. カメラの概略的な外観を被写体と共に示した図である。It is the figure which showed the general external appearance of the camera with the subject. スイング方向を説明するための図である。It is a figure for demonstrating a swing direction. 画像上の各方向を定義付ける図である。It is a figure which defines each direction on an image. スイング方向に応じた入力画像列の様子を示す図である。It is a figure which shows the mode of the input image sequence according to a swing direction. 本発明の第1実施形態に係り、露出制御に関わる部位のブロック図である。It is a block diagram of the site | part which concerns on 1st Embodiment of this invention and is related to exposure control. 入力画像にAE評価領域が設定される様子を示す図である。It is a figure which shows a mode that an AE evaluation area | region is set to an input image. 時系列に並ぶ複数の入力画像を示す図である。It is a figure which shows the some input image arranged in a time series. 全景及び撮影領域間の関係を示す図である。It is a figure which shows the relationship between a full view and an imaging | photography area | region. 全景を形成する各領域を示す図である。It is a figure which shows each area | region which forms a full view. スイング方向が右方向であるときの、各時刻の撮影領域及び切り出し領域を示す図である。It is a figure which shows the imaging | photography area | region and cutting-out area | region of each time when a swing direction is a right direction. スイング方向が左方向であるときの、各時刻の撮影領域及び切り出し領域を示す図である。It is a figure which shows the imaging | photography area | region and cut-out area | region of each time when a swing direction is a left direction. パノラマ合成画像の例を示す図である。It is a figure which shows the example of a panoramic composite image. スイング方向に応じた切り出し領域の設定例を示す図である。It is a figure which shows the example of a setting of the cut-out area | region according to a swing direction. 或る時刻の撮影領域(入力画像)及び切り出し領域等を示す図である。It is a figure which shows the imaging | photography area | region (input image) and cut-out area | region, etc. of a certain time. 被写体輝度の分布及び対応する明暗分布の第1例を示す図である。It is a figure which shows the 1st example of distribution of a subject brightness | luminance and corresponding brightness distribution. 被写体輝度の分布及び対応する明暗分布の第2例を示す図である。It is a figure which shows the 2nd example of distribution of object brightness | luminance and corresponding brightness distribution. 被写体輝度の分布及び対応する明暗分布の第3例を示す図である。It is a figure which shows the 3rd example of distribution of object brightness | luminance and corresponding brightness distribution. 本発明の第2実施形態に係るカメラの部分ブロック図である。It is a partial block diagram of the camera concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る切り出し領域を示す図である。It is a figure which shows the cut-out area | region which concerns on 2nd Embodiment of this invention. カメラの動きに応じた切り出し領域の設定例を示す図である。It is a figure which shows the example of a setting of the cutting-out area | region according to the motion of a camera. カメラの動きに応じた対象評価領域の設定例を示す図である。It is a figure which shows the example of a setting of the object evaluation area | region according to the motion of a camera. 或る時刻の撮影領域(入力画像)及び切り出し領域等を示す図である。It is a figure which shows the imaging | photography area | region (input image) and cut-out area | region, etc. of a certain time. 本発明の第2実施形態に係り、評価値の分布の第1例を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the 1st example of distribution of evaluation value. 本発明の第2実施形態に係り、評価値の分布の第2例を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the 2nd example of distribution of evaluation value. 本発明の第2実施形態に係り、評価値の分布の第3例を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the 3rd example of distribution of evaluation value. スイング方向が右斜め上方向であるときの切り出し領域及び対象評価領域の設定例を示す図である。It is a figure which shows the example of a setting of the cut-out area | region and object evaluation area | region when a swing direction is a diagonally upward right direction. 従来のパノラマ撮影に係り、各時刻における全景、撮影領域及び切り出し領域間の関係を示す図である。It is a figure which shows the relationship between the panoramic view, imaging | photography area | region, and cutting-out area | region in each time concerning the conventional panoramic imaging | photography. 図29(a)及び(b)に対応するパノラマ合成画像を示す図である。It is a figure which shows the panorama synthetic | combination image corresponding to Fig.29 (a) and (b). 従来技術に係り、動画像撮影時の各時刻における撮影領域及び切り出し領域を示す図である。It is a figure which concerns on a prior art and is a figure which shows the imaging | photography area | region and cut-out area | region in each time at the time of video recording.

以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量、状態量又は部材等を参照する記号又は符号を記すことによって該記号又は符号に対応する情報、信号、物理量、状態量又は部材等の名称を省略又は略記することがある。   Hereinafter, an example of an embodiment of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. In this specification, for simplification of description, a symbol or reference that refers to information, signal, physical quantity, state quantity, member, or the like is written to indicate information, signal, physical quantity, state quantity or Names of members and the like may be omitted or abbreviated.

<<第1実施形態>>
本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係るカメラ1の概略全体ブロック図である。撮像装置であるカメラ1は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラ、又は、静止画像のみを撮影及び記録可能なデジタルスチルカメラである。また、カメラ1は、携帯電話機などの携帯端末に搭載されるものであっても良い。カメラ1は、符号11〜16によって参照される各部位を備える。表示部13は、カメラ1の外部に設けられた表示装置であっても良い。
<< First Embodiment >>
A first embodiment of the present invention will be described. FIG. 1 is a schematic overall block diagram of a camera 1 according to the first embodiment of the present invention. The camera 1 that is an imaging device is a digital video camera that can capture and record still images and moving images, or a digital still camera that can capture and record only still images. The camera 1 may be mounted on a mobile terminal such as a mobile phone. The camera 1 is provided with each part referred by the codes | symbols 11-16. The display unit 13 may be a display device provided outside the camera 1.

撮像部11は、撮像素子を用いて被写体の撮影を行う。図2は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子(固体撮像素子)33と、ドライバ34と、を有している。光学系35は、撮像部11の光軸方向に移動可能な、撮像部11の画角調整用のズームレンズ30及び焦点合わせ用のフォーカスレンズ31を含む。ドライバ34は、主制御部12からの制御信号に基づき、レンズ30及び31の位置並びに絞り32の開度(即ち絞り値)を制御する。撮像素子33は、水平及び垂直方向に複数の受光画素が配列されることによって形成され、各受光画素は、光学系35及び絞り32を介して入射した被写体像(被写体の光学像)を光電変換することで、被写体像の信号を撮像部11の出力信号として出力する。   The imaging unit 11 captures a subject using an imaging element. FIG. 2 is an internal configuration diagram of the imaging unit 11. The imaging unit 11 includes an optical system 35, a diaphragm 32, an imaging device (solid-state imaging device) 33 including a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and a driver 34. ing. The optical system 35 includes a zoom lens 30 for adjusting the angle of view of the imaging unit 11 and a focus lens 31 for focusing, which are movable in the optical axis direction of the imaging unit 11. The driver 34 controls the positions of the lenses 30 and 31 and the opening of the diaphragm 32 (that is, the diaphragm value) based on the control signal from the main control unit 12. The image sensor 33 is formed by arranging a plurality of light receiving pixels in the horizontal and vertical directions, and each light receiving pixel photoelectrically converts a subject image (an optical image of the subject) incident through the optical system 35 and the diaphragm 32. As a result, the signal of the subject image is output as the output signal of the imaging unit 11.

主制御部12は、信号処理回路、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等にて形成され、撮像部11の出力信号に対して所定の信号処理を施すことで、撮像部11による被写体の撮影画像の画像信号を生成する。表示部13は、液晶ディスプレイパネル等の表示画面を有する表示装置であり、主制御部12の制御の下、任意の映像を表示する。記録媒体14は、カード状半導体メモリや磁気ディスク等の不揮発性メモリであり、主制御部12による制御の下、撮影画像の画像信号等を記録する。操作部15は、ユーザからの各種操作を受け付ける。タッチパネルを用いて操作部15が形成されうる。カメラ動き検出部16は、カメラ1の動きを検出する。   The main control unit 12 is formed of a signal processing circuit, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and performs predetermined signal processing on the output signal of the imaging unit 11. As a result, an image signal of a captured image of the subject by the imaging unit 11 is generated. The display unit 13 is a display device having a display screen such as a liquid crystal display panel, and displays an arbitrary video under the control of the main control unit 12. The recording medium 14 is a non-volatile memory such as a card-like semiconductor memory or a magnetic disk, and records an image signal or the like of a captured image under the control of the main control unit 12. The operation unit 15 receives various operations from the user. The operation unit 15 can be formed using a touch panel. The camera motion detection unit 16 detects the motion of the camera 1.

図3は、カメラ1の概略的な外観を、カメラ1の被写体SUBと共に示した図である。図3では、被写体SUBの例として1人の人物を示しているが、被写体SUBは1以上の任意の被写体から成る。一点鎖線AXOPTは、撮像部11(光学系35)の光軸を表す。本実施形態では、説明の便宜上、被写体SUBを含む各被写体は実空間上で静止しているものとする。カメラ1の撮影画像は動画像として表示部13に表示され、撮影者は、表示部13の表示内容を確認しながら各種の撮影操作を行うことができる。以下では、撮影部11にて撮影された静止画像(即ち、撮像素子33の出力信号に基づく静止画像)を入力画像と呼ぶ。 FIG. 3 is a diagram showing a schematic appearance of the camera 1 together with the subject SUB of the camera 1. In FIG. 3, one person is shown as an example of the subject SUB, but the subject SUB is composed of one or more arbitrary subjects. An alternate long and short dash line AX OPT represents the optical axis of the imaging unit 11 (the optical system 35). In this embodiment, for convenience of explanation, it is assumed that each subject including the subject SUB is stationary in real space. The captured image of the camera 1 is displayed as a moving image on the display unit 13, and the photographer can perform various shooting operations while confirming the display content of the display unit 13. Hereinafter, a still image photographed by the photographing unit 11 (that is, a still image based on an output signal of the image sensor 33) is referred to as an input image.

カメラ動き検出部16の動きの検出対象には、カメラ1のヨー方向の回転運動、カメラ1のピッチ方向の回転運動及びカメラ1の並進運動が含まれる。ヨー方向、ピッチ方向の回転運動は、夫々、カメラ1の光学中心を固定した状態でカメラ1及び光軸AXOPTを水平方向、垂直方向に回転させる運動である。カメラ1の並進運動は、カメラ1及び光軸AXOPTを水平又は垂直方向に平行移動させる運動である。水平方向は左右方向に対応し、垂直方向は上下方向に対応する。 The motion detection targets of the camera motion detection unit 16 include the rotational motion of the camera 1 in the yaw direction, the rotational motion of the camera 1 in the pitch direction, and the translational motion of the camera 1. The rotational movements in the yaw direction and the pitch direction are movements that rotate the camera 1 and the optical axis AX OPT in the horizontal direction and the vertical direction, respectively, with the optical center of the camera 1 fixed. The translational motion of the camera 1 is a motion that translates the camera 1 and the optical axis AX OPT horizontally or vertically. The horizontal direction corresponds to the left-right direction, and the vertical direction corresponds to the up-down direction.

以下では、カメラ1の動き方向をスイング方向と呼び、スイング方向を以下のように定義する。図4(a)及び(b)に示す如く、被写体SUBに正対させたカメラ1を右方向に回転させるヨー方向の回転運動若しくは右方向に平行移動させる並進運動又はそれらの組み合わせ運動によるスイング方向は、右方向である。図4(c)及び(d)に示す如く、被写体SUBに正対させたカメラ1を左方向に回転させるヨー方向の回転運動若しくは左方向に平行移動させる並進運動又はそれらの組み合わせ運動によるスイング方向は、左方向である。上及び下方向についても同様である(図4(e)〜(h)参照)。以下では、スイング方向が右、左、上、下方向である状態でカメラ1が運動することを、夫々、カメラ1が右、左、上、下方向に動くなどと表現する。   Hereinafter, the movement direction of the camera 1 is referred to as a swing direction, and the swing direction is defined as follows. As shown in FIGS. 4A and 4B, the swing direction by the yaw-direction rotational motion for rotating the camera 1 facing the subject SUB in the right direction, the translational motion for translating to the right direction, or a combination motion thereof. Is in the right direction. As shown in FIGS. 4C and 4D, the swing direction by the yaw-direction rotational motion for rotating the camera 1 facing the subject SUB to the left, the translational motion for translating to the left, or a combination motion thereof. Is the left direction. The same applies to the upper and lower directions (see FIGS. 4E to 4H). In the following, the movement of the camera 1 with the swing directions being right, left, up and down will be expressed as the camera 1 moving in the right, left, up and down directions, respectively.

カメラ動き検出部16は、少なくとも、スイング方向が右、左、上及び下方向の何れであるのかを判定することができる(或いは、スイング方向が右及び左方向のどちらであるのかのみ、又は、スイング方向が上及び下方向のどちらであるのかのみを判定する)。動き検出部16は、スイング方向を5段階以上又は無段階に判定できても良いし、カメラ1の動きの速度(大きさ)を検出できても良い。勿論、動き検出部16は、カメラ1が静止しているか否かを検出することもできる。動き検出部16は、カメラ1の動きに応じた信号を出力する動きセンサ(角加速度センサ、加速度センサなど)を用いて、スイング方向等の検出を行っても良い。或いは、動き検出部16は、撮像素子33の出力信号に基づき、スイング方向等の検出を行っても良い。撮像素子33の出力信号に基づく動き検出方法は公知であるので、詳細な説明を割愛する。例えば、代表点マッチング法を用いて導出したフレーム間(時間的に隣接する入力画像間)のオプティカルフローを用いて当該検出を行うことができる。   The camera motion detector 16 can determine at least whether the swing direction is right, left, up or down (or only whether the swing direction is right or left, or Only determine whether the swing direction is up or down). The motion detection unit 16 may be able to determine the swing direction in five steps or more or continuously, or may be able to detect the speed (magnitude) of the movement of the camera 1. Of course, the motion detection unit 16 can also detect whether or not the camera 1 is stationary. The motion detection unit 16 may detect a swing direction or the like using a motion sensor (an angular acceleration sensor, an acceleration sensor, or the like) that outputs a signal according to the motion of the camera 1. Alternatively, the motion detection unit 16 may detect the swing direction or the like based on the output signal of the image sensor 33. Since a motion detection method based on the output signal of the image sensor 33 is known, a detailed description thereof is omitted. For example, the detection can be performed using an optical flow between frames (between temporally adjacent input images) derived using the representative point matching method.

図5の画像300は、撮像素子33の有効画素領域内に結像される画像に基づく、任意の入力画像(静止画像)である。X軸及びY軸は、夫々、入力画像300の水平及び垂直方向に平行な軸であり、入力画像300の中心Oにて互いに直交する。入力画像300においても、右、左、上及び下方向が定義される。カメラ1から見て光軸AXOPTより右、左、上、下側に被写体SUBが位置するとき、その被写体SUBを撮影することで得た入力画像300上において、被写体SUBは中心Oよりも、夫々、右、左、上、下側に位置することになる。 An image 300 in FIG. 5 is an arbitrary input image (still image) based on an image formed in the effective pixel region of the image sensor 33. The X axis and the Y axis are axes parallel to the horizontal and vertical directions of the input image 300, respectively, and are orthogonal to each other at the center O of the input image 300. Also in the input image 300, right, left, up and down directions are defined. When the subject SUB is positioned on the right, left, upper, and lower sides of the optical axis AX OPT as viewed from the camera 1, the subject SUB is located on the input image 300 obtained by photographing the subject SUB from the center O. They are located on the right, left, top, and bottom, respectively.

カメラ1が右方向に動いている期間中に取得された入力画像列上では、図6(a)に示す如く、時間の経過と共に被写体SUBが左方向に向かって動き、カメラ1が左方向に動いている期間中に取得された入力画像列上では、図6(b)に示す如く、時間の経過と共に被写体SUBが右方向に向かって動く。上及び下についても同様である。入力画像列とは、時系列上に並ぶ複数の入力画像の集まりを指す。入力画像列上において被写体SUBが動く方向を画像流れ方向と呼ぶ。画像流れ方向はスイング方向の逆方向である。   On the input image sequence acquired during the period in which the camera 1 is moving in the right direction, as shown in FIG. 6A, the subject SUB moves in the left direction as time passes, and the camera 1 is moved in the left direction. On the input image sequence acquired during the moving period, as shown in FIG. 6B, the subject SUB moves in the right direction as time passes. The same applies to the top and bottom. An input image sequence refers to a collection of a plurality of input images arranged in time series. The direction in which the subject SUB moves on the input image sequence is called the image flow direction. The image flow direction is opposite to the swing direction.

図7は、カメラ1の一部ブロック図であり、符号21〜26によって参照される各部位が主制御部12に設けられる。信号処理部21は、入力画像を表す撮像素子33の出力信号に対して所定の信号処理(デジタル化、信号増幅、デモザイキング処理、ノイズ低減処理等)を施す。   FIG. 7 is a partial block diagram of the camera 1, and each part referred to by reference numerals 21 to 26 is provided in the main control unit 12. The signal processing unit 21 performs predetermined signal processing (digitization, signal amplification, demosaicing processing, noise reduction processing, etc.) on the output signal of the image sensor 33 representing the input image.

入力画像の露出条件は露出制御値によって指定され、露出制御値は、絞り制御値、シャッタ速度制御値及び感度制御値から成る。入力画像の撮影時における絞り値(F値)、シャッタ速度、及び感度(以下、撮影感度ともいう)は、夫々、絞り制御値、シャッタ速度制御値、感度制御値に従う。即ち、絞り値、シャッタ速度及び撮影感度にて規定される露出値は露出制御値に従う。絞り値、シャッタ速度又は撮影感度を調整することで入力画像の明るさ(輝度)を調整することができる。シャッタ速度は、入力画像の画像信号を得るための撮像素子33の露光時間の逆数を指す。撮影感度は、ISO感度(International Organization for Standardization)によって規定された感度)又はISO感度に応じた感度であり、撮影感度の調整によって、入力画像における輝度信号を含む画像信号の増幅率が調整される。即ち、信号処理部21は、上記信号処理の中で、撮像素子33の出力信号そのもの又は撮像素子33の出力信号に基づく画像信号を増幅することができ、撮影感度が増大すれば、その増幅の大きさも増大して、上記信号処理後の入力画像の明るさが増大する。   The exposure condition of the input image is designated by an exposure control value, and the exposure control value is composed of an aperture control value, a shutter speed control value, and a sensitivity control value. The aperture value (F value), shutter speed, and sensitivity (hereinafter also referred to as imaging sensitivity) at the time of capturing an input image are in accordance with the aperture control value, shutter speed control value, and sensitivity control value, respectively. That is, the exposure value defined by the aperture value, shutter speed, and shooting sensitivity follows the exposure control value. The brightness (luminance) of the input image can be adjusted by adjusting the aperture value, shutter speed, or shooting sensitivity. The shutter speed indicates the reciprocal of the exposure time of the image sensor 33 for obtaining the image signal of the input image. The photographing sensitivity is a sensitivity according to ISO sensitivity (sensitivity defined by International Organization for Standardization) or ISO sensitivity, and an amplification factor of an image signal including a luminance signal in an input image is adjusted by adjusting the photographing sensitivity. . In other words, the signal processing unit 21 can amplify the image signal based on the output signal itself of the image sensor 33 or the output signal of the image sensor 33 during the signal processing. The size also increases, and the brightness of the input image after the signal processing increases.

露出情報取得部22は、現在の露出条件(即ち、現在の絞り値、シャッタ速度及び撮影感度)と所定の目標輝度を含む露出情報を取得する。   The exposure information acquisition unit 22 acquires exposure information including the current exposure conditions (that is, the current aperture value, shutter speed, and shooting sensitivity) and predetermined target luminance.

輝度評価部23は、測光処理によって任意の領域における被写体輝度を評価して、評価結果を含んだ評価輝度情報を出力する。被写体輝度は、実空間における被写体の明るさを表す。図8に示す如く、輝度評価部23は、入力画像内の任意の領域をAE評価領域として設定してAE評価領域内の被写体輝度を測光処理によって評価し、評価した被写体輝度に応じた値を持つAE評価値を評価輝度情報に含める。輝度評価部23にて導出される任意の情報は評価輝度情報に含められうる。図8では、AE評価領域が単一の矩形領域になっているが、AE評価領域は互いに分離した複数の領域を含みうるし、AE評価領域の形状は矩形に限定されない。輝度評価部23は、被写体輝度に応じた信号を出力する露出計を用いて測光処理を実現する。輝度評価部23は、撮像素子33を露出計として用いて撮像素子33の出力信号に基づき測光処理を実現しても良いし、撮像素子33とは別にカメラ1に設けられた露出計(不図示)を用いて測光処理を実現しても良い。   The luminance evaluation unit 23 evaluates subject luminance in an arbitrary region by photometry processing, and outputs evaluation luminance information including the evaluation result. The subject brightness represents the brightness of the subject in real space. As shown in FIG. 8, the luminance evaluation unit 23 sets an arbitrary area in the input image as the AE evaluation area, evaluates the subject brightness in the AE evaluation area by the photometric process, and calculates a value corresponding to the evaluated subject brightness. The AE evaluation value possessed is included in the evaluation luminance information. Arbitrary information derived by the luminance evaluation unit 23 can be included in the evaluation luminance information. In FIG. 8, the AE evaluation area is a single rectangular area, but the AE evaluation area may include a plurality of areas separated from each other, and the shape of the AE evaluation area is not limited to a rectangle. The luminance evaluation unit 23 implements photometric processing using an exposure meter that outputs a signal corresponding to the subject luminance. The luminance evaluation unit 23 may realize photometric processing based on the output signal of the image sensor 33 using the image sensor 33 as an exposure meter, or an exposure meter (not shown) provided in the camera 1 separately from the image sensor 33. ) May be used to implement photometric processing.

露出制御部24は、露出情報取得部22及び輝度評価部23から供給される露出情報及び評価輝度情報に基づき、上記露出制御値を設定することで、入力画像の撮影における露出制御(入力画像の露出を適正にするための制御)を実現する。例えば、露出制御によって、信号処理部21から出力される入力画像の輝度レベルが上記目標輝度と一致せしめられる。上述の如く露出値(露出量)は露出制御値に従うため、或る入力画像に対する露出制御値の設定は、当該入力画像の露出値の設定又は制御と同義であると考えても良く、露出制御は露出値の制御に相当すると考えても良い。図9を参照し、露出制御部24は、入力画像I[i]に関する露出情報及び評価輝度情報に基づき、入力画像I[i+n]の撮影時の露出制御値を設定することができる(iは整数、nは自然数)。任意の整数iに関し、入力画像I[i]は時刻tiにて撮影及び取得された入力画像である。従って、入力画像I[i+n]は時刻ti+nにて撮影及び取得された入力画像である。時刻ti+1は時刻tiよりも後の時刻である。 The exposure control unit 24 sets the exposure control value based on the exposure information and the evaluation luminance information supplied from the exposure information acquisition unit 22 and the luminance evaluation unit 23, and thereby controls the exposure control (the input image of the input image). To achieve proper exposure). For example, the brightness level of the input image output from the signal processing unit 21 is matched with the target brightness by exposure control. Since the exposure value (exposure amount) follows the exposure control value as described above, the setting of the exposure control value for a certain input image may be considered synonymous with the setting or control of the exposure value of the input image. May be considered to correspond to control of the exposure value. Referring to FIG. 9, the exposure control unit 24 can set an exposure control value at the time of shooting the input image I [i + n] based on the exposure information and evaluation luminance information regarding the input image I [i] (i is Integer, n is a natural number). For an arbitrary integer i, the input image I [i] is an input image taken and acquired at time t i . Therefore, the input image I [i + n] is an input image taken and acquired at time t i + n . Time t i + 1 is a time later than time t i .

パノラマ合成部(合成処理部)25は、パノラマ撮影期間(合成対象期間)中に何れかの方向へのカメラ1の動きを伴いながら撮影された複数の入力画像を、公知のイメージモザイキング法を用いて合成することにより、各入力画像の画角よりも広い画角を有するパノラマ合成画像(出力画像)を生成する。但し、合成部25は、信号処理部21による信号処理が施された後の入力画像の画像信号を用いてパノラマ合成画像を生成する。ユーザは、操作部15を介してパノラマ撮影期間の開始及び終了時点を指定できる。実際には、パノラマ合成部25は、パノラマ撮影期間中の各入力画像に設定された切り出し領域(合成対象領域)内の画像信号を合成及び記録することで、パノラマ合成画像を生成及び記録する。記録とは、特に記述無き限り、図1の記録媒体14への記録を指す。   The panorama synthesizing unit (synthesizing processing unit) 25 uses a known image mosaicing method for a plurality of input images photographed with the movement of the camera 1 in any direction during the panorama photographing period (compositing target period). Are combined to generate a panoramic composite image (output image) having a wider angle of view than the angle of view of each input image. However, the synthesizing unit 25 generates a panoramic synthesized image using the image signal of the input image after the signal processing by the signal processing unit 21 is performed. The user can specify the start and end time of the panorama shooting period via the operation unit 15. Actually, the panorama synthesizing unit 25 generates and records a panorama composite image by synthesizing and recording the image signals in the cutout region (composition target region) set for each input image during the panorama shooting period. Recording refers to recording on the recording medium 14 in FIG. 1 unless otherwise specified.

切り出し領域設定部26は、カメラ動き検出部16によって検出されたスイング方向に応じてパノラマ撮影期間中の各入力画像に切り出し領域を設定する。   The cutout region setting unit 26 sets a cutout region for each input image during the panorama shooting period according to the swing direction detected by the camera motion detection unit 16.

図10〜図14を参照して、スイング方向に応じた切り出し領域の設定方法などを説明する。図10等において、符号400が付された実線四角枠内は、パノラマ合成画像に収められるべき、実空間上の全景を表しており、符号SRが付された実線四角枠内の領域は、パノラマ撮影期間中の或る時刻における撮像部11の撮影領域を表している。図11に示す如く、全景400は、水平方向に並ぶ領域H[1]〜H[13]を含んで形成される。カメラ1から見て、領域H[i+1]は領域H[i]の右隣りに位置する。説明の簡略化上、特に記述無き限り、第1実施形態の以下の説明では、パノラマ撮影期間中においてスイング方向は右又は左方向であって且つカメラ1は一定速度で運動するものとし、第1実施形態の以下の説明における入力画像は、パノラマ撮影期間中に撮影された入力画像であるとする。   With reference to FIGS. 10 to 14, a method for setting a cutout region according to the swing direction and the like will be described. In FIG. 10 and the like, the inside of the solid-line square frame to which reference numeral 400 is attached represents the entire view in real space that should be included in the panorama composite image, and the area within the solid-line square frame to which reference numeral SR is attached is the panorama. The imaging region of the imaging unit 11 at a certain time during the imaging period is shown. As shown in FIG. 11, the entire view 400 is formed including regions H [1] to H [13] aligned in the horizontal direction. When viewed from the camera 1, the region H [i + 1] is located to the right of the region H [i]. For simplification of description, unless otherwise specified, in the following description of the first embodiment, it is assumed that the swing direction is the right or left direction and the camera 1 moves at a constant speed during the panorama shooting period. It is assumed that the input image in the following description of the embodiment is an input image shot during the panorama shooting period.

時刻tiにおける撮影領域SRを特に記号SR[i]にて表す。切り出し領域を記号CRによって参照する。図12に、スイング方向が右方向であるときの、時刻t1、t7及びt13における撮影領域SR[1]、SR[7]及びSR[13]を全景400上に重畳して示す。スイング方向が右方向であるとき、時刻tiにおける撮影領域SR(即ちSR[i])の中心は領域H[i]内にある。図13に、スイング方向が左方向であるときの、時刻t1、t7及びt13における撮影領域SR[1]、SR[7]及びSR[13]を全景400上に重畳して示す。スイング方向が左方向であるとき、時刻tiにおける撮影領域SR(即ちSR[i])の中心は領域H[14−i]内にある。撮影領域SR[i]の撮影画像が入力画像I[i]として取得される。各時刻の撮影領域SRには領域H[1]〜H[13]の内の複数の領域が内包される。 The imaging region SR at the time t i is particularly represented by the symbol SR [i]. The cutout area is referred to by the symbol CR. FIG. 12 shows the shooting areas SR [1], SR [7], and SR [13] at times t 1 , t 7, and t 13 superimposed on the entire view 400 when the swing direction is the right direction. When the swing direction is the right direction, the center of the imaging region SR (that is, SR [i]) at the time t i is in the region H [i]. FIG. 13 shows the shooting areas SR [1], SR [7], and SR [13] at times t 1 , t 7, and t 13 superimposed on the entire view 400 when the swing direction is the left direction. When the swing direction is the left direction, the center of the imaging region SR (that is, SR [i]) at the time t i is in the region H [14-i]. A captured image in the imaging region SR [i] is acquired as an input image I [i]. The imaging region SR at each time includes a plurality of regions among the regions H [1] to H [13].

スイング方向が右又は左方向であるとき、各時刻の撮影領域SR内の左側又は右側に切り出し領域CRが設定される。具体的には、スイング方向が右又は左方向であるとき、設定部26は、各入力画像において切り出し領域CRの位置が当該入力画像の中心から見てスイング方向の逆方向に位置するように、各入力画像における切り出し領域CRの位置を設定する。   When the swing direction is right or left, the cutout region CR is set on the left or right side in the imaging region SR at each time. Specifically, when the swing direction is the right or left direction, the setting unit 26 is configured so that the position of the cutout region CR is located in the opposite direction of the swing direction when viewed from the center of the input image in each input image. The position of the cutout region CR in each input image is set.

任意の領域である注目領域に関し、注目領域の位置とは、当該注目領域の中心位置又は重心位置を指す。注目領域は、例えば、切り出し領域、AE評価領域を含む任意の評価領域又は該評価領域を形成する任意の領域である。   Regarding the attention area which is an arbitrary area, the position of the attention area refers to the center position or the gravity center position of the attention area. The attention area is, for example, an arbitrary evaluation area including a cutout area, an AE evaluation area, or an arbitrary area forming the evaluation area.

ここでは説明の具体化のため、スイング方向が右方向である場合、領域H[i−4]に相当する切り出し領域CRが入力画像I[i]に設定されるものとする(但し“5≦i”であるとする。“5>i”の場合も、同様の主旨に従って切り出し領域CRが設定される)。例えば、スイング方向が右方向である場合、時刻t7の入力画像I[7]に対して領域H[3](=H[7−4])に相当する切り出し領域CRが設定される(図11及び図12参照)。また、スイング方向が左方向である場合、領域H[18−i]に相当する切り出し領域CRが入力画像I[i]に設定されるものとする(但し“5≦i”であるとする。“5>i”の場合も、同様の主旨に従って切り出し領域CRが設定される)。例えば、スイング方向が左方向である場合、時刻t7の入力画像I[7]に対して領域H[11](=H[18−7])に相当する切り出し領域CRが設定される(図11及び図13参照)。 Here, for the sake of concrete explanation, when the swing direction is the right direction, it is assumed that a cutout region CR corresponding to the region H [i-4] is set in the input image I [i] (provided that “5 ≦ i ”. In the case of“ 5> i ”, the cutout region CR is set in accordance with the same principle). For example, when the swing direction is the right direction, (Fig input image I [7] region H [3] with respect to (= H [7-4]) corresponding to the cutout region CR is set at time t 7 11 and FIG. 12). When the swing direction is the left direction, the cutout region CR corresponding to the region H [18-i] is set in the input image I [i] (provided that “5 ≦ i” is satisfied). In the case of “5> i”, the cutout region CR is set according to the same principle). For example, when the swing direction is the left direction, (Fig input image I [7] region H [11] with respect to (= H [18-7]) corresponding to the cutout region CR is set at time t 7 11 and FIG. 13).

パノラマ合成部25は、入力画像I[1]〜I[13]の切り出し領域CR内の画像信号をスイング方向に沿ってつなぎ合わせて得た画像を、パノラマ合成画像として生成することができる。但し、スイング方向が右方向である場合、パノラマ合成部25は、入力画像I[13]の切り出し領域CRの右側の領域の画像信号をパノラマ合成画像の右端に含めるようにし、スイング方向が左方向である場合、パノラマ合成部25は、入力画像I[13]の切り出し領域CRの左側の領域の画像信号をパノラマ合成画像の左端に含めるようにする。これにより、スイング方向が右方向であるときも、スイング方向が左方向であるときも、図14に示すパノラマ合成画像410を得ることができる。   The panorama composition unit 25 can generate an image obtained by joining the image signals in the cutout region CR of the input images I [1] to I [13] along the swing direction as a panorama composite image. However, when the swing direction is the right direction, the panorama synthesis unit 25 includes the image signal of the right side of the cutout region CR of the input image I [13] at the right end of the panorama composite image, and the swing direction is the left direction. In this case, the panorama composition unit 25 includes the image signal of the left region of the cutout region CR of the input image I [13] at the left end of the panorama composite image. Thereby, the panorama composite image 410 shown in FIG. 14 can be obtained both when the swing direction is the right direction and when the swing direction is the left direction.

図15(a)及び(b)において、符号420が付された破線矩形内の領域は、AE評価領域を表している。図15(a)及び(b)は、夫々、スイング方向が右、左方向であるときの切り出し領域CRとAE評価領域の関係を示している。   In FIGS. 15A and 15B, an area within a broken-line rectangle denoted by reference numeral 420 represents an AE evaluation area. FIGS. 15A and 15B show the relationship between the cutout region CR and the AE evaluation region when the swing direction is right and left, respectively.

スイング方向が右、左方向のどちらであっても、各入力画像において、AE評価領域は、切り出し領域CRよりスイング方向に位置する領域を内包している。即ち、輝度評価部23は、スイング方向が右方向である場合、切り出し領域CRより右側に位置する領域を少なくともAE評価領域に含め(図15(a)参照)、スイング方向が左方向である場合、切り出し領域CRより左側に位置する領域を少なくともAE評価領域に含める(図15(b)参照)。   Regardless of whether the swing direction is right or left, in each input image, the AE evaluation region includes a region located in the swing direction from the cutout region CR. That is, when the swing direction is the right direction, the luminance evaluation unit 23 includes at least an area located on the right side of the cutout area CR in the AE evaluation area (see FIG. 15A), and the swing direction is the left direction. In addition, at least a region located on the left side of the cutout region CR is included in the AE evaluation region (see FIG. 15B).

また、スイング方向が右、左方向のどちらであっても、各入力画像において、AE評価領域は、切り出し領域CRの全部又は一部を内包しているが、AE評価領域が切り出し領域CRを全く内包しないように(AE評価領域と切り出し領域CRが部分的にも重複しないように)AE評価領域を設定することも可能である。   Further, regardless of whether the swing direction is right or left, in each input image, the AE evaluation area includes all or part of the cutout area CR, but the AE evaluation area does not include the cutout area CR at all. It is also possible to set the AE evaluation area so that it is not included (so that the AE evaluation area and the cutout area CR do not partially overlap).

輝度評価部23は、スイング方向に応じて各入力画像におけるAE評価領域の位置及び大きさを可変設定しても良い。例えば、各入力画像において、スイング方向が右方向であるときのAE評価領域の位置(中心又は重心位置)を、スイング方向が左方向であるときのAE評価領域の位置(中心又は重心位置)よりも右側に配置しても良い。但し、各入力画像におけるAE評価領域の位置及び大きさはスイング方向に依存していなくても良い(この場合、図15(a)のAE評価領域と、図15(b)のAE評価領域は全く同じものになる)。   The luminance evaluation unit 23 may variably set the position and size of the AE evaluation area in each input image according to the swing direction. For example, in each input image, the position (center or centroid position) of the AE evaluation area when the swing direction is the right direction is greater than the position (center or centroid position) of the AE evaluation area when the swing direction is the left direction. May be arranged on the right side. However, the position and size of the AE evaluation area in each input image may not depend on the swing direction (in this case, the AE evaluation area in FIG. 15A and the AE evaluation area in FIG. Will be exactly the same).

[露出制御具体例]
スイング方向が右方向であると限定して考えて、露出制御の具体例を説明する。ここでは、図16に示す、時刻t5における撮影領域SR[5]及び入力画像I[5]を基準にして考え、入力画像I[5]の取得時の測光処理(即ち時刻t5における測光処理)を基準測光処理と呼ぶと共に、入力画像I[5]を基準入力画像とも呼ぶ。説明の具体化のための上記想定(図12を参照して説明した想定)の下では、入力画像I[5]の切り出し領域CRは領域H[1]に相当する。基準測光処理によって、入力画像I[5]のAE評価領域内の被写体輝度が評価される。入力画像I[5]のAE評価領域は、入力画像I[5]の切り出し領域CRよりスイング方向に位置する領域H[2]〜H[9]を含み、入力画像I[5]の切り出し領域CR(即ち領域H[1])を更に含みうる。
[Example of exposure control]
A specific example of exposure control will be described with the assumption that the swing direction is the right direction. Here, shown in FIG. 16, considered relative to the imaging region SR [5] and the input image I [5] at time t 5, the photometry in the light measurement process (i.e. the time t 5 the time of acquisition of the input image I [5] Process) is referred to as a reference photometric process, and the input image I [5] is also referred to as a reference input image. Under the above assumption for realizing the description (the assumption described with reference to FIG. 12), the cutout region CR of the input image I [5] corresponds to the region H [1]. By the reference photometry process, the subject luminance in the AE evaluation area of the input image I [5] is evaluated. The AE evaluation area of the input image I [5] includes areas H [2] to H [9] positioned in the swing direction from the cutout area CR of the input image I [5], and the cutout area of the input image I [5]. It may further include CR (ie, region H [1]).

露出制御部24は、基準測光処理に基づく、領域H[2]〜H[9]内の被写体輝度又は領域H[1]〜H[9]内の被写体輝度の評価結果に基づき、基準入力画像(I[5])よりも後に撮影される入力画像(I[6]〜I[13]の全部又は一部)に対する露出制御値の設定及び露出制御を行うことができる。   The exposure control unit 24 uses the reference input image based on the evaluation result of the subject brightness in the regions H [2] to H [9] or the subject brightness in the regions H [1] to H [9] based on the reference photometry process. It is possible to perform exposure control value setting and exposure control for an input image (all or part of I [6] to I [13]) taken after (I [5]).

具体的には、基準測光処理において、入力画像I[5]〜I[13]の切り出し領域CR内に相当する領域H[1]〜H[9]の被写体輝度を個別に導出する。基準測光処理によって導出された領域H[1]〜H[9]の被写体輝度を、夫々、記号BV[1]〜BV[9]にて表す。尚、入力画像I[5]のAE評価領域が領域H[1]を含まない場合、基準測光処理によって領域H[1]の被写体輝度BV[1]は導出されない。   Specifically, in the reference photometry process, the subject luminances of the regions H [1] to H [9] corresponding to the cutout region CR of the input images I [5] to I [13] are derived individually. The subject brightness in the regions H [1] to H [9] derived by the reference photometry process is represented by symbols BV [1] to BV [9], respectively. When the AE evaluation area of the input image I [5] does not include the area H [1], the subject brightness BV [1] of the area H [1] is not derived by the reference photometry process.

露出制御部24は、領域H[2]〜H[9]を含む領域又は領域H[1]〜H[9]を含む領域内の、スイング方向に沿った被写体輝度の変化状態に基づき、基準入力画像(I[5])と基準入力画像よりも後に撮影される入力画像(I[6]〜I[13]の全部又は一部)との間で、露出制御値(従って実際の露出値)を変更するか否かを決定する。その変更を行うと決定することを変更判定と呼び、その変更を行わないと決定することを非変更判定と呼ぶ。露出制御部24は、変更判定を成したとき、例えば入力画像I[6]の露出制御値(従って実際の露出値)を入力画像I[5]のそれと異ならせ、非変更判定を成したとき、少なくとも入力画像I[6]の露出制御値(従って実際の露出値)を入力画像I[5]のそれと一致させる。   The exposure control unit 24 performs a reference based on the change state of the subject brightness along the swing direction in the region including the regions H [2] to H [9] or the region including the regions H [1] to H [9]. An exposure control value (and therefore an actual exposure value) between the input image (I [5]) and an input image (all or a part of I [6] to I [13]) taken after the reference input image. ) To decide whether to change. Determining that the change is to be made is called change determination, and deciding not to make the change is called non-change determination. When the exposure control unit 24 makes a change determination, for example, when the exposure control value (and hence the actual exposure value) of the input image I [6] is different from that of the input image I [5], and the non-change determination is made. , At least the exposure control value (and hence the actual exposure value) of the input image I [6] is matched with that of the input image I [5].

パノラマ撮影において、大域的に輝度変化がみられる場合には、その輝度変化に露出値を追従させることが望ましいが、局所的な輝度変化に対して逐次露出値を追従させると、パノラマ合成画像上において輝度の連続性が損なわれて不自然なパノラマ合成画像が得られることがある。これを考慮し、以下のような変更判定/非変更判定を行うと良い。   In panoramic photography, when there is a global brightness change, it is desirable to follow the exposure value with the brightness change. However, if the exposure value is made to follow the local brightness change, the panorama composite image In some cases, the continuity of luminance is impaired and an unnatural panoramic composite image is obtained. Considering this, it is preferable to perform the following change determination / non-change determination.

露出制御部24は、被写体輝度BV[j]を変数jの関数であると捉える(但し、jは2以上9以下の整数又は1以上9以下の整数)。そして、図17(a)に示す如く、“2≦j≦9”を満たす範囲(又は“1≦j≦9”を満たす範囲)において、被写体輝度BV[j]が変数jの増大に対して増加したり減少したりする場合、非変更判定を行う。即ち、当該関数において、変数jの増大に対し被写体輝度BV[j]が増大する区間と減少する区間が混在するとき、非変更判定を行う。このようなケースでは、図17(b)に示す如く、スイング方向に沿って被写体輝度が局所的に変動していると考えられる。   The exposure control unit 24 regards the subject brightness BV [j] as a function of the variable j (where j is an integer from 2 to 9, or an integer from 1 to 9). Then, as shown in FIG. 17A, in the range satisfying “2 ≦ j ≦ 9” (or the range satisfying “1 ≦ j ≦ 9”), the subject brightness BV [j] is increased with respect to the increase of the variable j. When increasing or decreasing, non-change determination is performed. In other words, in the function, when there are both a section in which the subject brightness BV [j] increases and a section in which the subject brightness BV [j] decreases with respect to the increase in the variable j, the non-change determination is performed. In such a case, as shown in FIG. 17 (b), it is considered that the subject brightness varies locally along the swing direction.

露出値を被写体輝度の局所的な変動に追従させると、例えば、露出値の高い領域H[1](入力画像I[5]の切り出し領域CR)の画像と、露出値の高い域H[2](入力画像I[6]の切り出し領域CR)の画像と、露出値の低い領域H[3](入力画像I[7]の切り出し領域CR)の画像を隣接させて含んだパノラマ合成画像が生成され、それらの領域間の境界でパノラマ合成画像の明るさが不自然に変化することがある。このため、図17(a)及び(b)に示すようなケースでは、非変更判定を行って露出値を固定する。   When the exposure value is caused to follow a local variation in subject luminance, for example, an image of a region H [1] with a high exposure value (a cutout region CR of the input image I [5]) and a region H [2 with a high exposure value. ] A panorama composite image including the image of the cutout area CR of the input image I [6] and the image of the low exposure value area H [3] (the cutout area CR of the input image I [7]) adjacent to each other. In some cases, the brightness of the panorama composite image changes unnaturally at the boundary between these regions. For this reason, in the cases as shown in FIGS. 17A and 17B, the non-change determination is performed to fix the exposure value.

一方、露出制御部24は、図18(a)及び(b)に示す如く、“2≦j≦9”を満たす範囲(又は“1≦j≦9”を満たす範囲)において、被写体輝度BV[j]が変数jの増大に対して単調に減少する場合には変更判定を行い、入力画像I[5]から入力画像I[13]に向けて露出値を高露出側に変更してゆく。逆に、被写体輝度BV[j]が変数jの増大に対して単調に増大する場合にも変更判定を行い、入力画像I[5]から入力画像I[13]に向けて露出値を低露出側に変更してゆく。図18(a)及び(b)に示すケースでは、全景400の右側に向かうにつれて被写体輝度が大域的に減少してゆくため、それに追従して露出値を変更することが、パノラマ合成画像の全体の露出適正化に好適だからである。被写体輝度の単調増加が観測される場合も同様である。露出値の高露出側への変更は、絞り値の減少、シャッタ速度の減少(即ち露光時間の増大)又は撮影感度の増大により実現される。露出値の低露出側への変更は、絞り値の増大、シャッタ速度の上昇(即ち露光時間の減少)又は撮影感度の減少により実現される。   On the other hand, as shown in FIGS. 18A and 18B, the exposure control unit 24 performs subject brightness BV [in a range satisfying “2 ≦ j ≦ 9” (or a range satisfying “1 ≦ j ≦ 9”). When j] decreases monotonously with respect to the increase in variable j, a change determination is made, and the exposure value is changed from the input image I [5] toward the input image I [13] toward the high exposure side. Conversely, when the subject brightness BV [j] monotonously increases with respect to the increase of the variable j, the change determination is performed, and the exposure value is reduced from the input image I [5] to the input image I [13]. Change to the side. In the cases shown in FIGS. 18A and 18B, the subject brightness decreases globally toward the right side of the entire view 400. Therefore, changing the exposure value in accordance with the subject brightness changes the entire panorama composite image. This is because it is suitable for proper exposure. The same applies when a monotonous increase in subject brightness is observed. The change of the exposure value to the high exposure side is realized by decreasing the aperture value, decreasing the shutter speed (that is, increasing the exposure time), or increasing the photographing sensitivity. The change of the exposure value to the low exposure side is realized by increasing the aperture value, increasing the shutter speed (that is, decreasing the exposure time), or decreasing the photographing sensitivity.

また、露出制御部24は、図19(a)及び(b)に示すケースのように、被写体輝度BV[1]と被写体輝度BV[2]〜BV[9]の平均値との差が所定の差分閾値以上であって且つ被写体輝度BV[2]〜BV[9]の分散が所定値以下であるとき、変更判定を行う。被写体輝度BV[1]が被写体輝度BV[2]〜BV[9]の平均値より高いならば、入力画像I[5]の露出値よりも入力画像I[6]のそれを高くし、被写体輝度BV[1]が被写体輝度BV[2]〜BV[9]の平均値より低いならば、入力画像I[5]の露出値よりも入力画像I[6]のそれを低くする。図19(a)及び(b)に示すケースでは、領域H[1]及びH[2]間を境に被写体輝度の大域的な減少が観測されるため、それに追従して露出値を変更することが、パノラマ合成画像の全体の露出適正化に好適だからである。被写体輝度の大域的な増加が観測される場合も同様である。   Further, as in the case shown in FIGS. 19A and 19B, the exposure control unit 24 has a predetermined difference between the subject brightness BV [1] and the average value of the subject brightness BV [2] to BV [9]. Change determination is performed when the variance of the subject brightness BV [2] to BV [9] is equal to or less than a predetermined value. If the subject brightness BV [1] is higher than the average value of the subject brightness BV [2] to BV [9], the input image I [6] is made higher than the exposure value of the input image I [5], and the subject If the luminance BV [1] is lower than the average value of the subject luminance BV [2] to BV [9], the input image I [6] is made lower than the exposure value of the input image I [5]. In the cases shown in FIGS. 19A and 19B, since a global decrease in subject luminance is observed between the regions H [1] and H [2], the exposure value is changed following that. This is because it is suitable for optimizing the overall exposure of the panorama composite image. The same applies when a global increase in subject brightness is observed.

特に図示しないが、被写体輝度BV[1]と被写体輝度BV[2]〜BV[9]とが一致する場合には、非変更判定が成される。被写体輝度BV[1]と被写体輝度BV[j]との差が所定値以下であるとき(jは2以上9以下の整数)、被写体輝度BV[1]と被写体輝度BV[j]は一致しているとみなしてよい。   Although not particularly shown, when the subject brightness BV [1] and the subject brightness BV [2] to BV [9] match, the non-change determination is made. When the difference between the subject brightness BV [1] and the subject brightness BV [j] is less than or equal to a predetermined value (j is an integer between 2 and 9), the subject brightness BV [1] and the subject brightness BV [j] match. You may consider that

上述の如く切り出し領域CR及びAE評価領域が設定されるため、第1実施形態に係る輝度評価部23は、切り出し領域CRよりスイング方向に位置する領域内の被写体輝度を測光処理を用いて評価することができる。入力画像I[i]に関し、切り出し領域CRよりスイング方向に位置する領域内には、入力画像I[i]より後に撮影される入力画像の切り出し領域CR内の被写体が存在する。このため、輝度評価部23は、入力画像I[i]が取得された段階で、入力画像I[i]より後に撮影される入力画像の切り出し領域CR内の被写体輝度を予測することができ、露出制御部24は、その予測結果を用いて、入力画像I[i]より後に撮影される入力画像への露出制御を適正化することが可能になる(BV[2]〜BV[9]の取得が予測に相当)。この際、スイング方向に応じて切り出し領域CRが設定されるようにしておくことで(具体的には、図12、図13、図15(a)及び(b)に示す如く、スイング方向の逆方向に切り出し領域CRを偏って配置することで)、上記予測の可能な領域が拡大される。予測可能領域の拡大により、予測可能領域から得られる情報量が増大し、以後の入力画像に対して、どのような露出制御を行うことが最適であるのかを詳細に分析することが可能となる。結果、合成されるべき入力画像の露出制御をより適正なものにすることができる。   Since the cutout region CR and the AE evaluation region are set as described above, the luminance evaluation unit 23 according to the first embodiment evaluates the subject luminance in the region located in the swing direction from the cutout region CR using photometry processing. be able to. Regarding the input image I [i], a subject in the cutout area CR of the input image taken after the input image I [i] exists in the area located in the swing direction from the cutout area CR. For this reason, the luminance evaluation unit 23 can predict the subject luminance in the cutout region CR of the input image taken after the input image I [i] at the stage when the input image I [i] is acquired. The exposure control unit 24 can optimize exposure control for an input image captured after the input image I [i] using the prediction result (from BV [2] to BV [9]). Acquisition is equivalent to prediction). At this time, by setting the cutout region CR according to the swing direction (specifically, as shown in FIGS. 12, 13, 15A and 15B, the reverse of the swing direction). By arranging the cutout region CR in a biased direction), the predictable region is expanded. By expanding the predictable area, the amount of information obtained from the predictable area increases, and it becomes possible to analyze in detail what exposure control is optimal for subsequent input images. . As a result, the exposure control of the input image to be synthesized can be made more appropriate.

具体的には、予測可能領域の拡大によって、露出値変更が行われるべき大域的な輝度変化の存在有無を詳細に確認することが可能となり(切り出し領域CRを入力画像中央に固定しておいた場合、予測可能領域が狭くなって、スイング方向に沿った大域的な輝度変化を検出しづらくなる)、また、存在している輝度変化が露出値を固定しておくべき局所的な輝度変化であるのかを正確に判断することが可能となる。それらの確認及び判断結果に従って、各入力画像の露出制御を適正化することができる。   Specifically, by expanding the predictable area, it is possible to confirm in detail whether or not there is a global luminance change in which the exposure value should be changed (the cutout area CR is fixed at the center of the input image). In this case, the predictable area becomes narrow and it becomes difficult to detect a global luminance change along the swing direction). Also, the existing luminance change is a local luminance change whose exposure value should be fixed. It is possible to accurately determine whether there is any. The exposure control of each input image can be optimized according to the confirmation and determination results.

<<第2実施形態>>
本発明の第2実施形態を説明する。第2実施形態は第1実施形態を基礎とする実施形態であり、第2実施形態において特に述べない事項に関しては、特に記述無き限り且つ矛盾の無い限り、第1実施形態の記載が第2実施形態にも適用される。
<< Second Embodiment >>
A second embodiment of the present invention will be described. The second embodiment is an embodiment based on the first embodiment. With respect to matters not specifically described in the second embodiment, the description of the first embodiment is the second embodiment unless otherwise specified and there is no contradiction. Also applies to form.

第2実施形態では、カメラ1における動画像撮影及び記録の特徴的な動作を説明する。図20は、第2実施形態の特徴的な動作に特に関与する、カメラ1の一部ブロック図である。符号51〜56によって参照される各部位を図1の主制御部12に設けておくことができる。但し、制御部53、54及び55の内、何れか1つ又は2つを割愛することも可能である。図21に示す如く、撮像素子33の有効画素領域が撮影領域SRに相当すると共に入力画像の全体領域に相当すると考える。第2実施形態では、入力画像(有効画素領域)に設定された切り出し領域CR内の画像が、動画像500(図20参照)を形成するフレームに相当する。   In the second embodiment, characteristic operations of moving image shooting and recording in the camera 1 will be described. FIG. 20 is a partial block diagram of the camera 1 particularly related to the characteristic operation of the second embodiment. Each part referred by the codes | symbols 51-56 can be provided in the main control part 12 of FIG. However, any one or two of the control units 53, 54, and 55 can be omitted. As shown in FIG. 21, the effective pixel area of the image sensor 33 is considered to correspond to the imaging area SR and to the entire area of the input image. In the second embodiment, the image in the cutout region CR set in the input image (effective pixel region) corresponds to a frame forming the moving image 500 (see FIG. 20).

撮像部11は所定のフレーム周期で順次被写体の撮影を行い、これに伴って切り出し領域CRに各時刻の画像が形成される。動画像処理部51は、切り出し領域CR内の各時刻の画像を各時刻のフレームとして有する動画像500を生成する。即ち、処理部51は、撮像素子33にて順次取得される複数の入力画像の夫々に設定された切り出し領域CR内の画像信号から動画像500の画像信号を生成する。処理部51は、動画像500の画像信号を記録媒体14に記録することができる。第2実施形態における入力画像とは、動画像500の生成又は記録中に取得された入力画像を指す。   The imaging unit 11 sequentially captures the subject at a predetermined frame period, and accordingly, an image at each time is formed in the cutout region CR. The moving image processing unit 51 generates a moving image 500 having an image at each time in the cutout region CR as a frame at each time. That is, the processing unit 51 generates an image signal of the moving image 500 from the image signal in the cutout region CR set for each of the plurality of input images sequentially acquired by the image sensor 33. The processing unit 51 can record the image signal of the moving image 500 on the recording medium 14. The input image in the second embodiment refers to an input image acquired during generation or recording of the moving image 500.

切り出し領域CRは入力画像の全体領域と一致しうるが、第2実施形態では、切り出し領域CRは入力画像の全体領域よりも小さいものとする。カメラ1は所謂デジタルズームを行うことができ、特に例えば、デジタルズームの実行時において切り出し領域CRを入力画像の全体領域よりも小さくすることができる。以下では、説明の便宜上、切り出し領域CRの大きさは入力画像の全体領域よりも小さく且つ不変であるとする。   Although the cutout area CR can match the entire area of the input image, in the second embodiment, the cutout area CR is smaller than the entire area of the input image. The camera 1 can perform so-called digital zoom, and in particular, for example, when performing digital zoom, the cutout region CR can be made smaller than the entire region of the input image. In the following, for convenience of explanation, it is assumed that the size of the cutout region CR is smaller than the entire region of the input image and is unchanged.

切り出し領域設定部52は、カメラ動き検出部16の検出結果に基づき各入力画像に切り出し領域CRを設定する。動き検出部16は、カメラ1の動きに応じた信号を出力する動きセンサ(角加速度センサ、加速度センサなど)を用いて、又は、撮像素子33の出力信号に基づき、カメラ1が一定方向に動いているか否かを検出できると共に、カメラ1が一定方向に動いている場合には、その動きの方向(即ち、上述のスイング方向)を検出することができる。カメラ1が一定方向に動いているか否かの検出に、パン又はチルト操作の有無を判定する公知のパン/チルト判定方法を利用することができる。   The cutout region setting unit 52 sets a cutout region CR for each input image based on the detection result of the camera motion detection unit 16. The motion detection unit 16 uses a motion sensor (an angular acceleration sensor, an acceleration sensor, or the like) that outputs a signal corresponding to the motion of the camera 1, or based on the output signal of the image sensor 33, the camera 1 moves in a certain direction. It is possible to detect whether the camera 1 is moving in a certain direction, and it is possible to detect the direction of the movement (that is, the swing direction described above). A known pan / tilt determination method for determining the presence or absence of a pan or tilt operation can be used to detect whether or not the camera 1 is moving in a certain direction.

カメラ1が一定方向に動いていないと検出されることを非スイング検出と呼ぶ。カメラ1が右方向に動いている(即ちスイング方向が右方向である)と検出されることを、右スイング検出と呼び、カメラ1が左方向に動いている(即ちスイング方向が左方向である)と検出されることを、左スイング検出と呼ぶ。図22(a)、(b)、(c)における領域CRO、CRA、CRBは、夫々、非スイング検出時、右スイング検出時、左スイング検出時において、各入力画像に設定される切り出し領域CRを表している。切り出し領域CROの中心は例えば入力画像の中心と一致する。切り出し領域CROから見て切り出し領域CRA及びCRBの夫々は、スイング方向の逆方向にずれている。即ち、設定部52は、非スイング検出時の切り出し領域(基準切り出し領域CRO)から見て、右スイング検出時の切り出し領域(シフト切り出し領域CRA)を左方向にずらし、左スイング検出時の切り出し領域(シフト切り出し領域CRB)を右方向にずらず。 The detection that the camera 1 is not moving in a certain direction is called non-swing detection. The detection that the camera 1 is moving in the right direction (that is, the swing direction is the right direction) is called right swing detection, and the camera 1 is moving in the left direction (that is, the swing direction is the left direction). ) Is called left swing detection. Regions CR O , CR A , and CR B in FIGS. 22A, 22B, and 22C are set in each input image when a non-swing is detected, when a right swing is detected, and when a left swing is detected, respectively. A cutout region CR is shown. The center of the cutout region CR O coincides with the center of the input image, for example. Each of the clip region CR cutout region viewed from O CR A and CR B is displaced in the direction opposite to the swing direction. That is, the setting unit 52 shifts the cutout region (shift cutout region CR A ) at the time of detecting the right swing to the left as viewed from the cutout region at the time of non-swing detection (reference cutout region CR O ), and detects the left swing. The cutout area (shift cutout area CR B ) is not shifted to the right.

AE制御部53は、図7の露出情報取得部22、輝度評価部23及び露出制御部24を合わせた部位に相当する。AE制御部53は、各入力画像に設定されたAE評価領域内の被写体輝度を測光処理を用いて評価し、その評価結果を用いて各入力画像の撮影における露出制御値を設定する(即ち露出制御を行う)。露出制御値の設定が撮影感度の設定を含んでいる場合(図7参照)、設定された撮影感度に応じた信号増幅処理が動画像500の画像信号の生成過程において切り出し領域CR内の画像信号に対し実行される。   The AE control unit 53 corresponds to a part obtained by combining the exposure information acquisition unit 22, the luminance evaluation unit 23, and the exposure control unit 24 of FIG. The AE control unit 53 evaluates the subject luminance within the AE evaluation area set for each input image using photometry processing, and sets an exposure control value for photographing each input image using the evaluation result (that is, exposure). Control). When the setting of the exposure control value includes the setting of the photographing sensitivity (see FIG. 7), the signal amplification process corresponding to the set photographing sensitivity is performed in the image signal generation process of the moving image 500. Is executed.

AF評価部54は、各入力画像に設定されたAF評価領域内の画像信号に基づき各入力画像の撮影における焦点調整を行う。当該焦点調整は、撮像素子33上に被写体の像が結像するように、撮像素子33とフォーカスレンズ31との位置関係を調整することで実現される(図2参照)。その位置関係の調整は、被写体と撮像素子33との間に配置されるフォーカスレンズ31の位置調整によって実現されるものとする。但し、撮像部11の光軸方向に撮像素子33が移動できるように撮像部11を形成しておき、上記位置関係の調整を、フォーカスレンズ31又は撮像素子33の位置調整、或いは、フォーカスレンズ31及び撮像素子33の位置調整によって実現しても良い。   The AF evaluation unit 54 performs focus adjustment in photographing each input image based on the image signal in the AF evaluation area set for each input image. The focus adjustment is realized by adjusting the positional relationship between the image sensor 33 and the focus lens 31 so that an image of a subject is formed on the image sensor 33 (see FIG. 2). The adjustment of the positional relationship is realized by adjusting the position of the focus lens 31 disposed between the subject and the image sensor 33. However, the imaging unit 11 is formed so that the imaging device 33 can move in the optical axis direction of the imaging unit 11, and the positional relationship is adjusted by adjusting the position of the focus lens 31 or the imaging device 33 or the focus lens 31. Alternatively, it may be realized by adjusting the position of the image sensor 33.

AWB制御部55は、各入力画像に設定されたAWB評価領域内の画像信号に基づき撮影におけるホワイトバランス調整(即ち各入力画像のホワイトバランス調整)を行う。ホワイトバランス調整では、AWB評価領域の画像信号に基づくAWB評価領域内の被写体の色温度に応じた所定の色補正処理が、動画像500の画像信号の生成過程において、切り出し領域CR内の画像信号に対し実行される。結果、動画像500の各フレームはホワイトバランス調整後の画像となる。   The AWB control unit 55 performs white balance adjustment in shooting (that is, white balance adjustment of each input image) based on the image signal in the AWB evaluation area set for each input image. In the white balance adjustment, a predetermined color correction process according to the color temperature of the subject in the AWB evaluation area based on the image signal in the AWB evaluation area is performed in the generation process of the image signal of the moving image 500. Is executed. As a result, each frame of the moving image 500 becomes an image after white balance adjustment.

評価領域設定部(対象評価領域設定部)56は、切り出し領域CRに応じてAE、AF及びAWB評価領域を設定する。AE、AF及びAWB評価領域の内、切り出し領域CRに依存する評価領域を対象評価領域という。AE、AF及びAWB評価領域の夫々が対象評価領域であっても良いし、AE、AF及びAWB評価領域の内の任意の1つ又は任意の2つが対象評価領域であっても良い。   The evaluation region setting unit (target evaluation region setting unit) 56 sets AE, AF, and AWB evaluation regions according to the cutout region CR. Of the AE, AF, and AWB evaluation areas, an evaluation area that depends on the cutout area CR is referred to as a target evaluation area. Each of the AE, AF, and AWB evaluation areas may be the target evaluation area, and any one or two of the AE, AF, and AWB evaluation areas may be the target evaluation area.

図23(a)、(b)、(c)において、領域TERO、TERA、TERBは、夫々、非スイング検出時、右スイング検出時、左スイング検出時において、各入力画像に設定される対象評価領域を表している。 In FIGS. 23A, 23B, and 23C, regions TER O , TER A , and TER B are set for each input image when non-swing is detected, when right swing is detected, and when left swing is detected, respectively. Represents the target evaluation area.

非スイング検出時に設定される対象評価領域TEROは、切り出し領域CROの全部又は一部から成る。切り出し領域CROの外側の領域が対象評価領域TEROに更に含まれていても構わない。 The target evaluation area TER O set at the time of non-swing detection consists of all or part of the cut-out area CR O. The region outside of the clip region CR O is may also be further included in the target evaluation region TER O.

右スイング検出時、左スイング検出時のどちらであっても、各入力画像において、対象評価領域は、切り出し領域CRよりスイング方向に位置する領域を内包している。即ち、設定部56は、右スイング検出時、切り出し領域CRAより右側に位置する領域を少なくとも対象評価領域に含め(図23(b)参照)、左スイング検出時、切り出し領域CRBより左側に位置する領域を少なくとも対象評価領域に含める(図23(c)参照)。 Regardless of whether the right swing is detected or the left swing is detected, in each input image, the target evaluation region includes a region located in the swing direction from the cutout region CR. That is, the setting unit 56, when the right swing detection, including at least the target evaluation area a region located to the right of the cut-out region CR A (see FIG. 23 (b)), at the left swing detection, on the left side of the cutout region CR B The located area is included in at least the target evaluation area (see FIG. 23C).

また、右スイング検出時、左スイング検出時のどちらであっても、各入力画像において、対象評価領域は切り出し領域CRの全部又は一部を内包しているが、対象評価領域が切り出し領域CRを全く内包しないように(対象評価領域と切り出し領域CRが部分的にも重複しないように)対象評価領域を設定することも可能である。   Moreover, in either of the right swing detection and the left swing detection, in each input image, the target evaluation area includes all or part of the cutout area CR, but the target evaluation area includes the cutout area CR. It is also possible to set the target evaluation area so that it is not included at all (so that the target evaluation area and the cutout area CR do not partially overlap).

設定部56は、スイング方向に応じて各入力画像における対象評価領域の位置及び大きさを可変設定しても良い。例えば、各入力画像において、スイング方向が右方向であるときの対象評価領域の位置(中心又は重心位置)を、スイング方向が左方向であるときの対象評価領域の位置(中心又は重心位置)よりも右側に配置しても良い。但し、各入力画像における対象評価領域の位置及び大きさはスイング方向に依存していなくても良い(この場合、図23(a)及び(b)の対象評価領域TERA及びTERBは全く同じものになる)。尚、本実施形態では、対象評価領域が矩形領域であることを想定しているが、その形状は矩形に限定されない。 The setting unit 56 may variably set the position and size of the target evaluation area in each input image according to the swing direction. For example, in each input image, the position of the target evaluation area (center or barycentric position) when the swing direction is the right direction is greater than the position of the target evaluation area (center or barycentric position) when the swing direction is the left direction. May be arranged on the right side. However, the position and size of the target evaluation area in each input image may not depend on the swing direction (in this case, the target evaluation areas TER A and TER B in FIGS. 23A and 23B are exactly the same). To become a thing). In the present embodiment, it is assumed that the target evaluation area is a rectangular area, but the shape is not limited to a rectangle.

[露出制御具体例]
スイング方向が右方向であると限定して考えて、露出制御の具体例を説明する。ここでは、図24に示す、時刻t1における撮影領域SR[1]及び入力画像I[1]を基準にして考える。従って、第2実施形態に係る基準入力画像は入力画像I[1]である。
[Example of exposure control]
A specific example of exposure control will be described with the assumption that the swing direction is the right direction. Here, the imaging region SR [1] and the input image I [1] at time t 1 shown in FIG. 24 are considered as a reference. Therefore, the reference input image according to the second embodiment is the input image I [1].

撮影領域SR[1]及び入力画像I[1]には、水平方向に沿って並ぶ領域L[1]〜L[9]が含まれている。任意の整数jに対して、領域L[j+1]は領域L[j]の右側に隣接している。入力画像I[1]に設定される切り出し領域CRAは領域L[1]を含むが、領域L[2]〜L[9]を含まないものとする。設定部56(又は制御部53、54若しくは55)は、カメラ1の動きの速度が一定に保たれるという仮定の下、時刻tiの入力画像I[i]の切り出し領域CRAに領域L[i]内の被写体が含まれるように、カメラ1の動きの速度に基づき領域L[i]の水平方向の大きさを定義する(ここでは、この定義の結果、撮影領域SR[1]及び入力画像I[1]に領域L[1]〜L[9]が含まれることになった場合を考える)。入力画像I[1]の対象評価領域は、入力画像I[1]の切り出し領域CRよりスイング方向に位置する領域L[2]〜L[9]を含み、領域L[1]を更に含みうる。 The shooting area SR [1] and the input image I [1] include areas L [1] to L [9] arranged in the horizontal direction. For any integer j, region L [j + 1] is adjacent to the right side of region L [j]. The cutout region CR A set for the input image I [1] includes the region L [1], but does not include the regions L [2] to L [9]. The setting unit 56 (or the control unit 53, 54, or 55) assumes a region L in the cutout region CR A of the input image I [i] at time t i under the assumption that the speed of movement of the camera 1 is kept constant. The horizontal size of the region L [i] is defined based on the speed of movement of the camera 1 so that the subject in [i] is included (here, as a result of this definition, the shooting region SR [1] and Consider the case where the input image I [1] includes regions L [1] to L [9]). The target evaluation region of the input image I [1] includes regions L [2] to L [9] positioned in the swing direction from the cutout region CR of the input image I [1], and may further include a region L [1]. .

---AE制御部によるAE変更判定/非変更判定---
第2実施形態における基準測光処理は、入力画像I[1]の取得時の測光処理(即ち時刻t1における測光処理)である。基準測光処理によって、入力画像I[1]のAE評価領域内の被写体輝度が評価される。AE制御部53は、基準測光処理に基づく、領域H[2]〜H[9]内の被写体輝度又は領域H[1]〜H[9]内の被写体輝度の評価結果に基づき、基準入力画像(I[1])よりも後に撮影される入力画像(I[2]〜I[9]の全部又は一部)に対する露出制御値の設定及び露出制御を行う。
--- AE change judgment / non-change judgment by AE control section ---
The reference photometry processing in the second embodiment is photometry processing at the time of acquisition of the input image I [1] (that is, photometry processing at time t 1 ). The subject luminance in the AE evaluation area of the input image I [1] is evaluated by the reference photometry process. The AE control unit 53 uses the reference input image based on the evaluation result of the subject brightness in the regions H [2] to H [9] or the subject brightness in the regions H [1] to H [9] based on the reference metering process. An exposure control value is set and exposure control is performed for an input image (all or part of I [2] to I [9]) taken after (I [1]).

AE制御部53は、基準測光処理において、入力画像I[1]〜I[9]の切り出し領域CRAに含まれる又は含まれることが予想される領域L[1]〜L[9]の被写体輝度を個別に求めることができ、基準測光処理によって求められた領域L[1]〜L[9]の被写体輝度の値を、夫々、評価値VALAE[1]〜VALAE[9]にて表す。尚、入力画像I[1]のAE評価領域が領域L[1]を含まない場合、基準測光処理によって評価値VALAE[1]は導出されない。 The AE control unit 53 includes subjects in the areas L [1] to L [9] that are or are expected to be included in the cutout area CR A of the input images I [1] to I [9] in the reference photometry process. The brightness can be obtained individually, and the values of the subject brightness in the areas L [1] to L [9] obtained by the reference photometry processing are respectively obtained as evaluation values VAL AE [1] to VAL AE [9]. Represent. When the AE evaluation area of the input image I [1] does not include the area L [1], the evaluation value VAL AE [1] is not derived by the reference photometry process.

AE制御部53は、領域L[2]〜L[9]を含む領域又は領域L[1]〜L[9]を含む領域内の、スイング方向に沿った被写体輝度(VALAE[j])の変化状態に基づき、基準入力画像(I[1])と基準入力画像よりも後に撮影される入力画像(I[2]〜I[9]の全部又は一部)との間で、露出制御値(従って実際の露出値)を変更するか否かを決定する。その変更を行うと決定することをAE変更判定と呼び、その変更を行わないと決定することをAE非変更判定と呼ぶ。AE制御部53は、AE変更判定を成したとき、例えば入力画像I[2]の露出制御値(従って実際の露出値)を入力画像I[1]のそれと異ならせ、AE非変更判定を成したとき、少なくとも入力画像I[2]の露出制御値(従って実際の露出値)を入力画像I[1]のそれと一致させる。 The AE control unit 53 subjects brightness (VAL AE [j]) along the swing direction in the region including the regions L [2] to L [9] or the region including the regions L [1] to L [9]. Exposure control between a reference input image (I [1]) and an input image (all or part of I [2] to I [9]) taken after the reference input image based on the change state of Determine whether to change the value (and hence the actual exposure value). Determining that the change is made is called AE change determination, and deciding not to make the change is called AE non-change determination. When making the AE change determination, for example, the AE control unit 53 makes the AE non-change determination by making the exposure control value (and hence the actual exposure value) of the input image I [2] different from that of the input image I [1]. When this is done, at least the exposure control value (and hence the actual exposure value) of the input image I [2] is matched with that of the input image I [1].

---AF制御部によるAF変更判定/非変更判定---
AF制御部54は、入力画像I[1]のAF評価領域の画像信号に基づくAF評価処理によって、入力画像I[1]のAF評価領域内の合焦状態(ピントが合っているか否か)を評価する。AF制御部54は、入力画像I[1]の領域L[j]内の画像信号に基づき領域L[j]のAF評価値である評価値VALAF[j]を求める処理を領域L[1]〜L[9]の夫々に対して行うことで、評価値VALAF[1]〜VALAF[9]を求める。評価値VALAF[j]は、入力画像I[1]の領域L[j]内の画像のコントラストに比例する値を持つ。入力画像I[1]の領域L[j]内の空間周波数成分の内、所定周波数以上を有する空間周波数成分をハイパスフィルタ等を用いて抽出し、抽出成分を当該領域L[j]内で積算することで評価値VALAF[j]を得ることができる。評価値VALAF[j]は、入力画像I[1]の領域L[j]内の合焦状態を表しており、領域L[j]内の被写体にピントが合っているほど評価値VALAF[j]は大きくなる。
--- AF change judgment / non-change judgment by AF control section ---
The AF control unit 54 is in focus in the AF evaluation area of the input image I [1] by the AF evaluation process based on the image signal of the AF evaluation area of the input image I [1] (whether or not it is in focus). To evaluate. The AF control unit 54 performs processing for obtaining an evaluation value VAL AF [j] that is an AF evaluation value of the region L [j] based on the image signal in the region L [j] of the input image I [1]. ] To L [9] to obtain evaluation values VAL AF [1] to VAL AF [9]. The evaluation value VAL AF [j] has a value proportional to the contrast of the image in the area L [j] of the input image I [1]. Among the spatial frequency components in the region L [j] of the input image I [1], spatial frequency components having a predetermined frequency or higher are extracted using a high-pass filter or the like, and the extracted components are integrated in the region L [j]. As a result, the evaluation value VAL AF [j] can be obtained. The evaluation value VAL AF [j] represents the in-focus state in the area L [j] of the input image I [1], and the evaluation value VAL AF is increased as the subject in the area L [j] is in focus. [J] increases.

AF制御部54は、評価値VALAF[2]〜VALAF[9]又はVALAF[1]〜VALAF[9]に基づき、基準入力画像(I[1])よりも後に撮影される入力画像(I[2]〜I[9]の全部又は一部)の撮影時におけるフォーカスレンズ31の位置を決定することができる(即ち焦点調整を行うことができる)。 Input AF control unit 54, which based on the evaluation value VAL AF [2] ~VAL AF [ 9] or VAL AF [1] ~VAL AF [ 9], the reference input image (I [1]) is taken after the It is possible to determine the position of the focus lens 31 at the time of shooting an image (all or part of I [2] to I [9]) (that is, focus adjustment can be performed).

この際、AF制御部54は、領域L[2]〜L[9]を含む領域又は領域L[1]〜L[9]を含む領域内の、スイング方向に沿った合焦状態の変化状態(VALAF[j])に基づき、基準入力画像(I[1])と基準入力画像よりも後に撮影される入力画像(I[2]〜I[9]の全部又は一部)との間で、フォーカスレンズ31の位置を変更するか否かを決定する。その変更を行うと決定することをAF変更判定と呼び、その変更を行わないと決定することをAF非変更判定と呼ぶ。AF制御部54は、AF変更判定を成したとき、例えば入力画像I[2]の撮影時のフォーカスレンズ31の位置を入力画像I[1]のそれと異ならせ、AF非変更判定を成したとき、少なくとも入力画像I[2]の撮影時のフォーカスレンズ31の位置を入力画像I[1]のそれと一致させる。 At this time, the AF control unit 54 changes the focus state along the swing direction in the region including the regions L [2] to L [9] or the region including the regions L [1] to L [9]. Based on (VAL AF [j]), between the reference input image (I [1]) and an input image (all or part of I [2] to I [9]) taken after the reference input image Thus, it is determined whether or not to change the position of the focus lens 31. Determining that the change is made is called AF change determination, and deciding not to make the change is called AF non-change determination. When the AF control unit 54 makes an AF change determination, for example, when the position of the focus lens 31 at the time of shooting the input image I [2] is made different from that of the input image I [1], an AF non-change determination is made. At least the position of the focus lens 31 at the time of photographing the input image I [2] is made to coincide with that of the input image I [1].

或いは、AF制御部54は、入力画像I[1]の領域L[j]内の被写体の被写体距離を求める処理を領域L[1]〜L[9]の夫々に対して行うことで評価値VALAF[1]〜VALAF[9]を求めても良く、この場合における評価値VALAF[j]は、入力画像I[1]の領域L[j]内に存在する被写体の被写体距離の値を持つ。或る被写体の被写体距離とは、当該被写体とカメラ1との実空間上の距離を指す。カメラ1を動かしながら得た複数の入力画像間には視差が存在する。従って、AF制御部54は、領域L[1]〜L[9]内の被写体の画像信号を含む複数の入力画像の画像信号を用い、三角測量の原理を用いて、各被写体距離としての評価値VALAF[1]〜VALAF[9]を求めることができる。被写体距離を示す評価値VALAF[j]を求めた場合、AF制御部54は、領域L[2]〜L[9]を含む領域又は領域L[1]〜L[9]を含む領域内の、スイング方向に沿った被写体距離(VALAF[j])の変化状態に基づき、AF変更判定又はAF非変更判定を選択的に成しても良い。 Alternatively, the AF control unit 54 performs the process of obtaining the subject distance of the subject in the region L [j] of the input image I [1] on each of the regions L [1] to L [9], thereby evaluating the evaluation value. VAL AF [1] may also be determined ~VAL AF [9], the evaluation value VAL AF [j] in the case, the input image I [1] region L [j] of the subject distance of the subject present in the Has a value. The subject distance of a certain subject refers to the distance in real space between the subject and the camera 1. There is parallax between a plurality of input images obtained while moving the camera 1. Therefore, the AF control unit 54 uses the image signals of a plurality of input images including the image signals of the subjects in the regions L [1] to L [9], and evaluates each subject distance using the principle of triangulation. can determine the value VAL AF [1] ~VAL AF [ 9]. When the evaluation value VAL AF [j] indicating the subject distance is obtained, the AF control unit 54 includes the area including the areas L [2] to L [9] or the area including the areas L [1] to L [9]. The AF change determination or the AF non-change determination may be selectively made based on the change state of the subject distance (VAL AF [j]) along the swing direction.

---AWB制御部によるAWB変更判定/非変更判定---
AWB制御部55は、入力画像I[1]の領域L[j]内の画像信号に基づき領域L[j]のAWB評価値である評価値VALAWB[j]を求める処理を領域L[1]〜L[9]の夫々に対して行うことで、評価値VALAWB[1]〜VALAWB[9]を求める。評価値VALAWB[j]は、入力画像I[1]の領域L[j]内の色温度を示す。
--- AWB change judgment / non-change judgment by AWB control part ---
The AWB control unit 55 performs processing for obtaining the evaluation value VAL AWB [j], which is the AWB evaluation value of the region L [j], based on the image signal in the region L [j] of the input image I [1]. ] To L [9] to obtain evaluation values VAL AWB [1] to VAL AWB [9]. The evaluation value VAL AWB [j] indicates the color temperature in the region L [j] of the input image I [1].

AWB制御部55は、入力画像I[1]のAWB評価領域の画像信号に基づく評価値VALAWB[2]〜VALAWB[9]又はVALAWB[1]〜VALAWB[9]に基づき、基準入力画像(I[1])よりも後に撮影される入力画像(I[2]〜I[9]の全部又は一部)に対するホワイトバランス調整を行うことができる(即ち、上記色補正処理の内容を決定することができる)。 AWB control unit 55, based on the evaluation value VAL AWB based on the image signal of the AWB evaluation area [2] ~VAL AWB [9] or VAL AWB [1] ~VAL AWB [ 9] of the input image I [1], the reference White balance adjustment can be performed on an input image (all or part of I [2] to I [9]) taken after the input image (I [1]) (that is, the content of the color correction process). Can be determined).

AWB制御部55は、領域L[2]〜L[9]を含む領域又は領域L[1]〜L[9]を含む領域内の、スイング方向に沿った色温度の変化状態(VALAWB[j])に基づき、基準入力画像(I[1])と基準入力画像よりも後に撮影される入力画像(I[2]〜I[9]の全部又は一部)との間で、適用する色補正処理を変更するか否かを決定する。その変更を行うと決定することをAWB変更判定と呼び、その変更を行わないと決定することをAWB非変更判定と呼ぶ。AWB制御部55は、AWB変更判定を成したとき、例えば、入力画像I[2]の切り出し領域CRの画像信号に適用される色補正処理を入力画像I[1]のそれと異ならせ、AWB非変更判定を成したとき、少なくとも入力画像I[2]の切り出し領域CRの画像信号に適用される色補正処理を入力画像I[1]のそれと一致させる。 The AWB control unit 55 changes the color temperature along the swing direction (VAL AWB [VAL] in the region including the regions L [2] to L [9] or the region including the regions L [1] to L [9]. j]) and applied between the reference input image (I [1]) and the input image (all or part of I [2] to I [9]) taken after the reference input image. It is determined whether or not to change the color correction process. Determining that the change is made is called AWB change determination, and deciding not to make the change is called AWB non-change determination. When the AWB change determination is made, for example, the AWB control unit 55 makes the color correction processing applied to the image signal of the cutout region CR of the input image I [2] different from that of the input image I [1], and the AWB non- When the change determination is made, at least the color correction processing applied to the image signal in the cutout region CR of the input image I [2] is made to match that of the input image I [1].

---変更判定/非変更判定の具体的区別例---
動画像500の撮影及び記録において、大域的な輝度変化、合焦状態変化(若しくは被写体距離変化)又は色温度変化がみられる場合には、各変化に応じて、露出値、フォーカスレンズ31の位置、色補正処理を変更することが望ましいが、そのような変更を局所的な変化に対しても実行すると、動画像500上において輝度の連続性が損なわれて動画像500がちらつく、或いは、動画像500上において焦点の合う被写体距離が過度に変動して不自然な動画像500が得られる、或いは、動画像500中の物体の色が不自然に変動する、といったおそれがある。これを考慮して、以下のような変更判定/非変更判定を行うことができる。以下の変更判定/非変更判定を、制御部53、54及び55の夫々に対して適用できるため、それらをまとめて説明すべく、以下の変更判定/非変更判定を行う制御部を対象制御部と呼ぶ。対象制御部は、制御部53、54又は55である。以下の説明における評価値VAL[j]、変更判定、非変更判定は、対象制御部がAE制御部53である場合には評価値VALAE[j]、AE変更判定、AE非変更判定を指し、対象制御部がAF制御部54である場合には評価値VALAF[j]、AF変更判定、AF非変更判定を指し、対象制御部がAWB制御部55である場合には評価値VALAWB[j]、AWB変更判定、AWB非変更判定を指す。
--- Specific distinction between change judgment / non-change judgment ---
When a global luminance change, in-focus state change (or subject distance change), or color temperature change is observed during shooting and recording of the moving image 500, the exposure value and the position of the focus lens 31 are changed according to each change. It is desirable to change the color correction process. However, if such a change is also performed for a local change, the continuity of luminance is lost on the moving image 500 and the moving image 500 flickers, or a moving image is displayed. There is a possibility that the subject distance in focus on the image 500 varies excessively and an unnatural moving image 500 is obtained, or the color of an object in the moving image 500 varies unnaturally. Considering this, the following change determination / non-change determination can be performed. Since the following change determination / non-change determination can be applied to each of the control units 53, 54, and 55, the control unit that performs the following change determination / non-change determination is referred to as the target control unit in order to explain them collectively. Call it. The target control unit is the control unit 53, 54, or 55. In the following description, evaluation value VAL [j], change determination, and non-change determination indicate evaluation value VAL AE [j], AE change determination, and AE non-change determination when the target control unit is AE control unit 53. When the target control unit is the AF control unit 54, the evaluation value VAL AF [j], AF change determination, AF non-change determination is indicated, and when the target control unit is the AWB control unit 55, the evaluation value VAL AWB [J], AWB change determination, AWB non-change determination.

対象制御部は、評価値VAL[j]を変数jの関数であると捉える(但し、jは2以上9以下の整数又は1以上9以下の整数)。そして、図25に示す如く、“2≦j≦9”を満たす範囲(又は“1≦j≦9”を満たす範囲)において、評価値VAL[j]が変数jの増大に対して増加したり減少したりする場合、非変更判定を行う。即ち、当該関数において、変数jの増大に対し評価値VAL[j]が増大する区間と減少する区間が混在するとき、非変更判定を行う。このようなケースにおける評価値の変化は、局所的な変化に相当すると考えられるからである。   The target control unit regards the evaluation value VAL [j] as a function of the variable j (where j is an integer of 2 to 9 or an integer of 1 to 9). Then, as shown in FIG. 25, in the range satisfying “2 ≦ j ≦ 9” (or the range satisfying “1 ≦ j ≦ 9”), the evaluation value VAL [j] increases as the variable j increases. If it decreases, a non-change determination is performed. That is, in the function, when there are both a section in which the evaluation value VAL [j] increases and a section in which the evaluation value VAL [j] decreases with respect to the increase in the variable j, the non-change determination is performed. This is because the change in the evaluation value in such a case is considered to correspond to a local change.

一方、対象制御部は、図26に示す如く、“2≦j≦9”を満たす範囲(又は“1≦j≦9”を満たす範囲)において、評価値VAL[j]が変数jの増大に対して単調に減少する場合には変更判定を行う。逆に、評価値VAL[j]が変数jの増大に対して単調に増大する場合にも変更判定を行う。このようなケースにおける評価値の変化は、大域的な変化に相当すると考えられるからである。   On the other hand, as shown in FIG. 26, the target control unit increases the variable j in the evaluation value VAL [j] in a range satisfying “2 ≦ j ≦ 9” (or a range satisfying “1 ≦ j ≦ 9”). On the other hand, when it decreases monotonously, a change determination is performed. Conversely, a change determination is also made when the evaluation value VAL [j] monotonically increases with respect to the increase of the variable j. This is because the change in the evaluation value in such a case is considered to correspond to a global change.

また、対象制御部は、図27に示すケースのように、評価値VAL[1]と評価値VAL[2]〜VAL[9]の平均値との差が所定の差分閾値以上であって且つ評価値VAL[2]〜VAL[9]の分散が所定値以下であるとき、変更判定を行う。このようなケースにおける評価値の変化も、大域的な変化に相当すると考えられるからである。   In addition, as in the case shown in FIG. 27, the target control unit has a difference between the evaluation value VAL [1] and the average value of the evaluation values VAL [2] to VAL [9] equal to or greater than a predetermined difference threshold value. When the variance of the evaluation values VAL [2] to VAL [9] is equal to or less than a predetermined value, a change determination is performed. This is because the change in the evaluation value in such a case is considered to correspond to a global change.

特に図示しないが、評価値VAL[1]と評価値VAL[2]〜VAL[9]とが一致する場合には、非変更判定が成される。評価値VAL[1]と評価値VAL[j]との差が所定値以下であるとき(jは2以上9以下の整数)、評価値VAL[1]と評価値VAL[j]は一致しているとみなしてよい。   Although not particularly shown, when the evaluation value VAL [1] and the evaluation values VAL [2] to VAL [9] match, the non-change determination is made. When the difference between the evaluation value VAL [1] and the evaluation value VAL [j] is less than or equal to a predetermined value (j is an integer of 2 to 9), the evaluation value VAL [1] and the evaluation value VAL [j] match. You may consider that

本実施形態の如く切り出し領域CR及び対象評価領域を設定することにより、制御部53、54、55は、切り出し領域CRよりスイング方向に位置する領域内の被写体輝度、合焦状態又は被写体距離、ホワイトバランス状態(色温度)を評価することができる。入力画像I[i]に関し、切り出し領域CRよりスイング方向に位置する領域内には、入力画像I[i]より後に撮影される入力画像の切り出し領域CR内の被写体が存在する。このため、制御部53、54、55は、入力画像I[i]が取得された段階で、入力画像I[i]より後に撮影される入力画像の切り出し領域CR内の被写体輝度、合焦状態又は被写体距離、ホワイトバランス状態(色温度)を予測することができ、その予測結果を用いて、入力画像I[i]より後に撮影される入力画像への露出制御、焦点調整、ホワイトバランス調整を適正化することが可能になる(評価値VAL[2]〜VAL[9]の取得が予測に相当)。この際、スイング方向に応じて切り出し領域CRが設定されるようにしておくことで(具体的には、図23(b)及び(c)に示す如く、スイング方向の逆方向に切り出し領域CRを偏って配置することで)予測可能領域が拡大される。予測可能領域の拡大により、予測可能領域から得られる情報量が増大し、以後の入力画像に対して、どのような露出制御、焦点調整、ホワイトバランス調整を行うことが最適であるのかを詳細に分析することが可能となり、結果、それらをより適正なものにすることができる。   By setting the cutout region CR and the target evaluation region as in this embodiment, the control units 53, 54, and 55 allow the subject brightness, focus state or subject distance, white in the region located in the swing direction from the cutout region CR. The balance state (color temperature) can be evaluated. Regarding the input image I [i], a subject in the cutout area CR of the input image taken after the input image I [i] exists in the area located in the swing direction from the cutout area CR. For this reason, the control units 53, 54, and 55, when the input image I [i] is acquired, the subject brightness and focus state in the cutout region CR of the input image taken after the input image I [i]. Alternatively, the subject distance and the white balance state (color temperature) can be predicted, and the prediction result is used to perform exposure control, focus adjustment, and white balance adjustment for an input image taken after the input image I [i]. It becomes possible to optimize (acquisition of evaluation values VAL [2] to VAL [9] corresponds to prediction). At this time, by setting the cutout region CR according to the swing direction (specifically, as shown in FIGS. 23B and 23C, the cutout region CR is set in the direction opposite to the swing direction. The predictable area is expanded (by being biased). By expanding the predictable area, the amount of information obtained from the predictable area increases, and details on what exposure control, focus adjustment, and white balance adjustment are optimal for subsequent input images Can be analyzed and, as a result, they can be made more appropriate.

より具体的には、予測可能領域の拡大によって、露出値変更が行われるべき大域的な輝度変化の存在有無、フォーカスレンズ31(及び/又は撮像素子33)の位置変更が行われるべき大域的な合焦状態又は被写体距離の変化の有無、ホワイトバランス用の色補正処理の変更が行われるべき大域的な色温度変化の存在有無を詳細に確認することが可能となる(切り出し領域CRを入力画像中央に固定しておいた場合、予測可能領域が狭くなって、それらの大域的な変化を検出しづらくなる)。また、存在している輝度変化が露出値を固定しておくべき局所的な輝度変化に相当するのか、存在している合焦状態又は被写体距離の変化がフォーカスレンズ31(及び/又は撮像素子33)を固定しておくべき局所的な合焦状態又は被写体距離の変化に相当するのか、存在している色温度変化が色補正処理を固定しておくべき局所的な色温度変化であるのかを正確に判断することが可能となる。それらの確認及び判断結果に従って、各入力画像の露出制御、焦点調整及びホワイトバランス調整を適正化することができる。   More specifically, the presence / absence of a global luminance change for which the exposure value should be changed and the position change of the focus lens 31 (and / or the image sensor 33) should be changed by expanding the predictable region. It is possible to confirm in detail whether or not there is a change in the in-focus state or subject distance, and whether or not there is a global color temperature change that should be changed in the color correction processing for white balance (the cutout region CR is input image) If they are fixed in the center, the predictable areas become narrower and it is difficult to detect their global changes). Also, whether the existing luminance change corresponds to a local luminance change whose exposure value should be fixed, or the existing focus state or subject distance change is the focus lens 31 (and / or the image sensor 33). ) Is equivalent to a local focus state change or subject distance change to be fixed, or whether the existing color temperature change is a local color temperature change to which the color correction processing should be fixed It becomes possible to judge accurately. The exposure control, focus adjustment, and white balance adjustment of each input image can be optimized according to the confirmation and determination results.

<<変形等>>
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態に適用可能な注釈事項として、以下に、注釈1及び注釈2を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The embodiment of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims. The above embodiment is merely an example of the embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the above embodiment. The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As annotations applicable to the above-described embodiment, annotation 1 and annotation 2 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
上述の各実施形態では、スイング方向が右又は左方向であることを主として想定したが、スイング方向が上又は下方向であるときも、また、スイング方向が上下左右以外の任意の方向であるときも、上述と同様の主旨に従って、切り出し領域及び任意の評価領域の設定を含む上述の各処理が行われる。例えば、スイング方向が上方向ならば、スイング方向が右方向であることを想定した上述の各説明文の“右”、“左”を、夫々、“上”、“下”に読み替えればよい。
[Note 1]
In each of the above-described embodiments, it is mainly assumed that the swing direction is right or left. However, when the swing direction is upward or downward, or when the swing direction is any direction other than up / down / left / right. In addition, the above-described processes including the setting of the cut-out area and the arbitrary evaluation area are performed according to the same principle as described above. For example, if the swing direction is upward, “right” and “left” in the above explanations assuming that the swing direction is rightward may be read as “up” and “down”, respectively. .

スイング方向が斜め方向の場合も同様である。例えば、第2実施形態においてスイング方向が右斜め上方向である場合、図28の切り出し領域CRC及び対象評価領域TERCを設定することができる。切り出し領域CRCは、非スイング検出時の切り出し領域CRO(図23(a)参照)から見て、スイング方向の逆方向にずれている。入力画像において、対象評価領域TERCは、切り出し領域CRCよりスイング方向に位置する領域を内包しており、更に切り出し領域CRCの全部又は一部を内包しうる。 The same applies when the swing direction is oblique. For example, when the swing direction in the second embodiment is a upper right direction, it is possible to set the cut-out region CR C and the target evaluation region TER C in Figure 28. Cutout region CR C, when viewed from the cutout region CR O at the time of non-swing detection (see FIG. 23 (a)), are offset in the direction opposite to the swing direction. In the input image, the target evaluation region TER C is the enclosing region located from the cutout region CR C in the swing direction may be further contained all or part of the region CR C cut.

[注釈2]
主制御部12又はカメラ1である対象装置を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。対象装置にて実現される機能の全部又は一部である任意の特定の機能をプログラムとして記述して、該プログラムを対象装置に搭載可能なフラッシュメモリに保存しておき、該プログラムをプログラム実行装置(例えば、対象装置に搭載可能なマイクロコンピュータ)上で実行することによって、その特定の機能を実現するようにしてもよい。上記プログラムは任意の記録媒体(不図示)に記憶及び固定されうる。上記プログラムを記憶及び固定する記録媒体(不図示)は対象装置と異なる機器(サーバ機器等)に搭載又は接続されても良い。
[Note 2]
The target device that is the main control unit 12 or the camera 1 can be configured by hardware or a combination of hardware and software. Arbitrary specific functions that are all or part of the functions realized in the target device are described as a program, the program is stored in a flash memory that can be mounted on the target device, and the program is executed by the program execution device. The specific function may be realized by executing on a microcomputer (for example, a microcomputer that can be mounted on the target device). The program can be stored and fixed in an arbitrary recording medium (not shown). A recording medium (not shown) for storing and fixing the program may be mounted or connected to a device (such as a server device) different from the target device.

1 カメラ
11 撮像部
16 カメラ動き検出部
23 輝度評価部
24 露出制御部
25 パノラマ合成部
26 切り出し領域設定部
33 撮像素子
51 動画像処理部
52 切り出し領域設定部
53 AE制御部
54 AF制御部
55 AWB制御部
56 評価領域設定部
DESCRIPTION OF SYMBOLS 1 Camera 11 Imaging part 16 Camera motion detection part 23 Luminance evaluation part 24 Exposure control part 25 Panorama synthetic | combination part 26 Cutout area setting part 33 Image pick-up element 51 Moving image process part 52 Clipping area setting part 53 AE control part 54 AF control part 55 AWB Control unit 56 Evaluation area setting unit

Claims (9)

撮影によって被写体の画像を取得する撮像素子を有する撮像装置であって、
当該撮像装置の動きを伴いながら前記撮像素子にて順次取得される複数の入力画像の夫々に設定された切り出し領域内の画像信号を合成することで、各入力画像よりも画角の広い出力画像を生成する合成処理部と、
当該撮像装置の動き方向を検出する動き検出部と、
前記動き方向に応じて各入力画像に前記切り出し領域を設定する切り出し領域設定部と、
前記切り出し領域より前記動き方向に位置する領域内の被写体輝度を測光処理を用いて評価する輝度評価部と、
前記輝度評価部の評価結果に基づき前記複数の入力画像に対する露出制御を行う露出制御部と、を備えた
ことを特徴とする撮像装置。
An imaging device having an imaging element that acquires an image of a subject by shooting,
An output image having a wider angle of view than each input image by synthesizing the image signals in the cut-out area set for each of the plurality of input images sequentially acquired by the imaging device with the movement of the imaging device A synthesis processing unit for generating
A motion detector that detects the direction of motion of the imaging device;
A cutout region setting unit that sets the cutout region in each input image according to the movement direction;
A luminance evaluation unit that evaluates subject luminance in a region located in the movement direction from the cutout region using photometry processing;
An image pickup apparatus comprising: an exposure control unit that performs exposure control on the plurality of input images based on an evaluation result of the luminance evaluation unit.
前記切り出し領域設定部は、各入力画像において前記切り出し領域の中心又は重心位置が画像中心から見て前記動き方向の逆方向に位置するように、各入力画像における前記切り出し領域の位置を設定する
ことを特徴とする請求項1に記載の撮像装置。
The cutout region setting unit sets the position of the cutout region in each input image so that the center or center of gravity of the cutout region is located in the opposite direction of the movement direction when viewed from the image center in each input image. The imaging apparatus according to claim 1.
前記輝度評価部は、前記複数の入力画像の1つである基準入力画像を取得したときの基準測光処理によって、前記基準入力画像の切り出し領域より前記動き方向に位置する領域内の被写体輝度を評価し、
前記露出制御部は、その評価結果に基づき、前記基準入力画像より後に取得される入力画像に対する露出制御を行う
ことを特徴とする請求項1又は請求項2に記載の撮像装置。
The luminance evaluation unit evaluates subject luminance in an area located in the movement direction from a cutout area of the reference input image by reference photometry processing when a reference input image that is one of the plurality of input images is acquired. And
The imaging apparatus according to claim 1, wherein the exposure control unit performs exposure control on an input image acquired after the reference input image based on the evaluation result.
前記露出制御部は、前記基準入力画像の切り出し領域より前記動き方向に位置する領域内の、前記動き方向に沿った被写体輝度の変化状態に基づき、又は、前記基準入力画像の切り出し領域と前記基準入力画像の切り出し領域より前記動き方向に位置する領域内の、前記動き方向に沿った被写体輝度の変化状態に基づき、前記基準入力画像と前記基準入力画像より後に取得される入力画像との間で露出値を変更するか否かを決定する
ことを特徴とする請求項3に記載の撮像装置。
The exposure control unit is based on a change state of subject luminance along the movement direction in an area located in the movement direction from the cut-out area of the reference input image, or the cut-out area of the reference input image and the reference Between the reference input image and the input image acquired after the reference input image, based on the change state of the subject brightness along the movement direction in the region located in the movement direction from the cut-out region of the input image. The imaging apparatus according to claim 3, wherein it is determined whether or not to change an exposure value.
撮影によって被写体の画像を取得して取得画像の画像信号を出力する撮像素子を有する撮像装置であって、
前記撮像素子にて順次取得される複数の入力画像の夫々に設定された切り出し領域内の画像信号から動画像の画像信号を生成する動画像処理部と、
当該撮像装置の動きを検出する動き検出部と、
前記動き検出部の検出結果に基づき各入力画像に前記切り出し領域を設定する切り出し領域設定部と、を備えるとともに、
各入力画像に設定された第1評価領域内の被写体輝度を測光処理を用いて評価することで撮影における露出制御を行う第1制御部、
各入力画像に設定された第2評価領域内の画像信号に基づき撮影における焦点調整を行う第2制御部、及び、
各入力画像に設定された第3評価領域内の画像信号に基づき撮影におけるホワイトバランス調整を行う第3制御部の内、少なくとも1つの制御部を備え、更に、
前記切り出し領域に応じて、前記第1、第2又は第3評価領域である対象評価領域を各入力画像に設定する対象評価領域設定部を備え、
前記対象評価領域設定部は、当該撮像装置が一定方向に動いている場合、前記切り出し領域より当該撮像装置の動き方向に位置する領域を前記対象評価領域に含める
ことを特徴とする撮像装置。
An imaging apparatus having an imaging element that acquires an image of a subject by shooting and outputs an image signal of the acquired image,
A moving image processing unit that generates an image signal of a moving image from an image signal in a cutout region set for each of a plurality of input images sequentially acquired by the imaging device;
A motion detector for detecting the motion of the imaging device;
A cutout region setting unit that sets the cutout region in each input image based on the detection result of the motion detection unit, and
A first control unit that performs exposure control in shooting by evaluating subject luminance within a first evaluation region set for each input image using photometry processing;
A second control unit that performs focus adjustment in shooting based on an image signal in the second evaluation region set for each input image; and
At least one control unit is included in a third control unit that performs white balance adjustment in shooting based on an image signal in the third evaluation region set for each input image, and
A target evaluation area setting unit that sets a target evaluation area that is the first, second, or third evaluation area in each input image according to the cutout area,
The target evaluation area setting unit includes, in the target evaluation area, an area located in the movement direction of the imaging apparatus from the cutout area when the imaging apparatus is moving in a certain direction.
前記動き検出部は、当該撮像装置が一定方向に動いているか否かを検出するとともに、当該撮像装置が一定方向に動いている場合に前記動き方向を検出し、
前記切り出し領域設定部は、当該撮像装置が一定方向に動いていないと検出された場合の前記切り出し領域である基準切り出し領域の位置から見て、当該撮像装置が一定方向に動いていると検出された場合における前記切り出し領域であるシフト切り出し領域の位置を、前記動き方向の逆方向にずらし、
前記対象評価領域設定部は、当該撮像装置が一定方向に動いていないと検出された場合、前記基準切り出し領域の一部又は全部を前記対象評価領域に設定し、当該撮像装置が一定方向に動いていると検出された場合、前記シフト切り出し領域から見て前記動き方向に位置する領域を前記対象評価領域に含める
ことを特徴とする請求項5に記載の撮像装置。
The motion detection unit detects whether the imaging device is moving in a certain direction, and detects the movement direction when the imaging device is moving in a certain direction,
The cutout region setting unit detects that the imaging device is moving in a fixed direction when viewed from the position of a reference cutout region that is the cutout region when it is detected that the imaging device is not moving in a fixed direction. Shift the position of the shift cutout area that is the cutout area in the case of the
When it is detected that the imaging device does not move in a certain direction, the target evaluation region setting unit sets a part or all of the reference cutout region as the target evaluation region, and the imaging device moves in a certain direction. 6. The imaging apparatus according to claim 5, wherein a region located in the movement direction when viewed from the shift cut-out region is included in the target evaluation region.
当該撮像装置は前記第1制御部を備え、前記対象評価領域は前記第1評価領域であり、
前記複数の入力画像は、当該撮像装置が一定方向に動いている期間中に取得された基準入力画像を含み、
前記期間中において、前記第1制御部は、前記基準入力画像を取得したときの基準測光処理によって、前記基準入力画像のシフト切り出し領域より前記動き方向に位置する領域内の被写体輝度を評価し、その評価結果に基づき、前記基準入力画像より後に取得される入力画像に対する露出制御を行う
ことを特徴とする請求項6に記載の撮像装置。
The imaging apparatus includes the first control unit, the target evaluation area is the first evaluation area,
The plurality of input images include a reference input image acquired during a period in which the imaging device is moving in a certain direction,
During the period, the first control unit evaluates subject luminance in a region located in the movement direction from the shift cutout region of the reference input image by reference photometry processing when the reference input image is acquired, The imaging apparatus according to claim 6, wherein exposure control is performed on an input image acquired after the reference input image based on the evaluation result.
当該撮像装置は前記第2制御部を備え、前記対象評価領域は前記第2評価領域であり、
前記複数の入力画像は、当該撮像装置が一定方向に動いている期間中に取得された基準入力画像を含み、
前記期間中において、前記第2制御部は、前記基準入力画像のシフト切り出し領域より前記動き方向に位置する領域内の画像信号に基づき、前記基準入力画像より後に取得される入力画像に対する焦点調整を行う
ことを特徴とする請求項6に記載の撮像装置。
The imaging apparatus includes the second control unit, the target evaluation area is the second evaluation area,
The plurality of input images include a reference input image acquired during a period in which the imaging device is moving in a certain direction,
During the period, the second control unit performs focus adjustment on an input image acquired after the reference input image based on an image signal in an area located in the movement direction from a shift cut-out area of the reference input image. The imaging device according to claim 6, wherein the imaging device is performed.
当該撮像装置は前記第3制御部を備え、前記対象評価領域は前記第3評価領域であり、
前記複数の入力画像は、当該撮像装置が一定方向に動いている期間中に取得された基準入力画像を含み、
前記期間中において、前記第3制御部は、前記基準入力画像のシフト切り出し領域より前記動き方向に位置する領域内の画像信号に基づき、前記基準入力画像より後に取得される入力画像に対するホワイトバランス調整を行う
ことを特徴とする請求項6に記載の撮像装置。
The imaging apparatus includes the third control unit, the target evaluation area is the third evaluation area,
The plurality of input images include a reference input image acquired during a period in which the imaging device is moving in a certain direction,
During the period, the third control unit adjusts a white balance for an input image acquired after the reference input image based on an image signal in an area located in the movement direction from the shift cut-out area of the reference input image. The imaging apparatus according to claim 6, wherein:
JP2012213631A 2012-09-27 2012-09-27 Imaging apparatus Pending JP2014066959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012213631A JP2014066959A (en) 2012-09-27 2012-09-27 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012213631A JP2014066959A (en) 2012-09-27 2012-09-27 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2014066959A true JP2014066959A (en) 2014-04-17

Family

ID=50743399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012213631A Pending JP2014066959A (en) 2012-09-27 2012-09-27 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2014066959A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180063A (en) * 2017-04-04 2018-11-15 キヤノン株式会社 Imaging device and control method therefor, program, and storage medium
JP2020120194A (en) * 2019-01-21 2020-08-06 キヤノン株式会社 Imaging apparatus, imaging method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180063A (en) * 2017-04-04 2018-11-15 キヤノン株式会社 Imaging device and control method therefor, program, and storage medium
JP2020120194A (en) * 2019-01-21 2020-08-06 キヤノン株式会社 Imaging apparatus, imaging method, and program

Similar Documents

Publication Publication Date Title
CN102959943B (en) Stereoscopic panoramic image synthesizer and method and image capture apparatus
JP5507014B2 (en) Moving object detection apparatus and method
JP5738080B2 (en) Imaging apparatus and control method thereof
RU2562918C2 (en) Shooting device, shooting system and control over shooting device
EP2242252A2 (en) In-camera generation of high quality composite panoramic images
JP5237721B2 (en) Imaging device
JP5947601B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP6261205B2 (en) Image processing device
JP6300670B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
CN112019734B (en) Image acquisition method and device, electronic equipment and computer readable storage medium
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP2014066958A (en) Imaging apparatus
JP2015194680A (en) Imaging apparatus
JP2006050149A (en) Panning photographic method and photographing apparatus
JP2013192270A (en) Imaging apparatus, control method for the same, and program
JP2014066959A (en) Imaging apparatus
US10943328B2 (en) Image capturing apparatus, method for controlling same, and storage medium
JP2015041865A (en) Image processing apparatus and image processing method
JP2017212698A (en) Imaging apparatus, control method for imaging apparatus, and program
JP6961423B2 (en) Image processing equipment, imaging equipment, control methods for image processing equipment, programs and recording media
JP2008283477A (en) Image processor, and image processing method
JP2008209760A (en) Photographing method and photographing device
JP5597942B2 (en) Electronic camera
JP2015232620A (en) Imaging device, control method and program
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium