JP2013085140A - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP2013085140A
JP2013085140A JP2011224151A JP2011224151A JP2013085140A JP 2013085140 A JP2013085140 A JP 2013085140A JP 2011224151 A JP2011224151 A JP 2011224151A JP 2011224151 A JP2011224151 A JP 2011224151A JP 2013085140 A JP2013085140 A JP 2013085140A
Authority
JP
Japan
Prior art keywords
bright spot
image
motion vector
images
bright
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011224151A
Other languages
Japanese (ja)
Other versions
JP5800664B2 (en
Inventor
Teruhiko Ueyama
輝彦 植山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011224151A priority Critical patent/JP5800664B2/en
Publication of JP2013085140A publication Critical patent/JP2013085140A/en
Application granted granted Critical
Publication of JP5800664B2 publication Critical patent/JP5800664B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To acquire a composite image with little blurring by accurately aligning plural images even when moving bright points such as shooting-up firework are photographed as being handheld.SOLUTION: An imaging apparatus includes: plural image acquisition means 20 which sequentially takes photographs and acquires plural images; bright point extraction means 204 which extracts bright points in plural taken images; bright point determination means 20 which makes a determination on whether a bright point is a moving bright point or a stationary bright point from the size of the bright point extracted by the bright point extraction means; motion vector calculation means 201 which calculates a motion vector in plural images with the stationary bright point as a reference determined by the bright point determination means; image composition means 202 which forms a composite image on the basis of the motion vector calculated by the motion vector calculation means.

Description

本発明は、複数枚撮影した画像を合成し、振れのない画像を撮影する機能を有する撮像装置およびその制御方法に関するものである。   The present invention relates to an imaging apparatus having a function of synthesizing a plurality of captured images and capturing an image without shake, and a control method thereof.

打ち上げ花火を撮影する場合は、花火が開く瞬間を狙って撮影することが困難であるため、通常はカメラを固定して長秒時露光を行う。   When shooting fireworks, it is difficult to shoot with the aim of the moment when the fireworks open, so the camera is usually fixed and long exposure is performed.

一般的に花火は2〜3秒程度光っているため、カメラを固定せずに手持ちで撮影することが困難であった。   In general, since fireworks shine for about 2 to 3 seconds, it is difficult to shoot by hand without fixing the camera.

特許文献1は、異なる露光条件にて複数枚撮影した画像を合成してダイナミックレンジ拡大する撮影方法について記載され、更に撮影した複数の画像に対して画像間の位置ずれを修正しながら画像合成する撮影方法が開示されている。   Japanese Patent Application Laid-Open No. 2004-151561 describes a photographing method for combining a plurality of images taken under different exposure conditions to expand the dynamic range, and further, combining the images while correcting misalignment between the images. An imaging method is disclosed.

また、特許文献2では、撮影開始前に撮像素子からの出力信号により取得した画像によって、複数の画像間の動きベクトルを検出するための検出領域をあらかじめ設定し、撮影者が複数の画像間の基準点となる被写体を含めて撮影することで、複数の画像を精度良く位置合わせすることを可能とする技術が開示されている。   In Patent Document 2, a detection area for detecting a motion vector between a plurality of images is set in advance by an image acquired from an output signal from an image sensor before the start of shooting, and a photographer can A technique is disclosed that enables a plurality of images to be accurately aligned by shooting including a subject that is a reference point.

特許第3110797号公報Japanese Patent No. 3110797 特許第4324234号公報Japanese Patent No. 4324234

従来から長秒時露光の際に、複数回連続して撮影された画像の相関をとって位置合わせを行い、加算合成する撮影方法が提案されている。   2. Description of the Related Art Conventionally, there has been proposed a photographing method that performs alignment by adding correlations of images photographed a plurality of times continuously during long-time exposure, and performs addition synthesis.

しかし、花火は放射状に火花が広がるため、連続して撮影した複数の画像を精度良く位置合わせをすることが課題であった。   However, since sparks spread radially, it has been a problem to accurately align a plurality of images taken continuously.

この問題の解決方法の一手法として、複数の画像間を位置合わせするための特徴点を花火以外の被写体とし、特徴点が含まれる検出領域を撮影者があらかじめ設定しておく方法が知られている。   As one method for solving this problem, a method is known in which a feature point for aligning a plurality of images is set as a subject other than fireworks, and a photographer sets a detection area including the feature point in advance. Yes.

しかし、撮影前にあらかじめ特徴点を検出する検出領域を設定しなくてはならないため、画角やフレーミングを変える度に特徴点が含まれる検出領域を設定する必要があった。   However, since it is necessary to set a detection area for detecting a feature point in advance before shooting, it is necessary to set a detection area including the feature point every time the angle of view or framing is changed.

(発明の目的)
本発明の目的は、打ち上げ花火のような移動する輝点を手持ち撮影しても、複数の画像を正確に位置合わせして合成することで、振れのない合成画像を得ることができる撮像装置およびその制御方法を提供することである。
(Object of invention)
An object of the present invention is to provide an imaging apparatus capable of obtaining a composite image without shake by accurately aligning and synthesizing a plurality of images even when hand-held shooting of a moving bright spot such as a fireworks display and its It is to provide a control method.

上記目的を達成するために、本発明の撮像装置は、順次撮影することにより複数の画像を取得する複数画像取得手段と、前記複数の画像に写る輝点を抽出する輝点抽出手段と、前記輝点抽出手段により抽出された輝点の大きさから、前記輝点が移動輝点か静止輝点かを判定する輝点判定手段と、前記輝点判定手段により判定された静止輝点を基準として前記複数の画像間における動きベクトルを算出する動きベクトル算出手段と、前記動きベクトル算出手段によって算出された動きベクトルに基づいて、一枚の合成画像を合成する画像合成手段とを有することを特徴とするものである。   In order to achieve the above object, an imaging apparatus according to the present invention includes a plurality of image acquisition means for acquiring a plurality of images by sequentially photographing, a bright spot extraction means for extracting a bright spot appearing in the plurality of images, Based on the size of the bright spot extracted by the bright spot extracting means, the bright spot determining means for determining whether the bright spot is a moving bright spot or a stationary bright spot, and the stationary bright spot determined by the bright spot determining means as a reference A motion vector calculating unit that calculates a motion vector between the plurality of images, and an image combining unit that combines a single composite image based on the motion vector calculated by the motion vector calculating unit. It is what.

本発明によれば、打ち上げ花火のような移動する輝点を手持ち撮影しても、複数の画像を正確に位置合わせして合成することで、振れのない合成画像を得ることができる。   According to the present invention, even if a moving bright spot such as a fireworks display is photographed by hand, a composite image without shake can be obtained by accurately aligning and synthesizing a plurality of images.

本発明の実施例1に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to Embodiment 1 of the present invention. 実施例1における画像合成処理を説明する図である。FIG. 6 is a diagram illustrating image composition processing in Embodiment 1. 実施例1における静止輝点を撮影画像中から抽出する処理を説明する図である。It is a figure explaining the process which extracts the stationary luminescent spot in Example 1 from the picked-up image. 実施例1の花火撮影動作を示すフローチャートである。3 is a flowchart illustrating a firework shooting operation of the first embodiment. 実施例1の特徴点検出動作を示すフローチャートである。3 is a flowchart illustrating a feature point detection operation according to the first exemplary embodiment. 実施例1の特徴点検出領域設定動作を示すフローチャートである。3 is a flowchart illustrating a feature point detection region setting operation according to the first embodiment. 本発明の実施例2に係る複眼の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of the compound eye which concerns on Example 2 of this invention. 従来技術、実施例1および2の露光タイミングを説明する図である。It is a figure explaining the exposure timing of a prior art and Example 1 and 2. FIG. 実施例2における画像合成処理を説明する図である。FIG. 10 is a diagram illustrating an image composition process in Embodiment 2. 実施例2の花火撮影動作を示すフローチャートである。6 is a flowchart illustrating a firework shooting operation of the second embodiment.

本発明を実施するための形態は、以下の実施例1および2に記載される通りである。   The mode for carrying out the invention is as described in Examples 1 and 2 below.

図1は、本発明の実施例1に係る撮像装置としてのデジタルカメラの概略構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera as an imaging apparatus according to Embodiment 1 of the present invention.

図1において、撮像装置100は、変倍レンズ(以下、ズームレンズ)10、焦点調節レンズ(以下、フォーカスレンズ)12、絞りとシャッタが組み込まれた絞りシャッタユニット13、光学像を電気信号に変換する撮像素子14を備える。   In FIG. 1, an imaging apparatus 100 includes a variable power lens (hereinafter referred to as zoom lens) 10, a focus adjustment lens (hereinafter referred to as focus lens) 12, an aperture shutter unit 13 incorporating an aperture and a shutter, and converts an optical image into an electrical signal. The imaging device 14 is provided.

また、撮像装置100は、撮像素子14のアナログ信号出力を増幅して撮像素子14の感度を設定するゲインアンプ15、撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器16を備える。   The imaging apparatus 100 further includes a gain amplifier 15 that amplifies the analog signal output of the image sensor 14 and sets the sensitivity of the image sensor 14, and an A / D converter 16 that converts the analog signal output of the image sensor 14 into a digital signal. Prepare.

また、撮像装置100は、撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給するタイミング発生回路18を備える。タイミング発生回路18は、メモリ制御回路22及びシステム制御回路50により制御される。   In addition, the imaging apparatus 100 includes a timing generation circuit 18 that supplies a clock signal and a control signal to the imaging element 14, the A / D converter 16, and the D / A converter 26. The timing generation circuit 18 is controlled by the memory control circuit 22 and the system control circuit 50.

また、撮像装置100は、画像処理回路20を備える。画像処理回路20は、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。   In addition, the imaging apparatus 100 includes an image processing circuit 20. The image processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22.

また、画像処理回路20は、撮像した画像データを用いて所定の演算処理を行う。得られた演算結果に基づいてシステム制御回路50が、露出制御回路40、焦点調節回路42に対して制御を行う、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行っている。   Further, the image processing circuit 20 performs a predetermined calculation process using the captured image data. The system control circuit 50 controls the exposure control circuit 40 and the focus adjustment circuit 42 on the basis of the obtained calculation result. AF (auto focus) processing of TTL (through the lens) method, AE (automatic) Exposure) processing and EF (flash pre-emission) processing are performed.

更に、画像処理回路20においては、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   Further, the image processing circuit 20 performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

また、画像処理回路20は、複数枚連続して撮影したそれぞれの画像について共通となる特徴点を抽出する特徴点検出処理部200と、この特徴点を基準に動きベクトルを演算して画像を加算合成する処理を行う動きベクトル演算部201、および画像合成処理部202を備える。動きベクトル演算部201は動きベクトル算出手段を構成する。   The image processing circuit 20 also extracts a feature point detection unit 200 that extracts a common feature point for each of a plurality of images taken in succession, and adds the image by calculating a motion vector based on the feature point. A motion vector calculation unit 201 and an image synthesis processing unit 202 that perform a synthesis process are provided. The motion vector calculation unit 201 constitutes a motion vector calculation unit.

特徴点検出処理部200は、複数の画像を加算合成するのに好適な特徴点が含まれる検出領域をそれぞれの画像に設定する特徴点検出領域設定処理部203と、特徴点検出領域設定処理部203で設定された検出領域から特徴点となる輝点を抽出する輝点抽出処理部204を備える。なお、特徴点検出処理部200は特徴点を抽出するが、効果が得られるならば、ブロックマッチング法のような他のベクトル検出方法を使用して特徴点抽出の代わりとする方法であっても良い。   The feature point detection processing unit 200 includes a feature point detection region setting processing unit 203 that sets, in each image, a detection region including feature points suitable for adding and combining a plurality of images, and a feature point detection region setting processing unit. A bright spot extraction processing unit 204 that extracts bright spots as feature points from the detection area set in 203 is provided. Note that the feature point detection processing unit 200 extracts feature points. However, if an effect can be obtained, the feature point detection processing unit 200 may use another vector detection method such as a block matching method instead of feature point extraction. good.

上記特徴点検出処理部200については、操作部63によって設定される撮影モードに応じて処理を実行するか否かが決定される。   With respect to the feature point detection processing unit 200, it is determined whether to execute the process according to the shooting mode set by the operation unit 63.

メモリ制御回路22は、A/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮伸長回路32を制御する。   The memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32.

A/D変換器16のデータが、画像処理回路20、メモリ制御回路22を介して、或いはA/D変換器16のデータが、直接メモリ制御回路22を介して、画像表示メモリ24或いはメモリ30に書き込まれる。   The data of the A / D converter 16 is sent via the image processing circuit 20 and the memory control circuit 22, or the data of the A / D converter 16 is sent directly via the memory control circuit 22 and the image display memory 24 or the memory 30. Is written to.

撮像装置100全体を制御するシステム制御回路50は、メモリ制御回路22を介してTTLによって測光された輝度レベルを基に、適正露出値を演算して露出制御回路40を制御する。   A system control circuit 50 that controls the entire imaging apparatus 100 calculates an appropriate exposure value based on the brightness level measured by the TTL via the memory control circuit 22 and controls the exposure control circuit 40.

画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器26を介してTFT、LCD等からなる画像表示部28により表示される。画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダ機能を実現することが可能である。   The display image data written in the image display memory 24 is displayed on the image display unit 28 including a TFT, an LCD, and the like via the D / A converter 26. If the image data captured using the image display unit 28 is sequentially displayed, the electronic viewfinder function can be realized.

メモリ30は、撮像した静止画像や動画像を格納するためのものであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影するパノラマ撮影、連写撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。   The memory 30 is for storing captured still images and moving images, and has a sufficient storage capacity for storing a predetermined number of still images and moving images for a predetermined time. This makes it possible to write a large amount of images to the memory 30 at high speed even in panoramic shooting and continuous shooting in which a plurality of still images are continuously shot.

また、メモリ30は、システム制御回路50の作業領域としても使用することが可能である。メモリ30は、被写体像を変倍する変倍手段としてのズーム制御回路44の動作に対する焦点調節回路42の相対情報を記憶する記憶手段として機能する。   The memory 30 can also be used as a work area for the system control circuit 50. The memory 30 functions as a storage unit that stores relative information of the focus adjustment circuit 42 with respect to the operation of the zoom control circuit 44 as a scaling unit for scaling the subject image.

適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する圧縮伸長回路32は、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。   A compression / decompression circuit 32 that compresses / decompresses image data by adaptive discrete cosine transform (ADCT) or the like reads an image stored in the memory 30, performs compression processing or expansion processing, and writes the processed data to the memory 30.

メモリ66は、システム制御回路50の動作用の定数、変数、プログラム等を記憶する。露出制御回路40は、絞り機能とシャッタ機能を備える絞りシャッタユニット13を制御する。   The memory 66 stores constants, variables, programs, etc. for operating the system control circuit 50. The exposure control circuit 40 controls the aperture shutter unit 13 having an aperture function and a shutter function.

焦点調節回路42は、フォーカスレンズ12のフォーカシングを制御する。ズーム制御回路44は、ズームレンズ10のズーミングを制御する。   The focus adjustment circuit 42 controls focusing of the focus lens 12. The zoom control circuit 44 controls zooming of the zoom lens 10.

露出制御回路40、焦点調節回路42はTTL方式を用いて制御されており、撮像した画像データを画像処理回路20によって演算した演算結果に基づき、システム制御回路50がこれら露出制御回路40、焦点調節回路42に対して制御を行う。   The exposure control circuit 40 and the focus adjustment circuit 42 are controlled using the TTL method, and the system control circuit 50 performs the exposure control circuit 40 and the focus adjustment based on the calculation result obtained by calculating the captured image data by the image processing circuit 20. The circuit 42 is controlled.

表示部64は、システム制御回路50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する液晶表示パネル、スピーカー等で構成される。表示部64は、撮像装置100の操作部63の近辺の視認し易い位置に単数或いは複数個所設置される。   The display unit 64 includes a liquid crystal display panel, a speaker, and the like that display an operation state, a message, and the like using characters, images, sounds, and the like according to execution of a program by the system control circuit 50. One or a plurality of display units 64 are installed at positions where the display unit 64 is easily visible in the vicinity of the operation unit 63 of the imaging apparatus 100.

電気的に消去・記録可能な不揮発性メモリ65は、例えばフラッシュROM等が用いられる。   The electrically erasable / recordable nonvolatile memory 65 is, for example, a flash ROM.

次に、システム制御回路50の各種の動作指示を入力するための操作部材60、61及び操作部63は、スイッチやダイアルで構成される。ここで、これらの具体的な説明を行う。   Next, the operation members 60 and 61 and the operation unit 63 for inputting various operation instructions of the system control circuit 50 are configured by switches and dials. Here, a specific description thereof will be given.

シャッタスイッチSW1(60)は、不図示のシャッタスイッチ部材の操作途中でオンとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(ストロボプリ発光)処理等の撮影準備動作開始を指示する。   The shutter switch SW1 (60) is turned on during operation of a shutter switch member (not shown), and AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (strobe preflash) processing. Instruct the start of shooting preparation operation.

シャッタスイッチSW2(61)は、不図示のシャッタスイッチ部材の操作完了でオンとなり、一連の処理の開始を指示する。   The shutter switch SW2 (61) is turned on when the operation of a shutter switch member (not shown) is completed, and instructs the start of a series of processes.

一連の処理とは、撮像素子14から読み出した信号をA/D変換器16、メモリ制御回路22を介してメモリ30に書き込む露光処理であり、さらに画像処理回路20やメモリ制御回路22での演算を用いた現像処理である。また、一連の処理とは、メモリ30から画像データを読み出し、圧縮伸長回路32で圧縮を行い、記録媒体70に画像データを書き込む記録処理である。   The series of processes is an exposure process in which a signal read from the image sensor 14 is written to the memory 30 via the A / D converter 16 and the memory control circuit 22, and further an arithmetic operation in the image processing circuit 20 and the memory control circuit 22. Development processing using The series of processes is a recording process in which image data is read from the memory 30, compressed by the compression / decompression circuit 32, and written to the recording medium 70.

各種ボタンやタッチパネル等からなる操作部63は、オートモードやプログラムモード、絞り優先モード、シャッタ速度優先モードのほか、夜景モード、子供撮影モード、花火撮影モード、水中撮影モード等、様々な撮影シーンに応じた設定を選択できるようになっている。   The operation unit 63 including various buttons and a touch panel can be used for various shooting scenes such as an auto mode, a program mode, an aperture priority mode, a shutter speed priority mode, a night view mode, a child shooting mode, a fireworks shooting mode, and an underwater shooting mode. You can select the appropriate setting.

フラッシュ発光部62は、システム制御回路50によって測光された輝度レベルを基に適正発光量を演算して発光制御するものである。   The flash light emitting unit 62 controls the light emission by calculating an appropriate light emission amount based on the luminance level measured by the system control circuit 50.

電源制御回路80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り換えるスイッチ回路等により構成されている。   The power supply control circuit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like.

電源86は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプタ等からなる。電源制御回路80と電源86は、コネクタ82、84を介して接続される。   The power source 86 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The power supply control circuit 80 and the power supply 86 are connected via connectors 82 and 84.

記録媒体70は、半導体メモリや磁気ディスク等から構成される記録部73、インタフェース(I/F)72、コネクタ71を備えている。インタフェース72は、コネクタ71及び撮像装置100のコネクタ92を介して撮像装置100のインタフェース90に接続される。   The recording medium 70 includes a recording unit 73 composed of a semiconductor memory, a magnetic disk, or the like, an interface (I / F) 72, and a connector 71. The interface 72 is connected to the interface 90 of the imaging device 100 via the connector 71 and the connector 92 of the imaging device 100.

以下、撮像装置100の動作について説明する。   Hereinafter, the operation of the imaging apparatus 100 will be described.

一般に被写体が暗い場合、一回の露光で適正露出を得るためには絞りを開放にして露光時間は長秒時露光になる。   In general, when the subject is dark, in order to obtain a proper exposure with a single exposure, the aperture is opened and the exposure time is long exposure.

この場合、手持ちで撮影すると手振れした写真になってしまうため、感度を上げて露光時間が出来る限り短くなるようにして撮影することが多い。しかし、感度を上げて撮影すると撮像素子14の暗電流の影響や撮像素子14の信号を増幅するゲインアンプ15のノイズなどによって画質が劣化してしまう。   In this case, if the image is taken by hand, the photograph will be shaken. Therefore, in many cases, the exposure is increased to shorten the exposure time as much as possible. However, when shooting with increased sensitivity, the image quality deteriorates due to the influence of the dark current of the image sensor 14 and the noise of the gain amplifier 15 that amplifies the signal of the image sensor 14.

そこで、暗い被写体であっても画質劣化が少なく手振れしていない画像を撮影する方法が従来より提案されている。まず、手振れしない程度の短い時間で露光時間を分割し、分割枚数だけ連続して撮影した複数枚の画像を位置合わせしながら加算合成する撮影方法である。   In view of this, a method for capturing an image that has little image quality degradation and is not shaken even with a dark subject has been proposed. First, there is an imaging method in which the exposure time is divided in such a short time as not to cause camera shake, and a plurality of images taken continuously by the divided number are added and combined while being aligned.

しかし、打ち上げ花火のように放射状に広がるように被写体が動く場合、この撮影方法では合成する画像の位置合わせを正確に行うことが困難であった。   However, when the subject moves so as to spread radially like a fireworks display, it has been difficult to accurately align the images to be synthesized with this photographing method.

以下では、短い露光時間で複数枚撮影した画像をそれぞれ位置合わせしながら加算合成する画像合成加算撮影による方法であって、打ち上げ花火を手振れすることなく所望の位置に合わせて画像合成する撮像装置100について説明する。   The following is a method based on image composition addition photography in which a plurality of images taken with a short exposure time are added and synthesized while being aligned, and the imaging apparatus 100 synthesizes an image at a desired position without shaking the fireworks. explain.

図2は移動する輝点である打ち上げ花火を画像合成加算撮影で順次撮影することにより取得した複数の画像の一例である。撮影間隔を出来る限り短くして撮影することで、より自然な花火画像が得られる。   FIG. 2 is an example of a plurality of images acquired by sequentially shooting up fireworks that are moving bright spots by image composition addition shooting. A more natural fireworks image can be obtained by shooting with a shooting interval as short as possible.

図2(a)〜(d)は花火が打ち上がってから、最も花火が開いた状態になるまでを連続撮影したときの画像を時系列に並べた図である。   2A to 2D are diagrams in which images are taken in time series when continuous shooting is performed from when the fireworks are launched until the fireworks are most open.

図2(a)は花火が広がった直後の撮影画像であり、殆ど火花は広がっていない。図2(b)は少し広がっており、図2(c)、図2(d)と時間が立つごとに花火は大きく広がっていく。   FIG. 2A is a photographed image immediately after the fireworks spread, and the sparks are hardly spread. FIG. 2 (b) spreads a little, and the fireworks spread greatly with time as shown in FIG. 2 (c) and FIG. 2 (d).

ここで、各画像に対して加算合成を行う場合、花火の火花の大きさや形も異なることから花火を画像の位置合わせの基準となる特徴点とすることが難しいことは明らかである。   Here, when performing addition synthesis for each image, it is clear that it is difficult to use fireworks as feature points that serve as a reference for image alignment because the size and shape of the sparks of the fireworks are different.

図2(e)は画像合成したときに、位置合わせが出来ずに失敗した画像の一例である。各画像の花火を特徴点として位置合わせしたが、正確に合成出来なかった例を示している。   FIG. 2E shows an example of an image that has failed due to position alignment when the images are combined. An example is shown in which fireworks in each image are aligned as feature points, but cannot be accurately combined.

図2の(a)から(d)の画像を正確に位置合わせするためには、花火(移動輝点)よりも背景に写る建物の窓の明かり(静止輝点)を特徴点とするほうが良いことは明らかであるが、今までは花火と夜景の明かりが重なってしまうことも多く、夜景の輝点だけを抽出して処理することが困難であった。   In order to accurately align the images of (a) to (d) in FIG. 2, it is better to use the light (stationary luminescent spot) of the building window reflected in the background rather than the fireworks (moving luminescent spot) as feature points. Obviously, until now, fireworks and night lights often overlapped, and it has been difficult to extract and process only the bright spots of night scenes.

実施例1では、花火を特徴点とせずに、花火以外に写っている背景の夜景の輝点を抽出して画像合成の特徴点とすることで正確な位置合わせを可能とする。   In the first embodiment, accurate positioning is possible by extracting bright points of a background night scene reflected in a place other than fireworks without using fireworks as feature points and using them as feature points of image synthesis.

まず、図2の(a)から(d)の画像中に重ねて書かれている格子状の線は画像の分割エリアである。各画像を合成する際に、この分割エリア単位で特徴点検出領域設定や動きベクトル算出を行うものである。   First, grid-like lines that are overwritten in the images (a) to (d) of FIG. 2 are image division areas. When combining the images, feature point detection area setting and motion vector calculation are performed in units of the divided areas.

なお、上記分割エリアの分割サイズや分割数については、画像サイズや撮像光学系の焦点距離、被写体が画面上に占める割合などで動的に変更しても良い。   Note that the division size and the number of divisions of the divided area may be dynamically changed depending on the image size, the focal length of the imaging optical system, the ratio of the subject on the screen, and the like.

実施例1の特徴点検出領域設定方法としては、撮影した連続画像図2(a)から図2(d)のなかで、最も画面の平均輝度が低い画像図2(a)と最も画面の平均輝度が高い画像図2(d)を比較する。   As a feature point detection area setting method of the first embodiment, the captured image is the image with the lowest average luminance of the screen in FIG. 2 (a) to FIG. 2 (d) and the average of the screen. The image with high brightness is compared with FIG.

画面の平均輝度が最も低い場合、花火が打ち上がる直前、あるいは打ち上がった直後である可能性が高く、夜景の中に光る照明などの輝点を抽出しやすいという特徴がある。   When the average brightness of the screen is the lowest, there is a high possibility that it is just before or after the fireworks are launched, and it has a feature that it is easy to extract a bright spot such as lighting that shines in the night view.

ここで、画像の平均輝度が最も低い画像が複数あった場合、撮影順序が早い画像を選択する。   Here, when there are a plurality of images having the lowest average luminance of the images, an image with a fast shooting order is selected.

一方、画像の平均輝度が最も高い場合、花火が最も大きく広がっている状態である可能性が高く、夜景の中に光る照明などの輝点に花火の火花が重ならない領域を抽出しやすいという特徴がある。ここで、画像の平均輝度が最も高い画像が複数あった場合、撮影順序が遅い画像を選択する。   On the other hand, when the average brightness of the image is the highest, there is a high possibility that the fireworks are in the largest spread state, and it is easy to extract areas where the sparks of the fireworks do not overlap with the bright spots such as lighting that shines in the night view There is. Here, when there are a plurality of images having the highest average luminance of the images, an image with a slow shooting order is selected.

これら2枚の画像において、対応する分割エリアの輝度レベルの差が所定の閾値(第2の閾値)より小さく、尚且つそれぞれの輝度レベルが所定の閾値(第1の閾値)より大きい分割エリアを抽出すると、連続して撮影した全画像に特徴点検出領域を設定することが可能となる。   In these two images, a divided area in which the luminance level difference between the corresponding divided areas is smaller than a predetermined threshold (second threshold) and each luminance level is larger than the predetermined threshold (first threshold). When extracted, it is possible to set a feature point detection region for all images taken continuously.

ここで、画像の周辺領域はレンズの歪曲や周辺光量不足などによって鮮明な画像が得られない場合があるため、特徴点を検出しても画像を正確に位置合わせして合成するには不向きである。そこで、画像の周辺領域または四隅の領域は特徴点検出領域には設定しないようにしても良い。   Here, there are cases where a clear image may not be obtained in the peripheral area of the image due to lens distortion or lack of peripheral light quantity, so it is not suitable for accurately aligning and synthesizing the image even if feature points are detected. is there. Therefore, the peripheral area or the four corner areas of the image may not be set as the feature point detection area.

上記条件で、図2の(a)から(d)に対して特徴点検出領域を設定した場合、図中に囲んだ4つの分割エリアを特徴点抽出領域とすることが出来る。   When the feature point detection areas are set for (a) to (d) in FIG. 2 under the above conditions, the four divided areas enclosed in the figure can be used as the feature point extraction areas.

撮影した構図によっては夜景の照明などの輝点が含まれない場合があるため、特徴点検出領域が設定出来ない場合がある。この場合、画面全体または周辺領域の分割エリアを除く中心部の分割エリアを特徴点検出領域として設定しても良いし、特徴点検出領域を設定出来なかったとして、画像の平均輝度が最も高い画像のみを記録部に保存しても良い。   Depending on the photographed composition, a bright point such as a night view illumination may not be included, and therefore a feature point detection region may not be set. In this case, the entire area of the screen or the central divided area excluding the divided areas of the peripheral area may be set as the feature point detection area. May be stored in the recording unit.

複数の連続画像を正確に位置合わせすることが困難であると判定された場合、複数の連続画像の中から最も条件の良い1枚の画像のみを保存することが望まれる。画像の平均輝度が最も高い画像とは、花火が最も大きく開いた状態または複数の花火が画面全体に写っている瞬間である可能性が高い。したがって、最も画像の平均輝度が高い画像を連続画像の中から選択することで、失敗写真を保存してしまう確率を減らすことが期待出来る。
図2(f)は画像合成したときに、精度良く位置合わせが出来た画像の一例である。
When it is determined that it is difficult to accurately align a plurality of continuous images, it is desirable to store only one image having the best condition among the plurality of continuous images. The image with the highest average luminance of the image is likely to be a state where the fireworks are most widely opened or a moment when a plurality of fireworks are reflected on the entire screen. Therefore, by selecting an image having the highest average luminance of the images from the continuous images, it can be expected that the probability of storing the failed photo is reduced.
FIG. 2F is an example of an image that has been accurately aligned when the images are combined.

次に、各画像に設定された特徴点検出領域から特徴点として静止輝点を検出する。特徴点検出領域にある、花火の火花のような移動する輝点(移動輝点)と、動かない被写体の輝点(静止輝点)を判定する処理を行う。   Next, a stationary bright spot is detected as a feature point from the feature point detection area set for each image. A process of determining a moving bright spot (moving bright spot) like a spark of fireworks and a bright spot of a subject that does not move (still bright spot) in the feature point detection area is performed.

図3は花火の火花の軌跡αと建物の窓の明かりβを例に挙げた図である。
花火が打ち上げられると火花は放射状に広がっていくため、所定時間より長い露光時間で撮影すれば、火花の軌跡が長細い形となって撮影される(図3のα)。
一方、建物の窓の明かりβの場合は、露光時間に関係なく輝点の形は変化しない。
FIG. 3 is a diagram illustrating an example of a spark trajectory α of fireworks and a light β of a building window.
When the fireworks are launched, the sparks expand radially, so if the image is taken with an exposure time longer than a predetermined time, the locus of the spark is photographed in a narrow shape (α in FIG. 3).
On the other hand, in the case of the light β of the building window, the shape of the bright spot does not change regardless of the exposure time.

実施例1ではこの特徴を活かして、動く被写体と静止した被写体の輝点を判定する輝点判定方法を提案する。
画像中から抽出した輝点に対し、輝点を構成する画素数や輝点の周囲長さを検出して大きさの指標とする。
In the first embodiment, utilizing this feature, a bright spot determination method for determining bright spots of a moving subject and a stationary subject is proposed.
For the bright spot extracted from the image, the number of pixels constituting the bright spot and the peripheral length of the bright spot are detected and used as an index of size.

ここで、抽出した輝点の大きさに対し、所定の大きさ(閾値)よりも小さい輝点を静止輝点と判定する。
また、輝点の大きさに加え、輝点の長さについても判定条件に加えることで、より精度良く静止した被写体の輝点を抽出してもよい。
Here, a bright spot smaller than a predetermined size (threshold) with respect to the extracted bright spot size is determined as a stationary bright spot.
In addition to the size of the bright spot, the bright spot length of the subject may be extracted more accurately by adding the length of the bright spot to the determination condition.

まず輝点の縦と横の長さを撮影画像より検出する。これにより輝点の長さが算出される。   First, the vertical and horizontal lengths of the bright spots are detected from the captured image. Thereby, the length of the bright spot is calculated.

C=√(A+B
c=√(a+b
C = √ (A 2 + B 2 )
c = √ (a 2 + b 2 )

上記Cおよびcの長さが、所定の長さDより短かければ特徴点と判定し、長ければ特徴点としないように判定する。このとき、所定の長さDは撮影画像サイズや撮影時の露光時間に応じて決定されるものとする。   If the lengths of C and c are shorter than the predetermined length D, it is determined as a feature point, and if it is longer, it is determined not to be a feature point. At this time, the predetermined length D is determined according to the captured image size and the exposure time at the time of shooting.

C≦D、 c≦D :C、cは特徴点
C>D、 c>D :C、cは特徴点ではない
C ≦ D, c ≦ D: C and c are feature points C> D, c> D: C and c are not feature points

さらに、輝点の長さの判定条件として前述の所定の長さDより短いことと説明したが、所定の長さDより短い所定の長さEを設定し、Eよりも輝点の長さが長いことを判定条件に加えてもよい。   Furthermore, although it has been described that the bright spot length determination condition is shorter than the predetermined length D, a predetermined length E shorter than the predetermined length D is set, and the bright spot length is longer than E. May be added to the determination condition.

E≦C≦D、 E≦c≦D :C、cは特徴点
C>D、 c>D :C、cは特徴点ではない
連続画像間において検出した特徴点の動きベクトルを算出し、この動きベクトルに合わせて、各画像の位置を合わせて合成する。
E ≦ C ≦ D, E ≦ c ≦ D: C and c are feature points C> D, c> D: C and c are not feature points Calculate motion vectors of feature points detected between consecutive images, According to the motion vector, the position of each image is matched and combined.

これにより、花火が打ち上げられてから最も花火が広がるまでの間、手持ち撮影であっても手振れせずに画質劣化の少ない画像を撮影することが可能となる。   Thus, it is possible to shoot an image with little image quality degradation without hand shaking even during hand-held shooting from when the fireworks are launched until the fireworks spread the most.

以下では、上記の処理の流れを図4を用いて説明していく。
図4は実施例1の花火撮影シーケンスを示す図である。撮像装置100の撮影モードを花火撮影モードに設定し、シャッタスイッチ60(SW1)を押下する(S100)。シャッタスイッチ60を押下すると、被写体の輝度を測定して撮影準備を行う。ここで、測光結果に基づいて露光時間が決まり、画像合成するための連続撮影枚数nが決定される(S101)。撮影が開始されると(S102)、撮影カウンタがnになるまで撮影を続ける(S103でNo)。ステップS102を実行する画像処理回路20などが複数画像取得手段に相当する。撮影枚数がnになったら(S103でYes)、画像合成のための特徴点検出処理を実施する(S104)。特徴点検出処理については後述する。
Hereinafter, the flow of the above process will be described with reference to FIG.
FIG. 4 is a diagram illustrating a firework shooting sequence according to the first embodiment. The shooting mode of the imaging apparatus 100 is set to the fireworks shooting mode, and the shutter switch 60 (SW1) is pressed (S100). When the shutter switch 60 is pressed, the brightness of the subject is measured to prepare for shooting. Here, the exposure time is determined based on the photometric result, and the number n of consecutive shots for image synthesis is determined (S101). When shooting starts (S102), shooting continues until the shooting counter reaches n (No in S103). The image processing circuit 20 or the like that executes step S102 corresponds to a multiple image acquisition unit. When the number of shots reaches n (Yes in S103), feature point detection processing for image composition is performed (S104). The feature point detection process will be described later.

このとき、特徴点が検出出来たら(S105でYes)、各画像の特徴点を基準として動きベクトルを算出し(S106)、算出した動きベクトルを各画像の位置合わせに用いて画像を合成する(S107)。   At this time, if the feature point can be detected (Yes in S105), a motion vector is calculated based on the feature point of each image (S106), and the calculated motion vector is used for alignment of each image to synthesize an image ( S107).

特徴点が検出できなかったときは(S105でNo)、n枚の連続撮影画像から画像の平均輝度が最大となる画像を抽出して記録媒体70に記録する(S108)。   When the feature point cannot be detected (No in S105), an image with the maximum average luminance of the image is extracted from n consecutively captured images and recorded on the recording medium 70 (S108).

上述のステップS104で行われる特徴点検出処理については図5を用いて詳しく説明する。
ステップS200で連続撮影画像から抽出した輝点に対し、花火のように動く輝点と夜景の照明などのように静止した輝点に分析する(S201)。
The feature point detection process performed in step S104 described above will be described in detail with reference to FIG.
In step S200, the bright spot extracted from the continuously photographed image is analyzed into a bright spot moving like fireworks and a stationary bright spot such as a night scene illumination (S201).

まず、輝点の大きさについての判定を行う。このとき、輝点の大きさとは一つの輝点を構成するピクセル数であったり、輝点の周囲の長さをピクセル数で表したりことで大きさを表現するものである。輝点の大きさが所定以下の大きさであれば(S202でYes)、次に輝点の長さを算出する。算出方法は輝点の縦方向のピクセル数と横方向のピクセル数から長さを算出し、所定の長さ以下であれば(S203のYes)特徴点と判定されるが(S204)、輝点の大きさや輝点の長さが所定のピクセル数より大きい場合には(S202でNo、S203でNo)、この輝点は特徴点とは判定されない(S206)。ステップS202、S203を実行する画像処理回路20が輝点判定手段に相当する。   First, the size of the bright spot is determined. At this time, the size of the bright spot is the number of pixels constituting one bright spot, or the size of the bright spot is expressed by expressing the length around the bright spot by the number of pixels. If the size of the bright spot is less than or equal to a predetermined size (Yes in S202), the length of the bright spot is then calculated. The calculation method calculates the length from the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the bright spot, and if it is equal to or shorter than the predetermined length (Yes in S203), it is determined as a feature point (S204). If the size or the length of the bright spot is larger than the predetermined number of pixels (No in S202, No in S203), this bright spot is not determined as a feature point (S206). The image processing circuit 20 that executes steps S202 and S203 corresponds to a bright spot determination unit.

これら一連の処理を連続撮影画像n枚に実施し、図4のステップS105で特徴点の検出結果に合わせて次の処理に進める。ここで、特徴点検出の判定処理としては輝点の長さだけで判定しても良いし、輝点の大きさだけで判定しても良いし、あるいは輝点の色や明るさなど別の異なる条件で判定しても構わない。   A series of these processes is performed on n consecutively photographed images, and the process proceeds to the next process according to the detection result of the feature points in step S105 of FIG. Here, the determination process of feature point detection may be determined only by the length of the bright spot, may be determined only by the size of the bright spot, or may be determined by another color such as the color or brightness of the bright spot. You may judge on different conditions.

さらに、図5のステップS200で行う輝点の抽出処理の中で、特徴点が画像中に含まれる検出領域を撮影画像から設定し、この検出領域から特徴点を検出することで処理の高速化を行ってもよい。   Further, in the bright spot extraction process performed in step S200 of FIG. 5, a detection area in which the feature point is included in the image is set from the captured image, and the feature point is detected from the detection area, thereby speeding up the process. May be performed.

この特徴点検出領域の設定方法については図6を用いて詳しく説明する。
図6のステップS300では連続撮影画像n枚の画像に対して平均輝度を算出する。このうち平均輝度が最小となる画像(S301)と、平均輝度が最高となる画像(S302)を抽出し、それぞれの画像内を複数の分割エリアに分割する(S303)。次に、画像の周辺部の分割エリアから検出した特徴点は、画像の歪曲や解像度の低下などによる影響で、画像の位置合わせを行った場合に精度が低下してしまう問題がある。このため、特徴点検出には使用しないで無効領域としてもよい(S304)。ステップS301とステップS302で抽出した最小平均輝度の画像と最大平均輝度の画像を分割エリア毎に輝度の比較を行い(S305)、2つの画像間で輝度変化が少ない分割エリアを抽出する(S306)。抽出した輝度変化が少ない分割エリアの画像が所定の輝度以上であれば(S307でYes)、この分割エリアを特徴点検出領域として設定し(S308)、抽出した輝度変化が少ない分割エリアの画像が所定の輝度未満であった場合には(S307でNo)この分割エリアを特徴点検出領域としないようにする。
This feature point detection area setting method will be described in detail with reference to FIG.
In step S300 of FIG. 6, the average luminance is calculated for n consecutively photographed images. Among these, an image with the lowest average luminance (S301) and an image with the highest average luminance (S302) are extracted, and each image is divided into a plurality of divided areas (S303). Next, there is a problem that the accuracy of the feature points detected from the divided areas in the peripheral part of the image is lowered when the images are aligned due to the influence of the distortion of the image or the decrease in resolution. For this reason, it is good also as an invalid area | region not using for a feature point detection (S304). The image of the minimum average luminance and the image of the maximum average luminance extracted in step S301 and step S302 are compared for each divided area (S305), and a divided area with a small luminance change between the two images is extracted (S306). . If the extracted image of the divided area with a small luminance change is equal to or higher than the predetermined luminance (Yes in S307), this divided area is set as the feature point detection area (S308), and the extracted image of the divided area with a small luminance change is displayed. If it is less than the predetermined luminance (No in S307), this divided area is not set as the feature point detection area.

上述の実施例1により花火を手持ち撮影しても振れない撮影方法を実現しているが、花火の種類によっては連続して撮影した画像間に露光されていない時間が存在するため、花火の軌跡が連続に繋がらないで撮影される場合がある。そこで、実施例2に係る撮像装置による花火の撮影方法について説明する。   Although the above-described first embodiment realizes a shooting method that does not shake even if the fireworks are shot by hand, depending on the type of fireworks, there is a time during which no exposure is performed between images that have been continuously shot. May be taken without being continuously connected. Therefore, a method for capturing fireworks by the imaging apparatus according to the second embodiment will be described.

図7は、本発明の実施例2に係る複数の撮像光学系を備えた撮像装置の概略構成を示すブロック図である。   FIG. 7 is a block diagram illustrating a schematic configuration of an imaging apparatus including a plurality of imaging optical systems according to the second embodiment of the present invention.

図7において、撮像装置400は、主撮像光学系300と副撮像光学系301を備える。ここで、副撮像光学系301として1つの撮像光学系を図示しているが、副撮像光学系は複数備わっていても問題ない。
また、主撮像光学系300は図1の撮像光学系と同じ構成である。
In FIG. 7, the imaging apparatus 400 includes a main imaging optical system 300 and a sub imaging optical system 301. Here, one imaging optical system is illustrated as the sub imaging optical system 301, but there is no problem even if a plurality of sub imaging optical systems are provided.
The main imaging optical system 300 has the same configuration as the imaging optical system in FIG.

主撮像光学系300は、変倍レンズ(以下、ズームレンズ)10、焦点調節レンズ(以下、フォーカスレンズ)12、絞りとシャッタが組み込まれた絞りシャッタユニット13、光学像を電気信号に変換する撮像素子14を備える。   The main imaging optical system 300 includes a variable power lens (hereinafter referred to as zoom lens) 10, a focus adjustment lens (hereinafter referred to as focus lens) 12, an aperture shutter unit 13 in which an aperture and a shutter are incorporated, and imaging that converts an optical image into an electrical signal. An element 14 is provided.

また、撮像素子14のアナログ信号出力を増幅して撮像素子14の感度を設定するゲインアンプ15、撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器16を備える。   Further, a gain amplifier 15 that amplifies the analog signal output of the image sensor 14 and sets the sensitivity of the image sensor 14, and an A / D converter 16 that converts the analog signal output of the image sensor 14 into a digital signal are provided.

副撮像光学系301は、変倍レンズ(以下、ズームレンズ)310、焦点調節レンズ(以下、フォーカスレンズ)312、絞りとシャッタが組み込まれた絞りシャッタユニット313、光学像を電気信号に変換する撮像素子314を備える。   The sub-imaging optical system 301 includes a variable power lens (hereinafter referred to as zoom lens) 310, a focus adjustment lens (hereinafter referred to as focus lens) 312, an aperture shutter unit 313 in which an aperture and a shutter are incorporated, and imaging that converts an optical image into an electrical signal. An element 314 is provided.

また、撮像素子314のアナログ信号出力を増幅して撮像素子314の感度を設定するゲインアンプ315、撮像素子314のアナログ信号出力をディジタル信号に変換するA/D変換器316を備える。   In addition, a gain amplifier 315 that amplifies the analog signal output of the image sensor 314 to set the sensitivity of the image sensor 314 and an A / D converter 316 that converts the analog signal output of the image sensor 314 into a digital signal are provided.

撮像装置400全体を制御するシステム制御回路50は、メモリ制御回路22を介してTTLによって測光された輝度レベルを基に、適正露出値を演算して露出制御回路340を制御する。   The system control circuit 50 that controls the entire imaging apparatus 400 calculates an appropriate exposure value based on the luminance level measured by the TTL via the memory control circuit 22 and controls the exposure control circuit 340.

露出制御回路340は、絞り機能とシャッタ機能を備える絞りシャッタユニット313と撮像素子314のアナログ信号出力を増幅して撮像素子314の感度を設定するゲインアンプ315を制御する(AE処理)。   The exposure control circuit 340 controls an aperture shutter unit 313 having an aperture function and a shutter function and a gain amplifier 315 that sets the sensitivity of the image sensor 314 by amplifying the analog signal output of the image sensor 314 (AE processing).

システム制御回路50は、画像処理回路20によって撮像した画像データから演算される情報を用い、焦点調節回路342に対してフォーカスレンズ312のフォーカシングを制御する(AF処理)。   The system control circuit 50 controls focusing of the focus lens 312 with respect to the focus adjustment circuit 342 using information calculated from the image data captured by the image processing circuit 20 (AF processing).

ここで、主撮像光学系300にてAF処理やAE処理を行う場合は、主撮像光学系300の処理結果を用いて、副撮像光学系301を制御しても良い。
ズーム制御回路344は、ズームレンズ310のズーミングを制御する。
Here, when AF processing or AE processing is performed in the main imaging optical system 300, the sub imaging optical system 301 may be controlled using the processing result of the main imaging optical system 300.
The zoom control circuit 344 controls zooming of the zoom lens 310.

メモリ30は、被写体像を変倍する変倍手段としてのズーム制御回路344の動作に対する焦点調節回路342の相対情報を記憶する記憶手段として機能する。   The memory 30 functions as a storage unit that stores relative information of the focus adjustment circuit 342 with respect to the operation of the zoom control circuit 344 as a scaling unit for scaling the subject image.

図7における撮像装置400を構成するシステムは、図1の撮像装置100に対して副撮像光学系301と副撮像光学系の制御に関する構成が異なるが、その他の構成については、図1の撮像装置100と同じである。   The system configuring the imaging apparatus 400 in FIG. 7 differs from the imaging apparatus 100 in FIG. 1 in the configuration relating to the control of the sub imaging optical system 301 and the sub imaging optical system, but for other configurations, the imaging apparatus in FIG. The same as 100.

図8は実施例2による撮影方法の露光タイミングのチャートである。従来の花火撮影方法では、花火の打ち上げ前から露光を開始し、花火が最も開いた瞬間が含まれるように露光を終了する(露光チャートa)。そのため、露光時間は必ず長くなってしまう。しかし、本発明の実施例1における撮像光学系による画像合成撮影では(露光チャートb)、手振れしないで、尚且つ花火の軌跡が写る程度のシャッタ速度で連続して撮影する。これにより、従来の花火撮影方法と同様に、花火が打ち上げられてから最も開いた瞬間までを、手振れしないで一枚の撮影画像中に収めることが出来る。   FIG. 8 is a chart of exposure timing of the photographing method according to the second embodiment. In the conventional fireworks photography method, exposure is started before the fireworks are launched, and the exposure is finished so that the moment when the fireworks are most open is included (exposure chart a). For this reason, the exposure time is necessarily long. However, in the image composition shooting by the image pickup optical system according to the first embodiment of the present invention (exposure chart b), continuous shooting is performed at a shutter speed that does not shake and that allows a firework locus to be captured. As a result, similarly to the conventional fireworks photography method, it is possible to fit the fireworks up to the most open moment in one photographed image without shaking.

しかし、撮像装置100によって連続撮影した場合、撮影間に露光していない時間が出来てしまう。このため、花火の種類によっては露光していない時間に途切れが発生してしまう。   However, when continuous shooting is performed by the imaging apparatus 100, there is a time during which exposure is not performed. For this reason, depending on the type of fireworks, a break occurs during the time when the exposure is not performed.

そこで、複数の撮像光学系300、301を備える撮像装置400を用いた撮影方法の一例を説明すると、露光チャートcに示すように、主撮像光学系300の露光を開始し、手振れしないで尚且つ花火の軌跡が写る程度の露光時間で撮影を行う。副撮像光学系301は主撮像光学系300の露光終了のタイミングに合わせて露光を開始する。同様に副撮像光学系301の露光終了のタイミングに合わせて主撮像光学系300の露光を開始する。このように複数の撮像光学系の露光タイミングに合わせて繰り返し撮影することで、花火撮影中に露光の途切れが発生することなく撮影が可能になる。   Therefore, an example of an imaging method using the imaging apparatus 400 including the plurality of imaging optical systems 300 and 301 will be described. As shown in the exposure chart c, the exposure of the main imaging optical system 300 is started, and there is no camera shake. Take a photo with an exposure time sufficient to show the trail of fireworks. The sub imaging optical system 301 starts exposure in synchronization with the exposure end timing of the main imaging optical system 300. Similarly, exposure of the main imaging optical system 300 is started in synchronization with the timing of completion of exposure of the sub imaging optical system 301. As described above, by repeatedly taking pictures in accordance with the exposure timings of the plurality of imaging optical systems, it becomes possible to take pictures without interruption of exposure during fireworks photography.

複数の撮像光学系で撮影した連続画像は、撮像装置100による画像合成撮影と同様に各画像の特徴点を検出して動きベクトルを算出し、画像の位置合わせをして合成することで、一枚の画像を得るものである。   A continuous image captured by a plurality of imaging optical systems is detected by detecting a feature point of each image, calculating a motion vector, and synthesizing and aligning the images in the same manner as the image composition photographing by the image capturing apparatus 100. One image is obtained.

上記では、複眼撮像光学系による画像合成撮影において、途切れないように露光終了と露光開始のタイミングを合わせるように説明したが、露光タイミングが重なると、合成画像で重なった部分が明るくなってしまうため、露光期間を重ねてはならない。   In the above description, in the image composition shooting by the compound eye imaging optical system, the timing of the exposure end and the exposure start is adjusted so as not to be interrupted. However, if the exposure timing overlaps, the overlapped portion in the composite image becomes bright. Do not overlap the exposure period.

また、図示していないが、複眼撮像光学系を備える撮像装置では、画角を揃えて撮影したとしても、両眼視差の影響で画像に視差が発生する。花火撮影では無限遠に合焦させるため、輻輳角が無視できるが、望遠レンズで撮影する場合など、より厳密に位置合わが必要となる場合には、視差の影響を例えばアフィン変換などの画像補正によって解決しても良い。   Although not shown, in an imaging apparatus including a compound-eye imaging optical system, parallax occurs in an image due to binocular parallax even when images are taken with the same angle of view. Since the angle of convergence is negligible in fireworks shooting, the convergence angle can be ignored, but when more precise alignment is required, such as when shooting with a telephoto lens, the effect of parallax is corrected by image correction such as affine transformation. It may be solved by.

図9は主撮像光学系300で撮影した合成画像図9(a)と副撮像光学系301で撮影した合成画像図9(b)を説明するための例として示した図である。合成画像図9(a)と図9(b)を位置合わせして合成すると、図9(c)のように途切れの無い打ち上げ花火の合成画像を得ることが可能となる。   FIG. 9 is a diagram showing an example for explaining a composite image FIG. 9A photographed by the main imaging optical system 300 and a composite image FIG. 9B photographed by the sub-imaging optical system 301. 9 (a) and FIG. 9 (b) are aligned and combined, it is possible to obtain a seamless fireworks display image as shown in FIG. 9 (c).

ここで、主撮像光学系300の合成画像と副撮像光学系301の合成画像を合成して一枚の撮影画像が完成すると説明したが、主撮像光学系300で撮影した複数枚の画像と副撮像光学系301で撮影した複数枚の画像を時系列に並べて、それぞれの画像を位置合わせするようにしても良い。   Here, it has been described that a composite image of the main imaging optical system 300 and a composite image of the sub imaging optical system 301 are combined to complete one captured image. A plurality of images captured by the imaging optical system 301 may be arranged in time series and the respective images may be aligned.

以下では、上記の処理の流れの一例を図10により説明していく。
図10は実施例2の複眼撮像光学系を用いた花火撮影シーケンスを示す図である。
花火撮影モードにてシャッタスイッチ60を押下し(S400)、測光を行う。測光結果によって複数の撮像光学系で撮影するそれぞれの撮影枚数とシャッタ速度を決定する(S401)。処理の例として、主撮像光学系300ではn枚、副撮像光学系301ではm枚の撮影を行うものとする。このとき、それぞれの撮像光学系の撮影枚数はm=nまたはm=n+1となる。
Hereinafter, an example of the flow of the above processing will be described with reference to FIG.
FIG. 10 is a diagram illustrating a firework shooting sequence using the compound-eye imaging optical system according to the second embodiment.
In the fireworks shooting mode, the shutter switch 60 is pressed (S400), and photometry is performed. Based on the photometric result, the number of images to be captured and the shutter speed are determined (S401). As an example of processing, it is assumed that n images are captured by the main imaging optical system 300 and m images are captured by the sub imaging optical system 301. At this time, the number of shots of each imaging optical system is m = n or m = n + 1.

主撮像光学系300で露光を開始し(S402)、ステップS401で決定したシャッタ速度で露光を行う。主撮像光学系300の露光を終了するとき(S403)、露光が途切れないように副撮像光学系301の露光を開始する(S405)。副撮像光学系301で露光終了すると(S406)、撮影枚数がm枚に達していなければ(S407でN0)露光が途切れないように主撮像光学系300で露光を開始する(S403)。これら一連の処理を繰り返し、副撮像光学系301の撮影枚数がmになったところで撮影を終了して(S407でYes)、撮影画像から画像合成用の特徴点を検出する(S408)。   Exposure is started by the main imaging optical system 300 (S402), and exposure is performed at the shutter speed determined in step S401. When the exposure of the main imaging optical system 300 is finished (S403), the exposure of the sub imaging optical system 301 is started so that the exposure is not interrupted (S405). When the exposure is finished in the sub imaging optical system 301 (S406), if the number of shots has not reached m (N0 in S407), the main imaging optical system 300 starts exposure so that the exposure is not interrupted (S403). A series of these processes is repeated, and when the number of shots of the sub-imaging optical system 301 reaches m, shooting is terminated (Yes in S407), and feature points for image synthesis are detected from the shot images (S408).

このとき、特徴点が検出出来たら(S409でYes)、各画像の特徴点を基準として動きベクトルを算出し(S410)、算出した動きベクトルを各画像の位置合わせに用いて画像を合成する(S411)。   At this time, if a feature point can be detected (Yes in S409), a motion vector is calculated based on the feature point of each image (S410), and the calculated motion vector is used for alignment of each image to synthesize an image ( S411).

特徴点が検出できなかったときは(S409でNo)、n+m枚の連続撮影画像から画像の平均輝度が最大となる画像を抽出して記録媒体70に記録する(S412)。   If a feature point cannot be detected (No in S409), an image having the maximum average luminance of the image is extracted from n + m consecutively captured images and recorded on the recording medium 70 (S412).

以上、本発明の好ましい実施例1、実施例2について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable Example 1 and Example 2 of this invention were described, this invention is not limited to these Examples, A various deformation | transformation and change are possible within the range of the summary.

本発明は、実施例において撮像装置としてデジタルカメラを例に説明した。しかしながら、本発明は撮像可能な装置を備えている機器であれば良い。たとえばカメラ付きの携帯電話や電子機器であっても良い。   The present invention has been described by taking a digital camera as an example of the imaging apparatus in the embodiments. However, the present invention may be any device provided with an apparatus capable of imaging. For example, it may be a mobile phone with a camera or an electronic device.

100 撮像装置
50 システム制御部
20 画像処理部
200 特徴点検出処理部
201 動きベクトル演算部
202 画像合成処理部
203 特徴点検出領域設定処理部
300 主撮像光学系
301 副撮像光学系
400 撮像装置
DESCRIPTION OF SYMBOLS 100 Imaging device 50 System control part 20 Image processing part 200 Feature point detection processing part 201 Motion vector calculating part 202 Image composition processing part 203 Feature point detection area setting processing part 300 Main imaging optical system 301 Sub imaging optical system 400 Imaging apparatus

Claims (9)

順次撮影することにより複数の画像を取得する複数画像取得手段と、
前記複数の画像に写る輝点を抽出する輝点抽出手段と、
前記輝点抽出手段により抽出された輝点の大きさから、前記輝点が移動輝点か静止輝点かを判定する輝点判定手段と、
前記輝点判定手段により判定された静止輝点を基準として前記複数の画像間における動きベクトルを算出する動きベクトル算出手段と、
前記動きベクトル算出手段によって算出された動きベクトルに基づいて、一枚の合成画像を合成する画像合成手段とを有することを特徴とする撮像装置。
A plurality of image acquisition means for acquiring a plurality of images by sequentially photographing;
Bright spot extraction means for extracting bright spots appearing in the plurality of images,
Bright spot determination means for determining whether the bright spot is a moving bright spot or a stationary bright spot from the size of the bright spot extracted by the bright spot extracting means;
Motion vector calculating means for calculating a motion vector between the plurality of images with reference to the stationary bright spot determined by the bright spot determining means;
An image pickup apparatus comprising: an image combining unit that combines a single composite image based on the motion vector calculated by the motion vector calculating unit.
前記輝点判定手段は、前記輝点抽出手段により抽出された輝点の大きさが、所定の大きさよりも小さい場合に、静止輝点と判定することを特徴とする請求項1に記載の撮像装置。   The imaging according to claim 1, wherein the bright spot determining unit determines that the bright spot extracted by the bright spot extracting unit is a stationary bright spot when the size of the bright spot is smaller than a predetermined size. apparatus. 前記輝点判定手段は、前記輝点抽出手段により抽出された輝点の長さが、所定の長さよりも短い場合に、静止輝点と判定することを特徴とする請求項2に記載の撮像装置。   The imaging according to claim 2, wherein the bright spot determination unit determines that the bright spot extracted by the bright spot extraction unit is a stationary bright spot when the length of the bright spot is shorter than a predetermined length. apparatus. 前記動きベクトル算出手段は、前記複数の画像から、最も輝度レベルが低い画像と最も輝度レベルが高い画像を抽出し、前記抽出した画像を複数の分割エリアに分割し、対応する前記分割エリアの輝度レベルを比較して、前記動きベクトルを算出するための特徴点検出領域を設定することを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。   The motion vector calculating means extracts an image having the lowest luminance level and an image having the highest luminance level from the plurality of images, divides the extracted image into a plurality of divided areas, and luminances of the corresponding divided areas The imaging apparatus according to claim 1, wherein a feature point detection area for calculating the motion vector is set by comparing levels. 前記動きベクトル算出手段は、前記最も輝度レベルが低い画像と最も輝度レベルが高い画像との間で対応する前記分割エリアのうち、それぞれの輝度レベルが第1の閾値より大きく、なおかつ輝度レベルの差が第2の閾値より小さい前記分割エリアを前記特徴点検出領域に設定することを特徴とする請求項4に記載の撮像装置。   The motion vector calculation means has a luminance level greater than a first threshold among the divided areas corresponding to the image with the lowest luminance level and the image with the highest luminance level, and a difference in luminance level. The imaging apparatus according to claim 4, wherein the divided area smaller than a second threshold is set as the feature point detection region. 前記動きベクトル算出手段は、前記複数の画像の周辺領域を前記特徴点検出領域とはしないことを特徴とする請求項4または5のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the motion vector calculation unit does not make a peripheral area of the plurality of images the feature point detection area. 前記動きベクトル算出手段は、前記分割エリアの大きさを撮像光学系の焦点距離に応じて変更することを特徴とする請求項4ないし6のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the motion vector calculating unit changes the size of the divided area according to a focal length of an imaging optical system. 複数の撮像光学系を有し、
前記複数画像取得手段は、前記複数の撮像光学系によって露光が途切れず、かつ露光が重ならないように撮影された複数の画像を取得することを特徴とする請求項1ないし7のいずれか1項に記載の撮像装置。
Having a plurality of imaging optical systems,
The plurality of image acquisition means acquires a plurality of images taken by the plurality of imaging optical systems so that exposure is not interrupted and exposure is not overlapped. The imaging device described in 1.
順次撮影することにより複数の画像を取得する複数画像取得ステップと、
前記複数の画像に写る輝点を抽出する輝点抽出ステップと、
前記輝点抽出ステップにて抽出された輝点の大きさから、前記輝点が移動輝点か静止輝点かを判定する輝点判定ステップと、
前記輝点判定ステップにて判定された静止輝点を基準として前記複数の画像間における動きベクトルを算出する動きベクトル算出ステップと、
前記動きベクトル算出ステップにて算出された動きベクトルに基づいて、一枚の合成画像を合成する画像合成ステップとを有することを特徴とする撮像装置の制御方法。
A multiple image acquisition step of acquiring a plurality of images by sequentially shooting;
A bright spot extracting step for extracting bright spots in the plurality of images;
A bright spot determining step for determining whether the bright spot is a moving bright spot or a stationary bright spot from the size of the bright spot extracted in the bright spot extracting step;
A motion vector calculating step for calculating a motion vector between the plurality of images with reference to the stationary bright spot determined in the bright spot determining step;
An image synthesizing method comprising: an image synthesizing step of synthesizing one synthesized image based on the motion vector calculated in the motion vector calculating step.
JP2011224151A 2011-10-11 2011-10-11 Imaging apparatus and control method thereof Expired - Fee Related JP5800664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011224151A JP5800664B2 (en) 2011-10-11 2011-10-11 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011224151A JP5800664B2 (en) 2011-10-11 2011-10-11 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2013085140A true JP2013085140A (en) 2013-05-09
JP5800664B2 JP5800664B2 (en) 2015-10-28

Family

ID=48529885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011224151A Expired - Fee Related JP5800664B2 (en) 2011-10-11 2011-10-11 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5800664B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039150A (en) * 2013-08-19 2015-02-26 キヤノン株式会社 Exposure determination device, imaging apparatus, control method, and program
JP2016201627A (en) * 2015-04-08 2016-12-01 オリンパス株式会社 Imaging apparatus, composite imaging method and composite imaging program
WO2019111651A1 (en) * 2017-12-06 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 Imaging system, image processing device, and image processing method
US20200128191A1 (en) * 2018-03-27 2020-04-23 Huawei Technologies Co., Ltd. Photographing Method, Photographing Apparatus, and Mobile Terminal
US11488291B2 (en) 2018-06-12 2022-11-01 Olympus Corporation Image processing apparatus for generating a combined image from plural captured images having been subjected to position alignment, and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006332900A (en) * 2005-05-24 2006-12-07 Nikon Corp Electronic camera and image processing program
JP4324234B2 (en) * 2008-10-20 2009-09-02 キヤノン株式会社 Imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006332900A (en) * 2005-05-24 2006-12-07 Nikon Corp Electronic camera and image processing program
JP4324234B2 (en) * 2008-10-20 2009-09-02 キヤノン株式会社 Imaging device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039150A (en) * 2013-08-19 2015-02-26 キヤノン株式会社 Exposure determination device, imaging apparatus, control method, and program
JP2016201627A (en) * 2015-04-08 2016-12-01 オリンパス株式会社 Imaging apparatus, composite imaging method and composite imaging program
WO2019111651A1 (en) * 2017-12-06 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 Imaging system, image processing device, and image processing method
US20200128191A1 (en) * 2018-03-27 2020-04-23 Huawei Technologies Co., Ltd. Photographing Method, Photographing Apparatus, and Mobile Terminal
JP2020527000A (en) * 2018-03-27 2020-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting mobile terminal
JP2021100249A (en) * 2018-03-27 2021-07-01 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting and user interface using night shooting mode processing
US11070743B2 (en) * 2018-03-27 2021-07-20 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
US11330194B2 (en) 2018-03-27 2022-05-10 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
JP7169383B2 (en) 2018-03-27 2022-11-10 華為技術有限公司 Capture and user interface using night mode processing
US11838650B2 (en) 2018-03-27 2023-12-05 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
US11488291B2 (en) 2018-06-12 2022-11-01 Olympus Corporation Image processing apparatus for generating a combined image from plural captured images having been subjected to position alignment, and image processing method

Also Published As

Publication number Publication date
JP5800664B2 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP4198449B2 (en) Digital camera
JP5717453B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014044345A (en) Imaging apparatus
JP2014120844A (en) Image processing apparatus and imaging apparatus
JP2005033508A (en) Imaging device
JP2006033241A (en) Image pickup device and image acquiring means
JP5800664B2 (en) Imaging apparatus and control method thereof
US10839497B2 (en) Image processing apparatus and method
JP5576706B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP4181620B2 (en) Digital camera
JP2007235893A (en) Method for controlling imaging device and solid-state imaging device
JP2006054698A (en) Imaging apparatus having camera shake correction function
JP6559014B2 (en) Imaging apparatus, control method thereof, and program
JP2018006828A (en) Imaging apparatus, control method therefor and program
JP4597887B2 (en) Imaging device
US10674092B2 (en) Image processing apparatus and method, and image capturing apparatus
JP2005037490A (en) Digital camera
JP2021189341A (en) Imaging apparatus, control method, and program
JP2008209760A (en) Photographing method and photographing device
JP2005064749A (en) Camera
JP2019153208A (en) Image processor, method for processing image, and program
JP2014053777A (en) Imaging apparatus
JP2009210832A (en) Imaging device
JP2010107900A (en) Imaging apparatus, compound eye imaging apparatus, imaging method and program
JP2008227839A (en) Image-taking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150825

R151 Written notification of patent or utility model registration

Ref document number: 5800664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees