JP2007274220A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2007274220A JP2007274220A JP2006095895A JP2006095895A JP2007274220A JP 2007274220 A JP2007274220 A JP 2007274220A JP 2006095895 A JP2006095895 A JP 2006095895A JP 2006095895 A JP2006095895 A JP 2006095895A JP 2007274220 A JP2007274220 A JP 2007274220A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- subject
- exposure time
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 52
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 239000000203 mixture Substances 0.000 claims description 12
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 abstract description 9
- 238000012217 deletion Methods 0.000 abstract 1
- 230000037430 deletion Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009194 climbing Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/684—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
- H04N23/6845—Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Adjustment Of Camera Lenses (AREA)
Abstract
Description
本発明は,撮像装置および撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method.
時間的に連続して撮影した複数の画像を,手ぶれ等による画像のずれを打ち消すように合成することで,電子的に手ぶれを補正する撮像装置がある。 There is an imaging apparatus that electronically corrects camera shake by synthesizing a plurality of images taken continuously in time so as to cancel image shift caused by camera shake or the like.
手ぶれを補正するためには,合成する各画像において比較する領域を設定し,その領域のずれの量を検出する必要がある。ここで,主要な被写体が動いている場合,例えば走行中の自動車や電車等を撮影する場合を考えると,主要被写体と背景とで,それぞれずれの量が異なる。ここで,主要被写体ではなく背景を比較対象にして画像の合成を行ってしまうと,背景はぶれていないが主要被写体がぶれて撮影されてしまう。 In order to correct camera shake, it is necessary to set an area to be compared in each image to be synthesized and detect the amount of deviation of the area. Here, when the main subject is moving, for example, when taking a picture of a moving car or train, the amount of shift differs between the main subject and the background. Here, if the image is synthesized with the background as a comparison target instead of the main subject, the background is not blurred but the main subject is blurred.
この問題を解決する方法として,例えば特許文献1がある。特許文献1には,撮影する際にカメラを固定して撮影することで,移動する被写体を検出して,その被写体を比較対象とする技術が記されている。 As a method for solving this problem, for example, there is Patent Document 1. Patent Document 1 describes a technique in which a moving subject is detected by fixing a camera at the time of shooting, and the subject is compared.
しかし,特許文献1に記載の方法では,撮影者が移動する被写体に合わせてカメラをパンニングさせると,背景を移動する被写体と認識してしまい,背景はぶれていないが,被写体がぶれて撮影されてしまう問題があった。 However, in the method described in Patent Document 1, when the camera pans the camera in accordance with the moving subject, the background is recognized as a moving subject and the background is not blurred, but the subject is blurred. There was a problem.
そこで,本発明は,このような問題に鑑みてなされたもので,その目的とするところは,主要な被写体の移動の有無や,撮影者のパンニングの有無に関わらず,確実に主要な被写体を検出して,その被写体のぶれの量や移動量を打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる,新規かつ改良された,撮像装置および撮像方法を提供することにある。 Therefore, the present invention has been made in view of such a problem, and the object of the present invention is to ensure that the main subject is reliably detected regardless of whether the main subject has moved or whether the photographer has panned. A new and improved imaging device and imaging that can detect an image without camera shake or an image with no subject flowing by detecting and synthesizing images so as to cancel out the amount of movement and movement of the subject It is to provide a method.
上記課題を解決するために,本発明のある観点によれば,1回の撮影動作で露光時間を時分割して複数の画像を撮像する撮像装置であって:一の露光時間における画像データの中から比較領域を設定する比較領域設定部と;比較領域における一の画像を記憶する画像記憶部と;他の露光時間における画像データの中から一の画像に相当する他の画像を検出し,一の画像と他の画像との相対的な位置ずれを検出するずれ検出部と;相対的な位置ずれを打ち消して,一の画像と他の画像とが一致するように画像を合成する画像合成部と;を含むことを特徴とする,撮像装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, there is provided an imaging apparatus that captures a plurality of images by time-sharing an exposure time in one shooting operation: A comparison area setting section for setting a comparison area from among; an image storage section for storing one image in the comparison area; and detecting another image corresponding to the one image from image data at another exposure time; A displacement detection unit that detects a relative displacement between one image and another image; an image composition that cancels the relative displacement and synthesizes the images so that the one image matches another image And an imaging device.
かかる構成によれば,比較領域設定部は一の露光時間における画像データの中から比較領域を設定し,画像記憶部は比較領域における一の画像を記憶し,ずれ検出部は一の画像と他の画像との比較領域における相対的な位置ずれを検出し,画像合成部は一の画像と他の画像とが一致するように画像を合成する。その結果,被写体のぶれや移動量を打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる。 According to such a configuration, the comparison area setting unit sets a comparison area from image data at one exposure time, the image storage unit stores one image in the comparison area, and the deviation detection unit stores one image and the other. The relative position shift in the comparison area with the image of the image is detected, and the image composition unit synthesizes the image so that the one image matches the other image. As a result, it is possible to shoot an image free from camera shake or an image in which the subject does not flow by synthesizing the images so as to cancel out the shake and movement amount of the subject.
比較領域は,焦点検出領域であってもよい。かかる構成によれば,焦点検出領域で合焦した被写体を比較領域として,その被写体が一致するように画像合成部で画像を合成する。その結果,焦点検出領域で合焦した被写体のぶれや移動量を打ち消すように画像を合成することで,手ぶれの無い画像や合焦した被写体が流れない画像を撮影することができる。 The comparison area may be a focus detection area. According to such a configuration, the image is synthesized by the image composition unit so that the subject in focus in the focus detection region is used as the comparison region and the subject is matched. As a result, by compositing images so as to cancel out the blurring and movement amount of the focused subject in the focus detection area, it is possible to capture an image with no camera shake or an image where the focused subject does not flow.
上記課題を解決するために,本発明の別の観点によれば,1回の撮影動作で露光時間を時分割して複数の画像を撮像する撮像方法であって:一の露光時間における画像データの中から比較領域を設定する比較領域設定ステップと;比較領域における一の画像を記憶する合焦画像記憶ステップと;他の露光時間における画像データの中から一の画像に相当する他の画像を検出し,一の画像と他の画像との相対的な位置ずれを検出するずれ検出ステップと;相対的な位置ずれを打ち消して,一の画像と他の画像とが一致するように画像を合成する画像合成ステップと;を含むことを特徴とする,撮像方法が提供される。 In order to solve the above-mentioned problem, according to another aspect of the present invention, there is provided an imaging method for imaging a plurality of images by time-sharing an exposure time in one imaging operation: image data at one exposure time A comparison region setting step for setting a comparison region from among the above; a focused image storage step for storing one image in the comparison region; and another image corresponding to one image among image data at other exposure times A displacement detection step for detecting and detecting a relative misalignment between one image and another image; canceling the relative misalignment and synthesizing the image so that the one image matches the other image And an image synthesizing step. An imaging method is provided.
かかる構成によれば,比較領域設定ステップは一の露光時間における画像データの中から比較領域を設定し,画像記憶ステップは比較領域における一の画像を記憶し,ずれ検出ステップは一の画像と他の画像との比較領域における相対的な位置ずれを検出し,画像合成ステップは一の画像と他の画像とが一致するように画像を合成する。その結果,被写体のぶれや移動量を打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる。 According to such a configuration, the comparison area setting step sets a comparison area from the image data at one exposure time, the image storage step stores one image in the comparison area, and the shift detection step detects one image and the other. A relative positional shift in the comparison area with the image is detected, and the image synthesis step synthesizes the image so that one image matches the other image. As a result, it is possible to shoot an image free from camera shake or an image in which the subject does not flow by synthesizing the images so as to cancel out the shake and movement amount of the subject.
以上説明したように本発明によれば,主要な被写体の移動の有無や,撮影者のパンニングの有無に関わらず,確実に主要な被写体を検出して,そのぶれを打ち消すように画像を合成することで手ぶれの無い画像や被写体が流れない画像を撮影することができる,撮像装置および撮像方法を提供できるものである。 As described above, according to the present invention, the main subject is reliably detected regardless of whether the main subject has moved or whether the photographer has panned, and the image is synthesized so as to cancel the blur. Thus, it is possible to provide an imaging apparatus and an imaging method capable of capturing an image free from camera shake and an image in which a subject does not flow.
以下に添付図面を参照しながら,本発明の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
図1は本発明の一実施形態にかかる撮像装置について説明する説明図である。図1に示したように,本発明の一実施形態に係る撮像装置100は,ズームレンズ102と,絞り104と,フォーカスレンズ106と,駆動装置102a,104a,106aと,CCD(Charge Coupled Devices)素子108と,アンプ一体型のCDS(Correlated Double Sampling)回路110と,A/D変換器112と,画像入力コントローラ114と,画像信号処理部116と,圧縮処理部120と,LCD(Liquid Crystal Display)ドライバ123と,LCD124と,タイミングジェネレータ126と,CPU(Central Processing Unit)128と,操作部132と,シャッタボタン133と,メモリ134と,VRAM(Video Random Access Memory)136と,メディアコントローラ138と,記録メディア140と,モータドライバ142a,142b,142cとを含む。
FIG. 1 is an explanatory diagram for explaining an imaging apparatus according to an embodiment of the present invention. As shown in FIG. 1, an
以下,図1を用いて,本発明の一実施形態に係る撮像装置100の構成について説明する。
Hereinafter, the configuration of the
ズームレンズ102は,駆動装置102aによって光軸方向に前後して移動させることで焦点距離が連続的に変化するレンズであり,被写体の大きさを変化して撮影する。絞り104は,画像を撮影する際に,駆動装置104aによって,CCD素子108に入ってくる光量の調節を行う。フォーカスレンズ106は,駆動装置106aによって光軸方向に前後して移動させることで被写体のピントを調節するものである。
The
本実施形態においては,ズームレンズ102およびフォーカスレンズ106は1枚のみ示しているが,ズームレンズ102の枚数は2枚以上であってもよく,フォーカスレンズ106の枚数も2枚以上であってもよい。
In the present embodiment, only one
CCD素子108は,ズームレンズ102,絞り104およびフォーカスレンズ106から入射された光を電気信号に変換するための素子である。本実施形態においては電子シャッタによって入射光を制御して,電気信号を取り出す時間を調節しているが,メカシャッタを用いて入射光を制御して,電気信号を取り出す時間を調節してもよい。
The
本実施形態ではCCD素子108を用いているが,本発明は係る例に限定されず,CCD素子108の代わりにCMOS(Complementary Metal Oxide Semiconductor)素子を用いてもよく,またその他のイメージセンサを用いてもよい。CMOS素子は,CCD素子よりも高速に被写体の映像光を電気信号に変換できるので,被写体を撮影してから画像の合成処理を行うまでの時間を短縮することができる。
Although the
CDS回路110は,CCD素子108から出力された電気信号の雑音を除去する,サンプリング回路の一種であるCDS回路と,雑音を除去した後に電気信号を増幅するアンプとが一体となった回路である。本実施形態ではCDS回路とアンプとが一体となった回路を用いて撮像装置100を構成しているが,CDS回路とアンプとを別々の回路で構成してもよい。
The
A/D変換器112は,CCD素子108で生成された電気信号をデジタル信号に変換して,画像の生データ(画像データ)を生成するものである。
The A /
画像入力コントローラ114は,A/D変換器112で生成された画像の生データ(画像データ)のメモリ134への入力を制御するものである。
The
画像信号処理部116は,CCD素子108から出力された電気信号や,画像合成部118で合成した画像に対して,光量のゲイン補正やホワイトバランスの調整を行うものである。
The image
画像合成部118は,撮影した複数の画像の合成を行うものである。画像合成部の形態として,画像の合成を行う回路であってもよく,画像の合成を行うためのコンピュータプログラムであってもよい。
The
圧縮処理部120は,画像合成部118で合成した画像を,適切な形式の画像データに圧縮する圧縮処理を行う。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として,JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に変換してもよい。
The
LCD124は,撮影操作を行う前のライブビュー表示や,撮像装置100の各種設定画面や,撮影した画像の表示等を行う。画像データや撮像装置100の各種情報のLCD124への表示は,LCDドライバ122を介して行われる。
The
タイミングジェネレータ126は,CCD素子108にタイミング信号を入力する。タイミングジェネレータ126からのタイミング信号によりシャッタ速度が決定される。つまり,タイミングジェネレータ126からのタイミング信号によりCCD素子108の駆動が制御され,CCD素子108が駆動する時間内に被写体からの映像光を入射することで,画像データの基となる電気信号が生成される。
The
CPU128は,CCD素子108やCDS回路110などに対して信号系の命令を行ったり,操作部132の操作に対する操作系の命令を行ったりする。本実施形態においては,CPUを1つだけ含んでいるが,信号系の命令と操作系の命令とを別々のCPUで行うようにしてもよい。
The
操作部132は,撮像装置100の操作を行ったり,撮影時の各種の設定を行ったりするための部材が配置されている。操作部132に配置される部材には,電源ボタン,撮影モードや撮影ドライブモードの選択および効果パラメータの設定を行う十字キーおよび選択ボタン等が配置される。シャッタボタン133は,撮影操作を行うためのものであり,半押し状態(以下,シャッタボタン133の半押し状態のことを「S1状態」とも称する)で被写体を合焦し,全押し状態(以下,シャッタボタン133の全押し状態の事を「S2状態」とも称する)で被写体の撮像を行う。
The operation unit 132 is provided with members for operating the
メモリ134は,本発明の画像記憶部の一例であり,撮影した画像や画像合成部118で合成した画像を一時的に記憶するものである。メモリ134は,複数の画像を記憶できるだけの記憶容量を有している。メモリ134への画像の読み書きは画像入力コントローラ114によって制御される。
The
VRAM136は,LCD124に表示する内容を保持するものであり,LCD124の解像度や最大発色数はVRAM136の容量に依存する。
The
記録メディア140は,画像記録部の一例であり,撮影した画像や画像合成部118で合成した画像を記録するものである。記録メディア140への入出力は,メディアコントローラ138によって制御される。記録メディア140には,フラッシュメモリにデータを記録するカード型の記憶装置であるメモリカードを用いることができる。
The
モータドライバ142a,142b,142cはズームレンズ102,絞り104およびフォーカスレンズ106を動作させる駆動装置102a,104a,106aの制御を行う。モータドライバ142a,142b,142cを介してズームレンズ102,絞り104およびフォーカスレンズ106を動作させることで,被写体の大きさや光の量,ピントの調節を行う。
The
以上,図1を用いて本発明の一実施形態にかかる撮像装置について説明した。次に,図2を用いて本発明の一実施形態にかかる撮像装置のCPUの構成について説明する。 The imaging apparatus according to the embodiment of the present invention has been described above with reference to FIG. Next, the configuration of the CPU of the imaging apparatus according to the embodiment of the present invention will be described using FIG.
図2は,本発明の一実施形態にかかるCPU128の構成について説明する説明図である。図2に示したように,本発明の第1の実施形態にかかるCPU128は,適正AE算出部152と,露光制御部154と,合焦位置検出部156と,比較領域設定部158と,ずれ検出部160とを含む。
FIG. 2 is an explanatory diagram illustrating the configuration of the
適正AEレベル算出部152は,撮像装置100で自動露光を行い,EV(Exposure Value)値を取得する。取得したEV値に基づいて,適正な絞り値およびシャッタ速度の組が決まる。EV値は,絞り値がF1,シャッタ速度が1秒の時に適切な露出が得られる光量をEV=0とし,絞り値やシャッタ速度を変化させることでEV値が変化する。EV値は,Fを絞り値,Tをシャッタ速度として,EV=log2(F2/T)で求めることができる。従って,同じ絞り値ではシャッタ速度が高速になればなる程,EV値が上昇し,同じシャッタ速度では絞り値を大きくすればする程,EV値が上昇する。適正AEレベル算出部152では,撮影した画像のAF評価値およびAE(Auto Exposure;自動露光)評価値の算出を行う。
The appropriate AE level calculation unit 152 performs automatic exposure with the
露光制御部154は,適正AEレベル算出部152で算出したシャッタ速度による露光時間に基づいて,被写体を撮影する際の露光時間を決定する。決定した露光時間に基づいて,被写体からの映像光のCCD素子108への入射時間を制御する。
The
合焦位置検出部156は,露光制御部154での制御によってCCD素子108に被写体からの映像光が入射され,生成された画像データのAF評価値から,被写体の合焦位置を検出するものである。
The focus
比較領域設定部158は,1回の撮影操作で撮影した複数の画像を合成する際に,1枚目の画像の合焦領域に含まれる画像を比較領域データとして設定するものである。画像合成部118で画像を合成する際に,比較領域設定部158で設定した比較領域データが一致するように画像を合成する。
The comparison
ずれ検出部160は,1枚目の画像における比較領域データと,2枚目以降の各画像における比較領域データとの間の相対的な位置のずれ量を検出するものである。画像合成部118で画像を合成する際には,ずれ検出部160で検出した相対的位置のずれ量を打ち消すように,各画像の合成を行う。
The
以上,図2を用いて本発明の一実施形態にかかる撮像装置のCPUの構成について説明した。次に,本発明の一実施形態にかかる撮像方法について説明する。 The configuration of the CPU of the imaging apparatus according to the embodiment of the present invention has been described above with reference to FIG. Next, an imaging method according to an embodiment of the present invention will be described.
図3は,本発明の一実施形態にかかる撮像方法について説明する流れ図である。まず,被写体を撮影する前に被写体の合焦処理を行う。被写体の合焦処理を行うには,最初にシャッタボタン133をS1状態にして,S1状態によるS1動作を開始する(ステップS110)。シャッタボタン133のS1動作を開始すると,次にフォーカスレンズ106を被写体の近距離側から遠距離側に動作させながら被写体の露光処理を行うことで,画像信号処理部116でAF評価値を算出する(ステップS112)。そして,合焦位置検出部156でAF評価値のピークに対応する被写体の合焦位置を検出して(ステップS114),駆動装置106aが被写体に合焦する位置にフォーカスレンズ106を駆動させて,合焦処理を完了する(ステップS116)。
FIG. 3 is a flowchart illustrating an imaging method according to an embodiment of the present invention. First, the subject is focused before photographing the subject. In order to perform the subject focusing process, first, the
なお,撮影者が撮像装置100を撮影時にシャッタ速度(露光時間)や絞り値等の撮影条件を自動的に設定する自動露光モードに設定していた場合には,シャッタボタン133のS1動作で被写体の合焦処理を行う際に,適正AEレベル算出部152で適切なシャッタ速度や絞り値等の撮影条件を設定する。もちろん,自動露光を行わずに,シャッタ速度および/または絞り値を撮影者が操作部132を操作して手動(マニュアル)で設定してもよい。撮影者がシャッタ速度を手動で設定した場合には,適正AEレベル算出部152で適正な絞り値を算出することで自動的に設定し,絞り値を手動で設定した場合には,適正AEレベル算出部152で適正なシャッタ速度を算出することで自動的に設定する。
If the photographer has set the
本実施形態においては,図4に示したような,被写体として電車172と山174とが含まれる画像170を撮影する場合において,シャッタボタン133のS1動作を行った結果,絞り値をF4.0,感度(ゲイン)をISO100相当,シャッタ速度を1/60秒に設定したとする。絞り値,感度,シャッタ速度の組は一例であり,これに限られない。また,シャッタボタン133のS2動作の時に一度に5枚の画像を撮影する設定にしていた場合,1枚あたりの露光時間を1/60÷5=1/300秒に設定する。なお,シャッタボタン133のS2動作の際に一度に撮影する画像の枚数は,操作部132の操作によって設定してもよく,被写体の焦点距離から算出することができる手ぶれが発生しない限界のシャッタ速度である,手ぶれ限界シャッタ速度から決定してもよい。手ぶれ限界シャッタ速度は,フォーカスレンズ106の焦点距離をf(mm)とすると,およそ1/f(秒)で求めることができる。
In the present embodiment, as shown in FIG. 4, when an
被写体の合焦位置を検出するには,画像170の中の,焦点検出領域176の画像データに対してAF評価値を算出することで行う。合焦位置の検出は,いわゆる山登り法によって行う。
The in-focus position of the subject is detected by calculating an AF evaluation value for the image data in the
被写体の合焦位置にフォーカスレンズ106を駆動させると,シャッタボタン133のS1動作が終了し,シャッタボタン133が押されていない状態にあるかどうかをCPU128が判断する(ステップS118)。シャッタボタン133のS1動作が終了し,シャッタボタン133が押されていない状態にある場合は処理を終了する。一方,シャッタボタン133のS1動作が終了していない場合には,シャッタボタン133がS2状態にあり,S2動作を開始しているかどうかを判断する(ステップS120)。シャッタボタン133がS2状態になっていない場合にはステップS118に戻る。一方,シャッタボタン133が押し込まれてS2状態になっていた場合には,被写体の露光処理を開始して撮像動作を行う(ステップS122)。被写体の撮像動作は,自動露光によって設定された,またはマニュアルで設定したシャッタ速度や絞り値で行う。
When the
撮像動作が開始されると,CCD素子108に被写体からの映像光が設定された露光時間の間入射される。設定された露光時間が経過すると,CCD素子108への映像光の入射を止め,CCD素子108から画像データを読み出す(ステップS124)。読み出した画像データは,メモリ134に一時的に記憶する。
When the imaging operation is started, the image light from the subject enters the
画像データの読み出しが完了すると,設定した枚数の画像の取り込みが終了したかどうかを判断する(ステップS126)。設定した枚数の画像の取り込みが終了していなければ,上記ステップS122に戻って,再度設定された露光時間による露光処理を行う。一方,設定した枚数の画像の取り込みが終了していれば,取り込んだ複数の画像の合成処理を行う。 When the reading of the image data is completed, it is determined whether or not the set number of images has been captured (step S126). If capturing of the set number of images has not been completed, the process returns to step S122, and exposure processing is performed again with the set exposure time. On the other hand, if the capturing of the set number of images has been completed, a plurality of captured images are combined.
本実施形態においては,時間の経過に沿って,電車172が右から左へ走行している場面を,撮影者が撮像装置100を用いて一度の撮影操作によって撮影する。撮影した結果,図5の(a)〜(e)に示したような5枚の画像170a,170b,170c,170dおよび170eを撮影する。
In the present embodiment, the photographer photographs a scene where the
複数の画像の合成処理を行う際には,まず画像の比較領域を設定する(ステップS128)。本実施形態における画像の比較領域は,複数の画像の内,最初に撮影した1枚目の画像における,焦点検出領域の画像を設定する。図4に示した画像170においては,焦点検出領域176が比較領域となる。
When combining a plurality of images, first, a comparison region of images is set (step S128). In the image comparison area in the present embodiment, the image of the focus detection area in the first image taken first among a plurality of images is set. In the
画像の比較領域を設定すると,次にずれ検出部160で1枚目の画像の比較領域における一の画像と,2枚目以降における一の画像に相当する他の画像との間の相対的なずれの量を検出する(ステップS130)。ずれの量は,1枚目の画像170aにおける比較領域が,2枚目以降の画像のどの部分に含まれているかによって検出する。2枚目以降の各画像における比較領域の検出には,パターンマッチング法などの公知の技術を用いる事ができる。
When the image comparison area is set, the
各画像における1枚目の画像170aにおける比較領域とのずれの量を検出すると,画像合成部118において,画像のずれを打ち消すために,各画像における比較領域が一致するように各画像を合成し,画像を生成する(ステップS132)。
When the amount of deviation from the comparison area in the
画像合成部118で生成した合成画像の一例を図6に示す。図6に示す合成画像180aは,図5の(a)〜(e)に示したような5枚の画像170a〜170eを合成した結果生成されたものである。画像170a〜170eでは,電車172が時間の経過と共に右から左に移動しているが,最初の画像170aの比較領域として電車172の先頭部分を設定しているので,電車172の先頭部分が一致するように画像170a〜170eを合成することで,図6に示すような,電車172が一致して,背景の山174が流れているような画像180aを生成することができる。
An example of a composite image generated by the
従来の複数の画像を合成して移動する被写体を撮影する方法においては,特許文献1のようにカメラを固定して移動する被写体を含む複数の画像を撮影し,その複数の画像の中から移動している被写体を検出し,その移動している被写体が一致するように合成する方法がある。 In the conventional method of shooting a moving subject by combining a plurality of images, a plurality of images including the moving subject are captured with a camera fixed as in Patent Document 1, and the image is moved from the plurality of images. There is a method of detecting a moving subject and compositing so that the moving subject matches.
しかし,特許文献1に示した方法では,カメラを固定していなければ移動する被写体を撮影することができず,従来の流し撮りのように,カメラを振りながら(パンニングして)撮影することはできない。被写体の動作速度がゆっくりであれば被写体に合焦することも可能であるが,自動車や電車のように速い速度で移動する被写体を撮影する際には,撮像装置の動作のタイムラグによって被写体を中央の焦点検出領域に捉えることが困難であったり,カメラを振りながら撮影すると,背景を主要被写体と勘違いして,図7に示したように,背景でなく主要被写体がぶれた画像180bが撮影されてしまったりする。
However, with the method shown in Patent Document 1, a moving subject cannot be shot unless the camera is fixed, and it is not possible to take a picture while shaking the camera (panning) as in conventional panning. Can not. If the subject's movement speed is slow, it is possible to focus on the subject. However, when shooting a subject that moves at a high speed, such as a car or train, the subject is centered due to the time lag of the operation of the imaging device. If it is difficult to capture in the focus detection area of the camera or if it is taken while shaking the camera, the background is mistaken for the main subject, and as shown in FIG. 7, an
そこで,本実施形態のように,一度の撮影操作で複数の画像を撮影可能な撮像装置において,最初の画像の撮影時に主要な被写体に合焦することで,主要な被写体が動いていてもいなくても,また撮像装置をパンニングしていてもしていなくても,確実に撮影者が意図する主要な被写体を検出することができ,主要な被写体がぶれていない画像を撮影することができる。 Therefore, as in the present embodiment, in an imaging apparatus that can capture a plurality of images with a single shooting operation, the main subject does not have to move by focusing on the main subject at the time of shooting the first image. Even if the imaging device is panned or not, the main subject intended by the photographer can be reliably detected, and an image in which the main subject is not blurred can be taken.
以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明は係る例に限定されないことは言うまでもない。当業者であれば,特許請求の範囲に記載された範疇内において,各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.
例えば,上記実施形態における撮像装置100の構成要素の一部は,撮像装置100の内部に記憶されたコンピュータプログラムであってもよく,各部の機能を実行するマイクロプロセッサ等のハードウェアであってもよい。
For example, some of the components of the
また,上記実施形態においては比較領域として焦点検出領域を用いたが,焦点検出領域以外の領域を比較領域として設定してもよい。また,比較領域は2つ以上であってもよく,焦点検出領域を複数備える撮像装置であれば,その複数の焦点検出領域の一部または全部を比較領域として設定してもよい。比較領域を複数設定することで,相対的な位置ずれの量をより正確に検出することができる。 In the above embodiment, the focus detection area is used as the comparison area. However, an area other than the focus detection area may be set as the comparison area. Further, there may be two or more comparison areas. If the imaging apparatus includes a plurality of focus detection areas, a part or all of the plurality of focus detection areas may be set as the comparison areas. By setting a plurality of comparison areas, the amount of relative positional deviation can be detected more accurately.
本発明は,撮像装置および撮像方法に適用可能である。 The present invention is applicable to an imaging apparatus and an imaging method.
100 撮像装置
102 ズームレンズ
102a,104a,106a 駆動装置
104 絞り
106 フォーカスレンズ
108 CCD素子
110 CDS回路
112 A/D変換器
114 画像入力コントローラ
116 画像信号処理部
118 画像合成部
120 圧縮処理部
122 LCDドライバ
124 LCD
126 タイミングジェネレータ
128 CPU
132 操作部
133 シャッタボタン
134 メモリ
136 VRAM
138 メディアコントローラ
140 記録メディア
142a,142b,142c モータドライバ
152 適正AEレベル算出部
154 露光制御部
156 合焦位置検出部
158 比較領域設定部
160 ずれ検出部
170,170a,170b,170c,170d,170e,180a,180b 画像
176 焦点検出領域
DESCRIPTION OF
126
132
138
Claims (3)
一の露光時間における画像データの中から比較領域を設定する比較領域設定部と;
前記比較領域における一の画像を記憶する画像記憶部と;
他の露光時間における画像データの中から前記一の画像に相当する他の画像を検出し,前記一の画像と前記他の画像との相対的な位置ずれを検出するずれ検出部と;
前記相対的な位置ずれを打ち消して,前記一の画像と前記他の画像とが一致するように画像を合成する画像合成部と;
を含むことを特徴とする,撮像装置。 An imaging apparatus that captures a plurality of images by time-sharing an exposure time in one shooting operation:
A comparison area setting unit for setting a comparison area from image data at one exposure time;
An image storage unit for storing one image in the comparison region;
A displacement detection unit that detects another image corresponding to the one image from image data at another exposure time, and detects a relative displacement between the one image and the other image;
An image composition unit that composes an image such that the one image and the other image coincide with each other by canceling the relative displacement;
An imaging device comprising:
一の露光時間における画像データの中から比較領域を設定する比較領域設定ステップと;
前記比較領域における一の画像を記憶する画像記憶ステップと;
他の露光時間における画像データの中から前記一の画像に相当する他の画像を検出し,前記一の画像と前記他の画像との相対的な位置ずれを検出するずれ検出ステップと;
前記相対的な位置ずれを打ち消して,前記一の画像と前記他の画像とが一致するように画像を合成する画像合成ステップと;
を含むことを特徴とする,撮像方法。
An imaging method for capturing a plurality of images by time-sharing exposure time in one shooting operation:
A comparison area setting step for setting a comparison area from image data at one exposure time;
An image storing step for storing one image in the comparison region;
A displacement detection step of detecting another image corresponding to the one image from image data at another exposure time, and detecting a relative displacement between the one image and the other image;
An image combining step of canceling the relative positional shift and combining the images so that the one image matches the other image;
An imaging method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095895A JP2007274220A (en) | 2006-03-30 | 2006-03-30 | Imaging apparatus and imaging method |
KR1020060070452A KR100819808B1 (en) | 2006-03-30 | 2006-07-26 | Photographing apparatus, and photographing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095895A JP2007274220A (en) | 2006-03-30 | 2006-03-30 | Imaging apparatus and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007274220A true JP2007274220A (en) | 2007-10-18 |
Family
ID=38676577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006095895A Pending JP2007274220A (en) | 2006-03-30 | 2006-03-30 | Imaging apparatus and imaging method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2007274220A (en) |
KR (1) | KR100819808B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012109899A (en) * | 2010-11-19 | 2012-06-07 | Aof Imaging Technology Ltd | Image processing device |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007336394A (en) * | 2006-06-16 | 2007-12-27 | Samsung Techwin Co Ltd | Imaging apparatus and image compositing method |
JP5328321B2 (en) * | 2008-11-28 | 2013-10-30 | 三星電子株式会社 | Imaging apparatus and imaging method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006025312A (en) * | 2004-07-09 | 2006-01-26 | Konica Minolta Photo Imaging Inc | Imaging apparatus and image acquisition method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990085269A (en) * | 1998-05-15 | 1999-12-06 | 윤종용 | CMOS image sensor using multi-level time division output method |
KR20050019844A (en) * | 2002-07-11 | 2005-03-03 | 나이루스 가부시키가이샤 | Image pickup system |
JP3801126B2 (en) * | 2002-09-25 | 2006-07-26 | ソニー株式会社 | Imaging apparatus, image output method of imaging apparatus, and computer program |
-
2006
- 2006-03-30 JP JP2006095895A patent/JP2007274220A/en active Pending
- 2006-07-26 KR KR1020060070452A patent/KR100819808B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006025312A (en) * | 2004-07-09 | 2006-01-26 | Konica Minolta Photo Imaging Inc | Imaging apparatus and image acquisition method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012109899A (en) * | 2010-11-19 | 2012-06-07 | Aof Imaging Technology Ltd | Image processing device |
Also Published As
Publication number | Publication date |
---|---|
KR100819808B1 (en) | 2008-04-07 |
KR20070098403A (en) | 2007-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4979969B2 (en) | Imaging apparatus and imaging method | |
KR100871639B1 (en) | Camera and image processing method for camera | |
TWI514847B (en) | Image processing device, image processing method, and recording medium | |
TWI459126B (en) | Image processing device capable of generating a wide-range image, image processing method and recording medium | |
JP2008187591A (en) | Imaging apparatus and imaging method | |
JP2009010776A (en) | Imaging device, photography control method, and program | |
JP2006162990A (en) | Stereoscopic image photographing apparatus | |
JP2006162991A (en) | Stereoscopic image photographing apparatus | |
JP2005079841A (en) | Imaging apparatus and method | |
JP4878978B2 (en) | Imaging apparatus and imaging method | |
KR100819811B1 (en) | Photographing apparatus, and photographing method | |
JP2006246354A (en) | Imaging unit and imaging program | |
JP4977569B2 (en) | Imaging control apparatus, imaging control method, imaging control program, and imaging apparatus | |
JP2008015097A (en) | Imaging device and imaging method | |
JP4315341B2 (en) | Panning method and photographing apparatus | |
JP2009206920A (en) | Camera | |
JP4767904B2 (en) | Imaging apparatus and imaging method | |
JP2001133679A (en) | Electronic camera and automatic focusing method | |
KR100819808B1 (en) | Photographing apparatus, and photographing method | |
JP2008244991A (en) | Imaging apparatus and imaging method | |
JP5180042B2 (en) | Imaging apparatus and imaging method | |
KR100819807B1 (en) | Image pickup apparatus and method of picking up images | |
JP2007110498A (en) | Compound eye photographing apparatus | |
JP4533175B2 (en) | Imaging device | |
JP5446219B2 (en) | Photometric device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090330 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20090811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110405 |