JP2010239514A - Imaging system, image processing method and program - Google Patents

Imaging system, image processing method and program Download PDF

Info

Publication number
JP2010239514A
JP2010239514A JP2009086960A JP2009086960A JP2010239514A JP 2010239514 A JP2010239514 A JP 2010239514A JP 2009086960 A JP2009086960 A JP 2009086960A JP 2009086960 A JP2009086960 A JP 2009086960A JP 2010239514 A JP2010239514 A JP 2010239514A
Authority
JP
Japan
Prior art keywords
image
shooting
main
image processing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009086960A
Other languages
Japanese (ja)
Inventor
Saori Shimizu
さおり 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009086960A priority Critical patent/JP2010239514A/en
Publication of JP2010239514A publication Critical patent/JP2010239514A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a formal photographic image improved and to provide in image quality with respect to an imaging system, an image processing method and a program. <P>SOLUTION: The imaging system 1 includes an imaging unit 2 for imaging a subject; an operation detecting unit 34 for detecting a photographing operation due to a photographer; a photographic control unit 20, in which the photographing operation is performed, formal photographing is performed and prior to the formal photographing, previous photographing is performed under photographing conditions different from the formal photographing; an SDRAM 41 for storing information, relating to a previous image captured in the previous photographing; and an image processing unit 25 for correcting a regular photographed image, captured in the formal photographing by using the previous image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタルカメラ等の撮像システム及び画像処理方法並びにプログラムに関するものである。   The present invention relates to an imaging system such as a digital camera, an image processing method, and a program.

カメラ等の静止画撮影は、撮影した瞬間の画像しか得られないため、情報状況によっては、露出や被写体の色が撮影者の狙い通りでない画像が取得されたり、取得された画像にノイズが多く含まれていたり、手ぶれや被写体ぶれによって画像にブレが生ずることがある。
これに対して、類似画像を用いて、本撮影時に取得された本撮影画像に対して画像処理を行い、画像を修正する方法が知られている(例えば、特許文献1参照)。
また、スルー画等の本撮影前表示に使用している撮影画像から得られた情報を用いて、本撮影画像に対して画像処理を行い、例えばホワイトバランスなどの被写体の色味等を修正する方法が知られている(例えば、特許文献2参照)。
また、複数の画像を同一の解像で撮影し、合成することによって、本撮影画像におけるノイズの低減や露出向上、ぶれの低減を行う技術が知られている。
Since still images such as cameras can only be captured at the moment they are taken, depending on the information situation, images with exposure and subject colors that are not as intended by the photographer may be acquired, or the acquired images may be noisy. It may be included, or the image may be blurred due to camera shake or subject shake.
On the other hand, a method of correcting an image by performing image processing on a main captured image acquired at the time of main shooting using a similar image is known (see, for example, Patent Document 1).
In addition, image processing is performed on the actual captured image using information obtained from the captured image used for the pre-photographing display such as a through image, and the color of the subject such as white balance is corrected. A method is known (see, for example, Patent Document 2).
In addition, a technique is known in which a plurality of images are captured with the same resolution and combined to reduce noise, improve exposure, and reduce blur in the captured image.

特開2006−344166号公報JP 2006-344166 A 特許第3943611号公報Japanese Patent No. 3934611

しかしながら、特許文献1等に開示されている従来の技術では、必ずしも適切な画像を用いて本撮影画像の画像処理が行われるわけでなく、この結果、撮影者が所望する画質を満足する本撮影画像が得られない場合が懸念される。   However, in the conventional technique disclosed in Patent Document 1 or the like, image processing of the captured image is not necessarily performed using an appropriate image, and as a result, the captured image satisfying the image quality desired by the photographer is satisfied. There is a concern that an image cannot be obtained.

本発明は、上記問題を解決するためになされたもので、画質の向上した本撮影画像を得ることのできる撮像システム及び画像処理方法並びにプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging system, an image processing method, and a program that can obtain a real captured image with improved image quality.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明の第1の態様は、撮影光学系と、前記撮影光学系を介して被写体を撮像する撮像素子と、撮影者の撮影操作を検出する撮影操作検出手段と、前記撮影操作がされた場合に、本撮影を行う第1の撮影制御手段と、前記本撮影に先立ち、該本撮影とは異なる撮影条件で事前撮影を行う第2の撮影制御手段と、前記事前撮影において取得された事前画像に関する情報を記憶する記憶手段と、該本撮影により取得された本撮影画像を前記事前画像を用いて補正する画像処理手段とを具備する撮像システムである。
In order to solve the above problems, the present invention employs the following means.
According to a first aspect of the present invention, there is provided a photographing optical system, an image pickup device that picks up an image of a subject via the photographing optical system, a photographing operation detecting unit that detects a photographing operation of a photographer, and the photographing operation. In addition, the first shooting control means for performing the main shooting, the second shooting control means for performing the pre-shooting under shooting conditions different from the main shooting prior to the main shooting, and the advance acquired in the previous shooting. An imaging system comprising storage means for storing information relating to an image, and image processing means for correcting an actual captured image acquired by the actual imaging using the prior image.

このような構成によれば、本撮影とは異なる撮影条件で取得された事前画像を用いて、本撮影において取得された本撮影画像に対して画像処理を施すので、本撮影画像に含まれている画像情報とは異なる情報を持つ画像を用いて本撮影画像の画像処理を行うことが可能となる。これにより、本撮影画像には含まれていない新たな情報を用いて本撮影画像の画像処理を行うことが可能となり、画質の向上した本撮影画像を得ることが可能となる。
さらに、事前画像は本撮影において取得された画像とほぼ類似の被写体を撮影しているので、本撮影の補正のために、より適切な情報を得ることができる。
According to such a configuration, image processing is performed on the main captured image acquired in the main shooting using a pre-image acquired under shooting conditions different from that of the main shooting, and thus included in the main captured image. It is possible to perform image processing of the actual captured image using an image having information different from the existing image information. As a result, it is possible to perform image processing of the main photographic image using new information not included in the main photographic image, and it is possible to obtain a main photographic image with improved image quality.
Furthermore, since the pre-image captures a subject that is substantially similar to the image acquired in the main shooting, more appropriate information can be obtained for correcting the main shooting.

例えば、事前画像として本撮影画像よりも解像度の低い画像を使用することで、メモリ容量の低減、処理時間の短縮を図ることが可能となる。また低解像の画像は画像のエッジやテクスチャなどの構造が明快で解析しやすいため、ノイズ低減処理の際に画像のエッジやテクスチャに応じてノイズ低減処理を加減するときなどに、特別な解像変換処理を行うことなく、有効に活用可能である。また、複数画素を撮像素子内で加算した後、ゲインアップする処理を行うことによって作成されるような画像は、低解像だが、ノイズの少ない高感度画像となる。このようなノイズの少ない高感度画像を事前画像として用いることで、ノイズ低減処理をより効果的に行うことができる。   For example, it is possible to reduce the memory capacity and the processing time by using an image having a lower resolution than the actual captured image as the prior image. In addition, since the low-resolution image has a clear structure such as the edge and texture of the image and is easy to analyze, there is a special solution when noise reduction processing is adjusted according to the edge and texture of the image during noise reduction processing. It can be used effectively without performing image conversion processing. In addition, an image created by performing gain-up processing after adding a plurality of pixels in the image sensor is a high-sensitivity image with low resolution but low noise. By using such a high-sensitivity image with less noise as a prior image, noise reduction processing can be performed more effectively.

また、例えば、本撮影では、撮影の露光条件設定で失敗してしまったり、手振れを避けることを重視して露光不足になってしまったような場合であっても、事前画像として本撮影画像と露光条件の異なる画像を使用することで、画像の補正処理が可能となる。更に、輝度差がある被写体で本撮影だけでは一部が黒つぶれしてしまったり、飛んでしまうような画像であっても、露光条件の異なる事前画像を用いて補正することで、黒つぶれや白飛びした部分の階調や色を再現することができる。   Also, for example, in the case of actual shooting, even if the shooting exposure condition setting fails or the exposure is under-emphasized with an emphasis on avoiding camera shake, By using images with different exposure conditions, it is possible to perform image correction processing. Furthermore, even if the subject has a brightness difference and the image is partially blackened or skipped only by actual shooting, it can be corrected by using a preliminary image with different exposure conditions. It is possible to reproduce the gradation and color of the overexposed part.

また、例えば、本撮影では、画質を重視して、感度を下げ、長秒時の露光を行ったことにより被写体ブレや手振れが生じた場合であっても、事前画像として本撮影画像とシャッタ速度の異なる画像を使用することで、例えば、高感度、高いシャッタ速度で撮影した事前画像を用いて被写体ぶれや手振れの影響を補正することで、画像を改善することが可能となる。   Also, for example, in actual shooting, even if subject blurring or camera shake occurs due to reduced sensitivity and exposure for a long time with an emphasis on image quality, the actual shooting image and shutter speed are used as prior images. By using different images, for example, it is possible to improve the image by correcting the influence of subject shake and camera shake using a pre-image taken with high sensitivity and high shutter speed.

本発明の第2の態様は、本撮影に先立ち、本撮影とは異なる解像で事前撮影を行い、該事前撮影で得られた画像を用いて本撮影において取得された画像を補正する撮像装置の画像処理方法である。   According to a second aspect of the present invention, an imaging device that performs pre-photographing with a resolution different from that of main photographing prior to the main photographing and corrects an image acquired in the main photographing using an image obtained by the pre-photographing. This is an image processing method.

本発明の第3の態様は、画像処理を行うための画像処理プログラムであって、本撮影に先立って行われるとともに、該本撮影とは異なる解像度で行われた事前撮影において取得された画像を用いて、本撮影において取得された画像を補正する補正処理をコンピュータに実行させるための画像処理プログラムである。   According to a third aspect of the present invention, there is provided an image processing program for performing image processing, which is performed prior to a main shooting and an image acquired in a preliminary shooting performed at a resolution different from the main shooting. It is an image processing program for causing a computer to execute correction processing for correcting an image acquired in actual photographing.

本発明によれば、画質の向上した本撮影画像を得ることができるという効果を奏する。   According to the present invention, it is possible to obtain a main captured image with improved image quality.

本発明の第1の実施形態に係る撮像システムの概略構成を示したブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging system according to a first embodiment of the present invention. パワーオンから本撮影画像の格納処理までのシーケンスフローの概略を示した図である。It is the figure which showed the outline of the sequence flow from a power-on to the storage process of this imaging | photography image. 本発明の第1の実施形態に係るスルー画像撮影表示処理及びスルー画像格納処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the through image imaging | photography display process and the through image storage process which concern on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る本撮影画像の画像処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the image process of the real picked-up image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るスルー画像選択処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the through image selection process which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るマッチング処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the matching process which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る本撮影画像の画像処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the image process of the real picked-up image which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る本撮影画像の画像処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the image process of the picked-up image which concerns on the 3rd Embodiment of this invention.

〔第1の実施形態〕
以下に、本発明の第1の実施形態に係る撮像システムについて、図面を参照して説明する。
図1は、本実施形態に係る撮像システムの概略構成を示したブロック図である。本実施形態に係る撮像システム1は、例えば、デジタルカメラであり、撮像部2と画像処理装置3とを備えている。撮像部2は、レンズ10、シャッタ11、CCD12、CCD制御部13、レンズ駆動部14、及びストロボ15を備えている。
レンズ10には、ピント調節および焦点距離調節用の撮影レンズと、開口量を調節するための絞り10aが配置されている。この絞り10aの役割は、撮影制御部20からの制御指令に基づいて、撮像面へ照射する光の明るさと深度を調整することであるが、深度調整の必要性の少ない廉価な撮像システムにおいては、明るさ調節の目的のために、例えば、光量調節のためのNDフィルタで代用することも可能である。
[First Embodiment]
Hereinafter, an imaging system according to a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging system according to the present embodiment. An imaging system 1 according to the present embodiment is, for example, a digital camera, and includes an imaging unit 2 and an image processing device 3. The imaging unit 2 includes a lens 10, a shutter 11, a CCD 12, a CCD control unit 13, a lens driving unit 14, and a strobe 15.
The lens 10 is provided with a photographing lens for focus adjustment and focal length adjustment, and a diaphragm 10a for adjusting the aperture amount. The role of the diaphragm 10a is to adjust the brightness and depth of light irradiated to the imaging surface based on a control command from the imaging control unit 20, but in an inexpensive imaging system with little need for depth adjustment. For the purpose of adjusting the brightness, for example, an ND filter for adjusting the amount of light can be substituted.

レンズ10は、後述する撮影制御部20の制御によりレンズ駆動部14が作動することにより駆動される。これにより、撮影制御部20からの制御指令に基づいて、ピント合わせ、ズーム駆動等が行われる。ストロボ15は、撮影制御部20の制御により、被写体に光を照射可能となっている。
レンズ10の後方には、露光時間制御用のシャッタ11が配置されている。このシャッタ11は撮影制御部20によって駆動制御される。
シャッタ11はスルー画像撮影時には常に開いた状態とされる。このとき、CCD12の露光量制御はCCD12の有する電子シャッタ機能を用いて実現される。また、いわゆる静止画(以下「スチル撮影」という。)撮影時にはシャッタ11によりCCD12への露光量が制御される。
The lens 10 is driven by the operation of the lens driving unit 14 under the control of the photographing control unit 20 described later. Thereby, focusing, zoom driving, and the like are performed based on a control command from the imaging control unit 20. The strobe 15 can irradiate the subject with light under the control of the photographing control unit 20.
Behind the lens 10 is an exposure time control shutter 11. The shutter 11 is driven and controlled by the photographing control unit 20.
The shutter 11 is always open during through image capturing. At this time, exposure amount control of the CCD 12 is realized by using an electronic shutter function of the CCD 12. The exposure amount to the CCD 12 is controlled by the shutter 11 during so-called still image (hereinafter referred to as “still shooting”) shooting.

シャッタ11の後方には二次元撮像素子としてのCCD12が配置されており、レンズ10によって結像される被写体像を電気信号に光電変換する。なお、本実施形態では撮像素子としてCCDを用いているが、これに限らずCMOS(Complementary Metal Oxide Semiconductor)等の二次元撮像素子を使用できることはいうまでもない。   A CCD 12 as a two-dimensional imaging device is disposed behind the shutter 11 and photoelectrically converts a subject image formed by the lens 10 into an electrical signal. In the present embodiment, the CCD is used as the image pickup device. However, the present invention is not limited to this, and it is needless to say that a two-dimensional image pickup device such as a CMOS (Complementary Metal Oxide Semiconductor) can be used.

CCD制御部13はCCDインターフェイス21に接続されている。CCD制御部13は、CCDインターフェイス21を介して後述するシーケンスコントローラ(以下「ボディCPU」という。)からの制御信号を受信し、この制御信号に基づいてCCD12の電源のオン・オフ制御等を行い、撮像のタイミングを調整し、光電変換信号の増幅(ゲイン調整)等を行う。   The CCD controller 13 is connected to the CCD interface 21. The CCD controller 13 receives a control signal from a sequence controller (hereinafter referred to as “body CPU”), which will be described later, via the CCD interface 21, and performs power on / off control of the CCD 12 based on the control signal. The imaging timing is adjusted, and the photoelectric conversion signal is amplified (gain adjustment).

CCD12により取得されたアナログ信号の画像信号は、CCDインターフェイス21によりデジタル信号に変換され、画像処理装置3に入力される。
画像処理装置3は、例えば、ASICであり、上述の撮影制御部(第1の撮影制御手段、第2の撮影制御手段)20、CCDインターフェイス21、ボディCPU22、輝度算出部23、AF演算部24、画像処理部(画像処理手段)25等を備えている。これら各部は、画像処理装置3内のデータバス30を介して相互に接続されている。
The analog image signal acquired by the CCD 12 is converted into a digital signal by the CCD interface 21 and input to the image processing device 3.
The image processing apparatus 3 is, for example, an ASIC, and the above-described photographing control unit (first photographing control unit, second photographing control unit) 20, CCD interface 21, body CPU 22, luminance calculation unit 23, and AF calculation unit 24. And an image processing unit (image processing means) 25 and the like. These units are connected to each other via a data bus 30 in the image processing apparatus 3.

ボディCPU22は、撮像システム1が備える各部の制御を行う。
輝度算出部23は、画像信号を所定の分割エリアごとに平均して、輝度信号に変換し、被写体の輝度分布情報を算出する。
AF演算部24は、画像信号を所定の領域に分割し、領域毎にコントラスト情報を算出し、レンズ駆動部14の制御と同期して、所定領域のコントラストが最大となるように、レンズ10を駆動することにより、被写体に焦点を合わせる。
The body CPU 22 controls each unit included in the imaging system 1.
The luminance calculation unit 23 averages the image signal for each predetermined divided area, converts it into a luminance signal, and calculates luminance distribution information of the subject.
The AF calculation unit 24 divides the image signal into predetermined regions, calculates contrast information for each region, and synchronizes with the control of the lens driving unit 14 so that the lens 10 is adjusted so that the contrast in the predetermined region is maximized. Focus on the subject by driving.

画像処理部25は、撮像部2により取得された画像信号に対してOB減算、色補正、階調変換、白黒・カラーモード処理、スルー画像処理といった各種の画像処理を行う。なお、この画像処理部25により実現される処理の詳細については、後述する。   The image processing unit 25 performs various types of image processing such as OB subtraction, color correction, gradation conversion, monochrome / color mode processing, and through image processing on the image signal acquired by the imaging unit 2. Details of processing realized by the image processing unit 25 will be described later.

また、上記データバス30には、上述した構成要素のほか、圧縮部31、SDRAM(Synchronous Dynamic Random Access Memory)制御部32、フラッシュメモリ制御部33、操作検出部(撮影操作検出手段)34、記録媒体制御部35、ビデオ信号出力部36などが接続されている。   In addition to the above-described components, the data bus 30 includes a compression unit 31, an SDRAM (Synchronous Dynamic Access Memory) control unit 32, a flash memory control unit 33, an operation detection unit (shooting operation detection unit) 34, a recording A medium control unit 35, a video signal output unit 36, and the like are connected.

圧縮部31は後述するSDRAM41に記憶された画像データ等をJPEGで圧縮するためのブロックである。なお、画像圧縮はJPEGに限らず、他の圧縮方法も適用できる。フラッシュメモリ制御部33は、フラッシュメモリ42に接続されている。このフラッシュメモリ42には、撮像システム1における各処理を制御するための画像処理プログラムが記憶されており、ボディCPU22はこのフラッシュメモリ42に記憶されたプログラムに従って各部の制御を行う。なお、フラッシュメモリ42は、電気的に書換可能な不揮発性メモリである。SDRAM41は、SDRAM制御部32を介してデータバス30に接続されている。SDRAM41は、画像処理部25等によって画像処理された画像情報または圧縮部31によって圧縮された画像情報を一時的に記憶するためのメモリである。   The compression unit 31 is a block for compressing image data or the like stored in an SDRAM 41 described later with JPEG. Note that image compression is not limited to JPEG, and other compression methods can be applied. The flash memory control unit 33 is connected to the flash memory 42. The flash memory 42 stores an image processing program for controlling each process in the imaging system 1, and the body CPU 22 controls each unit according to the program stored in the flash memory 42. The flash memory 42 is an electrically rewritable nonvolatile memory. The SDRAM 41 is connected to the data bus 30 via the SDRAM control unit 32. The SDRAM 41 is a memory for temporarily storing image information processed by the image processing unit 25 or the like or image information compressed by the compression unit 31.

撮影制御部20は、データバス30を介してボディCPU22等の各部と接続している。記録媒体制御部35は、記録媒体43に接続され、この記録媒体43への画像データ等の記録の制御を行う。記録媒体43は、xDピクチャーカード(登録商標)、コンパクトフラッシュ(登録商標)、SDメモリカード(登録商標)、メモリスティック(登録商標)またはハードディスクドライブ(HD)等の書換可能な記録媒体で構成され、撮像システム本体に対して着脱可能とされている。   The imaging control unit 20 is connected to each unit such as the body CPU 22 via the data bus 30. The recording medium control unit 35 is connected to the recording medium 43 and controls recording of image data and the like on the recording medium 43. The recording medium 43 includes a rewritable recording medium such as an xD picture card (registered trademark), a compact flash (registered trademark), an SD memory card (registered trademark), a memory stick (registered trademark), or a hard disk drive (HD). The imaging system main body can be attached and detached.

ビデオ信号出力部36は、表示モニタ制御部45を介して表示モニタ(表示手段)46に接続されている。ビデオ信号出力部36は、SDRAM41または記録媒体43に記憶された画像データを、表示モニタ46に表示するためのビデオ信号に変換するための回路である。表示モニタ46は、例えば、撮像システム本体の背面に配置されている液晶表示装置であるが、撮影者が観察できる位置であれば、背面に限らないし、また液晶に限らず他の表示装置でも構わない。   The video signal output unit 36 is connected to a display monitor (display means) 46 via a display monitor control unit 45. The video signal output unit 36 is a circuit for converting the image data stored in the SDRAM 41 or the recording medium 43 into a video signal for display on the display monitor 46. The display monitor 46 is, for example, a liquid crystal display device disposed on the back surface of the imaging system main body. However, the display monitor 46 is not limited to the back surface and may be other display devices as long as the photographer can observe. Absent.

操作部47は、撮像システム1の撮影指示を示すレリーズを検出するスイッチ(シャッターボタン)や、モードダイヤル、パワースイッチ、コントロールダイヤル、再生ボタン、メニューボタン、十字キー、OK釦等を含み、操作検出部34を介してデータバス30に接続されている。   The operation unit 47 includes a switch (shutter button) for detecting a release indicating a shooting instruction of the imaging system 1, a mode dial, a power switch, a control dial, a playback button, a menu button, a cross key, an OK button, and the like. It is connected to the data bus 30 via the unit 34.

次に、上記構成を備える撮像システム1の動作について図2乃至図5を参照して説明する。図2は、パワーオンから本撮影画像の格納処理までのシーケンスフローの概略を示した図である。
図2において、まず、撮影者によってデジタルカメラの電源がオンされると、スルー画を格納するメモリがクリアされる(ステップSA1)。このメモリは、例えば、上述したSDRAM(記憶手段)41である。続いて、撮影モード、ズーム等のユーザ設定情報が検出される(ステップSA2)。ユーザ設定は、例えば、操作検出部34(図1参照)により行われる。
Next, the operation of the imaging system 1 having the above configuration will be described with reference to FIGS. FIG. 2 is a diagram showing an outline of a sequence flow from power-on to storage processing of the actual captured image.
In FIG. 2, when the digital camera is turned on by the photographer, the memory for storing the through image is cleared (step SA1). This memory is, for example, the SDRAM (storage means) 41 described above. Subsequently, user setting information such as a shooting mode and zoom is detected (step SA2). The user setting is performed by, for example, the operation detection unit 34 (see FIG. 1).

続いて、スルー画像撮影のためのオートフォーカス(ステップSA3)及び露光演算が行われる(ステップSA4)。ここで、スルー画像の取得においては、フレームレートが優先され、解像度は小さく設定される。本実施形態では、スルー画像の感度は撮像素子の最低感度からISO6400相当の高感度までを設定可能とし、可能な限り高速なフレームレートに対応できるように露光量が決定される。これにより、本撮影時における設定モード、設定感度、設定シャッタ速度、設定絞りによっては、本撮影画像よりもスルー画像の方が露出連動範囲が広くなり、本撮影時においてアンダーやオーバーになる画像でも、スルー画像では適切な露出での撮影が可能となる。
また、高感度時には、複数画素を撮像素子内で加算した後、ゲインアップする処理を行うことで、低解像であるが画素加算による効果によりノイズの少ない画像を得ることができる。
Subsequently, autofocus (step SA3) and exposure calculation for through image shooting are performed (step SA4). Here, in the through image acquisition, the frame rate is prioritized and the resolution is set small. In the present embodiment, the through image sensitivity can be set from the lowest sensitivity of the image sensor to a high sensitivity equivalent to ISO 6400, and the exposure amount is determined so as to correspond to the highest possible frame rate. As a result, depending on the setting mode, setting sensitivity, setting shutter speed, and setting aperture at the time of actual shooting, a through image has a wider exposure interlocking range than the actual shooting image, and even an image that is under or over at the time of actual shooting. In the through image, it is possible to shoot with appropriate exposure.
In addition, when the sensitivity is high, a process of increasing the gain after adding a plurality of pixels in the image sensor is performed, so that an image with low noise but less noise can be obtained due to the effect of pixel addition.

続いて、スルー画像撮影表示処理及びスルー画像格納処理が行われる(ステップSA5)。この処理についての詳細は後述する。
次に、シャッターボタンが半押しされているか否かが判定され(ステップSA6)、半押しされていない場合には、カメラの主動作スイッチであるパワースイッチがオン状態であるかどうか確認し(ステップSA15)、パワースイッチがオン状態である場合には上記ステップSA2に戻り、ステップSA2以降の処理を繰り返し行う。また、パワースイッチがオフ状態の場合には終了処理(ステップSA16)を行い、カメラのシーケンスを終了する。一方、ステップSA6にてシャッターボタンが半押しされている場合には、オートフォーカス(ステップSA7)、露光演算(ステップSA8)が行われ、その後、半押し状態が解除されたか否かが再度判定される(ステップSA9)。
Subsequently, a through image shooting display process and a through image storage process are performed (step SA5). Details of this processing will be described later.
Next, it is determined whether or not the shutter button is half-pressed (step SA6). If the shutter button is not half-pressed, it is confirmed whether or not the power switch that is the main operation switch of the camera is on (step S6). SA15) If the power switch is in the ON state, the process returns to step SA2, and the processes after step SA2 are repeated. If the power switch is off, an end process (step SA16) is performed to end the camera sequence. On the other hand, if the shutter button is half-pressed in step SA6, autofocus (step SA7) and exposure calculation (step SA8) are performed, and then it is determined again whether or not the half-pressed state is released. (Step SA9).

この結果、半押し状態が解除されていた場合には(ステップSA9において「NO」)、ステップSA15を実施する。一方、半押し状態が継続していた場合には、全押しがされたか否かが判定される(ステップSA10)。この結果、シャッターボタンが全押しされておらず、未だ半押し状態が継続されている場合には(ステップSA10において「NO」)、スルー画像撮影表示処理及びスルー画像格納処理を行った後に(ステップSA11)、ステップSA9に戻り、ステップSA9以降の処理を繰り返し行う。   As a result, when the half-pressed state is released (“NO” in step SA9), step SA15 is performed. On the other hand, if the half-pressed state has continued, it is determined whether or not the full-press has been made (step SA10). As a result, when the shutter button is not fully pressed and the half-pressed state is still continued (“NO” in step SA10), after the through image shooting display process and the through image storage process are performed (step S10). SA11), returning to step SA9, the processing after step SA9 is repeated.

一方、ステップSA10において、シャッターボタンが全押しされたと判断された場合には(ステップSA10において「YES」)、本撮影処理が行われ(ステップSA12)、その後、本撮影において取得された本撮影画像に対して画像処理が施され(ステップSA13)、本撮影画像が記録され(ステップSA14)、撮影処理を終了し、続いて、カメラの主動作スイッチであるパワースイッチがオン状態であるか否かを確認し(ステップSA15)、パワースイッチがオン状態である場合には上記SA2に戻り、通常のループに戻る。   On the other hand, if it is determined in step SA10 that the shutter button has been fully pressed (“YES” in step SA10), a main photographing process is performed (step SA12), and then the main photographing image acquired in the main photographing. Is subjected to image processing (step SA13), the actual photographed image is recorded (step SA14), the photographing process is terminated, and then whether or not the power switch, which is the main operation switch of the camera, is on. Is confirmed (step SA15), and if the power switch is on, the process returns to SA2 and returns to the normal loop.

〔スルー画像撮影表示処理及びスルー画像格納処理〕
次に、上記ステップSA5及びステップSA11において行われるスルー画像撮影表示処理及びスルー画像格納処理について図3を参照して説明する。図3は、スルー画像撮影表示処理及びスルー画像格納処理の処理手順を示したフローチャートである。
[Through image shooting display processing and through image storage processing]
Next, the through image shooting and display process and the through image storage process performed in step SA5 and step SA11 will be described with reference to FIG. FIG. 3 is a flowchart showing the processing procedure of the through image shooting display processing and the through image storage processing.

図3において、スルー画像撮影が行われると(ステップSB1)、該スルー画像撮影において取得されたスルー画像に対して、OB減算、階調処理、γ変換、オートホワイトバランス処理等の公知の各種画像処理が施され、さらに、表示用の画像処理が施された後、この画像処理後のスルー画像が表示モニタ46(図2参照)に表示される(ステップSB2)。
次に、ステップSB1におけるスルー画像撮影において取得された画像に対してメモリ格納用の画像処理が施される(ステップSB3)。本実施形態では、スルー画像が格納されるが、メモリ節約のために目的によってはこのうち、輝度情報のみを抽出して格納してもよい。
In FIG. 3, when a through image is captured (step SB1), various known images such as OB subtraction, gradation processing, γ conversion, and auto white balance processing are applied to the through image acquired in the through image capturing. After the processing is performed and the image processing for display is further performed, the through image after the image processing is displayed on the display monitor 46 (see FIG. 2) (step SB2).
Next, the image processing for storing the memory is performed on the image acquired in the through image shooting in step SB1 (step SB3). In the present embodiment, a through image is stored. However, in order to save memory, only luminance information may be extracted and stored depending on the purpose.

続いて、該スルー画像を格納するメモリ、例えば、SDRAM41(図1参照)のメモリ容量が十分であるか否かが判断される(ステップSB4)。この結果、メモリ格納用の画像処理が施されたスルー画像を保存するのに十分なメモリ容量が確保できる場合には(ステップSB4において「YES」)、このスルー画像をメモリに記憶し(ステップSB6)、当該処理を終了する。一方、該スルー画像を格納するのに十分なメモリ容量がない場合には、メモリに保存されている最も古いスルー画像を消去することでメモリ容量を確保した後に(ステップSB5)、今回作成されたスルー画像をメモリに記憶し(ステップSB6)、当該処理を終了する。   Subsequently, it is determined whether the memory capacity of the memory for storing the through image, for example, SDRAM 41 (see FIG. 1) is sufficient (step SB4). As a result, when a sufficient memory capacity can be secured to store the through image that has been subjected to image processing for memory storage (“YES” in step SB4), the through image is stored in the memory (step SB6). ), The process ends. On the other hand, if there is not enough memory capacity to store the live view image, the oldest live view image stored in the memory is deleted to secure the memory capacity (step SB5), and this time created The through image is stored in the memory (step SB6), and the process ends.

〔本撮影画像の画像処理〕
次に、図2のステップSA13において行われる本撮影画像の画像処理について図4を参照して説明する。ここでは、本撮影画像に対して行われる種々の画像処理のうち、特に、上述したスルー画像を用いて行われる画像処理について説明する。
[Image processing of actual shot image]
Next, image processing of the actual captured image performed in step SA13 in FIG. 2 will be described with reference to FIG. Here, among various image processes performed on the actual captured image, an image process performed using the above-described through image will be described.

まず、本撮影画像の画像処理で用いられるスルー画像の選択処理が行われる(図4のステップSC1)。このスルー画像の選択処理についての詳細は、後述する。
次に、参照画像としてステップSC1で選択したスルー画像を設定し(ステップSC2)、参照画像と本撮影画像とを比較し(ステップSC3)、本撮影画像の高画質化が可能か否かを判定する。例えば、本撮影画像が予め設定されている基準感度よりも低感度な場合、参照画像の輝度平均値が所定値以下の場合等には、高画質化が不可能であると判断する。
First, a through image selection process used in the image processing of the actual captured image is performed (step SC1 in FIG. 4). Details of the through image selection processing will be described later.
Next, the through image selected in step SC1 is set as a reference image (step SC2), the reference image is compared with the actual captured image (step SC3), and it is determined whether or not the quality of the actual captured image can be improved. To do. For example, when the actual captured image has a lower sensitivity than a preset standard sensitivity, when the luminance average value of the reference image is a predetermined value or less, it is determined that high image quality is impossible.

この結果、高画質化が不可能であると判断した場合には、処理を終了する。一方、高画質化が可能であると判断した場合には(ステップSC4において「YES」)、参照画像の露光条件等が本撮影画像と略同等となるように、レベル補正や色変換処理等の画像処理が参照画像に対して施される(ステップSC5)。
続いて、本撮影画像を複数のエリアに分割し、そのうちの一つのエリア(以下「選定エリア」という。)を選択する(ステップSC6)。そして、選定エリアと参照画像とを比較し、選定エリアと類似するエリアを参照画像において特定する(ステップSC7)。このとき、例えば、本撮影画像における選定エリアの輝度信号をもとに公知のブロックマッチング等の手法を用い、参照画像から類似のエリアを選択する。この場合において、参照画像と本撮影画像のサイズを一致させるように補正を行った上でエリアの選択を行うとよい。
As a result, if it is determined that high image quality is impossible, the process is terminated. On the other hand, if it is determined that high image quality is possible (“YES” in step SC4), level correction, color conversion processing, and the like are performed so that the exposure conditions and the like of the reference image are substantially the same as those of the captured image. Image processing is performed on the reference image (step SC5).
Subsequently, the actual captured image is divided into a plurality of areas, and one of the areas (hereinafter referred to as “selected area”) is selected (step SC6). Then, the selected area is compared with the reference image, and an area similar to the selected area is specified in the reference image (step SC7). At this time, for example, a similar area is selected from the reference image using a known technique such as block matching based on the luminance signal of the selected area in the actual captured image. In this case, the area may be selected after correction is performed so that the sizes of the reference image and the actual captured image match.

続いて、参照画像において選択された類似のエリアの情報を用いて、本撮影画像における選定エリアのノイズ低減処理を行う(ステップSC8)。具体的には、参照画像において選択されたエリア、本撮影画像の選定エリアのいずれかをリサイズすることにより、両者のエリアサイズを一致させた後、両エリアの低周波成分を抽出し、これらの低周波成分に重み付け演算した後、本撮影画像のサイズで本撮影画像の選定エリアの高周波成分と重み付け演算後の低周波成分とを合成することで、本撮影画像の選定エリアにおけるノイズ低減処理を行う。   Subsequently, using the information on the similar area selected in the reference image, noise reduction processing is performed on the selected area in the actual captured image (step SC8). Specifically, by resizing either the area selected in the reference image or the selected area of the actual photographic image, the low frequency components in both areas are extracted after matching the area sizes of both areas. After weighting the low-frequency component, the noise reduction processing in the selected area of the actual captured image is performed by combining the high-frequency component of the selected area of the actual captured image with the low-frequency component after the weighted calculation based on the size of the actual captured image. Do.

続いて、本撮影画像において分割した全てのエリアについてノイズ低減処理を行ったか否かを判定し(ステップSC9)、全てのエリアにおいてノイズ低減処理が終了していなかった場合には(ステップSC9において「NO」)、未処理である他のエリアを選定し(ステップSC10)、上記ステップSC7に戻り、以降の処理を行う。一方、全てのエリアにおいてノイズ低減処理が終了した場合には(ステップSC9において「YES」)、ノイズ低減処理後の全てのエリアを重み付け合成し、最終的な本撮影画像を作成し(ステップSC11)、本処理を終了する。   Subsequently, it is determined whether or not noise reduction processing has been performed for all areas divided in the captured image (step SC9). If noise reduction processing has not been completed for all areas (step SC9, “ NO "), select another area that has not been processed (step SC10), and return to step SC7 to perform the subsequent processing. On the other hand, when the noise reduction process is completed in all areas (“YES” in step SC9), all areas after the noise reduction process are weighted and synthesized to create a final actual captured image (step SC11). This process is terminated.

〔スルー画選択処理〕
次に、図4を用いて説明した本撮影画像の画像処理のステップSC1において行われるスルー画像選択処理について図5を参照して説明する。
まず、スルー画像と本撮影画像とを比較するとともに、本撮影画像の画像解析を行い、本撮影画像のノイズ低減処理に使用可能なスルー画像を抽出する(ステップSD1)。例えば、メモリに格納されているスルー画像のうち、解像度及び感度の少なくともいずれか一つが本撮影画像と異なるスルー画像を抽出する。
次に、抽出した各スルー画像と本撮影画像とをマッチングし(ステップSD2)、本撮影画像に最も類似するスルー画像を選択する(ステップSD3)。
[Through image selection processing]
Next, the through image selection process performed in step SC1 of the image processing of the actual captured image described with reference to FIG. 4 will be described with reference to FIG.
First, the through image and the actual captured image are compared, and image analysis of the actual captured image is performed to extract a through image that can be used for noise reduction processing of the actual captured image (step SD1). For example, a through image in which at least one of resolution and sensitivity is different from a captured image is extracted from through images stored in the memory.
Next, each extracted through image and the actual captured image are matched (step SD2), and the through image most similar to the actual captured image is selected (step SD3).

〔マッチング処理〕
上記図5のステップSD2において行われるマッチング処理の詳細について、図6を参照して説明する。
まず、本撮影画像の中央部約50%をスルー画像のサイズにリサイズした画像をテンプレート画像として設定し(ステップSE1)、続いて、スルー画像上に比較初期位置を設定し(ステップSE2)、設定した比較位置においてテンプレート画像とスルー画像との類似度を算出する(ステップSE3)。類似度の算出は、例えば、それぞれ対応した位置の画素の画素値の差分を算出し、全ての差分の積算値を類似度として算出する。なお、類似度の算出方法については、上記算出方法に限定されることなく、例えば、各画像のヒストグラムを計算し、ヒストグラムの類似度を画像の類似度としてもよく、また、色情報も加味して類似度を求めることとしてもよい。
[Matching process]
Details of the matching process performed in step SD2 of FIG. 5 will be described with reference to FIG.
First, an image obtained by resizing the central portion of about 50% of the actual captured image to the size of the through image is set as a template image (step SE1), and then a comparison initial position is set on the through image (step SE2). The similarity between the template image and the through image is calculated at the comparison position (step SE3). For example, the similarity is calculated by calculating a difference between pixel values of pixels at corresponding positions, and calculating an integrated value of all the differences as the similarity. The similarity calculation method is not limited to the above calculation method. For example, the histogram of each image may be calculated, the histogram similarity may be used as the image similarity, and color information may be taken into account. The similarity may be obtained.

続いて、全検索領域にわたって類似度の算出が終了したか否かを判定し(ステップSE4)、終了していなければ、比較位置を変更した後に(ステップSE5)、ステップSE3に戻り、上記類似度の算出を行う。
そして、全検索領域にわたって類似度の算出が終了すると(ステップSE4において「YES」)、ステップSE3において算出した各位置における類似度を評価し、最も値の高い類似度を当該スルー画像の類似度とするとともに(ステップSE6)、類似度の最も高い位置を本撮影画像とスルー画像との位置合せ基準として設定し(ステップSE7)、本処理を終了する。
そして、図6に示したマッチング処理を図5のステップSD1において抽出された全てのスルー画像に対して行うことで、各スルー画像の類似度が算出され、図5のステップSD3において最も類似度の高いスルー画像が選択されることとなる。
Subsequently, it is determined whether or not the calculation of the similarity is completed over the entire search area (step SE4). If the calculation is not completed, the comparison position is changed (step SE5), and then the process returns to step SE3 and the similarity is calculated. Is calculated.
When the calculation of the similarity over the entire search region is completed (“YES” in step SE4), the similarity at each position calculated in step SE3 is evaluated, and the similarity with the highest value is determined as the similarity of the through image. At the same time (step SE6), the position having the highest degree of similarity is set as a reference for alignment between the actual captured image and the through image (step SE7), and the present process is terminated.
Then, the matching process shown in FIG. 6 is performed on all the through images extracted in step SD1 in FIG. 5, whereby the similarity of each through image is calculated. In step SD3 in FIG. A high through image is selected.

なお、上記例では、テンプレートマッチングにより類似度を算出しているが、本撮影時のシーンと同じシーンか否かを判断することができれば、公知の他の手法を用いてもよい。また、テンプレート画像を作成する際に、色情報を残し、色の類似度も加味することとしてもよい。また、探索領域や探索方法も上記方法に限られない。これは、例えば、公知のトラッキング等で使用される手法などを用いてもよい。   In the above example, the similarity is calculated by template matching. However, other known methods may be used as long as it can be determined whether or not the scene is the same as the scene at the time of actual shooting. Further, when creating a template image, color information may be left and color similarity may be taken into account. Further, the search area and the search method are not limited to the above methods. For this, for example, a technique used in known tracking or the like may be used.

また、角度を変えてマッチングを行うこととしても良い。このように角度を変えることでマッチングの精度を向上させることができる。また、フレーミング情報から被写体を検出し、被写体周辺部分のみを切り出して、ブロックマッチングすることとしてもよい。   Moreover, it is good also as matching by changing an angle. By changing the angle in this way, the matching accuracy can be improved. Alternatively, the subject may be detected from the framing information, and only the peripheral portion of the subject may be cut out and block matching may be performed.

以上、説明してきたように、本実施形態に係る撮像システムによれば、本撮影に先行してスルー画像を取得し、このスルー画像の情報を用いて本撮影画像のノイズ低減を行う。この場合において、スルー画像は、本撮影画像に比べて解像度が低いので、このような低解像度の画像を用いて本撮影画像のノイズを低減することにより、処理負担の低減を図ることが可能となるとともに、低解像なゆえに画像のエッジ等の特徴を現しているスルー画像を本画像と合成することにより、ノイズ低減効果を向上させることができる。更に、スルー画像は、本撮影画像に比べてデータ容量が小さいため、メモリ容量を圧迫することもなく、大容量のメモリを必要としない点で有利である。
また、本撮影画像の画像処理に用いるスルー画像として、感度の異なるスルー画を採用することにより、感度が低く、よりノイズの少ない画像を用いて補正することで、よりノイズ低減性能を上げることができる。さらには、感度は高くても画素加算することによりノイズが低減されたスルー画像を用いて補正するようなこともできる。
As described above, according to the imaging system according to the present embodiment, a through image is acquired prior to the main shooting, and noise of the main shooting image is reduced using information of the through image. In this case, since the through image has a lower resolution than the actual captured image, it is possible to reduce the processing burden by reducing the noise of the actual captured image using such a low resolution image. In addition, the noise reduction effect can be improved by synthesizing with the main image a through image that expresses features such as image edges because of low resolution. Furthermore, since the through image has a smaller data capacity than the actual captured image, it does not impose a memory capacity and is advantageous in that a large-capacity memory is not required.
In addition, by adopting through images with different sensitivities as through images used for image processing of the actual captured image, it is possible to improve noise reduction performance by correcting with images with low sensitivity and less noise. it can. Further, even if the sensitivity is high, correction can be performed using a through image in which noise is reduced by pixel addition.

なお、上記実施形態において、図5に示したスルー画像選択処理に代えて、例えば、シャッターボタンが全押しされたときの直前或いは所定枚数前に取得されたスルー画像を選択することとしてもよい。なお、このとき、選択されるスルー画像は、撮影条件が本撮影時と異なっていることが条件となる。   In the above embodiment, instead of the through image selection process shown in FIG. 5, for example, a through image acquired immediately before the shutter button is fully pressed or a predetermined number of images may be selected. At this time, the through image to be selected is required to have different shooting conditions from the actual shooting.

〔第2の実施形態〕
次に、本発明の第2の実施形態について説明する。
上述した第1の実施形態では、スルー画像を用いてノイズ低減処理を行っていたが、本実施形態では、スルー画像を用いて色補正を行う点で異なる。より具体的には、上述した第1の実施形態で図4を参照して説明した本撮影画像の画像処理に代えて、図7に示す画像処理を実行する。
以下、本実施形態に係る撮像システムについて、上記第1の実施形態と異なる点について主に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the first embodiment described above, noise reduction processing is performed using a through image. However, the present embodiment is different in that color correction is performed using a through image. More specifically, the image processing shown in FIG. 7 is executed instead of the image processing of the actual captured image described with reference to FIG. 4 in the first embodiment.
Hereinafter, the imaging system according to the present embodiment will be described mainly with respect to differences from the first embodiment.

〔本撮影画像の画像処理〕
図7は、本実施形態に係る本撮影画像の画像処理の処理手順を示した図である。
まず、本撮影画像の画像処理で用いられるスルー画像の選択処理が行われる(図7のステップSF1)。このスルー画像の選択処理についての詳細は、上述した第1の実施形態と略同様であるが、本実施形態では、図5のステップSD1において抽出されるスルー画像は、露光条件が本撮影画像と異なるスルー画像とされる。
[Image processing of actual shot image]
FIG. 7 is a diagram illustrating a processing procedure of image processing of a main captured image according to the present embodiment.
First, a through image selection process used in the image processing of the actual captured image is performed (step SF1 in FIG. 7). Details of the through image selection processing are substantially the same as those in the first embodiment described above, but in this embodiment, the through image extracted in step SD1 in FIG. Different through images are used.

次に、参照画像としてステップSF1で選択したスルー画像を設定し(ステップSF2)、参照画像と本撮影画像とを比較し(ステップSF3)、本撮影画像の色補正が可能か否かを判定する(ステップSF4)。例えば、参照画像と本撮影画像との露光条件の差が所定値以下の場合には、色補正の効果が少ないので色補正を行わない、換言すると、色補正が不可能であると判断する。   Next, the through image selected in step SF1 is set as a reference image (step SF2), the reference image is compared with the actual captured image (step SF3), and it is determined whether or not color correction of the actual captured image is possible. (Step SF4). For example, when the difference between the exposure conditions of the reference image and the actual captured image is equal to or smaller than a predetermined value, it is determined that color correction is not performed because the effect of color correction is small, in other words, color correction is impossible.

この結果、色補正が不可能であると判断した場合には(ステップSF4において「NO」)、本処理を終了する。一方、色補正が可能であると判断した場合には(ステップSF4において「YES」)、参照画像の撮影時の色に関する条件が本撮影画像と略同等となるように、ホワイトバランス等を補正する(ステップSF5)。
次に、本撮影画像と参照画像の位置合せ処理及びリサイズ処理を行い(ステップSF6)、その後、本撮影画像と参照画像とを複数のエリアに分割する(ステップSF7)。次に、参照画像の各エリア内においてカラーマップを作成するとともに(ステップSF8)、本撮影画像の各エリア内においてカラーマップを作成し(ステップSF9)、これらをメモリに格納する。
As a result, when it is determined that color correction is impossible (“NO” in step SF4), this process ends. On the other hand, if it is determined that color correction is possible (“YES” in step SF4), the white balance and the like are corrected so that the conditions regarding the color at the time of shooting the reference image are substantially the same as those of the actual shot image. (Step SF5).
Next, alignment processing and resizing processing of the main captured image and the reference image are performed (step SF6), and then the main captured image and the reference image are divided into a plurality of areas (step SF7). Next, a color map is created in each area of the reference image (step SF8), and a color map is created in each area of the actual captured image (step SF9), and these are stored in the memory.

上記カラーマップは、参照画像、本撮影画像のそれぞれの各エリア内において、R/G(赤/緑)の平均値、B/G(青/緑)の平均値、G(緑)の平均値を計算することで作成される。   The color map includes an average value of R / G (red / green), an average value of B / G (blue / green), and an average value of G (green) in each area of the reference image and the actual captured image. It is created by calculating.

次に、参照画像のカラーマップと本撮影画像のカラーマップとを比較し、具体的には、各エリアにおけるR/G(赤/緑)の平均値、B/G(青/緑)の平均値をそれぞれ比較し、中間階調に近い方の値をそれぞれ選択する(ステップSF10)。次に、選択したそれぞれのR/G(赤/緑)の平均値、B/G(青/緑)の平均値をそれぞれの値の狙いの色として、この値を本画像のR/G(赤/緑)の平均値、B/G(青/緑)の平均値で除算し、各エリアにおける色補正係数とする(ステップSF11)。また、選択したそれぞれの値を狙いの色として、この値を本画像のG(緑)の平均値で除算し、各エリアにおける色補正係数としてもよい。   Next, the color map of the reference image and the color map of the actual captured image are compared. Specifically, the average value of R / G (red / green) and the average of B / G (blue / green) in each area Each value is compared, and a value closer to the intermediate gradation is selected (step SF10). Next, the average value of each selected R / G (red / green) and the average value of B / G (blue / green) are set as the target colors of the respective values, and these values are used as R / G ( The average value of red / green) and the average value of B / G (blue / green) are divided to obtain color correction coefficients in each area (step SF11). Alternatively, each selected value may be set as a target color, and this value may be divided by an average value of G (green) of the main image to obtain a color correction coefficient in each area.

次に、全てのエリアにおいて色補正係数が算出されたか否かを判定し(ステップSF12)、全てのエリアについて色補正係数が算出されていない場合には(ステップSF12において「NO」)、ステップSF8に戻り、未処理のエリアにおいて上記処理を繰り返し行う。   Next, it is determined whether or not color correction coefficients have been calculated in all areas (step SF12). If color correction coefficients have not been calculated for all areas ("NO" in step SF12), step SF8 is performed. Returning to the above, the above process is repeated in an unprocessed area.

一方、全てのエリアにおいて色補正係数が算出された場合には(ステップSF12において「YES」)、各エリアの色補正係数に基づいて本撮影画像の色補正を行うことで、最終的な本撮影画像を作成し(ステップSF13)、本処理を終了する。ここで具体的な色補正処理としては、本画像の各画素のR/G(赤/緑)、B/G(青/緑)に対して、エリア毎に異なる上記補正係数を乗算することで補正を行い、その結果から再度、R、G、Bを算出することで色補正処理を行う。   On the other hand, when the color correction coefficient is calculated in all areas (“YES” in step SF12), the final actual photographing is performed by performing color correction on the actual captured image based on the color correction coefficient in each area. An image is created (step SF13), and this process ends. Here, as a specific color correction process, R / G (red / green) and B / G (blue / green) of each pixel of the main image are multiplied by the above-described correction coefficient for each area. Correction is performed, and color correction processing is performed by calculating R, G, and B again from the result.

また、それぞれの値を狙いの色として、この値を本画像のG(緑)の平均値で除算し、各エリアにおける色補正係数とした場合には、画像の各画素のG(緑)に対して、エリア毎に異なる上記補正係数を乗算することで、R、Bを再度算出し、色補正処理を行う。   When each value is a target color and this value is divided by the average value of G (green) of the main image to obtain a color correction coefficient in each area, it is converted to G (green) of each pixel of the image. On the other hand, R and B are calculated again by multiplying the correction coefficients that differ for each area, and color correction processing is performed.

これらの色補正の際、参照画像のカラーマップと本撮影画像のカラーマップとのうち、より中間階調に近い色に基づいて補正係数が算出されているので、本撮影で露光不足や露光オーバーとなってしまい、色情報が正確でなかった部分についても、参照画像の色情報が残っていれば、それらを用いて色を再現することができる。   At the time of these color corrections, the correction coefficient is calculated based on the color map closer to the intermediate gradation in the color map of the reference image and the color map of the actual captured image. Therefore, even if the color information of the reference image remains even in the portion where the color information is not accurate, the color can be reproduced using them.

以上、説明してきたように、本実施形態に係る撮像システムによれば、本撮影に先行してスルー画像を取得し、このスルー画像の情報を用いて本撮影画像の色補正処理を行う。この場合において、スルー画像は、本撮影画像に比べて解像度が低いので、このような低解像度の画像を用いて本撮影画像の色補正を行うことにより、処理負担の低減を図ることが可能となる。更に、スルー画像は、本撮影画像に比べてデータ容量が小さいため、メモリ容量を圧迫することもなく、大容量のメモリを必要としない点で有利である。
また、露光条件が本撮影画像と異なるスルー画像を用いて本撮影画像の色補正を行うことで、本撮影で露光不足や露光オーバーとなってしまい、色情報が正確でなかった部分についても、参照画像の色情報が残っていれば、それらを用いて色を再現することが可能となる。
As described above, according to the imaging system according to the present embodiment, a through image is acquired prior to the main shooting, and color correction processing of the main shooting image is performed using information of the through image. In this case, since the resolution of the through image is lower than that of the actual captured image, it is possible to reduce the processing burden by performing color correction of the actual captured image using such a low resolution image. Become. Furthermore, since the through image has a smaller data capacity than the actual captured image, it does not impose a memory capacity and is advantageous in that a large-capacity memory is not required.
In addition, by performing color correction of the actual captured image using a through image with different exposure conditions from the actual captured image, even if the color information is not accurate due to underexposure or overexposure in actual capture, If the color information of the reference image remains, it is possible to reproduce the color using them.

〔第3の実施形態〕
次に、本発明の第3の実施形態について説明する。
上述した第1の実施形態では、スルー画像を用いてノイズ低減処理を行っていたが、本実施形態では、ブレ補正を行う点で異なる。より具体的には、上述した第1の実施形態で図4を参照して説明した本撮影画像の画像処理に代えて、図8に示す画像処理を実行する。
以下、本実施形態に係る撮像システムについて、上記第1の実施形態と異なる点について主に説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
In the first embodiment described above, noise reduction processing is performed using a through image. However, the present embodiment is different in that blur correction is performed. More specifically, the image processing shown in FIG. 8 is executed instead of the image processing of the actual captured image described with reference to FIG. 4 in the first embodiment.
Hereinafter, the imaging system according to the present embodiment will be described mainly with respect to differences from the first embodiment.

〔本撮影画像の画像処理〕
図8は、本実施形態に係る本撮影画像の画像処理の処理手順を示した図である。
まず、本撮影画像においてブレ補正が必要か否かが判定される(ステップSG1)。これは、例えば、本撮影時の焦点距離に応じて決定される所定のシャッタ速度よりも、撮影シャッタ速度が長かった場合に、ブレ補正が必要であると判断する。なお、これ以外の方法として、例えば、本撮影画像のコントラスト等の情報を用いて判定してもよいし、テブレ補正センサ等を搭載し、その出力を使用して判定することとしてもよい。
[Image processing of actual shot image]
FIG. 8 is a diagram illustrating a processing procedure of image processing of a main captured image according to the present embodiment.
First, it is determined whether or not blur correction is necessary in the actual captured image (step SG1). For example, it is determined that blur correction is necessary when the shooting shutter speed is longer than a predetermined shutter speed determined in accordance with the focal length at the time of actual shooting. As other methods, for example, the determination may be made using information such as the contrast of the actual captured image, or a determination may be made by using a camera shake correction sensor or the like and using its output.

この結果、ブレ補正が必要でないと判断された場合には(ステップSG1において「NO」)、本処理を終了する。一方、ブレ補正が必要であると判定された場合には(ステップSG1において「YES」)、続いて、本撮影画像の画像処理で用いられるスルー画像の選択処理が行われる(ステップSG2)。このスルー画像の選択処理についての詳細は、上述した第1の実施形態と略同様であるが、本実施形態では、図5のステップSD1において抽出されるスルー画像は、本撮影時よりも速いシャッタ速度で取得されたスルー画像とされる。   As a result, when it is determined that blur correction is not necessary (“NO” in step SG1), this process is terminated. On the other hand, if it is determined that blur correction is necessary (“YES” in step SG1), subsequently, a through image selection process used in the image processing of the actual captured image is performed (step SG2). The details of the through image selection processing are substantially the same as those in the first embodiment described above, but in this embodiment, the through image extracted in step SD1 in FIG. It is a through image acquired at a speed.

次に、参照画像としてステップSG2で選択したスルー画像を設定し(ステップSG3)、続いて、参照画像の撮影条件が本撮影画像と略同等となるように、参照画像の露光条件、ホワイトバランス等を補正する(ステップSG4)。
次に、本撮影画像と参照画像とを複数のエリアにそれぞれ分割し、エリア毎にブロックマッチングを行い、相関の高いブロックの本撮影画像と参照画像での座標の変動を計算することで、各エリアの動きベクトルをそれぞれ求める(ステップSG5)。
Next, the through image selected in step SG2 is set as the reference image (step SG3). Subsequently, the exposure condition of the reference image, the white balance, etc. so that the shooting condition of the reference image is substantially the same as that of the actual shot image. Is corrected (step SG4).
Next, each of the actual captured image and the reference image is divided into a plurality of areas, block matching is performed for each area, and the fluctuation of coordinates between the actual captured image and the reference image of the highly correlated block is calculated. Each area motion vector is obtained (step SG5).

続いて、エリア毎の動きベクトルから頻度の少ない動きベクトルを被写体のブレエリア、頻度が一番高い動きベクトルが存在するエリアをフレーム間の手ブレによる動きエリアであると推定し、その頻度が一番高い動きベクトルをブレ量として算出する(ステップSG6)。
続いて、上記ブレ量を相殺するように参照画像の各画素を該ブレ量と逆方向に同じ大きさでシフトしながら基準画像の各画素に位置合せし、各画素同士を所定の割合で加算することでブレ補正を行い、最終的な本撮影画像を作成し(ステップSG7)、本処理を終了する。
Next, from the motion vectors for each area, the motion vector with the least frequency is estimated as the blur area of the subject, the area with the motion vector with the highest frequency is estimated as the motion area due to camera shake between frames, and the motion with the highest frequency The vector is calculated as a blur amount (step SG6).
Subsequently, each pixel of the reference image is aligned with each pixel of the reference image while shifting the same amount in the opposite direction to the amount of blur so as to cancel out the amount of blur, and the pixels are added at a predetermined ratio. Thus, blur correction is performed, a final actual captured image is created (step SG7), and the present process is terminated.

以上、説明してきたように、本実施形態に係る撮像システムによれば、本撮影に先行してスルー画像を取得し、このスルー画像の情報を用いて本撮影画像のブレ補正処理を行う。この場合において、スルー画像は、本撮影画像に比べて解像度が低いので、このような低解像度の画像を用いて本撮影画像の色補正を行うことにより、処理負担の低減を図ることが可能となる。更に、スルー画像は、本撮影画像に比べてデータ容量が小さいため、メモリ容量を圧迫することもなく、大容量のメモリを必要としない点で有利である。
また、シャッタ速度が本撮影時よりも速いスルー画像を用いて本撮影画像のブレ補正を行うことで、高精度なブレ補正が可能となり、被写体ぶれ等が起きた場合であっても補正が可能となる。
As described above, according to the imaging system according to the present embodiment, a through image is acquired prior to the main shooting, and blur correction processing of the main shooting image is performed using information of the through image. In this case, since the resolution of the through image is lower than that of the actual captured image, it is possible to reduce the processing burden by performing color correction of the actual captured image using such a low resolution image. Become. Furthermore, since the through image has a smaller data capacity than the actual captured image, it does not impose a memory capacity and is advantageous in that a large-capacity memory is not required.
In addition, by performing blur correction on the actual captured image using a through image whose shutter speed is faster than at the time of actual shooting, it is possible to perform highly accurate blur correction, and even when subject blur occurs. It becomes.

なお、第1の実施形態においてノイズ低減処理を、第2の実施形態において色補正処理を、第3の実施形態においてブレ補正処理を行う場合についてそれぞれ説明したが、これらの実施形態は適宜組み合わせることが可能である。例えば、図1に示した画像処理部25が、ノイズ低減処理、色補正処理、ブレ補正処理の全てを行うこととしてもよいし、これらの処理のうち任意の組み合わせを適宜実行することとしてもよい。   Note that the noise reduction processing in the first embodiment, the color correction processing in the second embodiment, and the blur correction processing in the third embodiment have been described, but these embodiments are combined as appropriate. Is possible. For example, the image processing unit 25 illustrated in FIG. 1 may perform all of noise reduction processing, color correction processing, and blur correction processing, or may arbitrarily execute any combination of these processing. .

なお、上述した実施形態では、画像処理装置3としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、画像処理装置3は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の画像処理装置3と同様の処理を実現させる。   In the above-described embodiment, hardware processing is assumed as the image processing apparatus 3, but it is not necessary to be limited to such a configuration. For example, a configuration in which processing is performed separately by software is possible. In this case, the image processing apparatus 3 includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. Then, the CPU reads out the program recorded in the storage medium and executes information processing / calculation processing, thereby realizing processing similar to that of the image processing apparatus 3 described above.

ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

1 撮像システム
2 撮像部
3 画像処理装置
20 撮影制御部
25 画像処理部
34 操作検出部
41 SDRAM
46 表示モニタ
DESCRIPTION OF SYMBOLS 1 Imaging system 2 Imaging part 3 Image processing apparatus 20 Shooting control part 25 Image processing part 34 Operation detection part 41 SDRAM
46 Display monitor

Claims (10)

撮影光学系と、
前記撮影光学系を介して被写体を撮像する撮像素子と、
撮影者の撮影操作を検出する撮影操作検出手段と、
前記撮影操作がされた場合に、本撮影を行う第1の撮影制御手段と、
前記本撮影に先立ち、該本撮影とは異なる撮影条件で事前撮影を行う第2の撮影制御手段と、
前記事前撮影において取得された事前画像に関する情報を記憶する記憶手段と、
該本撮影により取得された本撮影画像を前記事前画像を用いて補正する画像処理手段と
を具備することを特徴とする撮像システム。
Photographic optics,
An image sensor for imaging a subject via the imaging optical system;
Photographing operation detecting means for detecting a photographing operation of the photographer;
First shooting control means for performing actual shooting when the shooting operation is performed;
Prior to the main shooting, a second shooting control means for performing shooting in advance under shooting conditions different from the main shooting;
Storage means for storing information relating to the preliminary image acquired in the preliminary shooting;
An image processing system comprising: an image processing unit that corrects a main captured image acquired by the main shooting using the prior image.
前記第2の撮影制御手段は、前記本撮影とは異なる解像または露光で事前撮影を行うことを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the second imaging control unit performs preliminary imaging with a resolution or exposure different from the main imaging. 前記事前画像を表示する表示手段を備えることを特徴とする請求項1または請求項2に記載の撮像システム。   The imaging system according to claim 1, further comprising display means for displaying the preliminary image. 前記画像処理手段は、前記事前画像に関する情報と前記本撮影画像に関する情報とを比較して類似度を算出し、
前記類似度が所定の条件を満たす前記事前画像に関する情報を用いて、前記本撮影画像を補正することを特徴とする請求項1から請求項3のいずれかに記載の撮像システム。
The image processing means calculates the degree of similarity by comparing the information about the prior image and the information about the actual captured image,
The imaging system according to any one of claims 1 to 3, wherein the actual captured image is corrected using information related to the prior image in which the similarity satisfies a predetermined condition.
前記画像処理手段は、
前記事前画像に関する情報と前記本撮影画像に関する情報とを照合して位置合わせを行い、
位置合せが行われた状態で前記事前画像と前記本撮影画像とを合成することを特徴とする請求項1から請求項4のいずれかに記載の撮像システム。
The image processing means includes
Aligning the information related to the previous image and the information related to the actual captured image,
5. The imaging system according to claim 1, wherein the pre-image and the actual captured image are synthesized in a state where the alignment is performed.
前記画像処理手段は、前記事前画像に関する情報を用いて前記本撮影画像のノイズ成分を低減することを特徴とする請求項1から請求項5のいずれかに記載の撮像システム。   The imaging system according to any one of claims 1 to 5, wherein the image processing unit reduces noise components of the main captured image using information about the prior image. 前記画像処理手段は、前記事前画像に関する情報を用いて前記本撮影画像の色を補正することを特徴とする請求項1から請求項6のいずれかに記載の撮像システム。   The imaging system according to claim 1, wherein the image processing unit corrects the color of the main captured image using information about the prior image. 前記画像処理手段は、前記事前画像に関する情報を用いて前記本撮影画像の手ブレ、または、被写体ブレを補正することを特徴とする請求項1から請求項7のいずれかに記載の撮像システム。   8. The imaging system according to claim 1, wherein the image processing unit corrects camera shake or subject blur in the main captured image using information related to the prior image. 9. . 本撮影に先立ち、本撮影とは異なる解像で事前撮影を行い、該事前撮影で得られた画像を用いて本撮影において取得された画像を補正することを特徴とする撮像装置の画像処理方法。   An image processing method for an imaging apparatus, characterized in that prior to main shooting, pre-shooting is performed with a resolution different from that of main shooting, and an image acquired in the main shooting is corrected using an image obtained by the previous shooting. . 画像処理を行うための画像処理プログラムであって、
本撮影に先立って行われるとともに、該本撮影とは異なる解像度で行われた事前撮影において取得された画像を用いて、本撮影において取得された画像を補正する補正処理をコンピュータに実行させるための画像処理プログラム。
An image processing program for performing image processing,
For performing a correction process for correcting the image acquired in the main shooting using the image acquired in the previous shooting performed at a resolution different from that of the main shooting, prior to the main shooting. Image processing program.
JP2009086960A 2009-03-31 2009-03-31 Imaging system, image processing method and program Pending JP2010239514A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009086960A JP2010239514A (en) 2009-03-31 2009-03-31 Imaging system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009086960A JP2010239514A (en) 2009-03-31 2009-03-31 Imaging system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2010239514A true JP2010239514A (en) 2010-10-21

Family

ID=43093437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009086960A Pending JP2010239514A (en) 2009-03-31 2009-03-31 Imaging system, image processing method and program

Country Status (1)

Country Link
JP (1) JP2010239514A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142568B2 (en) 2017-02-13 2018-11-27 Semiconductor Components Industries, Llc Methods and apparatus for vignette and out-of-focus correction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006166359A (en) * 2004-12-10 2006-06-22 Canon Inc Red-eye correction method
JP2007133810A (en) * 2005-11-14 2007-05-31 Nikon Corp Image processor
JP2007243917A (en) * 2006-02-10 2007-09-20 Nikon Corp Imaging apparatus and image processing program
JP2008294741A (en) * 2007-05-24 2008-12-04 Olympus Corp Imaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006166359A (en) * 2004-12-10 2006-06-22 Canon Inc Red-eye correction method
JP2007133810A (en) * 2005-11-14 2007-05-31 Nikon Corp Image processor
JP2007243917A (en) * 2006-02-10 2007-09-20 Nikon Corp Imaging apparatus and image processing program
JP2008294741A (en) * 2007-05-24 2008-12-04 Olympus Corp Imaging system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10142568B2 (en) 2017-02-13 2018-11-27 Semiconductor Components Industries, Llc Methods and apparatus for vignette and out-of-focus correction

Similar Documents

Publication Publication Date Title
JP4900401B2 (en) Imaging apparatus and program
JP5439197B2 (en) Imaging apparatus, imaging method, and imaging program
JP4665718B2 (en) Imaging device
JP4985251B2 (en) Imaging apparatus, focus control method, and focus control program
JP2011041089A (en) Method, device and program for processing image, and imaging device
JP2009194700A (en) Image processor and image processing program
JP2001103366A (en) Camera
JP2010147786A (en) Imaging device and image processing method
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP2008277896A (en) Imaging device and imaging method
JP2010200177A (en) Imaging device and image processing program
US9282257B2 (en) Image apparatus and imaging method
JP2004328606A (en) Imaging device
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP2006217249A (en) Electronic camera, electronic camera system and program
JP6294607B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2010239514A (en) Imaging system, image processing method and program
JP4666265B2 (en) Image blur correction apparatus and correction method thereof
JP5043178B2 (en) Image blur correction apparatus and correction method thereof
US11832020B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP5613145B2 (en) Imaging apparatus and program
JP2009044235A (en) Camera
JP2006319465A (en) Imaging device
JP4666264B2 (en) Image blur correction apparatus and correction method thereof
JP4621991B2 (en) Image blur correction apparatus and correction method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140408