JP2013017097A - Image processor and imaging apparatus - Google Patents

Image processor and imaging apparatus Download PDF

Info

Publication number
JP2013017097A
JP2013017097A JP2011149497A JP2011149497A JP2013017097A JP 2013017097 A JP2013017097 A JP 2013017097A JP 2011149497 A JP2011149497 A JP 2011149497A JP 2011149497 A JP2011149497 A JP 2011149497A JP 2013017097 A JP2013017097 A JP 2013017097A
Authority
JP
Japan
Prior art keywords
correction
image
correction amount
amount
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011149497A
Other languages
Japanese (ja)
Other versions
JP2013017097A5 (en
JP5739752B2 (en
Inventor
Kohei Furuya
浩平 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011149497A priority Critical patent/JP5739752B2/en
Publication of JP2013017097A publication Critical patent/JP2013017097A/en
Publication of JP2013017097A5 publication Critical patent/JP2013017097A5/ja
Application granted granted Critical
Publication of JP5739752B2 publication Critical patent/JP5739752B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform preferable correction even if a past frame and a present frame are photographed by different conditions when a correction amount of the past frame is referred to in calculation of the correction amount of the present frame.SOLUTION: An image processor includes: a photographing time information acquiring section for acquiring photographing time information during image photographing; a correction amount calculating section for calculating a correction amount of the photographed image from an image feature amount in the photographed image; a correction section for correcting the correction amount on the basis of the photographing time information; a correction processing section for applying the corrected correction amount to the photographed image and performing a correction processing; a correction amount recording section for recording the correction amount before correction by the correction section; and a correction amount acquiring section for acquiring the correction amount before a past image is corrected when a present image is corrected. The correction section corrects the correction amount on the basis of the correction amount before the past image is corrected when the present image is corrected and on the photographing time information when the present image is photographed. The correction processing section applies the corrected correction amount to the present photographed image to perform the correction processing.

Description

本発明は、画像処理装置に関し、特に入力された画像の補正を行う画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that corrects an input image.

画像の階調補正を行う技術として、画像から顔を検出し、そこから得られた顔情報を補正量の算出に用いるものが提案されている。例えば特許文献1では、ある撮影シーンに輝度の低い顔が含まれる場合はその顔が適切な明るさになるように階調補正を行う構成が記載されている。   As a technique for performing gradation correction of an image, a technique has been proposed in which a face is detected from an image and face information obtained therefrom is used for calculating a correction amount. For example, Patent Document 1 describes a configuration in which when a face with low luminance is included in a certain shooting scene, gradation correction is performed so that the face has appropriate brightness.

このような手法においては、画像から顔を検出することが可能である場合においては好ましい補正量を算出することが可能となる。しかし、撮影から各種処理、保存までの一連の流れを一つの撮影コマとして考えた場合において、あるコマの撮影時に顔が横を向くなどして顔の検出を失敗してしまうと、そのコマでは顔情報を利用した処理を行うことが出来なくなる。   In such a method, when a face can be detected from an image, a preferable correction amount can be calculated. However, when a series of steps from shooting to various processing and saving is considered as a single shot frame, if face detection fails because the face turns sideways when shooting a certain frame, Processing using face information cannot be performed.

そのため、例えば特許文献2では過去コマにおける被写体の輝度情報と現在コマにおける被写体の輝度情報を比較し、輝度の変化量に応じて過去コマの補正値を利用することで、過去コマにおいて検出された情報を現在コマにも利用することが可能となっている。   For this reason, for example, in Patent Document 2, the luminance information of the subject in the past frame is compared with the luminance information of the subject in the current frame, and the correction value of the past frame is used according to the amount of change in luminance. Information can now be used for frames.

特開2010−045457号公報JP 2010-045457 A 特開2002−247590号公報JP 2002-247590 A 特開2010−183460号公報JP 2010-183460 A

しかし、このような過去の階調補正値を現在の撮影画像に適用する方法においては過去コマと現在コマの二つのコマが異なる感度で撮影されたような場合には好ましい補正量とはならない場合がある。   However, in the method of applying the past gradation correction value to the current photographed image, when the two frames of the past frame and the current frame are photographed with different sensitivities, the correction amount is not preferable. There is.

階調補正において、デジタル的に信号を持ち上げるような暗部補正ではノイズを強調してしまうことがある。この時、低感度で撮影された画像に対し暗部補正を行う場合には、暗部補正前の段階でのノイズが少ないため、暗部補正によって多少ノイズが強調されても許容できる場合が多い。しかし、高感度で撮影された画像に対し暗部補正を行う場合には、暗部補正前のノイズが多く、そこからさらに暗部補正によってノイズが強調されてしまうため、許容できない画像となってしまう場合がある。このような問題のため、従来から高感度で撮影されるほど、暗部補正による補正度合を弱める手法(以降「高感度リミッタ」と表記)が行われてきた。このような高感度における補正量の抑制をしながら前述したような過去コマの補正値を利用する場合には以下のような問題が発生する。   In gradation correction, noise may be emphasized in dark part correction in which a signal is lifted digitally. At this time, when dark part correction is performed on an image photographed with low sensitivity, there is little noise at the stage before dark part correction, and thus it is often acceptable even if noise is slightly enhanced by dark part correction. However, when dark part correction is performed on an image shot with high sensitivity, there is a lot of noise before dark part correction, and noise is further emphasized by dark part correction from there, which may result in an unacceptable image. is there. Due to such a problem, a technique (hereinafter referred to as “high sensitivity limiter”) has been used in which the degree of correction by dark portion correction is weakened as the image is shot with high sensitivity. When the correction value of the past frame as described above is used while suppressing the correction amount at such high sensitivity, the following problem occurs.

まず、図4(a)のように、過去コマ401が現在コマ406よりも高感度で撮影されていた場合、過去コマ401で算出された補正量404はノイズを強調しすぎないように、補正曲線403に高感度リミッタを適用して補正量を抑制したものとなっている。これをそのまま現在コマ406の補正曲線408として適用してしまうと、本来はもっと明るくした方が好ましく、またノイズ量も問題ない画像となるはずが画像409のような補正不足の画像となってしまう。   First, as shown in FIG. 4A, when the past frame 401 has been shot with higher sensitivity than the current frame 406, the correction amount 404 calculated for the past frame 401 is corrected so as not to emphasize too much noise. A correction amount is suppressed by applying a high sensitivity limiter to the curve 403. If this is applied as it is as the correction curve 408 of the current frame 406, it is preferable to make it brighter in nature, and the image should be an image with insufficient correction such as the image 409, although the image should have no problem with the amount of noise. .

逆に、図5(a)のように、過去コマ420が現在コマ425よりも低感度で撮影されていた場合、過去コマ420で算出された補正曲線423は暗部補正前の段階でのノイズが少ないことを前提としたものとなっている。そのため、補正曲線423は補正曲線422に対してほぼ補正量が抑制されていないものとなっている。これをそのまま現在コマ425に補正曲線427として適用してしまうと現在コマ425は高感度で撮影されているため暗部補正前の段階においてノイズが多く、そこにさらに大きな補正がかかり、画像428のようにノイズが強調されすぎた画像となってしまう。   On the other hand, as shown in FIG. 5A, when the past frame 420 was shot with a lower sensitivity than the current frame 425, the correction curve 423 calculated for the past frame 420 shows noise at the stage before dark portion correction. It is assumed that there are few. For this reason, the correction curve 423 is substantially the same as the correction curve 422 in that the correction amount is not suppressed. If this is applied as it is to the current frame 425 as the correction curve 427, the current frame 425 is photographed with high sensitivity, and therefore there is a lot of noise in the stage before dark part correction, and a larger correction is applied thereto, as shown in an image 428. In other words, an image with too much noise is emphasized.

また、階調補正においてはハイライト部の白飛びを抑制するものもあり、例えば特許文献3では白飛び量が多い場合にはやや暗めに撮影し、撮影時に低減された明るさを後で階調補正により補償している。   In addition, some gradation corrections suppress whiteout in highlight portions. For example, in Patent Document 3, when the amount of whiteout is large, an image is taken slightly darker, and the brightness reduced at the time of shooting is reduced later. It is compensated by adjusting the tone.

しかし、このような過去の白飛びを抑制するための補正値を現在の撮影画像に適用する方法においては、過去コマと現在コマの二つのコマが異なる白飛び抑制量で撮影されたような場合には以下のような問題が発生する。   However, in the method of applying the correction value for suppressing past whiteout to the current photographed image, when two frames of the past frame and the current frame are shot with different whiteout suppression amounts. The following problems occur.

まず、図11のように、過去コマ401では白飛び抑制がされ、現在コマ408では白飛び抑制がされていない場合、過去コマ401で算出された補正量406は白飛び抑制により低減された明るさを補償するための補正量405を含んでいる。これをそのまま現在コマ408の画像409に適用してしまうと、現在コマでは白飛び抑制による明るさの低減がされていないにも関わらず、余分に補正されてしまうため、画像411のような過補正な画像になってしまう。   First, as shown in FIG. 11, when whiteout suppression is performed in the past frame 401 and whiteout suppression is not performed in the current frame 408, the correction amount 406 calculated in the past frame 401 is reduced by the whiteout suppression. A correction amount 405 for compensating for this is included. If this is applied to the image 409 of the current frame 408 as it is, the current frame will be corrected excessively even though the brightness has not been reduced by whiteout suppression, so an excess like the image 411 will occur. The image will be corrected.

逆に、図13のように、過去コマ425では白飛び抑制がされず、現在コマ431では白飛び抑制がされている場合、過去コマ425で算出された補正量429は顔の明るさを補正する補正量427と同等のものとなっている。これをそのまま現在コマ431に適用してしまうと現在コマ431では白飛び抑制による低減がされているにも関わらず、それを補償する補正がかからない。そのため、画像435のように補正不足の画像になってしまい、場合によっては本来の明るさよりも逆に暗くなってしまう場合がある。   On the other hand, as shown in FIG. 13, when whiteout suppression is not performed in the past frame 425 and whiteout suppression is performed in the current frame 431, the correction amount 429 calculated in the past frame 425 corrects the brightness of the face. This is equivalent to the correction amount 427 to be performed. If this is applied to the current frame 431 as it is, although the current frame 431 has been reduced by whiteout suppression, no correction is made to compensate for it. For this reason, the image becomes an undercorrected image like the image 435, and in some cases, the image becomes darker than the original brightness.

本発明は上記の課題に鑑みてなされたものであり、現在コマの補正量算出において過去コマの補正量を参照する際に、過去コマと現在コマが異なる条件で撮影されたような場合においても好ましい補正を行えるようにすることを目的とする。   The present invention has been made in view of the above problems, and when referring to the correction amount of the past frame in calculating the correction amount of the current frame, even when the past frame and the current frame are photographed under different conditions. An object is to enable preferable correction.

本発明に係わる画像処理装置は、撮影画像に対して補正処理を行う画像処理装置であって、画像の撮影時における撮影時情報を取得する撮影時情報取得手段と、撮影画像における画像特徴量から前記撮影画像の補正量を算出する補正量算出手段と、前記撮影時情報に基づいて前記補正量を修正する修正手段と、前記修正手段により修正した後の前記補正量を撮影画像に適用して前記補正処理を行う補正処理手段と、前記修正手段により修正する前の前記補正量を記録する補正量記録手段と、現在の画像について前記補正処理を行う時に、過去の画像の撮影時において前記補正量記録手段に記録した前記修正する前の補正量を取得する補正量取得手段と、を備え、前記修正手段は、現在の画像について補正処理を行う時に、前記補正量取得手段により取得した前記過去の画像についての前記修正する前の補正量と、前記撮影時情報取得手段により取得される現在の画像の撮影時における撮影時情報とに基づいて、前記現在の画像について前記補正量を修正し、前記補正処理手段は、修正された前記補正量を現在の撮影画像に適用して前記補正処理を行うことを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that performs correction processing on a photographed image, and includes a photographing time information acquisition unit that obtains photographing time information at the time of photographing an image, and an image feature amount in the photographed image A correction amount calculating means for calculating a correction amount of the captured image; a correcting means for correcting the correction amount based on the shooting time information; and applying the correction amount corrected by the correcting means to the captured image. Correction processing means for performing the correction processing, correction amount recording means for recording the correction amount before correction by the correction means, and the correction at the time of taking a past image when performing the correction processing on the current image Correction amount acquisition means for acquiring the correction amount before correction recorded in the amount recording means, and the correction means performs correction processing on the current image when the correction amount is acquired. The correction of the current image based on the correction amount of the past image acquired before correction and the shooting time information of the current image acquired by the shooting time information acquisition unit. The correction processing means performs the correction processing by applying the corrected correction amount to a current photographed image.

本発明によれば、現在コマの補正量算出において過去コマの補正量を参照する際に、過去コマと現在コマが異なる条件で撮影されたような場合においても好ましい補正を行うことが可能となる。   According to the present invention, when referring to the correction amount of the past frame in calculating the correction amount of the current frame, preferable correction can be performed even when the past frame and the current frame are shot under different conditions. .

本発明の実施形態に共通する撮像装置のブロック構成図。1 is a block configuration diagram of an imaging apparatus common to embodiments of the present invention. 本発明の実施形態に共通する画像処理装置のブロック構成図。1 is a block diagram of an image processing apparatus common to embodiments of the present invention. 第1の実施形態による暗部補正処理を示すフローチャート。5 is a flowchart illustrating dark part correction processing according to the first embodiment. 第1の実施形態による過去コマの補正値の引き継ぎの様子を示す図。The figure which shows the mode of the inheritance of the correction value of the past frame by 1st Embodiment. 第1の実施形態による過去コマの補正値の引き継ぎの様子を示す図。The figure which shows the mode of the inheritance of the correction value of the past frame by 1st Embodiment. 第1の実施形態による暗部補正の例を示す図。The figure which shows the example of the dark part correction | amendment by 1st Embodiment. 第1の実施形態による高感度リミッタの例を示す図。The figure which shows the example of the high sensitivity limiter by 1st Embodiment. 第2の実施形態による暗部補正処理を示すフローチャート。9 is a flowchart showing dark part correction processing according to the second embodiment. 第2の実施形態の変形例による暗部補正処理を示すフローチャート。The flowchart which shows the dark part correction | amendment process by the modification of 2nd Embodiment. 第3の実施形態による階調補正処理を示すフローチャート。10 is a flowchart illustrating tone correction processing according to the third embodiment. 第3の実施形態による過去コマの補正値の引き継ぎの様子を示す図。The figure which shows the mode of the inheritance of the correction value of the past frame by 3rd Embodiment. 第3の実施形態による過去コマの補正値の引き継ぎの様子を示す図。The figure which shows the mode of the inheritance of the correction value of the past frame by 3rd Embodiment. 第3の実施形態による過去コマの補正値の引き継ぎの様子を示す図。The figure which shows the mode of the inheritance of the correction value of the past frame by 3rd Embodiment. 第3の実施形態による過去コマの補正値の引き継ぎの様子を示す図。The figure which shows the mode of the inheritance of the correction value of the past frame by 3rd Embodiment. 第3の実施形態による階調補正の例を示す図。FIG. 10 is a diagram illustrating an example of gradation correction according to a third embodiment. 第3の実施形態による白飛び抑制補償の例を示す図。The figure which shows the example of the whiteout suppression compensation by 3rd Embodiment. 第4の実施形態による白飛び抑制量算出の様子を示す図。The figure which shows the mode of the whiteout suppression amount calculation by 4th Embodiment. 第4の実施形態による階調補正処理を示すフローチャート。10 is a flowchart illustrating tone correction processing according to a fourth embodiment.

以下に、本発明の実施形態について、添付図面を参照して詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

(第1の実施形態)
本実施形態においては、補正量算出時に高感度リミッタ適用前と適用後の値を算出し、適用前の情報を記録しておくことで、以降の撮影においてより適した補正量の算出を行う画像処理装置について説明する。
(First embodiment)
In this embodiment, when calculating the correction amount, values before and after the application of the high sensitivity limiter are calculated, and information before the application is recorded, so that an image for calculating a more appropriate correction amount in subsequent shooting is calculated. The processing apparatus will be described.

図1は、第1の実施形態の画像処理装置を実現する一つの例である撮像装置100の構成を示すブロック図である。撮像装置はデジタルカメラ、デジタルビデオカメラなど、被写体を撮像し画像データを得る装置を含む。図1において、光学系101は、レンズ、シャッター、絞りから構成されていて、CPU103の制御によって被写体からの光を撮像素子102に結像させる。撮像素子102は、光学系101を通って結像した光を画像信号に変換する。CPU103は、入力された信号やプログラムに従って、各種の演算や、撮像装置100を構成する各部分の制御を行う。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 that is an example for realizing the image processing apparatus according to the first embodiment. The imaging device includes a device such as a digital camera or a digital video camera that captures a subject and obtains image data. In FIG. 1, an optical system 101 includes a lens, a shutter, and a diaphragm, and forms an image of light from a subject on an image sensor 102 under the control of a CPU 103. The image sensor 102 converts light imaged through the optical system 101 into an image signal. The CPU 103 performs various calculations and controls each part of the imaging apparatus 100 according to the input signal and program.

一次記憶装置104は、一時的なデータを記憶し、CPU103の作業用に使われる。二次記憶装置105は、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶する。記憶媒体106は、光学系101によって結像され、撮像素子102電気信号に変換され、CPU103によって処理された画像データなどを記憶する。なお、撮影後に記憶媒体106は取り外すことが可能であり、パーソナルコンピュータ(以下、PC)などに装着してデータを読み出すことが可能である。つまり、撮像装置100は記憶媒体106へのアクセス機能を有し、記憶媒体106へのデータの読み書きが行えればよい。表示部107は、撮影時のビューファインダー画像の表示、撮影した画像の表示、対話的な操作のための文字表示などを行う。操作部108は、使用者の操作を受け付けるためのものである。操作部108には、例えばボタンやレバー、タッチパネルなどを用いることが可能である。   The primary storage device 104 stores temporary data and is used for the work of the CPU 103. The secondary storage device 105 stores a program (firmware) for controlling the imaging device 100 and various setting information. The storage medium 106 stores image data and the like imaged by the optical system 101, converted into an electrical signal of the image sensor 102, and processed by the CPU 103. Note that the storage medium 106 can be removed after shooting, and data can be read out by being attached to a personal computer (hereinafter referred to as a PC). That is, the imaging apparatus 100 only needs to have a function of accessing the storage medium 106 and can read and write data from and to the storage medium 106. A display unit 107 displays a viewfinder image at the time of shooting, displays a shot image, and displays characters for interactive operation. The operation unit 108 is for accepting a user operation. For the operation unit 108, for example, a button, a lever, a touch panel, or the like can be used.

通信装置109は、外部装置と接続し制御コマンドやデータの送受信を行う。接続を確立し、データ通信するためのプロトコルとしては、例えばPTP(Picture Transfer Protocol)が用いられる。なお、通信装置109は、例えばUSB(Universal Serial Bus)ケーブルなどの有線接続により通信を行ってもよい。また、無線LANなどの無線接続により通信を行ってもよい。また、外部装置と直接接続してもよいし、サーバを経由したりインターネットなどのネットワークを介して外部装置と接続してもよい。   The communication device 109 is connected to an external device and transmits / receives control commands and data. For example, PTP (Picture Transfer Protocol) is used as a protocol for establishing a connection and performing data communication. Note that the communication device 109 may perform communication through a wired connection such as a USB (Universal Serial Bus) cable. Further, communication may be performed through a wireless connection such as a wireless LAN. Further, it may be directly connected to an external device, or may be connected to the external device via a server or a network such as the Internet.

図2は、第1の実施形態の画像処理装置を実現するもう一つの例である情報処理装置200の構成を示すブロック図である。図2において、表示部201は、撮影画像の表示や対話的な操作のための文字表示などを行う。操作部202は、使用者の操作を受け付けるためのものである。操作部202は例えばキーボードやポインティング装置などを用いることが可能である。CPU203は、入力された信号やプログラムに従って、各種の演算や、情報処理装置200を構成する各部分の制御を行う。一次記憶装置204は、一時的なデータを記憶し、CPU203の作業用に使われる。二次記憶装置205は、画像処理を行うためのプログラムや各種の設定情報を記憶する。通信装置206は、外部装置と接続し制御コマンドやデータの送受信を行う。通信装置206の形態は通信装置109と同じような形態を選択することも可能である。   FIG. 2 is a block diagram illustrating a configuration of an information processing apparatus 200 that is another example that realizes the image processing apparatus according to the first embodiment. In FIG. 2, the display unit 201 displays captured images and characters for interactive operation. The operation unit 202 is for receiving a user operation. For example, a keyboard or a pointing device can be used as the operation unit 202. The CPU 203 performs various operations and controls each part of the information processing apparatus 200 in accordance with the input signal and program. The primary storage device 204 stores temporary data and is used for the work of the CPU 203. The secondary storage device 205 stores a program for performing image processing and various setting information. The communication device 206 is connected to an external device and transmits / receives control commands and data. The form of the communication device 206 can be selected in the same manner as the communication device 109.

図3は本実施形態における画像の暗部補正処理の流れを示した図である。以下に、図3を用いて、過去コマの補正量を参照し、現在コマにおいてより適した補正量の算出を行う第1の実施形態について説明する。なお、以下では撮像装置100における撮影画像に対する輝度暗部補正処理について説明するが、情報処理装置200でも一般の画像データ(撮影画像に限らない)に対して同様に実施できることは明らかである。   FIG. 3 is a diagram showing a flow of dark portion correction processing of an image in the present embodiment. The first embodiment will be described below with reference to the correction amount of the past frame and calculating a correction amount more suitable for the current frame with reference to FIG. In the following, the luminance dark portion correction processing for the captured image in the imaging apparatus 100 will be described, but it is obvious that the information processing apparatus 200 can be similarly applied to general image data (not limited to the captured image).

まず、ステップS301において光学系101及び撮像素子102を通して画像の撮影が行われると、CPU103は、ステップS302において撮影時情報の取得を行う(撮影時情報取得)。この撮影時情報としては例えば撮影時感度などが含まれる。なお、記憶媒体106に記憶された画像を読み出して、当該処理の対象としても良い。また、情報処理装置200で実施した場合は、二次記憶装置205に格納された画像や通信装置206を介して取得された画像を当該処理の対象とすればよい。   First, when an image is shot through the optical system 101 and the image sensor 102 in step S301, the CPU 103 acquires shooting time information (shooting time information acquisition) in step S302. This shooting time information includes, for example, shooting sensitivity. Note that an image stored in the storage medium 106 may be read out and subjected to the processing. Further, when the processing is performed by the information processing device 200, an image stored in the secondary storage device 205 or an image acquired via the communication device 206 may be the target of the processing.

次に、CPU103は、ステップS303において、画像特徴量の取得を行う。この画像特徴量は現在コマにおける補正量の算出に用いるものであり、例えば画像中に含まれる顔の輝度情報等が含まれる。   Next, in step S303, the CPU 103 acquires an image feature amount. This image feature amount is used for calculating the correction amount in the current frame, and includes, for example, luminance information of a face included in the image.

次に、CPU103は、ステップS304において、現在コマの補正曲線の算出を行う。この補正曲線算出においては、例えば図6(a)に示されるように、ステップS303で得られた顔の輝度が目標輝度となるような制御点を持つ曲線を描くことで補正曲線を算出することが可能である。   Next, in step S304, the CPU 103 calculates a correction curve for the current frame. In this correction curve calculation, for example, as shown in FIG. 6A, the correction curve is calculated by drawing a curve having control points such that the face luminance obtained in step S303 becomes the target luminance. Is possible.

このようにして現在コマの補正曲線の算出が行われると、CPU103はステップS305において、過去コマの補正曲線の取得(補正量取得)を行う。ここで言う過去コマの補正曲線は現在処理を行っているコマよりも前に撮影されたものから算出された補正曲線であり、後述するステップS308において記録されたものとなる。   When the correction curve for the current frame is calculated in this way, the CPU 103 acquires a correction curve for the previous frame (acquisition of correction amount) in step S305. The correction curve for the past frame referred to here is a correction curve calculated from a photograph taken before the currently processed frame, and is recorded in step S308 described later.

次に、CPU103はステップS306において、過去コマの画像情報を取得する。ここでいう過去コマの画像情報は現在処理を行っているコマよりも前に撮影されたものから得られた画像情報であり、後述するステップS310において記録されたものとなる。このような過去コマの画像情報としては例えば輝度情報などを記録しておき、後のステップS307で利用することが可能である。   Next, in step S306, the CPU 103 acquires image information of past frames. The image information of the past frame here is image information obtained from the image taken before the frame currently being processed, and is recorded in step S310 described later. As such image information of the past frame, for example, luminance information can be recorded and used in later step S307.

ステップS307においては、CPU103は過去コマの補正値の引き継ぎを行う。この引き継ぎにおいては、例えばステップS306で得られた過去コマの輝度を用いて、過去コマと現在コマの輝度の変化量を算出し、変化量が一定値以内であればステップS305で得られた過去コマの補正値を引き継ぐといったような処理が可能である。また、変化量が一定値を超えた場合においては、ステップS304で得られた現在コマの補正量とステップS305で得られた過去コマの補正量をミックスし、変化量が大きいほど現在コマのミックス割合を増やしていくといった処理を行うことも可能である。   In step S307, the CPU 103 takes over the correction values of the past frames. In this takeover, for example, the amount of change in luminance between the past frame and the current frame is calculated using the luminance of the past frame obtained in step S306. If the amount of change is within a certain value, the past obtained in step S305 is calculated. Processing such as taking over frame correction values is possible. If the amount of change exceeds a certain value, the correction amount of the current frame obtained in step S304 and the correction amount of the past frame obtained in step S305 are mixed. It is also possible to perform processing such as increasing the ratio.

通常はこのようにして得られた補正量に対し、ステップS302で得られた撮影時の感度情報を元に高感度リミッタをかけたり、またはステップS304における補正曲線算出の際に予め高感度リミッタを考慮した補正量を算出したりする。しかし、本実施形態においては、まずステップS308により、高感度リミッタを適用する(補正量修正)前の補正曲線の記録(補正量記録)を行う。これが以降のコマにおける過去コマ情報として利用されることとなる。そのため、ここで記録される補正曲線は撮影時の感度によらない補正値となっている。なお、ここで記録される補正曲線は必ずしも全ての入力輝度と出力輝度の関係を記録する必要はない。例えば、図6(b)のように、間引いた入力輝度と出力輝度の関係を記録することで記録に必要な容量を削減することも可能である。このような場合においてはステップS305において、間引いた分を線形補間するといった処理により、図6(b)に示したような元の補正曲線に近いものを再現することが可能となる。   Usually, a high sensitivity limiter is applied to the correction amount obtained in this way based on the sensitivity information at the time of shooting obtained in step S302, or a high sensitivity limiter is previously applied when calculating a correction curve in step S304. Or calculating a correction amount in consideration. However, in this embodiment, first, in step S308, the correction curve is recorded (correction amount recording) before the high sensitivity limiter is applied (correction amount correction). This is used as past frame information in subsequent frames. For this reason, the correction curve recorded here is a correction value that does not depend on the sensitivity at the time of shooting. The correction curve recorded here does not necessarily need to record the relationship between all input luminances and output luminances. For example, as shown in FIG. 6B, the capacity necessary for recording can be reduced by recording the relationship between the thinned input luminance and output luminance. In such a case, it is possible to reproduce the one close to the original correction curve as shown in FIG. 6B by performing a linear interpolation in step S305.

このようにして補正曲線の記録が行われるとCPU103はステップS309において高感度リミッタを適用する。高感度リミッタの適用においては、例えばあらかじめ特定の輝度における最大補正量を感度毎に決めておき、この最大補正量を超えていた場合に補正曲線全体を抑制する方法が考えられる。図7はこのような処理の一例を示したものである。   When the correction curve is recorded in this way, the CPU 103 applies a high sensitivity limiter in step S309. In the application of the high sensitivity limiter, for example, a method may be considered in which a maximum correction amount at a specific luminance is determined for each sensitivity in advance, and the entire correction curve is suppressed when the maximum correction amount is exceeded. FIG. 7 shows an example of such processing.

まず、ステップS302において得られた撮影時の感度情報を元にして最大補正量の算出を行う。これには、例えば図7(a)のように、ある特定の輝度における補正後輝度の最大値を感度毎に予め定めておき、実際の感度に応じて特定の輝度における補正後輝度の最大値を算出することによって得られる。例えばある感度yにおける輝度aの補正後の輝度の最大値はαになっており、同様に輝度bに対してはβ、輝度cに対してはγとなっている。これらの関係をプロットしたものが図7(b)中に円で示した点となっている。このような点を超えないように実際の補正量を制限する。なお、図7(a)中に示した感度x、y、zは必ずしも設定しうるすべての感度で持つ必要はなく、離散的な感度に対する設計値を所持しておき、間を補間により算出することも可能である。このようにして得られた最大補正量を元に、ステップS309において高感度リミッタを適用する。   First, the maximum correction amount is calculated based on the sensitivity information at the time of shooting obtained in step S302. For this purpose, for example, as shown in FIG. 7A, the maximum value of the corrected luminance at a specific luminance is determined in advance for each sensitivity, and the maximum value of the corrected luminance at the specific luminance according to the actual sensitivity. Is obtained by calculating. For example, the maximum value of luminance after correction of luminance a at a certain sensitivity y is α, similarly β for luminance b and γ for luminance c. A plot of these relationships is the point indicated by a circle in FIG. The actual correction amount is limited so as not to exceed this point. Note that the sensitivities x, y, and z shown in FIG. 7 (a) do not necessarily have to be set at all sensitivities that can be set, and possess design values for discrete sensitivities and calculate by interpolation between them. It is also possible. Based on the maximum correction amount obtained in this way, a high sensitivity limiter is applied in step S309.

図7(b)のf(Y)はステップS304によって得られた補正曲線を示し、g(Y)は入力輝度=出力輝度となる直線(g(Y)=Y)を示している。このような場合においては補正量f(a)、f(b)、f(c)が図中に円で示した最大補正量を超えているため、補正量を制限する必要がある。このリミッタにおいては、例えば以下のような式によって高感度リミッタ後の補正量f’(Y)が得られる。   In FIG. 7B, f (Y) represents the correction curve obtained in step S304, and g (Y) represents a straight line (g (Y) = Y) where input luminance = output luminance. In such a case, since the correction amounts f (a), f (b), and f (c) exceed the maximum correction amount indicated by a circle in the drawing, it is necessary to limit the correction amount. In this limiter, for example, the correction amount f ′ (Y) after the high sensitivity limiter is obtained by the following equation.

f’(Y)={f(Y)−g(Y)}×MIN[{α−g(a)}/{f(a)−g(a)},{β−g(b)}/{f(b)−g(b)},{γーg(c)}/{f(c)−g(c)}]+g(Y)
このようにして得られた補正曲線f’(Y)をステップS311において実際の画像に適用し、画像の暗部補正を行う。
f ′ (Y) = {f (Y) −g (Y)} × MIN [{α−g (a)} / {f (a) −g (a)}, {β−g (b)} / {F (b) -g (b)}, {γ-g (c)} / {f (c) -g (c)}] + g (Y)
The correction curve f ′ (Y) thus obtained is applied to the actual image in step S311 to correct the dark portion of the image.

なお、その際に以降の撮影におけるステップS307において過去補正値引き継ぎを行うため、CPU103はステップS310において必要な画像情報を記録する。ここでは、例えばステップS307において前述したように画像の輝度情報を判定に用いるのであれば、現在のコマの輝度情報等を記録することとなる。   At that time, the CPU 103 records necessary image information in step S310 in order to perform the past correction value transfer in step S307 in the subsequent photographing. Here, for example, if the luminance information of the image is used for the determination as described above in step S307, the luminance information of the current frame is recorded.

以上が本発明の第1の実施形態となる。なお、図中では参照する情報を明確にするため、補正曲線と画像情報の記録を異なる記録装置に記録しているように表現しているが、必ずしも異なる記憶装置に記憶する必要はない。   The above is the first embodiment of the present invention. In order to clarify the information to be referred to in the figure, the correction curve and the image information are expressed as recorded in different recording devices, but need not be stored in different storage devices.

このような処理を行うことによる効果を図4、図5を用いて説明する。図4は過去コマと現在コマが異なる感度で撮影された際の過去コマの補正量の引き継がれ方を示している。   The effect of performing such processing will be described with reference to FIGS. FIG. 4 shows how the correction amount of the past frame is taken over when the past frame and the current frame are shot with different sensitivities.

まず、図4(a)、(b)について説明する。図4(a)、(b)では過去コマ401、410が高感度、現在コマ406,415が低感度で撮影された場合の例を示している。従来では、まず過去コマ401においてそのコマの理想の補正量403が算出される。過去コマ401においては高感度で撮影されているため、この補正量403をそのままかけるとノイズを強調しすぎてしまうため、高感度リミッタが強めにかかり、実際に適用される補正量は404のようになる。このような過去コマの補正量を引き継ぐ際に、過去コマ401で適用された補正量404を引き継いだ場合、この補正量がそのまま現在コマ406の画像407に適用されてしまう。そのため、現在コマ406では暗部補正前の段階でのノイズが少なく、本来の補正量をかけても問題がないにもかかわらず、実際には制限された補正量408がかかってしまうことになる。それにより、画像409のように補正不足の画像となってしまう。それに対し、本実施形態においては図4(b)のように過去コマ410で高感度リミッタを適用する前の補正曲線412を引き継ぎ、現在コマ415の感度に応じた高感度リミッタを適用する。この時、現在コマ415は低感度で撮影されているため、高感度リミッタがあまりかからない補正量418が得られる。これにより、現在コマ415においては過去コマ410で検出された顔情報を利用した、より適した補正を行うことが可能となる。   First, FIGS. 4A and 4B will be described. FIGS. 4A and 4B show an example in which past frames 401 and 410 are shot with high sensitivity and current frames 406 and 415 are shot with low sensitivity. Conventionally, first, an ideal correction amount 403 of the frame is calculated in the past frame 401. Since the previous frame 401 has been shot with high sensitivity, if this correction amount 403 is applied as it is, noise will be overemphasized, so the high sensitivity limiter will be applied stronger, and the correction amount that is actually applied is 404 become. When the correction amount 404 applied in the past frame 401 is inherited when the correction amount of the past frame is taken over, the correction amount is applied to the image 407 of the current frame 406 as it is. Therefore, in the current frame 406, there is little noise before the dark portion correction, and although there is no problem even if the original correction amount is applied, the limited correction amount 408 is actually applied. As a result, an image with insufficient correction such as an image 409 is obtained. On the other hand, in the present embodiment, as shown in FIG. 4B, the correction curve 412 before applying the high sensitivity limiter in the past frame 410 is taken over, and the high sensitivity limiter corresponding to the sensitivity of the current frame 415 is applied. At this time, since the frame 415 is currently photographed with low sensitivity, a correction amount 418 that does not require a high sensitivity limiter is obtained. As a result, the current frame 415 can perform more appropriate correction using the face information detected in the past frame 410.

次に、図5(a)、(b)について説明する。図5(a)、(b)では過去コマ420、429が低感度、現在コマ425、434が高感度で撮影された場合の例を示している。従来では、まず過去コマ420においてそのコマの理想の補正量422が算出される。過去コマにおいては低感度で撮影されているため、この補正量422をそのままかけてもノイズの強調度合は許容範囲内となるため、高感度リミッタがほとんどかからない補正量423が得られる。このような過去コマ420の補正量を引き継ぐ際に、過去コマ420で適用された補正量423をそのまま引き継いでしまうと、現在コマ425において補正曲線427が適用されてしまうことになる。しかし、現在コマ425は高感度で撮影されているため、暗部補正前の画像426のノイズは多く、暗部補正427によりそのノイズがさらに強調されてしまう。それにより、画像428のような画質として問題がある画像となってしまう。それに対し、本実施形態においては図5(b)のように過去コマ429で高感度リミッタを適用する前の補正曲線431を引き継ぎ、現在コマ434の感度に応じた高感度リミッタを適用する。この時、現在コマ434は高感度で撮影されているため、高感度リミッタが強めにかかった補正量437が得られる。これにより、現在コマ434においては過去コマ429で検出された顔情報を利用しながら、なおかつノイズを強調しすぎない補正を行うことが可能となる。   Next, FIGS. 5A and 5B will be described. 5A and 5B show an example in which the past frames 420 and 429 are photographed with low sensitivity and the current frames 425 and 434 are photographed with high sensitivity. Conventionally, first, an ideal correction amount 422 of the frame is calculated in the past frame 420. Since the previous frame was shot with low sensitivity, the noise enhancement level is within the allowable range even if this correction amount 422 is used as it is, so that the correction amount 423 that hardly requires the high sensitivity limiter is obtained. If the correction amount 423 applied in the past frame 420 is inherited as it is when the correction amount of the past frame 420 is taken over, the correction curve 427 is applied to the current frame 425. However, since the frame 425 is currently photographed with high sensitivity, the noise of the image 426 before dark portion correction is large, and the dark portion correction 427 further enhances the noise. As a result, an image having a problem in image quality such as the image 428 is obtained. On the other hand, in the present embodiment, as shown in FIG. 5B, the correction curve 431 before applying the high sensitivity limiter in the past frame 429 is taken over, and the high sensitivity limiter corresponding to the sensitivity of the current frame 434 is applied. At this time, since the current frame 434 is photographed with high sensitivity, a correction amount 437 in which the high sensitivity limiter is applied strongly is obtained. As a result, the current frame 434 can perform correction that does not emphasize noise excessively while using the face information detected in the past frame 429.

このようにして、高感度リミッタを適用する前の補正量を記録しておくことで、現在コマの補正量算出において過去コマの補正量を参照する際に、過去コマと現在コマが異なる条件で撮影されたような場合においても好ましい補正量を算出することが可能となる。   In this way, by recording the correction amount before applying the high sensitivity limiter, when referring to the correction amount of the past frame in calculating the correction amount of the current frame, the past frame and the current frame are under different conditions. It is possible to calculate a preferable correction amount even when the image is taken.

(第2の実施形態)
第1の実施形態において、図4、図5を用いて第1の実施形態における効果を示した。ここで、図5(a)では過去コマ420で高感度リミッタをかけた後の補正量423をそのまま現在コマ425に引き継いだ画像428はノイズが強調されすぎているため、提供するのは問題がある。しかし、図4(a)において、過去コマ401で高感度リミッタをかけた後の補正量404をそのまま現在コマ406に引き継いだ画像409は補正不足ではあるが、ノイズ量としては問題がない。ここで、この画像409、及び図4(b)の画像419それぞれの画の利点に着目する。図4(b)の過去コマ410において高感度リミッタがかけられる前の補正量412を引き継ぎ、現在コマ415の感度に応じた高感度リミッタをかけた補正量418を適用した画像419は、画像1枚としての補正量としては適切なものとなっている。なおかつ過去コマ410の画像414に対して、ノイズ感としては同程度となる。しかしながら、画像419のほうがより強めの補正がかかっているため、画像全体の明るさが画像414と異なっている。それに対し、図4(a)の画像409では補正度合としてはやや不足しているが、画像405と同程度の明るさとなっている。
(Second Embodiment)
In 1st Embodiment, the effect in 1st Embodiment was shown using FIG. 4, FIG. Here, in FIG. 5A, since the noise is excessively emphasized in the image 428 in which the correction amount 423 after applying the high sensitivity limiter in the past frame 420 is directly transferred to the current frame 425, it is problematic to provide it. is there. However, in FIG. 4A, an image 409 in which the correction amount 404 after applying the high sensitivity limiter in the past frame 401 is transferred to the current frame 406 as it is is insufficiently corrected, but there is no problem as a noise amount. Here, attention is paid to the advantages of the image 409 and the image 419 in FIG. An image 419 to which the correction amount 412 before the high sensitivity limiter is applied in the past frame 410 in FIG. 4B is applied and the correction amount 418 to which the high sensitivity limiter 418 is applied according to the sensitivity of the current frame 415 is applied. The correction amount as a sheet is appropriate. In addition, the noise sensation is comparable to the image 414 of the past frame 410. However, since the image 419 is more strongly corrected, the brightness of the entire image is different from the image 414. On the other hand, in the image 409 of FIG. 4A, although the correction degree is slightly insufficient, it is as bright as the image 405.

図4(b)の画像419のような場合、1枚1枚の画像として見る場合には好ましい画像であると言えるが、連続した画像中の1枚としてみる場合には好ましくない場合がある。つまり、似たようなシーンを同じ露出で撮影したとしても明るさが異なってしまう場合がある。   In the case of the image 419 in FIG. 4B, it can be said that the image is preferable when viewed as one image, but may not be preferable when viewed as one image in a continuous image. In other words, even if a similar scene is shot with the same exposure, the brightness may be different.

そこで、本実施形態においては、過去コマと現在コマの感度が異なる際に、低感度から高感度に変化した場合と高感度から低感度に変化した場合とで処理を異ならせるようにする。   Therefore, in this embodiment, when the sensitivity of the past frame and the current frame is different, the processing is different depending on whether the sensitivity changes from low sensitivity to high sensitivity or from high sensitivity to low sensitivity.

まず、図8を用いて本実施形態における処理の一例を説明する。図8では、基本的な処理の流れは図3と同様であるが、図8では高感度リミッタ適用後にステップS710aにおいて高感度リミッタ適用後の補正曲線の記録を行っている。このように過去コマの高感度リミッタ適用前の補正値と高感度リミッタ適用後の補正値を記録することにより、ステップS707aにおいて引き継ぐ補正値を選択することが可能となる。つまり、図4(b)の画像419のように、現在コマと過去コマのノイズ量を同程度にし、現在コマの補正を十分にかけることを優先する場合においては過去コマの高感度リミッタ適用「前」の補正量を引き継ぐ。逆に、図4(a)の画像409のように、過去コマと現在コマの明るさを同程度にすることを優先する場合においては過去コマの高感度リミッタ適用「後」の補正量を引き継ぐ。   First, an example of processing in this embodiment will be described with reference to FIG. In FIG. 8, the basic processing flow is the same as in FIG. 3, but in FIG. 8, after applying the high sensitivity limiter, the correction curve after applying the high sensitivity limiter is recorded in step S710a. Thus, by recording the correction value of the past frame before application of the high sensitivity limiter and the correction value after application of the high sensitivity limiter, it is possible to select a correction value to be taken over in step S707a. That is, as shown in the image 419 in FIG. 4B, in the case where the noise amount of the current frame and the past frame is set to the same level and priority is given to sufficiently correcting the current frame, the high sensitivity limiter application of the past frame is applied. Takes over the previous correction amount. On the other hand, when priority is given to setting the brightness of the past frame and the current frame to the same level as in the image 409 of FIG. 4A, the correction amount of “after” application of the high sensitivity limiter of the past frame is inherited. .

なお、ノイズ量を同程度にし、現在コマの補正を十分にかけることを優先するか、過去コマと現在コマの明るさを同程度にすることを優先するかの選択基準として、例えば以下のようなものがあげられる。
(1)連写または単写
例えば連写中に感度変化があった場合、得られる画像としては常に同程度の明るさであることが好ましいことが多い。また、逆に単写で撮影中に感度変化があった場合、ノイズ感が同程度でなおかつ理想的な補正がかけられた画像が得られることが好ましいことが多い。そのため、連写中の場合には過去コマの高感度リミッタ適用「後」の補正量を引き継ぎ、単写の場合には過去コマの高感度リミッタ適用「前」の補正量を引き継ぐのが好ましいと思われる。
(2)無意識な感度変化または意識的な感度変化
例えば、感度が自動的に制御される撮影モードにおいてユーザが無意識のうちに感度が変わって撮影された場合、得られる画像としては同程度の明るさであることが好ましいことが多い。また、逆にユーザが意識的に感度を変更して撮影した場合、ノイズ感が同程度でなおかつ理想的な補正がかけられた画像が得られることが好ましいことが多い。そのため、感度自動制御による撮影の場合には過去コマの高感度リミッタ適用「後」の補正量を引き継ぎ、感度手動制御による撮影の場合には過去コマの高感度リミッタ適用「前」の補正量を引き継ぐのが好ましいと思われる。
In addition, as a selection criterion whether to give priority to giving the same amount of noise and sufficient correction of the current frame or giving priority to the same brightness of the past frame and the current frame, for example, as follows There are many things.
(1) Continuous shooting or single shooting For example, when there is a sensitivity change during continuous shooting, it is often preferable that the obtained image always has the same brightness. Conversely, when there is a change in sensitivity during single-shooting, it is often preferable to obtain an image with the same noise sensation and ideally corrected. Therefore, it is preferable to take over the correction amount after applying the high-sensitivity limiter for the previous frame in continuous shooting, and take over the correction amount before applying the high-sensitivity limiter for the previous frame in single shooting. Seem.
(2) Unconscious sensitivity change or conscious sensitivity change For example, in a shooting mode in which the sensitivity is automatically controlled, when the user unconsciously changes the sensitivity and shoots, the resulting image has the same brightness. Often it is preferred. On the contrary, when the user consciously changes the sensitivity and shoots, it is often preferable to obtain an image with the same noise feeling and ideal correction. Therefore, in the case of shooting with automatic sensitivity control, the correction amount after applying the high sensitivity limiter of the previous frame is inherited, and in the case of shooting with sensitivity manual control, the correction amount of applying the high sensitivity limiter of the past frame is set to “before”. It seems to be preferable to take over.

なお、図8を用いた説明においては高感度リミッタ適用前後の補正曲線を共に記録する例を示したが、必ずしもこれに限られるものではなく、例えば図9のように、高感度リミッタ適用時に過去コマの感度情報を参照することによっても可能である。例えば、前述したように過去コマと現在コマでノイズ感が同程度でなおかつ理想的な補正をかけることを優先する場合には「現在コマの」感度に応じた高感度リミッタをかけることで図4(b)の補正曲線417から補正曲線418が作られる。それに対し、過去コマと現在コマの明るさを同程度にすることを優先する場合においては、「過去コマの」感度に応じた高感度リミッタをかけることで、図4(b)の補正曲線417から図4(a)の補正曲線408相当のものが作られる。   In the description using FIG. 8, an example in which the correction curves before and after the application of the high sensitivity limiter are recorded is shown. However, the present invention is not necessarily limited to this. For example, as shown in FIG. This is also possible by referring to the frame sensitivity information. For example, as described above, when priority is given to applying the ideal correction with the same level of noise in the past frame and the current frame, a high sensitivity limiter corresponding to the sensitivity of the “current frame” is applied. A correction curve 418 is created from the correction curve 417 of (b). On the other hand, when priority is given to setting the brightness of the past frame and the current frame to the same level, a correction curve 417 in FIG. 4B is applied by applying a high sensitivity limiter corresponding to the sensitivity of the “past frame”. From this, a curve corresponding to the correction curve 408 in FIG.

このように本実施形態においては過去コマと現在コマで感度が異なる場合に、高感度から低感度に変化した場合と低感度から高感度に変化した場合で処理を異ならせることにより、より好ましい補正を行うことが可能となる。   As described above, in the present embodiment, when the sensitivity is different between the past frame and the current frame, more preferable correction is made by changing the processing depending on whether the sensitivity changes from high sensitivity to low sensitivity or low sensitivity to high sensitivity. Can be performed.

なお、本実施形態においては過去コマで顔が検出され、現在コマで顔が検出されなかった際に過去コマで検出された顔情報を現在コマで利用する場合を想定したが、過去コマ・現在コマ共に顔が検出された場合にも同じ考えを適用することが出来る。例えば、連写中に高感度から低感度に感度変化したような場合においては高感度リミッタ適用「後」の補正量を引き継ぐことにより、明るさのばらつきを抑えることが可能となる。逆に、単写中に高感度から低感度に感度変化させたような場合においては高感度リミッタ適用「前」の補正量を引き継ぐことにより、ノイズ感が同程度でなおかつ理想的な補正がかけられた画像を得ることが可能となる。   In the present embodiment, it is assumed that a face is detected in a previous frame and the face information detected in the past frame is used in the current frame when no face is detected in the current frame. The same idea can be applied when a face is detected in both frames. For example, when the sensitivity changes from high sensitivity to low sensitivity during continuous shooting, it is possible to suppress variations in brightness by taking over the correction amount after “after” application of the high sensitivity limiter. On the other hand, when the sensitivity is changed from high sensitivity to low sensitivity during a single shot, the same amount of noise is applied and ideal correction is applied by taking over the correction amount of “Before” when the high sensitivity limiter is applied. The obtained image can be obtained.

(第3の実施形態)
本実施形態においては、補正量算出時に白飛び抑制補償適用前と適用後の値を算出し、適用前の情報を記録しておくことで、以降の撮影においてより適した補正量の算出を行う画像処理装置について説明する。なお、本実施形態における撮像装置、画像処理装置の構成は、第1の実施形態で説明した図1に示す撮像装置100、画像処理装置200の構成と同様であるので、その説明を省略する。
(Third embodiment)
In the present embodiment, values before and after the application of the whiteout suppression compensation are calculated at the time of calculating the correction amount, and information before the application is recorded, so that a more appropriate correction amount is calculated in subsequent shooting. An image processing apparatus will be described. Note that the configurations of the imaging apparatus and the image processing apparatus in the present embodiment are the same as the configurations of the imaging apparatus 100 and the image processing apparatus 200 illustrated in FIG. 1 described in the first embodiment, and thus description thereof is omitted.

図10は本実施形態における画像の階調補正処理の流れを示した図である。以下に、図10を用いて、過去コマの補正量を参照し、現在コマにおいてより適した補正量の算出を行う第3の実施形態について説明する。なお、以下では撮像装置100における撮影画像に対する輝度階調補正処理を説明するが、情報処理装置200でも一般の画像データ(撮影画像に限らない)に対して同様に実施できることは明らかである。   FIG. 10 is a diagram showing the flow of image gradation correction processing in this embodiment. Hereinafter, a third embodiment in which a correction amount more suitable for the current frame is calculated with reference to the correction amount of the past frame will be described with reference to FIG. In the following, luminance gradation correction processing for a captured image in the imaging apparatus 100 will be described. However, it is obvious that the information processing apparatus 200 can be similarly applied to general image data (not limited to a captured image).

まず、ステップS1001において光学系101及び撮像素子102を通して画像の撮影が行われる。この際、撮影画像中に白飛びしそうな高輝度な領域が含まれる場合には白飛びを抑制するため、撮影露出を下げてやや暗めに撮影を行う(露出修正)。ここで、撮影時の露出を下げる割合に関しては例えば画像中に含まれる白飛びしそうな領域の面積が大きいほど露出を下げる割合を増加させるなどといった方法を取ることが可能である。これには例えば光学ファインダ近傍に設けた測光センサ(図示せず)の情報等を利用することが可能である。なお、記憶媒体106に記憶された画像を読み出して、当該処理の対象としても良い。また、情報処理装置200で実施した場合は、二次記憶装置205に格納された画像や通信装置206を介して取得された画像を当該処理の対象とすればよい。   First, in step S1001, an image is taken through the optical system 101 and the image sensor 102. At this time, if the captured image includes a high-brightness area that seems to be overexposed, in order to suppress overexposure, the exposure is reduced and the image is taken slightly dark (exposure correction). Here, with respect to the ratio of decreasing the exposure at the time of shooting, for example, it is possible to take a method of increasing the ratio of decreasing the exposure as the area of the region that appears to be over-exposed in the image is larger. For this, for example, information of a photometric sensor (not shown) provided in the vicinity of the optical viewfinder can be used. Note that an image stored in the storage medium 106 may be read out and subjected to the processing. Further, when the processing is performed by the information processing device 200, an image stored in the secondary storage device 205 or an image acquired via the communication device 206 may be the target of the processing.

次に、CPU103はステップS1002において撮影時情報の取得を行う。この撮影時情報としては例えば撮影時における白飛び抑制を行ったかどうかの情報や白飛び抑制量の情報などが含まれる。   Next, in step S1002, the CPU 103 acquires shooting time information. The information at the time of photographing includes, for example, information on whether or not whiteout suppression has been performed at the time of photographing and information on the amount of whiteout suppression.

次に、CPU103は、ステップS1003において、画像特徴量の取得を行う。この画像特徴量は現在コマにおける補正量の算出に用いるものであり、例えば画像中に含まれる顔の輝度情報等が含まれる。   Next, in step S1003, the CPU 103 acquires an image feature amount. This image feature amount is used for calculating the correction amount in the current frame, and includes, for example, luminance information of a face included in the image.

次に、CPU103は、ステップS1004において、現在コマの補正曲線の算出を行う。この補正曲線算出においては、例えば図15(a)に示されるように、ステップS1003で得られた顔の輝度が目標輝度となるような制御点を持つ曲線を描くことで補正曲線を算出することが可能である。この時、画像中から検出された顔輝度は白飛び抑制によって暗めに撮影された画像から取得されたものとなるため、本来の明るさよりも低輝度のものとなっている。そこで、ここでは白飛び抑制補償を考慮した顔輝度の算出を行う。   Next, in step S1004, the CPU 103 calculates a correction curve for the current frame. In this correction curve calculation, for example, as shown in FIG. 15A, the correction curve is calculated by drawing a curve having control points such that the face luminance obtained in step S1003 becomes the target luminance. Is possible. At this time, the face luminance detected from the image is acquired from an image photographed darkly by whiteout suppression, and thus has a lower luminance than the original brightness. Therefore, here, the face luminance is calculated in consideration of whiteout suppression compensation.

白飛び抑制補償においては白飛び抑制のために暗く撮影され、低減された明るさを補償する補正をかける。この時、輝度全体を同様に持ち上げてしまうと白飛びを抑制した領域まで再度白く飛んでしまうため、例えば図16の補正曲線602,603,604のように高輝度領域を持ち上げる量を少なくした補正曲線によって白飛び抑制補償を行う。ここではステップS1001における撮影時の白飛び抑制量がyであり、白飛び抑制補償曲線603を使用する場合を例に挙げる。例えば画像から検出された顔の輝度が補正曲線603に示した輝度aであった場合には実際には白飛び抑制補償により輝度bに補正される。そのため、ステップS1004において参照する顔の輝度は輝度bを用いることが好ましい。このように算出されたbをもとに、図15(a)に示されるように、顔輝度bが目標輝度となるような制御点を持つ曲線を描くことで顔補正の補正曲線の算出を行う。   In the whiteout suppression compensation, a dark image is taken to suppress whiteout, and correction is performed to compensate for the reduced brightness. At this time, if the entire brightness is lifted in the same manner, the white area will fly again to the area where whiteout is suppressed. For example, a correction with a small amount of lifting the high brightness area as in the correction curves 602, 603, and 604 in FIG. Compensates for whiteout suppression using a curve. Here, a case where the amount of whiteout suppression at the time of shooting in step S1001 is y and a whiteout suppression compensation curve 603 is used is taken as an example. For example, when the luminance of the face detected from the image is the luminance a shown in the correction curve 603, the luminance is actually corrected to the luminance b by whiteout suppression compensation. Therefore, it is preferable to use the luminance b as the luminance of the face referred to in step S1004. Based on b calculated in this way, as shown in FIG. 15A, a correction curve for face correction is calculated by drawing a curve having control points such that the face luminance b becomes the target luminance. Do.

このようにして現在コマの補正曲線の算出が行われると、CPU103はステップS1005において、過去コマの補正曲線の取得を行う。ここで言う過去コマの補正曲線は現在処理を行っているコマよりも前に撮影されたものから算出された補正曲線であり、後述するステップS1008において記録されたものとなる。   When the correction curve for the current frame is thus calculated, the CPU 103 acquires the correction curve for the previous frame in step S1005. The correction curve for the past frame mentioned here is a correction curve calculated from a photograph taken before the currently processed frame, and is recorded in step S1008 described later.

次に、CPU103はステップS1006において、過去コマの画像情報を取得する。ここでいう過去コマの画像情報は現在処理を行っているコマよりも前に撮影されたものから得られた画像情報であり、後述するステップS1010において記録されたものとなる。このような過去コマの画像情報としては例えば輝度情報などを記録しておき、後のステップS1007で利用することが可能である。   In step S1006, the CPU 103 acquires image information of past frames. The image information of the past frame here is image information obtained from the image taken before the frame currently being processed, and is recorded in step S1010 described later. As the image information of such past frames, for example, luminance information can be recorded and used in the subsequent step S1007.

ステップS1007においては、CPU103は過去コマの補正値の引き継ぎを行う。この引き継ぎにおいては、例えばステップS1006で得られた過去コマの輝度を用いて、過去コマと現在コマの輝度の変化量を算出し、変化量が一定値以内であればステップS1005で得られた過去コマの補正値を引き継ぐといったような処理が可能である。また、変化量が一定値を超えた場合においては、ステップS1004で得られた現在コマの補正量とステップS1005で得られた過去コマの補正量をミックスし、変化量が大きいほど現在コマのミックス割合を増やしていくといった処理を行うことも可能である。   In step S1007, the CPU 103 takes over the correction values of past frames. In this takeover, for example, using the luminance of the past frame obtained in step S1006, the amount of change in luminance between the past frame and the current frame is calculated. If the amount of change is within a certain value, the past obtained in step S1005 is calculated. Processing such as taking over frame correction values is possible. When the amount of change exceeds a certain value, the correction amount for the current frame obtained in step S1004 and the correction amount for the previous frame obtained in step S1005 are mixed. It is also possible to perform processing such as increasing the ratio.

通常はこのようにして得られた補正量に対し、ステップS1002で得られた撮影時における白飛び抑制量を元に白飛び抑制補償を適用する。しかし、本実施形態においては、まずステップS1008により、白飛び抑制補償を適用する前の補正曲線の記録を行う。これが以降のコマにおける過去コマ情報として利用されることとなる。そのため、ここで記録される補正曲線は撮影時の白飛び抑制量によらない補正値となっている。なお、ここで記録される補正曲線は必ずしも全ての入力輝度と出力輝度の関係を記録する必要はない。例えば、図15(b)のように、間引いた入力輝度と出力輝度の関係を記録することで記録に必要な容量を削減することも可能である。このような場合においてはステップS1005において、間引いた分を線形補間するといった処理により、図15(b)に示したような元の補正曲線に近いものを再現することが可能となる。   Normally, whiteout suppression compensation is applied to the correction amount obtained in this way based on the whiteout suppression amount at the time of shooting obtained in step S1002. However, in the present embodiment, first, in step S1008, a correction curve before applying the whiteout suppression compensation is recorded. This is used as past frame information in subsequent frames. For this reason, the correction curve recorded here is a correction value that does not depend on the amount of whiteout suppression during shooting. The correction curve recorded here does not necessarily need to record the relationship between all input luminances and output luminances. For example, as shown in FIG. 15B, it is possible to reduce the capacity required for recording by recording the relationship between the thinned input luminance and output luminance. In such a case, in step S1005, a process close to the original correction curve as shown in FIG. 15B can be reproduced by performing a linear interpolation on the thinned portion.

このようにして補正曲線の記録が行われるとCPU103はステップS1009において白飛び抑制補償を適用する。白飛び抑制補償の適用においては、例えばあらかじめ白飛び抑制量に応じた白飛び抑制補償の補正曲線を決めておき、ステップS1004で得られた補正曲線と白飛び抑制補償の補正曲線を合成する方法が考えられる。図16はこのような処理の一例を示したものである。   When the correction curve is recorded in this way, the CPU 103 applies whiteout suppression compensation in step S1009. In application of the whiteout suppression compensation, for example, a correction curve for whiteout suppression compensation corresponding to the amount of whiteout suppression is determined in advance, and the correction curve obtained in step S1004 and the correction curve for whiteout suppression compensation are synthesized. Can be considered. FIG. 16 shows an example of such processing.

まず、ステップS1002において得られた撮影時の白飛び抑制量の情報を元にして白飛び抑制補償曲線を取得する。これには、例えば図16の602、603、604のような、白飛び抑制量に応じた白飛び抑制補償曲線を予め定めておき、実際の白飛び抑制量に応じて白飛び抑制補償曲線を選択することによって得られる。例えばある白飛び抑制量yにおける白飛び抑制補償曲線は603のようになっている。まず、撮影された画像におけるある輝度aは、白飛び抑制補償により輝度bに移る。この時、ステップS1004において得られた補正曲線が601のような形をしていた場合、前述した輝度bはさらに補正曲線601によって輝度cに移る。つまり、補正曲線601と補正曲線603を組み合わせた場合、ある輝度aが輝度cに移るような補正曲線となる。このような方法を各入力輝度に対して走査していくことにより、最終的に補正曲線601と白飛び抑制補償曲線603を合成した補正曲線605を得ることが出来る。   First, a whiteout suppression compensation curve is acquired based on the information on the whiteout suppression amount at the time of shooting obtained in step S1002. For this purpose, for example, a whiteout suppression compensation curve corresponding to the whiteout suppression amount, such as 602, 603, and 604 in FIG. 16, is determined in advance, and the whiteout suppression compensation curve is set according to the actual whiteout suppression amount. Obtained by choosing. For example, a whiteout suppression compensation curve at a certain whiteout suppression amount y is as indicated by 603. First, a certain luminance a in the photographed image is shifted to luminance b by whiteout suppression compensation. At this time, if the correction curve obtained in step S1004 has a shape like 601, the luminance b described above is further shifted to luminance c by the correction curve 601. That is, when the correction curve 601 and the correction curve 603 are combined, a correction curve in which a certain luminance a shifts to the luminance c is obtained. By scanning this method for each input luminance, a correction curve 605 obtained by combining the correction curve 601 and the whiteout suppression compensation curve 603 can be finally obtained.

このようにして得られた補正曲線をステップS1011において実際の画像に適用し、画像の階調補正、及び白飛び抑制補償を行う。   The correction curve thus obtained is applied to the actual image in step S1011 to perform image gradation correction and whiteout suppression compensation.

なお、その際に以降の撮影におけるステップS1007において過去補正値引き継ぎを行うため、CPU103はステップS1010において必要な画像情報を記録する。ここでは、例えばステップS1007において前述したように画像の輝度情報を判定に用いるのであれば、現在のコマの輝度情報等を記録することとなる。   At that time, the CPU 103 records necessary image information in step S1010 in order to take over the past correction value in step S1007 in the subsequent photographing. Here, for example, if the luminance information of the image is used for the determination as described above in step S1007, the luminance information of the current frame is recorded.

以上が本発明の第3の実施形態となる。なお、図中では参照する情報を明確にするため、補正曲線と画像情報の記録を異なる記録装置に記録しているように表現しているが、必ずしも異なる記憶装置に記憶する必要はない。   The above is the third embodiment of the present invention. In order to clarify the information to be referred to in the figure, the correction curve and the image information are expressed as recorded in different recording devices, but need not be stored in different storage devices.

このような処理を行うことによる効果を図11〜図14を用いて説明する。図11〜図14は過去コマと現在コマが異なる白飛び抑制量で撮影された際の過去コマの補正量の引き継がれ方を示している。   The effect of performing such processing will be described with reference to FIGS. FIGS. 11 to 14 show how the correction amount of the past frame is taken over when the past frame and the current frame are shot with different whiteout suppression amounts.

まず、図11、図12について説明する。図11、図12では過去コマ1101,1112が白飛び抑制あり、現在コマ1108,1119が白飛び抑制なしで撮影された場合の例を示している。従来では、まず過去コマ1101においてそのコマの顔を適切な明るさに補正するための補正量1104が算出される。過去コマ1101においては白飛びを抑制するためにやや暗く撮影されているため、低減された明るさを補正する補正量1105をさらにかけることになる。これにより、実際に適用される補正量は1106のようになる。このような過去コマ1101の補正量を引き継ぐ際に、過去コマ1101で適用された補正量1106を引き継いだ場合、この補正量がそのまま現在コマ1108の画像1109に適用されてしまう。そのため、現在コマ1108では白飛び抑制がされずに通常の明るさで撮影されたにもかかわらず、実際には過去コマ1101での白飛び抑制補償がされた補正量1110がかかってしまうことになる。それにより、画像1111のように過補正の画像となってしまう。それに対し、本実施形態においては図12のように過去コマ1112で白飛び抑制補償を適用する前の補正曲線1115を引き継ぎ、現在コマ1119の白飛び抑制量に応じた白飛び抑制補償曲線1122を適用する。この時現在コマ1119は白飛び抑制がされていないため、顔補正のみを行う補正量1123が得られる。これにより、現在コマ1119においては過去コマ1112で検出された顔情報を利用した、より適した補正を行うことが可能となる。   First, FIGS. 11 and 12 will be described. FIGS. 11 and 12 show an example in which the past frames 1101 and 1112 are captured without whiteout suppression and the current frames 1108 and 1119 are captured without whiteout suppression. Conventionally, first, a correction amount 1104 for correcting the face of the frame to an appropriate brightness in the past frame 1101 is calculated. Since the past frame 1101 is photographed slightly dark in order to suppress overexposure, a correction amount 1105 for correcting the reduced brightness is further applied. As a result, the correction amount actually applied becomes 1106. When the correction amount 1106 applied in the past frame 1101 is inherited when the correction amount of the past frame 1101 is taken over, the correction amount is applied to the image 1109 of the current frame 1108 as it is. For this reason, although the current frame 1108 was photographed at a normal brightness without whiteout suppression, a correction amount 1110 that was actually compensated for whiteout suppression in the past frame 1101 would be applied. Become. As a result, an overcorrected image such as an image 1111 is obtained. On the other hand, in the present embodiment, as shown in FIG. 12, the correction curve 1115 before applying the whiteout suppression compensation in the past frame 1112 is taken over, and the whiteout suppression compensation curve 1122 corresponding to the whiteout suppression amount of the current frame 1119 is obtained. Apply. At this time, since the current frame 1119 is not subjected to whiteout suppression, a correction amount 1123 for performing only face correction is obtained. As a result, the current frame 1119 can perform more appropriate correction using the face information detected in the past frame 1112.

次に、図13、図14について説明する。図13、図14では過去コマ1125、1136が白飛び抑制なし、現在コマ1131、1142が白飛び抑制ありで撮影された場合の例を示している。従来では、まず過去コマ1125においてそのコマの顔を適切な明るさに補正するための補正量1127が算出される。過去コマ1125においては白飛び抑制がされず、本来の明るさで撮影されているため、明るさの低減はなく、白飛び抑制補償は入力をそのままスルーする直線1128となる。これにより、実際に適用される補正量は1129のようになる。このような過去コマ1125の補正量を引き継ぐ際に、過去コマ1125で適用された補正量1129を引き継いだ場合、この補正量がそのまま現在コマ1131に適用されてしまう。そのため、現在コマ1131は白飛び抑制がされ、やや暗く撮影されたにもかかわらず、実際には白飛び抑制により低減された明るさが補償されていない補正量1134がかかってしまうことになる。それにより、画像1135のように補正不足の画像となってしまう。それに対し、本実施形態のように過去コマ1136で白飛び抑制補償を適用する前の補正曲線1138を引き継ぎ、現在コマ1142の白飛び抑制量に応じた白飛び抑制補償曲線1146を適用する場合、低減された明るさも補償する補正量1147が得られる。これにより、現在コマにおいては過去コマで検出された顔情報を利用した、より適した補正を行うことが可能となる。   Next, FIGS. 13 and 14 will be described. FIGS. 13 and 14 show examples in which past frames 1125 and 1136 are photographed without whiteout suppression and current frames 1131 and 1422 are photographed with whiteout suppression. Conventionally, first, in the past frame 1125, a correction amount 1127 for correcting the face of the frame to an appropriate brightness is calculated. In the past frame 1125, since the whiteout is not suppressed and the image is captured at the original brightness, the brightness is not reduced, and the whiteout suppression compensation is a straight line 1128 that directly passes through the input. As a result, the correction amount actually applied becomes 1129. When the correction amount of the past frame 1125 is taken over and the correction amount 1129 applied in the past frame 1125 is taken over, the correction amount is applied to the current frame 1131 as it is. Therefore, although the current frame 1131 is suppressed from whiteout and is photographed slightly dark, a correction amount 1134 is actually applied in which the brightness reduced by the whiteout suppression is not compensated. As a result, an image with insufficient correction such as an image 1135 is obtained. On the other hand, when taking over the correction curve 1138 before applying the whiteout suppression compensation in the past frame 1136 and applying the whiteout suppression compensation curve 1146 according to the whiteout suppression amount of the current frame 1142 as in the present embodiment, A correction amount 1147 that compensates for the reduced brightness is also obtained. This makes it possible to perform more appropriate correction using the face information detected in the past frame in the current frame.

このようにして、白飛び抑制補償を適用する前の補正量を記録しておくことで、現在コマの補正量算出において過去コマの補正量を参照する際に、過去コマと現在コマが異なる条件で撮影されたような場合においても好ましい補正量を算出することが可能となる。   In this way, by recording the correction amount before applying the whiteout suppression compensation, when referring to the correction amount of the past frame in calculating the correction amount of the current frame, the condition that the past frame differs from the current frame It is possible to calculate a preferable correction amount even in the case of shooting with

(第4の実施形態)
第3の実施形態においては、白飛び抑制量を決定する際において画像中に含まれる白飛びしそうな領域の面積が大きいほど露出を下げる割合を増加させる手法を例示した。しかし、例えば画像中に含まれる白飛びしそうな領域の面積が多くあった場合に露出を下げすぎてしまうと、図16の602、603、604で示したように今度は低減された明るさを補正するために必要な補正量が大きくなっていってしまう。また、画像中に暗い顔が含まれている場合においてはこの白飛び抑制補償量に、さらに図16の601のような顔補正の補正曲線も必要となり、結果として顔補正の補正曲線と白飛び抑制補償曲線を合成した図16の605であらわされる補正曲線が大きくなってしまう。しかし、このように暗部を持ち上げる階調補正においては画像の信号をデジタル的に持ち上げる処理となるため、補正量が大きすぎると画像中に含まれるノイズを強調しすぎてしまうこととなる。このような現象を回避するため、例えばあらかじめ顔補正などの補正量を見積もっておき、その補正量が大きいのであれば白飛び抑制量を小さくし、逆に補正量が小さいのであれば白飛び抑制量を大きくするといった手法があげられる。
(Fourth embodiment)
In the third embodiment, the method of increasing the ratio of decreasing the exposure as the area of the region that is likely to be overexposed in the image when determining the overexposure suppression amount is exemplified. However, for example, if the exposure is too low when there is a large area in the image that is likely to be overexposed, the brightness is reduced as shown by 602, 603, and 604 in FIG. The amount of correction necessary for correction increases. In addition, when a dark face is included in the image, a correction curve for face correction such as 601 in FIG. 16 is also required for this amount of whiteout suppression compensation. The correction curve represented by 605 in FIG. 16 in which the suppression compensation curve is synthesized becomes large. However, since the tone correction for raising the dark part is a process for digitally raising the image signal, if the correction amount is too large, the noise contained in the image will be overemphasized. In order to avoid such a phenomenon, for example, a correction amount such as face correction is estimated in advance, and if the correction amount is large, the whiteout suppression amount is reduced. Conversely, if the correction amount is small, the whiteout suppression is performed. One method is to increase the amount.

しかし、ここで第3の実施形態で示したように、過去のコマにおける補正量を引き継ぐ場合においてはこのような処理がうまくいかない可能性がある。この現象を図17を用いて説明する。   However, as shown in the third embodiment, there is a possibility that such processing may not be successful when the correction amount in the past frame is taken over. This phenomenon will be described with reference to FIG.

図17は撮影時にあらかじめ顔を検出し、顔の輝度から想定される補正量を算出した上で白飛び抑制量を決定する様子を表している。ここでは過去コマにおいては暗い顔が検出され、現在コマにおいては顔が横を向くなどしたことにより、暗い顔を検出出来なかった場合を想定している。まず過去コマにおいては画像701から暗い顔が検出されている。そのため、過去コマの撮影時において顔補正としてかかる補正量は補正量704が想定されている。そのため、過去コマにおいては後に大きな補正がかかることを見越して白飛び抑制量は少なめに見積もられるため、白飛び抑制補償曲線も705のような小さめなものとなる。それにより、過去コマにおいて実際にかかる補正は補正曲線706のようになり、ノイズを強調しすぎない範囲での補正を行うことが可能となる。次に、現在コマにおいては画像711では顔が横を向いてしまっているため顔検出が出来ていない。そのため、現在コマの撮影時においては補正曲線707のように、顔補正がかからないと想定されている。そのため、この時点では後に大きな補正がかからないことを見越して白飛び抑制量を大きめに見積もられてしまう。しかし、過去の補正量を引き継ぐ場合においては現在コマでは過去コマの顔補正の補正量704を引き継ぐこととなる。そのため、顔補正による大きな補正量708と白飛び抑制補償による大きな補正量709が組み合わさり、最終的に大きすぎる補正量710がかかってしまうこととなる。それにより、画像713はノイズが強調されすぎてしまう場合がある。本実施形態においてはそのような問題への対処を行う。   FIG. 17 shows a state in which a face is detected in advance at the time of shooting, and an amount of whiteout suppression is determined after calculating a correction amount assumed from the brightness of the face. Here, it is assumed that a dark face is detected in the past frame, and a dark face cannot be detected because the face is turned sideways in the current frame. First, a dark face is detected from the image 701 in the past frame. For this reason, a correction amount 704 is assumed as a correction amount for face correction at the time of shooting a past frame. For this reason, the amount of whiteout suppression is estimated to be small in anticipation that a large correction will be applied later in the past frame, and the whiteout suppression compensation curve is also small, such as 705. Accordingly, the correction actually applied in the past frame becomes a correction curve 706, and correction can be performed in a range in which noise is not overemphasized. Next, in the current frame, the face cannot be detected because the face is turned sideways in the image 711. For this reason, it is assumed that face correction is not performed like the correction curve 707 at the time of shooting the current frame. For this reason, the amount of whiteout suppression is estimated to be large in anticipation that a large correction will not be applied later at this time. However, when the past correction amount is taken over, the face correction amount 704 of the past frame is taken over at the current frame. Therefore, a large correction amount 708 due to face correction and a large correction amount 709 due to whiteout suppression compensation are combined, and a correction amount 710 that is excessively large is eventually applied. As a result, noise may be excessively emphasized in the image 713. In this embodiment, such a problem is dealt with.

図18は本実施形態における処理の流れを表している。各構成要素は図10で示した第3の実施形態の対応する要素とほぼ同等の動作を行う。ここでは第3の実施形態と違い、実際の撮影が過去補正値引き継ぎよりも後のステップS807で行われている。   FIG. 18 shows the flow of processing in this embodiment. Each component performs substantially the same operation as the corresponding component in the third embodiment shown in FIG. Here, unlike the third embodiment, actual photographing is performed in step S807 after the past correction value handover.

まず、ステップS801の撮影時情報取得以降の処理に関しては、第3の実施形態では撮影動作に応じて処理を進めて行ったが、本実施形態の場合においては例えばユーザによるシャッターボタン(図示せず)の反押し動作等に応じて処理を開始することも可能である。また、過去補正値引き継ぎにおいて過去の輝度情報との比較等を行う必要があるが、この処理はまだ撮影が行われる前に行われる。これに関しては、例えば光学ファインダ近傍に設けた測光センサ(図示せず)の情報を使用することが可能である。またはスタンバイ時に表示部107をEVFとして機能させ、常に所定のレートで連続的に撮像した表示用画像を表示している場合にはその表示用画像から検出したりすることも可能である。このようにして予め得られた補正量をもとにして白飛び抑制量を算出する。   First, with respect to the processing after the acquisition of shooting time information in step S801, the processing is performed in accordance with the shooting operation in the third embodiment, but in the case of this embodiment, for example, a shutter button (not shown) by the user. It is also possible to start the processing in response to the counter-pressing operation of). In addition, it is necessary to perform comparison with past luminance information in taking over the past correction value, but this processing is performed before photographing is performed. In this regard, for example, information from a photometric sensor (not shown) provided in the vicinity of the optical viewfinder can be used. Alternatively, when the display unit 107 functions as an EVF during standby and a display image continuously captured at a predetermined rate is always displayed, detection can be performed from the display image. The whiteout suppression amount is calculated based on the correction amount obtained in advance in this way.

このような処理を行うことにより、ステップS807における撮影時に予め過去コマの補正量も加味した補正量が算出されているため、より適した白飛び抑制量の元で撮影を行うことが可能となる。   By performing such processing, since a correction amount that also includes the correction amount of the past frame is calculated in advance at the time of shooting in step S807, it is possible to perform shooting with a more suitable whiteout suppression amount. .

このように本実施形態においては白飛び抑制補償を適用する前の補正量を記録しておくことにより、現在コマの補正量算出において過去コマの補正量を参照する際に、より好ましい白飛び抑制量で現在コマの撮影を行うことが可能となる。   As described above, in the present embodiment, by recording the correction amount before applying the whiteout suppression compensation, when referring to the correction amount of the past frame in calculating the correction amount of the current frame, more preferable whiteout suppression is performed. It is possible to shoot the current frame by amount.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (5)

撮影画像に対して補正処理を行う画像処理装置であって、
画像の撮影時における撮影時情報を取得する撮影時情報取得手段と、
撮影画像における画像特徴量から前記撮影画像の補正量を算出する補正量算出手段と、
前記撮影時情報に基づいて前記補正量を修正する修正手段と、
前記修正手段により修正した後の前記補正量を撮影画像に適用して前記補正処理を行う補正処理手段と、
前記修正手段により修正する前の前記補正量を記録する補正量記録手段と、
現在の画像について前記補正処理を行う時に、過去の画像の撮影時において前記補正量記録手段に記録した前記修正する前の補正量を取得する補正量取得手段と、を備え、
前記修正手段は、現在の画像について補正処理を行う時に、前記補正量取得手段により取得した前記過去の画像についての前記修正する前の補正量と、前記撮影時情報取得手段により取得される現在の画像の撮影時における撮影時情報とに基づいて、前記現在の画像について前記補正量を修正し、前記補正処理手段は、修正された前記補正量を現在の撮影画像に適用して前記補正処理を行うことを特徴とする画像処理装置。
An image processing apparatus that performs correction processing on a captured image,
Shooting time information acquisition means for acquiring shooting time information at the time of shooting an image;
Correction amount calculating means for calculating a correction amount of the captured image from an image feature amount in the captured image;
Correction means for correcting the correction amount based on the shooting time information;
Correction processing means for performing the correction processing by applying the correction amount corrected by the correction means to a captured image;
Correction amount recording means for recording the correction amount before correction by the correction means;
Correction amount acquisition means for acquiring the correction amount before correction recorded in the correction amount recording means at the time of shooting the past image when performing the correction processing for the current image,
The correction means, when performing correction processing on the current image, the correction amount before correction of the past image acquired by the correction amount acquisition means, and the current acquired by the shooting time information acquisition means The correction amount is corrected for the current image based on the shooting time information at the time of shooting the image, and the correction processing unit applies the corrected correction amount to the current shot image to perform the correction process. An image processing apparatus that performs the processing.
前記修正手段で参照する撮影時情報は撮影時の感度であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the shooting time information referred to by the correction unit is a shooting sensitivity. 前記補正処理は階調補正処理であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction process is a gradation correction process. 前記撮影画像から白飛び量を算出する白飛び量算出手段と、前記白飛び量の大きさに基づいて前記白飛び量を低減するために撮影時の露出を修正する露出修正手段と、をさらに備えることを特徴とする請求項1に記載の画像処理装置。   A whiteout amount calculating unit that calculates a whiteout amount from the photographed image; and an exposure correction unit that corrects an exposure at the time of photographing in order to reduce the whiteout amount based on the size of the whiteout amount. The image processing apparatus according to claim 1, further comprising: 請求項1乃至4のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。   An imaging apparatus comprising the image processing apparatus according to claim 1.
JP2011149497A 2011-07-05 2011-07-05 Image processing apparatus and imaging apparatus Expired - Fee Related JP5739752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011149497A JP5739752B2 (en) 2011-07-05 2011-07-05 Image processing apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011149497A JP5739752B2 (en) 2011-07-05 2011-07-05 Image processing apparatus and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2013017097A true JP2013017097A (en) 2013-01-24
JP2013017097A5 JP2013017097A5 (en) 2014-08-14
JP5739752B2 JP5739752B2 (en) 2015-06-24

Family

ID=47689322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011149497A Expired - Fee Related JP5739752B2 (en) 2011-07-05 2011-07-05 Image processing apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5739752B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012450A (en) * 2017-06-30 2019-01-24 キヤノン株式会社 Image processing device, image processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247590A (en) * 2001-02-16 2002-08-30 Canon Inc Digital still camera
JP2003234955A (en) * 2002-02-12 2003-08-22 Nikon Corp Image processing device, image processing program, and image processing method
US20080089616A1 (en) * 2006-10-16 2008-04-17 Samsung Techwin Co., Ltd. Image editing method for digital image processing apparatus
JP2008258925A (en) * 2007-04-04 2008-10-23 Toshiba Digital Media Engineering Corp Gamma correction circuit and method
JP2010183460A (en) * 2009-02-06 2010-08-19 Canon Inc Image capturing apparatus and method of controlling the same
JP2010271507A (en) * 2009-05-21 2010-12-02 Casio Computer Co Ltd Imaging device, exposure adjustment method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247590A (en) * 2001-02-16 2002-08-30 Canon Inc Digital still camera
JP2003234955A (en) * 2002-02-12 2003-08-22 Nikon Corp Image processing device, image processing program, and image processing method
US20080089616A1 (en) * 2006-10-16 2008-04-17 Samsung Techwin Co., Ltd. Image editing method for digital image processing apparatus
JP2008258925A (en) * 2007-04-04 2008-10-23 Toshiba Digital Media Engineering Corp Gamma correction circuit and method
JP2010183460A (en) * 2009-02-06 2010-08-19 Canon Inc Image capturing apparatus and method of controlling the same
JP2010271507A (en) * 2009-05-21 2010-12-02 Casio Computer Co Ltd Imaging device, exposure adjustment method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012450A (en) * 2017-06-30 2019-01-24 キヤノン株式会社 Image processing device, image processing method, and program
JP6991750B2 (en) 2017-06-30 2022-01-13 キヤノン株式会社 Image processing equipment, image processing methods, and programs

Also Published As

Publication number Publication date
JP5739752B2 (en) 2015-06-24

Similar Documents

Publication Publication Date Title
US10412296B2 (en) Camera using preview image to select exposure
US20100177215A1 (en) Image processing apparatus and recording medium
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP5076650B2 (en) Imaging apparatus and image processing program
JP5054981B2 (en) Imaging apparatus and imaging processing method
JP6873679B2 (en) Imaging device, control method and program of imaging device
JP2006080942A (en) Image processing apparatus, image processing program, image processing method, and imaging apparatus
JP6243629B2 (en) Image processing apparatus and method, and imaging apparatus
JP2003219205A (en) Image pickup device, display device, image recorder and method for correcting image quality
JP2011101073A (en) Imaging apparatus, white balance setting method and program
JP2002092607A (en) Image processor, image state determining method and recording medium
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP5739752B2 (en) Image processing apparatus and imaging apparatus
JPH10322592A (en) Method and device for controlling electronic camera
JP7257768B2 (en) Image processing device, its control method, and program
JP2018026606A (en) Image processing device
JP4941424B2 (en) Imaging apparatus and image processing program
JP2012129611A (en) Imaging apparatus
JP7370762B2 (en) Imaging device and its control method
JP2007282133A (en) Image processing apparatus, image processing program and image processing method
JP5217783B2 (en) Imaging device
JP2010271507A (en) Imaging device, exposure adjustment method, and program
JP2024079153A (en) Image Processing Device
JP2006086610A (en) Image processor, image recording device, and image processing method
JP2017011366A (en) Image processing apparatus, image processing method, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150424

R151 Written notification of patent or utility model registration

Ref document number: 5739752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees