JP6991750B2 - Image processing equipment, image processing methods, and programs - Google Patents

Image processing equipment, image processing methods, and programs Download PDF

Info

Publication number
JP6991750B2
JP6991750B2 JP2017129206A JP2017129206A JP6991750B2 JP 6991750 B2 JP6991750 B2 JP 6991750B2 JP 2017129206 A JP2017129206 A JP 2017129206A JP 2017129206 A JP2017129206 A JP 2017129206A JP 6991750 B2 JP6991750 B2 JP 6991750B2
Authority
JP
Japan
Prior art keywords
correction
image
region
area
shiny
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017129206A
Other languages
Japanese (ja)
Other versions
JP2019012450A (en
Inventor
光明 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017129206A priority Critical patent/JP6991750B2/en
Publication of JP2019012450A publication Critical patent/JP2019012450A/en
Application granted granted Critical
Publication of JP6991750B2 publication Critical patent/JP6991750B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像等された画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for processing captured images.

従来、撮影画像において被写体の高輝度領域に対して補正を行う技術が知られている。これにより環境光によって生じた顔のテカリなどを補正し、好ましい画像を得ることが可能となる。
例えば、特許文献1には、被写体の所定部位を検出し、その検出結果に基づいてテカリ領域の補正を行う技術が開示されている。具体的に説明すると、特許文献1には、被写体の人物の顔や目、口などの所定部位を検出し、その所定部位の位置や色などに基づいて各画素の補正の程度を決定する技術が開示されている。これにより、特許文献1に記載の技術によれば、輝度や明度を下げる必要のない部位についてはその高い輝度や明度が維持され、輝度を下げる必要のある肌のテカリが生じている部位のみに対して補正することが可能となる。
Conventionally, there is known a technique for correcting a high-luminance region of a subject in a captured image. This makes it possible to correct the shine of the face caused by the ambient light and obtain a preferable image.
For example, Patent Document 1 discloses a technique of detecting a predetermined portion of a subject and correcting a shiny region based on the detection result. Specifically, Patent Document 1 describes a technique of detecting predetermined parts such as the face, eyes, and mouth of a person as a subject, and determining the degree of correction of each pixel based on the position and color of the predetermined parts. Is disclosed. As a result, according to the technique described in Patent Document 1, the high brightness and brightness are maintained for the parts that do not need to reduce the brightness and the brightness, and only the parts where the skin shine that needs to be lowered is generated. However, it is possible to correct it.

特開2005-327009号公報Japanese Unexamined Patent Publication No. 2005-327709

しかしながら、前述した従来の補正方法では、顔検出や顔の部位を検出する器官検出結果を基にテカリ補正を行うため、例えば顔検出や器官検出に失敗した場合にはテカリ補正を行うことができない。このため、例えば連写撮影のような連続撮影がなされた場合、従来の補正方法では、連写された撮影画像ごとに補正のばらつきが生じてしまうことがある。例えば、連写された各画像の中に、顔検出等が成功して正しくテカリ補正を行えた画像と、顔検出等を失敗して正しくテカリ補正を行えなかった画像が混在すると、画像ごとにテカリ補正のばらつきが生ずることになる。 However, in the conventional correction method described above, since the shine correction is performed based on the result of face detection or the organ detection for detecting the part of the face, for example, if the face detection or the organ detection fails, the shine correction cannot be performed. .. For this reason, when continuous shooting such as continuous shooting is performed, in the conventional correction method, the correction may vary depending on the continuously shot images. For example, if an image in which face detection or the like is successful and the shine correction is performed correctly and an image in which face detection or the like fails and the shine correction cannot be performed correctly are mixed in each of the continuously shot images, each image is used. There will be variations in shine correction.

そこで本発明は、連続した撮影がなされた場合の補正のばらつきを軽減可能にすることを目的とする。 Therefore, it is an object of the present invention to make it possible to reduce the variation in correction when continuous shooting is performed.

本発明は、撮影画像から所定の被写体の画像領域を検出する検出手段と、前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正手段と、を有し、前記補正手段は、連続した撮影で得られた撮影画像について生成する前記補正量が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で生成された補正量を超えないようにすることを特徴とする。 The present invention generates a detection means for detecting an image area of a predetermined subject from a captured image and a correction amount for the shiny area of the image area of the predetermined subject, and the generated correction amount is used to make the shiny area shiny. The correction means includes a correction means for performing correction, and the correction means is a shot image in which the correction amount generated for the shot images obtained in continuous shooting is taken before the shot image at the time of the continuous shooting. It is characterized in that it does not exceed the generated correction amount.

本発明によれば、連続した撮影がなされた場合の補正のばらつきを軽減可能となる。 According to the present invention, it is possible to reduce the variation in correction when continuous shooting is performed.

テカリ補正処理に係る各構成における処理の流れを表した図である。It is a figure which showed the flow of the process in each configuration which concerns on a shine correction process. 実施形態の一適用例の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of one application example of an embodiment. 第1の実施形態におけるテカリ補正のフローチャートである。It is a flowchart of the shine correction in the 1st Embodiment. 信頼度の説明に用いる図である。It is a figure used to explain the reliability. テカリ補正の際のブロック積分の説明に用いる概念図である。It is a conceptual diagram used for the explanation of the block integral at the time of shine correction. テカリ補正の際の輝度毎の補正特性を示す図である。It is a figure which shows the correction characteristic for each luminance at the time of shine correction. テカリ補正領域の説明に用いるイメージ図である。It is an image diagram used for the explanation of the shine correction area. 第2の実施形態におけるテカリ補正のフローチャートである。It is a flowchart of the shine correction in the second embodiment.

以下、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態の画像処理装置のテカリ補正処理に係る各構成における処理の流れを表した処理フローである。図2は、本実施形態の画像処理装置の一適用例であるデジタルカメラ217の概略構成を示したブロック図である。図1の処理フローにて示された本実施形態の画像処理装置に係るテカリ補正処理は、図2のデジタルカメラ217では例えば画像処理部208により行われるとする。なお、本実施形態の画像処理装置は、デジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末、パーソナルコンピュータ等の各種情報端末、工業用カメラ、車載カメラ、医療用カメラなどの各種カメラにも適用可能である。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a processing flow showing a processing flow in each configuration related to the shine correction processing of the image processing apparatus of the present embodiment. FIG. 2 is a block diagram showing a schematic configuration of a digital camera 217, which is an application example of the image processing apparatus of the present embodiment. It is assumed that the shine correction processing according to the image processing apparatus of the present embodiment shown in the processing flow of FIG. 1 is performed by, for example, the image processing unit 208 in the digital camera 217 of FIG. The image processing device of the present embodiment is also applied to various information terminals such as digital video cameras, smartphones and tablet terminals equipped with camera functions, personal computers, and various cameras such as industrial cameras, in-vehicle cameras, and medical cameras. It is possible.

図1に示したデジタルカメラ217において、レンズ200はフォーカスレンズを含むズームレンズであり、入射光Lを集光して被写体等の光学像を撮像素子203の撮像面上に形成する。絞り201はレンズ200を介した入射光量を調整し、シャッター202は撮像素子203の露光時間を調整する。レンズ200のフォーカスレンズ等の駆動は、システム制御部216による制御の下、測距制御部211により行われる。絞り201の絞り値とシャッター202のシャッタースピードの調整は、システム制御部216による制御の下、露光制御部210により行われる。 In the digital camera 217 shown in FIG. 1, the lens 200 is a zoom lens including a focus lens, and the incident light L is condensed to form an optical image of a subject or the like on the image pickup surface of the image pickup element 203. The aperture 201 adjusts the amount of incident light through the lens 200, and the shutter 202 adjusts the exposure time of the image pickup device 203. The focus lens and the like of the lens 200 are driven by the distance measuring control unit 211 under the control of the system control unit 216. The adjustment of the aperture value of the aperture 201 and the shutter speed of the shutter 202 is performed by the exposure control unit 210 under the control of the system control unit 216.

測光センサ213は、撮影画角内の平均輝度を測定するためのセンサであり、測定した輝度値の情報をシステム制御部216に出力する。システム制御部216は、測光センサ213により測定された輝度値に基づき、適切な露光量を算出して、その露光量情報を露光制御部210に送る。露光制御部210は、その露光量を基に、絞り201の絞り値とシャッター202のシャッタースピードを設定することにより露光制御を行う。
測距センサ212は、カメラから被写体までの距離を検出するセンサであり、検出した距離の情報をシステム制御部216に出力する。システム制御部216は、測距センサ212にて検出された距離情報を測距制御部211に送る。測距制御部211は、その距離情報を基に、レンズ200のフォーカスレンズを駆動することで被写体等へのピント合わせを行う。
The photometric sensor 213 is a sensor for measuring the average brightness within the shooting angle of view, and outputs the information of the measured brightness value to the system control unit 216. The system control unit 216 calculates an appropriate exposure amount based on the luminance value measured by the photometric sensor 213, and sends the exposure amount information to the exposure control unit 210. The exposure control unit 210 performs exposure control by setting the aperture value of the aperture 201 and the shutter speed of the shutter 202 based on the exposure amount.
The distance measuring sensor 212 is a sensor that detects the distance from the camera to the subject, and outputs the information of the detected distance to the system control unit 216. The system control unit 216 sends the distance information detected by the distance measurement sensor 212 to the distance measurement control unit 211. The distance measurement control unit 211 drives the focus lens of the lens 200 to focus on the subject or the like based on the distance information.

撮像素子203は、レンズ200を介して撮像面上に形成された光学像を光電変換により電気信号に変換してアナログ信号を出力する。撮像素子203は、CCDイメージセンサ又はCMOSイメージセンサからなる。また、撮像素子203の撮像面には三原色のR(赤),G(緑),B(青)の各色成分に対応したカラーフィルタが、いわゆるベイヤー配列と呼ばれる配列で画素毎に設けられている。このため、撮像素子203からは、ベイヤー配列に対応したRGBの各画素の色信号からなるアナログ信号が出力される。A/D変換器204は、撮像素子203から出力されたRGBのアナログ信号を、RGBのデジタルデータに変換する。タイミング発生部205は、撮像素子203とA/D変換器204にクロック信号や制御信号を供給して、それらの動作を制御している。このタイミング発生部205は、メモリ制御部206及びシステム制御部216により制御されている。 The image pickup element 203 converts an optical image formed on the image pickup surface via the lens 200 into an electric signal by photoelectric conversion, and outputs an analog signal. The image pickup device 203 includes a CCD image sensor or a CMOS image sensor. Further, on the image pickup surface of the image pickup element 203, color filters corresponding to each of the three primary colors R (red), G (green), and B (blue) are provided for each pixel in a so-called Bayer array. .. Therefore, the image sensor 203 outputs an analog signal composed of color signals of each RGB pixel corresponding to the Bayer arrangement. The A / D converter 204 converts the RGB analog signal output from the image sensor 203 into RGB digital data. The timing generation unit 205 supplies a clock signal and a control signal to the image sensor 203 and the A / D converter 204 to control their operations. The timing generation unit 205 is controlled by the memory control unit 206 and the system control unit 216.

画像処理部208は、A/D変換器204から出力された画像データ、或いはメモリ制御部206によりメモリ207から読み出された画像データに対して、各種の画像処理を施す。具体的には、画像処理部208は、ホワイトバランス処理、RGBベイヤー配列の信号をRGBの色成分毎に分けたRGB3プレーン信号に変換する色補間処理、ガンマ補正処理、彩度補正、色相補正などの各種画像処理を行う。 The image processing unit 208 performs various image processing on the image data output from the A / D converter 204 or the image data read from the memory 207 by the memory control unit 206. Specifically, the image processing unit 208 performs white balance processing, color interpolation processing for converting an RGB Bayer array signal into an RGB3 plane signal divided for each RGB color component, gamma correction processing, saturation correction, hue correction, and the like. Performs various image processing.

また、画像処理部208は、本実施形態に係るテカリ補正処理も行う。テカリ補正処理は、撮影画像に写っている所定の被写体の画像領域の中に高輝度のテカリ領域が存在する場合に、そのテカリ領域を補正する処理である。所定の被写体として例えば人物が撮影された場合、テカリ補正処理は、人物の顔の中の高輝度のテカリ領域に対して行われる。顔のテカリ領域に対する補正を行う場合、画像処理部208は、撮影画像から顔領域を検出する顔検出処理、顔を構成する複数の要素である目、口等の各器官を検出する器官検出処理についても行う。そして、画像処理部208は、それら顔領域や各器官の検出結果を基に、テカリ補正の対象となり得る領域(以下、テカリ補正領域とする。)を算出すると共にテカリ補正の補正量を算出して、テカリ補正処理を行う。これら顔領域の検出及び器官の検出処理、テカリ補正領域及び補正量の算出処理等の詳細については後述する。 The image processing unit 208 also performs the shine correction processing according to the present embodiment. The shiny correction process is a process for correcting a shiny region when a high-intensity shiny region exists in the image region of a predetermined subject in the captured image. When, for example, a person is photographed as a predetermined subject, the shine correction process is performed on a high-brightness shine region in the face of the person. When correcting the shiny area of the face, the image processing unit 208 has a face detection process for detecting the face area from the captured image, and an organ detection process for detecting each organ such as eyes and mouth, which are a plurality of elements constituting the face. Also do. Then, the image processing unit 208 calculates a region that can be the target of the shine correction (hereinafter referred to as a shine correction region) based on the detection results of those face regions and each organ, and calculates the correction amount of the shine correction. Then, the shine correction process is performed. Details of the detection of the face area, the detection process of the organ, the calculation process of the shine correction area and the correction amount, and the like will be described later.

メモリ制御部206は、メモリ207の書き込みと読み出しの制御の他、システム制御部216による指示の下で、A/D変換器204、タイミング発生部205、画像処理部208の制御も行う。これにより、A/D変換器204にてA/D変換されたデジタル画像データは、画像処理部208を介して、或いは直接メモリ制御部206を介して、メモリ207に書き込まれる。 In addition to controlling the writing and reading of the memory 207, the memory control unit 206 also controls the A / D converter 204, the timing generation unit 205, and the image processing unit 208 under the instruction of the system control unit 216. As a result, the digital image data A / D converted by the A / D converter 204 is written to the memory 207 via the image processing unit 208 or directly via the memory control unit 206.

メモリ207は、撮像素子203により撮影された静止画像や動画の画像データを格納するためのメモリであり、例えば所定枚数の静止画像や所定時間の動画の画像データを格納するのに十分な記憶容量を備えている。また、メモリ207は、システム制御部216や画像処理部208の作業領域としても使用可能となされている。また、メモリ207は、いわゆる連写による連続撮影時に各画像データを一時記録しておくバッファメモリとしても使用される。 The memory 207 is a memory for storing image data of still images and moving images taken by the image sensor 203, and has a sufficient storage capacity for storing, for example, a predetermined number of still images and moving images of a predetermined time. It is equipped with. The memory 207 can also be used as a work area for the system control unit 216 and the image processing unit 208. The memory 207 is also used as a buffer memory for temporarily recording each image data during continuous shooting by so-called continuous shooting.

外部記憶装置209は、種々の規格のメモリカードなどの着脱可能な外付けの記録媒体である。外部記憶装置209には、デジタルカメラ217本体とメモリカードとの間のインターフェースも含む。メモリ207に一時的に記録された画像データは、最終的にこの外部記憶装置209のメモリカードに記録される。なお、メモリカードに記録される画像データは、撮像されたいわゆるRAWデータでもよいし、所定の規格で圧縮符号化されたデータであってもよい。 The external storage device 209 is a detachable external recording medium such as a memory card of various standards. The external storage device 209 also includes an interface between the digital camera 217 main body and the memory card. The image data temporarily recorded in the memory 207 is finally recorded in the memory card of the external storage device 209. The image data recorded on the memory card may be so-called RAW data captured or compression-encoded according to a predetermined standard.

レリーズ釦214は、ユーザによるレリーズ釦214への第1ストロークの押下操作と、第1ストロークよりも押下量が大きい第2ストロークの押下操作とを検出可能なスイッチである。レリーズ釦214は、第1ストロークの押下操作を検出したときにオンとなるSW1信号をシステム制御部216に出力し、第2ストロークの押下操作を検出したときにオンとなるSW2信号をシステム制御部216に出力する。システム制御部216は、SW1信号が入力されると、前述した測光及び測距のための各動作を開始させ、さらにSW2信号が入力されると、前述した露光及び撮像のための各動作を開始させる。また、ユーザによりレリーズ釦214に対する第2ストロークの押下操作が継続された場合、システム制御部216は、デジタルカメラ217を連写撮影状態に制御する。連射撮影状態の場合、システム制御部216は、レリーズ釦214の第2ストロークの押下操作が継続している間、連写を行うように各部を制御する。 The release button 214 is a switch capable of detecting a user's pressing operation of the first stroke on the release button 214 and a pressing operation of the second stroke having a pressing amount larger than that of the first stroke. The release button 214 outputs a SW1 signal that is turned on when the pressing operation of the first stroke is detected to the system control unit 216, and outputs a SW2 signal that is turned on when the pressing operation of the second stroke is detected. Output to 216. When the SW1 signal is input, the system control unit 216 starts each operation for light measurement and distance measurement described above, and when a SW2 signal is further input, starts each operation for exposure and imaging described above. Let me. Further, when the user continues to press the release button 214 for the second stroke, the system control unit 216 controls the digital camera 217 to the continuous shooting state. In the continuous shooting state, the system control unit 216 controls each unit so as to perform continuous shooting while the pressing operation of the second stroke of the release button 214 continues.

なお、図2には図示していないが、デジタルカメラ217は、LCD(液晶ディスプレイ)等の表示装置をも有している。表示装置には、撮影された画像や、外部記憶装置209から読み出された画像、いわゆるライブビュー画像、ユーザインターフェース画像等が表示される。
操作部215は、表示装置の画面上に配されるタッチパネル、デジタルカメラ217の本体に配されるボタンやスイッチを含み、ユーザによる操作を検知して、その検知した操作情報をシステム制御部216に出力する。
Although not shown in FIG. 2, the digital camera 217 also has a display device such as an LCD (liquid crystal display). The displayed image displays a captured image, an image read from the external storage device 209, a so-called live view image, a user interface image, and the like.
The operation unit 215 includes a touch panel arranged on the screen of the display device and buttons and switches arranged on the main body of the digital camera 217, detects an operation by the user, and transmits the detected operation information to the system control unit 216. Output.

システム制御部216は、デジタルカメラ217における前述した撮影時の動作を含む全体の動作を制御する。システム制御部216は、CPUやMPU、不揮発性メモリを含み、不揮発性メモリに記憶されているプログラムをメモリ207の作業領域に展開して実行することにより、デジタルカメラ217全体の各機能を制御する。不揮発性メモリは、プログラムや各種パラメータなどを格納するEEPROMなどの不揮発性の半導体メモリからなる。なお、本実施形態に係る画像処理がCPU等により実行される場合、不揮発性メモリに記憶されているプログラムには本実施形態に係る画像処理のプログラムが含まれる。 The system control unit 216 controls the entire operation of the digital camera 217 including the above-mentioned operation at the time of shooting. The system control unit 216 controls each function of the entire digital camera 217 by expanding the program stored in the non-volatile memory to the work area of the memory 207 and executing the program including the CPU, MPU, and non-volatile memory. .. The non-volatile memory includes a non-volatile semiconductor memory such as an EEPROM that stores programs and various parameters. When the image processing according to the present embodiment is executed by a CPU or the like, the program stored in the non-volatile memory includes the image processing program according to the present embodiment.

[第1の実施形態]
以下、第1の実施形態について説明する。第1の実施形態では、連写のような連続的な撮影により、所定の被写体として人物(人物の顔)が撮影され、その人物の顔の高輝度のテカリ領域に対してテカリ補正処理が行われる場合を例に挙げる。また本実施形態では、連写撮影中に被写体が動いたことで顔や各部位の検出ができずテカリ補正を行えない場合や、口の開閉等により顔内でテカリ補正領域が変化した場合でも、以下の処理により、各撮影画像でテカリ補正にばらつきが生ずるのを防止する。
[First Embodiment]
Hereinafter, the first embodiment will be described. In the first embodiment, a person (face of a person) is photographed as a predetermined subject by continuous shooting such as continuous shooting, and a shine correction process is performed on a high-intensity shine area of the face of the person. Take the case where it is done as an example. Further, in the present embodiment, even when the face or each part cannot be detected due to the movement of the subject during continuous shooting and the shine correction cannot be performed, or when the shine correction area changes in the face due to opening and closing of the mouth or the like. By the following processing, it is possible to prevent variations in the shine correction in each captured image.

以下、図1に示した処理フロー、図2に示したデジタルカメラ217の構成、及び、図3に示すテカリ補正処理のフローチャートを参照して、第1の実施形態における連写撮影時のテカリ補正処理について詳細に説明する。図3のフローチャートに示した処理は図2の画像処理部208により行われ、画像処理部208は図1の処理フローに示されている各回路等を有して構成されている。すなわち画像処理部208は、図1に示すように、顔検出回路101、器官検出回路102、ブロック積分回路103、輝度値算出回路104、補正特性決定回路105、補正領域算出回路106、補正色算出回路107、演算器110~113を有している。 Hereinafter, with reference to the processing flow shown in FIG. 1, the configuration of the digital camera 217 shown in FIG. 2, and the flowchart of the shine correction processing shown in FIG. 3, the shine correction at the time of continuous shooting in the first embodiment is performed. The processing will be described in detail. The processing shown in the flowchart of FIG. 3 is performed by the image processing unit 208 of FIG. 2, and the image processing unit 208 includes each circuit and the like shown in the processing flow of FIG. That is, as shown in FIG. 1, the image processing unit 208 has a face detection circuit 101, an organ detection circuit 102, a block integration circuit 103, a brightness value calculation circuit 104, a correction characteristic determination circuit 105, a correction area calculation circuit 106, and a correction color calculation. It has a circuit 107 and arithmetic units 110 to 113.

なお、図3のフローチャートの処理は、図1の各回路のようなハードウェア構成により実現される場合のみならず、ソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により実現される場合、例えばシステム制御部216のCPUが、不揮発性メモリに格納されているプログラムを実行して、図3のフローチャートの処理を実現する。このソフトウェア構成に係るプログラムは、不揮発性メモリに予め用意されている場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。以下の図3のフローチャートの説明では、ステップS301~ステップS312をそれぞれS301~S312と略記する。これらのことは後述する他のフローチャートにおいても同様とする。 It should be noted that the processing of the flowchart of FIG. 3 may be executed not only when it is realized by the hardware configuration as in each circuit of FIG. 1, but also by the software configuration, and a part is a software configuration and the rest is hardware. It may be realized by the configuration. When realized by a software configuration, for example, the CPU of the system control unit 216 executes a program stored in the non-volatile memory to realize the processing of the flowchart of FIG. The program related to this software configuration may be read from, for example, a detachable semiconductor memory or downloaded from a network such as the Internet (not shown), as well as when it is prepared in advance in the non-volatile memory. In the following description of the flowchart of FIG. 3, steps S301 to S312 are abbreviated as S301 to S312, respectively. These things are the same in other flowcharts described later.

本実施形態に係る画像処理部208は、デジタルカメラ217において撮影が開始されると、撮影画像に対するテカリ補正処理のために、図3のフローチャートの処理をスタートさせる。
図3のフローチャートの処理がスタートすると、先ずS301の処理として、図1の顔検出回路101は、撮影画像であるRAW画像100から顔領域を検出する顔検出処理を行う。なお、入力される撮影画像は、ホワイトバランス処理及びRGBベイヤー配列からRGB3プレーン画像に変換する色補間処理がなされているものとする。ホワイトバランス処理や色補間処理は既知の技術を用いて行われるため、それらの詳細な説明は省略する。
When the digital camera 217 starts shooting, the image processing unit 208 according to the present embodiment starts the processing of the flowchart of FIG. 3 for the shine correction processing for the shot image.
When the process of the flowchart of FIG. 3 starts, first, as the process of S301, the face detection circuit 101 of FIG. 1 performs a face detection process of detecting a face region from the RAW image 100 which is a photographed image. It is assumed that the input captured image has undergone white balance processing and color interpolation processing for converting the RGB Bayer array into an RGB3 plain image. Since the white balance processing and the color interpolation processing are performed using known techniques, detailed description thereof will be omitted.

顔検出回路101は、撮影画像から検出した顔の個数、顔領域を示す画像中の座標、検出した顔毎の信頼度などの情報を出力する。撮影画像から顔を検出する手法としては、例えば、ニュートラルネットワークに代表される学習を用いた手法、目や鼻といった物理的形状に特徴のある部位を撮影画像からテンプレートマッチング処理等により抽出する手法等が知られている。その他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いた解析を行うことで顔を検出する手法等も知られている。顔検出回路101は、これらの手法を用いて、撮影画像から顔領域を検出し、検出した顔の個数、顔領域の座標、検出された顔の信頼度などの情報を出力する。 The face detection circuit 101 outputs information such as the number of faces detected from the captured image, the coordinates in the image showing the face area, and the reliability of each detected face. As a method of detecting a face from a photographed image, for example, a method using learning represented by a neutral network, a method of extracting a part having a characteristic physical shape such as eyes and nose from a photographed image by template matching processing, etc. It has been known. In addition, a method of detecting a face by detecting an image feature such as a skin color or an eye shape and performing an analysis using a statistical method is also known. The face detection circuit 101 detects a face region from the captured image by using these methods, and outputs information such as the number of detected faces, the coordinates of the face region, and the reliability of the detected face.

次に、図3のフローチャートのS302の処理として、図1の器官検出回路102は、撮影画像から、顔検出回路101にて検出された顔を構成する各要素である口、鼻、目などの各器官を検出し、それら器官、顔の角度(向き)など詳細な情報を取得する。なお、顔の中の器官のような所定部位の検出手法としては、顔検出の手法と同様にテンプレートマッチング処理を利用した手法や、ニューラルネットワークを利用した手法などが知られている。器官検出回路102は、これらの手法を用いて各器官、顔の角度等を検出し、それらの情報を出力する。器官検出回路102は、検出した各器官の信頼度、検出した顔の角度に基づく顔の信頼度の情報についても出力する。 Next, as the process of S302 in the flowchart of FIG. 3, the organ detection circuit 102 of FIG. 1 has the mouth, nose, eyes, and the like, which are elements constituting the face detected by the face detection circuit 101 from the captured image. Each organ is detected, and detailed information such as those organs and the angle (orientation) of the face is acquired. As a method for detecting a predetermined part such as an organ in a face, a method using a template matching process or a method using a neural network is known as in the method of face detection. The organ detection circuit 102 detects each organ, the angle of the face, and the like by using these methods, and outputs the information. The organ detection circuit 102 also outputs information on the reliability of each detected organ and the reliability of the face based on the detected angle of the face.

図4(a)~図4(d)は検出された顔の信頼度の一例の説明図である。図4(a)は顔の大きさによる信頼度401の一例を示している。図4(a)の信頼度401では、顔のサイズが所定のサイズ範囲SR内である場合に信頼度が100%となされ、顔のサイズが所定のサイズ範囲SRより小さくなるほど、或いは大きくなるほど信頼度が低下する。図4(b)は顔の向き(角度)が正面に対して左右方向に向いた場合の信頼度402の一例を示している。図4(b)の信頼度402では、顔の角度(向き)が0度(正面)から左右方向60度未満では信頼度100%、左右方向60度以上90度未満では角度が大きくなるにつれて信頼度が徐々に低下し、左右方向90度以上では信頼度0%となされる。図4(c)は顔の向きが正面から上下方向になった場合の信頼度403の一例を示している。図4(c)の信頼度403では、顔の角度が0度(正面)から上下方向30度未満では信頼度100%、上下方向30度以上45度未満では角度が大きくなるにつれて信頼度が徐々に低下し、上下方向45度以上では信頼度0%となされる。図4(d)の信頼度404は顔の位置に基づく信頼度404の一例を示している。図4(d)の信頼度404では、顔の位置が画面端部(画面枠)に近づくほど信頼度が低下し、一方、画面中央から一定距離範囲内である場合には信頼度100%となされる。 4 (a) to 4 (d) are explanatory views of an example of the reliability of the detected face. FIG. 4A shows an example of the reliability 401 according to the size of the face. In the reliability 401 of FIG. 4A, the reliability is set to 100% when the face size is within the predetermined size range SR, and the reliability is increased as the face size becomes smaller or larger than the predetermined size range SR. The degree decreases. FIG. 4B shows an example of the reliability 402 when the face direction (angle) is oriented in the left-right direction with respect to the front surface. In the reliability 402 of FIG. 4B, the reliability is 100% when the angle (direction) of the face is less than 60 degrees in the left-right direction from 0 degrees (front), and the reliability increases as the angle increases when the angle is 60 degrees or more and less than 90 degrees in the left-right direction. The degree gradually decreases, and the reliability is 0% when the degree is 90 degrees or more in the left-right direction. FIG. 4C shows an example of the reliability 403 when the face is oriented vertically from the front. In the reliability 403 of FIG. 4C, the reliability is 100% when the angle of the face is less than 30 degrees in the vertical direction from 0 degrees (front), and the reliability gradually increases as the angle increases when the angle is 30 degrees or more and less than 45 degrees in the vertical direction. The reliability is 0% when the temperature is 45 degrees or more in the vertical direction. The reliability 404 in FIG. 4D shows an example of the reliability 404 based on the position of the face. In the reliability 404 of FIG. 4D, the reliability decreases as the position of the face approaches the edge of the screen (screen frame), while the reliability is 100% when the face is within a certain distance from the center of the screen. Will be done.

また、器官検出回路102により検出された各器官の信頼度を表す情報は、検出された各器官の形状、傾き、色、顔内における器官の位置及びその配置関係などを基に、目、口などの各器官の確からしさを表す情報として取得される。一例として、顔領域から目として検出された器官が、顔内で目が配置されるべき位置にあり、またその形状と色が目の形状と色である場合、目である確からしさが高いことを示す信頼度が得られる。なお、信頼度は、この例に限定されるものではなく、各器官の確からしさを表すことができるのであれば、他の方法により求められてもよい。 In addition, the information indicating the reliability of each organ detected by the organ detection circuit 102 is based on the shape, inclination, color, position of the organ in the face and its arrangement relationship of each detected organ, and the eyes and mouth. It is acquired as information indicating the certainty of each organ such as. As an example, if an organ detected as an eye from the facial area is located in the face where the eye should be placed, and its shape and color are the shape and color of the eye, then the probability of being an eye is high. The reliability that indicates is obtained. The reliability is not limited to this example, and may be obtained by other methods as long as the certainty of each organ can be expressed.

次に、図3のS303の処理として、図1のブロック積分回路103は、撮像画像の中で、顔検出回路101にて検出された顔領域を複数のブロックに分割し、それらブロック毎に積分値(以下、ブロック積分値とする。)を算出する。具体的には、ブロック積分回路103は、ブロック積分値として、各ブロックのR,G,Bの各値を積分した値を算出する。図5は、検出された顔領域510の例と、その顔領域510を複数に分割した各ブロック502を示した図である。ブロック積分値が取得される各ブロック502のサイズは、予め決められていてもよいし、顔領域の大きさに合わせて可変されてもよい。なお、図5には顔領域510をブロック分割してブロック積分値を算出する例を挙げているが、撮影画像500全体のブロック分割や撮影画像の外周部を除いた主要領域501のブロック分割、及び各ブロック積分値の算出が行われてもよい。 Next, as the process of S303 of FIG. 3, the block integration circuit 103 of FIG. 1 divides the face region detected by the face detection circuit 101 into a plurality of blocks in the captured image, and integrates each block. Calculate the value (hereinafter referred to as the block integral value). Specifically, the block integration circuit 103 calculates a value obtained by integrating the R, G, and B values of each block as the block integration value. FIG. 5 is a diagram showing an example of the detected face region 510 and each block 502 obtained by dividing the face region 510 into a plurality of parts. The size of each block 502 from which the block integral value is acquired may be predetermined or may be varied according to the size of the face region. Although FIG. 5 shows an example in which the face region 510 is divided into blocks to calculate the block integral value, the block division of the entire captured image 500 and the block division of the main region 501 excluding the outer peripheral portion of the captured image are described. And the calculation of each block integral value may be performed.

次に、図3のS304の処理として、図1の補正特性決定回路105は、ブロック積分回路103により算出されたブロック積分値を基に、顔領域のテカリ補正領域内のテカリ補正処理で使用するテカリ補正特性を決定する。補正特性決定回路105は、テカリ補正特性として、撮影画像の輝度(以下、入力輝度とする)に対応してテカリ補正の強度を決めるためのテカリ補正特性を決定する。そして、補正特性決定回路105は、決定したテカリ補正特性を表す補正特性パラメータを演算器110に送る。 Next, as the process of S304 in FIG. 3, the correction characteristic determination circuit 105 of FIG. 1 is used in the shine correction process in the shine correction area of the face region based on the block integral value calculated by the block integration circuit 103. Determines the shine correction characteristics. The correction characteristic determination circuit 105 determines, as the shine correction characteristic, the shine correction characteristic for determining the intensity of the shine correction corresponding to the brightness of the captured image (hereinafter referred to as the input brightness). Then, the correction characteristic determination circuit 105 sends a correction characteristic parameter representing the determined shiny correction characteristic to the calculator 110.

図6(a)と図6(b)は、入力輝度に対応したテカリ補正強度としての補正ゲインを決めるテカリ補正特性601とテカリ補正特性602の一例を示した図である。これらテカリ補正特性601,602は、入力輝度0から輝度Aまでの間は補正ゲインが0となされ、入力輝度A以降では輝度が大きくなるにつれて補正ゲインも徐々に大きくなされるように補正ゲインを設定する補正特性となされている。ただし、テカリ補正特性601は、テカリ補正特性602よりも入力輝度A以降における特性の傾き(補正ゲインの上昇率)が大きくなっている。すなわち、図6(a)のテカリ補正特性601の場合、入力輝度A以降においてテカリ補正量をコントロールする補正ゲインが大きく上昇することで、輝度が高い白飛び領域(テカリ領域)に対して効果的にテカリ補正を行うことが可能となる。一方、図6(b)のテカリ補正特性602の場合、入力輝度A以降においてテカリ補正量をコントロールする補正ゲインの上昇が緩やかにされていることで、白飛び領域(テカリ領域)に対する補正強度を、ある程度弱めたテカリ補正を行うことが可能となる。なお、補正ゲインCは、入力輝度がとり得る最大の輝度値に対応した補正ゲインである。これらテカリ補正特性601,602は一例であり、また、テカリ補正特性は予め決められている場合だけでなく可変されてもよい。一例として、入力輝度と補正ゲインの関係を可変させることでテカリ補正特性を可変させることが可能である。 6 (a) and 6 (b) are diagrams showing an example of the shine correction characteristic 601 and the shine correction characteristic 602 that determine the correction gain as the shine correction strength corresponding to the input luminance. For these shiny correction characteristics 601, 602, the correction gain is set to 0 between the input luminance 0 and the luminance A, and the correction gain is set so that the correction gain is gradually increased as the luminance increases after the input luminance A. It is a correction characteristic. However, the shine correction characteristic 601 has a larger slope (correction gain increase rate) after the input luminance A than the shine correction characteristic 602. That is, in the case of the shine correction characteristic 601 of FIG. 6A, the correction gain for controlling the shine correction amount is greatly increased after the input brightness A, which is effective for the overexposed area (shiny area) having high brightness. It is possible to perform shine correction. On the other hand, in the case of the shine correction characteristic 602 of FIG. 6B, the correction gain for controlling the shine correction amount is gradually increased after the input luminance A, so that the correction strength for the overexposure region (shiny region) is increased. , It is possible to perform a shiny correction that has been weakened to some extent. The correction gain C is a correction gain corresponding to the maximum luminance value that the input luminance can take. These shiny correction characteristics 601, 602 are examples, and the shiny correction characteristics may be variable as well as predetermined cases. As an example, it is possible to change the shine correction characteristic by changing the relationship between the input luminance and the correction gain.

補正特性決定回路105は、テカリ補正処理の際に用いるテカリ補正特性を、撮影画像から検出された顔領域内の平均輝度、白飛びの具合、検出された顔と器官の信頼度等を基に決定する。
具体的には、補正特性決定回路105は、先ず、ブロック積分値を基に顔領域内の平均輝度を算出し、その顔領域内の平均輝度を、図6(a)や図6(b)の補正ゲインが0より大きくなる立ち上がり部の入力輝度Aとして設定する。
The correction characteristic determination circuit 105 determines the shine correction characteristic used in the shine correction process based on the average brightness in the face area detected from the captured image, the degree of overexposure, the reliability of the detected face and organ, and the like. decide.
Specifically, the correction characteristic determination circuit 105 first calculates the average luminance in the face region based on the block integral value, and determines the average luminance in the face region in FIGS. 6 (a) and 6 (b). It is set as the input luminance A of the rising portion where the correction gain of is larger than 0.

また、補正特性決定回路105は、入力輝度がとり得る最大の輝度値に対応した補正ゲインCを、顔領域の白飛び具合と、検出された顔と器官の各信頼度を基に決定する。具体的には、補正特性決定回路105は、顔領域のR,G,Bの各ブロック積分値と所定の閾値とを比較し、ブロック積分値が閾値を超えたブロックの個数を計数する。そして、補正特性決定回路105は、閾値を超えたブロック数が多いほど、補正ゲインCを大きい値に設定する。 Further, the correction characteristic determination circuit 105 determines the correction gain C corresponding to the maximum possible luminance value of the input luminance based on the degree of overexposure in the face region and the reliability of each of the detected faces and organs. Specifically, the correction characteristic determination circuit 105 compares each block integral value of R, G, and B in the face region with a predetermined threshold value, and counts the number of blocks whose block integral value exceeds the threshold value. Then, the correction characteristic determination circuit 105 sets the correction gain C to a larger value as the number of blocks exceeding the threshold value increases.

また、補正特性決定回路105は、検出された顔と器官の各信頼度をも用いて補正ゲインCの値を設定する。具体的には、補正特性決定回路105は、顔と器官の各信頼度の中の最小値が低いほど、補正ゲインCを小さい値に設定する。また例えば、顔と器官の各信頼度の中の最小値が0%である場合、補正特性決定回路105は、補正ゲインCの値も0にする。顔や器官の各信頼度が0%の場合とは、例えば顔や器官の検出を失敗した場合などである。すなわち本実施形態の場合、撮影画像から顔、又は、目と口の何れかの器官の検出ができなかった場合、補正特性決定回路105は、補正ゲインCを0に設定する。一方、顔及び器官の各信頼度が100%である場合、補正特性決定回路105は、前述したブロック積分値が閾値を超えたブロックの個数のみを基に、補正ゲインCの値を設定する。 Further, the correction characteristic determination circuit 105 sets the value of the correction gain C by using each reliability of the detected face and organ. Specifically, the correction characteristic determination circuit 105 sets the correction gain C to a smaller value as the minimum value in each reliability of the face and the organ is lower. Further, for example, when the minimum value in each reliability of the face and the organ is 0%, the correction characteristic determination circuit 105 also sets the value of the correction gain C to 0. The case where the reliability of each face or organ is 0% is, for example, the case where the detection of the face or organ fails. That is, in the case of the present embodiment, when the face or any of the organs of the eyes and the mouth cannot be detected from the captured image, the correction characteristic determination circuit 105 sets the correction gain C to 0. On the other hand, when the reliability of each of the face and the organ is 100%, the correction characteristic determination circuit 105 sets the value of the correction gain C based only on the number of blocks whose block integral value exceeds the threshold value.

次に、S305の処理として、補正領域算出回路106は、顔領域の中でテカリ補正処理の対象となり得る領域(テカリ補正領域)を算出する。このテカリ補正領域は、顔検出回路101により検出された顔領域の座標情報、及び、器官検出回路102により検出された各器官の座標情報を基に設定される。なお、顔領域、又は目や口等の器官が検出できていない場合、補正領域算出回路106は、テカリ補正領域の設定を行わない。そして、補正領域算出回路106は、設定したテカリ補正領域を表す補正領域パラメータを、演算器111に送る。 Next, as the processing of S305, the correction area calculation circuit 106 calculates a region (shininess correction region) that can be the target of the shine correction processing in the face region. This shiny correction region is set based on the coordinate information of the face region detected by the face detection circuit 101 and the coordinate information of each organ detected by the organ detection circuit 102. If the face region or organs such as eyes and mouth cannot be detected, the correction region calculation circuit 106 does not set the shine correction region. Then, the correction area calculation circuit 106 sends the correction area parameter representing the set shiny correction area to the calculator 111.

図7(a)~図7(d)は、テカリ補正領域として設定される領域の一例を示す図である。図7(a)と図7(d)は正面を向いた顔の顔領域700を、図7(b)は斜め横(左方向)を向いた顔の顔領域700、図7(c)は口711が開かれた状態の顔の顔領域700を示している。 7 (a) to 7 (d) are diagrams showing an example of a region set as a shiny correction region. 7 (a) and 7 (d) show the face area 700 of the face facing the front, FIG. 7 (b) shows the face area 700 of the face facing diagonally sideways (leftward), and FIG. 7 (c) shows the face area 700 of the face. The facial area 700 of the face with the mouth 711 open is shown.

補正領域算出回路106は、顔領域と各器官の座標情報を基に、例えば両目710の座標間の距離から楕円の大きさを決定し、さらに両目710の位置から楕円の中心位置を決定する。そして、補正領域算出回路106は、顔領域700内において、その楕円で示される領域をテカリ補正領域として算出する。図7(a)に例示した正面を向いた顔領域700の場合には、補正領域算出回路106によりテカリ補正領域701が算出される。 The correction area calculation circuit 106 determines the size of the ellipse from, for example, the distance between the coordinates of both eyes 710, and further determines the center position of the ellipse from the position of both eyes 710, based on the coordinate information of the face area and each organ. Then, the correction area calculation circuit 106 calculates the area indicated by the ellipse in the face area 700 as the shine correction area. In the case of the face region 700 facing the front illustrated in FIG. 7A, the shine correction region 701 is calculated by the correction region calculation circuit 106.

また、補正領域算出回路106は、各器官の位置関係を基に顔の角度(顔の向き)を算出し、その角度を基に顔が正面からずれているか否かを判定する。そして、補正領域算出回路106は、顔が正面からずれていると判定した場合には、そのずれの方向と角度を算出して、ずれの方向とは逆の方向に、ずれの角度に相当する分だけ楕円の中心をずらす。またこのときの補正領域算出回路106は、ずれの角度に応じて楕円の大きさを(つまりテカリ補正領域のサイズ)を修正する。図7(b)に例示した斜め横を向いた顔領域700の場合、補正領域算出回路106によってテカリ補正領域702が算出される。このように、顔の向きに応じてテカリ補正領域の中心をずらすと共にサイズが修正されることで、顔領域700からテカリ補正領域702がはみ出すことによる弊害(テカリの誤補正)を回避することが可能となる。 Further, the correction area calculation circuit 106 calculates the angle of the face (direction of the face) based on the positional relationship of each organ, and determines whether or not the face is displaced from the front based on the angle. Then, when the correction area calculation circuit 106 determines that the face is deviated from the front, the correction area calculation circuit 106 calculates the direction and angle of the deviation, and corresponds to the deviating angle in the direction opposite to the deviating direction. Shift the center of the ellipse by the amount. Further, the correction area calculation circuit 106 at this time corrects the size of the ellipse (that is, the size of the shiny correction area) according to the angle of deviation. In the case of the face region 700 facing diagonally sideways as illustrated in FIG. 7 (b), the shiny correction region 702 is calculated by the correction region calculation circuit 106. In this way, by shifting the center of the shiny correction area and correcting the size according to the orientation of the face, it is possible to avoid the harmful effect (miscorrection of shiny) caused by the shiny correction area 702 protruding from the face area 700. It will be possible.

また、補正領域算出回路106は、顔の器官のうち、口711について開いているか閉じているかを判定する。具体的には、図7(c)の例において、補正領域算出回路106は、口711の上唇の座標703と下唇の座標704との間の距離を算出し、その距離の値が所定値以上の場合(離れている場合)には口711が開いていると判定する。一方、補正領域算出回路106は、距離が所定値未満である場合には口711が閉じていると判定する。そして、補正領域算出回路106は、口711が開いていると判定した場合には、図7(c)に示すように、テカリ補正領域705を上唇の座標703にかからないように狭める。このように口711が開いている場合に上唇の座標703にかからないようにテカリ補正領域705を狭めることで、例えば開いた口711の中で高輝度になり易い白い歯に対してテカリ補正処理が行われないようにする。 Further, the correction area calculation circuit 106 determines whether the mouth 711 of the facial organs is open or closed. Specifically, in the example of FIG. 7C, the correction area calculation circuit 106 calculates the distance between the coordinates 703 of the upper lip of the mouth 711 and the coordinates 704 of the lower lip, and the value of the distance is a predetermined value. In the above case (when separated), it is determined that the mouth 711 is open. On the other hand, the correction area calculation circuit 106 determines that the mouth 711 is closed when the distance is less than a predetermined value. When the correction region calculation circuit 106 determines that the mouth 711 is open, the correction region calculation circuit 106 narrows the shine correction region 705 so as not to cover the coordinates 703 of the upper lip, as shown in FIG. 7 (c). By narrowing the shine correction area 705 so that the coordinates 703 of the upper lip are not covered when the mouth 711 is open in this way, for example, the shine correction process can be performed on white teeth that tend to have high brightness in the open mouth 711. Don't do it.

また、補正領域算出回路106は、図7(d)に示すように、テカリ補正領域701の中で高輝度になり易い目710について、補正除外領域706を設定する。補正除外領域706は、テカリ補正領域701の中でテカリ補正が行われない領域として設定される。 Further, as shown in FIG. 7D, the correction region calculation circuit 106 sets a correction exclusion region 706 for the eyes 710, which tend to have high luminance in the shine correction region 701. The correction exclusion area 706 is set as an area in the shine correction area 701 where the shine correction is not performed.

次に、図3のS306の処理として、図2の補正色算出回路107は、テカリ補正が行われる色、つまり顔の場合には肌色に対する色補正値を算出する。ここで、顔の場合のテカリ補正処理は、高輝度の飽和した画像データから補正色を減算することで肌色に近づけるような処理となされる。すなわち、白飛びしているテカリ領域の飽和値から補正色の値を減算した後の色が肌色になっている必要があり、このため、飽和値と肌色の値との差分値が補正色の値となる。 Next, as the process of S306 of FIG. 3, the correction color calculation circuit 107 of FIG. 2 calculates a color correction value for the color to which the shine correction is performed, that is, the skin color in the case of a face. Here, in the case of a face, the shiny correction process is performed so as to bring the corrected color closer to the skin color by subtracting the corrected color from the saturated image data of high brightness. That is, it is necessary that the color after subtracting the correction color value from the saturation value of the overexposed shiny region is the skin color, and therefore, the difference value between the saturation value and the skin color value is the correction color. It becomes a value.

例えばR,G,Bの値をそれぞれ8ビットで表した場合、顔領域の肌色の平均値は、
(R,G,B)=(230,200,170)
で表すことができ、一方、飽和値は、
(R,G,B)=(255,255,255)
となる。
したがって、その飽和値から顔領域の肌色平均値を減算すると、補正色の値は、
(R,G,B)=(20,55,85)
となる。
For example, when the values of R, G, and B are each represented by 8 bits, the average value of the skin color of the face area is
(R, G, B) = (230,200,170)
On the other hand, the saturation value can be expressed by
(R, G, B) = (255, 255, 255)
Will be.
Therefore, when the average skin color of the face area is subtracted from the saturation value, the value of the corrected color is
(R, G, B) = (20,55,85)
Will be.

補正色算出回路107は、顔検出回路101にて検出された顔領域の平均輝度を算出し、顔領域の中で、その平均輝度に近いブロックのRGBの色情報から色味を算出することで肌色平均値を算出する。そして、補正色算出回路107は、その肌色平均値を用いて補正色の値を算出することで色補正値を決定し、その色補正色を表す補正色パラメータを演算器112に送る。 The correction color calculation circuit 107 calculates the average brightness of the face region detected by the face detection circuit 101, and calculates the tint from the RGB color information of the block close to the average brightness in the face region. Calculate the average skin color. Then, the correction color calculation circuit 107 determines the color correction value by calculating the value of the correction color using the skin color average value, and sends the correction color parameter representing the color correction color to the calculator 112.

次に、S307の処理として、画像処理部208は、連写による画像撮影が行われているか否かの連写判定を行う。画像処理部208は、連写撮影が行われていないと判定した場合、又は、連写撮影において撮影画像が連写1コマ目であると判定した場合には、S309に処理を進める。一方、画像処理部208は、連写撮影において撮影画像が連写2コマ目以降であると判定した場合には、S308に処理を進める。 Next, as the process of S307, the image processing unit 208 determines whether or not the image shooting by continuous shooting is performed. When the image processing unit 208 determines that continuous shooting has not been performed, or when it is determined in continuous shooting that the captured image is the first frame of continuous shooting, the image processing unit 208 proceeds to S309. On the other hand, when the image processing unit 208 determines in the continuous shooting that the captured image is the second and subsequent frames of continuous shooting, the image processing unit 208 proceeds to processing in S308.

S308に進むと、画像処理部208は、連写中の前コマで決定されたテカリ補正特性及びテカリ補正領域と、最新コマで算出されたテカリ補正特性及びテカリ補正領域とを比較する。そして、画像処理部208は、その比較の結果を基に、最新コマの撮影画像に適用する補正量(補正ゲイン)及びテカリ補正領域を決定する。 Proceeding to S308, the image processing unit 208 compares the shiny correction characteristic and the shiny correction area determined in the previous frame during continuous shooting with the shiny correction characteristic and the shiny correction area calculated in the latest frame. Then, the image processing unit 208 determines the correction amount (correction gain) and the shine correction area to be applied to the captured image of the latest frame based on the result of the comparison.

例えば、画像処理部208は、最新コマで算出されたテカリ補正特性の補正ゲインC(最大補正量)が、前コマで決定されたテカリ補正特性の補正ゲインCより大きい場合、最新コマに適応する補正量を、前コマの補正量と同じ値(補正ゲイン)に設定する。つまり、画像処理部208は、前コマにおいて入力輝度に応じて決定された補正ゲインを、最新コマについてもそのまま設定することで、前コマで決定された補正ゲインを超えないようにする。一方、最新コマで算出されたテカリ補正特性の補正ゲインCが、前コマのテカリ補正特性の補正ゲインCと同じか又は小さい場合、画像処理部208は、最新コマにおいて算出された補正量(補正ゲイン)を、その最新コマに適用する補正量として設定する。すなわちこの場合も、最新コマの補正ゲインは、前コマで決定された補正ゲインを超えないことになる。このように、最新コマに適用する補正量が前コマの補正量を超えないようにすることで、連写中に顔や器官検出ができなくなった場合や検出された顔や器官の信頼度が低くなったとしても、連写コマ毎のテカリ補正のばらつきを軽減可能となる。 For example, when the correction gain C (maximum correction amount) of the shine correction characteristic calculated in the latest frame is larger than the correction gain C of the shine correction characteristic determined in the previous frame, the image processing unit 208 adapts to the latest frame. Set the correction amount to the same value (correction gain) as the correction amount of the previous frame. That is, the image processing unit 208 sets the correction gain determined according to the input luminance in the previous frame as it is for the latest frame so as not to exceed the correction gain determined in the previous frame. On the other hand, when the correction gain C of the shine correction characteristic calculated in the latest frame is the same as or smaller than the correction gain C of the shine correction characteristic of the previous frame, the image processing unit 208 performs the correction amount (correction) calculated in the latest frame. Gain) is set as the correction amount applied to the latest frame. That is, in this case as well, the correction gain of the latest frame does not exceed the correction gain determined in the previous frame. In this way, by preventing the correction amount applied to the latest frame from exceeding the correction amount of the previous frame, if the face or organ cannot be detected during continuous shooting, or the reliability of the detected face or organ can be improved. Even if it becomes low, it is possible to reduce the variation in the shine correction for each continuous shooting frame.

また、S308において、画像処理部208は、最新コマで算出されたテカリ補正領域の面積が、前コマで決定されたテカリ補正領域の面積より広い場合、最新コマに適応するテカリ補正領域を、前コマのテカリ補正領域と同じサイズに設定する。つまり、画像処理部208は、前コマにおいて決定したテカリ補正領域を、最新コマについてもそのまま設定することでで、前コマで決定されたテカリ補正領域の面積を広くしない(又は固定する)ようにする。一方、最新コマで算出されたテカリ補正領域の面積が、前コマのテカリ補正領域の面積と同じか又は小さい場合、画像処理部208は、最新コマにおいて算出されたテカリ補正領域を、その最新コマに適用するテカリ補正領域として設定する。すなわちこの場合も、最新コマにおけるテカリ補正領域の面積は、前コマで設定されたテカリ補正領域の面積より広くならない。なお、前コマで顔検出ができず、テカリ補正領域が算出されなかった場合、画像処理部208は、最新コマについてテカリ補正領域を設定しないようにする。このように、最新コマに適用するテカリ補正領域の面積を、前コマで決定されたテカリ補正領域の面積より広くならない(又は固定する)ようにすることで、連写中に例えば口が開閉等されたとしても、連写コマ毎のテカリ補正のばらつきを軽減可能となる。 Further, in S308, when the area of the shine correction area calculated in the latest frame is wider than the area of the shine correction area determined in the previous frame, the image processing unit 208 sets the shine correction area adapted to the latest frame in front. Set to the same size as the shine correction area of the frame. That is, the image processing unit 208 sets the shiny correction area determined in the previous frame as it is for the latest frame so that the area of the shiny correction area determined in the previous frame is not widened (or fixed). do. On the other hand, when the area of the shiny correction area calculated in the latest frame is the same as or smaller than the area of the shiny correction area of the previous frame, the image processing unit 208 uses the shiny correction area calculated in the latest frame as the latest frame. Set as a shiny correction area to be applied to. That is, also in this case, the area of the shine correction area in the latest frame is not wider than the area of the shine correction area set in the previous frame. If the face cannot be detected in the previous frame and the shiny correction area is not calculated, the image processing unit 208 does not set the shiny correction area for the latest frame. In this way, by making the area of the shine correction area applied to the latest frame not wider (or fixed) than the area of the shine correction area determined in the previous frame, for example, the mouth opens and closes during continuous shooting. Even if it is done, it is possible to reduce the variation in the shine correction for each continuous shooting frame.

次に、S309の処理として、画像処理部208は、連写中の次コマとの比較に使用するため、最新コマにおいて決定されたテカリ補正特性とテカリ補正領域といったパラメータを例えばメモリ207に記憶させる。 Next, as the processing of S309, the image processing unit 208 stores parameters such as the shine correction characteristic and the shine correction area determined in the latest frame in, for example, the memory 207 for use in comparison with the next frame during continuous shooting. ..

次に、S310の処理として、画像処理部208は、撮影画像のテカリ補正領域について入力輝度値に応じたテカリ補正処理を行う。このため、図1の輝度値算出回路104は、入力されたRAW画像100の各画素のRGBのデータを輝度値Yのデータに変換して、輝度値画像108を作成する。そして輝度値画像108は、演算器110に送られる。なお、RGBのデータから輝度値Yのデータへの変換は、例えば式(1)の演算により行われる。
Y=R×0.3+G×0.6+B×0.1 式(1)
Next, as the processing of S310, the image processing unit 208 performs the shine correction processing according to the input luminance value for the shine correction region of the captured image. Therefore, the luminance value calculation circuit 104 of FIG. 1 converts the RGB data of each pixel of the input RAW image 100 into the luminance value Y data to create the luminance value image 108. Then, the luminance value image 108 is sent to the arithmetic unit 110. The conversion from the RGB data to the data of the luminance value Y is performed, for example, by the calculation of the equation (1).
Y = R × 0.3 + G × 0.6 + B × 0.1 Equation (1)

演算器110は、前述した補正特性パラメータにより示されるテカリ補正特性を基に、輝度値画像108の画素ごとの輝度値に応じた各補正ゲインを算出し、それら画素毎の各補正ゲインを演算器111に送る。演算器111は、輝度値画像108を基に算出された各補正ゲインから、前述した補正領域パラメータにより示されるテカリ補正領域に対応した各補正ゲインを抽出し、そのテカリ補正領域の各補正ゲインを演算器112に送る。なお、テカリ補正領域に対応した各補正ゲインの抽出は、テカリ補正領域の外側の補正ゲインを0にすることで行われる。演算器112は、前述した補正色パラメータにより示される肌色の色補正値に、テカリ補正領域の各補正ゲインを乗算し、その補正ゲイン乗算後の各補正色の情報を、演算器113に送る。演算器113は、RAW画像100の前述したRGB3プレーンの画像データから、前述した補正ゲイン乗算後の各補正色を減算する。これにより、演算器113からは、テカリ補正領域内のテカリ領域に対するテカリ補正がなされた後のRGB画像が生成される。 The calculator 110 calculates each correction gain according to the brightness value of each pixel of the luminance value image 108 based on the shine correction characteristic indicated by the above-mentioned correction characteristic parameter, and calculates each correction gain for each pixel. Send to 111. The arithmetic unit 111 extracts each correction gain corresponding to the shine correction area indicated by the above-mentioned correction area parameter from each correction gain calculated based on the luminance value image 108, and sets each correction gain in the shine correction area. It is sent to the arithmetic unit 112. The extraction of each correction gain corresponding to the shine correction region is performed by setting the correction gain outside the shine correction region to 0. The calculator 112 multiplies the skin color correction value indicated by the above-mentioned correction color parameter by each correction gain in the shine correction region, and sends information on each correction color after the correction gain multiplication to the calculator 113. The arithmetic unit 113 subtracts each correction color after the above-mentioned correction gain multiplication from the above-mentioned image data of the RGB3 plane of the RAW image 100. As a result, the arithmetic unit 113 generates an RGB image after the shiny correction is performed on the shiny region in the shiny correction region.

次に、S311の処理として、画像処理部208は、前述のようにテカリ補正処理が行われた後の画像に対して、ガンマ補正処理、彩度補正、色相補正といった現像処理を行う。その後、S312の処理として、画像処理部208は、撮影が終了したか否か判定する。本実施形態の場合、図2のレリーズ釦214のSW2信号がオンの状態になっている場合には撮影が継続されている旨の情報がシステム制御部216から供給され、これによりS312において画像処理部208は撮影が終了していないと判定する。そして、撮影が終了していないと判定した場合、画像処理部208は、S301に処理を戻して、S301以降の一連の処理を行う。一方、図2のレリーズ釦214のSW2信号がオフの状態になると、撮影を終了する旨の情報がシステム制御部216から供給され、これによりS312において画像処理部208は撮影が終了したと判定し、図3のフローチャートの処理を終了する。 Next, as the processing of S311, the image processing unit 208 performs development processing such as gamma correction processing, saturation correction, and hue correction on the image after the shine correction processing is performed as described above. After that, as the process of S312, the image processing unit 208 determines whether or not the photographing is completed. In the case of the present embodiment, when the SW2 signal of the release button 214 of FIG. 2 is in the ON state, information indicating that shooting is being continued is supplied from the system control unit 216, whereby image processing is performed in S312. Unit 208 determines that the shooting has not been completed. Then, when it is determined that the shooting is not completed, the image processing unit 208 returns the processing to S301 and performs a series of processing after S301. On the other hand, when the SW2 signal of the release button 214 in FIG. 2 is turned off, information to the effect that shooting is finished is supplied from the system control unit 216, whereby the image processing unit 208 determines in S312 that shooting has been completed. , The processing of the flowchart of FIG. 3 is terminated.

以上説明したように、第1の実施形態の画像処理装置は、連写による連続撮影がなされているときには、前コマで決定された補正量とテカリ補正領域を超えないように、最新のコマの補正量が設定される。また第1の実施形態の画像処理装置では、連写による連続撮影がなされているときには、前コマで決定されたテカリ補正領域の面積より広くしないように、最新のテカリ補正領域の面積が設定される。これにより、第1の実施形態の画像処理装置によれば、連続撮影中に顔検出や器官検出ができなかった場合や口開閉等による補正対象領域が変化しても、撮影画像毎のテカリ補正処理のばらつきを軽減することができる。 As described above, the image processing apparatus of the first embodiment has the latest frame so as not to exceed the correction amount and the shine correction area determined in the previous frame when continuous shooting by continuous shooting is performed. The correction amount is set. Further, in the image processing apparatus of the first embodiment, when continuous shooting is performed by continuous shooting, the area of the latest shiny correction area is set so as not to be wider than the area of the shiny correction area determined in the previous frame. To. As a result, according to the image processing apparatus of the first embodiment, even if face detection or organ detection cannot be performed during continuous shooting, or even if the correction target area changes due to opening and closing of the mouth, etc., the shine correction for each shot image is performed. It is possible to reduce the variation in processing.

[第2の実施形態]
次に、第2の実施形態について説明する。第2の実施形態におけるテカリ補正処理の処理フローは図1と同様であり、また、デジタルカメラ217の構成は図2と同様であるためそれらの図示と同一の処理の説明は省略する。図8は、第2の実施形態に係るテカリ補正処理のフローチャートを示す。以下、図1、図2、及び図8を参照して、第2の実施形態の画像処理部208におけるテカリ補正処理を説明する。なお、図8のフローチャートにおいて、S801からS806までの処理は、図3のS301からS306までの処理と同じであるため、それらの説明は省略する。図8のフローチャートにおいて、S806におけるテカリ補正色の算出処理の後、画像処理部208は、S807に処理を進める。
[Second Embodiment]
Next, the second embodiment will be described. Since the processing flow of the shine correction processing in the second embodiment is the same as that in FIG. 1 and the configuration of the digital camera 217 is the same as that in FIG. 2, the description of the same processing as shown in the drawings is omitted. FIG. 8 shows a flowchart of the shiny correction process according to the second embodiment. Hereinafter, the shine correction process in the image processing unit 208 of the second embodiment will be described with reference to FIGS. 1, 2, and 8. In the flowchart of FIG. 8, the processes from S801 to S806 are the same as the processes from S301 to S306 in FIG. 3, and therefore the description thereof will be omitted. In the flowchart of FIG. 8, after the calculation processing of the shiny correction color in S806, the image processing unit 208 advances the processing to S807.

S807に進むと、画像処理部208は、連写により撮影された各撮影画像と、各撮影画像においてS804で算出したテカリ補正特性、S805で算出したテカリ補正領域、S806で算出したテカリ補正色の情報を、メモリ207に記録させる。つまり、メモリ207には、連写撮影開始以降の一連の各撮影画像と、それら各撮影画像についてそれぞれ算出されたテカリ補正特性、テカリ補正領域、テカリ補正色の情報とが記録される。 Proceeding to S807, the image processing unit 208 has the shining correction characteristics calculated by S804, the shining correction area calculated by S805, and the shining correction color calculated by S806 for each shot image taken by continuous shooting. The information is recorded in the memory 207. That is, in the memory 207, a series of each shot image after the start of continuous shooting, and information on the shiny correction characteristic, the shiny correction area, and the shiny correction color calculated for each of the shot images are recorded.

次に、S808の処理として、画像処理部208は、図3のS312と同様に撮影が終了したか否か判定し、撮影が終了していない場合にはS801に処理を戻し、撮影が終了したと判定した場合にはS809に処理を進める。 Next, as the processing of S808, the image processing unit 208 determines whether or not the shooting is completed in the same manner as in S312 of FIG. 3, and if the shooting is not completed, returns the processing to S801 and the shooting is completed. If it is determined, the process proceeds to S809.

S809に進むと、画像処理部208は、S807でメモリ207に記録されている、連写撮影による一連の各撮影画像に各々対応した各テカリ補正特性の中から、補正ゲインC(最大補正量)が最小となっているテカリ補正特性を選択する。
また、画像処理部208は、メモリ207に記録されている各撮影画像に対応した各テカリ補正領域の中で、テカリ補正領域の面積が最小(最も狭い)のテカリ補正領域を選択する。
Proceeding to S809, the image processing unit 208 has a correction gain C (maximum correction amount) from the shine correction characteristics corresponding to each series of shot images recorded in the memory 207 by continuous shooting. Select the shine correction characteristic that minimizes.
Further, the image processing unit 208 selects the shiny correction area having the smallest (narrowest) shiny correction area among the shiny correction areas corresponding to each captured image recorded in the memory 207.

次に、S810の処理として、画像処理部208は、S809で選択された補正ゲインCが最小のテカリ補正特性と、面積が最小のテカリ補正領域とを用いて、メモリ207に記録されている全ての撮影画像(全連写画像)に対するテカリ補正処理を行う。なお、画像処理部208は、テカリ補正処理に用いるテカリ補正色については、撮影画像毎に算出してメモリ207に記録してある補正色を使用する。テカリ補正処理については、第1の実施形態のS310と同様の処理とする。また、S810において、画像処理部208は、テカリ補正処理が行われた後の画像に対して、前述のS311と同様にガンマ補正処理、彩度補正、色相補正等の現像処理を行う。 Next, as the processing of S810, the image processing unit 208 uses the shine correction characteristic with the minimum correction gain C selected in S809 and the shine correction area with the minimum area, and all recorded in the memory 207. Performs shine correction processing on the captured images (all continuous shot images). The image processing unit 208 uses the correction color calculated for each captured image and recorded in the memory 207 as the shine correction color used for the shine correction processing. The shine correction process is the same as that of S310 of the first embodiment. Further, in S810, the image processing unit 208 performs development processing such as gamma correction processing, saturation correction, and hue correction on the image after the shine correction processing is performed, as in the above-mentioned S311.

以上説明したように、第2の実施形態の画像処理装置は、連写の連続撮影により得られた一連の全撮影画像に同じテカリ補正特性及び同じ面積のテカリ補正領域を適用する。これにより、第2の実施形態の画像処理装置によれば、連続撮影中に発生する顔検出や器官検出の失敗や口の開閉等による補正対象領域の変化による撮影画像毎のテカリ補正処理のばらつきを軽減することができる。
なお、第2の実施形態では、デジタルカメラ217による連写中の動作を例に挙げて説明したが、例えばRAW現像アプリケーションソフト等を用いて、ユーザが選択した複数枚の連続撮影画像に対してテカリ補正処理を施す際に前述同様の手法を用いてもよい。
As described above, the image processing apparatus of the second embodiment applies the same shine correction characteristics and the same area of shine correction region to all the series of shot images obtained by continuous shooting of continuous shooting. As a result, according to the image processing apparatus of the second embodiment, there is a variation in the shine correction processing for each captured image due to a change in the correction target area due to a failure of face detection or organ detection that occurs during continuous imaging, opening and closing of the mouth, and the like. Can be reduced.
In the second embodiment, the operation during continuous shooting by the digital camera 217 has been described as an example, but for a plurality of continuously shot images selected by the user, for example, using RAW development application software or the like. The same method as described above may be used when performing the shine correction process.

<その他の実施形態>
以上、本発明の好ましい実施形態について説明したが、本発明は前述した実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。前述の実施形態では、所定の被写体の画像領域として顔画像の肌色領域に対するテカリ補正処理の例を挙げたが、本発明は顔画像の肌色領域のテカリ補正処理には限定されない。一例として、所定の被写体として自動車等を連写等した画像について、自動車の車体の高輝度領域(テカリ領域)を補正する場合などにも適用可能である。
<Other embodiments>
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications and changes can be made within the scope of the gist thereof. In the above-described embodiment, an example of the shine correction process for the skin color region of the face image is given as an image region of a predetermined subject, but the present invention is not limited to the shine correction process for the skin color region of the face image. As an example, it can be applied to a case where a high-luminance region (shiny region) of an automobile body is corrected for an image in which an automobile or the like is continuously shot as a predetermined subject.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its technical idea or its main features.

101:顔検出回路、102:器官検出回路、103:ブロック積分回路、104:輝度値算出回路、105:補正特性決定回路、106:補正領域算出回路、107:補正色算出回路、208:画像処理部 101: Face detection circuit, 102: Organ detection circuit, 103: Block integration circuit, 104: Luminance value calculation circuit, 105: Correction characteristic determination circuit, 106: Correction area calculation circuit, 107: Correction color calculation circuit, 208: Image processing Department

Claims (12)

撮影画像から所定の被写体の画像領域を検出する検出手段と、
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正手段と、を有し、
前記補正手段は、連続した撮影で得られた撮影画像について生成する前記補正量が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で生成された補正量を超えないようにすることを特徴とする画像処理装置。
A detection means for detecting an image area of a predetermined subject from a captured image,
It has a correction means for generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
The correction means ensures that the correction amount generated for the captured images obtained by continuous shooting does not exceed the correction amount generated for the captured image captured before the captured image during the continuous shooting. An image processing device characterized by this.
前記補正手段は、前記テカリ補正の対象となり得る補正領域を決定する決定手段を有し、
前記決定手段は、前記連続した撮影で得られた撮影画像について決定した前記補正領域の面積が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で決定した補正領域の面積より狭められた場合には、前記面積が狭められた撮影画像より以降の撮影画像に対する補正領域の面積を、前記狭められた面積より広くしないようにすることを特徴とする請求項1に記載の画像処理装置。
The correction means has a determination means for determining a correction region that can be the target of the shine correction.
In the determination means, the area of the correction region determined for the captured images obtained by the continuous imaging is narrower than the area of the correction region determined for the captured image captured before the captured image during the continuous imaging. If this is the case, the image processing according to claim 1, wherein the area of the correction area for the captured image after the captured image whose area is narrowed is not wider than the narrowed area. Device.
前記決定手段は、前記面積が狭められた撮影画像より以降の撮影画像に対する補正領域の面積を、前記狭められた面積で固定することを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the determination means fixes the area of the correction region for the captured image after the captured image whose area is narrowed by the narrowed area. 前記検出手段は、前記所定の被写体を構成する複数の要素を検出し、
前記決定手段は、前記所定の被写体の画像領域の中に前記補正領域を決定する際、前記要素の検出結果に応じて前記補正領域の面積を決定することを特徴とする請求項2又は3に記載の画像処理装置。
The detection means detects a plurality of elements constituting the predetermined subject, and detects the plurality of elements.
2. The image processing device described.
撮影画像から所定の被写体の画像領域を検出する検出手段と、
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正手段と、を有し、
前記補正手段は、連続した撮影で得られた一連の各撮影画像について各々生成された補正量のうち最も小さい補正量を用いて、前記一連の全ての撮影画像に対する前記テカリ補正を行うことを特徴とする画像処理装置。
A detection means for detecting an image area of a predetermined subject from a captured image,
It has a correction means for generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
The correction means is characterized in that the shiny correction is performed on all the shot images in the series by using the smallest correction amount among the correction amounts generated for each shot image in the series obtained by continuous shooting. Image processing device.
前記補正手段は、前記テカリ補正の対象となり得る補正領域を決定する決定手段を有し、
前記決定手段は、前記一連の各撮影画像について各々決定された前記補正領域の面積のなかで最も面積が狭い補正領域を、前記一連の全ての撮影画像に適用する前記補正領域の面積とすることを特徴とする請求項5に記載の画像処理装置。
The correction means has a determination means for determining a correction region that can be the target of the shine correction.
The determination means sets the correction region having the smallest area among the areas of the correction regions determined for each of the series of captured images as the area of the correction region applied to all the captured images of the series. The image processing apparatus according to claim 5.
前記検出手段は、前記所定の被写体の画像領域の特徴量を抽出して、前記抽出した特徴量を基に前記テカリ領域に対する前記補正量を算出することを特徴とする請求項1から6の何れか1項に記載の画像処理装置。 Any of claims 1 to 6, wherein the detection means extracts a feature amount of the image region of the predetermined subject and calculates the correction amount for the shiny region based on the extracted feature amount. The image processing apparatus according to item 1. 前記検出手段は、前記所定の被写体の画像領域として人の顔の領域を検出する顔検出手段と、前記顔を構成している複数の器官を検出する器官検出手段とを有し、
前記決定手段は、前記検出された顔と前記器官を基に、前記補正領域を決定することを特徴とする請求項2又は6に記載の画像処理装置。
The detecting means includes a face detecting means for detecting an area of a human face as an image area of the predetermined subject, and an organ detecting means for detecting a plurality of organs constituting the face.
The image processing apparatus according to claim 2 or 6 , wherein the determination means determines the correction region based on the detected face and the organ.
前記補正手段は、前記検出された顔と器官の信頼度を基に前記補正量を算出することを特徴とする請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the correction means calculates the correction amount based on the reliability of the detected face and organ. 撮影画像から所定の被写体の画像領域を検出する検出工程と、
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正工程と、を有し、
前記補正工程では、連続した撮影で得られた撮影画像について生成する前記補正量が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で生成された補正量を超えないようにすることを特徴とする画像処理装置の画像処理方法。
A detection process that detects an image area of a predetermined subject from a captured image,
It has a correction step of generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
In the correction step, the correction amount generated for the captured images obtained by continuous shooting does not exceed the correction amount generated for the captured image captured before the captured image during the continuous shooting. An image processing method of an image processing apparatus, characterized in that.
撮影画像から所定の被写体の画像領域を検出する検出工程と、
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正工程と、を有し、
前記補正工程では、連続した撮影で得られた一連の各撮影画像について各々生成された補正量のうち最も小さい補正量を用いて、前記一連の全ての撮影画像に対する前記テカリ補正を行うことを特徴とする画像処理装置の画像処理方法。
A detection process that detects an image area of a predetermined subject from a captured image,
It has a correction step of generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
The correction step is characterized in that the shiny correction is performed on all the shot images in the series by using the smallest correction amount among the correction amounts generated for each shot image in the series obtained by continuous shooting. The image processing method of the image processing device.
コンピュータを、請求項1から9の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image processing apparatus according to any one of claims 1 to 9.
JP2017129206A 2017-06-30 2017-06-30 Image processing equipment, image processing methods, and programs Active JP6991750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017129206A JP6991750B2 (en) 2017-06-30 2017-06-30 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017129206A JP6991750B2 (en) 2017-06-30 2017-06-30 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019012450A JP2019012450A (en) 2019-01-24
JP6991750B2 true JP6991750B2 (en) 2022-01-13

Family

ID=65227986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017129206A Active JP6991750B2 (en) 2017-06-30 2017-06-30 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6991750B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157617A (en) 2004-11-30 2006-06-15 Canon Inc Image pickup device
JP2008278354A (en) 2007-05-02 2008-11-13 Fujifilm Corp Imaging device
JP2011044132A (en) 2009-07-23 2011-03-03 Casio Computer Co Ltd Image processing apparatus, image processing method and image processing program
JP2013017097A (en) 2011-07-05 2013-01-24 Canon Inc Image processor and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157617A (en) 2004-11-30 2006-06-15 Canon Inc Image pickup device
JP2008278354A (en) 2007-05-02 2008-11-13 Fujifilm Corp Imaging device
JP2011044132A (en) 2009-07-23 2011-03-03 Casio Computer Co Ltd Image processing apparatus, image processing method and image processing program
JP2013017097A (en) 2011-07-05 2013-01-24 Canon Inc Image processor and imaging apparatus

Also Published As

Publication number Publication date
JP2019012450A (en) 2019-01-24

Similar Documents

Publication Publication Date Title
CN111385482B (en) Image processing apparatus, control method thereof, and machine-readable medium
TWI425826B (en) Image selection device and method for selecting image
KR101036858B1 (en) Image processing apparatus, image processing method, and storage medium for storing program
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
US9779290B2 (en) Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images
US8446510B2 (en) Method and apparatus for improving face image in digital image processor
JP7039183B2 (en) Image processing equipment, image processing methods, and programs
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP6904788B2 (en) Image processing equipment, image processing methods, and programs
US11019254B2 (en) Image processing apparatus, control method for image processing apparatus, and storage medium having correction of effect of virtual light source
CN110324529B (en) Image processing apparatus and control method thereof
JP6718253B2 (en) Image processing apparatus and image processing method
JP2020102059A (en) Image processor
US11069031B2 (en) Image processing apparatus, control method for image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium to control reflected color components of input image
JP5245648B2 (en) Image processing apparatus and program
JP6808482B2 (en) Image processing equipment, image processing methods, and programs
JP6991750B2 (en) Image processing equipment, image processing methods, and programs
CN116266877A (en) Image processing apparatus and method, image capturing apparatus, and computer readable medium
JP5615012B2 (en) White balance stable adjustment device and control method thereof, program for white balance stable adjustment
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP6980449B2 (en) Image processing device, control method and program of image processing device
JP2018093359A (en) Image processing apparatus, image processing method, and program
JP2015119436A (en) Imaging apparatus
JP5393189B2 (en) Imaging apparatus and image processing method
JP2017147535A (en) White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R151 Written notification of patent or utility model registration

Ref document number: 6991750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151