JP6991750B2 - Image processing equipment, image processing methods, and programs - Google Patents
Image processing equipment, image processing methods, and programs Download PDFInfo
- Publication number
- JP6991750B2 JP6991750B2 JP2017129206A JP2017129206A JP6991750B2 JP 6991750 B2 JP6991750 B2 JP 6991750B2 JP 2017129206 A JP2017129206 A JP 2017129206A JP 2017129206 A JP2017129206 A JP 2017129206A JP 6991750 B2 JP6991750 B2 JP 6991750B2
- Authority
- JP
- Japan
- Prior art keywords
- correction
- image
- region
- area
- shiny
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 124
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012937 correction Methods 0.000 claims description 330
- 238000000034 method Methods 0.000 claims description 55
- 210000000056 organ Anatomy 0.000 claims description 46
- 238000001514 detection method Methods 0.000 claims description 42
- 238000003384 imaging method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 7
- 230000010354 integration Effects 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000009931 harmful effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Description
本発明は、撮像等された画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for processing captured images.
従来、撮影画像において被写体の高輝度領域に対して補正を行う技術が知られている。これにより環境光によって生じた顔のテカリなどを補正し、好ましい画像を得ることが可能となる。
例えば、特許文献1には、被写体の所定部位を検出し、その検出結果に基づいてテカリ領域の補正を行う技術が開示されている。具体的に説明すると、特許文献1には、被写体の人物の顔や目、口などの所定部位を検出し、その所定部位の位置や色などに基づいて各画素の補正の程度を決定する技術が開示されている。これにより、特許文献1に記載の技術によれば、輝度や明度を下げる必要のない部位についてはその高い輝度や明度が維持され、輝度を下げる必要のある肌のテカリが生じている部位のみに対して補正することが可能となる。
Conventionally, there is known a technique for correcting a high-luminance region of a subject in a captured image. This makes it possible to correct the shine of the face caused by the ambient light and obtain a preferable image.
For example, Patent Document 1 discloses a technique of detecting a predetermined portion of a subject and correcting a shiny region based on the detection result. Specifically, Patent Document 1 describes a technique of detecting predetermined parts such as the face, eyes, and mouth of a person as a subject, and determining the degree of correction of each pixel based on the position and color of the predetermined parts. Is disclosed. As a result, according to the technique described in Patent Document 1, the high brightness and brightness are maintained for the parts that do not need to reduce the brightness and the brightness, and only the parts where the skin shine that needs to be lowered is generated. However, it is possible to correct it.
しかしながら、前述した従来の補正方法では、顔検出や顔の部位を検出する器官検出結果を基にテカリ補正を行うため、例えば顔検出や器官検出に失敗した場合にはテカリ補正を行うことができない。このため、例えば連写撮影のような連続撮影がなされた場合、従来の補正方法では、連写された撮影画像ごとに補正のばらつきが生じてしまうことがある。例えば、連写された各画像の中に、顔検出等が成功して正しくテカリ補正を行えた画像と、顔検出等を失敗して正しくテカリ補正を行えなかった画像が混在すると、画像ごとにテカリ補正のばらつきが生ずることになる。 However, in the conventional correction method described above, since the shine correction is performed based on the result of face detection or the organ detection for detecting the part of the face, for example, if the face detection or the organ detection fails, the shine correction cannot be performed. .. For this reason, when continuous shooting such as continuous shooting is performed, in the conventional correction method, the correction may vary depending on the continuously shot images. For example, if an image in which face detection or the like is successful and the shine correction is performed correctly and an image in which face detection or the like fails and the shine correction cannot be performed correctly are mixed in each of the continuously shot images, each image is used. There will be variations in shine correction.
そこで本発明は、連続した撮影がなされた場合の補正のばらつきを軽減可能にすることを目的とする。 Therefore, it is an object of the present invention to make it possible to reduce the variation in correction when continuous shooting is performed.
本発明は、撮影画像から所定の被写体の画像領域を検出する検出手段と、前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正手段と、を有し、前記補正手段は、連続した撮影で得られた撮影画像について生成する前記補正量が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で生成された補正量を超えないようにすることを特徴とする。 The present invention generates a detection means for detecting an image area of a predetermined subject from a captured image and a correction amount for the shiny area of the image area of the predetermined subject, and the generated correction amount is used to make the shiny area shiny. The correction means includes a correction means for performing correction, and the correction means is a shot image in which the correction amount generated for the shot images obtained in continuous shooting is taken before the shot image at the time of the continuous shooting. It is characterized in that it does not exceed the generated correction amount.
本発明によれば、連続した撮影がなされた場合の補正のばらつきを軽減可能となる。 According to the present invention, it is possible to reduce the variation in correction when continuous shooting is performed.
以下、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態の画像処理装置のテカリ補正処理に係る各構成における処理の流れを表した処理フローである。図2は、本実施形態の画像処理装置の一適用例であるデジタルカメラ217の概略構成を示したブロック図である。図1の処理フローにて示された本実施形態の画像処理装置に係るテカリ補正処理は、図2のデジタルカメラ217では例えば画像処理部208により行われるとする。なお、本実施形態の画像処理装置は、デジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末、パーソナルコンピュータ等の各種情報端末、工業用カメラ、車載カメラ、医療用カメラなどの各種カメラにも適用可能である。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a processing flow showing a processing flow in each configuration related to the shine correction processing of the image processing apparatus of the present embodiment. FIG. 2 is a block diagram showing a schematic configuration of a
図1に示したデジタルカメラ217において、レンズ200はフォーカスレンズを含むズームレンズであり、入射光Lを集光して被写体等の光学像を撮像素子203の撮像面上に形成する。絞り201はレンズ200を介した入射光量を調整し、シャッター202は撮像素子203の露光時間を調整する。レンズ200のフォーカスレンズ等の駆動は、システム制御部216による制御の下、測距制御部211により行われる。絞り201の絞り値とシャッター202のシャッタースピードの調整は、システム制御部216による制御の下、露光制御部210により行われる。
In the
測光センサ213は、撮影画角内の平均輝度を測定するためのセンサであり、測定した輝度値の情報をシステム制御部216に出力する。システム制御部216は、測光センサ213により測定された輝度値に基づき、適切な露光量を算出して、その露光量情報を露光制御部210に送る。露光制御部210は、その露光量を基に、絞り201の絞り値とシャッター202のシャッタースピードを設定することにより露光制御を行う。
測距センサ212は、カメラから被写体までの距離を検出するセンサであり、検出した距離の情報をシステム制御部216に出力する。システム制御部216は、測距センサ212にて検出された距離情報を測距制御部211に送る。測距制御部211は、その距離情報を基に、レンズ200のフォーカスレンズを駆動することで被写体等へのピント合わせを行う。
The
The
撮像素子203は、レンズ200を介して撮像面上に形成された光学像を光電変換により電気信号に変換してアナログ信号を出力する。撮像素子203は、CCDイメージセンサ又はCMOSイメージセンサからなる。また、撮像素子203の撮像面には三原色のR(赤),G(緑),B(青)の各色成分に対応したカラーフィルタが、いわゆるベイヤー配列と呼ばれる配列で画素毎に設けられている。このため、撮像素子203からは、ベイヤー配列に対応したRGBの各画素の色信号からなるアナログ信号が出力される。A/D変換器204は、撮像素子203から出力されたRGBのアナログ信号を、RGBのデジタルデータに変換する。タイミング発生部205は、撮像素子203とA/D変換器204にクロック信号や制御信号を供給して、それらの動作を制御している。このタイミング発生部205は、メモリ制御部206及びシステム制御部216により制御されている。
The
画像処理部208は、A/D変換器204から出力された画像データ、或いはメモリ制御部206によりメモリ207から読み出された画像データに対して、各種の画像処理を施す。具体的には、画像処理部208は、ホワイトバランス処理、RGBベイヤー配列の信号をRGBの色成分毎に分けたRGB3プレーン信号に変換する色補間処理、ガンマ補正処理、彩度補正、色相補正などの各種画像処理を行う。
The
また、画像処理部208は、本実施形態に係るテカリ補正処理も行う。テカリ補正処理は、撮影画像に写っている所定の被写体の画像領域の中に高輝度のテカリ領域が存在する場合に、そのテカリ領域を補正する処理である。所定の被写体として例えば人物が撮影された場合、テカリ補正処理は、人物の顔の中の高輝度のテカリ領域に対して行われる。顔のテカリ領域に対する補正を行う場合、画像処理部208は、撮影画像から顔領域を検出する顔検出処理、顔を構成する複数の要素である目、口等の各器官を検出する器官検出処理についても行う。そして、画像処理部208は、それら顔領域や各器官の検出結果を基に、テカリ補正の対象となり得る領域(以下、テカリ補正領域とする。)を算出すると共にテカリ補正の補正量を算出して、テカリ補正処理を行う。これら顔領域の検出及び器官の検出処理、テカリ補正領域及び補正量の算出処理等の詳細については後述する。
The
メモリ制御部206は、メモリ207の書き込みと読み出しの制御の他、システム制御部216による指示の下で、A/D変換器204、タイミング発生部205、画像処理部208の制御も行う。これにより、A/D変換器204にてA/D変換されたデジタル画像データは、画像処理部208を介して、或いは直接メモリ制御部206を介して、メモリ207に書き込まれる。
In addition to controlling the writing and reading of the
メモリ207は、撮像素子203により撮影された静止画像や動画の画像データを格納するためのメモリであり、例えば所定枚数の静止画像や所定時間の動画の画像データを格納するのに十分な記憶容量を備えている。また、メモリ207は、システム制御部216や画像処理部208の作業領域としても使用可能となされている。また、メモリ207は、いわゆる連写による連続撮影時に各画像データを一時記録しておくバッファメモリとしても使用される。
The
外部記憶装置209は、種々の規格のメモリカードなどの着脱可能な外付けの記録媒体である。外部記憶装置209には、デジタルカメラ217本体とメモリカードとの間のインターフェースも含む。メモリ207に一時的に記録された画像データは、最終的にこの外部記憶装置209のメモリカードに記録される。なお、メモリカードに記録される画像データは、撮像されたいわゆるRAWデータでもよいし、所定の規格で圧縮符号化されたデータであってもよい。
The
レリーズ釦214は、ユーザによるレリーズ釦214への第1ストロークの押下操作と、第1ストロークよりも押下量が大きい第2ストロークの押下操作とを検出可能なスイッチである。レリーズ釦214は、第1ストロークの押下操作を検出したときにオンとなるSW1信号をシステム制御部216に出力し、第2ストロークの押下操作を検出したときにオンとなるSW2信号をシステム制御部216に出力する。システム制御部216は、SW1信号が入力されると、前述した測光及び測距のための各動作を開始させ、さらにSW2信号が入力されると、前述した露光及び撮像のための各動作を開始させる。また、ユーザによりレリーズ釦214に対する第2ストロークの押下操作が継続された場合、システム制御部216は、デジタルカメラ217を連写撮影状態に制御する。連射撮影状態の場合、システム制御部216は、レリーズ釦214の第2ストロークの押下操作が継続している間、連写を行うように各部を制御する。
The
なお、図2には図示していないが、デジタルカメラ217は、LCD(液晶ディスプレイ)等の表示装置をも有している。表示装置には、撮影された画像や、外部記憶装置209から読み出された画像、いわゆるライブビュー画像、ユーザインターフェース画像等が表示される。
操作部215は、表示装置の画面上に配されるタッチパネル、デジタルカメラ217の本体に配されるボタンやスイッチを含み、ユーザによる操作を検知して、その検知した操作情報をシステム制御部216に出力する。
Although not shown in FIG. 2, the
The
システム制御部216は、デジタルカメラ217における前述した撮影時の動作を含む全体の動作を制御する。システム制御部216は、CPUやMPU、不揮発性メモリを含み、不揮発性メモリに記憶されているプログラムをメモリ207の作業領域に展開して実行することにより、デジタルカメラ217全体の各機能を制御する。不揮発性メモリは、プログラムや各種パラメータなどを格納するEEPROMなどの不揮発性の半導体メモリからなる。なお、本実施形態に係る画像処理がCPU等により実行される場合、不揮発性メモリに記憶されているプログラムには本実施形態に係る画像処理のプログラムが含まれる。
The
[第1の実施形態]
以下、第1の実施形態について説明する。第1の実施形態では、連写のような連続的な撮影により、所定の被写体として人物(人物の顔)が撮影され、その人物の顔の高輝度のテカリ領域に対してテカリ補正処理が行われる場合を例に挙げる。また本実施形態では、連写撮影中に被写体が動いたことで顔や各部位の検出ができずテカリ補正を行えない場合や、口の開閉等により顔内でテカリ補正領域が変化した場合でも、以下の処理により、各撮影画像でテカリ補正にばらつきが生ずるのを防止する。
[First Embodiment]
Hereinafter, the first embodiment will be described. In the first embodiment, a person (face of a person) is photographed as a predetermined subject by continuous shooting such as continuous shooting, and a shine correction process is performed on a high-intensity shine area of the face of the person. Take the case where it is done as an example. Further, in the present embodiment, even when the face or each part cannot be detected due to the movement of the subject during continuous shooting and the shine correction cannot be performed, or when the shine correction area changes in the face due to opening and closing of the mouth or the like. By the following processing, it is possible to prevent variations in the shine correction in each captured image.
以下、図1に示した処理フロー、図2に示したデジタルカメラ217の構成、及び、図3に示すテカリ補正処理のフローチャートを参照して、第1の実施形態における連写撮影時のテカリ補正処理について詳細に説明する。図3のフローチャートに示した処理は図2の画像処理部208により行われ、画像処理部208は図1の処理フローに示されている各回路等を有して構成されている。すなわち画像処理部208は、図1に示すように、顔検出回路101、器官検出回路102、ブロック積分回路103、輝度値算出回路104、補正特性決定回路105、補正領域算出回路106、補正色算出回路107、演算器110~113を有している。
Hereinafter, with reference to the processing flow shown in FIG. 1, the configuration of the
なお、図3のフローチャートの処理は、図1の各回路のようなハードウェア構成により実現される場合のみならず、ソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により実現される場合、例えばシステム制御部216のCPUが、不揮発性メモリに格納されているプログラムを実行して、図3のフローチャートの処理を実現する。このソフトウェア構成に係るプログラムは、不揮発性メモリに予め用意されている場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。以下の図3のフローチャートの説明では、ステップS301~ステップS312をそれぞれS301~S312と略記する。これらのことは後述する他のフローチャートにおいても同様とする。
It should be noted that the processing of the flowchart of FIG. 3 may be executed not only when it is realized by the hardware configuration as in each circuit of FIG. 1, but also by the software configuration, and a part is a software configuration and the rest is hardware. It may be realized by the configuration. When realized by a software configuration, for example, the CPU of the
本実施形態に係る画像処理部208は、デジタルカメラ217において撮影が開始されると、撮影画像に対するテカリ補正処理のために、図3のフローチャートの処理をスタートさせる。
図3のフローチャートの処理がスタートすると、先ずS301の処理として、図1の顔検出回路101は、撮影画像であるRAW画像100から顔領域を検出する顔検出処理を行う。なお、入力される撮影画像は、ホワイトバランス処理及びRGBベイヤー配列からRGB3プレーン画像に変換する色補間処理がなされているものとする。ホワイトバランス処理や色補間処理は既知の技術を用いて行われるため、それらの詳細な説明は省略する。
When the
When the process of the flowchart of FIG. 3 starts, first, as the process of S301, the
顔検出回路101は、撮影画像から検出した顔の個数、顔領域を示す画像中の座標、検出した顔毎の信頼度などの情報を出力する。撮影画像から顔を検出する手法としては、例えば、ニュートラルネットワークに代表される学習を用いた手法、目や鼻といった物理的形状に特徴のある部位を撮影画像からテンプレートマッチング処理等により抽出する手法等が知られている。その他にも、肌の色や目の形といった画像特徴量を検出し、統計的手法を用いた解析を行うことで顔を検出する手法等も知られている。顔検出回路101は、これらの手法を用いて、撮影画像から顔領域を検出し、検出した顔の個数、顔領域の座標、検出された顔の信頼度などの情報を出力する。
The
次に、図3のフローチャートのS302の処理として、図1の器官検出回路102は、撮影画像から、顔検出回路101にて検出された顔を構成する各要素である口、鼻、目などの各器官を検出し、それら器官、顔の角度(向き)など詳細な情報を取得する。なお、顔の中の器官のような所定部位の検出手法としては、顔検出の手法と同様にテンプレートマッチング処理を利用した手法や、ニューラルネットワークを利用した手法などが知られている。器官検出回路102は、これらの手法を用いて各器官、顔の角度等を検出し、それらの情報を出力する。器官検出回路102は、検出した各器官の信頼度、検出した顔の角度に基づく顔の信頼度の情報についても出力する。
Next, as the process of S302 in the flowchart of FIG. 3, the
図4(a)~図4(d)は検出された顔の信頼度の一例の説明図である。図4(a)は顔の大きさによる信頼度401の一例を示している。図4(a)の信頼度401では、顔のサイズが所定のサイズ範囲SR内である場合に信頼度が100%となされ、顔のサイズが所定のサイズ範囲SRより小さくなるほど、或いは大きくなるほど信頼度が低下する。図4(b)は顔の向き(角度)が正面に対して左右方向に向いた場合の信頼度402の一例を示している。図4(b)の信頼度402では、顔の角度(向き)が0度(正面)から左右方向60度未満では信頼度100%、左右方向60度以上90度未満では角度が大きくなるにつれて信頼度が徐々に低下し、左右方向90度以上では信頼度0%となされる。図4(c)は顔の向きが正面から上下方向になった場合の信頼度403の一例を示している。図4(c)の信頼度403では、顔の角度が0度(正面)から上下方向30度未満では信頼度100%、上下方向30度以上45度未満では角度が大きくなるにつれて信頼度が徐々に低下し、上下方向45度以上では信頼度0%となされる。図4(d)の信頼度404は顔の位置に基づく信頼度404の一例を示している。図4(d)の信頼度404では、顔の位置が画面端部(画面枠)に近づくほど信頼度が低下し、一方、画面中央から一定距離範囲内である場合には信頼度100%となされる。
4 (a) to 4 (d) are explanatory views of an example of the reliability of the detected face. FIG. 4A shows an example of the
また、器官検出回路102により検出された各器官の信頼度を表す情報は、検出された各器官の形状、傾き、色、顔内における器官の位置及びその配置関係などを基に、目、口などの各器官の確からしさを表す情報として取得される。一例として、顔領域から目として検出された器官が、顔内で目が配置されるべき位置にあり、またその形状と色が目の形状と色である場合、目である確からしさが高いことを示す信頼度が得られる。なお、信頼度は、この例に限定されるものではなく、各器官の確からしさを表すことができるのであれば、他の方法により求められてもよい。
In addition, the information indicating the reliability of each organ detected by the
次に、図3のS303の処理として、図1のブロック積分回路103は、撮像画像の中で、顔検出回路101にて検出された顔領域を複数のブロックに分割し、それらブロック毎に積分値(以下、ブロック積分値とする。)を算出する。具体的には、ブロック積分回路103は、ブロック積分値として、各ブロックのR,G,Bの各値を積分した値を算出する。図5は、検出された顔領域510の例と、その顔領域510を複数に分割した各ブロック502を示した図である。ブロック積分値が取得される各ブロック502のサイズは、予め決められていてもよいし、顔領域の大きさに合わせて可変されてもよい。なお、図5には顔領域510をブロック分割してブロック積分値を算出する例を挙げているが、撮影画像500全体のブロック分割や撮影画像の外周部を除いた主要領域501のブロック分割、及び各ブロック積分値の算出が行われてもよい。
Next, as the process of S303 of FIG. 3, the
次に、図3のS304の処理として、図1の補正特性決定回路105は、ブロック積分回路103により算出されたブロック積分値を基に、顔領域のテカリ補正領域内のテカリ補正処理で使用するテカリ補正特性を決定する。補正特性決定回路105は、テカリ補正特性として、撮影画像の輝度(以下、入力輝度とする)に対応してテカリ補正の強度を決めるためのテカリ補正特性を決定する。そして、補正特性決定回路105は、決定したテカリ補正特性を表す補正特性パラメータを演算器110に送る。
Next, as the process of S304 in FIG. 3, the correction
図6(a)と図6(b)は、入力輝度に対応したテカリ補正強度としての補正ゲインを決めるテカリ補正特性601とテカリ補正特性602の一例を示した図である。これらテカリ補正特性601,602は、入力輝度0から輝度Aまでの間は補正ゲインが0となされ、入力輝度A以降では輝度が大きくなるにつれて補正ゲインも徐々に大きくなされるように補正ゲインを設定する補正特性となされている。ただし、テカリ補正特性601は、テカリ補正特性602よりも入力輝度A以降における特性の傾き(補正ゲインの上昇率)が大きくなっている。すなわち、図6(a)のテカリ補正特性601の場合、入力輝度A以降においてテカリ補正量をコントロールする補正ゲインが大きく上昇することで、輝度が高い白飛び領域(テカリ領域)に対して効果的にテカリ補正を行うことが可能となる。一方、図6(b)のテカリ補正特性602の場合、入力輝度A以降においてテカリ補正量をコントロールする補正ゲインの上昇が緩やかにされていることで、白飛び領域(テカリ領域)に対する補正強度を、ある程度弱めたテカリ補正を行うことが可能となる。なお、補正ゲインCは、入力輝度がとり得る最大の輝度値に対応した補正ゲインである。これらテカリ補正特性601,602は一例であり、また、テカリ補正特性は予め決められている場合だけでなく可変されてもよい。一例として、入力輝度と補正ゲインの関係を可変させることでテカリ補正特性を可変させることが可能である。
6 (a) and 6 (b) are diagrams showing an example of the shine correction characteristic 601 and the shine correction characteristic 602 that determine the correction gain as the shine correction strength corresponding to the input luminance. For these
補正特性決定回路105は、テカリ補正処理の際に用いるテカリ補正特性を、撮影画像から検出された顔領域内の平均輝度、白飛びの具合、検出された顔と器官の信頼度等を基に決定する。
具体的には、補正特性決定回路105は、先ず、ブロック積分値を基に顔領域内の平均輝度を算出し、その顔領域内の平均輝度を、図6(a)や図6(b)の補正ゲインが0より大きくなる立ち上がり部の入力輝度Aとして設定する。
The correction
Specifically, the correction
また、補正特性決定回路105は、入力輝度がとり得る最大の輝度値に対応した補正ゲインCを、顔領域の白飛び具合と、検出された顔と器官の各信頼度を基に決定する。具体的には、補正特性決定回路105は、顔領域のR,G,Bの各ブロック積分値と所定の閾値とを比較し、ブロック積分値が閾値を超えたブロックの個数を計数する。そして、補正特性決定回路105は、閾値を超えたブロック数が多いほど、補正ゲインCを大きい値に設定する。
Further, the correction
また、補正特性決定回路105は、検出された顔と器官の各信頼度をも用いて補正ゲインCの値を設定する。具体的には、補正特性決定回路105は、顔と器官の各信頼度の中の最小値が低いほど、補正ゲインCを小さい値に設定する。また例えば、顔と器官の各信頼度の中の最小値が0%である場合、補正特性決定回路105は、補正ゲインCの値も0にする。顔や器官の各信頼度が0%の場合とは、例えば顔や器官の検出を失敗した場合などである。すなわち本実施形態の場合、撮影画像から顔、又は、目と口の何れかの器官の検出ができなかった場合、補正特性決定回路105は、補正ゲインCを0に設定する。一方、顔及び器官の各信頼度が100%である場合、補正特性決定回路105は、前述したブロック積分値が閾値を超えたブロックの個数のみを基に、補正ゲインCの値を設定する。
Further, the correction
次に、S305の処理として、補正領域算出回路106は、顔領域の中でテカリ補正処理の対象となり得る領域(テカリ補正領域)を算出する。このテカリ補正領域は、顔検出回路101により検出された顔領域の座標情報、及び、器官検出回路102により検出された各器官の座標情報を基に設定される。なお、顔領域、又は目や口等の器官が検出できていない場合、補正領域算出回路106は、テカリ補正領域の設定を行わない。そして、補正領域算出回路106は、設定したテカリ補正領域を表す補正領域パラメータを、演算器111に送る。
Next, as the processing of S305, the correction
図7(a)~図7(d)は、テカリ補正領域として設定される領域の一例を示す図である。図7(a)と図7(d)は正面を向いた顔の顔領域700を、図7(b)は斜め横(左方向)を向いた顔の顔領域700、図7(c)は口711が開かれた状態の顔の顔領域700を示している。
7 (a) to 7 (d) are diagrams showing an example of a region set as a shiny correction region. 7 (a) and 7 (d) show the
補正領域算出回路106は、顔領域と各器官の座標情報を基に、例えば両目710の座標間の距離から楕円の大きさを決定し、さらに両目710の位置から楕円の中心位置を決定する。そして、補正領域算出回路106は、顔領域700内において、その楕円で示される領域をテカリ補正領域として算出する。図7(a)に例示した正面を向いた顔領域700の場合には、補正領域算出回路106によりテカリ補正領域701が算出される。
The correction
また、補正領域算出回路106は、各器官の位置関係を基に顔の角度(顔の向き)を算出し、その角度を基に顔が正面からずれているか否かを判定する。そして、補正領域算出回路106は、顔が正面からずれていると判定した場合には、そのずれの方向と角度を算出して、ずれの方向とは逆の方向に、ずれの角度に相当する分だけ楕円の中心をずらす。またこのときの補正領域算出回路106は、ずれの角度に応じて楕円の大きさを(つまりテカリ補正領域のサイズ)を修正する。図7(b)に例示した斜め横を向いた顔領域700の場合、補正領域算出回路106によってテカリ補正領域702が算出される。このように、顔の向きに応じてテカリ補正領域の中心をずらすと共にサイズが修正されることで、顔領域700からテカリ補正領域702がはみ出すことによる弊害(テカリの誤補正)を回避することが可能となる。
Further, the correction
また、補正領域算出回路106は、顔の器官のうち、口711について開いているか閉じているかを判定する。具体的には、図7(c)の例において、補正領域算出回路106は、口711の上唇の座標703と下唇の座標704との間の距離を算出し、その距離の値が所定値以上の場合(離れている場合)には口711が開いていると判定する。一方、補正領域算出回路106は、距離が所定値未満である場合には口711が閉じていると判定する。そして、補正領域算出回路106は、口711が開いていると判定した場合には、図7(c)に示すように、テカリ補正領域705を上唇の座標703にかからないように狭める。このように口711が開いている場合に上唇の座標703にかからないようにテカリ補正領域705を狭めることで、例えば開いた口711の中で高輝度になり易い白い歯に対してテカリ補正処理が行われないようにする。
Further, the correction
また、補正領域算出回路106は、図7(d)に示すように、テカリ補正領域701の中で高輝度になり易い目710について、補正除外領域706を設定する。補正除外領域706は、テカリ補正領域701の中でテカリ補正が行われない領域として設定される。
Further, as shown in FIG. 7D, the correction
次に、図3のS306の処理として、図2の補正色算出回路107は、テカリ補正が行われる色、つまり顔の場合には肌色に対する色補正値を算出する。ここで、顔の場合のテカリ補正処理は、高輝度の飽和した画像データから補正色を減算することで肌色に近づけるような処理となされる。すなわち、白飛びしているテカリ領域の飽和値から補正色の値を減算した後の色が肌色になっている必要があり、このため、飽和値と肌色の値との差分値が補正色の値となる。
Next, as the process of S306 of FIG. 3, the correction
例えばR,G,Bの値をそれぞれ8ビットで表した場合、顔領域の肌色の平均値は、
(R,G,B)=(230,200,170)
で表すことができ、一方、飽和値は、
(R,G,B)=(255,255,255)
となる。
したがって、その飽和値から顔領域の肌色平均値を減算すると、補正色の値は、
(R,G,B)=(20,55,85)
となる。
For example, when the values of R, G, and B are each represented by 8 bits, the average value of the skin color of the face area is
(R, G, B) = (230,200,170)
On the other hand, the saturation value can be expressed by
(R, G, B) = (255, 255, 255)
Will be.
Therefore, when the average skin color of the face area is subtracted from the saturation value, the value of the corrected color is
(R, G, B) = (20,55,85)
Will be.
補正色算出回路107は、顔検出回路101にて検出された顔領域の平均輝度を算出し、顔領域の中で、その平均輝度に近いブロックのRGBの色情報から色味を算出することで肌色平均値を算出する。そして、補正色算出回路107は、その肌色平均値を用いて補正色の値を算出することで色補正値を決定し、その色補正色を表す補正色パラメータを演算器112に送る。
The correction
次に、S307の処理として、画像処理部208は、連写による画像撮影が行われているか否かの連写判定を行う。画像処理部208は、連写撮影が行われていないと判定した場合、又は、連写撮影において撮影画像が連写1コマ目であると判定した場合には、S309に処理を進める。一方、画像処理部208は、連写撮影において撮影画像が連写2コマ目以降であると判定した場合には、S308に処理を進める。
Next, as the process of S307, the
S308に進むと、画像処理部208は、連写中の前コマで決定されたテカリ補正特性及びテカリ補正領域と、最新コマで算出されたテカリ補正特性及びテカリ補正領域とを比較する。そして、画像処理部208は、その比較の結果を基に、最新コマの撮影画像に適用する補正量(補正ゲイン)及びテカリ補正領域を決定する。
Proceeding to S308, the
例えば、画像処理部208は、最新コマで算出されたテカリ補正特性の補正ゲインC(最大補正量)が、前コマで決定されたテカリ補正特性の補正ゲインCより大きい場合、最新コマに適応する補正量を、前コマの補正量と同じ値(補正ゲイン)に設定する。つまり、画像処理部208は、前コマにおいて入力輝度に応じて決定された補正ゲインを、最新コマについてもそのまま設定することで、前コマで決定された補正ゲインを超えないようにする。一方、最新コマで算出されたテカリ補正特性の補正ゲインCが、前コマのテカリ補正特性の補正ゲインCと同じか又は小さい場合、画像処理部208は、最新コマにおいて算出された補正量(補正ゲイン)を、その最新コマに適用する補正量として設定する。すなわちこの場合も、最新コマの補正ゲインは、前コマで決定された補正ゲインを超えないことになる。このように、最新コマに適用する補正量が前コマの補正量を超えないようにすることで、連写中に顔や器官検出ができなくなった場合や検出された顔や器官の信頼度が低くなったとしても、連写コマ毎のテカリ補正のばらつきを軽減可能となる。
For example, when the correction gain C (maximum correction amount) of the shine correction characteristic calculated in the latest frame is larger than the correction gain C of the shine correction characteristic determined in the previous frame, the
また、S308において、画像処理部208は、最新コマで算出されたテカリ補正領域の面積が、前コマで決定されたテカリ補正領域の面積より広い場合、最新コマに適応するテカリ補正領域を、前コマのテカリ補正領域と同じサイズに設定する。つまり、画像処理部208は、前コマにおいて決定したテカリ補正領域を、最新コマについてもそのまま設定することでで、前コマで決定されたテカリ補正領域の面積を広くしない(又は固定する)ようにする。一方、最新コマで算出されたテカリ補正領域の面積が、前コマのテカリ補正領域の面積と同じか又は小さい場合、画像処理部208は、最新コマにおいて算出されたテカリ補正領域を、その最新コマに適用するテカリ補正領域として設定する。すなわちこの場合も、最新コマにおけるテカリ補正領域の面積は、前コマで設定されたテカリ補正領域の面積より広くならない。なお、前コマで顔検出ができず、テカリ補正領域が算出されなかった場合、画像処理部208は、最新コマについてテカリ補正領域を設定しないようにする。このように、最新コマに適用するテカリ補正領域の面積を、前コマで決定されたテカリ補正領域の面積より広くならない(又は固定する)ようにすることで、連写中に例えば口が開閉等されたとしても、連写コマ毎のテカリ補正のばらつきを軽減可能となる。
Further, in S308, when the area of the shine correction area calculated in the latest frame is wider than the area of the shine correction area determined in the previous frame, the
次に、S309の処理として、画像処理部208は、連写中の次コマとの比較に使用するため、最新コマにおいて決定されたテカリ補正特性とテカリ補正領域といったパラメータを例えばメモリ207に記憶させる。
Next, as the processing of S309, the
次に、S310の処理として、画像処理部208は、撮影画像のテカリ補正領域について入力輝度値に応じたテカリ補正処理を行う。このため、図1の輝度値算出回路104は、入力されたRAW画像100の各画素のRGBのデータを輝度値Yのデータに変換して、輝度値画像108を作成する。そして輝度値画像108は、演算器110に送られる。なお、RGBのデータから輝度値Yのデータへの変換は、例えば式(1)の演算により行われる。
Y=R×0.3+G×0.6+B×0.1 式(1)
Next, as the processing of S310, the
Y = R × 0.3 + G × 0.6 + B × 0.1 Equation (1)
演算器110は、前述した補正特性パラメータにより示されるテカリ補正特性を基に、輝度値画像108の画素ごとの輝度値に応じた各補正ゲインを算出し、それら画素毎の各補正ゲインを演算器111に送る。演算器111は、輝度値画像108を基に算出された各補正ゲインから、前述した補正領域パラメータにより示されるテカリ補正領域に対応した各補正ゲインを抽出し、そのテカリ補正領域の各補正ゲインを演算器112に送る。なお、テカリ補正領域に対応した各補正ゲインの抽出は、テカリ補正領域の外側の補正ゲインを0にすることで行われる。演算器112は、前述した補正色パラメータにより示される肌色の色補正値に、テカリ補正領域の各補正ゲインを乗算し、その補正ゲイン乗算後の各補正色の情報を、演算器113に送る。演算器113は、RAW画像100の前述したRGB3プレーンの画像データから、前述した補正ゲイン乗算後の各補正色を減算する。これにより、演算器113からは、テカリ補正領域内のテカリ領域に対するテカリ補正がなされた後のRGB画像が生成される。
The
次に、S311の処理として、画像処理部208は、前述のようにテカリ補正処理が行われた後の画像に対して、ガンマ補正処理、彩度補正、色相補正といった現像処理を行う。その後、S312の処理として、画像処理部208は、撮影が終了したか否か判定する。本実施形態の場合、図2のレリーズ釦214のSW2信号がオンの状態になっている場合には撮影が継続されている旨の情報がシステム制御部216から供給され、これによりS312において画像処理部208は撮影が終了していないと判定する。そして、撮影が終了していないと判定した場合、画像処理部208は、S301に処理を戻して、S301以降の一連の処理を行う。一方、図2のレリーズ釦214のSW2信号がオフの状態になると、撮影を終了する旨の情報がシステム制御部216から供給され、これによりS312において画像処理部208は撮影が終了したと判定し、図3のフローチャートの処理を終了する。
Next, as the processing of S311, the
以上説明したように、第1の実施形態の画像処理装置は、連写による連続撮影がなされているときには、前コマで決定された補正量とテカリ補正領域を超えないように、最新のコマの補正量が設定される。また第1の実施形態の画像処理装置では、連写による連続撮影がなされているときには、前コマで決定されたテカリ補正領域の面積より広くしないように、最新のテカリ補正領域の面積が設定される。これにより、第1の実施形態の画像処理装置によれば、連続撮影中に顔検出や器官検出ができなかった場合や口開閉等による補正対象領域が変化しても、撮影画像毎のテカリ補正処理のばらつきを軽減することができる。 As described above, the image processing apparatus of the first embodiment has the latest frame so as not to exceed the correction amount and the shine correction area determined in the previous frame when continuous shooting by continuous shooting is performed. The correction amount is set. Further, in the image processing apparatus of the first embodiment, when continuous shooting is performed by continuous shooting, the area of the latest shiny correction area is set so as not to be wider than the area of the shiny correction area determined in the previous frame. To. As a result, according to the image processing apparatus of the first embodiment, even if face detection or organ detection cannot be performed during continuous shooting, or even if the correction target area changes due to opening and closing of the mouth, etc., the shine correction for each shot image is performed. It is possible to reduce the variation in processing.
[第2の実施形態]
次に、第2の実施形態について説明する。第2の実施形態におけるテカリ補正処理の処理フローは図1と同様であり、また、デジタルカメラ217の構成は図2と同様であるためそれらの図示と同一の処理の説明は省略する。図8は、第2の実施形態に係るテカリ補正処理のフローチャートを示す。以下、図1、図2、及び図8を参照して、第2の実施形態の画像処理部208におけるテカリ補正処理を説明する。なお、図8のフローチャートにおいて、S801からS806までの処理は、図3のS301からS306までの処理と同じであるため、それらの説明は省略する。図8のフローチャートにおいて、S806におけるテカリ補正色の算出処理の後、画像処理部208は、S807に処理を進める。
[Second Embodiment]
Next, the second embodiment will be described. Since the processing flow of the shine correction processing in the second embodiment is the same as that in FIG. 1 and the configuration of the
S807に進むと、画像処理部208は、連写により撮影された各撮影画像と、各撮影画像においてS804で算出したテカリ補正特性、S805で算出したテカリ補正領域、S806で算出したテカリ補正色の情報を、メモリ207に記録させる。つまり、メモリ207には、連写撮影開始以降の一連の各撮影画像と、それら各撮影画像についてそれぞれ算出されたテカリ補正特性、テカリ補正領域、テカリ補正色の情報とが記録される。
Proceeding to S807, the
次に、S808の処理として、画像処理部208は、図3のS312と同様に撮影が終了したか否か判定し、撮影が終了していない場合にはS801に処理を戻し、撮影が終了したと判定した場合にはS809に処理を進める。
Next, as the processing of S808, the
S809に進むと、画像処理部208は、S807でメモリ207に記録されている、連写撮影による一連の各撮影画像に各々対応した各テカリ補正特性の中から、補正ゲインC(最大補正量)が最小となっているテカリ補正特性を選択する。
また、画像処理部208は、メモリ207に記録されている各撮影画像に対応した各テカリ補正領域の中で、テカリ補正領域の面積が最小(最も狭い)のテカリ補正領域を選択する。
Proceeding to S809, the
Further, the
次に、S810の処理として、画像処理部208は、S809で選択された補正ゲインCが最小のテカリ補正特性と、面積が最小のテカリ補正領域とを用いて、メモリ207に記録されている全ての撮影画像(全連写画像)に対するテカリ補正処理を行う。なお、画像処理部208は、テカリ補正処理に用いるテカリ補正色については、撮影画像毎に算出してメモリ207に記録してある補正色を使用する。テカリ補正処理については、第1の実施形態のS310と同様の処理とする。また、S810において、画像処理部208は、テカリ補正処理が行われた後の画像に対して、前述のS311と同様にガンマ補正処理、彩度補正、色相補正等の現像処理を行う。
Next, as the processing of S810, the
以上説明したように、第2の実施形態の画像処理装置は、連写の連続撮影により得られた一連の全撮影画像に同じテカリ補正特性及び同じ面積のテカリ補正領域を適用する。これにより、第2の実施形態の画像処理装置によれば、連続撮影中に発生する顔検出や器官検出の失敗や口の開閉等による補正対象領域の変化による撮影画像毎のテカリ補正処理のばらつきを軽減することができる。
なお、第2の実施形態では、デジタルカメラ217による連写中の動作を例に挙げて説明したが、例えばRAW現像アプリケーションソフト等を用いて、ユーザが選択した複数枚の連続撮影画像に対してテカリ補正処理を施す際に前述同様の手法を用いてもよい。
As described above, the image processing apparatus of the second embodiment applies the same shine correction characteristics and the same area of shine correction region to all the series of shot images obtained by continuous shooting of continuous shooting. As a result, according to the image processing apparatus of the second embodiment, there is a variation in the shine correction processing for each captured image due to a change in the correction target area due to a failure of face detection or organ detection that occurs during continuous imaging, opening and closing of the mouth, and the like. Can be reduced.
In the second embodiment, the operation during continuous shooting by the
<その他の実施形態>
以上、本発明の好ましい実施形態について説明したが、本発明は前述した実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。前述の実施形態では、所定の被写体の画像領域として顔画像の肌色領域に対するテカリ補正処理の例を挙げたが、本発明は顔画像の肌色領域のテカリ補正処理には限定されない。一例として、所定の被写体として自動車等を連写等した画像について、自動車の車体の高輝度領域(テカリ領域)を補正する場合などにも適用可能である。
<Other embodiments>
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications and changes can be made within the scope of the gist thereof. In the above-described embodiment, an example of the shine correction process for the skin color region of the face image is given as an image region of a predetermined subject, but the present invention is not limited to the shine correction process for the skin color region of the face image. As an example, it can be applied to a case where a high-luminance region (shiny region) of an automobile body is corrected for an image in which an automobile or the like is continuously shot as a predetermined subject.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-mentioned embodiments are merely examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from its technical idea or its main features.
101:顔検出回路、102:器官検出回路、103:ブロック積分回路、104:輝度値算出回路、105:補正特性決定回路、106:補正領域算出回路、107:補正色算出回路、208:画像処理部 101: Face detection circuit, 102: Organ detection circuit, 103: Block integration circuit, 104: Luminance value calculation circuit, 105: Correction characteristic determination circuit, 106: Correction area calculation circuit, 107: Correction color calculation circuit, 208: Image processing Department
Claims (12)
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正手段と、を有し、
前記補正手段は、連続した撮影で得られた撮影画像について生成する前記補正量が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で生成された補正量を超えないようにすることを特徴とする画像処理装置。 A detection means for detecting an image area of a predetermined subject from a captured image,
It has a correction means for generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
The correction means ensures that the correction amount generated for the captured images obtained by continuous shooting does not exceed the correction amount generated for the captured image captured before the captured image during the continuous shooting. An image processing device characterized by this.
前記決定手段は、前記連続した撮影で得られた撮影画像について決定した前記補正領域の面積が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で決定した補正領域の面積より狭められた場合には、前記面積が狭められた撮影画像より以降の撮影画像に対する補正領域の面積を、前記狭められた面積より広くしないようにすることを特徴とする請求項1に記載の画像処理装置。 The correction means has a determination means for determining a correction region that can be the target of the shine correction.
In the determination means, the area of the correction region determined for the captured images obtained by the continuous imaging is narrower than the area of the correction region determined for the captured image captured before the captured image during the continuous imaging. If this is the case, the image processing according to claim 1, wherein the area of the correction area for the captured image after the captured image whose area is narrowed is not wider than the narrowed area. Device.
前記決定手段は、前記所定の被写体の画像領域の中に前記補正領域を決定する際、前記要素の検出結果に応じて前記補正領域の面積を決定することを特徴とする請求項2又は3に記載の画像処理装置。 The detection means detects a plurality of elements constituting the predetermined subject, and detects the plurality of elements.
2. The image processing device described.
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正手段と、を有し、
前記補正手段は、連続した撮影で得られた一連の各撮影画像について各々生成された補正量のうち最も小さい補正量を用いて、前記一連の全ての撮影画像に対する前記テカリ補正を行うことを特徴とする画像処理装置。 A detection means for detecting an image area of a predetermined subject from a captured image,
It has a correction means for generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
The correction means is characterized in that the shiny correction is performed on all the shot images in the series by using the smallest correction amount among the correction amounts generated for each shot image in the series obtained by continuous shooting. Image processing device.
前記決定手段は、前記一連の各撮影画像について各々決定された前記補正領域の面積のなかで最も面積が狭い補正領域を、前記一連の全ての撮影画像に適用する前記補正領域の面積とすることを特徴とする請求項5に記載の画像処理装置。 The correction means has a determination means for determining a correction region that can be the target of the shine correction.
The determination means sets the correction region having the smallest area among the areas of the correction regions determined for each of the series of captured images as the area of the correction region applied to all the captured images of the series. The image processing apparatus according to claim 5.
前記決定手段は、前記検出された顔と前記器官を基に、前記補正領域を決定することを特徴とする請求項2又は6に記載の画像処理装置。 The detecting means includes a face detecting means for detecting an area of a human face as an image area of the predetermined subject, and an organ detecting means for detecting a plurality of organs constituting the face.
The image processing apparatus according to claim 2 or 6 , wherein the determination means determines the correction region based on the detected face and the organ.
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正工程と、を有し、
前記補正工程では、連続した撮影で得られた撮影画像について生成する前記補正量が、前記連続した撮影時に前記撮影画像より前に撮影された撮影画像で生成された補正量を超えないようにすることを特徴とする画像処理装置の画像処理方法。 A detection process that detects an image area of a predetermined subject from a captured image,
It has a correction step of generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
In the correction step, the correction amount generated for the captured images obtained by continuous shooting does not exceed the correction amount generated for the captured image captured before the captured image during the continuous shooting. An image processing method of an image processing apparatus, characterized in that.
前記所定の被写体の画像領域のテカリ領域に対する補正量を生成し、前記生成した補正量を用いて前記テカリ領域にテカリ補正を行う補正工程と、を有し、
前記補正工程では、連続した撮影で得られた一連の各撮影画像について各々生成された補正量のうち最も小さい補正量を用いて、前記一連の全ての撮影画像に対する前記テカリ補正を行うことを特徴とする画像処理装置の画像処理方法。 A detection process that detects an image area of a predetermined subject from a captured image,
It has a correction step of generating a correction amount for a shiny region of an image region of a predetermined subject and performing a shiny correction on the shiny region using the generated correction amount.
The correction step is characterized in that the shiny correction is performed on all the shot images in the series by using the smallest correction amount among the correction amounts generated for each shot image in the series obtained by continuous shooting. The image processing method of the image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129206A JP6991750B2 (en) | 2017-06-30 | 2017-06-30 | Image processing equipment, image processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129206A JP6991750B2 (en) | 2017-06-30 | 2017-06-30 | Image processing equipment, image processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019012450A JP2019012450A (en) | 2019-01-24 |
JP6991750B2 true JP6991750B2 (en) | 2022-01-13 |
Family
ID=65227986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017129206A Active JP6991750B2 (en) | 2017-06-30 | 2017-06-30 | Image processing equipment, image processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6991750B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006157617A (en) | 2004-11-30 | 2006-06-15 | Canon Inc | Image pickup device |
JP2008278354A (en) | 2007-05-02 | 2008-11-13 | Fujifilm Corp | Imaging device |
JP2011044132A (en) | 2009-07-23 | 2011-03-03 | Casio Computer Co Ltd | Image processing apparatus, image processing method and image processing program |
JP2013017097A (en) | 2011-07-05 | 2013-01-24 | Canon Inc | Image processor and imaging apparatus |
-
2017
- 2017-06-30 JP JP2017129206A patent/JP6991750B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006157617A (en) | 2004-11-30 | 2006-06-15 | Canon Inc | Image pickup device |
JP2008278354A (en) | 2007-05-02 | 2008-11-13 | Fujifilm Corp | Imaging device |
JP2011044132A (en) | 2009-07-23 | 2011-03-03 | Casio Computer Co Ltd | Image processing apparatus, image processing method and image processing program |
JP2013017097A (en) | 2011-07-05 | 2013-01-24 | Canon Inc | Image processor and imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2019012450A (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111385482B (en) | Image processing apparatus, control method thereof, and machine-readable medium | |
TWI425826B (en) | Image selection device and method for selecting image | |
KR101036858B1 (en) | Image processing apparatus, image processing method, and storage medium for storing program | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
US9779290B2 (en) | Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images | |
US8446510B2 (en) | Method and apparatus for improving face image in digital image processor | |
JP7039183B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6412386B2 (en) | Image processing apparatus, control method therefor, program, and recording medium | |
JP6904788B2 (en) | Image processing equipment, image processing methods, and programs | |
US11019254B2 (en) | Image processing apparatus, control method for image processing apparatus, and storage medium having correction of effect of virtual light source | |
CN110324529B (en) | Image processing apparatus and control method thereof | |
JP6718253B2 (en) | Image processing apparatus and image processing method | |
JP2020102059A (en) | Image processor | |
US11069031B2 (en) | Image processing apparatus, control method for image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium to control reflected color components of input image | |
JP5245648B2 (en) | Image processing apparatus and program | |
JP6808482B2 (en) | Image processing equipment, image processing methods, and programs | |
JP6991750B2 (en) | Image processing equipment, image processing methods, and programs | |
CN116266877A (en) | Image processing apparatus and method, image capturing apparatus, and computer readable medium | |
JP5615012B2 (en) | White balance stable adjustment device and control method thereof, program for white balance stable adjustment | |
JP7442989B2 (en) | Imaging device, control method for the imaging device, and program | |
JP6980449B2 (en) | Image processing device, control method and program of image processing device | |
JP2018093359A (en) | Image processing apparatus, image processing method, and program | |
JP2015119436A (en) | Imaging apparatus | |
JP5393189B2 (en) | Imaging apparatus and image processing method | |
JP2017147535A (en) | White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211208 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6991750 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |