JP2018041203A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2018041203A
JP2018041203A JP2016173676A JP2016173676A JP2018041203A JP 2018041203 A JP2018041203 A JP 2018041203A JP 2016173676 A JP2016173676 A JP 2016173676A JP 2016173676 A JP2016173676 A JP 2016173676A JP 2018041203 A JP2018041203 A JP 2018041203A
Authority
JP
Japan
Prior art keywords
signal
image
correction
color
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016173676A
Other languages
Japanese (ja)
Other versions
JP6849351B2 (en
Inventor
洋 荻野
Hiroshi Ogino
洋 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016173676A priority Critical patent/JP6849351B2/en
Publication of JP2018041203A publication Critical patent/JP2018041203A/en
Application granted granted Critical
Publication of JP6849351B2 publication Critical patent/JP6849351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of obtaining an image with little coloring phenomenon by reducing brightness value in a high luminance region such as shininess generated on a pick-up image of a subject such as a person.SOLUTION: A shininess correction signal generation part (203) generates a correction signal for correcting a high luminance region on a subject such as a person based on an input image. A color suppression processing part (204) suppresses a color signal depending on the signal level of an input image. A shininess correct part (206) carries out a series of shininess correct processing on the image signal in which the color signal has been suppressed by the color suppression processing part (204) based on the correction signal generated by the shininess correction signal generation part (203).SELECTED DRAWING: Figure 2

Description

本発明は、画像信号を処理する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image signal.

従来、撮像装置において、被写体像を撮像して撮像信号を出力する撮像素子は、素子を構成する画素に一定レベル以上の強い光が入射されると、当該画素からの出力信号が飽和する。撮像素子により撮像された画像のうち、飽和した画素の領域はいわゆる白とび領域として認識される。特に、人物を撮像した場合において、肌の表面で反射した光により白とびが生ずると、肌の一部にいわゆる「テカリ」が発生し、その画像を見る者に不快な印象を与えることが多い。また、いわゆるベイヤー配列のように各画素がR(赤)、G(緑)、B(青)の特定の色信号しか出力しない撮像素子では、全ての色信号が飽和せずに特定の色信号のみ飽和することで色のバランスが崩れた着色現象が発生する場合がある。   2. Description of the Related Art Conventionally, in an image pickup device, an image pickup device that picks up a subject image and outputs an image pickup signal saturates an output signal from the pixel when strong light of a certain level or more is incident on a pixel constituting the device. Of the image captured by the image sensor, a saturated pixel region is recognized as a so-called whiteout region. In particular, when a person is imaged, when the overexposure occurs due to light reflected on the surface of the skin, so-called “shine” occurs in a part of the skin, which often gives an unpleasant impression to the viewer. . Further, in an image sensor that outputs only specific color signals of R (red), G (green), and B (blue), as in a so-called Bayer array, all color signals are not saturated and specific color signals are output. Only the saturation may cause a coloring phenomenon in which the color balance is lost.

このため、例えば特許文献1には、肌の一部のテカリを補正する技術が開示されている。特許文献1に記載の技術では、画像から特定の被写体(人物等)の画像領域(被写体領域)を検出し、その検出した被写体領域から被写体の主な色成分(肌色等)に近い領域、つまり肌色領域を検出する。そして、その肌色領域の輝度値を参照して輝度値が高い場合には、その輝度を下げるように補正する。また、特許文献2には、画像の輝度信号が一定値以上になるとゲインが下がるようなゲイン抑圧特性を用いて、色抑圧処理を行うことにより、着色現象を軽減する技術が開示されている。   For this reason, for example, Patent Document 1 discloses a technique for correcting a part of the skin. In the technique described in Patent Document 1, an image area (subject area) of a specific subject (person or the like) is detected from an image, and an area close to the main color component (skin color or the like) of the subject from the detected subject area, that is, Detect skin color area. If the luminance value is high with reference to the luminance value of the skin color area, the luminance value is corrected to be lowered. Patent Document 2 discloses a technique for reducing a coloring phenomenon by performing a color suppression process using a gain suppression characteristic in which the gain decreases when the luminance signal of an image exceeds a certain value.

特開2005−327009号公報JP-A-2005-327209 特開平8−331584号公報JP-A-8-331584

しかしながら、特許文献1に記載の技術の場合は、着色現象が考慮されておらず、特定の色信号のみ飽和した領域では、輝度を下げるように補正を行った場合でも着色現象の影響が発生する。また、特許文献2に記載の色抑圧処理では、輝度値が高い場合に輝度値を下げるように補正した場合を考慮していないため、テカリが生ずる可能性がある。   However, in the case of the technique described in Patent Document 1, the coloring phenomenon is not taken into consideration, and in a region where only a specific color signal is saturated, even if correction is performed so as to lower the luminance, the influence of the coloring phenomenon occurs. . Further, the color suppression processing described in Patent Document 2 does not consider the case where correction is performed so that the luminance value is lowered when the luminance value is high, and therefore, there is a possibility that shine occurs.

そこで、本発明は、人物等の被写体を撮影した際に生じるテカリのような高輝度領域の輝度値を低減し、また、着色現象を低減した画像を得ることを目的とする。   Therefore, an object of the present invention is to obtain an image in which the luminance value of a high luminance region such as shine caused when a subject such as a person is photographed is reduced and the coloring phenomenon is reduced.

本発明は、入力画像から、所定の被写体の高輝度領域を補正する補正信号を生成する生成手段と、前記入力画像の信号レベルに応じて色信号を抑圧する抑圧処理手段と、前記抑圧処理手段により色信号が抑圧された画像信号に対して、前記補正信号に基づく補正を行う補正手段と、を有することを特徴とする。   The present invention provides a generating unit that generates a correction signal for correcting a high luminance region of a predetermined subject from an input image, a suppression processing unit that suppresses a color signal in accordance with a signal level of the input image, and the suppression processing unit Correction means for performing correction based on the correction signal for the image signal in which the color signal is suppressed by the above.

本発明によれば、人物等の被写体を撮影した際にテカリのような高輝度領域の高輝度領域の輝度値を低減でき、また、着色現象を低減した画像を得ることが可能となる。   According to the present invention, when a subject such as a person is photographed, the luminance value of a high luminance region such as a shine can be reduced, and an image with a reduced coloring phenomenon can be obtained.

本実施形態のデジタルカメラの概略構成例を示すブロック図である。It is a block diagram which shows the schematic structural example of the digital camera of this embodiment. 画像処理部の概略構成例を示すブロック図である。It is a block diagram which shows the schematic structural example of an image process part. 画像処理部における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in an image process part. 輝度信号と輝度ゲインの特性の一例を示す図である。It is a figure which shows an example of the characteristic of a luminance signal and a luminance gain. 輝度信号と色抑圧ゲインの特性の一例を示す図である。It is a figure which shows an example of the characteristic of a luminance signal and a color suppression gain.

以下、本発明の一実施形態を、添付の図面に基づいて詳細に説明する。本実施形態の画像処理装置は、デジタルカメラやデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末、工業用カメラ、車載カメラ、医療用カメラ等に適用可能である。本実施形態では、画像処理装置の一適用例として、デジタルカメラを例に挙げて説明する。本実施形態のデジタルカメラは、撮像した画像のうち、例えば光源から照射された光が被写体の表面で反射することにより生じる高輝度領域を補正する機能を有する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The image processing apparatus of the present embodiment can be applied to digital cameras, digital video cameras, various mobile terminals such as smartphones and tablet terminals having camera functions, industrial cameras, in-vehicle cameras, medical cameras, and the like. In the present embodiment, a digital camera will be described as an application example of the image processing apparatus. The digital camera according to the present embodiment has a function of correcting a high-luminance region that is generated when, for example, light emitted from a light source is reflected on the surface of a subject among captured images.

図1は、本実施形態のデジタルカメラ100の概略構成例を示すブロック図である。
図1において、レンズ群101は、ズームレンズ、フォーカスレンズを含む。シャッタ部102は、絞りとシャッタを有している。撮像部103は、レンズ群101により撮像面上に結像された光学像を電気信号(アナログ画像信号)に変換するCCDやCMOS素子等を有して構成されている。撮像部103は、いわゆるベイヤー配列に対応した赤(R),緑(G),青(B)のカラーフィルタをも備えている。A/D変換部104は、撮像部103から出力されたアナログ画像信号をデジタル画像信号(以下、画像データと表記する。)に変換する。画像処理部105は、A/D変換部104から出力された画像データに対し、ホワイトバランス処理や、ガンマ(γ)処理、輪郭強調、色補正処理等の各種画像処理を行う。メモリ制御部107は、画像メモリ106に対する画像データの書き込みや読み出しを制御する。D/A変換部108は、入力された画像データをアナログ画像信号に変換する。表示部109は例えば液晶ディスプレイ(LCD)からなり、そのLCDの画面に画像等を表示する。コーデック部110は、画像データを圧縮符号化し、また、圧縮符号化されたデータを伸張復号化する。I/F部111は、記録媒体112との間のインターフェース部である。記録媒体112はメモリカードやハードディスク等からなり、デジタルカメラ100に着脱可能となされている。顔検出部113は、撮影画像の中から所定の被写体として例えば顔が写っている画像領域(被写体領域)を検出する。システム制御部114は、デジタルカメラ100のシステム全体を制御する。操作部115は、ユーザからの各種の操作指示を入力するためのユーザインターフェース部である。不揮発性メモリ116は、EEPROM等からなり、本実施形態に係るプログラムやパラメータ等を格納する。システムメモリ117は、システム制御部114の動作用の定数、変数、不揮発性メモリ116から読み出したプログラム等を展開するためのメモリである。
FIG. 1 is a block diagram illustrating a schematic configuration example of a digital camera 100 according to the present embodiment.
In FIG. 1, a lens group 101 includes a zoom lens and a focus lens. The shutter unit 102 has a diaphragm and a shutter. The imaging unit 103 includes a CCD, a CMOS element, or the like that converts an optical image formed on the imaging surface by the lens group 101 into an electrical signal (analog image signal). The imaging unit 103 also includes red (R), green (G), and blue (B) color filters corresponding to a so-called Bayer array. The A / D conversion unit 104 converts the analog image signal output from the imaging unit 103 into a digital image signal (hereinafter referred to as image data). The image processing unit 105 performs various types of image processing such as white balance processing, gamma (γ) processing, edge enhancement, and color correction processing on the image data output from the A / D conversion unit 104. A memory control unit 107 controls writing and reading of image data to and from the image memory 106. The D / A converter 108 converts the input image data into an analog image signal. The display unit 109 includes, for example, a liquid crystal display (LCD), and displays an image or the like on the LCD screen. The codec unit 110 compresses and encodes image data, and decompresses and decodes the compressed and encoded data. The I / F unit 111 is an interface unit with the recording medium 112. The recording medium 112 includes a memory card, a hard disk, and the like, and is detachable from the digital camera 100. The face detection unit 113 detects an image region (subject region) in which, for example, a face is captured as a predetermined subject from the captured image. The system control unit 114 controls the entire system of the digital camera 100. The operation unit 115 is a user interface unit for inputting various operation instructions from the user. The nonvolatile memory 116 is composed of an EEPROM or the like, and stores programs, parameters, and the like according to the present embodiment. The system memory 117 is a memory for developing constants and variables for operation of the system control unit 114, programs read from the nonvolatile memory 116, and the like.

以下、図1に示した本実施形態のデジタルカメラ100における被写体撮像時の基本的な処理の流れについて説明する。
撮像部103は、レンズ群101及びシャッタ部102を介して入射した光を光電変換し、アナログ画像信号としてA/D変換部104へ出力する。A/D変換部104は、撮像部103から送られてきたアナログ画像信号を、デジタル画像データに変換して画像処理部105やメモリ制御部107に出力する。
Hereinafter, a basic processing flow at the time of subject imaging in the digital camera 100 of the present embodiment illustrated in FIG. 1 will be described.
The imaging unit 103 photoelectrically converts light incident through the lens group 101 and the shutter unit 102 and outputs the converted light to the A / D conversion unit 104 as an analog image signal. The A / D conversion unit 104 converts the analog image signal sent from the imaging unit 103 into digital image data and outputs the digital image data to the image processing unit 105 or the memory control unit 107.

画像処理部105には、A/D変換部104から供給された画像データ、又は、メモリ制御部107から供給された画像データが、入力画像の画像データとして供給される。画像処理部105は、これら入力画像データに対し、ホワイトバランス等の色変換処理、ガンマ処理、輪郭強調処理等を行う。本実施形態の場合、画像処理部105は、後述する高輝度領域の補正処理(テカリ補正処理)も行う。なお、画像処理部105の詳細な説明は後述する。   The image processing unit 105 is supplied with the image data supplied from the A / D conversion unit 104 or the image data supplied from the memory control unit 107 as image data of the input image. The image processing unit 105 performs color conversion processing such as white balance, gamma processing, contour enhancement processing, and the like on these input image data. In the case of the present embodiment, the image processing unit 105 also performs correction processing (shine correction processing) for a high-luminance area described later. The detailed description of the image processing unit 105 will be described later.

また、画像処理部105は、顔検出部113による顔検出結果の情報(入力画像の中で顔の画像領域を示す情報)や撮像により得られた画像データを用いて、所定の評価値算出処理を行う。評価値算出結果の情報は、システム制御部114に送られる。システム制御部114は、評価値算出結果の情報に基づいて、顔等の被写体に露出を合わせる露光制御やピントを合わせる測距制御等を行う。具体的には、システム制御部114は、いわゆるTTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等を行う。露光制御や測距制御等を行う際に用いられる評価値とその算出処理については公知の様々な技術を用いることができ、ここではそれらの説明及び図示は省略する。   Further, the image processing unit 105 uses a face detection result information by the face detection unit 113 (information indicating a face image area in the input image) and image data obtained by imaging to perform a predetermined evaluation value calculation process. I do. Information on the evaluation value calculation result is sent to the system control unit 114. Based on the evaluation value calculation result information, the system control unit 114 performs exposure control for adjusting exposure to a subject such as a face, distance measurement control for focusing, and the like. Specifically, the system control unit 114 performs a so-called TTL (through-the-lens) AF (autofocus) process, AE (automatic exposure) process, AWB (auto white balance) process, and the like. Various known techniques can be used for the evaluation value and its calculation process used when performing exposure control, distance measurement control, and the like, and the description and illustration thereof are omitted here.

画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、撮像部103で撮像されてA/D変換部104から出力された画像データや、画像処理部105による画像処理後の画像データ、表示部109に表示するための画像データ等を格納する。   The image data output from the image processing unit 105 is written into the image memory 106 via the memory control unit 107. The image memory 106 captures image data captured by the imaging unit 103 and output from the A / D conversion unit 104, image data after image processing by the image processing unit 105, image data to be displayed on the display unit 109, and the like. Store.

D/A変換部108は、画像メモリ106に格納されている画像表示用のデータをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示器上に、D/A変換部108からのアナログ信号に応じた画像等を表示する。   The D / A conversion unit 108 converts the image display data stored in the image memory 106 into an analog signal and supplies the analog signal to the display unit 109. The display unit 109 displays an image or the like corresponding to the analog signal from the D / A conversion unit 108 on a display device such as an LCD.

コーデック部110は、画像メモリ106に記録された画像データを、いわゆるJPEGやMPEG等の規格に基づいてそれぞれ圧縮符号化する。システム制御部114は、コーデック部110で符号化された画像データを、I/F部111を介して記録媒体112に記録させる。   The codec unit 110 compresses and encodes the image data recorded in the image memory 106 based on a standard such as so-called JPEG or MPEG. The system control unit 114 records the image data encoded by the codec unit 110 on the recording medium 112 via the I / F unit 111.

以上が、本実施形態のデジタルカメラ100における被写体撮影時の基本動作である。上述した基本動作以外に、システム制御部114は、前述した不揮発性メモリ116に格納されているプログラムを実行することにより、後述する本実施形態の各処理を実現する。ここでいうプログラムとは、本実施形態にて後述する各フローチャートの処理等を実行するためのプログラムのことである。この際、システム制御部114の動作用の定数、変数、不揮発性メモリ116から読み出したプログラム等がシステムメモリ117に展開される。   The above is the basic operation when shooting an object in the digital camera 100 of the present embodiment. In addition to the basic operations described above, the system control unit 114 implements each process of the present embodiment, which will be described later, by executing a program stored in the nonvolatile memory 116 described above. The program here is a program for executing processing of each flowchart described later in the present embodiment. At this time, constants, variables for operation of the system control unit 114, programs read from the nonvolatile memory 116, and the like are expanded in the system memory 117.

以下、画像処理部105の詳細について、図2を用いて説明する。図2は、画像処理部105の概略構成を示すブロック図である。
図2において、画像処理部105は、同時化処理部200、WB処理部201、輝度色差信号変換部202、テカリ補正信号生成部203(以下、補正信号生成部203と表記する。)、色抑圧処理部204を有する。さらに、画像処理部105は、輪郭強調処理部205、RGB信号変換部206、テカリ補正部207、ガンマ処理部208、輝度色差信号変換部209をも有する。
Details of the image processing unit 105 will be described below with reference to FIG. FIG. 2 is a block diagram illustrating a schematic configuration of the image processing unit 105.
In FIG. 2, the image processing unit 105 includes a synchronization processing unit 200, a WB processing unit 201, a luminance / color difference signal conversion unit 202, a shine correction signal generation unit 203 (hereinafter referred to as a correction signal generation unit 203), and color suppression. A processing unit 204 is included. Furthermore, the image processing unit 105 also includes an edge enhancement processing unit 205, an RGB signal conversion unit 206, a shine correction unit 207, a gamma processing unit 208, and a luminance / color difference signal conversion unit 209.

図2に示した画像処理部105の各部の動作と、画像処理部105における処理の流れとを、図3のフローチャートを用いて説明する。
図3のステップS301では、画像処理部105に入力された画像データが、同時化処理部200に入力される。そして、ステップS301において、同時化処理部200は、ベイヤー配列に対応したRGBの入力画像データに対して同時化処理を行う。同時化処理部200での同時化処理部で生成されたR,G,Bの各色信号(以下、R,G,B信号と表記する。)は、WB処理部201に送られる。ステップS301の後、画像処理部105の処理は、ステップS302に進む。
The operation of each unit of the image processing unit 105 shown in FIG. 2 and the flow of processing in the image processing unit 105 will be described with reference to the flowchart of FIG.
In step S <b> 301 of FIG. 3, the image data input to the image processing unit 105 is input to the synchronization processing unit 200. In step S301, the synchronization processing unit 200 performs a synchronization process on the RGB input image data corresponding to the Bayer array. The R, G, and B color signals generated by the synchronization processing unit in the synchronization processing unit 200 (hereinafter referred to as R, G, and B signals) are sent to the WB processing unit 201. After step S301, the processing of the image processing unit 105 proceeds to step S302.

ステップS302では、WB処理部201は、システム制御部114にて算出されたホワイトバランスゲイン値に基づき、同時化処理部200から送られてきたR,G,B信号にゲインをかけて、ホワイトバランス調整処理を行う。WB処理部201でホワイトバランスが調整されたR,G,B信号は、輝度色差信号変換部202と補正信号生成部203にそれぞれ送られる。ステップS302の後、画像処理部105の処理は、ステップS303に進む。   In step S302, the WB processing unit 201 applies a gain to the R, G, and B signals sent from the synchronization processing unit 200 based on the white balance gain value calculated by the system control unit 114, and performs white balance. Perform the adjustment process. The R, G, and B signals whose white balance has been adjusted by the WB processing unit 201 are sent to the luminance / color difference signal conversion unit 202 and the correction signal generation unit 203, respectively. After step S302, the processing of the image processing unit 105 proceeds to step S303.

ステップS303では、輝度色差信号変換部202は、ホワイトバランス調整後のR,G,B信号を、輝度信号Yと色差信号R−Y,B−Yに変換する。輝度色差信号変換部202で変換された輝度信号Yは、補正信号生成部203、色抑圧処理部204、輪郭強調処理部205へそれぞれ送られ、色差信号R−Y,B−Yは、色抑圧処理部204へ送られる。ステップS303の後、画像処理部105の処理は、ステップS304に進む。   In step S303, the luminance / color difference signal conversion unit 202 converts the R, G, and B signals after white balance adjustment into a luminance signal Y and color difference signals RY and BY. The luminance signal Y converted by the luminance / chrominance signal conversion unit 202 is sent to the correction signal generation unit 203, the color suppression processing unit 204, and the contour enhancement processing unit 205, respectively, and the color difference signals RY and BY are color suppression. It is sent to the processing unit 204. After step S303, the processing of the image processing unit 105 proceeds to step S304.

ステップS304では、補正信号生成部203は、供給された輝度信号Yから、被写体の顔の画像領域(以下、顔領域と表記する。)内の高輝度領域を抽出する。そして、補正信号生成部203は、その高輝度領域を補正する際に使用されるテカリ補正信号を生成する処理(テカリ補正信号生成処理)を行う。具体的には、補正信号生成部203は、顔検出部113で検出された顔領域に対して、顔領域内の各画素のR,G,B信号からその顔領域の特性に基づく色信号比率を決定し、その色信号比率に基づいてテカリ補正信号を生成する。   In step S304, the correction signal generation unit 203 extracts from the supplied luminance signal Y a high-luminance area in the image area of the subject's face (hereinafter referred to as a face area). Then, the correction signal generation unit 203 performs processing for generating a shine correction signal used when correcting the high luminance region (shine correction signal generation processing). Specifically, the correction signal generation unit 203 compares the color signal ratio based on the characteristics of the face area from the R, G, and B signals of each pixel in the face area with respect to the face area detected by the face detection unit 113. And a shine correction signal is generated based on the color signal ratio.

より詳細に説明すると、補正信号生成部203は、先ず、顔領域内の各画素のR,G,B信号から肌色の補色信号を算出する。例えば、顔領域内のR,G,B信号の平均値をそれぞれAveR,AveG,AveBとし、R,G,B信号がそれぞれ0〜255の範囲の値をとるとすると、肌色の補色信号Rs,Gs,Bsは、式(1)により求めることができる。この顔領域内のR,G,B信号の平均値AveR,AveG,AveBが、顔領域の特性に基づく色信号比率を表している。   More specifically, the correction signal generation unit 203 first calculates a skin color complementary color signal from the R, G, and B signals of each pixel in the face area. For example, assuming that the average values of the R, G, and B signals in the face area are AveR, AveG, and AveB, and the R, G, and B signals have values in the range of 0 to 255, respectively, the skin color complementary color signals Rs, Gs and Bs can be obtained by Expression (1). The average values AveR, AveG, and AveB of the R, G, and B signals in the face area represent the color signal ratio based on the characteristics of the face area.

Rs=255−AveR
Gs=255−AveG 式(1)
Bs=255−AveB
Rs = 255−AveR
Gs = 255−AveG Formula (1)
Bs = 255−AveB

さらに、補正信号生成部203は、輝度信号Yを参照し、その輝度信号Yの信号レベル(以下、輝度レベルと表記する。)に応じて、顔領域から高輝度領域を抽出するための輝度ゲイン信号Kyを求める。そして、補正信号生成部203は、その輝度ゲイン信号Kyを、式(2)のように肌色の補色信号Rs,Gs,Bsに乗算することにより、テカリ補正信号Rh,Gh,Bhを算出する。   Further, the correction signal generation unit 203 refers to the luminance signal Y, and a luminance gain for extracting a high luminance region from the face region according to the signal level of the luminance signal Y (hereinafter referred to as luminance level). The signal Ky is obtained. Then, the correction signal generation unit 203 multiplies the skin color complementary color signals Rs, Gs, and Bs by the luminance gain signal Ky as shown in Expression (2), thereby calculating the shine correction signals Rh, Gh, and Bh.

Rh=Ky×Rs
Gh=Ky×Gs 式(2)
Bh=Ky×Bs
Rh = Ky × Rs
Gh = Ky × Gs Formula (2)
Bh = Ky × Bs

ここで、図4は、補正信号生成部203が、輝度信号Yから輝度ゲイン信号Kyを求める際の変換テーブルの一例を示す図である。図4において、横軸は輝度信号Y、縦軸は輝度ゲイン信号Kyを示す。この図4に示す変換テーブルを用いることで、補正信号生成部203は、輝度信号Yが所定の閾値Th0より小さく、テカリが発生していないと見なせる場合には、輝度ゲイン信号Kyとして"0.0"の値を得る。この場合、テカリ補正信号Rh,Gh,Bhはそれぞれ"0"となり、後段のテカリ補正部207ではテカリ補正処理は行われないことになる。一方、補正信号生成部203は、輝度信号Yが所定の閾値Th1(Th1>Th0)より大きく、テカリが発生し被写体が白とびしている場合には、輝度ゲイン信号Kyとして"1.0"を得る。この場合、テカリ補正信号Rh,Gh,Bhは、それぞれ肌色の補色信号Rs,Gs,Bsに応じた信号となり、後段のテカリ補正部207では肌色の補色信号Rs,Gs,Bsに応じたテカリ補正処理が行われることになる。また、補正信号生成部203は、輝度信号Yが閾値Th0とTh1の間であり、白とびはしていないが肌のテカリが目立つ輝度レベルである場合には、その輝度レベルに応じた"0.0"〜"1.0"の間の値を輝度ゲイン信号Kyとして得る。この場合、テカリ補正信号Rh,Gh,Bhは、肌色の補色信号Rs,Gs,Bsと輝度ゲイン信号Kyとを乗算した信号になり、後段のテカリ補正部207ではその乗算信号に応じたテカリ補正処理が行われることになる。   Here, FIG. 4 is a diagram illustrating an example of a conversion table when the correction signal generation unit 203 obtains the luminance gain signal Ky from the luminance signal Y. In FIG. 4, the horizontal axis represents the luminance signal Y, and the vertical axis represents the luminance gain signal Ky. By using the conversion table shown in FIG. 4, when the luminance signal Y is smaller than the predetermined threshold Th0 and it can be assumed that no shine has occurred, the correction signal generation unit 203 uses “0. A value of 0 "is obtained. In this case, the shine correction signals Rh, Gh, and Bh are “0”, respectively, and the shine correction process is not performed in the subsequent proof correction unit 207. On the other hand, when the luminance signal Y is larger than the predetermined threshold Th1 (Th1> Th0), the shine is generated and the subject is overexposed, the correction signal generation unit 203 sets “1.0” as the luminance gain signal Ky. Get. In this case, the shine correction signals Rh, Gh, and Bh are signals corresponding to the skin color complementary color signals Rs, Gs, and Bs, respectively, and the subsequent shine correction unit 207 corrects the skin color according to the skin color complementary color signals Rs, Gs, and Bs. Processing will be performed. Further, when the luminance signal Y is between the threshold values Th0 and Th1, and the luminance signal Y is a luminance level at which skin shine is conspicuous, the correction signal generation unit 203 sets “0” according to the luminance level. A value between .0 "and" 1.0 "is obtained as the luminance gain signal Ky. In this case, the shine correction signals Rh, Gh, and Bh are signals obtained by multiplying the skin color complementary color signals Rs, Gs, and Bs by the luminance gain signal Ky, and the subsequent shine correction unit 207 corrects the shine correction according to the multiplication signal. Processing will be performed.

このように、補正信号生成部203は、輝度信号Yから輝度ゲイン信号Kyを生成し、その輝度ゲイン信号Kyを肌色の補色信号Rs,Gs,Bsに乗算することにより、テカリ補正信号Rh,Gh,Bhを算出している。つまり、テカリ補正信号Rh,Gh,Bhは、顔領域のうち、テカリ補正処理を行う必要がある高輝度領域に対して算出された信号となる。言い換えると、テカリ補正処理を行う必要がある高輝度領域は、顔領域の中から輝度レベルに応じて抽出された領域である。したがって、その輝度レベルに応じた輝度ゲイン信号Kyを用いて算出されたテカリ補正信号Rh,Gh,Bhは、高輝度領域のテカリ補正処理に適した信号であると言える。すなわち、補正信号生成部203は、テカリを補正する必要がある領域とテカリを補正する必要のない領域が自然な印象で切り替わるテカリ補正信号Rh,Gh,Bhを生成することが可能となる。補正信号生成部203で生成されたテカリ補正信号Rh,Gh,Bhは、テカリ補正部207へ送られる。ステップS304の後、画像処理部105の処理は、ステップS305に進む。   In this manner, the correction signal generation unit 203 generates the luminance gain signal Ky from the luminance signal Y, and multiplies the skin color complementary color signals Rs, Gs, and Bs by the luminance gain signal Ky, thereby correcting the shine correction signals Rh, Gh. , Bh are calculated. That is, the shine correction signals Rh, Gh, and Bh are signals calculated for a high luminance area that needs to be subjected to the shine correction process in the face area. In other words, the high brightness area that needs to be subjected to the shine correction process is an area extracted from the face area according to the brightness level. Therefore, it can be said that the shine correction signals Rh, Gh, Bh calculated using the luminance gain signal Ky corresponding to the luminance level are signals suitable for the shine correction processing in the high luminance region. That is, the correction signal generation unit 203 can generate the shine correction signals Rh, Gh, and Bh in which the area that needs to correct the shine and the area that does not need to be corrected are switched with a natural impression. The shine correction signals Rh, Gh, Bh generated by the correction signal generation unit 203 are sent to the shine correction unit 207. After step S304, the processing of the image processing unit 105 proceeds to step S305.

ステップS305では、色抑圧処理部204は、輝度色差信号変換部202で変換された色差信号R−Y,B−Yに対し、色抑圧処理を行う。具体的には、色抑圧処理部204は、輝度色差信号変換部202で変換された輝度信号Yに基づいて色抑圧ゲインを算出し、その算出した色抑圧ゲインを、入力された色差信号R−Y,B−Yに乗算することで、色抑圧処理がなされた色差信号を生成する。例えば、色抑圧ゲインをCSUP_GAINとすると、色抑圧処理のされた色差信号R−Y´,B−Y´は、それぞれ式(3)のように求めることができる。   In step S 305, the color suppression processing unit 204 performs color suppression processing on the color difference signals RY and BY converted by the luminance / color difference signal conversion unit 202. Specifically, the color suppression processing unit 204 calculates a color suppression gain based on the luminance signal Y converted by the luminance / chrominance signal conversion unit 202, and the calculated color suppression gain is input to the input color difference signal R−. By multiplying Y, BY, a color difference signal subjected to color suppression processing is generated. For example, when the color suppression gain is CSUP_GAIN, the color difference signals RY ′ and BY ′ subjected to the color suppression processing can be obtained as shown in Expression (3), respectively.

R−Y´=CSUP_GAIN×R―Y
B−Y´=CSUP_GAIN×B―Y 式(3)
R−Y ′ = CSUP_GAIN × R−Y
BY ′ = CSUP_GAIN × BY Equation (3)

ここで、図5は、色抑圧処理部204が、輝度信号Yから色抑圧ゲインCSUP_GAINを求める際の変換テーブルの一例を示す図である。図5において、横軸は輝度信号Y、縦軸は色抑圧ゲインCSUP_GAINを示す。色抑圧処理部204は、輝度信号Yが所定の閾値Th3より小さく、R,G,B信号の何れかが飽和することによる着色現象が発生しないと見なせる場合には、色抑圧ゲインCSUP_GAINとして"1.0"を得る。このため、色抑圧処理部204では色抑圧処理が行われない。一方、色抑圧処理部204は、輝度信号Yが所定の閾値Th4(Th4>Th3)より大きく、R,G,B信号の何れかが飽和することによる着色現象が発生していると見なせる場合には、色抑圧ゲインCSUP_GAINとして"0.0"を得る。この場合、色抑圧処理部204では色抑圧処理が行われることになり、着色現象の発生が抑えられる。また、色抑圧処理部204は、輝度信号Yが閾値Th3とTh4の間であり、着色現象が発生する可能性がある場合には、輝度信号Yの強度に応じた"1.0"〜"0.0"の間の値を色抑圧ゲインCSUP_GAINとする。この場合、色抑圧処理部204では、その色抑圧ゲインCSUP_GAINを色差信号R−Y,B−Yに乗算する色抑圧処理が行われることになる。ただし、この時の色抑圧ゲインCSUP_GAINは、輝度信号Yの強度に応じた"1.0"〜"0.0"の間の値であるため、着色現象が発生したとしても目立たないものに抑えられることになる。このように、色抑圧処理部204は、輝度信号Yを参照して色抑圧ゲインCSUP_GAINを生成して色抑圧処理を行うことにより、着色現象を低減することが可能である。   Here, FIG. 5 is a diagram illustrating an example of a conversion table when the color suppression processing unit 204 obtains the color suppression gain CSUP_GAIN from the luminance signal Y. In FIG. 5, the horizontal axis indicates the luminance signal Y, and the vertical axis indicates the color suppression gain CSUP_GAIN. When the luminance signal Y is smaller than the predetermined threshold Th3 and it can be considered that a coloring phenomenon due to saturation of any of the R, G, and B signals does not occur, the color suppression processing unit 204 sets “1” as the color suppression gain CSUP_GAIN. .0 ". For this reason, the color suppression processing unit 204 does not perform color suppression processing. On the other hand, when the luminance signal Y is larger than the predetermined threshold Th4 (Th4> Th3) and the color suppression processing unit 204 can assume that any coloring phenomenon due to saturation of any of the R, G, and B signals has occurred. Obtains “0.0” as the color suppression gain CSUP_GAIN. In this case, the color suppression processing unit 204 performs color suppression processing, and the occurrence of a coloring phenomenon is suppressed. In addition, the color suppression processing unit 204, if the luminance signal Y is between the threshold values Th3 and Th4 and there is a possibility that a coloring phenomenon may occur, “1.0” to “” depending on the intensity of the luminance signal Y. A value between 0.0 "is a color suppression gain CSUP_GAIN. In this case, the color suppression processing unit 204 performs color suppression processing for multiplying the color difference signals RY and BY by the color suppression gain CSUP_GAIN. However, since the color suppression gain CSUP_GAIN at this time is a value between “1.0” and “0.0” corresponding to the intensity of the luminance signal Y, it is suppressed to an inconspicuous even if a coloring phenomenon occurs. Will be. As described above, the color suppression processing unit 204 can reduce the coloring phenomenon by generating the color suppression gain CSUP_GAIN with reference to the luminance signal Y and performing the color suppression processing.

またこのとき、色抑圧処理部204は、補正信号生成部203において高輝度領域を抽出する際の閾値Th0,Th1を参照して、色抑圧ゲインCSUP_GAINを算出する際の閾値を決定してもよい。例えば、色抑圧処理部204は、色抑圧ゲインCSUP_GAINを求める際の閾値Th4を、高輝度領域を抽出する際の閾値Th1より小さく設定することで、テカリ補正を行う高輝度領域において着色現象の影響を無視することができるようになる。   At this time, the color suppression processing unit 204 may determine a threshold value for calculating the color suppression gain CSUP_GAIN with reference to the threshold values Th0 and Th1 when the correction signal generation unit 203 extracts the high luminance region. . For example, the color suppression processing unit 204 sets the threshold value Th4 when obtaining the color suppression gain CSUP_GAIN to be smaller than the threshold value Th1 when extracting the high-luminance region, so that the influence of the coloring phenomenon in the high-luminance region where the shine correction is performed. Can be ignored.

また例えば、色抑圧処理部204は、被写体領域が顔検出部113で検出した顔領域か否か、つまり被写体領域がテカリ補正の対象とすべき領域か否かで、色抑圧ゲインCSUP_GAINを求める際の閾値Th3と閾値Th4を調整してもよい。例えば、被写体領域が顔検出部113で検出された顔領域でない場合(テカリ補正の対象でない領域である場合)には、色抑圧ゲインCSUP_GAINを求める際の閾値Th3と閾値Th4を、例えばより高い値に調整する。この場合、輝度信号Yがより低い値であるときに、色抑圧ゲインCSUP_GAINが"1.0"になされて、色抑圧処理部204による色抑圧処理が行われないことになる。これにより、テカリ補正の対象でない領域に色抑圧処理が行われてしまって必要以上に彩度が低下してしまうのを防ぐことができるようになる。このように、色抑圧処理部204は、テカリ補正の対象とすべき領域か否かに応じて色抑圧処理の閾値を変えて色抑圧処理の特性を調整することにより、テカリ補正の対象でない領域に過度の色抑圧処理が行われてしまうことを防止できる。   Further, for example, when the color suppression processing unit 204 obtains the color suppression gain CSUP_GAIN depending on whether or not the subject region is a face region detected by the face detection unit 113, that is, whether or not the subject region is a region to be subjected to the shine correction. The threshold Th3 and the threshold Th4 may be adjusted. For example, when the subject area is not a face area detected by the face detection unit 113 (when it is an area that is not a target for shine correction), the threshold value Th3 and threshold value Th4 for obtaining the color suppression gain CSUP_GAIN are set to higher values, for example Adjust to. In this case, when the luminance signal Y has a lower value, the color suppression gain CSUP_GAIN is set to “1.0”, and the color suppression processing by the color suppression processing unit 204 is not performed. As a result, it is possible to prevent the saturation from being lowered more than necessary due to the color suppression processing being performed on the area that is not subject to the shine correction. As described above, the color suppression processing unit 204 adjusts the color suppression processing characteristics by changing the threshold value of the color suppression processing according to whether or not the region is to be the target of the shine correction, so that the region that is not the target of the shine correction It is possible to prevent excessive color suppression processing from being performed.

また同様に、色抑圧処理部204は、補正信号生成部203で算出した顔領域内のR,G,B信号の平均値AveR,AveG,AveBを参照して、肌色に近い色か否かで色抑圧ゲインCSUP_GAINを算出する際の閾値Th3,Th4を調整してもよい。例えば、顔検出部113で検出された顔領域内であっても肌色ではない領域については、色抑圧ゲインCSUP_GAINを求める際の閾値Th3と閾値Th4を、例えばより高い値に調整する。これにより、顔領域内であっても肌色ではない領域に色抑圧処理が行われてしまって必要以上に彩度が低下してしまうのを防ぐことができるようになる。このように、色抑圧処理部204は、顔領域内のR,G,B信号の平均値AveR,AveG,AveB、つまりテカリ補正信号生成時に用いた色信号比率に応じて色抑圧処理の特性を調整することで、肌色でない領域に色抑圧処理が行われるのを防止できる。   Similarly, the color suppression processing unit 204 refers to the average values AveR, AveG, and AveB of the R, G, and B signals in the face area calculated by the correction signal generation unit 203 to determine whether the color is close to the skin color. The thresholds Th3 and Th4 for calculating the color suppression gain CSUP_GAIN may be adjusted. For example, for a region that is not a skin color even within the face region detected by the face detection unit 113, the threshold value Th3 and the threshold value Th4 when obtaining the color suppression gain CSUP_GAIN are adjusted to higher values, for example. As a result, it is possible to prevent the saturation from being reduced more than necessary due to the color suppression processing being performed on the non-skin color area even within the face area. As described above, the color suppression processing unit 204 changes the characteristics of the color suppression processing according to the average values AveR, AveG, and AveB of the R, G, and B signals in the face area, that is, the color signal ratio used when the shine correction signal is generated. By adjusting, it is possible to prevent the color suppression process from being performed on the non-skin color area.

前述したようにして色抑圧処理部204で色抑圧処理が行われた色差信号R−Y´,B−Y´は、RGB信号変換部206に送られる。ステップS305の後、画像処理部105の処理は、ステップS306に進む。   The color difference signals RY ′ and BY ′ subjected to the color suppression processing by the color suppression processing unit 204 as described above are sent to the RGB signal conversion unit 206. After step S305, the processing of the image processing unit 105 proceeds to step S306.

ステップS306では、輪郭強調処理部205において輝度信号Yに対して輪郭強調処理が行われ、その輪郭強調された輝度信号Y´がRGB信号変換部206に送られる。ステップS306の後、画像処理部105の処理は、ステップS307に進む。   In step S <b> 306, the edge enhancement processing unit 205 performs edge enhancement processing on the luminance signal Y, and the edge-enhanced luminance signal Y ′ is sent to the RGB signal conversion unit 206. After step S306, the processing of the image processing unit 105 proceeds to step S307.

ステップS307では、RGB信号変換部206は、輪郭強調処理部205から供給された輝度信号Y´と色抑圧処理部204から供給された色差信号R−Y´,B−Y´とに対して、RGB信号変換処理を行う。このRGB信号変換処理による得られたR´,G´,B´信号は、テカリ補正部207に送られる。ステップS307の後、画像処理部105の処理は、ステップS308に進む。   In step S307, the RGB signal conversion unit 206 applies the luminance signal Y ′ supplied from the contour enhancement processing unit 205 and the color difference signals RY ′ and BY ′ supplied from the color suppression processing unit 204. Perform RGB signal conversion processing. The R ′, G ′, B ′ signals obtained by this RGB signal conversion processing are sent to the shine correction unit 207. After step S307, the processing of the image processing unit 105 proceeds to step S308.

ステップS308では、テカリ補正部207は、RGB信号変換部206から供給されたR´,G´,B´信号に対して、補正信号生成部203で生成されたテカリ補正信号Rh,Gh,Bhに基づくテカリ補正処理を行う。具体的には、テカリ補正の程度を調整するテカリ補正係数をαとすると、テカリ補正部207は、式(4)の演算を行うことにより、テカリ補正処理後のRt,Gt、Bt信号を生成する。なお、テカリ補正係数αは"0.0"〜"1.0"の範囲をとる値である。テカリ補正係数αは、操作部115を介したユーザからの指示に応じて適宜設定されてもよい。   In step S308, the shine correction unit 207 converts the R ′, G ′, and B ′ signals supplied from the RGB signal conversion unit 206 to the shine correction signals Rh, Gh, and Bh generated by the correction signal generation unit 203. Based on the shine correction process. Specifically, if the shine correction coefficient for adjusting the degree of shine correction is α, the shine correction unit 207 generates the Rt, Gt, and Bt signals after the shine correction process by performing the calculation of equation (4). To do. The shine correction coefficient α is a value that takes a range of “0.0” to “1.0”. The shine correction coefficient α may be appropriately set according to an instruction from the user via the operation unit 115.

Rt=R´−α×Rh
Gt=G´−α×Gh 式(4)
Bt=B´−α×Bh
Rt = R′−α × Rh
Gt = G′−α × Gh (4)
Bt = B′−α × Bh

このように、テカリ補正部207は、高輝度領域において肌の補色に基づいて算出したテカリ補正信号Rh,Gh,BhとR´,G´,B´信号の減算を行うことにより、テカリを低減したR,G,B信号を生成することが可能である。テカリ補正部207にてテカリ補正処理が行われて生成されたRt,Gt,Bt信号は、ガンマ処理部208へ送られる。ステップS308の後、画像処理部105の処理は、ステップS309に進む。   In this way, the shine correction unit 207 reduces shine by subtracting the shine correction signals Rh, Gh, Bh and R ′, G ′, B ′ signals calculated based on the complementary color of the skin in the high luminance region. R, G and B signals can be generated. The Rt, Gt, and Bt signals generated by the shine correction processing performed by the shine correction unit 207 are sent to the gamma processing unit 208. After step S308, the processing of the image processing unit 105 proceeds to step S309.

ステップS309では、ガンマ処理部208は、テカリ補正部207から供給されたRt,Gt,Bt信号に対してガンマ処理を行う。ガンマ処理部208によるガンマ処理後のRg,Gg,Bg信号は、輝度色差信号変換部209に送られる。ステップS309の後、画像処理部105の処理は、ステップS310に進む。   In step S309, the gamma processing unit 208 performs gamma processing on the Rt, Gt, and Bt signals supplied from the shine correction unit 207. The Rg, Gg, and Bg signals after the gamma processing by the gamma processing unit 208 are sent to the luminance / color difference signal conversion unit 209. After step S309, the processing of the image processing unit 105 proceeds to step S310.

ステップS310では、輝度色差信号変換部209は、ガンマ処理部208から供給されたRg,Gg,Bg信号を、輝度信号Yと色差信号R−Y,B−Yに変換する。輝度色差信号変換部209で変換された輝度信号Yと色差信号R−Y,B−Yは、コーデック部110に送られる。コーデック部110は、それら輝度信号Yと色差信号R−Y,B−Yを圧縮符号化する。その圧縮符号化されたデータは、I/F部111を介して記録媒体112に記録される。ステップS310の後、画像処理部105は、図3のフローチャートの処理を終了する。   In step S310, the luminance / color difference signal conversion unit 209 converts the Rg, Gg, and Bg signals supplied from the gamma processing unit 208 into a luminance signal Y and color difference signals RY and BY. The luminance signal Y and the color difference signals RY and BY converted by the luminance / color difference signal conversion unit 209 are sent to the codec unit 110. The codec unit 110 compresses and encodes the luminance signal Y and the color difference signals RY and BY. The compressed and encoded data is recorded on the recording medium 112 via the I / F unit 111. After step S310, the image processing unit 105 ends the process of the flowchart of FIG.

以上説明したように、本実施形態のデジタルカメラ100によれば、所定の被写体領域の高輝度領域に対するテカリ補正に用いるテカリ補正信号を生成している。そして、本実施形態のデジタルカメラ100は、入力画像の輝度レベルに応じて色信号を抑圧する特性が調整された色抑圧処理後の画像信号に対して、テカリ補正信号に基づくテカリ補正処理を行っている。これにより、本実施形態のデジタルカメラ100においては、人物等の被写体を撮影した際にテカリのような高輝度領域の高輝度領域の輝度値を低減でき、また、着色現象を低減した画像を得ることが可能である。   As described above, according to the digital camera 100 of the present embodiment, the shine correction signal used for the shine correction for the high luminance area of the predetermined subject area is generated. The digital camera 100 according to the present embodiment performs a shine correction process based on the shine correction signal on the image signal after the color suppression process in which the characteristic for suppressing the color signal is adjusted according to the luminance level of the input image. ing. As a result, in the digital camera 100 of the present embodiment, the brightness value of the high-brightness area such as the shine can be reduced when a subject such as a person is photographed, and an image with a reduced coloring phenomenon is obtained. It is possible.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、本発明は、上述の実施形態の各機能は回路(例えばASIC)とプログラムとの協働により実現することも可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. In the present invention, each function of the above-described embodiment can be realized by cooperation of a circuit (for example, ASIC) and a program.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 デジタルカメラ、103 撮像部、105 画像処理部、106 画像メモリ、110 コーデック部、113 顔検出部、114 システム制御部、115 操作部、116 不揮発性メモリ、117 システムメモリ、112 記録媒体、200 同時化処理部、201 WB処理部、202 輝度色差信号変換部、203 テカリ補正信号生成部、204 色抑圧処理部、205 輪郭強調処理部、206 RGB信号変換部、207 テカリ補正部、208 ガンマ処理部、209 輝度色差信号変換部   100 digital camera, 103 imaging unit, 105 image processing unit, 106 image memory, 110 codec unit, 113 face detection unit, 114 system control unit, 115 operation unit, 116 nonvolatile memory, 117 system memory, 112 recording medium, 200 simultaneously Processing unit, 201 WB processing unit, 202 luminance color difference signal conversion unit, 203 shine correction signal generation unit, 204 color suppression processing unit, 205 contour enhancement processing unit, 206 RGB signal conversion unit, 207 shine correction unit, 208 gamma processing unit 209 Luminance color difference signal converter

Claims (9)

入力画像から、所定の被写体の高輝度領域を補正する補正信号を生成する生成手段と、
前記入力画像の信号レベルに応じて色信号を抑圧する抑圧処理手段と、
前記抑圧処理手段により色信号が抑圧された画像信号に対して、前記補正信号に基づく補正を行う補正手段と、
を有することを特徴とする画像処理装置。
Generating means for generating a correction signal for correcting a high luminance area of a predetermined subject from an input image;
Suppression processing means for suppressing color signals according to the signal level of the input image;
Correction means for performing correction based on the correction signal for the image signal in which the color signal is suppressed by the suppression processing means;
An image processing apparatus comprising:
前記生成手段は、前記所定の被写体の特性に応じた色信号比率に基づいて、前記補正信号を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates the correction signal based on a color signal ratio corresponding to characteristics of the predetermined subject. 前記生成手段は、前記所定の被写体の画像領域の輝度レベルを基に、前記高輝度領域に対する前記補正信号を生成し、
前記抑圧処理手段は、前記補正信号が生成される際の前記輝度レベルに応じて、前記色信号を抑圧する特性を調整することを特徴とする請求項1又は2に記載の画像処理装置。
The generation means generates the correction signal for the high luminance area based on the luminance level of the image area of the predetermined subject,
The image processing apparatus according to claim 1, wherein the suppression processing unit adjusts a characteristic of suppressing the color signal in accordance with the luminance level when the correction signal is generated.
前記抑圧処理手段は、前記所定の被写体の画像領域か否かにより、色信号を抑圧する特性を調整することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the suppression processing unit adjusts a characteristic for suppressing a color signal depending on whether or not the image area is the predetermined subject. 前記抑圧処理手段は、前記色信号比率に応じて、前記色信号を抑圧する特性を調整することを特徴とする請求項2乃至4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the suppression processing unit adjusts a characteristic for suppressing the color signal in accordance with the color signal ratio. 前記生成手段は、前記所定の被写体の特性に応じた前記色信号比率を表す赤、緑、青の各色信号の平均値から、前記所定の被写体の特性に応じた補色信号を生成し、前記補色信号に対して、前記所定の被写体の画像領域の輝度レベルに応じた輝度ゲインを乗算することにより、前記補正信号を生成することを特徴とする請求項2乃至5の何れか1項に記載の画像処理装置。   The generating means generates a complementary color signal corresponding to the characteristic of the predetermined subject from an average value of each color signal of red, green, and blue representing the color signal ratio corresponding to the characteristic of the predetermined subject, and the complementary color 6. The correction signal according to claim 2, wherein the correction signal is generated by multiplying a signal by a luminance gain corresponding to a luminance level of an image area of the predetermined subject. Image processing device. 前記補正手段は、前記抑圧処理手段により前記抑圧がなされた後の画像信号の赤、緑、青の各色信号から、前記補正信号に対して所定の補正係数を乗算した各色信号を減算することにより、前記補正を行うことを特徴とする請求項6に記載の画像処理装置。   The correction unit subtracts each color signal obtained by multiplying the correction signal by a predetermined correction coefficient from each color signal of red, green, and blue of the image signal that has been subjected to the suppression by the suppression processing unit. The image processing apparatus according to claim 6, wherein the correction is performed. 入力画像から、所定の被写体の高輝度領域を補正する補正信号を生成する生成工程と、
前記入力画像の信号レベルに応じて色信号を抑圧する抑圧処理工程と、
前記抑圧処理工程により色信号が抑圧された画像信号に対して、前記補正信号に基づく補正を行う補正工程と、
を有することを特徴とする画像処理装置の画像処理方法。
Generating a correction signal for correcting a high-intensity region of a predetermined subject from an input image;
A suppression processing step of suppressing color signals according to the signal level of the input image;
A correction step of performing correction based on the correction signal for the image signal in which the color signal is suppressed by the suppression processing step;
An image processing method for an image processing apparatus, comprising:
コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 7.
JP2016173676A 2016-09-06 2016-09-06 Image processing equipment, image processing methods, and programs Active JP6849351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016173676A JP6849351B2 (en) 2016-09-06 2016-09-06 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173676A JP6849351B2 (en) 2016-09-06 2016-09-06 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2018041203A true JP2018041203A (en) 2018-03-15
JP6849351B2 JP6849351B2 (en) 2021-03-24

Family

ID=61626248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173676A Active JP6849351B2 (en) 2016-09-06 2016-09-06 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6849351B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226579A (en) * 2006-02-23 2007-09-06 Sanyo Electric Co Ltd Image processor, image processing program, and video image apparatus provided with image processor
JP2007312349A (en) * 2005-10-12 2007-11-29 Matsushita Electric Ind Co Ltd Visual processing device, display device, and integrated circuit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312349A (en) * 2005-10-12 2007-11-29 Matsushita Electric Ind Co Ltd Visual processing device, display device, and integrated circuit
JP2007226579A (en) * 2006-02-23 2007-09-06 Sanyo Electric Co Ltd Image processor, image processing program, and video image apparatus provided with image processor

Also Published As

Publication number Publication date
JP6849351B2 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
US9681026B2 (en) System and method for lens shading compensation
US10861136B2 (en) Image processing apparatus, image processing method, and storage medium
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
KR20120085077A (en) Image process method and apparatus
JP6720881B2 (en) Image processing apparatus and image processing method
JP2012010048A (en) Image signal processing device
WO2020029679A1 (en) Control method and apparatus, imaging device, electronic device and readable storage medium
US10929645B2 (en) Image processing apparatus, image processing method, and storage medium
JP2021128791A (en) Image processing apparatus, image processing method, and program
JP2010193099A (en) Image capturing apparatus and method of controlling the same
JP6873679B2 (en) Imaging device, control method and program of imaging device
JP6047686B2 (en) Imaging device
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP7247609B2 (en) Imaging device, imaging method and program
JP2013225724A (en) Imaging device, control method therefor, program, and storage medium
CN116266877A (en) Image processing apparatus and method, image capturing apparatus, and computer readable medium
JP2015080157A (en) Image processing device, image processing method and program
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2010183461A (en) Image capturing apparatus and method of controlling the same
JP6849351B2 (en) Image processing equipment, image processing methods, and programs
JP2015119436A (en) Imaging apparatus
JP2016213717A (en) Image processing apparatus, image processing method, program, and storage medium
JP2015037222A (en) Image processing apparatus, imaging apparatus, control method, and program
JP5091734B2 (en) Imaging apparatus and imaging method
JP2018026743A (en) Image processor, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R151 Written notification of patent or utility model registration

Ref document number: 6849351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151