JP4635884B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP4635884B2
JP4635884B2 JP2006018549A JP2006018549A JP4635884B2 JP 4635884 B2 JP4635884 B2 JP 4635884B2 JP 2006018549 A JP2006018549 A JP 2006018549A JP 2006018549 A JP2006018549 A JP 2006018549A JP 4635884 B2 JP4635884 B2 JP 4635884B2
Authority
JP
Japan
Prior art keywords
density
value
face area
original image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006018549A
Other languages
Japanese (ja)
Other versions
JP2007201857A (en
Inventor
俊策 利弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2006018549A priority Critical patent/JP4635884B2/en
Publication of JP2007201857A publication Critical patent/JP2007201857A/en
Application granted granted Critical
Publication of JP4635884B2 publication Critical patent/JP4635884B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、入力された原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める濃度演算処理部と、前記濃度演算処理部により演算導出された入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する濃度補正処理部とを備えてなる画像処理装置及びその方法に関する。   The present invention is based on a density calculation processing unit that obtains an arithmetic mean value of RGB components of each pixel of input original image data as an input pixel density value, and an input pixel density value calculated and derived by the density calculation processing unit. The present invention relates to an image processing apparatus including a density correction processing unit that performs density correction so that predetermined gradation characteristics can be obtained, and a method thereof.

一般に写真画像処理装置は、写真フィルムに形成された撮影画像をデジタル化するフィルムスキャナやデジタルスチルカメラなどのデジタル撮影機器によって撮影された画像データを原画像データとして入力するメディアドライブ等を備えた画像入力部と、当該原画像データに対して濃度補正や色補正等の種々の画像処理を施す画像処理部と、画像処理後に変換されたプリントデータに基づいて感光材料(印画紙)を露光して写真プリントを生成するプリント処理部を備えて構成される。   In general, a photographic image processing apparatus is an image provided with a media drive or the like for inputting image data taken by a digital photographing device such as a film scanner or a digital still camera that digitizes a photographed image formed on a photographic film as original image data. An input unit, an image processing unit that performs various image processing such as density correction and color correction on the original image data, and exposing a photosensitive material (photographic paper) based on print data converted after the image processing A print processing unit for generating a photographic print is provided.

上述の画像処理部では、良好な画質の写真プリントを得るために、入力された画像データの階調特性と感光材料の階調特性の差異等を考慮して人間の視覚特性に適したものになるように整合させる濃度補正処理が行なわれる。   The above-mentioned image processing unit is suitable for human visual characteristics in consideration of differences in gradation characteristics of input image data and gradation characteristics of photosensitive materials in order to obtain photographic prints with good image quality. Density correction processing for matching is performed.

このような濃度補正処理としては、入力画像データと出力画像データとが所定のガンマ特性を示す濃度特性曲線となるように補正処理されるのが一般であり、対象とする入力画像全体の濃度ヒストグラム等から得られる基準濃度補正値に基づいて濃度補正曲線が生成され、当該濃度補正曲線に基づいて入力画像データが変換処理される。   As such density correction processing, correction processing is generally performed so that input image data and output image data have a density characteristic curve exhibiting a predetermined gamma characteristic, and a density histogram of the entire target input image is obtained. A density correction curve is generated based on the reference density correction value obtained from the above, and the input image data is converted based on the density correction curve.

このような補正の基礎となる画素濃度値は、特許文献1に記載されているように、原画像データを構成する各画素のRGB成分の相加平均値として求められていた。   As described in Patent Document 1, the pixel density value that is the basis of such correction has been obtained as an arithmetic average value of the RGB components of each pixel constituting the original image data.

特開2005−159387号公報JP 2005-159387 A

しかし、森林等の緑を撮影したシーンや赤や黄の花等を撮影したシーン等のように彩度の高い被写体を撮影した画像に対して、従来の各画素のRGB成分の相加平均値による入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する場合には、特定の色の階調値は高いが他の色の階調値が低いためにその平均値が低くなる。   However, the conventional arithmetic mean value of the RGB components of each pixel for images with high-saturation subjects such as scenes of greens such as forests and scenes of red and yellow flowers. When the density correction is performed so that a predetermined gradation characteristic is obtained based on the input pixel density value, the gradation value of a specific color is high, but the gradation value of other colors is low. Lower.

そのような入力画素濃度値による濃度ヒストグラムから得られる基準濃度補正値に基づいて生成される濃度補正曲線により補正された画像は、アンダー露光の画像として処理されるため、全体的に濃度の薄い画像に補正され、好ましいプリントの仕上がりが得られないという問題があった。   Since the image corrected by the density correction curve generated based on the reference density correction value obtained from the density histogram based on the input pixel density value is processed as an under-exposure image, the image has a low overall density. There is a problem that a preferable print finish cannot be obtained.

そこで、画素毎にRGB成分の最大値をその画素の濃度値とする濃度ヒストグラムから得られる基準濃度補正値に基づいて生成される濃度補正曲線により補正すると、彩度の高い被写体を撮影した画像に対するプリントの仕上がりは良好となるが、このような手法を全ての画像に対して適用すると、例えば、逆光シーンで撮影された人物の顔はさらに暗くなるといったように、シーンによっては濃くなり過ぎ、却ってプリントの仕上がりが悪くなるという弊害が生じていた。   Therefore, if correction is performed using a density correction curve generated based on a reference density correction value obtained from a density histogram in which the maximum RGB component value is set to the density value of each pixel for each pixel, an image obtained by photographing a highly saturated subject is obtained. The print finish will be good, but if this method is applied to all the images, for example, the face of a person photographed in a backlight scene will become darker depending on the scene. There was an adverse effect that the print finish was poor.

本発明は、上述した従来の問題点に鑑み、入力された原画像に対応して適切な画素濃度値を求め、適正に濃度補正可能な画像処理装置及び画像処理方法を提供する点にある。   In view of the above-described conventional problems, an object of the present invention is to provide an image processing apparatus and an image processing method capable of obtaining an appropriate pixel density value corresponding to an input original image and appropriately correcting the density.

上述の目的を達成するため、本発明による画像処理装置の第一の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、入力された原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める濃度演算処理部と、前記濃度演算処理部により演算導出された入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する濃度補正処理部とを備えてなる画像処理装置であって、前記濃度演算処理部は、各画素が属する色相彩度テーブル上の所定領域毎に設定された重み係数であって、彩度が高い外側領域程大きく、彩度が低い内側領域程小さく設定された重み係数(r )に基づいて、〔数4〕に従って、RGB成分の最大値(Max(R,G,B))とRGB成分の相加平均値(Avr(R,G,B))との重み付け平均値を入力画素濃度値として算出する点にある。 In order to achieve the above object, the first characteristic configuration of the image processing apparatus according to the present invention is the RGB component of each pixel of the input original image data as described in claim 1 of the document of the claims. A density calculation processing unit that obtains an arithmetic mean value as an input pixel density value, and a density correction process that corrects the density so as to obtain a predetermined gradation characteristic based on the input pixel density value calculated and derived by the density calculation processing unit The density calculation processing unit is a weighting factor set for each predetermined region on the hue saturation table to which each pixel belongs, and the outer region is higher in saturation. The maximum RGB component value (Max (R, G, B)) and the additive RGB component are added according to [Equation 4] based on the weighting factor (r h ) that is set smaller for the inner region that is larger and lower in saturation. Average value (Avr (R, G, B) It lies in calculating the weighted average value of the as input pixel density value.

上述の構成によれば、原画像において特定の色の階調値が高い領域では、RGB成分の最大値に重みを置いて入力画素濃度値を求めて、原画像において特定の色の階調値が高くない領域では、RGB成分の相加平均値に重みを置いて入力画素濃度値を求めるように重み付けを行うことで、彩度の高い被写体の画素濃度を濃く維持しつつも、彩度の高い被写体以外の部分では適切な画素濃度値に濃度補正することが可能となるのである。   According to the above configuration, in a region where the gradation value of a specific color is high in the original image, the input pixel density value is obtained by weighting the maximum RGB component value, and the gradation value of the specific color in the original image is obtained. In a region where the saturation is not high, weighting is performed so as to obtain the input pixel density value by weighting the arithmetic average value of the RGB components, thereby maintaining the pixel density of the subject with high saturation while maintaining the high saturation. It is possible to perform density correction to an appropriate pixel density value in a portion other than a high subject.

また、重み付けによる処理を行うことによって、彩度の高低の変化や色相の原色領域に対する位置の変化等に対して、RGB成分の最大値を適用する割合を段階的に増加(減少)させると共に、RGB成分の相加平均値を適用する割合を段階的に減少(増加)させることができるので、適用する演算の種類が相違することによる隣接近傍画素間における画素濃度値の不自然な変化の発生を防止することが可能となるのである。   In addition, by performing the processing by weighting, the ratio of applying the maximum value of the RGB component is increased (decreased) step by step with respect to the change in the saturation level, the change in the position of the hue with respect to the primary color region, and the like. Since the ratio at which the arithmetic average value of RGB components is applied can be decreased (increased) stepwise, an unnatural change in pixel density value between adjacent neighboring pixels due to the difference in the type of calculation applied It is possible to prevent this.

同第二の特徴構成は、同請求項2に記載した通り、上述の第一特徴構成に加えて、前記原画像データに含まれる被写体の顔領域を検出する顔領域検出部と、前記原画像データが逆光シーンであるか否かを判別する逆光シーン判別部とを備え、前記顔領域検出部により顔領域が検出され、且つ、前記逆光シーン判別部により逆光シーンと判別されたときに、前記濃度演算処理部は、前記原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める点にある。   As described in claim 2, the second feature configuration includes, in addition to the first feature configuration described above, a face area detection unit that detects a face area of a subject included in the original image data, and the original image. A backlight scene determination unit that determines whether or not the data is a backlight scene, and when the face region is detected by the face region detection unit and is determined to be a backlight scene by the backlight scene determination unit, The density calculation processing unit is to obtain an arithmetic mean value of RGB components of each pixel of the original image data as an input pixel density value.

被写体に顔領域が含む逆光シーン等である場合、前記逆光シーンに対する補正で、逆光シーンの彩度が高い領域は彩度を落とした良好な補正となる反面、どうしても顔領域の再現が暗くなってしまう。これは単に彩度の高い領域を含む森林の緑色を撮影したシーンとは異なり、逆に濃度を薄くする補正によって人間の視覚特性に適したものとなるので、被写体に顔領域が含まれており、しかも逆光シーンである場合には、前記原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求めることによって、前記顔領域を適切な画素濃度値に濃度補正することが可能となるのである。   If the subject is a backlight scene including a face area, etc., the correction for the backlight scene is a good correction in which the saturation of the backlight scene is high, but the reproduction of the face area is inevitably darkened. End up. This is different from a scene where the green color of a forest including a high-saturation area is simply taken.On the contrary, the correction to reduce the density makes it suitable for human visual characteristics, so the subject includes a face area. In addition, in the case of a backlight scene, the facial region may be subjected to density correction to an appropriate pixel density value by obtaining an arithmetic mean value of RGB components of each pixel of the original image data as an input pixel density value. It becomes possible.

上述の目的を達成するため、本発明による画像処理方法の第一の特徴構成は、同請求項3に記載した通り、入力された原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める濃度演算処理工程と、前記濃度演算処理工程により演算導出された入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する濃度補正処理工程とを備えてなる画像処理方法であって、
前記濃度演算処理工程は、各画素が属する色相彩度テーブル上の所定領域毎に設定された重み係数であって、彩度が高い外側領域程大きく、彩度が低い内側領域程小さく設定された重み係数(r )に基づいて、〔数5〕に従って、RGB成分の最大値(Max(R,G,B))とRGB成分の相加平均値(Avr(R,G,B))との重み付け平均値を入力画素濃度値として算出する点にある。
In order to achieve the above object, the first characteristic configuration of the image processing method according to the present invention, as described in claim 3, is to input an arithmetic average value of RGB components of each pixel of the input original image data. A density calculation processing step for obtaining a pixel density value; and a density correction processing step for correcting the density so as to obtain a predetermined gradation characteristic based on the input pixel density value calculated and derived by the density calculation processing step. An image processing method comprising:
The density calculation processing step is a weighting factor set for each predetermined region on the hue saturation table to which each pixel belongs, and is set larger for the outer region with higher saturation and smaller for the inner region with lower saturation. Based on the weighting factor (r h ), the maximum RGB component value (Max (R, G, B)) and the arithmetic average value of RGB components (Avr (R, G, B)) according to [Equation 5] and Is calculated as the input pixel density value .

同第二の特徴構成は、同請求項4に記載した通り、上述の第一特徴構成に加えて、前記原画像データに含まれる被写体の顔領域を検出する顔領域検出工程と、前記原画像データが逆光シーンであるか否かを判別する逆光シーン判別工程とを備え、前記顔領域検出工程により顔領域が検出され、且つ、前記逆光シーン判別工程により逆光シーンと判別されたときに、前記演算処理工程は、前記原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める点にある。   The second feature configuration includes a face region detection step of detecting a face region of a subject included in the original image data in addition to the first feature configuration described above, and the original image as described in claim 4. A backlight scene determination step for determining whether the data is a backlight scene, a face region is detected by the face region detection step, and when the scene is determined to be a backlight scene by the backlight scene determination step, The arithmetic processing step is that an arithmetic mean value of RGB components of each pixel of the original image data is obtained as an input pixel density value.

同第三の特徴構成は、同請求項5に記載した通り、上述の第二特徴構成に加えて、前記濃度補正処理工程は、前記濃度演算処理工程で算出された入力画素濃度値に基づく濃度補正値Gammaと、前記顔領域検出部により検出された顔領域の平均濃度値が小さくなるほど大きな値に設定され、顔領域の平均濃度値が大きくなるほど小さな値に設定される顔依存濃度補正値モデル式で算出した顔依存濃度補正値Gamma(F)とを、前記原画像データ全体に対する顔領域が占める割合が大きくなるほど大きな値となる顔領域重み係数r に基づいて、〔数6〕で導出される適正濃度補正値Gamma(R)に従って、前記原画像データに対する濃度補正のための濃度補正曲線を生成する点にある。 In the third feature configuration, in addition to the second feature configuration described above, the density correction processing step includes a density based on the input pixel density value calculated in the density calculation processing step. A face-dependent density correction value model that is set to a larger value as the correction value Gamma and the average density value of the face area detected by the face area detection unit are smaller, and to a smaller value as the average density value of the face area is larger. The face-dependent density correction value Gamma (F) calculated by the equation is derived by [Equation 6] based on the face area weight coefficient r f that becomes larger as the ratio of the face area to the entire original image data increases. In accordance with the appropriate density correction value Gamma (R), a density correction curve for density correction for the original image data is generated.

上述の構成によれば、入力画像全体の特性から得られる濃度補正値と、顔領域の平均濃度値に基づく顔依存濃度補正値とを融合して、画像全体のみならず被写体である人物の顔領域をも加味した適性濃度補正値を得る際に、前記基準濃度補正値と前記顔依存濃度補正値とを前記顔領域の平均濃度値と顔領域サイズに基づく重み係数により重み付け演算して前記適正濃度補正値に補正するので、入力画像における顔領域の占める割合とその平均濃度に基づいて融合の程度を調節して、画像全体に対しても被写体の顔領域に対しても適切な濃度補正ができるようになるのである。   According to the above-described configuration, the density correction value obtained from the characteristics of the entire input image and the face-dependent density correction value based on the average density value of the face area are merged, so that not only the entire image but also the face of the person who is the subject. When obtaining an appropriate density correction value also taking into account the area, the reference density correction value and the face-dependent density correction value are weighted by a weighting factor based on the average density value of the face area and the face area size, and the appropriate density correction value is obtained. Since the density correction value is corrected, the degree of fusion is adjusted based on the ratio of the face area in the input image and the average density, and appropriate density correction can be performed for the entire image and the face area of the subject. It will be possible.

以上説明した通り、本発明によれば、入力された原画像に対応して適切な画素濃度値を求め、適正に濃度補正可能な画像処理装置及び画像処理方法を提供することができるようになった。   As described above, according to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of obtaining an appropriate pixel density value corresponding to an input original image and appropriately correcting the density. It was.

以下に本発明による画像処理装置が組み込まれた写真画像処理装置の実施の形態を説明する。図2に示すように、写真画像処理装置1は、印画紙Pに対して出力画像データに基づいた露光処理を行ない露光された印画紙を現像処理する写真プリンタ2と、現像済みの写真フィルムFから画像を読み込むフィルムスキャナ31やデジタルスチルカメラ等で撮影された画像データが格納されたメモリカード等の画像データ記憶メディアMから画像データを読み取るメディアドライバ32や、コントローラ33としての汎用コンピュータ等を備え、入力された元画像としての写真画像に対するプリントオーダ情報を設定入力するとともに、各種の画像補正処理を行なう操作ステーション3を備えて構成され、前記操作ステーション3で元画像から編集処理されたプリントデータが前記写真プリンタ2に出力されて所望の写真プリントが生成される。   Embodiments of a photographic image processing apparatus incorporating an image processing apparatus according to the present invention will be described below. As shown in FIG. 2, the photographic image processing apparatus 1 includes a photographic printer 2 that performs an exposure process on the photographic paper P based on output image data and develops the exposed photographic paper, and a developed photographic film F. A media driver 32 that reads image data from an image data storage medium M such as a memory card that stores image data taken by a film scanner 31 or a digital still camera that reads an image from the camera, a general-purpose computer as a controller 33, and the like The print data is set and inputted with the print order information for the inputted photographic image as the original image, and includes an operation station 3 for performing various image correction processes, and the print data edited from the original image by the operation station 3 Is output to the photographic printer 2 to produce a desired photographic print. That.

前記写真プリンタ2は、図2及び図3に示すように、ロール状の印画紙Pを収容した二系統の印画紙マガジン21と、前記印画紙マガジン21から引き出された印画紙Pを所定のプリントサイズに切断するシートカッター22と、切断後の印画紙Pの背面にコマ番号等のプリント情報を印字するバックプリント部23と、前記プリントデータに基づいて印画紙Pを露光する露光部24と、露光後の印画紙Pを現像、漂白、定着するための各処理液が充填された複数の処理槽25a、25b、25cを備えた現像処理部25が印画紙Pの搬送経路に沿って配置され、現像処理後に乾燥処理された印画紙Pが排出される横送りコンベア26と、横送りコンベア26に集積された複数枚の印画紙(写真プリント)Pがオーダー単位で仕分けられるソータ27を備えて構成される。   As shown in FIGS. 2 and 3, the photographic printer 2 has two systems of photographic paper magazines 21 containing roll-shaped photographic paper P, and photographic paper P drawn from the photographic paper magazine 21 with a predetermined print. A sheet cutter 22 that cuts into a size; a back print unit 23 that prints print information such as a frame number on the back of the cut photographic paper P; an exposure unit 24 that exposes the photographic paper P based on the print data; A development processing unit 25 including a plurality of processing tanks 25a, 25b, and 25c filled with processing solutions for developing, bleaching, and fixing the exposed photographic paper P is disposed along the transport path of the photographic paper P. The laterally-feeding conveyor 26 that discharges the photographic paper P that has been dried after the development process, and the sheet-paper (photo print) P that is stacked on the laterally-feeding conveyor 26 is sorted in order units. Configured to include the data 27.

前記露光部24には、搬送機構28によって副走査方向に搬送される印画紙Pに対して、搬送方向に直交する主走査方向に前記プリントデータに基づき変調されたRGB三色のレーザ光線束を出力して露光する露光ヘッド24aが収容されている。   The exposure unit 24 receives a laser beam bundle of RGB three colors modulated based on the print data in the main scanning direction orthogonal to the conveyance direction with respect to the photographic paper P conveyed in the sub-scanning direction by the conveyance mechanism 28. An exposure head 24a for outputting and exposing is accommodated.

前記搬送経路に沿って配置された前記露光部24や現像処理部25に応じたプロセス速度で印画紙Pを搬送する複数のローラ対でなる搬送機構28が配置され、前記露光部24の前後には印画紙Pを複列に搬送可能なチャッカー式搬送機構28aが設けられている。   A transport mechanism 28 including a plurality of roller pairs that transport the photographic printing paper P at a process speed corresponding to the exposure unit 24 and the development processing unit 25 disposed along the transport path is disposed before and after the exposure unit 24. Is provided with a chucker-type transport mechanism 28a capable of transporting photographic paper P in multiple rows.

前記操作ステーション3に設けられたコントローラ33には、汎用のオペレーティングシステムの管理下で動作し、前記写真処理装置1の各種制御が実行されるアプリケーションプログラムがインストールされ、オペレータとの操作インターフェースとしてモニタ34、キーボード35、マウス36等が接続されている。   The controller 33 provided in the operation station 3 is installed with an application program that operates under the control of a general-purpose operating system and executes various controls of the photographic processing apparatus 1, and a monitor 34 as an operation interface with the operator. A keyboard 35, a mouse 36, and the like are connected.

前記コントローラ33のハードウェア及びソフトウェアの協働により実行される写真処理プロセスを機能ブロックで説明すると、図4に示すように、前記フィルムスキャナ31やメディアドライバ32によって読み取られた写真画像データを受け取り、所定の前処理を行なって後述のメモリ41に転送する画像入力部40と、前記モニタ34の画面にプリントオーダ情報や画像編集情報を表示するとともに、それらに対して必要なデータ入力のための操作用アイコンを表示するグラフィック操作画面を生成し、或いは表示されたグラフィック操作画面に対する前記キーボード35やマウス36からの入力操作に基づいて各種の制御コマンドを生成するグラフィックユーザーインターフェース部42と、前記画像入力部40から転送される写真画像データ及び後述の画像処理部47による補正処理後の写真画像データやそのときの補正パラメータ、更には設定されたプリントオーダ情報等が所定領域に区画されて格納されるメモリ41と、プリントオーダ情報を生成するオーダー処理部43と、前記メモリ41に格納された各写真画像データに対して濃度補正処理やコントラスト補正処理等を行なう画像処理部47と、前記グラフィックユーザーインターフェース部42からの表示コマンドに基づいて前記メモリ41に展開された画像データや各種の入出力用グラフィックデータ等を前記モニタ34に表示処理するビデオRAM等を備えた表示制御部46と、各種の補正処理が終了した最終の補正画像を前記写真プリンタ2に出力するためのプリントデータを生成するプリントデータ生成部44と、顧客のオーダーに応じて最終の補正画像をCD−R等の記憶媒体に書き込むためのファイル形式に変換するフォーマッタ部45等で構成される。   The photographic processing process executed by the cooperation of the hardware and software of the controller 33 will be described in functional blocks. As shown in FIG. 4, photographic image data read by the film scanner 31 and the media driver 32 is received. An image input unit 40 that performs predetermined preprocessing and transfers it to a memory 41, which will be described later, and print order information and image editing information are displayed on the screen of the monitor 34, and an operation for inputting necessary data for them. A graphic user interface unit 42 that generates a graphic operation screen for displaying an icon or generates various control commands based on an input operation from the keyboard 35 or mouse 36 to the displayed graphic operation screen, and the image input Photos transferred from the section 40 A memory 41 in which image data and photographic image data after correction processing by an image processing unit 47 (to be described later), correction parameters at that time, and set print order information are stored in a predetermined area, and print order information An order processing unit 43 for generating image data, an image processing unit 47 for performing density correction processing and contrast correction processing for each photographic image data stored in the memory 41, and display commands from the graphic user interface unit 42. A display control unit 46 having a video RAM for displaying the image data and various input / output graphic data developed in the memory 41 on the monitor 34 and the final correction after the various correction processes are completed. Print data for generating print data for outputting an image to the photo printer 2 A generating unit 44, and the like formatter 45 which converts the final corrected image according to customer orders to a file format for writing in a storage medium such as a CD-R.

前記フィルムスキャナ31は、フィルムFに記録された画像を低解像度ではあるものの高速で読み取るプレスキャンモードと、低速ではあるものの高解像度で読み取る本スキャンモードの二モードで作動するように構成され、プレスキャンモードで読み込まれた低解像度の画像に対して後述の各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて本スキャンモードで読み込まれた高解像度の画像に対する最終の補正処理が実行されて前記プリンタ2に出力される。   The film scanner 31 is configured to operate in two modes: a pre-scan mode that reads an image recorded on the film F at a high speed although it is a low resolution, and a main scan mode that reads a high resolution at a low speed. Various correction processes described later are performed on the low-resolution image read in the can mode, and the high-resolution image read in the main scan mode based on the correction parameters stored in the memory 41 at that time. A final correction process is executed and output to the printer 2.

同様に、前記メディアドライバ32から読み込まれた画像ファイルには高解像度の撮影画像とそのサムネイル画像が含まれ、サムネイル画像に対して後述の各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて高解像度の撮影画像に対する最終の補正処理が実行される。尚、画像ファイルにサムネイル画像が含まれないときには、前記画像入力部40で高解像度の撮影画像からサムネイル画像が生成されて前記メモリ41に転送される。このように、低解像度の画像に対して頻繁に試行錯誤される各種の編集処理が実行されることによりコントローラ33の演算負荷が低減されるように構成されている。   Similarly, the image file read from the media driver 32 includes a high-resolution captured image and its thumbnail image, and various correction processes described later are performed on the thumbnail image. Based on the stored correction parameters, a final correction process is performed on the high-resolution captured image. When the image file does not include a thumbnail image, the image input unit 40 generates a thumbnail image from the high-resolution captured image and transfers it to the memory 41. In this way, the calculation load of the controller 33 is reduced by executing various editing processes that are frequently trial and error on low-resolution images.

前記画像処理部47は、図1に示すように、入力された原画像データの各画素のRGB成分の相加平均値(R+G+B)/3を入力画素濃度値として求める濃度演算処理部11と、前記原画像データに含まれる被写体の顔領域を検出する顔領域検出部12と、顔領域が検出された前記原画像データが逆光シーンであるか否かを判別する逆光シーン判別部13と、前記濃度演算処理部11により演算導出された入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する濃度補正処理部14と、前記濃度補正処理部14で濃度補正のために生成された濃度補正曲線に対してコントラスト補正を施すコントラスト補正部15と、撮影レンズに起因する歪を補正する歪補正部16と、画像のエッジを強調しノイズを低減する鮮鋭化処理部17と、カラー補正処理部18と、写真プリントのサイズに適した画像サイズに変換する拡縮処理部19等を備えて構成されている。   As shown in FIG. 1, the image processing unit 47 includes a density calculation processing unit 11 that obtains an arithmetic average value (R + G + B) / 3 of RGB components of each pixel of input original image data as an input pixel density value; A face area detection unit 12 that detects a face area of a subject included in the original image data, a backlight scene determination unit 13 that determines whether or not the original image data from which the face area is detected is a backlight scene, Based on the input pixel density value calculated and derived by the density calculation processing unit 11, the density correction processing unit 14 corrects the density so as to obtain a predetermined gradation characteristic, and the density correction processing unit 14 generates the density correction. A contrast correction unit 15 that performs contrast correction on the density correction curve, a distortion correction unit 16 that corrects distortion caused by the photographing lens, and a sharpening process that enhances the edges of the image and reduces noise. 17, a color correction processing unit 18 is configured to include a scaling processing section 19 for converting the size image size suitable for photographic prints.

前記濃度演算処理部11は、色相彩度テーブル(HueSat table)上の所定領域毎に重み係数(以下、色相彩度重み係数と記す)を設定する色相彩度重み係数設定部110と、前記色相彩度重み係数に基づくRGB成分の最大値とRGB成分の相加平均値との重み付け平均値を、入力された原画像の画素毎に算出して、算出した重み付け平均値を前記濃度補正処理部14への入力画素濃度値として求める重み付け平均濃度算出部111とを備えて構成されている。   The density calculation processing unit 11 includes a hue saturation weighting coefficient setting unit 110 that sets a weighting coefficient (hereinafter referred to as a hue saturation weighting coefficient) for each predetermined area on the hue saturation table (HueSat table), and the hue. The weighted average value of the RGB component maximum value and the RGB component arithmetic average value based on the saturation weighting coefficient is calculated for each pixel of the input original image, and the calculated weighted average value is used as the density correction processing unit. 14 and a weighted average density calculation unit 111 that is obtained as an input pixel density value to 14.

前記色相彩度重み係数設定部110は、図5に示すような前記色相彩度テーブルを複数の領域に分割して、分割した領域毎に前記色相彩度重み係数を設定する。そして、入力された原画像の画素毎に、当該画素が前記色相彩度テーブルの何れの領域に属しているかを判別して、後述する重み付け平均値を算出する際に使用する前記色相彩度重み付け係数を決定する。尚、前記色相彩度重み付け係数は、後述する重み付け平均濃度算出部111での重み付け平均値の算出における、RGB成分の最大値やRGB成分の相加平均値の使用割合を示しており、以下の例では、前記色相彩度重み付け係数はRGB成分の最大値の使用割合であるとして説明を行う。   The hue saturation weight coefficient setting unit 110 divides the hue saturation table as shown in FIG. 5 into a plurality of areas, and sets the hue saturation weight coefficient for each divided area. Then, for each pixel of the input original image, it is determined which region of the hue / saturation table the pixel belongs to, and the hue / saturation weighting used when calculating a weighted average value to be described later Determine the coefficient. The hue saturation weighting coefficient indicates the usage ratio of the RGB component maximum value or the RGB component arithmetic average value in the calculation of the weighted average value in the weighted average density calculation unit 111 to be described later. In the example, the hue saturation weighting coefficient will be described as the usage ratio of the maximum value of RGB components.

前記色相彩度重み係数設定部110は、例えば、彩度が高い領域である前記色相彩度テーブルの外側領域である程、前記色相彩度重み付け係数を大きくして、彩度が低い領域である前記色相彩度テーブルの内側領域である程、前記色相彩度重み付け係数を小さくする構成とする。つまり、図6(a)に示すように、領域a1においては、前記色相彩度重み付け係数を1、領域a2においては、前記色相彩度重み付け係数を0.75、領域a3においては、前記色相彩度重み付け係数を0.5、領域a4においては、前記色相彩度重み付け係数を0.25、領域a5においては、前記色相彩度重み付け係数を0とすれば、上述の構成を満足する構成となる。   For example, the hue saturation weighting coefficient setting unit 110 is an area where the hue saturation weighting coefficient is increased and the saturation is low as the area outside the hue saturation table is a high saturation area. The hue saturation weighting coefficient is set to be smaller as the inner area of the hue saturation table. That is, as shown in FIG. 6A, the hue saturation weighting coefficient is 1 in the area a1, the hue saturation weighting coefficient is 0.75 in the area a2, and the hue saturation is in the area a3. If the hue weighting coefficient is 0.5, the hue saturation weighting coefficient is 0.25 in the area a4, and the hue saturation weighting coefficient is 0 in the area a5, the above structure is satisfied. .

また、色相が各原色および各補色の近傍領域である程、前記色相彩度重み付け係数を大きくして、色相が各原色および各補色の中間領域である程、前記色相彩度重み付け係数を小さくする構成であってもよい。例えば、図6(b)に示すように、領域b1においては、前記色相彩度重み付け係数を1、領域b2においては、前記色相彩度重み付け係数を0.5、領域b3においては、前記色相彩度重み付け係数を0とすれば、上述の構成を満足する構成となる。   Further, the hue saturation weighting coefficient is increased as the hue is in the vicinity of each primary color and each complementary color, and the hue saturation weighting coefficient is decreased as the hue is in the intermediate area between each primary color and each complementary color. It may be a configuration. For example, as shown in FIG. 6B, the hue saturation weighting coefficient is 1 in the area b1, the hue saturation weighting coefficient is 0.5 in the area b2, and the hue saturation is in the area b3. If the degree weighting coefficient is set to 0, the above configuration is satisfied.

さらに、図6(c)に示すように、図6(a)と図6(b)を組み合わせた領域分割を行うことで、彩度と色相の双方を考慮した前記色相彩度重み係数を設定する構成であってもよい。   Furthermore, as shown in FIG. 6 (c), the hue saturation weighting factor considering both saturation and hue is set by performing region division combining FIG. 6 (a) and FIG. 6 (b). It may be configured to.

前記重み付け平均濃度算出部111は、前記色相彩度重み係数に基づくRGB成分の最大値とRGB成分の相加平均値との重み付け平均値を、入力された原画像の画素毎に算出して、算出した各画素の重み付け平均値、つまり各画素の平均濃度値を前記濃度補正処理部14への入力画素濃度値として求めるように構成されている。つまり、入力された原画像の各画素において、〔数7〕に示すような重み付け演算を行うことにより重み付け平均値を算出するのである。 The weighted average density calculation unit 111 calculates a weighted average value of the RGB component maximum value and the RGB component arithmetic average value based on the hue saturation weight coefficient for each pixel of the input original image, The calculated weighted average value of each pixel, that is, the average density value of each pixel is obtained as an input pixel density value to the density correction processing unit 14. That is, the weighted average value is calculated by performing the weighting calculation as shown in [Equation 7] for each pixel of the input original image.

ここで、rは当該画素データについて使用する色相彩度重み付け係数であり、Rは当該画素データにおける赤色成分の画素値であり、Gは当該画素データにおける緑色成分の画素値であり、Bは当該画素データにおける青色成分の画素値であり、Max(R,G,B)は当該画素データについてのRGB成分の最大画素値であり、Avr(R,G,B)は当該画素データについてのRGB成分の相加平均値であり、Avr(r)は当該画素データについての重み付け平均値である。 Here, r h is the hue saturation weighting coefficients used for the pixel data, R is the pixel value of the red component in the pixel data, G is a pixel value of the green component in the pixel data, B is The pixel value of the blue component in the pixel data, Max (R, G, B) is the maximum pixel value of the RGB component for the pixel data, and Avr (R, G, B) is the RGB value for the pixel data. The arithmetic average value of the components, and Avr (r h ) is a weighted average value for the pixel data.

尚、前記濃度演算処理部11は、後述する顔領域検出部12において、前記原画像データから顔領域が検出され、かつ後述する逆光シーン判別部13において、前記原画像データが逆光シーンであると判断された場合には、各画素の前記色相彩度テーブルの位置に関係なく、RGB成分の相加平均値を入力された原画像の画素毎に算出して、算出した各画素の相加平均値、つまり各画素の平均濃度値を前記濃度補正処理部14への入力画素濃度値として求めるように構成されている。つまり、上述の〔数7〕による重み付け演算を実行しないのである。 The density calculation processing unit 11 detects that a face region is detected from the original image data in a face region detection unit 12 described later, and the original image data is a backlight scene in a backlight scene determination unit 13 described later. If determined, the arithmetic average value of the RGB components is calculated for each pixel of the input original image regardless of the position of the hue saturation table of each pixel, and the arithmetic average of the calculated pixels is calculated. A value, that is, an average density value of each pixel is obtained as an input pixel density value to the density correction processing unit 14. That is, the weighting calculation by the above [Equation 7] is not executed.

前記顔領域検出部12は、前記原画像データから人物の顔領域を抽出する顔領域抽出部120と、抽出された顔領域の画素データに基づいて平均濃度を算出する顔領域平均濃度算出部121と、抽出された顔領域の画素数に基づいて顔領域サイズを算出する顔領域サイズ算出部122を備えて構成されている。   The face area detection unit 12 includes a face area extraction unit 120 that extracts a human face area from the original image data, and a face area average density calculation unit 121 that calculates an average density based on the extracted pixel data of the face area. And a face area size calculation unit 122 that calculates the face area size based on the number of pixels of the extracted face area.

前記顔領域抽出部120は、例えば、前記原画像データから抽出された濃度エッジやカラーエッジに基づく輪郭が顔領域であるか否かを、予め準備された顔領域の輪郭、目、鼻、口、耳等の複数の要素配置パターンとの一致度を評価することによるパターン認識技術に基づいて検出する等といった公知の技術を用いて実現されるものである。尚、前記顔領域抽出部120における抽出処理は、上述したように自動的に行なうように構成するもののみならず、モニタ34の画面に表示された原画像に対してオペレータがマウス36等により手動で入力指定された領域を顔領域として抽出するように構成されるものであってもよい。   For example, the face area extraction unit 120 determines whether or not a contour based on a density edge or a color edge extracted from the original image data is a face area. It is realized using a known technique such as detection based on a pattern recognition technique by evaluating the degree of coincidence with a plurality of element arrangement patterns such as ears. Note that the extraction process in the face area extraction unit 120 is not only configured to be automatically performed as described above, but the operator manually operates the original image displayed on the screen of the monitor 34 with the mouse 36 or the like. It may be configured to extract the area designated by the input as a face area.

前記顔領域平均濃度算出部121は、前記顔領域抽出部120において抽出された顔領域を構成する各画素についてRGB成分の相加平均値を導出し、さらに導出した各画素の平均値に基づいて前記顔領域を構成する画素全体の平均値を顔領域の平均濃度値DFavrとして求める。 The face area average density calculation unit 121 derives an arithmetic average value of RGB components for each pixel constituting the face area extracted by the face area extraction unit 120, and further, based on the derived average value of each pixel. An average value of all pixels constituting the face area is obtained as an average density value D Favr of the face area.

前記顔領域サイズ算出部122は、前記顔領域抽出部120において抽出された前記顔領域データの画素数を顔領域サイズとして算出するように構成されている。また、複数の人物が撮影された原画像から、前記顔領域抽出部120によって複数の顔領域が抽出されたときには、抽出された各顔領域における画素数の合計を夫々の顔領域サイズとして算出すると共に、抽出された全ての顔領域の画素数の合計を全体の顔領域サイズとして算出する。   The face area size calculation unit 122 is configured to calculate the number of pixels of the face area data extracted by the face area extraction unit 120 as a face area size. In addition, when a plurality of face areas are extracted from the original image in which a plurality of persons are photographed by the face area extraction unit 120, the total number of pixels in each extracted face area is calculated as each face area size. At the same time, the total number of pixels of all the extracted face areas is calculated as the overall face area size.

前記逆光シーン判別部13は、前記原画像データが逆光シーンであるか否かを判別する。詳述すると、前記逆光シーン判別部13は、前記顔領域平均濃度算出部121で算出された顔領域の濃度と、顔領域以外の領域の濃度との差分が所定値を超える場合に、前記原画像データが逆光シーンであると判断するように構成されている。   The backlight scene determination unit 13 determines whether or not the original image data is a backlight scene. More specifically, the backlight scene determination unit 13 determines the original scene when the difference between the density of the face area calculated by the face area average density calculation unit 121 and the density of the area other than the face area exceeds a predetermined value. It is configured to determine that the image data is a backlight scene.

前記濃度補正処理部14は、入力された原画像全体の入力画素濃度値に基づく濃度補正値を設定する濃度補正値設定部140と、前記濃度補正値または後述する適正濃度補正値に従って前記原画像データに対する濃度補正のための濃度補正曲線を生成する濃度補正曲線生成部141と、前記顔領域検出部12により検出された顔領域の平均濃度値を変数とする顔依存濃度補正値モデル式に基づいて顔依存濃度補正値を導出する顔依存濃度補正値設定部142と、前記顔領域の平均濃度値と顔領域サイズに基づく重み係数を算出する顔領域重み係数算出部143と、前記濃度補正値と前記顔依存濃度補正値とを前記顔領域の平均濃度値と顔領域サイズに基づく重み係数により重み付け演算して適性濃度補正値を導出する適正濃度補正値導出部144とを備えて構成されている。   The density correction processing unit 14 sets a density correction value 140 based on the input pixel density value of the entire input original image, and the original image according to the density correction value or an appropriate density correction value described later. Based on a density correction curve generation unit 141 that generates a density correction curve for correcting the density of the data, and a face-dependent density correction value model expression using the average density value of the face area detected by the face area detection unit 12 as a variable. A face-dependent density correction value setting unit 142 for deriving a face-dependent density correction value, a face area weight coefficient calculating unit 143 for calculating a weight coefficient based on the average density value and the face area size of the face area, and the density correction value And an appropriate density correction value deriving unit 1 for deriving an appropriate density correction value by weighting the face dependent density correction value with a weighting factor based on the average density value of the face area and the face area size. It is constituted by a 4.

前記濃度補正値設定部140は、前記原画像データにおける濃度ヒストグラムを生成して、予め記憶されている〔数8〕に示す関数に従って前記原画像データの濃度補正値Gammaを設定する。 The density correction value setting unit 140 generates a density histogram in the original image data, and sets the density correction value Gamma of the original image data in accordance with a function stored in advance [Equation 8] .

ここで、前記Maxgは、図7に示すように、前記原画像データが有する濃度値の最大値、つまり、最も明るい画素の濃度値であり、前記Mingは、前記原画像データが有する濃度値の最小値、つまり、最も暗い画素の濃度値であり、前記Massは、前記原画像データの平均濃度となる濃度値、つまり前記重み付け平均濃度算出部111において算出された各画素の平均濃度値である。前記Maxkは、前記原画像データにおける濃度設定値の最大の値であり、例えば、8ビットで0階調から255階調までの間で濃度値設定が行なわれているときには255とする。前記Minkは、前記原画像データにおける濃度設定値の最小の値であり、例えば、8ビットで0階調から255階調までの間で濃度値設定が行なわれているときには0とする。つまり、濃度設定値の最小値0で写真プリント画像の色再現濃度は最大であって、最大値255で色再現濃度は最小である。森林の緑、逆光シーンの光領域等は、最大値255に寄った階調域である。   Here, as shown in FIG. 7, the Maxg is the maximum density value of the original image data, that is, the density value of the brightest pixel, and the Ming is the density value of the original image data. The minimum value, that is, the darkest pixel density value, and the Mass is a density value that is an average density of the original image data, that is, an average density value of each pixel calculated by the weighted average density calculation unit 111. . The Maxk is the maximum value of the density setting value in the original image data. For example, when the density value is set between 0 gradation and 255 gradation in 8 bits, Maxk is set to 255. The Mink is the minimum density setting value in the original image data. For example, the Mink is set to 0 when the density value is set between 0 gradation and 255 gradation in 8 bits. That is, the color reproduction density of the photographic print image is the maximum at the minimum value 0 of the density setting value, and the color reproduction density is the minimum at the maximum value 255. The green area of the forest, the light area of the backlight scene, etc. are gradation areas close to the maximum value 255.

尚、前記濃度補正値Gammaは、モニタ34に表示された原画像を目視判断したオペレータにより、前記キーボード35或いはマウス36を介して適宜設定可能となるように構成することも可能である。   The density correction value Gamma can be configured to be appropriately set via the keyboard 35 or mouse 36 by an operator who visually determines the original image displayed on the monitor 34.

前記濃度補正曲線生成部141は、前記顔領域検出部12によって被写体に人物の顔領域が検出されないと判断されるような場合等には、前記濃度補正値Gammaに基づいて、予め記憶されている〔数9〕に示す関数に従って、入力画素濃度値Nin(i)を前記濃度補正値Gammaに応じた出力画素濃度値Nout(i)に濃度値変換するルックアップテーブルとして具現化される濃度補正曲線を生成する(i=0、1、2、・・・、255(8ビットデータの場合))。 The density correction curve generation unit 141 is stored in advance based on the density correction value Gamma when the face area detection unit 12 determines that a human face area is not detected in the subject. A density correction curve embodied as a lookup table that converts the input pixel density value Nin (i) into an output pixel density value Nout (i) corresponding to the density correction value Gamma according to the function shown in [Equation 9]. (I = 0, 1, 2,..., 255 (in the case of 8-bit data)).

ここで、定数Lは、前記原画像データの濃度補正処理後の目標階調設定幅であり、例えば、出力画像データを8ビットデータで設定する場合に目標階調設定幅を255とすれば、前記出力画素濃度値Nout(i)は0から255までの値として出力される。   Here, the constant L is a target gradation setting width after density correction processing of the original image data. For example, when the output image data is set by 8-bit data, the target gradation setting width is 255. The output pixel density value Nout (i) is output as a value from 0 to 255.

つまり、前記濃度補正曲線生成部141は、図8に示すように、前記濃度補正値設定部140により前記濃度補正値Gammaが1より大きな値に設定されたときには、前記原画像データが明るくなるように濃度補正処理する濃度補正曲線を生成し、前記濃度補正値Gammaが1より小さな値に設定されたときには、前記原画像データが暗くなるように濃度補正処理する濃度補正曲線を生成するように構成されている。   That is, as shown in FIG. 8, when the density correction value setting unit 140 sets the density correction value Gamma to a value greater than 1, the density correction curve generation unit 141 makes the original image data brighter. A density correction curve for density correction processing is generated, and when the density correction value Gamma is set to a value smaller than 1, a density correction curve for density correction processing is generated so that the original image data becomes dark. Has been.

尚、上述の説明では、前記顔領域検出部12によって被写体に人物の顔領域が検出されないと判断されるような場合について説明したが、被写体に人物の顔領域が検出されたと判断されるような場合には、前記濃度補正曲線生成部141は、後述する適正濃度補正値導出部144で得られる適正濃度補正値Gamma(R)に基づいて濃度補正曲線を生成するように構成されている。   In the above description, the case where the face area detection unit 12 determines that a person's face area is not detected in the subject has been described. However, it is determined that a person's face area has been detected in the subject. In this case, the density correction curve generation unit 141 is configured to generate a density correction curve based on an appropriate density correction value Gamma (R) obtained by an appropriate density correction value deriving unit 144 described later.

前記顔依存濃度補正値設定部142は、前記顔領域検出部12により検出された顔領域の平均濃度値を変数とする顔依存濃度補正値モデル式に基づいて顔依存濃度補正値Gamma(F)を導出する。前記モデル式は、様々な撮影条件下で様々な被写体を撮影した多数のサンプル画像に対して、前記基準濃度補正値を変化させた濃度補正値に基づく濃度補正曲線による補正画像を視感評価した結果、顔領域の平均濃度とそのときの顔領域が適正な濃度に補正されたと判断される濃度補正値の分布を統計処理することにより得られた補正関数F1である。   The face-dependent density correction value setting unit 142 is a face-dependent density correction value Gamma (F) based on a face-dependent density correction value model equation using the average density value of the face area detected by the face area detection unit 12 as a variable. Is derived. The model formula visually evaluated a correction image based on a density correction curve based on a density correction value obtained by changing the reference density correction value for a large number of sample images obtained by shooting various subjects under various shooting conditions. As a result, the correction function F1 is obtained by statistically processing the distribution of density correction values determined to have corrected the average density of the face area and the face area at that time to an appropriate density.

図9に示されるのは、補正関数F1の一例であり、前記顔領域の平均濃度値DFavrに対して顔依存濃度補正値Gamma(F)が、Gamma(F)=F1(DFavr)により求められるものである。ここに、顔領域の平均濃度は8ビット画像で正規化された値として示されている。 FIG. 9 shows an example of the correction function F1, and the face-dependent density correction value Gamma (F) is expressed as Gamma (F) = F1 (D Favr ) with respect to the average density value D Favr of the face region. It is required. Here, the average density of the face region is shown as a value normalized with an 8-bit image.

図8及び図9から理解されるように、顔領域の平均濃度が小さくなる、つまり暗くなると顔依存濃度補正値Gamma(F)が1より大きな値になり、そのような顔依存濃度補正値Gamma(F)に基づいて生成される濃度補正曲線によれば、前記原画像データが明るくなるように濃度補正処理され、顔領域の平均濃度が大きくなる、つまり明るくなると顔依存濃度補正値Gamma(F)が1より小さな値になり、そのような顔依存濃度補正値Gamma(F)に基づいて生成される濃度補正曲線によれば、前記原画像データが暗くなるように濃度補正処理されるような特性となる。   As can be understood from FIGS. 8 and 9, when the average density of the face region becomes small, that is, darkens, the face-dependent density correction value Gamma (F) becomes a value larger than 1, and such face-dependent density correction value Gamma. According to the density correction curve generated based on (F), the density correction processing is performed so that the original image data becomes brighter, and the average density of the face area increases, that is, the face-dependent density correction value Gamma (F ) Becomes a value smaller than 1, and according to the density correction curve generated based on such face-dependent density correction value Gamma (F), density correction processing is performed so that the original image data becomes dark. It becomes a characteristic.

前記顔領域重み係数算出部143は、後述する適正濃度補正値導出部144において、前記濃度補正値と前記顔依存濃度補正値とを融合させる際に使用するために、前記顔領域の平均濃度値と顔領域サイズに基づく重み係数(以下、融合率と記す)を算出する。   The face area weight coefficient calculation unit 143 uses an average density value of the face area to be used when the density correction value and the face-dependent density correction value are merged in an appropriate density correction value derivation unit 144 described later. And a weighting factor (hereinafter referred to as a fusion rate) based on the face area size.

例えば、入力された原画像において、検出された顔領域が顔領域Aと顔領域Bの2個で、前記顔領域のサイズが夫々S、Sであり、前記原画像全体のサイズがSsumである場合、前記顔領域が占める割合Pは、〔数10〕のような演算を行うことによって算出される。
For example, in the input original image, the detected face areas are two face areas A and B, the sizes of the face areas are S A and S B , respectively, and the size of the entire original image is S In the case of sum , the ratio P occupied by the face region is calculated by performing an operation such as [Equation 10] .

そして、前記顔領域が占める割合Pに対して、〔数11〕のような演算を行うことによって、前記融合率rが算出される。
Then, the fusion rate r f is calculated by performing an operation such as [Equation 11] on the ratio P occupied by the face region.

ここで、係数C、Dは本実施形態の有効な範囲内で適宜設定可能な値であり、試行錯誤の結果、所定値が格納されているが、この所定値に限るものではなく、任意の撮影条件(例えば、撮影光の種類、強度、向き、露光量等)が異なる母集団に基づき適宜設定される値である。係数C、Dの具体的な値としては、例えば、前記平均濃度値と顔領域サイズに基づく重み係数rが1を超えたら1とする条件下で、C=0.05、D=0.5と設定すると、前記顔領域が占める割合Pが0から100へと増加するに従って、前記融合率rは0.5から1へと増加する。 Here, the coefficients C and D are values that can be set as appropriate within the effective range of the present embodiment, and a predetermined value is stored as a result of trial and error. It is a value that is set as appropriate based on populations with different imaging conditions (for example, the type, intensity, direction, exposure amount, etc. of imaging light). Specific values of the coefficients C and D include, for example, C = 0.05, D = 0... Under the condition that the weight coefficient r f based on the average density value and the face area size exceeds 1, When 5 is set, the fusion rate r f increases from 0.5 to 1 as the ratio P occupied by the face region increases from 0 to 100.

前記融合率rを使用することで、前記原画像全体に占める顔領域の割合が大きい場合には、前記濃度補正値と前記顔依存濃度補正値とを融合させる際に、前記顔依存濃度補正値に重みを置くことが可能となるのである。 When the ratio of the face area in the whole original image is large by using the fusion rate r f , the face-dependent density correction is performed when the density correction value and the face-dependent density correction value are fused. It is possible to place a weight on the value.

前記適正濃度補正値導出部144は、上述の濃度補正値Gammaと顔依存濃度補正値Gamma(F)とを、前記融合率rで重み付け演算を行なうことにより、濃度補正値Gammaを補正して適性濃度補正値Gamma(R)を算出するもので、このような適性濃度補正値Gamma(R)に基づいて前記濃度補正曲線生成部141により生成された濃度補正曲線によって原画像が補正されることにより、主要被写体である人物の顔領域が好ましい階調を示すように補正されるのである。 The appropriate density correction value deriving unit 144 corrects the density correction value Gamma by performing a weighting operation on the density correction value Gamma and the face-dependent density correction value Gamma (F) with the fusion rate r f. An appropriate density correction value Gamma (R) is calculated, and the original image is corrected by the density correction curve generated by the density correction curve generation unit 141 based on the appropriate density correction value Gamma (R). Thus, the face area of the person who is the main subject is corrected so as to show a preferable gradation.

詳述すると、前記適正濃度補正値導出部144は、前記基準濃度補正値Gamma、前記顔依存濃度補正値Gamma(F)、そして前記融合率rに基づいて、〔数12〕に示すような重み付け演算を行なうことにより前記濃度補正値Gammaを適正濃度補正値Gamma(R)に補正する。 More specifically, the appropriate density correction value deriving unit 144 is based on the reference density correction value Gamma, the face-dependent density correction value Gamma (F), and the fusion rate r f as shown in [Equation 12]. The density correction value Gamma is corrected to an appropriate density correction value Gamma (R) by performing a weighting calculation.

このようにして前記適正濃度補正値導出部144で得られた適正濃度補正値Gamma(R)に基づき、前記濃度補正曲線生成部141で生成された濃度補正曲線に対して、前記コントラスト補正処理部15によりコントラスト補正が行なわれる。   Based on the appropriate density correction value Gamma (R) obtained by the appropriate density correction value deriving unit 144 in this way, the contrast correction processing unit is applied to the density correction curve generated by the density correction curve generating unit 141. 15 performs contrast correction.

前記コントラスト補正処理部15は、例えば、予め記憶されている〔数13〕、〔数14〕に従って、前記原画像データの入力画素濃度値Nin(i)をコントラスト補正値Cr1、Cr2に応じた出力画素濃度値Cout(i)に濃度値変換するルックアップテーブルとしてのコントラスト補正曲線を生成する。 The contrast correction processing unit 15 outputs, for example, the input pixel density value Nin (i) of the original image data according to the contrast correction values Cr1 and Cr2 according to [Equation 13] and [ Equation 14] stored in advance. A contrast correction curve is generated as a lookup table for converting the density value to the pixel density value Cout (i).





具体的には、前記〔数13〕に従って、図10(a)に示すような、前記入力画素濃度値Nin(i)が所定の濃度閾値Nth以上となる前記原画像データのハイライト領域に対してコントラスト補正処理するコントラスト補正曲線を生成するとともに、前記〔数14〕に従って、図10(b)に示すような、前記入力画素濃度値Nin(i)が所定の濃度閾値Nth以下とる前記原画像データのシャドー領域に対してコントラスト補正処理するコントラスト補正曲線を生成する。 Specifically, according to [Equation 13], with respect to the highlight area of the original image data in which the input pixel density value Nin (i) is equal to or greater than a predetermined density threshold Nth as shown in FIG. The original image in which the input pixel density value Nin (i) is less than or equal to a predetermined density threshold value Nth as shown in FIG. 10B is generated according to [Equation 14] . A contrast correction curve for generating a contrast correction process for the shadow area of the data is generated.

尚、前記コントラスト補正値Cr1、Cr2は、前記濃度補正処理部14により設定された濃度補正値Gammaまたは適正濃度補正値Gamma(R)に基づいて算出され、前記コントラスト補正値Cr1が大きいときほど、前記ハイライト領域のコントラストを高く補正するルックアップテーブルとなり、また、前記コントラスト補正値Cr2が負に大きいときほど、前記シャドー領域のコントラストを高く補正するルックアップテーブルとなる。   The contrast correction values Cr1 and Cr2 are calculated based on the density correction value Gamma or the appropriate density correction value Gamma (R) set by the density correction processing unit 14, and as the contrast correction value Cr1 is larger, It becomes a look-up table for correcting the contrast of the highlight area to be high, and becomes a look-up table for correcting the contrast of the shadow area to be higher as the contrast correction value Cr2 is negatively larger.

前記コントラスト補正処理部15は、生成されたコントラスト補正曲線と前記濃度補正曲線を融合処理し、前記濃度補正処理とコントラスト補正処理を同時に実行可能なルックアップテーブルとしての融合曲線を生成する。つまり、前記融合曲線は、図11に示すように、前記原画像データを入力画素濃度値Nin(i)として入力すると、前記濃度補正曲線と前記コントラスト補正曲線を介した出力画素濃度値Cout(Nout(i))に濃度値変換するルックアップテーブルとして生成される。   The contrast correction processing unit 15 performs a fusion process on the generated contrast correction curve and the density correction curve, and generates a fusion curve as a lookup table capable of executing the density correction process and the contrast correction process simultaneously. In other words, as shown in FIG. 11, when the original image data is input as an input pixel density value Nin (i), the fusion curve has an output pixel density value Cout (Nout) via the density correction curve and the contrast correction curve. (I)) is generated as a lookup table for density value conversion.

以下、本発明の画像処理装置による濃度補正処理を、図12のフローチャートに基づいて説明する。   Hereinafter, density correction processing by the image processing apparatus of the present invention will be described based on the flowchart of FIG.

前記フィルムスキャナ31によりプレスキャンモードで読取られ、或いは、前記メディアドライバ32から読み込まれたサムネイル画像データが前記メモリ41に入力されると(S1)、顔領域検出部12における顔領域抽出部120は、前記原画像データからの顔領域の抽出処理を実行する(S2)。   When the thumbnail image data read in the prescan mode by the film scanner 31 or read from the media driver 32 is input to the memory 41 (S1), the face area extracting unit 120 in the face area detecting unit 12 Then, a process of extracting a face area from the original image data is executed (S2).

この際、前記顔領域抽出部120において前記原画像データに顔領域が検出された場合は(S3)、前記逆光シーン判別部13において前記原画像データが逆光シーンであるか否かを判別して、前記原画像データが逆光シーンであると判断された場合には(S4)、重み付け平均濃度算出部111において、各画素のRGB成分の相加平均値を各画素の平均濃度値として算出し、前記各画素の平均濃度値を前記原画像データにおける全ての画素データについて算出する(S5)。   At this time, when a face area is detected in the original image data in the face area extraction unit 120 (S3), the backlight scene determination unit 13 determines whether or not the original image data is a backlight scene. When the original image data is determined to be a backlight scene (S4), the weighted average density calculation unit 111 calculates the arithmetic average value of the RGB components of each pixel as the average density value of each pixel, The average density value of each pixel is calculated for all pixel data in the original image data (S5).

濃度補正値設定部140は、ステップS5において算出された前記平均濃度値に基づいて、前記原画像データにおける濃度ヒストグラムを生成し、前記原画像データが有する濃度値の最大値、つまり、最も明るい画素の濃度値Maxgと、前記原画像データが有する濃度値の最小値、つまり、最も暗い画素の濃度値Mingと、前記原画像データの平均濃度となる濃度値Massとを算出し、前記〔数7〕に基づいて濃度補正値Gammaを算出する(S6)。 The density correction value setting unit 140 generates a density histogram in the original image data based on the average density value calculated in step S5, and the maximum density value of the original image data, that is, the brightest pixel. a density value Maxg of the minimum value of the density values the original image data has, i.e., calculates the density value Ming darkest pixel, and a density value Mass as the average density of the original image data, the [Equation 7 ] , The density correction value Gamma is calculated (S6).

また、顔領域検出部12では、検出された顔領域データに基づいて、顔領域平均濃度算出部121により顔領域の平均濃度値が算出され、顔領域サイズ算出部122により顔領域サイズが算出される(S7)。   Further, in the face area detection unit 12, based on the detected face area data, the face area average density calculation unit 121 calculates the average density value of the face area, and the face region size calculation unit 122 calculates the face area size. (S7).

続いて、顔依存濃度補正値設定部142において、前記顔領域の平均濃度値に基づく顔依存濃度補正値Gamma(F)が算出されるとともに(S8)、顔領域重み係数算出部143において、前記顔領域の平均濃度値と顔領域サイズに基づく重み係数(融合率)が算出される(S9)。   Subsequently, the face-dependent density correction value setting unit 142 calculates a face-dependent density correction value Gamma (F) based on the average density value of the face area (S8), and the face area weight coefficient calculation unit 143 A weighting factor (fusion rate) based on the average density value of the face area and the face area size is calculated (S9).

そして、適正濃度補正値導出部144において、前記濃度補正値Gammaと前記顔依存濃度補正値Gamma(F)とを、前記融合率で重み付け演算を行なうことにより(S10)、前記濃度補正値Gammaを補正して適性濃度補正値Gamma(R)を算出する(S11)   Then, the appropriate density correction value deriving unit 144 performs a weighting operation on the density correction value Gamma and the face-dependent density correction value Gamma (F) with the fusion rate (S10), thereby obtaining the density correction value Gamma. The proper density correction value Gamma (R) is calculated by correction (S11).

一方、ステップS3において顔領域が検出されなかった場合や、ステップS4において逆光シーンでないと判断された場合には、色相彩度重み係数設定部110において、入力された原画像の画素毎に使用する色相彩度重み付け係数を決定し(S12)、重み付け平均濃度算出部111において、各画素の前記色相彩度重み係数に基づくRGB成分の最大値とRGB成分の相加平均値との重み付け平均値を各画素の平均濃度値として算出し、前記各画素の平均濃度値を前記原画像データにおける全ての画素データについて算出する(S13)。   On the other hand, if a face area is not detected in step S3 or if it is determined that the scene is not a backlight scene in step S4, the hue / saturation weight coefficient setting unit 110 uses it for each pixel of the input original image. A hue saturation weighting coefficient is determined (S12), and the weighted average density calculation unit 111 calculates a weighted average value of the RGB component maximum value and the RGB component arithmetic average value based on the hue saturation weight coefficient of each pixel. The average density value of each pixel is calculated, and the average density value of each pixel is calculated for all pixel data in the original image data (S13).

続いて、濃度補正値設定部140は、ステップS13において算出された前記平均濃度値に基づいて、前記原画像データにおける濃度ヒストグラムを生成し、前記原画像データが有する濃度値の最大値、つまり、最も明るい画素の濃度値Maxgと、前記原画像データが有する濃度値の最小値、つまり、最も暗い画素の濃度値Mingと、前記原画像データの平均濃度となる濃度値Massとを算出し、前記〔数7〕に基づいて濃度補正値Gammaを算出する(S14)。 Subsequently, the density correction value setting unit 140 generates a density histogram in the original image data based on the average density value calculated in step S13, that is, the maximum density value of the original image data, that is, Calculating a density value Maxg of the brightest pixel, a minimum density value of the original image data, that is, a density value Ming of the darkest pixel, and a density value Mass that is an average density of the original image data; A density correction value Gamma is calculated based on [Equation 7] (S14).

前記濃度補正曲線生成部11においては、前記原画像において顔領域が検出された場合には、ステップ11で算出された前記適正濃度補正値Gamma(R)に基づいて、また、前記原画像において顔領域が検出されなかった場合には、ステップ14で算出された前記濃度補正値Gammaに基づいて、濃度補正曲線が生成され(S15)、続いてコントラスト補正処理部15では、前記濃度補正曲線に対してコントラスト補正曲線が融合処理された濃度補正曲線が生成され(S16)、この濃度補正曲線に基づいて原画像データの濃度補正処理が行なわれ、その結果が前記モニタ34に表示される(S17)。   In the density correction curve generation unit 11, when a face area is detected in the original image, based on the appropriate density correction value Gamma (R) calculated in step 11, and in the original image If no area is detected, a density correction curve is generated based on the density correction value Gamma calculated in step 14 (S15). Subsequently, the contrast correction processing unit 15 applies the density correction curve to the density correction curve. Then, a density correction curve in which the contrast correction curves are merged is generated (S16), density correction processing of the original image data is performed based on the density correction curve, and the result is displayed on the monitor 34 (S17). .

このようにしてステップS16で得られた濃度補正曲線が濃度補正パラメータとして前記メモリ41に記憶され、その後、前記フィルムスキャナ31により本スキャンモードで読取られ、或いは、前記メディアドライバ32から読み込まれた高解像度画像データに対して当該記憶された濃度補正パラメータにより濃度補正される。   Thus, the density correction curve obtained in step S16 is stored in the memory 41 as a density correction parameter, and is then read in the main scan mode by the film scanner 31 or read from the media driver 32. Density correction is performed on the resolution image data by the stored density correction parameter.

以下、別実施形態について説明する。上述の実施形態では、顔領域平均濃度算出部121において、顔領域を構成する各画素についてのRGB成分の相加平均値に基づいて、前記顔領域を構成する画素全体の平均値を顔領域の平均濃度値DFavrとして求める構成について説明したが、前記顔領域平均濃度算出部121は、前記顔領域抽出部120において複数の顔領域が検出された場合、つまり、被写体に複数の顔が存在している場合には、複数の顔領域の夫々について前記顔領域の平均濃度値を算出した上で、検出された顔領域のサイズに基づいて重み付け演算を行うことによって、被写体における顔領域全体の平均濃度値を顔領域加重平均濃度値DWavrとして算出する構成であってもよい。 Hereinafter, another embodiment will be described. In the above-described embodiment, the face area average density calculating unit 121 calculates the average value of all the pixels constituting the face area based on the arithmetic average value of the RGB components for each pixel constituting the face area. The configuration obtained as the average density value D Favr has been described. However, the face area average density calculation unit 121 detects that a plurality of face areas are detected by the face area extraction unit 120, that is, there are a plurality of faces in the subject. If the average density value of the face area is calculated for each of a plurality of face areas, a weighting operation is performed based on the size of the detected face area, thereby calculating the average of the entire face area in the subject. The density value may be calculated as the face area weighted average density value DWavr .

例えば、入力された原画像において、検出された顔領域が顔領域Aと顔領域Bの2個で、前記顔領域のサイズが夫々S、Sであり、前記顔領域の平均濃度値が夫々D、Dである場合、前記顔領域加重平均濃度値DWavrは、〔数15〕のような演算を行うことによって算出される。 For example, in the input original image, the detected face areas are two face areas A and B, the sizes of the face areas are S A and S B , respectively, and the average density value of the face area is In the case of D A and D B , the face area weighted average density value D Wavr is calculated by performing an operation such as [ Equation 15] .

尚、顔領域平均濃度算出部121において、顔領域の平均濃度値DFavrの代わりに顔領域加重平均濃度値DWavrを算出した場合は、顔依存濃度補正値Gamma(F)を導出する際に、顔領域の平均濃度値DFavrの代わりに顔領域加重平均濃度値DWavrを用いるように構成されている。 Incidentally, in the face region average density calculating section 121, when calculating the face area weighted mean density value D WAVR instead of the average density value D Favr of the face region, in deriving the face dependent density correction value Gamma (F) It is configured to use a face region weighted mean density value D WAVR instead of the average density value D Favr of the face region.

上述の実施形態では、逆光シーン判別部13において、顔領域の濃度と顔領域以外の領域の濃度との差分に基づいて、原画像データが逆光シーンであるか否かを判別する構成について説明したが、前記逆光シーン判別部13における逆光シーンであるか否かの判断は、画像の中央部の濃度と周辺部の濃度の差分が所定値を超える場合に、前記原画像データが逆光シーンであると判断する構成であってもよい。   In the above-described embodiment, the configuration has been described in which the backlight scene determination unit 13 determines whether the original image data is a backlight scene based on the difference between the density of the face area and the density of the area other than the face area. However, the determination as to whether or not the backlight scene determination unit 13 is a backlight scene is based on the fact that the original image data is a backlight scene when the difference between the density of the central portion of the image and the density of the peripheral portion exceeds a predetermined value. It may be configured to determine.

尚、上述した実施形態は、本発明の一例に過ぎず、本発明の作用効果を奏する範囲において各ブロックの具体的構成等を適宜変更設計できることは言うまでもない。   Note that the above-described embodiment is merely an example of the present invention, and it is needless to say that the specific configuration and the like of each block can be changed and designed as appropriate within the scope of the effects of the present invention.

画像処理部における機能ブロック構成の説明図Explanatory drawing of functional block configuration in image processing unit 写真画像処理装置の外観構成の説明図Explanatory drawing of the external configuration of the photographic image processing apparatus 写真プリンタの説明図Illustration of photo printer 写真画像処理装置の機能ブロック構成の説明図Explanatory drawing of functional block configuration of photographic image processing apparatus 色相彩度テーブルの説明図Explanatory diagram of hue saturation table 色相彩度テーブルの各分割領域に色相彩度重み付け係数を設定するに当たり、(a)は、彩度によって分割し、(b)は、色相によって分割し、(c)は、彩度および色相によって分割した色相彩度テーブルの説明図In setting a hue saturation weighting coefficient in each divided area of the hue saturation table, (a) is divided by saturation, (b) is divided by hue, and (c) is divided by saturation and hue. Explanatory drawing of the divided hue saturation table 濃度補正値の算出に係る濃度ヒストグラムの説明図Explanatory diagram of density histogram related to density correction value calculation 濃度補正処理における濃度値変移の説明図Explanatory drawing of density value transition in density correction processing 顔依存濃度補正値を導出するためのモデル式の一例であるグラフの説明図Explanatory drawing of the graph which is an example of the model formula for deriving the face dependent density correction value (a)は、ハイライト領域におけるコントラスト補正曲線を示し、(b)は、シャドー領域におけるコントラスト補正曲線を示す説明図(A) shows the contrast correction curve in the highlight area, and (b) is an explanatory diagram showing the contrast correction curve in the shadow area. 融合曲線の説明図Illustration of fusion curve 画像処理部の動作について説明するためのフローチャートFlow chart for explaining the operation of the image processing unit

1:写真画像処理装置
47:画像処理部
11:濃度演算処理部
110:色相彩度重み係数設定部
111:重み付け平均濃度算出部
12:顔領域検出部
13:逆光シーン判別部
14:濃度補正処理部
142:顔依存濃度補正値設定部
143:顔領域重み係数算出部
144:適正濃度補正値導出部
1: Photo image processing device 47: Image processing unit 11: Density calculation processing unit 110: Hue / saturation weighting coefficient setting unit 111: Weighted average density calculation unit 12: Face area detection unit 13: Backlight scene determination unit 14: Density correction processing Unit 142: Face-dependent density correction value setting unit 143: Face area weight coefficient calculation unit 144: Appropriate density correction value derivation unit

Claims (5)

入力された原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める濃度演算処理部と、前記濃度演算処理部により演算導出された入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する濃度補正処理部とを備えてなる画像処理装置であって、
前記濃度演算処理部は、各画素が属する色相彩度テーブル上の所定領域毎に設定された重み係数であって、彩度が高い外側領域程大きく、彩度が低い内側領域程小さく設定された重み係数(r )に基づいて、〔数1〕に従って、RGB成分の最大値(Max(R,G,B))とRGB成分の相加平均値(Avr(R,G,B))との重み付け平均値を入力画素濃度値として算出する画像処理装置。
A density calculation processing unit that obtains an arithmetic mean value of RGB components of each pixel of the input original image data as an input pixel density value, and a predetermined floor based on the input pixel density value calculated and derived by the density calculation processing unit. An image processing apparatus including a density correction processing unit that performs density correction so as to obtain a tonal characteristic,
The density calculation processing unit is a weighting factor set for each predetermined region on the hue saturation table to which each pixel belongs, and is set larger for an outer region with higher saturation and smaller for an inner region with lower saturation. Based on the weighting factor (r h ), according to [Equation 1], the maximum value of RGB components (Max (R, G, B)) and the arithmetic average value of RGB components (Avr (R, G, B)) and An image processing apparatus that calculates the weighted average value of the input pixel density values .
前記原画像データに含まれる被写体の顔領域を検出する顔領域検出部と、前記原画像データが逆光シーンであるか否かを判別する逆光シーン判別部とを備え、前記顔領域検出部により顔領域が検出され、且つ、前記逆光シーン判別部により逆光シーンと判別されたときに、前記濃度演算処理部は、前記原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める請求項1記載の画像処理装置。   A face area detection unit that detects a face area of a subject included in the original image data; and a backlight scene determination unit that determines whether or not the original image data is a backlight scene. When an area is detected and the backlight scene determination unit determines that the scene is a backlight scene, the density calculation processing unit uses an arithmetic average value of RGB components of each pixel of the original image data as an input pixel density value. The image processing apparatus according to claim 1 to be obtained. 入力された原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める濃度演算処理工程と、前記濃度演算処理工程により演算導出された入力画素濃度値に基づいて所定の階調特性が得られるように濃度補正する濃度補正処理工程とを備えてなる画像処理方法であって、
前記濃度演算処理工程は、各画素が属する色相彩度テーブル上の所定領域毎に設定された重み係数であって、彩度が高い外側領域程大きく、彩度が低い内側領域程小さく設定された重み係数(r )に基づいて、〔数2〕に従って、RGB成分の最大値(Max(R,G,B))とRGB成分の相加平均値(Avr(R,G,B))との重み付け平均値を入力画素濃度値として算出する画像処理方法。
A density calculation processing step for obtaining an arithmetic average value of RGB components of each pixel of the input original image data as an input pixel density value, and a predetermined floor based on the input pixel density value calculated and derived by the density calculation processing step. An image processing method comprising a density correction processing step for correcting density so as to obtain a tone characteristic,
The density calculation processing step is a weighting factor set for each predetermined region on the hue saturation table to which each pixel belongs, and is set larger for the outer region with higher saturation and smaller for the inner region with lower saturation. Based on the weighting coefficient (r h ), the maximum value of RGB components (Max (R, G, B)) and the arithmetic average value of RGB components (Avr (R, G, B)) according to [Equation 2] An image processing method for calculating a weighted average value as an input pixel density value .
前記原画像データに含まれる被写体の顔領域を検出する顔領域検出工程と、前記原画像データが逆光シーンであるか否かを判別する逆光シーン判別工程とを備え、前記顔領域検出工程により顔領域が検出され、且つ、前記逆光シーン判別工程により逆光シーンと判別されたときに、前記濃度演算処理工程は、前記原画像データの各画素のRGB成分の相加平均値を入力画素濃度値として求める請求項3記載の画像処理方法。 A face area detecting step for detecting a face area of a subject included in the original image data; and a backlight scene determining step for determining whether or not the original image data is a backlight scene. When an area is detected and the backlight scene is determined to be a backlight scene by the backlight scene determination step, the density calculation processing step uses an arithmetic average value of RGB components of each pixel of the original image data as an input pixel density value. The image processing method according to claim 3 to be obtained. 前記濃度補正処理工程は、前記濃度演算処理工程で算出された入力画素濃度値に基づく濃度補正値Gammaと、前記顔領域検出部により検出された顔領域の平均濃度値が小さくなるほど大きな値に設定され、顔領域の平均濃度値が大きくなるほど小さな値に設定される顔依存濃度補正値モデル式で算出した顔依存濃度補正値Gamma(F)とを、前記原画像データ全体に対する顔領域が占める割合が大きくなるほど大きな値となる顔領域重み係数r に基づいて、〔数3〕で導出される適正濃度補正値Gamma(R)に従って、前記原画像データに対する濃度補正のための濃度補正曲線を生成する請求項4記載の画像処理方法。
The density correction processing step is set to a larger value as the density correction value Gamma based on the input pixel density value calculated in the density calculation processing step and the average density value of the face area detected by the face area detection unit become smaller. The ratio of the face area to the total of the original image data is the face-dependent density correction value Gamma (F) calculated by the face-dependent density correction value model formula that is set to a smaller value as the average density value of the face area increases. A density correction curve for correcting the density of the original image data is generated according to the appropriate density correction value Gamma (R) derived from [Equation 3] based on the face area weighting factor r f that increases as the value of the face area increases. The image processing method according to claim 4.
JP2006018549A 2006-01-27 2006-01-27 Image processing apparatus and method Expired - Fee Related JP4635884B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006018549A JP4635884B2 (en) 2006-01-27 2006-01-27 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006018549A JP4635884B2 (en) 2006-01-27 2006-01-27 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2007201857A JP2007201857A (en) 2007-08-09
JP4635884B2 true JP4635884B2 (en) 2011-02-23

Family

ID=38455988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006018549A Expired - Fee Related JP4635884B2 (en) 2006-01-27 2006-01-27 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4635884B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159387A (en) * 2003-11-20 2005-06-16 Noritsu Koki Co Ltd Method of determining density characteristic curve and density correction management apparatus for executing this method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005159387A (en) * 2003-11-20 2005-06-16 Noritsu Koki Co Ltd Method of determining density characteristic curve and density correction management apparatus for executing this method

Also Published As

Publication number Publication date
JP2007201857A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
US7173732B2 (en) Image processing method
JP3590265B2 (en) Image processing method
US7200280B2 (en) Image processing apparatus
JP4172663B2 (en) Image processing method
JP4385964B2 (en) Photo image processing method and photo image processing apparatus
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JP2007249802A (en) Image processor and image processing method
JP4830923B2 (en) Image processing apparatus and image processing method
JP4661659B2 (en) Photo image processing apparatus and photo image processing method
JP5157760B2 (en) Photo image processing method, photo image processing program, and photo image processing apparatus
JP4635884B2 (en) Image processing apparatus and method
JP4453610B2 (en) Image processing apparatus and method
US20050129287A1 (en) Image processing method
JP2007201655A (en) Image processing apparatus
JP2005159387A (en) Method of determining density characteristic curve and density correction management apparatus for executing this method
JP2007088650A (en) Image processing device and image processing method
JP4404011B2 (en) Image processing apparatus and method
JP2009016940A (en) Uniformity correction processing apparatus and uniformity correction processing method of frame image
JP2007086940A (en) Image processing device and image processing method
JP4775289B2 (en) Image processing apparatus and image processing method
JP2006301675A (en) Image processor and image processing method
JP2006146646A (en) Method and apparatus for processing photographic image
JP4496856B2 (en) Photographic image processing method and apparatus
JP5157677B2 (en) Photo image processing method, photo image processing program, and photo image processing apparatus
JP4517965B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees