JP2007249802A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2007249802A JP2007249802A JP2006074855A JP2006074855A JP2007249802A JP 2007249802 A JP2007249802 A JP 2007249802A JP 2006074855 A JP2006074855 A JP 2006074855A JP 2006074855 A JP2006074855 A JP 2006074855A JP 2007249802 A JP2007249802 A JP 2007249802A
- Authority
- JP
- Japan
- Prior art keywords
- characteristic value
- face area
- correction amount
- average
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、入力された原画像データに含まれる顔領域から顔領域平均特性値を算出する顔領域特性値演算手段と、算出された顔領域平均特性値と予め設定された目標特性値との偏差に基づいて顔領域特性値補正量を算出する顔領域特性値補正量算出手段を備えている画像処理装置及び画像処理方法に関する。 The present invention provides a face area characteristic value calculating means for calculating a face area average characteristic value from a face area included in input original image data, and the calculated face area average characteristic value and a preset target characteristic value. The present invention relates to an image processing apparatus and an image processing method including a face area characteristic value correction amount calculating unit that calculates a face area characteristic value correction amount based on a deviation.
一般に写真画像処理装置は、写真フィルムに形成された撮影画像をフィルムスキャナによりデジタル画像データとして取り込み、或いはデジタルスチルカメラなどのデジタル撮影機器によって撮影された画像データを各種のメディアドライブ装置を介して取り込み、取り込んだ原画像データのカラー特性や階調特性といった種々の画像特性を補正処理し、その結果、得られた出力画像データに基づいて感光材料(印画紙)を露光して写真プリントを生成するように構成されている。 Generally, a photographic image processing apparatus captures a photographed image formed on a photographic film as digital image data by a film scanner, or captures image data photographed by a digital photographing device such as a digital still camera via various media drive devices. Then, various image characteristics such as color characteristics and gradation characteristics of the captured original image data are corrected, and as a result, the photosensitive material (printing paper) is exposed based on the obtained output image data to generate a photographic print. It is configured as follows.
上述の補正処理では、良好な画質の写真プリントを得るために、入力された原画像データの階調特性やカラー特性と感光材料の階調特性や発色特性等の差異や人間の視覚特性を考慮して、適切な階調特性やカラー特性が得られるように濃度補正処理やカラー補正処理が行なわれる。 In the above correction processing, in order to obtain a photographic print with good image quality, the difference between the gradation characteristics and color characteristics of the input original image data and the gradation characteristics and coloring characteristics of the photosensitive material, and human visual characteristics are taken into account. Then, density correction processing and color correction processing are performed so that appropriate gradation characteristics and color characteristics can be obtained.
このような濃度補正処理としては、入力画像データと出力画像データとが所定のガンマ特性を示す濃度特性曲線となるように補正処理されるのが一般的であるが、撮影された画像の被写体が人物である場合に、その人物の顔領域が適切な明るさとなるように階調補正し、顔領域が好ましい肌領域になるようにカラー補正することにより、高品位の写真プリントを得る技術が提案されている。 As such density correction processing, correction processing is generally performed so that the input image data and the output image data have a density characteristic curve showing a predetermined gamma characteristic. Proposes a technique for obtaining high-quality photo prints by correcting the gradation so that the face area of a person has appropriate brightness and color correction so that the face area has a preferable skin area. Has been.
例えば、特許文献1には、撮影画像データから検出された顔領域の顔平均濃度値と画像全体の濃度値から求められた補正値を補正する技術が提案されている。 For example, Patent Document 1 proposes a technique for correcting a correction value obtained from a face average density value of a face area detected from captured image data and a density value of the entire image.
しかし、原画像に複数の顔画像が検出されたときに、上記従来技術によれば、複数の顔領域に対して一律に平均濃度(平均特性値)を求めて補正に反映させるように構成されているため、主要被写体ではない人物と主要被写体である人物の特性値が同レベルで処理される結果、思惑通りに補正できないという問題があった。 However, when a plurality of face images are detected in the original image, according to the above-described conventional technique, the average density (average characteristic value) is uniformly obtained for the plurality of face regions and reflected in the correction. As a result, the characteristic values of the person who is not the main subject and the person who is the main subject are processed at the same level, resulting in a problem that correction cannot be made as expected.
また、画像全体の特性値から求められた補正値と顔領域から求められた補正値を融合して適正な補正値を求める場合であっても、予め定められたパラメータに基づいて融合処理されるため、必ずしも適正に補正されるとは限らないという問題があった。 Even when the correction value obtained from the characteristic value of the entire image and the correction value obtained from the face area are merged to obtain an appropriate correction value, the fusion processing is performed based on a predetermined parameter. Therefore, there is a problem that the correction is not necessarily performed properly.
本発明は、上述した従来の問題点に鑑み、画像に複数の顔領域が検出される場合であっても、主要被写体である可能性の高い顔領域の特性値を重視した補正を行なうことにより、高い精度で適正な画像に補正できる画像処理装置及び画像処理方法を提供する点にある。 In view of the above-described conventional problems, the present invention performs correction with an emphasis on the characteristic value of a face area that is likely to be a main subject even when a plurality of face areas are detected in an image. Another object of the present invention is to provide an image processing apparatus and an image processing method capable of correcting an appropriate image with high accuracy.
上述の目的を達成するため、本発明による画像処理装置の第一の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、入力された原画像データに含まれる顔領域から顔領域平均特性値を算出する顔領域特性値演算手段と、算出された顔領域平均特性値と予め設定された目標特性値との偏差に基づいて顔領域特性値補正量を算出する顔領域特性値補正量算出手段を備えている画像処理装置であって、前記顔領域特性値演算手段は、前記原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けした重み付け平均特性値を顔領域平均特性値として算出する点にある。 In order to achieve the above-mentioned object, the first characteristic configuration of the image processing apparatus according to the present invention is that, as described in claim 1 of the claims, the face region is included in the face area included in the input original image data. Face area characteristic value calculating means for calculating an area average characteristic value, and a face area characteristic value for calculating a face area characteristic value correction amount based on a deviation between the calculated face area average characteristic value and a preset target characteristic value An image processing apparatus comprising a correction amount calculating means, wherein the face area characteristic value calculating means weights each weighted average characteristic value of a plurality of face areas included in the original image data with each occupied area The average characteristic value is calculated as the face area average characteristic value.
上述の構成によれば、原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けすることにより、複数の顔領域のうち大きい顔領域を重視した顔領域平均特性値を算出する。そして、写真画像に複数の顔領域が含まれている場合、一般に、大きい顔が主要被写体である可能性が高いことから、主要被写体である可能性の高い顔領域の特性値を重視した補正を行うことができるのである。 According to the above-described configuration, the face area average characteristic emphasizing a large face area among the plurality of face areas by weighting the average characteristic values of the plurality of face areas included in the original image data by the respective occupied areas. Calculate the value. If a photographic image contains multiple face areas, the large face is generally likely to be the main subject, so correction that emphasizes the characteristic values of the face area that is likely to be the main subject is important. It can be done.
同第二の特徴構成は、同請求項2に記載した通り、上述の第一特徴構成に加えて、前記原画像データの全画像特性値に基づいて基準特性値補正量を算出する基準特性値補正量算出手段と、前記基準特性値補正量算出手段により算出された基準特性値補正量と前記顔領域特性値補正量算出手段により算出された顔領域特性値補正量とを所定の融合率で融合処理して適正特性値補正量を算出する適正特性値補正量算出手段を備えている点にある。 In the second feature configuration, as described in claim 2, in addition to the first feature configuration described above, a reference characteristic value for calculating a reference characteristic value correction amount based on all image characteristic values of the original image data. A correction amount calculation unit, a reference characteristic value correction amount calculated by the reference characteristic value correction amount calculation unit, and a face region characteristic value correction amount calculated by the face region characteristic value correction amount calculation unit at a predetermined fusion rate. There is an appropriate characteristic value correction amount calculating means for calculating an appropriate characteristic value correction amount by performing the fusion processing.
上述の構成によれば、原画像データ全体の特性から得られる基準特性値補正量と、顔領域データ全体の特性から得られる顔領域特性値補正量を所定の融合率で融合処理することで、原画像データ全体のみならず被写体である人物の顔領域をも加味した適性特性値補正量を得ることができるのである。 According to the above configuration, the reference characteristic value correction amount obtained from the characteristics of the entire original image data and the face area characteristic value correction amount obtained from the characteristics of the entire face area data are fused at a predetermined fusion rate. It is possible to obtain an appropriate characteristic value correction amount that takes into account not only the entire original image data but also the face area of the person who is the subject.
同第三の特徴構成は、同請求項3に記載した通り、上述の第一特徴構成に加えて、前記顔領域特性値演算手段は、各顔領域のRGB毎の平均濃度を各顔領域の占有面積で重み付けしたRGB毎の重み付け平均濃度を顔領域平均特性値として算出し、前記顔領域特性値補正量算出手段は、前記顔領域平均特性値を変換処理した色相彩度座標系における色相と前記目標特性値に対応する前記色相彩度座標系における目標色相との偏差に基づいて色相補正量を算出し、算出した色相補正量を逆変換して得られるRGB毎のカラー補正量を前記顔領域特性値補正量として算出する点にある。 In the third feature configuration, as described in claim 3, in addition to the first feature configuration described above, the face area characteristic value calculating means calculates an average density of each face area for each RGB in each face area. The weighted average density for each RGB weighted by the occupied area is calculated as a face area average characteristic value, and the face area characteristic value correction amount calculating means calculates the hue in the hue saturation coordinate system obtained by converting the face area average characteristic value. The hue correction amount is calculated based on a deviation from the target hue in the hue saturation coordinate system corresponding to the target characteristic value, and the color correction amount for each RGB obtained by inversely converting the calculated hue correction amount is used as the face correction value. This is to calculate the area characteristic value correction amount.
例えば、RGB各値で目標値を設定した場合、前記目標値は一意に定まり、彩度に関係なく補正量が決定されるが、上述の構成によれば、RGB毎の平均濃度を色相彩度に変換処理することで、変換処理して色相彩度座標系上に配置された色相と予め設定された目標色相との関係において、原画像の彩度に応じた最適な色相補正量が明らかとなるので、前記色相補正量を正確かつ簡便に算出することができる。よって、前記色相補正量を逆変換して得られるカラー補正量もまた、顔領域画像を適正に補正することができる顔領域特性値補正量として算出されるのである。 For example, when a target value is set for each RGB value, the target value is uniquely determined and the correction amount is determined regardless of the saturation, but according to the above configuration, the average density for each RGB is set to hue saturation. Conversion process, the optimum hue correction amount according to the saturation of the original image is apparent in the relationship between the hue that has been converted and placed on the hue saturation coordinate system and the preset target hue. Therefore, the hue correction amount can be calculated accurately and simply. Therefore, the color correction amount obtained by inversely converting the hue correction amount is also calculated as a face region characteristic value correction amount that can appropriately correct the face region image.
また、上述の構成によれば、顔領域の夫々の平均特性値が平均濃度である場合に、複数の顔領域のうち大きい顔領域を重視した顔領域平均特性値を算出することができ、本発明の好適な実施例となる。 Further, according to the above-described configuration, when each average characteristic value of the face area is an average density, it is possible to calculate a face area average characteristic value that places importance on a large face area among a plurality of face areas. This is a preferred embodiment of the invention.
同第四の特徴構成は、同請求項4に記載した通り、上述の第二特徴構成に加えて、前記融合率が前記原画像全体に対する全顔領域の面積比率に基づいて設定される点にある。 As described in claim 4, the fourth feature configuration is that, in addition to the second feature configuration described above, the fusion rate is set based on an area ratio of the entire face region to the entire original image. is there.
上述の構成によれば、原画像全体における全顔領域の占める面積比率が大きい場合は顔領域を重視するように融合率を調節し、原画像全体における全顔領域の占める面積比率が小さい場合は顔領域以外を重視するように融合率を調節することができるので、前記原画像全体における顔領域の重要度に応じた適切な補正量の算出が可能となるのである。 According to the above configuration, when the area ratio of the entire face area in the entire original image is large, the fusion rate is adjusted so that the face area is emphasized, and when the area ratio of the entire face area in the entire original image is small Since the fusion rate can be adjusted so that areas other than the face area are emphasized, it is possible to calculate an appropriate correction amount according to the importance of the face area in the entire original image.
上述の目的を達成するため、本発明による画像処理方法の第一の特徴構成は、特許請求の範囲の書類の請求項5に記載した通り、入力された原画像データに含まれる顔領域から顔領域平均特性値を算出する顔領域特性値演算ステップと、算出された顔領域平均特性値と予め設定された目標特性値との偏差に基づいて顔領域特性値補正量を算出する顔領域特性値補正量算出ステップを備えている画像処理方法であって、前記原画像データの全画像特性値に基づいて基準特性値補正量を算出する基準特性値補正量算出ステップをさらに備え、前記顔領域特性値演算ステップは、前記原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けした重み付け平均特性値を顔領域平均特性値として算出し、前記基準特性値補正量算出ステップにより算出された基準特性値補正量と前記顔領域特性値補正量算出ステップにより算出された顔領域特性値補正量とを所定の融合率で融合処理して適正特性値補正量を算出する適正特性値補正量算出ステップを備えている点にある。 In order to achieve the above object, the first characteristic configuration of the image processing method according to the present invention is that a face region is included in the input original image data as described in claim 5 of the claims. A face area characteristic value calculating step for calculating a face area characteristic value based on a deviation between the calculated face area characteristic value and a preset target characteristic value. An image processing method comprising a correction amount calculation step, further comprising a reference characteristic value correction amount calculation step for calculating a reference characteristic value correction amount based on all image characteristic values of the original image data, The value calculating step calculates a weighted average characteristic value obtained by weighting the average characteristic value of each of the plurality of face areas included in the original image data by the occupied area as the face area average characteristic value, and compensates the reference characteristic value. The reference characteristic value correction amount calculated in the amount calculation step and the face region characteristic value correction amount calculated in the face region characteristic value correction amount calculation process are merged at a predetermined fusion rate to calculate an appropriate characteristic value correction amount. And a proper characteristic value correction amount calculating step.
以上説明した通り、本発明によれば、画像に複数の顔領域が検出される場合であっても、主要被写体である可能性の高い顔領域の特性値を重視した補正を行なうことにより、高い精度で適正な画像に補正できる画像処理装置及び画像処理方法を提供することができるようになった。 As described above, according to the present invention, even when a plurality of face areas are detected in an image, the correction is performed by emphasizing the characteristic value of the face area that is likely to be the main subject. An image processing apparatus and an image processing method that can correct an appropriate image with high accuracy can be provided.
以下に本発明による画像処理装置が組み込まれた写真画像処理装置の実施の形態を説明する。図2に示すように、写真画像処理装置1は、印画紙Pに対して出力画像データに基づいた露光処理を行ない露光された印画紙を現像処理する写真プリンタ2と、現像済みの写真フィルムFから画像を読み込むフィルムスキャナ31やデジタルスチルカメラ等で撮影された画像データが格納されたメモリカード等の画像データ記憶メディアMから画像データを読み取るメディアドライバ32や、コントローラ33としての汎用コンピュータ等を備え、入力された元画像としての写真画像に対するプリントオーダ情報を設定入力するとともに、各種の画像補正処理を行なう操作ステーション3を備えて構成され、前記操作ステーション3で元画像から編集処理されたプリントデータが前記写真プリンタ2に出力されて所望の写真プリントが生成される。 Embodiments of a photographic image processing apparatus incorporating an image processing apparatus according to the present invention will be described below. As shown in FIG. 2, the photographic image processing apparatus 1 includes a photographic printer 2 that performs an exposure process on the photographic paper P based on output image data and develops the exposed photographic paper, and a developed photographic film F. A media driver 32 that reads image data from an image data storage medium M such as a memory card that stores image data taken by a film scanner 31 or a digital still camera that reads an image from the camera, a general-purpose computer as a controller 33, and the like The print data is set and inputted with the print order information for the inputted photographic image as the original image, and includes an operation station 3 for performing various image correction processes, and the print data edited from the original image by the operation station 3 Is output to the photographic printer 2 to produce a desired photographic print. That.
前記写真プリンタ2は、図2及び図3に示すように、ロール状の印画紙Pを収容した二系統の印画紙マガジン21と、前記印画紙マガジン21から引き出された印画紙Pを所定のプリントサイズに切断するシートカッター22と、切断後の印画紙Pの背面にコマ番号等のプリント情報を印字するバックプリント部23と、前記プリントデータに基づいて印画紙Pを露光する露光部24と、露光後の印画紙Pを現像、漂白、定着するための各処理液が充填された複数の処理槽25a、25b、25cを備えた現像処理部25が印画紙Pの搬送経路に沿って配置され、現像処理後に乾燥処理された印画紙Pが排出される横送りコンベア26と、横送りコンベア26に集積された複数枚の印画紙(写真プリント)Pがオーダー単位で仕分けられるソータ27を備えて構成される。 As shown in FIGS. 2 and 3, the photographic printer 2 has two systems of photographic paper magazines 21 containing roll-shaped photographic paper P, and photographic paper P drawn from the photographic paper magazine 21 with a predetermined print. A sheet cutter 22 that cuts into a size; a back print unit 23 that prints print information such as a frame number on the back of the cut photographic paper P; an exposure unit 24 that exposes the photographic paper P based on the print data; A development processing unit 25 including a plurality of processing tanks 25a, 25b, and 25c filled with processing solutions for developing, bleaching, and fixing the exposed photographic paper P is disposed along the transport path of the photographic paper P. The laterally-feeding conveyor 26 that discharges the photographic paper P that has been dried after the development process, and the sheet-paper (photo print) P that is stacked on the laterally-feeding conveyor 26 is sorted in order units. Configured to include the data 27.
前記露光部24には、搬送機構28によって副走査方向に搬送される印画紙Pに対して、搬送方向に直交する主走査方向に前記プリントデータに基づき変調されたRGB三色のレーザ光線束を出力して露光する露光ヘッド24aが収容されている。 The exposure unit 24 receives a laser beam bundle of RGB three colors modulated based on the print data in the main scanning direction orthogonal to the conveyance direction with respect to the photographic paper P conveyed in the sub-scanning direction by the conveyance mechanism 28. An exposure head 24a for outputting and exposing is accommodated.
前記搬送経路に沿って配置された前記露光部24や現像処理部25に応じたプロセス速度で印画紙Pを搬送する複数のローラ対でなる搬送機構28が配置され、前記露光部24の前後には印画紙Pを複列に搬送可能なチャッカー式搬送機構28aが設けられている。 A transport mechanism 28 including a plurality of roller pairs that transport the photographic printing paper P at a process speed corresponding to the exposure unit 24 and the development processing unit 25 disposed along the transport path is disposed before and after the exposure unit 24. Is provided with a chucker-type transport mechanism 28a capable of transporting photographic paper P in multiple rows.
前記操作ステーション3に設けられたコントローラ33には、汎用のオペレーティングシステムの管理下で動作し、前記写真処理装置1の各種制御が実行されるアプリケーションプログラムがインストールされ、オペレータとの操作インターフェースとしてモニタ34、キーボード35、マウス36等が接続されている。 The controller 33 provided in the operation station 3 is installed with an application program that operates under the control of a general-purpose operating system and executes various controls of the photographic processing apparatus 1, and a monitor 34 as an operation interface with the operator. A keyboard 35, a mouse 36, and the like are connected.
前記コントローラ33のハードウェア及びソフトウェアの協働により実行される写真処理プロセスを機能ブロックで説明すると、図4に示すように、前記フィルムスキャナ31やメディアドライバ32によって読み取られた写真画像データを受け取り、所定の前処理を行なって後述のメモリ41に転送する画像入力部40と、前記モニタ34の画面にプリントオーダ情報や画像編集情報を表示するとともに、それらに対して必要なデータ入力のための操作用アイコンを表示するグラフィック操作画面を生成し、或いは表示されたグラフィック操作画面に対する前記キーボード35やマウス36からの入力操作に基づいて各種の制御コマンドを生成するグラフィックユーザーインターフェース部42と、前記画像入力部40から転送される写真画像データ及び後述の画像処理部47による補正処理後の写真画像データやそのときの補正パラメータ、更には設定されたプリントオーダ情報等が所定領域に区画されて格納されるメモリ41と、プリントオーダ情報を生成するオーダー処理部43と、前記メモリ41に格納された各写真画像データに対して濃度補正処理やコントラスト補正処理等を行なう画像処理部47と、前記グラフィックユーザーインターフェース部42からの表示コマンドに基づいて前記メモリ41に展開された画像データや各種の入出力用グラフィックデータ等を前記モニタ34に表示処理するビデオRAM等を備えた表示制御部46と、各種の補正処理が終了した最終の補正画像を前記写真プリンタ2に出力するためのプリントデータを生成するプリントデータ生成部44と、顧客のオーダーに応じて最終の補正画像をCD−R等の記憶媒体に書き込むためのファイル形式に変換するフォーマッタ部45等で構成される。 The photographic processing process executed by the cooperation of the hardware and software of the controller 33 will be described in functional blocks. As shown in FIG. 4, photographic image data read by the film scanner 31 and the media driver 32 is received. An image input unit 40 that performs predetermined preprocessing and transfers it to a memory 41, which will be described later, and print order information and image editing information are displayed on the screen of the monitor 34, and an operation for inputting necessary data for them. A graphic user interface unit 42 that generates a graphic operation screen for displaying an icon or generates various control commands based on an input operation from the keyboard 35 or mouse 36 to the displayed graphic operation screen, and the image input Photos transferred from the section 40 A memory 41 in which image data and photographic image data after correction processing by an image processing unit 47 (to be described later), correction parameters at that time, and set print order information are stored in a predetermined area, and print order information An order processing unit 43 for generating image data, an image processing unit 47 for performing density correction processing and contrast correction processing for each photographic image data stored in the memory 41, and display commands from the graphic user interface unit 42. A display control unit 46 having a video RAM for displaying the image data and various input / output graphic data developed in the memory 41 on the monitor 34 and the final correction after the various correction processes are completed. Print data for generating print data for outputting an image to the photo printer 2 A generating unit 44, and the like formatter 45 which converts the final corrected image according to customer orders to a file format for writing in a storage medium such as a CD-R.
前記フィルムスキャナ31は、フィルムFに記録された画像を低解像度ではあるものの高速で読み取るプレスキャンモードと、低速ではあるものの高解像度で読み取る本スキャンモードの二モードで作動するように構成され、プレスキャンモードで読み込まれた低解像度の画像に対して各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて本スキャンモードで読み込まれた高解像度の画像に対する最終の補正処理が実行されて前記プリンタ2に出力される。 The film scanner 31 is configured to operate in two modes: a pre-scan mode that reads an image recorded on the film F at a high speed although it is a low resolution, and a main scan mode that reads a high resolution at a low speed. Various correction processes are performed on the low-resolution image read in the can mode, and the final resolution for the high-resolution image read in the main scan mode based on the correction parameters stored in the memory 41 at that time. Correction processing is executed and output to the printer 2.
同様に、前記メディアドライバ32から読み込まれた画像ファイルには高解像度の撮影画像とそのサムネイル画像が含まれ、サムネイル画像に対して後述の各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて高解像度の撮影画像に対する最終の補正処理が実行される。尚、画像ファイルにサムネイル画像が含まれないときには、前記画像入力部40で高解像度の撮影画像からサムネイル画像が生成されて前記メモリ41に転送される。このように、低解像度の画像に対して頻繁に試行錯誤される各種の編集処理が実行されることによりコントローラ33の演算負荷が低減されるように構成されている。 Similarly, the image file read from the media driver 32 includes a high-resolution captured image and its thumbnail image, and various correction processes described later are performed on the thumbnail image. Based on the stored correction parameters, a final correction process is performed on the high-resolution captured image. When the image file does not include a thumbnail image, the image input unit 40 generates a thumbnail image from the high-resolution captured image and transfers it to the memory 41. In this way, the calculation load of the controller 33 is reduced by executing various editing processes that are frequently trial and error on low-resolution images.
前記画像処理部47は、図1に示すように、入力された原画像データに含まれる被写体の顔領域を検出する顔領域検出部10と、前記原画像データに対してカラー補正処理を実施するカラー補正処理部11と、前記原画像データに対して濃度補正処理を実施する濃度補正処理部12と、前記濃度補正処理部12で濃度補正のために生成された濃度補正曲線に対してコントラスト補正を施すコントラスト補正部13と、撮影レンズに起因する歪を補正する歪補正部14と、画像のエッジを強調しノイズを低減する鮮鋭化処理部15と、写真プリントのサイズに適した画像サイズに変換する拡縮処理部16等を備えて構成されている。 As shown in FIG. 1, the image processing unit 47 performs a color correction process on the original image data, and a face region detection unit 10 that detects a face region of a subject included in the input original image data. A color correction processing unit 11, a density correction processing unit 12 for performing density correction processing on the original image data, and a contrast correction for the density correction curve generated for density correction by the density correction processing unit 12 A contrast correction unit 13 that performs image correction, a distortion correction unit 14 that corrects distortion caused by the photographing lens, a sharpening processing unit 15 that enhances an edge of an image and reduces noise, and an image size suitable for the size of a photographic print. An enlargement / reduction processing unit 16 or the like for conversion is provided.
前記顔領域検出部10は、前記原画像データから被写体として人物の顔領域を抽出する顔領域抽出部101と、前記顔領域抽出部101で検出された前記原画像データに含まれる顔領域から顔領域平均特性値を算出する顔領域特性値演算手段102を備えて構成されている。 The face area detector 10 extracts a face area of a person as a subject from the original image data, and a face from the face area included in the original image data detected by the face area extractor 101. A face area characteristic value calculating means 102 for calculating the area average characteristic value is provided.
前記顔領域抽出部101は、例えば、前記原画像データから抽出された濃度エッジやカラーエッジに基づく輪郭が顔領域であるか否かを、予め準備された顔領域の輪郭、目、鼻、口、耳等の複数の要素配置パターンとの一致度を評価することによるパターン認識技術に基づいて検出する等といった公知の技術を用いて実現されるものである。 For example, the face area extraction unit 101 determines whether or not the outline based on the density edge and the color edge extracted from the original image data is a face area. It is realized using a known technique such as detection based on a pattern recognition technique by evaluating the degree of coincidence with a plurality of element arrangement patterns such as ears.
しかし、上述のパターン認識技術に基づいて検出した顔領域は、顔と周辺領域を合わせた四角形の領域であり顔以外の要素が含まれていることから、より高精度の画像処理を行うために、検出した顔領域から肌領域以外の領域を除去した後に、肌領域の平均特性値を顔領域の平均特性値として求めてもよい。 However, the face area detected based on the above-described pattern recognition technology is a quadrangular area that combines the face and the peripheral area and includes elements other than the face, so that more accurate image processing is performed. Alternatively, after removing regions other than the skin region from the detected face region, the average characteristic value of the skin region may be obtained as the average characteristic value of the face region.
例えば、一旦検出した顔領域に対して前記顔領域の中心画素の座標(四角形の対角線の交点等)と色相・彩度・濃度を算出しておき、中心画素の座標から放射状に周辺画素を走査していく。走査は、被走査画素の色相・彩度・濃度と前記中心画素の色相・彩度・濃度の差分が予め設定された所定値以内であるか否かで行い、所定値以内であれば前記被走査画素は顔領域を構成するとみなし、所定値より大きければ前記被走査画素は顔領域を構成しないとみなす。顔領域を構成しないとみなされた画素があると、前記中心画素より見て前記被走査画素より外側の画素は顔領域を構成しないとみなし走査は行わない。つまり、上記の方法では、中心画素の座標の色相・彩度・濃度との差分が所定値以内である一連かつ一体の領域が検出され、該検出された領域を顔領域とみなしている。 For example, for the detected face area, the coordinates of the center pixel of the face area (intersection of square diagonal lines, etc.) and hue, saturation, and density are calculated, and the peripheral pixels are scanned radially from the coordinates of the center pixel. I will do it. Scanning is performed based on whether or not the difference between the hue / saturation / density of the scanned pixel and the hue / saturation / density of the central pixel is within a predetermined value set in advance. The scanning pixel is regarded as constituting a face area, and if the scanning pixel is larger than a predetermined value, the scanned pixel is regarded as not constituting a face area. If there is a pixel that is not considered to constitute a face area, pixels outside the scanned pixel as viewed from the center pixel are regarded as not constituting a face area, and scanning is not performed. That is, in the above method, a series of integrated areas in which the difference between the hue, saturation, and density of the coordinates of the center pixel is within a predetermined value is detected, and the detected area is regarded as a face area.
尚、前記顔領域抽出部101における抽出処理は、上述したように自動的に行なうように構成するもののみならず、モニタ34の画面に表示された原画像に対してオペレータがマウス36等により手動で入力指定された領域を顔領域として抽出するように構成されるものであってもよい。 It should be noted that the extraction process in the face area extraction unit 101 is not only configured to be automatically performed as described above, but the operator manually operates the original image displayed on the screen of the monitor 34 with the mouse 36 or the like. It may be configured to extract the area designated by the input as a face area.
前記顔領域特性値演算手段102は、入力された原画像データに含まれる顔領域から顔領域平均特性値を算出するように構成されており、詳述すると、前記原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けした重み付け平均特性値を顔領域平均特性値として算出するように構成されている。 The face area characteristic value calculating means 102 is configured to calculate a face area average characteristic value from the face area included in the input original image data. A weighted average characteristic value obtained by weighting each average characteristic value of the face area with each occupied area is calculated as the face area average characteristic value.
本実施形態では、前記顔領域特性値演算手段102は、前記顔領域抽出部101で検出された各顔領域のRGB毎の平均特性値を各顔領域の占有面積で重み付けしたRGB毎の重み付け平均濃度を顔領域平均特性値として算出しており、例えば、前記顔領域抽出部101おいて検出された顔領域が顔領域Aと顔領域Bの2個であり、前記顔領域のサイズが夫々SA、SBであり、前記顔領域Aの赤色(R)の平均特性値がRA、前記顔領域Aの緑色(G)の平均特性値がGA、前記顔領域Aの青色(B)の平均特性値がBA、前記顔領域Bの赤色(R)の平均特性値がRB、前記顔領域Bの緑色(G)の平均特性値がGB、前記顔領域Bの青色(B)の平均特性値がBBである場合において、前記顔領域平均特性値として算出されるRGB毎の重み付け平均濃度を夫々DR、DG、DBとすると、前記重み付け平均濃度DR、DG、DBは夫々〔数1〕、〔数2〕、〔数3〕のような演算を行うことによって算出される。 In the present embodiment, the face area characteristic value calculating means 102 is a weighted average for each RGB in which the average characteristic value for each RGB of each face area detected by the face area extracting unit 101 is weighted by the occupied area of each face area. The density is calculated as the face area average characteristic value. For example, the face area detected by the face area extraction unit 101 is two face areas A and B, and the size of the face area is S. A , S B , the average characteristic value of red (R) of the face area A is R A , the average characteristic value of green (G) of the face area A is G A , and the blue (B) of the face area A Is the average characteristic value of B A , the average characteristic value of red (R) of the face area B is R B , the average characteristic value of green (G) of the face area B is G B , and the blue (B in case the average characteristic value of) is B B, is calculated as the facial area average characteristic value Husband weighted average concentration for each of RGB s D R, D G, When D B, the weighted average density D R, D G, D B are each equation (1), expression (2), such as Formula 3 It is calculated by performing an operation.
前記カラー補正処理部11は、前記顔領域特性値演算手段102で算出された顔領域平均特性値と予め設定された目標特性値との偏差に基づいて顔領域特性値補正量を算出する顔領域特性値補正量算出手段111と、前記原画像データの全画像特性値に基づいて基準特性値補正量を算出する基準特性値補正量算出手段112と、前記基準特性値補正量算出手段112により算出された基準特性値補正量と前記顔領域特性値補正量算出手段111により算出された顔領域特性値補正量とを所定の融合率で融合処理して適正特性値補正量を算出する適正特性値補正量算出手段113を備えて構成されている。 The color correction processing unit 11 calculates a face area characteristic value correction amount based on a deviation between the face area average characteristic value calculated by the face area characteristic value calculating means 102 and a preset target characteristic value. Calculated by a characteristic value correction amount calculation unit 111, a reference characteristic value correction amount calculation unit 112 that calculates a reference characteristic value correction amount based on all image characteristic values of the original image data, and the reference characteristic value correction amount calculation unit 112 The appropriate characteristic value for calculating the appropriate characteristic value correction amount by fusing the reference characteristic value correction amount and the face area characteristic value correction amount calculated by the face area characteristic value correction amount calculating unit 111 with a predetermined fusion rate The correction amount calculation means 113 is provided.
前記顔領域特性値補正量算出手段111は、算出された顔領域平均特性値と予め設定された目標特性値との偏差に基づいて顔領域特性値補正量を算出するように構成されている。具体的には以下の手順にて算出される。即ち、第一ステップとして、前記顔領域平均特性値を色相座標系に変換し、第二ステップとして、前記顔領域平均特性値が色相彩度座標系に変換処理された前記顔領域平均特性値に対応する色相と前記色相彩度座標系における前記目標特性値に対応する目標色相との偏差に基づいて色相補正量を算出し、第三ステップとして、算出した色相補正量を逆変換して得られるRGB毎のカラー補正量を前記顔領域特性値補正量として算出するように構成されている。 The face area characteristic value correction amount calculation unit 111 is configured to calculate a face area characteristic value correction amount based on a deviation between the calculated face area average characteristic value and a preset target characteristic value. Specifically, it is calculated by the following procedure. That is, as the first step, the face area average characteristic value is converted into a hue coordinate system, and as the second step, the face area average characteristic value is converted into the hue saturation coordinate system. Obtained by calculating the hue correction amount based on the deviation between the corresponding hue and the target hue corresponding to the target characteristic value in the hue saturation coordinate system, and as a third step, obtained by inversely converting the calculated hue correction amount A color correction amount for each RGB is calculated as the face area characteristic value correction amount.
以下、各ステップについて詳述する。第一ステップでは、RGB毎の重み付け平均濃度DR、DG、DBとして算出された前記顔領域平均特性値を〔数4〕に示す行列演算式に基づいて色相彩度座標系に変換する。 Hereinafter, each step will be described in detail. In the first step, the face area average characteristic values calculated as weighted average densities D R , D G , and D B for each RGB are converted into a hue saturation coordinate system based on a matrix arithmetic expression shown in [Equation 4]. .
前記色相彩度座標系は、図5に示すように、横軸がP、縦軸がQで示されており、原点からの距離で彩度を示しており、原点からの方向で色相を示している。具体的には、原点が無彩色であり、P座標において原点より正方向の直線を角度ゼロとした場合において、赤色が−5π/6、青色がπ/2、緑色が−π/6、黄色が−π/2、シアンがπ/6、マゼンダが5π/6となっている。そして、〔数4〕で変換された前記顔領域平均特性値は、座標D(p,q)として前記色相彩度座標系の一点を占める。 In the hue / saturation coordinate system, as shown in FIG. 5, the horizontal axis is indicated by P and the vertical axis is indicated by Q. The saturation is indicated by the distance from the origin, and the hue is indicated by the direction from the origin. ing. Specifically, when the origin is an achromatic color and the straight line from the origin in the P coordinate is set to an angle of zero, red is −5π / 6, blue is π / 2, green is −π / 6, yellow Is −π / 2, cyan is π / 6, and magenta is 5π / 6. The face area average characteristic value converted by [Equation 4] occupies one point of the hue / saturation coordinate system as coordinates D (p, q).
第二ステップでは、第一ステップにおいて変換処理された前記顔領域平均特性値の色相彩度座標系における色相、つまり前記座標D(p,q)と前記目標特性値に対応する前記色相彩度座標系における目標色相との偏差に基づいて色相補正量を算出する。 In the second step, the hue in the hue saturation coordinate system of the face area average characteristic value converted in the first step, that is, the hue saturation coordinate corresponding to the coordinate D (p, q) and the target characteristic value. A hue correction amount is calculated based on the deviation from the target hue in the system.
詳述すると、図5に示すように、前記色相彩度座標系に目標特性値としての目標色相THを設定しておき、第一ステップにおいて変換処理された前記顔領域平均特性値の色相彩度座標系における座標D(p,q)との偏差、つまり色相補正量RH(Δp,Δq)を算出する。前記目標色相THは、様々な撮影条件下で撮影した顔領域を含む多数のサンプル画像を統計的に処理することによって得られるものであり、例えば、人間の肌色として理想的な色相を示している。 More specifically, as shown in FIG. 5, a target hue TH as a target characteristic value is set in the hue saturation coordinate system, and the hue saturation of the face area average characteristic value converted in the first step is set. A deviation from the coordinate D (p, q) in the coordinate system, that is, a hue correction amount RH (Δp, Δq) is calculated. The target hue TH is obtained by statistically processing a large number of sample images including a face area photographed under various photographing conditions, and shows an ideal hue as a human skin color, for example. .
前記色相補正量RH(Δp,Δq)は、前記座標D(p,q)と前記目標色相THとの距離、つまり前記座標D(p,q)から前記目標色相THへ引いた垂線の距離で示される。 The hue correction amount RH (Δp, Δq) is a distance between the coordinates D (p, q) and the target hue TH, that is, a perpendicular distance drawn from the coordinates D (p, q) to the target hue TH. Indicated.
第三ステップでは、算出した前記色相補正量RH(Δp,Δq)を逆変換して得られるRGB毎のカラー補正量を前記顔領域特性値補正量として算出する。つまり、前記色相補正量RH(Δp,Δq)を前記顔領域特性補正量RF(ΔR,ΔG,ΔB)に逆変換する。 In a third step, a color correction amount for each RGB obtained by inversely converting the calculated hue correction amount RH (Δp, Δq) is calculated as the face region characteristic value correction amount. That is, the hue correction amount RH (Δp, Δq) is inversely converted to the face region characteristic correction amount RF (ΔR, ΔG, ΔB).
前記基準特性値補正量算出手段112は、前記原画像データの全画像特性値に基づいて基準特性値補正量を算出するように構成されている。例えば、平均的な戸外の被写体は、ネガ全体の色を混ぜ合わせると灰色に近くなるというエバンスの定理に基づいて、前記原画像データ全体のRGB毎の平均濃度で示される画素がグレーとなるRGB毎のカラー補正量を基準特性値補正量として算出するLATD(Large Area Transmittance Density)方式や、高彩度画素を除去したり、彩度によって重み付けをした条件付平均値を求める変形LATD方式を採用することができる。原画像データ全体のRGB毎の平均濃度で示される画素がグレーとなるRGB毎のカラー補正量を基準特性値補正量として算出することで、原画像全体を適正に補正することができる基準特性値補正量を算出することができるのである。 The reference characteristic value correction amount calculation unit 112 is configured to calculate a reference characteristic value correction amount based on all image characteristic values of the original image data. For example, based on Evans' theorem that an average outdoor subject becomes close to gray when the colors of the entire negative are mixed, the pixels indicated by the average density for each RGB of the entire original image data are gray. Employing a LATD (Large Area Transmittance Density) method that calculates a color correction amount for each color as a reference characteristic value correction amount, or a modified LATD method that removes high saturation pixels or obtains a conditional average value weighted by saturation. Can do. A reference characteristic value that can appropriately correct the entire original image by calculating the color correction amount for each RGB in which the pixels indicated by the average density for each RGB of the entire original image data are gray as the reference characteristic value correction amount The correction amount can be calculated.
具体的には、前記原画像データ全体のRGB毎の平均濃度を夫々RAVR、GAVR、BAVRとして、グレーを構成するRGB毎の濃度を夫々RGR、GGR、BGRとすると、前記基準特性値補正量RSは、RGB毎に算出され、RGR−RAVR、GGR−GAVR、BGR−BAVRとなる。通常、RAVR、GAVR、BAVRの何れかの成分を基準としてそれらが同値となるように他の成分の補正量を基準特性値補正量と設定する。 Specifically, if the average density for each RGB of the entire original image data is R AVR , G AVR and B AVR , and the density for each RGB constituting the gray is R GR , G GR and B GR , respectively, reference characteristic value correction amount RS is calculated for each RGB, R GR -R AVR, G GR -G AVR, the B GR -B AVR. Usually, the correction amount of the other component is set as the reference characteristic value correction amount so that any component of R AVR , G AVR , and B AVR has the same value.
前記適正特性値補正量算出手段113は、前記基準特性値補正量算出手段112により算出された基準特性値補正量RSと前記顔領域特性値補正量算出手段111により算出された顔領域特性値補正量RFとを所定の融合率で融合処理して適正特性値補正量RJを算出するように構成されている。本実施例では、前記融合率が前記原画像全体に対する全顔領域の面積比率に基づいて前記適正特性値補正量RJを算出するように構成されている。以下、前記融合率の算出について説明した後に、前記適正特性値補正量RJの算出について説明する。 The appropriate characteristic value correction amount calculation unit 113 includes a reference characteristic value correction amount RS calculated by the reference characteristic value correction amount calculation unit 112 and a face region characteristic value correction calculated by the face region characteristic value correction amount calculation unit 111. A proper characteristic value correction amount RJ is calculated by fusing the amount RF with a predetermined fusion rate. In the present embodiment, the appropriate characteristic value correction amount RJ is calculated based on the area ratio of the entire face area with respect to the entire original image. Hereinafter, after calculating the fusion rate, calculation of the appropriate characteristic value correction amount RJ will be described.
前記融合率の算出は、例えば、前記原画像において、検出された顔領域が顔領域Aと顔領域Bの2個で、前記顔領域のサイズが夫々SA、SBであり、前記原画像全体のサイズがSsumである場合、顔領域が占める割合Pは、〔数5〕のような演算を行うことによって算出される。 The calculation of the fusion rate is, for example, in the original image, the detected face areas are two face areas A and B, and the sizes of the face areas are S A and S B , respectively. When the entire size is S sum , the ratio P occupied by the face area is calculated by performing an operation such as [Equation 5].
そして、顔領域が占める割合Pに対して、〔数6〕のような演算を行うことによって、前記融合率rfが算出される。 Then, the fusion rate r f is calculated by performing the calculation of [Formula 6] on the ratio P occupied by the face area.
ここで、係数C、Dは本実施形態の有効な範囲内で適宜設定可能な値であり、試行錯誤の結果、所定値が格納されているが、この所定値に限るものではなく、任意の撮影条件(例えば、撮影光の種類、強度、向き、露光量等)が異なる母集団に基づき適宜設定される値である。係数C、Dの具体的な値としては、例えば、前記平均濃度値と顔領域サイズに基づく重み係数rfが1を超えたら1とする条件下で、C=0.05、D=0.5と設定すると、前記顔領域が占める割合Pが0(%)から100(%)へと増加するに従って、前記融合率rfは0.5から1へと増加する。尚、本例では、前記融合率rfは、前記顔領域が占める割合Pが10(%)以上である場合は全てrf=1となっている。これは、通常の状況で撮影された写真画像の殆どにおいて、顔領域が全領域に対して占める割合が10パーセント以下であるとの統計から係数C、Dが導かれている結果である。 Here, the coefficients C and D are values that can be set as appropriate within the effective range of the present embodiment, and a predetermined value is stored as a result of trial and error. It is a value that is set as appropriate based on populations with different imaging conditions (for example, the type, intensity, direction, exposure amount, etc.) Specific values of the coefficients C and D include, for example, C = 0.05, D = 0... Under the condition that the weight coefficient r f based on the average density value and the face area size exceeds 1, When 5 is set, the fusion rate r f increases from 0.5 to 1 as the ratio P occupied by the face region increases from 0 (%) to 100 (%). In this example, the fusion rate r f is r f = 1 when the ratio P occupied by the face region is 10% or more. This is a result of the coefficients C and D being derived from statistics that the ratio of the face area to the entire area is 10% or less in most photographic images taken in a normal situation.
前記適正特性値補正量RJは、例えば、基準特性値補正量RS、顔領域特性値補正量RF、そして前記融合率rfに基づいて、〔数7〕に示すような重み付け演算を行なうことにより算出される。 The appropriate characteristic value correction amount RJ is obtained, for example, by performing a weighting calculation as shown in [Equation 7] based on the reference characteristic value correction amount RS, the face region characteristic value correction amount RF, and the fusion rate r f. Calculated.
前記融合率rfを使用することで、前記原画像全体に占める顔領域の割合が大きい場合には、前記基準特性値補正量RSと前記顔領域特性値補正量RFとを融合させる際に、前記顔領域特性値補正量RFに重みを置くことが可能となる。 When the ratio of the face area in the entire original image is large by using the fusion rate r f , when the reference characteristic value correction amount RS and the face area characteristic value correction amount RF are fused, It is possible to place a weight on the face area characteristic value correction amount RF.
そして、前記適正特性値補正量算出手段113で得られた適正特性補正量RJに基づき、カラー補正が行なわれるのである。 Then, color correction is performed based on the appropriate characteristic correction amount RJ obtained by the appropriate characteristic value correction amount calculating means 113.
尚、上述の実施形態において、顔領域が検出されなかった場合は、前記基準特性値補正量RSを前記適正特性値補正量RJとしてカラー補正を行う。 In the above-described embodiment, when a face area is not detected, color correction is performed using the reference characteristic value correction amount RS as the appropriate characteristic value correction amount RJ.
以上説明した本発明による画像処理装置は、入力された原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けした重み付け平均特性値を顔領域平均特性値として算出する顔領域特性値演算手段と、算出された顔領域平均特性値と予め設定された目標特性値との偏差に基づいて顔領域特性値補正量を算出する顔領域特性値補正量算出手段と、前記原画像データの全画像特性値に基づいて基準特性値補正量を算出する基準特性値補正量算出手段と、前記基準特性値補正量算出手段により算出された基準特性値補正量と前記顔領域特性値補正量算出手段により算出された顔領域特性値補正量とを所定の融合率で融合処理して適正特性値補正量を算出する適正特性値補正量算出手段としてコンピュータを機能させるための画像処理プログラムがインストールされることにより容易に実現される。 The image processing apparatus according to the present invention described above calculates, as the face area average characteristic value, the weighted average characteristic value obtained by weighting the average characteristic value of each of the plurality of face areas included in the input original image data by the occupied area. A face area characteristic value calculating means, a face area characteristic value correction amount calculating means for calculating a face area characteristic value correction amount based on a deviation between the calculated face area average characteristic value and a preset target characteristic value; Reference characteristic value correction amount calculating means for calculating a reference characteristic value correction amount based on all image characteristic values of the original image data, the reference characteristic value correction amount calculated by the reference characteristic value correction amount calculating means, and the face area The computer is caused to function as an appropriate characteristic value correction amount calculating means for calculating an appropriate characteristic value correction amount by fusing the face area characteristic value correction amount calculated by the characteristic value correction amount calculating means with a predetermined fusion rate. Image processing program can be easily realized by being installed.
以下、別実施形態について説明する。上述の実施形態では、顔領域特性値補正量算出手段111における処理での色相補正量RH(Δp,Δq)の算出は、顔領域平均特性値を色相彩度座標系に変換した座標D(p,q)と前記色相彩度座標系における目標色相THとの距離、つまり前記座標D(p,q)から前記目標色相THへ引いた垂線の距離で示される構成について説明したが、前記色相補正量RH(Δp,Δq)は、垂線の距離でなくてもよい。 Hereinafter, another embodiment will be described. In the above-described embodiment, the calculation of the hue correction amount RH (Δp, Δq) in the process in the face region characteristic value correction amount calculation unit 111 is based on the coordinate D (p) obtained by converting the face region average characteristic value into the hue saturation coordinate system. , Q) and the distance between the hue saturation coordinate system and the target hue TH, that is, the configuration indicated by the distance of the perpendicular drawn from the coordinates D (p, q) to the target hue TH. The quantity RH (Δp, Δq) may not be a perpendicular distance.
例えば、前記色相補正量RH(Δp,Δq)を前記座標D(p,q)から前記目標色相THへ引いた垂線の距離とすると、人肌の色に通常求められているよりも赤色成分が少なくなる傾向にある。上述のような赤色成分の減少量を少なくするために、図6に示すように、Δpに所定の重み付け演算値rpを乗じた値Δp・rpを前記色相補正量RH(Δp,Δq)のP成分とする、つまり前記色相補正量RHをRHr(Δp・rp,Δq)とすることで、二重矢印に示すように赤色成分を増加させるような構成が挙げられる。前記重み付け演算値rpは、例えば、図7に示すように、前記座標D(p,q)の彩度、つまり原点からの距離に応じて決定される。 For example, when the hue correction amount RH (Δp, Δq) is a distance of a perpendicular line drawn from the coordinates D (p, q) to the target hue TH, the red component is more than that normally required for human skin color. It tends to decrease. In order to reduce the decrease of the red component as described above, as shown in FIG. 6, the value Delta] p · r p multiplied by predetermined weighting calculation value r p in Delta] p the hue correction amount RH (Δp, Δq) In other words, by setting the hue correction amount RH to RH r (Δp · r p , Δq), the red component is increased as indicated by a double arrow. The weighting calculation value r p, for example, as shown in FIG. 7, the saturation of the coordinate D (p, q), that is, determined by the distance from the origin.
尚、上述の重み付け演算値は、Δqに所定の重み付け演算値rqを乗じた値Δq・rqを前記色相補正量RH(Δp,Δq)のQ成分としてもよく、また、ΔpとΔqの両方に前記重み付け演算値rpとrqを夫々乗じた値を前記色相補正量RH(Δp,Δq)のP成分とQ成分としてもよい。 Incidentally, the weighting calculation value of the above, the value [Delta] q · r q obtained by multiplying a predetermined weighting operation value r q in [Delta] q hue correction amount RH (Δp, Δq) may be a Q component of, also, the Delta] p and [Delta] q wherein both the weighting calculation value r p and r q respectively multiplied values hue correction amount RH (Δp, Δq) may be P and Q components of the.
また、彩度に応じて決定される重み付け演算値の代わりに、図8に示すように、前記座標D(p,q)の色相に応じて決定される補正シフト量spとsqを加えた値Δp+spとΔq+sqを前記色相補正量RH(Δp,Δq)のP成分・Q成分とする、つまり前記色相補正量RHをRHs(Δp+sp,Δq+sq)とすることで、赤色成分を増加させるような構成も挙げられる。尚、図8に示すグラフの横軸(原点からの方向)は、色相彩度座標系においてP座標の原点から正方向の直線を角度ゼロとした場合の角度をラジアンで示している。 Further, instead of the weighting calculation value determined in accordance with saturation, as shown in FIG. 8, the coordinates D (p, q) correction shift amount is determined according to the hue of s p and s q added The values Δp + s p and Δq + s q are used as the P and Q components of the hue correction amount RH (Δp, Δq), that is, the hue correction amount RH is set to RH s (Δp + s p , Δq + s q ). There is also a configuration that increases. The horizontal axis (direction from the origin) of the graph shown in FIG. 8 indicates the angle in radians when the straight line from the origin of the P coordinate in the hue saturation coordinate system is zero.
さらに、前記重み付け演算値rp、rqと前記補正シフト量sp、sqの双方を用いて、前記色相補正量RHをRHrs(Δp・rp+sp,Δq・rq+sq)と赤色成分を増加させるような構成も挙げられる。 Furthermore, the weighting operation value r p, using both r q and the correction shift amount s p, s q, the hue correction amount RH to RH rs (Δp · r p + s p, Δq · r q + s q) And a configuration that increases the red component.
上述の実施形態では、基準特性値補正量算出手段112は、原画像データ全体のRGB毎の平均濃度で示される画素がグレーとなるRGB毎のカラー補正量を基準特性値補正量として算出するLATD方式を採用するものとして説明したが、基準特性値補正量算出手段112としては、原画像データの全画像特性値に基づいて基準特性値補正量を算出するものであれば、これ以外の手法を採用するものであってもよい。 In the above-described embodiment, the reference characteristic value correction amount calculating unit 112 calculates the color correction amount for each RGB in which the pixels indicated by the average density for each RGB of the entire original image data are gray as the reference characteristic value correction amount. Although the method has been described as adopting the method, the reference characteristic value correction amount calculation unit 112 may use other methods as long as the reference characteristic value correction amount is calculated based on all image characteristic values of the original image data. You may employ | adopt.
例えば、入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求めるLATD演算手段と、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換手段と、前記色相彩度座標系に前記平均画素値を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算手段と、前記円領域特性値に基づいてカラー補正量を求める補正量演算手段とを備えて構成するものであってもよい。 For example, LATD calculation means for obtaining an average pixel value for each color component with respect to all constituent pixels for each inputted frame image, and for each pixel of the frame image, saturation is defined by a distance from the center and an angle around the center. Coordinate conversion means for converting into pixels in a hue saturation coordinate system in which hue is defined, and a plurality of concentric circular regions centering on the average pixel value in the hue saturation coordinate system are defined, and each circular region is defined in each circle region A circular area characteristic value calculating means for obtaining a circular area characteristic value indicating a distribution characteristic of the included pixels for each area; and a correction amount calculating means for obtaining a color correction amount based on the circular area characteristic value. There may be.
ここに、前記円領域特性値は、各円領域に含まれる画素の画素数と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値と前記平均画素値との差分値で構成され、前記補正量演算手段は、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成することができる。 Here, the circular area characteristic value includes the number of pixels included in each circular area and the difference between the average pixel value and the average pixel value that is an average value for each color component of the pixels included in each circular area. The correction amount calculation means can be constituted by a neural network learned by an error back propagation learning method or multiple regression analysis means.
上述の実施形態では、カラー補正処理部11または濃度補正処理部12は、全画像特性値に基づいて算出された基準特性値補正量と、顔領域の画像特性値に基づいて算出された顔領域特性値補正量とを融合処理して適正特性値補正量を算出する構成について説明したが、前記カラー補正処理部11または前記濃度補正処理部12は、顔領域特性値補正量算出手段111において顔領域の画像特性値に基づいて算出した顔領域特性値補正量を融合することなく顔領域に対してのみ適用する構成であってもよい。 In the above-described embodiment, the color correction processing unit 11 or the density correction processing unit 12 determines the reference characteristic value correction amount calculated based on the entire image characteristic value and the face area calculated based on the image characteristic value of the face area. The configuration for calculating the appropriate characteristic value correction amount by performing the fusion processing with the characteristic value correction amount has been described. However, the color correction processing unit 11 or the density correction processing unit 12 performs the face area characteristic value correction amount calculation unit 111 in the face area. The configuration may be such that the face area characteristic value correction amount calculated based on the image characteristic value of the area is applied only to the face area without merging.
つまり、前記顔領域特性値補正量算出手段111は、顔領域専用の補正量算出手段として独立して使用可能な構成であってもよい。このような構成とすることで、原画像データより検出された顔領域に対しては顔領域特性値補正量を使用して、顔領域以外の領域に対しては基準特性値補正量を使用することが可能となる。また、別装置において予め抽出された又は切り取られた顔領域のみの画像を処理するのに適した構成とすることが可能となる。 In other words, the face area characteristic value correction amount calculation unit 111 may be configured to be used independently as a correction amount calculation unit dedicated to a face area. With this configuration, the face area characteristic value correction amount is used for the face area detected from the original image data, and the reference characteristic value correction amount is used for the area other than the face area. It becomes possible. In addition, it is possible to adopt a configuration suitable for processing an image of only a face area extracted or cut out in advance in another apparatus.
上述の実施形態では、各種の特性値や補正量をRGB表色系で演算処理する構成について説明したが、RGB表色系に限るものではなく他の表色系で演算処理されるものであってもよい。例えば、カラー補正する場合にはCYM表色系などを採用することも可能であり、後述の濃度補正処理ではYCC表色系を採用することも可能である。 In the above-described embodiment, the configuration in which various characteristic values and correction amounts are calculated in the RGB color system has been described. However, the present invention is not limited to the RGB color system, and is calculated in another color system. May be. For example, in the case of color correction, it is possible to adopt a CYM color system or the like, and it is also possible to adopt a YCC color system in density correction processing described later.
上述の実施形態では、カラー補正に用いるための適正特性値補正量RJをカラー補正処理部11において算出してカラー補正に用いる形態について説明したが、前記適正特性値補正量RJを濃度補正処理部12において算出して濃度補正に用いる形態であってもよい。尚、本実施形態の説明において、濃度補正処理部12に備えられている要素、つまり顔領域特性値補正量算出手段、基準特性値補正量算出手段、及び適正特性値補正量算出手段は、上述の実施形態における要素と番号を変えて説明する。 In the above-described embodiment, the mode in which the appropriate characteristic value correction amount RJ for use in color correction is calculated in the color correction processing unit 11 and used in color correction has been described. However, the appropriate characteristic value correction amount RJ is used in the density correction processing unit. 12 may be calculated and used for density correction. In the description of the present embodiment, the elements provided in the density correction processing unit 12, that is, the face area characteristic value correction amount calculating means, the reference characteristic value correction amount calculating means, and the appropriate characteristic value correction amount calculating means are described above. The elements and numbers in the embodiment will be described.
本実施形態では、例えば、図9に示すように、前記顔領域特性値演算手段102は、各顔領域のRGB毎の平均濃度値の代わりに、各顔領域の構成画素毎のRGB平均濃度((R+G+B)/3)の画素平均値を各顔領域の占有面積で重み付けした重み付け平均濃度を顔領域平均特性値として算出するように構成されており、前記濃度補正処理部12は、顔領域特性値補正量算出手段121、基準特性値補正量算出手段122、適正特性値補正量算出手段123を備えて構成されている。 In the present embodiment, for example, as shown in FIG. 9, the face area characteristic value calculation unit 102 replaces the average density value for each RGB of each face area with an RGB average density (for each constituent pixel of each face area). The weighted average density obtained by weighting the pixel average value of (R + G + B) / 3) by the area occupied by each face area is calculated as the face area average characteristic value, and the density correction processing unit 12 is configured to calculate the face area characteristic. A value correction amount calculation unit 121, a reference characteristic value correction amount calculation unit 122, and an appropriate characteristic value correction amount calculation unit 123 are provided.
前記基準特性値補正量算出手段122は、前記原画像データにおける濃度ヒストグラムを生成して、予め記憶されている〔数8〕に示す関数に従って前記原画像データの濃度補正値Gammaを基準特性値補正量として算出するように構成されている。 The reference characteristic value correction amount calculation unit 122 generates a density histogram in the original image data, and corrects the density correction value Gamma of the original image data according to a function shown in [Formula 8] stored in advance. It is configured to calculate as a quantity.
ここで、前記Maxgは、図10に示すように、前記原画像データが有する濃度値の最大値、つまり、最も明るい画素の濃度値であり、前記Mingは、前記原画像データが有する濃度値の最小値、つまり、最も暗い画素の濃度値であり、前記Massは、前記原画像データの平均濃度となる濃度値である。前記Maxkは、前記原画像データにおける濃度設定値の最大の値であり、例えば、8ビットで0階調から255階調までの間で濃度値設定が行なわれているときには255とする。前記Minkは、前記原画像データにおける濃度設定値の最小の値であり、例えば、8ビットで0階調から255階調までの間で濃度値設定が行なわれているときには0とする。 Here, as shown in FIG. 10, Maxg is the maximum density value of the original image data, that is, the density value of the brightest pixel, and Ming is the density value of the original image data. The minimum value, that is, the darkest pixel density value, and the Mass is a density value that is an average density of the original image data. The Maxk is the maximum value of the density setting value in the original image data. For example, when the density value is set between 0 gradation and 255 gradation in 8 bits, Maxk is set to 255. The Mink is the minimum density setting value in the original image data. For example, the Mink is set to 0 when the density value is set between 0 gradation and 255 gradation in 8 bits.
前記顔領域特性値補正量算出手段121は、顔領域検出部10により求められた顔領域平均特性値DFavrを変数とする顔依存濃度補正値モデル式に基づいて顔依存濃度補正値Gamma(F)を顔領域特性値補正量として算出するように構成されている。前記モデル式は、様々な撮影条件下で様々な被写体を撮影した多数のサンプル画像に対して、前記基準濃度補正値を変化させた濃度補正値に基づく濃度補正曲線による補正画像を視感評価した結果、顔領域の平均濃度とそのときの顔領域が適正な濃度に補正されたと判断される濃度補正値の分布を統計処理することにより得られた補正関数F1である。 The face area characteristic value correction amount calculating means 121 is a face-dependent density correction value Gamma (F) based on a face-dependent density correction value model expression using the face area average characteristic value D Favr obtained by the face area detection unit 10 as a variable. ) As a face area characteristic value correction amount. The model formula visually evaluated a correction image based on a density correction curve based on a density correction value obtained by changing the reference density correction value for a large number of sample images obtained by shooting various subjects under various shooting conditions. As a result, the correction function F1 is obtained by statistically processing the distribution of density correction values determined to have corrected the average density of the face area and the face area at that time to an appropriate density.
図11に示されるのは、補正関数F1の一例であり、前記顔領域平均特性値DFavrに対して顔依存濃度補正値Gamma(F)が、Gamma(F)=F1(DFavr)により求められるものである。ここに、顔領域の平均濃度は8ビット画像で正規化された値として示されている。 FIG. 11 shows an example of the correction function F1, and the face-dependent density correction value Gamma (F) is obtained by Gamma (F) = F1 (D Favr ) with respect to the face area average characteristic value D Favr . It is what Here, the average density of the face region is shown as a value normalized with an 8-bit image.
前記適正特性値補正量算出手段123は、前記基準特性値補正量算出手段122により算出された濃度補正値Gammaと前記顔領域特性値補正量算出手段121により算出された顔依存濃度補正値Gamma(F)とを所定の融合率で融合処理することで算出される適正濃度補正値Gamma(R)を適正特性値補正量として算出するように構成されており、所定の融合率として、上述の実施形態で算出したと同様の方法、つまり〔数5〕と〔数6〕のような演算を行う方法によって算出された融合率rfを用いるように構成されている。 The appropriate characteristic value correction amount calculation unit 123 includes a density correction value Gamma calculated by the reference characteristic value correction amount calculation unit 122 and a face-dependent density correction value Gamma (calculated by the face area characteristic value correction amount calculation unit 121. F) and the appropriate density correction value Gamma (R) calculated by performing the fusion process at a predetermined fusion rate is calculated as the appropriate characteristic value correction amount. It is configured to use the fusion rate r f calculated by the same method as that calculated in the form, that is, the method of performing calculations such as [Equation 5] and [Equation 6].
前記適正濃度補正値Gamma(R)の算出について、具体的には、前記適正特性値補正量算出手段123は、前記基準濃度補正値Gamma、前記顔依存濃度補正値Gamma(F)、そして前記融合率rfに基づいて、〔数9〕に示すような重み付け演算を行なうことにより前記濃度補正値Gammaを適正濃度補正値Gamma(R)に補正する。 Regarding the calculation of the appropriate density correction value Gamma (R), specifically, the appropriate characteristic value correction amount calculation means 123 includes the reference density correction value Gamma, the face-dependent density correction value Gamma (F), and the fusion. Based on the rate r f , the density correction value Gamma is corrected to the appropriate density correction value Gamma (R) by performing a weighting calculation as shown in [Equation 9].
さらに、前記適正特性値補正量算出手段123は、前記適正濃度補正値Gamma(R)に基づいて、予め記憶されている〔数10〕に示す関数に従って、入力画素濃度値Nin(i)を前記濃度補正値Gammaに応じた出力画素濃度値Nout(i)に濃度値変換するルックアップテーブルとして具現化される濃度補正曲線を生成する(i=0、1、2、・・・、255(8ビットデータの場合))。 Further, the appropriate characteristic value correction amount calculation means 123 calculates the input pixel density value Nin (i) based on the appropriate density correction value Gamma (R) according to the function shown in [Formula 10] stored in advance. A density correction curve embodied as a look-up table for converting the density value into an output pixel density value Nout (i) corresponding to the density correction value Gamma is generated (i = 0, 1, 2,..., 255 (8 Bit data)).
ここで、定数Lは、前記原画像データの濃度補正処理後の目標階調設定幅であり、例えば、出力画像データを8ビットデータで設定する場合に目標階調設定幅を255とすれば、前記出力画素濃度値Nout(i)は0から255までの値として出力される。 Here, the constant L is a target gradation setting width after density correction processing of the original image data. For example, when the output image data is set by 8-bit data, the target gradation setting width is 255. The output pixel density value Nout (i) is output as a value from 0 to 255.
つまり、前記適正特性値補正量算出手段123は、図12に示すように、前記適正濃度補正値Gamma(R)が1より大きな値に設定されたときには、前記原画像データが明るくなるように濃度補正処理する濃度補正曲線を生成し、前記適正濃度補正値Gamma(R)が1より小さな値に設定されたときには、前記原画像データが暗くなるように濃度補正処理する濃度補正曲線を生成するように構成されている。 That is, as shown in FIG. 12, the appropriate characteristic value correction amount calculation unit 123 sets the density so that the original image data becomes bright when the appropriate density correction value Gamma (R) is set to a value larger than 1. A density correction curve for correction processing is generated, and when the appropriate density correction value Gamma (R) is set to a value smaller than 1, a density correction curve for density correction processing is generated so that the original image data becomes dark. It is configured.
尚、上述の説明では、前記顔領域検出部10によって被写体に人物の顔領域が検出されると判断されるような場合について説明したが、被写体に人物の顔領域が検出されないと判断されるような場合には、前記適正特性値補正量算出手段123は、前記適正濃度補正値Gamma(R)の代わりに前記濃度補正値Gammaに基づいて濃度補正曲線を生成するように構成されている。または、〔数6〕において顔領域が占める割合PがP=0とした融合率rf=Dを適用するように構成されていてもよい。 In the above description, the case where the face area detection unit 10 determines that a human face area is detected in the subject has been described. However, it is determined that no human face area is detected in the subject. In this case, the appropriate characteristic value correction amount calculation unit 123 is configured to generate a density correction curve based on the density correction value Gamma instead of the appropriate density correction value Gamma (R). Alternatively, the fusion rate r f = D in which the ratio P occupied by the face area in [Equation 6] is P = 0 may be applied.
このように、前記適性濃度補正値Gamma(R)に基づいて前記適正特性値補正量算出手段123により生成された濃度補正曲線によって原画像が補正されることにより、主要被写体である人物の顔領域が好ましい階調を示すように補正されるのである。 As described above, the original image is corrected by the density correction curve generated by the appropriate characteristic value correction amount calculation unit 123 based on the appropriate density correction value Gamma (R). Is corrected to show a preferable gradation.
そして、前記適正特性値補正量算出手段123で生成された濃度補正曲線に対して、前記コントラスト補正処理部13によりコントラスト補正が行なわれる。 Then, the contrast correction processing unit 13 performs contrast correction on the density correction curve generated by the appropriate characteristic value correction amount calculation unit 123.
尚、上述した実施形態は、本発明の一例に過ぎず、本発明の作用効果を奏する範囲において各ブロックの具体的構成等を適宜変更設計できることは言うまでもない。また、上述の複数の実施形態を必要に応じて適宜組み合わせるものであってもよい。 Note that the above-described embodiment is merely an example of the present invention, and it is needless to say that the specific configuration and the like of each block can be changed and designed as appropriate within the scope of the effects of the present invention. Moreover, you may combine the above-mentioned several embodiment suitably as needed.
1:画像処理装置
10:顔領域検出部
101:顔領域抽出部
102:顔領域特性値演算手段
11:カラー補正処理部
111:顔領域特性値補正量算出手段
112:基準特性値補正量算出手段
113:適正特性値補正量算出手段
12:濃度補正処理部
47:画像処理部
1: image processing apparatus 10: face area detection unit 101: face area extraction unit 102: face area characteristic value calculation unit 11: color correction processing unit 111: face area characteristic value correction amount calculation unit 112: reference characteristic value correction amount calculation unit 113: Appropriate characteristic value correction amount calculation means 12: Density correction processing unit 47: Image processing unit
Claims (5)
前記顔領域特性値演算手段は、前記原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けした重み付け平均特性値を顔領域平均特性値として算出する画像処理装置。 Based on a deviation between the calculated face area average characteristic value and a preset target characteristic value, a face area characteristic value calculating means for calculating the face area average characteristic value from the face area included in the input original image data An image processing apparatus comprising a face area characteristic value correction amount calculating means for calculating a face area characteristic value correction amount,
The face area characteristic value calculation means calculates an average weighted characteristic value obtained by weighting an average characteristic value of each of a plurality of face areas included in the original image data with a respective occupied area as a face area average characteristic value. .
前記原画像データの全画像特性値に基づいて基準特性値補正量を算出する基準特性値補正量算出ステップをさらに備え、前記顔領域特性値演算ステップは、前記原画像データに含まれる複数の顔領域の夫々の平均特性値を夫々の占有面積で重み付けした重み付け平均特性値を顔領域平均特性値として算出し、前記基準特性値補正量算出ステップにより算出された基準特性値補正量と前記顔領域特性値補正量算出ステップにより算出された顔領域特性値補正量とを所定の融合率で融合処理して適正特性値補正量を算出する適正特性値補正量算出ステップを備えている画像処理方法。 A face area characteristic value calculation step for calculating a face area average characteristic value from a face area included in the input original image data, and based on a deviation between the calculated face area average characteristic value and a preset target characteristic value An image processing method comprising a face area characteristic value correction amount calculating step for calculating a face area characteristic value correction amount,
The method further comprises a reference characteristic value correction amount calculating step for calculating a reference characteristic value correction amount based on all image characteristic values of the original image data, wherein the face area characteristic value calculating step includes a plurality of faces included in the original image data. A weighted average characteristic value obtained by weighting an average characteristic value of each area with each occupied area is calculated as a face area average characteristic value, and the reference characteristic value correction amount calculated by the reference characteristic value correction amount calculating step and the face area An image processing method comprising an appropriate characteristic value correction amount calculating step of calculating an appropriate characteristic value correction amount by performing a fusion process with the face region characteristic value correction amount calculated in the characteristic value correction amount calculating step at a predetermined fusion rate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006074855A JP2007249802A (en) | 2006-03-17 | 2006-03-17 | Image processor and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006074855A JP2007249802A (en) | 2006-03-17 | 2006-03-17 | Image processor and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007249802A true JP2007249802A (en) | 2007-09-27 |
Family
ID=38593991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006074855A Pending JP2007249802A (en) | 2006-03-17 | 2006-03-17 | Image processor and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007249802A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134433A (en) * | 2007-11-29 | 2009-06-18 | Noritsu Koki Co Ltd | Image correction method and image correction device |
JP2010154484A (en) * | 2008-11-18 | 2010-07-08 | Nippon Telegr & Teleph Corp <Ntt> | Device, method and program for video conversion |
JP2011008716A (en) * | 2009-06-29 | 2011-01-13 | Noritsu Koki Co Ltd | Image processing apparatus, image processing method and image processing program |
CN111080542A (en) * | 2019-12-09 | 2020-04-28 | Oppo广东移动通信有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
CN111091507A (en) * | 2019-12-09 | 2020-05-01 | Oppo广东移动通信有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09233423A (en) * | 1996-02-27 | 1997-09-05 | Fuji Photo Film Co Ltd | Image data converting method for digital printer |
JP2005051407A (en) * | 2003-07-31 | 2005-02-24 | Canon Inc | Image processing method and device |
JP2005159387A (en) * | 2003-11-20 | 2005-06-16 | Noritsu Koki Co Ltd | Method of determining density characteristic curve and density correction management apparatus for executing this method |
JP2005347873A (en) * | 2004-05-31 | 2005-12-15 | Matsushita Electric Works Ltd | Imaging apparatus |
-
2006
- 2006-03-17 JP JP2006074855A patent/JP2007249802A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09233423A (en) * | 1996-02-27 | 1997-09-05 | Fuji Photo Film Co Ltd | Image data converting method for digital printer |
JP2005051407A (en) * | 2003-07-31 | 2005-02-24 | Canon Inc | Image processing method and device |
JP2005159387A (en) * | 2003-11-20 | 2005-06-16 | Noritsu Koki Co Ltd | Method of determining density characteristic curve and density correction management apparatus for executing this method |
JP2005347873A (en) * | 2004-05-31 | 2005-12-15 | Matsushita Electric Works Ltd | Imaging apparatus |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134433A (en) * | 2007-11-29 | 2009-06-18 | Noritsu Koki Co Ltd | Image correction method and image correction device |
JP2010154484A (en) * | 2008-11-18 | 2010-07-08 | Nippon Telegr & Teleph Corp <Ntt> | Device, method and program for video conversion |
JP2011008716A (en) * | 2009-06-29 | 2011-01-13 | Noritsu Koki Co Ltd | Image processing apparatus, image processing method and image processing program |
CN111080542A (en) * | 2019-12-09 | 2020-04-28 | Oppo广东移动通信有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
CN111091507A (en) * | 2019-12-09 | 2020-05-01 | Oppo广东移动通信有限公司 | Image processing method, image processing apparatus, electronic device, and storage medium |
CN111080542B (en) * | 2019-12-09 | 2024-05-28 | Oppo广东移动通信有限公司 | Image processing method, device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7324246B2 (en) | Apparatus and method for image processing | |
US7200280B2 (en) | Image processing apparatus | |
JP2007249802A (en) | Image processor and image processing method | |
JP4655210B2 (en) | Density correction curve generation method and density correction curve generation module | |
JP2006229811A (en) | Photographic image processing method and photographic image processor | |
JP4798446B2 (en) | Photographed image correction method and photographed image correction module | |
JP4830923B2 (en) | Image processing apparatus and image processing method | |
JP2005148915A (en) | Proper face discrimination method and apparatus for implementing the method | |
JP4661659B2 (en) | Photo image processing apparatus and photo image processing method | |
JP2006186753A (en) | Method and apparatus for processing photographic image | |
JP2005063022A (en) | Noise pixel map producing method, device performing the same, program, and photograph printing device | |
JP2005159387A (en) | Method of determining density characteristic curve and density correction management apparatus for executing this method | |
JP4793648B2 (en) | Image correction unit and image correction program | |
JP2009010853A (en) | Image correction method and image correction apparatus | |
JP2010033527A (en) | Method, program, and apparatus for processing photographic image | |
JP4655211B2 (en) | Generation method, generation program and generation module of correction characteristics used for contrast correction | |
JP2007201655A (en) | Image processing apparatus | |
JP2005148916A (en) | Face selection method for density correction and apparatus for implementing the method | |
JP4775289B2 (en) | Image processing apparatus and image processing method | |
JP4635884B2 (en) | Image processing apparatus and method | |
JP2009016940A (en) | Uniformity correction processing apparatus and uniformity correction processing method of frame image | |
JP2005072850A (en) | Adjusting method of three dimensional lut and color conversion system equipped with three dimensional lut | |
JP2007086940A (en) | Image processing device and image processing method | |
JP5157677B2 (en) | Photo image processing method, photo image processing program, and photo image processing apparatus | |
JP2005159388A (en) | Contrast adjusting method, and contrast adjusting apparatus for executing this method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110221 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20110222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110719 |