JP2005038119A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2005038119A
JP2005038119A JP2003199119A JP2003199119A JP2005038119A JP 2005038119 A JP2005038119 A JP 2005038119A JP 2003199119 A JP2003199119 A JP 2003199119A JP 2003199119 A JP2003199119 A JP 2003199119A JP 2005038119 A JP2005038119 A JP 2005038119A
Authority
JP
Japan
Prior art keywords
image
brightness
brightness component
image data
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003199119A
Other languages
Japanese (ja)
Other versions
JP4147155B2 (en
Inventor
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003199119A priority Critical patent/JP4147155B2/en
Priority to US10/887,817 priority patent/US7469072B2/en
Publication of JP2005038119A publication Critical patent/JP2005038119A/en
Application granted granted Critical
Publication of JP4147155B2 publication Critical patent/JP4147155B2/en
Priority to US12/273,687 priority patent/US7650045B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve a distribution of optimum brightness in response to image data to be processed. <P>SOLUTION: An image processing apparatus comprises a component extraction means for extracting brightness components from the image data, a scale transformation means for acquiring the distribution of the brightness components by a relatively large scale, a brightness improvement means for improving the distribution of the brightness components of the image data by using the brightness components and outputs from the transformation means, and an image reproduction means for reproducing the image data by using the outputs from the improvement means as a distribution of brightness components of a new image data. The device has a face detection means for detecting a face area from the image data and the improvement means adjusts a degree of an improvement by using a distribution of brightness components of the face area output from the detection means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、明るさ成分を補正するものに関する。
【0002】
【従来の技術】
従来、適正な明るさの写真を撮影する方法として、撮影するシーンの平均的な輝度を測定し、カメラのシャッター速度、絞り値などを制御する方式が知られている。また、シーンを所定の領域に分割して領域ごとに測定した輝度に重み付けして平均的な輝度を求めて適正露出を得ようとするいわゆる評価測光方式による露出制御方式が知られている。
【0003】
しかしながら、撮影する主被写体の明るさが背景の明るさに比べて著しく暗いような、いわゆる逆光シーンにおいては、撮影した画像においてどうしても主被写体部分が暗くなってしまう。このような逆光シーンにおいて適切な明るさの写真を撮影するには、撮影時にあらかじめ平均的な写真よりも明るめに撮影されるようにカメラの露出を設定しておく必要があった。しかし、このような露出補正の操作はわずらわしいばかりでなく、カメラの設定を適正に行うための熟練を要する。また、主被写体に対して適切に露出補正を行ったとしても、逆に背景部分が明るくなりすぎてしまう。
【0004】
本発明は、このような適切に画像の明るさを決定するのが困難な逆光等のシーンにおいても、適切な明るさの画像を得ることを目的とする。
【0005】
従来から、アナログ写真技術においては、暗室内でいわゆる覆い焼き処理を行うことで適切な明るさのプリントを得ることができる。このような覆い焼き処理を容易に実現するためには、デジタル画像処理において、覆い焼き処理を実現することが望ましい。
【0006】
このような処理を実現する方法として、例えば、
・IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL.6, NO.7, JULY 1997に”A Multiscale Retinex for Bridging the Gap Between Color Images and the Human Observation of Scenes”
と題するJobsonらの報告(従来技術1とする)がある。これは、デジタル画像を対数変換した成分とその対数変換成分の低周波成分との差分処理を行うことによって、デジタル画像の低周波領域における明るい成分を暗く、低周波領域における暗い成分を明るく処理することにより、画像の改善を行おうとするものである。
【0007】
また、
・acm Transactions on Graphics, JULY 2002, Vol.21, No.3 に”Photographic Tone Reproduction for Digital Images”
と題するReinhardらの報告(従来技術2とする)においても、デジタル画像の輝度成分とその低周波成分とを用いることにより、デジタル画像処理において覆い焼きのような効果を得る方法が提案されている。
【0008】
【発明が解決しようとする課題】
しかしながら、上記従来例においては、処理するデジタル画像の主被写体の明るさに対して大きな改善が必要とされる場合においても、処理するデジタル画像の主被写体の明るさに対して微小な改善が必要とされる場合においても、改善度合いが同一であるので、処理する画像データに適切な輝度分布の改善を行えないといった不具合があった。この原因は主に処理する画像データの輝度分布をどの程度改善すべきかの目標が明確になっていないためである。
【0009】
本発明の目的は、前記問題点を解決し、特に人物を逆光状態で撮影した画像データに対して、明るさ分布の改善度合いの調整を自動的に行い、処理する画像データに応じて最適に明るさの分布の改善が行うことができるようにすることにある。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明は以下の構成を有する。
【0011】
本願請求項1記載の画像処理装置は、画像データから明るさ成分を抽出する明るさ成分抽出手段と、前記明るさ成分の比較的大きな尺度での分布を求めるスケール変換手段と、前記明るさ成分と前記スケール変換手段の出力とを用いて前記画像データの明るさ成分分布を改善する輝度改善手段と、前記明るさ成分改善手段の出力を新たな画像の明るさ成分分布として画像データを再生する画像再生手段とを備えた画像処理装置において、前記画像データから顔領域を検出する顔検出手段を備え、前記明るさ成分改善手段は前記顔検出手段の出力である顔領域の明るさ成分分布を用いて改善の度合いを調整することを特徴とする。
【0012】
本願請求項4記載の画像処理方法は、入力画像の画像データから低周波明るさ成分を抽出し、前記画像における顔領域を検出し、前記顔領域の明るさ成分の分布に応じてパラメータを設定し、前記低周波明るさ成分と前記パラメータを用いて、前記画像データの明るさ成分を補正することを特徴とする。
【0013】
本願請求項8記載の画像処理方法は、入力画像の明るさ成分の所定尺度での分布を用いて該入力画像の明るさ成分分布を改善する第1の明るさ成分改善工程と、前記第1の明るさ改善工程によって処理された画像を解析し、所定画像領域を検出する検出工程と、前記検出された所定画像領域の明るさ成分値を用いて、前記入力画像の明るさ成分分布を改善する第2の明るさ成分改善工程と、前記第2の明るさ改善工程によって処理された画像を出力する出力工程とを有することを特徴とする。
【0014】
【発明の実施の形態】
図1に本実施形態の画像処理システムの構成を示す。
【0015】
図中、1は、画像入力手段であり、画像処理システムにデジタル画像データ(以後、画像データと称す)を入力する。例えば、デジタルカメラ、スキャナなどで構成される。
【0016】
2は、輝度抽出手段であり、画像入力手段1で入力した画像データから輝度成分と色成分を抽出する。
【0017】
3は、スケール変換手段であり、輝度抽出手段2から出力された画像データの輝度成分の比較的大きな尺度での分布を求める。
【0018】
4は、輝度改善手段であり、輝度抽出手段2から出力された画像データの輝度成分とスケール変換手段3から出力された比較的大きな尺度での輝度成分の分布を用いて画像データの輝度成分の分布を改善する。
【0019】
5は、画像再生手段であり、輝度改善手段4から出力された改善された輝度成分と輝度抽出手段2から出力された色成分とを合成し、画像データを再構成する。
【0020】
6は、パラメータ調整手段であり、輝度抽出手段2から出力された画像データの輝度成分から輝度改善手段4で処理する改善の度合いを画像データに応じて最適にするようにパラメータの調整を行う。
【0021】
7は、顔検出手段であり、画像再生手段5から出力された画像データから人物の顔部分に相当する位置を顔領域として検出する。
【0022】
以上のような構成の画像処理システムは、汎用の計算機におけるアプリケーションプログラムによって実行可能である。以後、本実施形態では、主にアプリケーションプログラムにおいて実行される画像処理システムについて説明する。
【0023】
図2に本実施形態における画像処理システムの動作を汎用の計算機で実行するアプリケーションプログラムのアルゴリズムを示す。
【0024】
まず、アプリケーションプログラムが起動するとユーザは画像データのファイル名を入力し、画像データを計算機の記憶部に読み込む。(S101)
ここで読み込まれた画像データは、例えば8ビットの画素により構成されるM×Nの2次元配列(但し、Mは水平画素数、Nは垂直画素数)であり、R、G、B、3つの面により構成される。この画像データをR、G、B、それぞれR(x,y)、G(x,y)、B(x,y)とする(但し、(x,y)は画素位置を表す整数、1≦x≦M、1≦y≦N)。このとき、画像データがJPEG等の方式により圧縮されている場合は、画像データを所定の解凍方式にしたがって解凍し、RGB各画素により構成される画像データを得る。
【0025】
次に、画像データを構成するRGB各画素をもとに輝度成分を抽出する。(S102)
輝度成分の抽出は、例えば、RGBの画素成分がIEC 61966−2−1に記載されているsRGB色空間におけるデータと想定し、IEC 61966−2−1に記載されている方法に従い、ガンマ変換と3行3列のマトリクス演算により、CIE1931XYZに変換する。ここで、変換後のXYZのデータをそれぞれX(x,y)、Y(x,y)、Z(x,y)とすると、Y(x,y)が抽出する輝度成分である。この輝度抽出をハードウェアで構成する場合には、例えば、ルックアップテーブルによるテーブル参照回路(ガンマ変換の部分)、マトリクス演算回路によって構成できる。
【0026】
なお、輝度成分を抽出する方法としては、前述の処理を簡略化し、マトリクス演算のみで抽出するようにしてもよい。また、RGBからYCbCrへの変換やRGBからLへの変換、RGBからHSVへの変換を用いてもよい。
【0027】
次に、抽出した輝度成分から比較的大きな尺度での輝度成分の分布を求める。(S103)
大きな尺度での輝度成分の分布(輝度成分の低周波成分の分布)を求めるには、例えば、従来技術1にあるように抽出した輝度成分とガウシアン関数との積和演算を行い、出力とする。(但し、従来技術1では画像データの輝度成分ではなく直接画像データのRGB各画素に対して積和演算を行うようにしている)ここで、改善された画像データの画質を向上するために、標準偏差の異なる複数のガウシアン関数との積和演算を行い、複数の尺度での輝度成分の分布を求めるようにすると、より好ましい。なお、以上説明したような大きな尺度での輝度成分の分布を求める処理を以後、スケール変換と称することとする。このスケール変換をハードウェアで構成する場合には、例えば、積和演算回路によって構成できる。
【0028】
次に、画像データの輝度成分とスケール変換した輝度成分の分布を用いて画像データの輝度成分の分布を改善する。(S104)
処理の一例として従来技術1に基づく方法によれば、輝度成分とスケール変換した輝度成分の分布それぞれを対数変換し、その差分を出力する。さらに、異なる尺度での差分出力の重み付き平均を改善された輝度成分とする。しかしながら、この方法では、画像に応じて改善の度合いを調整できないので、スケール変換した輝度成分の対数変換出力に係数を乗ずるようにする。この係数が改善の度合いを調整するパラメータである。以上説明した処理に基づく改善された輝度成分の出力は以下に示す(式1)のようになる。
【0029】
【外1】

Figure 2005038119
【0030】
但し、Y’(x,y)、F(x,y)、w、n、γはそれぞれ改善された輝度成分の出力、ガウシアン関数、尺度間の重み、尺度を表すパラメータ、改善の度合いを表すパラメータである。また、*は積和演算を表す。
【0031】
なお、尺度間の重みは尺度の標準偏差を調整することで省略可能(単純な平均に置き換わる)であること、また、(式1)のように対数変換された値を出力するよりも、逆変換(exp演算)により元の輝度単位に戻した方が、改善された画像データの画質として好ましいことが分かっている。従って、以下の(式2)に示した出力を改善された輝度成分とすることがより好ましい。
【0032】
【外2】
Figure 2005038119
【0033】
但し、Avgは平均値演算を表す。
【0034】
(式2)の代わりに、以下に示す(式3)としてもよい。
【0035】
【外3】
Figure 2005038119
【0036】
なお、S104での輝度改善の処理は前処理であり、S106において顔領域を高精度に抽出するための処理である。よって、強めの輝度改善の処理を行う。本実施形態では、所定の値、γ=1を用いる。
【0037】
なお、複数尺度でのスケール変換出力の平均値演算をS103のスケール変換の処理で行い、複数尺度でのスケール変換出力の平均値をスケール変換された輝度成分の分布としてもよい。
【0038】
この輝度変換をハードウェアで構成する場合には、例えば、平均値演算回路、ルックアップテーブルを作成する回路、テーブル記憶部、テーブル参照回路(ガンマ変換の部分)、除算回路によって構成できる。なお、平均値演算回路はスケール変換手段に設けてもよい。
【0039】
次に、改善された輝度成分とS102で変換された色成分X(x,y)、Z(x,y)とを合成し、画像データを再構成する。(S105)
ここで、まず、再構成後の画像データの色ができるだけ変化しないように、色成分を輝度成分の変更にしたがって修正する。例えば、色成分X(x,y)、Z(x,y)にそれぞれ輝度成分の変更前後の比Y’(x,y)/Y(x,y)を乗算する。そして、X、Y、ZのデータからRGBのデータを求める。ここでの処理はS102における処理の逆変換である。したがって、3行3列のマトリクス演算および逆ガンマ変換の処理を行い、RGB各8ビット出力とする。この画像データの再構成をハードウェアで構成する場合には、例えば、乗算および除算回路、マトリクス演算回路、ルックアップテーブルによるテーブル参照回路(逆ガンマ変換の部分)によって構成できる。
【0040】
なお、S102で輝度成分を抽出する方法としてRGBからYCbCr変換など別方式を用いた場合には、本処理において対応する逆変換の処理を行うべきであることはいうまでもない。
【0041】
次に、輝度分布が改善された画像データから人物の顔部分に相当する位置を顔領域として検出する。(S106)
画像データから顔領域を検出する処理内容例を図3に示す。まず、画像データを所定の画像サイズにローパスフィルタ処理を行うと同時に縮小する。そして縮小された画像データの画素値で局所的にRGB各成分が小さい領域を目の画像領域の候補として抽出する。さらに抽出された候補を2つずつ組にして領域の大きさの均等性、輝度の差、水平に対する角度などから組にした2つの領域が目かどうかを判定する。(図3(a))目と判定された組について、その2つの位置からあらかじめ設定された所定の位置関係のパラメータに基づき矩形領域を設定する。(図3(b))そして矩形領域の境界付近のエッジおよび領域内の色情報から矩形領域の確定を行う。(図3(c))詳しくはエッジについては境界付近の所定幅の領域に所定強度を超えるエッジ成分が所定比率以上占有するか、で判定する。色情報については矩形領域内の画素値の平均値を計算し、あらかじめ設定した肌色領域内に平均値が入っているかで判定する。そして、エッジ、色情報の条件が両立して満たされている場合、顔領域と判定する。そして、顔領域と判定された矩形領域の位置情報を顔領域として出力する。
【0042】
なお、本発明において画像データから顔領域を検出する方式は以上説明した方式に限定されるものではなく、例えば、IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002に”Detecting Faces in Images: A Survey”と題するYangらの報告に揚げられているような方式を用いてもよい。
【0043】
次に、S102で抽出した輝度成分とS106で検出した顔領域から改善すべき輝度分布の度合いを決めるパラメータを調整する。(S107)
以下、パラメータ調整方法の一例をS104で説明した(式3)で輝度変換を行う場合について説明する。
【0044】
まず、画像データの輝度成分の内、顔領域内の輝度値の平均値を算出する。但し、顔領域として検出された矩形領域内には目や髪の毛など肌でないものも存在するが、ここでは顔領域内の画素について明るい方から所定の割合以上の輝度値のみの平均値を算出することで肌に対応する部分の輝度の代表値(人肌代表輝度値とする)とする。一方、改善すべき画像の人肌における輝度値の好ましい値として所定の値(人肌目標輝度値とする)をあらかじめ設定しておき、人肌代表輝度値と人肌目標輝度値とを所定の重みで荷重平均したものを目標輝度値として設定する。ここで、人肌代表輝度値をY、荷重平均後の目標輝度値をYとするとき、輝度値Yが所定の輝度値(但し、Y≦Y)になるようなγを改善の度合いを表すパラメータとする。なお、このγは、(式3)の分母の[ ]内をY(x,y)とほぼ等しいと仮定すると、以下に示す(式4)により求めることができる。
【0045】
【外4】
Figure 2005038119
【0046】
次に、画像データの輝度成分とスケール変換した輝度成分の分布、求まったパラメータγを用いて画像データの輝度成分の分布を改善する。処理内容はS104の処理に準じる。(S108)
次に、改善された輝度成分とS102で変換された色成分X(x,y)、Z(x,y)とを合成し、画像データを再構成する。処理内容はS105の処理に準じる。(S109)
以上の例では、従来技術1をもとに処理する画像データに応じて最適に明るさの分布の改善が行う方法について説明したが、以下の例では、従来技術2をもとに処理する画像データに応じて最適に明るさの分布の改善が行う方法について説明する。なお、上記実施形態との差異は主にS105での画像データの輝度成分の分布を改善する処理であるので、この部分を中心に説明する。
【0047】
従来技術2によれば、異なる尺度の輝度成分を用いて輝度変換後のハロの発生度合いを評価し、ハロ発生による画質の不具合がないように最適な尺度を決定し、輝度変換を行うようにしている。これに本発明を適用した場合の例を以下の(式5)に示す。
【0048】
【外5】
Figure 2005038119
【0049】
但し、V(x,y)は複数のスケール変換した輝度成分から選択された輝度成分、aは輝度成分の強度を調整するパラメータ、eは輝度成分の改善の度合いを表すパラメータである。なお、輝度成分改善処理における調整方法の変更に伴い、S107での改善パラメータの調整方法も変更すべきであることはいうまでもない。
【0050】
また、従来技術2にもとづいて説明した例において、輝度成分の改善の度合いとともに画像の輝度成分そのものを調整するようにしたが、このように本発明と画像の輝度成分そのものを調整する処理と組み合わせてもよいことはいうまでもない。
【0051】
また、S104、S108の処理において、(式3)の分母の[ ]内の値として、輝度成分に対してacm Transactions on Graphics, JULY 2002, Vol.21, No.3 中の”Fast Bilateral Filtering for the Display of High−Dynamic−Range Images”と題するDurandらの報告にあるようなBilateral Filteringを適用してもよい。この場合、S103のスケール変換処理であらかじめ輝度成分にBilateral Filtering処理を行う。
【0052】
また、S107以前のS104〜S106の処理はS107でパラメータの値を求めるための前処理であるので、元の画像データに対してあらかじめ縮小した画像データに対して行ってS104〜S106の処理を行い、S107でパラメータの値を決定後、元の画像データに対してS108以降の処理を行うようにしてもよい。元の画像データのサイズが著しく大きい場合には、処理時間が短縮できる。
【0053】
また、以上説明した例においては、処理する画像データとしてRGB各8ビットのデータを想定して説明したが、RGB各16ビットの画像データから最適なRGB各8ビットの画像データを再生する場合においても適用できる。
本実施形態によれば、特に人物を逆光状態で撮影した画像データに対して、輝度分布の改善度合いの調整を自動的に行い、処理する画像データに応じて最適に明るさの分布を改善することができる。
【0054】
【発明の効果】
本発明によれば、処理する画像データに応じて最適に明るさの分布を改善することができる。
【図面の簡単な説明】
【図1】画像処理システムにおける実施形態の構成を示す図。
【図2】画像処理システムにおけるアプリケーションプログラムのアルゴリズムを示す図。
【図3】実施形態における顔検出の処理内容を説明する図。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a device for correcting a brightness component.
[0002]
[Prior art]
Conventionally, as a method of taking a photograph with appropriate brightness, a method of measuring the average brightness of a scene to be taken and controlling the shutter speed, aperture value, etc. of the camera is known. There is also known an exposure control method based on a so-called evaluation photometry method that divides a scene into predetermined regions and weights the luminance measured for each region to obtain an average exposure by obtaining an average luminance.
[0003]
However, in a so-called backlight scene where the brightness of the main subject to be photographed is significantly darker than the brightness of the background, the main subject portion is inevitably dark in the photographed image. In order to take a photograph with appropriate brightness in such a backlight scene, it is necessary to set the exposure of the camera in advance so that the photograph is taken brighter than the average photograph. However, such an exposure correction operation is not only cumbersome but also requires skill to properly set the camera. Even if exposure correction is appropriately performed on the main subject, the background portion becomes too bright.
[0004]
An object of the present invention is to obtain an image with appropriate brightness even in a scene such as backlight where it is difficult to appropriately determine the brightness of the image.
[0005]
Conventionally, in the analog photographic technique, a print with appropriate brightness can be obtained by performing a so-called dodging process in a dark room. In order to easily realize such a dodging process, it is desirable to realize the dodging process in digital image processing.
[0006]
As a method for realizing such processing, for example,
・ IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 6, NO. 7, JULY 1997, “A Multiscale Retinex for Bridging the Gap Between Color Images and the Human Observation of Scenes”
There is a report (referred to as Prior Art 1) by Jobson et al. This is to process the difference between the logarithmically transformed component of the digital image and the low frequency component of the logarithmically transformed component, thereby darkening the bright component in the low frequency region of the digital image and brightening the dark component in the low frequency region. Thus, the image is to be improved.
[0007]
Also,
Acm Transactions on Graphics, JULY 2002, Vol. 21, no. 3 in “Photographic Tone Production for Digital Images”
In the report of Reinhard et al. (Referred to as Prior Art 2) entitled “Method of obtaining dodging effect in digital image processing by using the luminance component of the digital image and its low frequency component”. .
[0008]
[Problems to be solved by the invention]
However, in the above conventional example, even when a great improvement is required for the brightness of the main subject of the digital image to be processed, a slight improvement is required for the brightness of the main subject of the digital image to be processed. However, since the improvement degree is the same, there is a problem that the luminance distribution appropriate for the image data to be processed cannot be improved. This is mainly because the target of how much the luminance distribution of the image data to be processed should be improved is not clear.
[0009]
The object of the present invention is to solve the above-mentioned problems, and in particular, to automatically adjust the improvement degree of brightness distribution for image data obtained by photographing a person in a backlight state, and optimally according to the image data to be processed. The purpose is to improve the distribution of brightness.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following configuration.
[0011]
The image processing apparatus according to claim 1 includes a brightness component extraction unit that extracts a brightness component from image data, a scale conversion unit that obtains a distribution of the brightness component on a relatively large scale, and the brightness component. Brightness improvement means for improving the brightness component distribution of the image data using the output of the scale conversion means and the output of the brightness component improvement means as a new brightness component distribution of the image to reproduce the image data An image processing apparatus comprising an image reproduction means, comprising face detection means for detecting a face area from the image data, wherein the brightness component improvement means calculates a brightness component distribution of the face area as an output of the face detection means. Use to adjust the degree of improvement.
[0012]
The image processing method according to claim 4 extracts a low-frequency brightness component from image data of an input image, detects a face area in the image, and sets parameters according to the distribution of the brightness component of the face area. The brightness component of the image data is corrected using the low frequency brightness component and the parameter.
[0013]
The image processing method according to claim 8 of the present application includes a first brightness component improvement step of improving a brightness component distribution of the input image using a distribution of brightness components of the input image on a predetermined scale, and the first Analyzing the image processed by the brightness improvement step, and detecting the predetermined image area, and using the detected brightness component value of the predetermined image area, the brightness component distribution of the input image is improved A second brightness component improving step, and an output step of outputting the image processed by the second brightness improving step.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows the configuration of the image processing system of this embodiment.
[0015]
In the figure, reference numeral 1 denotes image input means for inputting digital image data (hereinafter referred to as image data) to the image processing system. For example, it is composed of a digital camera, a scanner and the like.
[0016]
Reference numeral 2 denotes a luminance extraction unit that extracts a luminance component and a color component from the image data input by the image input unit 1.
[0017]
Reference numeral 3 denotes a scale conversion unit that obtains a distribution on a relatively large scale of the luminance component of the image data output from the luminance extraction unit 2.
[0018]
Reference numeral 4 denotes luminance improvement means, which uses the luminance component distribution of the image data output from the luminance extraction means 2 and the luminance component distribution on a relatively large scale output from the scale conversion means 3 to calculate the luminance component of the image data. Improve distribution.
[0019]
Reference numeral 5 denotes an image reproduction unit that combines the improved luminance component output from the luminance improvement unit 4 and the color component output from the luminance extraction unit 2 to reconstruct the image data.
[0020]
Reference numeral 6 denotes a parameter adjusting unit that adjusts parameters so as to optimize the degree of improvement processed by the luminance improving unit 4 from the luminance component of the image data output from the luminance extracting unit 2 in accordance with the image data.
[0021]
Reference numeral 7 denotes a face detection unit that detects a position corresponding to the face portion of a person from the image data output from the image reproduction unit 5 as a face region.
[0022]
The image processing system having the above configuration can be executed by an application program in a general-purpose computer. Hereinafter, in the present embodiment, an image processing system mainly executed in an application program will be described.
[0023]
FIG. 2 shows an algorithm of an application program for executing the operation of the image processing system in this embodiment by a general-purpose computer.
[0024]
First, when the application program is activated, the user inputs the file name of the image data and reads the image data into the storage unit of the computer. (S101)
The image data read here is, for example, an M × N two-dimensional array composed of 8-bit pixels (where M is the number of horizontal pixels and N is the number of vertical pixels), and R, G, B, 3 Consists of two faces. The image data is R, G, B, R (x, y), G (x, y), and B (x, y) (where (x, y) is an integer representing a pixel position, 1 ≦ x ≦ M, 1 ≦ y ≦ N). At this time, if the image data is compressed by a method such as JPEG, the image data is decompressed according to a predetermined decompression method to obtain image data composed of RGB pixels.
[0025]
Next, a luminance component is extracted on the basis of each RGB pixel constituting the image data. (S102)
For example, the luminance component is extracted by assuming that the pixel component of RGB is data in the sRGB color space described in IEC 61966-2-1, and performing gamma conversion according to the method described in IEC 61966-2-1. Conversion into CIE1931XYZ is performed by a matrix operation of 3 rows and 3 columns. Here, if the converted XYZ data is X (x, y), Y (x, y), and Z (x, y), Y (x, y) is a luminance component to be extracted. When this luminance extraction is configured by hardware, for example, it can be configured by a table reference circuit (gamma conversion part) using a lookup table and a matrix operation circuit.
[0026]
Note that as a method of extracting the luminance component, the above-described processing may be simplified and extraction may be performed only by matrix calculation. Also, conversion from RGB to YCbCr, conversion from RGB to L * a * b * , or conversion from RGB to HSV may be used.
[0027]
Next, a distribution of luminance components on a relatively large scale is obtained from the extracted luminance components. (S103)
In order to obtain the distribution of luminance components (distribution of low-frequency components of luminance components) on a large scale, for example, as in the prior art 1, the product-sum operation of the extracted luminance components and the Gaussian function is performed and output. . (However, in the prior art 1, the product-sum operation is performed directly on each RGB pixel of the image data instead of the luminance component of the image data.) Here, in order to improve the image quality of the improved image data, It is more preferable to perform a product-sum operation with a plurality of Gaussian functions having different standard deviations to obtain a distribution of luminance components on a plurality of scales. The process for obtaining the luminance component distribution on a large scale as described above is hereinafter referred to as scale conversion. When this scale conversion is configured by hardware, for example, it can be configured by a product-sum operation circuit.
[0028]
Next, the distribution of the luminance component of the image data is improved using the distribution of the luminance component of the image data and the scaled luminance component. (S104)
As an example of processing, according to the method based on the prior art 1, each distribution of the luminance component and the scaled luminance component is logarithmically converted and the difference is output. Furthermore, the weighted average of the differential outputs at different scales is taken as an improved luminance component. However, in this method, since the degree of improvement cannot be adjusted according to the image, the logarithm conversion output of the scaled luminance component is multiplied by a coefficient. This coefficient is a parameter for adjusting the degree of improvement. The output of the improved luminance component based on the processing described above is as shown in (Equation 1) below.
[0029]
[Outside 1]
Figure 2005038119
[0030]
However, Y ′ (x, y), F n (x, y), w n , n, and γ are the output of the improved luminance component, the Gaussian function, the weight between the scales, the parameter representing the scale, and the degree of improvement, respectively. Is a parameter that represents * Represents a product-sum operation.
[0031]
Note that the weights between scales can be omitted by replacing the standard deviation of the scales (replaced with a simple average), and the inverse of the output of logarithmically transformed values as in (Equation 1). It has been found that returning to the original luminance unit by conversion (exp calculation) is preferable as improved image data image quality. Therefore, it is more preferable that the output shown in the following (Formula 2) is an improved luminance component.
[0032]
[Outside 2]
Figure 2005038119
[0033]
However, Avg represents average value calculation.
[0034]
Instead of (Formula 2), the following (Formula 3) may be used.
[0035]
[Outside 3]
Figure 2005038119
[0036]
Note that the luminance improvement processing in S104 is preprocessing, and in S106 is processing for extracting the face area with high accuracy. Therefore, a process for improving brightness is performed. In the present embodiment, a predetermined value, γ = 1 is used.
[0037]
Note that the average value calculation of the scale conversion output at a plurality of scales may be performed by the scale conversion processing of S103, and the average value of the scale conversion output at the plurality of scales may be used as the distribution of the luminance component after the scale conversion.
[0038]
When the luminance conversion is configured by hardware, it can be configured by, for example, an average value calculation circuit, a circuit for creating a lookup table, a table storage unit, a table reference circuit (gamma conversion part), and a division circuit. The average value calculation circuit may be provided in the scale conversion means.
[0039]
Next, the improved luminance component and the color components X (x, y) and Z (x, y) converted in S102 are combined to reconstruct the image data. (S105)
Here, first, the color component is corrected in accordance with the change of the luminance component so that the color of the reconstructed image data does not change as much as possible. For example, the color components X (x, y) and Z (x, y) are multiplied by the ratio Y ′ (x, y) / Y (x, y) before and after the change of the luminance component, respectively. Then, RGB data is obtained from the X, Y, and Z data. The process here is an inverse transformation of the process in S102. Therefore, the matrix operation of 3 rows and 3 columns and the inverse gamma conversion process are performed to obtain 8-bit RGB output. When the reconstruction of the image data is configured by hardware, it can be configured by, for example, a multiplication and division circuit, a matrix operation circuit, and a table reference circuit (inverse gamma conversion portion) using a lookup table.
[0040]
Needless to say, if another method such as RGB to YCbCr conversion is used as the method of extracting the luminance component in S102, the corresponding inverse conversion process should be performed in this process.
[0041]
Next, a position corresponding to the face portion of the person is detected as a face area from the image data with improved luminance distribution. (S106)
An example of processing contents for detecting a face area from image data is shown in FIG. First, image data is reduced to a predetermined image size simultaneously with low-pass filter processing. Then, a region where each RGB component is locally small with the pixel value of the reduced image data is extracted as a candidate for the eye image region. Further, two extracted candidates are grouped, and it is determined whether or not the two regions grouped are eyes based on the uniformity of the size of the region, the difference in luminance, the angle with respect to the horizontal, and the like. (FIG. 3 (a)) For the group determined as the eye, a rectangular area is set based on a predetermined positional relationship parameter set in advance from the two positions. Then, the rectangular area is determined from the edge near the boundary of the rectangular area and the color information in the area. (FIG. 3 (c)) Specifically, the edge is determined by whether an edge component exceeding a predetermined intensity occupies a predetermined width or more in a predetermined width region near the boundary. For the color information, the average value of the pixel values in the rectangular area is calculated, and it is determined whether the average value is in the preset skin color area. If the edge and color information conditions are satisfied, the face area is determined. Then, the position information of the rectangular area determined as the face area is output as the face area.
[0042]
In the present invention, the method of detecting a face area from image data is not limited to the method described above. 24, NO. 1, a scheme as described in Yang et al.'S report entitled “Detecting Faces in Images: A Survey” may be used.
[0043]
Next, parameters for determining the degree of the luminance distribution to be improved from the luminance component extracted in S102 and the face area detected in S106 are adjusted. (S107)
Hereinafter, a case where the luminance conversion is performed in (Equation 3) described in S104 will be described.
[0044]
First, an average value of the luminance values in the face area among the luminance components of the image data is calculated. However, there are non-skinned objects such as eyes and hair in the rectangular area detected as the face area, but here, for the pixels in the face area, the average value of only the luminance values above a predetermined ratio is calculated from the brighter one. Thus, it is set as a representative value of luminance corresponding to the skin (referred to as human skin representative luminance value). On the other hand, a predetermined value (referred to as a human skin target luminance value) is set in advance as a preferable value of the luminance value in the human skin of the image to be improved, and the human skin representative luminance value and the human skin target luminance value are set to a predetermined value. The weight averaged with the weight is set as the target luminance value. Here, when the human skin representative luminance value is Y 0 and the target luminance value after the weighted average is Y 1 , γ such that the luminance value Y 0 becomes a predetermined luminance value (Y 0 ≦ Y 1 ). The parameter represents the degree of improvement. Assuming that the value in [] of the denominator of (Expression 3) is almost equal to Y (x, y), γ can be obtained by (Expression 4) shown below.
[0045]
[Outside 4]
Figure 2005038119
[0046]
Next, the distribution of the luminance component of the image data is improved by using the distribution of the luminance component of the image data, the luminance component after the scale conversion, and the obtained parameter γ. The processing contents conform to the processing in S104. (S108)
Next, the improved luminance component and the color components X (x, y) and Z (x, y) converted in S102 are combined to reconstruct the image data. The processing content conforms to the processing of S105. (S109)
In the above example, the method for optimally improving the brightness distribution according to the image data processed based on the prior art 1 has been described. However, in the following example, the image processed based on the prior art 2 is processed. A method of optimally improving the brightness distribution according to data will be described. Note that the difference from the above embodiment is mainly the process of improving the distribution of the luminance component of the image data in S105, so this portion will be mainly described.
[0047]
According to Prior Art 2, the degree of occurrence of halo after luminance conversion is evaluated using luminance components of different scales, an optimal scale is determined so that there is no image quality defect due to halo generation, and luminance conversion is performed. ing. An example of applying the present invention to this is shown in the following (Formula 5).
[0048]
[Outside 5]
Figure 2005038119
[0049]
Here, V (x, y) is a luminance component selected from a plurality of scale-converted luminance components, a is a parameter for adjusting the intensity of the luminance component, and e is a parameter representing the degree of improvement of the luminance component. It goes without saying that the adjustment method of the improvement parameter in S107 should be changed in accordance with the change of the adjustment method in the luminance component improvement processing.
[0050]
In the example described based on the prior art 2, the luminance component itself of the image is adjusted together with the degree of improvement of the luminance component. However, the present invention is combined with the processing for adjusting the luminance component of the image itself as described above. Needless to say, it may be.
[0051]
Further, in the processing of S104 and S108, as a value in [] of the denominator of (Expression 3), acm Transactions on Graphics, JULY 2002, Vol. 21, no. 3 may be applied as described in the report of Durand et al. Entitled "Fast Bilateral Filtering for the Display of High-Dynamic-Range Images". In this case, the Bilatal Filtering process is performed on the luminance component in advance in the scale conversion process of S103.
[0052]
Also, since the processing of S104 to S106 before S107 is preprocessing for obtaining the parameter value in S107, the processing of S104 to S106 is performed on the image data reduced in advance with respect to the original image data. After the parameter value is determined in S107, the processing after S108 may be performed on the original image data. When the size of the original image data is remarkably large, the processing time can be shortened.
[0053]
Further, in the example described above, the description has been made assuming that 8-bit RGB data is processed as image data to be processed. However, when reproducing optimal 8-bit RGB image data from 16-bit RGB image data, Is also applicable.
According to the present embodiment, the brightness distribution improvement degree is automatically adjusted particularly for image data obtained by photographing a person in a backlight state, and the brightness distribution is optimally improved according to the image data to be processed. be able to.
[0054]
【The invention's effect】
According to the present invention, it is possible to optimally improve the brightness distribution according to the image data to be processed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an embodiment in an image processing system.
FIG. 2 is a view showing an algorithm of an application program in the image processing system.
FIG. 3 is a view for explaining processing details of face detection in the embodiment.

Claims (12)

画像データから明るさ成分を抽出する明るさ成分抽出手段と、
前記明るさ成分の比較的大きな尺度での分布を求めるスケール変換手段と、
前記明るさ成分と前記スケール変換手段の出力とを用いて前記画像データの明るさ成分分布を改善する輝度改善手段と、
前記明るさ成分改善手段の出力を新たな画像の明るさ成分分布として画像データを再生する画像再生手段とを備えた画像処理装置において、
前記画像データから顔領域を検出する顔検出手段を備え、前記明るさ成分改善手段は前記顔検出手段の出力である顔領域の明るさ成分分布を用いて改善の度合いを調整することを特徴とする画像処理装置。
Brightness component extraction means for extracting a brightness component from image data;
A scale conversion means for obtaining a distribution on a relatively large scale of the brightness component;
Brightness improvement means for improving the brightness component distribution of the image data using the brightness component and the output of the scale conversion means;
In an image processing apparatus comprising image reproduction means for reproducing image data using the output of the brightness component improvement means as a brightness component distribution of a new image,
It comprises a face detection means for detecting a face area from the image data, and the brightness component improvement means adjusts the degree of improvement using the brightness component distribution of the face area that is an output of the face detection means. An image processing apparatus.
前記明るさ成分改善手段は、前記顔領域の明るさ成分分布の代表値が所定の値に近づくようにパラメータを設定し、改善の度合いを前記パラメータによって調整することを特徴とする請求項1の画像処理装置。The brightness component improvement means sets a parameter so that a representative value of the brightness component distribution of the face region approaches a predetermined value, and adjusts the degree of improvement by the parameter. Image processing device. 前記顔検出手段は、前記明るさ成分改善手段で一旦所定のパラメータで明るさ成分分布が改善された画像データを用いて顔領域を検出することを特徴とする請求項2の画像処理装置。The image processing apparatus according to claim 2, wherein the face detection unit detects a face region using image data in which the brightness component distribution is once improved by a predetermined parameter by the brightness component improvement unit. 入力画像の画像データから低周波明るさ成分を抽出し、
前記画像における顔領域を検出し、
前記顔領域の明るさ成分の分布に応じてパラメータを設定し、
前記低周波明るさ成分と前記パラメータを用いて、前記画像データの明るさ成分を補正することを特徴とする画像処理方法。
Extract low frequency brightness components from the image data of the input image,
Detecting a face region in the image;
Set parameters according to the distribution of brightness components of the face area,
An image processing method, wherein the brightness component of the image data is corrected using the low-frequency brightness component and the parameter.
前記顔領域の検出は、
前記低周波明るさ成分と所定のパラメータを用いて、前記画像データの明るさ成分を補正し、
前記補正された画像データを解析し、顔領域を検出し、
前記パラメータの設定は、
前記検出された顔領域の明るさ成分の値と基準明るさ成分値とから、前記パラメータを求めることを特徴とする請求項4記載の画像処理方法。
The detection of the face area is as follows:
Using the low frequency brightness component and a predetermined parameter, the brightness component of the image data is corrected,
Analyzing the corrected image data to detect a face area;
The parameter setting is
5. The image processing method according to claim 4, wherein the parameter is obtained from a value of a brightness component of the detected face area and a reference brightness component value.
前記所定のパラメータを用いて補正された画像データの明るさ成分から、前記画像データにおける明るさ成分と色み成分の比に基づき、画像データを再構成し、
前記再構成された画像データから前記顔領域を検出することを特徴とする請求項5記載の画像処理方法。
From the brightness component of the image data corrected using the predetermined parameter, reconstructing the image data based on the ratio of the brightness component and the color component in the image data,
6. The image processing method according to claim 5, wherein the face area is detected from the reconstructed image data.
請求項4乃至6のいずれかに記載の画像処理方法をコンピュータで実現するためのプログラム。The program for implement | achieving the image processing method in any one of Claim 4 thru | or 6 with a computer. 入力画像の明るさ成分の所定尺度での分布を用いて該入力画像の明るさ成分分布を改善する第1の明るさ成分改善工程と、
前記第1の明るさ改善工程によって処理された画像を解析し、所定画像領域を検出する検出工程と、
前記検出された所定画像領域の明るさ成分値を用いて、前記入力画像の明るさ成分分布を改善する第2の明るさ成分改善工程と、
前記第2の明るさ改善工程によって処理された画像を出力する出力工程とを有することを特徴とする画像処理方法。
A first brightness component improving step of improving the brightness component distribution of the input image using a distribution of the brightness component of the input image on a predetermined scale;
Analyzing the image processed by the first brightness improvement step, and detecting a predetermined image region;
A second brightness component improvement step of improving the brightness component distribution of the input image using the detected brightness component value of the predetermined image region;
And an output step of outputting the image processed by the second brightness improvement step.
前記第1の明るさ改善工程は、前記入力画像の明るさ成分の所定尺度での分布と所定パラメータを用いることを特徴とする請求項8記載の画像処理方法。9. The image processing method according to claim 8, wherein the first brightness improvement step uses a predetermined scale distribution of brightness components of the input image and a predetermined parameter. 前記第2の明るさ改善工程は、前記検出された所定画像領域の明るさ成分値と、予め設定されている該所定画像領域の目標明るさ成分値とから求められるパラメータを用いることを特徴とする請求項8又は9に記載の画像処理方法。The second brightness improving step uses a parameter obtained from a detected brightness component value of the predetermined image area and a preset target brightness component value of the predetermined image area. The image processing method according to claim 8 or 9. 前記所定画像領域は顔領域であり、前記目標有るさ成分値は肌の明るさ成分値であることを特徴とする請求項10記載の画像処理方法。11. The image processing method according to claim 10, wherein the predetermined image region is a face region, and the target component value is a skin brightness component value. 請求項8乃至11のいずれかに記載の画像処理方法をコンピュータで実現するためのプログラム。The program for implement | achieving the image processing method in any one of Claims 8 thru | or 11 with a computer.
JP2003199119A 2003-07-18 2003-07-18 Image processing apparatus and method Expired - Fee Related JP4147155B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003199119A JP4147155B2 (en) 2003-07-18 2003-07-18 Image processing apparatus and method
US10/887,817 US7469072B2 (en) 2003-07-18 2004-07-12 Image processing apparatus and method
US12/273,687 US7650045B2 (en) 2003-07-18 2008-11-19 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003199119A JP4147155B2 (en) 2003-07-18 2003-07-18 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2005038119A true JP2005038119A (en) 2005-02-10
JP4147155B2 JP4147155B2 (en) 2008-09-10

Family

ID=34208674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003199119A Expired - Fee Related JP4147155B2 (en) 2003-07-18 2003-07-18 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4147155B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025766A (en) * 2005-07-12 2007-02-01 Fujifilm Holdings Corp Face detecting method, face detection device, and program
WO2007072907A1 (en) * 2005-12-21 2007-06-28 Nec Corporation Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
WO2008018460A1 (en) * 2006-08-08 2008-02-14 Nikon Corporation Image processing method, image processing apparatus, image processing program, and image pickup apparatus
WO2008032517A1 (en) 2006-09-14 2008-03-20 Mitsubishi Electric Corporation Image processing device and image processing method, and image pickup device and image pickup method
JP2008108024A (en) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd Image processor and imaging device
JP2011019126A (en) * 2009-07-09 2011-01-27 Canon Inc Image processor and image processing method
JP2011170890A (en) * 2011-06-06 2011-09-01 Fujifilm Corp Face detecting method, face detection device, and program
EP2717222A1 (en) * 2007-03-30 2014-04-09 Mitsubishi Electric Corporation Image processing apparatus and program recording medium

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168643A (en) * 1989-11-28 1991-07-22 Dainippon Screen Mfg Co Ltd Method for setting conversion characteristic of density signal
JPH09233423A (en) * 1996-02-27 1997-09-05 Fuji Photo Film Co Ltd Image data converting method for digital printer
JPH11266358A (en) * 1998-03-17 1999-09-28 Fuji Photo Film Co Ltd Image processing method
JPH11317863A (en) * 1998-03-04 1999-11-16 Fuji Photo Film Co Ltd Image processing unit
JPH11328388A (en) * 1998-05-12 1999-11-30 Fuji Photo Film Co Ltd Method and device for image reproduction
JP2000196901A (en) * 1998-12-24 2000-07-14 Dainippon Screen Mfg Co Ltd Method for emphasizing sharpness of picture and recording medium recording program for executing its process
JP2000261650A (en) * 1999-03-05 2000-09-22 Toshiba Corp Image processing unit
JP2000278528A (en) * 1999-03-24 2000-10-06 Fuji Photo Film Co Ltd Image processor and image processing method
JP2001126075A (en) * 1999-08-17 2001-05-11 Fuji Photo Film Co Ltd Method and device for picture processing, and recording medium
JP2001148863A (en) * 1999-11-19 2001-05-29 Victor Co Of Japan Ltd White balance adjustment method and adjustment device
JP2001186323A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Identification photograph system and picture on processing method
JP2002185771A (en) * 2000-12-14 2002-06-28 Noritsu Koki Co Ltd Image forming device, image data processing method and recording medium recording image data processing program
JP2003169177A (en) * 2001-09-18 2003-06-13 Fuji Photo Film Co Ltd Image reader

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168643A (en) * 1989-11-28 1991-07-22 Dainippon Screen Mfg Co Ltd Method for setting conversion characteristic of density signal
JPH09233423A (en) * 1996-02-27 1997-09-05 Fuji Photo Film Co Ltd Image data converting method for digital printer
JPH11317863A (en) * 1998-03-04 1999-11-16 Fuji Photo Film Co Ltd Image processing unit
JPH11266358A (en) * 1998-03-17 1999-09-28 Fuji Photo Film Co Ltd Image processing method
JPH11328388A (en) * 1998-05-12 1999-11-30 Fuji Photo Film Co Ltd Method and device for image reproduction
JP2000196901A (en) * 1998-12-24 2000-07-14 Dainippon Screen Mfg Co Ltd Method for emphasizing sharpness of picture and recording medium recording program for executing its process
JP2000261650A (en) * 1999-03-05 2000-09-22 Toshiba Corp Image processing unit
JP2000278528A (en) * 1999-03-24 2000-10-06 Fuji Photo Film Co Ltd Image processor and image processing method
JP2001126075A (en) * 1999-08-17 2001-05-11 Fuji Photo Film Co Ltd Method and device for picture processing, and recording medium
JP2001148863A (en) * 1999-11-19 2001-05-29 Victor Co Of Japan Ltd White balance adjustment method and adjustment device
JP2001186323A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Identification photograph system and picture on processing method
JP2002185771A (en) * 2000-12-14 2002-06-28 Noritsu Koki Co Ltd Image forming device, image data processing method and recording medium recording image data processing program
JP2003169177A (en) * 2001-09-18 2003-06-13 Fuji Photo Film Co Ltd Image reader

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025766A (en) * 2005-07-12 2007-02-01 Fujifilm Holdings Corp Face detecting method, face detection device, and program
WO2007072907A1 (en) * 2005-12-21 2007-06-28 Nec Corporation Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
US8374458B2 (en) 2005-12-21 2013-02-12 Nec Corporation Tone correcting method, tone correcting apparatus, tone correcting program, and image equipment
WO2008018460A1 (en) * 2006-08-08 2008-02-14 Nikon Corporation Image processing method, image processing apparatus, image processing program, and image pickup apparatus
WO2008032517A1 (en) 2006-09-14 2008-03-20 Mitsubishi Electric Corporation Image processing device and image processing method, and image pickup device and image pickup method
US8154628B2 (en) 2006-09-14 2012-04-10 Mitsubishi Electric Corporation Image processing apparatus and imaging apparatus and method
JP2008108024A (en) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd Image processor and imaging device
EP2717222A1 (en) * 2007-03-30 2014-04-09 Mitsubishi Electric Corporation Image processing apparatus and program recording medium
JP2011019126A (en) * 2009-07-09 2011-01-27 Canon Inc Image processor and image processing method
JP2011170890A (en) * 2011-06-06 2011-09-01 Fujifilm Corp Face detecting method, face detection device, and program

Also Published As

Publication number Publication date
JP4147155B2 (en) 2008-09-10

Similar Documents

Publication Publication Date Title
JP3880553B2 (en) Image processing method and apparatus
CN110505459B (en) Image color correction method, device and storage medium suitable for endoscope
JP4085058B2 (en) A general-purpose image enhancement algorithm that enhances visual recognition of details in digital images
US7876974B2 (en) Method for improving digital images and an image sensor for sensing the same
US7650045B2 (en) Image processing apparatus and method
JP5389903B2 (en) Optimal video selection
US6822762B2 (en) Local color correction
EP1652372B1 (en) Method of and device for modulating a dynamic range of still and video images
JP4639037B2 (en) Image processing method and apparatus
EP1139284B1 (en) Method and apparatus for performing local color correction
US6741753B1 (en) Method and system of local color correction using background liminance masking
JP5457652B2 (en) Image processing apparatus and method
JP2004062651A (en) Image processor, image processing method, its recording medium and its program
KR20120114899A (en) Image processing method and image processing apparatus
Kao High dynamic range imaging by fusing multiple raw images and tone reproduction
JP4147155B2 (en) Image processing apparatus and method
JP5410378B2 (en) Video signal correction apparatus and video signal correction program
JP4125191B2 (en) Image processing apparatus and method
JP2020145553A (en) Image processing apparatus, image processing method and program
JP2005039457A (en) Image processing apparatus and method
JP2005039456A (en) Image processing method and apparatus
JP2004030635A (en) Digital image processing method, program product, apparatus, and system
JP2005004582A (en) Image processing apparatus, image processing program, and electronic camera
Tolstaya et al. Fusion of high dynamic range scene photos
JP2005039455A (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080623

R150 Certificate of patent or registration of utility model

Ref document number: 4147155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees