JP4135365B2 - Image processing apparatus and method, recording medium, and program - Google Patents

Image processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP4135365B2
JP4135365B2 JP2002011027A JP2002011027A JP4135365B2 JP 4135365 B2 JP4135365 B2 JP 4135365B2 JP 2002011027 A JP2002011027 A JP 2002011027A JP 2002011027 A JP2002011027 A JP 2002011027A JP 4135365 B2 JP4135365 B2 JP 4135365B2
Authority
JP
Japan
Prior art keywords
correction
image data
category
image
color area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002011027A
Other languages
Japanese (ja)
Other versions
JP2003216941A (en
Inventor
雅彦 伊藤
直哉 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002011027A priority Critical patent/JP4135365B2/en
Publication of JP2003216941A publication Critical patent/JP2003216941A/en
Application granted granted Critical
Publication of JP4135365B2 publication Critical patent/JP4135365B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、擬似輪郭等を発生させることなく、画像の色をより好適に補正することができるようにする画像処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
近年、例えば、ディジタルスチルカメラで撮影した画像をパーソナルコンピュータに保存したり、保存した画像をテレビジョン受像機やプリンタに出力するなど、ディジタルカラー画像を扱うことのできる機器が急速に普及している。
【0003】
そして、これらの機器の中には、画像の中に含まれる、いわゆる記憶色に近い色を記憶色そのものに補正し、得られた画像を出力するようになされているものも存在する。
【0004】
記憶色は、例えば、人間の肌の色、空の青色、および草木の緑色など、人の記憶に残っている色であり、これらの色に対する観察者の目は敏感であるため、観察者にとっては、撮影して得られた画像そのままよりも、記憶色に補正したものの方が、見栄えのよい画像であると認識されるといわれている。
【0005】
ところで、記憶色に近い色を、記憶色そのものに補正した画像を出力する機器においては、一般的に、記憶色に近い色の領域を抽出し、その領域のみ補正を行う方法が採用されている。従って、例えば、画像中に人物が写っている場合、被写体の顔の領域の色が記憶色の肌色に補正されて出力される。
【0006】
【発明が解決しようとする課題】
しかしながら、このように、記憶色の領域を抽出し、その領域のみ局所的な補正を行う場合、補正を行っていない領域との色の変化が急激なものとなり、その境界部分に擬似輪郭が発生してしまうという課題があった。
【0007】
本発明はこのような状況に鑑みてなされたものであり、擬似輪郭等を発生させることなく、画像の色をより好適に補正することができるようにしたものである。
【0008】
【課題を解決するための手段】
本発明の画像処理装置は、画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、画像データ全体に対するカテゴリを判別する判別手段と、判別手段により判別された画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、画像データの全体の補正のうち、いずれかの補正を選択する選択手段と、選択手段による選択に応じて、画像データを補正する補正手段とを備える。
前記判別手段には、前記記憶色領域としての肌色領域の大きさが第1の閾値より大きく、緑色領域と空色領域の大きさが第2の閾値より小さいとき、前記画像データのカテゴリをポートレート画像と判別させることができる。
前記判別手段には、前記記憶色領域としての肌色領域の大きさが第1の閾値より大きく、緑色領域と空色領域の大きさが第2の閾値より大きいとき、前記画像データのカテゴリをポートレート&風景画像と判別させることができる。
前記判別手段には、前記記憶色領域としての肌色領域の大きさが第1の閾値より小さく、かつ、前記第1の閾値より小さい値である第2の閾値より大きく、緑色領域と空色領域の大きさが第3の閾値より小さいとき、前記画像データのカテゴリを小人物画像と判別させることができる。
前記判別手段には、前記記憶色領域としての肌色領域の大きさが第1の閾値より小さく、かつ、前記第1の閾値より小さい値である第2の閾値より大きく、緑色領域と空色領域の大きさが第3の閾値より大きいとき、前記画像データのカテゴリを小人物&風景画像と判別させることができる。
前記判別手段には、前記記憶色領域としての肌色領域の大きさが第1の閾値より小さく、緑色領域と空色領域の大きさが第2の閾値より大きいとき、前記画像データのカテゴリを風景画像と判別させることができる。
【0009】
選択手段は、画像データの輝度の補正として、記憶色領域のみの補正、または、画像データの全体の補正のいずれかを選択し、補正手段は、選択手段による選択に応じて画像データの輝度を補正するようにすることができる。
【0010】
記憶色領域を抽出する抽出手段をさらに備え、補正手段は、抽出手段により抽出された記憶色領域の彩度、および色相を補正するようにすることができる。
【0011】
判別手段は、画像データ全体に対するカテゴリを、さらに、画像データのヘッダに記述されている情報に基づいて判別するようにすることができる。
【0012】
本発明の画像処理装置の画像処理方法は、画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、画像データ全体に対するカテゴリを判別する判別ステップと、判別ステップの処理により判別された画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、画像データの全体の補正のうち、いずれかの補正を選択する選択ステップと、選択ステップの処理による選択に応じて、画像データを補正する補正ステップとを含む。
【0013】
本発明の記録媒体に記録されているプログラムは、画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、画像データ全体に対するカテゴリを判別する判別ステップと、判別ステップの処理により判別された画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、画像データの全体の補正のうち、いずれかの補正を選択する選択ステップと、選択ステップの処理による選択に応じて、画像データを補正する補正ステップとを含む。
【0014】
本発明のプログラムは、画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、画像データ全体に対するカテゴリを判別する判別ステップと、判別ステップの処理により判別された画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、画像データの全体の補正のうち、いずれかの補正を選択する選択ステップと、選択ステップの処理による選択に応じて、画像データを補正する補正ステップとをコンピュータに実行させる。
【0015】
本発明の画像処理装置および方法、並びにプログラムにおいては、画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、画像データ全体に対するカテゴリが判別され、判別された画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、画像データの全体の補正のうち、いずれかの補正が選択される。また、その選択結果に応じて、画像データが補正される。
【0016】
【発明の実施の形態】
図1は、本発明に係る画像処理装置を適用できる機器の例を示す図である。
【0017】
図1に示されるように、画像処理装置11(図2参照)は、例えば、パーソナルコンピュータ1、プロジェクタ2、ディジタルビデオカメラ3、ディジタルスチルカメラ4、PDA(Personal Digital Assistants)5、携帯電話機6、およびプリンタ7などの各機器の、画像データの処理部に適用することができる。
【0018】
図2は、本発明を適用した画像印刷装置11の構成例を示すブロック図である。
【0019】
画像解析部21は、ディジタルスチルカメラ4などにより撮影され、保存された画像ファイルを取得し、画像ファイルのヘッダ情報を解析する。ヘッダ情報には、例えば、撮影したカメラの機種名、撮影日時、シャッタースピード、撮影モードなどの情報を表わすExif(Exchangeable image file format for Digital Still Cameras)などが記述されており、画像解析部21は、このExifなどの情報を解析する。例えば、ディジタルスチルカメラ4のユーザにより撮影モードが設定され、画像が撮影された場合、画像解析部21は、設定されていたモードをヘッダ情報から読み取り、画像の撮影モードをカテゴリ判別部22に通知する。
【0020】
また、画像解析部21は、画像データに含まれる記憶色の統計量を算出し、それをカテゴリ判別部22に通知する。具体的には、画像解析部21は、例えば、人物の肌の領域(肌色領域)、風景の空の領域(空色領域)、草木の緑の領域(緑色領域)などの所定の記憶色に近似している色の領域(以下、単に、記憶色領域と称する)の、画像全体に占める割合などを算出し、それをカテゴリ判別部22に通知する。なお、取得された画像データもカテゴリ判別部22に出力される。
【0021】
カテゴリ判別部22は、画像解析部21からの通知に基づいて画像のカテゴリを判別する。例えば、カテゴリ判別部22は、画像中に含まれる肌色領域の大きさ(量)が所定の閾値より大きいか否か、または、空色領域の大きさが閾値より大きいか否か等に基づいて画像のカテゴリを判別する。
【0022】
後述するように、画像解析部21から供給された画像は、例えば、主に人物が被写体とされている「ポートレート画像」、主に風景が被写体とされている「風景画像」、人物の割合が比較的少ない「小人物画像」などのカテゴリに分類される。カテゴリ判別部22により決定されたカテゴリは、補正の方法を選択する際に利用される。
【0023】
カテゴリ判別部22によるカテゴリの判別結果は、輝度補正部24に通知される。また、カテゴリ判別部22に供給された画像データは、変換部23に出力される。
【0024】
変換部23は、供給された、R(赤)、G(緑)、B(青)により指定される画像データを、Y(輝度)、C(彩度)、H(色相)により指定される画像データに変換し、色空間を変換して得られた画像データを輝度補正部24に出力する。色空間を変更することにより、例えば、彩度のみを変更したければ、彩度値のみを変更すればよく、RGB空間よりも直接的に、かつ、容易に色を変更することができる。すなわち、RGB空間において彩度を変更する場合、RGBのそれぞれの値を変更する必要がある。
【0025】
輝度補正部24は、カテゴリ判別部22から通知された画像のカテゴリ、変換部23から供給された画像データの輝度値、記憶色の輝度値等に基づいて、補正量を決定し、例えば、記憶色領域の輝度値を画素毎に補正する。輝度補正部24により輝度が補正された画像データは彩度補正部25に出力される。輝度補正部24の詳細な構成、および処理については後述する。
【0026】
彩度補正部25は、輝度補正部24から供給された画像データの彩度と、予め設定されている記憶色の彩度に基づいて補正量を決定し、記憶色領域の彩度を画素毎に補正する。彩度補正部25により彩度が補正された画像データは色相補正部26に出力される。
【0027】
色相補正部26は、彩度補正部25から供給された画像データの色相と、予め設定されている記憶色の色相に基づいて補正量を決定し、記憶色領域の色相を画素毎に補正する。色相補正部26により色相が補正された画像データは変換部27に出力される。
【0028】
変換部27は、輝度、彩度、および色相が補正された画像データを色相補正部26から取得し、取得した画像データをRGB色空間のものに変換する。RGB色空間に変換された画像データは、出力部28に供給され、出力部28により画像処理装置11の後段の装置に出力される。すなわち、画像処理装置11が図1のパーソナルコンピュータ1に設けられている場合、画像処理装置11により色が補正された画像がパーソナルコンピュータ1のCRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)などに表示される。また、画像処理装置11が図1のプリンタ7に設けられている場合、画像処理装置11により色が補正された画像が所定の印刷媒体に印刷される。
【0029】
図3は、図2の輝度補正部24の詳細な構成例を示すブロック図である。
【0030】
補正切替部41は、カテゴリ判別部22から通知された画像のカテゴリ、画像に含まれる記憶色領域の統計量等に基づいて、画像全体の画素の輝度を補正するか、または、記憶色領域(必要に応じてその周辺部)の輝度のみを補正するかを決定する。以下、画像全体の画素の輝度を補正する補正方法をグローバル補正と称し、一方、記憶色領域の輝度のみを補正する補正方法をローカル補正と称する。
【0031】
具体的には、補正切替部41は、カテゴリ判別部22からの通知等に基づいて、変換部23から供給された画像のカテゴリが、主に人物が被写体として写っている「ポートレート画像」、または「小人物画像」であると判定した場合、後段の補正処理部44に実行させる補正方法としてグローバル補正を選択する。仮に、「ポートレート画像」に含まれる人物の肌色領域の輝度のみを補正した場合、肌色領域とその周辺の輝度の差が急激なものとなり、擬似輪郭を発生させてしまうことがあるが、このように「ポートレート画像」、および「小人物画像」に関してグローバル補正を選択することにより、擬似輪郭等を発生させることなく、より好適に色を補正することができる。
【0032】
また、補正切替部41は、変換部23から供給された画像のカテゴリが、例えば、風景画像などであると判定した場合、補正処理部44に実行させる補正方法としてローカル補正を選択する。
【0033】
補正切替部41により選択された補正方法を表わす情報は、変換部23から供給された画像データと共に補正量決定部42に通知される。
【0034】
補正量決定部42は、補正切替部41から通知された情報に基づいて、輝度の補正量(補正カーブ)を決定し、画像をローカル補正により補正することが通知されている場合、その画像データを、補正量を表わす情報と共に記憶色領域抽出部43に出力し、一方、グローバル補正により補正することが通知されている場合、その画像データを、補正量を表わす情報と共に補正処理部44に出力する。
【0035】
記憶色領域抽出部43には、抽出する色の範囲が予め設定されており、記憶色領域抽出部43は、例えば、記憶色の肌の色に対して近似する、所定の範囲内の色、記憶色の空の色に対して近似する、所定の範囲内の色、および、記憶色の緑の色に対して近似する、所定の範囲内の色の領域(画素)を抽出し、記憶色領域を補正処理部44に通知する。また、ローカル補正の補正量を表わす情報等も補正処理部44に出力される。
【0036】
補正処理部44は、補正量決定部42から画像データが供給されてきたとき、通知された補正量に基づいて画像全体の画素を補正する(グローバル補正を施す)。また、補正処理部44は、記憶色領域抽出部43から画像データが供給されてきたとき、通知された補正量に基づいて画像の記憶色領域の画素を補正する(ローカル補正を施す)。補正処理部44によりグローバル補正、またはローカル補正が施された画像データは、後段の彩度補正部25に出力される。
【0037】
次に、図4のフローチャートを参照して、画像処理装置11の補正処理について説明する。
【0038】
ステップS1において、画像解析部21は、画像データを取得し、そのデータにより表わされる画像に関する、例えば、撮影したカメラの機種名、撮影日時、シャッタースピード、撮影モードなどの情報が記述されているヘッダ情報を解析する。画像解析部21は、ヘッダ情報を解析し、ヘッダ情報に画像の撮影モードが記述されている場合、それをカテゴリ判別部22に通知する。
【0039】
また、画像解析部21は、ステップS2において、画像に含まれる記憶色領域の統計量を算出し、算出結果をカテゴリ判別部22に通知する。例えば、画像解析部21には、記憶色領域として抽出する色が予め設定されており、画像解析部21は、記憶色の肌色に近似している色、記憶色の空色に近似している色等により指定される画素の、画像全体に占める割合などの記憶色領域の統計量を算出する。
【0040】
ステップS3において、カテゴリ判別部22は、画像解析部21から通知されたヘッダ情報や、記憶色領域の統計量に基づいて、画像のカテゴリを判別する。カテゴリ判別部22によるカテゴリの判別結果は輝度補正部24に通知され、カテゴリ判別部22に供給された画像データは変換部23に出力される。カテゴリ判別部22の処理については、図5乃至図7のフローチャートを参照して後述する。
【0041】
ステップS4において、変換部23は、RGB色空間の画像データを、YCH色空間の画像データに変換し、得られた画像データを輝度補正部24に出力する。
【0042】
輝度補正部24は、ステップS5において、カテゴリ判別部22から通知されたカテゴリ等に基づいて、変換部23から供給された画像の輝度を補正し、得られた画像を彩度補正部25に出力する。
【0043】
その後、ステップS6、およびステップS7において、彩度補正部25、色相補正部26によりそれぞれ補正が施され、得られた画像データが変換部27に出力される。変換部27に供給された画像データは、ステップS8において、RGB色空間のデータに変換された後、ステップS9で、画像処理装置11の後段の装置に出力される。
【0044】
次に、図5のフローチャートを参照して、図4のステップS3において実行されるカテゴリ判別部22の処理について説明する。
【0045】
なお、この処理は、「ポートレートモード」により撮影された画像のカテゴリを判別する処理を表わしている。すなわち、ディジタルスチルカメラ4等において、撮影モードが「ポートレートモード」に設定されて撮影された場合、画像のヘッダに記述されている情報が画像解析部21により解析され、「ポートレートモード」により撮影されたことがカテゴリ判別部22に通知される。
【0046】
ステップS21において、カテゴリ判別部22は、画像解析部21により算出された記憶色領域の統計量に基づいて、芝、または草などの緑色領域と空色領域(芝草空領域)の量が、閾値TH1より大きいか否かを判定する。すなわち、カテゴリ判別部22には、所定の閾値が予め設定されており、それに基づいて画像のカテゴリを判別できるようになされている。なお、この閾値をユーザが好みに応じて設定できるようにしても良い。
【0047】
カテゴリ判別部22は、ステップS21において、緑色領域と空色領域の量が閾値TH1より大きくない(小さい)と判定した場合、供給された画像は、比較的広い範囲に人物が写っている画像であると認識し、ステップS22に進み、画像のカテゴリを「ポートレート画像」として決定する。
【0048】
一方、ステップS21において、カテゴリ判別部22は、緑色領域と空色領域の量が閾値TH1より大きいと判定した場合、供給されてきた画像は、比較的広い範囲に風景が写っている画像であると認識し、ステップS23に進み、画像のカテゴリを「ポートレート&風景画像」として決定する。
【0049】
ステップS22、およびステップS23においてカテゴリ判別部22により決定された画像のカテゴリは、輝度補正部24に通知され、その後、図4のステップS4以降の処理が実行される。
【0050】
次に、図6のフローチャートを参照して、図4のステップS3において実行されるカテゴリ判別部22の他の処理について説明する。
【0051】
なお、この処理は、「風景モード」により撮影された画像のカテゴリを判別する処理の例を表わしている。
【0052】
図6に示される処理は、図5に示されるものと基本的に同様の処理であり、カテゴリ判別部22は、ステップS31において、画像解析部21により算出された記憶色領域の統計量に基づいて、肌色領域が閾値TH11より大きいか否かを判定する。
【0053】
カテゴリ判別部22は、ステップS31において、肌色領域が閾値TH11より大きいと判定した場合、ステップS32に進み、供給されてきた画像は、比較的広い範囲に人物が写っている画像であると認識し、ステップS32に進み、画像のカテゴリを「小人物&風景画像」として決定する。
【0054】
また、ステップS31において、カテゴリ判別部22は、肌色領域が閾値TH11より小さいと判定した場合、供給されてきた画像は、人物が殆ど写っていない画像であると認識し、ステップS33に進み、画像のカテゴリを「風景画像」として決定する。
【0055】
ステップS32、およびステップS33においてカテゴリ判別部22により決定された画像のカテゴリは、輝度補正部24に通知され、その後、図4のステップS4以降の処理が実行される。
【0056】
次に、図7のフローチャートを参照して、図4のステップS3において実行されるカテゴリ判別部22の処理について説明する。
【0057】
なお、この処理は、いずれのモードも設定されずに撮影された画像のカテゴリを判別する処理を表わしている。
【0058】
ステップS41において、カテゴリ判別部22は、画像解析部21により算出された記憶色領域の統計量に基づいて、肌色領域の量が閾値TH31より大きいか否かを判定する。
【0059】
カテゴリ判別部22は、ステップS41において、肌色領域の量が閾値TH31より大きいと判定した場合、ステップS42に進み、次に、芝、または草などの緑色領域と空色領域の量が閾値TH32より大きいか否かを判定する。
【0060】
カテゴリ判別部22は、ステップS42において、緑色領域と空色領域の量が閾値TH32より大きくない(小さい)と判定した場合、供給された画像は、比較的広い範囲に人物が写っている画像であると認識し、ステップS43に進み、画像のカテゴリを「ポートレート画像」として決定する。
【0061】
一方、ステップS42において、カテゴリ判別部22は、緑色領域と空色領域の量が閾値TH32より大きいと判定した場合、供給された画像は、比較的広い範囲に風景が写っている画像であると認識し、ステップS44に進み、画像のカテゴリを「ポートレート&風景画像」として決定する。
【0062】
カテゴリ判別部22は、ステップS41において、肌色領域の量が閾値TH31より小さいと判定した場合、ステップS45に進み、次に、その肌色領域の量が閾値TH31より小さい値である閾値TH33より大きいか否かを判定する。
【0063】
ステップS45において、カテゴリ判別部22は、肌色領域の量が閾値TH33より大きいと判定した場合、ステップS46に進み、次に、緑色領域と空色領域の量が閾値TH34より大きいか否かを判定する。
【0064】
カテゴリ判別部22は、ステップS46において、緑色領域と空色領域の量が閾値TH34より小さいと判定した場合、ある程度の人物が写っている画像であると認識し、ステップS47に進み、画像のカテゴリを「小人物画像」として決定する。
【0065】
一方、ステップS46において、カテゴリ判別部22は、緑色領域と空色領域の量が閾値TH34より大きいと判定した場合、ある程度の人物と風景が被写体として写っている画像であると認識し、ステップS47に進み、画像のカテゴリを「小人物&風景画像」として決定する。
【0066】
ステップS45において、カテゴリ判別部22は、肌色領域の量が閾値TH33より小さいと判定した場合、ステップS49に進み、次に、緑色領域と空色領域の量が閾値TH35より大きいか否かを判定する。
【0067】
カテゴリ判別部22は、ステップS49において、緑色領域と空色領域の量が閾値TH35より大きいと判定した場合、ステップS50に進み、画像のカテゴリを「風景画像」として決定する。
【0068】
一方、カテゴリ判別部22は、ステップS49において、緑色領域と空色領域の量が閾値TH35より小さいと判定した場合、ステップS51に進み、供給されてきた画像は、記憶色領域が含まれていない画像であると認識する。カテゴリ判別部22により記憶色領域が含まれていない画像であると認識された画像は、輝度補正部24等において補正されずに後段の処理部に出力される。
【0069】
このように、モードが設定されずに撮影された画像であっても、その画像に含まれる記憶色領域の量に基づいて画像のカテゴリを判別させることができる。当然、画像のカテゴリに関する詳細な情報がヘッダに記述されている場合、その情報にのみ基づいて画像のカテゴリを判別させるようにしても良い。
【0070】
次に、図8のフローチャートを参照して、図4のステップS5において実行される輝度補正部24の処理について説明する。
【0071】
ステップS61において、輝度補正部24の補正切替部41は、カテゴリ判別部22からの通知に基づいて、供給された画像のカテゴリが「ポートレート画像」、または「小人物画像」であるか否かを判定する。
【0072】
例えば、図7に示されるような処理がカテゴリ判別部22により実行され、画像のカテゴリが「ポートレート画像」、または「小人物画像」であることが通知されてきた場合、輝度補正部24は、ステップS62に進み、変換部23から供給された画像の補正方法としてグローバル補正を選択する。
【0073】
補正切替部41は、変換部23から供給された画像データを補正量決定部42に出力すると共に、グローバル補正により補正を行うことを補正量決定部42に通知する。
【0074】
補正量決定部42は、ステップS63において、補正前の画像の輝度値と、補正後の画像の輝度値を取得し、ステップS64に進み、補正カーブ(補正量)を決定する。例えば、補正量決定部42は、補正前の画像の輝度値として、補正前の画像全体の輝度値の平均値や、画像に含まれる記憶色領域の輝度値の平均値などを取得し、補正後の画像の輝度値として、記憶色領域の輝度値の平均値などを取得する。
【0075】
図9は、補正量決定部42により決定された、グローバル補正の補正カーブの例を示す図である。図9において、横軸は補正前の輝度値(入力輝度値)を表わしており、縦軸は補正後の輝度値(出力輝度値)を表わしている。
【0076】
図9においては、2つの2項分布関数が組み合わされて補正カーブが作成されており、この補正カーブによれば、「0.2乃至0.8」付近の輝度値の入力画像の画素は、それより高い輝度値のものに補正され、一方、「0.0乃至0.2」付近の輝度値の入力画像の画素は、コントラストを保つべく、それより低い画素値のものに補正される。例えば、補正前の画像のうち、「0.4」の輝度値により指定されている画素は、「0.48」の輝度値により指定される画素に補正される。
【0077】
当然、補正量決定部42により作成される補正カーブは、図9に示されるものに限定されるものではなく、諧調飛びが発生しない滑らかなカーブ(1次微分関数と2次微分関数が連続のカーブ)であれば、様々なカーブを補正カーブとして利用することができる。
【0078】
図8の説明に戻り、ステップS64において補正量決定部42により決定された補正カーブは補正処理部44に通知される。
【0079】
補正処理部44は、グロ―バル補正を施す画像と、決定された補正カーブが補正量決定部42から通知されてきたとき、ステップS65において、通知されてきた補正カーブを利用し、画像全体の各画素に補正を施す。従って、図9に示される補正カーブが通知されてきた場合、上述したように、例えば、輝度値「0.4」の画素は、輝度値「0.48」の画素に補正される。
【0080】
このようにして画像の全ての画素に対して補正が行われ、得られた画像データが後段の彩度補正部25に出力される。そして、図4のステップS6以降の処理が実行される。
【0081】
一方、ステップS61において、補正切替部41は、カテゴリ判別部22からの通知に基づいて、供給された画像のカテゴリが「ポートレート画像」、および「小人物画像」でないと判定した場合、ステップS66に進み、変換部23から供給された画像の補正方法としてローカル補正を選択する。補正切替部41は、変換部23から供給された画像データを補正量決定部42に出力すると共に、ローカル補正により補正を行うことを補正量決定部42に通知する。
【0082】
ステップS67において、補正量決定部42は、補正前の画像の輝度値と、補正後の画像の輝度値を取得し、ステップS68に進み、補正カーブを決定するためのマハラノビス距離を算出する。
【0083】
例えば、所定の赤に近い、黄色方向に変移している色と、青色方向に変位している色がある場合、それらの色の画素値と記憶色の赤の画素値のユークリッド距離が同じであっても、一般的には、黄色方向に変移した色の方が人間にはより赤に近く感じられることになる。マハラノビス距離は、このような人間の感覚のずれを考慮して算出される距離である。
【0084】
具体的には、補正前の画素の輝度値および色度と、補正後の画素の輝度値および色度の差分をそれぞれ(ΔY,ΔCb,ΔCr)とすると、補正量決定部42は、下式(1)、および式(2)によりマハラノビス距離を算出し、ステップS69に進み、図10に示されるような補正カーブを決定する。
【0085】
【数1】

Figure 0004135365
【数2】
Figure 0004135365
【0086】
図10において、横軸は記憶色領域の中心からのマハラノビス距離を表わしており、縦軸は補正量(補正後の輝度値から補正前の輝度値を減算したもの(ΔY))を表わしている。
【0087】
図に示されるように、補正量決定部42は、例えば、記憶色領域の中心からマハラノビス距離が遠くなるにつれて、補正量が次第に小さくなるような滑らかな曲線を作成する。この例においては、補正を行う領域が「1」以内になるように正規化されており、必要に応じて、記憶色領域ではない領域も補正されるようになされている。例えば、記憶色領域の中心からマハラノビス距離上で「0.6」の距離の範囲までが記憶色領域とされている場合、記憶色領域の中心から「0.6」乃至「1.0」の距離にある記憶色領域ではない領域も補正が施される。
【0088】
このように、マハラノビス距離が遠くなるにつれて補正量が次第に小さくなる補正カーブを利用することで、記憶色領域の周辺部も補正が施されることとなり、記憶色領域にのみ補正を施す場合に較べて、輝度の変化を滑らかにすることができ、擬似輪郭が発生するのを抑制することができる。すなわち、記憶色領域にのみ補正を施す場合、記憶色領域と記憶色領域でない領域の輝度の差が大きくなり、擬似輪郭が発生することがある。
【0089】
当然、補正量決定部42により作成される補正カーブは、図10に示されるものに限定されるものではなく、諧調飛びが発生しない滑らかなカーブであれば、様々なカーブを補正カーブとして利用することができる。
【0090】
補正量決定部42により作成された補正カーブは、画像データと共に記憶色領域抽出部43に供給される。
【0091】
記憶色領域抽出部43には、記憶色の色相値が予め設定されており、記憶色領域抽出部43は、ステップS70において、画素毎の色相値を確認し、ステップS71に進み、設定されている色相値に基づいて、補正が必要な画素(記憶色領域の画素と、その周辺の画素)を抽出する。記憶色領域抽出部43は、補正が必要な画素に関する情報を、補正量決定部42により決定された補正カーブ、および画像データと共に補正処理部44に出力する。
【0092】
ステップS72において、補正処理部44は、供給された補正カーブに基づいて、記憶色領域抽出部43により抽出された記憶色領域の画素と、必要に応じて、記憶色領域の周辺の画素を補正する。例えば、図10に示されるような補正カーブが供給されてきた場合、補正処理部44は、記憶色領域の中心に相当する画素の輝度値を約「0.8」だけ高く補正し、中心に相当する画素からマハラノビス距離が遠くなるにつれて、補正量が次第に小さくなるように輝度値を補正する。
【0093】
補正処理部44は、ステップS73において、補正が必要な全ての画素を補正したか否かを判定し、補正してないと判定した場合、ステップS70に戻りそれ以降の処理を繰り返し実行する。一方、補正処理部44は、補正が必要な全ての画素を補正したと判定した場合、補正後の画像を彩度補正部25に出力し、処理を終了する。
【0094】
以上のように、画像のカテゴリに応じて補正方法を切り替えるようにしたので、記憶色領域の境界付近に擬似輪郭が発生するのを抑制することができる。すなわち、人物が比較的広い範囲に写っているポートレート画像が供給されており、その記憶色領域(肌色領域)のみを抽出し、被写体の顔の色を補正した場合、顔の領域と顔以外の領域の輝度値に大きな差異が生じてしまい、その境界部に擬似輪郭が生じてしまうことがある。
【0095】
また、画像全体を補正する場合であっても、図9に示されるように、輝度値の中心付近に相当する画素に対しては、その輝度値が高くなるように補正し、中心付近より低い輝度値が設定されている画素に対しては、その輝度値がさらに低くなるように補正するようにしたので、画像全体のコントラストを保持することができる。
【0096】
さらに、図10に示されるように、記憶色領域を抽出してローカル補正を施す場合、記憶色領域の周辺の画素にも補正が施されるようにしたので、記憶色領域のみに補正を施す場合に較べて、記憶色領域と記憶色領域以外の領域に、急激な輝度値の変化が生じるのを抑制することができる。
【0097】
次に、図11のフローチャートを参照して、図4のステップS6において実行される彩度補正部25の処理について説明する。
【0098】
ステップS81において、彩度補正部25は、輝度補正部24から供給されてきた画像の記憶色領域の彩度値と、補正後の彩度値(記憶色の彩度値)を取得する。例えば、彩度補正部25には、記憶色である肌色の彩度値、空色の彩度値、緑色の彩度値などが予め設定されている。
【0099】
ステップS82において、彩度補正部25は、画像に含まれる記憶色領域の彩度値を、記憶色の彩度値そのものに補正する補正カーブを決定する。
【0100】
図12は、彩度補正部25により決定される補正カーブの例を示す図である。図12において、横軸は補正前の彩度値(入力彩度値)を表わしており、縦軸は補正量(出力彩度値から入力彩度値を減算した量(ΔC))を表わしている。
【0101】
この例においては、入力彩度値が「0.2」の画素に対して、約「0.06」だけ彩度値が加算され、その入力彩度値をほぼ中心として、入力彩度値の大小方向に補正量が次第に小さくなるような補正カーブとされている。
【0102】
図13は、彩度補正部25により決定される補正カーブの例を示す図である。図13において、横軸は入力彩度値を表わしており、縦軸は出力彩度値を表わしている。
【0103】
図13に示される補正カーブは、図12の補正カーブと同様に、彩度値が「0.2」の画素に対して、「0.06」だけ彩度値が加算され、「0.26」の彩度値の画素が出力されるものとされている。また、入力彩度値「0.2」をほぼ中心として、入力彩度値の大小方向に補正量が次第に小さくなるような補正カーブとされている。
【0104】
図14は、彩度補正部25により決定される補正カーブの例を示す図である。図14において、横軸は入力彩度値を表わしており、縦軸は彩度値のゲイン(出力彩度値/入力彩度値)を表わしている。
【0105】
図14においては、図12、および図13の場合と同様に、入力彩度値「0.2」の画素が彩度値「0.26」として出力されるように、ゲインとして「1.3」をとる補正カーブが表わされている。
【0106】
当然、彩度補正部25により作成される補正カーブは、図12乃至図14に示されるものに限定されるものではなく、諧調飛びが発生しない滑らかなカーブであれば、様々なカーブを補正カーブとして利用することができる。
【0107】
図11の説明に戻り、彩度補正部25は、ステップS83において、画素毎の色相値を確認し、ステップS84において、確認した画素が記憶色領域の画素か否かを判定する。
【0108】
彩度補正部25は、ステップS84において、確認した画素が記憶色領域の画素であると判定した場合、ステップS85に進み、ステップS83で決定した補正カーブに基づいて、その画素を補正する。従って、図12、および図13に示されるような補正カーブが決定されている場合、彩度値が「0.2」の記憶色領域の画素は、「0.26」の彩度値の画素に補正される。
【0109】
一方、ステップS84において、確認した画素が記憶色領域の画素でないと判定された場合、ステップS85の処理はスキップされる。
【0110】
ステップS86において、彩度補正部25は、全ての画素を確認したか否かを判定し、全ての画素を確認していないと判定した場合、ステップS83に戻り、それ以降の処理を繰り返し実行し、一方、全ての画素を確認したと判定した場合、彩度を補正した画像データを色相補正部26に出力する。そして、図4のステップS7以降の処理が実行される。
【0111】
次に、図15のフローチャートを参照して、図4のステップS7において実行される色相補正部26の処理について説明する。
【0112】
ステップS91において、色相補正部26は、彩度補正部25から供給されてきた画像の記憶色領域の色相値と、補正後の色相値(記憶色の色相値)を取得する。例えば、色相補正部26には、記憶色である肌色の色相値、空色の色相値、緑色の色相値などが予め設定されている。
【0113】
ステップS92において、色相補正部26は、画像に含まれる記憶色領域の色相値を、記憶色の色相値に補正する補正カーブを決定する。
【0114】
図16は、色相補正部26により決定される、肌色領域に対する補正カーブの例を示す図である。図16において、横軸は補正前の色相値(入力色相値)を表わしており、縦軸は補正量(出力色相値から入力色相値を減算した量(ΔH))を表わしている。
【0115】
この例においては、「80乃至150」の範囲の色相値により指定される画素に対して補正が施されるとされており、補正カーブは、2つのべき関数が組み合わされて作成されている。この補正カーブによれば、例えば、入力色相値が「120」の肌色の画素は、色相値が約「10」だけ加算され、補正される。
【0116】
図17は、色相補正部26により決定される肌色領域に対する補正カーブの例を示す図であり、図16に示される補正カーブに対して、横軸を、入力色相値を表わすものとし、縦軸を、出力色相値を表わすものとしたものである。
【0117】
従って、図17に示される補正カーブは、図16と同様に、「80乃至150」の範囲の色相値をとる肌色の画素に対して補正が施されるとされており、この補正カーブによれば、例えば、入力色相値が「120」の画素は、色相値が約「10」だけ加算され、補正される。
【0118】
図18、および図19に示される補正カーブは、図16、および図17に示される補正カーブに対して、それぞれ、べき関数の指数を変更したものであり、このように、様々な補正カーブを色相値の補正に利用することができる。
【0119】
図20は、色相補正部26により決定される緑色領域に対する補正カーブの例を示す図である。図20において、横軸は補正前の色相値(入力色相値)を表わしており、縦軸は補正量(ΔH)を表わしている。
【0120】
この例においては、「165乃至255」の範囲の色相値の画素に対して補正が施されるとされており、補正カーブは、2つのべき関数が組み合わされて作成されている。この補正カーブによれば、例えば、入力色相値が「205」の画素は、色相値が約「4」だけ減算され、補正される。
【0121】
図21は、色相補正部26により決定される緑色領域に対する補正カーブの例を示す図であり、図20に示される補正カーブに対して、横軸を、入力色相値を表わすものとし、縦軸を、出力色相値を表わすものとしたものである。
【0122】
図22は、色相補正部26により決定される空色領域に対する補正カーブの例を示す図である。図22において、横軸は補正前の色相値(入力色相値)を表わしており、縦軸は補正量(ΔH)を表わしている。
【0123】
この例においては、「280乃至340」の範囲の色相値により指定される画素に対して補正が施されるとされており、補正カーブは、2つのべき関数が組み合わされて作成されている。この補正カーブによれば、例えば、入力色相値が「290」の画素は、色相値が約「5」だけ加算され、補正される。
【0124】
図23は、色相補正部26により決定される空色領域に対する補正カーブの例を示す図であり、図22に示される補正カーブに対して、横軸を、入力色相値を表わすものとし、縦軸を、出力色相値を表わすものとしたものである。
【0125】
当然、色相補正部26により作成される補正カーブは、図16乃至図23に示されるものに限定されるものではなく、諧調飛びが発生しない滑らかなカーブであれば、様々なカーブを補正カーブとして利用することができる。
【0126】
図15の説明に戻り、色相補正部26は、ステップS93において、画素毎の色相値を確認し、ステップS94において、確認した画素が記憶色の画素か否かを判定する。
【0127】
色相補正部26は、ステップS94において、確認した画素が記憶色の画素であると判定した場合、ステップS95に進み、ステップS93で決定した補正カーブに基づいて、その画素を補正する。従って、図16、および図17に示されるような補正カーブが決定されている場合、色相値が「120」の記憶色の画素は、ほぼ「130」の色相値の画素に補正される。
【0128】
一方、ステップS94において、確認した画素が記憶色の画素でないと判定された場合、ステップS95の処理はスキップされる。
【0129】
ステップS96において、色相補正部26は、画像の全ての画素を確認したか否かを判定し、全ての画素を確認していないと判定した場合、ステップS93に戻り、それ以降の処理を繰り返し実行し、一方、全ての画素を確認したと判定した場合、画像データを変換部27に出力する。そして、図4のステップS8以降の処理が実行され、輝度値、彩度値、および色相値が補正された画像が変換部27によりRGB色空間のものに変換され、出力される。
【0130】
以上においては、基本的に、画像の撮影モードに基づいて画像のカテゴリを判別し、それに基づいてグローバル補正、またはローカル補正のいずれかを選択させ、補正量を決定するとしたが、画像を観察するユーザの年齢や性別等によっても記憶色の認識の仕方が異なるため、例えば、ディジタルスチルカメラ4にユーザの年齢や性別等の様々なユーザ情報が設定され、それがヘッダ情報に含まれている場合、そのような様々な情報に基づいて、補正方法や補正量を決定するようにしても良い。
【0131】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、そのソフトウェアを実行させる装置は、例えば、図24に示されるようなパーソナルコンピュータにより構成される。
【0132】
図24において、CPU(Central Processing Unit)51は、ROM(Read Only Memory)52に記憶されているプログラム、または、記憶部58からRAM(Random Access Memory)53にロードされたプログラムに従って各種の処理を実行する。RAM53にはまた、CPU51が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0133】
CPU51、ROM52、およびRAM53は、バス54を介して相互に接続されている。このバス54にはまた、入出力インタフェース55も接続されている。
【0134】
入出力インタフェース55には、キーボード、マウスなどよりなる入力部56、CRT,LCDなどよりなるディスプレイ、並びにスピーカなどよりなる出力部57、ハードディスクなどより構成される記憶部58、モデム、ターミナルアダプタなどより構成される通信部59が接続されている。通信部59は、ネットワークを介しての通信処理を行う。
【0135】
入出力インタフェース55にはまた、必要に応じてドライブ50が接続され、磁気ディスク61、光ディスク62、光磁気ディスク63、或いは半導体メモリ64などが適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部58にインストールされる。
【0136】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0137】
この記録媒体は、図24に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク61(フロッピディスクを含む)、光ディスク62(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク63(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリ64などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM52や、記憶部58に含まれるハードディスクなどで構成される。
【0138】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0139】
【発明の効果】
以上のように、本発明の画像処理装置および方法、記録媒体、並びにプログラムによれば、擬似輪郭等を発生させることなく、画像の色をより好適に補正することができる。
【図面の簡単な説明】
【図1】本発明の画像処理装置が適用される機器の例を示す図である。
【図2】本発明を適用した画像処理装置の構成例を示すブロック図である。
【図3】図2の輝度補正部の構成例を示すブロック図である。
【図4】図2の画像処理装置の処理を説明するフローチャートである。
【図5】図2のカテゴリ判別部の処理を説明するフローチャートである。
【図6】図2のカテゴリ判別部の他の処理を説明するフローチャートである。
【図7】図2のカテゴリ判別部のさらに他の処理を説明するフローチャートである。
【図8】図2の輝度補正部の処理を説明するフローチャートである。
【図9】図8の処理により作成される補正カーブの例を示す図である。
【図10】図8の処理により作成される補正カーブの他の例を示す図である。
【図11】図2の彩度補正部の処理を説明するフローチャートである。
【図12】図11の処理により作成される補正カーブの例を示す図である。
【図13】図11の処理により作成される補正カーブの他の例を示す図である。
【図14】図11の処理により作成される補正カーブのさらに他の例を示す図である。
【図15】図2の色相補正部の処理を説明するフローチャートである。
【図16】図15の処理により作成される補正カーブの例を示す図である。
【図17】図15の処理により作成される補正カーブの他の例を示す図である。
【図18】図15の処理により作成される補正カーブのさらに他の例を示す図である。
【図19】図15の処理により作成される補正カーブの例を示す図である。
【図20】図15の処理により作成される補正カーブの他の例を示す図である。
【図21】図15の処理により作成される補正カーブのさらに他の例を示す図である。
【図22】図15の処理により作成される補正カーブの例を示す図である。
【図23】図15の処理により作成される補正カーブの他の例を示す図である。
【図24】パーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
11 画像処理装置, 21 画像解析部, 22 カテゴリ判別部, 23変換部, 24 輝度補正部, 25 彩度補正部, 26 色相補正部, 27 変換部, 28 出力部, 41 補正切替部, 42 補正量決定部,43 記憶色領域抽出部, 44 補正処理部, 61 磁気ディスク, 62 光ディスク, 63 光磁気ディスク, 64 半導体メモリ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to an image processing apparatus and method and recording capable of more suitably correcting the color of an image without generating a pseudo contour or the like. The present invention relates to a medium and a program.
[0002]
[Prior art]
In recent years, devices capable of handling digital color images, such as storing images taken with a digital still camera in a personal computer or outputting the stored images to a television receiver or printer, are rapidly spreading. .
[0003]
Among these devices, there are devices that correct a color close to a so-called memory color included in an image to the memory color itself and output the obtained image.
[0004]
Memory colors are colors that remain in human memory, such as human skin color, sky blue, and plant green, and the viewer's eyes for these colors are sensitive to the viewer. It is said that an image obtained by correcting a memory color is recognized as a better-looking image than an image obtained by photographing.
[0005]
By the way, in a device that outputs an image in which a color close to the memory color is corrected to the memory color itself, generally, a method of extracting a color area close to the memory color and correcting only that area is employed. . Therefore, for example, when a person is shown in the image, the color of the face area of the subject is corrected to the skin color of the memory color and output.
[0006]
[Problems to be solved by the invention]
However, when a memory color area is extracted in this way and local correction is performed only on that area, the color change from the area that has not been corrected becomes abrupt and a pseudo contour is generated at the boundary. There was a problem of doing it.
[0007]
The present invention has been made in view of such a situation, and is capable of more suitably correcting the color of an image without generating a pseudo contour or the like.
[0008]
[Means for Solving the Problems]
  The image processing apparatus of the present inventionBased on the size of a plurality of predetermined memory color areas in the entire image data,Discriminating means for discriminating the category and images discriminated by the discriminating meansFor the entire dataDepending on the category, only correction of the memory color area that approximates the predetermined memory color, or imagedataSelection means for selecting one of the corrections of the whole, and selection by the selection meansDepending on the image dataCorrection means for correctingThe
  When the size of the skin color area as the memory color area is larger than the first threshold value and the size of the green color area and the sky blue area is smaller than the second threshold value, the determination means determines the category of the image data as a portrait. It can be discriminated from an image.
  When the size of the skin color area as the memory color area is larger than the first threshold value and the size of the green color area and the sky blue area is larger than the second threshold value, the determination means determines the category of the image data as a portrait. & Can be discriminated from landscape images.
  The discrimination means has a size of the skin color area as the memory color area that is smaller than a first threshold value and larger than a second threshold value that is smaller than the first threshold value. When the size is smaller than the third threshold, the category of the image data can be determined as a small person image.
  The discrimination means has a size of the skin color area as the memory color area that is smaller than a first threshold value and larger than a second threshold value that is smaller than the first threshold value. When the size is larger than the third threshold, the category of the image data can be determined as a small person & landscape image.
  The discriminating unit determines the category of the image data when the size of the skin color area as the memory color area is smaller than a first threshold and the sizes of the green area and the sky blue area are larger than a second threshold. Can be determined.
[0009]
  The selection means is an imagedataAs the brightness correction, only the memory color area or the imagedataOne of the entire corrections of the image is selected, and the correction unit selects the image according to the selection by the selection unit.dataThe luminance can be corrected.
[0010]
Extraction means for extracting the memory color area is further provided, and the correction means can correct the saturation and hue of the memory color area extracted by the extraction means.
[0011]
  The discriminating means is an imageFor the entire dataCategoryfurther,Information described in the image data headerOn the basis of theIt can be determined.
[0012]
  An image processing method of the image processing apparatus according to the present invention includes:Based on the size of a plurality of predetermined memory color areas in the entire image data,Discrimination step for discriminating categories and images discriminated by the processing of the discrimination stepFor the entire dataDepending on the category, only correction of the memory color area that approximates the predetermined memory color, or imagedataA selection step to select one of the total corrections, and selection by the processing of the selection stepDepending on the image dataA correction step for correctingIncluding.
[0013]
  The program recorded on the recording medium of the present invention is:Based on the size of a plurality of predetermined memory color areas in the entire image data,Discrimination step for discriminating categories and images discriminated by the processing of the discrimination stepFor the entire dataDepending on the category, only correction of the memory color area that approximates the predetermined memory color, or imagedataA selection step to select one of the total corrections, and selection by the processing of the selection stepDepending on the image dataA correction step for correctingIncluding.
[0014]
  The program of the present inventionBased on the size of a plurality of predetermined memory color areas in the entire image data,Discrimination step for discriminating categories and images discriminated by the processing of the discrimination stepFor the entire dataDepending on the category, only correction of the memory color area that approximates the predetermined memory color, or imagedataA selection step to select one of the total corrections, and selection by the processing of the selection stepDepending on the image dataCorrection step to correctLet
[0015]
  In the image processing apparatus and method and the program of the present invention,Based on the size of a plurality of predetermined memory color areas in the entire image data,Category is determined and the image is determinedFor the entire dataDepending on the category, only correction of the memory color area that approximates the predetermined memory color, or imagedataOne of the total corrections is selected. And the selection resultDepending on the image dataIs corrected.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram illustrating an example of a device to which an image processing apparatus according to the present invention can be applied.
[0017]
As shown in FIG. 1, the image processing apparatus 11 (see FIG. 2) includes, for example, a personal computer 1, a projector 2, a digital video camera 3, a digital still camera 4, a PDA (Personal Digital Assistants) 5, a mobile phone 6, In addition, the present invention can be applied to the image data processing unit of each device such as the printer 7.
[0018]
FIG. 2 is a block diagram showing a configuration example of the image printing apparatus 11 to which the present invention is applied.
[0019]
The image analysis unit 21 acquires an image file captured and stored by the digital still camera 4 or the like, and analyzes header information of the image file. In the header information, for example, Exif (Exchangeable image file format for Digital Still Cameras) indicating information such as the model name of the camera that has taken the image, the shooting date and time, the shutter speed, and the shooting mode is described. Analyze information such as this Exif. For example, when the shooting mode is set by the user of the digital still camera 4 and an image is shot, the image analysis unit 21 reads the set mode from the header information and notifies the category determination unit 22 of the shooting mode of the image. To do.
[0020]
Further, the image analysis unit 21 calculates a statistic of the memory color included in the image data and notifies the category determination unit 22 of it. Specifically, the image analysis unit 21 approximates to a predetermined memory color such as a human skin area (skin color area), a landscape sky area (sky blue area), a green area of plants (green area), for example. The ratio of the color area (hereinafter, simply referred to as a memory color area) in the entire image is calculated and notified to the category determination unit 22. The acquired image data is also output to the category determination unit 22.
[0021]
The category determination unit 22 determines the category of the image based on the notification from the image analysis unit 21. For example, the category determination unit 22 determines whether the size (amount) of the skin color area included in the image is larger than a predetermined threshold or whether the size of the sky blue area is larger than the threshold. Determine the category.
[0022]
As will be described later, the image supplied from the image analysis unit 21 includes, for example, a “portrait image” mainly including a person as a subject, a “landscape image” mainly including a landscape, and a ratio of persons. Are classified into categories such as “small person images”. The category determined by the category determination unit 22 is used when selecting a correction method.
[0023]
The result of category discrimination by the category discrimination unit 22 is notified to the luminance correction unit 24. Further, the image data supplied to the category determination unit 22 is output to the conversion unit 23.
[0024]
The conversion unit 23 designates the supplied image data designated by R (red), G (green), and B (blue) by Y (luminance), C (saturation), and H (hue). The image data is converted into image data, and the image data obtained by converting the color space is output to the luminance correction unit 24. By changing the color space, for example, if only the saturation is to be changed, only the saturation value may be changed, and the color can be changed more directly and easily than in the RGB space. That is, when changing the saturation in the RGB space, it is necessary to change each value of RGB.
[0025]
The luminance correction unit 24 determines the correction amount based on the category of the image notified from the category determination unit 22, the luminance value of the image data supplied from the conversion unit 23, the luminance value of the memory color, and the like, for example, the storage The luminance value of the color area is corrected for each pixel. The image data whose luminance has been corrected by the luminance correction unit 24 is output to the saturation correction unit 25. The detailed configuration and processing of the luminance correction unit 24 will be described later.
[0026]
The saturation correction unit 25 determines a correction amount based on the saturation of the image data supplied from the luminance correction unit 24 and the saturation of the memory color set in advance, and the saturation of the memory color area is determined for each pixel. To correct. The image data whose saturation is corrected by the saturation correction unit 25 is output to the hue correction unit 26.
[0027]
The hue correction unit 26 determines a correction amount based on the hue of the image data supplied from the saturation correction unit 25 and the hue of the preset memory color, and corrects the hue of the memory color area for each pixel. . The image data whose hue has been corrected by the hue correction unit 26 is output to the conversion unit 27.
[0028]
The conversion unit 27 acquires image data whose luminance, saturation, and hue are corrected from the hue correction unit 26, and converts the acquired image data into an RGB color space. The image data converted into the RGB color space is supplied to the output unit 28, and is output to the subsequent device of the image processing device 11 by the output unit 28. That is, when the image processing apparatus 11 is provided in the personal computer 1 of FIG. 1, an image whose color is corrected by the image processing apparatus 11 is a CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), etc. of the personal computer 1. Is displayed. When the image processing apparatus 11 is provided in the printer 7 of FIG. 1, an image whose color has been corrected by the image processing apparatus 11 is printed on a predetermined print medium.
[0029]
FIG. 3 is a block diagram illustrating a detailed configuration example of the luminance correction unit 24 of FIG.
[0030]
The correction switching unit 41 corrects the luminance of the pixels of the entire image based on the category of the image notified from the category determining unit 22, the statistic of the memory color region included in the image, or the memory color region ( It is determined whether to correct only the brightness of the peripheral portion as necessary. Hereinafter, the correction method for correcting the luminance of the pixels of the entire image is referred to as global correction, while the correction method for correcting only the luminance of the memory color area is referred to as local correction.
[0031]
Specifically, the correction switching unit 41 is based on a notification from the category determination unit 22 or the like, and the category of the image supplied from the conversion unit 23 is a “portrait image” in which a person is mainly captured as a subject. Alternatively, when it is determined that the image is a “small person image”, global correction is selected as a correction method to be executed by the correction processing unit 44 in the subsequent stage. If only the brightness of the skin color area of a person included in the “portrait image” is corrected, the brightness difference between the skin color area and the surrounding area may become abrupt, and a pseudo contour may be generated. As described above, by selecting the global correction for the “portrait image” and the “small person image”, it is possible to more suitably correct the color without generating a pseudo contour or the like.
[0032]
When the correction switching unit 41 determines that the category of the image supplied from the conversion unit 23 is, for example, a landscape image, the correction switching unit 41 selects local correction as a correction method to be executed by the correction processing unit 44.
[0033]
Information indicating the correction method selected by the correction switching unit 41 is notified to the correction amount determination unit 42 together with the image data supplied from the conversion unit 23.
[0034]
The correction amount determination unit 42 determines the luminance correction amount (correction curve) based on the information notified from the correction switching unit 41, and when it is notified that the image is corrected by local correction, the image data Is output to the memory color area extraction unit 43 together with information representing the correction amount. On the other hand, when it is notified that the correction is to be made by global correction, the image data is output to the correction processing unit 44 together with information representing the correction amount. To do.
[0035]
A range of colors to be extracted is set in advance in the memory color area extraction unit 43. The memory color area extraction unit 43, for example, a color within a predetermined range that approximates the skin color of the memory color, A color within a predetermined range that approximates the sky color of the memory color and an area (pixel) of a color within the predetermined range that approximates the green color of the memory color are extracted, and the memory color The area is notified to the correction processing unit 44. In addition, information indicating the correction amount of the local correction is also output to the correction processing unit 44.
[0036]
When the image data is supplied from the correction amount determination unit 42, the correction processing unit 44 corrects the pixels of the entire image based on the notified correction amount (performs global correction). Further, when the image data is supplied from the memory color area extraction unit 43, the correction processing unit 44 corrects the pixels in the memory color area of the image based on the notified correction amount (performs local correction). The image data that has been subjected to global correction or local correction by the correction processing unit 44 is output to the subsequent saturation correction unit 25.
[0037]
Next, correction processing of the image processing apparatus 11 will be described with reference to the flowchart of FIG.
[0038]
In step S1, the image analysis unit 21 acquires image data, and describes, for example, information about the image represented by the data, such as the model name of the photographed camera, the photographing date and time, the shutter speed, and the photographing mode. Analyze information. The image analysis unit 21 analyzes the header information, and notifies the category determination unit 22 of the image capturing mode described in the header information.
[0039]
In step S <b> 2, the image analysis unit 21 calculates a statistic of the memory color area included in the image and notifies the category determination unit 22 of the calculation result. For example, a color to be extracted as a memory color area is set in advance in the image analysis unit 21, and the image analysis unit 21 has a color that approximates the skin color of the memory color and a color that approximates the sky color of the memory color. The statistic of the memory color area such as the ratio of the pixels designated by the above to the entire image is calculated.
[0040]
In step S <b> 3, the category determination unit 22 determines the category of the image based on the header information notified from the image analysis unit 21 and the statistics of the memory color area. The result of category discrimination by the category discrimination unit 22 is notified to the luminance correction unit 24, and the image data supplied to the category discrimination unit 22 is output to the conversion unit 23. The processing of the category determination unit 22 will be described later with reference to the flowcharts of FIGS.
[0041]
In step S <b> 4, the conversion unit 23 converts the image data in the RGB color space into image data in the YCH color space, and outputs the obtained image data to the luminance correction unit 24.
[0042]
In step S <b> 5, the brightness correction unit 24 corrects the brightness of the image supplied from the conversion unit 23 based on the category notified from the category determination unit 22, and outputs the obtained image to the saturation correction unit 25. To do.
[0043]
Thereafter, in step S6 and step S7, the saturation correction unit 25 and the hue correction unit 26 respectively perform correction, and the obtained image data is output to the conversion unit 27. The image data supplied to the conversion unit 27 is converted into RGB color space data in step S8, and then output to a device subsequent to the image processing device 11 in step S9.
[0044]
Next, with reference to the flowchart of FIG. 5, the process of the category discrimination | determination part 22 performed in step S3 of FIG. 4 is demonstrated.
[0045]
This process represents a process of determining the category of an image shot in the “portrait mode”. That is, in the digital still camera 4 or the like, when the shooting mode is set to “portrait mode”, the information described in the header of the image is analyzed by the image analysis unit 21 and the “portrait mode” is used. The category determination unit 22 is notified that the image has been taken.
[0046]
In step S21, the category discriminating unit 22 determines that the amount of green area and sky blue area (turfgrass sky area) such as grass or grass based on the statistics of the memory color area calculated by the image analysis unit 21 is the threshold TH1. Determine if greater than. That is, a predetermined threshold value is set in the category determination unit 22 in advance, and the category of the image can be determined based on the predetermined threshold value. Note that this threshold value may be set by the user according to his / her preference.
[0047]
When the category determination unit 22 determines in step S21 that the amounts of the green region and the sky blue region are not larger (smaller) than the threshold value TH1, the supplied image is an image in which a person is captured in a relatively wide range. In step S22, the image category is determined as “portrait image”.
[0048]
On the other hand, if the category determination unit 22 determines in step S21 that the amounts of the green region and the sky blue region are larger than the threshold value TH1, the supplied image is an image in which the landscape is reflected in a relatively wide range. In step S23, the image category is determined as “portrait & landscape image”.
[0049]
The category of the image determined by the category determination unit 22 in step S22 and step S23 is notified to the luminance correction unit 24, and thereafter, the processing after step S4 in FIG. 4 is executed.
[0050]
Next, another process of the category determination unit 22 executed in step S3 of FIG. 4 will be described with reference to the flowchart of FIG.
[0051]
This process represents an example of a process for determining the category of an image shot in the “landscape mode”.
[0052]
The processing shown in FIG. 6 is basically the same as that shown in FIG. 5, and the category determination unit 22 is based on the statistic of the memory color area calculated by the image analysis unit 21 in step S31. Thus, it is determined whether or not the skin color area is larger than the threshold value TH11.
[0053]
If the category determination unit 22 determines in step S31 that the skin color area is larger than the threshold TH11, the category determination unit 22 proceeds to step S32 and recognizes that the supplied image is an image in which a person is captured in a relatively wide range. In step S32, the image category is determined as “small person & landscape image”.
[0054]
In step S31, if the category determination unit 22 determines that the skin color area is smaller than the threshold TH11, the supplied image is recognized as an image in which a person is hardly captured, and the process proceeds to step S33. Is determined as “landscape image”.
[0055]
The category of the image determined by the category determination unit 22 in step S32 and step S33 is notified to the luminance correction unit 24, and thereafter, the processing after step S4 in FIG. 4 is executed.
[0056]
Next, with reference to the flowchart of FIG. 7, the process of the category determination part 22 performed in step S3 of FIG. 4 will be described.
[0057]
This process represents a process of determining the category of an image taken without setting any mode.
[0058]
In step S41, the category determination unit 22 determines whether the amount of the skin color area is larger than the threshold value TH31 based on the statistic of the memory color area calculated by the image analysis unit 21.
[0059]
If the category determination unit 22 determines in step S41 that the amount of the skin color area is greater than the threshold value TH31, the process proceeds to step S42. Next, the amount of the green area and the sky blue area such as grass or grass is greater than the threshold value TH32. It is determined whether or not.
[0060]
When the category determination unit 22 determines in step S42 that the amounts of the green region and the sky blue region are not larger (smaller) than the threshold value TH32, the supplied image is an image in which a person is captured in a relatively wide range. In step S43, the image category is determined as “portrait image”.
[0061]
On the other hand, in step S42, when the category determination unit 22 determines that the amount of the green region and the sky blue region is larger than the threshold value TH32, the supplied image is recognized as an image in which a landscape is reflected in a relatively wide range. In step S44, the image category is determined as “portrait & landscape image”.
[0062]
If the category determination unit 22 determines in step S41 that the amount of the skin color region is smaller than the threshold value TH31, the process proceeds to step S45, and then whether the amount of the skin color region is larger than the threshold value TH33 that is a value smaller than the threshold value TH31 Determine whether or not.
[0063]
In step S45, if the category determination unit 22 determines that the amount of the skin color area is greater than the threshold TH33, the process proceeds to step S46, and then determines whether the amount of the green area and the sky blue area is greater than the threshold TH34. .
[0064]
If the category determination unit 22 determines in step S46 that the amount of the green region and the sky blue region is smaller than the threshold value TH34, the category determination unit 22 recognizes that the image includes a certain amount of people, and proceeds to step S47 to determine the category of the image. Determined as “small person image”.
[0065]
On the other hand, if the category determination unit 22 determines in step S46 that the amounts of the green region and sky blue region are larger than the threshold TH34, the category determination unit 22 recognizes that the image includes a certain amount of people and scenery as subjects, and the process proceeds to step S47. Proceed to determine the category of the image as “small person & landscape image”.
[0066]
In step S45, if the category determination unit 22 determines that the amount of the skin color area is smaller than the threshold TH33, the process proceeds to step S49, and then determines whether the amounts of the green area and the sky blue area are larger than the threshold TH35. .
[0067]
If the category determination unit 22 determines in step S49 that the amounts of the green region and the sky blue region are larger than the threshold TH35, the category determination unit 22 proceeds to step S50 and determines the category of the image as “landscape image”.
[0068]
On the other hand, if the category determination unit 22 determines in step S49 that the amount of the green area and the sky blue area is smaller than the threshold value TH35, the process proceeds to step S51, and the supplied image does not include the memory color area. Recognize that An image recognized by the category determination unit 22 as an image that does not include a memory color area is output to a subsequent processing unit without being corrected by the luminance correction unit 24 or the like.
[0069]
Thus, even for an image taken without setting a mode, the category of the image can be determined based on the amount of the memory color area included in the image. Of course, when detailed information about the category of the image is described in the header, the category of the image may be determined based only on the information.
[0070]
Next, the process of the luminance correction unit 24 executed in step S5 of FIG. 4 will be described with reference to the flowchart of FIG.
[0071]
In step S <b> 61, the correction switching unit 41 of the luminance correction unit 24 determines whether the category of the supplied image is “portrait image” or “small person image” based on the notification from the category determination unit 22. judge.
[0072]
For example, when the process shown in FIG. 7 is executed by the category determination unit 22 and it is notified that the category of the image is “portrait image” or “small person image”, the brightness correction unit 24 In step S62, global correction is selected as a correction method for the image supplied from the conversion unit 23.
[0073]
The correction switching unit 41 outputs the image data supplied from the conversion unit 23 to the correction amount determination unit 42 and notifies the correction amount determination unit 42 that correction is performed by global correction.
[0074]
In step S63, the correction amount determination unit 42 acquires the luminance value of the image before correction and the luminance value of the image after correction, proceeds to step S64, and determines a correction curve (correction amount). For example, the correction amount determination unit 42 acquires, as the luminance value of the image before correction, the average value of the luminance values of the entire image before correction, the average value of the luminance values of the memory color area included in the image, and the like. As the luminance value of the subsequent image, an average value of the luminance values of the memory color area is acquired.
[0075]
FIG. 9 is a diagram illustrating an example of a correction curve for global correction determined by the correction amount determination unit 42. In FIG. 9, the horizontal axis represents the luminance value before correction (input luminance value), and the vertical axis represents the luminance value after correction (output luminance value).
[0076]
In FIG. 9, a correction curve is created by combining two binomial distribution functions. According to this correction curve, pixels of an input image having a luminance value near “0.2 to 0.8” are On the other hand, the pixel of the input image having a luminance value near “0.0 to 0.2” is corrected to a pixel value lower than that in order to maintain the contrast. For example, in the image before correction, a pixel designated by a luminance value of “0.4” is corrected to a pixel designated by a luminance value of “0.48”.
[0077]
Naturally, the correction curve created by the correction amount determination unit 42 is not limited to that shown in FIG. 9 and is a smooth curve (a linear differential function and a secondary differential function are continuous without gradation skipping). Curve), various curves can be used as the correction curve.
[0078]
Returning to FIG. 8, the correction processing unit 44 is notified of the correction curve determined by the correction amount determination unit 42 in step S64.
[0079]
When the image to be subjected to global correction and the determined correction curve are notified from the correction amount determining unit 42, the correction processing unit 44 uses the notified correction curve in step S65 to Each pixel is corrected. Therefore, when the correction curve shown in FIG. 9 is notified, as described above, for example, a pixel having the luminance value “0.4” is corrected to a pixel having the luminance value “0.48”.
[0080]
In this way, all the pixels of the image are corrected, and the obtained image data is output to the saturation correction unit 25 in the subsequent stage. And the process after step S6 of FIG. 4 is performed.
[0081]
On the other hand, if the correction switching unit 41 determines in step S61 that the category of the supplied image is not “portrait image” or “small person image” based on the notification from the category determination unit 22, the process proceeds to step S66. Then, the local correction is selected as a correction method for the image supplied from the conversion unit 23. The correction switching unit 41 outputs the image data supplied from the conversion unit 23 to the correction amount determination unit 42 and notifies the correction amount determination unit 42 that correction is performed by local correction.
[0082]
In step S67, the correction amount determination unit 42 acquires the luminance value of the image before correction and the luminance value of the image after correction, proceeds to step S68, and calculates the Mahalanobis distance for determining the correction curve.
[0083]
For example, if there is a color that is close to a predetermined red and is shifting in the yellow direction, and a color that is shifting in the blue direction, the Euclidean distance between the pixel value of those colors and the red pixel value of the memory color is the same. Even so, in general, the color shifted in the yellow direction will be felt closer to red by humans. The Mahalanobis distance is a distance calculated in consideration of such a human sense shift.
[0084]
Specifically, assuming that the difference between the luminance value and chromaticity of the pixel before correction and the luminance value and chromaticity of the pixel after correction are (ΔY, ΔCb, ΔCr), respectively, the correction amount determination unit 42 represents the following equation: The Mahalanobis distance is calculated by (1) and equation (2), and the process proceeds to step S69 to determine a correction curve as shown in FIG.
[0085]
[Expression 1]
Figure 0004135365
[Expression 2]
Figure 0004135365
[0086]
In FIG. 10, the horizontal axis represents the Mahalanobis distance from the center of the memory color area, and the vertical axis represents the correction amount (the luminance value after correction minus the luminance value before correction (ΔY)). .
[0087]
As shown in the figure, the correction amount determination unit 42 creates a smooth curve in which the correction amount gradually decreases as the Mahalanobis distance increases from the center of the memory color area, for example. In this example, normalization is performed so that the area to be corrected is within “1”, and areas that are not memory color areas are also corrected as necessary. For example, in the case where the memory color area is within the range of 0.6 distance on the Mahalanobis distance from the center of the memory color area, “0.6” to “1.0” from the center of the memory color area. An area that is not a memory color area at a distance is also corrected.
[0088]
In this way, by using a correction curve whose correction amount gradually decreases as the Mahalanobis distance increases, the periphery of the memory color area is also corrected, compared to the case where correction is performed only on the memory color area. Thus, the change in luminance can be smoothed, and the occurrence of a pseudo contour can be suppressed. That is, when the correction is performed only on the memory color area, the difference in luminance between the memory color area and the non-memory color area increases, and a pseudo contour may occur.
[0089]
Naturally, the correction curve created by the correction amount determination unit 42 is not limited to that shown in FIG. 10, and various curves are used as correction curves as long as they are smooth curves that do not cause gradation skipping. be able to.
[0090]
The correction curve created by the correction amount determination unit 42 is supplied to the memory color region extraction unit 43 together with the image data.
[0091]
In the memory color area extraction unit 43, the hue value of the memory color is set in advance, and in step S70, the memory color area extraction unit 43 confirms the hue value for each pixel, proceeds to step S71, and is set. Based on the hue value, the pixels that need to be corrected (the pixels in the memory color area and the surrounding pixels) are extracted. The memory color region extraction unit 43 outputs information on the pixel that needs correction to the correction processing unit 44 together with the correction curve determined by the correction amount determination unit 42 and the image data.
[0092]
In step S72, the correction processing unit 44 corrects the pixels in the memory color area extracted by the memory color area extraction unit 43 and, if necessary, the pixels around the memory color area based on the supplied correction curve. To do. For example, when a correction curve as shown in FIG. 10 has been supplied, the correction processing unit 44 corrects the luminance value of the pixel corresponding to the center of the memory color area by about “0.8” to be centered. The luminance value is corrected so that the correction amount gradually decreases as the Mahalanobis distance from the corresponding pixel increases.
[0093]
In step S73, the correction processing unit 44 determines whether or not all pixels that need to be corrected have been corrected. If it is determined that correction has not been performed, the correction processing unit 44 returns to step S70 and repeats the subsequent processing. On the other hand, if the correction processing unit 44 determines that all the pixels that need correction have been corrected, the correction processing unit 44 outputs the corrected image to the saturation correction unit 25 and ends the processing.
[0094]
As described above, since the correction method is switched according to the image category, it is possible to suppress the occurrence of a pseudo contour near the boundary of the memory color area. That is, when a portrait image in which a person is captured in a relatively wide range is supplied, and only the memory color area (skin color area) is extracted and the face color of the subject is corrected, the area other than the face area and face There is a case where a large difference occurs in the luminance value of the region, and a pseudo contour is generated at the boundary portion.
[0095]
Even when the entire image is corrected, as shown in FIG. 9, for pixels corresponding to the vicinity of the center of the luminance value, the luminance value is corrected so as to be higher and lower than the vicinity of the center. Since the correction is made so that the luminance value is further lowered with respect to the pixel for which the luminance value is set, the contrast of the entire image can be maintained.
[0096]
Furthermore, as shown in FIG. 10, when the memory color area is extracted and subjected to local correction, correction is performed on the pixels around the memory color area, so that only the memory color area is corrected. Compared to the case, it is possible to suppress a sudden change in the luminance value in the memory color area and the area other than the memory color area.
[0097]
Next, the processing of the saturation correction unit 25 executed in step S6 of FIG. 4 will be described with reference to the flowchart of FIG.
[0098]
In step S <b> 81, the saturation correction unit 25 acquires the saturation value of the storage color area of the image supplied from the luminance correction unit 24 and the corrected saturation value (saturation value of the storage color). For example, the saturation correction unit 25 is preset with a skin color saturation value, a sky blue saturation value, a green saturation value, and the like as memory colors.
[0099]
In step S82, the saturation correction unit 25 determines a correction curve for correcting the saturation value of the memory color area included in the image to the saturation value of the memory color itself.
[0100]
FIG. 12 is a diagram illustrating an example of a correction curve determined by the saturation correction unit 25. In FIG. 12, the horizontal axis represents the saturation value (input saturation value) before correction, and the vertical axis represents the correction amount (a value obtained by subtracting the input saturation value from the output saturation value (ΔC)). Yes.
[0101]
In this example, a saturation value of about “0.06” is added to a pixel having an input saturation value of “0.2”, and the input saturation value is approximately centered on the input saturation value. The correction curve is such that the correction amount gradually decreases in the large and small directions.
[0102]
FIG. 13 is a diagram illustrating an example of a correction curve determined by the saturation correction unit 25. In FIG. 13, the horizontal axis represents the input saturation value, and the vertical axis represents the output saturation value.
[0103]
The correction curve shown in FIG. 13 is similar to the correction curve shown in FIG. 12 except that a saturation value of “0.06” is added to a pixel with a saturation value of “0.2”. ”Is output. Further, the correction curve is such that the correction amount gradually decreases in the magnitude direction of the input saturation value, with the input saturation value “0.2” substantially as the center.
[0104]
FIG. 14 is a diagram illustrating an example of a correction curve determined by the saturation correction unit 25. In FIG. 14, the horizontal axis represents the input saturation value, and the vertical axis represents the gain of the saturation value (output saturation value / input saturation value).
[0105]
In FIG. 14, as in the case of FIGS. 12 and 13, the gain “1.3” is set so that the pixel with the input saturation value “0.2” is output as the saturation value “0.26”. Is shown.
[0106]
Naturally, the correction curve created by the saturation correction unit 25 is not limited to that shown in FIGS. 12 to 14, and various curves can be corrected as long as they are smooth curves with no gradation skipping. Can be used as
[0107]
Returning to the description of FIG. 11, the saturation correction unit 25 confirms the hue value of each pixel in step S83, and determines in step S84 whether the confirmed pixel is a pixel in the memory color area.
[0108]
If the saturation correction unit 25 determines in step S84 that the confirmed pixel is a pixel in the memory color area, the saturation correction unit 25 proceeds to step S85 and corrects the pixel based on the correction curve determined in step S83. Therefore, when the correction curves as shown in FIG. 12 and FIG. 13 are determined, the pixels in the memory color area with the saturation value “0.2” are the pixels with the saturation value “0.26”. It is corrected to.
[0109]
On the other hand, if it is determined in step S84 that the confirmed pixel is not a pixel in the memory color area, the process in step S85 is skipped.
[0110]
In step S86, the saturation correction unit 25 determines whether or not all the pixels have been confirmed. If it is determined that all the pixels have not been confirmed, the process returns to step S83, and the subsequent processing is repeatedly executed. On the other hand, if it is determined that all the pixels have been confirmed, the image data with the saturation corrected is output to the hue correction unit 26. And the process after step S7 of FIG. 4 is performed.
[0111]
Next, processing of the hue correction unit 26 executed in step S7 of FIG. 4 will be described with reference to the flowchart of FIG.
[0112]
In step S <b> 91, the hue correction unit 26 acquires the hue value of the memory color area of the image supplied from the saturation correction unit 25 and the corrected hue value (hue value of the memory color). For example, the hue correction unit 26 is preset with a skin color hue value, a sky blue hue value, a green hue value, and the like, which are memory colors.
[0113]
In step S92, the hue correction unit 26 determines a correction curve for correcting the hue value of the memory color area included in the image to the hue value of the memory color.
[0114]
FIG. 16 is a diagram illustrating an example of a correction curve for the skin color region determined by the hue correction unit 26. In FIG. 16, the horizontal axis represents the hue value before correction (input hue value), and the vertical axis represents the correction amount (amount (ΔH) obtained by subtracting the input hue value from the output hue value).
[0115]
In this example, it is assumed that correction is performed on the pixel specified by the hue value in the range of “80 to 150”, and the correction curve is created by combining two power functions. According to this correction curve, for example, a flesh color pixel having an input hue value of “120” is corrected by adding a hue value of about “10”.
[0116]
FIG. 17 is a diagram showing an example of a correction curve for the skin color area determined by the hue correction unit 26. The horizontal axis represents the input hue value with respect to the correction curve shown in FIG. Represents an output hue value.
[0117]
Accordingly, the correction curve shown in FIG. 17 is, like FIG. 16, corrected for flesh-colored pixels having a hue value in the range of “80 to 150”. For example, a pixel having an input hue value of “120” is corrected by adding a hue value of about “10”.
[0118]
The correction curves shown in FIGS. 18 and 19 are obtained by changing the exponents of the power functions with respect to the correction curves shown in FIGS. 16 and 17, respectively. It can be used to correct the hue value.
[0119]
FIG. 20 is a diagram illustrating an example of a correction curve for the green region determined by the hue correction unit 26. In FIG. 20, the horizontal axis represents a hue value (input hue value) before correction, and the vertical axis represents a correction amount (ΔH).
[0120]
In this example, correction is performed on pixels having hue values in the range of “165 to 255”, and the correction curve is created by combining two power functions. According to this correction curve, for example, a pixel having an input hue value of “205” is corrected by subtracting a hue value of about “4”.
[0121]
FIG. 21 is a diagram showing an example of a correction curve for the green region determined by the hue correction unit 26. The horizontal axis represents the input hue value with respect to the correction curve shown in FIG. Represents an output hue value.
[0122]
FIG. 22 is a diagram illustrating an example of a correction curve for the sky blue region determined by the hue correction unit 26. In FIG. 22, the horizontal axis represents the hue value (input hue value) before correction, and the vertical axis represents the correction amount (ΔH).
[0123]
In this example, correction is performed on pixels specified by hue values in the range of “280 to 340”, and the correction curve is created by combining two power functions. According to this correction curve, for example, a pixel having an input hue value of “290” is corrected by adding a hue value of about “5”.
[0124]
FIG. 23 is a diagram showing an example of a correction curve for the sky blue region determined by the hue correction unit 26. The horizontal axis represents the input hue value with respect to the correction curve shown in FIG. Represents an output hue value.
[0125]
Naturally, the correction curve created by the hue correction unit 26 is not limited to that shown in FIGS. 16 to 23, and various curves can be used as the correction curves as long as they are smooth curves that do not cause gradation skipping. Can be used.
[0126]
Returning to the description of FIG. 15, the hue correction unit 26 confirms the hue value of each pixel in step S <b> 93, and determines in step S <b> 94 whether or not the confirmed pixel is a memory color pixel.
[0127]
If it is determined in step S94 that the confirmed pixel is a memory color pixel, the hue correction unit 26 proceeds to step S95 and corrects the pixel based on the correction curve determined in step S93. Accordingly, when the correction curves as shown in FIGS. 16 and 17 are determined, the pixel of the memory color having the hue value “120” is corrected to the pixel having the hue value of “130”.
[0128]
On the other hand, if it is determined in step S94 that the confirmed pixel is not a memory color pixel, the process of step S95 is skipped.
[0129]
In step S96, the hue correction unit 26 determines whether or not all the pixels of the image have been confirmed. If it is determined that all the pixels have not been confirmed, the process returns to step S93, and the subsequent processing is repeatedly executed. On the other hand, if it is determined that all the pixels have been confirmed, the image data is output to the conversion unit 27. Then, the processing after step S8 in FIG. 4 is executed, and the image in which the luminance value, the saturation value, and the hue value are corrected is converted into the RGB color space by the conversion unit 27 and output.
[0130]
In the above, basically, the category of the image is determined based on the shooting mode of the image, and based on this, either global correction or local correction is selected and the correction amount is determined, but the image is observed. Since the method of recognizing the memory color varies depending on the user's age and sex, for example, when various user information such as the user's age and sex is set in the digital still camera 4 and included in the header information The correction method and the correction amount may be determined based on such various information.
[0131]
The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the apparatus for executing the software is constituted by a personal computer as shown in FIG. 24, for example.
[0132]
In FIG. 24, a CPU (Central Processing Unit) 51 performs various processes according to a program stored in a ROM (Read Only Memory) 52 or a program loaded from a storage unit 58 to a RAM (Random Access Memory) 53. Execute. The RAM 53 also appropriately stores data necessary for the CPU 51 to execute various processes.
[0133]
The CPU 51, ROM 52, and RAM 53 are connected to each other via a bus 54. An input / output interface 55 is also connected to the bus 54.
[0134]
The input / output interface 55 includes an input unit 56 including a keyboard and a mouse, a display including a CRT and an LCD, an output unit 57 including a speaker, a storage unit 58 including a hard disk, a modem, a terminal adapter, and the like. A configured communication unit 59 is connected. The communication unit 59 performs communication processing via a network.
[0135]
A drive 50 is connected to the input / output interface 55 as required, and a magnetic disk 61, an optical disk 62, a magneto-optical disk 63, a semiconductor memory 64, or the like is appropriately mounted, and a computer program read from the disk is required. Is installed in the storage unit 58 accordingly.
[0136]
When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
[0137]
As shown in FIG. 24, this recording medium is distributed to provide a program to the user separately from the main body of the apparatus, and includes a magnetic disk 61 (including a floppy disk) on which the program is recorded, an optical disk 62 ( Package media including CD-ROM (compact disk-read only memory), DVD (digital versatile disk), magneto-optical disk 63 (including MD (registered trademark) (mini-disk)), or semiconductor memory 64 And a ROM 52 that stores a program provided to the user in a state of being preinstalled in the apparatus main body, a hard disk included in the storage unit 58, and the like.
[0138]
In the present specification, the step of describing the program recorded in the recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
[0139]
【The invention's effect】
As described above, according to the image processing apparatus and method, the recording medium, and the program of the present invention, it is possible to more suitably correct the color of an image without generating a pseudo contour or the like.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of a device to which an image processing apparatus of the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of an image processing apparatus to which the present invention is applied.
3 is a block diagram illustrating a configuration example of a luminance correction unit in FIG. 2;
4 is a flowchart illustrating processing of the image processing apparatus in FIG.
FIG. 5 is a flowchart for explaining processing of a category determination unit in FIG. 2;
FIG. 6 is a flowchart illustrating another process of the category determination unit in FIG. 2;
FIG. 7 is a flowchart illustrating still another process of the category determination unit in FIG. 2;
FIG. 8 is a flowchart for explaining processing of a brightness correction unit in FIG. 2;
9 is a diagram illustrating an example of a correction curve created by the process of FIG.
10 is a diagram showing another example of a correction curve created by the process of FIG.
11 is a flowchart illustrating processing of a saturation correction unit in FIG.
12 is a diagram showing an example of a correction curve created by the process of FIG.
13 is a diagram showing another example of a correction curve created by the process of FIG.
14 is a diagram showing still another example of a correction curve created by the process of FIG.
15 is a flowchart for explaining processing of a hue correction unit in FIG. 2;
16 is a diagram illustrating an example of a correction curve created by the process of FIG.
FIG. 17 is a diagram illustrating another example of a correction curve created by the process of FIG.
18 is a diagram showing still another example of the correction curve created by the process of FIG.
FIG. 19 is a diagram illustrating an example of a correction curve created by the process of FIG.
20 is a diagram illustrating another example of the correction curve created by the process of FIG.
FIG. 21 is a diagram showing still another example of the correction curve created by the process of FIG.
22 is a diagram showing an example of a correction curve created by the process of FIG.
FIG. 23 is a diagram illustrating another example of the correction curve created by the process of FIG.
FIG. 24 is a block diagram illustrating a configuration example of a personal computer.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 Image processing apparatus, 21 Image analysis part, 22 Category discrimination | determination part, 23 Conversion part, 24 Luminance correction part, 25 Saturation correction part, 26 Hue correction part, 27 Conversion part, 28 Output part, 41 Correction switching part, 42 Correction Quantity determining unit, 43 Memory color area extracting unit, 44 Correction processing unit, 61 Magnetic disk, 62 Optical disk, 63 Magneto-optical disk, 64 Semiconductor memory

Claims (12)

画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、前記画像データ全体に対するカテゴリを判別する判別手段と、
前記判別手段により判別された前記画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、前記画像データの全体の補正のうち、いずれかの補正を選択する選択手段と、
前記選択手段による選択に応じて、前記画像データを補正する補正手段と
を備える画像処理装置。
Discrimination means for discriminating a category for the entire image data based on the size of a plurality of predetermined memory color areas in the entire image data ;
According to the category for the entire image data determined by the determining means, either correction of only a memory color area that approximates a predetermined memory color or correction of the entire image data is selected. A selection means;
Correction means for correcting the image data in accordance with the selection by the selection means;
An image processing apparatus comprising:
前記判別手段は、前記記憶色領域としての肌色領域の大きさが第1の閾値より大きく、緑色領域と空色領域の大きさが第2の閾値より小さいとき、前記画像データのカテゴリをポートレート画像と判別するThe determination means determines the category of the image data as a portrait image when the size of the skin color area as the memory color area is larger than a first threshold and the sizes of the green area and the sky blue area are smaller than a second threshold. Discriminate
請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1.
前記判別手段は、前記記憶色領域としての肌色領域の大きさが第1の閾値より大きく、緑色領域と空色領域の大きさが第2の閾値より大きいとき、前記画像データのカテゴリをポートレート&風景画像と判別するWhen the size of the skin color area as the memory color area is larger than the first threshold value and the size of the green color area and the sky blue area is larger than the second threshold value, the determination means determines the category of the image data Discriminate from landscape image
請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1.
前記判別手段は、前記記憶色領域としての肌色領域の大きさが第1の閾値より小さく、かつ、前記第1の閾値より小さい値である第2の閾値より大きく、緑色領域と空色領域の大きさが第3の閾値より小さいとき、前記画像データのカテゴリを小人物画像と判別するThe discriminating unit is configured such that the size of the skin color area as the memory color area is smaller than a first threshold value and larger than a second threshold value that is smaller than the first threshold value, and the sizes of the green color area and the sky blue color area are larger. When the value is smaller than the third threshold, the category of the image data is determined as a small person image
請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1.
前記判別手段は、前記記憶色領域としての肌色領域の大きさが第1の閾値より小さく、かつ、前記第1の閾値より小さい値である第2の閾値より大きく、緑色領域と空色領域の大きさが第3の閾値より大きいとき、前記画像データのカテゴリを小人物&風景画像と判別するThe discriminating unit is configured such that the size of the skin color area as the memory color area is smaller than a first threshold value and larger than a second threshold value that is smaller than the first threshold value, and the sizes of the green color area and the sky blue color area are larger. When the value is larger than a third threshold, the category of the image data is determined as a small person & landscape image
請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1.
前記判別手段は、前記記憶色領域としての肌色領域の大きさが第1の閾値より小さく、緑色領域と空色領域の大きさが第2の閾値より大きいとき、前記画像データのカテゴリを風景画像と判別するThe determination means sets the category of the image data as a landscape image when the size of the skin color area as the memory color area is smaller than a first threshold and the sizes of the green area and the sky blue area are larger than a second threshold. Discriminate
請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1.
前記選択手段は、前記画像データの輝度の補正として、前記記憶色領域のみの補正、または、前記画像データの全体の補正のいずれかを選択し、
前記補正手段は、前記選択手段による選択に応じて前記画像データの輝度を補正する
請求項1に記載の画像処理装置。
It said selection means, as the correction of the luminance of the image data, correction of the memory color area only, or select one of the overall correction of the image data,
The correction unit corrects the luminance of the image data according to the selection by the selection unit.
The image processing apparatus according to claim 1 .
前記記憶色領域を抽出する抽出手段をさらに備え、
前記補正手段は、前記抽出手段により抽出された前記記憶色領域の彩度、および色相を補正する
請求項1に記載の画像処理装置。
Further comprising extraction means for extracting the memory color region;
The correction unit corrects the saturation and hue of the memory color area extracted by the extraction unit.
The image processing apparatus according to claim 1 .
前記判別手段は、前記画像データ全体に対するカテゴリを、さらに、前記画像データのヘッダに記述されている情報に基づいて判別する
請求項1に記載の画像処理装置。
The discriminating unit further discriminates a category for the entire image data based on information described in a header of the image data.
The image processing apparatus according to claim 1 .
画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、前記画像データ全体に対するカテゴリを判別する判別ステップと、
前記判別ステップの処理により判別された前記画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、前記画像データの全体の補正のうち、いずれかの補正を選択する選択ステップと、
前記選択ステップの処理による選択に応じて、前記画像データを補正する補正ステップと
を含む画像処理方法。
A determining step of determining a category for the entire image data based on the size of a plurality of predetermined memory color areas in the entire image data ;
According to the category for the entire image data determined by the processing of the determination step, either correction of only a memory color area that approximates a predetermined memory color or correction of the entire image data is performed. A selection step to select;
A correction step for correcting the image data in accordance with the selection made by the selection step;
An image processing method including :
画像データ全体の中の、複数の所定の記憶色領域の大きさに基づい て、前記画像データ全体に対するカテゴリを判別する判別ステップと、
前記判別ステップの処理により判別された前記画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、前記画像データの全体の補正のうち、いずれかの補正を選択する選択ステップと、
前記選択ステップの処理による選択に応じて、前記画像データを補正する補正ステップと
を含むコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A determining step of determining a category for the entire image data based on the size of a plurality of predetermined memory color areas in the entire image data ;
According to the category for the entire image data determined by the processing of the determination step, either correction of only a memory color area that approximates a predetermined memory color or correction of the entire image data is performed. A selection step to select;
A correction step for correcting the image data in accordance with the selection made by the selection step;
A computer-readable recording medium on which a computer-readable program is recorded.
画像データ全体の中の、複数の所定の記憶色領域の大きさに基づいて、前記画像データ全体に対するカテゴリを判別する判別ステップと、
前記判別ステップの処理により判別された前記画像データ全体に対するカテゴリに応じて、所定の記憶色に近似する記憶色領域のみの補正、または、前記画像データの全体の補正のうち、いずれかの補正を選択する選択ステップと、
前記選択ステップの処理による選択に応じて、前記画像データを補正する補正ステップと
含む処理をコンピュータに実行させるプログラム。
A determining step of determining a category for the entire image data based on the size of a plurality of predetermined memory color areas in the entire image data ;
According to the category for the entire image data determined by the processing of the determination step, either correction of only a memory color area that approximates a predetermined memory color or correction of the entire image data is performed. A selection step to select;
A program that causes a computer to execute a process including a correction step of correcting the image data in accordance with selection by the process of the selection step.
JP2002011027A 2002-01-21 2002-01-21 Image processing apparatus and method, recording medium, and program Expired - Fee Related JP4135365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002011027A JP4135365B2 (en) 2002-01-21 2002-01-21 Image processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002011027A JP4135365B2 (en) 2002-01-21 2002-01-21 Image processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2003216941A JP2003216941A (en) 2003-07-31
JP4135365B2 true JP4135365B2 (en) 2008-08-20

Family

ID=27648603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002011027A Expired - Fee Related JP4135365B2 (en) 2002-01-21 2002-01-21 Image processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4135365B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4496005B2 (en) * 2004-04-28 2010-07-07 株式会社東芝 Image processing method and image processing apparatus
JP4677753B2 (en) * 2004-10-01 2011-04-27 株式会社ニコン Moving image processing apparatus and method
KR20070084293A (en) * 2004-12-02 2007-08-24 마츠시타 덴끼 산교 가부시키가이샤 Color adjusting device and method
JP4624248B2 (en) * 2005-12-06 2011-02-02 富士フイルム株式会社 Image processing apparatus, skin color adjustment method, and program
US8018494B2 (en) * 2006-01-10 2011-09-13 Panasonic Corporation Color correction device, color correction method, dynamic camera color correction device, and video search device using the same
US20100073362A1 (en) * 2008-09-23 2010-03-25 Ike Ikizyan Method And System For Scene Adaptive Dynamic 3-D Color Management
JP5821214B2 (en) * 2011-02-28 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2003216941A (en) 2003-07-31

Similar Documents

Publication Publication Date Title
US7945109B2 (en) Image processing based on object information
US8135215B2 (en) Correction of color balance of face images
JP3607059B2 (en) Color feature extraction apparatus, color feature extraction method, and program storage medium
US8849025B2 (en) Color conversion apparatus and method thereof
JP4487872B2 (en) Image processing apparatus and method, program, and recording medium
JPWO2007072907A1 (en) Gradation correction method, gradation correction apparatus, gradation correction program, and image device
JP2004104464A (en) Digital still camera and method of correcting image
US7251054B2 (en) Method, apparatus and recording medium for image processing
JP2000228747A (en) Picture processor
JP2012027687A (en) Image processing apparatus and program
JP2009290822A (en) Image processing apparatus, image processing method, program and recording medium
EP1398950A2 (en) Image forming method, image processing apparatus, and image recording apparatus for forming an optimum viewing image from a captured image
JP4135365B2 (en) Image processing apparatus and method, recording medium, and program
JP2009038737A (en) Image processing apparatus
WO2009093294A1 (en) Image signal processing device and image signal processing program
JP4107812B2 (en) Image processing apparatus, image processing method, and recording medium
JPH118768A (en) Image processor, image processing method and medium recording image processing control program
JP4219577B2 (en) Image processing apparatus, image output apparatus, image processing method, and storage medium
JP2009070099A (en) Image-processing device, image-processing method, program and recording medium
JP4006590B2 (en) Image processing apparatus, scene determination apparatus, image processing method, scene determination method, and program
US7609425B2 (en) Image data processing apparatus, method, storage medium and program
KR20100069501A (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP2004297617A (en) Image processing device, image forming device, image processing method, image processing program, and computer readable recording medium recorded with image processing program
JP2004328534A (en) Image forming method, image processing apparatus and image recording apparatus
WO2007032324A1 (en) Imaging device, image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080526

R151 Written notification of patent or utility model registration

Ref document number: 4135365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees