JP2017123015A - 情報処理装置、画像処理方法およびプログラム - Google Patents
情報処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2017123015A JP2017123015A JP2016001144A JP2016001144A JP2017123015A JP 2017123015 A JP2017123015 A JP 2017123015A JP 2016001144 A JP2016001144 A JP 2016001144A JP 2016001144 A JP2016001144 A JP 2016001144A JP 2017123015 A JP2017123015 A JP 2017123015A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input image
- image data
- person
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 情報処理装置、画像処理方法およびプログラムを提供すること。【解決手段】 情報処理装置200は、入力画像から、所定被写体の領域を検出する検出部202と、入力画像から、特徴量に基づき顕著性のマップを生成する生成部204と、検出された所定被写体の領域および生成された顕著性のマップに基づいて、入力画像での所定被写体の領域の注視度を示す特性値を算出する算出部206と、算出された特性値に基づいて、入力画像に対する処理条件を決定する決定部208とを含む。【選択図】 図2
Description
本発明は、情報処理装置、画像処理方法およびプログラムに関する。
新聞や雑誌などの印刷物やインターネット上の通販サイトなどにおいては、大量の画像が取り扱われている。画像は、直接的に情報を伝えることができるため、画像品質を効率良く向上させることが望まれる。
画像品質を向上させるためには、画像変換ソフトウェアを用いて画像データを手動で修正する方法が一般的である。しかしながら、高品質な画像を得るためには、作業者の技術と経験が必要となる。また、大量の画像を扱う場合は、1枚ずつ画像を修正する方法では、膨大な労力とコストが必要となり、現実的ではない場合もある。近年では、自動的に画像処理を施すシステムも開発されている。しかしながら、被写体や画像特徴に応じて最適な補正条件が大きく変わるため、任意の画像に対して高品質な画像を得ることが困難である。
上述した自動的に画像処理を施すシステムに関連して、特開2011−34311号公報(特許文献1)が知られている。特許文献1の従来技術では、入力画像から抽出された複数の特徴量に基づく顕著性マップを用いて注目点領域を推定し、注目点領域を用いて主要被写体検出に関するパラメータを求めている。注目点領域を用いて求められたパラメータを用いることで、主要被写体としての顔の検出速度や精度の向上を図っている。
しかしながら、特許文献1の従来技術では、風景、建物や商品など人物以外の被写体が主要被写体である画像であっても、画像中に人物が写り込んでいる場合、人の顔が検出され、人物画像に特化した補正が施されてしまう場合があった。画像中の主要被写体ではない人物に基づいて補正が行われてしまうため、適正な画像処理結果とはならない可能性があった。
本発明は、上記点に鑑みてなされたものであり、本発明は、入力画像から所定被写体が主要被写体であるかを判別して入力画像に対する適正な処理条件を決定することが可能な情報処理装置を提供することを目的とする。
本発明は、上記課題を解決するために、下記特徴を有する情報処理装置を提供する。情報処理装置は、入力画像から、所定被写体の領域を検出する検出部と、入力画像から、特徴量に基づき顕著性のマップを生成する生成部とを含む。情報処理装置は、さらに、検出された所定被写体の領域および生成された顕著性のマップに基づいて、入力画像での所定被写体の領域の注視度を示す特性値を算出する算出部と、算出された特性値に基づいて、入力画像に対する処理条件を決定する決定部とを含む。
上記構成により、入力画像から所定被写体が主要被写体であるかを判別して入力画像に対する適正な処理条件を決定することが可能となる。
以下、本実施形態について説明するが、本実施形態は、以下に説明する実施形態に限定されるものではない。
(第1の実施形態)
以下、第1の実施形態による情報処理装置について、画像データに対し画像補正を施す画像処理装置を一例として説明する。図1は、第1の実施形態による画像処理装置100のハードウェア構成を例示する。図1に示すように、画像処理装置100は、CPU(Central Processing Unit)102と、主記憶装置104と、補助記憶装置106と、外部記憶装置インタフェース108と、ネットワーク・インタフェース110と、入力装置112と、表示装置114とを含み構成される。これらの要素は、それぞれ、バス116を介して相互に接続される。
以下、第1の実施形態による情報処理装置について、画像データに対し画像補正を施す画像処理装置を一例として説明する。図1は、第1の実施形態による画像処理装置100のハードウェア構成を例示する。図1に示すように、画像処理装置100は、CPU(Central Processing Unit)102と、主記憶装置104と、補助記憶装置106と、外部記憶装置インタフェース108と、ネットワーク・インタフェース110と、入力装置112と、表示装置114とを含み構成される。これらの要素は、それぞれ、バス116を介して相互に接続される。
CPU102は、コンピュータの中で、各装置の制御やデータの演算、加工を行う。また、CPU102は、主記憶装置104に記憶されたプログラムを実行する演算装置であり、入力装置や記憶装置からデータを受け取り、演算、加工した上で、表示装置や記憶装置などに出力する。
主記憶装置104は、ROM(Read Only Memory)やRAM(Random Access Memory)を含み構成され、CPU102が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。補助記憶装置106は、HDD(Hard Disk Drive)やSSD(Solid State Drive)などを含み構成され、実行されるプログラムなどに関連するデータを記憶する記憶装置である。
外部記憶装置インタフェース108は、例えばUSB(Universal Serial Bus)などのデータ伝送路を介して接続される記憶媒体120と、当該画像処理装置100とのインタフェースである。記憶媒体120としては、フラッシュメモリや、フロッピー(登録商標)ディスク、CD(Compact Disc)、DVD(Digital Versatile Disk)などを挙げることができる。記憶媒体120に格納されたプログラムは、外部記憶装置インタフェース108を介して画像処理装置100にインストールすることができる。インストールされた所定のプログラムは、画像処理装置100により実行可能となる。
ネットワーク・インタフェース110は、有線または無線のネットワークまたはこれらの混合のネットワークなどのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークとのインタフェースである。ネットワーク・インタフェース110は、ネットワークを介して、当該画像処理装置100を、通信機器を有する周辺機器に接続させる。
入力装置112は、例えばハードキーで構成されるキースイッチ、キーボード、マウス、タッチスクリーンセンサなどを含み、ユーザからの各種操作や指示を受け付ける。表示装置114は、例えば、液晶や有機EL(Electro-luminescence)などのディスプレイ装置を含み、画像や操作用アイコンなどを表示し、ユーザが画像処理装置100が有する機能を利用する際に、各種設定を行うユーザ・インタフェースを提供する。
図2は、第1の実施形態による画像処理装置100の機能構成を示すブロック図である。第1の実施形態による画像処理装置100は、入力される画像データに対し、画像データから適正な処理条件を決定し、画像補正を施して、補正済みの画像データを出力する機能200を備える。
上述したように、画像補正においては、被写体によって適切な補正条件が異なる可能性がある。例えば、人物画像では、コントラストや色彩度を抑えて落ち着いた仕上りにすることが適正とされる。一方、人物以外の風景画像では、メリハリを付けて立体感や奥行き感を強調することが好ましいとされている。また明るさ補正に関しても、人物画像では、人物や顔の領域を重視することが好ましいが、人物以外の風景画像では、画像全体を考慮することが好ましい。このように、人物と、人物以外とでは、好ましい画像補正が相反する可能性がある。
主要被写体が人物であるか人物以外であるかが明確であれば、適切な補正条件を決定することができる。しかしながら、例えば人物以外の被写体(風景、建物、商品など)が主要被写体である画像中に人物が写り込んでいるような、複数の被写体が混在した画像においては、主要被写体に応じた適切な補正条件を決定することが難しくなる。
そこで、本実施形態による画像処理装置100は、図2に示すように、機能ブロック200として、顔検出部202と、顕著性マップ生成部204と、特性値算出部206と、補正条件決定部208と、画像補正部210とを備える。
顔検出部202は、入力される画像データから、顔領域を検出する。画像からの顔領域の検出処理は、これまで知られた如何なる顔検出アルゴリズムに基づいて行うことが可能である。顔検出アルゴリズムとしては、一例として、画像上で探索窓を走査し、識別器を用いて顔画像に該当するか否かを判定することにより顔領域を検出する、Viola−Jones法などを挙げることができる。
なお、説明する実施形態において、検出する被写体の領域として、人物の顔領域を検出するものとして説明するが、検出する被写体の領域は、特に限定されるものではない。他の実施形態では、動物の顔領域や他のオブジェクトなど、一般的に主要な被写体となり得る被写体の一部または全部を検出対象とすることができる。かかる場合は、動物や他のオブジェクトの画像データにより学習された識別器を用いて検出部を構成すればよい。
顕著性マップ生成部204は、入力された画像データから、特徴量に基づき顕著性マップを生成する。ここで、顕著性マップとは、入力された画像における視覚的に注視され易い部分を数値化した顕著性度の二次元分布である。顕著性マップの生成処理については、詳細を後述する。
特性値算出部206は、検出された顔領域および生成された顕著性マップに基づいて、特性値を算出する。この算出される特性値は、入力画像データにおける顔領域の注視され易さ、つまり注視度を示しており、この特性値を用いて、人物(顔領域)が主要被写体であるか否かを判定することが可能となる。
補正条件決定部208は、算出された特性値に基づいて、入力画像データに対して施す画像補正における画像処理条件を決定する。特性値が、人物が主要被写体であることを示す場合は、人物に適した画像処理条件に決定することができる。一方、特性値が、人物以外が主要被写体であることを示す場合には、人物以外に適した画像処理条件に決定することができる。
画像補正部210は、補正条件決定部208により決定された画像処理条件に基づいて、入力画像データに対し画像補正を施し、得られた補正済み画像データを出力する。
上述した構成を採用することにより、人物の顔といった主要被写体となり易い被写体の領域を検出し、その被写体の領域が視覚的に注視され易いかを評価した上で、適切な画像補正の処理条件の決定することができる。このため、人物と人物以外の被写体が混在するような画像においても、主要被写体が人物であるか人物以外であるかを判別することが可能となり、人の経験や技能によることなく、任意の画像において適正な画像補正を施すことが可能となる。
なお、上述した顔検出部202、顕著性マップ生成部204、特性値算出部206、補正条件決定部208および画像補正部210は、それぞれ、CPU102が、補助記憶装置106に格納された、所定のプログラミング言語でコード化されたプログラムを主記憶装置104に展開し、該プログラムが規定する各処理手順を実行することによって実現される。画像処理装置100を実現するためのプログラムは、コンピュータが読み取り可能な記憶媒体(例えば、記憶媒体120)に格納され、画像処理装置100は、記憶媒体120からプログラムを読み出して、インストールすることができる。あるいは、画像処理装置100は、インターネットなどの電気通信回線を介して上記プログラムをダウンロードし、インストールすることもできる。また、図2に示した機能部は、複数のコンピュータに分散実装されてもよい。さらに、図2に示した機能部は、特定用途向け集積回路(ASIC)やFPGA(Field Programmable Gate Array)などのプロブラマブル・デバイスなどによってハードウェア実装されてもよい。
以下、画像処理装置100に入力された画像データに対し補正条件が決定され、最終的に画像補正されるまでに行われる処理および各処理における各部の処理内容について、図3〜図10を参照しながら、より具体的に説明する。
図3は、第1の実施形態による画像処理装置100が実行する、全体処理を示すフローチャートである。図3に示す処理は、所定の画像データに対する画像補正が指令されたことに応答して、ステップS100から開始される。ステップS101では、画像処理装置100は、画像補正処理の対象となる画像データ(以下、入力画像データと参照する。)を取得する。
ステップS102では、画像処理装置100は、顔検出部202により、入力画像データから顔領域の検出を行う。ここで顔領域が検出されると、検出された顔領域の位置やサイズなどの情報が取得される。複数の顔領域が検出された場合は、それぞれの顔領域に対応する位置やサイズなどの情報が取得されるが、所定のサイズ以下の顔情報を除外するなどの処理を行ってもよい。また、検出領域の色情報から異常な肌色と判定された顔情報を除外することにより誤検出を低減することができる。
ここで、図4を参照しながら、顔領域の検出処理について、より詳細に説明する。図4には、画像処理装置100に入力される3種類の入力画像データ300,310,320が示されている。図4には、顔検出部202により検出された顔領域302,312も併せて示されている。
図4(A)は、インタビュー記事に掲載されるような画像事例であり、入力画像データ300の主要被写体は、通常、人物となる。図4(A)では、顔検出部202により、主要被写体である人物の顔領域302が検出されていることが示されている。これに対して、図4(B)は、新車発表会で撮られるような画像事例であるが、入力画像データ310の主要被写体は、発表者である人物よりもむしろ商品である自動車の方が相応しいと考えられる。図4(B)に示した例では、主要被写体は人物以外の被写体(本例では自動車である。)となるが、顔検出部202は、発表者である人物の顔領域312を検出する場合がある。図4(C)は、建物の外観を写した画像事例であり、入力画像データ320の主要被写体は、通常、人物以外の被写体(風景や建物)であると考えられる。図4(C)の例示では、画像中に人物が見られないため、顔検出部202は、顔領域を検出しないことになる。
なお、顔検出される領域の形態は、典型的には図4に示すような矩形とすることができるが、検出領域を構成する画素の位置情報が取得される限り、特に限定されるものではない。他の実施形態では、顔領域の輪郭をトレースした多角形や曲線で構成される形態であってもよい。
図3を再び参照すると、ステップS103では、ステップS102において顔検出部202により顔領域が検出されたか否かに応じて、処理が分岐される。ステップS103で、顔領域が検出されたと判定された場合(YES)は、ステップS104へ処理が進められる。
ステップS104では、画像処理装置100は、顕著性マップ生成部204により、入力画像データから顕著性マップを生成する。以下、図5〜図8を参照しながら、顕著性マップの生成処理について、より詳細に説明する。
画像処理装置100には、入力画像データが入力され、顕著性マップ生成部204により、入力画像データに基づいて顕著性マップの算出が行われる。顕著性マップ生成部204は、より具体的には、入力画像データから抽出される特徴量に基づいて、複数の特徴量マップを生成し、さらに、生成された複数の特徴量マップを統合することによって、顕著性マップを算出する。
ここで、特徴量は、入力画像データが有する画素がそれぞれ示す画素値に基づいて算出される値である。特徴量は、例えば、輝度、明度、彩度、色相、色、エッジ成分、方位、モーション、またはこれらの組み合わせで示される値である。ここで、色は、RGB値を用いて算出される値などを含む。特徴量マップは、画像において、特徴量のコントラスト値によって、観察者が被写体に対して興味を引く注目度を定量的に示すデータである。
ここで、例えば注目被写体の色味が背景と同系である場合に、特徴量として色または色相などが選択される場合、特徴量のコントラスト値が小さくなり、得られる特徴量マップが被写体に対して興味を引く注目度を必ずしも適切に示さない可能性がある。この場合、特徴量としては、画像データのエッジ成分とその方位とを用いることができる。以下、エッジ成分および方位を用いる特徴量マップの生成法について、一例として説明する。
例えば、画像データに対し、4方位(0°、45°、90°、135°)のエッジ成分の強度平均をそれぞれ計算し、それぞれの特徴量とすることができる。エッジ成分の検出には、SteerableフィルタやGaborフィルタなどを用いることができる。顕著性マップ生成部204は、上記フィルタを用いることで、任意の方位に対しエッジ成分強度を算出することができる。さらに、画像データの解像度を段階的に下げた異スケール画像を複数用意し、それぞれのエッジ検出を行うことにより、周波数成分ごとの特徴量マップを生成することができる。さらに、エッジ成分および方位による特徴量マップは、画像データを分割した領域毎に計算してもよい。領域毎に計算する場合、顕著性マップ生成部204は、中心領域とその周辺領域とのエッジ成分強度のコントラスト値から、より注目度として適正な特徴量マップとすることができる。
図5は、第1の実施形態による画像処理装置100が実行する、顕著性マップ生成処理を示すフローチャートである。図5に示す処理は、図3に示したステップ104で呼び出されて、ステップS200から開始される。
ステップS201では、顕著性マップ生成部204は、入力画像データを取得する。ステップS202では、顕著性マップ生成部204は、複数の特徴量が用いられる場合、複数の特徴量のうちのいずれか1つの特徴量を処理対象として選択する。なお、ステップS202においては、顕著性マップ生成部204は、顕著性マップ生成の前処理として、ステップS201で入力された入力画像データの画素値を変換して特徴量を算出してもよい。例えば、入力画像データの画素値がRGB値であり、かつ、特徴量が輝度である場合、顕著性マップ生成部204は、RGB値から各画素の輝度をそれぞれ算出することができる。なお、用いられる特徴量は、予め顕著性マップ生成部204に設定されてもよく、またはユーザによって任意に設定してもよい。
ステップS203では、顕著性マップ生成部204は、選択された特徴量に基づいてガウシアン・ピラミッド(Gaussian Pyramid)データなどのピラミッド・データを特徴量毎に生成する。
例えば、ステップS202で選択された特徴量が輝度である場合、顕著性マップ生成部204は、輝度についてのガウシアン・ピラミッド・データを生成する。これに対して、ステップS202で選択された特徴量が色である場合、顕著性マップ生成部204は、レッド成分rをグリーン成分gで除算した値(r/g)およびブルー成分bをイエロー成分yで除算した値(b/y)それぞれに対するガウシアン・ピラミッド・データを生成する。ここで、各色成分r,g,b,yは、画素のRGB値を用いて、例えば下記式により計算することができる。
ガウシアン・ピラミッド・データは、画像のボケ具合がそれぞれ異なるようにフィルタ係数が設定された複数のガウシアン・フィルタを入力画像データにそれぞれ適用させて生成される複数の画像から構成されるデータである。例えば、画像のボケ具合が順に2倍となるように設定されたガウシアン・フィルタによるフィルタリングを行う場合、画像の解像度が順に2分の1となる画像がそれぞれ生成され、複数の画像を含み構成されるガウシアン・ピラミッド・データが生成される。例えば、ガウシアン・フィルタが8段階適用される場合、原画像データから1/256(=1/28)の縮尺となる画像まで合計9枚の画像で構成されるガウシアン・ピラミッド・データが生成される。なお、ガウシアン・フィルタの適用は、例示では8段階適用するものとして説明するが、任意の段階数でよく、計算処理の負荷を考慮して最適化することができる。
ステップS204では、顕著性マップ生成部204は、生成されたガウシアン・ピラミッド・データに基づいて、特徴量毎に特徴量マップを生成する。具体的には、まず、顕著性マップ生成部204は、ガウシアン・ピラミッド・データに含まれる解像度がそれぞれ異なる画像を同サイズに規格化し、画像間を比較する。上述したガウスフィルタの働きにより、解像度の低い(つまり画素の粗い)画像に含まれる画素は、解像度の高い(画素の細かい)画像に含まれる同じ位置の画素の周辺の特徴量を示すことになる。そのため、規格化された異なる解像度の画像の差分を算出することにより、注目する画素の周辺と比較した特徴量の差分(コントラスト値)が大きくなる領域を算出することができる。顕著性マップ生成部204は、ガウシアン・ピラミッド・データに含まれる異なる解像度の2つの画像から差分を求め、コントラスト値を算出し、算出されたコントラスト値を画像データが有する画素に対応させて特徴量マップを生成することができる。
ステップS205では、顕著性マップ生成部204は、必要な全特徴量について特徴量マップが生成されたか否かを判断する。つまり、予め設定された特徴量毎にそれぞれ特徴量マップが生成されたか否かが判断される。ステップS205で、全特徴量の特徴量マップが生成されたと判断された場合(YES)は、ステップS206へ処理が進められる。一方、ステップS205で全特徴量の特徴量マップが生成されていないと判断された場合(NO)は、ステップS202に処理が戻され、全特徴量の特徴量マップが取得されるまで、ステップS202〜ステップS204の処理が繰り返されることになる。
ステップS206では、顕著性マップ生成部204は、得られた複数の特徴量各々の特徴量マップを統合することにより顕著性マップを生成する。具体的には、ステップS206においては、ステップS204で特徴量ごとにそれぞれ生成された特徴量マップを重ね合わせることによって顕著性マップが生成される。
図6は、第1の実施形態による顕著性マップの生成処理を模式的に示す。図6は、入力画像データ350が入力され、n種類の特徴量352について、図5に示す処理がそれぞれ行われた場合を例示している。図6においては、n種類の特徴量352のうち、「特徴量1」は、輝度(Y)とし、「特徴量2」は、レッド成分rをグリーン成分gで除算した色を示す値r/gとし、「特徴量3」はブルー成分bをイエロー成分yで除算した色を示す値b/yとし、「特徴量4」〜「特徴量7」をそれぞれ方位0°、45°、90°、および135°のエッジ成分としている。
ガウシアン・ピラミッド・データ354は、図5に示したステップS203において特徴量(Y,r/g、b/y、0°、45°、90°、135°など)毎にそれぞれ生成される。特徴量マップ356は、図5に示したステップS204において、特徴量毎のガウシアン・ピラミッド・データ354に基づいて、特徴量毎にそれぞれ生成される。顕著性マップ358は、図5に示したステップS206において、生成された特徴量マップ356を線形的に重ね合わせて統合することにより生成される。
なお、統合によって各ガウシアン・ピラミッド・データ354が有するノイズが強調される可能性がある。このため、ステップS206では、顕著性マップ生成部204は、規格化処理を行ってから特徴量マップを統合し、各ガウシアン・ピラミッド・データ354が有するノイズを低減させることができる。また、重ね合わせの際、特徴量によって重み付けを変えて統合することもできる。
なお、特定の実施形態に基づいて顕著性マップ358の生成処理について説明した。しかしながら、顕著性マップ358を生成する方法は、上述したものに特に限定されるものではない。例えば、顕著性マップは、“A Model of Saliency−Based Visual Attention for Rapid Scene Analysis”(L.Itti,C.Koch,and E.Niebur IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20,No.11,1998)などに記載された方法によって生成されてもよい。
以下、図7を参照しながら、上述したエッジ成分および方位による特徴量マップを分割された領域毎に計算する処理について説明する。図7は、上述したエッジ成分および方位による特徴量マップを分割された領域毎に計算する他の実施形態ついてより具体的に説明する図である。
方位毎のエッジ成分を特徴量とする手法は、GIST特徴量と参照される。顕著性マップ生成部204は、GIST特徴量の算出に際して、まず、図7(A)に示すように原画像データ380を複数のブロック382に分割し、ブロック毎に異スケール画像を複数用意し、エッジ検出を行うことによって、スケール毎、方位毎のエッジ画像384を得ることができる。図7(A)に示す例では、4スケール(l=1,2,3,4)×4方位(k=1、2、3、4)のエッジ画像384が得られている。複数の異スケール画像各々を方位毎にエッジ検出する処理は、ステアラブル・ピラミッド分解と参照され、スケール毎、方位毎のエッジ画像384からなる画像群は、ステアラブル・ピラミッド・データと参照される。顕著性マップ生成部204は、ブロック毎に、スケール毎、方位毎のエッジ画像でのエッジ成分強度を平均化することによって、ブロック毎の特徴ベクトルvi(l,k)を抽出することができる。このようにして、ブロック画像のシーン、印象、含まれる主要オブジェクト(例えば花や文字など)に応じて大域的な特徴を示す特徴ベクトル386が得られる。
顕著性マップ生成部204は、分割したブロック毎の特徴ベクトルviを用いて、図7(B)に示すような中心領域392とその周辺領域390との特徴ベクトル間の距離を算出することによって、ブロック毎の中心領域392と周辺領域390とのコントラスト値(差分値)を含む特徴量マップを得ることができる。特徴ベクトル間の距離ΔGISTは、中心領域の特徴ベクトルをvcenter(l,k)とし、周辺領域の特徴ベクトルをvsurround(l,k)として、下記式により計算することができる。
このように、中心領域392および周辺領域390のGIST特徴量のコントラスト値(差分値)を計算することにより、中心領域392に、顕著性が高い領域が存在するか(図7(B)の左側(差が大きい場合))、または、顕著性が高い領域が存在しないか(図7(B)の右側(差が小さい場合))の推定を行うことができる。
なお、中心領域392および周辺領域390の設定方法は、種々の形態をとることができる。例えば、分割された各ブロックを中心領域392として、その周辺8ブロックまたは中心ブロックを含む9ブロックを周辺領域390として特徴ベクトルvcenter,vsurroundを算出し、中心領域392と周辺領域394との差分値を求めることができる。また、中心領域392は、複数のブロック(例えば、2×2ブロック)を含んでいてもよく、この場合、周辺領域390は、その中心ブロックよりも大きい領域(例えば4×4ブロック)であればよい。さらに、図7(A)に示すような均等分割されたブロックとするほか、中心領域とその中心領域より大きな周辺領域という関係があればよく、他の実施形態では、顕著性マップ生成部204は、中心領域および周辺領域を画定する矩形のサイズを種々の大きさに変更しながら画像データ内を走査し、注目被写体を検索して行くこともできる。
そして、このように得られた領域毎のコントラスト値(差分値)を含む特徴量マップを、図6に示すような他の特徴量による特徴量マップと統合して、顕著性マップを生成することができる。この場合に、顕著性マップ生成部204は、各画素が所属するブロックに対し計算されたコントラスト値が各画素に設定されているものとして、他の画素毎の特徴マップと統合することができる。
図8(A)および(B)は、第1の実施形態により得られる顕著性マップを例示する。図8には、図4で示した入力画像データ300,310から生成された顕著性マップ360,370が一例として模式的に示されている。図8(A)および(B)に示す顕著性マップ360,370は、顕著性が低い領域から顕著性が高い領域まで7段階に区分して、7種類のハッチングで表示されている。顕著性が高い領域が、入力画像の中で視覚的に注視度が高い領域であり、この領域に主要被写体が存在すると推定される。なお、図8で示した顕著性マップ360,370では、顕著性の高低を7段階で示しているが、これに限定されるものではなく、入力画像データを構成する画素ごとに、連続した顕著性の値を有することができる。
なお、好ましい実施形態においては、入力画像データを構成する全ての画素における顕著性の値の総和は、入力画像データに依らず定数となるように、それぞれの顕著性の値が規格化される。説明する実施形態においては、定数が0となるように規格化が行われる。つまり、入力画像データの横方向位置をx、縦方向位置をyとし、位置(x,y)における画素の顕著性の値をS(x,y)とすると、下記式(1)で表すことができる。
図8(A)に例示する顕著性マップ360は、図4(A)に示した入力画像データ300から算出される結果を表している。図8(A)を参照すると、人物の顔を中心に顕著性が高く、特徴の乏しい背景部は、相対的に顕著性が低くなっていることが理解される。図8(C)に示す曲線262は、図8(A)に示した顕著性マップに重ねた直線L1に沿った顕著性の値を、横軸をx方向位置として示したグラフである。図4(A)に示した入力画像データ300を観察する観察者は、人物の顔に注目する確率が高くなり、この人物が主要被写体であると考えられる。
一方、図8(B)に例示する顕著性マップ370は、図4(B)に示した入力画像データ310から算出される結果を示している。図8(B)を参照すると、人物よりも自動車を中心に顕著性が高くなっていることが理解される。特に、輝度やエッジ成分といった特徴量のコントラスト値が高いと推定される自動車のフロント部の顕著性が高くなっている。図8(D)に示す曲線372は、図8(B)に示す顕著性マップに重ねた直線L2に沿った顕著性の値を、横軸をx方向位置として示したグラフである。図4(B)に示す入力画像データ310の観察者は、画像左端の人物(発表者)よりも、自動車、特にフロント部分に注目する確率が高くなり、この場合、人物以外である該自動車が主要被写体であると考えられる。
再び図3を参照すると、ステップS105では、特性値算出部206は、顔検出部202により取得された顔領域の情報と顕著性マップ生成部204により生成された顕著性マップに基づいて、入力画像データの特性値を算出する。
図9は、第1の実施形態により得られる顕著性マップと顔領域の検出位置との関係を示す。図9(A)および(B)は、図4(A)および(B)で例示した入力画像データ300,310から生成した顕著性マップ360,370に、入力画像データから検出された顔領域302,312の位置を重ね合わせた例を示す。図9(C)および(D)は、図4(A)および(B)で例示した入力画像データ300,310から生成した顕著性マップ360,370の一部の顕著性グラフと、入力画像データ300,310の顔領域302,312の検出位置に対応する範囲364,374との関係を例示した図である。
より具体的には、ステップS105においては、特性値算出部206は、顔検出部202で検出された顔領域の位置を構成する全画素に対応する顕著性の値の総和を特性値として算出する。複数の顔位置が検出された場合は、各顔位置について同様に計算される。
図9(A)は、入力画像データ300に対する顕著性マップ360および顔領域302を重ね合わせて示す。本実施形態では、顔領域302は、矩形で示されており、顔領域302は、x方向位置でx1からx2、y方向位置でy1からy2の範囲に相当する。したがって、入力画像データ300の特性値F1は、座標(x,y)に位置する画素の顕著性の値をS1(x,y)として、下記式(2)で算出することができる。特性値F1は、検出された顔領域のサイズおよび顔領域と高い顕著性を有する領域との重なりに大きく依存する。
図9(C)に示した曲線362は、顕著性マップに重ねた直線L1に沿った顕著性の値を、横軸をx方向位置として示したグラフである。顔領域302のx方向範囲は、x1からx2であり、x方向範囲364に相当する。従って、直線L1を構成する画素に関しては、顕著性のグラフ362をx方向範囲364で積分した結果が、図4(A)に示した入力画像データ300の顔領域302の位置を中心とした部分特性値f1となる。そして、入力画像データ300の特性値F1は、部分特性値f1のy方向(y1〜y2)での累積として計算される。
図9(B)は、入力画像データ310に対する顕著性マップ370および顔領域312を重ね合わせて示す。顔領域312の位置は、x方向位置でx3からx4、y方向位置でy3からy4の範囲に相当する。したがって、入力画像データ310の特性値F2は、座標(x,y)に位置する画素の顕著性の値をS2(x,y)として、下記式(3)で算出することができる。特性値F2も、検出された顔領域のサイズおよび顔領域と高い顕著性を有する領域との重なりに大きく依存する。
図9(D)に示した曲線372は、顕著性マップに重ねた直線L2の位置における顕著性の値を、横軸をx方向位置として示したグラフである。顔領域のx方向範囲はx3からx4であり、x方向範囲374に相当する。したがって、直線L2を構成する画素に関しては、顕著性のグラフ372をx方向範囲374で積分した結果が、図4(B)に示した入力画像データ310の顔領域312の位置を中心とした部分特性値f2となる。そして、入力画像データ310の特性値F2は、部分特性値f2のy方向(y3〜y4)での累積として計算される。
図9に示すように、入力画像データ300の顔領域302を中心とした部分特性値f1と、入力画像データ310の顔領域312を中心とした部分特性値f2を比較すると、明らかに部分特性値f1の方が大きいことが分かる(f1>f2)。ここで、特性値F1は、部分特性値f1のy方向(y1〜y2)での累積であり、特性値F2は、部分特性値f2のy方向(y3〜y4)での累積である。このため、入力画像データ300の特性値F1が、入力画像データ310の特性値F2よりも大きくなることは容易に推定できる(F1>F2)。
再び図3を参照すると、ステップS106では、補正条件決定部208は、特性値算出部206によって算出された特性値と、所定の閾値Fthとに基づいて、入力画像データの主要被写体を判定する。ステップS107では、補正条件決定部208が判定した主要被写体が人物であるか否かによって処理を分岐し、主要被写体が人物である場合には、ステップS108へ処理が分岐される。
ステップS108では、補正条件決定部208は、入力画像データに対する補正条件として「主要被写体が人物である場合の補正条件」を選択し、ステップS110へ処理を進める。一方、ステップS107で、主要被写体が人物ではないと判定された場合(NO)は、ステップS109へ処理が進められる。ステップS109では、補正条件決定部208は、入力画像データに対する補正条件として「主要被写体が人物以外である場合の補正条件」を選択する。また、ステップS103で、顔が検出されなかった場合(NO)も、ステップS109に分岐され、入力画像データに対する補正条件として「主要被写体が人物以外である場合の補正条件」が選択される。
図10は、入力画像データ300,310に対して算出された特性値F1,F2と閾値との関係を例示する図である。図4で例示した入力画像データ300,310においては、入力画像データ300の特性値はF1であり、入力画像データ310の特性値はF2であり、F1>F2の関係となる。以下、予め設定された1つの閾値を用いた補正条件の決定方法について、図10(A)を参照しながら説明する。
図10(A)は、1つの閾値Fthと入力画像データ300,310の特性値F1,F2との関係を例示する。入力画像データ300の特性値F1は、所定の閾値Fthより大きく(F1>Fth)、一方で、入力画像データ310の特性値F2は、所定の閾値Fthより小さい(F2<Fth)。
ここで、補正条件決定部208において、特性値が閾値Fth以上となる入力画像データでは、「主要被写体が人物である」とし、特性値が閾値Fthより小さくなる入力画像データでは、「主要被写体が人物以外である」とする基準を予め設けておくものとする。こうすることで、特性値算出部206が入力画像データの特性値を算出した時点で、入力画像データの主要被写体が人物であるかまたは人物以外であるかを判定することができるようになる。
上記閾値Fthは、入力画像データに占める顔領域の面積比率や、顔領域における顕著性の高さなどをシミュレーションすることにより、予め決定することができる。あるいは、人物が様々な大きさで写されたり、人物と人物以外の被写体が様々なパターンで混在したりする複数の実画像から特性値をそれぞれ算出し、各画像とその特性値を比較しながら経験的に適正な閾値を決定することもできる。
図10(A)に示す例では、F1>Fthであるため、入力画像データ300の主要被写体が人物であると判定される。これに対し、F2<Fthであるため、入力画像データ310の主要被写体が人物以外であると判定される。このような閾値を設定することによって、人物と人物以外の被写体が混在した図4(B)に示すような入力画像データ310においても、画像左端の人物よりも中央の自動車(人物以外)の方が主要であるとの適正な判定が可能になる。
なお、顔検出部202で、顔が検出されなかった入力画像データ(例えば図4(C)に示した入力画像データ320)については、主要被写体が人物以外であると直接判定することができる。
再び図3を参照すると、ステップS110では、画像補正部210は、ステップS108またはステップS109において補正条件決定部208が決定した補正条件に基づいて、入力画像データに補正を施し、ステップS111で本処理を終了する。
ステップS110においては、例えば、入力画像データに対する補正条件として、「主要被写体が人物である場合の補正条件」が決定された場合は、画像補正部210は、主要被写体が人物である画像用の画像補正アルゴリズムを用いて画像補正を行う。主要被写体が人物である画像用の画像補正アルゴリズムでは、顔検出部202によって検出された顔位置情報から主要被写体である入力画像データ中の人物の肌特性などの画像情報を抽出かつ分析し、該人物肌が適正な明るさや色階調再現となるような補正を施すことができる。
また、例えば、入力画像データに対する補正条件として、「主要被写体が人物以外である場合の補正条件」が決定された場合は、画像補正部210は、主要被写体が人物以外である画像用の画像補正アルゴリズムを用いて画像補正を行う。主要被写体が人物以外である画像用の画像補正アルゴリズムでは、入力画像データの全体または中央領域の明るさ、色度、周波数特性などの画像特性、または画像特性のヒストグラム情報などの画像情報を抽出し、分析し、入力画像データの全体または中央領域の画像特性が適正に再現されるような補正を施すことができる。上記補正によって、人物以外の被写体(風景、建物、商品など)にメリハリを付けることができ、立体感や奥行き感を強調することができる。なお、入力画像データの画像補正自体は、画像補正によって補正された補正画像データの用途によっても調整され得るので、補正内容自体は、上述した条件に限定されるものではない。
以上説明した第1の実施形態によれば、入力画像データの主要被写体が人物か人物以外かを適正に判定することが可能となり、かかる判定に基づいて入力画像データに対し最適な画像補正を適用することが可能となる。
以上で説明した第1の実施形態による画像処理装置100は、汎用コンピュータ上で実装することができる。しかしながら、特に限定されるものではなく、他の機能を付加することで、例えば複合機、プリンタ、オフセット印刷機、ファクシミリ装置、スキャナ装置、デジタルカメラ、DFE(Digital Front End)など、画像データの処理を実行する各種装置として用いることができる。
(第2の実施形態)
上述した第1の実施形態では、補正条件決定部208における入力画像データの補正条件の決定が1つの閾値により判定されていた。以下、図10(B)、図10(C)および図11を参照しながら、複数の閾値を用いて補正条件を決定する第2の実施形態について説明する。なお、第2の実施形態は、第1の実施形態と同様の構成を備えるので、以下、相違点を中心に説明する。
上述した第1の実施形態では、補正条件決定部208における入力画像データの補正条件の決定が1つの閾値により判定されていた。以下、図10(B)、図10(C)および図11を参照しながら、複数の閾値を用いて補正条件を決定する第2の実施形態について説明する。なお、第2の実施形態は、第1の実施形態と同様の構成を備えるので、以下、相違点を中心に説明する。
図11は、第2の実施形態による画像処理装置が実行する、全体処理を示すフローチャートである。図11で例示するフローチャートは、補正条件決定部208における入力画像データの補正条件の決定が、2つ又は2つ以上の閾値に基づく場合について示すものである。
ステップS301では、画像処理装置100は、入力画像データを取得する。ステップS302では、画像処理装置100は、顔検出部202により入力画像データから顔領域の検出を行う。ステップS303では、画像処理装置100は、顔検出部202により入力画像データから顔領域が検出されたか否かに応じて、処理を分岐させる。ステップS303で、顔領域が検出された場合(YES)には、ステップS304へ処理が進められる。
ステップS304では、画像処理装置100は、顕著性マップ生成部204により、入力画像データから顕著性マップを生成する。ステップS305では、画像処理装置100は、特性値算出部206により、顔検出部202により取得された顔領域の情報と顕著性マップ生成部204により生成された顕著性マップとに基づいて、入力画像データの特性値を算出する。
ステップS306では、画像処理装置100は、補正条件決定部208により、所定の閾値と特性値算出部206によって算出された特性値とに基づいて、入力画像データの主要被写体を判定する。
図10(B)は、2つ以上の閾値(Fth1〜FthN)と入力画像データの特性値F1,F2との関係を例示する図である。図10(B)に示すように、入力画像データ300に対し算出された特性値F1は、閾値FthNより大きく(F1>FthN)、一方で、入力画像データ310の特性値F2は、閾値Fth1と閾値Fth2の間にある(Fth1<F2<Fth2)。
ここで、補正条件決定部208において、特性値が閾値FthN以上となる入力画像データは、「主要被写体が人物である」とし、特性値が閾値Fth1より小さくなる入力画像データは、「主要被写体が人物以外である」とする基準が設けられているものとする。さらに閾値Fth1と閾値FthNの中間領域においては、それ以外の中間的判定基準が1つ以上設定されており、中間的判定基準の数に応じて閾値の数(N)が決定される。
図10(B)に示ように2以上の閾値が用いられた場合、例えば、入力画像データ310の特性値F2のように、特性値が閾値Fth1と閾値Fth2との間になった場合、「主要被写体は人物以外だが、人物も若干重要な要素として混在している可能性が高い」との判定とし、さらにその条件に見合った画像補正条件を決定することができる。
図10(C)は、2つの閾値(Fth1,Fth2)と入力画像データ300,310の特性値(F1,F2)との関係の別例を示す図である。図10(C)を参照すると、入力画像データ300の特性値F1は、閾値Fth1より大きく(F1>Fth1)、入力画像データ310の特性値F2は、閾値Fth1と閾値Fth2の間にある(Fth1<F2<Fth2)。
ここで、補正条件決定部208において、特性値が閾値Fth2以上となる入力画像データは、「主要被写体が人物である」とし、特性値が閾値Fth1より小さくなる入力画像データは、「主要被写体が人物以外である」とする基準が設けられているものとする。さらに閾値Fth1と閾値Fth2の中間領域においては、上記と同様に、「主要被写体は人物以外だが、人物も若干重要な要素として混在している可能性が高い」というような中間的な状態として主要被写体が判定される。
ステップS307では、画像処理装置100は、補正条件決定部208が判定した主要被写体が人物であるか否かを判定する。主要被写体が人物である場合には、ステップS308へ処理が進められる。ステップS308では、画像処理装置100は、補正条件決定部208により、入力画像データに対する補正条件として、「主要被写体が人物である場合の補正条件」を選択し、ステップS312へ処理を進める。
一方、ステップS307で、主要被写体が人物ではない場合(NO)には、ステップS309へ処理が進められる。ステップS309では、画像処理装置100は、さらに、補正条件決定部208が判定した主要被写体が人物以外であるか否かを判定する。ステップS309で、主要被写体が人物以外ではないと判定された場合(NO)には、ステップS310へ処理が進められる。
ステップS310では、画像処理装置100は、図10(B)および(C)に示すような2つまたは2以上の閾値を用いる場合は、補正条件決定部208により、中間的な判断基準に基づいて補正条件を決定する。例えば、図10(C)に示すような2つの閾値を用いる場合には、補正条件決定部208により、入力画像データに対する補正条件として、「主要被写体が人物である場合の補正条件」による画像補正結果と、「主要被写体が人物以外である場合の補正条件」による画像補正結果とのブレンド処理を選択することができる。図10(B)に示すような2つ以上の閾値を用いる場合には、補正条件決定部208は、予め準備された中間的な補正条件(例えば、人物画像および風景画像に共に違和感なく適用できる画像補正アルゴリズムを含む。)を選択することができる。
なお、主要被写体が人物である場合および主要被写体が人物以外である場合の補正条件による画像補正結果のブレンド処理が補正条件として決定された場合、ブレンド処理の混合比率は、閾値Fth1と閾値Fth1の間における特性値の位置関係によって定めることができる。
例えば、図10(C)において、入力画像データ310の特性値F2と閾値Fth1との距離と、入力画像データ310の特性値F2と閾値Fth2との距離の比率をa:bとする(ここでa+b=1と規格化するものとする。)。入力画像データ310を主要被写体が人物である場合の補正条件によって補正した結果を補正画像データH、入力画像データ310を主要被写体が人物以外である場合の補正条件によって補正した結果を補正画像データNとする。この場合、入力画像データ310に対する最終的な補正条件は、補正画像データHと補正画像データNを、a:bの比率でブレンドする補正とすることができる。
一方、ステップS309で、主要被写体が人物以外であると判定された場合(YES)には、ステップS311へ処理が進められる。ステップS311では、画像処理装置100は、補正条件決定部208により、入力画像データに対する補正条件として、「主要被写体が人物以外である場合の補正条件」を選択する。また、ステップS303において、顔領域が検出されなかった場合(NO)には、ステップS311に直接処理が進められ、ステップS3110で、入力画像データに対する補正条件として「主要被写体が人物以外である場合の補正条件」を選択する。
ステップS312では、画像処理装置100は、画像補正部210により、ステップS308、ステップS310、またはステップS311において補正条件決定部208により決定された補正条件に基づいて、入力画像データに対し画像補正を施し、ステップS313で、本処理を終了する。
中間的判定基準による補正条件が決定されていた場合、画像補正部210は、上述した「主要被写体が人物である場合の補正条件」と「主要被写体が人物以外である場合の補正条件」との中間的な補正を施す。図10(C)で例示したように、入力画像データの特性値が2つの閾値(Fth1,Eth2)の間にある場合、画像補正部210は、上述した「主要被写体が人物である場合の補正条件」と「主要被写体が人物以外である場合の補正条件」のそれぞれの補正画像データのブレンド処理を行うことができる。具体的には、上記補正画像データHの全画素の画素値にaを乗算し、補正画像データNの全画素の画素値にbを乗算し、同位置の画素において乗算後の画素値をそれぞれ足し合わせて最終的な補正画像データを生成することができる。
以上説明した第2の実施形態によれば、入力画像データの主要被写体が人物か人物以外か、あるいはその中間的であるかを適正に判定することができ、判定結果に基づいた入力画像データの最適な補正を実現することが可能となる。
(第3の実施形態)
上述した第1および第2の実施形態では、情報処理装置として、画像データに対し画像補正を施す画像処理装置を一例として説明した。以下、第3の実施形態について説明する。なお、第3の実施形態は、第1および第2の実施形態と共通する構成も備えるので、第1および第2の実施形態の画像処理装置100とで相違する構成および処理を中心に説明する。
上述した第1および第2の実施形態では、情報処理装置として、画像データに対し画像補正を施す画像処理装置を一例として説明した。以下、第3の実施形態について説明する。なお、第3の実施形態は、第1および第2の実施形態と共通する構成も備えるので、第1および第2の実施形態の画像処理装置100とで相違する構成および処理を中心に説明する。
図12は、第3の実施形態による画像処理システムの一例を示す図である。図12に示すように、画像処理システム400は、ネットワーク402を介して接続される画像処理サーバ410と、複合機(MFP:Multifunction Peripheral)430と、情報処理端末450とを含み構成される。なお、ネットワーク402を介して接続される画像処理サーバ410、複合機430および情報処理端末450の数は、それぞれ任意の数であってよい。
複合機430は、スキャン機能、コピー機能、プリンタ機能、ファクシミリ機能などの複数の画像機能を提供する装置である。複合機430は、スキャン機能により紙媒体などをスキャン処理して画像データを作成し、作成された画像データを画像処理サーバ410に送信することができる。なお、以下に示す実施形態では、画像データを入力する画像入力装置として複合機を一例として説明している。しかしながら、画像入力装置は、複合機に限定されるものではなく、画像データを入力可能であれば、スキャナ装置、ファクシミリ装置、コピー装置、オフセット印刷装置などのいずれにも適用することができる。
画像処理サーバ410は、複合機430でスキャンされて読み取られた画像データやネットワークを通じて取得した画像データなどを受信し、種々の処理を実行するワークステーションなどのコンピュータであり、画像データに対して画像処理を行うことができる画像処理装置である。なお、画像処理サーバ410は、複合機430に組み込まれていてもよい。また、画像処理サーバ410が有する画像処理装置としての機能は、情報処理端末450が備えていてもよい。
画像処理サーバ410、複合機430、情報処理端末450の基本的なハードウェア構成は、図1に示したものと同様な構成とすることができ、特定の用途に応じて適切なハードウェア・コンポーネントを追加することができる。あるいは、特定の用途に応じて、図1に示したいくつかのハードウェア・コンポーネントが削除されてもよい。例えば、複合機430は、図1に示したハードウェア構成に加えて、紙媒体などをスキャンすることによって画像を読み取って画像データとして取得するスキャン装置と、画像形成に係る処理を行うプロッタ装置とを備えることができる。また、画像処理サーバ410は、キーボードなどの入力装置やディスプレイなどの表示装置を備えていてもよいし、備えていなくともよい。
図13は、第3の実施形態による画像処理システムの機能構成を示すブロック図である。複合機430は、画像読取部432と、通信部434と、画像形成部436とを含み構成される。画像読取部432は、紙媒体などをスキャンすることによって画像処理を施す対象となる画像データを取得することができる。通信部434は、情報処理端末450の記憶部458に記憶されている画像データを受信することができる。また、画像読取部432で取得された画像データを画像処理サーバ410に送信し、画像処理サーバ410で画像処理が施された画像データを受信することができる。画像形成部436は、画像処理サーバ410によって画像処理が施された画像データを記録紙などの記録媒体に印刷して出力できる。
情報処理端末450は、通信部452と、表示制御部454と、表示部456と、記憶部458と、読出部460とを含み構成される。記憶部458は、処理対象となる画像データなどを記憶することができる。読出部460は、記憶部458から画像データを読み出す。通信部452は、読出部460が読み出した画像データなどを複合機430または画像処理サーバ410に送信することができる。また、複合機430または画像処理サーバ410から送信される画像データなどを受信することができる。表示制御部454は、通信部452が受信した画像データを表示部456に表示する。また、情報処理端末450の記憶部458に記憶されている画像データを表示部456に表示することもできる。
画像処理サーバ410は、顔検出部412と、顕著性マップ生成部414と、特性値算出部416と、補正条件決定部418、画像補正部420と、通信部422とを有する。各部の機能は、第1の実施形態の画像処理装置100と同様である。
図12および図13に示すような画像処理システム400において、画像処理の実行者は、画像処理を施す処理対象となる画像データを、複合機430の読取部432によって画像データとして取得し、画像処理サーバ410によって画像処理を行わせることができる。あるいは、画像処理の実行者は、画像処理を施す処理対象の画像データを情報処理端末450から読み出し、画像処理サーバ410によって画像処理を行わせることができる。
画像処理サーバ410では、顔検出部412において処理対象画像である入力画像データから検出された顔領域の位置やサイズなどの情報を取得し、顕著性マップ生成部414によって入力画像データの顕著性マップを生成する。画像処理サーバ410では、さらに、特性値算出部416により、検出された顔領域の情報と顕著性マップに基づいて入力画像データの特性値を算出する。画像処理サーバ410では、補正条件決定部418により特性値に基づいて入力画像データの補正条件を決定し、画像補正部420により、決定された補正条件に基づいて入力画像データを補正する。なお、画像処理サーバ410が有する機能を情報処理端末450に組み込むことで、情報処理端末450において画像処理を行うように構成してもよい。
画像処理の実行者は、画像処理サーバ410からネットワークを介して接続する複合機430に画像処理が施された画像データを送信し、複合機430の画像形成部436から記録紙などに印刷させることで、補正処理後の画像出力を得ることができる。あるいは、画像処理の実行者は、画像処理サーバ410からネットワークを介して接続する情報処理端末450に画像処理が施された画像データを送信し、情報処理端末450の表示部456に表示させることで、補正を施した画像出力を得ることができる。
以上で説明したように、第3の実施形態の画像処理システム400では、画像処理実行者が、複合機430などを用いて画像処理を施す画像データを取得し、画像処理サーバ410または情報処理端末450により画像処理を施すことができる。
以上説明したように、上述した本実施形態によれば、入力画像から所定被写体が主要被写体であるかを判別して入力画像に対する適正な処理条件を決定することが可能な情報処理装置、画像処理方法およびプログラムを提供することができる。
上述までの実施形態によれば、特に、入力された入力画像データが、人物と人物以外の被写体が混在した画像であったとしても、主要被写体が人物か人物以外かを画像から判定することが可能となり、結果として、任意の入力画像データに対し適正な補正を施す画像処理を実現可能な画像処理装置を提供することが可能となる。
なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。
これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
100…画像処理装置、102…CPU、104…主記憶装置、106…補助記憶装置、108…外部記憶装置インタフェース、110…ネットワーク・インタフェース、112…入力装置、114…表示装置、116…バス、120…記憶媒体、200…機能ブロック、202,412…顔検出部、204,414…顕著性マップ生成部、206,416…特性値算出部、208,418…補正条件決定部、210,420…画像補正部、300…入力画像データ、310…入力画像データ、320…入力画像データ、302…顔領域、312…顔領域、350…入力画像データ、352…特徴量、354…ガウシアン・ピラミッド・データ、356…特徴量マップ、358…顕著性マップ、360…顕著性マップ、362…曲線、364…範囲、370…顕著性マップ、372…曲線、374…範囲、400…画像処理システム、410…画像処理サーバ、422…通信部、430…複合機、432…画像読取部、434…通信部、436…画像形成部、450…情報処理端末、452…通信部、454…表示制御部、456…表示部、458…記憶部、460…読出部
Claims (10)
- 入力画像から、所定被写体の領域を検出する検出部と、
前記入力画像から、特徴量に基づき顕著性のマップを生成する生成部と、
検出された前記所定被写体の領域および生成された前記顕著性のマップに基づいて、前記入力画像での前記所定被写体の領域の注視度を示す特性値を算出する算出部と、
算出された前記特性値に基づいて、前記入力画像に対する処理条件を決定する決定部と
を含む、情報処理装置。 - 前記生成部は、前記入力画像を構成する画素値に基づいて算出される特徴量のコントラスト値を示す特徴量マップを生成し、複数の特徴量各々について生成された前記特徴量マップを統合し、顕著性値の二次元分布を表す前記顕著性のマップを生成する、請求項1に記載の情報処理装置。
- 前記算出部は、前記検出部により検出された前記所定被写体の領域を構成する画素での前記顕著性値の総和を前記特性値として算出する、請求項2に記載の情報処理装置。
- 前記特徴量は、輝度、明度、彩度、色相、色、エッジ成分、方位、モーションまたはこれらの組み合わせを含み、前記生成部は、前記入力画像を構成する画素での前記顕著性値の総和が前記入力画像によらず一定となるような規格化を行う、請求項2または3に記載の情報処理装置。
- 前記所定被写体の領域は、顔領域であり、前記決定部は、所定の閾値および前記特性値に基づいて、予め準備された複数の画像処理条件の中から前記入力画像に適用する処理条件を選択することを特徴とし、前記複数の画像処理条件のうちの第1の画像処理条件は、主要被写体が人物である画像用の画像補正アルゴリズムを含み、第2の画像処理条件は、主要被写体が人物以外である画像用の画像補正アルゴリズムを含む、請求項1〜4のいずれか1項に記載の情報処理装置。
- 前記主要被写体が人物である画像用の画像補正アルゴリズムは、前記顔領域の画像情報に基づいた補正を行う処理を含み、前記主要被写体が人物以外である画像用の画像補正アルゴリズムは、前記入力画像の全体または中央領域の画像情報に基づいた補正を行う処理を含む、請求項5に記載の情報処理装置。
- 前記複数の画像処理条件のうちの第3の画像処理条件は、前記第1の画像処理条件による画像処理結果と、前記第2の画像処理条件による画像処理結果とをブレンドする処理条件を規定する、請求項5または6に記載の情報処理装置。
- 前記検出部が、前記入力画像から前記顔領域を検出しなかった場合、前記決定部は、主要被写体が人物以外である画像用の画像補正アルゴリズムを含む画像処理条件を選択する、請求項5〜7のいずれか1項に記載の情報処理装置。
- 画像処理方法であって、
入力画像から、所定被写体の領域を検出するステップと、
前記入力画像から、特徴量に基づき顕著性のマップを生成するステップと、
検出された前記所定被写体の領域および生成された前記顕著性のマップに基づいて、前記入力画像での前記所定被写体の領域の注視度を示す特性値を算出するステップと、
算出された前記特性値に基づいて、前記入力画像に対する処理条件を決定するステップと、
決定された前記処理条件に基づいて、前記入力画像に対し処理を施すステップと
を含む、画像処理方法。 - コンピュータを、
入力画像から、所定被写体の領域を検出する検出手段、
前記入力画像から、特徴量に基づき顕著性のマップを生成する生成手段、
検出された前記所定被写体の領域および生成された前記顕著性のマップに基づいて、前記入力画像での前記所定被写体の領域の注視度を示す特性値を算出する算出手段、および
算出された前記特性値に基づいて、前記入力画像に対する処理条件を決定する決定手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016001144A JP2017123015A (ja) | 2016-01-06 | 2016-01-06 | 情報処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016001144A JP2017123015A (ja) | 2016-01-06 | 2016-01-06 | 情報処理装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017123015A true JP2017123015A (ja) | 2017-07-13 |
Family
ID=59306544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016001144A Pending JP2017123015A (ja) | 2016-01-06 | 2016-01-06 | 情報処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017123015A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019119164A (ja) * | 2018-01-10 | 2019-07-22 | コニカミノルタ株式会社 | 画像形成装置及び情報処理装置 |
JP2019184319A (ja) * | 2018-04-04 | 2019-10-24 | コニカミノルタ株式会社 | 画像形成装置、画像検査装置、管理装置およびプログラム |
JP2020091852A (ja) * | 2018-12-03 | 2020-06-11 | シャネル パフュームズ ビューテ | メイクアップ製品の現実的レンダリングをシミュレーションするための方法 |
WO2021024860A1 (ja) * | 2019-08-05 | 2021-02-11 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN112700438A (zh) * | 2021-01-14 | 2021-04-23 | 成都铁安科技有限责任公司 | 一种列车车轴镶入部位超声判伤方法及其系统 |
-
2016
- 2016-01-06 JP JP2016001144A patent/JP2017123015A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019119164A (ja) * | 2018-01-10 | 2019-07-22 | コニカミノルタ株式会社 | 画像形成装置及び情報処理装置 |
JP2019184319A (ja) * | 2018-04-04 | 2019-10-24 | コニカミノルタ株式会社 | 画像形成装置、画像検査装置、管理装置およびプログラム |
JP2020091852A (ja) * | 2018-12-03 | 2020-06-11 | シャネル パフュームズ ビューテ | メイクアップ製品の現実的レンダリングをシミュレーションするための方法 |
JP7127004B2 (ja) | 2018-12-03 | 2022-08-29 | シャネル パフュームズ ビューテ | メイクアップ製品の現実的レンダリングをシミュレーションするための方法 |
US11594071B2 (en) | 2018-12-03 | 2023-02-28 | Chanel Parfums Beaute | Method for simulating the realistic rendering of a makeup product |
WO2021024860A1 (ja) * | 2019-08-05 | 2021-02-11 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN112700438A (zh) * | 2021-01-14 | 2021-04-23 | 成都铁安科技有限责任公司 | 一种列车车轴镶入部位超声判伤方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3881439B2 (ja) | 画像処理装置 | |
JP5547243B2 (ja) | 画像処理装置、プログラムおよび記録媒体 | |
US6389155B2 (en) | Image processing apparatus | |
JP2017123015A (ja) | 情報処理装置、画像処理方法およびプログラム | |
JP5387193B2 (ja) | 画像処理システム、画像処理装置およびプログラム | |
US20120243785A1 (en) | Method of detection document alteration by comparing characters using shape features of characters | |
US9967434B2 (en) | Image processing apparatus, system, method, and program product for adjusting saturation of a skin area while maintaining converted hue | |
US10015368B2 (en) | Calibration system, calibration method, and image forming apparatus | |
JP2009015820A (ja) | 画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体 | |
EP3422690B1 (en) | Information processing apparatus, control method thereof, and program | |
JP2013080524A (ja) | 画像比較装置および画像比較プログラム | |
JP4487000B2 (ja) | 画像処理装置、画像形成装置、画像処理方法、画像処理システム、画像処理プログラムおよびその記録媒体 | |
US20130135336A1 (en) | Image processing device, image processing system, image processing method, and recording medium | |
KR20180127913A (ko) | 화상 처리 장치, 화상 처리 방법, 및 프로그램 | |
US8712111B2 (en) | Image processing apparatus | |
US20200357121A1 (en) | Image processing apparatus, image processing method and storage medium | |
JP2007079586A (ja) | 画像処理装置 | |
JP2005316958A (ja) | 赤目検出装置および方法並びにプログラム | |
JP2007079587A (ja) | 画像処理装置 | |
JP2015012491A (ja) | 画像処理装置 | |
US11467784B2 (en) | Information processing apparatus, image collating method, and program | |
JP6413450B2 (ja) | 画像処理装置、画像形成装置およびプログラム | |
JP2019184319A (ja) | 画像形成装置、画像検査装置、管理装置およびプログラム | |
JP5454466B2 (ja) | 文字検出装置、文字検出方法、およびコンピュータプログラム | |
JP2006140873A (ja) | 画質評価装置及び画質評価方法 |