JP2015011556A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2015011556A
JP2015011556A JP2013137053A JP2013137053A JP2015011556A JP 2015011556 A JP2015011556 A JP 2015011556A JP 2013137053 A JP2013137053 A JP 2013137053A JP 2013137053 A JP2013137053 A JP 2013137053A JP 2015011556 A JP2015011556 A JP 2015011556A
Authority
JP
Japan
Prior art keywords
red
face
eye
image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013137053A
Other languages
English (en)
Other versions
JP2015011556A5 (ja
JP6188453B2 (ja
Inventor
和歌子 田中
Wakako Tanaka
和歌子 田中
梅田 清
Kiyoshi Umeda
清 梅田
寛康 國枝
Hiroyasu Kunieda
寛康 國枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013137053A priority Critical patent/JP6188453B2/ja
Priority to US14/313,833 priority patent/US9460347B2/en
Publication of JP2015011556A publication Critical patent/JP2015011556A/ja
Publication of JP2015011556A5 publication Critical patent/JP2015011556A5/ja
Application granted granted Critical
Publication of JP6188453B2 publication Critical patent/JP6188453B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6077Colour balance, e.g. colour cast correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/624Red-eye correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/628Memory colours, e.g. skin or sky
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30216Redeye defect

Abstract

【課題】 誤検出や誤補正を軽減した画像処理装置、画像処理方法、及びプログラムを提供することを課題とする。
【解決手段】 顔を含む画像における顔の向きを特定し、画像に含まれる顔における赤目領域を検出し、特定された顔の向きに応じた補正基準に基づいて、検出された赤目領域を補正する。または、画像における顔の向きを特定し、顔の向きに応じた検出基準に基づいて、画像に含まれる顔における赤目領域を検出する。
【選択図】 図2

Description

本発明は画像処理装置及びその方法に関し、例えば、目の色調不良を示す画像領域を検出又は検出・補正する画像処理装置及びその方法に関する。
画像処理におけるカメラのフラッシュに起因する目の色調不良は、赤目現象として一般に知られている。赤目現象は、照明の少ない環境下で、人間や犬・猫などの動物を、フラッシュを使用して撮影した際、開いた瞳孔部分に入ったフラッシュの光が眼底で反射して、毛細血管が赤く光る現象である。
そこで、カメラのフラッシュに起因する目の色調不良を補正する方法が提案されている(特許文献1参照)。
特許文献1では、まず赤目現象の領域の候補を検出する。そして、顔位置及び顔の方向に基づいて赤目候補の分析を行うことで、その赤目候補が目の位置である妥当性を考慮して赤目候補を絞り赤目補正を行う。
特表2010−520567
しかしながら、特許文献1に記載の方法では、赤目候補が目の位置として妥当であれば赤目と判定され赤目補正が実行されてしまうため、目の位置に近い赤色のものが全て補正されてしまうという問題があった。例えば、眼鏡のガラスやフレームの一部が赤く光ったような場合にも補正されてしまう。
本発明は上述した事情に鑑み、赤目検出や赤目補正を行った場合に発生しやすい誤検出や誤補正を低減することができる画像処理装置、画像処理方法、及びプログラムを提供することを課題とする。
上記の課題を解決するための本発明の画像処理装置の一態様は、顔を含む画像における顔の向きを特定する特定手段と、前記画像に含まれる顔における赤目領域を検出する赤目検出手段と、前記特定手段により特定された顔の向きに応じた補正基準に基づいて、前記赤目検出手段により検出された赤目領域を補正する補正手段と、を備えることを特徴とする。
また、本発明の画像処理装置の他の態様は、顔を含む画像における顔の向きを特定する特定手段と、前記特定手段により特定した顔の向きに応じた検出基準に基づいて、前記画像に含まれる顔における赤目領域を検出する赤目検出手段と、を備えることを特徴とする。
本発明によれば、目の色調不良を示す画像領域の検出や補正を適切に実行することができる。したがって、誤検出や誤補正を低減することができる。
実施形態1に係る画像処理装置ハードウェア構成図である。 実施形態1に係るソフトウェアブロック図である。 実施形態1に係る顔検出部の説明図である。 実施形態1に係る顔検出部203の矩形特徴量の説明図である。 実施形態1に係る赤目補正処理のフローチャートである。 実施形態1に係る補正範囲の決定の説明図である。 実施形態1に係る画像処理のフローチャートである。 検出結果を示す表である。 実施形態2に係る赤目補正処理のフローチャートである。 実施形態3に係る赤目補正処理のフローチャートである。 実施形態3に係る赤目補正処理のフローチャートである。 他の実施形態に係る赤目補正処理のフローチャートである。 他の実施形態に係る赤目補正処理のフローチャートである。 他の実施形態に係る赤目補正処理のフローチャートである。 他の実施形態に係る赤目補正処理のフローチャートである。
以下、本発明の一実施形態の画像処理について、図面を参照して詳細に説明する。尚、以下で説明する画像処理は、プリンタエンジンへ出力すべき画像情報を生成するコンピュータ内で稼働するプリンタドライバ、スキャナなどの光学読取装置を駆動するコンピュータ内で稼働するスキャナドライバに組み込むことができる。また、複写機、ファクシミリ、プリンタ、スキャナ、ディジタルカメラ、ディジタルビデオカメラなどの各種機器のハードウェアに内蔵してもよいし、ソフトウェアとして供給してもよい。
図1において、情報処理装置115は、CPU100と、ROM101と、RAM102と、2次記憶装置103と、表示装置104と、入力装置105と、IF107と、IF108と、無線LAN109を備えている。さらに、内部撮像デバイス106を備えている。これらは、制御バス/データバス110により相互に接続されている。本実施形態の情報処理装置115は、画像処理装置として機能する。
情報処理装置115は、例えば、コンピュータである。CPU100(中央演算装置)は、実施形態1で説明する情報処理をプログラムに従って実行する。CPU100は、ROM101や2次記憶装置103からプログラムをRAM102にロードし、RAM102でプログラムを実行することにより、情報処理装置全体を制御する。
ROM101は、CPU100により実行される以下に示すアプリケーション等のプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。2次記憶装置103は、ハードディスク等であり、画像ファイルや画像解析結果を保存するデータベース等を保存するための記憶媒体である。表示装置104は、例えば、ディスプレイであり、実施形態1の処理結果や以下に示すUI(User Interface)等をユーザに提示する装置である。表示装置104は、タッチパネル機能を備えても良い。入力装置105は、ユーザが画像補正の処理の指示等を入力するためのマウスやキーボード等である。
また、内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に記憶される。また、情報処理装置115は、インターフェース(IF108)を介して接続された外部撮像デバイス111から画像データを読み込むこともできる。さらに、無線LAN(Local Area Network)109はインターネット113に接続されている。情報処理装置115は、インターネット113に接続された外部サーバー114より画像データを取得することもできる。
画像等を出力するためのプリンタ112は、IF107を介して情報処理装置115に接続されている。尚、プリンタ112はさらにインターネット上に接続されており、無線LAN109経由でプリントデータのやり取りをすることもできる。
本実施形態では、赤目自動補正処理について説明する。図2(a)及び(b)は、それぞれ本実施形態に係る赤目自動補正処理の概要を示す機能ブロック図である。これらの一連の処理は、CPU100によって実行される。
まず、図2(a)に示す赤目自動補正処理について説明する。図2(a)に示すように、まず、画像取得部202は、入力端子201に入力される画像データを取得する。入力される画像データは、各デバイスから取得したものであってもよいし、2次記憶装置103に予め蓄えてある画像データであってもよい。入力される画像データは、特に限定されないが、例えば、一画素あたりRGB各8ビット、合計24ビットのディジタル画像データが挙げられる。取得した画像データは、顔検出部203に入力する。ここで、取得した画像は全て2次記憶装置103に保存した後、全画像データを顔検出部203に入力してもよいし、画像データを取得する度に顔検出部203に入力してもよい。
顔検出部203は、画像取得部202において取得された画像データから顔領域と顔の向きを検出する。顔領域の検出方法は、特に限定されないが、本実施形態では、詳細は後述するが、AdaBoostによる顔領域の検出方法を用いる。
赤目検出部204は、画像取得部202において取得された画像データから赤目の領域を検出する。赤目の領域の検出方法は特に限定されないが、例えば、適応的二値化による赤色領域の抽出後に境界線追跡による赤丸領域の抽出を行う方法が挙げられる。なお、赤目検出部204の検出結果は、完全ではなく、赤くて丸い領域であれば検出する可能性がある。例えば、赤色の信号機、衣服の赤色の模様、赤色の照明など様々なものを検出する可能性がある。
赤目補正判定部205は、顔検出部203の検出結果を用いて、赤目検出部204の検出結果に対する赤目補正処理部206における補正の判定処理を行う。具体的には、赤目補正処理部206において補正を行うか否かの判定、又は赤目補正処理部206における補正強度の判定を行う。詳細については後述する。
赤目補正処理部206は、赤目補正判定部205で判定した判定結果に基づいて赤目補正処理を行う。
次に、図2(b)の赤目自動補正処理について説明する。図2(b)は、図2(a)とは異なる赤目自動補正処理である。
画像取得部202及び顔検出部203は、図2(a)と同様であるので説明を省略する。赤目検出判定部208は、顔検出部203の検出結果を用いて、赤目検出部204で検出を行うか否かの判定、又は赤目検出部204における検出条件の判定を行う。詳細については後述する。
図2(a)における赤目補正判定部205と、図2(b)における赤目検出判定部208とでは、いずれも顔検出部203で検出される顔の向きに基づいて判定を行う。ここで、顔検出部203について詳細に説明する。顔検出部203で用いる顔検出方法は、特に限定されないが、本実施形態では、AdaBoostを使用した顔検出アルゴリズムを用いて、検出処理を行う。AdaBoostは、顔らしい明度分布の弱判別器を多数直列に接続することにより強判別器を設計する手法であり、例えば、特開2011−8704に開示されている。多数の弱判別器は、それぞれ顔らしいとされる明度分布を判定基準として判定を行う。なお、各弱判別器は、それぞれ少しずつ異なるパターンの明度分布を判定基準として備えている。全ての弱判別器で顔らしいと判定された画像データは、顔である可能性が高いため顔として出力する。本実施形態では、公知のAdaBoostとは異なり、顔の向きを判別することが可能である。
図3は、本実施形態に係る顔検出部203の説明図、具体的には、分岐構造のAdaBoostの構成のイメージ図である。である。本実施形態では、図3に示すように、弱判別器を複数接続し、強判別器(すなわち、検出器)を実現する。ここでは、顔の向きを5種類に分類した分岐構造を例に挙げて説明するが、分類数はこれに限定されるものではない。
弱判別器は、図3に示すように、複数が直列につながっており、途中で顔の向きに応じて分岐した後さらに直列につながっている。また、各弱判別器は、Haarタイプの矩形特徴量が設定されている。矩形領域ごとに矩形特徴量を解析し、その特徴量の関係が予め学習した結果と同じであれば、評価値を加算していく。弱判別器ごとに解析する矩形特徴量は異なる。本実施形態では、始めに用いられる弱判別器は顔向きを特定しないような矩形特徴量であり、その後、弱判別器301、302、303を用いて、左・右・正面の三方向の顔を判別する。言い換えれば、分岐させる前の1以上の弱判別器は、オブジェクトの全ての向きに対応する基準に基づいて判別を行い、オブジェクトの向きに応じて分岐させた後の1以上の弱判別器は、オブジェクトの向きに応じた基準に基づいて判別を行う。これにより、本実施形態では、検出した顔の向き及び顔領域を判別する。
ここで、図4を用いて、矩形特徴量について簡単に説明する。図4は、弱判別器301、302、303の矩形特徴量の一例である。図4(a)は左向きの顔を検出する弱判別器301の矩形特徴量を、図4(b)は正面向きの顔を検出する弱判別器302の矩形特徴量を、図4(c)は右向きの顔を検出する弱判別器303の矩形特徴量を表す。図4(a)〜(c)では、それぞれ黒塗りの部分が2箇所あり、上の黒塗り部分はおよそ目領域を、下の黒塗り部分はおよそ口領域を表す。これらの領域に所定の特徴量があれば、顔であると判定する。
図3に戻って、本実施形態では、各弱判別器において、判定した結果に応じて、信頼度を算出する。具体的には、弱判別器で算出した算出値が、当該弱判別器において設定される算出値に対する閾値Th(以下、算出閾値ともいう)以上であると判定すれば、予め設定した設定値をスコアに加算して信頼度を算出する。一方、弱判別器で算出した算出値が、当該弱判別器において設定される算出閾値Th未満であると判定すれば、予め設定した設定値をスコアから減算して信頼度を算出する。次の弱判別器では、同様に判定結果に応じて、スコア(前の弱判別器で算出した信頼度)に対して当該弱判別器の設定値を加算又は減算する。なお、算出閾値Thは、弱判別器毎に異なる値を設定してもよいし、全ての弱判別器に同じ値を設定してもよい。また、各弱判別器には、スコアに対する閾値Th(以下、スコア閾値ともいう)が設定されており、算出した信頼度がスコア閾値Th以下の場合は処理を中止する。これにより、後に続く弱判別器分の処理をスキップでき、処理を高速で実行することができる。なお、スコア閾値Thは、弱判別器毎に異なる値を設定してもよいし、全ての弱判別器に同じ値を設定してもよい。予め用意した複数の弱判別器の最後の弱判別器から信頼度が算出された場合、その解析領域が顔であると判定する。複数の分岐が候補となった場合には、最後の弱判別器から算出された信頼度が最大のものをその顔の向きとする。
ここで、301は、左向きの横顔を検出する弱判別器列であり、左向きの顔検出用の複数の弱判別器が直列に接続されている。弱判別器列301以降に備える左向きの弱判別器を通過した領域を左向きの顔領域と判定し、さらに横顔用弱判別器と斜め顔用弱判別器とを用い、これらを通過した領域をそれぞれ左向き横顔、左向き斜め顔とする。
302は、正面顔を検出する弱判別器列であり、正面向きの顔検出用の複数の弱判別器が直列に接続されている。弱判別器列302以降に備える正面向きの弱判別器を全て通過した領域を正面向きの顔とする。
303は、右向きの斜め顔を検出する弱判別器列であり、右斜め向きの顔検出用の複数の弱判別器が直列に接続されている。弱判別器列303以降に備える右向きの弱判別器を通過した領域を右向きの顔領域と判定し、さらに斜め顔用弱判別器と横顔用弱判別器を用い、これらを通過した領域をそれぞれ右向き斜め顔、右向き横顔とする。
ここで、図3に示した顔の向きの分類について説明する。顔の向きの分類は、弱判別器を設計する際に設定する。顔の向きの分類は、例えば、複数のサンプル画像の顔の検出パターンを予め取得し、この取得した結果に基づいて弱判別器に設定すればよい。また、顔の向きの分類は、これに限定されるものではなく、ユーザ主観によって分類しても良いし、被写体に対するカメラの角度が分かる際にはその情報をもとに分類しても良いし、器官の位置関係から分類してもよい。
また、最終的に通った分岐上の全ての弱判別器で顔候補と判定された場合には、顔領域の座標と顔向きを出力する。すなわち、顔検出部203による処理の結果、各入力画像について、人物顔の個数と各顔の座標位置・顔向きを取得することができる。
本実施形態では、顔向きは図3に示すように左向き横顔、左向き斜め顔、正面向き顔、右向き斜め顔、右向き横顔の5段階の顔向きを出力するが、これに限定されるものではない。例えば、より細かい顔向きの判別器を用意することで、5段階以上の段階数に判別することも可能であるし、ほぼ連続的な顔向き判別を行うことも可能である。
本実施形態では、上述した一連の検出処理において、各弱判別器で、各矩形領域の評価値を加算した加算評価値が設定閾値以下になった時点で処理を打ち切ることにより、処理の高速化を図ることができる。以下、顔の向きが正面を基準としたときの顔の向きの度合いを「横向き度」とする。ここで、例えば、顔の器官として目の位置に基づいて顔領域の顔の向きを判定する場合、片目のみ検出したときは横向きであると判定される。なお、このような方法に基づいて顔の向きを検出する場合は、目が検出できない場合は検出対象外となる。本実施形態では、顔が真横を向いたとき、すなわち、正面に対して顔の向きが90度のときに、横向き度が最大としたが、横向き度の最大値はこれに限定されるものではない。逆に、顔の向きが正面に近づくほど、横向き度は小さくなる。
ただし、顔向きとは、上述したように、複数段階で出力された結果であってもよいが、正面顔か否かを表すようなフラグであってもよい。
次に、赤目検出部204について詳細に説明する。人物の赤目検出手法としては、公知の方法を用いることができる。公知の方法としては、例えば、特開2010−257482に開示されている方法が挙げられる。具体的には、適応的二値化による赤色領域の抽出後に境界線追跡による赤丸領域の抽出を行い、さらにその結果に特徴量判定を行う。まず、適応的二値化による赤色領域の抽出を行う。入力された画像データに適応的二値化処理を適用することで、画像データから赤色領域を抽出する。具体的には、画像データの各画素に対して赤色度合いを示す赤色評価量を算出し、その評価量と閾値を比較して、評価値>閾値の場合に注目画素を赤色と判定する。この閾値は、注目画素の周辺領域において適応的に決定される閾値である。なお、ここで言う「二値化」とは、赤色と判定した画素に‘1’を、そうではない画素に‘0’を割り当てることを言う。赤色評価量は、注目画素の赤色評価量を一般的なHSI系の彩度ではなく、RGB画素値のRとGのみから算出することで、赤色領域の抽出精度を高めるようにしてもよい。
次に、境界線追跡による赤丸領域の抽出を行う。まず、適応的二値化処理の結果得られる二値画像に対して、画像を上端からスキャンする。注目画素(xa,ya)の値が‘1’で、注目画素の左(xa−1,ya)、左斜め上(xa−1,ya−1)、上方(xa,ya−1)、右斜め上(xa+1,ya−1)の四画素の値が‘0’である注目画素をスキャンの始点とする。そして、始点画素から反時計回りに再び視点に戻るまで値が‘1’である画素を追跡する。この追跡過程で、追跡対象領域の周辺の長さ(画素数)、方向ヒストグラム、X座標とY座標の最大値、最小値を得ることができる。それらの値から、赤色領域の縦横比やサイズの適正度を見て、赤色領域が赤丸であるか否かの判定処理を行う。
そして、最後に抽出された赤丸領域について、人の赤目と特定できるような様々な特徴量を算出し、それを予め定めた閾値と比較して赤目か否かを判定する。
なお、赤目検出の方法は、これに限定されるものではなく、例えば、特開平11−136498号公報、特開平11−149559号公報、特開2000−125320号公報、特開平11−284874号公報に開示の方法を用いてもよい。
次に、図5及び図6を用いて、赤目補正処理部206について説明する。図5は、赤目補正処理部206が実行する赤目領域の補正処理のフローチャートである。
赤目補正処理部206には、RGB成分で構成された画像データと、前段までの処理で得られた赤目領域の情報が入力される。
まず、図5に示すように、注目赤目領域に対して補正範囲を設定する(S501)。ここで、図6を用いて補正範囲の決定について説明する。図6は、補正範囲の決定の説明図である。
図6(a)において、中央の矩形領域が赤目領域601である。赤目領域601の中心を通る長径、短径がそれぞれLw1、Lh1の楕円の補正領域602を設定する。なお、Lw1、Lh1は、下記式(1)によって算出する。
Lw1=Lw0×CPARAM_AREARATIO
Lh1=Lh0×CPARAM_AREARATIO (1)
(Lw0、Lh0は、それぞれ赤目領域601の幅と高さの1/2,CPARAM_AREARATIOは補正範囲を決定するためのパラメータを示す)
次に、補正領域602内で補正に必要なパラメータを算出する(S502)。算出するパラメータは、楕円領域内部での最大輝度値Ymaxおよび式(3)に示す評価量Erの最大値Ermaxである
次に、注目画素が補正領域602内に存在するか否かを判定する(S503)。注目画素が補正領域602の楕円領域に存在するか否かは、楕円を算出する下記式(式2)に基づいて判定する。
(x/Lw1)+(y/Lh1)≦1 (2)
((x,y)は注目画素の座標,ただし、座標原点は注目赤目領域の中心)
注目画素の座標(x,y)が式(2)を満たす場合、注目画素は補正領域602内に存在すると判定し、S504に進む。
一方、注目画素の座標(x,y)が式(2)を満たさない場合は、注目画素が補正領域602内に存在しないと判定し、注目画素を次の画素に移動し(S510)、S503に戻る。
S504では、注目画素のRGB成分値を輝度、色差成分のYCC値に変換する(S504)。注目画素のRGB成分値のYCC値への変換方法は特に限定されない。
次に、注目画素に対する評価量を算出する(S505)。この評価量は、後段のS506で補正量を決定するために必要なパラメータであり、具体的には以下の三つの値である。
(1)赤目領域601の中心から注目画素までの距離rと、中心から楕円境界までの距離r0の比r/r0
(2)注目画素の評価量Erと評価量の最大値Ermaxの比Er/Ermax
(3)注目画素の輝度Yと最大輝度値Ymaxの比Y/Ymax
次に、S505で求めたパラメータを用いて、注目画素の輝度Yおよび色差成分Cr、Cbそれぞれの補正量Vy、Vcを式(3)によって算出する(S506)。
Vy={1−RrTy1}・{1−(1−Re)Ty2}・{1−RyTy3}
Vc={1−RrTc1}・{1−(1−Re)Tc2} (3)
(Rr=r/r0、Re=Er/Ermax、Ry=Y/Ymax Vy、Vcはともに0.0〜1.0)
Vy,Vcの値は、1.0に近いほど補正量が大きいことを意味する。
輝度の補正量Vyは、S505で算出した三つのパラメータすべてを用いて決定する。輝度の補正量Vyは、注目画素の位置が補正領域602の中心から離れるほど補正量が小さくなり、また、注目画素の評価量Erが、最大値Ermaxに比べて小さい場合、補正量Vyは小さくなる。また、注目画素の輝度値Yが、最大値Ymaxに近い場合、補正量Vyは小さくなる。輝度が高い画素の補正量Vyを小さくすることにより、目の中のハイライト部(キャッチライト)を保存することができる。
一方、色差の補正量Ycは、S505で算出した三つのパラメータのうち輝度に関するパラメータを除いた二つのパラメータを用いて決定する。
上述した式(3)において、Ty1、Ty2、Ty3、Tc1、Tc2の各パラメータの設定によって各評価量(式(3)の{ }内の値)を、図6(b)に示すように、一次(実線)、二次(破線)、三次(一転鎖線)といった直線又は、曲線に適用することができる。
次に、補正量Vy、Vcを用いて下記式(4)により補正後のYCC値を算出する(S507)。
Y’=(1.0−Wy・Vy)・Y
C’=(1.0−Wc・Vc)・C (4)
(Y、Cは補正前の値,Y’、C’は補正後の値,Wy、Wcは重み(0.0〜1.0))
なお、重みWy、Wcの値を調節することにより、補正強度を指定することができる。例えば、補正強度を弱、中、強と三段階とする場合、Wy,Wcをともに0.3,0.7,1.0などに設定することで、同一の処理で、補正強度が異なる結果を得ることができる。
新しい輝度、色差成分の値が決定したら、次に、YCC値をRGB値へ変換する(S508)。得られたRGB値は、補正後の画素値として入力画像用のメモリバッファに上書きする、あるいは、出力用画像を格納するメモリバッファの所定アドレスに格納する。
そして、現在の画素が最後の画素か否かを判定する(S509)。最後の画素ではない場合は、S510へ進み注目画素を移動した後、S503へ戻る。このようにして、注目赤目領域に対応する最後の画素に達するまで、上記の処理(S503〜S508)を繰り返す。
上述した実施形態では、赤目補正処理部206に入力される画像がRGB成分で構成され、入力画像を輝度、色差成分に変換して補正した後、再び、RGB成分に戻す方法を例に挙げて説明したが、赤目領域の補正処理は、これに限定されるものではない。例えば、RGB成分を明度、彩度に変換し、同様の方法により明度、彩度を補正した後、再び、RGB成分に戻したとしても、ほぼ同様の出力結果を得ることができる。
また、補正量を決定するためのパラメータとして、注目画素の評価量Erと補正領域602内の評価量の最大値Ermaxの比Er/Ermaxを用いる例を説明したが、同パラメータを単純に彩度に置き換えることも可能である。すなわち、注目画素の彩度と、補正領域602内の最大彩度との比を用いて補正量を決定してもよい。
次に、図7を用いて画像処理について説明する。図7は、本実施形態における画像処理のフローチャートである。この画像処理は、CPU100によって実行される。図7に示す処理は、は図2(a)に示す機能ブロック図をベースとした処理である。
まず、S801において、l=L枚の画像を取得する。本実施形態では、L=10とする。2次記憶装置103に蓄えられている画像の中からユーザーが入力装置105と表示装置104を用いて選択した10枚を取得する。取得された画像10枚をまとめて2次記憶装置103内のデータベースに保存したのち、全画像をS802に入力する。
次に、S802において、L枚(本実施形態では10枚)の取得した画像の顔検出処理を行う。ここでは、上述した顔検出部203により顔検出処理を行う。本実施形態では、AdaBoostを用いて顔の位置と顔の向きを出力する顔検出アルゴリズムを用いることにより、15個の顔を検出したものとする。
ここで、図8を用いて顔検出の結果について説明する。図8(a)は、10枚の取得画像の顔検出結果の一例を表す。画像IDは、各画像を識別するためのIDであり、顔検出数は、各画像において検出された顔の数を示す。また、顔IDは各顔を識別するためのIDであり、例えば、顔ID1−1は、画像ID1の顔1であり、顔ID2−3は、画像ID2の顔3である。また、座標は、検出された各顔の座標である。顔の向きは、正面顔=0、左向き斜め顔=1、右向き斜め顔=2、左向き横顔=3、右向き横顔=4の5段階で表されている。図8(a)は、10枚の取得画像から、正面顔が7個、左向き斜め顔が3個、右向き斜め顔が2個、左向き横顔が2個、右向き横顔が1個、計15個の顔を検出したことを示す。このような顔検出結果は、XML(eXtensible Markup Language)のような汎用的なフォーマットで2次記憶装置103内のデータベースに保存する。
次に、S803において、15個の顔検出領域に対して赤目検出処理を行う。本実施形態では、赤目検出部204において適応的二値化による赤色領域の抽出後に境界線追跡による赤丸領域の抽出を行い、さらにその結果に特徴量判定をすることにより赤目検出を行う。S803に入力する画像は、S802で顔検出された顔領域のみとする。具体的には、図8(a)に示した各顔の顔領域を表す座標(左上、左下、右上、右下の4点)を元画像から切り出した画像をS803に入力する。赤目検出処理の結果、n=N個の赤目が検出される。本実施形態では、図8(b)に示すように、N=7の赤目が検出される図8(b)は、図8(a)の顔検出結果に、S803の各顔領域を赤目検出結果を加えた表である。図8(b)において赤目検出結果は、各顔IDに対して赤目が検出された個数を表す。これより、15個の顔全部で計7個の赤目を検出していることがわかる。この赤目検出結果は、検出された赤目毎にその座標を保存する。顔検出結果を保存しているフォーマットに追記する形で保存されてもよいし、新たに顔毎に保存してもよい。
S805において、赤目検出された7個のうち1個目の赤目領域に対し、補正を行うか否かの判定を行う。顔の向きに応じて、補正基準、すなわち、補正を行うか否か(補正1か補正0か)を決定する。本実施形態では、5段階の顔の向きのうちどの顔向きかに応じて、赤目補正を行うか否かを判定する。本実施形態では、顔向きが正面及び斜めの顔、すなわち、顔向きが0,1,2の場合は、次のステップの赤目補正S806に入力するよう設定する。顔向きが横向きの顔、すなわち、顔向きが3,4のものは次のステップの赤目補正S806に入力せずに、S807へ進む。
S806では、赤目補正が実行される。ここでは、補正を実行すると判断された赤目が赤目補正処理に入力されて、赤目補正が実行される。赤目補正の方法は、赤目補正処理部206で説明した方法を用いる。そして、S807へ進む。
S807では、n=n+1とし、S808へ進む。S808では、n=Nか否かを判定し、n=Nではない場合はS805へ戻り、次の赤目の補正判定を行う。このようにして、すべての赤目検出結果に対して処理を行って処理を終了する。本実施形態では、各画像の顔の位置と顔の向きを検出し、検出された各顔から赤目を検出し、顔の向きに基づいて、赤目補正を行う。すなわち、本実施形態では、S803において検出された赤目検出結果は、「赤目候補」として扱い、顔の向きに応じて、赤目補正をするか否かを判定する。具体的には、本実施形態では、顔の向きが横向きの場合、S806へ入力しないことにより、赤目補正を行わない。
これは、顔の向きが横向きの場合、赤目現象は発生し難いからである。一般的に赤目現象は、フラッシュの光が顔の正面方向から入るほど、網膜の毛細血管に反射して赤く光った反射光がカメラに多く戻り、赤目現象が発生しやすいとされている。したがって、フラッシュの光が顔の横方向から入ると、網膜での反射はほとんど起こらないため赤目現象は発生しにくい。
したがって、本実施形態では、赤目が発生しにくい向きの顔から赤目が検出された場合、本実施形態では、顔の向きが横向きで赤目検出された場合は、誤検出であると判断し、赤目補正を行わない。これにより、誤った補正を減らすことが可能となる。
例えば、上述した特許文献1の場合、検出された赤目候補の領域が目の位置に近い場合、常に赤目補正が実行される。したがって、目頭近傍の赤色領域は、目の位置としておおよそ妥当であるため、赤目補正が実行されて目頭近傍が黒く補正されてしまう。同様に、目尻近傍で赤目候補が検出された場合も不適切な補正が行われる可能性がある。さらに、眼鏡のガラスやフレームの一部が赤く光ったような場合にも同様に不適切な補正が行われる可能性がある。これに対し、本実施形態によれば、例えば、顔の向きが横向きの場合に、赤目候補が誤検出であると判断して補正を行わないことにより、顔の向きが横向きの場合に目頭近傍、目尻近傍、装飾品などの誤補正を抑制することができる。
上述したように、本実施形態では、顔の向きに基づいて赤目候補から赤目ではないと判定できるものを除くことにより、誤補正を軽減することができる。
(実施形態2)
実施形態1では、顔の向きに応じて赤目補正をするか否かを判定したが、本実施形態では、顔の向きに応じて補正量を変更する。なお、実施形態1と同様の構成については説明を省略する。
図9は、本実施形態に係る画像処理のフローチャートである。この処理は、CPU100によって実行される。
図9において、S1001〜S1004は、実施形態1の図7におけるS801〜S804と同様の処理であるので説明を省略する。
S1005において、顔の向きに応じた補正基準を設定する。まず、赤目検出された7個のうち1個目の赤目領域に対し、顔の向きに応じた補正パラメータの設定を行う。本実施形態では、上述の5段階の顔の向きそれぞれに対して設定を行う。この補正パラメータは、予め設定可能である。上述した通り、赤目は正面顔ほど発生しやすく横顔ほど発生しにくいが、その程度も正面顔ほど顕著な赤色となりやすいため、例えば、赤目補正パラメータは、正面顔ほど強く、横顔ほど弱く補正されるような値に設定する。すなわち、顔の向きの横向き度が高いほど補正量が小さくなるように補正パラメータを設定する。
本実施形態では、顔向きが正面(顔向き=0)、斜め向き(顔向き=1,2)、横向き(顔向き=3,4)それぞれに対して、赤目補正処理部206で説明した補正量を表す式(4)の重みパラメータWy、Wcをともに1.0、0.7、0.3と設定する。この設定値を参照することで、S1005に入力されたn=1個目の赤目の補正パラメータを決定する。
次に、S1006において、決定した補正パラメータに基づいてn=1個目の赤目補正を実行する。ここでの赤目補正は、赤目補正処理部206で説明した方法により行う。
S1007では、n=n+1とし、S1008へ進む。S1008では、n=Nか否かを判定し、n=Nではない場合はS1005へ戻り、次の赤目に対して、顔向き度に応じて補正パラメータを決定する。このようにして、S1005〜S1008を検出された赤目7個全てに対して行い、処理を終了する。
本実施形態では、正面・斜め向き・横向きの重みパラメータWy、Wcをともに1.0,0.7,0.3と設定したが、横顔のみ0.0と設定すれば横顔の赤目は補正がかからないこととなり、結果的に実施形態1と同様の結果を得ることができる。
本実施形態では、各画像の顔の位置と顔の向きを検出し、検出された各顔から赤目を検出し、顔の向きに基づいて設定された赤目補正パラメータに基づいて、赤目補正を行う。これにより、赤目が発生しにくい向きの顔ほど赤目補正の補正量を小さく実行することができる。したがって、誤った補正や過剰な補正を減らすことが可能となる。
また、本実施形態では、実施形態1と同様に、横向きの場合は、赤目検出結果は誤検出であるとして、赤目補正を行わないことにより、誤った補正を減らすことが可能となる。
また、赤目は正面顔ほど顕著な赤色となりやすいが、本実施形態では、顔の向きに応じて、補正パラメータを設定することにより、顔の向きと検出された赤目の程度に矛盾があったときに補正パラメータを弱く設定して、過度な補正を減少させることができる。
(実施形態3)
実施形態1及び2では、図2(a)の機能ブロック図をベースとする赤目補正処理について説明したが、本実施形態では、図2(b)の機能ブロック図をベースとする赤目補正について説明する。なお、実施形態1と同様の構成については説明を省略する。
図10は、本実施形態に係る画像処理を説明するフローチャートである。図10におけるS1301〜S1302は、実施形態1に係る図7のS801〜S802や実施形態2に係る図9のS1001〜S1002と同様であるので説明を省略する。なお、S1302で検出された顔の結果は、図8(a)と同じM=15個の顔であるとする。
S1304において、顔検出された15個のうち1個目の顔領域に対し、赤目検出を行うか否かの判定を行う。顔の向きに応じて、検出基準、すなわち、赤目検出を行うか否か(検出閾値Mか、検出閾値100として検出しないか)を決定する。本実施形態では、5段階の顔の向きのうちどの顔向きかに応じて、赤目補正を行うか否かを判定する。これは予めパラメータで設定可能であり、本実施形態においては顔向きが正面と斜めの顔、すなわち、顔向きが0,1,2の場合は、次のステップの赤目検出S1305に入力するよう設定する。顔向きが横向きの顔、すなわち、顔向きが3,4のものは次のステップの赤目検出S1305に入力しないように設定する。
顔向きが3,4のものは、にS1307,S1308を経てS1304に戻り、次の顔の赤目検出判断を行う。
S1305では、S1304において赤目検出を実行すると判定された顔が赤目検出処理に入力され、赤目検出を実行する。赤目検出の方法は、赤目検出部204で説明した通りである。なお、S1305に入力する画像は、S1302で顔検出された顔領域のみとし、具体的には図8(a)に示した各顔の顔領域を表す座標(左上、左下、右上、右下の4点)を元画像から切り出した画像である。
図8(c)は、S1305で各顔領域を赤目検出した結果を図8(a)に加えた表である。赤目検出結果は、各顔に対して赤目が検出された個数を表す。図8(c)では、15個の顔全部で計6個の赤目を検出している。本実施形態では、赤目検出を実行する顔を顔の向きで選択しているため、顔ID2−2、4−1、6−1の3つの顔は赤目検出S1305に入力されない。実施形態1及び2と同様に、赤目検出結果は、検出された赤目毎にその座標を保存する。顔検出結果を保存しているフォーマットに追記する形で保存されても良いし、新たに顔毎に保存しても良い。
次に、S1306において、検出された赤目が赤目補正処理に入力され、補正を実行する。赤目補正は、赤目補正処理部206で説明した方法により行う。
本実施形態では、各画像の顔の位置と顔の向きを検出し、顔の向きに基づいて赤目検出を行った後、赤目補正を行う。本実施形態では、赤目が発生しにくい向きの顔では赤目検出を実行しないように設定することができる。これにより、赤目が発生しにくい向きにおける誤検出を軽減することができる。したがって、赤目の誤補正も抑制することができる。
また、本実施形態では、赤目が発生しにくい向きの顔は、赤目検出に入力しないため、入力した画像全体の検出速度を上げることができる。
(実施形態4)
実施形態1及び2では、図2(a)の機能ブロック図をベースとする赤目補正処理について説明したが、本実施形態では、図2(b)の機能ブロック図をベースとする赤目補正について説明する。なお、実施形態1と同様の構成については説明を省略する。
本実施形態では、赤目検出に全ての顔の向きの顔を入力し、顔の向きに応じて赤目検出の検出されやすさ、すなわち、検出閾値を設定する。
図11は、本実施形態に係る画像処理のフローチャートである。この処理は、CPU100により実行される。
図14におけるS1401〜S1403は、実施形態3で説明のS1301〜S1303と同様であるので説明を省略する。
S1404では、顔の向きに応じた検出基準を設定する。本実施形態では、まず、顔検出された15個のうち1個目の顔領域に対し、顔の向きに応じた赤目検出パラメータの設定を行う。本実施形態では、上述の5段階の顔の向きそれぞれに対して設定を行う。この赤目検出パラメータは、予め設定可能である。本実施形態では、顔向きが正面(顔向き=0)、斜め向き(顔向き=1,2)、横向き(顔向き=3,4)それぞれに対して、赤目検出部204の適応的二値化による赤色領域の抽出で説明した閾値を設定する。この設定値を参照することで、S1404に入力されたm=1個目の顔の赤目検出パラメータを決定する。赤目は正面顔ほど発生しやすく横顔ほど発生しにくいため、赤目検出パラメータは、例えば、正面顔ほど検出されやすく、横顔ほど検出されにくいような値に設定する。すなわち、顔の向きの横向き度が高いほど検出基準が高くなるように検出パラメータを設定する。
S1405において、決定した赤目検出パラメータに基づいてm=1個目の顔の赤目検出処理を実行する。赤目補正は、赤目補正処理部206で説明した方法により行う。S1407では、m=m+1とし、S1408へ進む。S1408では、m=Mか否かを判定し、m=Mではない場合はS1404へ戻り、次の赤目に対して、顔向き度に応じて補正パラメータを決定する。このようにして、検出された顔15個全てに対してS1404〜S1408を行い、処理を終了する。
なお、本実施形態では、正面・斜め向き・横向きの赤目検出パラメータをそれぞれ設定したが、横顔のみ確実に赤目が検出されないようなパラメータを設定すれば、結果的に実施形態3と同様の結果を得ることができる。
本実施形態では、各画像の顔の位置と顔の向きを検出し、顔の向きに応じて設定された赤目検出パラメータで赤目検出を行い、赤目補正を行う。これにより、赤目が発生しにくい向きの顔ほど赤目が検出されにくくなり、誤検出を減らすことができる。
(他の実施形態)
本発明の基本的構成は上述したものに限定されるものではない。上述した実施形態は、本発明の効果を得るための一手段であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれる。
実施形態1及び2では、取得画像全ての顔検出を行い、取得した画像全ての赤目検出を行った後、検出された赤目1個ずつに対して赤目補正実行判断や赤目補正パラメータ設定そして赤目補正を行ったがこれに限定されるものではない。例えば、図12や図13に示す処理手順としても同様の効果を得ることができる。すなわち、図12に示すように、複数取得した画像データ1つずつに対して顔検出、赤目検出、赤目補正パラメータ設定、赤目補正を行うようにしてもよい。また、図13に示すように、1つの画像データを取得する度に顔検出、赤目検出、補正実行するか否かの判定、赤目補正を行い、次の画像をまた取得するようにしてもよい。例えば、外部撮像デバイス111において画像処理を行う場合や、内部撮像デバイス106から撮像の度に画像を取得する場合は、図13に示す方法を好適に用いることができる。
また、実施形態3及び4では、S1302やS1402において取得した画像全ての顔検出をまとめて行い、検出された顔1個ずつに対して赤目検出実行判断や赤目検出パラメータ設定そして赤目補正を行ったがこれに限定されるものではない。例えば、以下に説明の図14や図15のような処理手順でも同様の効果を得ることができる。すなわち、図14に示すように、複数枚取得した画像1枚ずつに対して顔検出、赤目検出パラメータ設定、赤目検出、赤目補正を行うようにしてもよい。また、図15に示すように、1枚の画像を取得する度に顔検出、赤目検出実行判断、赤目検出、赤目補正を行い、次の画像をまた取得するようにしてもよい。外部撮像デバイス111において画像処理を行う場合や、内部撮像デバイス106から撮像の度に画像を取得する場合に、図15に示す方法を好適に用いることができる。
また、上述した実施形態では、複数画像を入力し、複数画像が取得されたタイミングで各画像の顔の位置と顔の向きを検出するようにしたが、これに限定されるものではなく、ユーザーなどが指定したタイミングで検出するようにしてもよい。
上述した実施形態では、画像処理装置としてコンピュータを例に挙げて説明したが、これに限定されるものではない。例えば、プリンタ、複写機、ファクシミリ装置、携帯電話、PDA、画像ビューワー、デジタルカメラ、などの画像処理を行う装置において、本発明を適用可能である。
また、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、プリンタ、複写機、ファクシミリ装置等)に適用しても良い。
上述した実施形態は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、一部又は全部をハードウェアによって実現するようにしてもよい。
100 CPU
101 ROM
102 RAM
103 2次記憶装置
104 表示装置
105 入力装置
106 内部撮像デバイス
107,108 IF
109 無線LAN
202 画像取得部
203 顔検出部
204 赤目検出部
205 赤目補正判定部
206 赤目補正処理部
208 赤目検出判定部

Claims (20)

  1. 顔を含む画像における顔の向きを特定する特定手段と、
    前記画像に含まれる顔における赤目領域を検出する赤目検出手段と、
    前記特定手段により特定された顔の向きに応じた補正基準に基づいて、前記赤目検出手段により検出された赤目領域を補正する補正手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記補正手段は、前記特定手段により特定された顔の向きに応じて前記赤目領域の補正をするか否かを補正基準として設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正手段は、前記特定手段により特定された顔の向きに応じた前記赤目領域の補正量を補正基準として設定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記補正手段は、前記特定手段により特定された顔の向きに応じて補正パラメータを変更することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記補正手段は、前記画像における顔の向きの横向き度が高くなるほど補正量を小さくすることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記補正手段は、前記画像における顔の向きが横向きである場合、前記赤目検出手段により検出された赤目領域を補正しないことを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 画像における顔の向きを検出する向き検出手段をさらに備え、
    前記特定手段は、前記向き検出手段により検出された結果に基づいて画像における顔の向きを特定することを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
  8. 1以上の画像を取得する取得手段をさらに備え、
    前記特定手段は、前記取得手段により画像が取得されたタイミングで各画像における顔の向きを特定することを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
  9. 顔を含む画像における顔の向きを特定する特定手段と、
    前記特定手段により特定した顔の向きに応じた検出基準に基づいて、前記画像に含まれる顔における赤目領域を検出する赤目検出手段と、
    を備えることを特徴とする画像処理装置。
  10. 前記赤目検出手段は、前記特定手段により特定された顔の向きに応じて前記赤目領域を検出するか否かを検出基準として設定することを特徴とする請求項9に記載の画像処理装置。
  11. 前記赤目検出手段は、前記特定手段により特定された顔の向きに応じた前記赤目領域の検出閾値を設定することを特徴とする請求項9又は10に記載の画像処理装置。
  12. 前記赤目検出手段は、前記特定手段により特定された顔の向きに応じて検出パラメータを変更することを特徴とする請求項9〜11のいずれか1項に記載の画像処理装置。
  13. 前記赤目検出手段は、前記画像における顔の向きの横向き度が高くなるほど検出閾値を高くすることを特徴とする請求項9〜12のいずれか1項に記載の画像処理装置。
  14. 前記赤目検出手段は、前記画像における顔の向きが横向きである場合、赤目領域を検出しないことを特徴とする請求項9〜13のいずれか1項に記載の画像処理装置。
  15. 前記赤目検出手段によって検出された赤目領域を補正する赤目補正手段をさらに備えることを特徴とする請求項9〜14のいずれか1項に記載の画像処理装置。
  16. 画像における顔の向きを検出する向き検出手段をさらに備え、
    前記特定手段は、前記向き検出手段により検出された結果に基づいて、画像における顔の向きを特定することを特徴とする請求項9〜15のいずれか1項に記載の画像処理装置。
  17. 1以上の画像を取得する取得手段をさらに備え、
    前記特定手段は、前記取得手段により画像が取得されたタイミングで各画像における顔の向きを特定することを特徴とする請求項9〜16のいずれか1項に記載の画像処理装置。
  18. 顔を含む画像における顔の向きを特定し、
    前記画像に含まれる顔における赤目領域を検出し、
    特定された顔の向きに応じた補正基準に基づいて、検出された赤目領域を補正することを特徴とする画像処理装置。
  19. 顔を含む画像における顔の向きを特定し、
    顔の向きに応じた検出基準に基づいて、前記画像に含まれる顔における赤目領域を検出することを特徴とする画像処理装置。
  20. 請求項18又は19に記載の画像処理方法をコンピュータにより実行することを特徴とするプログラム。
JP2013137053A 2013-06-28 2013-06-28 画像処理装置、画像処理方法、及びプログラム Active JP6188453B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013137053A JP6188453B2 (ja) 2013-06-28 2013-06-28 画像処理装置、画像処理方法、及びプログラム
US14/313,833 US9460347B2 (en) 2013-06-28 2014-06-24 Image processing apparatus and method for processing image for detecting an image area including a defective color tone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013137053A JP6188453B2 (ja) 2013-06-28 2013-06-28 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2015011556A true JP2015011556A (ja) 2015-01-19
JP2015011556A5 JP2015011556A5 (ja) 2016-08-12
JP6188453B2 JP6188453B2 (ja) 2017-08-30

Family

ID=52115640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013137053A Active JP6188453B2 (ja) 2013-06-28 2013-06-28 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9460347B2 (ja)
JP (1) JP6188453B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267512A (ja) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd 特定領域検出方法、特定領域検出装置、およびプログラム
JP2005286830A (ja) * 2004-03-30 2005-10-13 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置、およびプログラム
JP2007094633A (ja) * 2005-09-28 2007-04-12 Fujifilm Corp 顔検出装置ならびにプログラム
JP2007281798A (ja) * 2006-04-05 2007-10-25 Fujifilm Corp 赤目補正装置、赤目補正方法、および赤目補正プログラム
JP2009237616A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 画像における顔領域の検出
JP2011221839A (ja) * 2010-04-12 2011-11-04 Seiko Epson Corp 情報処理装置、および、プログラム
JP2013029996A (ja) * 2011-07-28 2013-02-07 Renesas Electronics Corp 画像処理装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6292574B1 (en) 1997-08-29 2001-09-18 Eastman Kodak Company Computer program product for redeye detection
US6151403A (en) 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US6252976B1 (en) 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US6278491B1 (en) * 1998-01-29 2001-08-21 Hewlett-Packard Company Apparatus and a method for automatically detecting and reducing red-eye in a digital image
US7289664B2 (en) * 2002-01-17 2007-10-30 Fujifilm Corporation Method of detecting and correcting the red eye
JP2007305030A (ja) * 2006-05-15 2007-11-22 Fujifilm Corp 赤目処理方法および装置ならびにプログラム
US7995804B2 (en) * 2007-03-05 2011-08-09 Tessera Technologies Ireland Limited Red eye false positive filtering using face location and orientation
JP5517504B2 (ja) 2009-06-29 2014-06-11 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP4850961B2 (ja) 2010-07-09 2012-01-11 キヤノン株式会社 画像処理装置およびその方法
US9298995B2 (en) * 2011-07-11 2016-03-29 Toyota Jidosha Kabushiki Kaisha Red-eye determination device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267512A (ja) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd 特定領域検出方法、特定領域検出装置、およびプログラム
JP2005286830A (ja) * 2004-03-30 2005-10-13 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置、およびプログラム
JP2007094633A (ja) * 2005-09-28 2007-04-12 Fujifilm Corp 顔検出装置ならびにプログラム
JP2007281798A (ja) * 2006-04-05 2007-10-25 Fujifilm Corp 赤目補正装置、赤目補正方法、および赤目補正プログラム
JP2009237616A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 画像における顔領域の検出
JP2011221839A (ja) * 2010-04-12 2011-11-04 Seiko Epson Corp 情報処理装置、および、プログラム
JP2013029996A (ja) * 2011-07-28 2013-02-07 Renesas Electronics Corp 画像処理装置

Also Published As

Publication number Publication date
US9460347B2 (en) 2016-10-04
US20150003679A1 (en) 2015-01-01
JP6188453B2 (ja) 2017-08-30

Similar Documents

Publication Publication Date Title
US11694456B2 (en) Object detection and image cropping using a multi-detector approach
US11457138B2 (en) Method and device for image processing, method for training object detection model
US7724950B2 (en) Image processing apparatus, image processing method, computer program, and storage medium
US7826659B2 (en) Image processing apparatus and method, computer program, and storage medium dividing an input image into band images
US8175341B2 (en) Image processing method and apparatus thereof
US20020136450A1 (en) Red-eye detection based on red region detection with eye confirmation
JP2002342756A (ja) デジタル画像において目と口の位置を検出する方法
CN101983507A (zh) 自动红眼检测
JP2001169080A (ja) カラー画像処理方法、カラー画像処理装置、及びそのための記録媒体
US20190191078A1 (en) Information processing apparatus, a non-transitory computer readable storage medium and information processing method
US20150003681A1 (en) Image processing apparatus and image processing method
JP2013025650A (ja) 画像処理装置、画像処理方法およびプログラム
CN112396050B (zh) 图像的处理方法、设备以及存储介质
KR20160115663A (ko) 화상 처리 장치 및 화상 처리 방법
JP4251635B2 (ja) 画像処理装置及び方法
JP2004005384A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
CN108965646A (zh) 图像处理装置、图像处理方法和存储介质
US11941498B2 (en) Facial motion detection and image correction method and apparatus
US10373329B2 (en) Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing
JP6188453B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
US20080199073A1 (en) Red eye detection in digital images
JP2009289230A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
JP2013029996A (ja) 画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170801

R151 Written notification of patent or utility model registration

Ref document number: 6188453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151