JPWO2008013050A1 - 画像処理方法、画像処理プログラム、および画像処理装置 - Google Patents

画像処理方法、画像処理プログラム、および画像処理装置 Download PDF

Info

Publication number
JPWO2008013050A1
JPWO2008013050A1 JP2008526722A JP2008526722A JPWO2008013050A1 JP WO2008013050 A1 JPWO2008013050 A1 JP WO2008013050A1 JP 2008526722 A JP2008526722 A JP 2008526722A JP 2008526722 A JP2008526722 A JP 2008526722A JP WO2008013050 A1 JPWO2008013050 A1 JP WO2008013050A1
Authority
JP
Japan
Prior art keywords
color
color difference
image
determination target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008526722A
Other languages
English (en)
Other versions
JP4692632B2 (ja
Inventor
暁彦 宇津木
暁彦 宇津木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008526722A priority Critical patent/JP4692632B2/ja
Publication of JPWO2008013050A1 publication Critical patent/JPWO2008013050A1/ja
Application granted granted Critical
Publication of JP4692632B2 publication Critical patent/JP4692632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

入力画像情報に基づいて色差画像情報を生成し、色差画像情報で構成される被判定画像内において、対象物を判定するための判定対象領域を設定し、判定対象領域および判定対象領域の周囲に設定した複数の周辺領域のそれぞれの前記色差画像情報に基づいて、各領域の色差平均値を算出し、判定対象領域における色差平均値が示す色情報が、対象物に関してあらかじめ定められた特徴色の情報であるかを評価し、判定対象領域における色差平均値と周辺領域の色差平均値との差分に基づいて、判定対象領域と周辺領域とが分離された領域であるかを評価し、特徴色の情報であるか否かの評価結果および分離された領域であるか否かの評価結果に基づいて、判定対象領域が対象物を含むか否かを判定する。

Description

本発明は、画像処理方法、画像処理プログラム、および画像処理装置に関する。
次のような画像処理方法が知られている。この画像処理方法では、撮影された画像の中から人物の顔を検出するために、肌色を有する画像領域を顔候補領域として検出し、検出された顔候補領域に対して顔判定処理を行う(特許文献1参照)。
特開2000−48184号公報
しかしながら、従来の方法においては、被写体を照明する光の色温度が低い場合や背景に木製の壁などがある場合には、画像の大半が肌色領域として検出されてしまい、人物の顔を含まない画像領域も顔候補領域として誤検出してしまう可能性があった。
本発明の第1の態様によると、画像処理方法は、入力画像情報に基づいて色差画像情報を生成し、色差画像情報で構成される被判定画像内において、対象物を判定するための判定対象領域を設定し、判定対象領域および判定対象領域の周囲に設定した複数の周辺領域のそれぞれの色差画像情報に基づいて、各領域の色差平均値を算出し、判定対象領域における色差平均値が示す色情報が、対象物に関してあらかじめ定められた特徴色の情報であるかを評価し、判定対象領域における色差平均値と周辺領域の色差平均値との差分に基づいて、判定対象領域と周辺領域とが分離された領域であるかを評価し、特徴色の情報であるか否かの評価結果および分離された領域であるか否かの評価結果に基づいて、判定対象領域が対象物を含むか否かを判定する。
本発明の第2の態様によると、第1の態様の画像処理方法において、対象物は人物の顔であることが好ましい。
本発明の第3の態様によると、第2の態様の画像処理方法において、対象物の特徴色の情報は、前記人物の顔の肌色であることが好ましい。
本発明の第4の態様によると、第1〜第3のいずれかの態様の画像処理方法において、判定対象領域における色差画像情報に基づいて、当該領域における色差の分散を評価し、特徴色の情報であるか否かの評価結果、分離された領域であるか否かの評価結果、および色差の分散の評価結果に基づいて、判定対象領域が対象物を含か否かを判定することが好ましい。
本発明の第5の態様によると、第1〜第4のいずれかの態様の画像処理方法において、色差画像情報を積分して積分画像情報を生成し、積分画像情報に基づいて色差平均値を算出することが好ましい。
本発明の第6の態様によると、第1〜第5のいずれかの態様の画像処理方法において、被判定画像内において、対象物の特徴色の情報に対応する色情報を有する領域の割合を算出し、算出された領域の割合が大きいほど、分離された領域であるか否かの評価結果を重視して判定を行うことが好ましい。
本発明の第7の態様によると、第1〜第6のいずれかの態様の画像処理方法において、あらかじめ取得した特徴色のサンプルの色差値のばらつきを最小にする第1の色空間座標軸、および第1の色空間座標軸に対して直交する第2の色空間座標軸のそれぞれに対して、判定対象領域における色差平均値を射影し、それぞれの射影値を変換して得られた評価値に基づいて、判定対象領域における色差平均値が示す色情報が対象物の特徴色の情報であるかを評価することが好ましい。
本発明の第8の態様によると、第1〜第7のいずれかの態様の画像処理方法において、入力画像に基づいて第1の色差画素値を生成し、あらかじめ取得した特徴色のサンプルの色差値のばらつきを最小にする第1の色空間座標軸、および第1の色空間座標軸に対して直交する第2の色空間座標軸のそれぞれに対して、第1の色差画素値を射影した値を第2の色差画素値として算出し、
第2の色差画像値で構成される色差画像情報に対して判定対象領域を設定することが好ましい。
本発明の第9の態様によると、画像処理プログラムは、第1〜第8のいずれかの態様の画像処理方法における処理をコンピュータに実行させる。
本発明の第10の態様によると、画像処理装置は、画像を入力する画像入力部と、第9の態様の画像処理プログラムを実行して、画像入力部から入力された入力画像に対して画像処理を実行する実行部とを備える。
本発明の第11の態様によると、第10の態様の画像処理装置において、実行部は、入力画像情報に基づいて色差画像情報を生成する色差画像情報生成部と、色差画像情報で構成される被判定画像内において、対象物を判定するための判定対象領域を設定する判定対象領域設定部と、判定対象領域および判定対象領域の周囲に設定した複数の周辺領域のそれぞれの色差画像情報に基づいて、各領域の色差平均値を算出する色差平均値算出部と、判定対象領域における色差平均値が示す色情報が、対象物に関してあらかじめ定められた特徴色の情報であるかを評価する特徴色評価部と、判定対象領域における色差平均値と周辺領域の前記色差平均値との差分に基づいて、判定対象領域と周辺領域とが分離された領域であるかを評価する分離領域評価部と、特徴色の情報であるか否かの評価結果および分離された領域であるか否かの評価結果に基づいて、判定対象領域が対象物を含むか否かを判定する判定部とを含むことが好ましい。
本発明の第12の態様によると、カメラは、被写体像を撮像して画像情報を取得する画像取得部と、第10または第11の態様の画像処理装置とを備え、画像入力部は、画像取得部で取得した画像情報を入力する。
本発明によれば、判定対象領域が対象物を含む領域であるか否かを精度高く判定することができる。
画像処理装置の一実施の形態の構成を示すブロック図。 制御装置103が有する各部によって実行される処理の流れを示す図。 第1の実施の形態における顔候補判定処理の流れを示す図。 顔候補判定対象領域および周辺領域の設定例を示す図。 肌色評価値Esを算出する際に用いるパラメータの設定方法を示す図。 第2の実施の形態における顔候補判定処理の流れを示す図。 第3の実施の形態における顔候補判定処理の流れを示す図。 プログラムをパーソナルコンピュータに提供する様子を示す図。
―第1の実施の形態―
図1は、第1の実施の形態における画像処理装置の一実施の形態の構成を示すブロック図である。画像処理装置100は、例えばパソコンであり、入力装置101と、外部インターフェース102と、制御装置103と、HDD(ハードディスクドライブ)104と、モニタ105とを備えている。
入力装置101は、キーボードやマウスなど、使用者によって操作される種々の入力部材を含んでいる。外部インターフェース102は、後述する画像処理対象の画像をデジタルカメラなどの外部機器から取り込むためのインターフェースであり、例えばUSBインターフェースや無線LANインターフェースが用いられる。制御装置103は、CPU、メモリ、およびその他の周辺回路で構成され、後述する色空間変換部103aと、色差画像縮小部103bと、輝度画像縮小部103cと、色差画像顔候補検出部103dと、顔判定部103eとを有している。
HDD104は、外部インターフェース102を介して取り込んだ画像データや画像処理部103aによって実行される画像処理プログラムなど種々のデータが記録される。モニタ105は、画像処理装置100を操作するための操作画面やHDD104に記録されている画像などを表示する。なお、HDD104へのデータの記録、およびモニタ105への表示は、制御装置103によって制御される。
次に、制御装置103が有する103a〜103eの各部による処理について説明する。これらの各部による処理によって、HDD104に記憶されている任意の画像や外部インターフェース102を介して取り込まれた画像内における人物の顔が含まれる領域を特定する。このとき、従来行われていたように、画像内から肌色の領域を顔候補領域として検出する場合には、人物の顔の背景が木製の壁である場合など、背景の色が肌色に類似する場合には、人物の顔と背景とを正確に分離することができず、画像内から正確に顔候補領域を検出することが困難であった。また、画像撮影時のホワイトバランスが適正でない場合には、画像内の人物の顔が肌色とは異なる可能性があり、この場合にも画像内から正確に顔候補領域を検出することが困難であった。
そこで本実施の形態では、従来の肌色による顔候補検出方法では検出することが困難であった顔候補領域を精度高く検出する方法について説明する。以下、図2を用いて103a〜103eの各部による処理について説明する。
制御装置103がHDD104や外部インターフェース102から処理対象の画像データを読み込むことによって、色空間変換部103aに画像が入力される。色空間変換部103aは、入力された画像(入力画像)を色変換して色差画像と輝度画像とを生成する。なお、ここでは色空間変換部103aは、入力画像をLab表色系に変換して色差画像と輝度画像とを生成する例について説明するが、これに限定されず、その他YCbCrなどの表色系に変換してもよい。色空間変換部103aによって生成された色差画像は色差画像縮小部103bへ出力され、輝度画像は輝度画像縮小部103cへ出力される。
輝度画像縮小部103cは、入力された輝度画像をそれぞれ縮小倍率を異にして、複数の縮小輝度画像を生成する。例えば、0〜31までの整数nに対して縮小倍率kを次式(1)で与え、異なる縮小倍率で縮小した32通りの縮小倍率kで縮小された縮小輝度画像を生成する。
k=0.9 ・・・(1)
なお、縮小方法としては、例えば公知のCubic変倍や線形変倍を用いればよい。このようにして異なる縮小倍率で縮小された複数の縮小輝度画像は、顔判定部103eへ出力される。
色差画像縮小部103bは、入力された色差画像をそれぞれ縮小倍率を異にして、複数の縮小色差画像を生成する。縮小倍率kは、輝度画像縮小部103cによる処理の場合と同一とし、式(1)によって32通りの縮小倍率kで縮小された縮小色差画像を生成する。なお、縮小方法は、輝度画像縮小部103cによる処理よりも簡易な方法でよく、例えばニアレストネイバー法を用いればよい。このようにして異なる縮小倍率で縮小された複数の縮小色差画像は、色差画像顔候補検出部103dへ出力される。
色差画像顔候補検出部103dは、色差画像縮小部103bから入力された複数の縮小色差画像のそれぞれに対して、後述する顔候補判定処理を実行して、各縮小色差画像内で人物の顔を含んでいる可能性が高い領域を顔候補領域として抽出する。その結果、複数の縮小色差画像のうち、少なくとも1つの縮小色差画像から顔候補領域が抽出された場合には、その縮小色差画像の縮小倍率kと、その縮小倍率kで縮小された縮小色差画像内における顔候補領域の座標値(X´,Y´)との対を顔判定部103eへ出力する。なお、抽出される顔候補領域の大きさは、後述するように19×19画素であるものとする。
顔判定部103eは、色差画像顔候補検出部103bから入力された縮小倍率kと同じ縮小倍率kで輝度画像縮小部103cによって生成された縮小輝度画像を読み込む。そして、色差画像顔候補検出部103bから入力された座標値(X´,Y´)に基づいて、顔候補領域から最終的に顔画像であるか否かを特定する。顔判定部103eは、公知の顔判定処理を行って、顔候補領域内に人物の顔が含まれているか否かを判定する。なお、顔判定処理としては、例えばニューラルネットワーク、SVM、またはAdaBoostなどの公知の方法を用いればよく、縮小輝度画像内の19×19画素の大きさの顔候補領域に対してこれらの方法で顔判定処理を行えばよい。この顔判定部103eによる処理をさらに行うことで、色差画像顔候補検出部103dで抽出された顔候補領域を再評価し、高い精度で人物の顔が含まれる領域を特定することができる。
顔判定部103eは、縮小輝度画像内の顔候補領域内に人物の顔が含まれると判定した場合には、縮小画像に対する人物の顔の大きさ、すなわち顔候補領域のサイズS´=19、縮小画像内における顔候補領域の座標値(X´,Y´)、および縮小倍率kに基づいて、処理対象の画像(入力画像)に対する人物の顔の大きさS、および入力画像における顔候補領域の座標値(X,Y)を算出する。具体的には、次式(2)〜(4)により算出する。
S=S´/k ・・・(2)
X=X´/k ・・・(3)
Y=Y´/k ・・・(4)
これによって、入力画像内における人物の顔が含まれる領域を特定することができる。
次に、色差画像顔候補検出部103dによって実行される顔候補判定処理について、図3を用いて説明する。色差画像顔候補検出部103dは、顔候補判定対象領域設定部3a、色差平均値算出部3b、肌色評価部3c、分離評価部3d、および顔候補判定部3eの各部の工程に分割することができ、ここでは、これら各部ごとに処理の内容を説明する。
色差画像縮小部103bから出力された複数の縮小色差画像は、顔候補判定対象領域設定部3aへ入力される。顔候補判定対象領域設定部3aは、各縮小色差画像のそれぞれに対して顔候補判定対象領域を設定する。顔候補判定対象領域は、縮小色差画像上の様々な位置に設定され、例えば、隣接する顔候補判定対象領域の間隔が2画素程度となるように格子点上に設定される。また、各顔候補判定対象領域の大きさは、上述したように19×19画素程度とする。
顔候補判定対象領域設定部3aは、さらに、設定した顔候補判定対象領域の上下左右に周辺領域を設定する。周辺領域を設定した場合の具体例を図4に示す。この図4に示すように、顔候補判定対象領域4aの右側に周辺領域4b、下側に周辺領域4c、左側に周辺領域4d、上側に周辺領域4eをそれぞれ設定する。ここで、各周辺領域の大きさは、周辺領域4bおよび4dは横6画素×縦19画素とし、周辺領域4cおよび4eは横19画素×縦6画素とする。
色差平均値算出部3bは、設定した各顔候補判定対象領域内の色差の平均値(a*,b*)、周辺領域4b内の色差の平均値(a*,b*)、周辺領域4c内の色差の平均値(a*,b*)、周辺領域4d内の色差の平均値(a*,b*)、および周辺領域4e内の色差の平均値(a*,b*)をそれぞれ算出する。なお、顔候補判定処理の前処理として、色差画像の積分画像を作成しておくことにより、色差平均値の算出を高速に行えるようになる。
すなわち、色差画像C(x,y)の積分画像I(x,y)は、次式(5)で定義される。
Figure 2008013050
そして、4点(x,y)、(x+w,y)、(x,y+h)、(x+w,y+h)を頂点とする長方形領域内で色差画像C(x,y)を積分したCsumは、次式(6)により算出される。
Figure 2008013050
つまり、4点の画素値の加減算を行うだけで積分が求まるので、高速な演算が可能となる。そして、長方形領域の積算値Csumをその領域の画素数で割ると平均値が求まる。
肌色評価部3cは、顔候補判定対象領域4b内の色差の平均値(a*,b*)を次式(7)および(8)に代入し、さらに次式(9)によって肌色評価値Esを算出する。この肌色評価値Esは、顔候補判定対象領域4b内の色差の平均値(a*,b*)がどれくらい肌色に近いかを示す指標であり、その値が大きいほど色差の平均値(a*,b*)がより肌色に近いことを示す。
Figure 2008013050
Figure 2008013050
Figure 2008013050
ここで、σ、σ、a、b、exa、exb、eya、eybの各パラメータは、次のようにして算出する。まず、顔画像のサンプルをたくさん集め、各画像の顔領域の色差の平均値(a,b)を算出する。この(a,b)の分布を図示すると、例えば図5の斜線で示す領域5aのようになる。そして、この(a,b)の平均を(a,b)として算出する。また、(a,b)のばらつきが最小となる方向にCy軸を設定し、それに直交する方向にCx軸を設定する。そして、Cx軸方向とCy軸方向の単位ベクトルをそれぞれ、(exa,exb)、(eya,eyb)とする。
さらに、各画像の顔領域の色差平均値(a,b)をCx軸方向とCy軸方向に射影した値の標準偏差をそれぞれ求め、その標準偏差を3割程度増加させた値をσおよびσとして算出する。これによって、例えば、σ=16、σ=8、a=12、b=20、(exa,exb)=(0.48,0.87)、(eya,eyb)=(−0.87,0.49)が設定される。なお、図5を用いて各パラメータを算出する代わりに主成分分析などのその他の手法を用いてもよい。
分離評価部3dは、顔候補判定対象領域4aの色差の平均値(a*,b*)、および周辺領域4b〜4eのそれぞれの色差の平均値(a*,b*)〜(a*,b*)に基づいて、分離評価値Edを次式(10)〜(14)により算出する。なお、分離評価値Edは、顔候補判定対象領域4aと周辺領域4b〜4eのそれぞれとの色差の平均値の差がどの程度であるかを示す指標であり、その値が大きいほど顔候補判定対象領域4aと周辺領域4b〜4eのそれぞれとの色差の平均値の差が大きいことを示す。
Figure 2008013050
Figure 2008013050
Figure 2008013050
Figure 2008013050
Figure 2008013050
ここで、式(11)〜(14)において、σは、例えば5程度に設定すればよい。
顔候補判定部3eは、肌色評価値Esと分離評価値Edとに基づいて、顔候補判定対象領域4aが人物の顔を含む領域、すなわち顔候補であるか否かを判定する。顔候補判定部3eは、例えば肌色評価値Esと分離評価値Edが次式(15)を満たすときに顔候補判定対象領域が顔候補であると判定し、その顔候補判定対象領域を顔候補領域として検出する。なお、次式(15)において、thは例えば0.6程度とする。
0.5×Ed+0.5×Es>th ・・・(15)
これにより、画像撮影時のホワイトバランスが適正でない場合や背景が肌色に類似する色である場合など、従来の手法では画像内から正確に顔候補領域を検出することができなかった場合でも、顔候補領域を正確に検出することができる。式(15)による具体的な判定例を以下の(A)〜(E)に示す。
(A)顔候補判定対象領域が人物の顔画像上に設定され、ホワイトバランスが適正かつ背景が肌色ではない場合
この場合には、肌色評価値Esも分離評価値Edも大きな値となり、式(15)によって当該顔候補判定対象領域は顔候補と判定される。
(B)顔候補判定対象領域が人物の顔画像上に設定され、ホワイトバランスが適正だが、背景が肌色に類似する場合
この場合には、肌色評価値Esは大きな値になる。また、背景が肌色に類似していても顔候補判定対象領域と全く同じ色ではない。このため、分離評価値Edはある程度大きな値となる。よって、式(15)によって当該顔候補判定対象領域は顔候補と判定される。
(C)顔候補判定対象領域が人物の顔画像上に設定され、背景が肌色ではないが、ホワイトバランスが不適切である場合
この場合には、肌色評価値Esが小さい値となる可能性がある。しかし、分離評価部Edは大きな値となり、式(15)によって当該顔候補判定対象領域は顔候補と判定される。
(D)顔候補判定対象領域が肌色に類似する壁面上に設定されている場合
この場合には、肌色評価値Esは大きな値となるが、分離評価値Edはほぼ0に近い値になるため、式(15)によって当該顔候補判定対象領域は顔候補ではないと判定される。
(E)顔候補判定対象領域が肌色ではない物体上に設定されている場合
この場合には、肌色評価値Esはほぼ0に近い値になり、仮に分離評価値が大きな値になっても式(15)によって当該顔候補判定対象領域は顔候補ではないと判定される。
顔候補判定部3eは、顔候補領域を検出した場合には、上述したように、顔候補領域を検出した縮小色差画像の縮小倍率kと、その縮小倍率kで縮小された縮小色差画像内における顔候補領域の座標値(X´,Y´)との対を顔判定部103eへ出力する。
以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)肌色評価値Esと分離評価値Edを算出し、これらの評価値に基づいて顔候補判定対象領域が顔候補であるか否かを判定するようにした。これによって、顔候補判定対象領域内の肌色らしさと周辺領域との色差の差とに基づいて、周知の顔検出方法では見分け難かった画像から人物の顔を含む顔候補領域を検出することができる。
(2)すなわち、画像撮影時のホワイトバランスが適正でない場合や背景が肌色である場合など、従来の手法によれば画像内から正確に顔候補領域を検出することができなかった場合でも、本実施の形態における発明によれば、顔候補領域を正確に検出することができる。
(3)肌色評価値Esと分離評価値Edとを算出し、これらの評価値が式(15)を満たすか否かによって顔候補判定対象領域が顔候補であるか否かを判定するようにしたので、簡易な構成で顔候補領域を検出することができ、回路規模や処理時間を節約することができる。
―第2の実施の形態―
上述した第1の実施の形態では、色差画像顔候補検出部103dは、縮小色差画像上に設定した顔候補判定対象領域4aに対して肌色評価値Esおよび分離評価値Edを算出し、これらの評価値に基づいて顔候補領域を検出する場合について説明した。この場合、例えば顔候補判定対象領域4a内に赤い花と緑の葉があるような場合には、顔候補判定対象領域4aの色差平均が肌色に等しくなり、顔候補判定対象領域4a内に人物の顔が含まれていないにも関わらず、当該顔候補判定対象領域4aを顔候補領域として誤検出してしまう可能性がある。
そこで、第2の実施の形態では、色差画像顔候補検出部103dは、肌色評価値Esと分離評価値Edとに加えて、さらに顔候補判定対象領域4aの色差の分散を加味して縮小色差画像から顔候補領域を検出する。なお、図1に示したブロック図、図2に示したフロー図、図4に示した顔候補判定対象領域および周辺領域の設定例を示す図、および図5に示した肌色評価値Esを算出する際に用いるパラメータの設定方法を示す図については、第1の実施の形態と同様のため説明を省略する。
図6は、第2の実施の形態における色差画像顔候補検出部103dによって実行される顔候補判定処理の流れを示す図である。第2の実施の形態では、色差画像顔候補検出部103dは、顔候補判定対象領域設定部3a、色差平均値算出部3b、肌色評価部3c、分離評価部3d、顔候補判定部3e、色差分散値算出部6a、および分散評価部6bの各部の工程に分割することができる。なお、顔候補判定対象領域設定部3a、色差平均値算出部3b、肌色評価部3c、分離評価部3dの各部における処理については、第1の実施の形態と同じため説明を省略する。
色差分散値算出部6aは、顔候補判定対象領域4aにおける色差の分散(色差分散値)を算出する。そして、算出した色差分散値をそれぞれσ 、σ として、次式(16)により分散評価値Ebを算出する。この分散評価値Ebは、顔候補判定対象領域4a内の色差分散値の大きさを評価するための指標であり、その値が大きいほど顔候補判定対象領域4a内の色差分散値が小さいことを示す。
Figure 2008013050
ここで、Dの値は例えば10とする。
なお、顔候補判定処理の前処理として、色差画像の積分画像と色差画像の画素値の二乗の積分画像を作成しておくことにより、色差分散値の算出を高速に行うことができる。
顔候補判定部3eは、肌色評価値Es、分離評価値Ed、および分散評価値Ebに基づいて、顔候補判定対象領域が人物の顔を含む領域、すなわち顔候補であるか否かを判定する。顔候補判定部3eは、例えば肌色評価値Es、分離評価値Ed、および分散評価値Ebが次式(17)を満たすときに顔候補判定対象領域が顔候補であると判定し、その顔候補判定対象領域を顔候補領域として検出する。なお、次式(17)において、thは例えば0.6程度とする。
0.4×Ed+0.4×Es+0.2×Eb>th ・・・(17)
このように、肌色評価値Es、分離評価値Edだけでなく分散評価値Ebも加味して顔候補を判定することによって、顔候補判定対象領域4a内に人物の顔が含まれていないにも関わらず顔候補判定対象領域4aの色差平均が肌色に等しくなる場合でも、分散評価値Ebは小さな値となることから、式(17)によって、このような顔候補判定対象領域4aは顔候補ではないと判定することができる。
顔候補判定部3eは、顔候補領域を検出した場合には、上述したように、顔候補領域を検出した縮小色差画像の縮小倍率kと、その縮小倍率kで縮小された縮小色差画像内における顔候補領域の座標値(X´,Y´)との対を顔判定部103eへ出力する。
以上説明した第2の実施の形態によれば、第1の実施の形態における作用効果に加えて、以下のような効果を得ることができる。すなわち、肌色評価値Es、分離評価値Edに加えて分散評価値Ebも加味して顔候補領域を検出するようにしたため、顔候補判定対象領域4a内に人物の顔が含まれていないにも関わらず顔候補判定対象領域4aの色差平均が肌色に等しくなる場合には、当該顔候補判定対象領域4aは顔候補ではないと判定することができ、さらに精度高く顔候補領域を検出することができる。
―第3の実施の形態―
第1および第2の実施の形態で上述した肌色評価値Esは、被写体を照明する光の色温度が低い場合や背景に木製の壁などがある場合など、画像の大半が肌色領域として検出されるような場合には、その信頼度が低くなる可能性がある。よって、第3の実施の形態では、このような場合に分離評価値Edを肌色評価値Esよりも重視して顔候補を判定するようにして、顔候補の判定精度を向上させる。
なお、図1に示したブロック図、図2に示したフロー図、図4に示した顔候補判定対象領域および周辺領域の設定例を示す図、および図5に示した肌色評価値Esを算出する際に用いるパラメータの設定方法を示す図については、第1の実施の形態と同様のため説明を省略する。
図7は、第3の実施の形態における色差画像顔候補検出部103dによって実行される顔候補判定処理の流れを示す図である。第2の実施の形態では、色差画像顔候補検出部103dは、係数算出部7a、顔候補判定対象領域設定部3a、色差平均値算出部3b、肌色評価部3c、分離評価部3d、および顔候補判定部3eの各部の工程に分割することができる。なお、顔候補判定対象領域設定部3a、色差平均値算出部3b、肌色評価部3c、分離評価部3dの各部における処理については、第1および第2の実施の形態と同じため説明を省略する。
係数算出部7aは、縮小色差画像内における肌色に類似する色の割合を求め、その算出結果に応じて分離評価値Edの重視度を示す係数kを算出する。具体的には、まず、縮小色差画像を数百個程度の複数画素からなるブロックに分割し、それぞれのブロックで色差の平均値を求める。そして、色差の平均値が肌色に類似するブロックをカウントし、縮小色差画像内の全ブロックに対する肌色に類似するブロックの割合pを算出する。
ここで、各ブロックが肌色に類似するか否かは、例えば、各ブロックの色差平均値を式(7)〜(9)に代入して肌色評価値Esを算出し、肌色評価値Esが0.4以上のブロックを肌色に類似するブロックと判定する。また、異なる縮小倍率で縮小された縮小色差画像のうち、いずれか1枚について肌色に類似するブロックの割合pを算出し、その他の縮小色差画像にも同じ値を適用するようにしてもよい。係数算出部7aは、このようにして算出したpを用いて、次式(18)により、分離評価値Edの重視度を示す係数kを算出する。
k=0.5+p/2 ・・・(18)
顔候補判定部3eは、肌色評価値Es、分離評価値Ed、および分離評価値Edの重視度を示す係数kに基づいて、顔候補判定対象領域が顔候補であるか否かを判定する。顔候補判定部3eは、例えば肌色評価値Es、分離評価値Ed、および分離評価値Edの重視度を示す係数kが次式(19)を満たすときに顔候補判定対象領域が顔候補であると判定し、その顔候補判定対象領域を顔候補領域として検出する。なお、次式(19)において、thは例えば0.6程度とする。
k×Ed+(1−k)×Es>th ・・・(19)
このように、分離評価値Edの重視度を示す係数kを用いて肌色評価値Esおよび分離評価値Edを重み付けして顔候補を判定することによって、被写体を照明する光の色温度が低い場合や背景に木製の壁などがある場合など、画像の大半が肌色領域として検出されるような場合でも、顔候補の判定精度を向上させることができる。
顔候補判定部3eは、顔候補領域を検出した場合には、上述したように、顔候補領域を検出した縮小色差画像の縮小倍率kと、その縮小倍率kで縮小された縮小色差画像内における顔候補領域の座標値(X´,Y´)との対を顔判定部103eへ出力する。
以上説明した第3の実施の形態によれば、分離評価値Edの重視度を示す係数kを用いて肌色評価値Esおよび分離評価値Edを重み付けして顔候補を判定するようにした。これによって、第1および第2の実施の形態の作用効果に加えて、画像の広い範囲が肌色に類似するような場合には、分離評価値Edを肌色評価値Esよりも重視して顔候補を判定することができ、顔候補判定処理の精度をさらに向上することができるという効果を得ることができる。
―第4の実施の形態―
第1〜第3の実施の形態では、色空間変換部103aは、入力された画像を色変換して色差画像と輝度画像とを生成し、それぞれの画像を色差画像縮小部103bと輝度画像縮小部103cへ出力する例について説明した。これに対して第4の実施の形態では、色空間変換部103aは、入力された画像を色変換して色差画像と輝度画像とを生成した後、色差画像については、さらに色差画像顔候補検出部103dによる肌色評価に適した色空間に変換してから色差画像縮小部103bへ出力する例について説明する。
なお、図1に示したブロック図、図2に示したフロー図、図3に示した顔候補判定処理の流れを示すフロー図、図4に示した顔候補判定対象領域および周辺領域の設定例を示す図、および図5に示した肌色評価値Esを算出する際に用いるパラメータの設定方法を示す図については、第1の実施の形態と同様のため説明を省略する。また、図2において、色空間変換部103aおよび色差画像顔候補検出部103d以外の各部による処理は、第1〜第3の実施の形態と同じため説明を省略し、相違点を中心に説明する。
色空間変換部103aは、入力画像の画素値をLab表色系に変換した後、画素ごとの色差(a,b)を次式(20)および(21)に代入してさらに変換し、第二の色差(Cx,Cy)を生成する。
Figure 2008013050
Figure 2008013050
そして、色空間変換部103aは、算出した第二の色差(Cx,Cy)を画素値とする色差画像を色差画像縮小部103bへ出力する。
色差画像顔候補検出部103dによって実行される顔候補判定処理を図3を用いて説明する。なお、第4の実施の形態では、色差画像顔候補検出部103dが有する顔候補判定対象領域設定部3a、および顔候補判定部3eにおける処理については、第1の実施の形態と同じため説明を省略する。
色差平均値算出部3bは、顔候補判定対象領域4aの第二の色差の平均値(Cx*,Cy*)、周辺領域4b内の第二の色差の平均値(Cx*,Cy*)、周辺領域4c内の第二の色差の平均値(Cx*,Cy*)、周辺領域4d内の第二の色差の平均値(Cx*,Cy*)、および周辺領域4e内の第二の色差の平均値(Cx*,Cy*)をそれぞれ算出する。
肌色評価部3cは、顔候補判定対象領域4aの第二の色差の平均値(Cx*,Cy*)を次式(22)に代入して、肌色評価値Esを算出する。なお、次式(22)における各パラメータの値は第1の実施の形態と同様に設定すればよい。
Figure 2008013050
分離評価部3dは、顔候補判定対象領域4aの第二の色差の平均値(Cx*,Cy*)、および周辺領域4b〜4eのそれぞれの第二の色差の平均値(Cx*,Cy*)〜(Cx*,Cy*)に基づいて、分離評価値Edを次式(23)〜(27)により算出する。
Figure 2008013050
Figure 2008013050
Figure 2008013050
Figure 2008013050
Figure 2008013050
ここで、式(23)〜(27)において、σは、例えば5程度に設定すればよい。
以上説明した第4の実施の形態によれば、色空間変換部103aにおいて、色差画像を肌色評価に適した色空間に変換するようにしたので、色差画像顔候補検出部103dにおいて肌色評価値Esを算出する際の計算量を削減することができる。
―変形例―
なお、上述した実施の形態の画像処理装置は、以下のように変形することもできる。
(1)上述した第2、第3、および第4の実施の形態における顔候補判定処理は、それぞれ第1の実施の形態を変形した場合について説明した。しかしながら、第2、第3、および第4の実施の形態をそれぞれ組み合わせて顔候補判定処理を行うようにしてもよい。
(2)上述した第1〜第4の実施の形態では、画像処理装置100としてパソコンを用いる例について説明した。しかしこれに限定されず、画像処理装置100をデジタルカメラに搭載し、デジタルカメラで撮影した画像内から人物の顔領域を判定するようにしてもよい。
(3)上述した第1〜第4の実施の形態では、肌色評価値Esによって肌色らしさを評価し、画像内に存在する人物の顔を判定する例について説明した。すなわち、判定の対象物を人物の顔とし、その人物の顔の特徴的な色(特徴色)である肌色を肌色評価値Esによって評価する例について説明した。しかしながら、特徴的な色を有するその他の対象物を判定する場合にも本発明は適用可能である。すなわち、画像処理装置100は、入力画像に基づいて色差画像を生成する色差画像生成工程と、色差画像に対して対象物を判定するための判定対象領域を設定する領域設定工程と、判定対象領域および判定対象領域の周囲に設定した複数の周辺領域のそれぞれにおいて、各領域の色差平均値を算出する色差平均値算出工程と、判定対象領域における色差平均値が対象物に関してあらかじめ定められた特徴色であるかを評価する色評価工程と、判定対象領域における色差平均値と周辺領域の色差平均値との差分に基づいて、判定対象領域と周辺領域とが分離された領域であるかを評価する分離評価工程と、色評価工程による評価結果および分離評価工程による評価結果に基づいて、判定対象領域が対象物を含む領域であるか否かを判定する判定工程とを備えるようにし、画像内におけるその対象物の特徴色を肌色評価値Esと等価な指標を用いて評価して、画像内に存在する対象物を判定するようにしてもよい。
(4)また、パーソナルコンピュータなどに適用する場合、上述した制御に関するプログラムは、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。図8はその様子を示す図である。パーソナルコンピュータ400は、CD−ROM404を介してプログラムの提供を受ける。また、パーソナルコンピュータ400は通信回線401との接続機能を有する。コンピュータ402は上記プログラムを提供するサーバーコンピュータであり、ハードディスク403などの記録媒体にこれらのプログラムを格納する。通信回線401は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ402はハードディスク403を使用してプログラムを読み出し、通信回線401を介してプログラムをパーソナルコンピュータ400に送信する。すなわち、プログラムをデータ信号として搬送波にembodyして、通信回線401を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2006年第202313号(2006年7月25日出願)

Claims (12)

  1. 入力画像情報に基づいて色差画像情報を生成し、
    前記色差画像情報で構成される被判定画像内において、対象物を判定するための判定対象領域を設定し、
    前記判定対象領域および前記判定対象領域の周囲に設定した複数の周辺領域のそれぞれの前記色差画像情報に基づいて、各領域の色差平均値を算出し、
    前記判定対象領域における前記色差平均値が示す色情報が、前記対象物に関してあらかじめ定められた特徴色の情報であるかを評価し、
    前記判定対象領域における前記色差平均値と前記周辺領域の前記色差平均値との差分に基づいて、前記判定対象領域と前記周辺領域とが分離された領域であるかを評価し、
    前記特徴色の情報であるか否かの評価結果および前記分離された領域であるか否かの評価結果に基づいて、前記判定対象領域が前記対象物を含むか否かを判定する画像処理方法。
  2. 請求項1に記載の画像処理方法において、
    前記対象物は、人物の顔である画像処理方法。
  3. 請求項2に記載の画像処理方法において、
    前記対象物の特徴色の情報は、前記人物の顔の肌色を表す色情報である画像処理方法。
  4. 請求項1〜3のいずれか一項に記載の画像処理方法において、
    前記判定対象領域における色差画像情報に基づいて、当該領域における色差の分散を評価し、
    前記特徴色の情報であるか否かの評価結果、前記分離された領域であるか否かの評価結果、および前記色差の分散の評価結果に基づいて、前記判定対象領域が前記対象物を含むか否かを判定する画像処理方法。
  5. 請求項1〜4のいずれか一項に記載の画像処理方法において、
    前記色差画像情報を積分して積分画像情報を生成し、前記積分画像情報に基づいて前記色差平均値を算出する画像処理方法。
  6. 請求項1〜5のいずれか一項に記載の画像処理方法において、
    前記被判定画像内において、前記対象物の特徴色の情報に対応する色情報を有する領域の割合を算出し、
    算出された前記領域の割合が大きいほど、前記分離された領域であるか否かの評価結果を重視して判定を行う画像処理方法。
  7. 請求項1〜6のいずれか一項に記載の画像処理方法において、
    あらかじめ取得した前記特徴色のサンプルの色差値のばらつきを最小にする第1の色空間座標軸、および前記第1の色空間座標軸に対して直交する第2の色空間座標軸のそれぞれに対して、前記判定対象領域における前記色差平均値を射影し、それぞれの射影値を変換して得られた評価値に基づいて、前記判定対象領域における前記色差平均値が示す色情報が前記対象物の特徴色の情報であるかを評価する画像処理方法。
  8. 請求項1〜7のいずれか一項に記載の画像処理方法において、
    入力画像に基づいて第1の色差画素値を生成し、あらかじめ取得した前記特徴色のサンプルの色差値のばらつきを最小にする第1の色空間座標軸、および前記第1の色空間座標軸に対して直交する第2の色空間座標軸のそれぞれに対して、前記第1の色差画素値を射影した値を第2の色差画素値として算出し、
    前記第2の色差画像値で構成される色差画像情報に対して前記判定対象領域を設定する画像処理方法。
  9. 請求項1〜8のいずれか一項に記載の画像処理方法における処理をコンピュータに実行させるための画像処理プログラム。
  10. 画像情報を入力する画像入力部と、
    請求項9に記載の画像処理プログラムを実行して、前記画像入力部から入力された入力画像情報に対して画像処理を実行する実行部とを備える画像処理装置。
  11. 請求項10に記載の画像処理装置において、
    前記実行部は、
    前記入力画像情報に基づいて色差画像情報を生成する色差画像情報生成部と、
    前記色差画像情報で構成される被判定画像内において、対象物を判定するための判定対象領域を設定する判定対象領域設定部と、
    前記判定対象領域および前記判定対象領域の周囲に設定した複数の周辺領域のそれぞれの前記色差画像情報に基づいて、各領域の色差平均値を算出する色差平均値算出部と、
    前記判定対象領域における前記色差平均値が示す色情報が、前記対象物に関してあらかじめ定められた特徴色の情報であるかを評価する特徴色評価部と、
    前記判定対象領域における前記色差平均値と前記周辺領域の前記色差平均値との差分に基づいて、前記判定対象領域と前記周辺領域とが分離された領域であるかを評価する分離領域評価部と、
    前記特徴色の情報であるか否かの評価結果および前記分離された領域であるか否かの評価結果に基づいて、前記判定対象領域が前記対象物を含むか否かを判定する判定部とを含むことを特徴とする画像処理装置。
  12. 被写体像を撮像して画像情報を取得する画像取得部と、
    請求項10または11に記載の画像処理装置とを備えたカメラであって、
    前記画像入力部は、前記画像取得部で取得した画像情報を入力することを特徴とするカメラ。
JP2008526722A 2006-07-25 2007-07-09 画像処理方法、画像処理プログラム、および画像処理装置 Active JP4692632B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008526722A JP4692632B2 (ja) 2006-07-25 2007-07-09 画像処理方法、画像処理プログラム、および画像処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006202313 2006-07-25
JP2006202313 2006-07-25
PCT/JP2007/063670 WO2008013050A1 (fr) 2006-07-25 2007-07-09 Procédé de traitement d'image, programme de traitement d'image, et dispositif de traitement d'image
JP2008526722A JP4692632B2 (ja) 2006-07-25 2007-07-09 画像処理方法、画像処理プログラム、および画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2008013050A1 true JPWO2008013050A1 (ja) 2009-12-17
JP4692632B2 JP4692632B2 (ja) 2011-06-01

Family

ID=38981364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008526722A Active JP4692632B2 (ja) 2006-07-25 2007-07-09 画像処理方法、画像処理プログラム、および画像処理装置

Country Status (4)

Country Link
US (1) US8040389B2 (ja)
EP (1) EP2045775A4 (ja)
JP (1) JP4692632B2 (ja)
WO (1) WO2008013050A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019184597A (ja) * 2018-04-07 2019-10-24 東洋製罐グループホールディングス株式会社 色味検査装置、及び色味検査プログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010036247A1 (en) * 2008-09-24 2010-04-01 Nikon Corporation Principal components analysis based illuminant estimation
JP2010177821A (ja) * 2009-01-27 2010-08-12 Sony Corp 撮像装置及び撮像方法
JP4948591B2 (ja) * 2009-12-25 2012-06-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
GB2477116B (en) * 2010-01-22 2014-09-17 Frederick Warwick Michael Stentiford A method and apparatus of processing an image
US8315443B2 (en) * 2010-04-22 2012-11-20 Qualcomm Incorporated Viewpoint detector based on skin color area and face area
US9124800B2 (en) * 2012-02-13 2015-09-01 Htc Corporation Auto burst image capture method applied to a mobile device, method for tracking an object applied to a mobile device, and related mobile device
CN107710278A (zh) * 2015-06-18 2018-02-16 日本电气方案创新株式会社 图像处理设备,图像处理方法和计算机可读记录介质
CN105046708B (zh) * 2015-07-14 2017-11-17 福州大学 一种与主观感知相一致的颜色校正客观评估方法
WO2018066141A1 (ja) * 2016-10-07 2018-04-12 株式会社ディー・ディー・エス 情報処理プログラム及び情報処理装置
CN107564073B (zh) * 2017-09-14 2021-03-16 广州市百果园信息技术有限公司 肤色识别方法及装置、存储介质
CN107633252B (zh) * 2017-09-19 2020-04-21 广州市百果园信息技术有限公司 肤色检测方法、装置及存储介质
TWI662940B (zh) * 2018-06-01 2019-06-21 廣達電腦股份有限公司 影像擷取裝置
CN109919030B (zh) * 2019-01-31 2021-07-13 深圳和而泰数据资源与云技术有限公司 黑眼圈类型识别方法、装置、计算机设备和存储介质
CN113537248B (zh) * 2021-08-13 2024-06-07 珠海格力电器股份有限公司 图像识别方法和装置、电子设备和存储介质
CN115880097B (zh) * 2022-11-25 2023-08-22 河南省济源水文水资源勘测局 一种水资源污染的智能治理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133303A (ja) * 1992-10-21 1994-05-13 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化装置
JPH0863597A (ja) * 1994-08-22 1996-03-08 Konica Corp 顔抽出方法
JP2002049912A (ja) * 2000-08-04 2002-02-15 Nri & Ncc Co Ltd 人物画像取得システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3873089B2 (ja) 1995-06-07 2007-01-24 三星電子株式会社 互いに非同期の2つのバス間でデータ転送を同期する際の累積時間遅延を低減するもの
JP2000048184A (ja) 1998-05-29 2000-02-18 Canon Inc 画像処理方法及び顔領域抽出方法とその装置
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
US6292575B1 (en) 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6697502B2 (en) 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
GB2396504B (en) * 2002-12-20 2005-11-23 Canon Kk Image processing
US7190829B2 (en) * 2003-06-30 2007-03-13 Microsoft Corporation Speedup of face detection in digital images
JP4317465B2 (ja) * 2004-02-13 2009-08-19 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
US7426296B2 (en) * 2004-03-18 2008-09-16 Sony Corporation Human skin tone detection in YCbCr space
KR100668303B1 (ko) * 2004-08-04 2007-01-12 삼성전자주식회사 피부색 및 패턴 매칭을 이용한 얼굴 검출 방법
US7796827B2 (en) * 2004-11-30 2010-09-14 Hewlett-Packard Development Company, L.P. Face enhancement in a digital video
US20080019575A1 (en) * 2006-07-20 2008-01-24 Anthony Scalise Digital image cropping using a blended map
US7881505B2 (en) * 2006-09-29 2011-02-01 Pittsburgh Pattern Recognition, Inc. Video retrieval system for human face content
TW200930044A (en) * 2007-12-28 2009-07-01 Altek Corp False color depressing method for digital images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133303A (ja) * 1992-10-21 1994-05-13 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化装置
JPH0863597A (ja) * 1994-08-22 1996-03-08 Konica Corp 顔抽出方法
JP2002049912A (ja) * 2000-08-04 2002-02-15 Nri & Ncc Co Ltd 人物画像取得システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019184597A (ja) * 2018-04-07 2019-10-24 東洋製罐グループホールディングス株式会社 色味検査装置、及び色味検査プログラム

Also Published As

Publication number Publication date
WO2008013050A1 (fr) 2008-01-31
US8040389B2 (en) 2011-10-18
JP4692632B2 (ja) 2011-06-01
EP2045775A1 (en) 2009-04-08
US20090303336A1 (en) 2009-12-10
EP2045775A4 (en) 2017-01-18

Similar Documents

Publication Publication Date Title
JP4692632B2 (ja) 画像処理方法、画像処理プログラム、および画像処理装置
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
US10230908B2 (en) Thermal imaging device and thermal image photographing method
US20150009336A1 (en) Thermal imaging device and normative photographing method for thermal image
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
JP2009211311A (ja) 画像処理装置及び方法
JP2008033424A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2007128373A (ja) 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置
JP2020077165A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2005267604A (ja) 動作分類支援装置および動作分類装置
JP2007122101A (ja) 画像処理装置及び画像処理方法
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
US20180116582A1 (en) Elasticity evaluation apparatus, elasticity evaluation method, and elasticity evaluation program
JP5754931B2 (ja) 画像解析装置、画像解析方法及びプログラム
JP6467994B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP5903315B2 (ja) 画像処理装置および画像処理プログラム
JP2010273012A (ja) 画像処理装置、撮像装置およびプログラム
US20230419738A1 (en) Video processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium
JP5070116B2 (ja) テーブルデータ生成装置及びテーブルデータ生成方法
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法
JP2006350576A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2024004516A (ja) 測定装置、測定方法及びプログラム
JP2024024863A (ja) 画像解析装置、画像解析装置の制御方法、プログラム、及び画像解析システム。
EP3496390A1 (en) Information processing device, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4692632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250