JP4947216B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP4947216B2
JP4947216B2 JP2010529530A JP2010529530A JP4947216B2 JP 4947216 B2 JP4947216 B2 JP 4947216B2 JP 2010529530 A JP2010529530 A JP 2010529530A JP 2010529530 A JP2010529530 A JP 2010529530A JP 4947216 B2 JP4947216 B2 JP 4947216B2
Authority
JP
Japan
Prior art keywords
face
region
image
area
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010529530A
Other languages
English (en)
Other versions
JPWO2010032298A1 (ja
Inventor
悟 牛嶋
雅芳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2010032298A1 publication Critical patent/JPWO2010032298A1/ja
Application granted granted Critical
Publication of JP4947216B2 publication Critical patent/JP4947216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、像処理装に関するものである。
近年、カメラ等によって撮影された画像中から、各種の物体(例えば、人物の顔、車等)を検出する物体検出の研究が行われている。物体検出の技術は、予め、検出対象となる物体の特徴を学習して学習データを作成し、作成した学習データと、画像データとを比較することで、画像中に検出対象となる物体が存在するか否かを判定する技術である。
ここで、検出対象となる実際の画像データ中には顔全体がはっきりと映った画像も存在すれば、少しぼやけた顔や、一部何かに隠れた顔の画像が存在している。このような各種の画像から顔の存在有無を判定するためには、様々な顔画像を想定して学習データを作成する手法や、顔らしさを判定する閾値を下げる方法等が存在する。
また、動画像から物体を検出する際に、先行するフレームの画像中に顔画像が存在すると判定した場合に、顔画像の存在する領域から画像プロパティモデルを抽出し、抽出した画像プロパティモデルを利用して後続フレームの顔画像を検出することで、物体検出の精度を向上させるという技術も知られている(例えば、特許文献1参照)。
また、画像情報の量子化技術には、画像データを周波数変換(ウェーブレット<Wavelet>変換)し、変換結果となる変換係数の大小(または、隣り合う画素同士の画素値の差分の大小)から量子化処理を行う技術がある(例えば、非特許文献1参照)。
特開2004−192637号公報 H.Schneiderman and T. Kanade, Object Detection Using the Statistics of Parts To appear in International Journal of Computer Vision,2002.
しかしながら、上述した従来の技術では、物体の誤検出を防止することができないという問題があった。
例えば、様々な顔画像を想定した学習データを作成する手法、または、顔らしさを判定する閾値を下げる手法では、顔画像であるか否かの判定基準があまくなるため、様々な顔画像を検出することができる反面、顔画像に類似した顔画像ではない画像(例えば、花の画像)を検出してしまう可能性があった。
また、先行するフレームの顔画像の領域から画像プロパティモデルを抽出し、当該画像プロパティモデルを利用して、後続フレームの顔画像を検出する手法も存在するが、かかる物体検出では、先行するフレームから顔画像を検出した後でないと、顔画像であるか否かを精度よく判定することが出来ないという問題点がある。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、物体の誤検出を防止することができる画像処理装置および画像処理方を提供することを目的とする。
上述した課題を解決し、目的を達成するため、この画像処理装置は、顔画像の特徴を有する辞書データを記憶する記憶手段と、動画像の入力を受け付ける入力手段と、前記動画像に含まれる複数のフレームの内、一つのフレームを処理対象フレームとし、当該処理対象フレームに含まれる画像データと前記辞書データとを基にして前記処理対象フレームから顔画像の特徴を含んだ領域を示す顔画像候補領域を抽出する抽出手段と、前記抽出手段により、前記処理対象フレーム内の第一領域に対して複数個の前記顔画像候補領域が抽出された場合に、前記第一領域を、顔画像を含む領域であると判定する判定手段と、を有することを要件とする。
この画像処理装置によれば、処理対象フレーム内の第一領域に対して複数個の顔画像候補領域が抽出された場合に、第一領域を、顔画像を含む領域であると判定するので、顔画像を正確に抽出でき、顔画像の誤検出を防止することができる。
図1は、本実施例にかかる画像処理装置の概要および特徴を説明するための図である。 図2は、連続するフレームに基づいて顔検出方法を説明するための図である。 図3は、本実施例にかかる画像処理装置の構成を示す機能ブロック図である。 図4は、顔学習データのデータ構造の一例を示す図である。 図5は、非顔学習データのデータ構造の一例を示す図である。 図6は、比較対象データのデータ構造の一例を示す図である。 図7は、顔検出処理部の処理の一例を説明するための図である。 図8は、実検出結果管理テーブルのデータ構造の一例を示す図である。 図9は、検出範囲の移動の様子を説明するための図である。 図10は、本実施例にかかる画像処理装置の処理手順を示すフローチャートである。 図11は、検出結果集約処理の処理手順を示すフローチャートである。 図12は、重なり判定処理の処理手順を示すフローチャート(1)である。 図13は、重なり判定処理の処理手順を示すフローチャート(2)である。 図14は、第1の重なり領域処理の処理手順を示すフローチャートである。 図15は、第2の重なり領域処理の処理手順を示すフローチャートである。 図16は、本実施例にかかる画像処理装置を構成するコンピュータのハードウェア構成を示す図である。
符号の説明
30 コンピュータ
31 入力装置
32 モニタ
33 RAM
33a、39a 各種データ
34 ROM
35 通信制御装置
36 媒体読取装置
37 カメラ
38 CPU
38a 画像処理プロセス
39 HDD
39b 画像処理プログラム
100 画像処理装置
110 変換処理部
120 分析処理部
130 記憶部
130a 顔学習データ
130b 非顔学習データ
130c 比較対象データ
130d 実検出結果管理テーブル
140 顔検出処理部
以下に、本発明にかかる画像処理装置および画像処理方の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、以下の実施例では、検出対象の一例として顔画像を検出する場合について説明するが、これに限定されるものではなく、その他の画像、例えば、車の画像を検出しても良い。
まず、本実施例にかかる画像処理装置の概要および特徴について説明する。図1は、本実施例にかかる画像処理装置の概要および特徴を説明するための図である。本実施例にかかる画像処理装置は、まず、検出対象となる顔の特徴を学習して学習データを作成し、所定の検出領域毎に、学習データと入力画像データとを比較することで、顔が含まれている可能性がある領域を抽出する。以下の説明において、顔が含まれている可能性のある領域を顔候補領域と表記する。
そして、本実施例にかかる画像処理装置は、所定の領域に対して、複数の顔候補領域が抽出されたか否かによって、入力画像データに顔画像が含まれているか否かを判定する。例えば、図1の左側に示すように、所定の領域内に複数の顔候補領域が存在する場合には、複数の顔候補領域が密集している領域を顔画像として判定する。一方、図1の右側に示すように、所定の領域内に複数の顔候補領域が含まれていない場合、すなわち、単一の顔候補領域が含まれている場合には、単一の顔候補領域が存在する領域に顔画像が含まれていないと判定する。
顔画像を含んだフレームに対して顔画像を検出する処理を行う場合には、フレームの中にどのような大きさの顔が含まれているかはわからないので、該フレーム内で、顔検出対象とする領域を切出しながら、検出処理を行う。切出す領域は、複数種類の大きさに変化させて、また、フレーム内で切り出し位置を少しずつずらしながらフレーム内で領域を設定することになる。顔画像に対して、学習データを用いた物体検出を実行すると、顔画像上の複数の領域が顔候補領域として検出される傾向が強く、顔画像以外の画像(例えば、花の画像)に対して物体検出を実行すると、単一の領域が顔候補領域として検出される傾向が強いので、上記の手法によって顔画像を正確に抽出することができる。
例えば、顔画像付近を少しずつずらしながら切り出し領域を変化させると、切り出し領域内に目や鼻、口といった顔としての特徴が含まれていれば、その切り出し領域を顔画像として検出することになる。従って、図1の左側に示すように、少しずつずらして設定した各切り出し領域で、それぞれ顔として検出するので、顔画像上の複数の領域が顔候補領域として検出される。これに対して、例えば花などの本当は顔ではない被写体は、たまたま撮影時の外光の関係等で瞬間的に、顔画像の目や鼻、口に相当する部分に特徴が生じてしまう場合がある。このような本当は顔ではない画像付近を少しずつずらしながら切り出し領域を変化させると、たまたま特徴が生じてしまった領域でのみ顔画像であると検出し、少しでも切り出し領域をずらすと、そのような特徴が得られずに、顔画像とは検出しない場合が多い。従って、図1の右側に示すように、単一の領域が顔候補領域として検出される傾向が強い。
このように、本実施例にかかる画像処理装置は、顔候補領域が所定の領域に複数存在しているか否かによって、顔画像を抽出するので、顔画像を正確に抽出でき、顔画像の誤検出を防止することができる。また、かかる画像処理装置は、複数のフレームを参照することなく、単一のフレームによって誤検出を防止することができる。
また、本実施例にかかる画像処理装置は、動画像の連続するフレーム毎に顔候補領域を検出し、前後のフレームで検出された顔候補領域の位置関係に基づいて、入力画像データに顔画像データが含まれているか否かを判定する。図2は、連続するフレームに基づいて顔検出方法を説明するための図である。
図2に示すように、画像処理装置は、フレーム1にて顔候補領域A,Bを抽出し、続くフレーム2にて検出される顔候補領域の位置と、フレーム1にて抽出した顔候補A,Bの位置とを基にして、顔画像を判定する。
例えば、フレーム2に示すように、顔候補領域Cが検出され、顔候補領域Aの近傍(フレーム1にて検出した顔候補領域Aに対応する位置の近傍)に顔候補領域Cが存在している場合には、顔候補領域Cを顔画像であると判定する。
一方、フレーム2にて、顔候補領域Bの近傍に位置する顔候補領域が検出されなかった場合には、顔候補領域Bは、顔画像でないと判定する。顔を動画像で撮影している場合には、実際の顔に対して顔候補領域が抽出され続け、顔以外のもの(例えば、花)に対しては、断続的に顔候補領域が抽出されるため、上記のように、連続して抽出される顔候補領域の位置関係から顔か否かを判定することで、正確に顔画像が含まれているか否かの判定を実行することができる。
このように、本実施例にかかる画像処理装置は、前後のフレーム間に存在する顔候補領域の位置関係から、顔画像を抽出するので、顔画像を正確に抽出でき、顔画像の誤検出を防止することができる。
次に、本実施例にかかる画像処理装置の構成について説明する。図3は、本実施例にかかる画像処理装置の構成を示す機能ブロック図である。図3に示すように、この画像処理装置100は、変換処理部110と、分析処理部120と、記憶部130と、顔検出処理部140とを有する。
変換処理部110は、顔画像集データおよび非顔画像集データを取得し、取得した顔画像集データおよび非顔画像集データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する処理部である。画像データに対する周波数変換処理は、周知技術と同様である。ここで、顔画像集データは、様々な人物の顔画像を集めた画像データであり、顎から頭をほぼ含む上下幅、両耳をほぼ含む左右幅で、顔を全面に写した画像群で構成されている。もちろん、多様な顔を検出するための学習データであるので、真正面から顔を写したデータのほかに、斜め上や下や左や右を向いたデータや、帽子や眼鏡を掛けた顔のデータ、様々な年齢や性別の人のデータが含まれていても良い。非顔画像集データは、顔画像以外の各種の画像を集めた画像データである。
変換処理部110は、入力装置、記憶装置(図示略)等から顔画像集データおよび非顔画像集データを取得する。変換処理部110は、周波数変換した顔画像集データおよび非顔画像集データを分析処理部120に出力する。以下の説明において、周波数変換した顔画像集データを変換顔画像集データと表記し、周波数変換した非顔画像集データを変換非顔画像集データと表記する。
分析処理部120は、変換顔画像集データおよび変換非顔画像集データを取得した場合に、変換画像集データを基にして顔学習データを作成し、変換非顔画像集データを基にして非顔学習データを作成する処理部である。
まず、分析処理部120が、顔学習データを作成する処理について説明する。分析処理部120は、変換顔画像集データに含まれる画像データから単一の画像データを抽出する。そして、分析処理部120は、各変換係数と、量子化閾値とを比較することにより、該当変換係数値を量子化する。量子化閾値は、予め、分析処理部120に設定されているものとする。
同様に、分析処理部120は、変換顔画像集データに含まれる残りの画像データも、上記の手法により量子化する。そして、分析処理部120は、量子化した各画像データの各変換係数値(各画像データの同一位置に対応する変換係数値)を比較し、変換係数値の頻度に基づいて、顔学習データを作成する。例えば、画像データ中の位置(x1、y1)の変換係数値について、各画像データを比較したところ、他の変換係数値(例えば、変換係数値「0」、「2」等)の頻度よりも変換係数値「1」の頻度のほうが大きい場合には、顔学習データ中の位置(x1、y1)の変換係数値を「1」に設定する。
図4は、顔学習データのデータ構造の一例を示す図である。図4に示すように、この顔学習データは、位置情報と変換係数値とを対応付けて記憶している。なお、顔学習データのデータ構造は、図4に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に変換係数値を対応付けて記憶させても良い。
次に、分析処理部120が、非顔学習データを作成する処理について説明する。分析処理部120は、変換非顔画像集データに含まれる画像データから単一の画像データを抽出する。そして、分析処理部120は、各変換係数と、量子化閾値とを比較することにより、該当ブロックの画素値を量子化する。
同様に、分析処理部120は、変換非顔画像集データに含まれる残りの画像データも、上記の手法により量子化する。そして、分析処理部120は、量子化した各画像データの各画素値(各画像データの同一位置に対応する画素値)を比較し、画素値の頻度に基づいて非顔学習データを作成する。例えば、画像データ中の位置(x1、y1)の画素値について、各画像データを比較したところ、他の画素値の頻度よりも、画素値「1」の頻度のほうが大きい場合には、非顔学習データ中の位置(x1、y1)の画素値を「1」に設定する。
図5は、非顔学習データのデータ構造の一例を示す図である。図5に示すように、この非顔学習データは、位置情報と係数値とを対応付けて記憶している。なお、非顔学習データのデータ構造は、図5に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に係数値を対応付けて記憶させても良い。
記憶部130は、分析処理部120から出力される顔学習データ130a、非顔学習データ130b、顔検出処理部140から出力される比較対象データ130c、実検出結果管理テーブル130dを記憶する記憶部である。このうち、比較対象データ130cおよび実検出結果管理テーブル130dの説明は後述する。
顔検出処理部140は、動画像データを取得した場合に、取得した動画像の各フレームに含まれる画像データから顔画像を検出する処理部である。顔検出処理部140は、検出結果を上位の装置(図示略)に出力する。以下において、顔検出処理部140の処理を具体的に説明する。
まず、顔検出処理部140は、動画像データから単一のフレームを抽出し、抽出したフレームの画像データに対して周波数変換処理(例えば、ウェーブレット変換)を実行する。そして、顔検出処理部140は、周波数変換を行った後に、周波数変換を行った画像データを量子化することにより、比較対象データ130cを作成する。
ここで、比較対象データ130cを作成する処理について具体的に説明する。顔検出処理部140は、各変換係数と、量子化閾値とを比較することにより、該当ブロックの画素値を量子化する。次に,順次,量子化結果から,辞書と同じサイズの矩形サイズを切り出し,比較対象データ130cを作成する。なお,前記方法では,一定サイズの顔しか検出できないため,予め入力画像を縮小して,複数サイズの画像に対して検出処理を行ってもよい。縮小した画像に対して検出を行えば,実質,大きなサイズの顔画像を検出したことになる。
図6は、比較対象データ130cのデータ構造の一例を示す図である。図6に示すように、この比較対象データ130cは、位置座標と係数値とを対応付けて記憶している。なお、比較対象データ130cのデータ構造は、図6に示したものに限らず、例えば、物体検出時に比較する変換係数の塊(例えば、8係数)毎に画素数と対応付けて記憶させても良い。
そして、顔検出処理部140は、記憶部130に記憶された顔学習データ130aと、非顔学習データ130bと、比較対象データ130cとを比較して、顔候補領域を抽出する。
図7は、顔検出処理部140の処理の一例を説明するための図である。顔検出部140は、検出範囲を設定し、顔学習データ130a、非顔学習データ130b、比較対象データ130cの同一位置の検出範囲に含まれる各ブロックの画素値をそれぞれ比較する。
そして、顔検出処理部140は、比較した結果、比較対象データの検出範囲が顔学習データに類似しているのか、非顔学習データに類似しているかを判定する。図7に示す例では、比較対象データ130cは、顔学習データ130aに対して、8つヒットし、非顔学習データに対して、1つヒットしているので、非顔学習データ130bよりも、顔学習データ130aに類似していると判定する。
顔検出処理部140は、図9に示すように、各データ内の検出範囲を走査しながら全面に対してヒット率を判断のち,顔学習データ130aに類似していると判定した場合には、かかる矩形切り出し範囲を顔候補領域として抽出し、実検出結果管理テーブル130dに登録する。図9は、検出範囲の移動の様子を説明するための図である。実検出結果管理テーブル130dは、顔候補領域の情報を管理するテーブルである。
図8は、実検出結果管理テーブル130dのデータ構造の一例を示す図である。図8に示すように、この実検出結果管理テーブル130dは、顔候補領域識別番号と、フレーム識別番号と、GID(Group Identification)と、座標と、座標平均とを対応付けて記憶している。
このうち、顔候補領域識別番号は、顔検出処理部140によって抽出される各顔候補領域を識別する番号である。フレーム識別番号は、動画像に含まれる各フレームを識別するための番号である。
GIDは、集約される各顔候補領域を識別するための情報である。図8に示す例では、顔候補領域識別番号「1〜3」の顔候補領域が同一のGID「1」のグループに集約されている。各顔候補領域を集約する手法は後述する。GIDの初期値は0に設定される。
座標は、顔候補領域の座標である。なお、本実施例では一例として、顔候補領域の左上角の座標(X1、Y1)と、顔候補領域の右下角の座標(X2、Y2)とを記憶している。座標平均は、同一のGIDに属する各顔候補領域の座標の平均値である。
顔検出処理部140は、変換係数から矩形領域を切り出しながら顔候補領域を抽出し、実検出結果管理テーブル130に、顔候補領域識別番号、フレーム識別番号および、座標を登録する。なお、顔検出処理部140が、検出範囲内の各画素値を比較する際には、顔学習データ130a、非顔学習データ130b、比較対象データ130c上に配置される検出範囲の位置が統一されているものとする。
顔検出処理部140は、比較対象データ130cから顔候補領域を抽出した後に、実検出結果管理テーブル130dを参照し、各顔候補領域を比較して、各顔候補領域を集約する。ここでは、説明の便宜上、顔候補領域Aと顔候補領域Bとを比較する場合について説明する。また、顔候補領域Aと顔候補領域Bとの重なり領域をRとする。
また、以下の説明において、顔候補領域Aの座標を(A.X1、A.Y1)、(A.X2、A.Y2)と表記する。顔候補領域Bの座標を(B.X1、B.Y1)、(B.X2、B.Y2)と表記する。重なり領域Rの座標を(B.X1、B.Y1)、(B.X2、B.Y2)と表記する。なお、顔検出処理部140は、重なり領域Rの座標の初期値として、顔候補領域Bと同様の値を設定する。
(対象外の判別)
顔検出処理部140は、
顔候補領域Aの横幅/顔候補領域Bの横幅≧閾値
かつ、
少なくとも、顔候補領域AのGIDまたは顔候補領域BのGIDの一方が0である場合に、顔候補領域A,Bを集約の対象とする。
それ以外の場合、すなわち、
顔候補領域Aの横幅/顔候補領域Bの横幅<閾値
または、
顔候補領域A,BのGIDが共に0以外の数値である場合には、顔検出処理部140は、顔候補領域A,Bを集約の対象外とする。
(重なり判定および重なり領域Rの抽出)
顔検出処理部140は、顔候補領域A,Bを集約の対象とするかどうか判断するために、顔候補領域の座標(A.X1、A.Y1)、(A.X2、A.Y2)と、顔候補領域Bの座標を(B.X1、B.Y1)、(B.X2、B.Y2)とを基にして、重なり領域を抽出する。
具体的に、顔検出処理部140は、顔候補領域Aの座標と顔候補領域Bの座標とを比較して、A.Y1がB.Y1とB.Y2との間に存在し、更に、A.X1がB.X1とB.X2の間に存在している場合には、顔候補領域Aの左上が顔候補領域Bと重なっていると判定し、
重なり領域RのR.X1にA.X1を代入し、
重なり領域RのR.Y1にA.Y1を代入することで、重なり領域Rの各座標を求める。
一方、顔検出処理部140は、顔候補領域Aの座標と顔候補領域Bの座標とを比較して、A.Y1がB.Y1とB.Y2との間に存在し、更に、A.X2がB.X1とB.X2の間に存在している場合には、顔候補領域Aの右上が顔候補領域Bと重なっていると判定し、
重なり領域RのR.X2にA.X2を代入し、
重なり領域RのR.Y1にA.Y1を代入することで、重なり領域Rの各座標を求める。
一方、顔検出処理部140は、顔候補領域Aの座標と顔候補領域Bの座標とを比較して、A.Y2がB.Y1とB.Y2との間に存在し、更に、A.X1がB.X1とB.X2の間に存在している場合には、顔候補領域Aの左下が顔候補領域Bと重なっていると判定し、
重なり領域RのR.X1にA.X1を代入し、
重なり領域RのR.Y2にA.Y2を代入することで、重なり領域Rの各座標を求める。
一方、顔検出処理部140は、顔候補領域Aの座標と顔候補領域Bの座標とを比較して、A.Y2がB.Y1とB.Y2との間に存在し、更に、A.X2がB.X1とB.X2の間に存在している場合には、顔候補領域Aの右下が顔候補領域Bと重なっていると判定し、
重なり領域RのR.X2にA.X2を代入し、
重なり領域RのR.Y2にA.Y2を代入することで、重なり領域Rの各座標を求める。
(GIDの割り当て)
顔検出処理部140は、上記の重なり判定および重なり領域Rの抽出を行った後に、重なり領域Rの面積/顔候補領域Aの面積
を算出し、算出結果が閾値以上の場合に、下記の規則に従って顔候補領域Aおよび顔候補領域BのGIDを判定する。
具体的には、顔検出処理部140は、顔候補領域Aおよび顔候領域BのGIDが0の場合には、顔候補領域AのGIDおよび顔候補領域BのGIDに共通の番号を割り振ることで、顔候補領域A,Bを集約する。ただし、顔候補領域AのGIDと顔候補領域BのGIDに割り振るGIDは、他のグループと重複しない番号にする。
一方、顔候補領域Aまたは顔候補領域BのGIDの一方が0以外の場合には、0でないほうのGIDを他のGIDに割り振る。例えば、顔候補領域AのGIDが1で、顔候補領域BのGIDが0の場合には、顔候補領域BのGIDを1に設定する。
顔検出処理部140は、動画像データから抽出したフレームの画像に対する顔候補領域の抽出および各顔候補領域の集約が終了した場合には、次のフレームを動画像データから抽出し、上述した処理を繰り返す。
(顔領域の判定)
顔検出処理部140は、実検出結果管理テーブル130dに基づいて、フレーム中の画像データから検出した顔候補領域が顔領域であるか否かを判定する。具体的に、顔検出処理部140は、実検出結果管理テーブル130dから、該当する顔候補領域を選択し、選択した顔候補領域が属するGIDに他の顔候補領域が属している場合には(所定の領域に複数の顔画像領域が存在している場合には)、選択した顔候補領域を顔画像領域として判定し、判定結果を出力する。
また、顔候補検出部140は、連続する各フレームの顔候補領域の座標に基づいて、顔候補領域が顔画像であるか否かを判定する。ここで、説明の便宜上、第1フレームで検出した顔候補画像を第1顔候補領域とし、第1フレームの次の第2フレームで検出した顔候補領域を第2顔候領域とする。
顔候補検出部140は、第1顔候補領域の座標と、第2顔候補領域の座標とを比較し、各座標の距離が閾値未満の場合に、第2顔候補領域を顔領域であると判定し、判定結果を出力する。また、顔候補検出部140は、各グループの座標の平均値を算出することで、座標平均を算出し、算出した座標平均を実検出結果管理テーブル130dに登録する。
ところで、顔候補検出部140は、上記の方法により顔画像を抽出した場合には、次のフレームの顔画像周辺に対して顔候補領域を抽出する際に、顔らしいと判定する閾値を下げてもよい。
例えば、顔候補検出部140は、前フレームにて顔画像を抽出した領域に検出範囲を設定し、図7のごとく比較対象データ130c、顔学習データ130a、非顔学習データ130bを比較して、顔候補領域を検出する場合に、各顔学習データ130aと比較対象データ130cのヒット数に所定値を加えることで、顔候補領域を検出し易くしてもよい。
次に、本実施例にかかる画像処理装置100の処理手順について説明する。図10は、本実施例にかかる画像処理装置100の処理手順を示すフローチャートである。図10に示すように、画像処理装置100は、入力画像データをスキャンし(ステップS101)、検出結果集約処理を実行する(ステップS102)。
画像処理装置100は、実検出結果を保存し(ステップS103)、実検出結果を一つ取り出し(ステップS104)、前回の実検出結果の中に座標の重なるもの(あるいは各座標の距離が閾値未満のもの)が存在するか否かを判定する(ステップS105)。
画像処理装置100は、前回の実検出結果の中に座標の重なるものが存在する場合には(ステップS106,Yes)、実検出結果に対応する領域を顔領域と判定し(ステップS107)、ステップS110に移行する。
一方、画像処理装置100は、前回の実検出結果の中に座標の重なるものが存在しない場合には(ステップS106,No)、複数の顔候補領域が密集しているか否かを判定する(ステップS108)。
画像処理装置100は、複数の顔候補領域が密集している場合には(ステップS109,Yes)、ステップS107に移行する。一方、複数の顔候補領域が密集していない場合には(ステップS109,No)、実検出結果の残りが存在するか否かを判定する(ステップS110)。
画像処理装置100は、実検出結果の残りが存在する場合には(ステップS111,Yes)、ステップS104に移行する。一方、実検出結果の残りが存在しない場合には(ステップS111,No)、処理を終了する。
次に、図10のステップS102に示した検出結果集約処理の処理手順について説明する。図11は、検出結果集約処理の処理手順を示すフローチャートである。図11に示すように、画像処理装置100は、GIDを0に初期化し(ステップS201)、MaxGIDを0に初期化し(ステップS202)、iiを0に設定する(ステップS203)。
画像処理装置100は、ii+1がNより小さいか否かを判定する(ステップS204)。ここで、Nには、図10のステップS101において、入力画像をスキャンした結果得られた顔候補領域の数が登録されている。
画像処理装置100は、ii+1がNより小さくない場合には(ステップS205,No)、実検出結果管理テーブル130d中でGIDが0の結果にMaxGIDを1増やしながら順にMaxGIDの値をGIDに設定する(ステップS206)。そして、画像処理装置100は、グループ毎に座標平均を算出して集約後の結果として出力する(ステップS207)。
一方、画像処理装置100は、ii+1がNよりも小さい場合には(ステップS205,Yes)、jjをii+1に初期化し(ステップS208)、jjがNよりも小さいか否かを判定する(ステップS209)。
画像処理装置100は、jjがNよりも小さくない場合には(ステップS210,No)、iiに1を加算し(ステップS211)、ステップS204に移行する。一方、jjがNよりも小さい場合には(ステップS210,Yes)、重なり判定処理を実行し(ステップS212)、jjをiiに1を加算し(ステップS213)、ステップS209に移行する。
次に、図11のステップS212に示した重なり判定処理の処理手順について説明する。図12および図13は、重なり判定処理の処理手順を示すフローチャートである。図12に示すように、画像処理装置100は、顔候補領域識別番号[ii]および顔候補識別番号[jj]のうち、領域の小さいほうをA、領域の大きいほうをBに設定し(ステップS301)、Aの横幅/Bの横幅が閾値よりも小さいか否かを判定する(ステップS302)。
画像処理装置100は、Aの横幅/Bの横幅が閾値よりも小さい場合には(ステップS303、Yes)、重なり判定処理を終了する。一方、Aの横幅/Bの横幅が閾値以上の場合には(ステップS303,No)、AのGIDとBのGIDが共に0以外の値か否かを判定する(ステップS304)。
画像処理装置100は、AのGIDとBのGIDが共に0以外の値である場合には(ステップS305,Yes)、重なり判定処理を終了する。一方、AのGIDとBのGIDが共に0以外の値でない場合には(ステップS305,No)、重なり領域RのR.X1、R.Y1、R.X2、R.Y2をB.X1、B.Y1、B.X2、B.Y2に設定する(ステップS306)。
そして、画像処理装置100は、A.Y1がB.Y1とB.Y2の間に存在するか否かを判定し(ステップS307)、存在する場合には(ステップS308,Yes)、第1の重なり領域処理を実行し(ステップS309)、ステップS310に移行する。
一方、画像処理装置100は、A.Y1がB.Y1とB.Y2の間に存在しない場合には(ステップS308,No)、ステップS310に移行する。
一方、画像処理装置100は、A.Y2がB.Y1とB.Y2の間に存在するか否かを判定し(ステップS310),存在する場合には(ステップS311,Yes)、第2の重なり領域処理を実行し(ステップS312)、重なり領域Rの面積/Aの面積が閾値以上であるか否かを判定する(ステップS313)。
画像処理装置100は、重なり領域Rの面積/Aの面積が閾値未満である場合には(ステップS314,No)、重なり判定処理を終了する。一方、閾値以上である場合には(ステップS314,Yes)、AのGIDおよびBのGIDが両方とも0であるか否かを判定する(ステップS315)。
画像処理装置100は、AのGIDおよびBのGIDが両方とも0でない場合には(ステップS316,No)、0でない方のGIDの値をもう一方のGIDに代入し(ステップS317)、重なり判定処理を終了する。
一方、画像処理装置100は、AのGIDおよびBのGIDが両方とも0の場合には(ステップS316,Yes)、MAXGIDに1を加算し(ステップS318)、MAXGIDをAのGIDおよびBのGIDに代入し(ステップS319)、重なり判定処理を終了する。
次に、図12のステップS309に示した第1の重なり領域処理について説明する。図14は、第1の重なり領域処理の処理手順を示すフローチャートである。図14に示すように、画像処理装置100は、A.X1がB.X1とB.X2の間に存在するか否かを判定し(ステップS401)、存在する場合には(ステップS402,Yes)、A.X1をR.X1に代入し、A.Y1をR.Y1に代入(ステップS403)する。存在しない場合には(ステップS402)、ステップS404に移行する。
次に、画像処理装置100は、A.X2がB.X1とB.X2の間に存在するか否かを判定し(ステップS404)、存在する場合には(ステップS405,Yes)、A.X2をR.X2に代入し、A.Y1をR.Y1に代入し(ステップS406)、第1の重なり領域処理を終了する。存在しない場合には(ステップS405,No)、第1の重なり領域処理を終了する。
次に、図12のステップS312に示した第2の重なり領域処理について説明する。図15は、第2の重なり領域処理の処理手順を示すフローチャートである。図15に示すように、画像処理装置100は、A.X1がB.X1とB.X2の間に存在するか否かを判定し(ステップS501)、存在する場合には(ステップS502,Yes)、A.X1をR.X1に代入し、A.Y2をR.Y2に代入(ステップS503)する。存在しない場合には(ステップS502,No)、ステップS504に移行する。
次に、画像処理装置100は、A.X2がB.X1とB.X2の間に存在するか否かを判定し(ステップS504)、存在する場合には(ステップS505,Yes)、A.X2をR.X2に代入し、A.Y2をR.Y2に代入し(ステップS506)、第2の重なり領域処理を終了する。存在しない場合には(ステップS505,No)、第2の重なり領域処理を終了する。
上述してきたように、本実施例にかかる画像処理装置100は、顔候補領域が所定の領域に複数存在しているか否か(顔候補領域が属するGIDに他の顔候補領域が属しているか否か)によって、顔画像を抽出するので、顔画像を正確に抽出でき、顔画像の誤検出を防止することができる。また、かかる画像処理装置は、複数のフレームを参照することなく、単一のフレームによって誤検出を防止することができる。
また、本実施例にかかる画像処理装置100は、前後のフレーム間に存在する顔候補領域の位置関係から、顔画像を抽出するので、顔画像を正確に抽出でき、顔画像の誤検出を防止することができる。
以上、本実施例においては、顔候補領域を検出する処理についても詳述したが、顔候補領域を検出する処理は、本方法に限定されたものではない。例えば、[非特許文献1]H.Schneiderman and T. Kanade, Object Detection Using the Statistics of Parts To appear in International Journal of Computer Vision,2002.を用いて候補領域を設定してもよい。
ところで、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図3に示した画像処理装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。なお、本実施例で説明した各種の処理手順は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
図16は、本実施例にかかる画像処理装置100(画像処理装置200)を構成するコンピュータのハードウェア構成を示す図である。図16に示すように、このコンピュータ(画像処理装置)30は、入力装置31、モニタ32、RAM(Random Access Memory)33、ROM(Read Only Memory)34、ネットワークを介して他の装置と通信を行う通信制御装置35、記憶媒体からデータを読み出す媒体読取装置36、カメラ37、CPU(Central Processing Unit)38、HDD(Hard Disk Drive)39をバス40で接続している。
そして、HDD39には、上述した画像処理装置100の機能と同様の機能を発揮する画像処理プログラム39bが記憶されている。CPU38が、画像処理プログラム39bを読み出して実行することにより、画像処理プロセス38aが起動される。
ここで、画像処理プロセス38aは、図3の変換処理部110、分析処理部120、顔検出処理部140に対応する。また、HDD39は、画像処理装置100の記憶部130に記憶される情報に対応する各種データ39aを記憶する。CPU38は、HDD39に格納された各種データ39aを読み出して、RAM33に格納し、RAM33に格納された各種データ33aを利用して、顔画像を検出する。
ところで、図16に示した画像処理プログラム39bは、必ずしも最初からHDD39に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに画像処理プログラム39bを記憶しておき、コンピュータがこれらから画像処理プログラム39bを読み出して実行するようにしてもよい。

Claims (4)

  1. 顔画像の特徴を有する辞書データを記憶する記憶手段と、
    動画像の入力を受け付ける入力手段と、
    前記動画像に含まれる複数のフレームの内、一つのフレームを処理対象フレームとし、当該処理対象フレームに含まれる画像データと前記辞書データとが一致する度合いが閾値以上となる顔画像候補領域を抽出する抽出手段と、
    前記抽出手段により、前記処理対象フレーム内の第一領域に対して複数個の前記顔画像候補領域が抽出された場合に、前記第一領域を、顔画像を含む領域であると判定する判定手段とを有し、
    前記判定手段が前記第一領域は前記顔画像を含む領域であると判定した場合に、前記抽出手段は、前記処理対象フレーム以降に受け付けた他の処理対象フレームにおける、該第一領域と対応する領域に適用する前記閾値を、前記第一領域と対応する領域以外の領域と比較して下げることを特徴とする画像処理装置。
  2. 前記抽出手段は、前記処理対象フレーム以降に受け付けた他の処理対象フレームにおける、前記第一領域と対応する領域の近傍に位置する第二領域に適用する前記閾値を、前記第一領域と対応する領域あるいは該第二領域のいずれの領域にも該当をしない領域の閾値と比較して下げることを特徴とする請求項1に記載の画像処理装置。
  3. 画像処理装置が、
    顔画像の特徴を有する辞書データを記憶装置に記憶する記憶ステップと、
    動画像の入力を受け付ける入力ステップと、
    前記動画像に含まれる複数のフレームの内、一つのフレームを処理対象フレームとし、当該処理対象フレームに含まれる画像データと前記辞書データとが一致する度合いが閾値以上となる顔画像候補領域を抽出する抽出ステップと、
    前記抽出ステップにより、前記処理対象フレーム内の第一領域に対して複数個の前記顔画像候補領域が抽出された場合に、前記第一領域を、顔画像を含む領域であると判定する判定ステップとを含み、
    前記判定ステップが前記第一領域は前記顔画像を含む領域であると判定した場合に、前記抽出ステップは、前記処理対象フレーム以降に受け付けた他の処理対象フレームにおける、該第一領域と対応する領域に適用する前記閾値を、前記第一領域と対応する領域以外の領域と比較して下げることを特徴とする画像処理方法。
  4. 前記抽出ステップは、前記処理対象フレーム以降に受け付けた他の処理対象フレームにおける、前記第一領域と対応する領域の近傍に位置する第二領域に適用する前記閾値を、前記第一領域と対応する領域あるいは該第二領域のいずれの領域にも該当をしない領域の閾値と比較して下げることを特徴とする請求項3に記載の画像処理方法。
JP2010529530A 2008-09-17 2008-09-17 画像処理装置および画像処理方法 Active JP4947216B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/066791 WO2010032298A1 (ja) 2008-09-17 2008-09-17 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2010032298A1 JPWO2010032298A1 (ja) 2012-02-02
JP4947216B2 true JP4947216B2 (ja) 2012-06-06

Family

ID=42039152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010529530A Active JP4947216B2 (ja) 2008-09-17 2008-09-17 画像処理装置および画像処理方法

Country Status (2)

Country Link
JP (1) JP4947216B2 (ja)
WO (1) WO2010032298A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917915B2 (en) 2010-06-30 2014-12-23 Nec Solution Innovators, Ltd. Head detecting method, head detecting apparatus, attribute determining method, attribute determining apparatus, program, recording medium, and attribute determining system
JP5510287B2 (ja) * 2010-11-22 2014-06-04 カシオ計算機株式会社 被写体検出装置、被写体検出方法及びプログラム
JP5807695B2 (ja) * 2014-03-20 2015-11-10 カシオ計算機株式会社 被写体検出装置、被写体検出方法及びプログラム
CN105389794B (zh) * 2015-10-08 2018-03-06 西安电子科技大学 基于先验场景知识的sar目标检测虚警去除方法
KR102348593B1 (ko) 2017-10-26 2022-01-06 삼성에스디에스 주식회사 기계 학습 기반의 객체 검출 방법 및 그 장치
JP7140580B2 (ja) * 2018-07-13 2022-09-21 マクセル株式会社 ステレオ撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3506958B2 (ja) * 1998-09-10 2004-03-15 富士写真フイルム株式会社 画像処理方法、画像処理装置及び記録媒体
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법

Also Published As

Publication number Publication date
JPWO2010032298A1 (ja) 2012-02-02
WO2010032298A1 (ja) 2010-03-25

Similar Documents

Publication Publication Date Title
US20230418389A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP6719457B2 (ja) 画像の主要被写体を抽出する方法とシステム
JP4947216B2 (ja) 画像処理装置および画像処理方法
WO2019033574A1 (zh) 电子装置、动态视频人脸识别的方法、系统及存储介质
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
CN111144293A (zh) 带交互式活体检测的人脸身份认证系统及其方法
JP4791598B2 (ja) 画像処理装置および画像処理方法
US8254715B2 (en) Method and apparatus of detecting image objects
KR20100072772A (ko) 스테레오 비전을 이용한 실시간 얼굴 검출 시스템 및 그 방법
JP2010003177A (ja) 画像処理装置
JP2012084012A (ja) 画像処理装置、その処理方法及びプログラム
JP4719825B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111275040A (zh) 定位方法及装置、电子设备、计算机可读存储介质
JP2010057105A (ja) オブジェクトの3次元追跡方法およびシステム
JP6437902B2 (ja) 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体
JP5004181B2 (ja) 領域識別装置およびコンテンツ識別装置
JP2011165170A (ja) 対象物検出装置及びプログラム
US20120076418A1 (en) Face attribute estimating apparatus and method
JP2011253354A (ja) 画像処理装置および方法、並びにプログラム
CN107368826A (zh) 用于文本检测的方法和装置
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
JP6893812B2 (ja) 物体検出装置
JP4802297B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6851246B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4947216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150