JP2005115544A - 動作識別装置、及び対象物の姿勢識別装置 - Google Patents

動作識別装置、及び対象物の姿勢識別装置 Download PDF

Info

Publication number
JP2005115544A
JP2005115544A JP2003347146A JP2003347146A JP2005115544A JP 2005115544 A JP2005115544 A JP 2005115544A JP 2003347146 A JP2003347146 A JP 2003347146A JP 2003347146 A JP2003347146 A JP 2003347146A JP 2005115544 A JP2005115544 A JP 2005115544A
Authority
JP
Japan
Prior art keywords
image data
face
image
person
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003347146A
Other languages
English (en)
Other versions
JP4470434B2 (ja
Inventor
Masahiro Maeda
正浩 前田
Sukeji Kato
典司 加藤
Hitoshi Ikeda
仁 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2003347146A priority Critical patent/JP4470434B2/ja
Priority to US10/958,430 priority patent/US7813533B2/en
Publication of JP2005115544A publication Critical patent/JP2005115544A/ja
Application granted granted Critical
Publication of JP4470434B2 publication Critical patent/JP4470434B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Abstract

【課題】 処理負荷の増大を抑えながら認識精度を向上できる認識装置を提供する。
【解決手段】 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識装置であって、これら一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定し、この特定した画像領域に基づいて定められる領域内での対象固有の色、又は動領域の検出処理の結果がさらに顔部分を含む画像領域を特定する処理に供される。
【選択図】 図1

Description

本発明は、人物の顔等、対象物の所定部分に関する情報を出力する認識装置に関する。
画像データ中から、人物の顔など対象物の所定部分を認識する処理が、従来からさまざまに考えられている。例えば、特許文献1に開示されている装置では、動領域検出と、肌色検出とを組み合せた顔部分の検出処理の例が開示されている。
特開2000-105819公報
しかしながら、肌色部分を用いた顔の検出を行う場合には、肌の色の個体差や、照明条件による変動、背景に肌色と略同色の領域があることなど、さまざまな要因による影響に配慮しなければならない。具体的には、個体差による肌色の相違を考えれば、肌色とみなす色の範囲を広くする必要があるが、これを広くすると、今度は背景内から同色の領域が誤って見いだされる確率が高くなってしまうなど、単に肌色等、対象物の色を利用するだけでは、認識精度の向上が困難であるという問題点があった。
また動領域検出は、負荷の大きい処理であり、画像データの全体に対してこれを行う場合は、処理負荷が大きくなってしまう。
本発明は、上記実情に鑑みて為されたもので、処理負荷の増大を抑えながら認識精度を向上できる認識装置を提供することを、その目的の一つとする。
上記従来例の問題点を解決するための本発明は、人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識装置であって、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する顔部分特定手段と、前記特定した画像領域内の画素値から、当該人物に固有の肌色情報を取得する手段と、前記取得した肌色情報を記憶する記憶手段と、を含み、前記顔部分特定手段が、前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴としている。
また、上記従来例の問題点を解決するための本発明は、人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識装置であって、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する顔部分特定手段と、過去に注目画像データとなった画像データにおいて、前記特定された顔部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する手段と、前記検出された移動状態に基づき、現在の注目画像データ内での顔部分を含む画像領域を推定する顔部分領域推定手段と、を含むことを特徴としている。
ここで、さらに、前記顔部分特定手段によって特定された画像領域内の画素値から、当該人物に固有の肌色情報を取得する手段と、前記取得した肌色情報を記憶する記憶手段と、を含み、前記顔部分特定手段が、前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することとしてもよい。
さらに、前記顔部分特定手段は、肌色情報を用いない第1の認識方法によって、前記顔部分を含む画像領域を特定できないときに、前記肌色情報を用いた第2の認識方法によって、前記顔部分を含む画像領域を特定することとしてもよい。
上記従来例の問題点を解決するための本発明は、一連の画像データを取得し、各画像データに撮像された対象物を認識する認識装置であって、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、前記対象物を含む画像領域を特定する対象物部分特定手段と、前記特定した画像領域内の画素値から、当該対象物に固有の色情報を取得する手段と、前記取得した色情報を記憶する記憶手段と、を含み、前記対象物部分特定手段が、前記記憶されている、過去に注目画像データとなった画像データに係る色情報を、現在の注目画像データにおける、前記対象物の部分を含む画像領域の特定の処理に供することを特徴としている。
また、上記従来例の問題点を解決するための本発明は、一連の画像データを取得し、各画像データに撮像された対象物を認識する認識装置であって、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、前記対象物を含む画像領域を特定する対象物部分特定手段と、過去に注目画像データとなった画像データにおいて、前記特定された対象物の部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する手段と、前記検出された移動状態に基づき、現在の注目画像データ内での前記対象物の部分を含む画像領域を推定する対象物部分領域推定手段と、を含むことを特徴としている。
さらに、本発明の一態様に係る方法は、人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識方法であって、コンピュータを用い、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する工程と、前記特定した画像領域内の画素値から、当該人物に固有の肌色情報を取得する工程と、前記取得した肌色情報を、記憶手段に格納する工程と、を処理し、前記顔部分を特定する工程にて、前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴としている。
また、本発明の一態様に係る方法は、人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識方法であって、コンピュータを用い、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する顔部分特定工程と、過去に注目画像データとなった画像データにおいて、前記特定された顔部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する工程と、前記検出された移動状態に基づき、現在の注目画像データ内での顔部分を含む画像領域を推定する工程と、を実行することを特徴としている。
さらに、本発明の別の態様に係るプログラムは、人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識プログラムであって、コンピュータに、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する手順と、前記特定した画像領域内の画素値から、当該人物に固有の肌色情報を取得する手順と、前記取得した肌色情報を、記憶手段に格納する手順と、を実行させ、前記顔部分を特定する手順にて、前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴としている。
さらに、本発明の別の態様に係るプログラムは、人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識プログラムであって、コンピュータに、前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する手順と、過去に注目画像データとなった画像データにおいて、前記特定された顔部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する手順と、前記検出された移動状態に基づき、現在の注目画像データ内での顔部分を含む画像領域を推定する手順と、を実行させることを特徴としている。
[第1実施形態]
本発明の第1の実施の形態について図面を参照しながら説明する。本実施の形態に係る動作識別装置は、図1に示すように、制御部11と、記憶部12と、入出力インタフェース13と、表示部14と、を含んで構成されている。
制御部11は、記憶部12に格納されているプログラムに従って動作しており、外部から取得した画像データから顔の部分の画像を特定する処理(顔特定処理)を基本的に実行している。これらの処理の具体的内容については、後に述べる。
記憶部12は、制御部11によって実行されるプログラムを格納する、コンピュータ可読な記録媒体である。またこの記憶部12は、制御部11の処理の過程で必要となる種々のデータを記憶するワークメモリとしても動作する。入出力インタフェース13は、例えばカメラ装置などの外部装置に接続され、当該外部装置から画像データを連続的に取得して制御部11に出力する。またこの入出力インタフェース13は、制御部11から入力される指示に従って、種々のデータを外部装置に出力する。表示部14は、例えばディスプレイ等であり、制御部11から入力される指示に従って情報の表示を行う。
制御部11によって実行されるプログラムは、機能的には図2に示すように、画像変換部21と、第1顔特定処理部22と、肌色抽出部23と、記憶処理部24と、第2顔特定処理部25とを含んで構成される。画像変換部21は、入出力インタフェース13を介して取得され、処理対象となる一連の画像データを、それぞれグレイスケールの画像データ(グレイスケールデータ)に変換して、第1顔特定処理部22に出力する。またこの画像変換部21は、上記処理対象となる画像データのそれぞれを、肌色抽出部23と第2顔特定処理部25とに出力する。
第1顔特定処理部22は、肌色情報など、色に関する情報を用いない第1の認識方法によって、顔部分を含む画像領域を特定する処理を行うものであり、ここでは具体的に画像変換部21から入力されるグレイスケールデータから、顔の部分を特定する処理を行う。この第1顔特定処理部22は後に説明するように、予め学習獲得されたデータに基づいて画像データ中の顔部分を認識することとすればよい。また、この第1顔特定処理部22は、顔の位置だけでなく、顔の向き(3次元的向き)や大きさを特定可能なものであってもよい(このような顔特定処理についても後に述べる)。
肌色抽出部23は、画像変換部21から入力される画像データのうち、第1顔特定処理部22が特定した顔の部分に対応する領域の部分画像を取り出し、当該部分画像の平均色情報を演算して肌色情報として出力する。具体的には、第1顔特定処理部22が出力する領域情報によって画定される領域に含まれる画素について、当該画素値のヒストグラムを肌色情報として出力する。この肌色情報は、第1顔特定処理部22によって特定された顔部分の色(すなわち顔の肌の色)のヒストグラムとなるものであり、いわば当該人物に固有の肌色の情報である。本実施の形態の装置は、この対象に固有の肌色を抽出し、それを利用して顔部分をさらに特定する。記憶処理部24は、肌色抽出部23が出力する肌色情報を、記憶部12に格納する。
第2顔特定処理部25は、記憶部12に格納された肌色情報を用いて、別途指定された探索領域を起点(初期値)として肌色の部分を探索する。本実施の形態では、この第2顔特定処理部25は、探索領域の起点として、直前に入力された画像データ内で特定された顔部分を含む画像領域を用いてもよい。
具体的に、この第2顔特定処理部25は、当該探索領域内の各画素の画素値と、記憶部12に格納されている肌色情報とを用いて、画像データのうちの探索領域に含まれる部分から、当該記憶部12に格納されている肌色情報によって特定される色(以下、対象固有色と呼ぶ)の部分の重心を求め、当該重心を中心として、新たな探索領域を画定する。この探索領域は、探索開始領域と同じサイズ、形状の領域とすればよい。
以下、同様にして新たに画定した探索領域内で、対象固有色の部分の重心を求める処理と探索領域を移動する処理とを、新たに求めた重心と前回求めた重心との距離が所定値以下になるまで(探索領域が収束するまで)繰り返し行う。なお、予め定めた繰り返し回数内に収束しない場合には、顔部分が検出されなかったと判断して処理の繰り返しを終了してもよい。
探索領域が収束すると、第2顔特定処理部25は当該収束後の探索領域を顔部分を含む画像領域として特定する。
なお色の重心は、例えば次のように演算できる。すなわち、探索領域内の各画素値と対象固有色との差(画素値が3つの成分を有している場合は、各成分の差の二乗和の平方根などを用いればよい)を演算しておき、所定の位置(例えば探索領域の中心)から各画素までのベクトルと、当該画素の値と上記対象固有色との差との積を演算し、この積の結果としてられるベクトルの総和をさらに演算する。この総和によって得られたベクトルが表す、上記所定の位置からの変位を色の重心とする。
ここで、第1顔特定処理部22の動作について説明する。第1顔特定処理部22は、例えば人物の顔を学習した第1学習データベースを用い、画像データ中から人物の顔に相当する部分を抽出するものであればよい。この際、正立かつ正面向きの顔の画像(正規画像)と、当該正規画像から、顔を右向き及び左向きにそれぞれ所定角度だけ回転させた複数の顔画像を用意して、これらを学習処理した第2学習データベースを予め生成しておき、顔部分の候補となる領域を、当該領域内の画素値に基づく特徴量(例えばエントロピーなど)を用いる等の所定の方法で特定し、第2学習データベースを用いて、当該顔部分の候補となる領域内の画像を正規画像に近接するよう変換し(正規化)、第1学習データベース内の情報を用いて、当該正規化後の領域内の画像のデータが、人物の顔を表す画像であるか否かを判断するようにしてもよい。これによると、正規化の処理の過程で回転角が判別できることになるので、正規化の処理により迅速に顔であるか否かが判別できるようになるとともに、当該過程で得られた回転角を出力することで、上述のように顔の向きを利用した処理に供することができるようになる。
本実施の形態の認識装置は、上記のような構成を有してなり、次のように動作する。カメラ等の外部装置が撮像した一連の画像データが時系列順に、入出力インタフェース13を介して本実施の形態の認識装置に入力されると、制御部11が、記憶部12に格納されているプログラムに従って、まず画像変換部21の処理を行って、各画像データを記憶部12に保持するとともに、当該各画像データを順次注目画像データとしながら、グレイスケールデータに変換し、このグレイスケールデータを記憶部12に保持する。
そして制御部11は、第1顔特定処理部22の処理を開始し、記憶部12から注目画像データのグレイスケールデータを取り出して、上述のように、顔部分の候補を例えばエントロピー等の画素ブロックの特徴量を用いて特定した後、第2学習データベースを用いて、当該顔部分候補の画像を変換して正規化し、顔の画像を学習処理させて得た第1学習データベース内の情報とを用いて、当該正規化後の顔部分の候補となった領域内の画像が顔の画像か否かを判断し、顔の画像であれば、当該候補となっている領域を顔部分を含む画像領域として特定する。また、上記判断の結果、顔の画像でなければ、他の顔部分の候補について正規化の処理から繰返して行う。なお、グレイスケールデータから得られたすべての顔部分の候補について、顔部分の画像が認識できない場合は、顔部分の認識に失敗した旨の情報を出力することになる。
制御部11は、記憶部12から第1顔特定処理部22が処理したグレイスケールデータに対応する画像データ(注目画像データ)を取り出し、この画像データ上で、第1顔特定処理部22が特定した領域に相当する領域内の平均色情報を演算して、当該認識された人物に固有の肌色情報(対象固有色)とし、この対象固有色の情報を記憶処理部24の処理により記憶部12に格納する。
制御部11は、また、予め定められている所定の条件が満足される場合に、第2顔特定処理部25の処理により、顔部分を特定する。ここで所定の条件としては、第1顔特定処理部22が顔部分の認識に失敗したことなどの条件などがある。
制御部11は、第2顔特定処理部25の処理を行う場合は、第1顔特定処理部22が、過去に処理した画像データ(すなわち過去に注目画像データとなった画像データ)内で認識した顔部分を含む画像領域を探索領域の初期値として、最初は、この初期値となった探索領域内の各画素の画素値と、記憶部12に格納されている対象固有色とを用いて、画像データのうちの探索領域に含まれる部分から対象固有色の部分の重心を求め、当該重心を中心として、新たな探索領域を画定する。
以下、画像データのうちの新たな探索領域内の対象固有色の部分の重心を求め、当該重心を中心として、さらに新たな探索領域を画定する処理を、当該新たに求めた重心と前回求めた重心との距離が所定値以下になるまで(探索領域が収束するまで)繰り返し行い、探索領域が収束したときに、当該収束の結果得られた探索領域を、顔部分を含む画像領域として特定する。
制御部11は、このように時系列順に入力される各画像データの各々から、第1顔特定処理部22又は第2顔特定処理部25によって、顔部分を含む画像領域を特定していく。
また、ここでは第2顔特定処理部25による顔部分の画像領域を特定する際の条件として、第1顔特定処理部22により顔部分が認識できなかったこととしているが、この条件に限られるものではなく、例えば入力される一連の画像データのうち、所定の回数ごとの画像データについては、第1顔特定処理部22による処理を行い、他の画像データについては、第2顔特定処理部25による処理を行うとの条件であってもよい。
[第2実施形態]
以上説明した第1の実施の形態に係る認識装置は、所定の条件が満足される場合に、肌色の情報など、対象に固有な色を用いて対象物を認識する処理を行うものとしていたが、動きのある対象物(人物の顔部分などはその典型である)については、肌色等の色の情報ではなく、一連の画像データ間での動きに基づいて対象物を認識することもできる。
以下、このような動きに基づく対象物の認識処理を用いる第2の実施の形態に係る認識装置の例について説明する。本実施の形態に係る認識装置は、基本的には第1の実施の形態に係る認識装置と同様の構成を採るが、制御部11によって実行されるプログラムの内容が若干異なる。そこで以下、制御部11によって実行されるプログラムの内容について説明する。なお、以下の説明では、時刻Ti(i=1,2…n;T1<T2<…<Tn)における画像データをP(Ti)と記す。
本実施の形態の制御部11によって実行されるプログラムは、機能的には図3に示すように、画像変換部21と、第1顔特定処理部22と、記憶処理部31と、顔領域追跡部32と、第3顔特定処理部33とを含んで構成される。なお、第1の実施の形態と略同様の処理を行うものについては、第1の実施の形態と同一の符号を付して、その詳細な説明を省略する。
記憶処理部31は、第1顔特定処理部22が特定した顔部分を含む画像領域を表す情報(例えば当該画像領域を表す座標情報)を記憶部12に格納する。顔領域追跡部32は、記憶部12に格納されている、過去に処理した画像データについての顔部分の認識結果(顔部分の画像領域を表す情報や、顔の向き、傾きなどの情報)に基づいて、注目画像データにおいて顔部分が含まれると推定される候補領域を決定する。具体的に画像領域を表す情報を用いる場合、現在注目画像データとなっている画像データがP(Ti)であるとすると、この顔領域追跡部32は、P(Ti−1)における顔部分の画像領域を表す情報をそのまま、P(Ti)において顔部分を含むと推定される候補領域としてもよい(0次近似)。また、P(Ti−2)とP(Ti−1)とにおける顔部分の画像領域の移動量を用い、P(Ti−1)からこの移動量だけ変化させた画像領域を、P(Ti)における候補領域としてもよい(1次近似)。以下同様に、過去のk個の画像データP(Ti−k),…P(Ti−1)を用いた所定の外挿演算によって得られる画像領域を、P(Ti)における候補領域とする。
第3顔特定処理部33は、時系列に入力される画像データのうち、P(Ti)とそれに隣接する画像データP(Ti−1)間(又はそれらを変換して得られたグレイスケールデータ間)で、各画素値の輝度情報の差を演算するなどの方法で、各画素の移動を表すベクトル情報(移動履歴画像;Motion History Image)を生成する。そして、顔領域追跡部32が出力する候補領域内に含まれる各画素の平均移動量(各画素に対応する部分が何画素分だけ移動したかの平均値)を求め、この平均移動量が予め定めたしきい値を越えたか否かを判断する。ここで予め定めたしきい値を越えていれば、移動が検出され、顔が当該候補領域内にあるとして、当該候補領域を顔部分を含む画像領域として特定する。
また、上記判断において、予め定めたしきい値を越えていなければ、顔部分を含む画像領域の特定に失敗した(未検出)ことを表す情報を出力する。
本実施の形態の認識装置は、上記のような構成を有してなり、次のように動作する。カメラ等の外部装置が撮像した一連の画像データが時系列順に、入出力インタフェース13を介して本実施の形態の認識装置に入力されると、制御部11が、記憶部12に格納されているプログラムに従って、まず画像変換部21の処理を行って、各画像データを記憶部12に保持するとともに、当該各画像データをグレイスケールデータに変換し、このグレイスケールデータを記憶部12に保持する。
そして制御部11は、第1顔特定処理部22の処理を開始し、記憶部12からグレイスケールデータを取り出して、上述のように、顔部分の候補を例えばエントロピー等の画素ブロックの特徴量を用いて特定した後、第2学習データベースを用いて、当該顔部分候補の画像を変換して正規化し、顔の画像を学習処理させて得た第1学習データベース内の情報とを用いて、当該正規化後の顔部分の候補となった領域内の画像が顔の画像か否かを判断し、顔の画像であれば、当該候補となっている領域を顔部分を含む画像領域として特定する。また、上記判断の結果、顔の画像でなければ、他の顔部分の候補について正規化の処理から繰返して行う。なお、グレイスケールデータから得られたすべての顔部分の候補について、顔部分の画像が認識できない場合は、顔部分の認識に失敗した旨の情報を出力することになる。
制御部11は、記憶処理部31の処理によって、当該特定された画像領域を表す情報を記憶部12に格納する。制御部11は、また、予め定められている所定の条件が満足される場合に、第3顔特定処理部33の処理により、顔部分を特定する。ここで所定の条件としては、第1顔特定処理部22が顔部分の認識に失敗したことなどの条件などがある。
制御部11は、第3顔特定処理部33の処理を行う場合は、顔領域追跡部32により、記憶部12に格納されている、過去に処理した画像データについての顔部分の画像領域を表す情報等に基づいて、注目画像データにおいて顔部分が含まれると推定される候補領域を決定する。
そして第3顔特定処理部33は、注目画像データとそれに隣接する一つ前の画像データ間での、各画素の移動を表すベクトル情報を生成し、顔領域追跡部32が出力する候補領域内に含まれる各画素の平均移動量(各画素に対応する部分が何画素分だけ移動したかの平均値)を求める。そしてこの平均移動量が予め定めたしきい値を越えた場合に、当該候補領域を、顔部分を含む画像領域として特定する。
このように、本実施の形態では、対象人物が後ろを向いてしまって顔の肌色が検出できなくなっても、動領域検出結果で補完することにより、より精度の高い顔領域検出もしくは頭部検出が可能になる。また、過去の顔部分の画像領域の近傍で動領域の検出のための処理を行うので、計算量の増加を抑えることができるようになっている。
なお、ここでは第3顔特定処理部33による顔部分の画像領域を特定する際の条件として、第1顔特定処理部22により顔部分が認識できなかったこととしているが、この条件に限られるものではなく、例えば入力される一連の画像データのうち、所定の回数ごとの画像データについては、第1顔特定処理部22による処理を行い、他の画像データについては、第3顔特定処理部33による処理を行うとの条件であってもよい。
さらに、第3顔特定処理部33による動領域を検出する処理は、ここで説明した例に限られるものではなく、例えば注目画像データと、この注目画像データに時系列上で隣接する直前の画像データの各画素の輝度成分の差に基づいて、これらの画像データ間で変化した画素(動画素)の数を用いるなどの処理であってもよい。
[第3実施形態]
また第1実施形態における肌色(対象固有色)を利用した処理と、第2実施形態における動領域検出とを、第1顔特定処理部22の処理に組み合せてもよい。すなわち、制御部11は、所定の条件に基づいて、第1、第2、第3の顔特定処理部による処理を組み合せて用いてもよい。
例えば、通常は第1顔特定処理部22によって、時系列順に入力される各画像データから顔部分の画像領域を特定し、第1顔特定処理部22によって特定できない場合に、第2顔特定処理部25により顔部分の画像領域が特定できるか否かを調べ、それでも特定できない場合に、第3の顔特定処理部33による顔特定処理を行うこととしてもよい。この場合、第3の顔特定処理部33によっても顔部分を含む画像領域を特定できない場合は、人物がいない旨の判定(不在判定)をした旨の情報を出力してもよい。
[利用例]
これらの処理によって特定された顔部分を含む画像領域の情報は、他の処理、例えばカメラの雲台を制御して当該画像領域が画像データの中心となるようにカメラの視線方向を制御する処理等に供される。
また、顔部分を含む画像領域が、画像データ上でどの位置にあり、どの程度の大きさを占めるか等の情報に基づいて、人物がどのような動作を行っているかを推定する動作推定処理を行うこともできる。この場合は、図4に示すように、識別子(例えば連番)をキーとして、画像データ上の画像領域を画定する座標情報と、識別対象となっている動作を表す動作情報(「PC操作中」などの文字列情報でよい)とを関連づけて記憶部12に保持しておき、制御部11が、図4に示したテーブルから例えば識別子である連番の順序で座標情報を取り出し、上述の処理によって特定された、顔部分を含む画像領域の情報と比較して、それらの差が所定の範囲内にある場合は、当該比較の対象となった座標情報に関連づけられている動作情報を出力する。
また、今回特定した顔部分を含む画像領域の情報と、どの座標情報との差も、上記所定の範囲内になかった場合は、識別不能な動作状態である旨を報知してもよいし、当該画像領域の情報を、新たな識別の候補として記憶部12に格納してもよい。
[変形例]
第1(及び第3)の実施形態の説明における第2顔特定処理部25においては、その探索領域の起点として、直前に入力された画像データ内で特定された顔部分を含む画像領域を用いる例を示したが、第2の実施の形態における顔領域追跡部32の処理を制御部11に行わせ、上記探索領域の起点、すなわち初期値となる画像領域として、顔領域追跡部32によって得られる候補領域を用いてもよい。
また、第2顔特定処理部25に入力する画像データは、画像データそのものではなく、その色相成分のデータ(色相データ)に変換されたものでもよい。これにより、照明による明度差などの影響を軽減できる。
また、ここまでの説明では、認識の対象が人物の顔である場合を例として述べてきたが、本発明の範囲はこれに限られるものではなく、いかなる対象物であっても同様の処理を適用することができる。
さらに、上記動作推定処理を行う場合において、前回第1顔特定処理部22によって顔の向きや傾きなどの情報が得られているときには、図4に示したテーブルにさらに、これらの情報を関連づけておくことで、例えば略同じ座標情報に関連づけられた複数の動作がある場合に、この顔の向きの情報等に基づいて、上記複数の動作のいずれかを区別することとしてもよい。
上記第1及び第3の実施形態に係る認識装置を、動作推定処理に用いた場合の実験結果について次に説明する。ここでは、(1)特定の動作Aを行っていないのに、当該動作Aを行っているとして誤認識する確率と、(2)特定の動作Aを行っている人物が撮影されているのに、人物が不在である(第1から第3の顔特定処理のいずれも顔部分を含む画像領域を特定できなかった)と誤検出する確率と、(3)特定の動作Aを行っていないときに、人物が不在であると誤検出する確率とを、(a)第1顔特定処理部22のみを用いた認識装置の場合、(b)第2顔特定処理部25を組み合わせた(上記第1の実施の形態の装置に相当する)場合、(c)さらに第3顔特定処理部33を組み合わせた(上記第3の実施の形態の装置に相当する)場合、の3×3=9例について実験し、図5に示す結果を得た。
ここで動作Aは、特定の顔位置で特定の方向を向いての作業である。ここで(1)動作A以外の動作については、対応する動作が図4に示したテーブル上に含まれていないときに誤認識する確率が大きいため、(a)から(c)のどの装置においても略等確率で誤検出となっている。
しかしながら、(2)や(3)の誤認識の確率は、いずれも1/6程度に改善される。
本発明の第1の実施の形態に係る認識装置の構成ブロック図である。 本発明の第1の実施の形態に係る認識装置の処理の例を表す機能ブロック図である。 本発明の第2の実施の形態に係る認識装置の処理の例を表す機能ブロック図である。 本発明の認識装置を動作推定処理に適用する場合に用いられるテーブルの一例を表す説明図である。 動作推定処理において、本発明の認識装置を用いることによる誤検出の低減性能の実験結果例を表す説明図である。
符号の説明
11 制御部、12 記憶部、13 入出力インタフェース、14 表示部、21 画像変換部、22 第1顔特定処理部、23 肌色抽出部、24,31 記憶処理部、25 第2顔特定処理部、32 顔領域追跡部、33 第3顔特定処理部。

Claims (10)

  1. 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識装置であって、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する顔部分特定手段と、
    前記特定した画像領域内の画素値から、当該人物に固有の肌色情報を取得する手段と、
    前記取得した肌色情報を記憶する記憶手段と、
    を含み、
    前記顔部分特定手段が、
    前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴とする認識装置。
  2. 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識装置であって、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する顔部分特定手段と、
    過去に注目画像データとなった画像データにおいて、前記特定された顔部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する手段と、
    前記検出された移動状態に基づき、現在の注目画像データ内での顔部分を含む画像領域を推定する顔部分領域推定手段と、
    を含むことを特徴とする認識装置。
  3. 請求項2に記載の認識装置において、さらに、
    前記顔部分特定手段によって特定された画像領域内の画素値から、当該人物に固有の肌色情報を取得する手段と、
    前記取得した肌色情報を記憶する記憶手段と、
    を含み、
    前記顔部分特定手段が、
    前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴とする認識装置。
  4. 請求項1または3に記載の認識装置において、
    前記顔部分特定手段は、肌色情報を用いない第1の認識方法によって、前記顔部分を含む画像領域を特定できないときに、前記肌色情報を用いた第2の認識方法によって、前記顔部分を含む画像領域を特定することを特徴とする認識装置。
  5. 一連の画像データを取得し、各画像データに撮像された対象物を認識する認識装置であって、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、前記対象物を含む画像領域を特定する対象物部分特定手段と、
    前記特定した画像領域内の画素値から、当該対象物に固有の色情報を取得する手段と、
    前記取得した色情報を記憶する記憶手段と、
    を含み、
    前記対象物部分特定手段が、
    前記記憶されている、過去に注目画像データとなった画像データに係る色情報を、現在の注目画像データにおける、前記対象物の部分を含む画像領域の特定の処理に供することを特徴とする認識装置。
  6. 一連の画像データを取得し、各画像データに撮像された対象物を認識する認識装置であって、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、前記対象物を含む画像領域を特定する対象物部分特定手段と、
    過去に注目画像データとなった画像データにおいて、前記特定された対象物の部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する手段と、
    前記検出された移動状態に基づき、現在の注目画像データ内での前記対象物の部分を含む画像領域を推定する対象物部分領域推定手段と、
    を含むことを特徴とする認識装置。
  7. 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識方法であって、コンピュータを用い、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する工程と、
    前記特定した画像領域内の画素値から、当該人物に固有の肌色情報を取得する工程と、
    前記取得した肌色情報を、記憶手段に格納する工程と、
    を処理し、
    前記顔部分を特定する工程にて、
    前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴とする認識方法。
  8. 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識方法であって、コンピュータを用い、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する顔部分特定工程と、
    過去に注目画像データとなった画像データにおいて、前記特定された顔部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する工程と、
    前記検出された移動状態に基づき、現在の注目画像データ内での顔部分を含む画像領域を推定する工程と、
    を実行することを特徴とする認識方法。
  9. 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識プログラムであって、コンピュータに、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する手順と、
    前記特定した画像領域内の画素値から、当該人物に固有の肌色情報を取得する手順と、
    前記取得した肌色情報を、記憶手段に格納する手順と、
    を実行させ、
    前記顔部分を特定する手順にて、
    前記記憶されている、過去に注目画像データとなった画像データに係る肌色情報を、現在の注目画像データにおける、前記顔部分を含む画像領域の特定の処理に供することを特徴とする認識プログラム。
  10. 人物の顔を含む少なくとも一部を撮像して生成された一連の画像データを取得し、各画像データに撮像された人物の顔部分を認識する認識プログラムであって、コンピュータに、
    前記一連の画像データの各々を順次注目画像データとして、当該注目画像データから、人物の顔部分を含む画像領域を特定する手順と、
    過去に注目画像データとなった画像データにおいて、前記特定された顔部分を含む画像領域を表す情報に基づいて決定される候補領域の画像データ内での移動状態を検出する手順と、
    前記検出された移動状態に基づき、現在の注目画像データ内での顔部分を含む画像領域を推定する手順と、
    を実行させることを特徴とする認識プログラム。
JP2003347146A 2003-10-06 2003-10-06 動作識別装置、及び対象物の姿勢識別装置 Expired - Fee Related JP4470434B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003347146A JP4470434B2 (ja) 2003-10-06 2003-10-06 動作識別装置、及び対象物の姿勢識別装置
US10/958,430 US7813533B2 (en) 2003-10-06 2004-10-06 Operation-discerning apparatus and apparatus for discerning posture of subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003347146A JP4470434B2 (ja) 2003-10-06 2003-10-06 動作識別装置、及び対象物の姿勢識別装置

Publications (2)

Publication Number Publication Date
JP2005115544A true JP2005115544A (ja) 2005-04-28
JP4470434B2 JP4470434B2 (ja) 2010-06-02

Family

ID=34386393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003347146A Expired - Fee Related JP4470434B2 (ja) 2003-10-06 2003-10-06 動作識別装置、及び対象物の姿勢識別装置

Country Status (2)

Country Link
US (1) US7813533B2 (ja)
JP (1) JP4470434B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2009053915A (ja) * 2007-08-27 2009-03-12 Seiko Epson Corp 画像処理装置および画像処理方法
JP2009199417A (ja) * 2008-02-22 2009-09-03 Denso Corp 顔追跡装置及び顔追跡方法
WO2011065960A1 (en) * 2009-11-30 2011-06-03 Hewlett-Packard Development Company, L.P. Stabilizing a subject of interest in captured video
WO2020090390A1 (ja) * 2018-10-29 2020-05-07 日本電気株式会社 センサ情報統合システム、センサ情報統合方法、プログラム、及び記録媒体

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080231726A1 (en) * 2007-03-23 2008-09-25 Motorola, Inc. Apparatus and method for image color correction in a portable device
US8306262B2 (en) * 2008-05-15 2012-11-06 Arcsoft, Inc. Face tracking method for electronic camera device
US8548257B2 (en) * 2009-01-05 2013-10-01 Apple Inc. Distinguishing between faces and non-faces
US8385638B2 (en) 2009-01-05 2013-02-26 Apple Inc. Detecting skin tone in images
US20100278395A1 (en) * 2009-05-04 2010-11-04 Jonathan Yen Automatic backlit face detection
CN101719222B (zh) * 2009-11-27 2014-02-12 北京中星微电子有限公司 分类器训练方法和装置以及人脸认证方法和装置
US8903132B2 (en) * 2011-09-12 2014-12-02 2343127 Ontario Inc. Efficient system and method for body part detection and tracking
US20130329043A1 (en) * 2012-06-11 2013-12-12 Motorola Solutions, Inc. Transmissions of images in a remote recognition system
US10452894B2 (en) 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
US9996726B2 (en) 2013-08-02 2018-06-12 Qualcomm Incorporated Feature identification using an RGB-NIR camera pair
JP5808371B2 (ja) * 2013-08-28 2015-11-10 ヤフー株式会社 画像認識装置、画像認識方法及び画像認識プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9215102D0 (en) 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
CA2145914A1 (en) * 1994-05-27 1995-11-28 Alexandros Eleftheriadis Model-assisted coding of video sequences at low bit rates
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
JPH0944680A (ja) 1995-07-26 1997-02-14 Mitsubishi Electric Corp 動画像の目領域抽出装置
JPH1051755A (ja) * 1996-05-30 1998-02-20 Fujitsu Ltd テレビ会議端末の画面表示制御装置
JP3490910B2 (ja) 1998-09-28 2004-01-26 三洋電機株式会社 顔領域検出装置
US6298145B1 (en) * 1999-01-19 2001-10-02 Hewlett-Packard Company Extracting image frames suitable for printing and visual presentation from the compressed image data
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US6680745B2 (en) * 2000-11-10 2004-01-20 Perceptive Network Technologies, Inc. Videoconferencing method with tracking of face and dynamic bandwidth allocation
JP4590717B2 (ja) * 2000-11-17 2010-12-01 ソニー株式会社 顔識別装置及び顔識別方法
TW505892B (en) * 2001-05-25 2002-10-11 Ind Tech Res Inst System and method for promptly tracking multiple faces
US7423686B2 (en) * 2002-03-14 2008-09-09 Canon Kabushiki Kaisha Image pickup apparatus having auto-focus control and image pickup method
JP2003281539A (ja) 2002-03-25 2003-10-03 Oki Electric Ind Co Ltd 顔部品探索装置および顔部品探索方法
KR100474848B1 (ko) * 2002-07-19 2005-03-10 삼성전자주식회사 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
US7454040B2 (en) * 2003-08-29 2008-11-18 Hewlett-Packard Development Company, L.P. Systems and methods of detecting and correcting redeye in an image suitable for embedded applications
JP4479194B2 (ja) * 2003-08-29 2010-06-09 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2009053915A (ja) * 2007-08-27 2009-03-12 Seiko Epson Corp 画像処理装置および画像処理方法
JP2009199417A (ja) * 2008-02-22 2009-09-03 Denso Corp 顔追跡装置及び顔追跡方法
WO2011065960A1 (en) * 2009-11-30 2011-06-03 Hewlett-Packard Development Company, L.P. Stabilizing a subject of interest in captured video
WO2020090390A1 (ja) * 2018-10-29 2020-05-07 日本電気株式会社 センサ情報統合システム、センサ情報統合方法、プログラム、及び記録媒体
JPWO2020090390A1 (ja) * 2018-10-29 2021-10-07 日本電気株式会社 センサ情報統合システム、及びセンサ情報統合方法
JP7095746B2 (ja) 2018-10-29 2022-07-05 日本電気株式会社 センサ情報統合システム、及びセンサ情報統合方法
US11930476B2 (en) 2018-10-29 2024-03-12 Nec Corporation Sensor information integration system, sensor information integration method, program, and recording medium

Also Published As

Publication number Publication date
US7813533B2 (en) 2010-10-12
JP4470434B2 (ja) 2010-06-02
US20050074167A1 (en) 2005-04-07

Similar Documents

Publication Publication Date Title
JP4470434B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
JP4372051B2 (ja) 手形状認識装置及びその方法
JP4687265B2 (ja) 画像分析装置
JP4479194B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
US7756293B2 (en) Movement capture and analysis apparatus and method
US8983235B2 (en) Pupil detection device and pupil detection method
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP4459788B2 (ja) 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
JP6492746B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP5262705B2 (ja) 運動推定装置及びプログラム
JP2007128373A (ja) 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置
JP2016134803A (ja) 画像処理装置及び画像処理方法
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
US11244159B2 (en) Article recognition system and article recognition method
WO2011142313A1 (ja) 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
JP2011089784A (ja) 物体方向推定装置
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP2007304721A (ja) 画像処理装置及び画像処理方法
JP2010079651A (ja) 動作認識装置、方法及びプログラム
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2005025568A (ja) 頭部領域抽出装置
JP4867771B2 (ja) テンプレートマッチング装置
JP2006343989A (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060921

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4470434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees