JP2005209137A - 対象物認識方法及び対象物認識装置、並びに顔方向識別装置 - Google Patents

対象物認識方法及び対象物認識装置、並びに顔方向識別装置 Download PDF

Info

Publication number
JP2005209137A
JP2005209137A JP2004134490A JP2004134490A JP2005209137A JP 2005209137 A JP2005209137 A JP 2005209137A JP 2004134490 A JP2004134490 A JP 2004134490A JP 2004134490 A JP2004134490 A JP 2004134490A JP 2005209137 A JP2005209137 A JP 2005209137A
Authority
JP
Japan
Prior art keywords
filter
image
processing
face
edge detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004134490A
Other languages
English (en)
Inventor
Yoshihiro Furuyui
義浩 古結
Kiichi Sugimoto
喜一 杉本
Masahito Takuhara
雅人 宅原
Tetsuya Tomonaka
哲也 塘中
Keiichiro Osada
啓一郎 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2004134490A priority Critical patent/JP2005209137A/ja
Publication of JP2005209137A publication Critical patent/JP2005209137A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 エッジを検出するためのフィルタ数を少なくして、しかも精度よく対象物の認識を行うことができるようにする。
【解決手段】 フィルタ処理装置13は入力画像を走査して複数の処理対象領域を抽出し、処理対象領域に複数のフィルタ演算領域を規定して、互いに異なる第1及び第2のフィルタ処理機能でフィルタ演算領域をフィルタ処理して第1及び第2のフィルタ出力を得る。スコア演算装置14は、予め対象物と第1及び第2のフィルタ処理機能の出力との関係が定義された座標関数に応じて、第1及び第2のフィルタ出力からスコア値を求め、処理対象領域についてスコア値を加算して加算値を得る。そして、結果判定装置16では、加算値と予め定められた閾値とを比較してその比較結果に応じて処理対象領域に対象物があるか否かを判定する。
【選択図】 図1

Description

本発明は、撮像した画像中の所定の対象物(例えば、顔)を認識するための対象物認識方法及び対象物認識装置、並びに顔方向識別装置に関する。
一般に、各種ロボットにおいては、カメラを備えてロボットの周囲を撮像して、撮像した画像中において所定の対象物(オブジェクト)を認識して、その認識結果に応じて動作を行うようにしている。例えば、人の行動を認識する際に、画像中の人の顔の位置が、正面、左向き、右向き、上向き、下向きのいずれの位置にあるかによって、人の現在の状態及び次の行動を認識することが可能である。つまり、人の行動を認識する際には、オブジェクトとして例えば顔の位置が、正面、左向き、右向き、上向き、下向きのいずれの位置にあるかを認識する必要がある。
ところで、画像中から顔等の対象物を認識する手法は、セキュリティー分野において用いられることが多く、このため高精度に顔の認識を行っており、例えば、固有ベクトル、Gaborウェーブレット、又はテンプレートマッチング等を用いた手法が知られている。ところが、一般的に、上述のような手法においては、極めて演算量が多く、更には、浮動小数点演算を行う必要があり、低価格なロボット(例えば、家庭用のロボット)のように、リアルタイムで認識処理を行い、かつ処理装置(CPU)の価格を安価にしようとすると、上述のような認識手法を用いることは困難であった。
一方、高速に対象画像を認識する手法として、所謂エッジ検出フィルタを用いて顔を認識する手法が知られており、ここでは、デジタル画像中のオブジェクトを検出するため、画像積算器及びオブジェクト検出器を備えて、このオブジェクト検出器が分類器及び画像スキャナを有している。そして、画像積算器では入力画像を受けると、入力画像の積分画像表現を計算して、画像スキャナは、一定サイズのサブウインドウで画像を走査し、同種の構造の分類関数又は分類器を順次用いて、そのサブウインドウの中にオブジェクトの特徴項(例えば、鼻、目、口、耳、眉毛、髪等)が存在する確からしさ(尤度)を算出し、各分類器は、各サブウインドウにおいてオブジェクトの存在の確からしさを示す少なくとも一つの特徴の有無を評価するようにしている(特許文献1参照)。
従来のオブジェクト認識手法において、分類器として4種類のエッジ検出フィルタを用い、これらのエッジ検出フィルタを夫々対応する部位に対して1つ当てはめて、そのエッジ検出に用いている。
例えば図25(a)を参照すると、矩形状体54A(鉛直エッジ検出フィルタ)は、二つの矩形54A−1及び54A−2が左右に振り分けられた鉛直エッジ検出フィルタであり、該矩形状体54A(鉛直エッジ検出フィルタ)の評価関数では、矩形ウインドウ54A−2内の画素合計数から矩形ウインドウ54A−1内の画素合計数を減算してその値が+側か−側かに分別し、二つの矩形54A−1が(+1)若しくは(−1)、及び54A−2が(−1)若しくは(+1)として、その+1と−1との対比で矩形状体54A(鉛直エッジ検出フィルタ)の値が左右いずれの濃度が高い鉛直エッジフィルタかを決定し、これにより、例えば鼻等のように鉛直エッジに対応する部分を抽出している。
同様にして、図25(b)においては、矩形状体54B(水平エッジ検出フィルタ)が、矩形サブウインドウ54B−1及び54B−2を備えており、該矩形状体54B(水平エッジ検出フィルタ)においても、前記矩形状体54A(鉛直エッジ検出フィルタ)と同様にしてその評価関数では、矩形ウインドウ54B−2内の画素合計数から矩形ウインドウ54B−1内の画素合計数を減算してその値が+側か−側かに分別し、二つの矩形54B−1が(+1)若しくは(−1)、及び54B−2が(−1)若しくは(+1)として、その+1と−1との対比で矩形状体54B(水平エッジ検出フィルタ)の値が上下いずれの濃度が高い水平エッジ検出フィルタかを決定している。このように矩形状体54B(水平エッジ検出フィルタ)の値を求めて、例えば睫毛や眉毛、口等ように、水平エッジ部分の検出に用いている。
そして、図25(c)においては、矩形状体54C(中目検出フィルタ)が三つの矩形サブウインドウ54C−1〜54C−3を有しており、矩形状体54C(中目検出フィルタ)の評価関数では、二つの外側に位置する矩形サブウインドウ54C−1及び54C−3内の画素合計数を求めて、中央に位置する矩形サブウインドウ54C−2内の画素合計数から減算して、矩形状体54C(中目検出フィルタ)のエッジ状態の数値+1.−1.+1の値を取得し、例えば瞳等のような部位の検出に用いている。
更に、図25(d)においては、矩形状体54D(角隅部ライン検出フィルタ)が四つの升目状矩形サブウインドウ54D−1〜54D−4を有しており、矩形サブウインドウ54D−2及び54D−4内の画素合計数から、矩形サブウインドウ54D−1及び54D−3内の画素合計数を減算して、矩形状体54D(角隅部ライン検出フィルタ)の値を求め角隅部ライン(段差)のエッジ検出を行い、例えば鼻孔等のような段差エッジ部位の検出を行っている。
そして、従来のオブジェクト認識手法では、画像を一定サイズのサブウインドウで走査し、サブウインドウ内部において短形状特徴54A〜54Dを少なくとも1つ用いて、オブジェクト(例えば、顔)であるか否かの認識を行っている。
米国公開公報2002/0102024A1(第3頁〜第8頁、第1図〜第7図)
従来のオブジェクト認識手法においては、前記鉛直、水平、中目、角隅部の4種類のエッジ検出フィルタを夫々単独で用いて特徴を抽出して、顔画像の各特定部位等のようなオブジェクトの認識を行っているため、その演算量が少なく、高速に該オブジェクトの認識を行えるものの、各エッジ検出フィルタ毎に画像中の夫々の部位に類似する特徴を抽出しており、つまり、各エッジ検出フィルタを用いて特徴点の演算を行う際、4種類のエッジ検出フィルタのうち1つのエッジ検出フィルタを夫々対応する特定部位に位置づけて対応する部位の特徴点の演算を行っている結果、夫々のエッジ検出フィルタで表現できる特徴点が限定されてしまい、他の特徴点の抽出が行えないという課題がある。
つまり、従来のオブジェクト認識手法では、4種類の鉛直、水平、中目、角隅部のエッジ検出フィルタで抽出できない(識別できない)特徴点が画像中に含まれていても、その特徴点を有効に用いて夫々の部位のオブジェクトを認識できないという課題がある。例えば、従来のオブジェクト認識手法では、水平エッジ線(例えば、図25(b)に示すサブウインドウ54B−1とサブウインドウ54B−2との境界線)又は鉛直エッジ線(例えば、図25(a)に示すサブウインドウ54A−1とサブウインドウ54A−2との境界線)を用いて特徴点を認識しているから、顔等のオブジェクトにおいて、あご等の斜め方向に延びるエッジ線を検出して、オブジェクトの認識に用いることができず、その結果、認識精度が劣ってしまうのみならず、顔を認識する際には、顔の位置が、正面、左向き、右向き、上向き、下向きのいずれの位置にあるかを認識することが困難であるという課題がある。
本発明の目的は、前記エッジ検出フィルタを複数種組み合わせて、しかも精度よくオブジェクトの認識、特に顔の特定部位の認識を容易にして、例えば顔の姿勢が、正面、左向き、右向き、上向き、下向きのいずれの位置にあるかを認識することも可能とした、対象物認識方法及び対象物認識装置、並びに顔方向識別装置を提供することにある。
上記の課題を解決するため、本発明の対象物認識方法は、画素情報として撮像された画像中の所定の対象物を認識するための対象物認識方法であって、
前記画像を走査して、複数の処理対象領域を抽出する対象領域抽出ステップと、
前記処理対象領域に複数のフィルタ演算領域を規定して、互いにエッジ検出方向の異なる複数のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理して、エッジ検出方向の異なる複数のフィルタ出力を得るフィルタ処理ステップと、
予め前記対象物と前記複数のフィルタ処理機能の出力との関係が定義された座標関数に応じて前記複数のフィルタ出力からスコア値を求めるスコア値算出ステップと、
前記処理対象領域について前記スコア値を加算して加算値を求めて、該加算値と予め定められた閾値とを比較して、その比較結果に応じて前記処理対象領域に前記対象物があるか否かを若しくはその向きを判定する判定ステップとを有することを特徴とする。
本発明では、例えば、前記加算値が前記閾値を越えた場合、前記処理対象領域に前記対象物がある、若しくは対応する識別器に基づいて設定された対象物の向きであると判定するようにしたことを特徴し、又第1のフィルタ処理機能はフィルタ演算領域で所定の方向に延びるエッジを検出しており、第2のフィルタ処理機能はフィルタ演算領域で前記所定の方向に直交するエッジを検出する。例えば、所定の方向はフィルタ演算領域を規定する平面内で鉛直方向に延びる方向である。
また、本発明では、前記複数のフィルタ処理機能は鉛直軸方向と水平軸方向のように直交するエッジを検出する第1及び第2のフィルタ処理機能であって、該第1及び該第2のフィルタ出力が規定される直交座標において予め規定された領域に前記第1及び前記第2のフィルタ出力をプロットして前記第1及び前記第2のフィルタ出力について、前記エッジの強度と方向に応じて量子化を行う量子化ステップが、前記フィルタ処理ステップと前記スコア値算出ステップの間に存在するようにしてもよい。
加えて、本発明では、撮像された画像がカラー画像である場合に、対象物に近似する色(例えば顔の場合に肌色)を含む領域を有する画像を色領域画像として抽出する前処理ステップを有し、色領域画像について対象領域抽出ステップを行うようにしてもよく、この際には、前処理ステップでは色領域画像をカラー画像からモノクロ画像に変換する。
本発明では、撮像画像に対して輝度変換処理を行って、画像における輝度分布を変更してその輝度差を強調する輝度変換ステップを有し、輝度変換処理後の画像について対象領域抽出ステップを行うようにしてもよい。
本発明によれば、画素情報として撮像された画像中の所定の対象物を認識するための対象物認識装置であって、
前記画像を走査して複数の処理対象領域を抽出する対象領域抽出手段と、
前記処理対象領域に複数のフィルタ演算領域を規定して、互いにエッジ検出方向の異なる複数のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理してエッジ検出方向の異なる複数のフィルタ出力を得るフィルタ処理手段と、
予め前記対象物と前記複数のフィルタ処理機能の出力との関係が定義された座標関数に応じて前記複数のフィルタ出力からスコア値を求めるスコア値算出手段と、
前記処理対象領域について前記スコア値を加算して加算値を求めて、該加算値と予め定められた閾値とを比較してその比較結果に応じて前記処理対象領域に前記対象物があるか否か、若しくはその向きを判定する判定手段とを有することを特徴とする対象物認識装置が得られる。
前記複数のフィルタ処理機能は鉛直軸方向と水平軸方向のように直交するエッジを検出する第1及び第2のフィルタ処理機能であって、該第1及び該第2のフィルタ出力が規定される直交座標において予め規定された領域に前記第1及び前記第2のフィルタ出力をプロットして前記第1及び前記第2のフィルタ出力について、前記エッジの強度と方向に応じて量子化を行う量子化手段を設けたことを特徴とする。
そして本発明は、画素情報として撮像された画像中の顔の向きを識別するための顔方向識別装置であって、
予め用意された顔方向毎の識別器と、
前記画像を走査して、複数の処理対象領域を抽出する対象領域抽出手段と、
前記処理対象領域に複数のフィルタ演算領域を規定して、互いにエッジ検出方向の異なる複数のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理してエッジ検出方向の異なる複数のフィルタ出力を得るフィルタ処理手段と、
前記複数のフィルタ処理機能は鉛直軸方向と水平軸方向のように直交するエッジを検出する第1及び第2のフィルタ処理機能であって、該第1及び該第2のフィルタ出力が規定される直交座標において予め規定された領域に前記第1及び前記第2のフィルタ出力をプロットして前記第1及び前記第2のフィルタ出力について、前記エッジの強度と方向に応じて量子化を行う量子化手段とを設け、
前記夫々の各顔方向識別器にて抽出された複数の処理対象領域毎にフィルタ処理してエッジの強度と方向に応じて量子化を行い、前記量子化された数値に基づいて、スコア値を求めそのスコア計算により、類似度の高い識別器を判別して、顔方向を判定することを特徴とする。
この場合に、前記顔画像がカラー画像である際、前記肌色を有する領域を有する画像を色領域画像として抽出する前処理手段を有し、該色領域画像について前記対象領域抽出を行うようにするのがよい。
以上のように、本発明では、画像を走査して複数の処理対象領域を抽出して、処理対象領域に複数のフィルタ演算領域を規定した後、互いに異なる第1及び第2のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理して第1及び第2のフィルタ出力を取得し、座標関数に応じて、第1及び第2のフィルタ出力からスコア値を求めて、処理対象領域についてスコア値を加算して加算値を取得し、加算値と予め定められた閾値とを比較してその比較結果に応じて処理対象領域に対象物があるか否かを判定するようにしたため、対象物の斜め方向のエッジも検出できるようになり、少ない種類のフィルタ処理機能でより精度よく、対象物の検出が行えるという効果がある。
本発明では、エッジ方向成分の異なる第1及び第2のフィルタ出力について、第1及び第2のフィルタ出力が規定される直交座標において、予め規定された領域に位置する第1及び第2のフィルタ出力を原点対象移動するようにしたため、座標関数の定義域を削減でき、その結果、座標関数のメモリ容量を低減できるという効果がある。
本発明では、前記第1及び第2のフィルタ出力について、エッジの強度に応じて量子化を行うようにしたため、輝度の微妙な変化に対して安定してエッジの認識を行うことができるという効果がある。また、本発明では、第1及び第2のフィルタ出力について、エッジの方向に応じて量子化を行うようにしたため、エッジ検出方向の微妙な変化に対して安定してエッジの認識を行うことができるという効果がある。
本発明では、撮像画像(例えば顔)がカラー画像である場合に、対象物に近似する色(例えば肌色)を有する領域を有する画像を色領域画像として抽出するようにしたため、フィルタ処理を行うべき領域や画素数が減少し、対象物認識の際の処理速度を向上させることができるという効果がある。
本発明では、撮像画像に対して輝度変換処理を行って、画像における輝度分布を変更してその輝度差を強調するようにしたため、フィルタ処理によってエッジ検出を容易に行うことができるという効果がある。
そして本発明では、主に高齢者、身障者若しくは独身者をターゲットとした生活支援型ロボットに適用させるのが有効である。生活支援型ロボットは、場所、時間、ユーザーの日常生活パターンから行動を推定し、行動内容に応じたコミュニケーションを行う機能や、人の動作に応じて適切なタイミングで適切な内容の会話を行う機能が搭載されている。
このための主要技術として、画像による顔方向(正面・上・下・左・右)と頭部の動き(うなずく・振り向く等)を高精度に認識することができる。
具体的には、図17に示すように様々な方向を向いた顔画像を多数集め、これらを顔の方向毎に分類した上で、顔方向毎に登録された画像データベースを有する識別器を用い、又顔の特徴量抽出フィルタについては、本発明に用いる前記フィルタが4分割サブウインドウを有する升目状フィルタを用い、夫々のサブウインドウの上下若しくは左右の対比するウインドウ内の画素合計数を減算してその値が+側か−側かに分別し、上下若しくは左右のサブウインドウの+1と−1との対比で、水平若しくは鉛直エッジフィルタとして機能させることにより、エッジ勾配角度の分解能を8方向に増やすことができ、顔の輪郭の細かな変動に対応可能とすることができる。尚、前記顔方向識別器は、正面/右向き/左向き/上向き/下向き」の5つの識別器に加えて、顔の向きの程度に応じて2段階の識別器を持つ(やや右向き・右向き等)ようにしてもよい、
以下、本発明の実施の形態について図面を参照して説明する。但し、この実施の形態に記載されている構成部品の寸法、材質、形状、その相対配置などは特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。
本実施例では、対象物(オブジェクト)として人間の顔を認識する場合について説明するが、人間の他の部位、又は他のオブジェクトを認識する場合にも、同様にして本実施例を適用できる。
まず、図1を参照して、本実施例に係る対象物認識装置の概略を説明する。図に示されるように、対象物認識装置10は、CCDカメラ等の画像入力装置11、フィルタ処理装置13、スコア演算装置14、記憶装置15、スコア演算装置14の演算結果判定装置16、及び判定結果出力装置17を備えており、記憶装置15には後述するフィルタ位置・大きさ及び対象物らしさを出力する関数(以下単に座標関数と呼ぶ)が予め記憶されている。尚、フィルタ処理装置13の前段には必要に応じて、破線ブロックで示す前処理装置12が配置される。
ここでは、まず、前処理装置12を備えていない対象物認識装置10について説明する。図2及び図3も参照して、画像入力装置11は、例えばCCDカメラ等の撮像装置(図示せず)を備えており、撮像装置で撮像された画像(モノクロ画像)はビデオデータからなるデジタル画像として、画像入力装置11からフィルタ処理装置13に入力される(S1)。フィルタ処理装置13では入力画像(対象画像)21に処理領域22を設定して(S2)、図3に実線矢印で示すように、処理領域22をスキャン(走査)して、順次処理対象領域に対応するサイズの処理対象画像23を抽出する(S3)。尚、一回目の走査が終了すると、少なくとも更に一回若しくは複数回、処理領域22の大きさを順次変化させて、繰り返し走査を行い、処理対象画像23を抽出する。
いま、対象画像21の画像サイズを(N,M)とすると、(N及びMはそれぞれ水平方向(x)及び鉛直方向(y)のピクセル(画素)数である)、対象画像21中の画像データIは、I(x,y│0≦x<N,0≦y<N)で表される。
図3において、処理対象画像23の二次元座標(x、y)左上座標を(xs,ys)、その画像サイズを(w,h)とすると、(w及びhはそれぞれ水平方向及び鉛直方向のピクセル数である)、処理対象画像23中の画像データI’は、I’(u,v)=I(xs+u,ys+v│0≦u<w,0≦v<h)で表される。上述のようにして、複数の処理対象画像23を抽出した後、フィルタ処理装置13では、処理対象画像23の拡大若しくは縮小処理(正規化処理)を行う(S4)。拡大・縮小処理(正規化処理)に当っては、例えば、ニアレストネイバー法、バイリニア法、又はバイキュービック法等の拡大・縮小処理法が用いられる。
拡大・縮小処理に用いられる関数をG(I)として、既定の画像サイズ(つまり、正規化後の画像サイズ)を(N,M)すると、拡大・縮小処理後(正規化後)の画像I”は、I”(x,y│0≦x<N,0≦y<M)となる。そして、このようにして、正規化された画像データ(つまり、正規化後の処理対象画像23)は、後述するようにしてフィルタ処理される。
図4を参照すると、フィルタ処理に当って、フィルタ処理装置13では、図4(a)に示すように、正規化処理対象画像23について、複数の升目状のフィルタ演算領域24を設定する。フィルタ演算領域24の位置(複数の升目状の位置)及び大きさは、前述した記憶装置15に予めフィルタ位置及び大きさ設定値として設定されており、フィルタ処理装置13では、記憶装置15からフィルタ位置及び大きさ設定値を読み込み(S5)、フィルタ演算領域24を正規化処理対象画像23に設定した後、フィルタ処理を行う(S6)。
例えば顔画像をフィルタ処理する場合、図12に示すように、撮像した抽出画像を記憶された顔画像31に対応して大・縮小処理後(正規化後)、例えば、目、口、あご、鼻、もみあげ等の座標部位に対応するフィルタ演算領域32を正規化処理対象画像33に設定した後、フィルタ処理を行う(S6)。
フィルタ処理に当っては、各フィルタ演算領域24ついて、鉛直エッジ検出フィルタ25及び水平エッジ検出フィルタ26を用いてフィルタ処理が行われる。図4(b)に示すように、鉛直エッジ検出フィルタ25はフィルタ演算領域24と同一の面積を有しており、鉛直エッジ検出フィルタ25には左側フィルタ部25aと右側フィルタ部25bと左右2つのサブウインドウを有しており、鉛直エッジ検出フィルタ25がフィルタ演算領域24に位置付けられて、左側フィルタ部25aの合計画素数(グレースケール)が、明るい領域を示す右側フィルタ部25bの合計画素数よりも暗い領域を示すことになり、明るい領域を示す右側フィルタ部25bの合計画素数(グレースケール)から左側フィルタ部25aの合計画素数を減算して、鉛直エッジ検出フィルタ25の出力を得る。尚、前記フィルタ演算領域には複数のフィルタが対応するようにしても良い。
そして、鉛直エッジ検出フィルタ25の出力は鉛直フィルタ出力としてスコア演算装置14に与えられる。
同様にして、図4(c)に示すように、水平エッジ検出フィルタ26はフィルタ演算領域24と同一の面積を有しており、水平エッジ検出フィルタ26には上側フィルタ部26aと下側フィルタ部26bとを有しており、水平エッジ検出フィルタ26がフィルタ演算領域24に位置づけられて、上側フィルタ部26aの合計画素数が、明るい領域を示す下側フィルタ部26bの合計画素数よりも暗い領域を示すことになり、水平エッジ検出フィルタ26の出力は水平フィルタ出力としてスコア演算装置14に与えられることになる。このようにして、鉛直エッジ検出フィルタ25及び水平エッジ検出フィルタ26を用いて、交互にフィルタ演算領域24にフィルタ処理を行い、それぞれ鉛直フィルタ出力及び水平フィルタ出力を得る。
いま、全フィルタ演算領域(つまり、全フィルタ数)をNf、フィルタ演算領域番号(つまり、フィルタ番号)をkとし(つまり、図5に示すように、正規化処理対象画像23に対して第1番目から第k番目(kは2以上の整数)のフィルタ演算領域24が設定され、各フィルタ演算領域24に対して鉛直フィルタ出力及び水平フィルタ出力を得ることになる)、図4(a)において、フィルタ演算領域24の左上座標を(xfs(k),yfs(k))、フィルタ演算領域24のサイズを(wf(k),hf(k))として、鉛直エッジ検出フィルタ25の出力(鉛直フィルタ出力)をFv(x,y,k)、水平エッジ検出フィルタ26の出力(水平フィルタ出力)をFh(x,y,k)で表すと、Fv(x,y,k)は数1で表され、Fh(x,y,k)は数2で表される。
〔数1〕
Fv(x,y,k)=−1:xfs(k)≦x<xfs(k)+wf(k)/2,yfs(k)≦y<yfs(k)+hf(k)
Fv(x,y,k)=+1:xfs(k)+wf(k)/2≦x<xfs(k)+wf(k),yfs(k)≦y<yfs(k)+hf(k)
Fv(x,y,k)=0(それ以外)
〔数2〕
Fh(x,y,k)=−1:xfs(k)≦x<xfs(k)+wf(k),yfs(k)≦y<yfs(k)+hf(k)/2
Fv(x,y,k)=+1:xfs(k)≦x<xfs+wf(k),,yfs(k)+hf(k)/2≦y<yfs(k)+hf(k)
Fv(x,y,k)=0(それ以外)
スコア演算装置14では、鉛直フィルタ出力及び水平フィルタ出力を受けると、記憶装置15に予め設定された対象物らしさ(例えば、顔らしさ)を出力する関数(座標関数)を読み込み(S7)、鉛直フィルタ出力及び水平フィルタ出力をこの座標関数に代入して、出力結果をスコア値として得る(S8)。
いま、鉛直フィルタ出力をEv(k)、水平フィルタ出力をEh(k)とすると、座標関数は、Sobj(Ev(k),Eh(k))で表され、図6に示す三次元座標系において、Sobj(対象物らしさ)、Ev(k)、及びEh(k)が図示のように規定され、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)が定まると、図6に×印で示す座標関数値(対象物らしさ:スコア値)が求まる。尚、原点から×印(スコア値)を結ぶベクトルの大きさは輝度を表している。
そして、スコア演算装置14では、全ての鉛直フィルタ出力及び水平フィルタ出力の対について、そのスコア値を求めると(S9)、これらスコア値を加算して加算結果を得る(S10)。この加算結果SはS=ΣSobj(Ev(k),Eh(k))(kは1からNfまで)で表される。
上記の加算結果は、結果判定装置16に与えられて、結果判定装置16では、加算結果が予め規定された閾値よりも大きいか否かを判定し(S11)、加算結果が予め規定された閾値よりも大きいと、結果判定装置16は、処理対象領域が対象物(例えば、顔)であると判定する(S12)。一方、結果判定装置16は、加算結果が予め規定された閾値以下であると、処理対象領域が非対象物であると判定する(S13)。
上述のようにして、全ての処理対象画像について処理を行って、結果出力装置17から処理結果を出力する(S14)。このようにして、鉛直及び水平エッジ検出フィルタ25及び26という二種類のエッジ検出フィルタを用い、同一の処理対象画像を二種類のエッジ検出フィルタで処理するようにしたため、例えば、顔の輪郭のように斜め方向のエッジも検出できることになり、少ない種類のエッジ検出フィルタでより精度よく顔の検出が行えることになる。
ところで、撮像装置で得られた画像は、その撮影環境によって微妙に変化する。例えば、逆光等の撮影環境においては、画像の明暗が逆転することになって、対象物と背景との明暗が逆転する。このため、フィルタ演算装置13では、例えば、画像の明暗が逆転する撮影環境下においては、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)を原点に対して対象移動した後、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)をスコア演算装置14に出力する。
図7を参照すると、フィルタ演算装置13では、図2で説明したフィルタ処理(S6)を行った後、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)の出力変換処理を行い(S15)、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)をスコア演算装置14に出力する。そして、スコア演算装置14は図2に示す対象物関数読み込み処理(S7)以降を行うことになる。この際には、図8に示すように、例えば、鉛直フィルタ出力軸よりも下側に位置するスコア値Sobj(図8において斜線で示す部分に位置するスコア値Sobj)は、原点に対して対象移動した位置に現れる。この結果、全てのスコア値Sobjが鉛直フィルタ出力軸よりも上側に位置することになって、座標関数の定義域を1/2にすることができ、記憶装置15の容量を低減できる。
また、上述の出力変換処理(S15)においては、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)が検出されたエッジの強度に応じて量子化して、鉛直フィルタ量子化出力及び水平フィルタ量子化出力を得て、スコア演算装置14では、鉛直フィルタ量子化出力及び水平フィルタ量子化出力から座標関数を参照してスコア値を求めるようにしてもよい。このようにしてエッジ強度に応じて量子化を行えば、輝度の微妙な変化に対して安定し、例えば、照明の変化等によって画像の輝度が変化しても、安定してエッジの認識を行うことができる。
例えば図12に示すように、顔画像31の特定部位の画像32を抽出して(図12(A)参照)その抽出画像32を正規化処理して、その正規化処理した抽出画像33を升目状に分割してフィルタ演算領域を設定した(図12(B)参照)。鉛直エッジ検出フィルタ25と水平エッジ検出フィルタ26夫々のエッジの強度に応じて量子化して、鉛直フィルタ量子化出力及び水平フィルタ量子化出力を得て、前記スコア演算装置14では、鉛直フィルタ量子化出力及び水平フィルタ量子化出力から座標関数を参照してスコア値を求め、これを座標軸上で表したものが図12(C)のエッジ評価図である。
このようにしてエッジ強度に応じて量子化した鉛直エッジ検出フィルタ25と水平エッジ検出フィルタ26夫々のエッジの強度を二次元座標上にプロットし、例えば30°刻みの6方向とその強度に合わせて数段階の範囲を設定して量子化することにより、輝度の微妙な変化に対して安定し、例えば、照明の変化等によって画像の輝度が変化しても、安定してエッジの認識を行うことができる。
即ち鉛直エッジ検出フィルタ25と水平エッジ検出フィルタ26を利用して、エッジ検出フィルタ強度を算出し、二次元座標にプロットすることによりNo.2〜No.25の夫々の座標区域にプロットすることができ、その区域のNo.2〜No.25のNo.を示すだけで、エッジ方向、強度を簡単に判定し、量子化が可能となる。
尚、No.1の場合は、エッジ強度、即ち鉛直エッジ検出フィルタ25と水平エッジ検出フィルタ26のスコア値がいずれもが小さい場合で、これは例えば照明の変化等によって画像の輝度が変化してできた抽出画像であり、この座標区域No.1の場合は、エッジ方向の判断をしない。
具体的に説明すると、例えば図13の(A)は照明の変化等によって画像の輝度が変化してできたような抽出画像32aで、一見して両目のように錯覚するが、鉛直エッジ検出フィルタ25と水平エッジ検出フィルタ26のスコア値(X印)がいずれも小さい領域34aに存在し、この場合はエッジ方向の検出判断をしない。
また、図13(B)は実際の両目の抽出画像32bで、鉛直エッジ検出フィルタ25と水平エッジ検出フィルタ26のスコア値(○印)がいずれも大きい領域34bで、これを回帰分析等で重み付けをすることにより座標区域の選択が容易となる。
更に、図14(A)に示すように、フィルタ部(サブウインドウ)が上下若しくは左右の2分割エッジ検出フィルタ25、26の場合は斜め方向のエッジ検出が高精度に出ず、このような2分割エッジ検出フィルタを用いた場合は、例えば30〜45°(図14(B)では36°分割)の4〜5方向のエッジ検出しかできないが、図15(A)に示すように、フィルタ部(サブウインドウ)が上下及び左右の4分割エッジ検出フィルタ27A、27B、28A、28Bを用い、図16に示すように、下2つのサブウインドウが−1(+1)で、上2つのサブウインドウが+1(−1)を水平エッジ検出フィルタ27A(27B)とし、左2つのサブウインドウが−1(+1)で、右2つのサブウインドウが+1(−1)を鉛直エッジ検出フィルタ28A(28B)とした場合に、水平エッジ検出フィルタ27Aと鉛直エッジ検出フィルタ28Aにより斜め左方向のエッジが検出でき、鉛直エッジ検出フィルタ28Bと水平エッジ検出フィルタ27Aにより斜め右方向のエッジが検出でき、結果として45°を基本単位として、更にその2分割の、例えば20〜30°(図15(B)では22.5°分割)の8方向のエッジ検出が可能となる。
元に戻り、上述の出力変換処理(S15)において、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)を検出されたエッジの方向に応じて量子化して、鉛直フィルタ量子化出力及び水平フィルタ量子化出力を得て、スコア演算装置14では、鉛直フィルタ量子化出力及び水平フィルタ量子化出力から座標関数を参照してスコア値を求めるようにしてもよい。このようにしてエッジ方向に応じて量子化を行えば、エッジ方向の微妙な変化に対して安定し、例えば、認識対象物(顔)の傾き又は位置ずれに対しても、安定してエッジの認識を行うことができる。
尚、上述の出力変換処理(S15)において、鉛直フィルタ出力Ev(k)及び水平フィルタ出力Eh(k)を検出されたエッジの強度及び方向に応じて量子化して、鉛直フィルタ量子化出力及び水平フィルタ量子化出力を得て、スコア演算装置14では、鉛直フィルタ量子化出力及び水平フィルタ量子化出力から座標関数を参照してスコア値を求めるようにしてもよい。
再び、図1を参照して、ここでは、画像入力装置11から入力された画像を、前処理装置12で処理した後、フィルタ処理装置13に与える例について説明する。図9を参照して、いま、画像入力装置11から前処理装置12に与えられる画像がカラー画像であるとする。前処理装置12には、予め認識対象物に近似する色を有する領域(以下色領域と呼ぶ)を抽出するフィルタ処理機能が備えられており、前処理装置12では、カラー画像から該当する色領域を抽出する(S16)。そして、前処理装置12は抽出した色領域を有する画像をモノクロ画像に変換して(S17)、フィルタ処理装置13に渡す。フィルタ処理装置13は、色領域(つまり、モノクロ画像)について、図2で説明した処理領域設定処理(S2)を実行することになる。
このようにして、認識対象物に近似する色を有する色領域のみをカラー画像から抽出した後、この色領域を有する画像を輝度情報のみを有するモノクロ画像に変換して、対象物の認識を行うようにすれば、フィルタ処理を行うべき領域が減少し、対象物認識の際の処理速度を向上させることができる。
尚、上述のフィルタ処理機能は、ハードウェア又はソフトウェアで構成することができ、更には、画像入力装置11に、認識対象物に近似する色のみを通過させるフィルタを設けて、画像入力装置11から前処理装置12に色領域を有する画像を与えて、前処理装置12ではこの画像をモノクロ画像に変換するようにしてもよい。更には、認識対象物の色に近似する照明を認識対象物に照射して、色領域を抽出するようにしてもよい。
図10を参照して、ここでは、前処理装置12には、画像入力装置11からモノクロ画像が与えられているものとする。前処理装置12はモノクロ画像に対して輝度変換処理を行って(S18)、輝度変換処理後の画像をフィルタ処理装置13に渡す。フィルタ処理装置13では、輝度変換処理後の画像について図2で説明した処理領域設定処理(S2)を実行することになる。
図11を参照すると、画像入力装置11から入力された画像における輝度は、照明等の撮影環境に起因して、図11(a)に示すように、その輝度分布が一方側(図11(a)に示す例では、暗い方)に偏ることがある。このような画像から対象物を認識しようとすると、画像中の輝度差が小さいため、対象物(つまり、エッジ)の検出が困難となることがある。このため、前述のように、例えば、ヒストグラム均等化手法等の輝度変換処理を行って、輝度分布を図11(b)に示すように均一化する。
いま、目標とする平均輝度をm、目標とする輝度分散をσ、画像の平均輝度をm、画像の輝度分散をσとすると、前処理装置12では数3に応じて輝度変換処理を行い、輝度変換処理後の画像をフィルタ処理装置13に渡す。
〔数3〕
y=(σ/σ)(x−m)+m
上述のようにして、画像入力装置11から入力された画像を輝度変換処理することによって、画像中の輝度差が強調される結果、フィルタ処理によってエッジ検出を容易に行うことができる。
次に、前記実施例を利用した顔方向推定ロジックを図17〜図18に基づいて説明する。
図18の(A)は顔方向識別器40で、正面識別器41、右向き識別器42、左向き識別器43、上向き識別器44、下向き識別器45の5種類の識別器を具備している。
このような識別器40を実シーンに適用する際には誤検知を最小限に抑える必要がある。例えば実際の家庭内では多様な外乱要因が存在するため、主に顔以外の箇所を誤検知してしまう場合がある。
しかしながら例えば図18(B)に示すように、顔形状の特徴は、例えば正面顔46が長方形、右向き顔47はホームベース形状が右向き、左向き顔48はホームベース形状が左向き、上向き顔49はホームベース形状が上向き、下向き顔50はホームベース形状が下向き等のように、顔の特徴自体は比較的単純であり、この原則に踏まえて、方向間の細かい違いを精度良く捉えられる識別器40とすることにより、誤検知、誤認識を最小限に抑えることができる。
このとき、顔の特定部位の画像を抽出する際に、図17に示すように各顔方向に対する特定抽出領域1、2、3、4、5、…、nを各識別器ごとに定めておけばよい。
更に前記識別器40の顔画像のデータベースの背景部分に実シーンで取得した背景画像をインポーズし、実際の環境変動を模擬した。また、識別時の細かな位置ずれ・回転ずれ・大きさ変動に対応するために、これら変動を加味した顔画像を学習に用い、更に背景画像として、顔パターンに間違え易いとされる木漏れ日画像をはじめ、屋内・屋外の様々なシーンを撮影した背景画像を学習に用いるのがよい。
更にまた、一度学習した顔方向識別器40に対して、ランダムに抽出した背景画像を識別させ、誤って顔と識別した画像について再度背景として学習させることにより、誤検知低減を図ることが好ましい。
次に図18(A)の概略図に基づいて、顔方向推定ロジックを簡単に説明する。
顔方向識別器40は5つ(正面/右向き/左向き/上向き/下向き)の識別器を用いて、撮像した画像から周知の画像切り出し手法により画像を切り出し、該切り出した画像に対して各方向識別器41〜45による識別スコアを求め。最もスコアの高い識別器を選択して順次各顔方向識別器にて類似度スコア計算する。次に類似度スコア最大の識別器の向きにて顔方向を確定するものである。
図19を参照して本実施例に係る顔及び顔方向識別アルゴリズムにつき説明する。
図に示すように、まず、カメラ等の撮像装置により取得した画像を顔方向識別器40に入力する(S20)。このとき、識別器側の顔サイズは固定であるため、想定顔サイズに合わせて入力画像の画面全体を拡大、縮小して画像サイズを正規化する(S21)。
そして、画面の全探索領域の各位置において、識別器40による評価値(スコア)を計算する(S22)。さらに、想定する顔サイズ数分だけ上記した入力画像の拡大、縮小処理(S21)とスコア計算(S22)をループ(S23)させ、さらにこれを各顔方向識別器数分だけループ(S24)する。前記想定する顔サイズ数分のループにおいて、同じ識別器ではサイズのループでの最大値を評価値とし、最大値を得たサイズを記憶しておく。また、前各顔方向識別器のループでは、正面識別器41、右向き識別器42、左向き識別器43、上向き識別器44、下向き識別器45の数だけループする。
次に、入力画像中に顔画像が存在するか否かの検知を行なう(S25)。これは、探索した各位置で、各識別器による評価スコアが閾値以上のものがあったか否かを判別し、閾値以上のものが存在する場合には、各検知位置毎に得られた評価値中で最も評価値の高い識別器の方向を顔方向と判断する(S26)。例えば、前記閾値が100であり、所定位置における顔検知結果が、A.正面識別器評価値120,サイズ10、B.左向き識別器評価値130,サイズ10、C.右向き識別器評価値70,サイズ15の夫々のスコア値が得られた場合、入力画像はサイズ10の左向きの顔有り、の判定がなされる。また、他の所定位置における顔検知結果が、A.正面識別器評価値80,サイズ10、左向き識別器評価値60,サイズ15、右向き識別器評価値70,サイズ20の夫々のスコア値が得られた場合、入力画像中の前記所定位置には顔無し、の判定がなされる。
このようにして、入力画像中の顔の存在の有無及び顔方向が認識される。
図20に、頭部の動き認識アルゴリズムを示す。このアルゴリズムでは、前記図19の手順にて既に顔の位置が検知されているものとする。
まず、前記顔方向識別器40に画像を入力し(S30)、顔検知位置にて顔識別処理を実行し、顔類似度計算を行なう(S31)。さらに、この処理を各顔方向識別器数分だけループし(S32)、得られた結果の中で最も評価値の高い方向を選択し、顔方向を決定する(S33)。そして、顔方向識別結果を記憶しておき(S34)、上記S30〜S31までの各処理を連続的に行ない、得られた顔方向識別結果を時系列で並べることにより、頭部の動きを認識する。例えば、得られた顔方向を時系列的に並べた時に、左向き→左向き→正面→正面→正面→右向き→右向き→右向き、となった場合、首を横に振っていると判断することができる。このように、識別結果により得られる時系列の顔方向情報から、頭部のシンボリックな動き情報を抽出することができる。
また、図21に、図20に示した動き認識アルゴリズムを発展させた処理を示す。これは、図20と同様に、前記顔方向識別器40に画像入力(S40)した後、顔検知位置にて顔識別処理を実行し、顔類似度計算を行ない(S41)、この処理を各顔方向識別器数分だけループし(S42)、得られた結果の中で最も評価値の高い方向を選択し、顔方向を決定する(S43)。これにより得られた顔方向識別結果(S44)を、時系列的に並べたものにより顔の動きを判別するとともに、以下の処理も並行して行なう。
前記入力された画像と、1つ前のフレームの画像との相関処理演算を行い(S45)、相関処理結果に基づき、顔の動き方向・動き量を検出する(S46)。これにより顔方向識別結果を取得する(S47)。
このように、顔の向き情報のみでなく、動き情報(フレーム間の運動ベクトル)を同時に捉えることにより、より正確に頭部の動きを認識することができる。
図22は、図20に示した動き認識アルゴリズムに前処理を加えた処理である。
本実施例では、カラーカメラ等の色情報を取得可能な撮像手段を用い、得られたカラー画像を入力し(S50)、肌色検知処理により前記画像中の顔領域を限定する(S51)。そして、肌色検知領域に対して、顔識別処理を実行し、顔類似度を計算する(S52)。さらに、各顔方向識別器数分のループ(S53)により複数の計算結果を取得し、各検知位置毎に得られた結果の中で最も評価値の高い方向を選択し、顔方向を決定して(S54)、顔方向識別結果を得る(S55)。
このように、肌色情報を用いることにより、顔検知処理を行なう領域と識別処理に用いる方向識別器とを制限することができるため、顔検知処理が安定し、また処理速度を向上させることができる。
図23は、図22に示した前処理を発展させた処理であり、図22と同様に、画像入力(S60)したカラー画像から、肌色検知処理により顔領域を限定する(S61)。さらに、1つ前のフレームの肌色検知結果と比較して、肌色検知領域の面積変化率及び縦横比変化率を計算する(S62)。前記計算した面積変化率・縦横比変化率から、評価する顔方向識別器を選択し(S63)、肌色検知領域に対して、顔識別処理を実行し、顔類似度計算を行なう(S64)。該顔類似度計算を、各顔方向識別器数分だけループし(S65)、各検知位置毎に、得られた結果の中で最も評価値の高い方向を選択し、顔方向を決定して(S66)、顔方向識別結果を取得する(S67)。
このように、肌色部分の面積の変化、或いは縦横比の変化から概略の顔の向きを推定することにより、簡単にかつ精度良く顔方向識別結果を得ることができるようになる。
前記図22及び図23において、肌色領域を検出する処理の一例を図24に示す。図24に示すように、まず肌色である物体のU、V値を取得する(S70)。そして、前記取得したU、V値をU、Vテーブルに投票し(S71)、各U、Vテーブル要素の肌色らしさの確率を計算する(S72)。このとき、肌色らしさ確率は、(要素の投票数)/(全肌色投票数)で与えられる。
また、同様にして、肌色でない物体のU、V値を取得し(S73)、U、Vテーブルに投票し(S74)、各U、Vテーブル要素の肌色でない確率を計算する(S75)。このとき、肌色でないらしさ確率は、(要素の投票数)/(全肌色でない投票数)で与えられる。そして、前記各要素の肌色度を計算して(S76)、肌色領域を検出する。尚、肌色度は、(肌色らしさ確率)/(肌色でないらしさ確率)で与えられる。
このように、事前に撮像される場所での肌色物体と肌色でない物体の色登録から作成した、肌色らしさテーブルと比較して、肌色度の高いところを肌色領域とする。本実施例のごとく、肌色情報の利用において予め登録した画像を用いることにより、精度良い肌色領域の検出を達成できる。また、前記肌色らしさテーブルを、実際の運用場所の背景の中にある、肌色でない物体を追加登録することが好適であり、これにより、様々な運用場所において適用可能となり、肌色検出のロバスト性を高めることができる。
以上記載したごとく本発明によれば、対象物が顔の場合ばかりでなく、輪郭を有する各種対象物の認識に適用できる。
特に生活支援型ロボットでは、場所・時間・ユーザーの日常生活パターンから行動を推定し、行動内容に応じたコミュニケーションを行う機能や、人の動作に応じて適切なタイミングで適切な内容の会話を行う機能が搭載されているので、その主要技術として画像による顔方向(正面・左向き・右向き・上向き・下向き)と頭部の動き(うなずく・振り向く等)を高精度に求める技術を提供することができる。
本発明による対象物認識装置の一例を示すブロック図である。 図1に示す対象物認識装置における認識手法の一例を説明するためのフローチャートである。 処理領域(画像)から処理対象領域に対応するサイズの処理対象画像を抽出する例を示す図である。 処理対象画像のフィルタ処理を説明するための図である。 処理対象画像に対するフィルタ演算領域の設定の例を示す図である。 フィルタ出力とスコア値との関係を三次元座標系で示す図である。 図1に示すフィルタ処理装置における他の処理を示すフローチャートである。 フィルタ出力の原点対象移動を説明するための図である。 図1に示す前処理装置における処理の一例を示すフローチャートである。 図1に示す前処理装置における処理の他の例を示すフローチャートである。 図1に示す前処理装置における画像の輝度変換処理の一例を説明する図である。 顔画像のフィルタ演算領域を示す図(A)、正規化したフィルタ演算領域におけるフィルタ処理を説明する図(B)、エッジ評価図(C)である。 顔画像のエッジ検出処理を説明する図で、輝度変化部位の画像におけるフィルタ出力分布を示す図(A)、両目部位の画像におけるフィルタ出力分布を示す図(B)である。 2分割エッジ検出フィルタを示す図(A)、2分割エッジ検出フィルタを用いた場合のエッジ評価図(B)である。 4分割エッジ検出フィルタを示す図(A)、4分割エッジ検出フィルタを用いた場合のエッジ評価図(B)である。 4分割エッジ検出フィルタにより検出可能なエッジを示す図である。 各顔方向画像における特定抽出領域を示す図である。 顔方向識別器の概略構成図(A)、各顔方向画像における特徴形状を表す図(B)である。 本実施例における顔方向識別アルゴリズムを示す図である。 本実施例における頭部の動き認識アルゴリズムを示す図である。 図20の別の実施例における頭部の動き認識アルゴリズムを示す図である。 肌色検知処理を備えた動き認識アルゴリズムを示す図である。 図22の別の実施例における肌色検知処理を備えた動き認識アルゴリズムを示す図である。 本実施例における肌色領域検出アルゴリズムを示す図である。 従来の対象物認識手法を説明するための図である。
符号の説明
10 対象物認識装置
11 画像入力装置
12 前処理装置
13 フィルタ処理装置
14 スコア演算装置
15 記憶装置
16 結果判定装置
17 結果出力装置
21 入力画像
22 処理領域
23 処理対象画像
24 フィルタ演算領域
25 2分割鉛直エッジ検出フィルタ
26 2分割水平エッジ検出フィルタ
27A、27B 4分割水平エッジ検出フィルタ
28A、28B 4分割鉛直エッジ検出フィルタ
40 顔方向識別器
41 正面識別器
42 右向き識別器
43 左向き識別器
44 上向き識別器
45 下向き識別器

Claims (10)

  1. 画素情報として撮像された画像中の所定の対象物を認識するための対象物認識方法であって、
    前記画像を走査して、複数の処理対象領域を抽出する対象領域抽出ステップと、
    前記処理対象領域に複数のフィルタ演算領域を規定して、互いにエッジ検出方向の異なる複数のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理して、エッジ検出方向の異なる複数のフィルタ出力を得るフィルタ処理ステップと、
    予め前記対象物と前記複数のフィルタ処理機能の出力との関係が定義された座標関数に応じて前記複数のフィルタ出力からスコア値を求めるスコア値算出ステップと、
    前記処理対象領域について前記スコア値を加算して加算値を求めて、該加算値と予め定められた閾値とを比較して、その比較結果に応じて前記処理対象領域に前記対象物があるか否かを若しくはその向きを判定する判定ステップとを有することを特徴とする対象物認識方法。
  2. 前記判定ステップでは、前記加算値が前記閾値を越えると前記処理対象領域に前記対象物がある、若しくは対応する識別器に基づいて設定された対象物の向きであると判定するようにしたことを特徴とする請求項1記載の対象物認識方法。
  3. 前記複数のフィルタ処理機能は鉛直軸方向と水平軸方向のように直交するエッジを検出する第1及び第2のフィルタ処理機能であって、該第1及び該第2のフィルタ出力が規定される直交座標において予め規定された領域に前記第1及び前記第2のフィルタ出力をプロットして前記第1及び前記第2のフィルタ出力について、前記エッジの強度と方向に応じて量子化を行う量子化ステップが、前記フィルタ処理ステップと前記スコア値算出ステップの間に存在することを特徴とする請求項1記載の対象物認識方法。
  4. 前記画像がカラー画像である際に、前記対象物に近似する色を含む領域を有する画像を色領域画像として抽出する前処理ステップを有し、
    該色領域画像について前記対象領域抽出ステップを行うようにしたことを特徴とする請求項1記載の対象物認識方法。
  5. 前記画像に対して輝度変換処理を行って、前記画像における輝度分布を変更してその輝度差を強調する輝度変換ステップを有し、
    前記輝度変換処理後の画像について前記対象領域抽出ステップを行うようにしたことを特徴とする請求項1記載の対象物認識方法。
  6. 画素情報として撮像された画像中の所定の対象物を認識するための対象物認識装置であって、
    前記画像を走査して、複数の処理対象領域を抽出する対象領域抽出手段と、
    前記処理対象領域に複数のフィルタ演算領域を規定して、互いにエッジ検出方向の異なる複数のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理して、エッジ検出方向の異なる複数のフィルタ出力を得るフィルタ処理手段と、
    予め前記対象物と前記複数のフィルタ処理機能の出力との関係が定義された座標関数に応じて前記前記複数のフィルタ出力からスコア値を求めるスコア値算出手段と、
    前記処理対象領域について前記スコア値を加算して加算値を求めて、該加算値と予め定められた閾値とを比較して、その比較結果に応じて前記処理対象領域に前記対象物があるか否か若しくはその向きを判定する判定手段とを有することを特徴とする対象物認識装置。
  7. 前記複数のフィルタ処理機能は鉛直軸方向と水平軸方向のように直交するエッジを検出する第1及び第2のフィルタ処理機能であって、該第1及び該第2のフィルタ出力が規定される直交座標において予め規定された領域に前記第1及び前記第2のフィルタ出力をプロットして前記第1及び前記第2のフィルタ出力について、前記エッジの強度と方向に応じて量子化を行う量子化手段を設けたことを特徴とする請求項6記載の対象物認識装置。
  8. 画素情報として撮像された画像中の顔の向きを識別するための顔方向識別装置であって、
    予め用意された顔方向毎の識別器と、
    前記画像を走査して、複数の処理対象領域を抽出する対象領域抽出手段と、
    前記処理対象領域に複数のフィルタ演算領域を規定して、互いにエッジ検出方向の異なる複数のフィルタ処理機能で前記フィルタ演算領域をフィルタ処理して、エッジ検出方向の異なる複数のフィルタ出力を得るフィルタ処理手段と、
    前記複数のフィルタ処理機能は鉛直軸方向と水平軸方向のように直交するエッジを検出する第1及び第2のフィルタ処理機能であって、該第1及び該第2のフィルタ出力が規定される直交座標において予め規定された領域に前記第1及び前記第2のフィルタ出力をプロットして前記第1及び前記第2のフィルタ出力について、前記エッジの強度と方向に応じて量子化を行う量子化手段とを設け、
    前記夫々の顔方向識別器にて抽出された複数の処理対象領域毎にフィルタ処理してエッジの強度と方向に応じて量子化を行い、前記量子化された数値に基づいてスコア値を求め、そのスコア値により類似度の高い識別器を判別して、顔方向を判定することを特徴とする顔方向識別装置。
  9. 前記顔画像がカラー画像である際に、肌色を含む領域を有する画像を色領域画像として抽出する前処理手段を有し、該色領域画像について前記対象領域抽出を行うようにしたことを特徴とする請求項8記載の顔方向識別装置。
  10. 前記フィルタ処理に用いるフィルタが4分割サブウインドウを有する升目状フィルタであり、夫々のサブウインドウの上下若しくは左右の対比するウインドウ内の画素合計数を減算してその値が+側か−側かに分別し、上下若しくは左右のサブウインドウの+1と−1との対比で、水平若しくは鉛直エッジ検出フィルタとして機能させることを特徴とする請求項8若しくは9記載の顔方向識別装置。
JP2004134490A 2003-12-26 2004-04-28 対象物認識方法及び対象物認識装置、並びに顔方向識別装置 Withdrawn JP2005209137A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004134490A JP2005209137A (ja) 2003-12-26 2004-04-28 対象物認識方法及び対象物認識装置、並びに顔方向識別装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003435876 2003-12-26
JP2004134490A JP2005209137A (ja) 2003-12-26 2004-04-28 対象物認識方法及び対象物認識装置、並びに顔方向識別装置

Publications (1)

Publication Number Publication Date
JP2005209137A true JP2005209137A (ja) 2005-08-04

Family

ID=34914395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004134490A Withdrawn JP2005209137A (ja) 2003-12-26 2004-04-28 対象物認識方法及び対象物認識装置、並びに顔方向識別装置

Country Status (1)

Country Link
JP (1) JP2005209137A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1745898A1 (en) 2005-07-19 2007-01-24 Ibiden Co., Ltd. Punching die for manufacturing seal member and method for manufacturing seal member
JP2007074673A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2010231350A (ja) * 2009-03-26 2010-10-14 Toshiba Corp 人物識別装置、そのプログラム、及び、その方法
JP2012104111A (ja) * 2010-11-05 2012-05-31 Ricoh Co Ltd 多角度の人間顔検知方法及びシステム
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
JP2017215768A (ja) * 2016-05-31 2017-12-07 日本電信電話株式会社 パターン識別装置、方法、及びプログラム
CN109863535A (zh) * 2016-10-11 2019-06-07 富士通株式会社 运动识别装置、运动识别程序以及运动识别方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1745898A1 (en) 2005-07-19 2007-01-24 Ibiden Co., Ltd. Punching die for manufacturing seal member and method for manufacturing seal member
JP2007074673A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、並びにプログラム
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
JP2010231350A (ja) * 2009-03-26 2010-10-14 Toshiba Corp 人物識別装置、そのプログラム、及び、その方法
JP2012104111A (ja) * 2010-11-05 2012-05-31 Ricoh Co Ltd 多角度の人間顔検知方法及びシステム
JP2017215768A (ja) * 2016-05-31 2017-12-07 日本電信電話株式会社 パターン識別装置、方法、及びプログラム
CN109863535A (zh) * 2016-10-11 2019-06-07 富士通株式会社 运动识别装置、运动识别程序以及运动识别方法
CN109863535B (zh) * 2016-10-11 2022-11-25 富士通株式会社 运动识别装置、存储介质以及运动识别方法

Similar Documents

Publication Publication Date Title
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
US7912253B2 (en) Object recognition method and apparatus therefor
US7957560B2 (en) Unusual action detector and abnormal action detecting method
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP5010905B2 (ja) 顔認証装置
KR100608595B1 (ko) 얼굴 인식 방법 및 장치
US7925093B2 (en) Image recognition apparatus
US20050041867A1 (en) Method and apparatus for the automatic detection of facial features
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
KR20010103631A (ko) 생물 측정학-기반 얼굴 특징 추출을 위한 시스템 및 방법
KR20100072772A (ko) 스테레오 비전을 이용한 실시간 얼굴 검출 시스템 및 그 방법
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JPWO2020213166A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
KR101415325B1 (ko) 얼굴 검출 장치
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2005209137A (ja) 対象物認識方法及び対象物認識装置、並びに顔方向識別装置
JP2007026308A (ja) 画像処理方法、画像処理装置
JP4789526B2 (ja) 画像処理装置、画像処理方法
Hemdan et al. Facial features-based method for human tracking
Schneider et al. Feature based face localization and recognition on mobile devices
JP4061405B2 (ja) 顔画像分類登録装置
Ribeiro et al. Access control in the wild using face verification
JP2021043914A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2007025901A (ja) 画像処理装置、画像処理方法
Liang et al. Real-time face tracking

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070703