JP2014229015A - 顔認識装置、顔認識方法、およびコンピュータプログラム - Google Patents

顔認識装置、顔認識方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2014229015A
JP2014229015A JP2013107245A JP2013107245A JP2014229015A JP 2014229015 A JP2014229015 A JP 2014229015A JP 2013107245 A JP2013107245 A JP 2013107245A JP 2013107245 A JP2013107245 A JP 2013107245A JP 2014229015 A JP2014229015 A JP 2014229015A
Authority
JP
Japan
Prior art keywords
face
face image
likelihood
target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013107245A
Other languages
English (en)
Other versions
JP5718973B2 (ja
Inventor
正樹 渋谷
Masaki Shibuya
正樹 渋谷
恒樹 二宮
Tsuneki Ninomiya
恒樹 二宮
匡将 榎本
Tadamasa Enomoto
匡将 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Soft Inc
Original Assignee
Fuji Soft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Soft Inc filed Critical Fuji Soft Inc
Priority to JP2013107245A priority Critical patent/JP5718973B2/ja
Publication of JP2014229015A publication Critical patent/JP2014229015A/ja
Application granted granted Critical
Publication of JP5718973B2 publication Critical patent/JP5718973B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】撮影の状況に応じて顔認識に要する時間を短縮する。【解決手段】顔認識装置は、連続する撮影により得られる画像から、顔を表す部分である顔画像を検出する顔画像検出部220と、顔画像が真正面顔を表しているか否かを判定する真正面顔判定部260と、第1対象者の顔を表す第1対象顔画像に基づく情報を記憶し、顔画像が真正面顔を表していると判定された場合、真正面顔を表していると判定された顔画像である真正面顔画像が第1対象顔画像に類似しているか否かを判定し、顔画像が真正面顔を表していないと判定された場合、顔画像検出部220により連続して検出された複数の顔画像が第1対象顔画像に類似しているか否かを判定する判定部210と、を備える。【選択図】図1

Description

本発明は、顔認識装置、顔認識方法、およびコンピュータプログラムに関する。
顔の画像を用いて、予め登録された人を認識する技術が知られている。また、連続して取得された複数の顔画像を用いて認識することにより、認識の精度を高める技術が知られている。例えば、特許文献1には、複数のフレームの夫々の識別結果を加重平均することにより、家庭環境のような照明条件が一定でない環境においても安定して人物を識別できる技術が記載されている。
また、人が顔をカメラの方向に向け、正面の顔画像を用いて認識することにより、認識の精度を高める技術が知られている。例えば、特許文献2には、認証対象の人物が撮像視野から外れそうである場合、そのことを表示することにより、正面の顔画像を得やすくする技術が記載されている。
特許3823760号公報 特開2008−71172号公報
複数の顔画像を用いて顔認識を行う技術では、複数の画像の撮影と認識のための時間が長くなる。また、正面の顔画像を用いて顔認識を行う技術では、正面の顔画像を得るために人の顔をカメラに向けさせるための仕組みが必要になる。
本発明は、上記の問題に鑑みてなされたもので、その目的は、撮影の状況に応じて顔認識に要する時間を短縮する技術を提供することにある。
本発明の一つの観点に係る顔認識装置は、連続する撮影により得られる画像から、顔を表す部分である顔画像を検出する顔画像検出部と、顔画像が真正面顔を表しているか否かを判定する真正面顔判定部と、第1対象者の顔を表す第1対象顔画像に基づく情報を記憶し、顔画像が真正面顔を表していると判定された場合、真正面顔を表していると判定された顔画像である真正面顔画像が第1対象顔画像に類似しているか否かを判定し、顔画像が真正面顔を表していないと判定された場合、顔画像検出部により連続して検出された複数の顔画像が第1対象顔画像に類似しているか否かを判定する判定部と、を備える。
判定部は、顔画像が第1対象顔画像であることの確からしさである第1尤度を算出する第1尤度算出部と、複数の顔画像から夫々算出される複数の第1尤度の平均である平均尤度を算出する平均尤度算出部と、平均尤度が所定の平均尤度閾値を上回るか否かを判定し、平均尤度が平均尤度閾値を上回ると判定された場合、第1対象者の識別子を出力する識別部と、を含んでも良い。
判定部は、第1対象者の真正面顔を表す第2対象顔画像に基づく情報を記憶し、真正面顔画像が第2対象顔画像であることの確からしさである第2尤度を算出する第2尤度算出部を更に含み、識別部は、第2尤度が所定の第2尤度閾値を上回るか否かを判定し、第2尤度が第2尤度閾値を上回ると判定された場合、第1対象者の識別子を出力しても良い。
実施例1の顔認識装置の構成を示すブロック図である。 実施例1の認識処理を示すフローチャートである。 実施例1の認識処理の一例を示す模式図である。 真正面顔判定部260の動作を示す模式図である。 実施例2の顔認識装置の構成を示すブロック図である。 実施例2の認識処理を示すフローチャートである。 実施例2の認識処理の一例を示す模式図である。 実施例3の第2尤度算出部310の動作の一例を示す模式図である。 実施例4の認識処理の一例を示す模式図である。
本実施形態の顔認識装置は、連続して撮影された画像から顔画像を検出し、その顔画像が真正面顔を表していると判定された時点で、その顔画像が予め登録された対象者を表しているか否かを判定することができ、認識結果を得るまでの時間を短縮することができる。
本実施形態の顔認識装置は、ロボット、携帯情報端末(携帯電話、スマートフォン、カメラ、パーソナルコンピュータ等を含む)、車両(カーナビゲーション装置等を含む)、キオスク端末等、ユーザとの対話やユーザの案内等を行うシステムに適用されても良い。
図1は、実施例1の顔認識装置の構成を示すブロック図である。
本実施例の顔認識装置は、画像入力部110と、認識部120と、アプリケーション処理部130とを有する。
画像入力部110は、連続して撮影を行うことにより、複数のフレームの画像を生成する。本実施例の画像入力部110は、カメラである。なお、画像入力部110は、外部のカメラにより生成され送信される画像を受信する通信インターフェイスであっても良い。この通信インターフェイスは、外部のカメラに対して撮影の指示を送信しても良い。
認識部120は、まず登録処理として、対象者の識別子と、画像入力部110による撮影により得られる対象者の顔の画像に基づく情報とを登録する。その後、認識部120は、認識処理として、画像入力部110による撮影により得られる画像に基づいて対象者を認識し、認識された対象者の識別子を認識結果として出力する。
アプリケーション処理部130は、認識結果に基づいて、音声出力等のアクションを行う。例えば、アプリケーション処理部130は、登録処理において対象者の名前の入力を受け付け、対象者の識別子と名前を対応付けて格納し、認識処理において認識結果に応じたメッセージを音声により出力する。メッセージは、「こんにちは、Aさん」や「Aさんですね」等のように、認識結果に対応する対象者の名前を含んでも良い。
本実施例の顔認識装置は更に、ユーザからの指示をアプリケーション処理部130へ入力するための入力装置や、アプリケーション処理部130からユーザへの通知を出力するための出力装置を有していても良い。入力装置は例えば、マイクロフォン等、音声を入力する装置である。出力装置は例えば、スピーカ等、音声を出力する装置である。本実施例の顔認識装置がロボットに適用される場合、出力装置は手や腕等を動かすアクチュエータであっても良い。
認識部120及びアプリケーション処理部130は、例えばコンピュータにより実現される。このコンピュータは、プログラム及びデータを格納するメモリと、そのプログラムに従って認識部120及びアプリケーション処理部130の処理を実行するマイクロプロセッサとを有する。このプログラムは、コンピュータ読み取り可能な媒体に格納され、その媒体からコンピュータへインストールされても良い。
認識部120は、顔画像検出部220と、真正面顔判定部260と、判定部210とを有する。
顔画像検出部220は、画像入力部110により生成された画像から、顔を表す部分である顔画像を検出する。例えば、顔画像検出部220は、目及び鼻の特徴を含む肌色の領域を、顔画像として検出する。また、顔画像検出部220は、現在の画像から検出された顔画像を、一つの前の画像から検出された顔画像と比較し、それらの顔画像の位置の差が所定範囲内である場合に、それらの顔画像が同一人物の顔を表していると判定することにより、検出された顔画像を追跡する顔追跡を行う。なお、顔画像検出部220は、取得された一つの画像から複数の人の顔画像を検出しても良い。
真正面顔判定部260は、顔画像検出部220により検出された顔画像が真正面顔を表しているか否かを判定し、その結果を真正面顔判定結果として出力する。真正面顔判定部260の詳細については後述する。
判定部210は、登録処理において顔画像検出部220から対象者の顔画像である第1対象顔画像を取得する。その後、判定部210は、認識処理において顔画像検出部220により連続して検出された複数の顔画像が第1対象顔画像に類似しているか否かを判定する。更に判定部210は、真正面顔判定部260により顔画像が真正面顔を表していると判定された場合、真正面顔を表していると判定された顔画像である真正面顔画像が第1対象顔画像に類似しているか否かを判定する。判定部210は、第1尤度算出部230と、蓄積型算出部240と、識別部270とを有する。平均尤度算出部は、蓄積型算出部240等に対応する。
第1尤度算出部230は、顔画像検出部220により検出された顔画像が第1対象顔画像であることの確からしさ(スコア)である第1尤度を算出する。第1対象顔画像は、対象者の真正面顔以外の顔画像を含む複数の顔画像である。本実施例の第1尤度算出部230は、ニューラルネットワークを有し、登録処理において第1対象顔画像を教師信号としてニューラルネットワークの学習を行い、認識処理においてそのニューラルネットワークにより顔画像から第1尤度を算出する。登録処理により複数の対象者が登録される場合、第1尤度算出部230は、登録処理において複数の対象者の夫々の第1対象顔画像を教師信号としてニューラルネットワークの学習を行い、認識処理においてそのニューラルネットワークにより一つの顔画像から複数の対象者の夫々の第1尤度を算出する。
登録処理において、第1尤度算出部230は、ニューラルネットワークの教師信号として、対象者の複数の第1対象顔画像を取得する。例えば、本実施例の顔認識装置が人型ロボットに適用される場合、アプリケーション処理部130は、ユーザから対象者の登録処理の指示を受けると、ロボットの手を見ることを指示するメッセージを音声によりユーザへ出力し、ロボットの手のアクチュエータを駆動することによりロボットの手を画像入力部110の周りの様々な方向へ動かしながら、画像入力部110により連続して撮影する。顔画像検出部220は、撮影により得られた複数の画像から顔画像を検出し、第1対象顔画像として第1尤度算出部230へ出力する。これにより、第1尤度算出部230は、様々な方向から撮影した対象者の顔画像を用いてニューラルネットワークの学習を行うことができる。この登録処理により、第1尤度算出部230は、第1対象顔画像に基づく情報として、第1対象顔画像により学習されたニューラルネットワークを記憶する。
なお、第1尤度算出部230は、登録処理において、検出された第1対象顔画像を格納し、認識処理において、顔画像検出部220により検出された顔画像と、第1対象顔画像との類似度を算出しても良い。また、第1尤度算出部230は、登録処理において、第1対象顔画像から検出された特徴量を格納し、認識処理において、顔画像検出部220により検出された顔画像から特徴量を検出し、検出された特徴量と、格納された特徴量との類似度を算出しても良い。
蓄積型算出部240は、対象者毎に、所定の蓄積数までの第1尤度の平均を平均尤度として算出する。蓄積数は、例えば7である。また、蓄積型算出部240は、対象者毎に、蓄積数までの第1尤度を記憶しても良い。なお、蓄積型算出部240は、複数の第1尤度の加重平均を平均尤度として算出しても良い。重み付けは、現在からの時間差に応じて減少しても良い。
識別部270は、第1尤度算出部230により算出された第1尤度が所定の第1尤度閾値を超えたか否かを判定する。更に識別部270は、蓄積型算出部240より算出された平均尤度が所定の平均尤度閾値を超えたか否かを判定する。更に識別部270は、真正面顔判定結果と、第1尤度の判定結果と、平均尤度の判定結果とに基づいて、顔画像が或る対象者を表しているか否かを判定し、顔画像が或る対象者を表していると判定された場合、その対象者の識別子を認識結果として、アプリケーション処理部130へ出力する。
図2は、実施例1の認識処理を示すフローチャートである。
認識部120は、登録処理の後に認識処理を行う。
まず、画像入力部110は、撮影を行い、顔画像検出部220は、撮影された画像から、顔画像を検出する(S110)。その後、第1尤度算出部230は、対象者毎の第1尤度を算出する(S120)。真正面顔判定部260は、検出された顔画像が真正面顔を表しているか否かを判定する(S130)。
検出された顔画像が真正面顔を表していないと判定された場合(S130:NO)、識別部270は、処理をS510へ移行させる。一方、検出された顔画像が真正面顔を表していると判定された場合(S130:YES)、識別部270は、或る対象者の第1尤度が第1尤度閾値以上であるか否かを判定する(S140)。
或る対象者の第1尤度が第1尤度閾値以上でないと判定された場合(S140:NO)、識別部270は、処理をS510へ移行させる。一方、或る対象者の第1尤度が第1尤度閾値以上であると判定された場合(S140:YES)、識別部270は、その第1尤度に対応する対象者を特定し、その対象者の識別子を認識結果としてアプリケーション処理部130へ出力する(S150)。
その後、蓄積型算出部240は(S510)、算出された第1尤度を記憶し、記憶されている第1尤度から平均尤度を算出する。識別部270は、或る対象者の平均尤度が平均尤度閾値以上であるか否かを判定する(S520)。平均尤度が平均尤度閾値以上でないと判定された場合(S520:NO)、識別部270は、処理をS540へ移行させる。一方、平均尤度が平均尤度閾値以上であると判定された場合(S520:YES)、識別部270は、その平均尤度に対応する対象者を特定し、その対象者の識別子を認識結果としてアプリケーション処理部130へ出力する(S530)。その後、識別部270は、顔認識処理の終了の指示を受けたか否かを判定する(S540)。顔認識処理の終了の指示を受けたと判定されなかった場合(S540:NO)、識別部270は、処理をS110へ移行させる。これにより、次のフレームの画像の処理が行われる。顔認識処理の終了の指示を受けたと判定された場合(S540:YES)、識別部270は、この処理を終了する。以上が認識処理である。
なお、顔画像検出部220が、撮影された一つの画像から複数の顔画像を検出した場合、複数の顔画像の夫々を追跡しても良い。この場合、判定部210は、複数の顔画像の夫々に対して認識処理を行い、複数の顔画像の夫々から対象者を認識しても良い。また、識別部270は、検出された顔画像が真正面顔を表していないと判定された場合に、平均尤度が平均尤度閾値以上であるか否かを判定しても良い。
図3は、実施例1の認識処理の一例を示す模式図である。
対象者としてAさんが顔認識装置に登録されているとする。この図は、顔認識装置がAさんを認識する場合を示す。この図における横軸は時間である。この図は、連続して追跡された顔画像(1)〜(7)を示す。連続して撮影される顔画像の間隔を3秒とする。更にこの図は、真正面顔判定結果と、Aさんの第1尤度と、Aさんの平均尤度と、認識結果との時間変化を示す。この例における第1尤度閾値及び平均尤度閾値は0.6である。なお、真正面顔の顔画像から得られる尤度は、真正面顔でない顔画像から得られる尤度より高いため、第1尤度閾値は平均尤度閾値より高くても良い。
第1尤度算出部230は、顔画像(1)から連続して検出された顔画像からAさんの第1尤度を算出する。真正面顔判定部260は、顔画像(3)が真正面顔を表していると判定する。このとき、顔画像(3)におけるAさんの第1尤度は、0.8であり、第1尤度閾値以上であるため、識別部270は、Aさんの識別子を認識結果としてアプリケーション処理部130へ出力する。このとき、Aさんの平均尤度は、0.57であり、平均尤度閾値より低い。
その後、顔画像(5)において顔画像(1)〜(5)から算出されたAさんの平均尤度は、0.6になり、平均尤度閾値以上になったため、識別部270は、Aさんの識別子を認識結果としてアプリケーション処理部130へ出力する。
この例において、真正面顔の顔画像の第1尤度から得られた認識結果と、平均尤度から得られた認識結果は同一であるものの、真正面顔の顔画像の第1尤度から得られた認識結果は、平均尤度から得られた認識結果より6秒早く出力される。或る対象者がカメラの視野内に入り顔画像が検出されてから、第1尤度が第1尤度閾値以上になるまで、第1尤度は徐々に増加している。平均尤度は、第1尤度の平均であるため、第1尤度の増加より遅れて増加している。顔画像が真正面顔を表していると判定され、且つ第1尤度が第1尤度閾値を超えたと判定された時点で、その第1尤度に対応する対象者の識別子を認識結果として出力することにより、平均尤度だけを用いる場合に比べて、認識結果を出力するまでの時間を短縮することができる。
本実施例によれば、真正面顔の顔画像が検出できない場合には複数の顔画像の平均尤度を用いて顔認識の精度を向上させ、真正面顔の顔画像が検出できた場合にはその顔画像の第1尤度だけを用いて顔認識の速度を向上させる。言い換えれば、カメラと対象者の位置関係や撮影タイミング等の撮影の状況に応じて、顔認識に要する時間を短縮することができる。
特に本実施例の顔認識装置がユーザと対話するロボットに適用される場合等においては、ユーザが画像入力部110のカメラに対して真正面で対話する場合が多くなり、本実施例の顔認識装置は平均尤度だけを用いる場合に比べて顔認識を高速化することができる。顔認識におけるユーザの待ち時間が減少することにより、対話をより円滑に行うことができる。
以下、真正面顔判定部260の詳細について説明する。
真正面顔判定部260は、顔画像から横方向のエッジを検出することにより、顔の左端のエッジと右端のエッジを検出し、その顔画像から縦方向のエッジを検出することにより、鼻のエッジを検出する。更に真正面顔判定部260は、左端のエッジの位置と右端のエッジの位置と鼻のエッジの位置とが所定の条件を満たす場合に顔画像が真正面顔を表していると判定する。
図4は、真正面顔判定部260の動作の一例を示す模式図である。
まず、真正面顔判定部260は、顔画像510に対して横方向エッジ抽出を行うことにより、横方向エッジ画像520を生成する。その後、真正面顔判定部260は、横方向エッジ画像520から、顔の左端のエッジである左端エッジ521と、顔の右端のエッジである右端エッジ522とを検出する。その後、真正面顔判定部260は、顔画像510が所定の横方向条件を満たすか否かを判定する。例えば、横方向条件は、顔画像510の水平位置の中心線523に対し、左端エッジ521と右端エッジ522が水平方向に均等に位置することである。或いは、横方向条件は、顔画像の横方向の中心線523から左端エッジ521までの水平距離と、中心線523から右端エッジ522までの水平距離との差が所定範囲内であることである。或いは、横方向条件は、左端エッジ521と右端エッジ522の中心線又は重心が、中心線523から所定距離以内にあることである。顔画像が横方向条件を満たす場合、顔画像に表された顔の左右方向の傾きは小さい。
更に真正面顔判定部260は、顔画像510に対して縦方向エッジ抽出を行うことにより、縦方向エッジ画像530を生成する。その後、真正面顔判定部260は、縦方向エッジ画像530から、鼻に起因するエッジを鼻エッジ531として検出する。真正面顔判定部260は、顔画像510が所定の縦方向条件を満たすか否かを判定する。例えば、縦方向条件は、鼻エッジ531が、顔画像に対して予め設定された鼻存在領域532の中に位置していることである。顔画像が縦方向条件を満たす場合、顔画像に表された顔の上下方向の傾きは小さい。
その後、真正面顔判定部260は、顔画像510が横方向条件を満たし、且つ顔画像510が縦方向条件を満たす場合に、その顔画像が真正面顔を表していると判定する。
真正面顔判定部260によれば、顔画像内の顔が真正面を向いていることを精度良く判定することができる。顔画像が真正面顔を表している場合、顔の特徴部が陰になることがないため、その顔画像を用いることにより顔認識の信頼性は高まる。
本実施例においては、実施例1との相違を中心に説明する。
本実施例の顔認識装置は、検出された顔画像が真正面顔画像であると判定された場合に、真正面顔画像が、予め入力された対象者の真正面顔の顔画像と類似しているか否かを判定する。
図5は、実施例2の顔認識装置の構成を示すブロック図である。
実施例1の顔認識装置と比較すると、実施例2の顔認識装置は、認識部120の代わりに認識部120bを有し、判定部210の代わりに判定部210bを有し、識別部270の代わりに識別部270bを有する。判定部210と比較すると、判定部210bは、新たに第2尤度算出部310を有する。
第2尤度算出部310は、登録処理において、対象者の真正面顔の顔画像である第2対象顔画像を取得し、認識処理において、顔画像検出部220により検出された顔画像が第2対象顔画像であることの確からしさ(スコア)である第2尤度を算出する。第1対象顔画像が真正面顔以外の顔画像を含むのに対し、第2対象顔画像は、真正面顔だけの顔画像である。本実施例の第2尤度算出部310は、ニューラルネットワークを有し、登録処理において第2対象顔画像を教師信号としてニューラルネットワークの学習を行い、認識処理においてそのニューラルネットワークにより顔画像検出部220により検出された顔画像から対象者の第2尤度を算出する。登録処理により複数の対象者が登録された場合、第2尤度算出部310は、登録処理において複数の対象者の夫々の第2対象顔画像を教師信号としてニューラルネットワークの学習を行い、認識処理においてそのニューラルネットワークにより一つの顔画像から複数の対象者の夫々の第2尤度を算出する。
登録処理において、第2尤度算出部310は、ニューラルネットワークの教師信号として、対象者の複数の第2対象顔画像を取得する。例えば、本実施例の顔認識装置が人型ロボットに適用される場合、アプリケーション処理部130は、ユーザから対象者の登録処理の指示を受けると、画像入力部110を真正面から見ることを指示するメッセージを音声によりユーザへ出力し、画像入力部110により連続して撮影する。顔画像検出部220は、撮影により得られた複数の画像から顔画像を検出し、真正面顔判定部260は、検出された顔画像が真正面顔を表しているか否かを判定し、真正面顔を表していると判定された顔画像を第2対象顔画像として第2尤度算出部310へ出力する。これにより、第2尤度算出部310は、対象者の真正面顔だけの顔画像を用いてニューラルネットワークの学習を行うことができる。この登録処理により、第2尤度算出部310は、第2対象顔画像に基づく情報として、第2対象顔画像により学習されたニューラルネットワークを記憶する。なお、指示部は、アプリケーション処理部130等に対応する。
なお、第2尤度算出部310は、登録処理において、検出された第2対象顔画像を格納し、認識処理において、真正面顔を表していると判定された顔画像と、第2対象顔画像との類似度を算出しても良い。また、第2尤度算出部310は、登録処理において、第2対象顔画像から検出された特徴量を格納し、認識処理において、真正面顔を表していると判定された顔画像から特徴量を検出し、検出された特徴量と、格納された特徴量との類似度を算出しても良い。
識別部270bは、第2尤度算出部310により算出された第2尤度が所定の第2尤度閾値を超えたか否かを判定する。更に識別部270bは、蓄積型算出部240により算出された平均尤度が所定の平均尤度閾値を超えたか否かを判定する。更に識別部270bは、第2尤度の判定結果と、平均尤度の判定結果とに基づいて、顔画像が或る対象者を表しているか否かを判定し、顔画像が或る対象者を表していると判定された場合、その対象者の識別子を認識結果としてアプリケーション処理部130へ出力する。
第1尤度算出部230は、様々な条件(顔方向、照明条件)の顔画像を学習することにより、真正面顔以外を含む様々な条件の顔画像を認識することができる。しかし、第1尤度算出部230は、対象者の真正面顔の顔画像から算出される第1尤度が、対象者の真正面以外の顔画像から算出する第1尤度に比べて常に高くなるわけではないため、1枚の真正面顔の顔画像から算出された第1尤度だけで対象者を特定することは信頼性が不十分な場合もある。
一方、第2尤度算出部230は、真正面顔だけを表す第2対象顔画像だけを学習することにより、対象者の真正面顔の顔画像が撮影された場合には高い尤度を出力するため、1枚の真正面顔の顔画像から算出された第2尤度だけで対象者を特定することができる。
図6は、実施例2の認識処理を示すフローチャートである。
認識部120aは、登録処理の後に認識処理を実行する。
実施例1と同様のS110が実行された後、真正面顔判定部260は、検出された顔画像が真正面顔を表しているか否かを判定する(S310)。
検出された顔画像が真正面顔を表していないと判定された場合(S310:NO)、識別部270bは、処理をS410へ移行させる。一方、検出された顔画像が真正面顔を表していると判定された場合(S310:YES)、第2尤度算出部310は、対象者毎の第2尤度を算出する(S320)。識別部270bは、或る対象者の第2尤度が第2尤度閾値以上であるか否かを判定する(S330)。
或る対象者の第2尤度が第2尤度閾値以上でないと判定された場合(S330:NO)、識別部270bは、処理をS410へ移行させる。一方、或る対象者の第2尤度が第2尤度閾値以上であると判定された場合(S330:YES)、識別部270bは、その第2尤度に対応する対象者を特定し、その対象者の識別子を認識結果としてアプリケーション処理部130へ出力する(S340)。
その後、第1尤度算出部230は、対象者毎の第1尤度を算出する(S410)。その後、実施例1と同様のS510〜S540が実行される。以上が認識処理である。
第2尤度算出部310は、顔画像検出部220により顔画像が検出される度に、その顔画像から第2尤度を算出しても良い。この場合、識別部270bは、或る顔画像が真正面顔を表していると判定され、且つその顔画像から算出された第2尤度が第2尤度閾値以上である場合に、その第2尤度に対応する対象者の識別子を認識結果として出力する。
図7は、実施例2の認識処理の一例を示す模式図である。
この図は、真正面顔判定結果と、Aさんの第1尤度と、Aさんの平均尤度と、Aさんの第2尤度と、認識結果との時間変化を示す。この例における第2尤度閾値は0.6である。
真正面顔判定部260により顔画像(3)が真正面顔を表していると判定されたとする。顔画像(3)におけるAさんの第2尤度は、0.9になり、第2尤度閾値以上になったため、識別部270bは、Aさんの識別子を認識結果としてアプリケーション処理部130へ出力する。このとき、Aさんの第1尤度は、0.8であり、第2尤度より低い。また、Aさんの平均尤度は、0.57であり、第2尤度より低い。
その後、顔画像(5)において顔画像(1)〜(5)から算出されたAさんの平均尤度は、0.6になり、平均尤度閾値以上になったため、識別部270bは、Aさんの識別子を認識結果としてアプリケーション処理部130へ出力する。
この例において、真正面顔の顔画像の第2尤度から得られた認識結果と、平均尤度から得られた認識結果は同一であるものの、真正面顔の顔画像の第2尤度から得られた認識結果は、平均尤度から得られた認識結果より6秒早く出力される。顔画像が真正面顔を表していると判定され、且つ第2尤度が第2尤度閾値を超えたと判定された時点で、その第2尤度に対応する対象者の識別子を認識結果として出力することにより、平均尤度の判定に比べて、認識結果を出力するまでの時間を短縮することができる。また、第2尤度算出部310が、真正面顔の顔画像だけを学習することにより、高い第2尤度を得ることができるため、第2尤度による判定の信頼性を向上させることができ、一つの真正面顔の顔画像を検出した時点で対象者を特定することが可能になる。
本実施例においては、実施例2との相違を中心に説明する。
本実施例の第2尤度算出部310は、第2対象顔画像から、複数の部分領域に夫々位置する複数の対象部分画像を抽出する。本実施例の第2尤度算出部310は、複数のニューラルネットワークを有し、複数の対象部分画像により夫々学習する。更に第2尤度算出部310は、検出された顔画像から、複数の部分領域に夫々位置する複数の部分画像(検出部分画像)を抽出し、抽出された複数の部分画像の夫々の尤度を部分尤度として算出する。更に第2尤度算出部310は、複数の部分領域の夫々に予め定められた重みを用いて、全ての部分尤度を重み付け加算することにより、顔画像の第2尤度を算出する。
図8は、実施例3の第2尤度算出部310の動作の一例を示す模式図である。
この例において、顔画像において縦方向に並ぶ4つの部分領域が設定されている。第2尤度算出部310は、4つの部分領域に対応して、顔画像を4つの部分画像に分割する。例えば、第2尤度算出部310は、顔画像を縦方向に所定の割合で分割する。また、例えば、第2尤度算出部310は、目を含む部分領域や、鼻を含む部分領域など、顔画像内の特徴点を用いて、顔画像を分割しても良い。
この図において、第2尤度算出部310は、顔画像を部分画像410、420、430、440に分割する。第2尤度算出部310は、部分画像410、420、430、440の夫々から部分尤度を算出する。部分画像410、420、430、440に与えられた重みは夫々、0.1、0.5、0.3、0.1である。その後、第2尤度算出部310は、4つの部分尤度に重みを乗じて合計することにより、顔画像全体の第2尤度を算出する。この場合の第2尤度閾値は、例えば0.4程度である。
部分画像410は、前髪や額を含む部分領域であり、髪型の影響を受け、変化しやすい部分であるため重みは最も低い。部分画像420は、目を含む部分領域であり、変化が少なく、特徴的な部分であるため、重みは最も高い。部分画像430は、鼻を含む部分領域であり、変化が少なく、特徴的な部分であるため、重みは部分画像430の次に高い。部分画像440は、口を含む部分領域であり、口の開閉等の変形の影響を受け、変化しやすい部分であるため重みは最も低い。
このように複数の部分画像410、420、430、440を重み付けし、対象者の特徴を有する部分画像の第2尤度への寄与を大きくすることにより、髪型や口の動き等、他の部分領域の変化の影響を受けにくく、第2尤度の信頼性を向上させ、顔認識の精度を向上させることができる。
本実施例においては、実施例2との相違を中心に説明する。
本実施例の識別部270bは、追跡されている一連の顔画像から、第2尤度を用いて第1の対象者を認識し、その後、平均尤度を用いて第2の対象者を認識した場合、認識結果を訂正することを出力する。
顔画像検出部220は前述のように顔画像を追跡しているため、追跡により出力される一連の顔画像の中で人の入れ替わりがないと認識することができる。第1の顔画像から算出された第1の対象者の第2尤度が第2尤度閾値以上になったとする。このとき、識別部270bは、第1の対象者の識別子を認識結果として出力する。この認識結果に応じて、アプリケーション処理部130は、第1の対象者を認識したことをユーザに対して通知する。例えば、アプリケーション処理部130は、音声により第1の対象者の名前を出力する。
その後、第1の顔画像から連続して追跡されている第2の顔画像に対する第2の対象者の平均尤度が平均尤度閾値以上になったとする。このとき、追跡中の一連の顔画像に基づいて、第2尤度により第1の対象者が特定され、平均尤度により第2の対象者が特定されたため、識別部270bは、平均尤度により特定された第2の対象者を優先し、第1の対象者の識別子を第2の対象者の識別子に訂正することを認識結果として出力する。この認識結果に応じて、アプリケーション処理部130は、誤認識したことをユーザに対して通知する。例えば、アプリケーション処理部130は、音声により、訂正を示すメッセージと共に、第2の対象者の名前を出力する。このメッセージは、「ごめんなさい」、「間違えました」等である。
図9は、実施例4の認識処理の一例を示す模式図である。
この図は、真正面顔判定結果と、Aさんの第1尤度と、Bさんの第1尤度と、Bさんの平均尤度と、Aさんの第2尤度と、認識結果との時間変化を示す。この例における平均尤度閾値及び第2尤度閾値は0.6である。
対象者としてAさんとBさんが判定部210bに登録されているとする。第1尤度算出部230は、連続して追跡されている顔画像群(顔画像(1)〜(7))から、Aさんに対する第1尤度と、Bさんに対する第1尤度とを算出する。真正面顔判定部260は、顔画像(3)が真正面顔を示すと判定したとする。顔画像(3)におけるAさんの第2尤度が0.9になり、第2尤度閾値以上になったため、識別部270bは、Aさんの識別子を認識結果としてアプリケーション処理部130へ出力する。アプリケーション処理部130は、認識結果に応じてAさんを認識したことをユーザへ通知する。
その後、顔画像(6)において顔画像(1)〜(6)から算出されたBさんの平均尤度が0.62になり、平均尤度閾値以上になったとする。このとき、識別部270bは、平均尤度から特定された対象者を優先し、Aさんの識別子をBさんの識別子へ訂正することを認識結果としてアプリケーション処理部130へ出力する。アプリケーション処理部130は、認識結果に応じて、AさんをBさんに訂正することをユーザへ通知する。
なお、通知部は、アプリケーション処理部130等に対応する。
本実施例によれば、平均尤度による認識結果が第2尤度による認識結果と異なる場合に、第2尤度による認識結果より平均尤度による認識結果を優先する。これにより、第2尤度を用いることにより認識速度を向上させつつ、第2尤度を用いて誤認識が発生した場合でも平均尤度を用いて認識結果を訂正し、信頼性を向上させることができる。
受付や入門許可などのセキュリティに用いる個人認証では、極めて高い認識精度が必要である。一方、エンタテイメントロボットなどの対話に用いる顔認識では、誤認識は致命的な欠陥とならない場合がある。本実施例によれば、第2尤度を用いて高速に認識結果を出力することにより、ユーザの待ち時間は短縮され、対話におけるエンタテイメント性を向上させることができる。また、誤認識が発生した場合に、認識結果の訂正をユーザに通知することにより、訂正を通知しない場合に比べてユーザの心証を良くすることができ、対話におけるエンタテイメント性を向上させることができる。
なお、本発明は、上述した実施の形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。
110:画像入力部、 120、120b:認識部、 130:アプリケーション処理部、 210、210b:判定部、 220:顔画像検出部、 230:第1尤度算出部、 240:蓄積型算出部、 260:真正面顔判定部、 270、270b:識別部、 310:第2尤度算出部

Claims (12)

  1. 連続する撮影により得られる画像から、顔を表す部分である顔画像を検出する顔画像検出部と、
    前記顔画像が真正面顔を表しているか否かを判定する真正面顔判定部と、
    第1対象者の顔を表す第1対象顔画像に基づく情報を記憶し、前記顔画像が真正面顔を表していると判定された場合、真正面顔を表していると判定された顔画像である真正面顔画像が前記第1対象顔画像に類似しているか否かを判定し、前記顔画像が真正面顔を表していないと判定された場合、前記顔画像検出部により連続して検出された複数の顔画像が前記第1対象顔画像に類似しているか否かを判定する判定部と、
    を備える
    顔認識装置。
  2. 前記判定部は、
    前記顔画像が前記第1対象顔画像であることの確からしさである第1尤度を算出する第1尤度算出部と、
    前記複数の顔画像から夫々算出される複数の第1尤度の平均である平均尤度を算出する平均尤度算出部と、
    前記平均尤度が所定の平均尤度閾値を上回るか否かを判定し、前記平均尤度が前記平均尤度閾値を上回ると判定された場合、前記第1対象者の識別子を出力する識別部と、
    を含む、
    請求項1に記載の顔認識装置。
  3. 前記判定部は、
    前記第1対象者の真正面顔を表す第2対象顔画像に基づく情報を記憶し、前記真正面顔画像が前記第2対象顔画像であることの確からしさである第2尤度を算出する第2尤度算出部を
    更に含み、
    前記識別部は、前記第2尤度が所定の第2尤度閾値を上回るか否かを判定し、前記第2尤度が前記第2尤度閾値を上回ると判定された場合、前記第1対象者の識別子を出力する、
    請求項2に記載の顔認識装置。
  4. 前記第1対象者に対して顔の方向の指示を通知する指示部を
    更に備え、
    前記顔画像検出部は、前記指示に応じて撮影された画像から顔を表す部分を対象顔画像として検出し、
    前記真正面顔判定部は、前記対象顔画像が真正面顔を表しているか否かを判定し、
    前記第2尤度算出部は、真正面顔を表していると判定された対象顔画像を前記第2対象顔画像として取得する、
    請求項3に記載の顔認識装置。
  5. 前記第2尤度算出部は、前記第2対象顔画像の中の複数の領域を複数の対象部分画像として抽出し、前記真正面顔画像の中の前記複数の領域を複数の検出部分画像として抽出し、前記複数の検出部分画像の夫々が対応する対象部分画像であることの確からしさである部分尤度を算出し、全ての部分尤度を重み付け加算することにより前記第2尤度を算出する、
    請求項3又は4に記載の顔認識装置。
  6. 前記第1尤度算出部は、第1ニューラルネットワークを含み、
    前記第1ニューラルネットワークは、前記第1対象顔画像を用いて学習し、前記複数の顔画像の夫々から第1尤度を算出し、
    前記第2尤度算出部は、第2ニューラルネットワークを含み、
    前記第2ニューラルネットワークは、前記第2対象顔画像を用いて学習し、前記真正面顔画像から第2尤度を算出する、
    請求項3〜5のいずれかに記載の顔認識装置。
  7. 前記識別部は、前記真正面顔画像から算出された第1尤度が所定の第1尤度閾値を上回るか否かを判定し、前記真正面顔画像から算出された第1尤度が前記第1尤度閾値を上回ると判定された場合、前記第1対象者の識別子を出力する、
    請求項2に記載の顔認識装置。
  8. 前記判定部は、第2対象者の顔を表す第3対象顔画像に基づく情報を記憶し、前記真正面顔画像が前記第1対象顔画像に類似していると判定された場合、前記第1対象者の識別子を出力し、その後、前記複数の顔画像が前記第3対象顔画像に類似しているか否かを判定し、前記複数の顔画像が前記第3対象顔画像に類似していると判定された場合、前記第1対象者の識別子を前記第2対象者の識別子に訂正することを出力する、
    請求項1〜7のいずれかに記載の顔認識装置。
  9. 前記第1対象者の識別子の出力に応じて、前記第1対象者を認識したことをユーザへ通知し、前記訂正の出力に応じて、前記訂正をユーザへ通知する通知部を
    更に備える、
    請求項8に記載の顔認識装置。
  10. 前記真正面顔判定部は、前記顔画像から横方向のエッジを検出することにより、前記顔画像の中の顔の左端のエッジ及び右端のエッジを検出し、前記顔画像から縦方向のエッジを検出することにより、前記顔画像の中の鼻のエッジを検出し、前記左端のエッジの位置と前記右端のエッジの位置と前記鼻のエッジの位置とが所定の条件を満たす場合、前記顔画像が真正面顔を表していると判定する、
    請求項1〜9のいずれかに記載の顔認識装置。
  11. コンピュータが、第1対象者の顔を表す第1対象顔画像に基づく情報を記憶し、
    前記コンピュータが、連続する撮影により得られる画像から、顔を表す部分である顔画像を検出し、
    前記コンピュータが、前記顔画像が真正面顔を表しているか否かを判定し、
    前記コンピュータが、前記顔画像が真正面顔を表していると判定された場合、真正面顔を表していると判定された顔画像である真正面顔画像が前記第1対象顔画像に類似しているか否かを判定し、前記顔画像が真正面顔を表していないと判定された場合、前記検出により連続して検出された複数の顔画像が前記第1対象顔画像に類似しているか否かを判定する、
    ことを備える
    顔認識方法。
  12. コンピュータを、顔認識装置として機能させるためのコンピュータプログラムであって、
    連続する撮影により得られる画像から、顔を表す部分である顔画像を検出する顔画像検出部と、
    前記顔画像が真正面顔を表しているか否かを判定する真正面顔判定部と、
    第1対象者の顔を表す第1対象顔画像に基づく情報を記憶し、前記顔画像が真正面顔を表していると判定された場合、真正面顔を表していると判定された顔画像である真正面顔画像が前記第1対象顔画像に類似しているか否かを判定し、前記顔画像が真正面顔を表していないと判定された場合、前記顔画像検出部により連続して検出された複数の顔画像が前記第1対象顔画像に類似しているか否かを判定する判定部と、
    を前記コンピュータ上に実現するためのコンピュータプログラム。
JP2013107245A 2013-05-21 2013-05-21 顔認識装置、顔認識方法、およびコンピュータプログラム Active JP5718973B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013107245A JP5718973B2 (ja) 2013-05-21 2013-05-21 顔認識装置、顔認識方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013107245A JP5718973B2 (ja) 2013-05-21 2013-05-21 顔認識装置、顔認識方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2014229015A true JP2014229015A (ja) 2014-12-08
JP5718973B2 JP5718973B2 (ja) 2015-05-13

Family

ID=52128825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013107245A Active JP5718973B2 (ja) 2013-05-21 2013-05-21 顔認識装置、顔認識方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5718973B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030480A (ja) * 2018-08-20 2020-02-27 キヤノン株式会社 畳み込みニューラルネットワーク並びにこれを用いた画像識別装置及び画像識別方法、並びに学習手段
US10713513B2 (en) 2017-03-28 2020-07-14 Casio Computer Co., Ltd. Object detection device, object detection method, and recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791681A (zh) * 2016-12-31 2017-05-31 深圳市优必选科技有限公司 视频监控和人脸识别方法、装置及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08115422A (ja) * 1994-10-19 1996-05-07 Secom Co Ltd 個人識別装置
JP3823760B2 (ja) * 2001-05-28 2006-09-20 日本電気株式会社 ロボット装置
JP2008071172A (ja) * 2006-09-14 2008-03-27 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08115422A (ja) * 1994-10-19 1996-05-07 Secom Co Ltd 個人識別装置
JP3823760B2 (ja) * 2001-05-28 2006-09-20 日本電気株式会社 ロボット装置
JP2008071172A (ja) * 2006-09-14 2008-03-27 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713513B2 (en) 2017-03-28 2020-07-14 Casio Computer Co., Ltd. Object detection device, object detection method, and recording medium
JP2020030480A (ja) * 2018-08-20 2020-02-27 キヤノン株式会社 畳み込みニューラルネットワーク並びにこれを用いた画像識別装置及び画像識別方法、並びに学習手段
JP7257756B2 (ja) 2018-08-20 2023-04-14 キヤノン株式会社 画像識別装置、画像識別方法、学習装置、及びニューラルネットワーク
US11948091B2 (en) 2018-08-20 2024-04-02 Canon Kabushiki Kaisha Image identification apparatus, image identification method, training apparatus, and neural network having sub-neural networks respectively inputted with mutually different data

Also Published As

Publication number Publication date
JP5718973B2 (ja) 2015-05-13

Similar Documents

Publication Publication Date Title
US10740598B2 (en) Multi-modal emotion recognition device, method, and storage medium using artificial intelligence
US11182592B2 (en) Target object recognition method and apparatus, storage medium, and electronic device
US10275672B2 (en) Method and apparatus for authenticating liveness face, and computer program product thereof
US11126833B2 (en) Artificial intelligence apparatus for recognizing user from image data and method for the same
US9031327B2 (en) Information processing device, method, and program that recognizes a predetermined part of a body
US8416998B2 (en) Information processing device, information processing method, and program
CN105426867B (zh) 人脸识别验证方法及装置
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
EP3716159A1 (en) Multi-modal emotion recognition device, method and storage medium using artificial intelligence
JP2008257425A (ja) 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
JP2012226665A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
US20200364444A1 (en) Information processing apparatus and method of authentication
CN111639616A (zh) 一种基于深度学习的重身份识别方法
JP2019109885A (ja) オブジェクト認識装置及び方法
US20150205995A1 (en) Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium
JP5061563B2 (ja) 検出装置、生体判定方法、およびプログラム
CN110612530A (zh) 用于选择脸部处理中使用的帧的方法
WO2020124993A1 (zh) 活体检测方法、装置、电子设备及存储介质
JP5718973B2 (ja) 顔認識装置、顔認識方法、およびコンピュータプログラム
Tepelea et al. A vision module for visually impaired people by using Raspberry PI platform
KR102101221B1 (ko) 콘볼루션 신경망을 이용한 걸음걸이 기반 신원 인식 장치 및 방법
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
JP6147198B2 (ja) ロボット
KR20190113252A (ko) 시선 추적 방법 및 이를 수행하기 위한 단말
JP6610349B2 (ja) 案内ロボット制御システム、プログラム及び案内ロボット

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150319

R150 Certificate of patent or registration of utility model

Ref document number: 5718973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250