JP2007102517A - 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体 - Google Patents

顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP2007102517A
JP2007102517A JP2005291976A JP2005291976A JP2007102517A JP 2007102517 A JP2007102517 A JP 2007102517A JP 2005291976 A JP2005291976 A JP 2005291976A JP 2005291976 A JP2005291976 A JP 2005291976A JP 2007102517 A JP2007102517 A JP 2007102517A
Authority
JP
Japan
Prior art keywords
face
area
unit
time information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005291976A
Other languages
English (en)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Sakon Yamamoto
左近 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005291976A priority Critical patent/JP2007102517A/ja
Publication of JP2007102517A publication Critical patent/JP2007102517A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 時間が経過しても確実に顔を認識することができる。
【解決手段】 顔画像抽出部32は、顔画像入力部31から供給された顔画像から、顔の領域を抽出する。特徴量算出部34は、顔が撮影された時点の日付と時刻、被写体である人の年齢、または顔を登録した時点から顔が撮影された時点までの時間などに対応する特徴量を算出する。認識部35は、特徴量算出部34から供給された特徴量を用いて、顔を認識する。本発明は、顔を認識する顔認識装置に適用できる。
【選択図】 図2

Description

本発明は顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体に関し、特に、より確実に顔を認識できるようにした顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体に関する。
顔を撮影して、撮影した画像から顔を認識する顔認識装置が利用されている。
図1は、従来の顔認識装置の構成を示すブロック図である。顔画像入力部11は、ビデオカメラなどで構成され、顔を含んだ画像を取得することで、画像を入力する。顔画像入力部11は、入力した画像を顔画像抽出部12に供給する。顔画像抽出部12は、顔画像入力部11から供給された画像から顔領域を抽出する。より具体的には、顔画像抽出部12は、供給された画像から、肌色領域を抽出し、標準的な顔の画像であるテンプレートを用いて抽出した肌色領域が顔の画像の領域であるかを判定する。そして、顔画像抽出部12は、顔の画像の領域であると判定された場合、肌色領域を含む方形領域を顔画像として、顔画像正規化部13に供給する。
顔画像正規化部13は、顔画像の明暗を調整し、目や口の位置を基準としてアフィン変換を顔画像に適用して、顔画像を正規化する。すなわち、顔画像正規化部13は、顔画像全体の明暗を調整して、明暗を調整し、また、目や口の位置が予め設定した位置になるように顔画像にアフィン変換を適用する。顔画像正規化部13は、正規化した顔画像を識別部14に供給する。
識別部14は、登録することで登録顔画像記憶部15に予め記憶されている登録顔画像と、顔画像正規化部13から供給された正規化された顔画像とで、顔を識別する。より具体的には、識別部14は、入力された顔画像が、正規化された顔画像との差分絶対値の総和が最小になる登録顔画像であると識別する。
従来は、運転免許証のように、所有者の顔画像や人定事項(個人情報)を券面上に印刷する証明用媒体において、内蔵するICチップに利用されるごとに最新のものに更新される利用時に本人確認のための顔照合に利用される最新顔情報テンプレートを記録するようにしているものもある(例えば、特許文献1参照)。
また、経年変化によって微妙に変化する人間の顔データとの関係を考慮して、登録された時点からの経過時間や判別に用いる元になった時点からの経過時間によるデータの有効性を考慮しながら登録データを削除するようにしている顔照合装置もある(例えば、特許文献2参照)。
特開2005−122395号公報
特開2004−54888号公報
しかしながら、登録顔画像を登録した時点から時間が経過して、認識しようとする人の顔が変わってしまい、入力された顔画像が変化(経年変化)すると、同じ人であっても正しく認識できないことがあった。
本発明は、このような状況に鑑みてなされたものであり、時間が経過しても確実に顔を認識することができるようにするものである。
本発明の第1の側面の顔認識装置は、入力された画像から顔の領域を抽出する領域抽出手段と、抽出された領域の顔に関係する時間の情報に対応する特徴量を算出する特徴量算出手段と、前記特徴量を用いて、前記顔を認識する認識手段とを備える。
前記特徴量算出手段に、顔の領域の画素値と、時間の情報との関係に対応する係数を出力する出力手段と、前記係数と、顔の領域の画素値との演算により前記特徴量を算出する演算手段とを設けることができる。
前記係数は、複数の学習用顔画像と、前記学習用顔画像それぞれの時間の情報である学習用時間情報とを用いて、前記学習用顔画像と前記学習用時間情報との関係を表すように生成されたものとすることができる。
前記特徴量算出手段は、顔が撮影された時刻を示す前記特徴量を算出し、前記認識手段は、前記特徴量で示される時刻と現在時刻とから、前記顔を認識することができる。
前記領域抽出手段は、前記画像から、肌色の範囲の色相の画素を抽出する抽出手段と、肌色の範囲の色相の画素であって、所定の方向に連続している画素の数が最大となる前記画像上の位置を基準として、顔の領域を決定する決定手段とを設け、決定された顔の領域を抽出することができる。
前記領域抽出手段に、抽出した領域の顔と、予め定めた基準の顔とを比較することにより、抽出した領域が顔の領域であるか否かを判定する判定手段をさらに設けることができる。
抽出された顔の領域を正規化する正規化手段をさらに設け、前記特徴量算出手段は、正規化された領域の顔に関係する時間の情報に対応する前記特徴量を算出することができる。
本発明の第1の側面の顔認識方法は、入力された画像から顔の領域を抽出し、抽出された領域の顔に関係する時間の情報に対応する特徴量を算出し、前記特徴量を用いて、前記顔を認識するステップを含む。
顔認識方法において、顔の領域の画素値と、時間の情報との関係に対応する係数を出力し、前記係数と、顔の領域の画素値との演算により前記特徴量を算出することができる。
前記係数は、複数の学習用顔画像と、前記学習用顔画像それぞれの時間の情報である学習用時間情報とを用いて、前記学習用顔画像と前記学習用時間情報との関係を表すように生成されたものとすることができる。
顔認識方法において、顔が撮影された時刻を示す前記特徴量を算出し、前記特徴量で示される時刻と現在時刻とから、前記顔を認識することができる。
顔認識方法において、前記画像から、肌色の範囲の色相の画素を抽出し、肌色の範囲の色相の画素であって、所定の方向に連続している画素の数が最大となる前記画像上の位置を基準として、顔の領域を決定し、決定された顔の領域を抽出することができる。
顔認識方法において、抽出した領域の顔と、予め定めた基準の顔とを比較することにより、抽出した領域が顔の領域であるか否かをさらに判定することができる。
顔認識方法において、抽出された顔の領域を正規化し、正規化された領域の顔に関係する時間の情報に対応する前記特徴量を算出することができる。
本発明の第1の側面のプログラムは、入力された画像から顔の領域を抽出し、抽出された領域の顔に関係する時間の情報に対応する特徴量を算出し、前記特徴量を用いて、前記顔を認識するステップをコンピュータに実行させる。
本発明の第1の側面においては、入力された画像から顔の領域が抽出され、抽出された領域の顔に関係する時間の情報に対応する特徴量が算出され、前記特徴量を用いて、前記顔が認識される。
本発明の第2の側面の係数生成装置は、入力された画像から顔の領域を抽出する領域抽出手段と、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成する係数生成手段とを備える。
前記係数生成手段に、複数の画像とそれぞれの画像に関係する時間の情報とから、それぞれの画像から抽出された顔の領域の画素値とそれぞれの画像に関係する時間の情報との関係を表す方程式を生成する方程式生成手段と、生成された方程式を解くことで前記係数を生成する演算手段とを設けることができる。
生成された前記係数を記憶する記憶手段をさらに設けることができる。
本発明の第2の側面の係数生成方法は、入力された画像から顔の領域を抽出し、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成するステップを含む。
本発明の第2の側面のプログラムは、入力された画像から顔の領域を抽出し、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成するステップをコンピュータに実行させる。
本発明の第2の側面においては、入力された画像から顔の領域が抽出され、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数が生成される。
本発明の第1の側面のプログラムまたは本発明の第2の側面のプログラムは記録媒体に記録することができる。
以上のように、本発明の第1の側面によれば、顔を認識することができる。
また、本発明の第1の側面によれば、時間が経過しても確実に顔を認識することができる。
本発明の第2の側面によれば、顔の認識に用いる係数を生成することができる。
また、本発明の第2の側面によれば、生成した係数を用いることで、時間が経過しても確実に顔を認識することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の第1の側面の顔認識装置は、入力された画像から顔の領域を抽出する領域抽出手段(例えば、図2の顔画像抽出部32)と、抽出された領域の顔に関係する時間の情報に対応する特徴量を算出する特徴量算出手段(例えば、図2の特徴量算出部34)と、前記特徴量を用いて、前記顔を認識する認識手段(例えば、図2の認識部35)とを備える。
前記領域抽出手段は、前記画像から、肌色の範囲の色相の画素を抽出する抽出手段(例えば、図3の肌色領域抽出部62)と、肌色の範囲の色相の画素であって、所定の方向に連続している画素の数が最大となる前記画像上の位置を基準として、顔の領域を決定する決定手段(例えば、図3の横枠検出部63および縦枠検出部64)とを設け、決定された顔の領域を抽出するようにすることができる。
前記領域抽出手段に、抽出した領域の顔と、予め定めた基準の顔とを比較することにより、抽出した領域が顔の領域であるか否かを判定する判定手段(例えば、図3の顔画像識別部66)をさらに設けることができる。
抽出された顔の領域を正規化する正規化手段(例えば、図2の顔画像正規化部33)をさらに設け、前記特徴量算出手段は、正規化された領域の顔に関係する時間の情報に対応する前記特徴量を算出することができる。
本発明の第1の側面の顔認識方法またはプログラムは、入力された画像から顔の領域を抽出し(例えば、図14のステップS12)、抽出された領域の顔に関係する時間の情報に対応する特徴量を算出し(例えば、図14のステップS15)、前記特徴量を用いて、前記顔を認識する(例えば、図14のステップS16およびステップS18)ステップを含む。
本発明の第2の側面の係数生成装置は、入力された画像から顔の領域を抽出する領域抽出手段(例えば、図15の顔画像抽出部202)と、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成する係数生成手段(例えば、図15の係数生成部204)とを備える。
前記係数生成手段に、複数の画像とそれぞれの画像に関係する時間の情報とから、それぞれの画像から抽出された顔の領域の画素値とそれぞれの画像に関係する時間の情報との関係を表す方程式を生成する方程式生成手段(例えば、図15の正規方程式生成部223)と、生成された方程式を解くことで前記係数を生成する演算手段(例えば、図15の係数決定部224)とを設けることができる。
生成された前記係数を記憶する記憶手段(例えば、図15の係数メモリ205)をさらに設けることができる。
本発明の第2の側面の係数生成方法またはプログラムは、入力された画像から顔の領域を抽出し(例えば、図18のステップS52)、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成する(例えば、図18のステップS57およびステップS59)ステップを含む。
図2は、本発明の一実施の形態の顔画像識別装置の構成を示すブロック図である。顔画像識別装置は、顔画像入力部31、顔画像抽出部32、顔画像正規化部33、特徴量算出部34、および認識部35により構成されている。
顔画像入力部31は、顔画像を入力する。すなわち、顔画像入力部31は、例えば、ビデオカメラまたはデジタルスチルカメラなどからなり、被写体である人の顔を撮影して、人の顔を含む画像をデータとして取得する。または、例えば、顔画像入力部31は、インターフェースとして構成され、接続されている外部のビデオカメラまたはデジタルスチルカメラなどから供給された人の顔を含む画像のデータを取得する。顔画像入力部31は、入力した顔画像を顔画像抽出部32に供給する。
顔画像抽出部32は、顔画像入力部31から供給された顔画像から、顔の領域を抽出する。例えば、顔画像抽出部32は、顔画像から、肌色の画素の領域を抽出する。そして、顔画像抽出部32は、抽出した肌色の画素の領域と、標準的な顔の画像であるテンプレートとを比較することにより、抽出した肌色の画素の領域の画像が顔の画像であるか否かを判定する。さらに、顔画像抽出部32は、抽出した肌色の画素の領域の画像が顔の画像であると判定された場合、その肌色の画素の領域を含む方形の領域を顔の領域として抽出する。顔画像抽出部32は、抽出した顔の領域を顔画像正規化部33に供給する。
顔画像正規化部33は、顔画像抽出部32から供給された顔の領域を正規化する。すなわち、例えば、顔画像正規化部33は、顔の領域の明暗(明度)を調整し、目や口の画像などの位置を基準として、顔の領域にアフィン変換を適用する。より詳細には、例えば、顔画像正規化部33は、顔の領域全体の輝度値を調整して、顔の領域の明暗を調整する。そして、顔画像正規化部33は、目や口の画像が予め決めた位置に配置されるように、顔の領域にアフィン変換を適用する。顔画像正規化部33は、正規化した顔の領域を特徴量算出部34に供給する。
特徴量算出部34は、顔画像正規化部33から供給された領域の顔に関係する時間の情報に対応する特徴量を算出する。
ここで、顔に関係する時間の情報とは、例えば、顔が撮影された時点の日付と時刻、被写体である人の年齢、または顔を登録した時点から顔が撮影された時点までの時間などをいう。なお、顔を登録した時点は、基準となる時点の一例である。顔の登録の詳細については後述する。
特徴量算出部34は、例えば、顔が撮影された時点の日付と時刻、被写体である人の年齢、または顔を登録した時点から顔が撮影された時点までの時間などに対応する特徴量を算出する。
特徴量算出部34は、予測部41および予測係数メモリ42から構成される。
予測部41は、予測係数メモリ42から読み出した予測係数と、正規化された顔の領域の画素値との演算により、領域の顔に関係する時間の情報に対応する特徴量を演算する。予測係数メモリ42は、顔の領域の画素値と、時間の情報との関係に対応する予測係数を予め記憶し、記憶している予測係数を出力する。
ここで、予測係数は、複数の学習用顔画像と、学習用顔画像それぞれの時間の情報である学習用時間情報とを用いて、学習用顔画像と学習用時間情報との関係を表すように予め生成されている。予測係数の生成の詳細は後述する。
より具体的に説明すれば、例えば、予測係数メモリ42は、顔の領域の画素値と、顔を登録した時点から顔が撮影された時点までの時間との関係に対応する予測係数を記憶し、記憶している予測係数を予測部41に供給(出力)する。予測部41は、予測係数メモリ42から読み出した予測係数と、正規化された顔の領域の画素値との演算により、顔を登録した時点から顔が撮影された時点までの時間を予測する特徴量を演算する。
特徴量算出部34は、算出した特徴量を認識部35に供給する。
認識部35は、特徴量算出部34から供給された特徴量を用いて、顔を認識する。認識部35は、判定部43および時間情報入力部44から構成される。
判定部43は、特徴量算出部34から供給された特徴量と、時間情報入力部44から入力される顔に関係する時間の情報との一致度を判定する。時間情報入力部44は、特徴量算出部34から供給された特徴量に対応する、顔に関係する時間の情報を入力する。
例えば、時間情報入力部44は、いわゆるリアルタイムクロックから、現在の日付および時刻を示す時間の情報を入力する。そして、時間情報入力部44は、顔を登録した時点から現在までの時間を示す時間の情報を判定部43に供給する。判定部43は、特徴量算出部34から供給された特徴量であって、顔を登録した時点から顔が撮影された時点までの時間を予測する特徴量と、顔を登録した時点から現在までの時間を示す時間の情報との一致度を判定する。
認識部35は、特徴量と顔に関係する時間の情報との一致度の判定の結果に応じた、顔の認識の結果を出力する。
以下、顔画像抽出部32、顔画像正規化部33、特徴量算出部34、および認識部35のそれぞれの詳細について説明する。
図3は、顔画像抽出部32の構成の例を示すブロック図である。顔画像抽出部32は、HSV(Hue Saturation Value(色相、彩度、明度))変換部61、肌色領域抽出部62、横枠検出部63、縦枠検出部64、顔領域抽出部65、および顔画像認識部66から構成される。
HSV変換部61は、顔画像入力部11から供給されたRGB(red green blue)方式の顔画像を、HSV方式の顔画像に変換する。HSV変換部61は、HSV方式の顔画像を肌色領域抽出部62に供給する。
肌色領域抽出部62は、HSV方式の顔画像から、肌色の範囲の色相(Hue)の画素(以下、肌色画素と称する)を抽出する。例えば、色相は、0乃至360の範囲で表現される。0である色相は、赤を示し、60である色相は、黄を示し、さらに360までの色相は、順に、緑、シアン、青、マゼンタ、赤を示す。例えば、肌色領域抽出部62は、20を超えて40未満である色相の画素を、HSV方式の顔画像から抽出する。
図4で示されるように、肌色領域抽出部62は、HSV方式に変換された顔画像71から、肌色の範囲の20を超えて40未満である色相の画素を肌色画素として抽出する。肌色領域抽出部62は、抽出した肌色画素からなる顔画像72を生成する。なお、理解を容易にするため、図面における顔画像72には、肌色画素以外の画素による画像が示されている。
なお、例えば、肌色領域抽出部62が、肌色画素を特定するフラグを顔画像71に付加し、このフラグを基に、以下で説明する処理が実行されるようにしてもよい。
肌色領域抽出部62は、顔画像71および肌色画素からなる顔画像72を横枠検出部63に供給する。
横枠検出部63は、抽出する顔の領域の横枠を決める。まず、横枠検出部63は、顔画像72における、画素の横の列毎の肌色画素の数を数える。言い換えれば、横枠検出部63は、顔画像72における、水平方向に、横1列の画素毎に、その1列の画素に含まれる連続している肌色画素の数を数える。この場合、横枠検出部63は、顔画像72の1つの横の列の画素において、i個の肌色画素が連続し、これとは離れてj個の肌色画素が連続している場合、i>jであるとき、より多いi個をその列の肌色画素の数とする。
図5で示されるように、横枠検出部63は、横の列毎の肌色画素の数のうち、最大の数(以下、単に最大数と称する)を求める。そして、横枠検出部63は、肌色画素の数が最大の横の列の、垂直方向の座標を垂直基準点とする。
さらに、横枠検出部63は、このように求めた最大数に、0.8を乗算して得た値を横枠の幅とする。そして、横枠検出部63は、幅を決めた横枠の中心を、顔画像72の水平方向の中心に一致させる。
横枠検出部63は、顔画像72と共に、垂直基準点、並びに幅および水平方向の位置が決められた横枠を示すデータを縦枠検出部64に供給する。また、横枠検出部63は、顔画像71および顔画像72と共に、幅および水平方向の位置が決められた横枠を示すデータを顔領域抽出部65に供給する。
縦枠検出部64は、抽出する顔の領域の縦枠を決める。縦枠検出部64は、横枠の幅に、1.3を乗算して得た値を縦枠の高さ(長さ)とする。図6で示されるように、縦枠検出部64は、垂直基準点に対して所定の長さだけオフセットした位置を縦枠の中心とする。例えば、縦枠検出部64は、垂直基準点から−40だけオフセットした位置(垂直基準点から40画素だけ上側の位置)を縦枠の中心とする。
縦枠検出部64は、高さおよび垂直方向の位置が決められた縦枠を示すデータを顔領域抽出部65に供給する。
顔領域抽出部65は、横枠検出部63から供給された横枠を示すデータ、および縦枠検出部64から供給された縦枠を示すデータを用いて、縦枠および横枠を統合し、四角の枠を求める。すなわち、顔領域抽出部65は、横枠の幅と同じ幅で、縦枠の高さと同じ高さの四角の枠を求める。顔領域抽出部65は、横枠の水平方向の位置と縦枠の中心とで決まる位置と、その四角の枠の中心が一致するように、四角の枠の位置を決める。
顔領域抽出部65は、図7で示されるように、横枠検出部63から供給された顔画像71から、縦枠および横枠を統合して求められた四角の枠の中の顔領域81を抽出する。なお、顔領域抽出部65は、RGB方式の元の顔画像から顔領域81を抽出するようにしてもよい。
顔領域抽出部65は、顔画像72と共に、抽出した顔領域81を顔画像識別部66に供給する。
顔画像識別部66は、顔領域81の顔と、予め定めた基準の顔とを比較することにより、顔領域81が顔の領域であるか否かを判定する。例えば、図8で示されるように、顔画像識別部66は、標準的な顔画像のテンプレート91を予め記憶している。テンプレート91は、所定の数の複数の人の顔の画像を平均した標準的な顔画像である。顔画像識別部66は、顔領域抽出部65において抽出された顔領域81の画像とテンプレート91との一致の度合いを示す値を求める。例えば、顔画像識別部66は、一致の度合いを示す値として、顔領域81の画像とテンプレート91との差分絶対値の総和を算出する。具体的には、顔画像識別部66は、顔領域81の画素のそれぞれについて、顔領域81の画素の画素値と、その画素の位置と同じ位置のテンプレート91の画素の画素値の差分を求めて、求めた差分の絶対値を求める。そして、顔画像識別部66は、絶対値の総和を求める。
なお、顔領域81のサイズとテンプレート91のサイズが一致しない場合、顔領域81の画像とテンプレート91との一致の度合いを示す値を求める前に、顔画像識別部66は、テンプレート91の画素を補間するか、またはテンプレート91の画素を間引いて、テンプレート91のサイズを調整して、顔領域81のサイズとテンプレート91のサイズとを一致させる。
顔画像識別部66は、顔領域81の画像とテンプレート91との一致の度合いを示す値を基に、一致の度合いが基準値より大きい場合、顔領域81が顔の領域(顔画像)であると判定する。例えば、顔画像識別部66は、一致の度合いを示す値として、顔領域81の画像とテンプレート91との差分絶対値の総和を算出した場合、その総和が予め定めた閾値より小さい場合、顔領域81が顔の領域であると判定し、その総和が予め定めた閾値以上である場合、顔領域81が顔の領域でないと判定する。
顔領域81が顔の領域であると判定された場合、顔画像識別部66は、顔画像72と共に、顔領域81を顔画像正規化部33に供給する。
顔領域81が顔の領域であると判定された場合、顔画像正規化部33、特徴量算出部34、および認識部35が以下で説明する処理を継続し、顔領域81が顔の領域でないと判定された場合、顔画像正規化部33、特徴量算出部34、および認識部35は以下で説明する処理を実行しないで、処理は終了する。
次に、顔画像正規化部33における顔領域81の正規化について説明する。
図9は、顔画像正規化部33の構成の例を示すブロック図である。顔画像正規化部33は、ラベリング部101、重心算出部102、目位置検出部103、口位置検出部104、アフィン変換部105、および輝度値調整部106から構成される。
ラベリング部101は、顔画像72を基に、顔領域81の画素のうち、肌色画素に相当しない(肌色画素以外の)画素(以下、非肌色画素と称する)にラベリングし、オブジェクトを抽出する。例えば、ラベリング部101は、4近傍によるラベリング処理を顔領域81の非肌色画素に適用する。すなわち、例えば、ラベリング部101は、非肌色画素のそれぞれに、隣接している非肌色画素の番号(ラベル)と同じ番号を付加することで、連続して接している非肌色画素に共通し、間に肌色画素がある非肌色画素では異なる番号を付加する。これにより、顔領域81の非肌色画素からなるオブジェクトには、それぞれ、番号(ラベル)が付加されることになる。
ラベリング部101は、ラベリングした顔領域81を重心算出部102に供給する。
重心算出部102は、ラベルを参照して、顔領域81の非肌色画素からなるオブジェクトのそれぞれの重心を算出する。例えば、重心算出部102は、オブジェクトの重心のx座標の位置を、そのオブジェクトに含まれる非肌色画素のx座標の位置の平均値とし、そのオブジェクトの重心のy座標の位置を、そのオブジェクトに含まれる非肌色画素のy座標の位置の平均値として、それぞれのオブジェクトの重心の座標上の位置を求める。
重心算出部102は、ラベリングした顔領域81と共に、顔領域81の非肌色画素からなるオブジェクトのそれぞれの重心を示す重心データを目位置検出部103および口位置検出部104に供給する。
目位置検出部103は、重心算出部102から供給された重心データから、目のオブジェクトを検出する。すなわち、例えば、目位置検出部103は、重心データで重心の位置が示されるオブジェクトのうち、顔領域81の上半分の領域に重心が存在し、かつオブジェクトの面積が所定の値以上のオブジェクトを検出する。さらに、目位置検出部103は、このように検出されたオブジェクトのうち、顔領域81を左右に2等分する垂直線に対して、両側に存在するものであって、一番下に位置するオブジェクトを目のオブジェクトとする。例えば、図10で示されるように、目位置検出部103は、顔領域81に含まれる目のオブジェクト121を検出する。
目位置検出部103は、顔領域81と共に、このように検出した目のオブジェクト121の位置を特定するデータ(例えば、目のオブジェクト121の重心の位置を示すデータ)をアフィン変換部105に供給する。
口位置検出部104は、重心算出部102から供給された重心データから、口のオブジェクトを検出する。すなわち、例えば、口位置検出部104は、重心データで重心の位置が示されるオブジェクトのうち、顔領域81の下側の4分の1の領域に重心が存在するオブジェクトを検出する。言い換えれば、口位置検出部104は、顔領域81を縦に並ぶ同じ高さの4つの領域に分けて、その4つの領域のうちの最も下の領域に重心が存在するオブジェクトを検出する。
さらに、口位置検出部104は、このように検出されたオブジェクトのうち、面積が最大のオブジェクトを口のオブジェクトとする。例えば、図10で示されるように、口位置検出部104は、顔領域81に含まれる口のオブジェクト122を検出する。
口位置検出部104は、このように検出した口のオブジェクト122の位置を特定するデータ(例えば、口のオブジェクト122の重心の位置を示すデータ)をアフィン変換部105に供給する。
アフィン変換部105は、目位置検出部103から供給された、目のオブジェクト121の位置を特定するデータ、および口位置検出部104から供給された、口のオブジェクト122の位置を特定するデータを基に、目位置検出部103から供給された顔領域81にアフィン変換の処理を適用する。例えば、アフィン変換部105は、目のオブジェクト121の位置と口のオブジェクト122の位置とが、予め定めた所定の大きさの方形領域における所定の位置になるように、顔領域81にアフィン変換の処理を適用する。
より具体的には、例えば、図11で示されるように、縦にm画素、横にn画素の方形領域131において、2つの目のオブジェクト121の重心が、方形領域131の上端からm/10画素下の位置に配置され、左側の目のオブジェクト121の重心が、方形領域131の左端から3×n/10画素右の位置に配置され、右側の目のオブジェクト121の重心が、方形領域131の右端から3×n/10画素左の位置に配置され、かつ口のオブジェクト122の下端が方形領域131の下端に接するように、アフィン変換部105は、顔領域81にアフィン変換の処理を適用する。
アフィン変換部105は、アフィン変換の結果、方形領域131を得る。
アフィン変換部105は、アフィン変換の結果得られた方形領域131を輝度値調整部106に供給する。
輝度値調整部106は、方形領域131の輝度値を調整する。輝度値調整部106は、予め定めた平均値および分散(以下、それぞれ既定平均値および既定分散と称する)並びに方形領域131の画素の画素値の平均値および分散を基に、方形領域131の全ての画素の輝度を調整する。例えば、輝度値調整部106は、まず、方形領域131の画素の画素値の平均値(以下、単に、領域平均値と称する)および分散(以下、単に、領域分散と称する)を算出する。そして、輝度値調整部106は、方形領域131のそれぞれの画素について、式(1)を基に輝度値を調整した画素値を算出する。
(画素値−領域平均値)/領域分散×既定分散+既定平均値
・・・(1)
輝度値調整部106は、輝度値を調整した方形領域131を正規化した画像として特徴量算出部34に供給する。
特徴量算出部34は、顔画像正規化部33から供給された正規化された方形領域131の顔に関係する時間の情報に対応する特徴量を算出する。
正規化された方形領域131には、例えば、図12で示されるようにM+1個の画素が配置されている。図12において、1つの丸は、1つの画素を示す。例えば、方形領域131は、横にn個の画素、縦にm(m=nでもよい)個の画素からなり、方形領域131を構成する画素の総数は、n×mである。
特徴量算出部34は、例えば、式(2)によって、方形領域131の顔に関係する時間の情報に対応する特徴量として、予測される時間y’を算出する。
Figure 2007102517
・・・(2)
式(2)において、xiは、各画素の画素値であり、Mは、方形領域131を構成する画素の総数から1を引き算した値を示す。式(2)において、aiは、予測係数である。
すなわち、時間y’は、方形領域131のそれぞれの画素値xiとこれに対応する予測係数aiとの積の、方形領域131の総ての画素についての総和として算出される。
この場合、予測係数メモリ42は、方形領域131の画素値xiと、方形領域131の予測される時間y’との関係に対応する予測係数aiであって、登録されている個々の顔に対する(M+1)個の予測係数aiを予め記憶し、記憶している(M+1)個の予測係数aiを予測部41に出力する。例えば、登録されている個々の顔は、インデックスで識別され、予測係数メモリ42は、登録されている個々の顔に、すなわちインデックス毎に、(M+1)個の予測係数aiを予め記憶している。
予測部41は、予測係数メモリ42から読み出した所定のインデックスの(M+1)個の予測係数aiと、正規化された顔の領域である方形領域131の(M+1)個の画素値xiとに式(2)の演算を適用することにより、そのインデックスについて、方形領域131の顔に関係する時間の情報に対応する特徴量として、予測される時間y’を演算する。
詳細は後述するが、インデックス毎に、例えば、図13で示されるように、時間t0の顔の画像、時間t1の顔の画像、・・・時間tN-1の顔の画像、および時間tNの顔の画像から(M+1)個の予測係数aiが生成されている。例えば、時間t0の顔の画像、時間t1の顔の画像、・・・時間tN-1の顔の画像、および時間tNの顔の画像は、それぞれ異なる日に撮影されたN+1日分の顔の画像である。
ここで、時間t0は、所定の基準となる時刻から時間t0の顔の画像(インデックスで特定される顔の画像)が撮影された時刻までの時間を示し、時間t1は、その基準となる時刻から時間t1の顔の画像が撮影された時刻までの時間を示す。このように時間tk(k=0乃至N)は、所定の基準となる時刻から時間tkの顔の画像(インデックスで特定される顔の画像)が撮影された時刻までの時間を示す。ここで、基準となる時刻は、任意に定めた時刻とすることができ、例えば、時間t0の顔の画像が撮影された時刻、または登録が要求された時刻などとすることができる。
そして、時間yの顔の画像が入力(撮影)されると、特徴量算出部34は、時間t0の顔の画像、時間t1の顔の画像、・・・時間tN-1の顔の画像、および時間tNの顔の画像から予め生成されている、インデックス毎の(M+1)個の予測係数aiと、方形領域131の(M+1)個の画素値xiとを用いて、予測係数aiが対応付けられているインデックスについて、時間yを予測する時間y’を演算する。時間yは、所定の基準となる時刻から顔の画像が撮影された時刻までの時間を示す。
特徴量算出部34は、方形領域131の顔に関係する時間の情報に対応する特徴量を認識部35に供給する。例えば、特徴量算出部34は、方形領域131の顔に関係する時間の情報に対応する特徴量の一例である、インデックス毎に予測した時間y’を示すデータを認識部35に供給する。
なお、それぞれ、所定の時刻において撮影された(N+1)個の顔の画像から(M+1)個の予測係数aiを生成し、顔の画像が入力された場合、入力された顔の画像が撮影された時刻を予測するようにしてもよい。
また、それぞれ、所定の年齢において撮影された(N+1)個の顔の画像から(M+1)個の予測係数aiを生成し、顔の画像が入力された場合、入力された顔の画像から撮影された時点における年齢を予測するようにしてもよい。
認識部35は、特徴量算出部34から供給された、インデックス毎に予測された時間y’の特徴量を用いて、顔を認識する。例えば、時間情報入力部44は、所定の基準となる時刻から現在時刻までの時間、すなわち時間yを示すデータを判定部43に供給する。判定部43は、インデックス毎に、予測される時間y’の特徴量と、時間情報入力部44から入力されるデータで示される時間yとの一致度を判定する。
例えば、判定部43は、予測された時間y’の特徴量と、時間yとの一致度として、時間yと予測された時間y’との差の絶対値を算出する。判定部43は、時間yと予測された時間y’との差の絶対値が予め定めた閾値より大きいか否かを判定する。判定部43は、時間yと予測された時間y’との差の絶対値が閾値より大きいと判定された場合、時間yと予測された時間y’とが一致しないとし、時間yと予測された時間y’との差の絶対値が閾値以下であると判定された場合、時間yと予測された時間y’とが一致するとする。
また、例えば、判定部43は、時間情報入力部44から入力されるデータで示される時間yを基準とした所定の長さの範囲を定めて、予測される時間y’がその範囲に入る場合、予測される時間y’と時間yとが一致すると判定し、予測される時間y’がその範囲に入らない場合、予測される時間y’と時間yとが一致しないと判定する。
なお、顔の画像が撮影された時刻を予測する特徴量が求められる場合、時間情報入力部44は、現在の日付および時刻を示すデータを判定部43に供給し、判定部43は、現在の日付および時刻を基準とした所定の長さの範囲を定めて、特徴量で示される予測された時刻がその範囲に入る場合、特徴量算出部34から供給された特徴量と、顔に関係する時間の情報とが一致すると判定し、特徴量で示される予測された時刻がその範囲に入らない場合、特徴量算出部34から供給された特徴量と、顔に関係する時間の情報とが一致しないと判定する。
また、年齢を予測する特徴量が求められる場合、時間情報入力部44は、現在の年齢を示すデータを判定部43に供給し、判定部43は、現在の年齢を基準とした所定の長さの範囲を定めて、特徴量で示される予測された年齢がその範囲に入る場合、特徴量算出部34から供給された特徴量と、顔に関係する時間の情報とが一致すると判定し、特徴量で示される予測された年齢がその範囲に入らない場合、特徴量算出部34から供給された特徴量と、顔に関係する時間の情報とが一致しないと判定する。
このように、所定のインデックスについて、特徴量算出部34から供給された特徴量と、顔に関係する時間の情報とが一致すると判定された場合、顔に関係する時間の情報と一致する特徴量に対応付けられているインデックスで識別される、登録されている顔が認識され、総てのインデックスについて、特徴量算出部34から供給された特徴量と、顔に関係する時間の情報とが一致しないと判定された場合、登録されている顔ではないと認識されることになる。
このように、時間t0の顔の画像、時間t1の顔の画像、・・・時間tN-1の顔の画像、および時間tNの顔の画像から(M+1)個から生成された予測係数aiと、正規化された顔の画像の(M+1)個の画素値xiとから、正規化された領域の顔に関係する時間の情報に対応する特徴量が算出され、この特徴量を用いて、顔が認識されるので、時間が経過しても確実に顔を認識することができる。
図14は、顔画像識別装置による識別の処理を説明するフローチャートである。ステップS11において、顔画像入力部31は、認識しようとする顔の画像を入力する。例えば、ステップS11において、顔画像入力部31は、認識しようとする顔を撮影して、撮影した顔の画像を入力する。
ステップS12において、顔画像抽出部32は、顔領域81を抽出する。例えば、ステップS12において、顔画像抽出部32のHSV変換部61は、入力されたRGB方式の画像を、HSV方式の画像に変換し、顔画像抽出部32の肌色領域抽出部62は、HSV方式に変換された画像から、肌色の範囲の色相(Hue)の画素を抽出する。そして、横枠検出部63は、抽出する顔の領域の横枠を決め、縦枠検出部64は、抽出する顔の領域の縦枠を決め、顔領域抽出部65は、縦枠および横枠を統合し、四角の枠を求めて、四角の枠の中の顔領域81を抽出する。
ステップS13において、顔画像抽出部32の顔画像識別部66は、顔領域抽出部65において抽出された顔領域81の画像とテンプレート91との一致の度合いを示す値を求めて、求めた一致の度合いを基に、顔領域81が顔画像であるか否かを判定する。
ステップS13において、顔領域81が顔画像であると判定された場合、ステップS14に進み、顔画像正規化部33は、顔画像である顔領域81を正規化する。例えば、ステップS14において、顔画像正規化部33のラベリング部101は、顔画像72を基に、顔領域81の画素のうち、非肌色画素にラベリングし、オブジェクトを抽出する。そして、重心算出部102は、ラベルを参照して、顔領域81の非肌色画素からなるオブジェクトのそれぞれの重心を算出する。目位置検出部103は、重心算出部102から供給された重心データから、目のオブジェクト121を検出し、口位置検出部104は、重心算出部102から供給された重心データから、口のオブジェクト122を検出する。アフィン変換部105は、目のオブジェクト121の位置、および口のオブジェクト122の位置を基に、顔領域81にアフィン変換の処理を適用する。さらに、輝度値調整部106は、アフィン変換の結果得られた方形領域131の輝度を調整する。
ステップS15において、特徴量算出部34は、正規化の結果得られた方形領域131から、所定のインデックスについて、方形領域131の顔に関係する時間の情報に対応する特徴量として、予測時間を演算する。例えば、ステップS15において、特徴量算出部34の予測部41は、予測係数メモリ42から、予め記憶されている所定のインデックスについての予測係数を読み出して、読み出した予測係数と方形領域131の画素値とに式(2)の演算を適用することにより、そのインデックスについての、予測時間(予測される時間y’)を演算する。
ステップS16において、認識部35は、現在の時刻と予測時間との一致度を算出する。例えば、ステップS16において、時間情報入力部44は、所定の基準となる時刻から現在時刻までの時間を示すデータを判定部43に供給する。そして、例えば、判定部43は、予測された時間y’の特徴量と、時間yとの一致度として、時間yと予測された時間y’との差の絶対値を算出する。
ステップS17において、認識部35は、処理を終了するか否かを判定する。例えば、ステップS17において、認識部35の判定部43は、予測された時間y’の特徴量と、時間yとの一致度として算出された、時間yと予測された時間y’との差の絶対値が予め定めた閾値より大きいか否かを判定し、時間yと予測された時間y’との差の絶対値が予め定めた閾値より大きいと判定された場合、時間yと予測された時間y’とが一致していないので、処理を終了しないと判定する。
ステップS17において、処理を終了しないと判定された場合、ステップS15に戻り、次のインデックスについて、予測時間を演算し、一致度を算出し、処理を終了するか否かを判定する処理を繰り返す。
ステップS17において、処理を終了すると判定された場合、ステップS18に進み、認識部35は、入力された顔画像を識別して、処理は終了する。すなわち、例えば、ステップS17において、時間yと予測された時間y’との差の絶対値が予め定めた閾値以下であると判定された場合、時間yと予測された時間y’とが一致しているので、ステップS18に進み、認識部35は、ステップS15の予測時間の演算において用いた予測係数のインデックスを、認識した顔を示すデータとして出力して、処理は終了する。
また、例えば、ステップS17において、認識部35の判定部43は、総てのインデックスに対する予測された時間y’について、時間yと予測された時間y’との差の絶対値を求めたかを基に、処理を終了するか否かを判定し、総てのインデックスに対する予測された時間y’について、時間yと予測された時間y’との差の絶対値を求めた場合、処理を終了すると判定する。そして、ステップS18において、認識部35は、インデックスそれぞれの予測された時間y’と時間yとの差の絶対値のうち、最小の絶対値が得られた予測された時間y’に対するインデックスを、認識した顔を示すデータとして出力する。
さらにまた、例えば、判定部43は、インデックスそれぞれの予測された時間y’と時間yとの差の絶対値のうち、最小の絶対値が予め定めた閾値より小さいか否かを判定し、最小の絶対値がその閾値より小さいと判定された場合、最小の絶対値が得られた予測された時間y’に対するインデックスを、認識した顔を示すデータとして出力し、最小の絶対値がその閾値以上であると判定された場合、顔が正しく認識されなかったものとして、顔が認識されなかったことを示すデータ(認識が無効であることを示すデータ)を出力するようにしてもよい。
ステップS13において、顔領域81が顔画像でないと判定された場合、ステップS14乃至ステップS18の処理は実行されずに、処理は終了する。
このように、予測係数と、顔画像の画素値とから、正規化された領域の顔に関係する時間の情報に対応する特徴量が算出され、この特徴量を用いて、顔が認識されるので、時間が経過して顔が変化してしまっても確実に顔を認識することができる。
ユーザAと異なるユーザBの顔の画像が入力された場合、ユーザBの顔の画像とユーザAの予測係数との演算によって求められる予測される時間y’は、時間yと大きく異なるので、ユーザBの顔の画像からユーザAの顔であると認識されることはない。
次に、予測係数の生成について説明する。
図15は、本発明の一実施の形態の予測係数生成装置の構成を示すブロック図である。予測係数生成装置は、顔画像入力部201、顔画像抽出部202、顔画像正規化部203、係数生成部204、および係数メモリ205から構成される。
顔画像入力部201は、顔画像入力部31と同様に構成され、学習し、予測係数を生成するための顔画像(以下、学習用顔画像とも称する)を入力する。顔画像入力部201は、学習用顔画像を顔画像抽出部202に供給する。
顔画像抽出部202は、顔画像抽出部32と同様に構成され、顔画像入力部201から供給された学習用顔画像から、顔の領域(以下、学習用顔領域とも称する)を抽出する。顔画像抽出部202は、抽出した学習用顔領域を顔画像正規化部203に供給する。
顔画像正規化部203は、顔画像正規化部33と同様に構成され、顔画像抽出部202から供給された学習用顔領域を正規化する。例えば、顔画像正規化部203は、学習用顔領域を正規化し、方形領域131と同様の顔の領域を生成する。顔画像正規化部203は、正規化の結果得られた学習用顔領域を係数生成部204に供給する。
係数生成部204は、正規化された学習用顔領域から、学習用顔領域の画素値と、時間の情報との関係に対応する予測係数を生成する。係数生成部204は、時間情報入力部221、インデックス入力部222、正規方程式生成部223、および係数決定部224からなる。
時間情報入力部221は、顔画像入力部201から入力された顔画像についての、顔に関係する時間の情報(以下、学習用時間情報とも称する)を入力する。例えば、時間情報入力部221は、いわゆるリアルタイムクロックから、現在の日付および時刻を示す時間の情報を入力する。そして、時間情報入力部221は、最初に顔を登録した基準となる時点から現在までの時間を示す学習用時間情報を正規方程式生成部223に供給する。
または、例えば、時間情報入力部221は、顔画像入力部201から入力された顔画像に付加されているメタデータから、顔画像が撮影された日付および時刻を示す時間の情報を入力する。そして、時間情報入力部221は、最初に顔を登録した基準となる時点から顔画像が撮影された時点までの時間を示す学習用時間情報を正規方程式生成部223に供給する。
さらに、例えば、時間情報入力部221は、顔画像入力部201から入力された顔画像に付加されているメタデータから、顔画像が撮影された日付および時刻を示す時間の情報を入力し、その時間の情報をそのまま学習用時間情報として正規方程式生成部223に供給する。
インデックス入力部222は、顔画像入力部201から入力された顔画像に含まれる顔を識別するインデックスを入力し、入力したインデックスを正規方程式生成部223に供給する。例えば、インデックス入力部222は、ボタンまたはキーなどの入力装置への使用者の操作に応じた信号を入力装置から取得することにより、インデックスを入力する。または、例えば、インデックス入力部222は、新たに顔が登録された場合、所定の桁数の乱数を生成して、生成した乱数をインデックスとすることにより、インデックスを入力する。
正規方程式生成部223は、複数の学習用顔画像とそれぞれの顔画像に関係する学習用時間情報とから、それぞれの学習用顔画像から抽出された学習用顔領域の画素値とそれぞれの画像に関係する学習用時間情報との関係を表す方程式を生成する。
例えば、図16で示されるように、1つの顔に対応して、すなわち、1つのインデックスに対応して、時間t0の顔の画像、時間t1の顔の画像、・・・時間tN-1の顔の画像、および時間tNの顔の画像からなる合計で(N+1)個の学習用顔画像が顔画像入力部201から入力される。また、時間情報入力部221から、時間t0、時間t1、・・・時間tN-1、および時間tNのそれぞれを示す学習用時間情報が入力される。
例えば、時間t0の顔の画像、時間t1の顔の画像、・・・時間tN-1の顔の画像、および時間tNの顔の画像は、同じ顔を、それぞれ異なる日に撮影したN+1日分の顔の画像である。
顔画像正規化部203から正規方程式生成部223には、方形領域131と同様の学習用顔領域が供給される。例えば、図17で示されるように、M+1個の画素からなる方形の学習用顔領域が正規方程式生成部223に供給される。図17において、1つの丸は、1つの画素を示す。このM+1個の画素からなる方形の学習用顔領域は、方形領域131と同様に、横にn個の画素、縦にm(m=nでもよい)個の画素からなり、画素の総数は、n×mである。なお、M=n×m−1である。
正規方程式生成部223は、学習用顔領域の画素の画素値に対して式(3)で表される誤差Eが最小となる予測係数aiを回帰によって算出するための方程式を生成する。
Figure 2007102517
・・・(3)
式(3)において、xiは、各画素の画素値であり、Mは、学習用顔領域を構成する画素の総数から1を引き算した値を示す。式(3)において、Nは、学習用顔画像の総数から1を引き算した値を示す。
すなわち、誤差Eは、学習用顔領域のそれぞれの画素値xiとこれに対応する予測係数aiとの積の、学習用顔領域の総ての画素についての総和を、その学習用顔領域の時間から引き算し、総ての学習用顔領域についての引き算の結果の自乗の総和として算出される。
誤差Eを最小となる予測係数aiにおいて、式(4)が成立する。
Figure 2007102517
・・・(4)
式(4)と式(3)から、式(5)が求められる。
Figure 2007102517
・・・(5)
式(6)および式(7)とすると、式(5)から式(8)で示される正規方程式が導き出せる。
Figure 2007102517
・・・(6)
Figure 2007102517
・・・(7)
Figure 2007102517
・・・(8)
正規方程式生成部223は、式(8)で示される正規方程式を生成し、生成した正規方程式を係数決定部224に供給する。
係数決定部224は、正規方程式を掃き出し法(Gauss-Jordanの消去法)などにより、インデックス毎に、予測係数aiについて解いて、予測係数aiを求める。係数決定部224は、インデックス毎の、予測係数aiからなる係数データを係数メモリ205に供給する。
係数メモリ205は、係数決定部224から供給された、インデックス毎の、予測係数aiからなる係数データを記憶する。
このように、インデックス毎、すなわち、登録されている顔毎に、予測係数aiが求められる。
なお、学習用顔領域に含まれる画素の数M+1が顔の画像の数N+1より多い場合には、そのままでは予測係数を求めることはできない。そこで、このような場合には、学習用顔領域を複数の画素からなるブロックに分割し、それぞれのブロックの画素値の平均値を画素値として学習用顔領域を再構成する(学習用顔領域を縮小する)ことで、画素の数M+1を減らして予測係数を求める。このとき、顔画像識別装置において、予測係数を算出する場合の学習用顔領域の縮小と同じように、方形領域131が縮小させられてから、特徴量が求められる。
次に、図18のフローチャートを参照して、予測係数生成装置における係数生成の処理を説明する。ステップS51において、顔画像入力部201は、学習用顔画像である顔の画像を入力する。ステップS52において、顔画像抽出部202は、ステップS12の処理と同様の処理で、学習用顔領域である顔領域を抽出する。
ステップS53において、顔画像抽出部202は、ステップS13の処理と同様の処理で、学習用顔領域が顔画像であるか否かを判定する。
ステップS53において、学習用顔領域が顔画像であると判定された場合、ステップS54に進み、顔画像正規化部203は、ステップS14の処理と同様の処理で、顔画像である学習用顔領域を正規化する。
ステップS55において、時間情報入力部221は、入力された顔画像についての、顔に関係する時間の情報(学習用時間情報)を入力する。ステップS56において、インデックス入力部222は、入力された顔画像に含まれる顔を識別するインデックスを入力する。
ステップS57において、正規方程式生成部223は、正規方程式を生成する。例えば、ステップS57において、正規方程式生成部223は、複数の学習用顔画像とそれぞれの顔画像に関係する学習用時間情報とから、それぞれの学習用顔画像から抽出された学習用顔領域の画素値とそれぞれの画像に関係する学習用時間情報との関係を表す方程式を生成する。より詳細には、例えば、正規方程式生成部223は、学習用顔領域の画素値とそれぞれの画像に関係する学習用時間情報を、式(8)に示される正規方程式に代入することにより、正規方程式を生成する。
ステップS58において、正規方程式生成部223は、生成しようとする正規方程式に必要な総ての画素値と学習用時間情報とを設定したかを基に、処理を終了するか否かを判定する。ステップS58において、生成しようとする正規方程式に必要な総ての画素値と学習用時間情報とが設定されていない場合、処理を終了しないと判定し、ステップS51に戻り、次の学習用顔画像について、ステップS51乃至ステップS57の処理を繰り返す。
すなわち、1回のステップS51乃至ステップS57の一連の処理は、1つの学習用顔画像について実行され、ステップS51乃至ステップS57の処理は、少なくとも、1つのインデックスについて学習用顔画像の数だけ繰り返される。
複数のインデックス、すなわち、複数の登録されている顔について、それぞれに、予測係数aiを求める場合には、それぞれのインデックスについて、ステップS51乃至ステップS57の処理が、学習用顔画像の数だけ繰り返される。言い換えれば、複数のインデックスについて、それぞれに、予測係数aiを求める場合には、インデックスの数と学習用顔画像の数との積と同じ回数だけ、ステップS51乃至ステップS57の処理が繰り返される。
ステップS58において、生成しようとする正規方程式に必要な総ての画素値と学習用時間情報とが設定された場合、処理を終了すると判定し、ステップS59に進み、係数決定部224は、正規方程式を解いて、予測係数aiからなる係数データを生成して、処理は終了する。例えば、ステップS59において、係数決定部224は、掃き出し法(Gauss-Jordanの消去法)などにより、生成された正規方程式を予測係数aiについて解いて、予測係数aiを求めて、予測係数aiからなる係数データを生成する。係数データは、係数メモリ205に記憶される。
このように、それぞれのインデックスに対して、正規方程式が生成されて、正規方程式を解くことによって、それぞれのインデックスに対する予測係数aiが求められる。
以上の処理で求められた、それぞれのインデックスに対する予測係数aiからなる係数データは、係数メモリ205から読み出されて、予測係数メモリ42に記憶される。従って、予測係数生成装置で生成した係数を用いることで、顔画像識別装置において、時間が経過しても確実に顔を認識することができるようになる。
なお、顔画像識別装置において、顔を認識した場合、予測係数を更新するようにしてもよい。
図19は、顔を認識した場合、予測係数を更新する、顔画像識別装置の構成の他の例を示すブロック図である。顔画像識別装置は、顔画像入力部31、顔画像抽出部32、顔画像正規化部33、特徴量算出部34、認識部35、正規方程式生成部223、係数決定部224、および顔画像記録部241により構成されている。
図19で構成が示される顔画像識別装置における顔画像入力部31、顔画像抽出部32、顔画像正規化部33、特徴量算出部34、および認識部35は、図2で示される場合と同様なので、その説明は適宜省略する。また、図19で構成が示される顔画像識別装置における正規方程式生成部223および係数決定部224は、図15の予測係数生成装置における場合と同様なので、その説明は適宜省略する。
図19の顔画像識別装置における特徴量算出部34は、特徴量と共に、方形領域131を認識部35に供給する。
認識部35の判定部43は、特徴量算出部34から供給された特徴量と、時間情報入力部44から入力される顔に関係する時間の情報とが一致すると判定した場合、インデックスおよび方形領域131を顔画像記録部241に供給する。また、認識部35の時間情報入力部44は、顔を登録した時点から現在までの時間を示す時間の情報などの、顔に関係する時間の情報を正規方程式生成部223に供給する。
顔画像記録部241は、認識部35から供給された、インデックスおよび方形領域131を関係付けて記録する。顔画像記録部241は、記録しているインデックスおよび方形領域131を正規方程式生成部223に供給する。
図19の顔画像識別装置における正規方程式生成部223は、顔画像記録部241から供給された方形領域131を学習用顔画像とし、認識部35から供給された顔に関係する時間の情報を学習用時間情報として、それぞれの学習用顔画像から抽出された学習用顔領域の画素値とそれぞれの画像に関係する学習用時間情報との関係を表す正規方程式を生成する。正規方程式生成部223は、生成した正規方程式を係数決定部224に供給する。
図19の顔画像識別装置における係数決定部224は、正規方程式を掃き出し法(Gauss-Jordanの消去法)などにより、予測係数aiについて解いて、予測係数aiを求める。係数決定部224は、予測係数aiからなる係数データを予測係数メモリ42に供給する。図19の顔画像識別装置における予測係数メモリ42は、係数決定部224から供給された、予測係数aiからなる係数データを記憶する。
図20は、図19で構成が示される顔画像識別装置による、識別の処理の他の例を説明するフローチャートである。ステップS81乃至ステップS88の処理は、それぞれ、図14のステップS11乃至ステップS18の処理と同様なので、その説明は省略する。
ステップS89において、正規方程式生成部223および係数決定部224は、予測係数メモリ42に記憶されている係数を更新して、処理は終了する。すなわち、例えば、ステップS89において、正規方程式生成部223は、ステップS55乃至ステップS57の処理と同様に、正規方程式を生成する。そして、係数決定部224は、ステップS59の処理と同様に、掃き出し法(Gauss-Jordanの消去法)などにより、生成された正規方程式を予測係数aiについて解いて、予測係数aiを求めて、予測係数aiからなる係数データを生成する。予測係数メモリ42は、生成された係数データを記憶する。
このように、顔を識別した場合、予測係数メモリ42に記憶されている予測係数を更新することができる。このようにした場合、顔を識別する度に、識別されたより最近の顔に応じて予測係数が更新されるので、さらにより確実に顔を認識することができる。
このように、入力された画像から顔の領域を抽出するようにした場合には、顔を認識することができる。また、入力された画像から顔の領域を抽出し、抽出された領域の顔に関係する時間の情報に対応する特徴量を算出し、特徴量を用いて、顔を認識するようにした場合には、時間が経過しても確実に顔を認識することができる。
また、顔の画像から方程式を生成し、この方程式を解いて係数を生成するようにした場合には、顔の認識に用いる係数を生成することができる。また、入力された画像から顔の領域を抽出し、入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成するようにした場合には、生成した係数を用いることで、時間が経過しても確実に顔を認識することができる。
図21は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが適宜記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
CPU301にはまた、バス304を介して入出力インターフェース305が接続されている。入出力インターフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。CPU301は、入力部306から入力される指令に対応して各種の処理を実行する。そして、CPU301は、処理の結果を出力部307に出力する。
入出力インターフェース305に接続されている記憶部308は、例えばハードディスクからなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部309を介してプログラムを取得し、記憶部308に記憶してもよい。
入出力インターフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部308に転送され、記憶される。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図21に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311、または、プログラムが一時的もしくは永続的に格納されるROM302や、記憶部308を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部309を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
従来の顔認識装置の構成を示すブロック図である。 本発明の一実施の形態の顔画像識別装置の構成を示すブロック図である。 顔画像抽出部の構成の例を示すブロック図である。 肌色画素の抽出を説明する図である。 垂直基準点および横枠を説明する図である。 オフセットおよび縦枠を説明する図である。 縦枠および横枠を統合した四角の枠の中の顔領域を説明する図である。 顔の領域であるか否かの判定を説明する図である。 顔画像正規化部の構成の例を示すブロック図である。 目のオブジェクトおよび口のオブジェクトの検出を説明する図である。 顔領域のアフィン変換の処理を説明する図である。 正規化された方形領域と特徴量の演算とを説明する図である。 特徴量と特徴量による判定とを説明する図である。 識別の処理を説明するフローチャートである。 本発明の一実施の形態の予測係数生成装置の構成を示すブロック図である。 学習用顔画像および学習用時間情報を説明する図である。 正規化された方形領域と予測係数の演算とを説明する図である。 係数生成の処理を説明するフローチャートである。 顔画像識別装置の構成の他の例を示すブロック図である。 識別の処理の他の例を説明するフローチャートである。 パーソナルコンピュータの構成の例を示すブロック図である。
符号の説明
31 顔画像入力部, 32 顔画像抽出部, 33 顔画像正規化部, 34 特徴量算出部, 35 認識部, 41 予測部, 42 予測係数メモリ, 43 判定部, 44 時間情報入力部, 61 HSV変換部, 62 肌色領域抽出部, 63 横枠検出部, 64 縦枠検出部, 65 顔領域抽出部, 66 顔画像識別部, 101 ラベリング部, 102 重心算出部, 103 目位置検出部, 104 口位置検出部, 105 アフィン変換部, 106 輝度値調整部, 201 顔画像入力部, 202 顔画像抽出部, 203 顔画像正規化部、 204 係数生成部, 205 係数メモリ, 221 時間情報入力部, 222 インデックス入力部, 223 正規方程式生成部, 224 係数決定部, 241 顔画像記録部, 301 CPU, 302 ROM, 303 RAM, 308 記憶部, 311 リムーバブルメディア

Claims (21)

  1. 入力された画像から顔の領域を抽出する領域抽出手段と、
    抽出された領域の顔に関係する時間の情報に対応する特徴量を算出する特徴量算出手段と、
    前記特徴量を用いて、前記顔を認識する認識手段と
    を備える顔認識装置。
  2. 前記特徴量算出手段は、
    顔の領域の画素値と、時間の情報との関係に対応する係数を出力する出力手段と、
    前記係数と、顔の領域の画素値との演算により前記特徴量を算出する演算手段と
    を備える
    請求項1の顔認識装置。
  3. 前記係数は、複数の学習用顔画像と、前記学習用顔画像それぞれの時間の情報である学習用時間情報とを用いて、前記学習用顔画像と前記学習用時間情報との関係を表すように生成されている
    請求項2の顔認識装置。
  4. 前記特徴量算出手段は、顔が撮影された時刻を示す前記特徴量を算出し、
    前記認識手段は、前記特徴量で示される時刻と現在時刻とから、前記顔を認識する
    請求項1の顔認識装置。
  5. 前記領域抽出手段は、
    前記画像から、肌色の範囲の色相の画素を抽出する抽出手段と、
    肌色の範囲の色相の画素であって、所定の方向に連続している画素の数が最大となる前記画像上の位置を基準として、顔の領域を決定する決定手段と
    をさらに備え、
    決定された顔の領域を抽出する
    請求項1の顔認識装置。
  6. 前記領域抽出手段は、抽出した領域の顔と、予め定めた基準の顔とを比較することにより、抽出した領域が顔の領域であるか否かを判定する判定手段をさらに備える
    請求項1の顔認識装置。
  7. 抽出された顔の領域を正規化する正規化手段をさらに備え、
    前記特徴量算出手段は、正規化された領域の顔に関係する時間の情報に対応する前記特徴量を算出する
    請求項1の顔認識装置。
  8. 入力された画像から顔の領域を抽出し、
    抽出された領域の顔に関係する時間の情報に対応する特徴量を算出し、
    前記特徴量を用いて、前記顔を認識する
    ステップを含む顔認識方法。
  9. 顔の領域の画素値と、時間の情報との関係に対応する係数を出力し、
    前記係数と、顔の領域の画素値との演算により前記特徴量を算出する
    請求項8の顔認識方法。
  10. 前記係数は、複数の学習用顔画像と、前記学習用顔画像それぞれの時間の情報である学習用時間情報とを用いて、前記学習用顔画像と前記学習用時間情報との関係を表すように生成されている
    請求項9の顔認識方法。
  11. 顔が撮影された時刻を示す前記特徴量を算出し、
    前記特徴量で示される時刻と現在時刻とから、前記顔を認識する
    請求項8の顔認識方法。
  12. 前記画像から、肌色の範囲の色相の画素を抽出し、
    肌色の範囲の色相の画素であって、所定の方向に連続している画素の数が最大となる前記画像上の位置を基準として、顔の領域を決定し、
    決定された顔の領域を抽出する
    請求項8の顔認識方法。
  13. 抽出した領域の顔と、予め定めた基準の顔とを比較することにより、抽出した領域が顔の領域であるか否かをさらに判定する
    請求項8の顔認識方法。
  14. 抽出された顔の領域を正規化し、
    正規化された領域の顔に関係する時間の情報に対応する前記特徴量を算出する
    請求項8の顔認識方法。
  15. 入力された画像から顔の領域を抽出し、
    抽出された領域の顔に関係する時間の情報に対応する特徴量を算出し、
    前記特徴量を用いて、前記顔を認識する
    ステップをコンピュータに実行させるプログラム。
  16. 入力された画像から顔の領域を抽出する領域抽出手段と、
    入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成する係数生成手段と
    を備える係数生成装置。
  17. 前記係数生成手段は、
    複数の画像とそれぞれの画像に関係する時間の情報とから、それぞれの画像から抽出された顔の領域の画素値とそれぞれの画像に関係する時間の情報との関係を表す方程式を生成する方程式生成手段と、
    生成された方程式を解くことで前記係数を生成する演算手段と
    を備える
    請求項16の係数生成装置。
  18. 生成された前記係数を記憶する記憶手段をさらに備える
    請求項16の係数生成装置。
  19. 入力された画像から顔の領域を抽出し、
    入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成する
    ステップを含む係数生成方法。
  20. 入力された画像から顔の領域を抽出し、
    入力された画像に関係する時間の情報と、抽出された顔の領域の画素値とから、時間の情報と顔の領域の画素値との関係を表す係数を生成する
    ステップをコンピュータに実行させるプログラム。
  21. 請求項15または請求項20に記載のプログラムが記録されている記録媒体。
JP2005291976A 2005-10-05 2005-10-05 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体 Withdrawn JP2007102517A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005291976A JP2007102517A (ja) 2005-10-05 2005-10-05 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005291976A JP2007102517A (ja) 2005-10-05 2005-10-05 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2007102517A true JP2007102517A (ja) 2007-04-19

Family

ID=38029390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005291976A Withdrawn JP2007102517A (ja) 2005-10-05 2005-10-05 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2007102517A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010103735A1 (ja) 2009-03-13 2010-09-16 オムロン株式会社 顔照合装置、電子機器、顔照合装置の制御方法、および顔照合装置制御プログラム
DE102012216191A1 (de) 2011-09-14 2013-03-14 Hitachi Information & Communication Engineering, Ltd. Authentifizierungssystem
KR101383304B1 (ko) * 2012-12-13 2014-04-07 주식회사 에스원 시간 경과 모델을 이용한 얼굴 인식 방법 및 그 장치
US8743290B2 (en) 2007-04-20 2014-06-03 Sony Corporation Apparatus and method of processing image as well as apparatus and method of generating reproduction information with display position control using eye direction
KR101827168B1 (ko) 2016-11-04 2018-02-08 재단법인대구경북과학기술원 얼굴 합성 콘텐츠를 출력하는 장치 및 얼굴 합성 콘텐츠를 출력하는 방법
JP2021026744A (ja) * 2019-08-09 2021-02-22 日本テレビ放送網株式会社 情報処理装置、画像認識方法及び学習モデル生成方法
JP2021515333A (ja) * 2018-03-02 2021-06-17 北京京▲東▼尚科信息技▲術▼有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. ユーザによって購入された商品を識別するための方法および装置ならびにインテリジェント棚システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8743290B2 (en) 2007-04-20 2014-06-03 Sony Corporation Apparatus and method of processing image as well as apparatus and method of generating reproduction information with display position control using eye direction
WO2010103735A1 (ja) 2009-03-13 2010-09-16 オムロン株式会社 顔照合装置、電子機器、顔照合装置の制御方法、および顔照合装置制御プログラム
US8396264B2 (en) 2009-03-13 2013-03-12 Omron Corporation Face matching device, electronic device, face matching device control method, and face matching device control program
DE102012216191A1 (de) 2011-09-14 2013-03-14 Hitachi Information & Communication Engineering, Ltd. Authentifizierungssystem
US9189680B2 (en) 2011-09-14 2015-11-17 Hitachi Information & Telecommunication Engineering, Ltd. Authentication system
KR101383304B1 (ko) * 2012-12-13 2014-04-07 주식회사 에스원 시간 경과 모델을 이용한 얼굴 인식 방법 및 그 장치
KR101827168B1 (ko) 2016-11-04 2018-02-08 재단법인대구경북과학기술원 얼굴 합성 콘텐츠를 출력하는 장치 및 얼굴 합성 콘텐츠를 출력하는 방법
JP2021515333A (ja) * 2018-03-02 2021-06-17 北京京▲東▼尚科信息技▲術▼有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. ユーザによって購入された商品を識別するための方法および装置ならびにインテリジェント棚システム
JP7311524B2 (ja) 2018-03-02 2023-07-19 北京京▲東▼尚科信息技▲術▼有限公司 ユーザによって購入された商品を識別するための方法および装置ならびにインテリジェント棚システム
JP2021026744A (ja) * 2019-08-09 2021-02-22 日本テレビ放送網株式会社 情報処理装置、画像認識方法及び学習モデル生成方法

Similar Documents

Publication Publication Date Title
US8942436B2 (en) Image processing device, imaging device, image processing method
KR100480781B1 (ko) 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
JP5567853B2 (ja) 画像認識装置および方法
JP4574249B2 (ja) 画像処理装置及びその方法、プログラム、撮像装置
US20130243328A1 (en) Registration determination device, control method and control program therefor, and electronic apparatus
US20060147093A1 (en) ID card generating apparatus, ID card, facial recognition terminal apparatus, facial recognition apparatus and system
KR101301821B1 (ko) 안색 정보 생성 장치 및 그 방법, 안색 정보를 이용한 건강 상태 판단 장치 및 그 방법, 건강 분류 함수 생성 장치 및 그 방법
JP2007102517A (ja) 顔認識装置および方法、係数生成装置および方法、プログラム、並びに記録媒体
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP2009087232A (ja) 人物認証装置および人物認証方法
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
JP2005056387A (ja) 画像処理装置、撮像装置、画像処理方法
US9704024B2 (en) Object discriminating apparatus and method
JP6527421B2 (ja) 人物認識装置及びそのプログラム
US11315360B2 (en) Live facial recognition system and method
JP5618593B2 (ja) 顔画像処理装置
JP2009237669A (ja) 顔認識装置
JP2007115109A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
TWI631480B (zh) 具備臉部辨識之門禁系統
JPH11161791A (ja) 個人識別装置
JP4606304B2 (ja) 近赤外線顔画像作成装置、近赤外線顔画像作成方法、及び顔画像照合装置
JP2005084979A (ja) 顔認証システムおよび方法並びにプログラム
JP5995610B2 (ja) 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム
KR20090113617A (ko) 영상 선택 방법, 장치 및 그 방법을 실행하는 프로그램이기록된 기록매체
JP2020098422A (ja) 画像処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090106