JP2012252447A - 情報処理装置および方法、記録媒体、並びにプログラム - Google Patents

情報処理装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP2012252447A
JP2012252447A JP2011123370A JP2011123370A JP2012252447A JP 2012252447 A JP2012252447 A JP 2012252447A JP 2011123370 A JP2011123370 A JP 2011123370A JP 2011123370 A JP2011123370 A JP 2011123370A JP 2012252447 A JP2012252447 A JP 2012252447A
Authority
JP
Japan
Prior art keywords
identification
similarity
face
image
statistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011123370A
Other languages
English (en)
Inventor
Atsushi Okubo
厚志 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011123370A priority Critical patent/JP2012252447A/ja
Priority to US13/478,445 priority patent/US9025882B2/en
Priority to CN2012101659873A priority patent/CN102982305A/zh
Publication of JP2012252447A publication Critical patent/JP2012252447A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features

Abstract

【課題】識別精度を向上できるようにする。
【解決手段】統計量抽出部は、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、類似度から類以度統計量を抽出する。識別部は、類以度統計量から、第1の識別対象と第2の識別対象が同一であるかを識別する。本技術は、例えばパーソナルコンピュータに適用できる。
【選択図】図17

Description

本技術は情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、識別精度を向上するようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。
認識対象である人物の顔画像から本人であるかを識別する技術が提案されている(例えば特許文献1参照)。
このような、特許文献1の発明では、複数の顔認識部により人物の顔画像が取得され、取得された顔画像から特徴パターンが抽出され、抽出された特徴パターンと予め記憶された辞書パターンとの類似度が算出される。
そして、複数の顔認識部毎に算出された複数の類似度に対応する統計量が算出され、人物が識別される。
特開2006−178651号公報
しかしながら、特許文献1の発明では、顔認識部により取得された顔画像の特徴パターンと、予め記憶された辞書パターンとが1対1で照合され、類似度が算出されるので、その識別精度が不十分となるおそれがあった。
従って、識別精度が不十分な類似度から統計量が算出され、その統計量に基づいて人物が識別されるので、その識別精度には限界があった。
本技術は、このような状況に鑑みてなされたものであり、識別精度を向上できるようにするものである。
本技術の一側面の情報処理装置は、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出部と、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別部とを備える。
前記第1の識別対象および前記第2の識別対象の画像から局所特徴量を抽出する特徴量抽出部をさらに備え、前記統計量抽出部は、前記特徴量抽出部により抽出された前記第1の識別対象および前記第2の識別対象の前記局所特徴量に基づいて、前記類以度を算出することができる。
前記識別部は、前記第1の識別対象と前記第2の識別対象の組合せ毎に前記類以度統計量が、対応する所定の閾値以上であるかを判定し、判定結果を統合することで、前記第1の識別対象と前記第2の識別対象が同一であるかを識別することができる。
前記統計量抽出部は、前記類似度統計量としてヒストグラムを抽出することができる。
前記統計量抽出部は、前記類似度統計量として平均値を抽出することができる。
前記第1の識別対象および前記第2の識別対象のうちの一方は、予め登録されている1枚の画像から検出されるようにすることができる。
本技術の一側面の情報処理方法は、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップとを含む。
本技術の一側面の記憶媒体、またはプログラムは、コンピュータに、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップとを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体、またはプログラムである。
本技術の一側面においては、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度が算出されるとともに、類似度から類以度統計量が抽出され、類以度統計量から、第1の識別対象と第2の識別対象が同一であるかが識別される。
本技術の側面によれば、識別精度を向上することが可能になる。
顔登録装置の構成を示すブロック図である。 顔特徴点検出部の構成を示すブロック図である。 局所特徴量抽出部の構成を示すブロック図である。 対象物登録処理を説明するフローチャートである。 特徴点検出処理を説明するフローチャートである。 特徴点検出の例を示す図である。 特徴量抽出処理を説明するフローチャートである。 特徴抽出フィルタの例を示す図である。 顔登録処理を説明するフローチャートである。 顔登録装置の他の構成を示すブロック図である。 対象物登録処理を説明するフローチャートである。 認識器生成装置の構成を示すブロック図である。 局所特徴量抽出部の構成を示すブロック図である。 顔識別辞書生成処理を説明するフローチャートである。 特徴量抽出処理を説明するフローチャートである。 統計量抽出処理を説明するフローチャートである。 統計量抽出処理を説明する図である。 認識器生成処理を説明するフローチャートである。 顔識別装置の構成を示すブロック図である。 対象物識別処理を説明するフローチャートである。 顔画像群の例を示す図である。 顔識別処理を説明するフローチャートである。 画像の枚数と識別性能の関係を説明する図である。 顔識別装置の他の構成を示すブロック図である。 対象物識別処理を説明するフローチャートである。 本技術を適用したパーソナルコンピュータのハードウェアの構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
<1>第1の実施の形態
1.顔登録装置の構成
2.対象物登録処理1
3.特徴点検出処理
4.特徴量抽出処理1
5.顔登録処理
6.顔登録装置の構成
7.対象物登録処理2
<2>第2の実施の形態
8.認識器生成装置の構成
9.顔識別辞書生成処理
10.特徴量抽出処理2
11.統計量抽出処理
12.認識器生成処理
<3>第3の実施の形態
13.顔識別装置の構成
14.対象物識別処理1
15.顔識別処理
16.顔識別装置の構成
17.対象物識別処理2
18.パーソナルコンピュータの構成
19.その他
<第1の実施の形態>
[顔登録装置の構成]
図1は、顔登録装置1の構成を示すブロック図である。
顔登録装置1は、画像取得部21、同一人物顔画像抽出部22、顔特徴点検出部23、学習データベース24、局所特徴量抽出部25、顔登録部26、登録顔データベース27、および顔識別辞書28から構成されている。
画像取得部21は、ユーザにより入力される画像および画像に関する情報を取得し、同一人物顔画像抽出部22に出力する。同一人物顔画像抽出部22は、取得された複数の画像のそれぞれから同一人物の顔画像を抽出し、顔特徴点検出部23に出力する。
顔特徴点検出部23は、学習データベース24に予め記憶された学習データに基づいて、画像から特徴点を検出する。図2を参照して、顔特徴点検出部23の詳細について説明する。
図2は、顔特徴点検出部23の構成を示すブロック図である。顔特徴点検出部23は、画像切り出し部41および顔特徴判断部42から構成されている。
画像切り出し部41は、取得された画像から様々な切り出し画像を生成し、顔特徴判断部42に出力する。顔特徴判断部42は、生成された切り出し画像と、学習データから顔特徴を判断し、特徴点を検出する。
図1に戻り、局所特徴量抽出部25は、検出された特徴点毎の特徴量、すなわち局所特徴量を抽出する。図3を参照して、局所特徴量抽出部25の詳細について説明する。
図3は、局所特徴量抽出部25の構成を示すブロック図である。局所特徴量抽出部25は、正規化部61、中間画像生成部62、フィルタセット選択部63、および特徴量抽出部64から構成されている。
正規化部61は、取得された画像を正規化し、中間画像生成部62およびフィルタセット選択部63に出力する。中間画像生成部62は、取得された画像から中間画像として積分画像を生成し、特徴量抽出部64に出力する。
フィルタセット選択部63は、特徴点と特徴抽出フィルタを選択し、対応付けて顔識別辞書28に記憶するとともに、特徴量抽出部64に出力する。特徴量抽出部64は、中間画像とフィルタセットに基づいて、特徴量を抽出する。
図1に戻り、顔登録部26は、抽出された特徴量を登録する顔の人物と対応付けて登録顔データベース27に登録する。
[対象物登録処理1]
図4乃至図9を参照して、対象物登録処理1について説明する。図4は、顔登録装置1の対象物登録処理1を説明するフローチャートである。対象物登録処理は、ユーザにより対象物として顔を含む画像が入力された場合に開始される。
ステップS1において、画像取得部21は、複数枚の画像および登録ID(Identification)を取得する。登録IDは、登録する対象物を識別する識別情報である。
ステップS2において、同一人物顔画像抽出部22は、画像取得部21により取得された画像から同一人物の顔画像を抽出する。すなわち、複数枚の画像中に含まれる人物の顔画像毎に分類される。
顔画像の抽出には、例えば、動画像である場合、顔トラッキング手法を使用することができ、静止画像である場合、顔クラスタリング手法を使用することができる。また、顔画像は、ユーザにより指定させることもできる。
ステップS3において、顔特徴点抽出部23の画像切り出し部41は、抽出された顔画像を1つ取得する。すなわち、同一人物の顔画像群から1つの顔画像が取得される。
ステップS4において、顔特徴点抽出部23は、特徴点検出処理を実行する。図5を参照して、特徴点検出処理について説明する。
[特徴点検出処理]
図5は、特徴点検出処理を説明するフローチャートである。
ステップS21において、画像切り出し部41は、複数種類の切り出し画像を生成する。すなわち、画像切り出し部41は、取得された画像の全領域または一部の領域をラスタ走査し、顔特徴(例えば、眼、鼻、口等)が含まれると想定される様々な大きさの画像を切り出す。
ステップS22において、顔特徴判断部42は、学習データベース24から学習データを取得する。学習データベース24には、予め顔特徴の学習データが記憶される。
ステップS23において、顔特徴判断部42は、学習データから1種類の顔特徴を取得する。例えば、顔特徴として目が取得される。
ステップS24において、顔特徴判断部42は、最大類似度を0に設定する。すなわち、最大類似度が初期化される。
ステップS25において、顔特徴判断部42は、切り出し画像を1つ取得する。すなわち、ステップS21の処理により生成された切り出し画像が取得される。
ステップS26において、顔特徴判断部42は、切り出し画像と顔特徴の類似度を算出する。すなわち、ステップS25の処理により取得された切り出し画像と、ステップS23の処理で取得された顔特徴がマッチングされる。
ステップS27において、顔特徴判断部42は、類似度の値が最大類似度の値より大きいかを判定する。すなわち、ステップS26の処理により算出された類似度の値が他の類似度の値より大きいかが判定される。
ステップS27において、類似度の値が最大類似度の値より大きいと判定された場合、ステップS28において、顔特徴判断部42は、最大類似度の値を類似度の値に変更する。すなわち、最大類似度の値にステップS26で算出された類似度の値が代入される。
一方、ステップS27において、類似度の値が最大類似度の値より大きくないと判定された場合、すなわち、ステップS26で算出された類似度の値が最大類似度の値以下である場合、ステップS28の処理はスキップされ、処理はステップS29に進む。
ステップS29において、顔特徴判断部42は、所定数の切り出し画像を取得したかを判定する。ステップS29において、所定数の切り出し画像が取得されていないと判定された場合、処理はステップS30に進む。
ステップS30において、顔特徴判断部42は、他の切り出し画像を取得する。すなわち、ステップS21の処理により生成された切り出し画像のうち、まだ学習データの顔特徴との類似度が算出されていない切り出し画像が取得される。
ステップS30の処理の後、処理はステップS26に戻り、それ以降の処理が繰り返される。すなわち、他の切り出し画像について、同様の処理が実行される。
一方、ステップS29において、所定数の切り出し画像が取得されたと判定された場合、ステップS31において、顔特徴判断部42は、最大類似度の切り出し画像から特徴点を検出する。
図6は、特徴点検出の例を示す図である。図6の例では、特徴点が×で示されている。顔特徴として目の学習データが取得された場合、目を特定するための特徴点、例えば特徴点81−1が検出される。
また、顔特徴として口の学習データが取得された場合、口を特定するための特徴点、例えば特徴点81−2が検出される。
ステップS31の処理の後、ステップS32において、顔特徴判断部42は、全ての種類の顔特徴を取得したかを判定する。ステップS32において、まだ全ての種類の顔特徴を取得していないと判定された場合、処理はステップS33に進む。
ステップS33において、顔特徴判断部42は、他の種類の顔特徴を取得する。例えば、顔特徴として口が取得される。ステップS33の処理の後、処理はステップS24に戻り、それ以降の処理が繰り返される。すなわち、他の種類の顔特徴について、同様の処理が実行される。
一方、ステップS32において、全ての種類の顔特徴を取得したと判定された場合、特徴点検出処理は終了し、処理は図4のステップS5に進む。
図4に戻り、ステップS5において、局所特徴量抽出部25は、特徴量抽出処理1を実行する。図7を参照して、特徴量抽出処理1について説明する。
[特徴量抽出処理1]
図7は、特徴量抽出処理1を説明するフローチャートである。
ステップS51において、正規化部61は、顔画像を正規化する。すなわち、顔画像が解析されることで顔の方向が検出され、特徴点の位置が基準位置にくるように顔画像が正規化される。具体的には、アフィン変換等が行なわれる。
ステップS52において、中間画像生成部62は、中間画像を生成する。すなわち、正規化された顔画像から、中間画像である積分画像が生成される。
中間画像のサイズ(画素数)は、元画像のサイズと同じである。中間画像の各画素の画素値は、元画像の四隅のうちの左上隅などの所定の位置を基準位置として、基準位置と各画素の位置を結ぶ線を対角線とする四角形の範囲に含まれる元画像の各画素の輝度値の和とされる。
ステップS53において、フィルタセット選択部63は、特徴点を1つ取得する。すなわち、ステップS4の特徴点検出処理により検出された複数の特徴点の中から、1つの特徴点がランダムに取得される。例えば、図6の特徴点81−1が取得される。
ステップS54において、フィルタセット選択部63は、特徴抽出フィルタを取得する。特徴抽出フィルタはランダムに取得される。図8を参照して、特徴抽出フィルタについて説明する。
図8は、特徴抽出フィルタの例を示す図である。図8には、特徴抽出フィルタとしてレクタングルフィルタ(Rectangle Filter)が示されている。
Rectangle Filterは、水平方向、垂直方向、または所定の方向に対して45度の傾きを有する直線によって区切られる、所定の数の矩形の白領域と黒領域から構成される。
Rectangle Filterを用いた特徴量の抽出は、Rectangle Filterを画像上の所定の位置に配置し、白領域に含まれる画素の輝度値の和と、黒領域に含まれる画素の輝度値の和との差を求めることによって行われる。
例えば、図8Aの2 Rectangle Filterは、エッジの特徴量を抽出するのに適したフィルタであり、図8Bの3 Rectangle Filterと図8Cの4 Rectangle Filterは、ラインの特徴量を抽出するのに適したフィルタである。
フィルタセット選択部63は、例えば、ランダムに選択した特徴点81−1と、ランダムに選択した特徴抽出フィルタ91−1とをフィルタセットとして選択する。
また、フィルタセット選択部63は、例えば、ランダムに選択した特徴点81−2と、ランダムに選択した特徴抽出フィルタ91−2とをフィルタセットとして選択する。
なお、特徴抽出フィルタは、レクタングルフィルタの他、ガボアフィルタ(Gabor Filter)、LBP(Local Binary Pattern)、SIFT(Scale-Invariant Feature Transform)等とすることもできる。
図7に戻り、ステップS55において、フィルタセット選択部63は、顔識別辞書28にフィルタセットを記憶する。すなわち、選択された特徴点と特徴抽出フィルタの組合せが対応付けられて記憶される。この記憶されたフィルタセットは、後述する図15のステップS224において利用される。
ステップS56において、特徴量抽出部64は、特徴量を抽出する。すなわち、フィルタセットが中間画像に対して適用され、特徴点に対応する特徴量が抽出される。
ステップS57において、特徴量抽出部64は、所定数の特徴量が取得されたかを判定する。ステップS57において、まだ所定数の特徴量が取得されていないと判定された場合、処理はステップS58に進む。
ステップS58において、フィルタセット選択部63は、他の特徴点を取得する。他の特徴点はランダムに取得される。ステップS58の処理の後、処理はステップS54に戻り、それ以降の処理が繰り返される。すなわち、他の特徴点について、同様の処理が実行される。
一方、ステップS57において、所定数の特徴量が取得されたと判定された場合、ステップS59において、特徴量抽出部64は、特徴ベクトルを算出する。すなわち、抽出された特徴量をパラメータとする特徴ベクトルが算出される。
ステップS59の処理の後、特徴量抽出処理1は終了し、処理は図4のステップS6に進む。
図4のステップS6において、顔登録部26は、顔登録処理を実行する。図9を参照して、顔登録処理について説明する。
[顔登録処理]
図9は、顔登録処理を説明するフローチャートである。
ステップS71において、顔登録部26は、特徴ベクトルを取得する。すなわち、図7のステップS59の処理により算出された特徴ベクトルが取得される。
ステップS72において、顔登録部26は、登録顔データベース27に、図4のステップS1の処理で取得された登録IDと特徴ベクトルを対応付けて記憶する。特徴ベクトルが登録IDに対応付けられることで、特徴ベクトルにより示される顔が特定される。
ステップS72の処理の後、顔登録処理は終了し、処理は図4のステップS7に進む。
図4のステップS7において、顔特徴点検出部23の画像切り出し部41は、全ての顔画像が取得されたかを判定する。すなわち、ステップS1の処理により取得された全ての画像に対して、特徴点検出処理、特徴量抽出処理1、および顔登録処理が実行されたかが判定される。
ステップS7において、まだ全ての顔画像が取得されていないと判定された場合、ステップS8において、顔特徴点検出部23の画像切り出し部41は、他の顔画像を取得する。ステップS8の処理の後、処理はステップS4に戻り、それ以降の処理が繰り返される。すなわち、他の顔画像について、同様の処理が実行される。
一方、ステップS7において、全ての顔画像が取得されたと判定された場合、対象物登録処理1は終了する。
このように、複数の画像のそれぞれに対して特徴量が抽出され、人物を特定する情報とともに登録顔データベース27に記憶される。
なお、本実施の形態においては、入力される画像の枚数が複数であるとしたが、入力される画像の枚数は1枚でもよい。
[顔登録装置の構成]
図10と図11を参照して、入力される画像が1枚である場合について説明する。図10は、顔登録装置101の構成を示すブロック図である。
図10の顔登録装置101のうち、図1の顔登録装置1と対応する要素には同じ符号が付されている。
すなわち、顔登録装置101は、顔検出部121を有し、同一人物顔画像抽出部22が省略されている点が顔登録装置1と異なり、他の構成は顔登録装置1と同様である。勿論、同一人物顔画像抽出部22を設けることもできる。
顔検出部121は、画像取得部21から供給された画像を解析することによって、それぞれの画像に含まれる人の顔の部分を検出し、顔画像を生成する。
[対象物登録処理2]
次に図11を参照して、顔登録装置101の対象物登録処理2について説明する。図11は、対象物登録処理2を説明するフローチャートである。
図11においてステップS103乃至S105の処理は、図4のステップS4乃至S6の処理に対応する処理である。したがって、これらの処理は繰り返しになるので簡単に説明する。
ステップS101において、画像取得部21は、1枚の画像および登録IDを取得する。ステップS102において、顔検出部121は、画像取得部21により取得された画像から顔を検出する。すなわち、取得された画像中に含まれる人物の顔の部分が検出される。
ステップS103において、図5を参照して説明した特徴点検出処理が実行される。すなわち、ステップS102の処理により検出された顔の画像から特徴点が検出される。
ステップS104において、図7を参照して説明した特徴量抽出処理1が実行される。すなわち、ステップS103の処理により検出された特徴点毎に特徴量が抽出される。
ステップS105において、図9を参照して説明した顔登録処理が実行される。すなわち、ステップS101に処理により取得された登録IDと、ステップS104の処理により抽出された特徴量とが対応付けられて、登録顔データベース27に登録される。
ステップS105の処理の後、対象物登録処理2は終了する。
このように、登録顔データベース27に記憶される特徴ベクトルは、1つの登録IDに対して少なくとも1つ登録されればよい。
<第2の実施の形態>
[認識器生成装置の構成]
図12は、認識器生成装置201の構成を示すブロック図である。図12の認識器生成装置201のうち、図1の顔登録装置1と対応する要素には同じ符号が付されている。
すなわち、認識器生成装置201は、局所特徴量抽出部221、統計量抽出部222、および認識器生成部223を有し、局所特徴量抽出部25、および顔登録部26が省略されている点が顔登録装置1と異なり、他の構成は顔登録装置1と同様である。
勿論、この実施の形態においても局所特徴量抽出部25、顔登録部26、および図10の顔検出部121のうちの少なくとも1つを設けることもできる。
局所特徴量抽出部221は、検出された特徴点毎の特徴量を抽出する。図13を参照して、局所特徴量抽出部221の詳細について説明する。
図13は、局所特徴量抽出部221の構成を示すブロック図である。図13の局所特徴量抽出部221のうち、図3の局所特徴量抽出部25と対応する要素には同じ符号が付されている。
すなわち、局所特徴量抽出部221は、フィルタセット選択部63が省略されている点が局所特徴量抽出部25と異なり、他の構成は局所特徴量抽出部25と同様である。
また、局所特徴量抽出部221の特徴量抽出部64は、顔識別辞書28に記憶されたフィルタセットを取得する。
図12に戻り、統計量抽出部222は、抽出された特徴量と既に登録顔データベース27に登録された特徴量から類似度統計量を抽出する。
認識器生成部223は、抽出された類似度統計量に基づいて、ブースティングの処理のために多数の弱認識器を生成し、生成された弱認識器を統合した認識器を顔識別辞書28に記憶する。
[顔識別辞書生成処理]
図14乃至図18を参照して、顔識別辞書生成処理について説明する。図14は、顔識別辞書生成処理を説明するフローチャートである。
図14においてステップS202乃至S204,S206,S207の処理は、図4のステップS2乃至S4,S7,S8の処理に対応する処理である。したがって、これらの処理は繰り返しになるので簡単に説明する。顔識別辞書生成処理は、ユーザにより学習用画像が入力された場合に開始される。
ステップS201において、画像取得部21は、学習用画像、学習用画像情報、および登録IDを取得する。学習用画像は、登録顔データベース27に記憶された、登録IDに対応する人物の顔と同一人物の顔画像、または別人物の顔画像のいずれかである。
学習用画像情報は、学習用画像が登録IDに対応する人物の顔と同一人物であるか、または別人物であるかを示す情報である。
ステップS202において、同一人物顔画像抽出部22は、画像取得部21により取得された学習用画像から同一人物の顔画像を抽出する。ステップS203において、顔特徴点抽出部23の画像切り出し部41は、抽出された顔画像を1つ取得する。
ステップS204において、図5を参照して説明した特徴点検出処理が実行される。すなわち、ステップS203の処理により取得された顔画像から特徴点が検出される。
ステップS205において、局所特徴量抽出部221は、特徴量抽出処理2を実行する。図15を参照して、特徴量抽出処理2について説明する。
[特徴量抽出処理2]
図15は、特徴量抽出処理2を説明するフローチャートである。図15においてステップS221乃至S223,S225乃至S228の処理は、図7のステップS51乃至S53,S56乃至S59の処理に対応する処理である。したがって、これらの処理は繰り返しになるので簡単に説明する。
ステップS221において、正規化部61は、顔画像を正規化する。ステップS222において、中間画像生成部62は、中間画像を生成する。ステップS223において、フィルタセット選択部63は、特徴点を1つ取得する。
ステップS224において、特徴量抽出部64は、顔識別辞書28からフィルタセットを取得する。すなわち、図7のステップS55の処理により顔識別辞書28に記憶されたフィルタセットが取得される。
例えば、ステップS223の処理により取得された特徴点が図6の特徴点81−1に対応する場合、特徴点81−1に対応付けられた図8の特徴抽出フィルタ91−1が取得される。
ステップS225において、特徴量抽出部64は、特徴量を抽出する。ステップS57において、特徴量抽出部64は、所定数の特徴量が取得されたかを判定する。
ステップS226において、まだ所定数の特徴量が取得されていないと判定された場合、ステップS227において、特徴量抽出部64は、他の特徴点を取得する。ステップS227の処理の後、処理はステップS224に戻り、それ以降の処理が繰り返される。
一方、ステップS226において、所定数の特徴量が取得されたと判定された場合、ステップS228において、特徴量抽出部64は、特徴ベクトルを算出する。ステップS228の処理の後、特徴量抽出処理2は終了し、処理は図14のステップS206に進む。
図14のステップS206において、顔特徴点検出部23の画像切り出し部41は、全ての顔画像が取得されたかを判定する。
ステップS206において、まだ全ての顔画像が取得されていないと判定された場合、ステップS207において、顔特徴点検出部23の画像切り出し部41は、他の顔画像を取得する。ステップS207の処理の後、処理はステップS204に戻り、それ以降の処理が繰り返される。
一方、ステップS206において、全ての顔画像が取得されたと判定された場合、ステップS208において、統計量抽出部222は、統計量抽出処理を実行する。図16を参照して、統計量抽出処理について説明する。
[統計量抽出処理]
図16は、統計量抽出処理を説明するフローチャートである。図17は、統計量抽出を説明する図である。
ステップS241において、統計量抽出部222は、入力特徴量マトリックスXを取得する。入力特徴量マトリックスXは、以下の式(1)で示されるように、M(Mは自然数)枚の画像毎のK(Kは自然数)個の特徴量により表される。
Figure 2012252447
例えば、図17の学習用画像241−1乃至241−MのそれぞれのK個の特徴点に対応する特徴量から入力特徴量マトリックスXが取得される。
ステップS242において、統計量抽出部222は、登録顔データベース27から登録IDに対応する登録特徴量マトリックスYを取得する。Yのpは、登録IDに対応する人物を示す情報である。
登録特徴量マトリックスYは、以下の式(2)で示されるように、N(Nは自然数)枚の登録された画像毎のK個の特徴量により表される。
Figure 2012252447
例えば、図17の登録画像261−1乃至261−NのそれぞれのK個の特徴点に対応する特徴量から登録特徴量マトリックスYが取得される。
なお、登録顔データベース27には、登録画像261―1乃至261−Nそのものを記憶させる必要はなく、登録画像261―1乃至261−N毎のK個の特徴量(すなわち、登録画像261―1乃至261−Nの特徴ベクトル)が記憶されていればよい。
ステップS243において、統計量抽出部222は、類似度マトリックスSを算出する。類似度マトリックスSは、以下の式(3)で示されるように、入力特徴量マトリックスXと登録特徴量マトリックスYとの正規化相関値を要素とする、M×Nの行列で表される。
Figure 2012252447
すなわち、入力特徴量マトリックスXと登録特徴量マトリックスYの組合せ毎の類似度が算出される。
ステップS244において、統計量抽出部222は、類似度統計量Hを抽出する。類似度統計量Hの抽出には、様々な手法を用いることができる。
例えば、類似度統計量Hは、以下の式(4)で示されるように、ヒストグラムとして抽出されてもよい。
Figure 2012252447
式(4)により、例えば、図17に示されるように、ヒストグラム281−1乃至281−Kが抽出される。
また例えば、類似度統計量Hは、以下の式(5)で示されるように、平均値として類似度マトリックスSから抽出されてもよい。
Figure 2012252447
ステップS244の処理の後、統計量抽出処理は終了し、処理は図14のステップS209に進む。
図14のステップS209において、認識器生成部223は、認識器生成処理を実行する。図18を参照して、認識器生成処理について説明する。
[認識器生成処理]
図18は、認識器生成処理を説明するフローチャートである。
図18の認識器生成処理により生成、更新される認識器Rpは、以下の式(6)で示されるように、多数の弱認識器fpにより構成される。
Figure 2012252447
弱認識器fp jは、入力データと登録データが同一人物を示しているかを判定するものであり、閾値thp j以上の場合(すなわち入力データと登録データが同一人物を示している場合)「+1」を出力し、閾値thp j未満の場合「−1」を出力する関数である。
認識器Rpは、多数の弱認識器fp jの出力の総和を算出し、識別結果を出力する。
ステップS261において、認識器生成部223は、カウンタjを1に設定する。すなわち、カウンタjが初期化される。
ステップS262において、認識器生成部223は、弱認識器fp jの閾値thp jを取得する。すなわち、認識器Rpを構成する弱認識器fp j毎に設定された閾値thp jが取得される。
ステップS263において、認識器生成部223は、閾値thp jを類似度統計量hp jに対応して設定する。すなわち、図14のステップS201の処理により取得された学習用画像情報に基づいて、入力データと登録データが同一人物または別人物を示していると判定されるように閾値thp jが更新される。
例えば、学習用画像の人物と登録画像の人物が同一人物である場合に、類似度統計量hp jが閾値thp j未満のとき、弱識別器fp jの出力は「−1」となり誤りなので、類似度統計量hp jが閾値thp j以上になるように、閾値thp jが設定される。
また例えば、学習用画像の人物と登録画像の人物が別人物である場合に、類似度統計量hp jが閾値thp j以上のとき、弱識別器fp jの出力は「+1」となり誤りなので、類似度統計量hp jが閾値thp j未満になるように、閾値thp jが設定される。
ステップS264において、認識器生成部223は、弱識別器fp jを記憶する。すなわち、弱識別器fp jにより構成される認識器Rpが更新される。
ステップS265において、認識器生成部223は、カウンタjを1だけインクリメントする。ステップS266において、認識器生成部223は、カウンタjがKより大きいかを判定する。
ステップS266において、カウンタjがKより大きくないと判定された場合、処理はステップS262に戻り、それ以降の処理が繰り返される。
一方、ステップS266において、カウンタjがKより大きいと判定された場合、認識器生成処理は終了し、図14の顔識別辞書生成処理は終了する。
このようにして、複数枚の学習用画像全体と、複数枚の登録画像全体の類似度が算出され、算出された類似度から抽出された統計量に基づいて、同一人物を識別するための認識器が生成される。
<第3の実施の形態>
[顔識別装置の構成]
図19は、情報処理装置としての顔識別装置301の構成を示すブロック図である。図19の顔識別装置301のうち、図12の認識器生成装置201と対応する要素には同じ符号が付されている。
すなわち、顔識別装置301は、顔識別部321を有し、認識器生成部223が省略されている点が認識器生成装置201と異なり、他の構成は認識器生成装置201と同様である。
勿論、この実施の形態においても認識器生成部223を設けることもできるし、図1の局所特徴量抽出部25および顔登録部26を設けることもできる。
顔識別部321は、統計量抽出部222から供給された類似度統計量に対して、顔識別辞書28から供給された認識器を用いたブースティングの処理を実行し、識別結果を出力する。
[対象物識別処理1]
図20乃至図22を参照して、顔識別装置301の対象物識別処理1について説明する。図20は、対象物識別処理1を説明するフローチャートである。図21は、顔画像群の例を示す図である。
図20においてステップS302乃至S308の処理は、図14のステップS202乃至S208の処理に対応する処理である。したがって、これらの処理は繰り返しになるので簡単に説明する。対象物識別処理1は、ユーザにより画像が入力された場合に開始される。
ステップS301において、画像取得部21は、複数枚の画像および登録IDを取得する。例えば、図21Aの入力顔画像群341として、M’(M’は自然数)枚の入力画像351−1乃至351−M’が取得される。
ステップS302において、同一人物顔画像抽出部22は、画像取得部21により取得された複数枚の画像から同一人物の顔画像を抽出する。ステップS303において、顔特徴点抽出部23の画像切り出し部41は、抽出された顔画像を1つ取得する。
ステップS304において、図5を参照して説明した特徴点検出処理が実行される。すなわち、ステップS303の処理により取得された顔画像から特徴点が検出される。
ステップS305において、図15を参照して説明した特徴量抽出処理2が実行される。すなわち、ステップS304の処理により検出された特徴点毎に特徴量が抽出される。
ステップS306において、顔特徴点検出部23の画像切り出し部41は、全ての顔画像が取得されたかを判定する。
ステップS306において、まだ全ての顔画像が取得されていないと判定された場合、ステップS307において、顔特徴点検出部23の画像切り出し部41は、他の顔画像を取得する。ステップS307の処理の後、処理はステップS304に戻り、それ以降の処理が繰り返される。
一方、ステップS306において、全ての顔画像が取得されたと判定された場合、ステップS308において、図16を参照して説明した統計量抽出処理が実行される。
この処理により、例えば、M’枚分の入力特徴量マトリックスX’と、図21Bの登録顔画像群361のN’(N’は自然数)枚の登録画像371−1乃至371−N’に対応する登録特徴量マトリックスY’が取得され、最終的に類似度統計量H’が抽出される。
ステップS309において、顔識別部321は、顔識別処理を実行する。図22を参照して、顔識別処理について説明する。
[顔識別処理]
図22は、顔識別処理を説明するフローチャートである。
ステップS321において、顔識別部321は、顔識別辞書28から認識器Rpを取得する。すなわち、ステップS301で取得された登録IDに対応する認識器Rpが取得される。
ステップS322において、顔識別部321は、類似度統計量Hを用いて認識器Rpの値を算出する。すなわち、類似度統計量Hに対してブースティングの処理が実行される。
具体的には、各類似度統計量hp jが、対応する認識器Rpの弱認識器fp jにより閾値thp j以上であるかが判定され、その判定結果が統合される(すなわち弱認識器fp jの出力の総和が算出される)ことにより認識器Rpの値が算出される。
例えば、図21Aの入力顔画像群341と、図21Bの登録顔画像群361に基づいて抽出された類似度統計量H’に対してブースティングの処理が実行される。
ステップS323において、顔識別部321は、識別結果を出力する。すなわち、入力された顔画像が、登録IDに対応する人物の顔と同一であるかが識別され、その識別結果が出力される。例えば、図21Aの入力顔画像群341の人物が、登録IDに対応する図21Bの登録顔画像群361の人物と同一であるかが識別される。
具体的には、認識器Rの値が正である場合、同一人物であると識別され、認識器Rの値が負である場合、別人物であると識別される。
ステップS323の処理の後、顔識別処理は終了し、図20の対象物識別処理1は終了する。
このように、複数枚の入力画像、および複数枚の登録画像に対して顔識別処理が一度に行えるので、処理時間を短縮することができる。なお、入力画像が複数枚である場合、登録画像は1枚でもよい。
また、局所特徴量に対してブースティングの処理を実行することにより、顔の照明変化、表情変化、経年変化、および方向変化にも頑健な不変局所特徴量を選択することが可能になり、顔の変動に強い高精度な顔識別が可能になる。
さらに、複数枚の入力画像全体と、複数枚の登録画像全体の類似度を反映して顔識別処理を実行するので、識別精度を向上することができる。図23を参照して、入力画像および登録画像の枚数と識別性能の関係について説明する。
図23は、入力画像および登録画像の枚数と識別性能の関係を説明する図である。図23では、横軸に顔画像群構成枚数が示され、縦軸に識別性能が示されている。なお、説明を簡単にするため、入力画像および登録画像の枚数は同じ枚数とする。
図23に示すように、入力画像1枚と登録画像1枚の識別性能に較べて、入力画像および登録画像の枚数が2枚、3枚、・・・と増加すると、識別性能が向上する。
なお、本実施の形態においては、入力される画像の枚数が複数枚であるとしたが、入力される画像の枚数は1枚でもよい。
[顔識別装置の構成]
図24と図25を参照して、入力される画像が1枚である場合について説明する。図24は、顔識別装置401の構成を示すブロック図である。
図24の顔識別装置401のうち、図10の顔登録装置101、および図19の顔識別装置301と対応する要素には同じ符号が付されている。
すなわち、顔識別装置401は、顔検出部121を有し、同一人物顔画像抽出部22が省略されている点が顔識別装置301と異なり、他の構成は顔識別装置301と同様である。勿論、同一人物顔画像抽出部22を設けることもできる。
[対象物識別処理2]
図25を参照して、顔識別装置401の対象物識別処理2について説明する。
図25においてステップS401乃至S403の処理は、図11のステップS101乃至S103の処理に対応する処理であり、ステップS404乃至S406の処理は、図20のステップS305,S308,S309に対応する処理である。したがって、これらの処理は繰り返しになるので簡単に説明する。
ステップS401において、画像取得部21は、1枚の画像および登録IDを取得する。ステップS402において、顔検出部121は、画像取得部21により取得された画像から顔を検出する。すなわち、取得された画像中に含まれる人物の顔の部分が検出される。
ステップS403において、図5を参照して説明した特徴点検出処理が実行される。すなわち、ステップS402の処理により検出された顔の画像から特徴点が検出される。
ステップS404において、図15を参照して説明した特徴量抽出処理2が実行される。すなわち、ステップS403の処理により検出された特徴点毎に特徴量が抽出される。
ステップS405において、図16を参照して説明した統計量抽出処理が実行される。すなわち、ステップS404の処理により抽出された特徴量に基づく入力特徴量マトリックスXと、登録顔データベース27に登録された登録特徴量マトリックスYが取得され、最終的に類似度統計量Hが抽出される。
ステップS406において、図22を参照して説明した顔識別処理が実行される。すなわち、ステップS405の処理により抽出された類似度統計量Hに対して、顔識別辞書28に記憶された認識器Rを用いたブースティングの処理が実行され、顔が識別される。
ステップS406の処理の後、対象物識別処理2は終了する。
このように、1枚の入力画像と複数枚の登録画像を用いて、顔を識別する処理を実行することもできる。
[パーソナルコンピュータの構成]
図26は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ501のハードウェアの構成例を示すブロック図である。
パーソナルコンピュータ501において、CPU(Central Processing Unit)521,ROM(Read Only Memory)522,RAM(Random Access Memory)523は、バス524により相互に接続されている。
バス524には、さらに、入出力インタフェース525が接続されている。入出力インタフェース525には、入力部526、出力部527、記憶部528、通信部529、およびドライブ530が接続されている。
入力部526は、キーボード、マウス、マイクロフォンなどにより構成される。出力部527は、ディスプレイ、スピーカなどにより構成される。記憶部528は、ハードディスクや不揮発性のメモリなどにより構成される。
通信部529は、ネットワークインタフェースなどにより構成される。ドライブ530は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア531を駆動する。
以上のように構成されるパーソナルコンピュータ501においては、CPU521が、例えば、記憶部528に記憶されているプログラムを、入出力インタフェース525及びバス524を介して、RAM523にロードして実行することにより、各種の処理が行われる。
CPU521が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア531に記録して提供される。
なお、パッケージメディアとしては、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどが用いられる。
また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
パーソナルコンピュータ501においては、プログラムは、リムーバブルメディア531をドライブ530に装着することにより、入出力インタフェース525を介して、記憶部528にインストールすることができる。
また、プログラムは、有線または無線の伝送媒体を介して、通信部529で受信し、記憶部528にインストールすることができる。その他、プログラムは、ROM522や記憶部528に、あらかじめインストールしておくことができる。
なお、パーソナルコンピュータ501が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われる処理であっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
[その他]
本技術の実施の形態は、上述した実施形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。また、本技術の実施の形態は、一部の機能を他の装置が有していても良い。
なお、本技術の実施の形態では、識別対象を顔として説明したが、識別対象は、顔以外でもよい。識別対象は、例えば、手や、動物、物体などとすることができる。
なお、本技術は以下のような構成も取ることができる。
(1)第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出部と、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別部とを備える情報処理装置。
(2)前記第1の識別対象および前記第2の識別対象の画像から局所特徴量を抽出する特徴量抽出部をさらに備え、前記統計量抽出部は、前記特徴量抽出部により抽出された前記第1の識別対象および前記第2の識別対象の前記局所特徴量に基づいて、前記類以度を算出する前記(1)に記載の情報処理装置。
(3)前記識別部は、前記第1の識別対象と前記第2の識別対象の組合せ毎に前記類以度統計量が、対応する所定の閾値以上であるかを判定し、判定結果を統合することで、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する前記(1)または(2)に記載の情報処理装置。
(4)前記統計量抽出部は、前記類似度統計量としてヒストグラムを抽出する前記(1)から(3)のいずれかに記載の情報処理装置。
(5)前記統計量抽出部は、前記類似度統計量として平均値を抽出する前記(1)から(3)のいずれかに記載の情報処理装置。
(6)前記第1の識別対象および前記第2の識別対象のうちの一方は、予め登録されている1枚の画像から検出される前記(1)から(5)のいずれかに記載の情報処理装置。
(7)第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップとを含む情報処理方法。
(8)コンピュータに、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップとを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(9)コンピュータに、第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップとを実行させるためのプログラム。
25 局所特徴量抽出部, 222 統計量抽出部, 301 顔識別装置, 321 顔識別部

Claims (9)

  1. 第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出部と、
    前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別部と
    を備える情報処理装置。
  2. 前記第1の識別対象および前記第2の識別対象の画像から局所特徴量を抽出する特徴量抽出部をさらに備え、
    前記統計量抽出部は、前記特徴量抽出部により抽出された前記第1の識別対象および前記第2の識別対象の前記局所特徴量に基づいて、前記類以度を算出する
    請求項1に記載の情報処理装置。
  3. 前記識別部は、前記第1の識別対象と前記第2の識別対象の組合せ毎の前記類以度統計量が、対応する所定の閾値以上であるかを判定し、判定結果を統合することで、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する
    請求項2に記載の情報処理装置。
  4. 前記統計量抽出部は、前記類似度統計量としてヒストグラムを抽出する
    請求項3に記載の情報処理装置。
  5. 前記統計量抽出部は、前記類似度統計量として平均値を抽出する
    請求項3に記載の情報処理装置。
  6. 前記第1の識別対象および前記第2の識別対象のうちの一方は、予め登録されている1枚の画像から検出される
    請求項4に記載の情報処理装置。
  7. 第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、
    前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップと
    を含む情報処理方法。
  8. コンピュータに、
    第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、
    前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップと
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  9. コンピュータに、
    第1の識別対象の複数の画像群の全体と第2の識別対象の複数の画像群の全体の類似度を算出するとともに、前記類似度から類以度統計量を抽出する統計量抽出ステップと、
    前記類以度統計量から、前記第1の識別対象と前記第2の識別対象が同一であるかを識別する識別ステップと
    を実行させるためのプログラム。
JP2011123370A 2011-06-01 2011-06-01 情報処理装置および方法、記録媒体、並びにプログラム Withdrawn JP2012252447A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011123370A JP2012252447A (ja) 2011-06-01 2011-06-01 情報処理装置および方法、記録媒体、並びにプログラム
US13/478,445 US9025882B2 (en) 2011-06-01 2012-05-23 Information processing apparatus and method of processing information, storage medium and program
CN2012101659873A CN102982305A (zh) 2011-06-01 2012-05-25 信息处理设备和处理信息的方法、存储介质以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011123370A JP2012252447A (ja) 2011-06-01 2011-06-01 情報処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2012252447A true JP2012252447A (ja) 2012-12-20

Family

ID=47261743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011123370A Withdrawn JP2012252447A (ja) 2011-06-01 2011-06-01 情報処理装置および方法、記録媒体、並びにプログラム

Country Status (3)

Country Link
US (1) US9025882B2 (ja)
JP (1) JP2012252447A (ja)
CN (1) CN102982305A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206935A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055819A (ko) * 2012-11-01 2014-05-09 삼성전자주식회사 얼굴인식장치 및 그 제어방법
US20150278635A1 (en) * 2014-03-31 2015-10-01 Massachusetts Institute Of Technology Methods and apparatus for learning representations
CN103971135A (zh) * 2014-05-05 2014-08-06 中国民航大学 基于头肩深度信息特征的人体目标检测方法
CN106203263A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于局部特征的脸型分类方法
CN107705320B (zh) * 2016-08-08 2022-01-11 佳能株式会社 跟踪视频中的对象的边界点的方法和装置
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10621419B2 (en) * 2016-12-06 2020-04-14 Robert William Kocher Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates
JP6981265B2 (ja) * 2018-01-11 2021-12-15 富士通株式会社 生体認証装置、生体認証方法、および生体認証プログラム
CN111382751B (zh) * 2020-03-11 2023-04-18 西安应用光学研究所 一种基于颜色特征的目标再识别方法
CN111797746A (zh) * 2020-06-28 2020-10-20 北京小米松果电子有限公司 人脸识别方法、装置及计算机可读存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0944018B1 (en) * 1998-03-19 2011-08-24 Panasonic Corporation Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
JP2006178651A (ja) * 2004-12-21 2006-07-06 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
KR100745981B1 (ko) * 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
US8184915B2 (en) * 2006-12-04 2012-05-22 Lockheed Martin Corporation Device and method for fast computation of region based image features
JP2009087232A (ja) * 2007-10-02 2009-04-23 Toshiba Corp 人物認証装置および人物認証方法
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
CN100557625C (zh) * 2008-04-18 2009-11-04 清华大学 人脸部件特征和Gabor人脸特征融合的人脸识别方法及其装置
WO2009148731A1 (en) * 2008-06-02 2009-12-10 Massachusetts Institute Of Technology Fast pattern classification based on a sparse transform
JP5418991B2 (ja) * 2008-07-10 2014-02-19 日本電気株式会社 個人認証システム、個人認証方法
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US8379937B1 (en) * 2008-09-29 2013-02-19 Videomining Corporation Method and system for robust human ethnicity recognition using image feature-based probabilistic graphical models
JP4710978B2 (ja) * 2009-01-09 2011-06-29 ソニー株式会社 対象物検出装置、撮像装置、対象物検出方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206935A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法

Also Published As

Publication number Publication date
US9025882B2 (en) 2015-05-05
US20120308141A1 (en) 2012-12-06
CN102982305A (zh) 2013-03-20

Similar Documents

Publication Publication Date Title
JP2012252447A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US11527055B2 (en) Feature density object classification, systems and methods
US8401283B2 (en) Information processing apparatus, information processing method, and program
US7929771B2 (en) Apparatus and method for detecting a face
US9098760B2 (en) Face recognizing apparatus and face recognizing method
Kollreider et al. Real-time face detection and motion analysis with application in “liveness” assessment
Singh et al. Muhavi: A multicamera human action video dataset for the evaluation of action recognition methods
JP4479756B2 (ja) 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
US8463044B2 (en) Method and device of detecting object in image and system including the device
US8625859B2 (en) Information processing apparatus, information processing method, and program
KR101179497B1 (ko) 얼굴 검출 방법 및 장치
US20080107341A1 (en) Method And Apparatus For Detecting Faces In Digital Images
US8306282B2 (en) Hierarchical face recognition training method and hierarchical face recognition method thereof
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
US20120063689A1 (en) Object recognition in an image
US20140093142A1 (en) Information processing apparatus, information processing method, and information processing program
Kalbande et al. Lip reading using neural networks
JP2012073684A (ja) 画像認識方法及び装置並びにプログラム
JP2008102611A (ja) 画像処理装置
JP6924031B2 (ja) オブジェクト検出装置及びこれらのプログラム
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JP5214679B2 (ja) 学習装置、方法及びプログラム
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP2011154500A (ja) 学習装置、学習方法、識別装置、識別方法、及びプログラム
JP2004199200A (ja) パターン認識装置、撮像装置、情報処理システム、パターン認識方法、記録媒体、及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805