JP2016062253A - オブジェクト識別装置、オブジェクト識別方法及びプログラム - Google Patents
オブジェクト識別装置、オブジェクト識別方法及びプログラム Download PDFInfo
- Publication number
- JP2016062253A JP2016062253A JP2014189168A JP2014189168A JP2016062253A JP 2016062253 A JP2016062253 A JP 2016062253A JP 2014189168 A JP2014189168 A JP 2014189168A JP 2014189168 A JP2014189168 A JP 2014189168A JP 2016062253 A JP2016062253 A JP 2016062253A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- partial feature
- unit
- learning
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Studio Devices (AREA)
Abstract
Description
この問題に対するための従来技術には、画像中のオブジェクトの局所部分に注目するという技術がある。例えば、オブジェクトが人物の顔であるとして、ある個人を撮像した顔画像データについて、一般に上述のような変動の影響は、顔の全域で均一には現れない。例えば、表情変動の場合、表情のある画像と無表情の画像では、口や目に比べて、鼻付近の変動は少ないと期待される。同様に、照明変動の場合、斜光を受けた顔画像と全体に均一に照明が当たった顔画像との間の変動は、斜光が当たっている部分における変動のほうが、斜光が当たっていない部分における変動に比べて小さいと期待される。また、顔の向きが観察者に相対して左に向いた場合、顔の3次元形状から、顔の左側は奥行き方向に隠れるため、正面顔との変動は顔の右側よりも顔の左側の方が大きい。したがって、表情変動や、照明変動、顔向き変動等の変動が生じても、ある局所領域の変動が個人の識別が不可能なほどに大きくても、他の局所領域では個人の特定が可能な程度の変動である場合がある。即ち、比較的変動の少ない局所領域毎の類似度を選択的に統合して用いれば、良好な個人識別が可能となると考えられる。
しかし、予め多数の登録画像を準備することは、ユーザの利便性とは相反する制約であり、さらに、精度向上に寄与する変動パターンを用意することも実用上は困難であるという問題がある。
上記問題に対して、特許文献1では、登録オブジェクトの3次元形状を用いて、1枚の画像から様々な変動画像を作り出し、擬似的に登録画像を増やす方式を提案している。
また、非特許文献1では、予め人種や、性別、年齢について十分な数のデータを準備しておき、そこから入ってきた画像に近い画像を再構成する方式を提案している。準備されたデータには、向きや照明条件について変動を加えたデータが予め紐づけられているので、例えば横を向いた画像から、正面を向いた画像を再構成することが可能になる。
そこで、本発明は、ユーザの利便性を保ちつつ、オンライン学習を有効に利用できるようにすることを目的とする。
図1は、オブジェクト識別装置100全体のハードウェア構成の一例を示す図である。オブジェクト識別装置100は、結像光学系1、撮像部2、撮像制御部3、画像記録部4、オブジェクト登録部5、入力オブジェクト識別部6、外部出力部7、接続バス8、を含む。
結像光学系1は、ズーム機構を備えた光学レンズを含み、パン・チルト軸方向の駆動機構を備えてもよい。
撮像部2は、映像センサとして典型的にはCCD又はCMOSイメージセンサを含み、センサ駆動回路からの読み出し制御信号に基づいて、予め定められた映像信号(サブサンプリング、ブロック読み出しして得られる信号等)を画像データとして出力する。
撮像制御部3は、撮影者の操作に基づく指示(画角調整指示、シャッター押下等)、オブジェクト登録部5や入力オブジェクト識別部6からの情報等に基づいて、実際に撮影が行われるタイミングを制御する。
オブジェクト登録部5は、画像データから識別対象のオブジェクトの情報を抽出し、記録・保持する。オブジェクト登録部5の、詳細な構成及び行われる処理の内容の詳細については、図3〜8で後述する。
入力オブジェクト識別部6は、オブジェクト登録部5から取得した画像データ等の画像データに基づいて、オブジェクトの識別を行う。入力オブジェクト識別部6の、詳細な構成及び行われる処理の内容の詳細については、図9〜13で後述する。
外部出力部7は、典型的には、TFT液晶等のモニタを含み、撮像部2及び画像記録部4等から取得した画像データを、又は、画像データにオブジェクト登録部5、入力オブジェクト識別部6等の出力結果を重畳した画像データを、表示する。また、外部出力部7は、オブジェクト登録部5、入力オブジェクト識別部6の出力結果を電子データとして、外部メモリ等に出力してもよい。
接続バス8は、オブジェクト識別装置100の構成要素間の制御・データ接続を行うためのバスである。
また、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6は、オブジェクト識別装置100にソフトウェア構成として実装されてもよい。即ち、オブジェクト識別装置100は、ハードウェア構成としてCPUとメモリとを更に有する。そして、CPUがメモリに記憶されているプログラムに基づき処理を実行することによって、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6に機能を実現するようにしてもよい。
ただし、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6がそれぞれ専用回路、プロセッサ等を有している場合、撮像制御部3、オブジェクト登録部5、入力オブジェクト識別部6の機能及び処理については、以下のようになる。即ち、前記専用回路、プロセッサ等が、ハードディスク装置又はROM等に記憶されたプログラムに基づき処理を実行することによって、前記機能及び処理が実現される。
図2は、オブジェクト識別装置100の処理の一例を示すフローチャートである。図2を参照し、オブジェクト識別装置100が、入力オブジェクトの識別を行う実際の処理について説明する。入力オブジェクトは、入力画像内のオブジェクトである。なお、以下では、識別対象のオブジェクトが人物の顔であるとして説明するが、識別対象のオブジェクトは、人物の顔に限られず、人物の全体像、道路標識等であってもよい。
S00において、オブジェクト識別装置100は、起動処理を行う。オブジェクト識別装置100の各構成要素は、起動の際に行うよう設定されている処理を行う。オブジェクト登録部5、入力オブジェクト識別部6は、利用するパラメータをハードディスク装置、ROM等の記憶部から読み出す処理等を行う。
S01において、オブジェクト識別装置100は、画像記録部4から処理対象の画像データを取得する。前記画像データは入力画像の一例である。
S02において、オブジェクト識別装置100は、S01で取得した画像データに対して、人の顔の検出処理を行う。画像中から、人物の顔を検出する方法については、例えば、非特許文献2で提案されている技術等の公知の技術を用いればよい。
S03において、オブジェクト識別装置100は、S02の検出処理で、人の顔を検出したか否かを判定する。オブジェクト識別装置100は、S02の検出処理で、人の顔を検出した場合、S04の処理へ進む。オブジェクト識別装置100は、S02の検出処理で、人の顔を検出しなかった場合、処理を終了する。
S05において、オブジェクト識別装置100は、S04での識別処理の結果から、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在するか否かを判定する。オブジェクト識別装置100は、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在すると判定した場合、S08の処理へ進む。オブジェクト識別装置100は、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在しないと判定した場合、S06の処理へ進む。
S06において、オブジェクト識別装置100は、S02で検出した顔の人物を登録するか否かを判定する。オブジェクト識別装置100は、予め定められた設定に基づいて、S02で検出した顔の人物を登録するか否かを判定してもよいし、操作部を介したユーザの操作に基づいて、S02で検出した顔の人物を登録するか否かを判定してもよい。オブジェクト識別装置100は、S02で検出した顔の人物を登録すると判定した場合、S07の処理へ進む。オブジェクト識別装置100は、S02で検出した顔の人物を登録しないと判定した場合、S08の処理へ進む。
S08において、オブジェクト識別装置100は、S02で検出された人の顔全てについてS04〜S07の処理が完了したか否かを判定する。オブジェクト識別装置100は、S02で検出された人の顔全てについてS04〜S07の処理が完了したと判定した場合、S09の処理へ進む。オブジェクト識別装置100は、S02で検出された人の顔全てについてS04〜S07の処理が完了していないと判定した場合、S04の処理へ進む。
S09において、オブジェクト識別装置100は、S02で検出した顔の人物と同一人物が登録済みの人物の中に存在するか否かの識別処理の結果を、外部出力部7を介して出力する。オブジェクト識別装置100は、S07で新たに人物の顔の登録処理を行った場合、前記登録処理の結果を出力してもよい。
以上が、本実施形態にかかるオブジェクト識別装置100の全体の処理である。
オブジェクト登録処理について図3に基づいて、説明する。図3は、オブジェクト登録部5の機能構成の一例を示す図である。オブジェクト登録部5は、登録オブジェクト辞書データ生成部21、登録オブジェクト辞書データ保持部22、識別器学習部25、登録オブジェクトデータ選択部26、を含む。登録オブジェクト辞書データ保持部22は、属性データ保持部23、部分特徴量保持部24、を含む。
登録オブジェクト辞書データ生成部21は、画像記録部4から取得した画像データに基づいて、オブジェクトの個体を識別するために必要な登録オブジェクト辞書データを生成する。登録オブジェクト辞書データ生成部21で行われる処理の詳細については、図4で後述する。
属性データ保持部23は、登録するオブジェクトの属性、例えばオブジェクトが人物の顔である場合、性別、年齢、表情、顔の向き、等を保持する。
部分特徴量保持部24は、登録オブジェクト辞書データ生成部21によって抽出した部分特徴量を保持する。
識別器学習部25は、入力オブジェクト識別部6で用いられる識別器の学習を行う。識別器学習部25で行われる処理の詳細については、図5〜8で後述する。
登録オブジェクトデータ選択部26は、入力オブジェクト識別部6からの要求に応じて、以下の処理を行う。即ち、登録オブジェクトデータ選択部26は、登録オブジェクト辞書データ保持部22及び識別器学習部25から、識別に用いる辞書データ、識別器のパラメータ等を取得し、入力オブジェクト識別部6に転送する。
図4は、登録オブジェクト辞書データ生成部の機能構成の一例を示す図である。登録オブジェクト辞書データ生成部21は、部分特徴量抽出部30を含む。部分特徴量抽出部30は、部分特徴量パラメータ決定部31、特徴ベクトル抽出部32、を含む。
部分特徴量抽出部30は、対象となるオブジェクトを含んだ画像から、特徴ベクトルを抽出する処理を行う。
部分特徴量パラメータ決定部31は、画像データに対して、特徴ベクトル抽出部32による特徴ベクトルの抽出処理に利用されるパラメータを決定する。前記パラメータは、典型的には、部分特徴量を抽出するために定めた位置や範囲、等である。また、前記パラメータには、部分特徴量を抽出する際の特徴量のパラメータも含まれる。以下では、部分特徴量を抽出するために定めた位置や範囲のことを部分領域という。部分領域は、特徴部分の一例である。部分特徴量パラメータ決定部31は、部分領域の位置と範囲、その他の特徴量のパラメータを、機械学習の方法等を用いて予め設定してもよい。部分特徴量パラメータ決定部31は、特徴量抽出する部分領域の数を、処理にかかる時間等を考慮して、予め設定してもよい。また、部分特徴量パラメータ決定部31は、前記パラメータを予め用意した学習用サンプルに対して、十分な識別性能を得られる値を計測して決める等してもよい。部分特徴量パラメータ決定部31は、1つの部分領域に対して複数パラメータを発行してもよい。1つの部分領域に複数の特徴量抽出パラメータを設定する場合の目的や効果については、特徴ベクトル抽出部32の説明において後述する。
特徴ベクトル抽出部32は、輝度に基づいた特徴量を抽出する際に、照明変動に対して頑健になるように、前記画像データに対して前処理を行ってもよい。特徴ベクトル抽出部32は、前記画像データに対して、例えばガンマ補正やヒストグラム平坦化等の補正処理を行った後に、特徴量抽出を行うことで最終的な認証精度を向上させることができる。特徴ベクトル抽出部32は、補正処理のパラメータとして、部分特徴量パラメータ決定部31によって予め定められた値を適用する。
特徴ベクトル抽出部32は、前記前処理のパラメータだけでなく、特徴量抽出のパラメータそのものを複数用意して、前記複数用意したパラメータに基づいて、複数の登録ベクトルを抽出してもよい。例えば、輝度を2値化したものを特徴量として抽出する場合、特徴ベクトル抽出部32は、2値化の閾値というパラメータを複数用意し、前記複数用意した閾値に基づいて、複数の特徴量を抽出してもよい。特徴ベクトル抽出部32は、顔認証で良く用いられるLocal Binary Pattern(LBP)特徴を用いる場合、注目画素と対象画素との輝度値の差でコード化を行うが、新たなパラメータとして閾値を導入してもよい。特徴ベクトル抽出部32は、輝度値の単純な大小ではなく、輝度値の差が閾値より大きい場合と閾値より小さい場合とで2値化することにより、照明変動に対して頑健な特徴量にすることができる。閾値を大きくすると、頑健になるが、個人差も失われるので、照明条件に応じて認証に適切な閾値が存在する。特徴ベクトル抽出部32は、閾値を複数用意して、特徴量抽出を行い、別の登録ベクトルとして登録を行うことによって、様々な照明変動に対応する。
図5は、識別器学習部25の機能構成の一例を示す図である。識別器学習部25は、登録オブジェクト類似度生成部41、類似度特徴生成部42、識別器学習演算部43、識別器パラメータ保持部44、を含む。
識別器学習部25は、登録オブジェクトの辞書データに基づいて、前記登録オブジェクトと同一なオブジェクトを識別する識別器を学習する処理を行う。即ち、識別器学習部25は、登録オブジェクトの辞書データに基づいて、機械学習を行うために必要なデータを生成し、前記登録オブジェクト固有の識別器を個別に学習する。前記識別器は、2クラス識別器であるとする。2クラス識別器は、比較するオブジェクト同士が同一であるか否かの判定を行う識別器である。オブジェクトが人物の顔である場合、2クラス識別器は、本人同士(Intra−Personal Class)か、他人同士(Extra−Personal Class)かの判定を行うことになる。
類似度特徴生成部42は、登録オブジェクト類似度生成部41で生成された登録オブジェクトの類似度データに基づいて、識別器学習演算部43の入力となる類似度特徴データを生成する。
識別器学習演算部43は、類似度特徴を入力とする識別器の学習を行う。
識別器パラメータ保持部44は、識別器学習演算部43で用いられるパラメータを保持する。
類似度特徴生成部42、識別器学習演算部43、及び、識別器パラメータ保持部44で行われる処理の詳細、パラメータの内容等は、図8で後述する。
図6は、登録オブジェクト類似度生成部41の機能構成の一例を示す図である。登録オブジェクト類似度生成部41は、登録オブジェクト辞書データ保持部22から、対象となる登録オブジェクトの辞書データを取得し、識別器学習演算部43での学習処理に必要な登録オブジェクトに関する類似度データを生成する。登録オブジェクト類似度生成部41は、識別器に2クラス識別器を用いる場合、2つのクラスに属する類似度データを生成する。即ち、登録オブジェクト類似度生成部41は、同じクラスに属するオブジェクト同士の類似度と、違うクラスに属するオブジェクト同士の類似度を生成する。登録オブジェクト類似度生成部41は、オブジェクトが人物の顔である場合、同じ人物の顔から取得した部分特徴量間の類似度データと、異なる人物同士の部分特徴量間の類似度データを生成し、類似度データが属するクラスのラベル情報も一緒に出力する。
登録オブジェクト類似度生成部41は、部分特徴量比較部51、学習用部分特徴量保持部52、オブジェクト類似度選択部53、学習用部分特徴量類似度保持部54、を含む。
部分特徴量比較部51は、登録オブジェクトの部分特徴量と、学習用部分特徴量保持部52に格納してある部分特徴量とを比較し、登録オブジェクトの部分特徴量に最も近い部分特徴量を探し出す処理を行う。
学習用部分特徴量保持部52は、予め用意されたサンプルから予め抽出された部分特徴量を保持している。
オブジェクト類似度選択部53は、学習用部分特徴量類似度保持部54から、部分特徴量比較部51により探し出された部分特徴量の類似度を取得し、類似度データとして出力を行う。また、オブジェクト類似度選択部53は、前記類似度データが、どのクラスに属するのかのラベル情報も一緒に出力し、識別器学習演算部43の処理で前記ラベル情報を利用できるようにする。
学習用部分特徴量類似度保持部54は、次のような類似度データを保持する。前記類似度データは、学習用部分特徴量保持部52に格納してある部分特徴量と、学習用部分特徴量保持部52に格納してある前記部分特徴量の抽出元となるオブジェクトの前記部分特徴量を抽出した画像とは別の画像から抽出した部分特徴量と、の類似度である。
S10において、登録オブジェクト類似度生成部41は、登録オブジェクトデータ選択部26を経由して、登録オブジェクト辞書データ保持部22から登録オブジェクト辞書データを取得する。前記登録オブジェクト辞書データは、1つの登録オブジェクトに関する辞書データであり、複数の部分特徴量から構成される。
S11において、登録オブジェクト類似度生成部41は、S10で取得された登録オブジェクト辞書データから、1つの部分特徴量を選択する。
部分特徴量比較部51が学習用部分特徴量保持部52に保持してある部分特徴量からS11で選択した部分特徴量の値に最も近いものを選択する方法として、次のような手法がある。即ち、例えば、特徴量をベクトル(以下、特徴ベクトルと呼ぶ)として扱い、学習用部分特徴量保持部52に保持してある特徴ベクトルの1つ1つとS11で選択した特徴ベクトルとの内積を取って、値が最も大きいものを最も近いものとして選択する手法である。また、学習用部分特徴量保持部52に保持してある特徴ベクトルの1つ1つとS11で選択した特徴ベクトルとの間のL2距離(ユークリッド距離)を計算し、距離が最も小さいものを最も近いものとして選択するという手法でもよい。仮に、学習用部分特徴量保持部52に保持されている部分特徴量に、登録オブジェクトの部分特徴量と十分近い(閾値等で判断する)ものが存在しない場合、部分特徴量比較部51は、以下のような処理を行えばよい。部分特徴量比較部51は、例えば、学習用部分特徴量保持部52に保持された部分特徴量の重み付け和を求めればよい。即ち、部分特徴量比較部51は、合成部分特徴量を生成し、登録オブジェクトと十分に近い部分特徴量を探す処理を行う。合成部分特徴量を計算するための式は、数式1のようになる。
フローチャートの説明に戻る。
また、学習用部分特徴量類似度保持部54には、抽出元とは異なる個体のオブジェクトから抽出された部分特徴量との類似度データも格納されている。オブジェクトが人物の顔の場合、同じ人物の異なる部分特徴量との類似度は、Intra−Personal Classのクラスに属する類似度データになる。また、異なる人物の部分特徴量との類似度は、Extra−Personal Classのクラスに属する類似度データになる。オブジェクト類似度選択部53は、類似度の属するクラスの情報であるラベル情報も類似度と一緒に出力する。類似度を求めるためのオブジェクトの画像の組み合わせは、様々な変動が与えられている方が好適である。変動の例としては、撮像した際の照明条件の違いである照明変動、オブジェクトの向きの違いである角度変動、撮影時期が異なるために生じる変動である経年変動、等がある。また、変動には、オブジェクトが人物の顔である場合、表情の違いである表情変動も含まれる。例えば、照明変動のある画像の組合せ、角度変動のある画像の組合せ、経年変動のある画像の組合せ等を用意するとよい。オブジェクトが人物の顔の場合、表情変動のある画像の組合せを用意してもよい。また、複数の変動が複合された画像の組合せを用意すると、より多様な変動に対応できる。学習用部分特徴量類似度保持部54は、多様な変動を持つ画像の組合せから算出された部分特徴量間の類似度を保持することによって、1枚の画像にある登録オブジェクトから抽出した部分特徴量に対して、多様な類似度データを導出可能になる。なお、一般的に、同じオブジェクト同士(顔の場合Intra−Personal Class)の組合せよりも、異なるオブジェクト同士(顔の場合Extra−Personal Class)の組合せの方が、数が圧倒的に多い。オブジェクト類似度選択部53は、両者のバランスをとるように調整するとよい。S13の処理で登録オブジェクトの1つの部分特徴量に対応する類似度選択が終了する。
以上が、登録オブジェクト類似度生成部41が実行する処理の概要である。登録オブジェクト類似度生成部41は、登録オブジェクトの部分特徴量から、複数の類似度を生成することによって、識別器学習演算部43で識別器の学習を行うために必要な類似度データを提供することができる。即ち、登録オブジェクト類似度生成部41は、登録オブジェクトが1つしかない場合でも、多様な変動を持つ、同じクラスに属するオブジェクト同士の類似度データが生成できる。多様な変動を持つ類似度データの提供により、識別器学習演算部43で学習される登録オブジェクトを識別する識別器の精度向上が期待できる。
図8は、識別器学習部25の処理の一例を示すフローチャートである。以下、図8を用いて識別器学習部25の処理の内容について説明する。
S20において、類似度特徴生成部42は、登録オブジェクト類似度生成部41から登録オブジェクトの類似度データを取得する。
S21において、類似度特徴生成部42は、S20で取得した類似度データから、類似度特徴を生成する(S21)。類似度特徴とは、典型的には、1つのオブジェクトに対して複数ある部分特徴量の類似度を全て連結して、ベクトルとして表したものである。例えば、1つのオブジェクトに対して部分特徴量を30カ所から抽出した場合、類似度特徴の次元数は30になる。類似度特徴生成部42は、類似度を連結した類似度特徴とともに、前記類似度特徴が属するクラスのラベル情報も一緒に出力する。クラスのラベル情報は、オブジェクトが人物の顔の場合は、同一人物というラベル情報(Intra−Personal Class)と他人同士というラベル情報(Extra−Personal Class)の2クラスとなる。
S23において、識別器学習演算部43は、S22で取得したパラメータに基づいて、類似度特徴を評価する。識別器学習演算部43は、S21で類似度特徴生成部42により取得された類似度特徴の評価精度を、S20で取得した類似度データとともに取得した前記類似度データがどのクラスに属するかのラベル情報に基づいて、数値で表すことができる。
S25において、識別器学習演算部43は、識別器のパラメータを更新する。識別器のパラメータの更新方法は、具体的な識別器のアルゴリズムに依存する。識別器学習演算部43は、識別器にSVMを用いる場合、識別器のパラメータの更新方法としてS21で類似度特徴生成部42により生成された類似度特徴に基づいて2次計画問題を解くことにより、登録オブジェクトに最適な識別器を構成することができる。
以上が、オブジェクト登録部5の説明である。
類似度特徴を入力とする識別器を利用することによって、必要なデータ量、学習の演算回数を減らすことが可能になり、組み込み機器等のリソースが限られている機器上での識別器のオンライン学習の応用が可能になる。
入力オブジェクト識別処理について説明する。図9は、入力オブジェクト識別部6の機能構成の一例を示す図である。入力オブジェクト識別部6は、入力オブジェクト識別用データ生成部61、登録オブジェクトデータ取得部62、入力オブジェクト識別演算部63、を含む。
入力オブジェクト識別用データ生成部61は、画像記録部4から取得した画像データに基づいて、対象オブジェクトの識別に必要な情報の抽出を行う。
登録オブジェクトデータ取得部62は、オブジェクト登録部5から入力オブジェクトの識別に必要な辞書データ及び識別器の情報を、入力オブジェクト識別用データ生成部61から得られる識別用データと比較可能な(特徴量の次元が一致)状態として、取得する。
入力オブジェクト識別演算部63は、入力オブジェクト識別用データ生成部61から取得した識別用データと、登録オブジェクトデータ取得部62から取得した辞書データと、に基づいて、入力オブジェクトの識別処理を行う。
S31において、登録オブジェクトデータ取得部62は、オブジェクト登録部5から登録オブジェクトデータを取得する。
S32において、入力オブジェクト識別用データ生成部61は、画像記録部4より入力オブジェクトの画像データを取得する。
S33において、入力オブジェクト識別用データ生成部61は、入力オブジェクト識別用データ生成処理を行う。S33の処理の詳細については、図11で後述する。
以上が、入力オブジェクト識別部6の処理の説明である。
図11は、入力オブジェクト識別用データ生成部61の機能構成の一例を示す図である。入力オブジェクト識別用データ生成部61は、部分特徴量抽出部70を含む。部分特徴量抽出部70は、部分特徴量パラメータ決定部71、特徴ベクトル抽出部72、を含む。入力オブジェクト識別用データ生成部61の構成及び処理は、図4で説明した登録オブジェクト辞書データ生成部21の構成及び処理と同様である。
図12は、入力オブジェクト識別演算部63の機能構成の一例を示す図である。入力オブジェクト識別演算部63は、入力オブジェクト識別用データ取得部81、登録オブジェクト辞書データ取得部82、部分特徴量類似度算出部83、類似度特徴生成部84、入力オブジェクト識別処理部85、を含む。
S40において、入力オブジェクト識別用データ取得部81は、入力オブジェクト識別用データ生成部61から入力オブジェクト識別用データを取得する。
S41において、登録オブジェクト辞書データ取得部82は、登録オブジェクトデータ取得部62から登録オブジェクトの辞書データを取得する。
S42において、部分特徴量類似度算出部83は、S40で取得された入力オブジェクト識別用データの部分特徴量と、S41で取得された登録オブジェクトの辞書データの前記部分特徴量と対応する部分の部分特徴量と、に基づいて部分特徴量の類似度を算出する。前記類似度は、それぞれ対応する入力オブジェクトの部分特徴ベクトルと登録オブジェクトの部分特徴ベクトル間のユークリッド距離の逆数として表される。また、前記類似度は、ユークリッド距離ではなく、ベクトル間のなす角を類似度として表されてもよい。さらに一般的な距離として、以下の数式2で表されるミンコフスキー距離Lの逆数を採用してもよい。
S44において、類似度特徴生成部84は、S42で算出された部分特徴量ごとの類似度に基づいて、類似度特徴を生成する。類似度特徴生成部84は、典型的には、複数の類似度を連結して1つのベクトルにする。
S45において、入力オブジェクト識別演算部63は、全ての登録してあるオブジェクトについての辞書データに対して、類似度特徴を生成したか否かを判定する。入力オブジェクト識別演算部63は、全ての登録してあるオブジェクトについての辞書データに対して、類似度特徴を生成したと判定した場合、入力オブジェクト識別処理部85にS46の処理を実行させる。入力オブジェクト識別演算部63は、全ての登録してあるオブジェクトについての辞書データに対して、類似度特徴を生成していないと判定した場合、登録オブジェクト辞書データ取得部82にS41の処理を実行させる。
本実施形態の処理によって、オブジェクト識別装置100は、ユーザの利便性を保ちつつ、オンライン学習を有効に利用することができるようになる。
オブジェクト識別装置100は、類似度特徴を識別器への入力とすることで、学習データの削減と学習処理の軽減とを実現できる。したがって、デジタルカメラや携帯電話等のリソースが限られた機器においても、オンライン学習が有効に実施可能となる。
また、オブジェクト識別装置100は、予め準備した学習用部分特徴量から登録オブジェクトの部分特徴量に近いものを探し、前記部分特徴量が変動を受けた場合の類似度を記憶しておき、学習データとして利用することで、次のような効果が得られる。即ち、オブジェクト識別装置100は、登録オブジェクトの画像が少数(典型的には1枚の)でも、識別器を学習する際に十分な学習データを用意することができるようになる。更に、オブジェクト識別装置100は、部分特徴量ではなく、類似度を記憶しておくことによって、様々な変動を受けた場合の部分特徴量(または画像)を記憶しておく必要がなくなり、大幅なデータ量の削減が可能になる。学習データの数が少量で済むためユーザの利便性を損ねることはない。
実施形態2は、実施形態1に対して、登録オブジェクトと入力オブジェクトとに対して、それぞれ学習用部分特徴量記憶部から最も近い部分特徴量を探し出し、変動条件を調整してから、類似度を求める処理を行う点が、異なる。
以下、本実施形態の処理について説明する。なお、以下の説明において、実施形態1と同じ部分は、省略する。
本実施形態におけるオブジェクト識別装置100全体のハードウェア構成は、実施形態1と同様である。
本実施形態の登録オブジェクト辞書データ生成部21と、入力オブジェクト識別用データ生成部61とは、実施形態1と構成の一部が異なる。本実施形態の処理は、実施形態1の処理と一部異なる。以下、実施形態1と異なる点を中心に説明する。
図14は、登録オブジェクト辞書データ生成部21の機能構成の一例を示す図である。登録オブジェクト辞書データ生成部21は、部分特徴量抽出部30、学習用部分特徴量保持部33、部分特徴量選択部34、を含む。部分特徴量抽出部30は、部分特徴量パラメータ決定部31、特徴ベクトル抽出部32、を含む。学習用部分特徴量保持部33と部分特徴量選択部34が追加されている点が、実施形態1と異なる。学習用部分特徴量保持部33、部分特徴量選択部34以外の各構成要素の役割は、実施形態1と同様である。入力オブジェクト識別用データ生成部61についても、図14の構成と同様になる。
学習用部分特徴量保持部33は、事前に用意された様々なオブジェクトの部分特徴量を保持している。学習用部分特徴量保持部33は、オブジェクトが変動を受けた場合の部分特徴量も、同一のオブジェクトに関して対応づけて保持している。したがって、部分特徴量選択部34は、学習用部分特徴量保持部33が保持する部分特徴量の中の1つの部分特徴量に関してアクセスすると、同じオブジェクトの同じ部分領域の様々な変動を受けた部分特徴量についてもアクセスすることができる。
部分特徴量選択部34は、登録オブジェクトの部分特徴量について、学習用部分特徴量保持部33から、前記部分特徴量に最も近い部分特徴量を探し出す。部分特徴量選択部34は、更に、探し出した前記部分特徴量と紐づけられた同一オブジェクトに関する部分特徴量のうち、最も変動の少ないものを選択する。部分特徴量選択部34が行う処理の詳細については、図15で後述する。
S100において、部分特徴量選択部34は、部分特徴量抽出部30から部分特徴量を取得する。
S101において、部分特徴量選択部34は、学習用部分特徴量保持部33に保持されている部分特徴量の中から、S100で取得した部分特徴量に最も近い部分特徴量の探索処理を行う。部分特徴量選択部34は、前記探索処理を、実施形態1の登録オブジェクト類似度生成部41の説明で説明した方法と同様に行えばよいが、以下の手法により、より高速に行えるようにしてもよい。即ち、学習用部分特徴量保持部33の格納形式について事前に処理を加えておくことで、高速な探索処理が行えるようにする手法である。より具体的には、学習用部分特徴量保持部33に保持されている部分特徴量について予めクラスタリングを行い、クラスタ中心となる代表部分特徴量を予め決定しておく。S101の処理の際、部分特徴量選択部34は、まず前記代表部分特徴量との比較を行うようにする。部分特徴量選択部34は、最も近い代表部分特徴量が求められたら、次は、前記代表部分特徴量が属するクラスタ内で最も近い部分特徴量を探索するようにすればよい。前記手法によって、S101の処理においての部分特徴量の比較の処理を大幅に減らすことが可能になる。オブジェクトの識別処理においては、入力画像が入力されるたびに学習用部分特徴量保持部33に保持されている部分特徴量の中から、入力オブジェクトの部分特徴量に最も近いものを探索する処理を行う必要があり、高速性が重要となる。したがって、前記手法のような探索手法は、単純な逐次探索手法よりも、処理の軽減、高速化等の効果は大きい。
以上が、実施形態2の処理の説明である。
本実施形態の処理により、オブジェクト識別装置100は、登録オブジェクトと入力オブジェクトと間の属性(顔向き、表情、照明条件等)変動の影響を軽減することができる。また、登録オブジェクトに特化した識別器を学習する際に、想定する登録オブジェクトと入力オブジェクトとの間の変動を小さく見積もることができ、学習の負荷を軽減(少ない学習データで高精度な識別器を学習)することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (8)
- 登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する生成手段と、
前記生成手段により生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習手段と、
入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得手段と、
前記取得手段により取得された類似度と、前記学習手段により学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別手段と、
を有するオブジェクト識別装置。 - 前記生成手段は、前記登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量の中で最も変動の少ない部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する請求項1記載のオブジェクト識別装置。
- 前記生成手段は、前記登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量と前記部分特徴量に対応するオブジェクトに対して設定された変動が加えられたオブジェクトの部分特徴量との類似度に基づいて、前記オブジェクトの類似度を生成する請求項1又は2記載のオブジェクト識別装置。
- 前記変動は、照明変動、角度変動、経年変動のうち、少なくとも1つを含む請求項3記載のオブジェクト識別装置。
- 前記オブジェクトは、人の顔である請求項1乃至4何れか1項記載のオブジェクト識別装置。
- 前記オブジェクトは、人の顔であり、前記変動は、表情変動である請求項3又は4記載のオブジェクト識別装置。
- オブジェクト識別装置が実行するオブジェクト識別方法であって、
登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する生成ステップと、
前記生成ステップにより生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習ステップと、
入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得ステップと、
前記取得ステップにより取得された類似度と、前記学習ステップにより学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別ステップと、
を含むオブジェクト識別方法。 - コンピュータに
登録画像内のオブジェクトの特徴部分の部分特徴量に対応する部分特徴量に対して設定された類似度に基づいて、前記オブジェクトの類似度を生成する生成ステップと、
前記生成ステップにより生成された前記類似度に基づいて、前記登録画像内のオブジェクトの識別処理に利用されるパラメータを学習する学習ステップと、
入力画像内のオブジェクトの前記特徴部分の部分特徴量と前記登録画像内のオブジェクトの前記特徴部分の部分特徴量との類似度を取得する取得ステップと、
前記取得ステップにより取得された類似度と、前記学習ステップにより学習されたパラメータとに基づいて、前記入力画像内のオブジェクトが前記登録画像内のオブジェクトと同一か否かを識別する識別ステップと、
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014189168A JP6544900B2 (ja) | 2014-09-17 | 2014-09-17 | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
US14/853,777 US9626553B2 (en) | 2014-09-17 | 2015-09-14 | Object identification apparatus and object identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014189168A JP6544900B2 (ja) | 2014-09-17 | 2014-09-17 | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016062253A true JP2016062253A (ja) | 2016-04-25 |
JP6544900B2 JP6544900B2 (ja) | 2019-07-17 |
Family
ID=55455037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014189168A Active JP6544900B2 (ja) | 2014-09-17 | 2014-09-17 | オブジェクト識別装置、オブジェクト識別方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9626553B2 (ja) |
JP (1) | JP6544900B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019171440A1 (ja) * | 2018-03-05 | 2019-09-12 | 日本電気株式会社 | 画像解析装置、画像解析方法および画像解析プログラム |
WO2019216454A1 (ko) * | 2018-05-08 | 2019-11-14 | Kim Bong Gyun | 객체의 동일성 판단 방법 |
JP2020502642A (ja) * | 2016-11-30 | 2020-01-23 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 患者識別システムおよび方法 |
JP2021101390A (ja) * | 2017-10-13 | 2021-07-08 | 日本電気株式会社 | 生体認証装置及び生体認証方法 |
WO2021192028A1 (ja) | 2020-03-24 | 2021-09-30 | ソニーグループ株式会社 | 学習装置及び学習方法 |
JP2023083563A (ja) * | 2019-01-04 | 2023-06-15 | 株式会社DSi | 識別システム |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6070936B2 (ja) * | 2013-01-31 | 2017-02-01 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 情報処理装置、情報処理方法及びプログラム |
WO2016095103A1 (zh) * | 2014-12-16 | 2016-06-23 | 华为技术有限公司 | 存储空间管理方法及装置 |
WO2017048723A1 (en) | 2015-09-18 | 2017-03-23 | Commvault Systems, Inc. | Data storage management operations in a secondary storage subsystem using image recognition and image-based criteria |
JP6378664B2 (ja) * | 2015-12-02 | 2018-08-22 | 株式会社オプティム | 情報特定システム、情報特定方法及びそのプログラム |
WO2019171416A1 (ja) * | 2018-03-05 | 2019-09-12 | 日本電気株式会社 | 画像分類システム、画像分類方法および画像分類プログラム |
US10574848B1 (en) * | 2018-10-26 | 2020-02-25 | Toshiba Tec Kabushiki Kaisha | Information processing apparatus with registered image detection |
CN112052706B (zh) * | 2019-06-06 | 2022-07-29 | 鸿富锦精密工业(武汉)有限公司 | 电子装置及人脸识别方法 |
JP2022144895A (ja) * | 2021-03-19 | 2022-10-03 | 三菱重工業株式会社 | 対象物検知装置、対象物検知方法及び対象物検知プログラム |
CN115775401A (zh) * | 2021-09-06 | 2023-03-10 | 京东科技信息技术有限公司 | 用于验证图像的方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006004003A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2007042136A (ja) * | 2006-10-16 | 2007-02-15 | Nec Corp | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 |
JP2011086265A (ja) * | 2009-10-19 | 2011-04-28 | Canon Inc | 画像処理装置及び方法、プログラム及び記憶媒体 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4657934B2 (ja) * | 2006-01-23 | 2011-03-23 | 富士フイルム株式会社 | 顔検出方法および装置並びにプログラム |
JP2008191816A (ja) * | 2007-02-02 | 2008-08-21 | Sony Corp | 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム |
JP5176572B2 (ja) * | 2008-02-05 | 2013-04-03 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8218880B2 (en) * | 2008-05-29 | 2012-07-10 | Microsoft Corporation | Linear laplacian discrimination for feature extraction |
US9183173B2 (en) * | 2010-03-02 | 2015-11-10 | Microsoft Technology Licensing, Llc | Learning element weighting for similarity measures |
KR101877981B1 (ko) * | 2011-12-21 | 2018-07-12 | 한국전자통신연구원 | 가버 특징과 svm 분류기를 이용하여 위변조 얼굴을 인식하기 위한 시스템 및 그 방법 |
US9235782B1 (en) * | 2012-12-24 | 2016-01-12 | Google Inc. | Searching images and identifying images with similar facial features |
SG11201506229RA (en) * | 2013-02-27 | 2015-09-29 | Hitachi Ltd | Image analysis device, image analysis system, and image analysis method |
US20150235073A1 (en) * | 2014-01-28 | 2015-08-20 | The Trustees Of The Stevens Institute Of Technology | Flexible part-based representation for real-world face recognition apparatus and methods |
JP6470503B2 (ja) * | 2014-05-20 | 2019-02-13 | キヤノン株式会社 | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム |
-
2014
- 2014-09-17 JP JP2014189168A patent/JP6544900B2/ja active Active
-
2015
- 2015-09-14 US US14/853,777 patent/US9626553B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006004003A (ja) * | 2004-06-15 | 2006-01-05 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2007042136A (ja) * | 2006-10-16 | 2007-02-15 | Nec Corp | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 |
JP2011086265A (ja) * | 2009-10-19 | 2011-04-28 | Canon Inc | 画像処理装置及び方法、プログラム及び記憶媒体 |
Non-Patent Citations (1)
Title |
---|
井尻善久,外2名: "多様な属性に柔軟に対応できる人物属性認識の準教師付き学習フレームワーク", 電子情報通信学会技術研究報告 VOL.109 NO.249, vol. 第109巻, JPN6019017197, 2009, JP, pages 97 - 102, ISSN: 0004033904 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020502642A (ja) * | 2016-11-30 | 2020-01-23 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 患者識別システムおよび方法 |
JP2021101390A (ja) * | 2017-10-13 | 2021-07-08 | 日本電気株式会社 | 生体認証装置及び生体認証方法 |
JP7143915B2 (ja) | 2017-10-13 | 2022-09-29 | 日本電気株式会社 | 生体認証装置及び生体認証方法 |
US11776302B2 (en) | 2017-10-13 | 2023-10-03 | Nec Corporation | Biometric recognition apparatus and biometric recognition method |
WO2019171440A1 (ja) * | 2018-03-05 | 2019-09-12 | 日本電気株式会社 | 画像解析装置、画像解析方法および画像解析プログラム |
JPWO2019171440A1 (ja) * | 2018-03-05 | 2021-02-04 | 日本電気株式会社 | 画像解析装置、画像解析方法および画像解析プログラム |
US11507780B2 (en) | 2018-03-05 | 2022-11-22 | Nec Corporation | Image analysis device, image analysis method, and image analysis program |
WO2019216454A1 (ko) * | 2018-05-08 | 2019-11-14 | Kim Bong Gyun | 객체의 동일성 판단 방법 |
JP2023083563A (ja) * | 2019-01-04 | 2023-06-15 | 株式会社DSi | 識別システム |
WO2021192028A1 (ja) | 2020-03-24 | 2021-09-30 | ソニーグループ株式会社 | 学習装置及び学習方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160078284A1 (en) | 2016-03-17 |
US9626553B2 (en) | 2017-04-18 |
JP6544900B2 (ja) | 2019-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6544900B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
US20230015107A1 (en) | Method and apparatus with image fusion | |
US9098760B2 (en) | Face recognizing apparatus and face recognizing method | |
JP5247480B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
Vidya et al. | Entropy based Local Binary Pattern (ELBP) feature extraction technique of multimodal biometrics as defence mechanism for cloud storage | |
JP5174045B2 (ja) | 分類器チェーンを用いた照明検出 | |
JP5424819B2 (ja) | 画像処理装置、画像処理方法 | |
TW202006602A (zh) | 三維臉部活體檢測方法、臉部認證識別方法及裝置 | |
US8498454B2 (en) | Optimal subspaces for face recognition | |
JP6071002B2 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
JP5241606B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP6351243B2 (ja) | 画像処理装置、画像処理方法 | |
JP2019057815A (ja) | 監視システム | |
WO2020195732A1 (ja) | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 | |
JP6410450B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
JP2010108494A (ja) | 画像内の顔の特性を判断する方法及びシステム | |
Yin et al. | A face anti-spoofing method based on optical flow field | |
WO2013181695A1 (en) | Biometric verification | |
JP2017058833A (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
JP5653003B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP5791361B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
KR101031369B1 (ko) | 얼굴 인식 장치 및 그 방법 | |
Sun et al. | Dual camera based feature for face spoofing detection | |
Chen | Design and simulation of AI remote terminal user identity recognition system based on reinforcement learning | |
JP7103443B2 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190618 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6544900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |