JP2013196295A - 生体情報処理装置 - Google Patents

生体情報処理装置 Download PDF

Info

Publication number
JP2013196295A
JP2013196295A JP2012061976A JP2012061976A JP2013196295A JP 2013196295 A JP2013196295 A JP 2013196295A JP 2012061976 A JP2012061976 A JP 2012061976A JP 2012061976 A JP2012061976 A JP 2012061976A JP 2013196295 A JP2013196295 A JP 2013196295A
Authority
JP
Japan
Prior art keywords
feature information
feature
information
face
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012061976A
Other languages
English (en)
Other versions
JP6026119B2 (ja
Inventor
Kodai Saito
廣大 齊藤
Hiroshi Sukegawa
寛 助川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012061976A priority Critical patent/JP6026119B2/ja
Priority to US13/614,377 priority patent/US9684850B2/en
Priority to KR1020120101330A priority patent/KR101381455B1/ko
Priority to MX2012010637A priority patent/MX2012010637A/es
Publication of JP2013196295A publication Critical patent/JP2013196295A/ja
Application granted granted Critical
Publication of JP6026119B2 publication Critical patent/JP6026119B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

【課題】照合の精度を高める。
【解決手段】実施形態の生体情報処理装置は、領域検出手段と、特徴抽出手段と、判定手段と、を備える。領域検出手段は、画像情報から、人物が表示されている領域を検出する。特徴抽出手段は、画像情報から、領域検出手段で検出された領域から、人物の特徴的な部位に基づいた特徴情報を抽出する。判定手段は、特徴抽出手段で抽出された特徴情報に対して、人物の特徴的な部位が抽出できたか否かを示した抽出精度を、特徴的な部位の位置に基づいて判定する。
【選択図】図1

Description

本発明の実施形態は、生体情報処理装置に関する。
従来から、被認証者の生体情報(例えば、顔、手の状態)の特徴や状態に基づいて、人物の照合を行う技術が開発されている。認証を行うために、被認証者の生体情報が写された画像データから、特徴点検出が適切に行われないと、照合精度に悪影響を及ぼす可能性がある。
このため、近年、特徴点の抽出精度を向上させるための技術が提案されている。
特開平05−225344号公報
しかしながら、従来技術で抽出精度が向上したとしても、特徴点の検出で誤りが生じる可能性は存在する。したがって、特徴点の検出が適切であるかをチェックし、照合処理にふさわしい品質であるか否かを確認することが望ましい。
実施形態の生体情報処理装置は、領域検出手段と、特徴抽出手段と、判定手段と、を備える。領域検出手段は、画像情報から、人物が表示されている領域を検出する。特徴抽出手段は、画像情報から、領域検出手段で検出された領域から、人物の特徴的な部位に基づいた特徴情報を抽出する。判定手段は、特徴抽出手段で抽出された特徴情報に対して、人物の特徴的な部位が抽出できたか否かを示した抽出精度を、特徴的な部位の位置に基づいて判定する。
図1は、第1の実施形態にかかる生体情報処理装置の構成を示すブロック図である。 図2は、第1の実施形態にかかる生体情報処理装置における、顔検出処理の手順を示すフローチャートである。 図3は、第1の実施形態にかかる特徴情報判定部における、評価値の算出処理の手順を示すフローチャートである。 図4は、顔検出の位置ずれを示した図である。 図5は、検出された両目の特徴点が位置ずれを生じている例を示した図である。 図6は、第1の実施形態にかかる修正部における、修正処理の手順を示すフローチャートである。 図7は、検出結果を修正するためのインターフェース画面の例を示した図である。 図8は、変形例にかかる顔特徴情報抽出部の特徴点の抽出手法を示した図である。 図9は、第2の実施形態にかかる生体情報処理装置の構成を示すブロック図である。 図10は、第2の実施形態にかかる特徴点摂動部による特徴点の摂動を示した図である。 図11は、第2の実施形態にかかる生体情報処理装置における、特徴情報間の類似度判定処理の手順を示すフローチャートである。 図12は、第3の実施形態にかかる生体情報処理装置の構成を示すブロック図である。 図13は、第3の実施形態にかかる生体情報処理装置における、特徴情報の抽出精度の判定処理の手順を示すフローチャートである。 図14は、第4の実施形態にかかる生体情報処理装置の構成を示すブロック図である。 図15は、第4の実施形態にかかる生体情報処理装置における、特徴情報の抽出精度の判定処理の手順を示すフローチャートである。 図16は、第1〜第4の実施形態にかかる生体情報処理装置のハードウェア構成を示した図である。
(第1の実施形態)
図1は、第1の実施形態にかかる生体情報処理装置の構成を示すブロック図である。本実施形態にかかる生体情報処理装置100は、入力部101と、パラメータ設定部102と、顔検出部103と、顔特徴情報抽出部104と、特徴情報判定部105と、修正部106と、出力部107と、類似度判定部108と、を備えるとともに、カメラ150と接続されている。カメラが撮像する画像データは、動画像データでも静止画像データでも良い。
本実施形態にかかる生体情報処理装置100は、カメラ150から入力された画像データから、顔の特徴情報を抽出して、照合用に用いる照合用顔情報データベースに登録する。なお、本実施形態は、顔から特徴情報を抽出する例について説明するが、顔から特徴情報を抽出することに制限するものではなく、顔以外の生体情報が写された画像データに対して適用しても良い。適用対象となる生体情報としては、例えば、虹彩、網膜、手や指の静脈パターン、指紋パターン、目や耳や口の状態などがある。これらを複数用いても良いし、いずれか1つ用いて認証を行っても良い。
本実施形態にかかる生体情報処理装置100は、例えば、照合用顔情報データベースに記憶された大量の人物画像データから、特定の人物を検索したい場合に適用することが考えられる。例えば、生体情報処理装置100が、カメラ150が撮像した監視映像から、収集した大量の顔画像データに基づく特徴情報を照合用顔情報データベースに登録することで、当該照合用顔情報データベースを用いた特定の人物を照合、検索を可能とする。
ところで、監視映像に含まれている画像データから、顔の特徴情報として、特徴点を検出する際に、処理で特徴点がずれたり、検出できなかったりする場合がある。このような特徴情報をそのまま登録すると、照合の際に誤りが生じる可能性がある。そのため、登録する時に特徴点の検出の妥当性を確認し、必要に応じて修正することが望ましいが、手動だと負担が大きい。そこで、本実施形態にかかる生体情報処理装置100は、妥当性の確認と、必要に応じた修正とを実行する。
入力部101は、カメラ150などの撮影手段から、人物の顔を含む画像データを入力処理する。本実施形態では、カメラ150から入力された例について説明するが、カメラ150に制限するものではなく、例えば、スキャナ等であっても良い。そして、入力部101が入力処理した画像データは、(図示しない)A/D変換器によりデジタル化された後、顔検出部103、顔特徴情報抽出部104に出力される。
パラメータ設定部102は、後述の顔検出部103が顔の領域を検出するためのパラメータを設定する。
また、パラメータ設定部102は、後述の顔特徴情報抽出部104が顔の特徴点を検出するためのパラメータを設定する。本実施形態では、1つの顔について顔の特徴点を複数検出する(例えば、14個)。
本実施形態では、顔検出部103及び顔特徴情報抽出部104に対して、条件を異ならせた複数種類のパラメータを設定する。これにより、複数種類の顔の特徴情報が抽出される。そして、本実施形態では、抽出された複数の顔の特徴情報のうち、最も抽出精度が高いと判定された特徴情報が登録等の対象となる。
本実施形態では、設定する複数種類のパラメータとして、顔の部位の位置を探索する処理の反復数、画像の拡大率、部品検出の辞書、フィルタサイズ、及び顔向きごとの配置モデルのうち少なくとも1つ以上を用いる。そして、これらパラメータについて様々な値を設定した組合せφ1、……、φNとする。そして、パラメータ設定部102が、φ1、……、φNを、顔検出部103及び顔特徴情報抽出部104に設定することで、N種類の顔の特徴情報が生成される。なお、設定するパラメータは、例として示したものであり、他のパラメータを用いても良い。
さらに、パラメータ設定部102は、特徴情報判定部105が顔の特徴情報を判定するための閾値を設定する。設定される閾値は、2種類(自動設定用閾値、手動設定用閾値)設定しても良い。なお、自動設定用閾値θ1>手動設定用閾値θ2とする。2種類の閾値を設定した場合、判定結果が自動設定用閾値θ1を超えた際に、出力部107から出力され、自動的に照合用顔情報データベース160に登録される。判定結果が自動設定用閾値θ1以下であり且つ手動設定用閾値θ2を超えた場合には、人が目視で確認した後による手動での照合用顔情報データベース160への登録や、顔の特徴情報の再度の検出等を行う。自動設定用閾値θ1の他に、手動設定用閾値θ2を設定することで、顔の未検出を抑止する。
顔検出部103は、入力された画像データから、人物の顔が表示されている領域を検出する。本実施形態にかかる顔検出部103は、入力された画像データから、1つ又は複数の顔の領域を検出する。
本実施形態にかかる顔検出部103は、顔を検出するためのテンプレートを、図示しない記憶部に予め記憶しておく。そして、顔検出部103は、予め用意したテンプレートを、入力された画像データ内で移動させながら、相関値を算出し、算出された相関値に基づいて顔の領域を検出する。本実施形態にかかる検出手法としては、本実施形態では、相関値が局所最大値となる位置を、特徴点として検出する。なお、顔領域の検出手法を制限するものではなく、例えば、固有空間法や部分空間法を用いて、検出を行っても良い。
顔特徴情報抽出部104は、顔検出部103で検出された領域から、人物の特徴的な部位に基づいた特徴情報を抽出する。本実施形態にかかる顔特徴情報抽出部104は、顔の特徴情報として、目鼻などの顔の部位の位置を抽出する。
本実施形態にかかる顔特徴情報抽出部104は、検出された顔の領域から、目、鼻などの顔部位の位置を抽出する。検出手法としては、どのような手法を用いても良いが、例えば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」, 電子情報通信学会論文誌(D),vol.J80-D-II,No.8,pp2170--2177(1997))で提案された手法を用いても良い。
本実施形態では、顔の領域の特徴を利用する例とするが、他の生体の特徴を利用しても良い。例えば、虹彩・網膜・目の画像を、特徴情報として抽出しても良い。このような場合、上記処理で検出された目の領域に対して、カメラをズームすることで、特徴情報の検出が可能となる。
本実施形態にかかる顔特徴情報抽出部104は、検出された顔の領域から、口の領域(位置)も抽出する。口の領域(位置)の抽出手法としては、例えば、文献(湯浅 真由美、中島 朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219-224(2004))を用いても良い。
特徴となる部位の検出手法として、上述したいずれの場合でも、二次元配列状の画像データから、生体的な特徴が示された領域を抽出できる。
本実施形態と異なるが、顔特徴情報抽出部104が、1枚の画像データから、1つの生体的な特徴が示された領域だけを抽出する場合、当該画像データの全領域に対して、予め用意されたテンプレートとの相関値を求め、当該相関値が最大となる位置とサイズの領域を抽出すればよい。また、生体的な特徴を複数抽出する場合、画像データの全領域について、相関値の局所最大値を求め、一枚の画像内での重なりを考慮して顔の候補位置を絞り込む。その際に、時間系列で連続している他の画像データとの関係性(時間的な推移)も考慮して、複数の生体的な特徴を抽出することもできる。特に複数の生体的な特徴が同時に検出された場合に効果が現れやすい。
顔特徴情報抽出部104が、抽出された生態的な特徴の位置をもとに、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴情報として用いる。本実施形態では、mピクセル×nピクセルの領域の濃淡値を、特徴情報として用いる。具体的には、m×n次元の情報を特徴ベクトルとして用いる。例えば、手法として単純類似度法を用いる場合、ベクトルとベクトルの長さをそれぞれ1とするように正規化を行い、内積を計算することで特徴ベクトル間の類似性が示された類似度が算出される。
1枚の画像からの認識結果でよければ、これで特徴抽出は完了するが、連続した複数の画像を利用した動画像から算出することで、精度の高い認識処理が行える。このため、本実施形態では、さらに、以下に示す処理を行う。
本実施形態にかかる顔特徴情報抽出部104は、入力部101から連続して得られた画像データから、上述した手法によりm×nピクセルの画像を切り出した後、これらのデータを特徴ベクトルの相関行列を求め、K−L展開による正規直交ベクトルを求める。これにより、顔特徴情報抽出部104は、連続した画像データから得られる顔の特徴を示す部分空間を算出する。部分空間の算出法は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求める。これにより、部分空間を算出する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトル集合を用いて表現する。本実施形態では、相関行列Cdを特徴ベクトルから算出し、相関行列Cd=Φd Λd Φd Tを対角化して、固有ベクトルの行列Φを求める。この行列Φが現在認識対象としている人物の顔の特徴を示す部分空間となる。
複数の顔が検出された場合には、たとえば4名の歩行者それぞれA〜Dの人物に対して同様の処理を繰り返して部分空間A〜部分空間Dを算出すればよい。算出された部分空間A〜部分空間Dを、顔の特徴情報として、照合用顔情報データベース160に登録してもよい。
本実施形態にかかる顔特徴情報抽出部104は、上述した手法で、人物の特徴的な部位に基づいた特徴情報を抽出するが、他の手法を用いても良い。
本実施形態にかかる顔特徴情報抽出部104は、パラメータ設定部102により設定されたパラメータに応じて、画像データから、検出された人物毎にN種類の特徴情報(特徴情報毎に、口、鼻、及び眼などの複数の特徴点を含む)を抽出する。
特徴情報判定部105は、顔特徴情報抽出部104により抽出された特徴情報の抽出精度を、人物の特徴的な部位が検出された位置に基づいて判定する。このようにして、本実施形態では、特徴情報の品質を評価する。なお、抽出精度は、当該特徴情報に、人物の特徴的な部位が検出できたか否かの度合いを示している。
本実施形態にかかる特徴情報判定部105は、人物毎に抽出されたN種類の特徴情報それぞれについて抽出精度の判定を行う。これにより、最も抽出精度が高い特徴情報を特定することができる。本実施形態では、抽出精度が最も高かった特徴情報が、照合用顔情報データベース160の登録対象となる。
修正部106では、特徴情報判定部105において抽出精度が不適切であると判断された場合に、画像データ、顔の領域、及び特徴情報のうち少なくとも1つ以上を修正する。
出力部107は、顔特徴情報抽出部104で抽出された顔の特徴情報と、抽出元の画像データと、を対応付けて、照合用顔情報データベース160に出力する。さらに、出力部107は、特徴情報の抽出元の画像データを一覧として表示してもよい。その際に、特徴情報判定部105による判定結果に基づいて、登録成功または失敗の候補者を一覧表示してもよい。さらに、出力部107は、抽出精度を示す値の表示、修正作業のログ表示、近隣または遠隔地に設置された機器での映像出力や音声出力などの行っても良い。
照合用顔情報データベース160は、人物を同定するために入力される特徴情報と同一の情報を、特徴情報の抽出元の画像データと対応付けて記憶する。本実施形態にかかる照合用顔情報データベース160は、特徴情報として、m×nの特徴ベクトルを記憶するが、特徴抽出をする前の顔領域の画像データでもよいし、利用する部分空間やK−L展開を行う直前の相関行列でもよい。
そして、照合用顔情報データベース160は、特徴情報及び画像データを、個人識別IDと対応付けて記憶する。これにより、個人識別IDをキーとして、特徴情報及び画像データを検索できる。照合用顔情報データベース160が記憶する顔の特徴情報は一名あたり1つでもよいし、複数の特徴情報を記憶してもよい。複数の特徴情報を記憶した場合に、状況(例えば人物の移動)に応じたカメラ等の切り替え同時に、同一人物の認識が可能となる。
本実施形態では、登録条件がコントロールしにくく、それぞれ異なる条件であるほど効果が現れやすいため、利用者毎に1つの特徴情報を管理する例で説明する。しかしながら、本実施形態は、1名あたり複数の特徴情報を記憶することに制限を加えるものではなく、1名あたり複数の特徴情報を記憶した場合に、歩行者がばらばらに歩いてくる顔画像の認証に有用であることからも明らかである。
登録手法は、どのような手法でも良い。例えば、出力部107が、各監視エリアで撮影された顔特徴情報と、顔の画像データと、を対応付けして履歴の一覧を表示し、ユーザから、一覧から登録したい人物の選択を受け付けた場合に、照合用顔情報データベース160に登録する等が考えられる。
類似度判定部108は、カメラ150で撮影された画像データに写っている人物が、照合用顔情報データベース160に登録されている人物と類似しているか否かを判定する。
例えば、本実施形態にかかる類似度判定部108は、顔検出部103で得られた入力部分空間と、照合用顔情報データベース160に登録された少なくとも一つの複数の部分空間との類似度を比較することで、予め登録された人物が現在の画像中にいるか否かの判定を行うことができる。複数の人物が存在した場合、類似度判定部108は、当該処理を検出された人数分繰り返すことで画面内に存在する人物全員を認識できる。
部分空間同士の類似性を求める計算方法は、部分空間法や複合類似度法などの方法を用いてよい。本実施例での認識方法は、文献(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17-24(1997)、前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68-D,No.3,pp345--352(1985))にある相互部分空間法を用いる。
当該手法では、予め蓄えられた登録情報の中の認識データも、入力されるデータも複数の画像から計算される部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。なお、入力される部分空間を入力手段分空間と称す。入力データ列に対して同様に相関行列Cinを求め、Cin=ΦinΛinΦinTと対角化し、固有ベクトルΦinを求める。二つのΦin,Φdで表される部分空間の部分空間間類似度(0.0〜1.0)を求め、これを認識するための類似度とする。複数の顔が画像内に存在する場合にはそれぞれ順番に登録顔特徴管理手段に保存された顔画像との類似度計算を総当りで計算すればすべての人物に対する結果を得られる。
例えばX名の人物が歩いてきた時にY名分が照合用顔情報データベース160に登録されている場合、類似度判定部108は、X*Y回の類似度演算を行うことで、X名全員の結果を出力できる。また、m枚の画像データが入力された計算結果で認識結果が出力できない場合(登録者の誰とも判定されず次のフレームを取得して計算する場合)、類似度判定部108は、上記部分空間に入力される相関行列を、そのフレームの1つ分を過去の複数のフレームで作成された相関行列の和に追加し、再度固有ベクトル計算、部分空間作成を行って入力側の部分空間の更新を可能する。つまり、歩行者の顔画像を連続して撮影して照合を行う場合、画像データを1枚ずつ取得して部分空間を更新しながら照合計算することで、徐々に精度の高くなる計算も可能となる。
本実施形態では、入力が複数枚の画像データである前提で説明を行ったが、文献(東芝(小坂谷達夫):「画像認識装置、方法およびプログラム」特許公報 特開2007−4767)にあるように1枚の顔画像データに対してモデルを利用して顔の向きや状態を意図的に変動させた画像データを作成することで、第一の照合方式で利用した相互部分空間法と同様の処理を行うことができる。
次に、本実施形態にかかる生体情報処理装置100における、顔検出処理について説明する。図2は、本実施形態にかかる生体情報処理装置100における上述した処理の手順を示すフローチャートである。
まず、入力部101が、カメラ150で撮像された画像データを入力処理する(ステップS201)。
なお、変数iには、初期値として‘1’が設定されている。そして、パラメータ設定部102は、変数iがパラメータ候補数‘N’以下であるか判定する(ステップS202)。
そして、パラメータ設定部102が、変数iがパラメータ候補数‘N’以下であると判定した場合(ステップS202:Yes)、変数iに対応した検出パラメータを、顔検出部103及び顔特徴情報抽出部104に対して設定する(ステップS203)。
その後、顔検出部103は、設定された検出パラメータに基づいて、画像データから顔の領域を検出する(ステップS204)。
次に、顔特徴情報抽出部104が、画像データから、顔の特徴情報を抽出する(ステップS205)。その後、特徴情報判定部105が、抽出された特徴情報について抽出精度を判定する(ステップS206)。本実施形態では、要素毎に、抽出精度を示した評価値を算出する。評価値については、例えば、特徴点座標の分散などを用いることもできる。なお、具体的な判定手法は、後述する。
その後、変数iに‘1’を加算した後、ステップS202の処理に戻る。そして、ステップS202で、変数iがパラメータ候補数‘N’より大きいと判定された場合(ステップS202:No)、特徴情報判定部105が、N種類の特徴情報の判定結果を比較する(ステップS207)。
その後、特徴情報判定部105が、N種類の特徴情報のうち、判定結果が最も高かった特徴情報を選択する(ステップS208)。
そして、特徴情報判定部105が、選択した特徴情報の評価値の各々全てが、予め定められた閾値‘B’以上であるか否かを判定する(ステップS209)。なお、閾値‘B’は実施態様に応じて適切な値が設定されているものとして、説明を省略する。予め定められた閾値‘B’以下の評価値が1つもない場合(ステップS209:Yes)、ステップS211に進む。
予め定められた閾値‘B’以下の評価値が1つでもあった場合(ステップS209:No)、修正部106が、判定値を高くするための修正を行う(ステップS210)。
その後、出力部107が、特徴情報を、画像データと対応付けて、照合用顔情報データベースに登録する(ステップS211)。
次に、本実施形態にかかる特徴情報判定部105における、評価値の算出処理について説明する。図3は、本実施形態にかかる特徴情報判定部105における上述した処理の手順を示すフローチャートである。
まず、特徴情報判定部105は、顔特徴情報抽出部104から、顔の特徴情報と、当該特徴情報の抽出元の画像データを入力処理する(ステップS301)。なお、入力処理された画像データのうち、顔検出部103により検出された顔の領域も入力処理する。
そして、特徴情報判定部105は、画像データについて画質評価値を算出する(ステップS302)。本実施形態では、画質評価値を算出するための評価基準として、コントラスト、色の分布を用いる。例えば、特徴情報判定部105は、コントラストの評価のために、コントラスト比が以下に示す式(1)を満たすか否かを判定する。
θcont1<(Lmax−Lmin)/(Lmax+Lmin)<θcont2……(1)
なお、Lmaxは、顔の領域に含まれている最大輝度値であり、Lminは、顔の領域に含まれている最小輝度値とする。θcont1、θcont2は、あらかじめ定めた閾値とする。
画質の評価する他の例としては、特徴情報判定部105が、顔の領域の色の頻度を抽出し、平均や分散がある閾値の範囲を満たすか否かの判定を行う。さらには、照度が極端に不十分のため画面全体が黒いか否かを判定しても良い。そして、特徴情報判定部105が、これらの判定結果を画質評価値として出力する。
次に、特徴情報判定部105が、顔検出評価値を算出する(ステップS303)。本実施形態では、顔検出評価として、顔検出の位置ずれが生じていないか否かを判定する。図4は、顔検出の位置ずれを示した図である。図4に示す例では、領域401が顔の領域として誤検出されたものとする。
そこで、本実施形態では特徴情報判定部105は、顔特徴情報抽出部104が抽出した顔の特徴的な部位の位置(特徴点)が、顔検出部103が検出した顔の領域に含まれているか否かに基づいて判定する。検出された特徴点の数が、閾値よりも多い場合に、顔の領域として検出された位置がずれていると判定する。そして、特徴情報判定部105は、当該判定結果を、顔検出評価値として出力する。
さらに、特徴情報判定部105は、左右対称性評価値、及び位置整合性評価値を算出する(ステップS304)。
左右対称性評価値とは、両目のように左右対称なものが、顔特徴情報抽出部104により適切に左右対称に抽出されているか否かを判定した値とする。図5は、検出された両目の特徴点が位置ずれを生じている例を示した図である。本実施形態では、特徴情報判定部105は、顔検出枠の中心をとおる直線503を基準として、左右の部品が線対称に配置されているかどうかを確認する。図5に示す例では、右目の特徴点501であり、左眼の特徴点502であり、直線503からの距離が異なることが確認できる。具体的には、特徴情報判定部105は、以下の式(2)を用いて判定する。なお、変数nは、顔から検出された顔特徴点の個数とする。w_1、……、w_nは、重みパラメータとする。
w_1||x_1―y_1||^2+・・・+w_n||x_n―y_n||^2<θmirr……(2)
x_1、……、x_nは、上記の直線503で、顔を2分したときに第1の片側(例えば左側)にある特徴点の座標とする。y_1、……、y_nは、上記の直線503で顔を2分したときに第2の片方側(例えば右側)にある特徴点の座標を、直線503を基準に第1の片側に鏡映させた座標とする。つまり、左右の特徴点が、左右対称に配置されている場合、例えばx_1―y_1=‘0’となる。θmirrは、予め定められた閾値とする。
なお、座標のずれはユークリッド距離で測ってもよいし、他の1ノルムなどの距離で測ってもよい。重みパラメータは、検出しやすい部品(例えば、眼)のみに値を設定してもよい。このように、適切な重み付けを行うことで、判定精度を向上させることができる。
また、特徴情報判定部105は、画像データにおける各特徴点の位置の平均値mを用いて、各特徴点が平均値からずれが閾値内であるか否かの整合性を確認しても良い。平均値mは、以下に示す式(3)から算出される。
m=(x_1+・・・+x_n)/n……(3)
そして、特徴情報判定部105は、以下に示す式(4)で、平均からのずれがある閾値内であるか否かの整合性を確認する。
Max{||x_1―m||……||x_n―m||}<θave……(4)
また、特徴情報判定部105は、各特徴点の相対的な位置関係から整合性を確認してもよい。n個の特徴点からk個(k=1、……、n)の特徴点を選択して(なお、説明を容易にするために、選択されたk個の特徴点は、x_1〜x_kとする)、以下に示す式(5)で選択された特徴点における全ての組み合わせについて相対的な位置関係を示したベクトルを算出する。
x_1―x_2、……、x_1―x_k、……、x_k―x_{k−1}……(5)
式(5)で算出されたベクトルの個数は、k(k−1)/2となる。また、ベクトルの値を確率変数とする確率分布を、予め用意された学習データに基づいて推定し、当該推定結果に基づいて閾値θprobを設定しておき、特徴情報判定部105が、以下に示す式(6)を用いて不整合があるか否かを判定し、整合性評価値として出力する。
Pr(x_1―x_2、……、x_1―x_k、……、x_k―x_{k―1})<θprob……(6)
式(6)により、特徴点の相対的位置がありそうにない配置にある場合、不整合として判定され、当該判定結果に基づく評価値が出力される。
次に、特徴情報判定部105は、平均顔モデルとの間の類似度に基づいた類似度評価値を算出する(ステップS305)。本実施形態にかかる類似度の算出では、典型的な顔画像の平均モデル(平均顔)をh個予め求めておく。そして、特徴情報判定部105は、これら平均モデルとの間の類似度s_1、・・・、s_hを算出する。その後、特徴情報判定部105が、以下に示す式(7)の判定を行う。
max{s_1、……、s_k}<θs……(7)
そして、特徴情報判定部105は、式(7)を満たした場合に、平均的な顔のいずれとも類似していないため、検出処理が正しくないものとして、類似度評価値を出力する。
本実施形態にかかる特徴情報判定部105は、画質評価、顔検出評価、左右対称性評価、位置整合性評価、相対位置整合性評価、類似度評価のそれぞれから算出された評価値をA_1、……、A_mと設定する。そして、設定された評価値に基づいて、検出処理の最終的な評価値zを以下に示す式(8)から算出する。
z=c_1・A_1+……+c_m・A_m……(8)
重みc_1、……、c_mは、あらかじめ用意した特徴点の検出が正しい顔画像と検出結果、特徴点の検出が間違っている顔画像と検出結果といった学習データをもとに回帰分析などの手法から定めても良い。また、一部の項目のみに注目する場合、無視する項目iの値に対応する重みc_iに‘0’を設定しても良い。
評価値zは、それぞれの項目の閾値を満たさない場合、‘−∞’が設定される。そして、特徴情報判定部105は、評価値zが、閾値θzを超えないと判定した場合、修正部106に対して特徴点や画質などの修正を要求する。
次に、本実施形態にかかる修正部106における、修正処理について説明する。図6は、本実施形態にかかる修正部106における上述した処理の手順を示すフローチャートである。図6に示す処理の手順では、判定及び修正を自動で行う例について説明するが、判定及び修正を手動で行っても良い。さらには、顔検出ずれの修正のみ手動で行い、他の修正は自動で行うなども考えられる。図7は、検出結果を修正するためのインターフェース画面の例を示した図である。図7に示す画面を参照して、ユーザが修正を行っても良い。その際に、評価値が低くなった原因の特徴点を入力ガイド701として示しても良い。そして、ユーザが修正を行う度に、特徴情報判定部105が抽出精度を判定し、判定結果を欄702に表示する。これにより、手動で修正する場合、ユーザはマウスやキーボードを操作して修正した場合に、画面に表示される判定結果である数値を目視しながら、修正作業を行うことができる。
図6に戻り、修正部106が自動で行う例について説明する。まず、修正部106は、画質評価値を閾値以下であるか否かを判定する(ステップS601)。閾値より大きい場合(ステップS601:No)、ステップS603まで特に処理を行わない。
そして、修正部106が、画質評価値を閾値以下であると判定した場合(ステップS601:Yes)、画像データを修正する(ステップS602)。修正手法としては、画像データの階調調整、コントラスト伸張、明度変更等がある。他の画質の補正としては、回転補正、拡大縮小処理もできる。
その後、修正部106が、顔検出評価値が閾値以下であるか否かを判定する(ステップS603)。閾値より大きいと判定された場合(ステップS603:No)、ステップS605まで処理を行わない。
そして、修正部106が、顔検出評価値が閾値以下であると判定した場合(ステップS603:Yes)、修正部106が、顔領域を修正する(ステップS604)。
その後、修正部106が、左右対称性評価値、位置整合性評価値、及び類似度評価値のうちいずれか1つ以上が閾値以下であるか否かを判定する(ステップS605)。全て閾値より大きいと判定された場合(ステップS605:No)、処理を終了する。
そして、修正部106が、左右対称性評価値、位置整合性評価値、及び類似度評価値のうちいずれか1つ以上が閾値以下であると判定した場合(ステップS605:Yes)、修正部106が、顔の特徴点を修正する(ステップS606)。
上述した処理手順により、各種修正が行われる。自動修正処理では、全ての修正が終了した後、特徴情報判定部105により、適切であると判断された場合は、照合用情報データベース106に登録し、適切ではないと判断された場合、さらにユーザによる手動の修正処理を行う。
また、本実施形態にかかる生体情報処理装置100の出力部107は、識別結果を目視判断できるように、顔特徴情報に対して、撮影された顔の画像データを1枚若しくは複数枚、又は動画を対応付けて出力しても良い。
(第1の実施形態の変形例)
本実施形態では、N種類の検出パラメータを用いて、抽出された特徴情報のうち、最も評価値が高いものを選択した。しかしながら、特徴情報の抽出手法を、このような手法に制限するものではない。図8は、変形例にかかる顔特徴情報抽出部104の特徴点の抽出手法を示した図である。
図8に示すように、顔特徴情報抽出部104は、N種類の検出パラメータを用いて抽出されたN種類の特徴情報を抽出する。その後、顔特徴情報抽出部104は、抽出されたN種類の特徴情報に対して平均処理し、平均化された特徴情報を抽出する。
さらに、本実施形態と部位の位置の特定手法と異なる手法として、特徴点の一部から顔の部品モデルを適用して、他の部品位置を推定する手法を用いても良い。
以上の説明から、本実施形態にかかる生体情報処理装置100は、顔認証用画像のような生体情報に基づいた特徴情報を、大量にデータベースに登録する際、特徴情報の抽出精度について判定を行ってみるため、良質な特徴情報を効率よく登録することが可能となった。これにより、登録された特徴情報による照合精度の低下を軽減できる。
(第2の実施形態)
第2の実施形態では、テスト用の顔画像データを入力し、入力された顔画像データを用いて、照合用顔情報データベースの特徴情報の検証を行う例とする。
図9は、第2の実施形態にかかる生体情報処理装置の構成を示すブロック図である。本実施形態にかかる生体情報処理装置900は、上述した第1の実施形態にかかる生体情報処理装置100とは、テスト画像入力部901と、特徴点摂動部902とが追加され、特徴情報判定部105とは処理が異なる類似度判定部905に変更され、顔検出部103及び顔特徴情報抽出部104と処理が異なる顔検出部903及び顔特徴情報抽出部904に変更されている点で異なる。以下の説明では、上述した第1の実施形態と同一の構成要素には同一の符号を付してその説明を省略している。
顔検出部903及び顔特徴情報抽出部904は、パラメータ設定部102によるパラメータの設定がない点を除いて、第1の実施形態にかかる顔検出部103及び顔特徴情報抽出部104と同様とする。
つまり、カメラ150で撮影された画像データは、入力部101で入力され、顔検出部903で顔領域が検出され、顔特徴情報抽出部104で特徴情報が抽出され、必要に応じて修正部106による手動又は自動による修正が行われた後、出力部107から照合用顔情報データベース160に特徴情報と共に登録される。
本実施形態では、N種類の特徴情報を生成せずに、1種類の特徴情報を生成する例とする。その代わりに、本実施形態にかかる生体情報処理装置900は、テスト用の顔画像データから、わざと誤った特徴情報を生成し、この特徴情報と、既に登録されている特徴情報を比較することで、すでに登録されている特徴情報の抽出精度の判定を行う例とする。
本実施形態は顔から特徴情報を抽出する例について説明するが、顔に特化した処理ではなく、さまざまな生体情報が表された画像データから人物検索を行う手法に適用できる。生体情報としては、虹彩、網膜、手や指の静脈パターン、指紋パターン、又は目や耳や口の状態等がある。以降の実施形態についても同様とする。
テスト画像入力部901が、テスト用の顔画像データを入力処理する。
特徴点摂動部902は、テスト用の顔画像データから、手動または自動で検出した特徴点の位置を摂動させる。図10は、特徴点摂動部902による特徴点の摂動を示した図である。図10に示すように、特徴点摂動部902は、正しく検出された特徴点群1001に基づいて、当該位置と異なる位置を特徴点とした特徴点群を、複数種類設定する(図10で示す例では、P種類)。
摂動の手法としては、入力の各特徴点座標Xnについて、ガウス分布などの確率分布にしたがう確率変数Enによって、Xn+Enのようにランダムに摂動させることが考えられる。さらに、他の確率分布でもよいし、手動で摂動させてもよい。
顔特徴情報抽出部904は、さらに、特徴点摂動部902により摂動された特徴点群毎に、特徴情報を抽出する。
類似度判定部905は、照合用顔情報データベース160に登録されている特徴情報と、摂動させた特徴点に基づいて生成された特徴情報と、を比較して、照合用顔情報データベース160に登録されている特徴情報の抽出精度を判定する。
本実施形態にかかる類似度判定部905では、照合用顔情報データベース160に登録されている特徴情報において、摂動させた特徴点に基づいた特徴情報と比較し、類似度が予め定められた閾値以上の場合には、誤って抽出された特徴情報と判定する。つまり、誤った特徴情報と類似しているので、照合用顔情報データベース160に登録されている特徴情報も同様の誤りが生じている可能性が高いものと考えることができる。
そして、誤っていると判定された照合用顔情報データベース160に登録されている特徴情報は、修正部106で修正を行う。
次に、本実施形態にかかる生体情報処理装置900における、特徴情報間の類似度判定処理について説明する。図11は、本実施形態にかかる生体情報処理装置900における上述した処理の手順を示すフローチャートである。
まず、テスト画像入力部901が、テスト用の顔画像データを入力処理する(ステップS1101)。次に、特徴点摂動部902が、入力処理されたテスト用の顔画像データから検出された特徴点を摂動する(ステップS1102)。
その後、顔特徴情報抽出部904が、摂動された特徴点に基づいた特徴情報を生成する(ステップS1103)。
そして、類似度判定部905が、変数iが照合用顔情報データベース160に登録されている人数以下であるか否かを判定する(ステップS1104)。なお、変数iの初期値は、‘0’とする。
そして、類似度判定部905は、変数iが登録されている人数以下と判定した場合(ステップS1104:Yes)、i番目に登録されている人物の特徴情報と、摂動された特徴点に基づいた特徴情報と、の間の類似度を算出する(ステップS1105)。摂動された特徴点に基づいた特徴情報をp種類生成した場合には、それぞれについて類似度を算出する。
その後、類似度判定部905は、算出した類似度が予め定められた閾値A以下であるか否かを判定する(ステップS1106)。閾値A以下であると判定した場合(ステップS1106:Yes)、再びステップS1104から処理を行う。
一方、類似度判定部905が、閾値Aより大きいと判定した場合(ステップS1106:No)、修正部106による修正処理を行う(ステップS1107)。なお、修正処理は、第1の実施形態と同様として説明を省略する。
ステップS1104で、類似度判定部905は、変数iが登録されている人数より大きいと判定した場合(ステップS1104:No)、出力部107が、修正部106により修正された特徴情報を用いて、照合用顔情報データベース160を更新する(ステップS1108)。
上述した処理手順により、照合用顔情報データベース160に登録されている特徴情報のうち、抽出が誤っているものを検出し、修正することが可能となる。これにより、照合精度を向上させることが可能となった。
第1〜第2の実施形態によれば、上述した構成を備えることで、顔の特徴情報の抽出精度を認識できる。これにより、抽出精度を高めるための修正等を行うことができる。
(第3の実施形態)
図12は、第3の実施形態にかかる生体情報処理装置1200の構成を示すブロック図である。本実施形態にかかる生体情報処理装置1200は、上述した第2の実施形態にかかる生体情報処理装置900とは、入力部101、特徴点摂動部902、顔検出部903、類似度判定部905が削除され、照合履歴判定部1201が追加される点で異なる。以下の説明では、上述した第2の実施形態と同一の構成要素には同一の符号を付してその説明を省略している。
テスト画像入力部901は、照合テストに用いる顔画像データを入力処理する。
照合履歴判定部1201は、検索順位の履歴に基づいた特徴情報の抽出精度の判定を行う。
次に、本実施形態にかかる生体情報処理装置1200における、特徴情報の抽出精度の判定処理について説明する。図13は、本実施形態にかかる生体情報処理装置1200における上述した処理の手順を示すフローチャートである。なお、照合回数iの初期値は‘0’とする。
まず、テスト画像入力部901が、顔画像データを入力処理する(ステップS1301)。次に、照合履歴判定部1201が、照合回数iが、閾値以下であるか否かを判定する(ステップS1302)。
照合履歴判定部1201が、照合回数iが、閾値以下であると判定した場合(ステップS1302:Yes)、顔特徴情報抽出部904が、入力処理された顔画像データから、特徴情報を抽出する(ステップS1303)。
次に、照合履歴判定部1201が、照合用顔情報データベース160に登録されている特徴情報毎に、ステップS1303で抽出された特徴情報との類似度を算出する(ステップS1304)。
そして、照合履歴判定部1201が、算出された類似度に従って、照合用顔情報データベース160に登録されている各特徴情報について類似順位を特定する(ステップS1305)。
さらに、照合履歴判定部1201が、所定の閾値A以下の類似順位の特徴情報について、当該類似順位を保存する(ステップS1306)。その後、再びステップS1301から処理を行う。
一方、ステップS1302において、照合履歴判定部1201が、照合回数iを、閾値より大きいと判定した場合(ステップS1302:No)、類似順位の特定処理を終了して、ステップS1307に進む。
そして、照合履歴判定部1201は、変数kが照合用顔情報データベース160の登録数以下であるか否かを判定する(ステップS1307)。なお、変数kの初期値は‘0’とする。
照合履歴判定部1201は、変数kが照合用顔情報データベース160の登録数以下であると判定した場合(ステップS1307:Yes)、データkについて照合順位が閾値A以下の回数が、閾値B回以上あったか否かを判定する(ステップS1308)。閾値B回でないと判定した場合(ステップS1308:No)、変数kに‘1’加算して、ステップS1307から処理を行う。
照合履歴判定部1201が、閾値B回以上であると判定した場合(ステップS1308:Yes)、修正部106による修正を行う(ステップS1309)。
一方、照合履歴判定部1201は、変数kが照合用顔情報データベース160の登録数より大きいと判定した場合(ステップS1307:No)、処理を終了する。
本実施形態にかかる生体情報処理装置1200では、上述した構成を備えることで、照合用顔情報データベース160の異常なデータを検知・修正し、照合精度を高めることができる。
(第4の実施形態)
図14は、第4の実施形態にかかる生体情報処理装置1400の構成を示すブロック図である。本実施形態にかかる生体情報処理装置1400は、上述した第2の実施形態にかかる生体情報処理装置900とは、テスト画像入力部901が処理の異なる特徴情報入力部1401に変更され、照合履歴判定部1201と処理が異なる照合結果判定部1402に変更され、顔特徴情報抽出部904が削除されている点で異なる。以下の説明では、上述した第2の実施形態と同一の構成要素には同一の符号を付してその説明を省略している。
本実施形態は、照合用顔情報データベース160に登録されている画像データの特徴情報間で、類似度に基づいた判定を行う例とする。
特徴情報入力部1401は、照合用顔情報データベース160から画像データ及び特徴情報を入力処理する。
そして、照合結果判定部1402が、照合用顔情報データベース160の画像データの特徴情報の間の類似度を算出し、当該類似度に基づいて、特徴情報の抽出精度を判定する。なお、比較対象となるのは、照合用顔情報データベース160間のすべてのまたは一部のペアとする。
次に、本実施形態にかかる生体情報処理装置1400における、特徴情報の抽出精度の判定処理について説明する。図15は、本実施形態にかかる生体情報処理装置1400における上述した処理の手順を示すフローチャートである。なお、照合回数iの初期値は‘0’とする。
まず、特徴情報入力部1401が、照合用顔情報データベース160から、画像データと当該画像データと対応付けられた特徴情報を入力処理する(ステップS1501)。なお、本実施形態は、生体情報処理装置1400が、照合用顔情報データベース160を備えている例について説明するが、照合用顔情報データベース160が、生体情報処理装置1400の外部に設けられていてもよい。なお、変数iの初期値は‘0’とする。
次に、照合結果判定部1402が、変数iが照合用顔情報データベース160の登録数以下か否かを判定する(ステップS1502)。
照合結果判定部1402が、変数iを照合用顔情報データベース160の登録数以下と判定した場合(ステップS1502:Yes)、変数jを照合用顔情報データベース160の登録数以下であるか否かを判定する(ステップS1503)。
照合結果判定部1402が、変数jを照合用顔情報データベース160の登録数以下であると判定した場合(ステップS1503:Yes)、照合用顔情報データベース160のi番目の画像データの特徴情報と、照合用顔情報データベース160のj番目の画像データの特徴情報と、の間の類似度を算出する(ステップS1504)。
その後、照合結果判定部1402は、算出した類似度が予め定められた閾値B以上であるか否かを判定する(ステップS1505)。閾値Bより小さいと判定した場合(ステップS1505:No)、変数jに1追加して、ステップS1503から処理を行う。
一方、照合結果判定部1402は、算出した類似度が予め定められた閾値B以上であると判定した場合(ステップS1505:Yes)、i番目の画像データの類似回数、及びj番目の画像データの類似回数を1増加させる(ステップS1506)。その後、変数jに‘1’追加して、ステップS1503から処理を行う。なお、類似回数は、画像データ毎に保持し、初期値を‘0’とする。
そして、ステップS1503で、照合結果判定部1402が、変数jを照合用顔情報データベース160の登録数より大きいと判定した場合(ステップS1503:No)、変数iに‘1’追加してステップS1502から処理を行う。
さらに、ステップS1502で、照合結果判定部1402が、変数iが照合用顔情報データベース160の登録数より大きいと判定した場合(ステップS1502:No)、画像データそれぞれについて算出された類似回数を参照し、当該類似回数が閾値C以下の画像データについて、修正部106による修正が行われる(ステップS1507)。
上述した処理手順により、照合用顔情報データベース160内の異常なデータを検知・修正し、照合精度を高めることが可能となる。
なお、本実施形態では、1つのデータベース内の特徴情報の類似を判定する場合について説明したが、複数のデータベース相互間で特徴情報の類似を判定しても良い。
以上説明したとおり、第1から第4の実施形態によれば、顔認証用画像のような生体情報を大量にデータベースに登録する際に、特徴情報の検出結果の確認と修正を自動的に行うことによって、良質なデータベースを効率よく登録することが可能となり、照合時の誤報を軽減することができる。また、すでにデータベースに登録されてしまっている大量の生体情報についても、特徴情報の検出結果の確認と修正を自動的に行うことによって、照合時の誤報を軽減することが可能となる。
図16は、上述した実施形態にかかる生体情報処理装置のハードウェア構成を示した図である。図16に示すように、上述した実施形態の生体情報処理装置は、CPU1601と、ROM(Read Only Memory)1602と、RAM1603と、HDD1604と、ディスプレイ装置などの表示装置1605と、キーボードやマウスなどの入力装置1606を備えており、通常のコンピュータを利用したハードウェア構成となっている。
上述した実施形態にかかる生体情報処理装置で実行される生体情報処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、上述した実施形態の生体情報処理装置で実行される生体情報処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、上述した実施形態の生体情報処理装置で実行される生体情報処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、上述した実施形態の生体情報処理装置で実行される生体情報処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本実施形態の上述した実施形態の生体情報処理装置で実行される生体情報処理プログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU1601が上記記憶媒体から生体情報処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各構成がRAM1603上に生成されるようになっている。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
(付記1)
画像情報から、人物が表示されている領域を検出する領域検出手段と、前記画像情報から、前記領域検出手段で検出された前記領域から、人物の特徴的な部位に基づいた特徴情報を抽出する特徴抽出手段と、前記特徴抽出手段で抽出された前記特徴情報に対して、人物の特徴的な部位が抽出できたか否かを示した抽出精度を、前記特徴的な部位の位置に基づいて判定する判定手段と、を備えた生体情報処理装置。
(付記2)
前記判定手段は、さらに、前記人物の特徴的な部位が表された複数の位置について、所定の基準からの対称性を算出し、当該対称性に基づいて、前記抽出精度を判定する、付記1に記載の生体情報処理装置。
(付記3)
前記判定手段により判定された前記抽出精度が所定の閾値をより低い場合に、前記画像情報を修正する修正手段を、さらに備え、前記特徴抽出手段は、修正された前記画像情報から、特徴情報を抽出し、前記判定手段は、さらに、前記修正手段により修正された前記特徴情報に基づいて判定を行う、付記1又は2に記載の生体情報処理装置。
(付記4)
前記修正手段は、前記画像情報に対するコントラスト伸長、拡大・縮小、若しくは回転補正、又は前記画像情報に含まれている人物の特徴的な部位の位置の修正を行う、付記3に記載の生体情報処理装置。
100、900、1200、1400…生体情報処理装置、101…入力部、102…パラメータ設定部、103、903…顔検出部、104、904…顔特徴情報抽出部、105…特徴情報判定部、106…修正部、107…出力部、108…類似度判定部、150…カメラ、160…照合用顔情報データベース、901…テスト画像入力部、902…特徴点摂動部、905…類似度判定部、1201…照合履歴判定部、1401…特徴情報入力部、1402…照合結果判定部

Claims (10)

  1. 画像情報から、人物が表示されている領域を検出する領域検出手段と、
    前記画像情報から、前記領域検出手段で検出された前記領域から、人物の特徴的な部位に基づいた特徴情報を抽出する特徴抽出手段と、
    前記特徴抽出手段で抽出された前記特徴情報に対して、人物の特徴的な部位が抽出できたか否かを示した抽出精度を、前記特徴的な部位の位置に基づいて判定する判定手段と、
    を備えた生体情報処理装置。
  2. 予め用意された、人物が表示された比較用画像情報を記憶する人物画像記憶手段を、さらに備え、
    前記判定手段は、前記人物の特徴的な部位の位置を基準として、前記画像情報から人物が表示された領域を抽出した正規化画像情報を生成し、生成された前記正規化画像情報と、前記人物画像記憶手段に記憶された前記比較用画像情報と、の比較から、前記抽出精度を判定する、
    請求項1に記載の生体情報処理装置。
  3. 前記判定手段は、さらに、前記人物の特徴的な部位の各位置に基づく前記画像情報の重心、及び前記位置間の距離のうち少なくとも1つ以上を算出し、算出された前記重心及び前記距離のうち少なくとも1つ以上が予め定められた閾値より高いか否かに基づいて、前記抽出精度を判定する、
    請求項1に記載の生体情報処理装置。
  4. 前記判定手段は、前記特徴抽出手段で抽出された前記特徴情報の抽出精度を、前記特徴的な部位が検出された位置と異なる位置を特徴として生成された比較用特徴情報との比較で判定する、
    請求項1乃至3のいずれか1つに記載の生体情報処理装置。
  5. 前記特徴抽出手段は、前記領域検出手段で検出された前記領域に含まれている、前記人物の顔、口、虹彩、網膜、耳、人体の一部の静脈形状、指紋又は掌紋が表された位置に基づいた特徴情報を抽出する、
    請求項1乃至4のいずれか1つに記載の生体情報処理装置。
  6. 前記領域検出手段が検出の対象とする前記画像情報は、撮像手段により撮像された画像情報、又は人物の認証に用いる記憶手段に記憶されていた前記画像情報である、
    請求項1乃至5のいずれか1つに記載の生体情報処理装置。
  7. 予め用意された画像情報から抽出された、人物の特徴的な部分が表された位置に基づいた認証用特徴情報を記憶する記憶手段と、
    画像情報に含まれている人物の特徴的な部分が表された位置に基づいた特徴情報と、前記記憶手段に記憶された前記認証用特徴情報との類似度を算出し、当該類似度から前記認証用特徴情報の抽出精度を判定する類似度判定手段と、
    を備える生体情報処理装置。
  8. 入力された前記画像情報に含まれている人物の特徴的な部分が表された位置に基づいた特徴情報を抽出する特徴抽出手段をさらに備え、
    前記類似度判定手段は、前記特徴抽出手段により抽出された前記特徴情報と、前記記憶手段に記憶された前記認証用特徴情報との類似度を算出する、
    請求項7に記載の生体情報処理装置。
  9. 前記類似度判定手段は、前記記憶手段に記憶された前記認証用特徴情報の各々と、前記特徴抽出手段により抽出された前記特徴情報との類似度を算出し、算出した類似度から、前記記憶手段に記憶されている前記認証用特徴情報の、抽出された前記特徴情報との間の類似順を特定し、当該類似順から、前記認証用特徴情報の抽出精度を判定する、
    請求項7又は8に記載の生体情報処理装置。
  10. 前記類似度判定手段は、前記記憶手段に記憶された前記認証用特徴情報と、前記記憶手段に記憶された前記認証用特徴情報との類似度を算出し、当該類似度から前記認証用特徴情報の抽出精度を判定する、
    請求項7に記載の生体情報処理装置。
JP2012061976A 2012-03-19 2012-03-19 生体情報処理装置 Active JP6026119B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012061976A JP6026119B2 (ja) 2012-03-19 2012-03-19 生体情報処理装置
US13/614,377 US9684850B2 (en) 2012-03-19 2012-09-13 Biological information processor
KR1020120101330A KR101381455B1 (ko) 2012-03-19 2012-09-13 생체 정보 처리 장치
MX2012010637A MX2012010637A (es) 2012-03-19 2012-09-14 Procesador de informacion biologica.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061976A JP6026119B2 (ja) 2012-03-19 2012-03-19 生体情報処理装置

Publications (2)

Publication Number Publication Date
JP2013196295A true JP2013196295A (ja) 2013-09-30
JP6026119B2 JP6026119B2 (ja) 2016-11-16

Family

ID=49157698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061976A Active JP6026119B2 (ja) 2012-03-19 2012-03-19 生体情報処理装置

Country Status (4)

Country Link
US (1) US9684850B2 (ja)
JP (1) JP6026119B2 (ja)
KR (1) KR101381455B1 (ja)
MX (1) MX2012010637A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088099A (ja) * 2013-11-01 2015-05-07 ソニー株式会社 情報処理装置および情報処理方法
WO2019003973A1 (ja) * 2017-06-26 2019-01-03 日本電気株式会社 顔認証装置、顔認証方法およびプログラム記録媒体
US10515457B2 (en) 2016-09-20 2019-12-24 Kabushiki Kaisha Toshiba Image collation system and image collation method
JP2020184331A (ja) * 2019-05-02 2020-11-12 三星電子株式会社Samsung Electronics Co.,Ltd. ライブネス検査方法及び装置、顔認証方法及び装置
JP2020198123A (ja) * 2016-12-12 2020-12-10 日本電気株式会社 情報処理装置、遺伝情報作成方法及びプログラム
WO2021131029A1 (ja) * 2019-12-27 2021-07-01 日本電気株式会社 フィルタ生成装置、推定装置、顔認証システム、フィルタ生成方法および記録媒体
WO2021199292A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 表示制御装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
CN113554179A (zh) * 2020-04-23 2021-10-26 丰田自动车株式会社 信息处理系统

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120118383A (ko) * 2011-04-18 2012-10-26 삼성전자주식회사 이미지 보정 장치 및 이를 이용하는 이미지 처리 장치와 그 방법들
WO2013136484A1 (ja) * 2012-03-15 2013-09-19 Necディスプレイソリューションズ株式会社 画像表示装置及び画像表示方法
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
RU2014111792A (ru) * 2014-03-27 2015-10-10 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания лиц на основании преобразования двухмерной решетки
KR102077260B1 (ko) * 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
US9703805B2 (en) * 2015-05-29 2017-07-11 Kabushiki Kaisha Toshiba Individual verification apparatus, individual verification method and computer-readable recording medium
CN106484704A (zh) * 2015-08-25 2017-03-08 中兴通讯股份有限公司 一种图片处理方法及装置
EP3499455A4 (en) * 2016-08-08 2019-07-10 Panasonic Intellectual Property Management Co., Ltd. INTERCLASSE AND METHOD FOR DISPLAYING COLLATION RESULT
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN106446831B (zh) * 2016-09-24 2021-06-25 江西欧迈斯微电子有限公司 一种人脸识别方法及装置
KR102524674B1 (ko) * 2016-12-14 2023-04-21 삼성전자주식회사 전자 장치 및 그의 알림 서비스 제공 방법
FR3060170B1 (fr) * 2016-12-14 2019-05-24 Smart Me Up Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif
WO2018128015A1 (ja) * 2017-01-05 2018-07-12 日本電気株式会社 不審度推定モデル生成装置
US10475222B2 (en) * 2017-09-05 2019-11-12 Adobe Inc. Automatic creation of a group shot image from a short video clip using intelligent select and merge

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
JP2008117333A (ja) * 2006-11-08 2008-05-22 Sony Corp 情報処理装置、情報処理方法、個人識別装置、個人識別装置における辞書データ生成・更新方法および辞書データ生成・更新プログラム
JP2008530701A (ja) * 2005-02-21 2008-08-07 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ 顔特徴の検出方法
JP2009211177A (ja) * 2008-02-29 2009-09-17 Canon Inc 特徴点位置決定方法及び装置
WO2011148596A1 (ja) * 2010-05-26 2011-12-01 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
JP2012018593A (ja) * 2010-07-09 2012-01-26 Omron Corp 情報処理装置および方法、並びにプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05225344A (ja) 1992-02-07 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> 物体の画像認識処理方法
JP3735893B2 (ja) * 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
JP2000259278A (ja) * 1999-03-12 2000-09-22 Fujitsu Ltd 生体情報を用いて個人認証を行う認証装置および方法
US6580821B1 (en) * 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
US6567765B1 (en) * 2000-08-17 2003-05-20 Siemens Corporate Research, Inc. Evaluation system and method for fingerprint verification
JP2004118627A (ja) 2002-09-27 2004-04-15 Toshiba Corp 人物認証装置および人物認証方法
JP3846582B2 (ja) * 2002-09-27 2006-11-15 日本電気株式会社 指紋認証方法/プログラム/装置
JP4314016B2 (ja) * 2002-11-01 2009-08-12 株式会社東芝 人物認識装置および通行制御装置
JP3954484B2 (ja) * 2002-12-12 2007-08-08 株式会社東芝 画像処理装置およびプログラム
AU2003289116A1 (en) * 2002-12-16 2004-07-09 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
JP4546168B2 (ja) * 2004-06-28 2010-09-15 富士通株式会社 生体認証システムの登録方法、生体認証システム及びそのプログラム
JP4601380B2 (ja) * 2004-10-08 2010-12-22 富士通株式会社 生体認証システムの登録方法、生体認証システム及びそのプログラム
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム
JP4501937B2 (ja) * 2004-11-12 2010-07-14 オムロン株式会社 顔特徴点検出装置、特徴点検出装置
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
JP4696778B2 (ja) * 2005-08-23 2011-06-08 コニカミノルタホールディングス株式会社 認証装置、認証方法及びプログラム
JP2007087253A (ja) * 2005-09-26 2007-04-05 Fujifilm Corp 画像補正方法および装置
JP4800724B2 (ja) * 2005-09-29 2011-10-26 富士フイルム株式会社 人物画像補正装置、人物画像補正方法および人物画像補正プログラム
EP1821237B1 (en) * 2006-02-15 2010-11-17 Kabushiki Kaisha Toshiba Person identification device and person identification method
KR100780957B1 (ko) * 2006-08-21 2007-12-03 삼성전자주식회사 영상선택 장치 및 방법
KR100909540B1 (ko) * 2006-09-22 2009-07-27 삼성전자주식회사 영상인식 오류 통보 방법 및 장치
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
KR101460130B1 (ko) * 2007-12-11 2014-11-10 삼성전자주식회사 휴대 단말기의 화상 통화 방법 및 장치
JP2009163555A (ja) * 2008-01-08 2009-07-23 Omron Corp 顔照合装置
JP2010040011A (ja) 2008-08-08 2010-02-18 Mitsubishi Electric Corp 指紋特徴情報生成装置、指紋情報登録装置および指紋照合システム
TWI405143B (zh) * 2009-11-27 2013-08-11 Altek Corp 用於辨識的物件影像校正裝置與其方法
JP5792985B2 (ja) * 2011-04-20 2015-10-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5793353B2 (ja) 2011-06-20 2015-10-14 株式会社東芝 顔画像検索システム、及び顔画像検索方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
JP2008530701A (ja) * 2005-02-21 2008-08-07 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ 顔特徴の検出方法
JP2008117333A (ja) * 2006-11-08 2008-05-22 Sony Corp 情報処理装置、情報処理方法、個人識別装置、個人識別装置における辞書データ生成・更新方法および辞書データ生成・更新プログラム
JP2009211177A (ja) * 2008-02-29 2009-09-17 Canon Inc 特徴点位置決定方法及び装置
WO2011148596A1 (ja) * 2010-05-26 2011-12-01 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
JP2012018593A (ja) * 2010-07-09 2012-01-26 Omron Corp 情報処理装置および方法、並びにプログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552467B2 (en) 2013-11-01 2017-01-24 Sony Corporation Information processing device and information processing method
JP2015088099A (ja) * 2013-11-01 2015-05-07 ソニー株式会社 情報処理装置および情報処理方法
US10515457B2 (en) 2016-09-20 2019-12-24 Kabushiki Kaisha Toshiba Image collation system and image collation method
JP2020198123A (ja) * 2016-12-12 2020-12-10 日本電気株式会社 情報処理装置、遺伝情報作成方法及びプログラム
US11842567B2 (en) 2016-12-12 2023-12-12 Nec Corporation Information processing apparatus, genetic information generation method and program
JP7248086B2 (ja) 2016-12-12 2023-03-29 日本電気株式会社 情報処理装置、遺伝情報作成方法及びプログラム
JP2022010253A (ja) * 2016-12-12 2022-01-14 日本電気株式会社 情報処理装置、遺伝情報作成方法及びプログラム
US11210498B2 (en) 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
WO2019003973A1 (ja) * 2017-06-26 2019-01-03 日本電気株式会社 顔認証装置、顔認証方法およびプログラム記録媒体
JPWO2019003973A1 (ja) * 2017-06-26 2020-03-26 日本電気株式会社 顔認証装置、顔認証方法およびプログラム
US11915518B2 (en) 2017-06-26 2024-02-27 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
JP2020184331A (ja) * 2019-05-02 2020-11-12 三星電子株式会社Samsung Electronics Co.,Ltd. ライブネス検査方法及び装置、顔認証方法及び装置
JP7191061B2 (ja) 2019-05-02 2022-12-16 三星電子株式会社 ライブネス検査方法及び装置
US11804070B2 (en) 2019-05-02 2023-10-31 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
WO2021131029A1 (ja) * 2019-12-27 2021-07-01 日本電気株式会社 フィルタ生成装置、推定装置、顔認証システム、フィルタ生成方法および記録媒体
JPWO2021199292A1 (ja) * 2020-03-31 2021-10-07
JP7332037B2 (ja) 2020-03-31 2023-08-23 日本電気株式会社 表示制御装置、方法及びプログラム
WO2021199292A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 表示制御装置、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2021174199A (ja) * 2020-04-23 2021-11-01 トヨタ自動車株式会社 情報処理システム
CN113554179A (zh) * 2020-04-23 2021-10-26 丰田自动车株式会社 信息处理系统
JP7279685B2 (ja) 2020-04-23 2023-05-23 トヨタ自動車株式会社 情報処理システム
CN113554179B (zh) * 2020-04-23 2024-02-09 丰田自动车株式会社 信息处理系统

Also Published As

Publication number Publication date
KR101381455B1 (ko) 2014-04-04
JP6026119B2 (ja) 2016-11-16
US9684850B2 (en) 2017-06-20
MX2012010637A (es) 2013-09-18
KR20130106256A (ko) 2013-09-27
US20130243278A1 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
JP6026119B2 (ja) 生体情報処理装置
Martinez et al. Local evidence aggregation for regression-based facial point detection
US10699102B2 (en) Image identification apparatus and image identification method
US9098760B2 (en) Face recognizing apparatus and face recognizing method
JP6268960B2 (ja) 画像認識装置及び画像認識装置に対するデータ登録方法
EP2955666B1 (en) Image recognition device and method for registering feature data in image recognition device
KR101546137B1 (ko) 인물 인식 장치 및 방법
JP4606779B2 (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
JP5766564B2 (ja) 顔認証装置及び顔認証方法
US11341770B2 (en) Facial image identification system, identifier generation device, identification device, image identification system, and identification system
WO2011102416A1 (ja) 移動物体追跡システムおよび移動物体追跡方法
US20130329970A1 (en) Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method
US20200012887A1 (en) Attribute recognition apparatus and method, and storage medium
US20110013845A1 (en) Optimal subspaces for face recognition
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
US20150205995A1 (en) Personal recognition apparatus that performs personal recognition using face detecting function, personal recognition method, and storage medium
CN110647955A (zh) 身份验证方法
CN111401219B (zh) 一种手掌关键点检测方法和装置
JP2010231254A (ja) 画像解析装置、画像解析方法およびプログラム
JP2019016268A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2009096208A1 (ja) 物体認識システム,物体認識方法および物体認識用プログラム
JP7448006B2 (ja) 物体位置推定装置
JP7348945B2 (ja) 情報処理方法、および、情報処理システム
JP2014191479A (ja) 顔認識装置、撮像装置、制御方法、及びプログラム
KR101441106B1 (ko) 얼굴 검출 및 검증 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161012

R151 Written notification of patent or utility model registration

Ref document number: 6026119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151