JP2015529354A - 顔認識のための方法および装置 - Google Patents

顔認識のための方法および装置 Download PDF

Info

Publication number
JP2015529354A
JP2015529354A JP2015527491A JP2015527491A JP2015529354A JP 2015529354 A JP2015529354 A JP 2015529354A JP 2015527491 A JP2015527491 A JP 2015527491A JP 2015527491 A JP2015527491 A JP 2015527491A JP 2015529354 A JP2015529354 A JP 2015529354A
Authority
JP
Japan
Prior art keywords
face
images
computer
image
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015527491A
Other languages
English (en)
Other versions
JP6030240B2 (ja
JP2015529354A5 (ja
Inventor
キ、インヨン
ビ、ニン
グオ、フェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015529354A publication Critical patent/JP2015529354A/ja
Publication of JP2015529354A5 publication Critical patent/JP2015529354A5/ja
Application granted granted Critical
Publication of JP6030240B2 publication Critical patent/JP6030240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Abstract

顔検出のための装置および方法が開示される。観測された顔の複数の画像が、識別のために受信される。複数の画像のうちの少なくとも2つ以上の選択された画像に基づいて、観測された顔のテンプレートが生成される。いくつかの実施形態では、テンプレートは、複数の受信された画像の特徴ベクトルに基づいて生成された部分空間である。既知の人物のアイデンティティおよび対応する顔データのデータベースが、観測された顔のテンプレートと、既知の人物の顔データとに少なくとも基づいて探索される。既知の人物の1つまたは複数のアイデンティティが、探索に少なくとも基づいて選択される。

Description

[0001] 本開示は、一般的には、画像処理に関する。より具体的には、本開示は、顔認識(facial recognition)に向けられる。
[0002] 技術における進歩は、ますます強力なコンピューティングおよび通信の能力を有する携帯用デバイスをもたらした。例えば、携帯用無線電話、携帯情報端末(PDA)、ラップトップコンピュータ、タブレットパーソナルコンピュータ、イーブックビューアー(eBook viewers)、およびこれに類するものなどの、様々な携帯用コンピューティングデバイスが現在存在している。より具体的には、このようなデバイスの多くは、写真およびビデオを撮るためのデジタル撮像センサ(digital imaging sensors)を含むことができ、また、有線または無線ネットワーク上で音声およびデータパケットを通信することができる。したがって、このような携帯用デバイスは、ビデオおよび画像をダウンロードすることが可能でありうる。1つのインプリメンテーションでは、セルラ電話は、ユーザにとって既知の人物の連絡先リスト(a contact list)を記憶しうる。ユーザはまた、選択された連絡先に写真を選択的に割り当てることが可能でありうる。写真は、セルラ電話上のカメラを用いて画像をキャプチャすることによって、または、インターネットのようなネットワークから適切な写真をダウンロードすることによって、受信されうる。
[0003] さらに、顔認識における進歩は、ある状況においては未知の人物を識別することが可能なシステムをもたらした。これらのシステムは、識別されるべき人物の複数の画像を伴う事前トレーニング(prior training)を実行することを必要としうる。いくつかの例では、トレーニングプロセスは、トレーニングプロセスの正確性を確実にするために、オフラインの方法で実行される。
[0004] 本発明のシステム、方法、およびデバイスは、いくつかの態様をそれぞれ有し、これらのうちのどれ1つとして、単独でその望ましい属性を担うものではない。後続する特許請求の範囲によって示される本発明の範囲を限定することなく、ここでいくつかの特徴が簡潔に説明される。この説明を考慮した後に、また、特に「詳細な説明」と題されたセクションを読んだ後に、当業者であれば、どのように本発明の特徴が、観測された顔(an observed face)の顔認識(facial recognition)を実行するために必要な既知の顔の画像の数を低減させることを含む利点を提供するかを理解するであろう。
[0005] 1つの実施形態は、顔認識の、コンピュータによりインプリメントされる方法である。この方法は、識別のために、観測された顔の複数の画像を受信することと、複数の画像のうちの2つ以上の選択された画像に少なくとも基づいて、観測された顔のテンプレートを生成することと、既知の人物のアイデンティティおよび対応する顔データ(facial data)のデータベースを探索することと、この探索に少なくとも基づいて、既知の人物の1つまたは複数のアイデンティティ(identities)を選択することと、を含みうる。探索することは、観測された顔のテンプレートと、既知の人物の顔データとに少なくとも基づきうる。様々な実施形態では、コンピュータによりインプリメントされる方法は、画像センサを用いて、観測された顔の複数の画像をキャプチャすることをさらに含みうる。データベースの各アイデンティティは、1つの基準画像(reference image)に基づくデータと関連づけられうる。観測された顔のテンプレートを生成することは、複数の画像のうちの2つ以上の選択された画像の特徴ベクトル(feature vectors)に少なくとも基づいて、観測された顔の部分空間(a subspace)を生成することを含みうる。いくつかの実施形態では、特徴ベクトルは、選択された画像の線形バイナリパターンヒストグラム(linear binary pattern histograms)に少なくとも基づきうる。他の実施形態では、特徴ベクトルは、フィルタされた画像ブロックのカスケード(a cascade of filtered image blocks)に少なくとも基づきうる。部分空間は、複数の画像のうちの2つ以上の選択された画像の特徴ベクトルの平均(a mean)と分散(a variance)に関連づけられうる。データベースを探索することは、観測された顔のテンプレートと、既知の人物の対応する顔データのうちの1つまたは複数の各々との間の誤差測定(error measure)を決定することを含むことができ、ここで、誤差測定は、カイ二乗距離(Chi-square distance)に基づくことができる。1つまたは複数のアイデンティティの選択は、誤差測定のしきい値に基づきうる。コンピュータによりインプリメントされる方法のいくつかの実施形態は、観測された顔の向き(orientation)に基づいて、複数の画像のうちの2つ以上の画像を選択することをさらに含みうる。複数の画像のうちの2つ以上の画像の選択は、関心のある顔の特徴(facial feature of interest)にさらに基づきうる。複数の画像のうちの2つ以上の画像の選択は、データベースの顔データの顔の向きにさらに基づきうる。コンピュータによりインプリメントされる方法のいくつかの実施形態は、1つまたは複数の選択されたアイデンティティを示すデータをグラフィカル・ディスプレイに表示すること(displaying on a graphical display data indicative of)をさらに含みうる。コンピュータによりインプリメントされる方法のいくつかの実施形態は、2つ以上の選択されたアイデンティティの選択を確認する(confirm)ようにユーザに促すこと(prompting)と、ユーザの確認(confirmation)に応答して、データベースを更新することと、をさらに含みうる。
[0006] なお別の実施形態は、顔認識装置である。この装置は、画像受信機モジュール(an image receiver module)、テンプレートモジュール、探索モジュール、および認識モジュールを含みうる。画像受信機モジュールは、識別のために、観測された顔の複数の画像を受信するようにプロセッサを構成する命令を含みうる。テンプレートモジュールは、複数の画像のうちの2つ以上の選択された画像に少なくとも基づいて、観測された顔のテンプレートを生成するようにプロセッサを構成する命令を含みうる。探索モジュールは、既知の人物のアイデンティティおよび対応する顔データのデータベースを探索するようにプロセッサを構成する命令を含みうる。
[0007] なお別の実施形態は、命令を記憶した非一時的なコンピュータ可読媒体であって、該命令は実行されると、プロセッサに、識別のために、観測された顔の複数の画像を受信することと、複数の画像のうちの2つ以上の選択された画像に少なくとも基づいて、観測された顔のテンプレートを生成することと、既知の人物のアイデンティティおよび対応する顔データのデータベースを探索することと、この探索に少なくとも基づいて、既知の人物の1つまたは複数のアイデンティティを選択することとの方法を実行させうる。
図1は、1つの実施形態による、既知の人物の1つの基準画像から未知の人物を識別するためのシステムを示すブロック図である。 図2は、複数の画像から未知の人物を識別するためのクライアントサーバシステムの典型的な実施形態を示すブロック図である。 図3は、1つの実施形態による、顔認識の方法のデータフロー図である。 図4は、1つの実施形態による、観測された顔を認識する方法を示すフロー図である。 図5は、1つの実施形態による、顔検出(facial detection)アルゴリズムを用いて処理される画像の例示的な例を示す。 図6Aは、1つの実施形態による、特徴抽出プロセスのフローチャートである。 図6Bは、1つの実施形態による、画素(a pixel)に適用されるLBP動作の例示を示す。 図7は、顔認識システムの典型的な実施形態のフロー図である。
[0016] 本発明の実施形態は、複数の画像から未知の人物を識別するためのシステムおよび方法に関する。1つの実施形態では、システムは、認識されるべき人物の複数の画像をキャプチャして、既知の人物のデータベースからの基準画像と比較されるべき、これら画像からの顔の特徴または人物の顔のパターンを生じさせる(develops)。例えば、部分空間は、人物の顔のいくつかの画像の特徴ベクトルを計算することによって計算されることができ、この部分空間は、既知の人物の基準特徴ベクトル(a reference feature vector)と比較されることができる。1つの実施形態では、このシステムは、セルラ電話のような、携帯用コンピューティングデバイスでインプリメントされうる。例えば、ユーザは、ミーティングに入る同僚(a colleague)のビデオをキャプチャするために、カメラを備えた電話を使用し、この同僚の名前を識別するために、このビデオからのこれらの複数の画像を、電話またはサーバ上に記憶されたデータベースにおける複数の同僚の単一の画像(single images of colleagues)と比較しうる。
[0017] 1つの特定の例では、このシステムは、撮像センサと連絡先(contacts)のデータベースとを備えたハンドヘルド携帯用デバイス上にインプリメントされうる。人物が入室した場合、ユーザは、この人物の複数の画像を撮ることができ、このシステムは、合成画像を生じさせ(develop a composite image)、この合成画像を、それらの連絡先とともに記憶された全ての画像と比較することができる。合成画像が連絡先のデータベース(contact database)における人物と一致した場合には、入室した人物の名前、称号(title)および画像がユーザに対して表示される。これは、ユーザが、各人物の名前を尋ねる必要なしに、ミーティング内の各人物を識別することを可能にする。
[0018] 開示された方法、装置およびシステムは、トレーニングプロセスにおいて1人につき1つの顔画像のみで機能しうる。これは、レガシー顔認識データベースをより良く適応させる(accommodate)ことができ、それは、1人につき1つの基準画像のみを提供することができる。開示された顔認識方法は、認識プロセス中に、未知のまたは観測された人物の1つより多くの顔画像を収集する。複数の画像の収集は、例えば、セル電話などのモバイルデバイスと一体化されたもののような、現代のデジタルカメラのフレームレート(≧毎秒30フレーム)により可能になりうる。これらの複数の顔画像は、観測されたまたは未知の人物の顔画像のテンプレートまたは部分空間を構築するために使用されうる。その後、データベースにおける既知の個人の基準顔データまたは画像は、テンプレートまたは部分空間と比較される。最も近い一致(closest match)を提供する基準画像が、識別および認識されうる。これはまた、例えば、モバイルデバイスのコンピューティングリソースのような、制限されたコンピューティングリソースを有するアプリケーション環境において有用でありうる。
[0019] 顔のテンプレートの例は、それに限定されるものではないが、画像の合成、モデル、パターン、またはコードを形成するために、複数の顔画像を集約(aggregating)または組み合わせた結果を含む。1つの実施形態では、これら画像は、システム内の記憶空間を節約するために、低減された形状で記憶される。複数の画像の部分空間は、テンプレートの一例である。(例えば、プーリング動作(pooling operation)によって)複数の画像を組み合わせるまたは比較することによって形成される画像は、テンプレートの別の例である。
[0020] 顔データの例は、例えば、画像およびテンプレートを含む。1つの実施形態では、顔データは、例えば、動作中に記憶空間または処理を低減させるために、テンプレート形式で基準データベースに記憶される。
[0021] 図1は、1つの実施形態による、既知の人物の1つの基準画像から未知の人物を識別するためのシステム100を示す。システム100は、未知の人物104を識別するための電子デバイス102を含む。電子デバイス102は、プロセッサ112に結合された画像センサ(an image sensor)106と、入力デバイス108と、出力デバイス110とを含む。プロセッサ112はまた、記憶装置114、メモリ116、および通信デバイス118に結合される。メモリ116は、画像受信機モジュール120、部分空間モジュール124、探索モジュール126、認識モジュール128、および入力/出力(I/O)モジュール130を含む。電子デバイス102は、未知の人物104の複数の画像をキャプチャし、ユーザ(図示せず)に対して、この未知の人物のアイデンティティを識別するように構成される。
[0022] 撮像センサ(the imaging sensor)106は、メモリ116の画像受信機モジュール120の特定の命令を実行しているプロセッサ112からの制御に応答して画像をキャプチャおよび供給するように構成される。撮像センサ106の例は、デジタル電荷結合素子(CCD)カメラ、赤外線カメラ、およびこれに類するものを含む。いくつかの実施形態では、図2を参照して以下に説明されるように、撮像センサ106は、オプションであり、未知の人物104の画像は、例えば、記憶装置114またはメモリ116に記憶されて、またそれから取り出され、または入力デバイス108または通信デバイス118から受信される。
[0023] 入力デバイス108は、ディスプレイ、キーパッド、マウス、タッチスクリーン、マイクロフォン、データドライブまたはポート(例えば、携帯用データデバイスのためのユニバーサルシリアルバス(USB)ポートまたは光ディスクドライブ)、または電子デバイス102に入力を提供するように構成されたその他の同様のデバイスを含みうる。例えば、動作中に入力デバイス108は、ユーザが、電子デバイス102のグラフィカルユーザインタフェースを通じて、画像のキャプチャおよび顔認識プロセスを開始することを可能にしうる。さらに、以下に説明されるように、入力デバイス108は、何らかの認識基準を満たす2つ以上の基準画像の間で選択するなど、ユーザが、顔認識プロセスを支援するために追加の入力を提供することを可能にしうる。
[0024] 出力デバイス110は、光ディスプレイ、スピーカ、またはプロセッサ112の制御下で出力を提供するように構成されたその他の同様のデバイスでありうる。動作中、出力デバイス110は、いくつかの実施形態では、既知の人物のデータベース(「基準データベース(reference database)」)の探索の結果を表示しうる。例えば、出力デバイス110は、探索モジュール126および認識モジュール128によって基準データベースから選択された人物の画像およびアイデンティティを表示するように構成されたセルラ電話のディスプレイ画面でありうる。
[0025] 入力デバイス108および出力デバイス110は、プレビュー画像(a preview image)が表示されている間に、顔認識のためにいつデータが収集されるかを制御する(control when data is collected for face recognition)ためのユーザインタフェースを提供しうる。いくつかのインプリメンテーションはまた、認識プロセスが、1つの画像の高い信頼度(high-confidence)の認識をもたらさない場合、ユーザに1つより多くの既知の顔画像を提供しうる。このケースでは、ユーザは、返された画像(returned images)のうちのどれが観測された顔として適正に認識されるかを選択する能力を提供されうる。ユーザはまた、表示された画像のうちのいずれも観測された顔との適正な一致でないことを示すためのオプションを与えられうる。
[0026] プロセッサ112は、メモリ116からの命令を実行して撮像センサ106、入力デバイス108、出力デバイス110、記憶装置114、メモリ116、通信デバイス118を制御および動作するように構成され、かつこれらのデバイスへのおよびこれらのデバイスからのデータの処理を制御するように構成された、マイクロプロセッサまたはマイクロコントローラのような、回路を含む。
[0027] 記憶装置114およびメモリ116は、化学的、磁気的、電気的、光学的、または同様の手段によって情報を記憶するために構成されたメカニズムを含む。例えば、記憶装置114およびメモリ116はそれぞれ、フラッシュメモリまたはハードディスクドライブのような、不揮発性メモリデバイス、または、ダイナミックランダムアクセスメモリ(DRAM)またはスタティックランダムアクセスメモリ(SRAM)のような、揮発性メモリデバイスでありうる。プロセッサ112は、記憶装置114から読み取ることによって、基準データベースにアクセスしうる。図1は、電子デバイスの一部として記憶装置およびメモリを示す。例えば、記憶装置114は、連絡先リストのような、既知の人物の基準データベースを含んでいるセル電話上の不揮発性メモリでありうる。しかしながら、いくつかの実施形態では、図2に関連して説明されるように、記憶装置114はまた、別のデバイス上に遠く離れて位置し、例えば、ネットワーク上で、通信チャネルによってアクセスされうる。
[0028] 通信デバイス118は、未知の人物の画像に関連するデータまたは基準データベースに関連するデータなどのデータを送信および受信するための通信インタフェースをプロセッサ112に提供するように構成された電子機器を含む。例えば、プロセッサ112は、基準データベースの既知の人物のデータに関連する画像または複数の画像を要求するように構成されうる。通信は、コンピュータまたは電気通信ネットワーク上の無線または有線の通信でありうる。
[0029] 画像受信機モジュール120は、複数の画像を受信するようにプロセッサ112を構成する命令を含む。1つの実施形態では、画像は、入力デバイス108から受信されうる。別の実施形態では、画像は、画像をキャプチャする撮像センサ106から直接受信されうる。別の実施形態では、画像は、通信デバイス118を介してネットワーク(図示せず)から受信されうる。なお別の実施形態では、画像は、記憶装置114、メモリ116、または入力デバイス108を介して電子デバイス102と接続されるデータ記憶デバイスなどの、データ記憶装置から画像データをロードすることによって受信されうる、
[0030] メモリ116内には、システムによって受信された画像について、入力またはキャプチャされた画像から1つまたは複数の顔を識別するようにプロセッサ112を構成する命令を含む顔検出モジュール132がある。例えば、顔検出モジュール132は、顔検出、特徴検出、顔画像の正規化、および複数の受信された画像からの2つ以上の画像の選択に関連する命令を含みうる。1つの実施形態では、選択は、正面の顔の向き(a frontal face orientation)のような、対応する画像における顔の向きに基づく。顔検出システムの例は、例えば、2011年2月24日に出願された米国特許出願公開第20110047384号に見られる。
[0031] メモリ116はまた、複数の画像に基づいて顔の特徴の部分空間を生成するようにプロセッサ112を構成する命令を有する部分空間モジュール124を含む。例えば、部分空間モジュール124は、特徴ベクトル化(feature vectorization)、特徴ベクトルプーリングまたは集約(feature vector pooling or aggregation)、およびこれに類することに関連する命令を含みうる。1つの実施形態では、特徴に対応する画像の部分(特徴の関心領域(ROI)(feature regions of interests))は、対応する特徴ROI内の線形バイナリパターン(linear binary patterns)(LBP)のヒストグラム(a histogram)を計算することによって、ベクトルに変換される。別の実施形態では、特徴は、様々な向き(orientations)およびスケールにおいて、ガボールフィルタ(a Gabor filter)によってフィルタされうる。スケールまたは向きごとに、結果は、ベクトルを形成するために(例えば、最大または平均の結果をとることによって)プールされる(pooled)。顔検出および部分空間生成は、図3−図7を参照してより詳細に説明される。
[0032] メモリ116はまた、部分空間モジュール124の命令を実行することによって作成される顔の特徴の部分空間を使用して、既知の顔の基準データベースを探索するようにプロセッサ112を構成する命令を含む探索モジュール126を含む。いくつかの実施形態では、基準データベースは、記憶装置114または入力デバイス108を使用してアクセス可能でありうる。例えば、1つの実施形態では、入力デバイス108は、基準データベースを含んでいる外部記憶デバイスへのインタフェースを含みうる。
[0033] 以下により詳細に説明されるように、動作時に、基準データベースを探索することは、未知の人物の部分空間を、基準データベースからの1つまたは複数の基準画像と比較することを含む。例えば、データベース中の既知の記憶された顔の基準特徴ベクトルが、生成されて、投影誤差(a projection error)を計算するために、未知の顔の部分空間に投影されうる。その後、投影誤差は、基準データベースの各基準特徴ベクトルのために計算されうる。様々な測定(measures)が、投影誤差または部分空間と基準特徴ベクトルの間の距離を計算するために使用されうる。例えば、いくつかの実施形態では、カイ二乗距離が使用されうる。しかしながら、ユークリッドノルム(Euclidean norms)、Lノルム(LP norms)、およびこれに類するものなどの、他の適用可能な測定(measure)が使用されうることが理解されるであろう。
[0034] メモリ116内にはまた、探索の結果に少なくとも部分的に基づいて、複数の記憶された画像における観測対象(an observed subject)を認識するようにプロセッサ112を構成する命令を含む認識モジュール128がある。例えば、最も小さい投影誤差と関連づけられる基準データベースからの画像およびアイデンティティが選ばれ、未知の顔と関連づけられうる。いくつかの実施形態では、基準データベースの2つ以上の画像およびアイデンティティが、ユーザ選択のために選ばれうる。認識モジュール128はまた、一致に関する最大の満足できる(maximum satisfactory)投影誤差を表すしきい値をテストするための命令を含みうる。しきい値を満たさない基準画像は、部分空間との一致と見なされない(not qualify as)。いくつかの実施形態では、適格な(qualifying)基準画像がない状況において、認識モジュールは、プロセッサ112に、出力デバイス110を介して一致する基準画像(matching reference image)がないことを示させうる。
[0035] メモリ116はまた、モジュール128によって実行される認識の結果を出力するようにプロセッサ112を構成する命令を含むI/Oモジュール130とともに示される。特定の出力は、実施形態ごとに異なりうる。出力デバイス110がディスプレイである、いくつかのインプリメンテーションでは、認識出力は、ディスプレイに生成されうる。いくつかの実施形態では、I/Oモジュール130は、通信デバイス118を介してデータを送信または受信するようにプロセッサ112を構成する命令を含みうる。
[0036] 画像受信機モジュール120、部分空間モジュール124、探索モジュール126、認識モジュール128、およびI/Oモジュール130に含まれる命令は、コンピュータ可読媒体上に記憶されうる。例えば、記憶装置114は、モジュール120、124、126、128、130、132に含まれる命令を記憶しうる。
[0037] 顔認識のための電子デバイス102が示され、単一の電子デバイス102で具現化される(embodied)として、主に上述されてきた。1つの実施形態では、電子デバイス102は、素早い顔認識を達成しうる。例えば、プロセッサ112および記憶装置114は、高速データレートを提供するデータチャネルによって接続されうる。追加または代替として、1つの実施形態では、電子デバイス102は、例えば、顔または個人データに関連するデータが、ネットワーク上で送信される必要がないので、安全な顔認識を達成しうる。
[0038] 他の実施形態では、顔認識プロセスは、様々なデバイス間で分散される。例えば、図2は、複数の画像から未知の人物を識別するためのクライアントサーバシステム200の典型的な実施形態を示す。図1および2のシステム100、200に共通のエレメントは、共通の参照表示(reference indicia)を共有し、簡潔さのために、システム100、200の間の差のみがここに説明される。
[0039] クライアントデバイス202は、ネットワーク206によって、サーバデバイス204および記憶装置114に通信可能に結合されうる。クライアントデバイス202の例は、セルラ電話、ラップトップ、タブレットPC、およびこれに類するデバイスなどの、ネットワーク化されたデバイスまたは通信デバイスを含みうる。サーバデバイス204は、顔認識サービスをクライアントデバイス202に提供するように構成されたコンピュータでありうる。ネットワーク206は、コンピュータネットワーク(例えば、インターネット)、電気通信ネットワーク(例えば、無線セルラ通信ネットワーク)、またはこれに類するものでありうる。
[0040] 図2に示されるように、クライアントデバイス202は、画像センサ106、入力デバイス108、出力デバイス110、クライアント側のプロセッサ112a、クライアント側の通信デバイス118a、および画像受信機モジュール120と、I/Oモジュール130と、顔検出モジュール132とを含むクライアント側のメモリ116aを含む。サーバデバイス204は、サーバ側のプロセッサ112b、サーバ側の通信デバイス118b、および部分空間モジュール124と、探索モジュール126と、認識モジュール128とを含むサーバ側のメモリ116bを含む。
[0041] 動作時に、クライアントデバイス202は、未知の人物の識別のために、撮像センサ106を用いて未知の人物の複数の画像をキャプチャしうる。クライアント側のプロセッサ112aは、顔画像選択および正規化などの、様々な前処理および顔検出のために顔検出モジュール132の命令を実行する。複数の顔画像に関係するデータは、ネットワーク206上でサーバ204に通信されうる。サーバ204は、通信されたデータを処理し、クライアント202に識別データを送信または送りうる。例えば、サーバ側のプロセッサ112bは、未知の人物の複数の画像に関係する通信されたデータから部分空間を生成するために、部分空間モジュール124からの命令を実行しうる。その後、サーバ側のプロセッサ112bは、探索モジュール126からの命令を実行することによって、生成された部分空間を、基準データベースに含まれる基準画像と比較しうる。その後、サーバ204は、部分空間との最も近い一致に関連づけられる(associated with the closest match to the subspace)画像および/または個人IDをクライアント202に送りうる。
[0042] クライアントサーバシステム200のいくつかの実施形態は、ユーザのクライアントデバイス202の計算および記憶の要件を低減しうる。例えば、クライアントデバイス202の代わりにサーバデバイス204上で部分空間モジュール124および探索モジュール126の命令を実行することは、クライアントデバイス202上で実行される命令の必要とされる数を低減しうる。さらに、クライアントデバイス202の外部に基準データベースを記憶することは、クライアントデバイス202上で必要とされるデータ記憶を低減しうる。したがって、分散システムがまた、いくつかの実施形態において、電力効率およびバッテリ寿命を改善しうる。
[0043] ここで図3を参照すると、顔認識の方法のデータフロー図が、1つの実施形態に従って示され、全般的に300と示される。データフロー300は、N人の人物のための顔画像のセット304を含むトレーニングプロセス302を備える。この実施形態では、データベース304は、データベース304によって表される各人物について利用可能な1つの基準画像のみを有しうる。すなわち、データベースの各アイデンティティは、1つの基準画像に基づくデータと関連づけられうる。関連づけられたデータは、例えば、基準画像、基準画像の圧縮されたバージョン、基準画像から生成された特徴ベクトル、またはこれに類するものでありうる。しかしながら、データベース304は、他の適用可能な数の基準画像に基づくデータを有しうることが理解されるであろう。例えば、データベース304は、複数の基準画像にそれぞれ関連づけられる1つまたは複数のアイデンティティを有することができ、また、1つの基準画像のみに関連づけられる他の複数のアイデンティティを有することができる。特に、本開示のいくつかの実施形態の1つの利点は、データベース304が、トレーニングのために複数の画像を必要とするデータベースよりも、生成するのにより実用的でありうるということである。認識されるべき各対象のための複数の画像のライブラリは、多くのケースにおいて利用可能でない場合がある。例えば、レガシー・ウェブサイトは、そのユーザの各々についてのプロフィール(profiles)を有することができるが、各ユーザについて1つのプロフィール写真(profile picture)のみである。追加の例として、セルラ電話は、データ記憶の制約により、連絡先ごとに1つの写真のみを許可しうる。
[0044] ブロック306では、各サンプル画像は、比較のための基準として使用される。いくつかの実施形態では、この基準は、画像に基づいて生じさせた特徴ベクトルである。データベース304の一人の人物が、1つより多くの基準画像を有する場合には、部分空間が基準として生成されうる。部分空間を生成するプロセスは、以下に詳細に説明される。
[0045] 認識プロセス322中に、未知の人物の複数の入力画像324が受信されて、顔検出ブロック326に入力される。顔検出ブロック326は、顔を含む画像の部分のみならず、顔の特徴を含む顔の部分を識別する。様々な顔検出方法が使用されうる。いくつかの顔検出方法は、例えば、未知の人物の顔の周囲(perimeter)の周りに長方形のROI(「顔ROI」)を検出し、ROI内の顔の特徴を検出する。これらの顔の特徴の例は、口の中心と左目の中心と右目の中心(centers of the mouth and the left and right eyes)、左と右の目の目頭と目尻(inner and outer corners of left and right eyes)、口の左口角と右口角(left and right corners of the mouth)、左と右の鼻孔(nostrils)、および上唇の中心を含みうる。顔検出ブロック326は、図1の顔検出モジュール132からの命令を実行することによってインプリメントされうる。
[0046] ブロック328では、部分空間が、複数の画像324における顔検出モジュール326によって検出された顔から構築される。1つのインプリメンテーションでは、部分空間は特徴ベクトルに基づく。いくつかの実施形態では、所与の顔の特徴ベクトルは、顔画像の全ての特徴セグメントの順序付けられた連結(ordered concatentaion)でありうる。特徴セグメントは、特徴を抽出または集約する(summarize)、対応する特徴のデータ構造または変形(transformation)である。特徴ベクトルを生成するプロセスは、図6Aおよび図6Bに関連してさらに詳細に説明される。部分空間は、複数の入力画像からの対応する特徴ベクトルに基づいて形成される。例えば、部分空間は、他のプーリング演算子(pooling operators)を含む、最大、最小、平均、またはこれに類する演算子を適用することによって生成されうる。追加または代替として、統計的方法が、部分空間を生成するために使用されうる。例えば、特徴ベクトルの平均と分散が、部分空間の統計モデルを提供しうる。ブロック328は、例えば、図1の部分空間モジュール124の命令を実行することによってインプリメントされうる。
[0047] 部分空間を構築した後、フロー300は、ブロック330に移動し、ここで、部分空間に最もよく一致する(most closely matches)基準画像が、データベース304から選択される。例えば、認識は、例えば、探索モジュール126の命令を実行することによって、各データベース基準画像の特徴ベクトルを、未知の人物の部分空間へと投影することによって達成されうる。各基準画像の特徴ベクトルは、図6Aおよび図6Bにおいておよび上述されたような同様のプロセスにおいて計算されうる。ブロック330は、例えば、図1の認識モジュール128の命令を実行することによって、最小の投影誤差を有する特徴ベクトルに対応する人物の個人IDおよび/または基準画像332を出力しうる。
[0048] 図4は、1つの実施形態による、観測された顔を認識する方法400を示す。方法400は、ブロック405において開始し、その後、ブロック310に移動し、ここで、認識されるべき観測された顔の複数の画像が受信される。いくつかの実施形態では、これら画像は、ファイルシステムからまたはネットワークから受信されうる。別の実施形態では、これら画像は、画像をキャプチャする画像センサから受信されうる。画像は、例えば、画像受信機モジュール120からの命令を実行するためにプロセッサ112を使用することによって受信されうる。
[0049] ブロック415では、複数の受信された画像に基づいて、部分空間が構築される。いくつかの実施形態では、部分空間を構築することは、受信された画像の各々における顔を検出すること、検出された顔のサブセットを選択すること、選択された顔の各々のための特徴ベクトルを生成すること、および生成された特徴ベクトルから部分空間を生成すること、のうちの1つまたは複数を含む。部分空間は、例えば、部分空間モジュール124からの命令を実行するためにプロセッサ112を使用することによって生成されうる。
[0050] ブロック420では、顔画像の基準データベースが、部分空間に基づいて探索される。いくつかのインプリメンテーションでは、基準データベースから取り出された画像が、部分空間へと投影される。その後、投影誤差が決定される。投影誤差は、基準データベースの画像と関連づけられうる。基準データベースは、例えば、記憶装置114を探索する探索モジュール126からの命令を実行するためにプロセッサ112を使用することによって探索されうる。
[0051] ブロック425では、観測された顔は、探索の結果に少なくとも部分的に基づいて認識される。観測された顔は、様々な基準によって認識されうる。例えば、投影誤差を最小化するデータベースからの画像が、観測された顔であると認識されうる。いくつかの実施形態では、データベースからのしきい値を満たす2つ以上の画像が、観測された顔の一致候補であると認識されうる。観測された顔は、例えば、認識モジュール128からの命令を実行するためにプロセッサ112を使用することによって認識されうる。
[0052] ブロック430では、出力が、認識に基づいて生成される。例えば、出力は、ディスプレイデバイスに生成されることができ、観測された顔が認識されたことを示す。代替として、認識が行なわれたことを示すメッセージがネットワーク上で送られうる。認識された個人の名前、住所、または他の識別情報などの、認識に関連するデータがまた、表示されるまたはネットワーク上で送られることができる。ブロック435では、プロセス400は終了する。出力は、例えば、出力デバイス108を制御するI/Oモジュール130からの命令を実行するためにプロセッサ112を使用することによって生成されうる。
[0053] 図5は、1つの実施形態による、顔検出アルゴリズムを用いて処理される画像500の例示的な例を示す。画像500は、人物502の顔画像を含む。顔検出アルゴリズムは、人物の顔の周りのバウンディングボックス(a bounding box)504を検出する。ボックス504内の部分は、「顔ROI(face ROI)」と称されうる。さらに、顔検出方法は、バウンディングボックス504内の顔の特徴(または「特徴ROI」)を検出する。これらの顔特徴は、口の中心と左目の中心と右目の中心、左と右の目の目頭と目尻、口の左口角と右口角、左と右の鼻孔、および上唇の中心を含みうる。個別のバウンディングボックスが、これらの各々のために作成されうる。例えば、右目の右端は、ROI 506を有し、右目の中心は、ROI 508を有し、右目の左端は、ROI 510を有する。
[0054] 図6Aは、1つの実施形態による、特徴抽出プロセス600aのフローチャートを示す。ブロック604では、顔画像が、入力602として提供され、ここで、顔画像は、顔検出モジュール132によって処理されたものである。例えば、画像602は、検出された顔についてのROI(例えば、顔ROI)のみならず、顔ROI内の各検出された特徴についてのROI(例えば、特徴ROI)を有しうる。ブロック604では、LBPラベルが、各特徴点の長方形の領域内の各画素のために計算される。実例的なLBP動作が、図6Bに関連して以下に説明される。LBP動作は、LBP動作が適用される画素においてバイナリパターンをもたらす。したがって、ブロック604は、各特徴ROIの各画素のためのバイナリパターンをもたらす。ブロック606では、LBPラベルのヒストグラムが、各特徴ROIのために計算される。ブロック608では、特徴ベクトルが、各特徴ROIのヒストグラムを順序だって連結すること(orderly concatenating)によって生成される。
[0055] 図6Bは、1つの実施形態による、画素に適用されるLBP動作600bの例示を示す。画像612は、特徴の一部分、すなわち、特徴ROIである。画像614は、画像612の複数の画素のうちの1つについての3×3のグレー・スケール近傍(grey-scale neighborhood)を示す。画像616は、画像614の10進表現(decimal representation)を示す。しきい値処理演算子(thresholding operator)が、バイナリパターン620を生成するために画像616に適用され、ここで、中心画素は、しきい値として使用される。すなわち、複数の画素は、それらの10進表現が中心画素より大きい場合には、「1」というラベルを付けられ、そうでない場合には、「0」というラベルを付けられる。例示されるように、LBP「11001011」は、3×3の近傍のエッジに沿って複数のビットを読み出すことによって形成される。図6Bでは、最下位ビットは、画像620の左上のビットに対応し、画像620の複数のビットは、時計回りに読み出される。図6Bは、3×3の近傍を示すが、他の適用可能な近傍が、約3×3から約65×65の近傍の範囲で選択され(selected from about 3x3 to about 65x65 neighborhoods)うることが理解されるであろう。
[0056] 図7は、顔認識システム700の典型的な実施形態のブロック図を示す。ブロック704は、ビデオ入力702を受信し、認識モジュール128のような顔検出プロセスを使用して、入力画像の各々における顔を検出する。ビデオ入力702は、例えば、撮像センサ106から受信されうる。述べたように、顔検出プロセスは、顔およびそれの関連する特徴を含む入力画像の領域を識別する。
[0057] ブロック706では、顔検出プロセスは、ビデオ入力702のシーケンスから特定の画像フレームを選択する。正面の顔をターゲットとした選択は、正面の顔は、ほぼ左右対称であるという仮定に基づきうる。具体的には、顔ROIの水平の中心が、中心軸として計算されうる。特に、下記の幾何学的情報が、検出された顔特徴から計算されうる。
1.左目の中心、左の鼻孔、および口の左口角を含みうる左側の顔の特徴から中心軸までの水平距離、および右側の顔のものの水平距離。対応する対についての距離の平均差(average difference)がまた、計算されうる。
2.左目の中心と右目の中心、左と右の鼻孔、および左口角と右口角を含みうる、左側および右側の顔の特徴の垂直の差(vertical difference)。全ての垂直の差の平均がまた、計算されうる。
3.検出された口の中心と、左口角と右口角から計算された口の中心との水平位置の差(horizontal location difference)がまた、計算されうる。
4.計算された目の中心および鼻の中心の位置までの、左口角と右口角から計算された口の中心の累積された水平位置の差(The accumulated horizontal location differences of the computed mouth center from left and right mouth corners to the computed eye center and nose center locations)。
5.計算された目の中心および鼻の中心の位置との、計算された口の中心の累積された垂直位置の差(The accumulated vertical location differences of the computed mouth center with the computed eye center and nose center locations)。
[0058] これらの計算された幾何学的な差が、いくつかの所定のしきい値よりも小さい場合、正面の顔のポーズが選択される。加えて、ぼやけた画像フレームが、画像のセットから除去されうる。エッジおよびエッジ幅が、ぼやけ(blur)のレベルを決定するために使用されうる。ブロック706は、正面の顔をターゲットとして説明された一方で、他の適用可能な向きが選択されうることが理解されるであろう。いくつかの実施形態では、ターゲットとされる向きは、基準画像の向きに基づきうる。例えば、観測された画像は、それの向きが基準画像における顔の向きとほぼ一致する場合に選択されうる。
[0059] 別の実施形態では、観測された画像の選択は、関心のある顔の特徴に基づきうる。例えば、どの顔の特徴が現在分析されているかに基づいて、正面のおよびプロフィールの両方の向き(both frontal and profile orientations)がターゲットにされうる。プロフィールの写真は、耳の特徴における差をキャプチャすることができ、この情報は、例えば、目の間隔についてのデータを取得するために、正面の画像と併せて使用されうる。
[0060] 画像選択プロセスは、適格な(qualified)画像フレームのしきい値数(a threshold number of qualified image frames)に達するまで継続しうる。例えば、決定ブロック708では、プロセス700は、少なくとも5つの適格な画像フレームが累積されて(accumulated)いる場合には、ブロック710に進み、5つ未満の適格な画像フレームが累積されている場合には、ブロック704に戻る。他の適用可能な停止基準が、約5個から約50個の選択された適格な画像の範囲から選択されうることが理解されるであろう。
[0061] ブロック710では、選択された適格な画像は、比較を向上させるために正規化される。正規化は、例えば、必要に応じて、アップサンプリング、ダウンサンプリング、およびフィルタリングを含みうる。いくつかの実施形態では、各顔画像は、n×m画像のような、指定されたサイズに正規化される。他の実施形態では、顔画像は、基準顔画像のような、別の画像のサイズに関して正規化される。正規化(Normalization)は、例えば、顔検出モジュール132からの命令を実行することによって実行されうる。
[0062] ブロック712では、特徴が、特徴ベクトルを形成するために顔画像から抽出される。特徴ベクトルは、選択された顔画像の検出された特徴点に中心があるローカルバイナリパターン(LBP)である。LBPパターンは、中心画素を用いて各画素の3×3の近傍にしきい値を適用することの結果として、2進数で各画素をラベル付けすることによって取得される。各顔の特徴点の所与のバウンディングボックス内のラベルのヒストグラムは、特徴セグメントを形成する。全ての特徴セグメントの順序付けられた連結は、所与の顔の特徴ベクトルである。LBPヒストグラムまたは特徴セグメントは、各顔の特徴に中心があるとして計算される(computed centered at each face feature)。セグメントの順序付けられた連結は、最終的な特徴ベクトルを構成しうる。ブロック712の動作は、部分空間モジュール124からの命令を実行することによって実行されうる。
[0063] 特徴ベクトルが選択された画像から生成された後、ブロック714では、ランダム・サンプル・コンセンサス(RANSAC:random sample consensus)アルゴリズムが、特徴ベクトルの統計的分布モデル(例えば、平均と分散)を計算するために使用されうる。RANSACアルゴリズムは、データセットから外れ値(outlier)を取り除くことによって、統計的ノイズに強くありうる。最終的な平均と分散は、観測されたまたは未知の人物の統計的な部分空間表現を構成しうる。ブロック714の動作は、部分空間モジュール124からの命令を実行することによって実行されうる。
[0064] ブロック716では、最小のカイ二乗距離を有する特徴ベクトルを有する基準画像が、未知のまたは観測された人物として識別されうる。カイ二乗距離は、
として計算されうる。
[0065] 式1では、mは、部分空間の平均ベクトルを示し、xは、i番目の人物の特徴ベクトルを示し、Nは、特徴ベクトルの次元であり、下付き添字(subscript)jは、関連するベクトルのj番目の成分を示す。ブロック716の動作は、探索モジュール126からの命令を実行することによって実行されうる。
[0066] ブロック718では、最も小さい関連する距離dを有する2つの画像が、基準データベースから選択される。その後、これらの2つの画像は、ブロック720における選択のためにユーザに提供される。これに応答して、ユーザは、未知の人物に最もよく似ている画像を選択しうる。1つの実施形態では、基準データベースは、未知の人物のユーザ選択された画像を含めることによって更新されうる。ブロック718の動作は、探索モジュール126からの命令を実行することによって実行されうる。上記には2つの画像を選択することが説明されているが、任意の適用可能な数の画像が、約3個から約10個の範囲の画像から選択されうることが理解されるであろう。
[0067] 本技術は、数多くの他の汎用または特定用途のコンピューティングシステムの環境または構成で動作可能である。本発明との使用に適している周知のコンピューティングシステム、環境、および/または構成の例は、限定はしないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルド型またはラップトップ型のデバイス、マルチプロセッサシステム、プロセッサベースのシステム、プログラム可能な家庭用電子機器、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、任意の上記のシステムまたはデバイスを含む分散型コンピューティング環境、およびこれに類するものを含む。
[0068] ここで使用される場合、命令は、システムにおいて情報を処理するための、コンピュータによりインプリメントされるステップを指す。命令は、ソフトウェア、ファームウェア、またはハードウェアでインプリメントされることができ、システムのコンポーネントによって行われる(undertaken)プログラムされたステップの任意のタイプを含む。
[0069] プロセッサは、AMD(登録商標)Athlon(登録商標)IIまたはPhenom(登録商標)IIプロセッサ、Intel(登録商標)i3(登録商標)/i5(登録商標)/i7(登録商標)プロセッサ、Intel Xeon(登録商標)プロセッサ、またはARM(登録商標)プロセッサの任意のインプリメンテーションのような、任意の従来の汎用のシングルまたはマルチチップのマイクロプロセッサでありうる。加えて、プロセッサは、OMAPプロセッサ、Snapdragon(登録商標)のようなQualcomm(登録商標)プロセッサ、またはデジタル信号プロセッサまたはグラフィックスプロセッサを含む、任意の従来の専用プロセッサでありうる。プロセッサは、典型的に、従来のアドレスライン、従来のデータライン、および1つまたは複数の従来の制御ラインを有する。
[0070] システムは、詳細に説明されるように、様々なモジュールで構成されている。当業者によって理解されることができるように、これらモジュールの各々は、様々なサブルーチン、プロシージャ、定義づけ命令文(definitional statement)およびマクロを備える。これらモジュールの各々は、典型的に、単一の実行可能なプログラムへと別々にコンパイルおよびリンクされる。したがって、これらモジュールの各々の説明は、好ましいシステムの機能性を説明する便宜のために使用される。したがって、これらモジュールの各々によって行われる(undergone)プロセスは、他のモジュールのうちの1つに任意に再分配される、単一のモジュールに共に結合される、または、例えば、共用可能な動的リンクライブラリにおいて利用可能にされることができる。
[0071] システムは、C#、C、C++、BASIC、Pascal、またはJava(登録商標)のような、任意の従来のプログラミング言語で書かれることができ、従来のオペレーティングシステム下で実行される。C#、C、C++、BASIC、Pascal、Java、およびFORTRANは、多くの商用コンパイラが、実行可能なコードを作成するために使用されうる業界標準のプログラミング言語である。システムはまた、Perl、PythonまたはRubyのようなインタープリタ型言語を使用して書かれうる。
[0072] 当業者であれば、ここに開示された実施形態に関連して説明された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、または両方の組み合わせとしてインプリメントされうることをさらに理解するであろう。ハードウェアとソフトウェアとのこの互換性を明確に例示するために、様々な例示的なコンポーネント、ブロック、モジュール、回路、およびステップは、概してそれらの機能の観点から上記に説明された。このような機能が、ハードウェアとしてインプリメントされるか、あるいはソフトウェアとしてインプリメントされるかは、特定のアプリケーションおよびシステム全体に課せられる設計制約に依存する。当業者は、各特定のアプリケーションに関して、多様な方法で、説明された機能をインプリメントしうるが、このようなインプリメンテーションの決定は、本開示の範囲から逸脱を引き起こしていると解釈されるべきでない。
[0073] ここに開示された実施形態に関連して説明された様々な例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)またはその他のプログラマブル論理デバイス、ディスクリートゲートまたはトランジスタロジック、ディスクリートハードウェアコンポーネント、あるいはここに説明された機能を実行するように設計されたこれらの任意の組み合わせで、インプリメントまたは実行されうる。汎用プロセッサは、マイクロプロセッサでありうるが、代替において、このプロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシン(state machine)でありうる。プロセッサはまた、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと連携した1つまたは複数のマイクロプロセッサ、あるいはその他任意のこのような構成である、コンピューティングデバイスの組み合わせとしてインプリメントされうる。
[0074] 1つまたは複数の実例的な実施形態では、説明された機能および方法は、ハードウェア、ソフトウェア、またはプロセッサ上で実行されるファームウェア、またはこれらの任意の組み合わせでインプリメントされうる。ソフトウェアでインプリメントされる場合、これら機能は、コンピュータ可読媒体上で、1つまたは複数の命令またはコードとして送信または記憶されうる。コンピュータ可読媒体は、1つの場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体とコンピュータ記憶媒体との両方を含む。記憶媒体は、コンピュータによってアクセスされうる任意の利用可能な媒体でありうる。限定ではなく例として、このようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスク記憶装置、磁気ディスク記憶装置またはその他の磁気記憶デバイス、あるいは、データ構造または命令の形式で所望のプログラムコードを記憶または搬送するために使用可能であり、かつコンピュータによってアクセスされうるその他任意の媒体を備えうる。また、任意の接続は、コンピュータ可読媒体と厳密には称される。例えば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、電波、およびマイクロ波のような無線技術を使用して、ウェブサイト、サーバ、またはその他の遠隔ソースから送信される場合には、この同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、電波、およびマイクロ波のような無線技術は、媒体の定義に含まれる。ここで使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多目的ディスク(DVD)、フロッピー(登録商標)ディスクおよびブルーレイ(登録商標)ディスクを含み、ここでディスク(disks)は、通常磁気的にデータを再生し、一方ディスク(discs)は、レーザーを用いて光学的にデータを再生する。上記の組み合わせもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0075] 上記説明は、ここに開示されたシステム、デバイス、および方法のある特定の実施形態を詳しく述べた。しかしながら、上記が原文においていかに詳細に掲載されていたとしても、これらシステム、デバイス、および方法は、多くの方法で実施されうることが理解されるであろう。また上述のように、本発明のある特定の特徴または態様について説明する際の特定の専門用語の使用は、その専門用語が関連する技術の特徴または態様の任意の特定の特徴を含むように制限されるように、その専門用語がここで再定義されることを暗示するようにとらえられるべきではないことに留意されたい。
[0076] 様々な修正および変更は、説明された技術の範囲から逸脱することなく行われうるがことが、当業者によって理解されるであろう。このような修正および変更は、実施形態の範囲内であるものとする。1つの実施形態に含まれる部分は、他の実施形態と交換可能であり、示された実施形態からの1つまたは複数の部分は、任意の組み合わせで他の示された実施形態とともに含まれうることも当業者によって理解されるであろう。例えば、ここで説明された、および/または図に図示された様々なコンポーネントのうちの任意のものが、組み合わせられる、交換される、または他の実施形態から除外されることができる。
[0077] ここでの実質的に任意の複数および/または単数の用語の使用に関して、当業者は、コンテキストおよび/または用途に合わせて、複数から単数におよび/または単数から複数に変換することができる。明確さのために、様々な単数/複数の置換がここに明記されうる。
[0078] 概して、ここで使用される用語は、「オープンな(open)」用語(例えば、「含む(including)」という用語は、「それに限定されるものではないが、〜を含む」と解釈されるべきであり、「有する(having)」という用語は、「〜を少なくとも有する」と解釈されるべきであり、「含む(includes)」という用語は、「それに限定されるものではないが、〜を含む」と解釈されるべきである、等)として全般的に意図されることが当業者によって理解されるであろう。特定の数の導入された(introduced)請求項の記載 が意図される場合には、そのような意図は、請求項に明記され、そのような記載がない場合には、そのような意図も存在しないことが、当業者によってさらに理解されるであろう。例えば、理解を助けるものとして、以下の添付の特許請求の範囲は、請求項の記載を導入する(introduce)ために、「少なくとも1つ」および「1つまたは複数」という前置きのフレーズ(introductory phrases)の使用を含みうる。しかしながら、このようなフレーズの使用は、たとえ同一の請求項が、「1つまたは複数」または「少なくとも1つ」という前置きのフレーズと「a」または「an」などの不定冠詞を含むときでさえも、不定冠詞「a」または「an」による請求項の記載の導入(introduction)が、そのような導入された請求項の記載を含む任意の特定の請求項を、たった1つのそのような記載を含む実施形態に限定することを意味するようには解釈されるべきではない(例えば、「a」および/または「an」は、典型的には「少なくとも1つ」または「1つまたは複数」を意味するものと解釈されるべきである)。同じことが、請求項の記載を導入するために使用される定冠詞の使用にも当てはまる。加えて、たとえ特定の数の導入された請求項の記載が明記されていたとしても、当業者であれば、そのような記載は、典型的には、「少なくとも」記載された数を意味するように解釈されるべきであることを認識するであろう(例えば、他の修飾語のない、「2つの記載」というそのままの記載は、典型的に、「少なくとも」2つの記載、または「2つ以上の」記載を意味する)。さらに、「A、B、およびCのうちの少なくとも1つ、等」に類似した表記法(convention)が使用されるそれらの実例では、一般に、このような表記法は、当業者が該表記法を理解する意味において、そのような構成が意図される(例えば、「A、B、およびCのうちの少なくとも1つを有するシステム」は、それに限定されるものではないが、Aのみ、Bのみ、Cのみ、AおよびBをともに、AおよびCをともに、BおよびCをともに、および/またはA、B、およびCをともに有するシステムを含むであろう、等)。「A、B、またはCのうちの少なくとも1つ、等」に類似した表記法が使用されるそれらの実例では、一般に、このような構成は、当業者が該表記法を理解する意味において、意図される(例えば、「A、B、またはCのうちの少なくとも1つを有するシステム」は、それに限定されるものではないが、Aのみ、Bのみ、Cのみ、AおよびBをともに、AおよびCをともに、BおよびCをともに、および/またはA、B、およびCをともに有するシステムを含むであろう、等)。事実上、2つ以上の代替用語を表す任意の離接的な用語(disjunctive word)および/またはフレーズが、詳細な説明にある場合であっても、特許請求の範囲にある場合であっても、または、図面にある場合であっても、それら用語のうち1つ、それら用語のうちのいずれか、または両方の用語、を含む可能性を企図するものと理解されるべきであることは、当業者によってさらに理解されるだろう。例えば、「AまたはB」というフレーズは、「A」または「B」または「AおよびB」の可能性を含むことが理解されるだろう。
[0079] 様々な態様および実施形態がここで開示されてきたが、他の態様および実施形態も当業者には明らかであろう。ここに開示された様々な態様および実施形態は、例示の目的のためのものであり、限定するものであるようには意図されない。

Claims (21)

  1. 顔認識装置であって、
    識別のために、観測された顔の複数の画像を受信するようにプロセッサを構成する命令を含む画像受信機モジュールと、
    前記複数の画像のうちの2つ以上の選択された画像に少なくとも基づいて、前記観測された顔のテンプレートを生成するように前記プロセッサを構成する命令を含むテンプレートモジュールと、
    既知の人物のアイデンティティおよび対応する顔データのデータベースを探索するように前記プロセッサを構成する命令を含む探索モジュールと、なお、前記探索することは、前記観測された顔の前記テンプレートと、前記既知の人物の前記顔データとに少なくとも基づく、
    前記探索に少なくとも基づいて、前記既知の人物の1つまたは複数のアイデンティティを選択するように前記プロセッサを構成する命令を含む認識モジュールと、
    を備える顔認識装置。
  2. 前記既知の人物の前記選択された1つまたは複数のアイデンティティを示すデータを転送するように前記プロセッサを構成する命令を含む通信モジュールをさらに備え、ここにおいて、前記データベースの各アイデンティティは、1つの基準画像に基づくデータと関連づけられる、請求項1に記載の顔認識装置。
  3. 画像センサをさらに備え、ここにおいて、前記画像受信機モジュールは、前記画像センサから観測された顔の複数の画像をキャプチャするように前記プロセッサを構成する命令をさらに備える、請求項1に記載の顔認識装置。
  4. 顔認識の、コンピュータによりインプリメントされる方法であって、
    識別のために、観測された顔の複数の画像を受信することと、
    前記複数の画像のうちの2つ以上の選択された画像に少なくとも基づいて、前記観測された顔のテンプレートを生成することと、
    既知の人物のアイデンティティおよび対応する顔データのデータベースを探索することと、なお、前記探索することは、前記観測された顔の前記テンプレートと、前記既知の人物の前記顔データとに少なくとも基づく、
    前記探索に少なくとも基づいて、前記既知の人物の1つまたは複数のアイデンティティを選択することと、
    を備えるコンピュータによりインプリメントされる方法。
  5. 前記データベースの各アイデンティティは、1つの基準画像に基づくデータと関連づけられる、請求項4に記載のコンピュータによりインプリメントされる方法。
  6. 画像センサを用いて、前記観測された顔の前記複数の画像をキャプチャすることをさらに備える、請求項4に記載のコンピュータによりインプリメントされる方法。
  7. 前記観測された顔の前記テンプレートを生成することは、前記複数の画像のうちの前記2つ以上の選択された画像の特徴ベクトルに少なくとも基づいて、前記観測された顔の部分空間を生成することを含む、請求項4に記載のコンピュータによりインプリメントされる方法。
  8. 前記特徴ベクトルは、前記選択された画像の線形バイナリパターンヒストグラムに少なくとも基づく、請求項7に記載のコンピュータによりインプリメントされる方法。
  9. 前記特徴ベクトルは、フィルタされた画像ブロックのカスケードに少なくとも基づく、請求項7に記載のコンピュータによりインプリメントされる方法。
  10. 前記部分空間は、前記複数の画像のうちの前記2つ以上の選択された画像の前記特徴ベクトルの平均と分散に関連づけられる、請求項7に記載のコンピュータによりインプリメントされる方法。
  11. 前記データベースを探索することは、前記観測された顔の前記テンプレートと、前記既知の人物の前記対応する顔データのうちの1つまたは複数の各々との間の誤差測定を決定することを備える、請求項4に記載のコンピュータによりインプリメントされる方法。
  12. 前記誤差測定は、カイ二乗距離に基づく、請求項11に記載のコンピュータによりインプリメントされる方法。
  13. 前記1つまたは複数のアイデンティティの前記選択は、前記誤差測定のしきい値に基づく、請求項11に記載のコンピュータによりインプリメントされる方法。
  14. 前記観測された顔の向きに基づいて、前記複数の画像のうちの前記2つ以上の画像を選択することをさらに備える、請求項4に記載のコンピュータによりインプリメントされる方法。
  15. 前記複数の画像のうちの前記2つ以上の画像の前記選択は、関心のある顔の特徴にさらに基づく、請求項14に記載のコンピュータによりインプリメントされる方法。
  16. 前記複数の画像のうちの前記2つ以上の画像の前記選択は、前記データベースの前記顔データの顔の向きにさらに基づく、請求項14に記載のコンピュータによりインプリメントされる方法。
  17. 前記1つまたは複数の選択されたアイデンティティを示すデータをグラフィカル・ディスプレイに表示することをさらに備える、請求項14に記載のコンピュータによりインプリメントされる方法。
  18. 前記2つ以上の選択されたアイデンティティの前記選択を確認するようにユーザに促すことと、
    前記ユーザの前記確認に応答して、前記データベースを更新することと、
    をさらに備える、請求項17に記載のコンピュータによりインプリメントされる方法。
  19. 命令を記憶した非一時的なコンピュータ可読媒体であって、前記命令は、実行されると、プロセッサに、
    識別のために、観測された顔の複数の画像を受信することと、
    前記複数の画像のうちの2つ以上の選択された画像に少なくとも基づいて、前記観測された顔のテンプレートを生成することと、
    既知の人物のアイデンティティおよび対応する顔データのデータベースを探索することと、なお、前記探索することは、前記観測された顔の前記テンプレートと、前記既知の人物の前記顔データとに少なくとも基づく、
    前記探索に少なくとも基づいて、前記既知の人物の1つまたは複数のアイデンティティを選択することと、
    から成る方法を実行させる、非一時的なコンピュータ可読媒体。
  20. 前記データベースの各アイデンティティは、1つの基準画像に基づくデータと関連づけられ、前記1つまたは複数の選択されたアイデンティティは、前記観測された顔の前記テンプレートのしきい値距離内の特徴ベクトルと関連づけられる、請求項19に記載の非一時的なコンピュータ可読媒体。
  21. 前記方法は、前記2つ以上の選択されたアイデンティティを示すデータをグラフィカル・ディスプレイに表示することをさらに備える、請求項19に記載の非一時的なコンピュータ可読媒体。
JP2015527491A 2012-08-15 2013-08-07 顔認識のための方法および装置 Active JP6030240B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261683574P 2012-08-15 2012-08-15
US61/683,574 2012-08-15
US13/744,906 US9183429B2 (en) 2012-08-15 2013-01-18 Method and apparatus for facial recognition
US13/744,906 2013-01-18
PCT/US2013/053973 WO2014028286A1 (en) 2012-08-15 2013-08-07 Method and apparatus for facial recognition

Publications (3)

Publication Number Publication Date
JP2015529354A true JP2015529354A (ja) 2015-10-05
JP2015529354A5 JP2015529354A5 (ja) 2016-03-03
JP6030240B2 JP6030240B2 (ja) 2016-11-24

Family

ID=50100060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015527491A Active JP6030240B2 (ja) 2012-08-15 2013-08-07 顔認識のための方法および装置

Country Status (5)

Country Link
US (1) US9183429B2 (ja)
EP (1) EP2885742A1 (ja)
JP (1) JP6030240B2 (ja)
CN (1) CN104584034B (ja)
WO (1) WO2014028286A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130273969A1 (en) * 2011-12-01 2013-10-17 Finding Rover, Inc. Mobile app that generates a dog sound to capture data for a lost pet identifying system
US9342735B2 (en) * 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
US9208402B2 (en) * 2013-03-28 2015-12-08 Honeywell International Inc. Face matching for mobile devices
US20150023601A1 (en) * 2013-07-19 2015-01-22 Omnivision Technologies, Inc. Robust analysis for deformable object classification and recognition by image sensors
US9444999B2 (en) 2014-08-05 2016-09-13 Omnivision Technologies, Inc. Feature detection in image capture
US9405965B2 (en) * 2014-11-07 2016-08-02 Noblis, Inc. Vector-based face recognition algorithm and image search system
US10853625B2 (en) 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
US10551913B2 (en) 2015-03-21 2020-02-04 Mine One Gmbh Virtual 3D methods, systems and software
WO2016183380A1 (en) * 2015-05-12 2016-11-17 Mine One Gmbh Facial signature methods, systems and software
US9918662B2 (en) * 2015-07-13 2018-03-20 Victoria Anna Breitner Measuring cervical spine posture using nostril tracking
US9928435B2 (en) * 2015-12-30 2018-03-27 Samsung Electronics Co., Ltd System and method for providing an on-chip context aware contact list
US10043102B1 (en) 2016-01-20 2018-08-07 Palantir Technologies Inc. Database systems and user interfaces for dynamic and interactive mobile image analysis and identification
US10497014B2 (en) * 2016-04-22 2019-12-03 Inreality Limited Retail store digital shelf for recommending products utilizing facial recognition in a peer to peer network
US10181073B2 (en) 2016-06-29 2019-01-15 Intel Corporation Technologies for efficient identity recognition based on skin features
US10482336B2 (en) 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
CN106339701A (zh) * 2016-10-31 2017-01-18 黄建文 一种人脸图像识别方法及系统
CN107204193B (zh) * 2017-06-12 2020-05-29 山东师范大学 基于直方图统计和池化算法的音频场景识别方法及装置
SG11201811691RA (en) * 2017-06-30 2019-01-30 Beijing Didi Infinity Technology & Development Co Ltd Systems and methods for verifying authenticity of id photo
CN107423910B (zh) * 2017-08-02 2018-03-20 蒙城县望槐信息科技有限责任公司 一种使用通信技术高精度确认人员身份的方法
WO2019204945A1 (en) * 2018-04-26 2019-10-31 C2Ro Cloud Robotics Inc. System and method for scalable cloud-robotics based face recognition and face analysis
US10762337B2 (en) * 2018-04-27 2020-09-01 Apple Inc. Face synthesis using generative adversarial networks
US10956719B2 (en) * 2018-11-30 2021-03-23 Qualcomm Incorporated Depth image based face anti-spoofing
WO2020121056A2 (en) * 2018-12-13 2020-06-18 Orcam Technologies Ltd. Wearable apparatus and methods
US11288347B2 (en) * 2019-03-07 2022-03-29 Paypal, Inc. Login from an alternate electronic device
KR20200140571A (ko) * 2019-06-07 2020-12-16 삼성전자주식회사 데이터 인식 방법 및 장치
CN111797746A (zh) * 2020-06-28 2020-10-20 北京小米松果电子有限公司 人脸识别方法、装置及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168113A (ja) * 2001-12-04 2003-06-13 Nec Corp 画像認識システム、画像認識方法および画像認識プログラム
JP2004054442A (ja) * 2002-07-17 2004-02-19 Glory Ltd 顔検出装置、顔検出方法および顔検出プログラム
JP2008217706A (ja) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology ラベリング装置、ラベリング方法及びプログラム
JP2009087253A (ja) * 2007-10-02 2009-04-23 Canon Inc 物体検出装置、物体検出方法及びプログラム
JP2009523265A (ja) * 2006-01-11 2009-06-18 三菱電機株式会社 画像中の虹彩の特徴を抽出する方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466685B1 (en) 1998-07-14 2002-10-15 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method
US6853739B2 (en) 2002-05-15 2005-02-08 Bio Com, Llc Identity verification system
US7406184B2 (en) * 2002-07-03 2008-07-29 Equinox Corporation Method and apparatus for using thermal infrared for face recognition
JP4606779B2 (ja) 2004-06-07 2011-01-05 グローリー株式会社 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
JP2007233873A (ja) 2006-03-02 2007-09-13 Toshiba Corp パターン認識装置及びその方法
JP4881230B2 (ja) 2007-06-14 2012-02-22 株式会社東芝 パターン認識装置及びその方法
CN101587543B (zh) * 2009-06-19 2012-12-05 电子科技大学 一种人脸识别方法
US8498454B2 (en) 2009-07-14 2013-07-30 General Electric Company Optimal subspaces for face recognition
FI123982B (fi) * 2009-10-09 2014-01-15 Visidon Oy Kasvojen tunnistaminen digitaalisissa kuvissa
JP5424819B2 (ja) * 2009-11-04 2014-02-26 キヤノン株式会社 画像処理装置、画像処理方法
US9047376B2 (en) * 2012-05-01 2015-06-02 Hulu, LLC Augmenting video with facial recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168113A (ja) * 2001-12-04 2003-06-13 Nec Corp 画像認識システム、画像認識方法および画像認識プログラム
JP2004054442A (ja) * 2002-07-17 2004-02-19 Glory Ltd 顔検出装置、顔検出方法および顔検出プログラム
JP2009523265A (ja) * 2006-01-11 2009-06-18 三菱電機株式会社 画像中の虹彩の特徴を抽出する方法
JP2008217706A (ja) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology ラベリング装置、ラベリング方法及びプログラム
JP2009087253A (ja) * 2007-10-02 2009-04-23 Canon Inc 物体検出装置、物体検出方法及びプログラム

Also Published As

Publication number Publication date
US9183429B2 (en) 2015-11-10
JP6030240B2 (ja) 2016-11-24
WO2014028286A1 (en) 2014-02-20
EP2885742A1 (en) 2015-06-24
CN104584034A (zh) 2015-04-29
CN104584034B (zh) 2018-04-03
US20140050372A1 (en) 2014-02-20

Similar Documents

Publication Publication Date Title
JP6030240B2 (ja) 顔認識のための方法および装置
US10198823B1 (en) Segmentation of object image data from background image data
CN109255352B (zh) 目标检测方法、装置及系统
CN108734162B (zh) 商品图像中目标识别方法、系统、设备及存储介质
US8971591B2 (en) 3D image estimation for 2D image recognition
US20190205618A1 (en) Method and apparatus for generating facial feature
WO2020042754A1 (zh) 一种全息防伪码校验方法及装置
TW201901527A (zh) 視訊會議裝置與視訊會議管理方法
WO2020019591A1 (zh) 用于生成信息的方法和装置
WO2012089902A1 (en) Method, apparatus, and computer program product for image clustering
KR102322773B1 (ko) 전극편의 버를 검출하기 위한 방법 및 장치
KR102002024B1 (ko) 객체 라벨링 처리 방법 및 객체 관리 서버
US10255487B2 (en) Emotion estimation apparatus using facial images of target individual, emotion estimation method, and non-transitory computer readable medium
WO2020006964A1 (zh) 图像检测方法和装置
Vazquez-Fernandez et al. Built-in face recognition for smart photo sharing in mobile devices
CN109670444B (zh) 姿态检测模型的生成、姿态检测方法、装置、设备及介质
JP2021034003A (ja) 人物識別方法、装置、電子デバイス、記憶媒体、及びプログラム
WO2020052275A1 (zh) 图像处理方法、装置、终端设备、服务器及系统
US20200218772A1 (en) Method and apparatus for dynamically identifying a user of an account for posting images
WO2022103684A1 (en) Face-aware person re-identification system
WO2021169616A1 (zh) 非活体人脸的检测方法、装置、计算机设备及存储介质
Tepelea et al. A vision module for visually impaired people by using Raspberry PI platform
CN111881740A (zh) 人脸识别方法、装置、电子设备及介质
CN110363187B (zh) 一种人脸识别方法、装置、机器可读介质及设备
JP2016021097A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160107

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160107

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161019

R150 Certificate of patent or registration of utility model

Ref document number: 6030240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250