JP7485448B2 - 処理システム、処理方法及びプログラム - Google Patents

処理システム、処理方法及びプログラム Download PDF

Info

Publication number
JP7485448B2
JP7485448B2 JP2021524688A JP2021524688A JP7485448B2 JP 7485448 B2 JP7485448 B2 JP 7485448B2 JP 2021524688 A JP2021524688 A JP 2021524688A JP 2021524688 A JP2021524688 A JP 2021524688A JP 7485448 B2 JP7485448 B2 JP 7485448B2
Authority
JP
Japan
Prior art keywords
image
photographing
light
reference feature
devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021524688A
Other languages
English (en)
Other versions
JPWO2020246141A1 (ja
JPWO2020246141A5 (ja
Inventor
雷明 蘇
達也 島原
浩章 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020246141A1 publication Critical patent/JPWO2020246141A1/ja
Publication of JPWO2020246141A5 publication Critical patent/JPWO2020246141A5/ja
Application granted granted Critical
Publication of JP7485448B2 publication Critical patent/JP7485448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/90Identifying an image sensor based on its output data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Studio Devices (AREA)

Description

この開示は、処理システム、処理方法及びプログラムに関する。
虹彩画像、顔画像等を利用した生体認証において、生体検知技術が利用される場合がある。特許文献1は、カメラの移動に伴う角膜反射の変化に基づき生体検知する技術を開示している。また、特許文献1は、照明の色やパターンを変化させることに応じて変化する角膜反射に基づき生体検知してもよいことを開示している。
特表2018-504703
角膜反射の変化に基づき生体検知する特許文献1に記載の技術の場合、複数枚の画像が必須であり、1枚の画像に基づき生体検知できない。この開示は、1枚の画像に基づき生体検知できる技術を提供することを課題とする。
この開示によれば、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段と、
前記抽出された光の特徴量と、複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量とに基づき、前記抽出された光の特徴量に対応する撮影装置を特定する照合手段と、
前記第1の撮影装置と前記特定された撮影装置とが一致するか否かの結果に基づき生体検知を行う生体検知手段と、
を有する処理システムが提供される。
また、この開示によれば、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段と、
前記抽出された光の特徴量と、前記第1の撮影装置が撮影時に発する光の特徴を示す参照特徴量とを照合する照合手段と、
前記抽出された光の特徴量と前記参照特徴量とが一致するか否かの結果に基づき生体検知を行う生体検知手段と、
を有する処理システムが提供される。
また、この開示によれば、
コンピュータが、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出し、
前記抽出された光の特徴量と、複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量とに基づき、前記抽出された光の特徴量に対応する撮影装置を特定し、
前記第1の撮影装置と前記特定された撮影装置とが一致するか否かの結果に基づき生体検知を行う処理方法が提供される。
また、この開示によれば、
コンピュータが、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出し、
前記抽出された光の特徴量と、前記第1の撮影装置が撮影時に発する光の特徴を示す参照特徴量とを照合し、
前記抽出された光の特徴量と前記参照特徴量とが一致するか否かの結果に基づき生体検知を行う処理方法が提供される。
また、この開示によれば、
コンピュータを、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段、
前記抽出された光の特徴量と、複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量とに基づき、前記抽出された光の特徴量に対応する撮影装置を特定する照合手段、
前記第1の撮影装置と前記特定された撮影装置とが一致するか否かの結果に基づき生体検知を行う生体検知手段、
として機能させるプログラムが提供される。
また、この開示によれば、
コンピュータを、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段、
前記抽出された光の特徴量と、前記第1の撮影装置が撮影時に発する光の特徴を示す参照特徴量とを照合する照合手段、
前記抽出された光の特徴量と前記参照特徴量とが一致するか否かの結果に基づき生体検知を行う生体検知手段、
として機能させるプログラムが提供される。
本実施形態の撮影装置と処理システムの関係の一例を説明するための機能ブロック図である。 本実施形態の処理システムのハードウエア構成の一例を示す図である。 本実施形態の処理システムの機能ブロック図の一例である。 本実施形態の処理システムの作用効果を説明するための図である。 本実施形態の処理システムが処理する情報の一例を模式的に示す図である。 本実施形態の処理システムの処理の一例を説明するための図である。 本実施形態の処理システムの処理の流れの一例を示すフローチャートである。 本実施形態の処理システムが処理する情報の一例を模式的に示す図である。 本実施形態の処理システムの処理の流れの一例を示すフローチャートである。 本実施形態の処理システムの処理の流れの一例を示すフローチャートである。 本実施形態の処理システムの処理の流れの一例を示すフローチャートである。 本実施形態の撮影装置と処理システムの関係の一例を説明するための機能ブロック図である。
<第1の実施形態>
まず、図1を用いて、本実施形態の全体像及び概要を説明する。図示するように、本実施形態では、サーバ-クライアントシステムを採用する。サーバ1は、クライアント端末2から取得した虹彩画像や顔画像に基づく生体認証、及び、角膜部分の画像(以下、「角膜画像」)に基づく生体検知を行う。そして、サーバ1は、生体認証に成功し、かつ、生体から得られた画像と判定されたクライアント端末2に、所定の処理を許可する。所定の処理はサーバ1へのログインなどであるが、これに限定されない。
本実施形態の生体認証は、あらゆる技術を採用して実現される。
本実施形態の生体検知の概要は、次の通りである。まず、複数のクライアント端末2各々に設けられた撮影装置10の中には、メーカ、型番、バージョン等が互いに異なるものが含まれる。なお、複数の撮影装置10の中には、メーカ、型番、バージョン等が互いに一致するものが含まれてもよい。メーカ、型番、バージョン等が互いに異なる撮影装置10は、光源の数、複数の光源の配列方法、レンズと光源との位置関係、複数の光源の発光のさせ方等の違いに起因して、撮影時に発する光の特徴が互いに異なり得る。結果、画像に含まれる人物の角膜に映る反射光の特徴(例:光のパターン、瞳孔内の位置等)も互いに異なり得る。撮影装置10の光源が発する光は、赤外光であることが望ましいが、その他の光であってもよい。
生体が撮影装置10で撮影された場合には、生成された画像に含まれる人物の角膜で反射した光の特徴はその撮影装置10に由来のものとなる。一方、生体でないもの、例えば他の撮影装置10が生成した画像(印刷物)が撮影装置10で撮影された場合には、生成された画像に含まれる人物の角膜で反射した光の特徴は他の撮影装置10に由来のものとなる。
本実施形態の処理システム20は、このような特徴に基づき生体検知を行う。具体的には、処理システム20は、第1の撮影装置10が生成した画像から人物の角膜で反射した光の特徴量を抽出すると、抽出された光の特徴量と、複数の撮影装置10各々が撮影時に発する光の特徴を示す参照特徴量とを照合し、抽出された光の特徴量に対応する撮影装置10を特定する。そして、処理システム20は、第1の撮影装置10と特定された撮影装置10とが一致する場合、生体から得られた画像と判定し、一致しない場合、生体から得られた画像でないと判定する。
次に、本実施形態の処理システム20の構成を詳細に説明する。まず、処理システム20のハードウエア構成の一例を説明する。処理システム20が備える各機能は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
図2は、処理システム20のハードウエア構成を例示するブロック図である。図2に示すように、処理システム20は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。なお、周辺回路4Aは有さなくてもよい。なお、処理システム20は物理的及び/又は論理的に一体となった1つの装置で構成されてもよいし、物理的及び/又は論理的に分かれた複数の装置で構成されてもよい。物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、タッチパネル、物理ボタン、カメラ等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
次に、処理システム20の機能構成の一例を説明する。図3に、処理システム20の機能ブロック図の一例を示す。図示するように、処理システム20は、取得部21と、抽出部22と、照合部23と、生体検知部24と、記憶部25とを有する。なお、処理システム20は記憶部25を有さなくてもよい。この場合、処理システム20と通信可能に構成された外部装置が記憶部25を備える。
記憶部25は、複数の撮影装置10各々が撮影時に発する光の特徴を示す参照特徴量を記憶する。
上述の通り、複数の撮影装置10の中には、メーカ、型番、バージョン等が互いに異なるものが含まれる。そして、メーカ、型番、バージョン等が互いに異なる撮影装置10は、光源の数、複数の光源の配列方法、レンズと光源との位置関係、複数の光源の発光のさせ方等の違いに起因して、撮影時に発する光の特徴が互いに異なり得る。結果、画像に含まれる人物の角膜に映る反射光の特徴(例:光のパターン、瞳孔内の位置等)も互いに異なり得る。例えば、図4に示すように、画像内の瞳孔pに重畳している反射光qのパターンや瞳孔p内の反射光qの位置等が撮影装置10毎に異なり得る。
参照特徴量は、画像内の瞳孔pに重畳している反射光qのパターン、及び、画像内での瞳孔p内における反射光qの位置の少なくとも一方を示すことができる。また、参照特徴量は、画像内の右目及び左目各々における上記反射光qの特徴を示してもよい。右目及び左目において、反射光の特徴(瞳孔内の位置など)が異なり得る。
図5に、記憶部25が記憶する情報の一例を模式的に示す。図示する例では、撮影装置識別情報と、参照特徴量とが互いに対応付けられている。
図3に戻り、取得部21は、複数の撮影装置10各々が生成した画像と、各画像を生成した撮影装置10を識別する情報(撮影装置識別情報)とを取得する。例えば、クライアント端末2(図1参照)は自端末に対応する撮影装置10が生成した画像、及び、撮影装置識別情報をサーバ1に送信する。そして、取得部21は、クライアント端末2から送信された画像及び撮影装置識別情報を取得する。
なお、本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読出すこと等、および、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、外部装置から送信されたデータを受信できる状態で待機しており、外部装置から送信されたデータを受信すること、外部装置から配信(または、送信、プッシュ通知等)されるデータを受信すること、また、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを生成し、当該新たなデータを取得すること」の少なくともいずれか一方を含む。
抽出部22は、撮影装置10が生成した画像から、人物の角膜で反射した光の特徴量を抽出する。例えば、抽出部22は、テンプレートマッチングやエッジ検出技術等のあらゆる画像解析技術を利用して、画像に含まれる人物の顔、人物の目、人物の瞳孔、瞳孔内の反射光等を検出する。そして、抽出部22は、検出結果に基づき、瞳孔に重畳している反射光のパターン及び瞳孔内の反射光の位置の少なくとも一方を特定する。
照合部23は、抽出部22により抽出された光の特徴量と、記憶部25に記憶されている複数の撮影装置10各々の参照特徴量とに基づき、抽出部22により抽出された光の特徴量に対応する撮影装置10を特定する。
例えば、照合部23は、抽出部22により抽出された光の特徴量と、記憶部25に記憶されている複数の撮影装置10各々の参照特徴量とを照合し、抽出部22により抽出された光の特徴量と一致(類似度が所定レベル以上)する参照特徴量を特定してもよい。そして、照合部23は、特定した参照特徴量に対応する撮影装置10を、抽出部22により抽出された光の特徴量に対応する撮影装置10として特定してもよい。
その他、複数の撮影装置10各々と、各撮影装置10が生成した人物の顔画像(又は、各撮影装置10の参照特徴量)とを対応付けた教師データに基づく機械学習で、人物の角膜で反射した光の特徴量からその顔画像を生成した撮影装置10を推定する推定モデルが生成されてもよい。そして、照合部23は、当該推定モデルと抽出部22が抽出した光の特徴量とに基づき、その光の特徴量に対応する撮影装置10の推定結果を得てもよい。なお、本願において生体検知で利用する「顔画像」は、人物の目を含む画像であればよく、必ずしも人の顔全体が含まれる必要はない。
図6に、当該処理の概要を示す。図示するように、推定モデルの推定結果では、各撮影装置10で生成された画像である確信度が示されてもよい。そして、照合部23は、当該確信度が所定条件(例:最大値かつ閾値以上)を満たす撮影装置10を、抽出部22により抽出された光の特徴量に対応する撮影装置10として特定してもよい。
図3に戻り、生体検知部24は、取得部21が取得した画像を生成した撮影装置10と、照合部23により特定された撮影装置10とが一致するか否かの結果に基づき、生体検知を行う。
具体的には、取得部21が取得した画像を生成した撮影装置10と、照合部23により特定された撮影装置10とが一致する場合、生体検知部24は、取得部21が取得した画像は生体から得られた画像と判定する。生体から得られた画像は、撮影装置10が生体そのものを撮影することで生成された画像を意味する。
一方、取得部21が取得した画像を生成した撮影装置10と、照合部23により特定された撮影装置10とが一致しない場合、生体検知部24は、取得部21が取得した画像は生体から得られた画像でないと判定する。生体から得られたものでない画像は、例えば、撮影装置10が印刷物を撮影することで生成された画像などである。
次に、図7のフローチャートを用いて、処理システム20の処理の流れの一例を説明する。なお、各機能部が行う処理の詳細は上述したので、ここでは省略する。
まず、取得部21が、画像及び撮影装置識別情報を取得する(S10及びS11)。そして、抽出部22が、S10で取得した画像から、人物の角膜で反射した光の特徴量を抽出する(S12)。
次いで、照合部23が、S12で抽出された光の特徴量と、記憶部25に記憶されている複数の撮影装置10各々の参照特徴量とに基づき、S12で抽出された光の特徴量に対応する撮影装置10を特定する(S13)。
そして、S13で特定した撮影装置10と、S11で取得した撮影装置識別情報が示す撮影装置10とが一致する場合(S14のYes)、生体検知部24は、S10で取得した画像は生体から得られた画像と判定する(S15)。一方、S13で特定した撮影装置10と、S11で取得した撮影装置識別情報が示す撮影装置10とが一致しない場合(S14のNo)、生体検知部24は、S10で取得した画像は生体から得られた画像でないと判定する(S16)。
以上、本実施形態の撮影装置10と処理システム20によれば、1枚の画像に基づき生体検知できる技術が実現される。また、1枚の画像に基づき生体検知できるので、複数の画像を解析することによるコンピュータの処理負担の増加を軽減できる。また、角膜反射の変化に基づき生体検知する場合に必要となる照明の色やパターンが変化するカメラを用意する必要がないので、コスト負担の増加を軽減できる。
<第2の実施形態>
本実施形態では、複数の撮影装置10は、撮影時に発する光をランダムに又は規則的に変化させる。例えば、あるタイミングでは1つの光源を発光させ、他のタイミングでは複数の光源を発光させるといった具合である。
そして、処理システム20は、人物が撮影された時に複数の撮影装置10各々が発する光の種別を示す発光種別情報を取得し、当該発光種別情報に基づき、抽出された光の特徴量に対応する撮影装置10を特定する。以下、詳細に説明する。
本実施形態の処理システム20の機能ブロック図の一例は、図3で示される。
記憶部25は、複数の撮影装置10各々が撮影時に発する光の特徴を示す参照特徴量を記憶する。図8に、記憶部25が記憶する情報の一例を模式的に示す。図示する例では、撮影装置識別情報と、発光種別と、参照特徴量とが互いに対応付けられている。図示するように、記憶部25は、各撮影装置10に対応付けて、各撮影装置10の複数の参照特徴量のバリエーションを記憶する。
照合部23は、人物が撮影された時に複数の撮影装置10各々が発する光の種別を示す発光種別情報を取得する。照合部23は、発光種別情報を撮影装置10から取得してもよいし、所定のルールに基づき算出してもよい。
例えば、撮影装置10は、予め定められた所定のタイミングで、又は、ランダムなタイミングで、発する光の種別(以下、「発光種別」という場合がある)を切り替える。そして、撮影装置10は、発光種別を切り替えると、その都度、新たな発光種別を処理システム20に通知する。照合部23は、撮影装置10からの通知に基づき、複数の撮影装置10各々の最新の発光種別を管理する。
予め定められた所定のタイミングは、5分毎、30分毎、1時間毎、1日毎等、一定時間毎であってもよい。互いに異なる発光種別は、光源の発光のさせ方が互いに異なる。例えば、ある発光種別では1つの光源を発光させ、他の発光種別では複数の光源を発光させるといった具合である。発光種別の切り替え方は様々であるが、例えば、撮影装置10は、複数の発光種別を予め定められた順で切り替えてもよいし、複数の発光種別の中からランダムに新たな1つを決定してもよい。
その他、撮影装置10は、任意のキーと、予め定められた算出ルールとに基づき、各撮影タイミングで発する光の種別を決定してもよい。例えば、撮影タイミングにおける日時に含まれる任意の数字(例:月、日、時、分等)をキーとしてもよい。そして、照合部23は、各撮影装置10の上記算出ルールを予め記憶しておき、当該算出ルールと、自システムで取得したキーとに基づき、撮影装置10各々が各タイミングで発する光の種別を算出してもよい。
なお、照合部23が発光種別情報を取得する手段は上記例に限定されず、その他の手段が採用されてもよい。
そして、照合部23は、取得した発光種別情報に基づき、抽出部22で抽出された光の特徴量に対応する撮影装置10を特定する。
例えば、照合部23は、抽出部22により抽出された光の特徴量と、取得部21が取得した画像の撮影時に複数の撮影装置10各々が発する光の特徴を示す参照特徴量(発光種別情報に基づき特定される)とを照合し、抽出部22により抽出された光の特徴量と一致する参照特徴量を特定してもよい。そして、照合部23は、特定した参照特徴量に対応する撮影装置10を、抽出部22により抽出された光の特徴量に対応する撮影装置10として特定してもよい。
その他、複数の撮影装置10各々と、取得部21が取得した画像の撮影時に複数の撮影装置10各々が発する光の特徴を示す参照特徴量(又は、当該光を発した時に生成された画像)とを対応付けた教師データに基づく機械学習で、人物の角膜で反射した光の特徴量からその顔画像を生成した撮影装置10を推定する推定モデルが生成されてもよい。そして、照合部23は、当該推定モデルと抽出部22が抽出した光の特徴量とに基づき、その光の特徴量に対応する撮影装置10の推定結果を得てもよい。
撮影装置10及び処理システム20のその他の構成は、第1の実施形態と同様である。
以上、本実施形態の撮影装置10と処理システム20によれば、第1の実施形態と同様の作用効果が実現される。また、撮影装置10が撮影時に発する光をランダムに又は規則的に変化させながら第1の実施形態で説明した生体検知を行うことができるので、不正行為をより効果的に排除することができる。
<第3の実施形態>
本実施形態の処理システム20は、第1の撮影装置10が生成した画像から抽出された光の特徴量と、第1の撮影装置10が撮影時に発する光の特徴を示す参照特徴量とが一致するか否かに基づき生体検知を行う点で、第1及び第2の実施形態と異なる。
本実施形態の処理システム20の機能ブロック図の一例は、図3で示される。
照合部23は、抽出部22により抽出された光の特徴量と、取得部21が取得した撮影装置識別情報で示される撮影装置10が撮影時に発する光の特徴を示す参照特徴量とを照合する。
生体検知部24は、抽出部22により抽出された光の特徴量と参照特徴量とが一致するか否かの結果に基づき生体検知を行う。
具体的には、抽出部22により抽出された光の特徴量と参照特徴量とが一致する場合、生体検知部24は、取得部21が取得した画像は生体から得られた画像と判定する。一方、抽出部22により抽出された光の特徴量と参照特徴量とが一致しない場合、生体検知部24は、取得部21が取得した画像は生体から得られた画像でないと判定する。
次に、図9のフローチャートを用いて、処理システム20の処理の流れの一例を説明する。なお、各機能部が行う処理の詳細は上述したので、ここでは省略する。
まず、取得部21が、画像及び撮影装置識別情報を取得する(S20及びS21)。そして、照合部23が、S21で取得した撮影装置識別情報に対応する参照特徴量を記憶部25(図5参照)から取り出す(S22)。また、抽出部22が、S20で取得した画像から、人物の角膜で反射した光の特徴量を抽出する(S23)。なお、S22及びS23の処理順は図示する例に限定されない。
次いで、照合部23が、S23で抽出された光の特徴量と、S22で取得した参照特徴量とを照合する(S24)
S23で抽出された光の特徴量と、S22で取得した参照特徴量とが一致する場合(S25のYes)、生体検知部24は、S20で取得した画像は生体から得られた画像と判定する(S26)。一方、S23で抽出された光の特徴量と、S22で取得した参照特徴量とが一致しない場合(S25のNo)、生体検知部24は、S20で取得した画像は生体から得られた画像でないと判定する(S27)。
撮影装置10及び処理システム20のその他の構成は、第1の実施形態と同様である。
以上、本実施形態の撮影装置10と処理システム20によれば、第1の実施形態と同様の作用効果が実現される。また、第1の実施形態と異なる処理で第1の実施形態と同様の作用効果が実現されるので、設計の幅が広がり好ましい。
<第4の実施形態>
本実施形態では、複数の撮影装置10は、撮影時に発する光をランダムに又は規則的に変化させる。例えば、あるタイミングでは1つの光源を発光させ、他のタイミングでは複数の光源を発光させるといった具合である。
そして、処理システム20は、取得した画像が生成された時にその画像を生成した撮影装置10が発した光の種別を示す発光種別情報を取得し、当該発光種別情報で示される光の特徴を示す参照特徴量を用いた照合処理を行う。以下、詳細に説明する。
本実施形態の処理システム20の機能ブロック図の一例は、図3で示される。
記憶部25は、複数の撮影装置10各々が撮影時に発する光の特徴を示す参照特徴量を記憶する。図8に、記憶部25が記憶する情報の一例を模式的に示す。図示する例では、撮影装置識別情報と、発光種別と、参照特徴量とが互いに対応付けられている。図示するように、記憶部25は、各撮影装置10に対応付けて、各撮影装置10の複数の参照特徴量のバリエーションを記憶する。
照合部23は、取得部21が取得した画像が生成された時(撮影時)にその画像を生成した撮影装置10が発した光の種別を示す発光種別情報を取得する。照合部23が発光種別情報を取得する手段は、第2の実施形態で説明したものと同様である。
そして、照合部23は、抽出部22により抽出された光の特徴量と、取得した発光種別情報で示される光の特徴を示す参照特徴量とを照合する。
次に、図10のフローチャートを用いて、処理システム20の処理の流れの一例を説明する。なお、各機能部が行う処理の詳細は上述したので、ここでは省略する。
まず、取得部21が、画像及び撮影装置識別情報を取得する(S30及びS31)。次いで、照合部23が、S30で取得した画像生成時に撮影装置10が発した光の種別を示す発光種別情報を取得する(S32)。そして、照合部23が、S31で取得した撮影装置識別情報、及び、S32で取得した発光種別識別情報に対応する参照特徴量を記憶部25(図8参照)から取り出す(S33)。また、抽出部22が、S30で取得した画像から、人物の角膜で反射した光の特徴量を抽出する(S34)。なお、S32及びS33と、S34との処理順は図示する例に限定されない。
次いで、照合部23が、S34で抽出された光の特徴量と、S33で取得した参照特徴量とを照合する(S35)
S34で抽出された光の特徴量と、S33で取得した参照特徴量とが一致する場合(S36のYes)、生体検知部24は、S30で取得した画像は生体から得られた画像と判定する(S37)。一方、S34で抽出された光の特徴量と、S33で取得した参照特徴量とが一致しない場合(S36のNo)、生体検知部24は、S30で取得した画像は生体から得られた画像でないと判定する(S38)。
撮影装置10及び処理システム20のその他の構成は、第3の実施形態と同様である。
以上、本実施形態の撮影装置10と処理システム20によれば、第3の実施形態と同様の作用効果が実現される。また、撮影装置10が撮影時に発する光をランダムに又は規則的に変化させながら第3の実施形態で説明した生体検知を行うことができるので、不正行為をより効果的に排除することができる。
<第5の実施形態>
本実施形態では、「第1乃至第4の実施形態の中のいずれかの生体検知処理」と、「撮影装置10が発する光を変化させて同一人物を複数回撮影することで生成された複数の画像に基づく生体検知処理」とを組み合わせた生体検知を行う。以下、詳細に説明する。
本実施形態の処理システム20の機能ブロック図の一例は、図3で示される。
本実施形態では、撮影装置10は、発する光を変化させて同一人物を複数回撮影し、同一人物を含む複数の画像を生成する。例えば、あるタイミングでは1つの光源を発光させて撮影し、他のタイミングでは他の光源(又は複数の光源)を発光させて撮影するといった具合である。
抽出部22は、複数の画像各々から、人物の角膜で反射した光の特徴量を抽出する。
照合部23は、同一人物を含む複数の画像各々から抽出された光の特徴量どうしを照合する。
生体検知部24は、同一人物を含む複数の画像各々から抽出された光の特徴量に基づき生体検知を行う。具体的には、生体検知部24は、前記複数の画像各々から抽出された光の特徴量どうしが所定の関係を満たすか否かの結果に基づき生体検知を行う。所定の関係は「複数の画像各々から抽出された光の特徴量が互いに一致しない」、「複数の画像各々から抽出された光の特徴量が示す発光位置の相対的な関係が所定の関係を満たす」などであるが、これらに限定されない。
例えば、あるタイミングでは1つの光源を発光させて撮影し、他のタイミングでは他の1つの光源を発光させて撮影した場合、この非常に短い2つのタイミングの間に被撮影者がほとんど動いていないことを前提とすると、あるタイミングで生成した画像における瞳孔内の反射光の位置と、他のタイミングで生成した画像における瞳孔内の反射光の位置とは互いに異なる。また、その相対的な関係は、2つの光源の相対的な位置関係、及び、カメラと光源と被撮影者との間の相対的な位置関係等に基づき算出できる。
次に、図11のフローチャートを用いて、処理システム20の処理の流れの一例を説明する。なお、各機能部が行う処理の詳細は上述したので、ここでは省略する。
まず、取得部21が、複数の画像及び撮影装置識別情報を取得する(S40及びS41)。ここでは、取得部21は、先のタイミングで撮影された画像と後のタイミングで撮影された画像を取得するものとする。なお、先の撮影タイミングと後の撮影タイミングにおいては、撮影装置10が発した光の種別が異なる。そして、抽出部22が、S40で取得した複数の画像各々から、人物の角膜で反射した光の特徴量を抽出する(S42)。
次いで、照合部23が、先のタイミングで撮影された画像から抽出された光の特徴量と、記憶部25に記憶されている複数の撮影装置10各々の参照特徴量(先のタイミングの撮影時に発する光の特徴を示す参照特徴量)とに基づき、S42で抽出された光の特徴量に対応する撮影装置10を特定する(S43)。予め、撮影装置10毎に先のタイミングで発する光の種別が決定されており、その情報を処理システム20に記憶されていてもよい。なお、ここの処理は、「先のタイミング」を「後のタイミング」に置き換えてもよい。
そして、S43で特定した撮影装置10と、S41で取得した撮影装置識別情報が示す撮影装置10とが一致する場合(S44のYes)、照合部23は、先のタイミングで撮影された画像から抽出された光の特徴量と、後のタイミングで撮影された画像から抽出された光の特徴量とが所定の関係を満たすか判断する(S45)。所定の関係は、上述した通りである。
先のタイミングで撮影された画像から抽出された光の特徴量と、後のタイミングで撮影された画像から抽出された光の特徴量とが所定の関係を満たす場合(S46のYes)、生体検知部24は、S40で取得した画像は生体から得られた画像と判定する(S47)。
一方、S43で特定した撮影装置10と、S41で取得した撮影装置識別情報が示す撮影装置10とが一致しない場合(S23のNo)、また、先のタイミングで撮影された画像から抽出された光の特徴量と、後のタイミングで撮影された画像から抽出された光の特徴量とが所定の関係を満たさない場合(S46のNo)、生体検知部24は、S40で取得した画像は生体から得られた画像でないと判定する(S48)。
なお、S40乃至S43の処理は、図9のS20乃至S25、又は、図10のS30乃至S36に置き換えてもよい。
撮影装置10及び処理システム20のその他の構成は、第1乃至第4の実施形態のいずれかと同様である。
以上、本実施形態の撮影装置10と処理システム20によれば、複数の生体検知処理を組み合わせることで、生体検知の精度が向上する。
<第6の実施形態>
本実施形態の撮影装置10と処理システム20は、図12に示すように1対1の関係である。撮影装置10と処理システム20とは、物理的及び/又は論理的に分かれていてもよいし、物理的及び/又は論理的に一体となっていてもよい。
このような本実施形態の場合、処理システム20の記憶部25は、対応する撮影装置10の参照特徴量のみを記憶する。そして、取得部21は、撮影装置識別情報を取得する必要がない。撮影装置10及び処理システム20のその他の構成は、第1乃至第4の実施形態のいずれかと同様である。
以上、本実施形態の撮影装置10と処理システム20によれば、第1乃至第5の実施形態と同様の作用効果を実現できる。
<変形例>
ここで、すべての実施形態に適用可能な変形例を説明する。処理システム20は、各撮影装置10から取得した画像を、各撮影装置10の撮影装置識別情報に対応付けて蓄積してもよい。そして、当該蓄積したデータを、上述した推定モデル(図6参照)を生成するための教師データとして利用してもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. 第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段と、
前記抽出された光の特徴量と、複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量とに基づき、前記抽出された光の特徴量に対応する撮影装置を特定する照合手段と、
前記第1の撮影装置と前記特定された撮影装置とが一致するか否かの結果に基づき生体検知を行う生体検知手段と、
を有する処理システム。
2. 1に記載の処理システムにおいて、
前記複数の撮影装置は、撮影時に発する光をランダムに又は規則的に変化させ、
前記照合手段は、前記人物が撮影された時に前記複数の撮影装置各々が発する光の種別を示す発光種別情報を取得し、前記発光種別情報に基づき、前記抽出された光の特徴量に対応する撮影装置を特定する処理システム。
3. 第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段と、
前記抽出された光の特徴量と、前記第1の撮影装置が撮影時に発する光の特徴を示す参照特徴量とを照合する照合手段と、
前記抽出された光の特徴量と前記参照特徴量とが一致するか否かの結果に基づき生体検知を行う生体検知手段と、
を有する処理システム。
4. 3に記載の処理システムにおいて、
前記第1の撮影装置は、発する光をランダムに又は規則的に変化させ、
前記照合手段は、前記第1の撮影装置が前記人物を撮影した時に発した光の種別を示す発光種別情報を取得し、前記抽出された光の特徴量と、前記発光種別情報で示される光の特徴を示す前記参照特徴量とを照合する処理システム。
5. 1から4のいずれかに記載の処理システムにおいて、
前記第1の撮影装置は、発する光を変化させて同一人物を含む複数の画像を生成し、
前記生体検知手段は、前記複数の画像各々から抽出された光の特徴量に基づき生体検知を行う処理システム。
6. 5に記載の処理システムにおいて、
前記照合手段は、前記複数の画像各々から抽出された光の特徴量どうしを照合し、
前記生体検知手段は、前記複数の画像各々から抽出された光の特徴量どうしが一致するか否かの結果に基づき生体検知を行う処理システム。
7. 1から6のいずれかに記載の処理システムにおいて、
前記抽出手段は、光のパターン、及び、瞳孔内の光の位置の少なくとも一方を示す特徴量を抽出する処理システム。
8. 1から7のいずれかに記載の処理システムにおいて、
前記抽出手段は、右目及び左目各々の角膜で反射した光の特徴量を抽出する処理システム。
9. コンピュータが、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出し、
前記抽出された光の特徴量と、複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量とに基づき、前記抽出された光の特徴量に対応する撮影装置を特定し、
前記第1の撮影装置と前記特定された撮影装置とが一致するか否かの結果に基づき生体検知を行う処理方法。
10. コンピュータが、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出し、
前記抽出された光の特徴量と、前記第1の撮影装置が撮影時に発する光の特徴を示す参照特徴量とを照合し、
前記抽出された光の特徴量と前記参照特徴量とが一致するか否かの結果に基づき生体検知を行う処理方法。
11. コンピュータを、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段、
前記抽出された光の特徴量と、複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量とに基づき、前記抽出された光の特徴量に対応する撮影装置を特定する照合手段、
前記第1の撮影装置と前記特定された撮影装置とが一致するか否かの結果に基づき生体検知を行う生体検知手段、
として機能させるプログラム。
12. コンピュータを、
第1の撮影装置が生成した画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段、
前記抽出された光の特徴量と、前記第1の撮影装置が撮影時に発する光の特徴を示す参照特徴量とを照合する照合手段、
前記抽出された光の特徴量と前記参照特徴量とが一致するか否かの結果に基づき生体検知を行う生体検知手段、
として機能させるプログラム。
以上、実施形態(及び実施例)を参照してこの開示を説明したが、この開示は上記実施形態(及び実施例)に限定されるものではない。この開示の構成や詳細には、この開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2019年6月6日に出願された日本出願特願2019-105904号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1A プロセッサ
2A メモリ
3A 入出力I/F
4A 周辺回路
5A バス
1 サーバ
2 クライアント端末
10 撮影装置
20 処理システム
21 取得部
22 抽出部
23 照合部
24 生体検知部

Claims (10)

  1. 撮影時に互いに異なる特徴の光を発する複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量を記憶する記憶手段と、
    画像と、前記画像を生成した撮影装置を示す撮影装置識別情報とを取得する取得手段と、
    前記画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段と、
    前記抽出された光の特徴量と、前記記憶手段に記憶されている前記参照特徴量とを照合し、前記抽出された光の特徴量と一致する前記参照特徴量に紐付けられた撮影装置を特定する照合手段と、
    前記撮影装置識別情報で示される撮影装置と前記特定された撮影装置とが一致しない場合、前記画像は生体を撮影した画像でないと判定する生体検知手段と、
    を有する処理システム。
  2. 請求項1に記載の処理システムにおいて、
    前記複数の撮影装置は、複数の種別の光を発することができ、撮影時に発する光の種別をランダムに又は規則的に変化させ、
    前記記憶手段は、前記複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が発することができる複数の種別の光各々の特徴を示す前記参照特徴量を記憶し、
    前記照合手段は、
    前記複数の撮影装置各々からの通知、又は予め記憶していた前記複数の撮影装置各々が各タイミングで発する光の種別を算出する算出ルールに基づき、前記人物が撮影された時に前記複数の撮影装置各々が発する光の種別を特定し、
    前記抽出された光の特徴量と、前記人物が撮影された時に前記複数の撮影装置各々が発する種別の光の特徴を示す前記参照特徴量とを照合し、前記抽出された光の特徴量と一致する前記参照特徴量に紐付けられた撮影装置を特定する処理システム。
  3. 撮影時に互いに異なる特徴の光を発する複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量を記憶する記憶手段と、
    画像と、前記画像を生成した撮影装置を示す撮影装置識別情報とを取得する取得手段と、
    前記画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段と、
    前記抽出された光の特徴量と、前記撮影装置識別情報で示される撮影装置に紐付けて前記記憶手段に記憶されている参照特徴量とを照合する照合手段と、
    前記照合手段による照合の結果が不一致である場合、前記画像は生体を撮影した画像でないと判定する生体検知手段と、
    を有する処理システム。
  4. 請求項3に記載の処理システムにおいて、
    前記複数の撮影装置は、複数の種別の光を発することができ、撮影時に発する光の種別をランダムに又は規則的に変化させ、
    前記記憶手段は、前記複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が発することができる複数の種別の光各々の特徴を示す前記参照特徴量を記憶し、
    前記照合手段は、
    前記複数の撮影装置各々からの通知、又は予め記憶していた前記複数の撮影装置各々が各タイミングで発する光の種別を算出する算出ルールに基づき、前記人物が撮影された時に前記複数の撮影装置各々が発する光の種別を特定し、
    前記抽出された光の特徴量と、前記撮影装置識別情報で示される撮影装置に紐付けて前記記憶手段に記憶されている前記参照特徴量の中の前記人物が撮影された時にその撮影装置が発する種別の光の特徴を示す前記参照特徴量とを照合する処理システム。
  5. 請求項1から4のいずれか1項に記載の処理システムにおいて、
    前記複数の撮影装置は、発する光の特徴を変化させながら同一人物を複数回撮影して複数の画像を生成し、
    前記取得手段は、前記複数の画像を取得し、
    前記抽出手段は、前記複数の画像各々から、人物の角膜で反射した光の特徴量を抽出し、
    前記照合手段は、前記複数の画像各々から抽出された前記光の特徴量を互いに照合し、
    前記生体検知手段は
    記複数の画像各々から抽出された前記光の特徴量が互いに一致する場合、前記画像は生体を撮影した画像でないと判定する処理をさらに行う処理システム。
  6. 請求項1から5のいずれか1項に記載の処理システムにおいて、
    前記抽出手段は、光のパターン、及び、瞳孔内の光の位置の少なくとも一方を示す特徴量を抽出する処理システム。
  7. コンピュータが、
    撮影時に互いに異なる特徴の光を発する複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量を記憶しておき、
    画像と、前記画像を生成した撮影装置を示す撮影装置識別情報とを取得し、
    前記画像から、人物の角膜で反射した光の特徴量を抽出し、
    前記抽出された光の特徴量と、記憶されている前記参照特徴量とを照合し、前記抽出された光の特徴量と一致する前記参照特徴量に紐付けられた撮影装置を特定し、
    前記撮影装置識別情報で示される撮影装置と前記特定された撮影装置とが一致しない場合、前記画像は生体を撮影した画像でないと判定する処理方法。
  8. コンピュータが、
    撮影時に互いに異なる特徴の光を発する複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量を記憶しておき、
    画像と、前記画像を生成した撮影装置を示す撮影装置識別情報とを取得し、
    前記画像から、人物の角膜で反射した光の特徴量を抽出し、
    前記抽出された光の特徴量と、前記撮影装置識別情報で示される撮影装置に紐付けて記憶されている参照特徴量とを照合し、
    前記照合の結果が不一致である場合、前記画像は生体を撮影した画像でないと判定する処理方法。
  9. コンピュータを、
    撮影時に互いに異なる特徴の光を発する複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量を記憶する記憶手段、
    画像と、前記画像を生成した撮影装置を示す撮影装置識別情報とを取得する取得手段、
    前記画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段、
    前記抽出された光の特徴量と、前記記憶手段に記憶されている前記参照特徴量とを照合し、前記抽出された光の特徴量と一致する前記参照特徴量に紐付けられた撮影装置を特定する照合手段、
    前記撮影装置識別情報で示される撮影装置と前記特定された撮影装置とが一致しない場合、前記画像は生体を撮影した画像でないと判定する生体検知手段、
    として機能させるプログラム。
  10. コンピュータを、
    撮影時に互いに異なる特徴の光を発する複数の撮影装置各々に紐付けて、前記複数の撮影装置各々が撮影時に発する光の特徴を示す参照特徴量を記憶する記憶手段、
    画像と、前記画像を生成した撮影装置を示す撮影装置識別情報とを取得する取得手段、
    前記画像から、人物の角膜で反射した光の特徴量を抽出する抽出手段、
    前記抽出された光の特徴量と、前記撮影装置識別情報で示される撮影装置に紐付けて前記記憶手段に記憶されている参照特徴量とを照合する照合手段、
    前記照合手段による照合の結果が不一致である場合、前記画像は生体を撮影した画像でないと判定する生体検知手段、
    として機能させるプログラム。
JP2021524688A 2019-06-06 2020-04-13 処理システム、処理方法及びプログラム Active JP7485448B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019105904 2019-06-06
JP2019105904 2019-06-06
PCT/JP2020/016266 WO2020246141A1 (ja) 2019-06-06 2020-04-13 処理システム、処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2020246141A1 JPWO2020246141A1 (ja) 2020-12-10
JPWO2020246141A5 JPWO2020246141A5 (ja) 2022-02-16
JP7485448B2 true JP7485448B2 (ja) 2024-05-16

Family

ID=73652088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021524688A Active JP7485448B2 (ja) 2019-06-06 2020-04-13 処理システム、処理方法及びプログラム

Country Status (4)

Country Link
EP (1) EP3982325A4 (ja)
JP (1) JP7485448B2 (ja)
AR (1) AR121165A1 (ja)
WO (1) WO2020246141A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180349721A1 (en) 2017-06-06 2018-12-06 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
JP2019506694A (ja) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド 生体測定分析のシステムおよび方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US9886639B2 (en) * 2014-12-31 2018-02-06 Morphotrust Usa, Llc Detecting facial liveliness
WO2016109841A1 (en) 2014-12-31 2016-07-07 Morphotrust Usa, Llc Detecting facial liveliness
JP7004955B2 (ja) 2017-12-11 2022-01-21 トヨタ自動車株式会社 サービス提供装置、サービス提供プログラム及び音声認識によるサービスを提供する方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019506694A (ja) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド 生体測定分析のシステムおよび方法
US20180349721A1 (en) 2017-06-06 2018-12-06 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations

Also Published As

Publication number Publication date
AR121165A1 (es) 2022-04-27
EP3982325A4 (en) 2022-08-03
US20220254192A1 (en) 2022-08-11
JPWO2020246141A1 (ja) 2020-12-10
WO2020246141A1 (ja) 2020-12-10
EP3982325A1 (en) 2022-04-13

Similar Documents

Publication Publication Date Title
US10305908B2 (en) Liveness detection
JP6722272B2 (ja) 凝視情報を使用するユーザの識別および/または認証
US20170046583A1 (en) Liveness detection
JP6751072B2 (ja) 生体認証システム
US8264327B2 (en) Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2018206239A (ja) 認証装置および認証方法
US20200218915A1 (en) Method for authenticating user and electronic device thereof
WO2017025575A1 (en) Liveness detecton
US12056955B2 (en) Information providing device, information providing method, and storage medium
JP7485448B2 (ja) 処理システム、処理方法及びプログラム
US11216667B2 (en) Information processing apparatus, method for information processing, and storage medium
US20230305634A1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium
US12131585B2 (en) Processing system, processing method, and non-transitory storage medium
US20180181772A1 (en) Electronic device and operation method thereof
JP2023150898A (ja) 認証システム及び認証方法
JP2021124868A (ja) 情報処理装置、シルエット抽出方法、プログラム
US20170068848A1 (en) Display control apparatus, display control method, and computer program product
JP2020129298A (ja) 計算機システム
JP2006072429A (ja) 生体情報登録装置および個人認証装置
JP2006113772A (ja) 生体情報認証装置、生体情報登録装置および生体情報照合装置
JP2021190041A (ja) 視線推定システム、視線推定方法、視線推定プログラム、学習用データ生成装置、及び、視線推定装置
JP2013196364A (ja) 角膜反射検出装置、角膜反射検出プログラムおよび角膜反射検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230906

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20231102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240425

R150 Certificate of patent or registration of utility model

Ref document number: 7485448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150