JP7460016B2 - 当人認証支援システム、当人認証支援方法及びプログラム - Google Patents

当人認証支援システム、当人認証支援方法及びプログラム Download PDF

Info

Publication number
JP7460016B2
JP7460016B2 JP2023512623A JP2023512623A JP7460016B2 JP 7460016 B2 JP7460016 B2 JP 7460016B2 JP 2023512623 A JP2023512623 A JP 2023512623A JP 2023512623 A JP2023512623 A JP 2023512623A JP 7460016 B2 JP7460016 B2 JP 7460016B2
Authority
JP
Japan
Prior art keywords
depth
information
measurement
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023512623A
Other languages
English (en)
Other versions
JPWO2022215248A5 (ja
JPWO2022215248A1 (ja
Inventor
佳子 今西
泰成 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022215248A1 publication Critical patent/JPWO2022215248A1/ja
Publication of JPWO2022215248A5 publication Critical patent/JPWO2022215248A5/ja
Priority to JP2024045039A priority Critical patent/JP2024075700A/ja
Application granted granted Critical
Publication of JP7460016B2 publication Critical patent/JP7460016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、当人認証支援システム、当人認証支援方法及びプログラムに関する。
例えば特許文献1には、本人を認証するための技術として、画像処理装置が開示されている。特許文献1に記載の画像処理装置は、第1の波長の光を用いて被写体を撮影することで生成された第1の画像と、第2の波長の光を用いて、被写体を撮影することで生成された第2の画像と、被写体の深度情報と、を取得する取得部と、第2の画像に写る顔を検出する検出部と、を有する。
また、当該画像処理装置は、深度情報に基づいて、検出部が検出した顔が生体を撮影したものであるか否かを判定する判定部と、判定部が生体を撮影したものであると判定した顔に関する情報に基づいて、前記第1の画像から顔画像を抽出する抽出部とを有する。
国際公開第2018/079031号
特許文献1に記載の技術によれば、深度情報に基づいて、検出部が検出した顔が生体を撮影したものであるか否かが判定される。しかしながら、深度情報を生成するセンサなどの測定装置によっては、生成される深度情報の精度にバラツキがあることが多い。そのため、画像に写る顔が生体を撮影したものであるか否かを正確に判断できず、正確な当人認証が困難になることがある。
本発明は、上述の事情に鑑みてなされたもので、その目的の1つは、当人認証の精度向上を支援することにある。
上記目的を達成するため、本発明の第1の観点に係る当人認証支援システムは、
対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得する測定条件取得手段と、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定する領域設定手段と、
前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得する深度取得手段と、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する照合判断手段とを備える。
本発明の第の観点に係る当人認証支援方法は、
コンピュータが、
対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得することと、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定することと、
前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得することと、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断することとを含む。
本発明の第の観点に係るプログラムは、
コンピュータに、
対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得することと、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定することと、
前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得することと、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断することとを実行させるためのプログラムである。
本発明によれば、当人認証の精度向上を支援することが可能になる。
本発明の実施の形態1に係る当人認証支援システムの構成を示す図である。 読取り画像の一例を示す図である。 実施の形態1に係る測定条件-精度データの一例を示す図である。 実施の形態1に係る領域設定部の構成を示す図である。 実施の形態1に係る照合判断部の構成を示す図である。 本発明の実施の形態1に係る測定装置の物理的な構成の例を示す図である。 本発明の実施の形態1に係る当人認証支援装置の物理的な構成の例を示す図である。 本発明の実施の形態1に係る測定処理の一例を示すフローチャートである。 表示部によって表示される、撮影領域SAの画像の一例を示す図である。 対象者の顔を含む撮影領域SAの画像の一例を示す図である。 図8に示す測定情報生成処理の一例を示すフローチャートである。 撮影領域SAに対応付けて定められた複数の測定点MPの一例を示す図である。 本発明の実施の形態1に係る当人認証処理の一例を示すフローチャートである。 撮影領域SAから特定される顔領域FRの一例を示す図である。 顔領域FRに含まれる測定点MPの一例を示す図である。 本発明の実施の形態2に係る当人認証支援システムの構成を示す図である。 本発明の実施の形態2に係る測定処理の一例を示すフローチャートである。 図17に示す測定情報生成処理の一例を示すフローチャートである。 本発明の実施の形態2に係る当人認証処理の一例を示すフローチャートである。 変形例3に係る測定条件-精度データの一例を示す図である。 変形例8に係る当人認証支援システムの機能的な構成を示す図である。 変形例9に係る当人認証支援装置の機能的な構成を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。なお、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
<<実施の形態1>>
<当人認証支援システム100の構成>
本発明の実施の形態1に係る当人認証支援システム100は、対象者の当人認証を支援するシステムである。当人認証では、対象者を識別するための情報が対象者自身のものであることが確認される。このような当人認証は、例えば、ネットショッピングなどで取引を行うメンバとして対象者を登録する際など、対象者の個人情報を取り扱う処理において行われることがある。この場合の対象者を識別するための情報は、対象者によって入力される氏名、住所、生年月日などである。
当人認証支援システム100は、図1に示すように、測定装置101と、当人認証支援装置102とを備える。測定装置101と当人認証支援装置102とは、有線、無線又はこれらを適宜組み合わせて構成されるネットワークを介して互いに情報を送受信可能に接続されている。
以下、当人認証支援装置102を単に「支援装置102」とも表記する。
<測定装置101の機能的構成>
測定装置101は、対象者の当人認証に用いられる情報を生成可能な装置であって、機能的に、入力部103と、表示部104と、読取り部105と、深度測定部106と、明度測定部107と、通信部108とを含む。
入力部103は、対象者の指示を受け付ける。表示部104は、対象者に情報を表示する。
読取り部105は、カメラ1070(図6参照)などから構成され、対象者の顔を含む撮影領域SAを撮影して、当該撮影した撮影領域SAの画像を示す画像情報を生成する。
また、読取り部105は、対象者の顔画像が関連付けられた本人確認書類を撮影することによって本人確認書類に示される情報を読み取り、当該撮影した読取り画像Mを示す読取り画像情報を生成する。本人確認書類は、公的な書類が望ましく、運転免許証、個人番号カード(いわゆる、マイナンバーカード)などである。
図2は、読取り画像Mの一例を示す。同図に示す読取り画像Mは、本人確認書類の一面に対象者の顔写真を含むことによって、対象者の顔画像が本人確認書類に関連付けられている。
再び、図1を参照する。
深度測定部106は、読取り部105によって撮影される撮影領域SAに対応付けて予め定められる複数の測定点MPの各々の深度を測定して、当該測定した深度を示す深度情報を生成する。複数の測定点MPの深度は、読取り部105から、複数の測定点MPの各々に対応する実空間上の点までの距離である。
例えば、読取り部105、深度測定部106がそれぞれカメラ1070、深度センサ1090(図6参照)によって構成される場合、カメラ1070及び深度センサ1090は、測定装置101において互いに近い位置に設けられるとよい。これによって、実質的に、読取り部105から測定点MPの各々までの距離を測定することができる。
明度測定部107は、読取り部105によって画像が撮影される時の撮影環境の明るさを測定する照度センサ1080(図6参照)であり、当該測定した明るさを示す明度情報を生成する。
通信部108は、上述のネットワークを介して、支援装置102との間で互いに情報を送受信する。本実施の形態に係る通信部108は、対象者の指示に応じて、画像情報、読取り画像情報、深度情報、明度情報、深度の測定条件を示す測定条件情報を支援装置102へ送信する。
測定条件情報は、測定装置101における深度の測定条件を示す情報であり、本実施の形態では、OS(Operating System)情報である。OS情報は、測定装置101にて動作するOSを識別するための情報であり、例えば、OSの種類、バージョンなどを示す。OS情報は、例えば、測定装置101に含まれる記憶部(不図示)に予め記憶され、通信部108によって取得される。
<当人認証支援装置102の機能的構成>
支援装置102は、測定装置101によって生成された情報に基づいて、対象者の当人認証のための照合処理を行うか否かを判断する。そして、支援装置102は、判断の結果に応じて、当人認証のための照合処理や認証処理を行う。
支援装置102は、機能的に、読取り画像取得部110と、画像情報取得部111と、測定条件取得部112と、明度取得部113と、データ記憶部114と、領域設定部115と、深度取得部116と、照合判断部117と、認証部118とを含む。
読取り画像取得部110は、読取り画像情報を測定装置101から取得する。画像情報取得部111は、画像情報を測定装置101から取得する。測定条件取得部112は、測定条件情報を測定装置101から取得する。明度取得部113は、明度情報を測定装置101から取得する。
データ記憶部114は、測定条件-精度データ114aが予め格納される記憶部である。測定条件-精度データ114aは、図3に示すように、測定条件情報と精度情報とを関連付けたデータである。精度情報は、深度の測定精度を示す情報である。
図3に例示する測定条件-精度データ114aでは、測定条件情報はOSの種類を示し、精度情報は深度の測定精度を示す。具体的には、図3の測定条件-精度データ113aにおいて、「A」というOSには、深度の測定精度として「150」が関連付けられており、「B」というOSには、深度の測定精度として「80」が関連付けられている。
なお、測定条件-精度データ114aに含まれる測定条件情報は、2つに限られず、適宜変更されてよい。
領域設定部115は、測定条件取得部112によって取得される測定条件情報が示す測定条件に応じて、処理領域を設定する。処理領域は、画像情報取得部111によって取得される画像の撮影領域SAのうち、深度情報の処理対象となる領域である。
詳細には、領域設定部115は、図4に示すように機能的に、精度判断部120と、設定部121とを含む。
精度判断部120は、測定条件取得部112によって取得される測定条件情報に基づいて、深度の測定精度が高精度であるか否かを判断する。
本実施の形態に係る精度判断部120は、測定条件情報と測定条件-精度データ114aとに基づいて得られる測定精度が予め定められる測定基準を満たすか否かに応じて、深度の測定精度が高精度であるか否かを判断する。
例えば、測定基準は、測定精度情報が示す値が予め定められる閾値(例えば「100」)以上である場合に高精度であり、測定精度情報が示す値が当該閾値未満である場合に低精度である、という基準である。
設定部121は、精度判断部120によって判断された測定精度が高精度である場合に、当該判断された測定精度が高精度でない(すなわち、低精度である)場合よりも狭い処理領域を設定する。
例えば、測定精度が低精度である場合の処理領域は、撮影領域SAの全体である。測定精度が高精度である場合の処理領域は、顔領域FRである。顔領域FRは、対象者の顔に対応する領域であり、撮影領域SAの一部であるので、撮影領域SAの全体よりも狭い。
再び、図1を参照する。
深度取得部116は、領域設定部115によって設定された処理領域における深度を含む深度情報を測定装置101から取得する。深度取得部116によって取得される深度情報は、測定条件取得部112によって取得される測定情報が示す測定条件で測定された深度を示す。
本実施の形態に係る深度取得部116は、明度測定部107によって測定される明るさが予め定められる照度基準を満たす場合に、深度情報を測定装置101から取得する。
本実施の形態に係る照度基準は、例えば、明るさの上限及び下限を含む範囲で規定される。例えば、上限値がTHU[カンデラ]であり、下限値がTHL[カンデラ]である場合、照度基準は、明度測定部107によって測定される明るさがTHL[カンデラ]以上、かつ、THU[カンデラ]以下であることである。
また、本実施の形態では、深度取得部116は、撮影領域SA全体の深度を示す深度情報を測定装置101から取得する。
照合判断部117は、領域設定部115によって設定された処理領域の深度情報に基づいて、対象者の画像情報を照合処理に用いるか否かを判断する。
照合処理は、例えば、画像情報が示す画像と読取り画像Mとを照合する処理であって、これにより、画像情報が示す画像と読取り画像Mとに含まれる人が同一人(対象者)であることを確認する。詳細には例えば、画像情報が示す画像と読取り画像Mとに含まれる人の顔画像の特徴量の類似度が予め定められる閾値以上である場合に、画像情報が示す画像と読取り画像Mとに含まれる人が同一人であると推定される。また、当該類似度が当該閾値未満である場合に、画像情報が示す画像と読取り画像Mとに含まれる人が同一人でないと推定される。
ここで、一般的に、他人の本人確認書類によって当人認証を受ける、いわゆる、なりすましの典型的な手法として、本人確認書類によって識別される個人(本人)以外の第三者が本人を予め撮影した画像をディスプレイやモニタの画面に表示し、当該画面に表示された画像を撮影する手法がある。この手法によれば、画像情報と読取り画像Mとに含まれる対象者の顔画像の特徴量の類似度に基づく照合処理では、第三者が他人の本人確認書類を使用して当人認証を受けようとしているにもかかわらず、画像情報が示す画像と読取り画像Mとに含まれる人が同一人であると推定されることがある。
そこで、このような手法のなりすましを防ぐために、照合判断部117は、領域設定部115によって設定された処理領域の深度情報に基づいて、画像情報の真正性を確認する。画像情報の真正性とは、画像情報に含まれる人の画像が、実際に人を撮影すること(すなわち、当該画像情報が生成された撮影の時にその撮影場所に実在した人を撮影すること)によって得られたものであることを意味する。
ディスプレイやモニタの画面に表示された画像を撮影した場合、画面は平らなことが多いため、深度情報は概ね平らな面を示すものとなるのに対して、実際に人を撮影した場合、深度情報はある程度以上の凹凸を示すものとなる。そのため、照合判断部117は、処理領域の深度情報に基づいて、画像情報の真正性を推定することができる。
そして、照合判断部117は、画像情報が真正であると推定される場合に対象者の画像情報を照合処理に用いると判断し、画像情報が真正でないと推定される場合に対象者の画像情報を照合処理に用いないと判断する。
詳細には、照合判断部117は、図5に示すように、抽出部130と、判断部131とを含む。
抽出部130は、深度取得部116によって取得された深度情報の中から、設定部121によって設定された処理領域の深度情報を抽出する。
判断部131は、抽出部130によって抽出された深度情報を用いて、対象者の画像情報を照合処理に用いるか否かを判断する。
より詳細には、判断部131は、抽出部130によって抽出された深度情報を用いて、当該処理領域における凹凸の大きさを示す凹凸レベルを求める。そして、判断部131は、当該求めた凹凸レベルと予め定められる凹凸基準と比較することによって、対象者の画像情報を照合処理に用いるか否かを判断する。
凹凸レベルは、処理領域における凹凸の程度を示す指標であり、本実施の形態では、処理領域における凹凸の標準偏差である。
凹凸基準は、実際に人を撮影した場合の一般的な凹凸レベルに応じて設定され、深度の測定精度に応じて異なる基準が設定される。
例えば、測定精度が低精度である場合の処理領域が撮影領域SAの全体であるとすると、処理対象には対象者及びその背景が含まれる。そのため、低精度用の凹凸基準には、実際に人を撮影した場合の当該人及びその背景の凹凸の標準偏差に応じた値(例えば、一般的に生じる凹凸の標準偏差の最小値)が設定される。
測定精度が高精度である場合の処理領域が対象者の顔に対応する領域を含む部分領域であるとする。高精度用の凹凸基準には、一般的な人の顔における凹凸の標準偏差に応じた値(例えば、一般的な人の顔における凹凸の標準偏差の最小値)が設定される。
再び、図1を参照する。
認証部118は、照合判断部117の判断結果に応じた処理を行う。
詳細には、照合判断部117によって対象者の画像情報を照合処理に用いると判断された場合、認証部118は、画像情報が示す画像と読取り画像Mとを照合する照合処理を含む当人認証処理を行う。当人認証処理では、例えば、認証処理によって本人確認書類の真正性が確認された場合に、対象者が入力した情報が本人確認書類の内容と一致することなどがさらに確認される。また例えば、当人認証処理では、本人確認書類の有効期限などが確認されてもよく、これらは認証者によって確認されて、その結果が支援装置102に入力されてもよい。
照合判断部117によって対象者の画像情報を照合処理に用いないと判断された場合、認証部118は、その旨の通知を測定装置101へ送信する。これにより、測定装置101の表示部104には、照合処理を行わない旨の表示がなされる。
これまで、当人認証支援システム100の機能的な構成について主に説明した。ここから、当人認証支援システム100の物理的な構成について、図を参照して説明する。
<測定装置101の物理的構成>
測定装置101は、物理的には例えば、スマートフォン、タブレット端末などであり、図6に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、ユーザインタフェース1060、カメラ1070、照度センサ1080及び深度センサ1090を含む。なお、測定装置101は、カメラ1070、照度センサ1080及び深度センサ1090が取り付けられたパーソナルコンピュータなどであってもよい。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、カメラ1070、照度センサ1080、深度センサ1090が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は、測定装置101の各機能を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行し、ネットワークインタフェース1050、ユーザインタフェース1060、カメラ1070、照度センサ1080、深度センサ1090と協働することで、測定装置101の各機能部が実現される。
ネットワークインタフェース1050は、ネットワークを介して支援装置102と互いに通信するためのインタフェースであり、通信部108を構成する。
ユーザインタフェース1060は、ユーザに情報を表示し、またユーザが入力するための部位であり、例えば液晶パネル、液晶パネルの画面に設けられたタッチセンサ、キーボード、マウスなどから構成される。ユーザインタフェース1060は、入力部103、表示部104を構成する。
カメラ1070は、画像を撮影する装置であり、読取り部105を構成する。照度センサ1080は、照度を測定するセンサであり、明度測定部107を構成する。深度センサ1090は、深度を測定するセンサであり、深度測定部106を構成する。
<当人認証支援装置102の物理的構成>
当人認証支援装置102は、物理的には例えば、パーソナルコンピュータ、サーバ装置用ホストマシンなどであり、図7に示すように、バス2010、プロセッサ2020、メモリ2030、ストレージデバイス2040、ネットワークインタフェース2050及びユーザインタフェース2060を含む。
バス2010は、プロセッサ2020、メモリ2030、ストレージデバイス2040、ネットワークインタフェース2050、ユーザインタフェース2060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ2020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ2020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ2030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス2040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス2040は、測定装置101の各機能を実現するためのプログラムモジュールを記憶している。プロセッサ2020がこれら各プログラムモジュールをメモリ2030上に読み込んで実行し、適宜ネットワークインタフェース2050、ユーザインタフェース2060と協働することで、測定装置101の各機能部が実現される。
ネットワークインタフェース2050は、ネットワークを介して測定装置101と互いに通信するためのインタフェースである。
ユーザインタフェース2060は、ユーザに情報を表示し、またユーザが入力するための部位であり、例えば液晶パネル、液晶パネルの画面に設けられたタッチセンサ、キーボード、マウスなどから構成される。
これまで、当人認証支援システム100の構成について説明した。ここから、当人認証支援システム100の動作について説明する。
<当人認証支援システム100の動作>
当人認証支援システム100では、測定装置101によって測定処理が実行され、支援装置102によって当人認証支援処理が実行される。測定処理は、当人認証支援処理にて利用される情報(本実施の形態では、対象者の画像情報、深度情報、明度情報、測定条件情報)を取得するための処理である。当人認証支援処理は、対象者の当人認証を支援するための処理である。
以下、これらの処理について図を参照して説明する。
(測定処理)
図8は、本発明の実施の形態1に係る測定処理のフローチャートの一例である。測定処理は、例えば、測定装置101にてアプリケーションが実行されて、対象者から予め定められた指示を受け付けることによって開始される。
読取り部105は、対象者の指示に応じて本人確認書類を撮影することによって、本人確認書類を読み取る(ステップS101)。これによって、読取り部105は、読取り画像Mを示す読取り画像情報を生成する。
読取り部105は、対象者の指示に応じて、撮影領域SAを撮影し(ステップS102)、表示部104は、読取り部105によって撮影されている撮影領域SAの画像を表示する(ステップS103)。これにより、読取り部105によって撮影される撮影領域SAは、表示部104によってリアルタイムで表示される。
図9は、ステップS103にて表示される画像の一例を示す図であり、当該画像は、ステップS102にて撮影された撮影領域SAを示す。同図に示すように、ステップS103にて表示される画像には、ガイドGが含まれる。ガイドGは、画像における対象者の顔の適切な範囲を示す。測定装置101の位置は、顔の輪郭が概ねガイドGと一致するように調整されるとよい。
入力部103は、予め定められた撮影指示を受け付けたか否かを判断する(ステップS104)。対象者によって撮影指示が入力されるまで、入力部103は、撮影指示を受け付けていないと判断し(ステップS104;No)、読取り部105は、ステップS102の処理に戻る。
対象者によって撮影指示が入力されて、撮影指示を受け付けたと判断された場合(ステップS104;Yes)、読取り部105は、撮影領域SAの画像において対象者の顔の位置が予め定められた範囲内であるか否かを判断する(ステップS105)。
顔の位置が予め定められた範囲内でないと判断した場合(ステップS105;No)、読取り部105は、ステップS102の処理に戻る。
顔の位置が予め定められた範囲内であると判断した場合(ステップS105;Yes)、読取り部105は、撮影領域SAを撮影する(ステップS106)。これによって、読取り部105は、撮影領域SAの画像を示す画像情報を生成する。図10は、撮影者の顔を含む撮影領域SAの画像であって、ステップS106にて撮影されたものの一例を示す。
続けて、図8に示すように、測定情報生成処理(ステップS107)が行われる。図11は、測定情報生成処理(ステップS107)の一例を示すフローチャートである。
深度測定部106は、ステップS106にて撮影された撮影領域SAの深度を測定し、当該測定した深度を示す深度情報を生成する(ステップS201)。
図12は、撮影領域SAに対応付けて定められた複数の測定点MPの一例を示す図である。同図では、測定点MPは黒丸で示しており、縦横に等間隔で配列されている。ステップS201では、測定点MPに対応する実空間上の点と読取り部105との間の距離が、深度として測定される。同図では、ステップS106にて撮影された対象者と測定点MPとの位置関係が分かるように、対象者の画像を点線で示している。
なお、本実施の形態では複数の測定点MPが縦横に等間隔で配列される例により説明するが、複数の測定点MPの配置はこれに限られず、複数の測定点MPは任意の位置に配置されてよい。
再び、図8を参照する。
明度測定部107は、ステップS106にて撮影領域SAが撮影される時の撮影環境の明るさを測定し、当該測定した明るさを示す明度情報を生成する(ステップS202)。
通信部108は、ステップS201にて測定された深度の測定条件を示す測定条件情報を記憶部(不図示)から取得する(ステップS203)。
再び、図8を参照する。
通信部108は、明度情報、読取り画像情報、画像情報、深度情報及び測定条件情報を送信する(ステップS108)。通信部108は、明度情報を送信し、これに応じた要求を支援装置102から取得した場合に、その他の情報(読取り画像情報、画像情報、測定条件情報、深度情報)を送信する。
ステップS108にて送信される読取り画像情報は、ステップS101を実行することにより生成されたものである。ステップS108にて送信される画像情報は、ステップS106を実行することにより生成されたものである。ステップS108にて送信される深度情報及び明度情報は、ステップS201~S202にて生成されたものである。ステップS108にて送信される測定条件情報は、ステップS203にて取得されたものである。
これにより、通信部108は、測定処理を終了する。
(当人認証支援処理)
図13は、本発明の実施の形態1に係る当人認証支援処理のフローチャートの一例である。当人認証支援処理は、例えば、ステップS108にて送信された明度情報を明度取得部113が取得することによって開始される。以下、当人認証支援処理を単に「支援処理」とも表記する。
照合判断部117は、明度取得部113によって取得された明度情報が示す明るさが照度基準を満たすか否かを判断する(ステップS301)。照度基準を満たさないと判断された場合(ステップ301;No)、照合判断部117は、照合処理を行わない旨の通知を測定装置101へ送信する通知処理(ステップS302)を実行して、支援処理を終了する。
照度基準は上述の通り、上限と下限とを含む範囲で規定され、照合判断部117は、照度基準に規定された範囲外である場合に、照度基準を満たさないと判断する。
一般的に、撮影環境が暗い場合、画像情報の画像が暗くなり、照合処理を正確に行えないことがある。そのため、下限値未満である場合に、照合判断部117は、照合処理を行わないと判断し、その旨の通知を行って支援処理を終了する。
また、撮影環境が明るい場合、ディスプレイやモニタの画面に表示された画像を撮影した可能性がある。そのため、上限値を超える場合に、照合判断部117は、照合処理を行わないと判断し、その旨の通知を行って支援処理を終了する。
照度基準を満たすと判断された場合(ステップ301;Yes)、照合判断部117は、予め定められた要求を測定装置101へ送信する。通信部108は、この要求に応答して、読取り画像情報、画像情報、測定条件情報、深度情報を送信する。読取り画像取得部110、画像情報取得部111、測定条件取得部112、深度取得部116は、それぞれ、読取り画像情報、画像情報、測定条件情報、深度情報を取得する(ステップS303)。
精度判断部120は、ステップS303にて取得された測定条件情報と測定条件-精度データ114aとに基づいて得られる測定精度が予め定められる測定基準を満たすか否かに応じて、深度の測定精度が高精度であるか否かを判断する(ステップS304)。
詳細には、精度判断部120は、ステップS303にて取得された測定条件情報に測定条件-精度データ114aにおいて関連付けられた精度情報を取得する。精度判断部120は、取得した精度情報が示す測定精度が測定基準を満たすか否かに応じて、深度の測定精度が高精度であるか否かを判断する。
例えば、ステップS303にて取得された測定条件情報が「A」を示す場合、精度判断部120は、図3に示す測定条件-精度データ114aにおいて測定条件情報「A」に関連付けられた精度情報「150」を取得する。そして、精度判断部120は、取得した精度情報が示す「150」と測定基準と比較する。例えば100以上である場合に高精度であるという測定基準である場合、精度判断部120は、深度の測定精度が高精度であると判断する。
また例えば、ステップS303にて取得された測定条件情報が「B」を示す場合、精度判断部120は、図3に示す測定条件-精度データ114aにおいて測定条件情報「B」に関連付けられた精度情報「80」を取得する。そして、上記の測定基準である場合、精度判断部120は、取得した精度情報が示す「80」と測定基準とを比較することによって、深度の測定精度が低精度であると判断する。
再び、図13を参照する。
高精度でない(すなわち、低精度である)と判断された場合(ステップS303;No)、設定部121は、ステップS303にて取得された画像情報の撮影領域SA全体を処理領域に設定する(ステップS305)。
照合判断部117は、ステップS305にて設定された処理領域である撮影領域SA全体の深度情報に基づいて、対象者の画像情報を照合処理に用いるか否か、言い換えると対象者の画像情報を用いた照合処理を行うか否かを判断する(ステップS306)。
詳細には例えば、照合判断部117は、撮影領域SA全体の深度情報に含まれる複数の測定点MPのうち、最小のものを基準深度として特定する。照合判断部117は、撮影領域SA全体の深度情報に含まれる各深度から基準深度を引くことによって、撮影領域SA全体に含まれる測定点MPの各々の凹凸を求める。照合判断部117は、求めた凹凸の標準偏差を求めることによって、撮影領域SA全体の凹凸レベルを求める。
照合判断部117は、求めた凹凸レベルと低精度用の凹凸基準とを比較する。低精度用の凹凸基準には、例えば、実際に人を撮影した撮影領域SA全体における一般的な凹凸レベルの最小値が設定される。
撮影領域SA全体は対象者とその背景とを含むため、実際に撮影された撮影領域SA全体にはある程度の凹凸があるのに対して、ディスプレイやモニタの画面は概ね平らである。そのため、撮影領域SAが実際に撮影された場合の凹凸には、通常、ディスプレイやモニタの画面に表示された人を含む画像を撮影した場合の凹凸よりも大きなバラツキが生じる。
このような理由で、求めた凹凸レベルが低精度用の凹凸基準より大きい場合、画像情報が真正である(すなわち、画像情報が示す画像は、読取り画像情報を送信した時に実際に撮影されたものである)と推定することができる。従って、求めた凹凸レベルが低精度用の凹凸基準より大きい場合、照合判断部117は、対象者の画像情報を用いた照合処理を行うと判断する。
これに対して、求めた凹凸レベルが低精度用の凹凸基準以下である場合、画像情報が真正でないと推定されるので、照合判断部117は、対象者の画像情報を用いた照合処理を行わないと判断する。
対象者の画像情報を用いた照合処理を行わないと判断した場合(ステップS306;No)、照合判断部117は、上述の通知処理(ステップS302)を実行して、支援処理を終了する。
対象者の画像情報を用いた照合処理を行うと判断された場合(ステップS306;Yes)、認証部118は、照合処理を含む当人認証処理(ステップS307)を実行して、支援処理を終了する。
高精度であると判断された場合(ステップS304;Yes)、設定部121は、ステップS302にて取得された画像情報の撮影領域SAから顔領域FRを特定して、顔領域FRを処理領域に設定する(ステップS308)。
図14は、撮影領域SAから特定される顔領域FRの一例を示す。顔領域FRは、従来の画像処理技術を用いて特定されるとよい。例えば従来の画像処理技術は、画像情報に含まれる画像の特徴量などを利用するものであってもよい。また例えば、従来の画像処理技術は、顔を含む画像から顔領域FRを抽出するための学習済みの学習モデルを用い、顔を含む画像を入力として顔領域FRを出力するものであってもよい。なお、図14では、顔領域FRが概ね顔の輪郭に沿った外縁を有することで、髪(頭部)を含み、服装を含まない例を示すが、顔領域FRは、髪(頭部)及び首の一方又は両方を含んでもよく、服装の全体或いは一部(例えば、顔近傍の襟元)を含んでもよい。
再び、図13を参照する。
照合判断部117は、ステップS308にて設定された処理領域である顔領域FRの深度情報を用いて、対象者の画像情報を照合処理に用いるか否か、言い換えると対象者の画像情報を用いた照合処理を行うか否かを判断する(ステップS309)。
図15は、顔領域FRに含まれる測定点MPの一例を示す図である。同図では、顔領域FRに含まれる測定点MPをX印により示している。顔領域FRの深度情報とは、顔領域FRに含まれる測定点MPにおける深度を示す情報である。
詳細には例えば、照合判断部117は、顔領域FRに含まれる測定点MPの深度情報のうち、最小のものを基準深度として特定する。照合判断部117は、顔領域FRの深度情報に含まれる各深度から基準深度を引くことによって、顔領域FRに含まれる測定点MPの各々の凹凸を求める。照合判断部117は、求めた凹凸の標準偏差を求めることによって、顔領域FRの凹凸レベルを求める。
照合判断部117は、求めた凹凸レベルと高精度用の凹凸基準とを比較する。高精度用の凹凸基準には、例えば、一般的な人の顔における凹凸レベルの最小値が設定される。
人の顔には鼻及びその周辺など凹凸があるのに対して、ディスプレイやモニタの画面は概ね平らである。そのため、人の顔が実際に撮影された場合の凹凸には、通常、ディスプレイやモニタの画面に表示された人の顔を撮影した場合の凹凸よりも大きなバラツキが生じる。
このような理由で、求めた凹凸レベルが高精度用の凹凸基準より大きい場合、画像情報が真正であると推定することができる。従って、求めた凹凸レベルが高精度用の凹凸基準より大きい場合、照合判断部117は、対象者の画像情報を照合処理に用いると判断する。
これに対して、求めた凹凸レベルが高精度用の凹凸基準以下である場合、画像情報が真正でないと推定されるので、照合判断部117は、対象者の画像情報を照合処理に用いないと判断する。
ここで、撮影領域SA全体によっても、画像情報の真正性(画像情報によって示される画像が、実際に撮影した画像であるか否か)を推定することができる。
しかし、撮影領域SA全体は、対象者の顔領域FRだけでなく、対象者の顔領域FR以外の領域(髪や服装の領域)、対象者以外の背景領域も含む。対象者の服装や髪の状態などは種々であり、背景の状態は種々であるため、撮影領域SA全体は、撮影時の撮影環境や状態によって変化する不確定な要素が比較的多い。撮影領域SA全体の深度情報によって画像情報の真正性する場合、不確定な要素の影響を受けて、画像情報の真正性を正確に判断できないおそれがある。
これに対して、顔領域FRは、背景などを含まないため、撮影領域SA全体に比べて不確定な要素が少ない。そのため、撮影領域SAよりも狭い領域である顔領域FRの深度情報を用いて画像情報の真正性することによって、不確定な要素の影響をほぼ受けずに、画像情報の真正性を正確に判断できる可能性が高くなる。ただ、顔領域FRは、通常、撮影領域SA全体よりも凹凸が小さいため、高い精度で測定できる測定条件で測定された深度が必要となる。
そこで、本実施の形態のように、測定条件に基づいて深度の測定精度が高精度であると判断される場合には、顔領域FRの深度を用いることで、画像情報の真正性を正確に推定することができる。その一方で、測定条件に基づいて低精度で測定されると判断される場合には、撮影領域SA全体の深度を用いることで、画像情報の真正性を正確に推定することができる。
ここで、上述の画像情報の真正性を推定するための原理から理解されるであろうが、処理領域は、凹凸が大きい部分に対応する領域が望ましい。そのため、測定精度が高精度である場合、鼻に対応する領域を含む処理領域が設定されることが望ましく、上述の顔領域FRは、鼻に対応する領域を含む設定領域の一例である。なお、処理領域は鼻及びその周辺の領域であることがより望ましい。
再び、図13を参照する。
対象者の画像情報を用いた照合処理を行わないと判断した場合(ステップS309;No)、照合判断部117は、上述の通知処理(ステップS302)を実行して、支援処理を終了する。
対象者の画像情報を用いた照合処理を行うと判断された場合(ステップS309;Yes)、認証部118は、照合処理を含む当人認証処理(ステップS307)を実行して、支援処理を終了する。
これまで、本発明の実施の形態1について説明した。
本実施の形態によれば、対象者の顔を含む撮影領域SAの画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置101における深度の測定条件が取得される。そして、測定条件に応じて、撮影領域SAのうち深度情報の処理対象となる領域である処理領域が設定される。上記の測定条件で測定された、処理領域における深度を含む深度情報が取得されると、当該処理領域の深度情報を用いて、対象者の画像情報を照合処理に用いるか否かが判断される。
本実施の形態で説明したように、測定条件に応じて、異なる処理領域の深度情報を用いることによって、画像情報の真正性を正確に推定することができる。そして、画像情報の真正性の推定結果に応じて対象者の画像情報を照合処理に用いるか否かを判断することによって、照合処理を正確に行うことができ、ひいては当人認証の精度を向上させることができる。従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、明度測定部107によって測定される明るさが予め定められる照度基準を満たす場合に、撮領域SAの深度情報が取得される。
画像情報が示す画像又は撮影環境の明るさによって、画像情報に含まれる画像が照合処理に適したものであるか否かを推定し、又は、画像情報の真正性を推定することができる。従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、照度基準は、明るさの上限及び下限を含む。
暗い撮影環境では、画像情報の画像が不鮮明になることが多い。そのため、照度基準が下限を含むことによって、画像情報に含まれる画像が照合処理に適したものであるか否かを推定することができる。
また、明るい撮影環境である場合、ディスプレイやモニタに表示された画像が撮影されていることがある。そのため、照度基準が上限を含むことによって、画像情報の真正性を推定することができる。
従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、測定条件は、深度情報を測定する深度センサを識別するための情報、測定装置101にて動作するOSを識別するための情報、当該深度センサを搭載した機器を識別するための情報、利用可能なAPIを識別するための情報、測定装置101として採用される機器を識別するための情報の少なくとも1つである。
このような測定条件は、深度情報によって示される深度の測定精度に関連付けることができる。このような測定条件に応じて、異なる処理領域の深度情報を用いることによって、画像情報の真正性を正確に推定することができる。従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、測定条件に基づいて、深度の測定精度が高精度であるか否かを判断し、測定精度が高精度である場合に、測定精度が高精度でない場合よりも狭い処理領域が設定される。
測定精度が高精度である場合、本実施の形態で例示した顔領域FRのように不確定な要素が比較的少ない狭い領域を処理領域に設定することで、画像情報の真正性を正確に推定することができる。従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、測定精度が高精度である場合の処理領域は、対象者の鼻に対応する領域を含む。
鼻に対応する領域は、不確定な要素が比較的少なく、かつ、凹凸量が比較的大きい領域である。このような領域を高精度である場合の処理領域とすることによって、画像情報の真正性を正確に推定することができる。従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、撮影領域SAの深度情報が深度取得部116によって取得され、当該取得された深度情報の中から処理領域の深度情報が抽出される。そして、当該抽出された深度情報に基づいて、対象者の画像情報を照合処理に用いるか否かが判断される。
これにより、測定条件に応じた異なる処理領域の深度情報を用いて、画像情報の真正性を正確に推定することができる。従って、当人認証の精度向上を支援することが可能になる。
本実施の形態によれば、処理領域の深度情報を用いて処理領域における凹凸の大きさを示す凹凸レベルを予め定められる凹凸基準と比較することによって、対象者の画像情報を照合処理に用いるか否かを判断する。
測定条件に応じて、異なる処理領域の深度情報を用いて凹凸レベルを凹凸基準と比較することによって、画像情報の真正性を正確に推定することができる。従って、当人認証の精度向上を支援することが可能になる。
<<実施の形態2>>
実施の形態1では、明度測定部107によって明度情報が生成されて、明度情報が示す明るさが照度基準を満たす場合に、深度取得部116が深度情報を測定装置101から取得する例を説明した。しかし、明度測定部107は当人認証支援システムに備えられなくてもよい。この場合、深度取得部116は、撮影環境の明るさなどに関わらず、深度情報を測定装置101から取得すればよい。
<当人認証支援システム200の構成>
本発明の実施の形態2に係る当人認証支援システム200は、実施の形態1と同様に、対象者の当人認証を支援するシステムである。当人認証支援システム200は、図16に示すように、測定装置201と、当人認証支援装置202とを備える。
測定装置201は明度測定部107を含まず、当人認証支援装置202は明度取得部113を含まない。これらの点を除いて、本実施の形態に係る測定装置201と当人認証支援装置202とは、機能的に、実施の形態1に係る測定装置101と当人認証支援装置102とのそれぞれと同様に構成されてよい。
物理的には、本実施の形態に係る測定装置201は、物理的に照度センサ1080を備えなくてもよい(図示せず)。この点を除いて、測定装置201と当人認証支援装置202とは、実施の形態1に係る測定装置101と当人認証支援装置102とのそれぞれと同様に構成されてよい。
<当人認証支援システム200の動作>
(測定処理)
当人認証支援システム200では、測定装置201によって測定処理が実行され、支援装置202によって当人認証支援処理が実行される。
図17は、本発明の実施の形態2に係る測定処理のフローチャートの一例である。同図に示すように、本実施の形態に係る測定処理では、実施の形態1と同様のステップS101~S106の処理が実行される。そして、実施の形態1に係る測定情報生成処理(ステップS107)に代えて、測定情報生成処理(ステップS207)が実行される。
図18は、測定情報生成処理(ステップS207)の一例を示すフローチャートである。同図に示すように、本実施の形態に係る測定情報生成処理(ステップS207)は、実施の形態1に係る測定情報生成処理(ステップS107)におけるステップS202の処理を含まない。すなわち、実施の形態1に係るステップS201及びS203と同様の処理が実行されと、通信部108は、測定処理に戻る。
図17に示すように、通信部108は、読取り画像情報、画像情報、深度情報及び測定条件情報を送信して(ステップS208)、測定処理を終了する。
(当人認証支援処理)
図19は、本発明の実施の形態2に係る当人認証支援処理のフローチャートの一例である。同図に示すように、本実施の形態に係る当人認証支援処理では、実施の形態1に係るステップS301の処理が実行されない。この点を除いて、本実施の形態に係る当人認証支援処理は、実施の形態1に係る当人認証支援処理と概ね同様である。
本実施の形態によっても、対象者の顔を含む撮影領域SAの画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置101における深度の測定条件が取得される。そして、測定条件に応じて、撮影領域SAのうち深度情報の処理対象となる領域である処理領域が設定される。上記の測定条件で測定された、処理領域における深度を含む深度情報が取得されると、当該処理領域の深度情報に基づいて、対象者の画像情報を照合処理に用いるかが判断される。
従って、実施の形態1と同様に、当人認証の精度向上を支援することが可能になる。
また、本実施の形態によれば、明度測定部107によって測定される明るさ、照度基準に関連する効果を除いて、実施の形態1によるその他の効果と同様の効果を奏する。
以上、図面を参照して本発明の一実施の形態及び変形例について説明したが、これらは本発明の例示であり、これらは、適宜変更されてもよい。
(変形例1:測定条件情報の変形例)
実施の形態では測定条件情報が、OS情報である例により説明した。しかし、測定条件情報は、OS情報に限られず、例えば、深度センサ情報、API情報、機器情報、画像情報、環境情報、深度情報であってもよい。また、測定条件情報は、これらの例示した情報のうちの1つ又は複数を組み合わせたものであってもよい。
深度センサ情報は、深度測定部106を構成する深度センサを識別するための情報であり、例えば、深度センサの種類(製造メーカ、型番、品番など)、深度センサの測定方式などを示す。
API情報は、利用可能なAPI(Application Programming Interface)を識別するための情報である。APIは、OSの機能を利用するための関数である。
機器情報は、測定装置101として採用される機器を識別するための情報であり、例えば、当該機器の種類(製造メーカ、型番、品番など)、当該機器の生産時期などを示す。
深度センサ情報、API情報、機器情報は、測定装置101に含まれる記憶部(不図示)に予め記憶されるとよい。
環境情報は、画像の撮影環境を示す情報であり、例えば、明度情報である。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例2:明度情報の変形例)
実施の形態では、明度情報が明度測定部107によって生成される例を説明した。しかし、明度情報は、画像情報に基づいて、画像情報が示す画像の明るさを示す情報であってもよく、この場合の明度情報は、例えば照合判断部117や深度取得部116などによって画像情報に基づいて求められてもよい。この場合、明度情報は、例えば画像情報に含まれる各画素の輝度の平均値を求めることによって取得されるとよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例3:測定条件-精度データ及び領域設定部の変形例)
実施の形態では、測定条件-精度データ114aの精度情報が、深度の測定精度に応じた値を示す例により説明したが、精度情報は、上述の通り、深度の測定精度を示す情報であればよい。
例えば、図20の測定条件-精度データ114bに示すように、精度情報には、深度の測定精度の代わりに、当該測定精度が高いか低いかを示す情報が設定されてもよい。この場合、領域設定部115は、精度判断部120を含まなくてもよく、測定条件-精度データ114において測定条件情報に対応付けられた精度情報に応じて処理領域を設定するとよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例4:深度取得部の第1変形例)
実施の形態1では、照度センサによって測定される明るさが照度基準を満たす場合に、深度取得部116が撮領域SAの深度情報を取得する例を説明した。しかし、深度取得部が撮領域SAの深度情報を取得する場合は、これに限られない。
例えば、深度取得部は、画像情報が示す画像の明るさが予め定められる照度基準を満たす場合に、撮領域SAの深度情報を取得してもよい。この場合、明度情報が不要になるので、例えば測定装置101が明度測定部107を含まなくてもよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例5:深度取得部の第2変形例)
実施の形態では、深度取得部116が撮影領域SA全体の深度を示す深度情報を測定装置101から取得する例を説明した。しかし、深度取得部は、領域設定部115によって設定された処理領域のみの深度を示す深度情報を測定装置101から取得してもよい。この場合、照合判断部は、深度取得部によって取得された深度情報に基づいて、対象者の画像情報を照合処理に用いるか否かを判断するとよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例6:凹凸レベルの第1変形例)
実施の形態では、凹凸レベルが処理領域における凹凸の標準偏差の例により説明したが、凹凸レベルは、処理領域における凹凸の程度を示す指標であればよい。例えば、凹凸レベルは、処理領域における凹凸の平均値、凹凸の差の最大値などであってもよい。この場合、凹凸基準には、凹凸レベルに対応する値が設定されるとよい。
また、凹凸レベルに採用される指標は、連続的な値に限られず、凹凸の程度を段階的に示す値、記号、アルファベットなどであってもよい。凹凸基準は、凹凸レベルと比較できるように、凹凸レベルに対応する値、記号、アルファベットなどが採用されるとよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例7:凹凸レベルの第2変形例)
実施の形態では、凹凸レベルが処理領域における凹凸の標準偏差の例により説明したが、上述の通り凹凸レベルは、処理領域における凹凸の程度を示す指標であればよい。凹凸レベルは、例えば、処理領域における特定の領域における凹凸の最大値である。
この場合の特定の領域は、処理領域において凹凸が他の領域よりも大きい領域である。例えば、深度の測定精度が高精度である場合の処理領域が顔領域FRである場合、特定の領域には、一般的に顔領域FRにおいて凹凸が他の領域よりも大きい領域である鼻領域が採用されるとよい。鼻領域は、鼻及びその周辺の領域である。
鼻領域は、従来の画像処理技術を用いて特定されるとよい。例えば、従来の画像処理技術は、画像情報に含まれる画像の特徴量などを利用するものであってもよい。また例えば、従来の画像処理技術は、顔を含む画像から鼻領域を抽出するための学習済みの学習モデルを用い、顔を含む画像を入力として鼻領域を出力するものであってもよい。さらに例えば、鼻領域は、従来の画像処理技術によって特定される顔領域FRのサイズと目の位置とに基づいて特定されてもよい。
なお、凹凸レベルは、例えば、処理領域における特定の領域における凹凸の最大値に応じた値、記号、アルファベットなどが指標として採用されてもよい。さらに、凹凸レベルには、凹凸に基づく指標に代えて、深度自体或いは深度自体に基づく指標が用いられてもよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例8:当人認証支援システムの構成の変形例1)
実施の形態に係る当人認証支援システム100が、測定装置101と、当人認証支援装置102とを備え、測定装置101が、機能部103~107を含み、当人認証支援装置102が、機能部110~118を含む例を説明した(図1参照)。
しかし、当人認証支援システムの全体として、機能部103~107及び110~118を含めばよく、例えば、測定装置が機能部110~118の一部又は全部を含んでもよい。
また、当人認証支援装置302が、実施の形態1に係る測定装置101が備える機能部103~107を備えてもよい。図21は、このような変形例の1つである、変形例8に係る当人認証支援システム300の構成を示す。
当人認証支援システム300は、当人認証支援装置302と、サーバ装置332とを備える。当人認証支援装置302とサーバ装置332とは、有線、無線又はこれらを適宜組み合わせて構成されるネットワークを介して互いに情報を送受信可能に接続されている。
当人認証支援装置302は機能的に、実施の形態1と同様の入力部103、表示部104、読取り部105、深度測定部106及び明度測定部107を含む。また、当人認証支援装置302は機能的に、読取り画像取得部110、画像情報取得部111、測定条件取得部112、明度取得部113、データ記憶部114、領域設定部115、深度取得部116及び照合判断部117を含む。
ただし、当人認証支援装置302に含まれる各機能部103~107及び110~117は、実施の形態にてネットワークを介して情報を送受信する代わりに、内部バスを介して相互に情報を出力し取得するとよい。
当人認証支援装置302は、さらに、実施の形態に係る通信部108に代わる通信部308を含む。通信部308はサーバ装置332との間で、互いに情報を送受信する。本変形例に係る通信部308は、例えば、対象者の指示に応じて、又は、当人認証支援装置202での処理が終了すると、画像情報、読取り画像情報をサーバ装置332へ送信する。
サーバ装置332は、実施の形態と同様の認証部118を含む。
当人認証支援装置302は、物理的には図6を参照して説明した構成を備えるとよい。サーバ装置332は、物理的には図7を参照して説明した構成を備えるとよい。
当人認証支援装置302とサーバ装置303との各機能部は、実施の形態1において対応する機能部が実行する処理(すなわち、図8,13などを参照して説明した処理)と同様の処理を実行するとよい。なお、本変形例においても、実施の形態2と同様に、明度測定部107及び明度取得部113が当人認証支援装置302に備えられなくてもよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例9:当人認証支援システムの構成の変形例2)
当人認証支援システムは、測定装置101,201やサーバ装置332を備えず、当人認証支援装置によって構成されてもよい。
図22は、変形例9に係る当人認証支援装置402の機能的な構成を示す図である。
同図に示すように、本変形例に係る当人認証支援装置402は機能的に、実施の形態1と同様の入力部103、表示部104、読取り部105、深度測定部106及び明度測定部107を含む。また、当人認証支援装置402は機能的に、読取り画像取得部110、画像情報取得部111、測定条件取得部112、明度取得部113、データ記憶部114、領域設定部115、深度取得部116、照合判断部117及び認証部118を含む。
当人認証支援装置402に含まれる各機能部103~107及び110~118は、実施の形態にてネットワークを介して情報を送受信する代わりに、内部バスを介して相互に情報を出力し取得するとよい。そのため、当人認証支援装置402は、図22に示すように通信部108を備えなくてもよい。
当人認証支援装置402は、物理的には図6を参照して説明した構成を備えるとよい。
当人認証支援装置402の各機能部は、実施の形態1において対応する機能部が実行する処理(すなわち、図8,13などを参照して説明した処理)と同様の処理を実行するとよい。なお、本変形例においても、実施の形態2と同様に、明度測定部107及び明度取得部113が当人認証支援装置402に備えられなくてもよい。
本変形例によっても実施の形態と同様の効果を奏する。
(変形例10:読取り部105の変形例)
例えば、読取り部105は、カメラに限らず、スキャナなどで構成されて、本人確認書類を読み取ってもよい。
また例えば、読取り部105は、OCR(Optical Character Reader)機能をさらに含んで構成されてもよく、この場合、対象者を識別するための情報は、対象者によって入力される代わりに、本人確認書類を読み取った画像からOCR機能を用いて取得されてもよい。
さらに例えば、読取り部105は、IC(Integrated Circuit)チップに保持された情報を当該ICチップから読み取るリーダであってもよい。この場合、本人確認書類は、読取り画像Mを含む情報を予め保持したICチップを含み、読取り部105は、本人確認書類のICチップから情報を読み取るとよい。また、ICチップには、対象者を識別するための情報がさらに保持されてもよく、この場合、対象者を識別するための情報は、対象者によって入力される代わりに、ICチップから情報を読み取ることによって取得されてもよい。
さらに、上述の説明で用いた流れを示す図では、複数の工程(処理)が順番に記載されているが、これらの工程の実行順序は、その記載の順番に制限されない。これらの工程の順番は、内容的に支障のない範囲で変更されてもよい。また、上述の一実施の形態及び変形例は、内容が相反しない範囲で組み合わされてもよい。
上記の実施の形態の一手段または全手段は、以下の付記のようにも記載されうるが、以下に限られない。
1.対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得する測定条件取得手段と、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定する領域設定手段と、
前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得する深度取得手段と、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する照合判断手段とを備える
当人認証支援システム。
2.前記深度取得手段は、前記画像情報が示す画像の明るさが予め定められる照度基準を満たす場合に、前記撮領域の前記深度情報を取得する
上記1に記載の当人認証支援システム。
3.前記深度取得手段は、照度センサによって測定される明るさが予め定められる照度基準を満たす場合に、前記撮領域の前記深度情報を取得する
上記1に記載の当人認証支援システム。
4.前記照度基準は、前記明るさの上限及び下限を含む
上記2又は3に記載の当人認証支援システム。
5.前記測定条件は、前記深度情報を測定する深度センサを識別するための情報、前記測定装置にて動作するオペレーティングシステムを識別するための情報、当該深度センサを搭載した機器を識別するための情報、利用可能なAPIを識別するための情報、前記測定装置として採用される機器を識別するための情報の少なくとも1つである
上記1から4のいずれか1つに記載の当人認証支援システム。
6.前記領域設定手段は、
前記測定条件に基づいて、前記深度の測定精度が高精度であるか否かを判断する精度判断手段と、
前記測定精度が高精度である場合に、前記測定精度が高精度でない場合よりも狭い処理領域を設定する設定手段とを含む
上記1から5のいずれか1つに記載の当人認証支援システム。
7.前記測定精度が高精度である場合の処理領域は、前記対象者の鼻に対応する領域を含む
上記6に記載の当人認証支援システム。
8.前記深度取得手段は、前記設定手段によって設定された処理領域の深度情報を取得し、
前記照合判断手段は、前記深度取得手段によって取得された深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する
上記6又は7に記載の当人認証支援システム。
9.前記深度取得手段は、前記撮影領域の深度情報を取得し、
前記照合判断手段は、
前記深度取得手段によって取得された深度情報の中から、前記設定手段によって設定された処理領域の深度情報を抽出する抽出手段と、
前記抽出手段によって抽出された深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する判断手段とを含む
上記6又は7に記載の当人認証支援システム。
10.前記照合判断手段は、前記処理領域の深度情報を用いて当該処理領域における凹凸の大きさを示す凹凸レベルを予め定められる凹凸基準と比較することによって、前記対象者の画像情報を照合処理に用いるか否かを判断する
上記1から9のいずれか1つに記載の当人認証支援システム。
11.対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置と、
前記測定装置における深度の測定条件を取得する測定条件取得手段と、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定する領域設定手段と、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する照合判断手段とを備える
当人認証支援装置。
12.コンピュータが、
対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得することと、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定することと、
前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得することと、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断することとを含む当人認証支援方法。
13.コンピュータに、
対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得することと、
前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定することと、
前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得することと、
前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断することとを実行させるためのプログラム。

100,200,300 当人認証支援システム
101,201 測定装置
102,202,302 当人認証支援装置
103 入力部
104 表示部
105 読取り部
106 深度測定部
107 明度測定部
108,308 通信部
SA 撮影領域
MP 測定点
110 読取り画像取得部
111 画像情報取得部
112 測定条件取得部
113 明度取得部
114 データ記憶部
114a,114b 測定条件-精度データ
115 領域設定部
116 深度取得部
117 照合判断部
118 認証部
120 精度判断部
121 設定部
130 抽出部
131 判断部
FR 顔領域
332 サーバ装置

Claims (10)

  1. 対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得する測定条件取得手段と、
    前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定する領域設定手段と、
    前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得する深度取得手段と、
    前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する照合判断手段とを備える
    当人認証支援システム。
  2. 前記深度取得手段は、前記画像情報が示す画像の明るさが予め定められる照度基準を満たす場合に、前記撮領域の前記深度情報を取得する
    請求項1に記載の当人認証支援システム。
  3. 前記深度取得手段は、照度センサによって測定される明るさが予め定められる照度基準を満たす場合に、前記撮領域の前記深度情報を取得する
    請求項1に記載の当人認証支援システム。
  4. 前記測定条件は、前記深度情報を測定する深度センサを識別するための情報、前記測定装置にて動作するオペレーティングシステムを識別するための情報、当該深度センサを搭載した機器を識別するための情報、利用可能なAPIを識別するための情報、前記測定装置として採用される機器を識別するための情報の少なくとも1つである
    請求項1からのいずれか1項に記載の当人認証支援システム。
  5. 前記領域設定手段は、
    前記測定条件に基づいて、前記深度の測定精度が高精度であるか否かを判断する精度判断手段と、
    前記測定精度が高精度である場合に、前記測定精度が高精度でない場合よりも狭い処理領域を設定する設定手段とを含む
    請求項1からのいずれか1項に記載の当人認証支援システム。
  6. 前記深度取得手段は、前記設定手段によって設定された処理領域の深度情報を取得し、
    前記照合判断手段は、前記深度取得手段によって取得された深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する
    請求項に記載の当人認証支援システム。
  7. 前記深度取得手段は、前記撮影領域の深度情報を取得し、
    前記照合判断手段は、
    前記深度取得手段によって取得された深度情報の中から、前記設定手段によって設定された処理領域の深度情報を抽出する抽出手段と、
    前記抽出手段によって抽出された深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断する判断手段とを含む
    請求項に記載の当人認証支援システム。
  8. 前記照合判断手段は、前記処理領域の深度情報を用いて当該処理領域における凹凸の大きさを示す凹凸レベルを予め定められる凹凸基準と比較することによって、前記対象者の画像情報を照合処理に用いるか否かを判断する
    請求項1からのいずれか1項に記載の当人認証支援システム。
  9. コンピュータが、
    対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得することと、
    前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定することと、
    前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得することと、
    前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断することとを含む当人認証支援方法。
  10. コンピュータに、
    対象者の顔を含む撮影領域の画像を示す画像情報及び深度を示す深度情報を生成可能な測定装置における深度の測定条件を取得することと、
    前記測定条件に応じて、前記撮影領域のうち前記深度情報の処理対象となる領域である処理領域を設定することと、
    前記測定条件で測定された、前記処理領域における深度を含む深度情報を取得することと、
    前記処理領域の深度情報に基づいて、前記対象者の画像情報を照合処理に用いるか否かを判断することとを実行させるためのプログラム。
JP2023512623A 2021-04-09 2021-04-09 当人認証支援システム、当人認証支援方法及びプログラム Active JP7460016B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024045039A JP2024075700A (ja) 2021-04-09 2024-03-21 情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/015012 WO2022215248A1 (ja) 2021-04-09 2021-04-09 当人認証支援、当人認証支援方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024045039A Division JP2024075700A (ja) 2021-04-09 2024-03-21 情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2022215248A1 JPWO2022215248A1 (ja) 2022-10-13
JPWO2022215248A5 JPWO2022215248A5 (ja) 2023-10-06
JP7460016B2 true JP7460016B2 (ja) 2024-04-02

Family

ID=83545801

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023512623A Active JP7460016B2 (ja) 2021-04-09 2021-04-09 当人認証支援システム、当人認証支援方法及びプログラム
JP2024045039A Pending JP2024075700A (ja) 2021-04-09 2024-03-21 情報処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024045039A Pending JP2024075700A (ja) 2021-04-09 2024-03-21 情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20240104964A1 (ja)
JP (2) JP7460016B2 (ja)
WO (1) WO2022215248A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208407A (ja) 2002-01-10 2003-07-25 Omron Corp 生体情報登録装置、生体情報を利用した個人認証システム、および生体情報登録方法
JP2005293350A (ja) 2004-04-01 2005-10-20 Mitsubishi Electric Corp 3次元物体照合装置
JP2007156541A (ja) 2005-11-30 2007-06-21 Toshiba Corp 人物認識装置、人物認識方法および入退場管理システム
JP2009199392A (ja) 2008-02-22 2009-09-03 Oki Electric Ind Co Ltd 虹彩認証方法及び虹彩認証装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003208407A (ja) 2002-01-10 2003-07-25 Omron Corp 生体情報登録装置、生体情報を利用した個人認証システム、および生体情報登録方法
JP2005293350A (ja) 2004-04-01 2005-10-20 Mitsubishi Electric Corp 3次元物体照合装置
JP2007156541A (ja) 2005-11-30 2007-06-21 Toshiba Corp 人物認識装置、人物認識方法および入退場管理システム
JP2009199392A (ja) 2008-02-22 2009-09-03 Oki Electric Ind Co Ltd 虹彩認証方法及び虹彩認証装置

Also Published As

Publication number Publication date
US20240104964A1 (en) 2024-03-28
WO2022215248A1 (ja) 2022-10-13
JP2024075700A (ja) 2024-06-04
JPWO2022215248A1 (ja) 2022-10-13

Similar Documents

Publication Publication Date Title
JP6005750B2 (ja) 認証装置、及び認証方法
WO2018079031A1 (ja) 画像処理装置、画像処理方法、顔認証システム、プログラム及び記録媒体
JP4899551B2 (ja) 認証装置、認証方法、認証プログラムおよびコンピュータ読み取り可能な記録媒体
EP3594916A1 (en) Atm with biometric security
US9054875B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
EP3807794B1 (en) Age verification
JP2015184809A (ja) 画像補正装置、画像補正方法及び画像補正用コンピュータプログラム
WO2019200872A1 (zh) 身份验证方法和装置、电子设备、计算机程序和存储介质
KR20140126400A (ko) 바이오메트릭 및 바이오그래픽 데이터를 획득하기 위한 스테이션
KR20150069799A (ko) 얼굴 인증 방법 및 그 장치
JP2013190934A (ja) 窓口認証システム、窓口認証サーバー、プログラムおよび窓口認証方法
JP7460016B2 (ja) 当人認証支援システム、当人認証支援方法及びプログラム
CN108875553A (zh) 人证核验的方法、装置、系统及计算机存储介质
US20100239129A1 (en) Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration
EP3839775A1 (en) Methods and systems for displaying a visual aid while capturing user image
JP2007148724A (ja) 個人認証システム、および個人認証プログラム
US11810401B1 (en) Methods and systems for enhancing user liveness detection
JP5079727B2 (ja) 静脈認証装置における登録静脈画像作成方法及び装置
US20230334137A1 (en) Information processing device, information processing method, and recording medium
US20240013574A1 (en) Age verification
US11842573B1 (en) Methods and systems for enhancing liveness detection of image data
US20240160715A1 (en) Subject determination apparatus, subject determination method, and non-transitory computer-executable medium
JP2023172637A (ja) 本人認証システム、および本人認証方法
JP2023021106A (ja) 認証装置、販売システム、通過システム、及び現金自動預け払いシステム
CN114067383A (zh) 基于宏观结构和微观结构图像尺寸的被动三维面部成像

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7460016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150