JP2023016924A - 認証装置、認証方法、及び、プログラム - Google Patents

認証装置、認証方法、及び、プログラム Download PDF

Info

Publication number
JP2023016924A
JP2023016924A JP2022194571A JP2022194571A JP2023016924A JP 2023016924 A JP2023016924 A JP 2023016924A JP 2022194571 A JP2022194571 A JP 2022194571A JP 2022194571 A JP2022194571 A JP 2022194571A JP 2023016924 A JP2023016924 A JP 2023016924A
Authority
JP
Japan
Prior art keywords
authentication
subject
image
product
colored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022194571A
Other languages
English (en)
Other versions
JP7400932B2 (ja
Inventor
剛志 柴田
Tsuyoshi Shibata
尚司 谷内田
Shoji Yanaida
知里 舟山
Chisato Funayama
正人 塚田
Masato Tsukada
有加 荻野
Yuka OGINO
慶一 蝶野
Keiichi Chono
恵美 北川
Emi Kitagawa
康彦 吉田
Yasuhiko Yoshida
祐輔 森
Yusuke Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2022194571A priority Critical patent/JP7400932B2/ja
Publication of JP2023016924A publication Critical patent/JP2023016924A/ja
Application granted granted Critical
Publication of JP7400932B2 publication Critical patent/JP7400932B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Figure 2023016924000001
【課題】
カラーコンタクトレンズを装着していても、虹彩認証の認証精度の低下を抑制する。
【解決手段】
認証装置11は、画像取得部111、特定部121、及び、認証部151を含む。画像取得部111は、対象者の眼の画像を取得する。特定部121は、参照画像と、眼の画像と、を比較することにより、対象者が装着しているカラーコンタクトレンズの着色パターンを特定する。認証部151は、眼の虹彩領域のうち着色パターンの着色領域以外の領域における特徴を用いて、対象者を特定する。
【選択図】 図2

Description

本発明は、認証装置、認証方法、及び、記録媒体に関する。
虹彩画像を用いて個人の認証を行う虹彩認証が知られている。瞳孔の開口径を調整する虹彩は個人毎に固有のパターンを持ち、生涯不変と言われている。そのため、認証対象者の虹彩画像を予め登録されている虹彩画像と照合することにより個人の認証を行うことができる。このような虹彩認証において、認証対象者が装着するコンタクトレンズの影響を低減する技術の一例が、例えば、特許文献1に記載されている。
特許文献1の技術では、コンタクトレンズにより生じた影領域を検出し、虹彩画像から影領域を除外した補正画像を生成し、補正画像を用いて認証を行う。
特開2000-139878号公報
近年、コンタクトレンズの一部に着色領域が設けられたカラーコンタクトレンズが市販されている。カラーコンタクトレンズを眼に装着することにより、虹彩の色を変化させたり、虹彩を大きく見せたりする装飾効果が得られることから、カラーコンタクトレンズの普及が進んでいる。カラーコンタクトレンズを装着している場合、認証対象者の虹彩画像が予め登録されている虹彩画像と異なるため、虹彩認証の認証精度は低下する。
上述の特許文献1の技術では、コンタクトレンズにより生じた影領域を除外する方法は開示されている。しかしながら、カラーコンタクトレンズそのものの影響を低減する方法は開示されていない。
本発明の目的は、カラーコンタクトレンズを装着していても、虹彩認証の認証精度の低下を抑制できる、認証装置、認証方法、及び、記録媒体を提供することである。
本発明の一態様に係る認証装置は、対象者の眼の画像を取得する、画像取得手段と、参照画像と、前記眼の画像と、を比較することにより、前記眼の虹彩領域のうち前記対象者が装着しているカラーコンタクトレンズの着色領域以外の領域を抽出する、抽出手段と、前記抽出された領域における特徴を用いて、前記対象者を特定する、認証手段と、を備える。
本発明の一態様に係る認証方法では、コンピュータが、対象者の眼の画像を取得し、参照画像と、前記眼の画像と、を比較することにより、前記眼の虹彩領域のうち前記対象者が装着しているカラーコンタクトレンズの着色領域以外の領域を抽出し、前記抽出された領域における特徴を用いて、前記対象者を特定する。
本発明の一態様に係るプログラムは、コンピュータに、対象者の眼の画像を取得し、参照画像と、前記眼の画像と、を比較することにより、前記眼の虹彩領域のうち前記対象者が装着しているカラーコンタクトレンズの着色領域以外の領域を抽出し、前記抽出された領域における特徴を用いて、前記対象者を特定する、処理を実行させる。
本発明の効果は、カラーコンタクトレンズを装着していても、虹彩認証の認証精度の低下を抑制できることである。
カラーコンタクトレンズの装着例を示す図である。 第1実施形態に係る認証システム1の機能ブロック図である。 第1実施形態に係る製品情報211の例を示す図である。 第1実施形態に係る認証情報221の例を示す図である。 第1実施形態に係る認証装置11のハードウェア構成の例を示すブロック図である。 第1実施形態に係る認証装置11の認証処理を示すフローチャートである。 第1実施形態に係る補正虹彩領域700の抽出例を示す図である。 第1実施形態に係る補正虹彩領域700の他の抽出例を示す図である。 第1実施形態に係る認証結果を示す画面の例を示す図である。 第1実施形態の特徴的な構成の機能ブロック図である。 第2実施形態に係る認証システム2の機能ブロック図である。 第2実施形態に係る認証装置13の認証処理を示すフローチャートである。 第2実施形態に係る補正虹彩領域700の抽出例を示す図である。 第3実施形態に係る認証システム3の機能ブロック図である。 第3実施形態に係る認証情報223の例を示す図である。 第4実施形態に係る認証システム4の機能ブロック図である。 第4実施形態に係る装着情報231の例を示す図である。 第4実施形態に係る認証装置11の認証処理を示すフローチャートである。 第5実施形態に係る分析システム5の機能ブロック図である。 第5実施形態に係る分析システム5の処理を示すフローチャートである。 第6実施形態に係る監視システム6の機能ブロック図である。 第6実施形態に係る監視情報311の例を示す図である。 第6実施形態に係る通知先情報321の例を示す図である。 第6実施形態に係る監視システム6の処理を示すフローチャートである。
実施形態について図面を参照して詳細に説明する。なお、各図面、及び、明細書記載の各実施形態において、同様の構成要素には同一の符号を付与し、説明を適宜省略する。
図1は、カラーコンタクトレンズの装着例を示す図である。図1では、眼500に、カラーコンタクトレンズ600が装着されている。眼500は、瞳孔510、及び、虹彩520を含む。カラーコンタクトレンズ600では、一般に、眼500の虹彩520の外周近傍に対応する位置に、虹彩を模した着色パターンの着色領域610が円環状に設けられる。着色領域610以外の領域は透明である。したがって、カラーコンタクトレンズ600を装着した眼500では、虹彩520の外周近傍が、着色領域610により覆われる。
虹彩認証では、カラーコンタクトレンズ600を装着していない場合の虹彩520の画像(以下、虹彩画像とも記載)が登録される。認証対象者がカラーコンタクトレンズ600を装着している場合、虹彩520の領域(以下、虹彩領域とも記載)と着色領域610とを合わせた領域の画像が虹彩画像として用いられる。
<第1実施形態>
第1実施形態について説明する。
はじめに、第1実施形態に係る認証システム1の構成を説明する。
図2は、第1実施形態に係る認証システム1の機能ブロック図である。認証システム1は、認証装置11を含む。認証装置11は、画像取得部111、特定部121、抽出部131、特徴量算出部141、認証部151、表示部161、送信部171、及び、記憶部181を含む。
画像取得部111は、認証装置11における処理の対象者(以下、単に、対象者とも記載)の眼500の画像を取得する。
特定部121は、参照画像と、対象者の眼500の画像と、を比較することにより、対象者が装着しているカラーコンタクトレンズ600の着色パターンを特定する。
第1実施形態では、対象者の眼500の画像として、対象者の両方の眼500のうち、少なくとも一方の眼500の画像を用いる。また、参照画像として、カラーコンタクトレンズ製品(以下、単に製品とも記載)の製品カタログや仕様書等から取得された、各製品の着色パターンの画像を用いる。
図3は、第1実施形態に係る製品情報211の例を示す図である。図3の製品情報211は、カラーコンタクトレンズ製品を識別するための製品識別子「Pi」(iは、例えば、1以上の整数)と、当該製品識別子に関連付けられた当該製品の着色パターンと、を含む。製品情報211は、管理者等により予め設定される。製品識別子は、製品の型番、品番、製造番号、メーカー名、製品名やその組み合わせであってもよい。
抽出部131は、対象者の眼500の画像から、対象者の補正虹彩領域700を抽出する。補正虹彩領域700は、眼500の画像における虹彩520の領域のうち、特定した着色パターンの着色領域610以外の領域である。
特徴量算出部141は、対象者の補正虹彩領域700の特徴を表す特徴量を算出する。
認証部151は、特徴量算出部141により算出された、対象者の補正虹彩領域700の特徴量と、各個人の虹彩領域の特徴を表す特徴量とを照合し、対象者の認証を行う。各個人の虹彩領域の特徴量は、当該個人の眼500にカラーコンタクトレンズが装着されていないときに取得された虹彩画像を用いて算出される。各個人の虹彩領域の特徴量は、管理者等により、予め、認証情報221に設定される。
図4は、第1実施形態に係る認証情報221の例を示す図である。図4の認証情報221は、各個人を識別するための個人識別子「Uj」(jは、例えば、1以上の整数)と、当該個人識別子に関連付けられた当該個人の両方の眼500の各々の虹彩画像、及び、当該虹彩画像に対して算出された特徴量「FRj」、「FLj」と、を含む。なお、個人識別子は、個人の名前でもよい。
また、認証部151は、各個人の虹彩領域の特徴量を学習データとして機械学習により生成した判定器を用いて、対象者の認証を行ってもよい。
表示部161は、認証結果を管理者等に表示する。
送信部171は、認証結果を他の装置等に送信する。
記憶部181は、製品情報211、及び、認証情報221を記憶する。
図5は、第1実施形態に係る認証装置11のハードウェア構成の例を示すブロック図である。認証装置11は、例えば、携帯電話、スマートフォン、PC(Personal Computer)等のコンピュータ、または、情報通信端末である。
認証装置11は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、及び、フラッシュメモリ104を含む。また、認証装置11は、通信I/F(インターフェース)105、表示装置106、入力装置107、及び、カメラ108を含む。CPU101、RAM102、ROM103、フラッシュメモリ104、通信I/F105、表示装置106、入力装置107、及び、カメラ108は、バス109を介して相互に接続される。
図5では、認証装置11を構成する各部が一体の装置として図示されているが、これらの機能の一部は外付け装置により構成されていてもよい。例えば、カメラ108は、CPU101等を含むコンピュータの機能を構成する部分とは別の外付け装置であってもよい。
CPU101は、ROM103、フラッシュメモリ104等に記憶されたプログラムに従って所定の動作を行うとともに、認証装置11の各部を制御する。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。ROM103は、不揮発性記憶媒体から構成され、認証装置11の動作に用いられるプログラム等の必要な情報を記憶する。フラッシュメモリ104は、不揮発性記憶媒体から構成され、製品情報211、及び、認証情報221を記憶する。
通信I/F105は、他の装置との有線または無線通信を行うためのモジュールである。表示装置106は、ディスプレイ等であって、動画、静止画、文字等を表示する。入力装置107は、キーボード、ボタン、タッチパネル等であって、管理者等が認証装置11を操作するために用いられる。表示装置106、及び、入力装置107は、タッチパネルとして一体に形成されていてもよい。
カメラ108は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等を用いたデジタルカメラであり、対象者を撮影し、当該対象者の眼500の画像を取得する。
なお、図5に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。さらに、一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態を構成する機能が複数の装置に分散されて実現されていてもよい。例えば、フラッシュメモリ104は、HDD(Hard Disk Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。
CPU101は、カメラ108を制御することにより、画像取得部111の機能を実現する。また、CPU101は、ROM103等に記憶されたプログラムをRAM102にロードして実行することにより、特定部121、抽出部131、特徴量算出部141、認証部151、及び、送信部171の機能を実現する。また、CPU101は、表示装置106を制御することにより表示部161の機能を実現する。さらに、CPU101は、フラッシュメモリ104を制御することにより記憶部181の機能を実現する。
次に、第1実施形態に係る認証装置11の動作を説明する。
ここでは、記憶部181が、図3の製品情報211、及び、図4の認証情報221を記憶していると仮定する。
図6は、第1実施形態に係る認証装置11の認証処理を示すフローチャートである。また、図7は、第1実施形態に係る補正虹彩領域700の抽出例を示す図である。
はじめに、画像取得部111は、対象者の眼500の画像を取得する(ステップS101)。
例えば、画像取得部111は、図7のような、カラーコンタクトレンズ600が装着されている眼500(右眼)の画像を取得する。
特定部121は、ステップS101で取得した眼500の画像から、虹彩状の領域を処理対象の画像(以下、対象画像とも記載)として抽出する(ステップS102)。「虹彩状の領域」とは、カラーコンタクトレンズ600が装着されている場合は、虹彩520の領域と着色領域610とを合わせた領域であり、カラーコンタクトレンズ600が装着されていない場合は、虹彩520の領域である。
例えば、特定部121は、図7のように、眼500の画像から対象画像を抽出する。
特定部121は、製品情報211に含まれる各製品の着色パターンと、ステップS102で抽出した対象画像と、を比較することにより、対象者が装着している製品を特定する。特定部121は、特定した製品の着色パターンを、対象者が装着しているカラーコンタクトレンズ600の着色パターンと特定する(ステップS103)。ここで、特定部121は、各製品の着色パターンを回転させながら、着色パターンと対象画像との画像マッチングを行い、マッチング度合いの高い製品、及び、回転角を特定する。
例えば、特定部121は、図3の製品情報211に含まれる各製品の着色パターンを、瞳孔510の中心に対応する位置を中心として、所定の回転方向に、所定の角度ずつ回転させながら、各回転角におけるマッチング度合いを算出する。特定部121は、図7のように、マッチング度合いが所定値以上で最大である、製品「P1」、及び、回転角「X度」を特定する。
なお、2つの画像間のマッチング度合いを得ることができれば、画像マッチングの手法として、どのような手法を用いてもよい。例えば、マッチング度合いとして、対応する各画素間の差分の総和や、各画素間の差分の数が閾値以下である画素数、画像間の相関係数を算出してもよい。また、乱視用コンタクトレンズのように装着時に回転しない製品や、回転しても着色パターンが変化しない製品については、回転角の特定を省略してもよい。
抽出部131は、対象画像から、対象者の補正虹彩領域700を抽出する(ステップS104)。ここで、抽出部131は、対象画像に、ステップS103で特定した着色パターンを特定された角度で重ね合わせる。そして、抽出部131は、対象画像から特定した着色パターンの着色領域610を除外した領域を、補正虹彩領域700として抽出する。
例えば、抽出部131は、図7のように、対象画像から、特定された製品「P1」の着色領域610を除外し、補正虹彩領域700を抽出する。
なお、抽出部131は、特定した着色パターンの、瞳孔510の中心に対応する位置を中心とした、着色領域610を含まないような最大半径を求めてもよい。そして、抽出部131は、対象画像から求めた半径の円の外側を除外した領域を、補正虹彩領域700として抽出してもよい。
図8は、第1実施形態に係る補正虹彩領域700の他の抽出例を示す図である。
この場合、例えば、抽出部131は、図8に示すように、特定された製品「P1」の着色パターンから、着色領域610を含まないような最大半径「R」を求める。そして、抽出部131は、対象画像から、半径「R」の円の外側を除外することにより、補正虹彩領域700を抽出する。
特徴量算出部141は、ステップS104で抽出された補正虹彩領域700の特徴量を算出する(ステップS105)。ここで、特徴量算出部141は、特徴量として、例えば、補正虹彩領域700の画像を所定のアルゴリズムで符号化することにより得られるビット列を用いる。
例えば、特徴量算出部141は、図7の補正虹彩領域700の特徴量「FRt」を算出する。
認証部151は、ステップS105で算出された対象者の補正虹彩領域700の特徴量と、認証情報221に含まれる各個人の虹彩領域の特徴量とを照合し、対象者の認証を行う(ステップS106)。ここで、認証部151は、対象画像に対応する眼500(右眼または左眼)について、対象者の補正虹彩領域700の特徴量と、各個人の虹彩領域の特徴量と、を照合する。
例えば、認証部151は、補正虹彩領域700の特徴量「FRt」を、図4の認証情報221の各個人の虹彩領域の特徴量「FRj」と照合し、対象者を個人「U1」と特定する。
表示部161は、認証結果を表示する(ステップS107)。ここで、表示部161は、ステップS106で個人が特定できた場合、認証結果として、認証成功、または、特定した対象者の個人識別子を表示してもよい。また、表示部161は、ステップS106で個人が特定できなかった場合、認証結果として、認証失敗を表示してもよい。
図9は、第1実施形態に係る認証結果を示す画面の例を示す図である。図9の画面では、照合結果として、対象者が個人「U1」と特定されたことが示されている。また、認証結果に加えて、対象画像、特定された製品「P1」と着色パターン、補正虹彩領域700の画像(補正虹彩画像)と特徴量、及び、特定された個人の虹彩画像と特徴量が示されている。
例えば、表示部161は、認証結果として、図9の画面を表示する。
以上により、第1実施形態に係る認証装置11の動作が完了する。
なお、上述のステップS103において、着色パターンを特定できなかった場合、特定部121は、対象者の眼500にカラーコンタクトレンズ600が装着されていないと判断してもよい。この場合、特徴量算出部141は、補正虹彩領域700の特徴量の代わりに、対象画像の虹彩520の領域の特徴量を算出し、認証部151は、当該特徴量を用いて対象者の認証を行う。
また、上述のステップS106において、認証部151は、対象者の特徴量と照合する各個人の特徴量として、当該個人が特定された製品を装着したと仮定して算出した、当該個人の補正虹彩領域の特徴量を用いてもよい。この場合、認証部151は、例えば、ステップS104と同様の方法で、認証情報221に含まれる各個人の虹彩領域から、特定した着色パターンを用いて補正虹彩領域を抽出し、当該補正虹彩領域の特徴量を算出する。
例えば、認証部151は、各個人の虹彩領域から、特定された製品識別子「P1」の着色パターンの着色領域610を除外し、補正虹彩領域を抽出する。認証部151は、各個人の補正虹彩領域の特徴量「FR’j」を算出する。認証部151は、対象者の補正虹彩領域700の特徴量「FRt」を、各個人の補正虹彩領域の特徴量「FR’j」と照合する。
次に、第1実施形態の特徴的な構成を説明する。
図10は、第1実施形態の特徴的な構成の機能ブロック図である。
認証装置11は、画像取得部111、特定部121、及び、認証部151を含む。画像取得部111は、対象者の眼の画像を取得する。特定部121は、参照画像と、眼の画像と、を比較することにより、対象者が装着しているカラーコンタクトレンズの着色パターンを特定する。認証部151は、眼の虹彩領域のうち着色パターンの着色領域以外の領域における特徴を用いて、対象者を特定する。
次に、第1実施形態の効果を説明する。
第1実施形態によれば、カラーコンタクトレンズを装着していても、虹彩認証の認証精度の低下を抑制できる。その理由は、認証装置11が、参照画像と眼の画像とを比較することにより、対象者が装着しているカラーコンタクトレンズの着色パターンを特定し、眼の虹彩領域のうち着色パターンの着色領域以外の領域における特徴を用いて対象者を特定するためである。
また、第1実施形態によれば、装着しているカラーコンタクトレンズ製品を特定できる。その理由は、認証装置11が、複数の製品各々の着色パターンと対象者の眼の画像とを比較することにより、複数の製品から対象者が装着している製品を特定するためである。これにより、カラーコンタクトレンズ製品を、例えば、対象者が身につけている品物の一つを表す情報として提示できる。
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態では、対象者の両方の眼500のうちの一方の眼500の画像を参照画像として用いる点で、第1実施形態と異なる。
はじめに、第2実施形態に係る認証システム2の構成を説明する。
図11は、第2実施形態に係る認証システム2の機能ブロック図である。認証システム2は、認証装置12を含む。第2実施形態に係る認証装置12では、第1実施形態に係る認証装置11における画像取得部111、特定部121、及び、記憶部181が、それぞれ、画像取得部112、特定部122、及び、記憶部182に置き換わっている。
画像取得部112は、対象者の両方の眼500の画像を取得する。
特定部122は、対象者の両方の眼500のうちの一方の眼500の画像(参照画像)と、他方の眼500の画像と、を比較することにより、対象者が装着しているカラーコンタクトレンズ600の着色パターンを特定する。一般に、両方の眼500には、同じ着色パターンのカラーコンタクトレンズ600が装着される。一方で、眼500の虹彩520の模様は、右眼と左眼とで異なる。このため、カラーコンタクトレンズ600が装着されている両方の眼500の画像を比較することにより、着色パターンを特定できる。
記憶部182は、認証情報221を記憶する。
次に、第2実施形態に係る認証装置12の動作を説明する。
ここでは、記憶部182が、図4の認証情報221を記憶していると仮定する。
図12は、第2実施形態に係る認証装置12の認証処理を示すフローチャートである。また、図13は、第2実施形態に係る補正虹彩領域700の抽出例を示す図である。
はじめに、画像取得部112は、対象者の両方の眼500の画像を取得する(ステップS201)。
例えば、画像取得部112は、図13のような、カラーコンタクトレンズ600が装着されている両方の眼500(右眼、及び、左眼)の画像を取得する。
特定部122は、ステップS201で取得した両方の眼500の画像から、各眼500の対象画像を抽出する(ステップS202)。
例えば、特定部122は、図13のように、両方の眼500の画像から、右眼500の対象画像、及び、左眼500の対象画像を抽出する。
特定部122は、ステップS202で抽出した両方の眼500の対象画像を比較することにより、対象者が装着しているカラーコンタクトレンズ600の着色パターンを特定する(ステップS203)。ここで、特定部122は、両方の眼500の対象画像の比較(画像マッチング)を、一方の眼500の対象画像を回転させながら行うことにより、マッチング度合いの高い回転角を特定する。そして、特定部122は、一方の眼500の対象画像を特定された回転角で回転させたときに、両方の眼500の対象画像間で対応する画素の値が類似している領域を、カラーコンタクトレンズ600の着色パターンの着色領域610と特定する。
例えば、特定部122は、左眼500の対象画像を、瞳孔510の中心に対応する位置を中心として、所定の回転方向に、所定の角度ずつ回転させながら、各回転角におけるマッチング度合いを算出する。特定部122は、図13のように、マッチング度合いが所定値以上で、最大の回転角「Y度」を特定する。特定部122は、特定された回転角で左眼500の対象画像を回転させたときの、両方の眼500の対象画像間で対応する画素の値の差分を算出する。特定部122は、図13のように、差分が所定値未満の領域を着色領域610として特定する。
なお、眼500の虹彩520の領域のうち、着色領域610で覆われていない領域が誤って着色領域610として特定されるのを防ぐため、特定部122は、対象画像間で対応する画素の値の差分を用いて、次のように着色領域610を特定してもよい。例えば、特定部122は、瞳孔510の中心に対応する位置を中心とした、異なる半径の各々の円について、当該円上の画素のうちの、対象画像間での値の差分が所定値未満の画素の数を算出する。特定部122は、算出した画素の数が閾値以上の円を着色領域610上の円と判定する。特定部122は、着色領域610上の円と判定された円の半径のうち、最小の半径を求める。特定部122は、求めた最小の半径より外側の領域を着色領域610として特定する。
抽出部131は、対象画像から、対象者の補正虹彩領域700を抽出する(ステップS204)。
例えば、抽出部131は、図13のように、右眼500の対象画像から、特定された着色パターンの着色領域610を除外し、補正虹彩領域700を抽出する。
以降、第1実施形態と同様に、特徴量算出部141が、補正虹彩領域700の特徴量を算出する(ステップS205)。そして、認証部151が、補正虹彩領域700の特徴量を用いて、対象者の認証を行い(ステップS206)、表示部161が、認証結果を表示する(ステップS207)。
以上により、第2実施形態に係る認証装置12の動作が完了する。
次に、第2実施形態の効果を説明する。第2実施形態によれば、製品の着色パターン等を予め準備することなく、虹彩認証の認証精度の低下を抑制できる。その理由は、認証装置12が、対象者の両方の眼のうちの一方の眼の画像と他方の眼の画像とを比較することにより、カラーコンタクトレンズの着色パターンを特定するためである。
<第3実施形態>
次に、第3実施形態について説明する。第3実施形態では、認証における照合対象の各個人の特徴量として、虹彩領域の特徴量の代わりに、各カラーコンタクトレンズ製品に対して予め算出された補正虹彩領域の特徴量を用いる点で、第1実施形態と異なる。
はじめに、第3実施形態に係る認証システム3の構成を説明する。
図14は、第3実施形態に係る認証システム3の機能ブロック図である。認証システム3は、認証装置13を含む。第3実施形態に係る認証装置13では、第1実施形態に係る認証装置11における認証部151、及び、記憶部181が、それぞれ、認証部153、及び、記憶部183に置き換わっている。
認証部153は、対象者の補正虹彩領域の特徴量と、各個人の、特定された製品に関連付けられた補正虹彩領域の特徴量とを照合し、対象者の認証を行う。各個人の各製品の補正虹彩領域の特徴量は、予め、管理者等により、当該個人が当該製品を装着したと仮定して算出され、認証情報223に設定される。この場合、例えば、ステップS104と同様の方法で、各個人の虹彩領域から、各製品の着色パターンを用いて補正虹彩領域が抽出され、当該補正虹彩領域の特徴量が算出される。
図15は、第3実施形態に係る認証情報223の例を示す図である。図15の認証情報223は、個人識別子「Uj」と、当該個人識別子に関連付けられた製品識別子「Pi」、及び、当該個人の両方の眼500の各々の補正虹彩領域に対して算出された特徴量「FR’ji」、「FL’ji」と、を含む。
記憶部183は、製品情報211、及び、認証情報223を記憶する。
次に、第3実施形態に係る認証装置13の動作を説明する。
ここでは、記憶部183が、図3の製品情報211、及び、図15の認証情報223を記憶していると仮定する。
第3実施形態に係る認証装置11の認証処理を示すフローチャートは、ステップS106の処理を除いて、第1実施形態(図6)と同様である。
ステップS106において、認証部153は、ステップS105で算出された対象者の補正虹彩領域700の特徴量と、認証情報223に含まれる、各個人の、ステップS103で特定された製品に関連付けられた補正虹彩領域の特徴量と、を照合し、対象者の認証を行う。
例えば、製品「P1」が特定された場合、認証部153は、対象者の補正虹彩領域700の特徴量「FRt」を、各個人の製品「P1」に関連付けられた補正虹彩領域の特徴量「FR’j1」と照合する。
なお、認証部153が機械学習により生成した判定器を用いて認証を行う場合、学習データとして各個人の各製品の補正虹彩領域の特徴量を用いて、各製品に対応した判定器を生成してもよい。
以上により、第3実施形態に係る認証装置13の動作が完了する。
次に、第3実施形態の効果を説明する。
第3実施形態によれば、第1実施形態に比べて、カラーコンタクトレンズを装着している場合の虹彩認証の認証精度を向上できる。その理由は、認証装置13が、対象者の補正虹彩領域の特徴量と、各個人の、特定された製品に関連付けられた補正虹彩領域の特徴量と、を照合して、対象者の認証を行うためである。
<第4実施形態>
次に、第4実施形態について説明する。第4実施形態では、特定されたカラーコンタクトレンズ製品を用いて、認証処理における照合対象の個人を絞り込む点で、第1実施形態と異なる。
はじめに、第4実施形態に係る認証システム4の構成を説明する。
図16は、第4実施形態に係る認証システム4の機能ブロック図である。認証システム4は、認証装置14を含む。第4実施形態に係る認証装置14では、第1実施形態に係る認証装置11における認証部151、及び、記憶部181が、それぞれ、認証部154、及び、記憶部184に置き換わっている。
認証部154は、認証処理により対象者の個人が特定された場合に、特定部121により特定された製品と、特定された個人(当該製品を装着していた個人)と、を関連付けて、装着情報231として保存する。さらに、その後の認証処理において、認証部154は、装着情報231を参照し、照合対象の個人を、特定部121により特定された製品に関連付けられている個人に絞り込む。
図17は、第4実施形態に係る装着情報231の例を示す図である。図17の装着情報231は、各製品の製品識別子「Pi」に関連付けられた、当該製品を装着していた個人の個人識別子「Uj」を含む。
記憶部184は、製品情報211、認証情報221、及び、装着情報231を記憶する。
次に、第4実施形態に係る認証装置14の動作を説明する。
ここでは、記憶部184が、図3の製品情報211、及び、図4の認証情報221を記憶していると仮定する。
図18は、第4実施形態に係る認証装置11の認証処理を示すフローチャートである。
ここで、ステップS401からS405までの処理は、第1実施形態のステップS101からS105までの処理と同様である。
認証部154は、装着情報231を参照し、ステップS403で特定された製品に関連付けられている個人を抽出する(ステップS406)。
認証部154は、ステップS405で算出された対象者の補正虹彩領域700の特徴量と、認証情報221に含まれる個人のうち、ステップS406で抽出された各個人の虹彩領域の特徴量とを照合し、対象者の認証を行う(ステップS407)。
ステップS407で個人が特定できた場合(ステップS408/YES)、表示部161は、認証結果として、認証成功、または、特定した対象者の個人識別子を表示する(ステップS412)。
ステップS407で個人が特定できなかった場合(ステップS408/NO)、認証部154は、対象者の補正虹彩領域700の特徴量と、認証情報221に含まれる個人のうち、ステップS406で抽出された個人以外の各個人の虹彩領域の特徴量とを照合し、対象者の認証を行う(ステップS409)。
ステップS409で個人が特定できた場合(ステップS410/YES)、認証部154は、装着情報231において、ステップS403で特定された製品の製品識別子と、認証により特定された個人の個人識別子と、を関連付ける(ステップS411)。
表示部161は、認証結果として、認証成功、または、特定した対象者の個人識別子を表示する(ステップS412)。
また、ステップS409で個人が特定できなかった場合(ステップS410/NO)、表示部161は、認証結果として、認証失敗を表示する(ステップS412)。
以降、ステップS401からの処理が繰り返される。
例えば、装着情報231において製品「P1」に個人識別子が関連付けられていない状態で、ある対象者に対する認証処理において、特定部121により製品「P1」、認証部154により個人「U1」が特定されたと仮定する。この場合、認証部154は、図17のように、装着情報231において、製品「P1」に個人「U1」を関連付ける。さらに、別の対象者に対する認証処理において、製品「P1」、個人「U1」が特定されたと仮定する。この場合、認証部154は、図17のように、装着情報231において、製品「P1」に個人「U3」を関連付ける。
その後の同じ対象者、または、他の対象者に対する処理において、特定部121により製品「P1」が特定されたと仮定する。この場合、認証部154は、図17の装着情報231から、製品「P1」に関連付けられた個人「U1」、「U3」…を抽出する。認証部154は、対象者の補正虹彩領域700の特徴量と、抽出された個人「U1」、「U3」…の各々の虹彩領域の特徴量と、の照合を行う。
以上により、第4実施形態に係る認証装置14の動作が完了する。
第4実施形態によれば、第1実施形態に比べて、認証処理を短い時間で行うことができる。その理由は、認証装置14が、製品の識別子と当該製品を装着していた個人の識別子とを関連付けて記憶し、照合対象の個人を、特定された製品に関連付けられている個人に絞り込むためである。
<第5実施形態>
次に、第5実施形態について説明する。第5実施形態では、第1実施形態に係る認証装置11を、マーケティング等において顧客が装着しているカラーコンタクトレンズ製品を特定するために用いる。
はじめに、第5実施形態に係る分析システム5の構成を説明する。
図19は、第5実施形態に係る分析システム5の機能ブロック図である。分析システム5は、第1実施形態に係る認証装置11に加えて、分析装置21を含む。分析装置21は、例えば、認証装置11と同様のハードウェア構成を有する、コンピュータ、または、情報通信端末である。認証装置11と分析装置21とは、有線または無線通信を用いたネットワーク等により接続される。
認証装置11は、例えば、カラーコンタクト製品を販売する各店舗等に配置される。分析装置21は、例えば、各店舗を管理する管理部門のオフィスやデータセンタ等に配置される。また、同じ店舗に、認証装置11と分析装置21が配置されてもよい。
認証装置11は、例えば、店舗を訪れた客が商品を購入する場合等に、当該客を対象者として、対象者が装着している製品を特定するとともに、対象者の認証を行う。認証装置11の送信部171は、特定部121により特定された製品識別子と、認証部151により特定された個人識別子と、を分析装置21に送信する。
分析装置21は、認証装置11から受信した製品識別子と個人識別子とを用いて、製品を装着している個人に関する分析処理を行う。
次に、第5実施形態に係る分析システム5の動作を説明する。
図20は、第5実施形態に係る分析システム5の処理を示すフローチャートである。
認証装置11は、第1実施形態と同様の認証処理(図6)により、客の認証を行う(ステップS501)。
認証装置11の送信部171は、認証処理において特定された製品識別子と個人識別子とを分析装置21に送信する(ステップS502)。
分析装置21は、認証装置11から受信した製品識別子と個人識別子とを用いて、分析処理を行う(ステップS503)。
分析装置21は、分析処理の結果を管理者等に出力する(ステップS504)。
分析処理は、例えば、各製品について、当該製品を装着している個人の数を集計する処理である。
例えば、分析装置21は、日、週、月等の所定期間において認証装置11から受信した製品識別子と個人識別子とに基づき、所定期間毎、及び、店舗毎に、各製品について、個人の数を集計し、分析結果として出力する。出力された分析結果は、例えば、各店舗で販売する各製品の仕入れ数や、各製品の棚割りの決定に用いられる。
また、分析処理は、各製品と個人の属性データとの関係性を分析する処理でもよい。ここで、個人の属性データは、例えば、個人が認証時に店舗で購入した商品や、個人が過去に購入した商品やサービス、個人の趣味や嗜好に関するデータでもよい。これらのデータは、データセンタ等のデータベースにおいて、各個人の個人識別子に関連付けられて記憶されている。分析装置21は、データセンタ等から、認証装置11から受信した個人識別子に関連付けられたデータを取得し、分析処理を行う。また、個人の属性データに加えて、認証装置11が設置された場所や、認証処理が行われた日時、認証処理が行われたときの天候等、様々な種類のデータに対して、各製品との関係性が分析されてもよい。
例えば、分析装置21は、所定期間において認証装置11から受信した製品識別子と個人識別子とに基づき、各製品について、当該製品と当該製品を装着している個人が購入した商品との相関関係を表すモデルを生成する。そして、分析装置21は、認証装置11から、ある個人に対して特定された製品識別子を受信したときに、生成したモデルを用いて、当該製品と相関の高い商品を予測する。分析装置21は、予測した商品を、当該個人に対して購入を勧める商品として決定し、提示する。
以上により、第5実施形態に係る分析システム5の動作が完了する。
なお、第5実施形態に係る認証装置11として、第1実施形態に係る認証装置11の代わりに、第3、第4実施形態に係る認証装置13、14を用いてもよい。
また、第5実施形態の分析処理は、個人の特定を必要としない分析処理であってもよい。この場合、分析処理は、各製品について、当該製品を装着している対象者の数を集計する処理でもよい。また、この場合、分析処理は、対象者が店舗で購入した商品や、上述の様々な種類のデータに対して、各製品との関係性を分析する処理でもよい。また、この場合、認証装置11の代わりに、認証装置11の構成から、抽出部131、特徴量算出部141、及び、認証部151を除いた構成の装置が用いられてもよい。
次に、第5実施形態の効果を説明する。
第5実施形態によれば、カラーコンタクトレンズ製品を装着している個人に関する様々な分析を行うことができる。その理由は、認証装置11が、特定された製品識別子と個人識別子とを分析装置21に送信し、分析装置21が、受信した製品識別子と個人識別子とを用いて分析処理を行うためである。
<第6実施形態>
次に、第6実施形態について説明する。第6実施形態では、第1実施形態に係る認証装置11を、犯罪捜査等において監視カメラ等で撮影された対象者が装着しているカラーコンタクトレンズ製品を特定するために用いる。
はじめに、第6実施形態に係る監視システム6の構成を説明する。
図21は、第6実施形態に係る監視システム6の機能ブロック図である。監視システム6は、第1実施形態に係る認証装置11に加えて、監視装置31、及び、端末装置41を含む。監視装置31、及び、端末装置41は、例えば、認証装置11と同様のハードウェア構成を有する、コンピュータ、または、情報通信端末である。認証装置11と監視装置31とは、有線または無線通信を用いたネットワーク等により接続される。同様に、監視装置31と端末装置41とは、有線または無線通信を用いたネットワーク等により接続される。
認証装置11に接続されたカメラ108は、例えば、監視カメラであり、道路や駅、ショッピングセンター等の監視対象地点に設置される。認証装置11と監視装置31とは、例えば、警察等の捜査機関に設置される。端末装置41は、例えば、カラーコンタクトレンズ製品を販売する店舗に設置される。
認証装置11は、カメラ108で撮影された対象者が装着している製品を特定するとともに、対象者の認証を行う。認証装置11の送信部171は、特定部121により特定された製品識別子と、認証部151により特定された個人識別子とを、監視装置31に送信する。
監視装置31は、認証装置11から受信した個人識別子が、監視対象の個人の個人識別子であるかどうかを判定することにより、監視対象の個人を検出する。監視対象の個人が検出された場合、監視装置31は、検出された個人に関する情報を、認証装置11から受信した製品識別子とともに管理者等に表示する。また、監視装置31は、検出された個人に関する情報を、認証装置11から受信した製品識別子とともに、当該製品に関連付けられた通知先の端末装置41に通知する。
端末装置41は、監視装置31から受信した監視対象の個人に関する情報を、認証装置11から受信した製品識別子とともに、店舗の店員等に表示する。
図22は、第6実施形態に係る監視情報311の例を示す図である。図22の監視情報311は、監視対象の個人の個人識別子「Uj」に関連付けられた、当該個人の名前や、性別、特徴(身長、体重)等の情報を含む。図23は、第6実施形態に係る通知先情報321の例を示す図である。図23の通知先情報321は、製品識別子「Pi」に関連付けられた、当該製品を販売する店舗の識別子「Sk」(kは、例えば、1以上の整数)を含む。監視情報311、及び、通知先情報321は、予め管理者等により、監視装置31に設定される。
次に、第6実施形態に係る監視システム6の動作を説明する。
ここでは、監視装置31の記憶部が、図22の監視情報311、及び、図23の通知先情報321を記憶していると仮定する。
図24は、第6実施形態に係る監視システム6の処理を示すフローチャートである。
認証装置11は、第1実施形態と同様の認証処理(図6)により、対象者の認証を行う(ステップS601)。
認証装置11の送信部171は、認証処理において特定された製品識別子と個人識別子とを監視装置31に送信する(ステップS602)。
例えば、送信部171は、製品識別子「P1」、及び、個人識別子「U1」を、監視装置31へ送信する。
監視装置31は、認証装置11から受信した個人識別子が監視対象の個人の個人識別子であるかどうかを判定する(ステップS603)。ここで、監視装置31は、認証装置11から受信した個人識別子が、監視情報311の個人識別子のうちのいずれかに一致する場合、認証装置11から受信した個人識別子が監視対象の個人の個人識別子であると判定する。
例えば、監視装置31は、図22の監視情報311を参照し、個人「U1」が監視対象であると判定する。
ステップS603で、監視対象であると判定された場合(ステップS603/YES)、監視装置31は、判定された個人に関する情報を、認証装置11から受信した製品識別子とともに管理者等に表示する(ステップS604)。ここで、監視装置31は、監視情報311を参照し、監視対象と判定された個人に関する情報を取得する。
例えば、監視装置31は、図22の監視情報311を参照し、個人「U1」に関する情報「名前:AAA、性別:男性、身長:170cm、体重:60kg」、及び、製品「P1」を表示する。管理者等は、これらの情報に基づき、製品「P1」を販売する店舗を対象に、個人「U1」による製品「P1」や他の商品の購入履歴を収集することができる。また、管理者等は、製品「P1」を販売する店舗を、個人「U1」が立ち寄る可能性がある場所として、監視カメラによる監視対象地点や、捜査員等による張り込み先に指定することができる。
さらに、監視装置31は、監視対象と判定された個人の情報を、認証装置11から受信した製品識別子とともに、通知先の端末装置41に通知する(ステップS605)。ここで、監視装置31は、通知先情報321を参照し、認証装置11から受信した製品識別子に関連付けられた通知先の端末装置41に、個人の情報と製品識別子とを通知する。
例えば、監視装置31は、図23の通知先情報321を参照し、個人「U1」に関する情報「名前:AAA、…」、及び、製品「P1」を、店舗「S1」、「S2」、…に通知する。
端末装置41は、監視装置31から受信した個人の情報と製品識別子とを表示する(ステップS606)。
例えば、店舗「S1」の端末装置41は、個人「U1」に関する情報「名前:AAA、…」、及び、製品「P1」を表示する。店舗の従業員等は、これらの情報に基づき、当該店舗を訪れる客や、当該店舗で製品「P1」を購入した客が、個人「U1」であるかどうか注意し、個人「U1」と思われる客が訪れた場合に警察等の捜査機関に通報できる。
以上により、第6実施形態に係る監視システム6の動作が完了する。
なお、第6実施形態に係る認証装置11として、第1実施形態に係る認証装置11の代わりに、第3、第4実施形態に係る認証装置13、14を用いてもよい。
また、第6実施形態において、個人の特定は、虹彩認証以外の方法で行ってもよい。この場合、認証装置11の認証部151は、顔認証や歩容認証等、虹彩認証以外の方法で個人を特定してもよい。
第6実施形態によれば、装着しているカラーコンタクトレンズ製品の情報を、犯罪捜査等に利用できる。その理由は、認証装置11が、特定された製品識別子と個人識別子とを監視装置31に送信し、監視装置31が、受信した個人識別子が監視対象である場合に、受信した製品識別子を出力するためである。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上述の実施形態の一部、または、全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
対象者の眼の画像を取得する、画像取得手段と、
参照画像と、前記眼の画像と、を比較することにより、前記対象者が装着しているカラーコンタクトレンズの着色パターンを特定する、特定手段と、
前記眼の虹彩領域のうち前記着色パターンの着色領域以外の領域における特徴を用いて、前記対象者を特定する、認証手段と、
を備えた、認証装置。
(付記2)
前記参照画像は、複数のカラーコンタクトレンズの製品のいずれかの着色パターンであり、
前記特定手段は、前記複数のカラーコンタクトレンズの製品各々の着色パターンと、前記眼の画像と、を比較することにより、前記複数の製品から前記対象者が装着している製品を特定し、当該特定した製品の着色パターンを、前記対象者が装着しているカラーコンタクトレンズの着色パターンと特定する、
付記1に記載の認証装置。
(付記3)
さらに、個人を識別するための識別子と、製品を識別するための識別子と、当該個人の虹彩領域のうち当該製品の着色パターンの着色領域以外の領域における特徴と、を関連付けて記憶する、記憶手段を備え、
前記認証手段は、前記対象者の虹彩領域のうち前記特定した製品の着色パターンの着色領域以外の領域における特徴と、前記記憶手段に記憶されている前記個人の虹彩領域のうち当該特定した製品の着色パターンの着色領域以外の領域における特徴と、を照合することにより、前記対象者を特定する、
付記2に記載の認証装置。
(付記4)
さらに、製品を識別するための識別子と、当該製品を装着していた個人を識別するための識別子と、を関連付けて記憶する、記憶手段を備え、
前記認証手段は、前記記憶手段に記憶されている前記特定した製品に関連付けられている個人を抽出し、当該抽出された個人から前記対象者を特定する、
付記2に記載の認証装置。
(付記5)
前記参照画像は、前記対象者の両眼のうちの一方の眼の画像であり、
前記画像取得手段は、前記対象者の両眼の画像を取得し、
前記特定手段は、前記両眼のうちの一方の眼の画像と、他方の眼の画像と、を比較することにより、前記対象者が装着しているカラーコンタクトレンズの着色パターンを特定する、
付記1に記載の認証装置。
(付記6)
さらに、個人を識別するための識別子と、当該個人の虹彩領域の特徴と、を関連付けて記憶する、記憶手段を備え、
前記認証手段は、前記対象者の虹彩領域のうち前記特定した着色パターンの着色領域以外の領域における特徴と、前記記憶手段に記憶されている前記個人の虹彩領域の特徴と、を照合することにより、前記対象者を特定する、
付記1、2、及び、5のうちのいずれか1項に記載の認証装置。
(付記7)
さらに、個人を識別するための識別子と、当該個人の虹彩領域と、を関連付けて記憶する、記憶手段を備え、
前記認証手段は、前記対象者の虹彩領域のうち前記特定した着色パターンの着色領域以外の領域における特徴と、前記記憶手段に記憶されている前記個人の虹彩領域のうち当該特定した着色パターンの着色領域以外の領域における特徴と、を照合することにより、前記対象者を特定する、
付記1、2、及び、5のうちのいずれか1項に記載の認証装置。
(付記8)
さらに、前記特定された製品を識別するための識別子と、前記特定された対象者の個人を識別するための識別子とを、分析装置に送信する、送信手段を備え、
前記分析装置は、前記認証装置から受信した、製品の識別子と個人の識別子とを用いて、当該製品を装着している個人に関する分析処理を行う、
付記2乃至4のいずれか1項に記載の認証装置。
(付記9)
前記分析装置は、前記分析処理として、前記複数の製品の各々について、当該製品を装着している個人の数を集計する、
付記8に記載の認証装置。
(付記10)
前記分析装置は、前記分析処理として、前記複数の製品の各々について、当該製品と当該製品を装着している個人の属性との関係性を分析する、
付記8に記載の認証装置。
(付記11)
前記個人の属性は、当該個人が購入した商品であり、
前記分析装置は、前記分析した関係性に基づき、前記特定された製品を装着している対象者に対して提示すべき商品を決定する、
付記10に記載の認証装置。
(付記12)
さらに、前記特定された製品を識別するための識別子と、前記特定された対象者の個人を識別するための識別子とを、監視装置に送信する、送信手段を備え、
前記監視装置は、
監視対象の個人を識別するための識別子を記憶し、
前記認証装置から受信した個人の識別子が前記監視対象の個人の識別子と一致する場合、前記認証装置から受信した製品の識別子を出力する、
付記2乃至4のいずれか1項に記載の認証装置。
(付記13)
さらに、前記監視装置は、
前記製品を識別するための識別子と通知先を識別するための識別子とを関連付けて記憶し、
前記認証装置から受信した個人の識別子が前記監視対象の個人の識別子と一致する場合、前記認証装置から受信した製品の識別子に関連付けられた通知先に、当該製品の識別子を通知する、
付記12に記載の認証装置。
(付記14)
対象者の眼の画像を取得し、
参照画像と、前記眼の画像と、を比較することにより、前記対象者が装着しているカラーコンタクトレンズの着色パターンを特定し、
前記眼の虹彩領域のうち前記着色パターンの着色領域以外の領域における特徴を用いて、前記対象者を特定する、
認証方法。
(付記15)
コンピュータに、
対象者の眼の画像を取得し、
参照画像と、前記眼の画像と、を比較することにより、前記対象者が装着しているカラーコンタクトレンズの着色パターンを特定し、
前記眼の虹彩領域のうち前記着色パターンの着色領域以外の領域における特徴を用いて、前記対象者を特定する、
処理を実行させる、コンピュータが読み取り可能な記録媒体。
1、2、3、4 認証システム
5 分析システム
6 監視システム
11、12、13、14 認証装置
21 分析装置
31 監視装置
41 端末装置
101 CPU
102 RAM
103 ROM
104 フラッシュメモリ
105 通信I/F
106 表示装置
107 入力装置
108 カメラ
109 バス
111、112 画像取得部
121、122 特定部
131 抽出部
141 特徴量算出部
151、153、154 認証部
161 表示部
171 送信部
181、182、183、184 記憶部
211 製品情報
221、223 認証情報
231 装着情報
311 監視情報
321 通知先情報
500 眼
510 瞳孔
520 虹彩
600 カラーコンタクトレンズ
610 着色領域

Claims (9)

  1. 対象者の眼の画像を取得する、画像取得手段と、
    参照画像と、前記眼の画像と、を比較することにより、前記眼の虹彩領域のうち前記対象者が装着しているカラーコンタクトレンズの着色領域以外の領域を抽出する、抽出手段と、
    前記抽出された領域における特徴を用いて、前記対象者を特定する、認証手段と、
    を備えた、認証装置。
  2. 前記カラーコンタクトレンズの着色パターンを特定する特定手段を更に備え、
    前記抽出手段は、前記特定された着色パターンに基づき、前記着色領域以外の領域を抽出する、
    請求項1に記載の認証装置。
  3. 前記参照画像は、複数のカラーコンタクトレンズの製品のいずれかの着色パターンであり、
    前記特定手段は、前記複数のカラーコンタクトレンズの製品各々の着色パターンと、前記眼の画像と、を比較することにより、前記複数の製品から前記対象者が装着している製品を特定し、当該特定した製品の着色パターンを、前記対象者が装着している前記カラーコンタクトレンズの着色パターンと特定する、
    請求項2に記載の認証装置。
  4. 前記特定手段は、前記参照画像に含まれる着色パターンを所定の角度毎に回転させ、それぞれの回転角度に応じた前記参照画像に含まれる着色パターンと、前記対象者が装着している前記カラーコンタクトレンズの着色パターンとの画像マッチングを実行することで、前記複数の製品から前記対象者が装着している製品を特定する、
    請求項3に記載の認証装置。
  5. 個人を識別するための識別子と、製品を識別するための識別子と、当該個人の虹彩領域のうち当該製品の着色パターンの着色領域以外の領域における特徴と、を関連付けて記憶する、記憶手段をさらに備え、
    前記認証手段は、前記対象者の虹彩領域のうち前記特定した製品の着色パターンの前記着色領域以外の領域における特徴と、前記記憶手段に記憶されている前記個人の虹彩領域のうち当該特定した製品の着色パターンの前記着色領域以外の領域における特徴と、を照合することにより、前記対象者を特定する、
    請求項3に記載の認証装置。
  6. さらに、製品を識別するための識別子と、当該製品を装着していた個人を識別するための識別子と、を関連付けて記憶する、記憶手段を備え、
    前記認証手段は、前記記憶手段に記憶されている前記特定した製品に関連付けられている個人を抽出し、当該抽出された個人から前記対象者を特定する、
    請求項3に記載の認証装置。
  7. 前記参照画像は、前記対象者の両眼のうちの一方の眼の画像であり、
    前記画像取得手段は、前記対象者の両眼の画像を取得し、
    前記特定手段は、前記両眼のうちの一方の眼の画像と、他方の眼の画像と、を比較することにより、前記対象者が装着している前記カラーコンタクトレンズの着色パターンを特定する、
    請求項2から6のいずれか1項に記載の認証装置。
  8. コンピュータが、
    対象者の眼の画像を取得し、
    参照画像と、前記眼の画像と、を比較することにより、前記眼の虹彩領域のうち前記対象者が装着しているカラーコンタクトレンズの着色領域以外の領域を抽出し、
    前記抽出された領域における特徴を用いて、前記対象者を特定する、
    認証方法。
  9. コンピュータに、
    対象者の眼の画像を取得し、
    参照画像と、前記眼の画像と、を比較することにより、前記眼の虹彩領域のうち前記対象者が装着しているカラーコンタクトレンズの着色領域以外の領域を抽出し、
    前記抽出された領域における特徴を用いて、前記対象者を特定する、
    処理を実行させるためのプログラム。
JP2022194571A 2018-09-28 2022-12-06 認証装置、認証方法、及び、プログラム Active JP7400932B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022194571A JP7400932B2 (ja) 2018-09-28 2022-12-06 認証装置、認証方法、及び、プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/036352 WO2020065935A1 (ja) 2018-09-28 2018-09-28 認証装置、認証方法、及び、記録媒体
JP2020547809A JP7192871B2 (ja) 2018-09-28 2018-09-28 認証装置、認証方法、及び、プログラム
JP2022194571A JP7400932B2 (ja) 2018-09-28 2022-12-06 認証装置、認証方法、及び、プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020547809A Division JP7192871B2 (ja) 2018-09-28 2018-09-28 認証装置、認証方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2023016924A true JP2023016924A (ja) 2023-02-02
JP7400932B2 JP7400932B2 (ja) 2023-12-19

Family

ID=69951259

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020547809A Active JP7192871B2 (ja) 2018-09-28 2018-09-28 認証装置、認証方法、及び、プログラム
JP2022194571A Active JP7400932B2 (ja) 2018-09-28 2022-12-06 認証装置、認証方法、及び、プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020547809A Active JP7192871B2 (ja) 2018-09-28 2018-09-28 認証装置、認証方法、及び、プログラム

Country Status (4)

Country Link
US (1) US20220004609A1 (ja)
EP (1) EP3859664A4 (ja)
JP (2) JP7192871B2 (ja)
WO (1) WO2020065935A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6755529B1 (ja) * 2019-11-21 2020-09-16 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
US20240054194A1 (en) 2021-09-27 2024-02-15 Nec Corporation Authentication system, authentication apparatus, authentication method and recording medium
WO2023175939A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2024002495A1 (en) * 2022-07-01 2024-01-04 Telefonaktiebolaget Lm Ericsson (Publ) Controlling device, authenticating device, near-eye device, and methods thereof
WO2024041739A1 (en) * 2022-08-26 2024-02-29 Telefonaktiebolaget Lm Ericsson (Publ) Contact lens system and system comprising contact lens subsystem and controlling device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4258868B2 (ja) * 1998-11-16 2009-04-30 沖電気工業株式会社 アイリスパターン認識装置
US6746120B2 (en) 2000-10-30 2004-06-08 Novartis Ag Method and system for ordering customized cosmetic contact lenses
JP2002279402A (ja) * 2001-03-22 2002-09-27 Oki Electric Ind Co Ltd コンタクトレンズ辞書作成装置および個人認証システム
JP2006343995A (ja) 2005-06-09 2006-12-21 Oki Electric Ind Co Ltd 生体情報の登録装置または照合装置
KR101046459B1 (ko) * 2010-05-13 2011-07-04 아이리텍 잉크 다수의 홍채템플릿을 이용한 홍채인식장치 및 방법
US9934436B2 (en) * 2014-05-30 2018-04-03 Leidos Innovations Technology, Inc. System and method for 3D iris recognition
US10078783B2 (en) * 2017-01-11 2018-09-18 International Business Machines Corporation Enhanced user authentication
JP6946649B2 (ja) * 2017-01-31 2021-10-06 ソニーグループ株式会社 電子機器、情報処理方法およびプログラム
EP3676793A4 (en) * 2017-08-30 2020-10-21 Nec Corporation IRIS RECOGNITION SYSTEM, IRIS RECOGNITION PROCESS AND INFORMATION MEDIA
US11093732B2 (en) * 2018-09-25 2021-08-17 Advanced New Technologies Co., Ltd. Reduction of search space in biometric authentication systems

Also Published As

Publication number Publication date
US20220004609A1 (en) 2022-01-06
JPWO2020065935A1 (ja) 2021-08-30
JP7400932B2 (ja) 2023-12-19
EP3859664A1 (en) 2021-08-04
JP7192871B2 (ja) 2022-12-20
EP3859664A4 (en) 2021-09-29
WO2020065935A1 (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7192871B2 (ja) 認証装置、認証方法、及び、プログラム
JP6715152B2 (ja) ケア情報取得方法、ケア情報共有方法及びこれらの方法のための電子装置
US11367305B2 (en) Obstruction detection during facial recognition processes
JP6915542B2 (ja) 情報処理装置、通知システム、情報送信方法及びプログラム
US20170169501A1 (en) Method and system for evaluating fitness between wearer and eyeglasses
US11113510B1 (en) Virtual templates for facial recognition
CN111597918A (zh) 人脸活体检测模型的训练、检测方法、装置及电子设备
US20130243332A1 (en) Method and System for Estimating an Object of Interest
Galdi et al. FIRE: Fast Iris REcognition on mobile phones by combining colour and texture features
CN111666920B (zh) 目标物品佩戴检测方法、装置、存储介质及电子装置
JP2019023785A (ja) 人物識別装置及びプログラム
CN111144169A (zh) 人脸识别方法、装置和电子设备
US20230111437A1 (en) System and method for content recognition and data categorization
US10373399B2 (en) Photographing system for long-distance running event and operation method thereof
CN105955451A (zh) 基于用户图像的出行提示方法
US11620728B2 (en) Information processing device, information processing system, information processing method, and program
US20230368205A1 (en) Customer information registration apparatus
US11935327B1 (en) On the fly enrollment for facial recognition
JP6917293B2 (ja) 画像監視装置
KR102300500B1 (ko) 제품 입체컷 이미지 처리 방법, 장치 및 시스템
US9892452B2 (en) Method for replacing a texture of an apparel with an other texture preserving the wrinkles, in a video file
KR102353387B1 (ko) 딥러닝 인공 지능 바이러스 열 감지 시스템
JP6994900B2 (ja) 入退場管理システム
JP2017175453A (ja) 画像処理装置及び画像処理方法
US20230306775A1 (en) Information processing apparatus, non-transitory computer readable medium, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R151 Written notification of patent or utility model registration

Ref document number: 7400932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151