JP2023040887A - 個人認証装置及び個人認証方法、プログラム - Google Patents
個人認証装置及び個人認証方法、プログラム Download PDFInfo
- Publication number
- JP2023040887A JP2023040887A JP2021148078A JP2021148078A JP2023040887A JP 2023040887 A JP2023040887 A JP 2023040887A JP 2021148078 A JP2021148078 A JP 2021148078A JP 2021148078 A JP2021148078 A JP 2021148078A JP 2023040887 A JP2023040887 A JP 2023040887A
- Authority
- JP
- Japan
- Prior art keywords
- information
- eyeglasses
- personal authentication
- image
- eyeball
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Collating Specific Patterns (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【課題】眼球画像を用いて個人認証を行う場合に、被検者が眼鏡をかけている場合でも、個人認証の精度の低下を抑制する。【解決手段】ユーザーの眼球画像を取得する取得部と、眼球画像に写ったゴーストに基づいて、ユーザーが着用している眼鏡についての情報を推定する推定部と、眼球画像と眼鏡についての情報とに基づいて、ユーザーの個人認証を行う認証部とを備える。【選択図】 図10
Description
本発明は、眼球画像を用いた個人認証技術に関する。
従来より、眼球画像を用いて人の視線の方向を検出したり、個人認証を行ったりする技術が知られている。このような技術では、被検者が眼鏡を装着している場合、眼鏡によるゴースト光が、視線検出や個人認証の精度に影響を与えるという問題がある。
この問題の対策として、特許文献1には、視線検出のキャリブレーション時に眼鏡の屈折率を判定し、注視点検出解析の補正を行う方法が開示されている。
また、特許文献2には、視線検出において、眼球を3方向から撮影し、3方向からの偏光情報を用いることで、眼鏡表面による反射光により画像が見えない箇所を複数情報から補う方法が開示されている。
しかしながら、特許文献1に開示されている方法においては、ゴースト光が入射すると、瞳孔に飽和した光が映り込み、眼球画像が欠けてしまうため、視線検出の精度が低下するという問題点がある。
また、特許文献2においては、装置が複雑化、高額化、大型化するうえ、ゴースト光の範囲は大きいため、いずれかの方向からの画像で必ずコースト光の影響を除くことができるわけではない。
これらの問題は、特許文献1及び特許文献2に記載の技術を個人認証に適用した場合でも同様である。
本発明は上述した課題に鑑みてなされたものであり、その目的は、眼球画像を用いて個人認証を行う場合に、被検者が眼鏡をかけている場合でも、個人認証の精度の低下を抑制することである。
本発明に係わる個人認証装置は、ユーザーの眼球画像を取得する取得手段と、前記眼球画像に写ったゴーストに基づいて、前記ユーザーが着用している眼鏡についての情報を推定する推定手段と、前記眼球画像と前記眼鏡についての情報とに基づいて、前記ユーザーの個人認証を行う認証手段と、を備えることを特徴とする。
本発明によれば、眼球画像を用いて個人認証を行う場合に、被検者が眼鏡をかけている場合でも、個人認証の精度の低下を抑制することが可能となる。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(第1の実施形態)
図1は、本発明の個人認証装置の第1の実施形態であるデジタルスチルカメラ100の外観を示す図である。図1(a)はデジタルスチルカメラ100の正面斜視図であり、図1(b)はデジタルスチルカメラ100の背面斜視図である。
図1は、本発明の個人認証装置の第1の実施形態であるデジタルスチルカメラ100の外観を示す図である。図1(a)はデジタルスチルカメラ100の正面斜視図であり、図1(b)はデジタルスチルカメラ100の背面斜視図である。
デジタルスチルカメラ100は、本実施形態においては、図1(a)に示すように、カメラ本体100Aに撮影レンズ100Bが着脱自在に装着されて構成されている。カメラ本体100Aには、ユーザーからの撮像操作を受ける操作部材であるレリーズボタン105が配置されている。
また、図1(b)に示すように、デジタルスチルカメラ100の背面には、ユーザーがカメラ内部に含まれる後述する表示素子110を覗きこむための、接眼窓枠121及び接眼レンズ112が配置されている。また、眼球を照らす複数個の照明光源113a,113b,113c,113dが接眼レンズ112の周囲に配置されている。
図2は、図1(a)に図示したY軸とZ軸が成すYZ平面でカメラ筐体を切った断面図であり、デジタルスチルカメラ100の概略構成を示している。図1及び図2において、対応する部位は同じ符号で表記されている。
図2において、レンズ交換式カメラにおける撮影レンズ100Bは、カメラ本体100Aに装着されている。本実施形態では、説明の便宜上、撮影レンズ100Bの内部が2つのレンズ151,152で構成されているように示したが、実際は、周知の通りさらに多数のレンズで構成されている。
カメラ本体100Aは、撮影レンズ100Bの予定結像面に配置された撮像素子102を備える。カメラ本体100Aには、カメラ全体を制御するCPU103、撮像素子102により撮像された画像を記録するメモリ部104が内包されている。また、撮像された画像を表示するための液晶等で構成される表示素子110、それを駆動する表示素子駆動回路111、表示素子110に表示された被写体像を観察するための接眼レンズ112が、接眼窓枠121内に配置されている。
ユーザーは、接眼窓枠121の内部を覗き込むことにより、表示素子110の虚像501を図5に示すような状態で見ることができる。具体的には、接眼レンズ112によって、表示素子110の虚像501が実際のサイズより拡大された状態で、接眼レンズ112から50cm~2m程度離れた位置に結像される。ユーザーは、この虚像501を視認することとなる。図5では、1m離れた位置に結像するものとして図示されている。
照明光源113a~113dは、撮影者の眼球114を照明するための光源で、赤外発光ダイオードからなり、接眼レンズ112の周りに配置されている。照明光源113a~113dは、この光源の角膜反射による反射象と瞳孔との関係から視線方向を検出するために用いられる。
照明された眼球像と照明光源113a~113dの角膜反射による像は接眼レンズ112を透過し、光分割器115で反射され、受光レンズ116によってCCD等の光電変換素子を2次元的に配列した眼球用撮像素子117上に結像される。受光レンズ116は、撮影者の眼球114の瞳孔と眼球用撮像素子117とが共役な結像関係となるように配置されている。眼球用撮像素子117上に結像された眼球の像と、光源113a~113bの角膜反射による像の位置関係から、後述する所定のアルゴリズムで視線方向を検出することができる。また、本実施形態においては、撮影者(被検者)は、一例として眼鏡144のような光学部材を装着しており、この光学部材は、眼球114と接眼窓枠121の間に位置するものとする。
一方、撮影レンズ100Bは、絞り161、絞り駆動装置162、レンズ駆動用モーター163、レンズ駆動部材164、フォトカプラー165を備える。レンズ駆動部材164は、ギヤ等からなる。また、フォトカプラー165は、レンズ駆動部材164に連動して回転するパルス板166の回転を検知して、焦点調節回路168に伝える。
焦点調節回路168は、レンズ駆動部材164の回転量の情報とカメラ側からのレンズ駆動量の情報とに基づいて、レンズ駆動用モーター163を所定量駆動させ、撮影レンズ100Bを合焦状態に調節する。なお、撮影レンズ100Bは、カメラ本体100Aのマウント接点147を介して、カメラ本体100Aとの信号のやり取りを行う。
図3は、デジタルスチルカメラ100の電気的構成を示すブロック図である。カメラ本体100Aに内蔵されたCPU103には、視線検出回路301、測光回路302、自動焦点検出回路303、信号入力回路304、表示素子駆動回路111、照明光源駆動回路305が接続されている。また、CPU103は、撮影レンズ100B内に配置された焦点調節回路168、絞り駆動装置162に含まれる絞り制御回路306とも、マウント接点147を介して接続されている。CPU103に付随したメモリ部104は、撮像素子102および眼球用撮像素子117からの撮像信号の記憶領域、及び、後述する視線の個人差を補正する視線補正データの記憶領域を有している。
視線検出回路301は、眼球用撮像素子117からの眼球画像信号をA/D変換し、この画像情報をCPU103に送信する。CPU103は、視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から撮影者の視線を算出する。
測光回路302は、測光センサの役割も兼ねる撮像素子102から得られる信号に基づいて、被写界の明るさに対応した輝度信号を取得し、増幅、対数圧縮、A/D変換を行い、被写界輝度情報として、CPU103に送る。
自動焦点検出回路303は、撮像素子102における位相差検出のために使用される複数の画素からの信号をA/D変換し、CPU103に送る。CPU103は、これらの複数の画素の信号から、各焦点検出ポイントに対応するデフォーカス量を算出する。これは撮像面位相差AFとして知られる公知の技術である。
図4は、眼球用撮像素子117の出力を示す図である。図4(a)は、眼球用撮像素子117から得られる反射像の画像例を示し、図4(b)は、この画像例の領域αにおける、眼球用撮像素子117の信号出力強度を示す。なお、図4においては、水平方向をX軸、垂直方向をY軸とする。
このとき、照明光源113a,113bの角膜反射像が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔401の端部401a,401bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。
図4(b)の輝度情報例(信号強度例)において、照明光源113a,113bの角膜反射光が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。瞳孔401の領域に相当する、座標XaからXbの間の領域は、上記のXd,Xeの位置を除き、極端に低いレベルの輝度が得られる。これに対し、瞳孔401の外側の虹彩403の領域に相当する、Xaより小さいX座標の値を持つ領域及びXbより大きいX座標の値を持つ領域では、これらの2種の輝度レベルの中間の値が得られる。このようなX座標位置に対する輝度レベルの変動情報から、照明光源113a,113bの角膜反射光が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’,b’のX座標Xa,Xbを得ることができる。
また、受光レンズ116の光軸に対する眼球114の光軸の回転角θxが小さい場合、眼球用撮像素子117上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。
これらのことから、眼球用撮像素子117上に結像する瞳孔中心に相当する箇所c’のX座標、照明光源113a,113bの角膜反射像Pd’,Pe’の座標を見積もることができる。
図4(a)では、ユーザーの眼球がY軸に垂直な平面内で回転する場合の回転角θxを算出する例を示しているが、ユーザーの眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
図5を用いて、接眼窓枠121への覗き込みの状態について説明する。図5は、表示素子110の虚像501を、ユーザーが、接眼窓枠121及び接眼レンズ112を介して視認している状態を示す、Y軸の正方向から見た上面模式図である。なお、図5では、説明を分かりやすくするため、図1では図示していた接眼レンズ112を省略して示している。
ユーザーは、図5においては不図示の接眼レンズ112によって表示素子110の実際のサイズより拡大された虚像501を視認している。通常、ファインダの光学系は、虚像が接眼レンズ112から数十cm~2m程度の距離に形成されるように調整されている。本実施形態では1mの距離に虚像が形成されるものとして図示されている。また、図5では、ユーザーが眼鏡144をかけており、眼球114と接眼窓枠121が眼鏡144を挟んで離れた位置にある状況を示している。
図5(a)は、ユーザーが、接眼窓枠121及び表示素子110の光軸中心とほぼ同位置に眼球中心が位置する状態で、画面のほぼ中央を注視している状態を示している。この状態では、ユーザーには視野範囲β1で示す領域が見えている。この状態で、現在見えていない画面端部における範囲γ1を見たい場合には、ユーザーは図5(b)に示すように、頭部ごと眼球をX軸正方向(紙面下方向)に大きく並進移動させる傾向がある。
この並進移動によって眼球114の中心位置が光軸と垂直な方向にずれ、ずれた後の眼球における瞳孔401と接眼窓枠121の端を結ぶ直線OCと直線OC’によって新たな視野範囲β2が形成される。視野範囲β2は、見えている範囲がX軸の負方向(紙面上方向)に寄り、並進移動前には見えていなかった範囲γ1が視野に含まれている。従って、ユーザーは並進移動によって範囲γ1を見ることに成功している。しかし、逆に紙面下方向の視野外になる範囲が範囲γ2’となり、図5(a)の範囲γ2より広がってしまう。
また、同様に図5(a)の状態では見えていない上記とは反対の画面端部範囲γ2を見たい場合には、ユーザーは図5(b)とは反対に、頭部をX軸負方向(紙面上方向)に並進移動させて図5(c)の状態とする。図5(b)とは反対方向に頭部をずらすことによって、図5(c)においては、直線ODと直線OD’に挟まれた新たな視野範囲β3が形成される。視野範囲β3は、見えている範囲がX軸の正方向(紙面下方向)に寄り、図5(a)では視野範囲外だった範囲γ2が視野に含まれている。従って、ユーザーは頭部の並進移動によって、範囲γ2を見ることに成功している。しかし、逆に紙面上方向の視野外になる範囲が範囲γ1’となり、図5(a)の範囲γ1より広がってしまう。
また、上記のように頭部の並進移動が行われて接眼窓枠121を斜め方向から覗き込む視認状態においては、上記でも触れたように、眼球114が回転するだけでなく、頭部ごと傾けられる場合が多くある。これについて、以下説明する。
図5(a)~図5(c)においては、ユーザーは、紙面上方向側の眼球(右目)で接眼窓枠121を通して表示素子110の虚像501を視認している状態にある。
ユーザーは前述したように覗き込み視認状態になると、例えば図5(a)から図5(b)の状態に変化するが、この時、接眼窓枠121を覗いている紙面上方向側の眼球(右目)の回転だけでなく、符号θhで示すように、頭部ごと傾けてのぞき込むことが多い。この時、ユーザーが眼鏡等の光学部材を装着していると、図5(b)のように、頭部の傾きθhとともに眼鏡144の傾きも同方向に変化する。すると、眼鏡144の光軸に対する傾きが変化するため、照明光源113a~113dの光が眼鏡144の表面に反射して生じるゴーストの位置もそれに応じて変化する。
上記のゴーストは、図6に示すように、照明光源113a~113dから照射された光が、眼鏡144に反射し、その反射光が矢印のように眼球用撮像素子117に入射することによって生じる。図6では照明光源113a又は113bからの光の経路を例として示しているが、照明光源113c,113dからの光も同様に眼球用撮像素子117に入射しうる。
上記のゴーストは、図7(a)で示す眼球画像では、例えばGa、Gb、Gc、Gdのように現れる。これらは照明光源113a,113b,113c,113dから発せられる光が眼鏡144の表面に反射することで生じるゴーストであり、各照明光源から発せられる光が眼球114の角膜表面で反射することで生じるプルキニエ像とは別に現れる。これらのゴーストは、ユーザーの装着する眼鏡144等の光学部材が正面を向いている場合には略左右対象に存在している。
それに対し、上述したように頭部に傾きθhが生じると、図7(b)に示すように、これらの眼球に映るゴーストが紙面右方向に向けて移動する。この時、図示のように眼球画像中央付近の領域にある瞳孔401の画像に、例えば照明光源113aによるゴーストGa’が重なることで、瞳孔画像の一部が隠れてしまうことがある。瞳孔画像の一部が隠れることにより、眼球画像が欠けて、個人認証の精度が落ちるといった問題が生じる。
本実施形態においては、従来の個人認証では精度を落とす要因となっていたゴーストを、個人認証に活用することで、認証精度を向上させる。本実施形態においては、ゴーストによる眼鏡の種別の推定を深層学習した学習済みモデルを用いて行うものとする。なお、本実施形態においては、眼鏡の種別の情報を推定する例について説明するが、眼鏡の種別に限らず、その他眼鏡の反射率や屈折率や色などの眼鏡についての情報をゴーストから推定するようにしてもよい。
以下に、眼球用撮像素子117から得られる画像を、畳み込みニューラルネットワーク(以下、CNN)に入力情報として入力することにより、眼鏡の種別を解析し、推定する手法について説明する。CNNを用いることで、より高精度な検出を行うことが可能となる。
CNNの基本的な構成について、図8および図9を用いて説明する。
図8(a)は、入力された2次元画像データから眼鏡の種別を推定するCNNの基本的な構成を示す図である。入力する2次元画像データは、眼球用撮像素子117から得られた眼球画像を用いてもよいが、眼球画像の全体の明るさを下げるかフィルタをかけるなどの方法でゴーストを際立たせた画像を用いるほうがよい。なぜならば、ゴーストは前述の通り照明光源の反射によって生成されているため輝度が高く、また図8(a)のCNNでは、眼鏡の種別の判定を目的としているため、ゴースト以外の信号を極力減らすことで判定の精度を上げることができるからである。
CNNの処理の流れは、左端を入力とし、右方向に処理が進んでいく。CNNは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層を一つのセットとし、それらが階層的に並んで構成されている。
CNNでは、まずS層において、前段の階層で検出された特徴をもとに次の特徴を検出する。またS層において検出した特徴をC層で統合し、その階層における検出結果として次の階層に送る。
S層は、特徴検出細胞面からなり、特徴検出細胞面ごとに異なる特徴を検出する。また、C層は、特徴統合細胞面からなり、前段の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合、特徴検出細胞面および特徴統合細胞面を総称して特徴面と呼ぶ。本実施形態では、最終段階層である出力層はC層は用いずS層のみで構成している。
特徴検出細胞面での特徴検出処理、および特徴統合細胞面での特徴統合処理の詳細について、図9を用いて説明する。
特徴検出細胞面は、複数の特徴検出ニューロンにより構成され、特徴検出ニューロンは前段の階層のC層に所定の構造で結合している。また特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは同階層のS層に所定の構造で結合している。
図9に示した、L階層目S層のM番目細胞面内において、位置(ξ,ζ)の特徴検出ニューロンの出力値をyLS
M(ξ,ζ)、L階層目C層のM番目細胞面内において、位置(ξ,ζ)の特徴統合ニューロンの出力値をyLC
M(ξ,ζ)と表記する。その場合、それぞれのニューロンの結合係数をwLS
M(n,u,v)、wLC
M(u,v) とすると、各出力値は以下のように表すことができる。
(数式1)のfは活性化関数であり、ロジスティック関数や双曲正接関数などのシグモイド関数であれば何でもよく、例えばtanh関数で実現してよい。uLS M(ξ,ζ)は、L階層目S層のM番目細胞面における、位置(ξ,ζ)の特徴検出ニューロンの内部状態である。(数式2)は、活性化関数を用いず単純な線形和をとっている。(数式2)のように活性化関数を用いない場合は、ニューロンの内部状態uLS M(ξ,ζ)と出力値yLC M(ξ,ζ)は等しい。また、(数式1)のyL-1C n(ξ+u,ζ+v)、(数式2)のyLS M(ξ+u,ζ+v) をそれぞれ特徴検出ニューロン、特徴統合ニューロンの結合先出力値と呼ぶ。
(数式1)及び(数式2)中のξ,ζ,u,v,nについて説明する。
位置(ξ,ζ)は、入力画像における位置座標に対応しており、例えばyLS
M(ξ,ζ)が高い出力値である場合は、入力画像の画素位置(ξ,ζ)に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。また、nは(数式2)において、L-1階層目C層n番目細胞面を意味しており、統合先特徴番号と呼ぶ。基本的にL-1階層目C層に存在する全ての細胞面についての積和演算を行う。(u,v)は、結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲(u,v)において積和演算を行う。このような有限な(u,v)の範囲を受容野と呼ぶ。また受容野の大きさを、以下では受容野サイズと呼び、結合している範囲の横画素数×縦画素数で表す。
また(数式1)において、L=1つまり一番初めのS層では、yL-1C
n(ξ+u,ζ+v)は、入力画像yin_image(ξ+u,ζ+v)または、入力位置マップyin_posi_map(ξ+u,ζ+v)となる。ちなみにニューロンや画素の分布は離散的であり、結合先特徴番号も離散的なので、ξ,ζ,u,v,nは連続な変数ではなく、離散的な値をとる。ここでは、ξ,ζは非負整数、nは自然数、u,vは整数とし、何れも有限な範囲とする。
(数式1)中のwLS
M(n,u,v)は、所定の特徴を検出するための結合係数分布であり、これを適切な値に調整することによって、所定の特徴を検出することが可能になる。この結合係数分布の調整が深層学習であり、CNNの構築においては、さまざまなテストパターンを提示して、yLS
M(ξ,ζ)が適切な出力値になるように、結合係数を繰り返し徐々に修正していくことで結合係数の調整を行う。
次に、(数式2)中のwLC
M(u,v)は、2次元のガウシアン関数を用いており、以下の(数式3)のように表すことができる。
ここでも、(u,v)は有限の範囲としているので、特徴検出ニューロンの説明と同様に、有限の範囲を受容野といい、範囲の大きさを受容野サイズと呼ぶ。この受容野サイズは、ここではL階層目S層のM番目特徴のサイズに応じて適当な値に設定すればよい。(数式3)中の、σは特徴サイズ因子であり、受容野サイズに応じて適当な定数に設定しておけばよい。具体的には、受容野の一番外側の値がほぼ0とみなせるような値になるように設定するのがよい。
上述のような演算を各階層で行うことで、最終階層のS層において、眼鏡の種別の判定を行うのが、本実施形態における図8(a)のCNNの構成である。
上記判定を行うことで、ゴーストにより眼鏡の種別を判定することが可能となる。なお、本実施形態では、上述の眼鏡の種別を推定するCNNで構成される学習モデルは、あらかじめ、2次元画像データを入力とし、眼鏡の種類を教師データとして深層学習し終えた学習済みモデルである。
図8(b)は、個人認証の判定を行うCNNの構成を示す図である。図8(b)のCNNには、眼球用撮像素子117から得られた眼球画像と、眼鏡個別情報としての図8(a)での眼鏡種別の判定結果が入力される。CNNの構成および処理の流れは、入力の違いはあるものの図8(a)と同様であるため説明を省略する。
眼球画像だけを用いた個人認証であれば、ゴーストで眼球画像が欠けてしまった場合に識別の精度が低下することになるが、上記のように、眼鏡の種別の情報と眼球画像の両方を用いることにより、個人認証の精度を向上させることが可能となる。ここで、本実施形態では、上述の個人認証の判定を行うCNNで構成される学習モデルは、あらかじめ、眼球画像および眼鏡種別を入力とし、個人を識別するための情報を教師データとして深層学習し終えた学習済みモデルである。なお、上述の学習済みモデルの出力は教師データと同じ個人を識別する情報が出力されることになるので、個人認証はそのデータをあらかじめ登録しておいた個人を識別する情報と比較して、一致したことが確認できたことで認証されることになる。ただし、個人認証の方法はこの手順の限りではない。例えば、後段の学習済みモデルの出力とあらかじめ登録しておいた個人を識別する情報との比較を、学習済みモデルに組み込んでもよい。この場合、学習は、例えば、眼球画像および眼鏡種別を入力とし、個人認証ができたかできていないかを示す情報を教師データとして学習する。
図10は、カメラ本体100Aにおいて個人認証を行う制御の流れを示すフローチャートである。
ステップS1001において、CPU103は、照明光源113a,113bを点灯させて、ユーザーの眼球114に向けて赤外光を放射する。この赤外光によって照明されたユーザーの眼球114からの反射光は、眼球用撮像素子117上に受光レンズ116を通して結像される。そして、眼球用撮像素子117により光電変換がなされ、眼球像は電気信号として処理することが可能となる。
ステップS1002では、CPU103は、得られた眼球画像信号からゴーストの有無を判定する。ゴーストの有無は、眼球画像信号の中でのプルキニエ像以外の高輝度の画素の有無を調べることにより判定することができる。さらに詳細には、前述したゴースト発生の原理の通り、ゴーストはプルキニエ像と比べ大きさや形が異なるので、プルキニエ像と異なる高輝度の画素の有無を調べることにより判定可能である。
ステップS1003では、CPU103は、ゴーストがあると判定した場合は、処理をステップS1004に進め、ゴーストが無いと判定した場合は、処理をステップS1006に進める。
ステップS1004では、CPU103は、眼球画像信号を図8(a)に示したCNNに入力し、眼鏡の種別を推定する。
ステップS1005では、CPU103は、眼鏡個別情報としての眼鏡の種別に関する情報を1つ目の入力、また眼球画像を2つ目の入力として図8(b)に示したCNNに入力し、個人認証を行う。
一方、ステップS1006では、ゴーストが無いと判定されているので、CPU103は、図8(b)に示したCNNに眼球画像信号を入力し、個人認証を行う。なお、図8(b)のCNNでは、眼鏡個別情報の入力が必要であるが、ステップS1006の場合、眼鏡個別情報は無いと入力すればよい。また、別の方法として、図8(b)のCNNとは別に眼鏡なしの場合のCNNを設け、個人認証を行ってもよい。眼鏡なしの場合のCNNは、入力に眼鏡個別情報を用いずに、入力画像だけで個人を識別するように構成すればよい。
以上説明したように、眼鏡によるゴーストが発生した場合においても、眼球画像に加え、ゴーストの特徴に基づく眼鏡の種別情報を用いた個人認証を行うことにより、個人の認証精度の低下を抑制することが可能となる。
(第2の実施形態)
本実施形態では、眼球画像から行う個人認証の結果と、ゴーストの特徴の情報から行う個人認証の結果を用いて、最終的な個人認証を行うことで、ゴーストが発生した場合における認証精度を向上させる。
本実施形態では、眼球画像から行う個人認証の結果と、ゴーストの特徴の情報から行う個人認証の結果を用いて、最終的な個人認証を行うことで、ゴーストが発生した場合における認証精度を向上させる。
本実施形態では、図8(a)と同様のCNNを用いて、眼鏡の種別を推定する。また、図8(b)と同様のCNNを用いて、図10のステップS1006と同様にして、入力に眼鏡個別情報を用いずに、眼球画像だけで個人を推定する。さらに、図8(c)に示したCNNを用いて、図8(a)のCNNで得られた眼鏡の種別情報を用いて、個人を推定する。そして、最終的に、図8(b)のCNNで得られた個人の推定結果と、図8(c)のCNNで得られた個人の推定結果とを用いて個人認証を行う。なお、図8(c)のCNNの構成および処理の流れは、入力の違いはあるものの図8(a)と同様であるため説明を省略する。
図11は、第2の実施形態における、カメラ本体100Aにおいて個人認証を行う制御の流れを示すフローチャートである。
図10と同じステップ番号を付したステップS1001~ステップS1004とステップS1006は、第1の実施形態を示す図10と同様である。
ステップS1101では、CPU103は、ステップS1004で図8(a)のCNNにより取得した眼鏡の種別を図8(c)のCNNに入力し、個人の推定を行う。
ステップS1102では、図8(b)と同様のCNNを用いて、図10のステップS1006と同様にして、入力に眼鏡個別情報を用いずに、眼球画像だけで個人を推定する。
ステップS1103では、CPU103は、ステップS1101での個人の推定結果と、ステップS1102での個人の推定結果とを用いて、個人認証を行う。具体的な一例として、2つの推定結果に重み付けをし、それぞれの推定結果に係数をかけ合わせて加算することにより個人認証を行う方法が挙げられる。ただし、2つの推定結果を用いた個人認証の判定方法はこれに限らず適宜変えてよい。
一方、ステップS1003でゴーストが無い場合は、眼球画像が欠けることが無いため、CPU103は、ステップS1006で、図10のステップS1006と同様に、眼球画像のみを入力として図8(b)のCNNを用いて個人の推定を行う。
以上説明したように、眼鏡によるゴーストが発生した場合において、眼球画像による個人の推定と、ゴーストの特徴の情報を用いた個人の推定を個別に行った後、それぞれの推定の結果を用いて個人認証を行うことにより、認証精度を向上させることができる。
(第3の実施形態)
本実施形態では、眼鏡を着用した場合の視線検出において、視線補正係数に関する課題を、第1の実施形態で説明した個人認証の手法を用いて解決する方法について説明する。
本実施形態では、眼鏡を着用した場合の視線検出において、視線補正係数に関する課題を、第1の実施形態で説明した個人認証の手法を用いて解決する方法について説明する。
第1の実施形態の図4の説明で、眼球114の光軸の回転角θx,θyが求められることを説明した。ここでは、さらに、注視点座標および視線補正係数の算出方法について説明する。
眼球光軸の回転角θx,θyを用いて、表示素子110上でユーザーの視線の位置(注視している点の位置。以下、注視点と称する)を求める。注視点位置を表示素子110上での瞳孔401の中心cに対応する座標(Hx,Hy)で表すと、
Hx=m×( Ax×θx + Bx )
Hy=m×( Ay×θy + By )
と算出することができる。ここで、係数mはカメラのファインダ光学系の構成で定まる定数で、回転角θx,θyを表示素子110上での瞳孔401の中心cに対応する位置座標に変換する変換係数である。係数mは、あらかじめ決定されてメモリ部104に記憶されているものとする。また、Ax,Bx,Ay,Byはユーザーの視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始される前にメモリ部104に記憶されているものとする。
Hx=m×( Ax×θx + Bx )
Hy=m×( Ay×θy + By )
と算出することができる。ここで、係数mはカメラのファインダ光学系の構成で定まる定数で、回転角θx,θyを表示素子110上での瞳孔401の中心cに対応する位置座標に変換する変換係数である。係数mは、あらかじめ決定されてメモリ部104に記憶されているものとする。また、Ax,Bx,Ay,Byはユーザーの視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始される前にメモリ部104に記憶されているものとする。
眼鏡を着用していないユーザーについては、視線補正係数を上記の通り求めることが出来る。しかし、眼鏡を着用しているユーザーは複数の眼鏡を使い分けていることがある。眼鏡ごとにレンズの形状が異なるため、当然ながら適切な視線補正係数も眼鏡ごとに異なる。したがって、眼鏡を着用するユーザーの場合、眼鏡ごとに複数の視線補正係数の中から適切な係数を選択して視線検出を行わなければならない。
これを実現する方法について、以下説明する。
まず、基本的な視線検出の方法と、視線補正係数の算出のために必要なキャリブレーションについて説明する。
図12は、ファインダ内の視野を示した図で、表示素子110が動作した状態を示している。
図12において、符号1210は視野マスク、符号1220は焦点検出領域を示している。また、符号1230-1~1230-180は、表示素子110に示されるスルー画像に、撮像面上における複数の焦点検出ポイントに対応する位置を重ねて表示した180個の測距点視標を示す。また、それらの指標の内、現在の推定注視点位置に対応する指標枠を、推定注視点Aのように表示して示す。
図13は、視線検出方法の原理説明図であり、図2の視線検出を行うための光学系の概略構成を示している。
図13において、発光ダイオード等の照明光源113a,113bは、ユーザーに対して不感の赤外光を放射する。照明光源113a,113bは、受光レンズ116の光軸に対して略対称に配置され、ユーザーの眼球114を照らしている。眼球114で反射した照明光の一部は受光レンズ116によって、眼球用撮像素子117に集光される。
第1の実施形態の図4で説明したように、視線検出において眼球画像から眼球光軸の回転角度θx、θyを取得し、瞳孔中心位置を表示素子110上において対応する位置に座標変換する演算を行って注視点位置を推定する。
しかし、人間の眼球の形状の個人差および眼鏡の形状差等の要因により、視線補正係数Ax,Ay,Bx,Byの値を適切な値に調整しなければ、図12(b)に示したように、実際に注視している位置Bと算出された推定注視点Cの位置にずれが生じてしまう。図12(b)の例では、位置Bの人物を注視しているのに、背景が注視されているとカメラ側が誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
そこで、カメラによって撮像を行う前に、キャリブレーション作業を行い、ユーザーおよび使用している眼鏡に適切な視線補正係数の値を取得し、カメラに記憶させる必要がある。
従来、キャリブレーション作業は、撮像前にファインダ視野内に図12(c)のような位置の異なる複数の指標を強調表示し、ユーザーにその指標を見てもらうことで行われる。各指標注視時に注視点検出フローを実行し、算出された複数の推定注視点座標と各指標座標から適切な視線補正係数の値を求める作業を行うことが公知の技術として知られている。
ユーザーと、そのユーザーが着用する眼鏡の組み合わせごとに上記キャリブレーションを行うことにより、使用時の適切な視線補正係数を保持することが可能になる。つまり複数の眼鏡を着用するユーザーは眼鏡ごとにキャリブレーションを行うことが望ましい。
次に、図14は、個人認証の結果を用いた視線補正係数の選択方法と視線検出の動作を示すフローチャートである。
図10と同じステップ番号を付したステップS1001~ステップS1006は、第1の実施形態における個人認証を行う動作であり、図10と同様の動作である。
ステップS1401では、CPU103は、ステップS1005またはS1006の個人認証結果に基づいて、関連する視線補正係数をメモリ部104から読み出す。なお、個人認証結果と視線補正係数の関係について図15を用いて説明する。第3の実施形態の課題は、眼鏡を着用するユーザーが複数の眼鏡を使い分けた場合に、適切な視線補正係数が異なることである。従って、図15で示されているように、個人認証結果に加え、眼鏡の種別を、視線補正係数と関連付ける。これにより、複数の眼鏡を使い分けた場合にも対応可能な補正係数の管理とその視線補正係数の読み出しが可能となる。
ステップS1402では、CPU103は、ステップS1401で得られた視線補正係数を用いて、前述した通り表示素子110上での瞳孔401の中心cの注視点座標(Hx,Hy)を算出する。
ステップS1403では、CPU103は、メモリ部104に算出された注視点座標を記憶して、視線検出ルーチンを終了する。
以上説明したように、本実施形態によれば、各個人および眼鏡の種別と関連付けられた適切な視線補正係数を用いることにより、適切な注視点座標を得ることが可能となる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
例えば、上記の実施形態では、個人認証にCNNを用いる構成としたが、CNNを使用することに限定されるものではない。例えば、眼球画像からアイリスコードのような虹彩の特徴の情報を抽出し、この情報と眼鏡の種別の情報とを用いて、パターンマッチングにより個人を識別するようにしてもよい。また、眼鏡の種別の推定も、パターンマッチングを用いて行ってもよい。
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1または複数のプロセッサーまたは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータまたは分離した複数のプロセッサーまたは回路のネットワークを含みうる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1または複数のプロセッサーまたは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータまたは分離した複数のプロセッサーまたは回路のネットワークを含みうる。
プロセッサーまたは回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサーまたは回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:デジタルスチルカメラ、100A:カメラ本体、100B:撮影レンズ、102: 撮像素子、103: CPU、104: メモリ部、110: 表示素子、113a~113d: 照明光源、114: 眼球、115:光分割器、116:受光レンズ、117:眼球用撮像素子、401:瞳孔、403:虹彩、144:眼鏡
Claims (16)
- ユーザーの眼球画像を取得する取得手段と、
前記眼球画像に写ったゴーストに基づいて、前記ユーザーが着用している眼鏡についての情報を推定する推定手段と、
前記眼球画像と前記眼鏡についての情報とに基づいて、前記ユーザーの個人認証を行う認証手段と、
を備えることを特徴とする個人認証装置。 - 前記眼鏡についての情報とは、眼鏡の種別の情報であることを特徴とする請求項1に記載の個人認証装置。
- 前記眼球画像にゴーストが生じているか否かを判定する判定手段をさらに備え、該判定手段によりゴーストが生じていないと判定された場合に、前記認証手段は、前記眼球画像のみに基づいて、前記ユーザーの個人認証を行うことを特徴とする請求項1または2に記載の個人認証装置。
- 前記認証手段は、深層学習したニューラルネットワークを用いて個人を認証することを特徴とする請求項1乃至3のいずれか1項に記載の個人認証装置。
- 前記推定手段は、深層学習したニューラルネットワークを用いて前記眼鏡についての情報を推定することを特徴とする請求項1乃至4のいずれか1項に記載の個人認証装置。
- 前記認証手段は、前記眼球画像から特徴を抽出し、パターンマッチングを用いて個人を認証することを特徴とする請求項1乃至3のいずれか1項に記載の個人認証装置。
- 前記推定手段は、前記眼球画像に基づいて、パターンマッチングを用いて前記眼鏡についての情報を推定することを特徴とする請求項1乃至3のいずれか1項に記載の個人認証装置。
- 前記眼球画像は、少なくとも虹彩が写っている画像であることを特徴とする請求項1乃至7のいずれか1項に記載の個人認証装置。
- 前記認証手段は、前記眼鏡についての情報から個人を識別する第1の識別と、前記眼球画像から個人を識別する第2の識別とを行い、前記第1の識別の結果と、前記第2の識別の結果とを用いて個人を認証することを特徴とする請求項1乃至8のいずれか1項に記載の個人認証装置。
- 前記認証手段は、前記第1の識別の結果と前記第2の識別の結果とを重み付けして加算することにより、個人を認証することを特徴とする請求項9に記載の個人認証装置。
- 前記眼鏡についての情報を、個人認証のための深層学習の入力情報に用いることを特徴とする請求項1乃至10のいずれか1項に記載の個人認証装置。
- 赤外光により前記ユーザーの眼球を照明する照明手段をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の個人認証装置。
- 前記照明手段は、少なくとも2つの光源を有することを特徴とする請求項12に記載の個人認証装置。
- 前記照明手段によって照明された前記眼球画像から視線の検出を行う視線検出手段と、ユーザーの個人差と眼鏡についての情報に応じた補正係数を記憶する記憶手段とをさらに備え、前記視線検出手段は、同じユーザーが異なる眼鏡をかけた場合において、眼鏡についての情報に応じた前記補正係数を用いて視線を検出することを特徴とする請求項13に記載の個人認証装置。
- ユーザーの眼球画像を取得する取得工程と、
前記眼球画像に写ったゴーストに基づいて、前記ユーザーが着用している眼鏡についての情報を推定する推定工程と、
前記眼球画像と前記眼鏡についての情報とに基づいて、前記ユーザーの個人認証を行う認証工程と、
を有することを特徴とする個人認証方法。 - コンピュータを、請求項1乃至14のいずれか1項に記載の個人認証装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148078A JP2023040887A (ja) | 2021-09-10 | 2021-09-10 | 個人認証装置及び個人認証方法、プログラム |
US17/817,743 US20230083725A1 (en) | 2021-09-10 | 2022-08-05 | Personal authentication apparatus, personal authentication method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148078A JP2023040887A (ja) | 2021-09-10 | 2021-09-10 | 個人認証装置及び個人認証方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023040887A true JP2023040887A (ja) | 2023-03-23 |
Family
ID=85478546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148078A Pending JP2023040887A (ja) | 2021-09-10 | 2021-09-10 | 個人認証装置及び個人認証方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230083725A1 (ja) |
JP (1) | JP2023040887A (ja) |
-
2021
- 2021-09-10 JP JP2021148078A patent/JP2023040887A/ja active Pending
-
2022
- 2022-08-05 US US17/817,743 patent/US20230083725A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230083725A1 (en) | 2023-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11880043B2 (en) | Display systems and methods for determining registration between display and eyes of user | |
KR102000865B1 (ko) | 눈 추적 디바이스 및 눈 추적 디바이스를 동작시키기 위한 방법 | |
US10048750B2 (en) | Content projection system and content projection method | |
JP2023518421A (ja) | 網膜結像および追跡のためのシステムおよび方法 | |
WO2015035822A1 (en) | Pickup of objects in three-dimensional display | |
US11422620B2 (en) | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes | |
WO2015035823A1 (en) | Image collection with increased accuracy | |
CN113419350B (zh) | 虚拟现实显示设备、画面呈现方法、装置及存储介质 | |
CN109725423B (zh) | 单眼ar眼镜亮度自动调节的方法、存储介质 | |
CN114424147A (zh) | 利用一个或多个眼睛跟踪相机确定眼睛旋转中心 | |
JP7081599B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11650660B2 (en) | Electronic device, control method, and non-transitory computer readable medium | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
JP2024003037A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP2023040887A (ja) | 個人認証装置及び個人認証方法、プログラム | |
US20230092593A1 (en) | Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor | |
US20230266820A1 (en) | Electronic device | |
JP2024002562A (ja) | 識別装置 | |
JP2023063760A (ja) | 識別装置 | |
JP2022165239A (ja) | 撮像装置及びその制御方法、並びにプログラム | |
JP2024008006A (ja) | 画像処理装置、表示装置、画像処理方法、およびプログラム | |
CN114650350A (zh) | 注视检测设备、注视检测方法和计算机可读存储介质 | |
JP2023006629A (ja) | 制御装置およびその制御方法 | |
JP2024003432A (ja) | 電子機器 | |
JP2021064928A (ja) | 電子機器 |