JP2016110444A - 眼球識別装置及び眼球識別方法 - Google Patents

眼球識別装置及び眼球識別方法 Download PDF

Info

Publication number
JP2016110444A
JP2016110444A JP2014248169A JP2014248169A JP2016110444A JP 2016110444 A JP2016110444 A JP 2016110444A JP 2014248169 A JP2014248169 A JP 2014248169A JP 2014248169 A JP2014248169 A JP 2014248169A JP 2016110444 A JP2016110444 A JP 2016110444A
Authority
JP
Japan
Prior art keywords
pupil
eyeball
contour
image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014248169A
Other languages
English (en)
Other versions
JP6452236B2 (ja
Inventor
嘉伸 海老澤
Yoshinobu Ebisawa
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2014248169A priority Critical patent/JP6452236B2/ja
Publication of JP2016110444A publication Critical patent/JP2016110444A/ja
Application granted granted Critical
Publication of JP6452236B2 publication Critical patent/JP6452236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

【課題】簡易な認証処理により対象者の眼球を精度よく識別する。【解決手段】個人認証装置(情報処理装置20)は、対象者の眼球をカメラ10で撮像することで得られた第1瞳孔画像と、第1瞳孔画像が得られた後に対象者と同一或いは異なる対象者の眼球を撮像することで得られた第2瞳孔画像とを取得する画像取得部21と、瞳孔における中心から輪郭上の複数のサンプリング点までの輪郭距離を算出する処理を、第1瞳孔画像及び第2瞳孔画像のそれぞれに対して実行する輪郭距離算出部22と、第1瞳孔画像から得られた輪郭距離と第2瞳孔画像から得られた輪郭距離との相関値を判定することによって眼球を識別する個人認証部23とを備える。【選択図】図4

Description

本発明は、人の眼球を識別する眼球識別装置及び眼球識別方法に関する。
近年、パーソナルコンピュータ等の情報処理装置において、特定のユーザを認証する機能が具備されている。例えば、このような認証技術は、予め登録されたユーザにのみ使用を制限したり、予め登録されたユーザ毎にカスタマイズされた情報(メニュー画面等)を出力するために利用される。
上記の認証技術の一例としては、ユーザの虹彩模様を識別する技術、ユーザの手のひらを識別する技術が知られている。また、人間の視線の動き(眼球運動)が個人ごとに特性が異なることを利用した認証技術も検討されている(下記非特許文献1)。
西垣正勝,高田愛美,「常時ユーザ認証−視線誘導型なりすまし検知に関する研究−」, 情報処理, Vol.51, No.1, pp.30−34, 2010年1月
しかしながら、虹彩模様や手のひらを識別する認証方法では、予め対象者の虹彩模様等を写真で撮っておいてそれを利用することで簡単に認証されてしまう。そのため、いわゆる他人のなりすましを検知することが困難である。また、上記非特許文献1によれば、他人のなりすましの検知の精度を向上させることはできるが、対象者への負担が大きく、認証処理に長時間を要する傾向にある。具体的には、対象者に視線を動かせてその視線を追跡する処理が必要であるし、追跡の結果から個人間の特性の違いを計測する必要もある。
本発明は、上記課題に鑑みて為されたものであり、簡易な認証処理により対象者の眼球を精度よく識別することが可能な位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置を提供することを目的とする。
上記課題を解決するため、本発明者らは対象者の眼球の瞳孔を撮影することによって得られる瞳孔画像を、眼球の認証に利用する可能性について鋭意検討した。本発明者らは、これまで眼球の回転角度を計測する技術(“酒井俊介 他, 「瞳孔輪郭検出に基づく視軸周りの眼球回転角度計測の可能性の検討」, 2014年映像情報メディア学会年次大会, 22−5”)について検討を続けている。その結果、瞳孔の輪郭上のサンプル点を抽出してその抽出結果を基に対象者の眼球を認証することを着想するに至った。
すなわち、本発明の一形態にかかる眼球識別装置は、対象者の眼球を識別する眼球識別装置であって、対象者の眼球を撮像することで得られた第1瞳孔画像と、該第1瞳孔画像が得られた後に対象者と同一或いは異なる対象者の眼球を撮像することで得られた第2瞳孔画像とを取得する画像取得部と、瞳孔の輪郭を算出する処理を、第1瞳孔画像および第2瞳孔画像のそれぞれに対して実行する輪郭算出部と、第1瞳孔画像から得られた瞳孔の輪郭と第2瞳孔画像から得られた前記瞳孔の輪郭との相関に基づいて前記眼球を識別する眼球識別部と、を備える。
或いは、本発明の他の形態にかかる眼球識別方法は、対象者の眼球を識別する眼球識別方法であって、眼球識別装置が、対象者の眼球を撮像することで得られた第1瞳孔画像と、該第1瞳孔画像が得られた後に対象者と同一或いは異なる対象者の眼球を撮像することで得られた第2瞳孔画像とを取得する画像取得ステップと、眼球識別装置が、瞳孔の輪郭を算出する処理を、第1瞳孔画像および第2瞳孔画像のそれぞれに対して実行する輪郭算出ステップと、眼球識別装置が、第1瞳孔画像から得られた瞳孔の輪郭と第2瞳孔画像から得られた瞳孔の輪郭との相関に基づいて眼球を識別する眼球識別ステップと、を備える。
上記形態の眼球識別装置或いは眼球識別方法によれば、第1瞳孔画像及び第2瞳孔画像における瞳孔の輪郭が算出され、第1瞳孔画像における輪郭と、第2瞳孔画像における輪郭との相関性を判定することによって対象者の眼球が識別される。このような第2瞳孔画像は、一般的に動的に撮像することによって取得されるものであるため、前もって撮っておいた画像を利用することは難しい。さらに、上記形態では、対象者に対する負担も少なく識別処理の計算量も軽減されている。その結果、対象者の眼球を、精度よく即座に識別することができる。
ここで、輪郭算出部は、瞳孔における中心から輪郭上の複数のサンプリング点までの輪郭距離を算出する処理を実行し、眼球識別部は、第1瞳孔画像から得られた輪郭距離と第2瞳孔画像から得られた輪郭距離との相関値を判定することによって眼球を識別することとしてもよい。この場合、第1瞳孔画像及び第2瞳孔画像における瞳孔の中心から瞳孔の輪郭上の複数のサンプル点までの輪郭距離が算出され、第1瞳孔画像における輪郭距離の系列データと、第2瞳孔画像における輪郭距離の系列データとの相関性を判定することによって対象者の眼球が識別される。その結果、対象者の眼球を、精度よく即座に識別することができる。
また、眼球識別部は、第1瞳孔画像および第2瞳孔画像のそれぞれにおいて、複数の輪郭距離に対してフィルタリングを実行することで、該フィルタリングされた複数の輪郭距離を取得し、第1瞳孔画像についてのフィルタリングされた複数の輪郭距離と、第2瞳孔画像についてのフィルタリングされた複数の輪郭距離との相関値を算出することとしてもよい。この場合には、フィルタリングにより一部の成分を除去することで、輪郭距離の系列(波形)から輪郭の歪み以外のノイズを除くことができる。その結果、画像間の輪郭距離の相関をより正確に求めて、眼球の識別結果をより正確に得ることができる。
また、画像取得部は、対象者の左右の眼球を同時もしくは別々に撮像した第1瞳孔画像と、対象者と同一もしくは異なる対象者の眼球を撮像した第2瞳孔画像とを取得し、輪郭算出部は、第1瞳孔画像及び第2瞳孔画像のそれぞれに含まれる瞳孔に対して輪郭距離を算出する処理を実行し、眼球識別部は、第1瞳孔画像から得られた左右の眼球に対応する2つの輪郭距離と第2瞳孔画像から得られた輪郭距離との相関値を判定することによって、第2瞳孔画像に映る眼球を対象者の左右の眼球として識別することとしてもよい。この場合には、眼球を撮像した第2瞳孔画像を利用して対象者の左右の眼球として識別することができる。その結果、対象者の左右の眼球を、精度よく即座に識別することができる。
また、眼球識別部による眼球の識別結果と、第2瞳孔画像とを少なくとも用いて対象者の視線を検出する視線検出部をさらに備えることとしてもよい。この場合には、個人間の誤差を考慮した対象者の視線検出を高精度に実現することができる。
また、視線検出部は、眼球の識別結果を基に眼球における視軸と光軸とのずれを補正するための補正値を特定し、補正値を基に視線を検出する、こととしてもよい。この場合、個人間の左右の眼球の視軸と光軸とのずれに起因する誤差を考慮した視線検出を高精度に実現することができる。
また、画像取得部は、対象者と同一もしくは異なる対象者の眼球を撮像した第2瞳孔画像を取得し、眼球識別部は、第2瞳孔画像に映る眼球を識別し、当該識別の結果を基に対象者に対する個人認証を実行する、こととしてもよい。この場合は、対象者の左右の眼球の識別処理を利用することで、迅速かつ高精度の個人認証を実現することができる。
さらに、眼球識別部は、第2瞳孔画像に映る2つの眼球の瞳孔面積の比を計算し、識別の結果とともに瞳孔面積の比を利用して個人認証を実行する、ことでもよい。こうすれば、個人認証の精度をさらに向上させることができる。
また、視線検出部は、所定の視標を表示させた状態で取得された第2瞳孔画像を基に視線を検出した後に、視標の位置と視線を基に計算される注視点の位置との差分から補正ベクトルを算出し、眼球識別部は、補正ベクトルを基に眼球を識別する、ことでもよい。こうすれば、補正ベクトルは個人の左右の眼球によって値が異なる性質を有するので、眼球識別の精度をさらに向上させることができる。
またさらに、輪郭算出部は、瞳孔の輪郭に近似する楕円を特定し、楕円の長径と短径との比を基に複数のサンプル点の中心から見た角度間隔を調整する、こととしてもよい。かかる構成を採れば、対象者の顔の向きに起因して画像上の瞳孔像の変形が生じた場合であっても、眼球識別の精度を維持することができる。
さらにまた、輪郭算出部は、瞳孔の輪郭に近似する楕円を特定し、当該楕円の長径と短径との比を基に瞳孔の画像を引き伸ばして補正画像を生成し、補正画像を対象に輪郭距離を算出する処理を実行する、こととしてもよい。かかる構成を採れば、対象者の顔の向きに起因して画像上の瞳孔像の変形が生じた場合であっても、眼球識別の精度を維持することができる。
本発明によれば、簡易な認証処理により対象者の眼球を精度よく識別することができる。
本発明の好適な第1実施形態に係る個人認証装置を示す斜視図である。 図1のカメラ10のレンズ部分を示す平面図である。 図1の情報処理装置20のハードウェア構成を示す図である。 図1の情報処理装置20の機能構成を示すブロック図である。 図1の情報処理装置20による差分画像の生成を示す図である。 図1の情報処理装置20による画像の瞳孔部分に対する放射状走査のイメージを示す図である。 図1の情報処理装置20による走査範囲を限定した放射状走査のイメージを示す図である。 対象者Aの向きに応じた画像の瞳孔部分の形状の変化を示す図であり、(a)は対象者Aがカメラ10に対してまっすぐ向いた場合の図、(b)は対象者Aがカメラに対して斜めを向いた場合の図である。 図1の情報処理装置20による瞳孔画像上における放射状走査のイメージを示す図である。 図1の情報処理装置20によって算出された輪郭距離の系列を波形として示すグラフである。 図1の情報処理装置20によって算出された輪郭距離の系列を波形として示すグラフである。 図1の情報処理装置20によって算出されたフィルタリング後の輪郭距離の系列を波形として示すグラフである。 図1の情報処理装置20によって算出された二つの系列(波形)の位相のずれと相関係数との関係を示すグラフである。 実施形態に係る情報処理装置20の動作を示すフローチャートである。 本発明の第2実施形態にかかる情報処理装置20Aの機能構成を示すブロック図である。 本発明の第2実施形態において設定される座標系の位置関係を示す図である。 視線の検出を説明するための図である。 注視点検出のメカニズムを説明するための図である。
以下、図面を参照しつつ本発明に係る眼球識別装置、及び眼球識別方法の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。
[第1実施形態]
図1は、本発明の好適な第1実施形態に係る個人認証装置1の斜視図である。個人認証装置1は、対象者の左右の眼球を識別したうえで個人認証処理を実行するコンピュータシステムであり、このシステムにより、本実施形態にかかる眼球識別装置及び眼球識別方法が実現される。対象者とは、個人認証処理の対象となる人であり、被験者ともいうことができる。個人認証装置1の利用目的は何ら限定されない。例えば、特定の対象者にのみコンピュータシステムの利用を制限する目的、特定の対象者用にカスタマイズされた情報を自動で出力する目的で利用される。
同図に示すように、個人認証装置1は、ステレオカメラとして機能する一対のカメラ(第1のカメラおよび第2のカメラ)10と、情報処理装置20と、情報処理装置20から出力された情報を表示させるディスプレイ装置30とを含んで構成される。以下では、必要に応じて、一対のカメラ10を、対象者Aの左側にある左カメラ10と、対象者Aの右側にある右カメラ10とに区別する。本実施形態では、対象者Aの眼球の三次元位置を検出するためにカメラ10がステレオカメラとして構成されているが、対象者Aの眼球の三次元位置を検出する必要が無い場合にはカメラ10が1台のカメラのみで構成されていてもよい。それぞれのカメラ10は、情報処理装置20と有線または無線により接続され、カメラ10と情報処理装置20との間で各種のデータ又は命令が送受信される。
カメラ10は、対象者Aの眼球およびその周辺を撮像するために用いられる。一対のカメラ10は水平方向に沿って所定の間隔をおいて配置され、かつ、対象者Aが確実に撮像できるように対象者Aの顔より低い位置に設けられる。水平方向に対するカメラの仰角は、対象者Aの眼球の確実な撮像と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20〜30度の範囲に設定される。
本実施形態では、カメラ10は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドとから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮像されることで生成される。したがって、一つのフレームは、一対の奇数フィールドおよび偶数フィールドに相当する。なお、1つのフレームが奇数フィールドおよび偶数フィールドの両方を含むすべての水平画素ラインから構成されていてもよい。カメラ10は、情報処理装置20からの命令に応じて対象者Aを撮像し、その結果生成した画像データを情報処理装置20に出力する。
各カメラ10の開口部周辺のレンズ部分を図2に模式的に示す。この図に示すように、カメラ10では、対物レンズ11が円形状の開口部12に収容され、開口部12近傍の外側に光源13が設けられる。光源13は、対象者Aの顔に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとからなる。発光素子13aは、出力光の波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の波長が940nmの半導体発光素子(LED)であり、発光素子13aの外側に等間隔でリング状に配される。従って、カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は、図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。
情報処理装置20は、カメラ10の制御と、対象者Aの個人認証処理とを実行するコンピュータである。情報処理装置20は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、情報処理装置20は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
情報処理装置20の一般的なハードウェア構成を図3に示す。情報処理装置20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイ装置30やプリンタなどの出力装置106とを備える。
後述する情報処理装置20の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。
図4に示すように、情報処理装置20は機能的構成要素として画像取得部21、輪郭距離算出部(輪郭算出部)22、および個人認証部(眼球識別部)23を備える。画像取得部21は、カメラ10の撮影タイミングとカメラ10の光源13の発光タイミングとを制御することで、カメラ10から画像データを取得する機能要素である。輪郭距離算出部22は、画像データに基づいて瞳孔の輪郭を特定し、その輪郭と瞳孔の中心との距離(輪郭距離)を算出する機能要素である。個人認証部23は、算出された輪郭距離を基にして対象者Aの左右の眼球を識別したうえで、もしくは、識別しながら個人認証処理を実行する機能要素である。情報処理装置20による処理結果の出力先は何ら限定されない。例えば、情報処理装置20は、個人認証処理結果をメモリやデータベースなどの記憶装置に格納しておいて、その処理結果を利用して情報処理装置20における動作を制御してもよいし、処理結果を画像、図形、またはテキストでディスプレイ装置30上に表示してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。
以下、情報処理装置20の各機能要素の詳細の構成について説明する。
(瞳孔画像の取得)
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
本実施形態では、透過率が高い波長の光(中心波長が850nm)を発する発光素子13aが開口部12に隣接した位置に設けられ、眼の透過率が低い波長の光(中心波長が940nm)を発する発光素子13bが開口部12から離れた位置に設けられる。画像取得部21は、カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、カメラ10の偶数フィールドに合わせて発光素子13bを点灯させて暗瞳孔画像を撮影する。画像取得部21は二つのカメラ10の間で作動タイミングをわずかにずらし、個々のカメラ10の露光時間はそのずらし時間以下に設定される。画像取得部21は、各カメラ10の露光時間中に、対応する発光素子13aおよび発光素子13bを交互に発光させることで、一方のカメラ10の光源13からの光が他方のカメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。
画像取得部21は、これらの一連の制御により得られる明瞳孔画像および暗瞳孔画像を取得する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像取得部21は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像または暗瞳孔画像を生成する。画像取得部21は明瞳孔画像および暗瞳孔画像を輪郭距離算出部22に出力する。
情報処理装置20の画像取得部21の制御により、各カメラ10の撮影タイミングと当該カメラ10の光源13の発光タイミングとを同期させることによって、対象者Aの左右の両方の眼球の瞳孔の周辺の画像が明瞳孔画像及び暗瞳孔画像として取得される。具体的には、各カメラの1フレームの撮影タイミング内で発光素子13aと発光素子13bとが交互に点灯させることにより、奇数フィールドと偶数フィールドとに明瞳孔画像及び暗瞳孔画像が得られる。ここでは、左右の両方の瞳孔を同時に撮像した明瞳孔画像及び暗瞳孔画像が取得されているが、左右の両方の瞳孔を別々に撮像した明瞳孔画像及び暗瞳孔画像が取得されてもよい。
(瞳孔中心の検出)
輪郭距離算出部22は、画像取得部21から入力された瞳孔画像に基づいて、対象者Aの左右の両方の眼の瞳孔中心を求める。輪郭距離算出部22はi番目のフィールドの瞳孔画像と(i+1)番目のフィールドの瞳孔画像(すなわち、1枚の明瞳孔画像と1枚の暗瞳孔画像)との差分を取ることで差分画像を生成する。i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間に対象者Aの頭部が動かなければ、図5に示すように、単純に明瞳孔画像および暗瞳孔画像の差を取ることで、瞳孔部分(図5における符号P)が浮かび上がった差分画像を生成することができる。図5は両眼の瞳孔が写った差分画像を示しているが、上記の通り、輪郭距離算出部22は左右の両方の瞳孔を別々に撮像した明瞳孔画像及び暗瞳孔画像を用いて、片方の眼についての差分画像を別々に得てもよい。なお、i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間のわずかな時間に対象者Aの頭部が動くと、これら2画像の間で瞳孔の位置にずれが生じ、その結果、良好な差分画像を得ることができない。そこで、輪郭距離算出部22は、差分画像を得る前に明瞳孔画像および暗瞳孔画像に対して角膜反射に基づく位置補正を実行する。
瞳孔検出の方法は、前フィールド(i番目のフィールド)での瞳孔の検出結果(前回の瞳孔検出結果)によって下記の2種類に分かれる。
(1)前フィールド(前回の瞳孔検出)で瞳孔を検出できなかった場合
(2)前フィールド(前回の瞳孔検出)で瞳孔を検出できた場合
前フィールドで瞳孔を検出できなかった場合には、輪郭距離算出部22は画像全体から瞳孔を探索する。具体的には、輪郭距離算出部22は、前フィールドの画像と次フィールド((i+1)番目のフィールド)の画像との差分(明瞳孔画像と暗瞳孔画像との差分)を取ることで差分画像を取得する。そして、輪郭距離算出部22はその差分画像に対して、Pタイル法によって決定された閾値で2値化を行い、さらに孤立点除去およびラベリングを行う。そして、輪郭距離算出部22は、瞳孔らしい面積、縦横のサイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベル付けされた画素の連結成分の中から瞳孔候補を選択する。そして、輪郭距離算出部22は瞳孔候補の中で面積が比較的大きいものを左右の2つの瞳孔として設定する。
前フィールドで瞳孔を検出できた場合には、輪郭距離算出部22は瞳孔追跡により瞳孔を決定して瞳孔の中心座標を算出する。まず、輪郭距離算出部22はカルマンフィルタにより前フィールドでの瞳孔位置から次フィールド((i+1)番目のフィールド)の瞳孔位置を予測する。続いて、輪郭距離算出部22は予測位置を中心とする小ウィンドウ(例えば90ピクセル×90ピクセル)を次フィールドの瞳孔画像に設定する。続いて、輪郭距離算出部22は前フィールドのウィンドウの位置を次フィールドのウィンドウの位置に合わせ(位置補正)、明瞳孔画像と暗瞳孔画像との差分を取る。続いて、輪郭距離算出部22は、その処理で得られた差分画像に対してPタイル法によって決定された閾値で2値化を行った後、孤立点除去およびラベリングを行う。続いて、輪郭距離算出部22は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、輪郭距離算出部22は瞳孔候補の中で面積が最も大きいものを瞳孔として決定する。このような処理を繰り返して左右の2つの瞳孔を決定する。
続いて、輪郭距離算出部22は角膜反射の位置を考慮して最終的な瞳孔を確定する。具体的には、輪郭距離算出部22は、明瞳孔画像および暗瞳孔画像のそれぞれに対して、瞳孔位置を中心とした小ウィンドウ(例えば16ピクセル×16ピクセル)を設定し、その小ウィンドウの範囲のみを高分解像度化した画像データを作成し、その画像データから角膜反射を検出する。輪郭距離算出部22は、小ウィンドウ内において、Pタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報から角膜反射候補を選択する。そして、輪郭距離算出部22は選択した部分の中心座標に対し分離度フィルタを与え、分離度と輝度を掛けて得られる特徴量を求める。その特徴量が一定値以上であれば、輪郭距離算出部22は小ウィンドウの中心座標を角膜反射座標として検出し、二つの小ウィンドウの間での角膜反射の移動量を位置補正量として計算する。続いて、輪郭距離算出部22は明瞳孔画像および暗瞳孔画像の間で角膜反射点が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。一方、角膜反射を検出できなかった場合には、輪郭距離算出部22は位置補正を行うことなく2画像の差分を取ることで差分画像を生成する。
続いて、輪郭距離算出部22は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、輪郭距離算出部22は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、輪郭距離算出部22は、予測瞳孔位置の近くにある瞳孔候補が求めるべき瞳孔であると判定する。さらに、輪郭距離算出部22は、明瞳孔画像および暗瞳孔画像のそれぞれに対して、左右の2つの瞳孔位置を中心とした小ウィンドウを設定して上記処理を繰り返し、左右の2つの瞳孔位置を判定する。
(輪郭点の検出)
続いて、輪郭距離算出部22はそれぞれの片眼の瞳孔の輪郭を求める。輪郭距離算出部22は、判定した瞳孔位置を中心とする小ウィンドウ(例えば90ピクセル×90ピクセル)を差分画像に設定し、そのウィンドウ内を2倍に拡大することで高分解能画像(小ウィンドウが90ピクセル×90ピクセルであれば、180ピクセル×180ピクセルの画像)を生成する。続いて、輪郭距離算出部22はその高分解能画像に対して、前フィールドで検出された瞳孔の輝度平均の半分の値を閾値とした2値化処理を行う。
続いて、輪郭距離算出部22は2値化された高分解能画像に対して放射状走査を行うことでそれぞれの片眼の瞳孔像の輪郭点(サンプル点)を検出する。図6に示すように、本実施形態における放射状走査とは、瞳孔中心Cを通る直線状の走査線SL上に沿って画像を走査する処理を、当該走査線SLの角度θを0〜360°の範囲で変化させながら実行する手法である。本実施形態では、256個の輪郭点を得るために、輪郭距離算出部22は走査線を回転させる。ここで、瞳孔中心Cの座標は、瞳孔像に対して楕円フィッティングを実行して得られる楕円の中心座標である。図6の例では、走査方向を示す矢印Aは瞳孔Pの外側から瞳孔中心Cに向かっているが、走査は瞳孔中心Cから瞳孔Pの外側に向かって行われてもよい。
輪郭点の特定方法の二つの例を以下に示す。第1の手法では、輪郭距離算出部22は前回検出された瞳孔の中心からの距離Rを取得し、今回検出された瞳孔の中心座標から距離Rだけ離れた基準点の輝度値を求める。走査される画像は2値化画像であるので、求まる値は0(黒)または255(白)のどちらかである。その輝度値が0である場合には、輪郭距離算出部22は、基準点から瞳孔の内側に向かって1ピクセルずつ走査し、輝度値が初めて255になる点(画素)を輪郭点として特定し、当該輪郭点の座標を求める。一方、求めた輝度値が255である場合には、輪郭距離算出部22は、基準点から瞳孔の外側に向かって1ピクセルずつ走査し、最後に輝度値が255である点(画素)を輪郭点として特定し、当該輪郭点の座標を求める。輪郭距離算出部22は走査線を変更する度にこの手法により輪郭点の座標を求める。
第2の手法については図7を参照しながら説明する。この第2の手法では、輪郭距離算出部22は走査線SLを変更しながら第1の手法と同様の処理を行うことで、32個の基準輪郭点BPを取得する。続いて、輪郭距離算出部22は隣接する2個の基準輪郭点BP(基準輪郭点BPのペア)について瞳孔中心Cからの距離の平均値Raveを求め、平均値Raveを含む所定の範囲を走査範囲SRとして設定する。例えば、輪郭距離算出部22は(Rave×0.9)〜(Rave×1.1)の範囲に走査範囲SRを設定してもよい。そして、輪郭距離算出部22は、当該隣接する2個の基準輪郭点BPの間において、走査線SLを変更しながら走査範囲SR内で走査を実行することで、当該2個の基準輪郭点BPの間の個々の輪郭点CPの座標を求める。輪郭距離算出部22は、他の基準輪郭点BPのペアに対しても同様に、平均値Raveを求め、走査範囲SRを設定し、走査線SLを変更しながら走査範囲SR内で輪郭点CPの座標を求める。したがって、設定される走査範囲SRは基準輪郭点BPのペア毎に異なる。この第2の手法では第1の手法よりも走査範囲が限定されるので、一つの走査線における処理時間が短縮され、ひいては、処理全体の処理時間も短縮することができる。
上記の第1及び第2の手法においては、輪郭距離算出部22は、走査線SLを下記の方法により変更する。すなわち、輪郭距離算出部22は、瞳孔の輪郭に近似する楕円を楕円フィッティングにより特定し、その楕円の長径と短径との比を基にして探索する複数の輪郭点の楕円の中心から見た角度間隔を調整する。この走査線SLの変更方法は、対象者Aの視線のカメラ10に対する向きが斜めになった場合でも眼球識別の精度を維持するために採用される。つまり、カメラ10によって画像上に映る瞳孔はカメラ10に対する対象者Aの視線の向きによって楕円となる。図8(a)に示すように、対象者Aがカメラ10に対してまっすぐ向いた時の理想的な瞳孔の輪郭Pに対しては、楕円フィッティングすることにより真円に近い円TCが得られる。これに対して、図8(b)に示すように、対象者Aがカメラ10に対して水平方向に横を向いた時の瞳孔の輪郭Pは輪郭Pに比較して扁平率の高い縦長の形状となり、楕円フィッティングすることにより縦長の扁平率の高い楕円TCが得られる。このとき、楕円TCは、円TCの縦方向の幅をそのまま長径として有し、円TCの横方向の幅が縮まった短径を有する形状となる。ここで、図8(a)及び図8(b)の瞳孔像に対して、中心から見て等角度間隔で放射状走査によって輪郭点をサンプリングすると、対象者Aの視線のカメラ10に対する向きが異なる場合に輪郭点の位置が互いに対応する位置では無くなってしまう。例えば、図8(a)の例において、縦方向の走査線上と、瞳孔中心を中心にして角度ζだけ回転した走査線上とで得られた輪郭点CP,CPを考える。これに対して、図8(b)の例においては、同様な走査線上で得られた輪郭点CPは、輪郭点CPと対応する位置では無くなっている。従って、等角度間隔で放射状走査を実行すると、瞳孔が真円状か楕円状かは不明なため、長軸に一致する角度以外の任意の回転角度ζにおいて、フィッティングされた楕円の扁平率によって異なる位置の輪郭点をサンプリングすることになってしまう。図8(b)では、輪郭点CPに対応する輪郭点は、輪郭点CPの縦方向の座標に一致する楕円TC上の点を通る走査線によってサンプリングされる点CPであるべきである。
そこで、輪郭距離算出部22は、まず、等角度間隔で放射状走査を実行することにより仮の輪郭点をサンプリングし、仮の輪郭点の位置を用いて楕円フィッティングして楕円の式を算出する。そして、輪郭距離算出部22は、算出した楕円の長径の長さと短径の長さの比を計算し、その比を基に放射状走査をするときの角度を調整しながら真の輪郭点を再度サンプリングする。
詳細には、輪郭距離算出部22は、算出された楕円の式が真円の場合には等角度間隔で放射状走査を行って輪郭点をサンプリングし、算出された楕円の式が真円では無く楕円の場合には真円の場合のサンプリング位置に対応する輪郭点をサンプリングするように放射状走査の角度間隔を調整する。より具体的には、輪郭距離算出部22は、図9に示すように、瞳孔の輪郭Pに対してフィッティングにより真円TCが得られた場合には、放射状走査をするための走査線として水平方向からの傾き角度ζを等間隔で(例えば、サンプル点が256個の場合は、1.40625度間隔で)変更する。一方、輪郭距離算出部22は、瞳孔の輪郭Pに対してフィッティングにより短軸が水平方向に一致する縦長の楕円TCが得られた場合には、放射状走査をするための走査線の水平方向からの傾き角度ζを、等間隔で変更されたζに対して楕円TCの長径と短径との比を用いて下記式を適用することにより、調整する。
ζ=tan−1{(a/b)・tanζ
[ここで、aは楕円TCの長径、bは楕円TCの短径]
なお、輪郭距離算出部22は、フィッティングした楕円TCの短軸の方向が水平方向に一致しない場合には、その短軸の方向に一致するように座標軸を回転させて上記の傾き角度ζの調整演算を実行する。
また、輪郭距離算出部22は、高分解能画像に対して2値化処理を行わずに当該画像に対して放射状走査を行うことで瞳孔の輪郭点を検出することも可能である。この場合には、輪郭距離算出部22は、バイリニア補間などの補間処理を用いて、1ピクセル未満の単位で(例えば0.2ピクセル刻みで)輝度値を求め、その輝度値が所定の基準値に達する位置が輪郭点であると判定する。
(輪郭距離の計算)
瞳孔中心の座標と各輪郭点の座標とを求めると、輪郭距離算出部22はそれぞれの片眼の瞳孔中心から各輪郭点までの距離(本明細書ではこれを「輪郭距離」という)を計算して個人認証部23に出力する。本実施形態ではその距離の単位をピクセル(画素数)で示す。輪郭距離算出部22は、それぞれの片眼の瞳孔の周方向に沿って256個の輪郭点に0〜255の識別番号(輪郭点番号)を付与することで、輪郭点[0]〜[255]の輪郭距離R(0)〜R(255)をそれぞれの瞳孔に対応付けて管理する。本明細書では、一つの瞳孔の画像(本実施形態では一つの差分画像)から得られる複数の輪郭距離を、「輪郭距離の系列」ともいう。なお、基準となる輪郭点番号0は、瞳孔の回転角度に関係なく、水平方向に対して予め定められた位置(例えば、走査線の角度が0°の時に検出された輪郭点)に付与され、その地点から時計回りまたは反時計回りに進むに従って、輪郭点番号1〜255が順に付与される。図10は、個々の輪郭点の輪郭距離をプロットしたグラフであり、このグラフの横軸、縦軸はそれぞれ輪郭点番号、輪郭距離(単位はピクセル)である。図10に示すように、輪郭距離の系列はグラフ上では波形のように表される。
ここで、輪郭距離算出部22は、輪郭距離を算出する際には、瞳孔画像に対して楕円フィッティングして求めた楕円から長径と短径の比を計算し、その比を考慮して対象者Aの視線がカメラ10に対してまっすぐ向いた時の輪郭距離に換算された距離を算出する。図9の例において、瞳孔の輪郭Pに対して輪郭点CPが得られた場合に、横方向をx軸とし縦方向をy軸とした場合の輪郭点CPの座標(x,y)と、対象者Aの視線がカメラ10に対してまっすぐ向いた際に得られる輪郭点CPの座標(x,y)との関係は、下記式のように与えられる。
=(a/b)・x, y=y
よって、輪郭距離算出部22は、検出した輪郭点CPを輪郭点CPに変換してから輪郭距離を求めるように、補正した輪郭距離dを下記式を用いて算出する。
d=(x +y 1/2={((a/b)・x+y 1/2
なお、輪郭距離算出部22は、楕円TCの短軸の方向が水平方向に一致しない場合には、水平方向がその短軸の方向に一致するように座標軸を回転させて上記の距離の補正演算を実行する。
(眼球識別処理)
個人認証部23は、対象者Aの左右の両方の瞳孔を撮像した画像(第1瞳孔画像)から上記の方法で256個×1組の輪郭距離を右基準輪郭距離R1R(0)〜R1R(255),左基準輪郭距離R1L(0)〜R1L(255)として予め取得し、それらを基準輪郭距離の系列R1R,R1Lとして予め記憶している。これを前提として、個人認証部23は、対象者A或いは対象者Aと異なる対象者の一方の眼球を撮像した瞳孔画像(第2瞳孔画像)が画像取得部21で取得されると、撮像した一方の眼球に関する輪郭距離R(0)〜R(255)を取得する。以下ではこの計算結果を輪郭距離の系列Rともいう。個人認証部23は、輪郭距離の系列Rを基準輪郭距離の系列R1R,R1Lと比較することで、第2瞳孔画像に映った一方の眼球の識別処理を実行する。この識別処理は、第2瞳孔画像に映った瞳孔の輪郭と第1瞳孔画像から得られた対象者Aの左右の瞳孔の輪郭との相関性に基づいて、眼球の識別を行うことを意味する。そして、個人認証部23は、眼球の識別処理を瞳孔画像(第2瞳孔画像)において撮像された両方の眼球について繰り返す。
図11に示すように、丸で示される基準輪郭距離の系列R1Rを示す波形(丸印の集合で示される波形)と、輪郭距離の系列Rを示す波形(×印の集合で示される波形)とが得られたとする。個人認証部23は、瞳孔の輪郭の歪み以外のノイズを軽減するために、それぞれの波形(輪郭距離の系列)をフーリエ変換によりフィルタリングする。本実施形態では個人認証部23は高速フーリエ変換(FFT)を用いる。個人認証部23は、下記式(1)で示される時間関数f(t)のフーリエ変換F(ω)および下記式(2)の逆フーリエ変換において時間関数を輪郭点関数に置き換えることで、輪郭距離の系列をフィルタリングする。なお、フィルタリングの方法は例えば下記の参考文献に記載されている。
(参考文献)南 茂夫著、「科学計算のための波形データ処理」、CQ出版社、1986年
Figure 2016110444


Figure 2016110444

個人認証部23は、フーリエ変換後に、瞳孔点の歪みを如実に表す周波数帯だけを残して他の周波数帯の値を0とすることで、輪郭距離の系列に対するフィルタリングを行い、その後に逆フーリエ変換を実行することで、フィルタリングされた輪郭距離の系列(波形)を得る。
個人認証部23が除去する(または残す)周波数成分の例を示す。例えば、対象者がカメラとずれた箇所を見た時には、画像上での瞳孔が楕円になる。このとき、輪郭距離の系列に対して少なくとも2Hzの成分が生じるので、2Hzの成分を0にする(除外する)ことが必要である。さらに、画像上での瞳孔が楕円になる場合には、輪郭距離の系列信号は2Hzの正弦波信号になるわけではなく2Hzの高調波成分を含むので、2Hzの整数倍、すなわち、4Hz、6Hz、8Hz、…を除外してもよい。発明者らの経験から、一例として、5〜9Hzの領域のみを残してこれ以外の周波数を除外するのが望ましいが、残す周波数帯はこの範囲に限定されない。10Hz以上の高周波が存在すると相関のピークの波形がばらついて高い精度を得ることが難しくなるが、このことは、画像の分解能などによって改善し得るので、10Hz以上の高周波を除外することは必須ではない。この他に、1Hzの成分は、何らかの理由で瞳孔中心が正しく求まらないときにも生じるので、除外してもよい。さらに、3Hzの成分を除外してもよいし、4Hz以下の成分をすべて除外してもよい。また、0Hzは直流成分であって輪郭距離の平均に相当する成分であるため、瞳孔輪郭の歪みの情報ではない。この0Hzの成分は計算速度にほとんど影響しないので、取り除くことが可能である。
図12は、図11に示す基準輪郭距離の系列R1Rおよび輪郭距離の系列Rに対して、5〜9Hzの値のみを用いたフィルタリングを実行することで得られた波形である。グラフの横軸および縦軸はそれぞれ、輪郭点番号および輪郭距離(単位はピクセル)である。グラフ中における丸印は基準輪郭距離の系列R1Rを示し、×印は輪郭距離の系列Rを示す。このように、フーリエ変換を用いて輪郭距離の系列をフィルタリングすることで、瞳孔の歪みを示す成分のみを取り出すことができるので、基準位置における瞳孔輪郭と回転した瞳孔輪郭とを容易にかつ正確に比較が可能になる。
続いて、個人認証部23は基準輪郭距離の系列R1Rと輪郭距離の系列Rとの相関を求める。相関関数を求めるために、個人認証部23は、基準輪郭距離の系列R1Rの後に当該系列R1Rをつなげることで(すなわち、同じ波形をつなげることで)基準輪郭距離に関する波形を2倍にし、その結果、基準輪郭距離R1R(0)〜R1R(511)が得られる。基準輪郭距離の系列R1Rと輪郭距離の系列Rとの相関関数は、下記式(3)に示す演算により定義される。
Figure 2016110444


ここで、uは二つの系列R1R,Rの間の輪郭点のずれ量を示し、u=0,1,2,…,255である。
個人認証部23は、この相関関数を正規化して得られる下記式(4)を用いる。
Figure 2016110444


ここで、
Figure 2016110444


はそれぞれ、系列R1R,Rの相加平均である。S(u)は−1から+1の間の値をとり、−1に近いほど負の相関が高く、0であれば相関がなく、+1に近いほど正の相関が高い。したがって、ずれ量uを0,1,2,…,255と変更して計算されるS(u)の最大値MaxSを、系列R1Rと系列Rとの相関性を示す値として得ることができる。個人認証部23はこの相関値MaxSが予め設定された閾値以上の場合は、系列Rに対応する瞳孔を対象者Aの右の瞳孔と識別する。一方、同様な計算方法により、個人認証部23は、基準輪郭距離の系列R1Lと輪郭距離の系列Rとの相関値MaxSを求め、この相関値MaxSが予め設定された閾値以上の場合は、系列Rに対応する瞳孔を対象者Aの左の瞳孔と識別する。
ここで、先述の輪郭距離の系列のフィルタリングにおいて、直流成分に相当する0Hzの成分を除外していれば、
Figure 2016110444


はすべて零になるため、上記式(4)は、次式(4a)で代用できる。
Figure 2016110444

なお、値S(u)は変数uを変化させながら計算するが、分母については任意のuに対して一度だけ計算すればよい。
ここで、眼球の回転が−90°〜+90°の範囲で起きると仮定する場合には、個人認証部23はその角度に対応する範囲内(u=0〜63,192〜255)でのみ値S(u)を求めればよい。
図12を見ると二つの波形は似ており、したがって、輪郭点番号で示される位相がずれていることが予想される。この二つの波形に対して相関係数を求めたものを図13のグラフに示す。このグラフの横軸は位相のずれであり、縦軸は正規化された相関係数S(u)である。この図13における最大値が、個人認証部23によって算出される相関値MaxSである。
さらに、個人認証部23は、瞳孔画像(第2瞳孔画像)上で撮像された2つの瞳孔に関して、瞳孔の識別処理を繰り返す。そして、個人認証部23は、2つの瞳孔がそれぞれ対象者Aの右の瞳孔および左の瞳孔と識別された場合には、瞳孔画像(第2瞳孔画像)において撮像された2つの瞳孔を有する対象者を対象者Aであると認証(個人認証の成功)し、その認証結果を出力する。ここで、個人認証部23は、個人認証を実行すると同時に対象者Aの左右の眼球の識別を行うが、瞳孔画像上の2つの眼球の位置関係から左右を区別することができるので、その場合は、眼球の左右を識別した後に、個人認証を実行してもよい。認証結果の出力先は何ら限定されない。例えば、個人認証部23はその認証結果を画像、図形、またはテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。あるいは、個人認証部23の個人認証結果に基づいて情報処理装置20において任意の制御処理が実行されてもよい。例えば、予め登録されたユーザにのみ使用が可能なように制御したり、予め登録されたユーザ毎にカスタマイズされた情報(メニュー画面等)を出力するように制御したりする。
上述した本実施形態の個人認証装置1の動作、すなわち、本実施形態にかかる眼球識別方法の大まかな流れを図14に示す。まず、画像取得部21が、瞳孔の基準輪郭距離を求めるための画像(第1瞳孔画像)をカメラ10から取得する(ステップS101、画像取得ステップ)。その後、輪郭距離算出部22は、瞳孔の複数の輪郭点を特定して瞳孔中心から該複数の輪郭点のそれぞれまでの距離(輪郭距離)を算出する処理を、取得した画像上の左右の瞳孔を対象に実行する。そして、輪郭距離算出部22は、眼球識別の基礎データとなる基準輪郭距離の系列R1R,R1Lを算出し記憶しておく(ステップS102、輪郭距離算出ステップ)。次に、画像取得部21は、眼球識別処理の対象の眼球の輪郭距離を求めるための画像(第2瞳孔画像)をカメラ10から取得する(ステップS103、画像取得ステップ)。続いて、輪郭距離算出部22が、輪郭距離の系列Rを算出する処理を、第2瞳孔画像に対して実行する(ステップS104、輪郭算出ステップ)。なお、瞳孔の基準輪郭距離を第1瞳孔画像から求めるための処理は、画像取得部21が第2瞳孔画像を取得した後に実行されてもよい。そして、個人認証部23が、第1瞳孔画像から得られた2つの輪郭距離系列R1R,R1Lと第2瞳孔画像から得られた複数の輪郭距離の系列Rとの相関値を算出した後、その相関値を判定することによって第2瞳孔画像に映った眼球の識別処理を実行する(ステップS105、眼球識別ステップ)。さらに、個人認証部23が、第2瞳孔画像に映った2つの眼球の識別結果を基に個人認証を実行し、個人認証の処理結果を出力する(ステップS106)。なお、ステップS101〜S106の処理は少なくとも対象者Aの片眼について実行されればよく、第2瞳孔画像に映った片眼の識別結果だけで個人認証が実行されてもよい。
以上説明した個人認証装置1及びそれを用いた眼球識別方法によれば、第1瞳孔画像及び第2瞳孔画像における瞳孔の中心から瞳孔の輪郭上の複数のサンプル点までの輪郭距離が算出され、第1瞳孔画像における基準輪郭距離の系列データと、第2瞳孔画像における輪郭距離の系列データとの相関性を判定することによって対象者Aの眼球が識別される。このような第2瞳孔画像は、一般的に動的に撮像することによって取得されるものであるため、前もって撮っておいた画像を利用することは難しい。すなわち、本実施形態では、瞳孔をロバストに検出するために、瞳孔を明るくする光源と瞳孔を暗くする光源を利用し、それらを高速に交互に点灯させることによって明瞳孔画像と暗瞳孔画像とを交互に得て、それらの画像の差分から瞳孔の輪郭を検出している。そのため、予め目の写真を撮ってそれを使ってなりすましすることは不可能である。また、画像差分によって得られた瞳孔の輪郭は非常に鮮明であるため、画像の分解能さえ条件を満たせば、対象者Aがカメラの遠方に位置しても瞳孔輪郭形状を得ることが可能である。さらに、上記形態では、対象者Aに対する操作時の負担も少なく識別処理の計算量も軽減されている。その結果、対象者の眼球を、精度よく即座に識別することができる。加えて、個人認証装置1によれば、第2瞳孔画像に映る眼球のそれぞれを、対象者Aの左の眼球又は右の眼球として識別することができる。
このような個人認証装置1の利用シーンとしては次のようなものが想定される。例えば、自動車の運転席に個人認証装置1を装備させ、自動車のドライバーが乗車してエンジンを始動させた際に個人認証装置1を起動させることが考えられる。そして、個人認証装置1によって登録したドライバーに関する個人認証が失敗したと判定された場合には、ドライバーがアクセルを踏んでも自動車が走らないように制御する。このような制御により自動車の盗難防止に役立つ。また、それ以外の利用シーンとして、複数のユーザが使用するコンピュータを個人認証装置1として動作させることが考えられる。すなわち、ユーザがパソコンの前に座ったことを契機に個人認証処理が起動され、そのユーザが登録された複数のユーザのうちの一人であると認証された場合にコンピュータを自動起動させる。さらに、認証されたユーザ毎にカスタマイズされたデスクトップ画面を自動で表示させる。このような制御により、複数のユーザに対してコンピュータの利便性を向上させることができる。
ここで、個人認証装置1の個人認証部23は、第1瞳孔画像および第2瞳孔画像のそれぞれにおいて、複数の輪郭距離に対してフーリエ変換を実行して一部の成分を除去するフィルタリングを実行している。このようにすることで、輪郭距離の系列(波形)から輪郭の歪み以外のノイズを除くことができる。その結果、2つの画像間の輪郭距離の相関をより正確に求めて、眼球の識別結果をより正確に得ることができる。
また、個人認証装置1によれば、対象者Aと同一もしくは異なる対象者の2つの眼球を撮像した第2瞳孔画像が取得され、第2瞳孔画像に映る2つの眼球が識別され、当該識別の結果を基に対象者に対する個人認証が実行されている。このように、対象者Aの左右の眼球の識別処理を利用することで、迅速かつ高精度の個人認証を実現することができる。つまり、一人の対象者Aについて瞳孔の形状は左右の眼で異なる。従って、2個の瞳孔の両方の識別結果を個人認証に用いることによってセキュリティを高めることができる。
また、本発明者らは、これまで瞳孔マウス(特開2005−182247号公報を参照。)と呼ばれる技術を開発してきた。この技術では、2つの瞳孔が検出されたときに、カメラで撮影された画像内での位置関係から左右の瞳孔を区別している。瞳孔マウスでは左右の眼を閉じる動作をコンピュータのマウスの左右のボタンのクリック動作として検出するので、左右の眼を識別することは重要である。従来は、瞳孔マウスを使用中にどちらか一方の眼を閉じた場合には、閉じられる前に右瞳孔と判断されていた瞳孔がそのまま検出され続けていればそれを右瞳孔と判断し、左の眼が閉じたと判断している。しかし、この方法では、片眼を閉じているときさらに開いている方の眼が非検出となったときに、次に両眼が開くときまで左右の眼を区別することはできない。この問題は、対象者Aの頭部の動きが頻繁な場合に発生しやすい。これは、頭部の動きが少なければ非検出の状態から再度検出された瞳孔の位置が閉じる前に最後に検出されていた瞳孔の位置に近いかどうかで左右の瞳孔の区別が可能であるが、頭部の動きが多ければ瞳孔の位置が大きく変わってしまいそのような区別が不可能になるからである。しかし、本実施形態の個人認証装置1を瞳孔マウスの技術に適用すればそのような問題は生じない。
さらに、個人認証装置1によれば、瞳孔の輪郭に近似する楕円を特定し、楕円の長径と短径との比を基に複数のサンプル点の中心から見た角度間隔が調整されている。このような調整処理を適用することで、対象者の顔の向きに起因して画像上の瞳孔像の変形が生じた場合であっても、眼球識別の精度を維持することができる。その結果、個人認証装置1によれば、対象者Aの視線方向にかかわらず個人認証を実行可能となる。
[第2実施形態]
次に、本発明の第2実施形態にかかる個人認証装置1Aについて説明する。図15は、個人認証装置1Aに含まれる情報処理装置20Aの機能構成を示している。同図に示すように、情報処理装置20Aは機能的構成要素として、画像取得部21、輪郭距離算出部22、および個人認証部23に加えて、視線検出部24をさらに備える。視線検出部24は、個人認証部23による眼球の識別結果と画像取得部21によって取得される第2瞳孔画像とを少なくとも用いて、第2瞳孔画像に映る対象者Aの視線を検出する。以下、視線検出部24の機能について詳細に説明する。
[眼球識別結果を考慮した視線検出方法]
(瞳孔の3次元座標の算出)
視線検出部24はステレオ法(ステレオマッチング)を用いて、第2瞳孔画像上での瞳孔中心座標から左右の瞳孔の3次元位置を計算する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。
視線検出部24がステレオ法を用いて瞳孔の3次元座標を計算する際には、図16に示すような座標系を用いる。同図に示す世界座標系(X,Y,Z)は、2台のカメラ10が共有する原点Oが例えばディスプレイ装置30の画面中央に位置する座標系である。カメラ座標系(X,Y,Z)は、その原点Cがカメラ10の光学中心とされ、Z軸が光学中心から画像面に垂直に引いた光軸と平行とされた座標系である。画像座標系(X,Y)は、撮像素子が置かれる画像面に沿ってXY平面と平行にされ、光軸と画像面の交点(画像中心)を原点Cとする座標系である。点Pが目標点の座標とすると、カメラ10を用いた際の画像座標系への投影点(X,Y)は、画像のゆがみにより理想的な投影点(X,Y)からずれることになる。したがって、ステレオ法を用いた3次元位置計測を精度良く行うためには、目標点Pの世界座標とその画像座標との対応づけを記録したキャリブレーションデータを予め取得する必要がある。例えば、外部パラメータとしての世界座標に対するカメラ座標系の平行移動ベクトルおよび世界座標系に対するカメラ座標系の回転行列や、内部パラメータとしての焦点距離、画像中心座標、スケール係数、レンズひずみ係数、撮像素子間隔等がキャリブレーションデータとして予め取得され、視線検出部24に記憶される。
視線検出部24は、2台のカメラ10からの出力データを基に検出した画像座標系における瞳孔中心座標と、世界座標系における瞳孔中心座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、視線検出部24は、2つの関係式から世界座標系における対象者Aの瞳孔の3次元座標を求める。同様にして、視線検出部24は、対象者Aの左右の瞳孔の3次元座標を求めることができる。
(視線検出)
続いて、視線検出部24は左右の瞳孔の3次元座標に基づいて視線を検出する。図17に示すように、瞳孔の3次元位置Pに基づいて、カメラ10の開口部12の中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を考える。ここで、X’軸は、世界座標系のX−Z平面と仮想視点平面との交線に相当する。
視線検出部24は、画像面Sにおける角膜反射点Gから瞳孔中心Pまでのベクトルrを算出し、そのベクトルrを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する。このとき、各カメラ10をピンホールモデルと考え、角膜反射点Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、視線検出部24は、仮想視点平面と平行であって瞳孔Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルrとして算出し、このベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。
続いて、視線検出部24は、対象者Aの仮想視点平面上の注視点Tに関して、直線OTの水平軸X’に対する傾きφが、ベクトルrの画像面上の水平軸Xに対する傾きφ’と等しいと仮定する。さらに、視線検出部24は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tとを結ぶベクトルPTと、基準線OPとの成す角θを、ゲイン値kを含むパラメータを使った下記式(5)により計算する。
θ=f(r)=k×|r| …(5)
このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われる。より詳しくは、対象者Aの視線PTの基準線OPに対する角度θは、瞳孔中心と角膜反射の距離|r|との間で線形関係を有すると仮定する。
角度θと距離|r|とは線形近似できるという仮定、および二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r|,φ’)とを1対1に対応させることができる。このとき、視線検出部24は、カメラ10の開口部12の中心に設定された原点Oと、仮想視点平面上の注視点Tとを結ぶベクトルOTを次式(6)により得る。なお、ベクトルOPはカメラ10から得られる。
Figure 2016110444

最後に、視線検出部24は視線ベクトルPTと視対象平面(ディスプレイ装置30)との交点である注視点Qを次式(7)で求める。
Q=nPT+P …(7)
しかし、一般的にヒトの視軸(瞳孔中心および中心窩を通る軸)と光軸(角膜からレンズの中心へと延びる法線)との間にはずれがあり、対象者Aがカメラを注視した際にも角膜反射と瞳孔中心とは一致しない。そこで、そのずれを補正する原点補正ベクトルrを定義し、カメラ画像から実測した角膜反射−瞳孔中心ベクトルをr’とすると、ベクトルrはr=r’−rで表されるので、式(5)は下記式(8)のように書き換えられる。
θ=k×|r’−r| …(8)
計測されたr’に対して原点補正を行うことで、(θ,φ)と(|r|,φ’)とを1対1に対応させることができ、精度の高い注視点検出を行うことができる。
このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルr(=r’−r)を仮想視点平面上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われている。より詳しくは、対象者Aの視線PTの基準線OPに対する角度θは、瞳孔中心と角膜反射の距離の修正値|r’−r|との間で線形関係を有すると仮定している。なお、関数fに含まれる原点補正ベクトルrには、対象者Aがカメラを見たとき(θ=0)の実寸の角膜反射−瞳孔中心間のベクトルが零ではないために、この角膜反射−瞳孔中心間のベクトルとして、ベクトルrが設定される。ここで、上記ゲイン値k及び原点補正ベクトルrは、各対象者Aや左右の眼球によって異なるため較正を行う必要がある。そこで、ゲイン値k及び原点補正ベクトルrには、予め設定された初期値に対して後述するパラメータ補正処理によって補正された値が使用される。
さらに、視線検出部24は、2台のカメラ10の画像に対応して計算された角度φ,θであるφ,φ,θ,θを参照して、対象者Aのディスプレイ装置30の画面上の注視点を検出する。ここで、注視点検出のメカニズムを説明するために図18に示すような座標系を定義する。2台のステレオカメラ10の位置に対応した原点O’,O’を有する2つの仮想視点平面H,Hと、瞳孔中心Pを中心とした半径を任意とした仮想視点球面Sを定義する。2つの仮想視点平面H,Hは、それぞれ、直線PO’,PO’に対して垂直な平面である。そして、瞳孔中心Pとディスプレイ画面上の注視点Qを通る直線(視線)と仮想視点球面Sとの交点をG、瞳孔中心Pと原点O’を通る直線と仮想視点球面Sとの交点をO、瞳孔中心Pと原点O’を通る直線と仮想視点球面Sとの交点をOとする。なお、視線PQと仮想視点平面Hとの交点をGとすると、直線O’Gと仮想視点平面Hとの水平軸の成す角がφとなる。同様に、視線PQと仮想視点平面Hとの交点をGとすると、直線O’Gと仮想視点平面Hとの水平軸の成す角がφとなる。さらに、仮想視点球面S上において、点Oにおける点Oを通る水平面と球面Sとの交線(曲線)と曲線Oの成す角は、上記角度φと等しくなる。同様に、仮想視点球面S上において、点Oにおける点Oを通る水平面と仮想視点球面Sとの交線(曲線)と曲線Oの成す角は、上記角度φと等しくなる。また、上述したように、点P,O,O’は同じ直線L上に存在し、点P,O,O’は同じ直線L上に存在するので、直線Lと視線の成す角がθとなり、直線Lと視線の成す角がθとなる。
視線検出部24は、上記のような関係を用いることにより、既知である原点O’,O’の位置座標、及びディスプレイ装置30の位置及び向きのデータを参照しながら、画面上の注視点を算出することができる。すなわち、2台のカメラ10のカメラ画像によって計算された角度φ,φ,θ,θから、仮想視点球面S上の点G,O,Oの相対的位置関係を取得することができる。従って、視線検出部24は、既知である原点O’,O’の座標と、既に計算された瞳孔中心Pの座標から、一意に視線PGを求めることができ、その視線PGとディスプレイ装置30の画面との交点を計算することにより注視点Qを検出することができる。なお、角度φ,θから求められる視線PGと、角度φ,θから求められる視線PGがずれている場合にはそれらを平均したものを最終的な視線ベクトルとして計算することもできる。
ここで、視線検出部24が視線の計算に用いる関数fには、パラメータとしてゲイン値k及び原点補正ベクトルrが含まれている。このゲイン値kは、上記式(8)を見ても分かるように、角膜反射−瞳孔中心ベクトルr’を調整後のベクトルr=r’−rの大きさと視線を示す角度θが線形関係にあると仮定して、そのベクトルrから角度θを求める時に使用する倍率である。理想的には、角度θとベクトル|r’|とが線形関係にあれば、ゲイン値kさえ求まれば角度θが計算できるはずである。言い換えれば角度θ=0のとき、つまり対象者Aがカメラを注視したときはベクトル|r’|=0になるはずである。しかしながら、実際には眼球の視軸(視線)と光軸とは一致せず、角度θ=0のときベクトル|r’|≠0となる。さらに、対象者Aが変われば角度θ=0のときのベクトル|r|は異なる。なお、眼球の視軸とは、対象者の眼球の中心窩と対象者の注視点とを結ぶ直線である。
以下、k及びベクトルrの求め方について説明する。式(8)より、ベクトルθ,θは、以下の式(9),(10)でそれぞれ表される。
θ=kr=k×(r´―r) …(9)
θ=kr=k×(r´―r) …(10)
なお、これらの式において原点補正ベクトルrは個々の眼球において一意に決定されるため、カメラに関係なくrとした。また、2台のカメラの間隔は角度で表され、次式(11)で定義できる。
Figure 2016110444

式(9)〜(11)から、次式(12)が得られ、この式(12)から係数k(較正値)が算出される。
Figure 2016110444

2台のカメラの位置は既知であるから、∠OPOは常に既知である。したがって、対象者が特定の位置を注視しなくても、各カメラにおいて実測されるベクトルr’から係数kを算出することができる。
さらに、視線検出部24は、1点較正法により、原点補正ベクトルrを求める。1点較正法による原点補正ベクトルrの求め方は、具体的には次の通りである。まず、視線検出部24は、ディスプレイ装置30の表示画面上の任意の位置に1点の視標(規定点)を表示させて、対象者Aに当該視標を注視させる。この状態で、視線検出部24は、投影仮想視点平面上の注視点を検出する。次に、視線検出部24は、検出した注視点と視標の座標を投影仮想視点平面上に投影した点との差分を補正量として算出する。そして、視線検出部24は、この補正量に基づいて原点補正ベクトルrを決定する。
視線検出部24は、このようにして求めた係数k及び原点補正ベクトルrを、対象者Aの左右の眼球毎に記憶しておく。そして、視線検出部24は、以降の視線検出時には、検出対象となる第2瞳孔画像に映る眼球の識別結果に応じて、識別された眼球に対応した係数k及び原点補正ベクトルrを参照しながら上記式(8)を計算し、その計算結果を用いて対象者Aの視線を検出する。
以上説明した個人認証装置1Aによれば、個人間の誤差を考慮した対象者の視線検出を高精度に実現することができる。具体的には、個人間の左右の眼球の視軸と光軸とのずれに起因する誤差を考慮した視線検出を高精度に実現することができる。一般に、眼球は視軸と光軸とを有する。光軸は眼球の形状に基づく対称軸である。それに対して、視軸は対象者が注視している対象と網膜上の最も分解能の高い中心窩を結ぶ直線と定義できる。しかも、光軸に対して視軸がずれる方向、ずれる度合い(角度)は個人間で異なり、さらに個人において左右の眼でもそれらは異なる。注視点を検出するときに1点較正法により較正の必要があるのは、左右の眼球ごとに視軸と光軸のずれ角度(両者の直線のなす角度)とずれ方向(2つの直線が形成する平面の法線方向)を求める必要があるからである。従って、注視点較正をするために対象者に画面上の視標を注視させる際に、ずれの計測と同時に瞳孔形状を計測することもできるので、効率的に個人認証処理を実行することができる。
また、一般には、視線検出の際には較正処理が行われるが、この較正処理は対象者が変わる度に繰り返す必要がある。本実施形態では、対象者Aに対して一度較正処理を行った際に取得した係数k及び原点補正ベクトルr等の較正パラメータを記憶しておき、再度対象者Aの視線を検出する際には、対象者Aの眼球を識別し、識別した眼球に対応した較正パラメータを読み出して視線検出を実行する。これにより、対象者Aの眼球が識別できれば再度較正処理を行う必要が無くなる。その結果、一度較正処理を行った眼球(登録済みの眼球)が個人認証装置1Aの前に現れれば、即座に較正パラメータが読み出され、正確な視線が検出されることになる。対象者Aにとっては特定の場所を見るという較正処理時の負担を軽減させることができる。
また、複数の対象者が個人認証装置1Aの前に位置する場合にも、予め複数の対象者の瞳孔形状を登録しておけば、各対象者が特定でき、各対象者の左右の眼球の区別も可能となる。複数の対象者を検出対象とする場合は、ある対象者が別の対象者の前にいて後ろの対象者の片眼を隠すことがよくある。従来の視線検出技術においては、対象者の一方の瞳孔しか検出されない場合にその瞳孔が左右のどちらのものかが判断できなかったために、視線検出の際に左右の眼球のどちらに対応する較正パラメータを使用したらよいのか不明であった。もし、片眼の眼球を対象に視線検出をする際に誤ったほうの較正パラメータを使用すると視線検出の誤差が大きくなってしまう。これに対して、本実施形態の個人認証装置1Aによれば、左右の眼の識別が可能とされるので、カメラ10に映る眼球を対象とした視線検出の精度が高まる。それによって、複数の対象者が重なるようにカメラ10の前にいる場合でも、カメラ10の映る全ての対象者の眼の視線を正確に求めることができるようになる。このような個人認証装置1Aは、テレビやパーソナルコンピュータを用いて広告を表示させている際に、較正処理が一度行われた複数の対象者の注目する座標を高精度に計測したい場合に特に有用と考えられる。
本発明は、上述した実施形態に限定されるものではない。
例えば、個人認証装置1の個人認証部23は、瞳孔に関する輪郭距離の相関性を基に個人認証を行っていたが、それに加えて瞳孔の大きさを基に個人認証を実行してもよい。例えば、個人認証部23は、第2瞳孔画像に映る左右の2つの眼の瞳孔面積の比を計算し、左右の眼球識別結果とともに瞳孔面積の比を利用して個人認証を実行してもよい。この場合、個人認証の精度をさらに向上させることができる。この際、個人認証部23は、2つの眼の瞳孔面積の比を、輪郭距離算出部22により2つの瞳孔に対してフィッティングにより求められた楕円の面積から求めてもよいし、輪郭距離算出部22により生成された輪郭距離の系列より算出した瞳孔の面積から求めてもよい。
さらに、個人認証装置1Aの個人認証部23は、左右の眼球識別結果とともに、視線検出部24において1点較正法により求められた原点補正ベクトルrを利用して、個人認証を実行してもよい。この原点補正ベクトルrは、個人の左右の眼球によって値が異なるため、個人認証の精度をさらに向上させることができる。特に、1点較正法によれば対象者Aに1点を注視させることになるので視線方向がほぼ定まり、上述の瞳孔面積比が定まることにもなり、認証の精度が高まる。
また、個人認証装置1,1Aの輪郭距離算出部22は、眼球識別の基礎データとなる基準輪郭距離の系列R1R,R1Lを算出する際には、第1瞳孔画像に映る左右の瞳孔を次のようにして特定する。すなわち、輪郭距離算出部22は、複数の瞳孔の三次元座標を総当たりのステレオマッチングで算出し、さらに、瞳孔間距離が標準的な範囲内にある2つの瞳孔の三次元座標を同一の対象者の瞳孔対のものであると判断する。このような処理は、不特定多数の対象者が次々にカメラ10の前に現れる場合に有効である。すなわち、一瞬でも一人の対象者の瞳孔対の画像が得られれば、その瞳孔対がペアリングされると同時に左右の瞳孔が特定された上で瞳孔形状が記憶される。その後は、その対象者の片眼しか映らなくてもその片眼を識別することが可能となる。
また、個人認証装置1,1Aの輪郭距離算出部22は、瞳孔の輪郭点をサンプリングに際して放射状走査の角度間隔を調整していたが、このような角度間隔の調整に代えて次のように処理してもよい。すなわち、瞳孔画像の輪郭に近似する楕円を楕円フィッティングにより特定した後に、その楕円の長径及び短径を求める。そして、輪郭距離算出部22は、その長径と短径との比を基にして楕円が円になるように瞳孔画像を短軸方向に引き伸ばす(又は長軸方向に縮める)処理を行い、引き伸ばされた(又は縮められた)瞳孔画像を対象に等角度間隔で放射状走査を行うことによって輪郭点をサンプリングする。このような画像の引き伸ばし処理は、GPU汎用計算(GPGPU;General-purposecomputing on GPU)によって容易に実現可能である。これにより、対象者Aの顔の向きに起因して画像上の瞳孔像の変形が生じた場合であっても、眼球識別の精度を維持することができる。
1,1A…個人認証装置、10…カメラ、10…左カメラ、10…右カメラ、13…光源、20,20A…情報処理装置、21…画像取得部、22…輪郭距離算出部、23…個人認証部(眼球識別部)、24…視線検出部、30…ディスプレイ装置、A…対象者。

Claims (12)

  1. 対象者の眼球を識別する眼球識別装置であって、
    対象者の眼球を撮像することで得られた第1瞳孔画像と、該第1瞳孔画像が得られた後に前記対象者と同一或いは異なる対象者の眼球を撮像することで得られた第2瞳孔画像とを取得する画像取得部と、
    瞳孔の輪郭を算出する処理を、前記第1瞳孔画像および前記第2瞳孔画像のそれぞれに対して実行する輪郭算出部と、
    前記第1瞳孔画像から得られた前記瞳孔の輪郭と前記第2瞳孔画像から得られた前記瞳孔の輪郭との相関に基づいて前記眼球を識別する眼球識別部と、
    を備える眼球識別装置。
  2. 前記輪郭算出部は、前記瞳孔における中心から輪郭上の複数のサンプリング点までの輪郭距離を算出する処理を実行し、
    前記眼球識別部は、前記第1瞳孔画像から得られた前記輪郭距離と前記第2瞳孔画像から得られた前記輪郭距離との相関値を判定することによって前記眼球を識別する、
    請求項1記載の眼球識別装置。
  3. 前記眼球識別部は、前記第1瞳孔画像および前記第2瞳孔画像のそれぞれにおいて、前記複数の輪郭距離に対してフィルタリングを実行することで、該フィルタリングされた複数の輪郭距離を取得し、前記第1瞳孔画像についての前記フィルタリングされた複数の輪郭距離と、前記第2瞳孔画像についての前記フィルタリングされた複数の輪郭距離との相関値を算出する、
    請求項2記載の眼球識別装置。
  4. 前記画像取得部は、対象者の左右の眼球を同時もしくは別々に撮像した第1瞳孔画像と、前記対象者と同一もしくは異なる対象者の眼球を撮像した第2瞳孔画像とを取得し、
    前記輪郭算出部は、前記第1瞳孔画像及び前記第2瞳孔画像のそれぞれに含まれる瞳孔に対して前記輪郭距離を算出する処理を実行し、
    前記眼球識別部は、前記第1瞳孔画像から得られた前記左右の眼球に対応する2つの前記輪郭距離と前記第2瞳孔画像から得られた前記輪郭距離との相関値を判定することによって、前記第2瞳孔画像に映る眼球を前記対象者の左右の眼球として識別する、
    請求項2又は3記載の眼球識別装置。
  5. 前記眼球識別部による眼球の識別結果と、前記第2瞳孔画像とを少なくとも用いて前記対象者の視線を検出する視線検出部をさらに備える、
    請求項4記載の眼球識別装置。
  6. 前記視線検出部は、前記眼球の識別結果を基に前記眼球における視軸と光軸とのずれを補正するための補正値を特定し、前記補正値を基に前記視線を検出する、
    請求項5記載の眼球識別装置。
  7. 前記画像取得部は、前記対象者と同一もしくは異なる対象者の眼球を撮像した前記第2瞳孔画像を取得し、
    前記眼球識別部は、前記第2瞳孔画像に映る眼球を識別し、当該識別の結果を基に前記対象者に対する個人認証を実行する、
    請求項4に記載の眼球識別装置。
  8. 前記眼球識別部は、前記第2瞳孔画像に映る2つの眼球の瞳孔面積の比を計算し、前記識別の結果とともに前記瞳孔面積の比を利用して前記個人認証を実行する、
    請求項7に記載の眼球識別装置。
  9. 前記視線検出部は、所定の視標を表示させた状態で取得された前記第2瞳孔画像を基に前記視線を検出した後に、前記視標の位置と前記視線を基に計算される注視点の位置との差分から補正ベクトルを算出し、
    前記眼球識別部は、前記補正ベクトルを基に前記眼球を識別する、
    請求項5記載の眼球識別装置。
  10. 前記輪郭算出部は、前記瞳孔の輪郭に近似する楕円を特定し、前記楕円の長径と短径との比を基に前記複数のサンプル点の中心から見た角度間隔を調整する、
    請求項2〜8のいずれか1項に記載の眼球識別装置。
  11. 前記輪郭算出部は、前記瞳孔の輪郭に近似する楕円を特定し、当該楕円の長径と短径との比を基に前記瞳孔の画像を引き伸ばして補正画像を生成し、前記補正画像を対象に前記輪郭距離を算出する処理を実行する、
    請求項2〜8のいずれか1項に記載の眼球識別装置。
  12. 対象者の眼球を識別する眼球識別方法であって、
    眼球識別装置が、対象者の眼球を撮像することで得られた第1瞳孔画像と、該第1瞳孔画像が得られた後に前記対象者と同一或いは異なる対象者の眼球を撮像することで得られた第2瞳孔画像とを取得する画像取得ステップと、
    前記眼球識別装置が、瞳孔の輪郭を算出する処理を、前記第1瞳孔画像および前記第2瞳孔画像のそれぞれに対して実行する輪郭算出ステップと、
    前記眼球識別装置が、前記第1瞳孔画像から得られた前記瞳孔の輪郭と前記第2瞳孔画像から得られた前記瞳孔の輪郭との相関に基づいて前記眼球を識別する眼球識別ステップと、
    を備える眼球識別方法。
JP2014248169A 2014-12-08 2014-12-08 眼球識別装置及び眼球識別方法 Active JP6452236B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014248169A JP6452236B2 (ja) 2014-12-08 2014-12-08 眼球識別装置及び眼球識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014248169A JP6452236B2 (ja) 2014-12-08 2014-12-08 眼球識別装置及び眼球識別方法

Publications (2)

Publication Number Publication Date
JP2016110444A true JP2016110444A (ja) 2016-06-20
JP6452236B2 JP6452236B2 (ja) 2019-01-16

Family

ID=56124202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014248169A Active JP6452236B2 (ja) 2014-12-08 2014-12-08 眼球識別装置及び眼球識別方法

Country Status (1)

Country Link
JP (1) JP6452236B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019522278A (ja) * 2016-06-30 2019-08-08 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. 身分認証方法および装置
CN111684394A (zh) * 2018-03-15 2020-09-18 欧姆龙株式会社 视线检测装置、所述视线检测装置的控制方法、角膜反射像位置的检测方法、计算机程序以及存储介质
CN114838664A (zh) * 2022-07-04 2022-08-02 江西农业大学 一种基于黑皮鸡枞菌的菌盖尺寸原位测量方法
CN117710280A (zh) * 2022-09-07 2024-03-15 南京博视医疗科技有限公司 一种瞳孔自动定位方法及装置
CN118542773A (zh) * 2024-07-30 2024-08-27 广州市微眸医疗器械有限公司 一种眼球手术进针的控制装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863604A (ja) * 1994-08-23 1996-03-08 Sumitomo Metal Ind Ltd 画像処理装置および画像処理方法
JPH11161796A (ja) * 1997-11-28 1999-06-18 Oki Electric Ind Co Ltd 動物の個体識別装置および画像処理方法
JP2000182058A (ja) * 1998-12-18 2000-06-30 Canon Inc 三次元運動入力方法及び三次元運動入力システム
JP2005242432A (ja) * 2004-02-24 2005-09-08 Nec Soft Ltd 顔認証システム及びその処理方法及びそのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863604A (ja) * 1994-08-23 1996-03-08 Sumitomo Metal Ind Ltd 画像処理装置および画像処理方法
JPH11161796A (ja) * 1997-11-28 1999-06-18 Oki Electric Ind Co Ltd 動物の個体識別装置および画像処理方法
JP2000182058A (ja) * 1998-12-18 2000-06-30 Canon Inc 三次元運動入力方法及び三次元運動入力システム
JP2005242432A (ja) * 2004-02-24 2005-09-08 Nec Soft Ltd 顔認証システム及びその処理方法及びそのプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
石川 和明 外2名: "黒眼形状の動的及び静的な情報によるマルチモーダル個人認証", 電子情報通信学会論文誌 (J90−D) 第7号 情報・システム, vol. 第J90-D巻 第7号, JPN6018047757, 1 July 2007 (2007-07-01), JP, pages pp. 1700-1702 *
青山 真之 外3名: "生体反射型認証 −輻輳反射と眼球形状および両眼間距離を利用した認証方式の提案−", 情報処理学会研究報告 VOL.2009 NO.20 2009−DPS−138 マルチメディア通信と分, vol. 第2009巻 第20号, JPN6018047759, 26 February 2009 (2009-02-26), JP, pages pp. 85-90 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019522278A (ja) * 2016-06-30 2019-08-08 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. 身分認証方法および装置
CN111684394A (zh) * 2018-03-15 2020-09-18 欧姆龙株式会社 视线检测装置、所述视线检测装置的控制方法、角膜反射像位置的检测方法、计算机程序以及存储介质
US11903647B2 (en) 2018-03-15 2024-02-20 Omron Corporation Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
CN114838664A (zh) * 2022-07-04 2022-08-02 江西农业大学 一种基于黑皮鸡枞菌的菌盖尺寸原位测量方法
CN117710280A (zh) * 2022-09-07 2024-03-15 南京博视医疗科技有限公司 一种瞳孔自动定位方法及装置
CN118542773A (zh) * 2024-07-30 2024-08-27 广州市微眸医疗器械有限公司 一种眼球手术进针的控制装置

Also Published As

Publication number Publication date
JP6452236B2 (ja) 2019-01-16

Similar Documents

Publication Publication Date Title
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
JP6963820B2 (ja) 視線検出装置
US9398848B2 (en) Eye gaze tracking
JP5915981B2 (ja) 注視点検出方法及び注視点検出装置
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP6631951B2 (ja) 視線検出装置及び視線検出方法
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
JP6452236B2 (ja) 眼球識別装置及び眼球識別方法
US10909363B2 (en) Image acquisition system for off-axis eye images
EP3905943B1 (en) System and method for eye tracking
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2007011667A (ja) 虹彩認証装置および虹彩認証方法
JP2022523306A (ja) アイトラッキングデバイスおよび方法
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP6881755B2 (ja) 視線検出校正方法、システム、及びコンピュータプログラム
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
JP6346018B2 (ja) 眼球計測システム、視線検出システム、眼球計測方法、眼球計測プログラム、視線検出方法、および視線検出プログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP2018101212A (ja) 車載器および顔正面度算出方法
JP2018101211A (ja) 車載器
WO2020106792A1 (en) System and method for retina template matching in teleophthalmology
JP6652263B2 (ja) 口領域検出装置及び口領域検出方法
JP2017102731A (ja) 視線検出装置及び視線検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6452236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250