JP2016028669A - 瞳孔検出装置、および瞳孔検出方法 - Google Patents
瞳孔検出装置、および瞳孔検出方法 Download PDFInfo
- Publication number
- JP2016028669A JP2016028669A JP2014227056A JP2014227056A JP2016028669A JP 2016028669 A JP2016028669 A JP 2016028669A JP 2014227056 A JP2014227056 A JP 2014227056A JP 2014227056 A JP2014227056 A JP 2014227056A JP 2016028669 A JP2016028669 A JP 2016028669A
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- center
- unit
- image
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/107—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/112—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
【課題】瞳孔の一部が欠損した画像等に対しても、より高精度に瞳孔を検出する。
【解決手段】目を撮像した画像から、瞳孔領域を特定する特定部と、特定部によって特定された瞳孔領域の輪郭を抽出する抽出部と、抽出部によって抽出された瞳孔領域の輪郭上の複数の点を選択する選択部と、選択部によって選択された複数の点を通る円の中心を算出する中心算出部と、中心算出部によって算出された円の中心から瞳孔領域の中心を検出する瞳孔検出部と、を備える。
【選択図】図4
【解決手段】目を撮像した画像から、瞳孔領域を特定する特定部と、特定部によって特定された瞳孔領域の輪郭を抽出する抽出部と、抽出部によって抽出された瞳孔領域の輪郭上の複数の点を選択する選択部と、選択部によって選択された複数の点を通る円の中心を算出する中心算出部と、中心算出部によって算出された円の中心から瞳孔領域の中心を検出する瞳孔検出部と、を備える。
【選択図】図4
Description
本発明は、瞳孔検出技術に関する。
カメラの高精度化、処理高速化、および小型化が進み、カメラで撮像した顔の画像から、被験者がモニタ画面などの観察面上で注視している位置を検出する視線検出装置が提案されている。当初は被験者の頭部を固定したり、頭部に検出装置を取り付ける技術が多かった。最近は被験者の負担を軽減するために、頭部に装置等を取り付けることが不要な非接触タイプが開発され、さらに精度の高い視線検出装置が求められている。非接触タイプの視線検出装置では、カメラ画像上の瞳孔と角膜反射の位置関係によって視線検出を行う。このため、カメラ画像上の瞳孔中心座標と角膜反射中心座標とを正確に求めることが重要である。
特許文献1は、角膜反射によって瞳孔の大部分が隠されてしまっている場合でも、角膜反射像の情報を積極的に利用することにより、瞳孔を安定して検出することができる技術を提案している。
瞳孔の輪郭は本来円形であるが、角膜反射に遮られて一部が欠損した画像となる場合がある。このように瞳孔の一部が欠損している画像に対しても、高精度に瞳孔中心を検出できることが望ましい。
本発明は、上記に鑑みてなされたものであって、瞳孔の一部が欠損した画像等に対しても、より高精度に瞳孔を検出できる瞳孔検出装置、および瞳孔検出方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、目を撮像した画像から、瞳孔領域を特定する特定部と、前記特定部によって特定された前記瞳孔領域の輪郭を抽出する抽出部と、前記抽出部によって抽出された前記瞳孔領域の輪郭上の複数の点を選択する選択部と、前記選択部によって選択された複数の前記点を通る円の中心を算出する中心算出部と、前記中心算出部によって算出された前記円の中心から前記瞳孔領域の中心を検出する瞳孔検出部と、を備える。
本発明にかかる瞳孔検出装置、および瞳孔検出方法は、瞳孔の一部が欠損した画像等に対しても、より高精度に瞳孔を検出できるという効果を奏する。
以下に、本発明にかかる瞳孔検出装置および瞳孔検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に瞳孔検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
本実施形態の瞳孔検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の瞳孔検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
図1および2は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。
図1に示すように、本実施形態の診断支援装置は、表示部101と、ステレオカメラ102と、LED光源103と、を含む。ステレオカメラ102は、表示部101の下に配置される。LED光源103は、ステレオカメラ102に含まれる2つのカメラの中心位置に配置される。LED光源103は、例えば波長850nmの近赤外線を照射する光源である。図1では、9個のLEDによりLED光源103(照明部)を構成する例が示されている。なお、ステレオカメラ102は、波長850nmの近赤外光を透過できるレンズを使用する。
図2に示すように、ステレオカメラ102は、右カメラ202と左カメラ203とを備えている。LED光源103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ202、左カメラ203)それぞれで取得することができる。
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図3は、診断支援装置100の機能の概要を示す図である。図3では、図1および2に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図3に示すように、診断支援装置100は、右カメラ202と、左カメラ203と、LED光源103と、スピーカ205と、駆動・IF(interface)部313と、制御部300と、記憶部150と、表示部101と、を含む。図3において、表示画面201は、右カメラ202および左カメラ203との位置関係を分かりやすく示しているが、表示画面201は表示部101において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ205は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部313は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部313は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
制御部300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部101に表示する画像等を記憶する。表示部101は、診断のための対象画像等、各種情報を表示する。
図4は、図3に示す各部の詳細な機能の一例を示すブロック図である。図4に示すように、制御部300には、表示部101と、駆動・IF部313が接続される。駆動・IF部313は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部313には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ203が接続される。駆動・IF部313がこれらのカメラを駆動することにより、被験者を撮像する。
スピーカ駆動部322は、スピーカ205を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
制御部300は、診断支援装置100全体を制御する。制御部300は、特定部351と、抽出部352と、選択部353と、円中心算出部354と、瞳孔検出部355と、角膜反射検出部356と、曲率中心算出部357と、視線検出部358と、視点検出部359と、出力制御部360と、評価部361と、を備えている。なお、瞳孔検出装置としては、少なくとも特定部351、抽出部352、選択部353、円中心算出部354、および、瞳孔検出部355が備えられていればよい。
制御部300に含まれる各要素(特定部351、抽出部352、選択部353、円中心算出部354、瞳孔検出部355、角膜反射検出部356、曲率中心算出部357、視線検出部358、視点検出部359、出力制御部360、および、評価部361)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
特定部351は、ステレオカメラ102により撮像された眼球の画像から、瞳孔領域を特定する。抽出部352は、特定部351によって特定された瞳孔領域の輪郭を抽出する。選択部353は、抽出部352によって抽出された瞳孔領域の輪郭上の複数の点を選択する。円中心算出部354は、選択部353によって選択された複数の点を通る円の中心を算出する。瞳孔検出部355は、円中心算出部354によって算出された円の中心に基づき瞳孔領域の中心を検出する。すなわち、瞳孔検出部355は、瞳孔の中心を示す瞳孔中心の位置(第1位置)を検出する。角膜反射検出部356は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。瞳孔検出部355および角膜反射検出部356が、瞳孔の中心を示す第1位置と、角膜反射の中心を示す第2位置と、を検出する位置検出部に相当する。
曲率中心算出部357は、LED光源103と角膜反射中心とを結ぶ直線(第1直線)から、角膜曲率中心(第4位置)を算出する。例えば、曲率中心算出部357は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、曲率中心算出部357が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、曲率中心算出部357は、まず目標位置(第3位置)を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線(第2直線)と、角膜反射中心とLED光源103とを結ぶ直線(第1直線)と、の交点を算出する。そして曲率中心算出部357は、瞳孔中心と算出した交点との距離(第1距離)を算出し、例えば記憶部150に記憶する。
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面201の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部360が、表示画面201上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
なお、目標位置は表示画面201の中央に限られるものではなく、任意の位置でよい。表示画面201の中央を目標位置とすれば、表示画面201の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、曲率中心算出部357は、LED光源103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。曲率中心算出部357が、LED光源103の位置と、表示部上の目標画像を示す所定の位置(第3位置)と、瞳孔中心の位置と、角膜反射中心の位置と、から角膜曲率中心(第4位置)を算出する算出部に相当する。
視線検出部358は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部358は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
視点検出部359は、検出された視線方向を用いて被験者の視点を検出する。視点検出部359は、例えば、表示画面201で被験者が注視する点である視点(注視点)を検出する。視点検出部359は、例えば図2のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
出力制御部360は、表示部101およびスピーカ205などに対する各種情報の出力を制御する。例えば、出力制御部360は、表示部101上の目標位置に目標画像を出力させる。また、出力制御部360は、診断画像、および、評価部361による評価結果などの表示部101に対する出力を制御する。
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
評価部361は、診断画像と、視点検出部359により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部361は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
図5は、本実施形態の診断支援装置100により実行される処理の概要を説明する図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。
瞳孔中心407および角膜反射中心408は、それぞれ、LED光源103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。
図6は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。
方法Aは、LED光源103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。
これに対し、本実施形態では、LED光源103を照射したときの、角膜反射中心522とLED光源103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。
しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。
図7は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ202、左カメラ203)と制御部300とが接続することについては図示せず省略する。
目標位置605は、表示部101上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示部101の画面の中央位置としている。直線613は、LED光源103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。曲率中心算出部357は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図8は、本実施形態の算出処理の一例を示すフローチャートである。
まず出力制御部360は、表示部101の画面上の1点に目標画像を再生し(ステップS101)、被験者にその1点を注視させる。次に、制御部300は、LED駆動制御部316を用いてLED光源103を被験者の目に向けて点灯させる(ステップS102)。制御部300は、左右カメラ(右カメラ202、左カメラ203)で被験者の目を撮像する(ステップS103)。
LED光源103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。暗瞳孔を検出する瞳孔検出処理は、特定部351、抽出部352、選択部353、円中心算出部354、および、瞳孔検出部355によって実行される。瞳孔検出部355は、例えば検出した瞳孔中心の位置を示す座標を算出する。瞳孔検出処理の詳細は後述する。角膜反射検出部356は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。角膜反射検出部356は、例えば目を含む一定領域の中で最も明るい部分を含む所定の明るさ以上の領域を角膜反射として検出する。なお、瞳孔検出部355および角膜反射検出部356は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS104)。
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
瞳孔検出部355および角膜反射検出部356は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS105)。曲率中心算出部357は、求めた角膜反射中心の世界座標と、LED光源103の中心位置の世界座標とを結ぶ直線を求める(ステップS106)。次に、曲率中心算出部357は、表示部101の画面上の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS107)。曲率中心算出部357は、ステップS106で算出した直線とステップS107で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS108)。曲率中心算出部357は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS109)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
算出処理で表示部101上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部101内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
図9は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示部101の画面上の注視点は、注視点805から注視点806に補正される。
図10は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図10の視線検出処理を実行することができる。診断処理では、図10の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部361による評価処理などが実行される。
ステップS201〜ステップS205は、図8のステップS102〜ステップS106と同様であるため説明を省略する。
曲率中心算出部357は、ステップS205で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS206)。
視線検出部358は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS207)。このベクトルが、被験者が見ている視線方向を示している。視点検出部359は、この視線方向と表示部101の画面との交点の三次元世界座標値を算出する(ステップS208)。この値が、被験者が注視する表示部101上の1点を世界座標で表した座標値である。視点検出部359は、求めた三次元世界座標値を、表示部101の二次元座標系で表される座標値(x,y)に変換する(ステップS209)。これにより、被験者が見つめる表示部101上の視点(注視点)を算出することができる。
(変形例1)
変形例1の瞳孔検出装置(診断支援装置)は、2ヵ所に設置された照明部を用いて視線を検出する。
変形例1の瞳孔検出装置(診断支援装置)は、2ヵ所に設置された照明部を用いて視線を検出する。
視点検出を精度よく行うためには、瞳孔位置を正しく検出できることが重要となっている。近赤外の光源を点灯させカメラで撮影した場合、カメラと光源の距離が一定以上離れていると、瞳孔は他の部分より暗くなることがわかっている。この特徴を用いて瞳孔位置が検出される。
上記実施形態では、装置を簡略化するために、2つの光源ではなく1つの光源を用いている。このような構成では、被験者によっては、カメラと光源の距離が十分でないことに起因して瞳孔が十分に暗くならず虹彩と区別がつかなくなる場合が生じうる。
また波長が異なりより吸光性の高い近赤外光源を使用することで、瞳孔を暗くすることが可能ではある。しかし、この波長に対するカメラの感度が低く画像処理精度が悪化することがわかっていた。
そこで本変形例では、2台のカメラに対して、光源をそれぞれのカメラの外側に2ヶ所配置する。そして、これらの2つの光源を相互に異なるタイミングで点灯させ、点灯している光源からの距離が長い方(遠い方)のカメラで撮影する。これにより、瞳孔をより暗く撮影し、瞳孔と他の部分とを、より高精度に区別することが可能となる。
この場合、点灯させる光源が異なるため、通常のステレオ方式による三次元計測を単純に適用することができない。すなわち、視点を求める際の光源と角膜反射を結ぶ直線を世界座標で算出することができない。そこで本変形例では、2つのタイミングでの、撮像に用いるカメラ相互の位置関係、および、点灯させる光源相互の位置関係を、仮想的な光源の位置(仮想光源位置)に対してそれぞれ対称とする。そして、2つの光源それぞれの点灯時に得られる2つの座標値を、左カメラによる座標値および右カメラによる座標値として世界座標に変換する。これにより、2つの光源それぞれの点灯時に得られる角膜反射位置を用いて、仮想光源と角膜反射を結ぶ直線を世界座標で算出すること、および、この直線に基づき視点を算出することが可能となる。
図11は、1つの光源を使用した場合の被験者の目11の様子を示す図である。図11に示すように、虹彩12と瞳孔13との暗さの差が十分ではなく、区別が困難となる。図12は、2つの光源を使用した場合の被験者の目21の様子を示す図である。図12に示すように、虹彩22と瞳孔23との暗さの差は、図11と比較して大きくなっている。
以下、図13〜図20を用いて本変形例について説明する。上記実施形態と同様の構成については同一の符号を付し、説明を省略する場合がある。
図13および14は、本変形例の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。
図13に示すように、本変形例の診断支援装置は、表示部101と、ステレオカメラを構成する右カメラ202、左カメラ203と、LED光源103a、103bと、を含む。右カメラ202、左カメラ203は、表示部101の下に配置される。LED光源103a、103bは、右カメラ202、左カメラ203それぞれの外側の位置に配置される。LED光源103a、103bは、例えば波長850nmの近赤外線を照射する光源である。図13では、9個のLEDによりLED光源103a、103b(照明部)を構成する例が示されている。なお、右カメラ202、左カメラ203は、波長850nmの近赤外光を透過できるレンズを使用する。なお、LED光源103a、103bと、右カメラ202、左カメラ203との位置を逆にして、LED光源103a、103bを、右カメラ202、左カメラ203それぞれの内側の位置に配置されていてもよい。
図14に示すように、LED光源103a、103bは、被験者の眼球111に向かって近赤外光を照射する。LED光源103aを照射したときに左カメラ203で撮影を行い、LED光源103bを照射したときに右カメラ202で撮影を行う。右カメラ202および左カメラ203と、LED光源103a、103bとの位置関係を適切に設定することにより、撮影される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ202、左カメラ203)それぞれで取得することができる。
図15は、診断支援装置100−2の機能の概要を示す図である。図15では、図13および14に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図15に示すように、診断支援装置100−2は、右カメラ202と、左カメラ203と、左カメラ203用のLED光源103aと、右カメラ202用のLED光源103bと、スピーカ205と、駆動・IF(interface)部313と、制御部300−2と、記憶部150と、表示部101と、を含む。
図16は、図15に示す各部の詳細な機能の一例を示すブロック図である。図16に示すように、制御部300−2には、表示部101と、駆動・IF部313が接続される。
右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ203とLED駆動制御部316とに入力される。これにより、LED光源103a、103bを発光させ、それに対応して左右カメラ202による画像を取り込んでいる。
制御部300−2は、診断支援装置100−2全体を制御する。制御部300−2は、特定部351と、抽出部352と、選択部353と、円中心算出部354と、瞳孔検出部355と、角膜反射検出部356と、曲率中心算出部357−2と、視線検出部358と、視点検出部359と、出力制御部360と、評価部361と、点灯制御部362−2と、を備えている。
制御部300−2に含まれる各要素(特定部351、抽出部352、選択部353、円中心算出部354、瞳孔検出部355、角膜反射検出部356、曲率中心算出部357−2、視線検出部358、視点検出部359、出力制御部360、評価部361、および、点灯制御部362−2)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
本変形例では、点灯制御部362−2を追加したこと、および、曲率中心算出部357−2の機能が、上記実施形態と異なっている。
点灯制御部362−2は、LED駆動制御部316を用いて、LED光源103a、103bの点灯を制御する。例えば点灯制御部362−2は、LED光源103a、103bを、相互に異なるタイミングで点灯するように制御する。タイミングの差(時間)は、例えば、被験者の視線の移動等による視線検出結果への影響が生じない時間として予め定められた時間とすればよい。
曲率中心算出部357−2は、仮想光源位置と角膜反射中心とを結ぶ直線(第1直線)から、角膜曲率中心(第4位置)を算出する。例えば、曲率中心算出部357−2は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
上記実施形態と同様に、曲率中心算出部357−2が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、曲率中心算出部357−2は、まず目標位置(第3位置)を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線(第2直線)と、角膜反射中心と仮想光源位置とを結ぶ直線(第1直線)と、の交点を算出する。そして曲率中心算出部357−2は、瞳孔中心と算出した交点との距離(第1距離)を算出し、例えば記憶部150に記憶する。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、曲率中心算出部357−2は、仮想光源位置と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。
図17は、本変形例の診断支援装置100−2により実行される処理の概要を説明する図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。
角膜反射点621は左カメラ203で撮影したときの画像上の角膜反射点を表す。角膜反射点622は右カメラ202で撮影したときの画像上の角膜反射点を表す。本変形例では、右カメラ202と右カメラ用のLED光源103b、および、左カメラ203と左カメラ用のLED光源103aは、例えば右カメラ202と左カメラ203の中間位置を通る直線に対して左右対称の位置関係にある。このため、右カメラ202と左カメラ203の中間位置(仮想光源位置)に仮想光源303があるとみなすことができる。角膜反射点624は、仮想光源303に対応する角膜反射点を表す。角膜反射点621の座標値と角膜反射点622の座標値を、左右カメラの座標値を三次元世界座標に変換する変換パラメータを用いて変換することにより、角膜反射点624の世界座標値が算出できる。仮想光源303と角膜反射点624を結ぶ直線523−2上に角膜の曲率中心505が存在する。従って、図6で表した光源が1ヵ所の視線検出方法と同等の方法で視点検出が可能である。
なお右カメラ202と左カメラ203との位置関係、および、LED光源103aとLED光源103bとの位置関係は、上述の位置関係に限られるものではない。例えば同一の直線に対して、それぞれの位置関係が左右対称となる関係であってもよいし、右カメラ202と左カメラ203と、LED光源103aとLED光源103bとは同一直線上になくてもよい。
図18は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。
目標位置605は、表示部101上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本変形例では表示部101の画面の中央位置としている。直線613−2は、仮想光源303と角膜反射中心612とを結ぶ直線である。
図19は、本変形例の算出処理の一例を示すフローチャートである。
まず出力制御部360は、表示部101の画面上の1点に目標画像を再生し(ステップS301)、被験者にその1点を注視させる。次に、点灯制御部362−2は、LED駆動制御部316を用いてLED光源103a、103bのうち一方を被験者の目に向けて点灯させる(ステップS302)。制御部300−2は、左右カメラ(右カメラ202、左カメラ203)のうち点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像する(ステップS303)。次に、点灯制御部362−2は、LED光源103a、103bのうち他方を被験者の目に向けて点灯させる(ステップS304)。制御部300−2は、左右カメラのうち点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像する(ステップS305)。
なお、点灯したLED光源からの距離が長いカメラ以外のカメラによる撮像を停止しなくてもよい。すなわち、少なくとも点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像し、撮像した画像が座標算出等に利用可能となっていればよい。
LED光源103aまたはLED光源103bの照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、瞳孔検出部355は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。瞳孔検出部355は、例えば目を含む一定領域の中で最も暗い部分を含む所定の明るさ以下の領域を瞳孔部分として検出する。また、角膜反射検出部356は、例えば目を含む一定領域の中で最も明るい部分を含む所定の明るさ以上の領域を角膜反射として検出する。また、角膜反射検出部356は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、瞳孔検出部355および角膜反射検出部356は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS306)。
瞳孔検出部355および角膜反射検出部356は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS307)。例えば瞳孔検出部355および角膜反射検出部356は、LED光源103aが点灯されたときに左カメラ203により撮像された画像から得られた座標を左カメラ203の座標とし、LED光源103bが点灯されたときに右カメラ202により撮像された画像から得られた座標を右カメラ202の座標として、変換パラメータを用いて三次元世界座標への変換を行う。この結果得られる世界座標値は、仮想光源303から光が照射されたと仮定したときに左右カメラで撮像された画像から得られる世界座標値に対応する。曲率中心算出部357−2は、求めた角膜反射中心の世界座標と、仮想光源303の中心位置の世界座標とを結ぶ直線を求める(ステップS308)。次に、曲率中心算出部357−2は、表示部101の画面上の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS309)。曲率中心算出部357−2は、ステップS308で算出した直線とステップS309で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS310)。曲率中心算出部357−2は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS311)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法は、上記実施形態で説明した図9と同様の方法を適用できる。
図20は、本変形例の視線検出処理の一例を示すフローチャートである。
ステップS401〜ステップS407は、図19のステップS302〜ステップS308と同様であるため説明を省略する。また、ステップS408〜ステップS411は、図10のステップS206〜ステップS209と同様であるため説明を省略する。
(変形例2)
瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理は、図7および図8で説明した方法に限られるものではない。以下では、算出処理の他の例について図21および図22を用いて説明する。
瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理は、図7および図8で説明した方法に限られるものではない。以下では、算出処理の他の例について図21および図22を用いて説明する。
図21は、本変形例の算出処理を説明するための図である。図1〜図4および図7で説明した要素については同一の符号を付し説明を省略する。
線分1101は、目標位置605とLED光源103とを結ぶ線分(第1線分)である。線分1102は、線分1101と平行で、瞳孔中心611と直線613とを結ぶ線分(第2線分)である。本変形例では、以下のように、線分1101、線分1102を用いて瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図22は、本変形例の算出処理の一例を示すフローチャートである。
ステップS501〜ステップS507は、図8のステップS101〜ステップS107と同様であるため説明を省略する。
曲率中心算出部357は、表示部101の画面上の1点に表示される目標画像の中心と、LED光源103の中心とを結ぶ線分(図21では線分1101)を算出するとともに、算出した線分の長さ(L1101とする)を算出する(ステップS508)。
曲率中心算出部357は、瞳孔中心611を通り、ステップS308で算出した線分と平行な線分(図21では線分1102)を算出するとともに、算出した線分の長さ(L1102とする)を算出する(ステップS509)。
曲率中心算出部357は、角膜曲率中心615を頂点とし、ステップS508で算出した線分を下辺とする三角形と、角膜曲率中心615を頂点とし、ステップS509で算出した線分を下辺とする三角形とが相似関係にあることに基づき、瞳孔中心611と角膜曲率中心615との間の距離616を算出する(ステップS510)。例えば曲率中心算出部357は、線分1101の長さに対する線分1102の長さの比率と、目標位置605と角膜曲率中心615との間の距離に対する距離616の比率と、が等しくなるように、距離616を算出する。
距離616は、以下の(A)式により算出することができる。なおL614は、目標位置605から瞳孔中心611までの距離である。
距離616=(L614×L1102)/(L1101−L1102)・・・(A)
距離616=(L614×L1102)/(L1101−L1102)・・・(A)
曲率中心算出部357は、算出した距離616を記憶部150などに記憶する(ステップS511)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
変形例2の処理は、LED光源103を仮想光源303に置き換えることにより、変形例1にも適用できる。
以下では、瞳孔検出処理の具体例を図23〜図36を用いて説明する。
図23は、ステレオカメラ102により撮像された撮像画像の一例を示す図である。図23の撮像画像は被験者の顔を撮像した画像の例であり、目領域1301を含む。図24は、図23の撮像画像から目領域1301を切り出した目画像の例を示す図である。図24に示すように、目画像は、瞳孔1401と、虹彩1402と、角膜反射1403と、を含む。
一般的に瞳孔1401は虹彩1402に比べて暗く、また角膜反射1403よりも暗い。図25は、この輝度差を利用して瞳孔の輪郭(円周)を抽出した例を示す図である。瞳孔の輪郭は本来円形であるはずだが、図25の輪郭1501のように角膜反射1403に遮られて一部が欠損している場合が多い。また、輪郭1501が、髪の毛や瞼などの影響で欠損している場合もある。
本実施形態では、このように瞳孔の一部が欠損している画像に対してできる限り正確な瞳孔中心を求めることを可能とする。図26は、本実施形態の瞳孔検出処理の一例を示すフローチャートである。
特定部351は、撮像画像から目領域を切り出す(ステップS601)。なお目を画像全体に撮像した撮像画像などの場合は、切り出す処理を省略してもよい。特定部351は、目領域内のピクセル輝度から瞳孔領域を特定する。特定部351は、例えば目を含む一定領域の中で最も暗い領域を含む所定の明るさ以下の領域を瞳孔領域として特定する。抽出部352は、特定された瞳孔領域の輪郭を抽出する(ステップS602)。図27は、抽出された瞳孔の輪郭1601の例を示す図である。図27に示すように、瞳孔の輪郭1601は、角膜反射領域1602の影響により欠損する場合がある。
選択部353は、処理回数のカウンタであるnを0に初期化する(ステップS603)。選択部353は、処理回数nに1を加算する(ステップS604)。選択部353は、瞳孔の輪郭上の複数の点を選択する(ステップS605)。図28は、選択された点1702の例を示す図である。点の選択方法はどのような方法であってもよいが、例えば、輪郭上の任意の3点をランダムに選択する方法を適用できる。
円中心算出部354は、選択された複数の点を通る円の中心を算出する(ステップS606)。選択された点を通る円の算出方法、および、円の中心の算出方法はどのような方法であってもよい。選択部353が3点を選択する方法を適用する場合は、円中心算出部354は、以下のような算出式により円の中心を算出できる。
選択された3点の座標を(x1,y1)、(x2,y2)、(x3,y3)と仮定する。この3点を通る円の中心座標(x,y)は以下の(1)式〜(6)式で求めることができる。
d1=x1×x1+y1×y1 ・・・(1)
d2=x2×x2+y2×y2 ・・・(2)
d3=x3×x3+y3×y3 ・・・(3)
u=0.5/(x1×y2−x2×y1+
x2×y3−x3×y2+
x3×y1−x1×y3) ・・・(4)
x=u×(d1×y2−d2×y1+
d2×y3−d3×y2+
d3×y1−d1×y3) ・・・(5)
y=u×(x1×d2−x2×d1+
x2×d3−x3×d2+
x3×d1−x1×d3) ・・・(6)
d1=x1×x1+y1×y1 ・・・(1)
d2=x2×x2+y2×y2 ・・・(2)
d3=x3×x3+y3×y3 ・・・(3)
u=0.5/(x1×y2−x2×y1+
x2×y3−x3×y2+
x3×y1−x1×y3) ・・・(4)
x=u×(d1×y2−d2×y1+
d2×y3−d3×y2+
d3×y1−d1×y3) ・・・(5)
y=u×(x1×d2−x2×d1+
x2×d3−x3×d2+
x3×d1−x1×d3) ・・・(6)
図29は、図28の3点を通る円の中心座標1802を求めた例を示す図である。この場合は、1点が角膜反射によって欠損した部分に存在しているために本来の瞳孔中心に対してずれが生じている。
図30は、図28とは異なる3点(点1902)が選択された例を示す図である。図31は、図30の3点を通る円の中心座標2002を求めた例を示す図である。図30の例では、いずれの点も瞳孔の欠損部分にかかっていない。このため、中心座標2002は図31のように本来の瞳孔中心に近い位置となる。
図32は、このような瞳孔の輪郭上のランダムな3点を選択して処理を繰り返し行い、多くの円の中心座標を求めた結果を模式的に表した図である。図32では黒い点それぞれが、求められた中心座標を示す。
図33は、実際の画像に対して1000回の計算を行い求められた中心座標の例を示す図である。図33では白い点それぞれが、求められた中心座標を示す。図34および図35は、それぞれ中心座標のXおよびY方向の成分(X座標,Y座標)の度数分布の例を示す図である。得られた中心座標のX方向の成分は、図34のように本来の瞳孔中心のX座標2301をピークとした分布となる。また同様に、Y方向の成分は、図35のような本来の瞳孔中心のY座標2401をピークとした分布となる。
このように、選択部353による点の選択処理、および、円中心算出部354による算出処理を、複数回(N回(Nは2以上の整数))実行してもよい。図26は、N=1000の場合の例を示している。すなわち、選択部353は、処理回数nが1000以上であるか否かを判断する(ステップS607)。処理回数nが1000未満の場合(ステップS607:No)、ステップS604に戻り処理を繰り返す。
処理回数nが1000以上の場合(ステップS607:Yes)、瞳孔検出部355は、算出された中心座標の値に基づき、瞳孔領域の中心を検出する。例えば、N回の算出処理によりN個の中心座標の値が算出された場合、瞳孔検出部355は、複数の中心座標それぞれのX座標およびY座標を平均化することにより、瞳孔領域の中心の座標値を検出する。瞳孔検出部355は、例えば、以下の(7)式により、瞳孔領域のX座標の値を算出する(ステップS608)。また、瞳孔検出部355は、以下の(8)式により、瞳孔領域のY座標の値を算出する(ステップS609)。XiおよびYiは、それぞれi番目(iは1≦i≦Nを満たす整数)の円の中心座標のX座標値およびY座標値を表す。
瞳孔検出部355は、複数の中心座標の値のうち、基準位置から所定範囲内に含まれる複数の中心座標の値を対象として平均化を行ってもよい。基準位置から所定範囲内とは、例えば、X座標およびY座標それぞれの中央値(基準位置)に対する差分が所定範囲内であることを示す。基準位置は中央値に限られるものではなく、例えば度数が最大となる座標値であってもよい。
図36は、このような処理により得られた瞳孔中心2502の一例を示す図である。図36に示すように、瞳孔の一部が欠損している画像に対しても瞳孔中心に極めて近い座標を安定して得ることが可能になる。
選択部353による点の選択は、以下のような方法で実現してもよい。図37は、各点がピクセルで表された瞳孔領域の輪郭の例を示す図である。図37に示すように、コンピュータ上の画像では、輪郭上の座標は、ピクセル(整数)単位で表される。輪郭上のそれぞれの座標が、(x1,y1)、(x2,y2)、(x3,y3)、・・・、(xm,ym)のように表される場合、選択部353は、例えば乱数で「1〜m」の中から3つの数字を選択することで(ピクセル)座標を選択する。図38は、選択された点2801の例を示す図である。
選択部353は、以下の場合を除外して選択してもよい。すなわち、選択部353は、例えば選択した3点が以下の条件に該当する場合に、選択処理をやり直してもよい。
(C1)選択した3点が同一の直線上に存在する場合(実際の画像ではノイズや誤差の影響により、選択した3点が同一の直線上に存在する可能性が0ではないため除外する)
(C2)3点から求められる円の半径値が他の円と大きく異なる場合(円の中心もずれている可能性が高いので除外する)
(C1)選択した3点が同一の直線上に存在する場合(実際の画像ではノイズや誤差の影響により、選択した3点が同一の直線上に存在する可能性が0ではないため除外する)
(C2)3点から求められる円の半径値が他の円と大きく異なる場合(円の中心もずれている可能性が高いので除外する)
上記(C2)で「大きく異なる」とは、例えば以下のように判断する。まず選択部353は、全ての円の半径値の標準偏差σを求める。選択部353は、半径値のヒストグラムのピーク値から例えば±0.5σの範囲を超える半径値を、大きく異なる半径値と判断し、選択の対象から除外する。閾値である±0.5σは一例であり、これに限られるものではない。なおこの例ではピーク値が上述の基準位置に相当し、±0.5σの範囲が上述の所定範囲に相当する。
このように、本実施形態では、瞳孔の一部が欠損している画像に対しても瞳孔の輪郭上の異なる3点から瞳孔中心に近い座標を繰り返し求め、これを平均化するなどの方法で、精度良く瞳孔中心を求めることが可能となる。
(変形例3)
上記の方法では、図27のように角膜反射領域が瞳孔円周内に入り、ランダムに選択した任意の点がこの領域に存在した場合(例えば図28)に、瞳孔中心の誤差が大きくなる。そこで、本変形例では、瞳孔の輪郭を抽出した後に、瞳孔の輪郭のうち誤差の原因となりうる部分を削除する処理を行う。
上記の方法では、図27のように角膜反射領域が瞳孔円周内に入り、ランダムに選択した任意の点がこの領域に存在した場合(例えば図28)に、瞳孔中心の誤差が大きくなる。そこで、本変形例では、瞳孔の輪郭を抽出した後に、瞳孔の輪郭のうち誤差の原因となりうる部分を削除する処理を行う。
図39は、本変形例の瞳孔検出処理の一例を示すフローチャートである。ステップS701、ステップS702は、図26のステップS601、ステップS602と同様であるため説明を省略する。
本変形例では、抽出部352は、抽出された瞳孔の輪郭から、誤差の原因となりうる所定の部分を削除する。例えば、角膜反射中心から一定範囲の領域内の部分、および、瞬きなどに起因して瞼によって隠されることにより生じた輪郭の部分などが、誤差の原因となりうる。図39では、角膜反射中心から一定範囲の領域内の部分を削除する場合を例に説明する。
抽出部352は、撮像画像から角膜反射の中心座標を求める(ステップS703)。例えば抽出部352は、角膜反射検出部356と同様の方法により、角膜反射領域を検出し、検出した角膜反射領域の中心座標を求める。図40は、検出される角膜反射領域2902の例を示す図である。
抽出部352の代わりに角膜反射検出部356が本ステップの処理を実行してもよい。また抽出部352が角膜反射検出部356と異なる方法により角膜反射領域および角膜反射領域の中心座標を求めてもよい。
抽出部352は、角膜反射の中心座標から一定範囲内の瞳孔の輪郭を、ステップS703で抽出した瞳孔の輪郭から削除する(ステップS704)。図41は、削除後の瞳孔の輪郭3101の例を示す図である。
その後のステップS705〜ステップS711は、図26のステップS603〜ステップS609と同様であるため説明を省略する。
例えばステップS709では、選択部353による点の選択処理、および、円中心算出部354による算出処理を、複数回(N回(Nは2以上の整数))実行しているが(図39は、N=1000の場合の例を示している)、実際の瞳孔の輪郭の画像は凹凸があり、完全な円周ではないため複数回実行している。
例えばステップS707では、削除後の瞳孔の輪郭上から任意の3点がランダムに選択される。図42は、削除後の瞳孔の輪郭3101から選択された点3202の例を示す図である。
図43は、瞼によって瞳孔の一部が隠れている例を説明する図である。瞳孔の輪郭3301は、この例で抽出された瞳孔の輪郭を表す。領域3302は、瞼によって隠されたことにより生じた輪郭の部分を含む領域を表す。抽出部352が、このような領域を検出し、この領域内の輪郭を削除してもよい。例えば領域3302は、抽出された瞳孔の輪郭のうち、円周を構成しない線状(直線状など)の部分を含む領域として検出できる。領域3302を検出せずに、線状の部分を検出し、検出した線状の部分を瞳孔の輪郭から削除してもよい。なお、瞳孔の輪郭のうち誤差の原因となりうる所定の部分を検出する方法は上記に限られるものではない。
図44は、図43の瞳孔の輪郭3301から、領域3302に含まれる部分を削除した後の瞳孔の輪郭3401の例を示す図である。誤差の原因となりうる所定の部分を削除することにより、検出の精度をより向上させることが可能となる。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)瞳孔の一部が角膜反射や瞼などによって欠損している画像に対しても瞳孔中心座標を安定して得ることができる。
(2)1ヶ所の光源(照明部)により視線検出を行うことが可能となる。
(3)光源を1ヵ所にすることで、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
(4)2ヶ所の光源(2つの光源)を使う場合は、2つの光源のうち、2台のカメラからそれぞれ遠い光源を点灯させたときの画像を撮影し使用することにより、瞳孔だけをより暗く撮影でき、瞳孔検出精度、および視線検出精度を向上させることができる。
(5)2つの光源のうち、それぞれカメラから遠い1つの光源を使用するため、従来の方法に比べ2つの光源の位置を離す必要がなくコンパクトにすることが可能である。
(1)瞳孔の一部が角膜反射や瞼などによって欠損している画像に対しても瞳孔中心座標を安定して得ることができる。
(2)1ヶ所の光源(照明部)により視線検出を行うことが可能となる。
(3)光源を1ヵ所にすることで、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
(4)2ヶ所の光源(2つの光源)を使う場合は、2つの光源のうち、2台のカメラからそれぞれ遠い光源を点灯させたときの画像を撮影し使用することにより、瞳孔だけをより暗く撮影でき、瞳孔検出精度、および視線検出精度を向上させることができる。
(5)2つの光源のうち、それぞれカメラから遠い1つの光源を使用するため、従来の方法に比べ2つの光源の位置を離す必要がなくコンパクトにすることが可能である。
100、100−2 診断支援装置
101 表示部
102 ステレオカメラ
103 LED光源
150 記憶部
201 表示画面
202 右カメラ
203 左カメラ
205 スピーカ
300、300−2 制御部
313 駆動・IF部
316 LED駆動制御部
322 スピーカ駆動部
351 特定部
352 抽出部
353 選択部
354 円中心算出部
355 瞳孔検出部
356 角膜反射検出部
357、357−2 曲率中心算出部
358 視線検出部
359 視点検出部
360 出力制御部
361 評価部
362−2 点灯制御部
101 表示部
102 ステレオカメラ
103 LED光源
150 記憶部
201 表示画面
202 右カメラ
203 左カメラ
205 スピーカ
300、300−2 制御部
313 駆動・IF部
316 LED駆動制御部
322 スピーカ駆動部
351 特定部
352 抽出部
353 選択部
354 円中心算出部
355 瞳孔検出部
356 角膜反射検出部
357、357−2 曲率中心算出部
358 視線検出部
359 視点検出部
360 出力制御部
361 評価部
362−2 点灯制御部
Claims (7)
- 目を撮像した画像から、瞳孔領域を特定する特定部と、
前記特定部によって特定された前記瞳孔領域の輪郭を抽出する抽出部と、
前記抽出部によって抽出された前記瞳孔領域の輪郭上の複数の点を選択する選択部と、
前記選択部によって選択された複数の前記点を通る円の中心を算出する中心算出部と、
前記中心算出部によって算出された前記円の中心から前記瞳孔領域の中心を検出する瞳孔検出部と、
を備える瞳孔検出装置。 - 前記選択部は、前記抽出部によって抽出された前記瞳孔領域の輪郭上の複数の点を、ランダムに選択する、
請求項1に記載の瞳孔検出装置。 - 前記選択部は、複数の前記点を選択する選択処理をN回(Nは2以上の整数)実行し、
前記中心算出部は、前記選択処理により選択された複数の前記点を通る円の中心を算出する算出処理をN回実行する、
請求項1または2に記載の瞳孔検出装置。 - 前記瞳孔検出部は、N回の前記算出処理によって算出された複数の前記円の中心を平均することにより、前記瞳孔領域の中心を検出する、
請求項3に記載の瞳孔検出装置。 - 前記瞳孔検出部は、N回の前記算出処理によって算出されたN個の前記円の中心のうち、所定範囲内に含まれる複数の前記円の中心を平均することにより、前記瞳孔領域の中心を検出する、
請求項4に記載の瞳孔検出装置。 - 前記抽出部は、抽出した前記瞳孔領域の輪郭から所定の部分を削除し、
前記選択部は、前記所定の部分が削除された前記瞳孔領域の輪郭上の複数の点を選択する、
請求項1から5のいずれか1項に記載の瞳孔検出装置。 - 目を撮像した画像から、瞳孔領域を特定する特定ステップと、
前記特定ステップによって特定された前記瞳孔領域の輪郭を抽出する抽出ステップと、
前記抽出ステップによって抽出された前記瞳孔領域の輪郭上の複数の点を選択する選択ステップと、
前記選択ステップによって選択された複数の前記点を通る円の中心を算出する中心算出ステップと、
前記中心算出ステップによって算出された前記円の中心から前記瞳孔領域の中心を検出する瞳孔検出ステップと、
を含む瞳孔検出方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227056A JP2016028669A (ja) | 2014-07-23 | 2014-11-07 | 瞳孔検出装置、および瞳孔検出方法 |
EP15177685.3A EP2976990B1 (en) | 2014-07-23 | 2015-07-21 | Pupil detection device and pupil detection method |
US14/806,350 US9672422B2 (en) | 2014-07-23 | 2015-07-22 | Pupil detection device and pupil detection method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014150138 | 2014-07-23 | ||
JP2014150138 | 2014-07-23 | ||
JP2014227056A JP2016028669A (ja) | 2014-07-23 | 2014-11-07 | 瞳孔検出装置、および瞳孔検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016028669A true JP2016028669A (ja) | 2016-03-03 |
Family
ID=53716391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014227056A Pending JP2016028669A (ja) | 2014-07-23 | 2014-11-07 | 瞳孔検出装置、および瞳孔検出方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9672422B2 (ja) |
EP (1) | EP2976990B1 (ja) |
JP (1) | JP2016028669A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021153615A1 (ja) * | 2020-01-30 | 2021-08-05 | 日本精機株式会社 | 視点検知システム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6201956B2 (ja) | 2014-10-24 | 2017-09-27 | 株式会社Jvcケンウッド | 視線検出装置および視線検出方法 |
EP3305176A1 (en) * | 2016-10-04 | 2018-04-11 | Essilor International | Method for determining a geometrical parameter of an eye of a subject |
JP2022131325A (ja) * | 2021-02-26 | 2022-09-07 | キヤノン株式会社 | 視線検出装置、及びその制御方法 |
CN113326733B (zh) * | 2021-04-26 | 2022-07-08 | 吉林大学 | 一种眼动点数据分类模型的构建方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002000567A (ja) * | 2000-06-23 | 2002-01-08 | Kansai Tlo Kk | 瞳孔中心位置計測方法及び視点位置検出方法 |
JP2003070742A (ja) * | 2001-08-31 | 2003-03-11 | Japan Science & Technology Corp | 視線検出装置及び視線検出方法 |
JP2010057682A (ja) * | 2008-09-03 | 2010-03-18 | Denso Corp | 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法 |
US20110267447A1 (en) * | 2009-01-22 | 2011-11-03 | Leiming Su | Image processing device, biometric authentication device, image processing method, and recording medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7416302B2 (en) * | 2001-09-14 | 2008-08-26 | Stmicroelectronics S.A. | Ring location |
JP4203279B2 (ja) * | 2002-07-26 | 2008-12-24 | 独立行政法人科学技術振興機構 | 注目判定装置 |
KR20050025927A (ko) * | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
GB0603411D0 (en) * | 2006-02-21 | 2006-03-29 | Xvista Ltd | Method of processing an image of an eye |
US8170293B2 (en) * | 2006-09-15 | 2012-05-01 | Identix Incorporated | Multimodal ocular biometric system and methods |
KR100826876B1 (ko) * | 2006-09-18 | 2008-05-06 | 한국전자통신연구원 | 홍채 검출 방법 및 이를 위한 장치 |
JP5529660B2 (ja) | 2010-07-20 | 2014-06-25 | パナソニック株式会社 | 瞳孔検出装置及び瞳孔検出方法 |
-
2014
- 2014-11-07 JP JP2014227056A patent/JP2016028669A/ja active Pending
-
2015
- 2015-07-21 EP EP15177685.3A patent/EP2976990B1/en active Active
- 2015-07-22 US US14/806,350 patent/US9672422B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002000567A (ja) * | 2000-06-23 | 2002-01-08 | Kansai Tlo Kk | 瞳孔中心位置計測方法及び視点位置検出方法 |
JP2003070742A (ja) * | 2001-08-31 | 2003-03-11 | Japan Science & Technology Corp | 視線検出装置及び視線検出方法 |
JP2010057682A (ja) * | 2008-09-03 | 2010-03-18 | Denso Corp | 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法 |
US20110267447A1 (en) * | 2009-01-22 | 2011-11-03 | Leiming Su | Image processing device, biometric authentication device, image processing method, and recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021153615A1 (ja) * | 2020-01-30 | 2021-08-05 | 日本精機株式会社 | 視点検知システム |
Also Published As
Publication number | Publication date |
---|---|
EP2976990B1 (en) | 2017-05-17 |
EP2976990A1 (en) | 2016-01-27 |
US9672422B2 (en) | 2017-06-06 |
US20160026863A1 (en) | 2016-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10722113B2 (en) | Gaze detection apparatus and gaze detection method | |
US10896324B2 (en) | Line-of-sight detection device and method for detecting line of sight | |
JP6201956B2 (ja) | 視線検出装置および視線検出方法 | |
US11023039B2 (en) | Visual line detection apparatus and visual line detection method | |
JP6210023B2 (ja) | 視線検出支援装置および視線検出支援方法 | |
JP2016028669A (ja) | 瞳孔検出装置、および瞳孔検出方法 | |
JP6900994B2 (ja) | 視線検出装置及び視線検出方法 | |
US10748301B2 (en) | Corneal reflex position detection device, eye-gaze tracking device, and corneal reflex position detection method | |
JP6380178B2 (ja) | 診断支援装置および診断支援方法 | |
JP2015177953A (ja) | 診断支援装置および診断支援方法 | |
JP6593133B2 (ja) | 診断支援装置および診断支援方法 | |
JP6693149B2 (ja) | 瞳孔検出装置、および瞳孔検出方法 | |
JP6269177B2 (ja) | 瞳孔検出装置、視線検出装置および瞳孔検出方法 | |
JP6471533B2 (ja) | 視線検出装置および視線検出方法 | |
JP6909391B2 (ja) | 視線検出装置及び視線検出方法 | |
JP2016157326A (ja) | 視線検出装置および視線検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170623 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180109 |