JP2015126850A - 瞳孔検出装置、視線検出装置および瞳孔検出方法 - Google Patents

瞳孔検出装置、視線検出装置および瞳孔検出方法 Download PDF

Info

Publication number
JP2015126850A
JP2015126850A JP2014043098A JP2014043098A JP2015126850A JP 2015126850 A JP2015126850 A JP 2015126850A JP 2014043098 A JP2014043098 A JP 2014043098A JP 2014043098 A JP2014043098 A JP 2014043098A JP 2015126850 A JP2015126850 A JP 2015126850A
Authority
JP
Japan
Prior art keywords
pupil
region
center position
unit
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014043098A
Other languages
English (en)
Other versions
JP6269177B2 (ja
Inventor
修二 箱嶋
Shuji Hakojima
修二 箱嶋
首藤 勝行
Katsuyuki Shudo
勝行 首藤
賢 二宮
Masaru Ninomiya
賢 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014043098A priority Critical patent/JP6269177B2/ja
Priority to PCT/JP2014/080682 priority patent/WO2015080003A1/ja
Publication of JP2015126850A publication Critical patent/JP2015126850A/ja
Application granted granted Critical
Publication of JP6269177B2 publication Critical patent/JP6269177B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】より少ない演算量で、より高精度に瞳孔を検出できる。【解決手段】目を撮像した画像から、瞳孔領域と角膜反射領域とを特定する特定部と、瞳孔領域に含まれる第1領域を用いて、瞳孔の中心位置を推定する第1推定部と、瞳孔領域に含まれ、第1領域とは異なる第2領域を用いて、瞳孔の中心位置を推定する第2推定部と、第1推定部により推定された瞳孔の中心位置と、第2推定部により推定された瞳孔の中心位置とに基づいて、瞳孔の中心位置を検出する瞳孔位置検出部と、を備える。【選択図】図3

Description

本発明は、瞳孔検出技術に関する。
カメラの高精度化、処理高速化、および小型化が進み、カメラで撮像した顔の画像から、被験者がモニタ画面などの観察面上で注視している位置を検出する視線検出装置が提案されている。当初は被験者の頭部を固定したり、頭部に検出装置を取り付ける技術が多かった。最近は被験者の負担を軽減するために、頭部に装置等を取り付けることが不要な非接触タイプが開発され、さらに精度の高い視線検出装置が求められている。非接触タイプの視線検出装置では、カメラ画像上の瞳孔と角膜反射の位置関係によって視線検出を行う。このため、カメラ画像上の瞳孔中心座標と角膜反射中心座標とを正確に求めることが重要である。
特許文献1は、角膜反射によって瞳孔の大部分が隠されてしまっている場合でも、角膜反射像の情報を積極的に利用することにより、瞳孔を安定して検出することができる技術を提案している。
特開2012−024154号公報
しかしながら、特許文献1の方法では、角膜反射の基準点(角膜反射画像領域の中心)が予め取得できている必要がある。このため撮像された画像から直接的に瞳孔の中心を求めることはできない。すなわち、少ない演算量で高精度に瞳孔を検出することができなかった。
本発明は、上記に鑑みてなされたものであって、より少ない演算量で、より高精度に瞳孔を検出できる瞳孔検出装置、視線検出装置および瞳孔検出方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、目を撮像した画像から、瞳孔領域と角膜反射領域とを特定する特定部と、前記瞳孔領域に含まれる第1領域を用いて、瞳孔の中心位置を推定する第1推定部と、前記瞳孔領域に含まれ、前記第1領域と異なる第2領域を用いて、瞳孔の中心位置を推定する第2推定部と、前記第1推定部により推定された瞳孔の中心位置と、前記第2推定部により推定された瞳孔の中心位置とに基づいて、瞳孔の中心位置を検出する瞳孔位置検出部と、を備える。
本発明にかかる瞳孔検出装置、視線検出装置および瞳孔検出方法は、より少ない演算量で、より高精度に瞳孔を検出できるという効果を奏する。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置を示す図である。 図2は、診断支援装置の機能の概要を示す図である。 図3は、図2に示す各部の詳細な機能を示すブロック図である。 図4は、2台のカメラを使用した場合の目および距離の検出を示す図である。 図5は、ステレオカメラにより撮像された撮像画像を示す図である。 図6は、図5の撮像画像から切り出した目画像の例を示す図である。 図7は、角膜反射領域付近の画像の輝度変化の例を示す図である。 図8は、瞳孔領域付近の画像の輝度変化の例を示す図である。 図9は、図6を模式的に表した図である。 図10は、図6を模式的に表した図である。 図11は、図6を模式的に表した図である。 図12は、図6を模式的に表した図である。 図13は、図6を模式的に表した図である。 図14は、図6を模式的に表した図である。 図15は、第1の実施形態の瞳孔検出処理を示すフローチャートである。 図16は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図17は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図18は、診断支援装置の機能の概要を示す図である。 図19は、図18に示す各部の詳細な機能の一例を示すブロック図である。 図20は、第2の実施形態の診断支援装置により実行される処理の概要を説明する図である。 図21は、2つの光源を用いる方法と、1つの光源を用いる第2の実施形態との違いを示す説明図である。 図22は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。 図23は、第2の実施形態の算出処理の一例を示すフローチャートである。 図24は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。 図25は、第2の実施形態の視線検出処理の一例を示すフローチャートである。
以下に、本発明にかかる瞳孔検出装置、視線検出装置および瞳孔検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
(第1の実施形態)
上述のように、瞳孔検出装置の利用シーンの1つとして、非接触で行う注視点検出などが知られている。具体的な手法としては、近赤外の点光源(LEDなど)を目に照射し、角膜で反射された光源像と瞳孔の位置から視線を推定する方法が存在する。この場合、注視点検出の性能は、瞳孔と角膜反射の中心座標の検出精度に大きく依存している。
第1の実施形態の瞳孔検出装置(診断支援装置)は、例えばX方向およびY方向それぞれに個別の領域を設定し、各領域の輝度重心を求めることにより目領域画像内の瞳孔中心位置を検出する。これにより、角膜反射の影響を排除して、少ない演算量で精度の高い検出が可能となる。本実施形態の瞳孔検出装置は、非接触タイプの視線検出装置などに使用できる。瞳孔検出装置の精度向上によって、視線検出装置全体の性能を向上させることができる。また、本実施形態の瞳孔検出装置は、瞳孔検出結果を用いて発達障がいなどの診断を支援する診断支援装置に使用できる。以下では、このような診断支援装置に瞳孔検出装置を用いた例を説明する。適用可能な装置は視線検出装置および診断支援装置に限られるものではない。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、例えば波長850nmの近赤外線を照射する光源である。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法の詳細は後述する。
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF(interface)部208と、制御部300と、記憶部150と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
制御部300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
赤外LED光源203および赤外LED光源205は、例えば850nmの近赤外線を照射する光源である。なお、照射する赤外線の波長は上記に限られるものではない。
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
制御部300は、診断支援装置100全体を制御する。制御部300は、特定部351と、第1推定部352と、第2推定部353と、視線検出部354と、視点検出部355と、出力制御部356と、評価部357と、瞳孔位置検出部358と、を備えている。なお、瞳孔検出装置としては、少なくとも特定部351、第1推定部352、および、第2推定部353が備えられていればよい。
制御部300に含まれる各要素(特定部351、第1推定部352、第2推定部353、視線検出部354、視点検出部355、出力制御部356、評価部357、瞳孔位置検出部358)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
特定部351は、撮像部(ステレオカメラ102)により撮像された撮像画像(目を撮像した画像)から、瞳孔領域と角膜反射領域とを特定する。特定部351による特定方法としては、例えば、画像のうち輝度が小さい(暗い)領域を瞳孔領域として特定し、輝度が大きい(明るい)領域を角膜反射領域として特定する方法など、従来から用いられているあらゆる方法を適用できる。
第1推定部352は、瞳孔領域に含まれる領域(第1領域)を用いて、瞳孔の中心位置を推定する。第2推定部353は、瞳孔領域に含まれ、第1領域とは異なる領域(第2領域)を用いて、瞳孔の中心位置を推定する。例えば、第1推定部352は、角膜反射領域に接する接線(第1接線)と瞳孔領域の外周線とによって囲まれる領域であって角膜反射領域を含まない領域(第1領域)を用いて、第1接線方向の瞳孔の中心位置を推定する。第2推定部353は、角膜反射領域に接し、第1接線と直交する接線(第2接線)と外周線とによって囲まれる領域であって角膜反射領域を含まない領域(第2領域)を用いて、第2接線方向の瞳孔の中心位置を推定する。瞳孔位置検出部358は、第1推定部352により推定された瞳孔の中心位置と、第2推定部353により推定された瞳孔の中心位置とに基づいて、瞳孔の中心位置を検出する。瞳孔位置検出部358は、例えば、第1推定部352により推定された位置を通り第1接線に直交する直線と、第2推定部353により推定された位置を通り第2接線に直交する直線との交点から瞳孔の中心位置を検出する。
例えば第1接線を水平方向(X方向)に延びる直線とし、第2接線を垂直方向(Y方向)に延びる直線とすることができる。第1接線および第2接線の方向は、水平方向および垂直方向に限られるものではなく、互いに直交すれば任意の方向とすることができる。以下では、第1接線が水平方向(X方向)であり、第2接線が垂直方向(Y方向)である場合を例に説明する。
第1領域および第2領域から瞳孔の中心位置を推定する方法としては、例えば、各領域の輝度重心を求める方法を適用できる。なお、推定方法はこれに限られるものではなく、任意の方法を適用できる。例えば、第1領域の第1接線方向の中心位置を、第1接線方向の瞳孔の中心位置として推定してもよい。同様に、第2領域の第2接線方向の中心位置を、第2接線方向の瞳孔の中心位置として推定してもよい。
なお、角膜反射領域に接する接線と瞳孔領域の外周線とによって囲まれる領域が存在するためには、瞳孔径に比較して角膜反射径が小さい必要があるが、通常はこの条件は満たされる。
瞳孔位置検出部358は、例えば、第1推定部352により推定された位置を通り第1接線に直交する直線と、第2推定部353により推定された位置を通り第2接線に直交する直線との交点から瞳孔の中心位置を検出する。視線検出部354は、検出された瞳孔の中心位置を用いて、被験者の視線(視線方向)を検出する。視点検出部355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部355は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部354による視線検出方法、および、視点検出部355による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、ステレオカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。
視線検出部354は、ステレオ視の手法により、3次元世界座標系での被験者の瞳孔の位置(目の位置)を算出する。また、視線検出部354は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視線検出部354は、被験者の瞳孔の位置と角膜反射の位置とから、被験者の視線方向を表す視線ベクトルを算出する。
なお、被験者の視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の視線を検出してもよい。
視点検出部355は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって注視点を計測してもよい。
図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、例えば、目とステレオカメラ102間の距離などを推定することができる。
図3に戻り、出力制御部356は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部356は、診断画像、および、評価部357による評価結果などの表示部210に対する出力を制御する。
診断画像は、瞳孔、視線および視点などの検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
評価部357は、診断画像と、視点検出部355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
以下では、角膜反射および瞳孔中心の座標を求める処理の例を図5〜図15を用いて説明する。
図5は、ステレオカメラ102により撮像された撮像画像の一例を示す図である。図5の撮像画像は被験者の顔を撮像した画像の例であり、目領域501を含む。
図6は、図5の撮像画像から目領域501を切り出した目画像の例を示す図である。図6に示すように、目画像は、瞳孔601と、虹彩602と、角膜反射603と、を含む。角膜反射および瞳孔の輪郭部分では、撮影用レンズの被写界深度などの影響により画像がデフォーカスする場合がある。この場合、角膜反射603と瞳孔601との境界付近、または、瞳孔601と虹彩602の境界付近には、段階的に輝度が変化する領域が存在する。
図7は、角膜反射領域付近の画像の輝度変化の例を示す図である。図8は、瞳孔領域付近の画像の輝度変化の例を示す図である。
角膜反射603は、図7のように中心ほど明るくなる円錐状の輝度分布701を持つ。このため、輝度重心を用いて容易に精度良く中心座標を求めることが一般的に行われている。すなわち、ある領域(角膜反射領域または瞳孔領域)内に存在するピクセル集合の総数をn個(1、2、3、・・・、n)とすると、当該領域の輝度重心のX座標およびY座標はそれぞれ以下の(1)式および(2)式を用いて算出することができる。
一方、瞳孔領域では、図8のように、角膜反射領域とは逆に中心ほど暗くなる円錐状の輝度分布801を持つ。このため、角膜反射の場合と同様に(1)式および(2)式によって、瞳孔の輝度重心を求める方法が考えられる。
しかし、実際には図6のように角膜反射によって瞳孔の一部が欠落している場合がある。このような場合、輝度重心による算出方法では大きな誤差を生じる可能性がある。そこで、本実施形態では、輝度重心の算出に用いる瞳孔の領域を、X方向およびY方向それぞれの場合に分けて、角膜反射による欠落のない範囲に制限する。これにより、角膜反射の影響を回避して、より高精度に瞳孔を検出することができる。また、瞳孔中心の算出式としては例えば上記(1)式および(2)式を適用できるため、少ない演算量で瞳孔の位置を算出できる。
次に、図9〜図15を参照しながら、本実施形態の瞳孔検出処理の一例について説明する。図9〜図14は、図6を模式的に表した図である。なお説明のためにデフォーカスによる曖昧な領域は省いている。図15は、本実施形態の瞳孔検出処理の一例を示すフローチャートである。
特定部351は、撮像画像から目領域を切り出す(ステップS101)。なお目を画像全体に撮像した撮像画像などの場合は、切り出す処理を省略してもよい。特定部351は、目領域内のピクセル輝度から瞳孔領域を特定する(ステップS102)。図9に示すように、特定部351は、例えば決められた閾値以下の明るさを持つピクセルの集合を瞳孔領域901として特定する。特定部351は、瞳孔領域(図9では瞳孔領域901)のX座標の最小値x1と最大値x2、Y座標の最小値y1と最大値y2を求める(ステップS103、ステップS104)。
同様に、特定部351は、目領域内のピクセル輝度から角膜反射領域を特定する(ステップS105)。図9に示すように、特定部351は、例えば決められた閾値以上の明るさを持つピクセルの集合を角膜反射領域902として特定する。特定部351は、角膜反射領域(図9では角膜反射領域902)のX座標の最小値x11と最大値x22、Y座標の最小値y11と最大値y22を求める(ステップS106、ステップS107)。
次に第1推定部352は、X方向の輝度重心を算出する(ステップS108)。図10および図11を用いて、X方向の輝度重心を求める方法の一例を説明する。
第1推定部352は、(1)式における、瞳孔領域のピクセル(x,y)の集合を1つまたは2つの領域に分離する。1つ目の領域は、瞳孔領域の上部である「(x1,y22)<(x,y)<(x2,y2)」に含まれる領域である。この領域は、角膜反射領域の上部に接する接線と瞳孔領域の外周線とによって囲まれる領域であって角膜反射領域を含まない領域(第1領域または第3領域)に相当する。図10では、斜線で表された領域1001に相当する。
2つ目の領域は、瞳孔領域の下部である「(x1,y11)<(x,y)<(x2,y1)」に含まれる領域である。この領域は、角膜反射領域の下部に接する接線と瞳孔領域の外周線とによって囲まれる領域であって角膜反射領域を含まない領域(第1領域または第3領域)に相当する。図10の例では「y1<y11」であるため、この条件を満たす領域が存在しない。
このように、瞳孔領域と角膜反射領域との位置関係によっては、上記2つの条件が満たされない場合がある。この場合は、条件を満たす領域が輝度重心の算出に用いられる。図10の例では、領域1001が輝度重心の算出に用いられる。領域1001は左右対称な形状であるため、(1)式を用いて輝度重心のX座標を求めることが可能である。図11の直線1101は、このようにして算出されたX方向の輝度重心を示す直線である。この直線1101上に、瞳孔中心が存在すると推定される。
次に第2推定部353は、Y方向の輝度重心を算出する(ステップS109)。図12および図13を用いて、Y方向の輝度重心を求める方法の一例を説明する。
第2推定部353は、(2)式における、瞳孔領域のピクセル(x,y)の集合を1つまたは2つの領域に分離する。1つ目の領域は、瞳孔領域の左部である「(x1,y1)<(x,y)<(x11,y2)」に含まれる領域である。この領域は、角膜反射領域の左部に接する接線と瞳孔領域の外周線とによって囲まれる領域であって角膜反射領域を含まない領域(第2領域または第4領域)に相当する。図12では、斜線で表された領域1201に相当する。
2つ目の領域は、瞳孔領域の右部である「(x22,y1)<(x,y)<(x2,y2)」に含まれる領域である。この領域は、角膜反射領域の右部に接する接線と瞳孔領域の外周線とによって囲まれる領域であって角膜反射領域を含まない領域(第2領域または第4領域)に相当する。図12では、斜線で表された領域1202に相当する。
図12の例のように2つの領域が得られた場合は、第2推定部353は、例えば各領域のうち面積が広い領域を用いて輝度重心を算出する。図12の例では、領域1201と領域1202の面積を比較し、より広い面積を有する方を用いて輝度重心を算出する。この例では領域1202を算出に用いる。この領域1202は上下対称な形状であるため(2)式を用いて輝度重心のY座標を求めることが可能である。図13の直線1301は、このようにして算出されたY方向の輝度重心を示す直線である。この直線1301上に、瞳孔中心が存在すると推定される。
なお、2つの領域が得られた場合に、1つ目の領域から得られる輝度重心のY座標と、2つ目の領域から得られる輝度重心のY座標の平均値を、Y方向の輝度重心として算出してもよい。
図14において、X方向の輝度重心を示す直線1401と、Y方向の輝度重心を示す直線1402とが交差する点が瞳孔中心1403である(ステップS110)。このように、瞳孔位置検出部358は、直線1401と直線1402とが交差する交点を瞳孔中心1403として検出する。
このように、第1の実施形態では、瞳孔の異なる領域からX座標の輝度重心およびY座標の輝度重心をそれぞれ算出することで、少ない演算量で精度良く瞳孔中心を求めることができる。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)瞳孔径に比較して角膜反射径が小さい場合、瞳孔中心座標をより正確に求めることができる。
(2)演算量が少ないため、より低機能なCPUであっても瞳孔を検出することができる。
(第2の実施形態)
第2の実施形態では、第1の実施形態よりも一層、装置構成を簡略化できる視線検出装置および視線検出方法を実現する。
以下に、第2の実施形態の視線検出装置および視線検出方法を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に視線検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
本実施形態の視線検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の視線検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
図16および17は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。なお、第1の実施形態と同様の構成については同一の符号を付し、説明を省略する場合がある。
図16に示すように、第2の実施形態の診断支援装置は、表示部210と、ステレオカメラ2102と、LED光源2103と、を含む。ステレオカメラ2102は、表示部210の下に配置される。LED光源2103は、ステレオカメラ2102に含まれる2つのカメラの中心位置に配置される。LED光源2103は、例えば波長850nmの近赤外線を照射する光源である。図16では、9個のLEDによりLED光源2103(照明部)を構成する例が示されている。なお、ステレオカメラ2102は、波長850nmの近赤外光を透過できるレンズを使用する。
図17に示すように、ステレオカメラ2102は、右カメラ2202と左カメラ2203とを備えている。LED光源2103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ2102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ2202、左カメラ2203)それぞれで取得することができる。
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示画面101の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図18は、第2の実施形態の診断支援装置2100の機能の概要を示す図である。図18では、図16および17に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図18に示すように、診断支援装置2100は、右カメラ2202と、左カメラ2203と、LED光源2103と、スピーカ105と、駆動・IF(interface)部208と、制御部2300と、記憶部150と、表示部210と、を含む。図18において、表示画面101は、右カメラ2202および左カメラ2203との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部208は、ステレオカメラ2102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ2102に含まれる各部と、制御部2300とのインタフェースとなる。
制御部2300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
図19は、図18に示す各部の詳細な機能の一例を示すブロック図である。図19に示すように、制御部2300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ2202、左カメラ2203が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置2100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置2100の内部に備えるように構成してもよい。
制御部2300は、診断支援装置2100全体を制御する。制御部2300は、第1算出部2351と、第2算出部(角膜反射中心算出部)2352と、第3算出部(角膜曲率中心算出部)2353と、視線検出部2354と、視点検出部2355と、出力制御部2356と、評価部2357と、を備えている。なお、視線検出装置としては、少なくとも第1算出部2351、第2算出部2352、第3算出部2353、および、視線検出部2354が備えられていればよい。
制御部2300に含まれる各要素(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354、視点検出部2355、出力制御部2356、および、評価部2357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1算出部2351は、ステレオカメラ2102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部2352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。
第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線と、から角膜曲率中心(第3位置)を算出する。例えば、第3算出部2353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部2353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部2353は、まず目標位置を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線と、角膜反射中心とLED光源2103とを結ぶ直線と、の交点(第4位置)を算出する。そして第3算出部2353は、瞳孔中心と算出した交点との距離を(第1距離)を算出し、例えば記憶部150に記憶する。
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面101の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部2356が、表示画面101上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
なお、目標位置は表示画面101の中央に限られるものではなく、任意の位置でよい。表示画面101の中央を目標位置とすれば、表示画面101の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。
視線検出部2354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部2354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
視点検出部2355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部2355は、例えば、表示画面101で被験者が注視する点である視点(注視点)を検出する。視点検出部2355は、例えば図17のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
出力制御部2356は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部2356は、表示部210上の目標位置に目標画像を出力させる。また、出力制御部2356は、診断画像、および、評価部2357による評価結果などの表示部210に対する出力を制御する。
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
評価部2357は、診断画像と、視点検出部2355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部2357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
出力制御部2356が第1の実施形態と同様の診断画像を表示し、評価部2357が第1の実施形態の評価部354と同様の評価処理を行ってもよい。言い換えると、第1の実施形態の瞳孔検出処理(特定部351、第1推定部352、第2推定部353、瞳孔位置検出部358)、および、視線検出処理(視線検出部354)を、第2の実施形態の瞳孔検出処理(第1算出部2351)、および、視線検出処理(第2算出部2352、第3算出部2353、視線検出部2354)で置き換えてもよい。これにより、第1の実施形態の効果に加えて、第2の実施形態の効果(装置構成の簡略化など)を達成可能となる。
図20は、本実施形態の診断支援装置2100により実行される処理の概要を説明する図である。図16〜図19で説明した要素については同一の符号を付し説明を省略する。
瞳孔中心407および角膜反射中心408は、それぞれ、LED光源2103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。
図21は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図16〜図19で説明した要素については同一の符号を付し説明を省略する。
方法Aは、LED光源2103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。
これに対し、本実施形態では、LED光源2103を照射したときの、角膜反射中心522とLED光源2103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源2103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。
しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。
図22は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図16〜図19で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
目標位置605は、表示部210上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示画面101の中央位置としている。直線613は、LED光源2103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部2353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図23は、本実施形態の算出処理の一例を示すフローチャートである。
まず出力制御部2356は、表示画面101上の1点に目標画像を再生し(ステップS201)、被験者にその1点を注視させる。次に、制御部2300は、LED駆動制御部316を用いてLED光源2103を被験者の目に向けて点灯させる(ステップS202)。制御部2300は、左右カメラ(右カメラ2202、左カメラ2203)で被験者の目を撮像する(ステップS203)。
LED光源2103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部2351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。また、第2算出部2352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部2351および第2算出部2352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS204)。
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
第1算出部2351および第2算出部2352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS205)。第3算出部2353は、求めた角膜反射中心の世界座標と、LED光源2103の中心位置の世界座標とを結ぶ直線を求める(ステップS206)。次に、第3算出部2353は、表示画面101の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS207)。第3算出部2353は、ステップS106で算出した直線とステップS207で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS208)。第3算出部2353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS209)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
算出処理で表示部210上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部210内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
図24は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源2103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示画面101上の注視点は、注視点805から注視点806に補正される。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
図25は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図25の視線検出処理を実行することができる。診断処理では、図25の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部2357による評価処理などが実行される。
ステップS301〜ステップS305は、図23のステップS202〜ステップS206と同様であるため説明を省略する。
第3算出部2353は、ステップS305で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS306)。
視線検出部2354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS307)。このベクトルが、被験者が見ている視線方向を示している。視点検出部2355は、この視線方向と表示画面101との交点の三次元世界座標値を算出する(ステップS308)。この値が、被験者が注視する表示部210上の1点を世界座標で表した座標値である。視点検出部2355は、求めた三次元世界座標値を、表示部210の二次元座標系で表される座標値(x,y)に変換する(ステップS309)。これにより、被験者が見つめる表示部210上の視点(注視点)を算出することができる。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(2)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
なお、第1の実施形態と第2の実施形態は、構成要素を適宜組み合わせてもよい。
100、2100 診断支援装置
101 表示画面
102、2102 ステレオカメラ
105 スピーカ
150 記憶部
202、2202 右カメラ
203、205 赤外LED光源
204、2203 左カメラ
208 駆動・IF部
210 表示部
300、2300 制御部
316 LED駆動制御部
322 スピーカ駆動部
351 特定部
352 第1推定部
353 第2推定部
354、2354 視線検出部
355、2355 視点検出部
356、2355 出力制御部
357、2357 評価部
2351 第1算出部
2352 第2算出部(角膜反射中心算出部)
2353 第3算出部(角膜曲率中心算出部)

Claims (9)

  1. 目を撮像した画像から、瞳孔領域と角膜反射領域とを特定する特定部と、
    前記瞳孔領域に含まれる第1領域を用いて、瞳孔の中心位置を推定する第1推定部と、
    前記瞳孔領域に含まれ、前記第1領域とは異なる第2領域を用いて、瞳孔の中心位置を推定する第2推定部と、
    前記第1推定部により推定された瞳孔の中心位置と、前記第2推定部により推定された瞳孔の中心位置とに基づいて、瞳孔の中心位置を検出する瞳孔位置検出部と、
    を備える瞳孔検出装置。
  2. 前記第1推定部は、前記角膜反射領域に接する第1接線と前記瞳孔領域の外周線とによって囲まれる領域であって前記角膜反射領域を含まない第1領域を用いて、前記第1接線方向の瞳孔の中心位置を推定し、
    前記第2推定部は、前記角膜反射領域に接し、前記第1接線と直交する第2接線と前記外周線とによって囲まれる領域であって前記角膜反射領域を含まない第2領域を用いて、前記第2接線方向の瞳孔の中心位置を推定する、
    請求項1に記載の瞳孔検出装置。
  3. 前記第1推定部は、前記第1領域の輝度重心を前記第1接線方向の瞳孔の中心位置として推定し、
    前記第2推定部は、前記第2領域の輝度重心を前記第2接線方向の瞳孔の中心位置として推定する、
    請求項2に記載の瞳孔検出装置。
  4. 前記第1推定部は、前記第1接線と平行であり前記角膜反射領域に接する第3接線と前記外周線とによって囲まれる領域であって前記角膜反射領域を含まない第3領域が存在する場合、前記第1領域と前記第3領域とを用いて、前記第1接線方向の瞳孔の中心位置を推定し、
    前記第2推定部は、前記第2接線と平行であり前記角膜反射領域に接する第4接線と前記外周線とによって囲まれる領域であって前記角膜反射領域を含まない第4領域が存在する場合、前記第2領域と前記第4領域とを用いて、前記第2接線方向の瞳孔の中心位置を推定する、
    請求項2に記載の瞳孔検出装置。
  5. 前記第1推定部は、前記第1領域と前記第3領域のうち、広い領域を用いて前記第1接線方向の瞳孔の中心位置を推定し、
    前記第2推定部は、前記第2領域と前記第4領域のうち、広い領域を用いて前記第2接線方向の瞳孔の中心位置を推定する、
    請求項4に記載の瞳孔検出装置。
  6. 前記第1推定部は、前記第1領域を用いて推定した中心位置と前記第3領域を用いて推定した中心位置との平均値を、前記第1接線方向の瞳孔の中心位置として推定し、
    前記第2推定部は、前記第2領域を用いて推定した中心位置と前記第4領域を用いて推定した中心位置との平均値を、前記第2接線方向の瞳孔の中心位置として推定する、
    請求項4に記載の瞳孔検出装置。
  7. 前記第1接線は前記画像の水平方向の線であり、
    前記第2接線は前記画像の垂直方向の線である、
    請求項2から6のいずれか1項に記載の瞳孔検出装置。
  8. 請求項1から7のいずれか1項に記載の瞳孔検出装置と、
    光を照射する光源を含む照明部と、
    前記照明部によって光が照射されて、目を撮像した画像から角膜反射の中心を示す位置を算出する角膜反射中心算出部と、
    前記光源と前記角膜反射の中心を示す位置とを結ぶ直線に基づいて、角膜曲率中心を示す位置を算出する角膜曲率中心算出部と、
    前記瞳孔位置検出部により検出された瞳孔の中心位置と、前記角膜曲率中心を示す位置とに基づいて被験者の視線を検出する視線検出部と、
    を備える視線検出装置。
  9. 目を撮像した画像から、瞳孔領域と角膜反射領域とを特定する特定ステップと、
    前記瞳孔領域に含まれる第1領域を用いて、瞳孔の中心位置を推定する第1推定ステップと、
    前記瞳孔領域に含まれ、前記第1領域とは異なる第2領域を用いて、瞳孔の中心位置を推定する第2推定ステップと、
    前記第1推定ステップにより推定された瞳孔の中心位置と、前記第2推定ステップにより推定された瞳孔の中心位置とに基づいて、瞳孔の中心位置を検出する瞳孔位置検出ステップと、
    を含む瞳孔検出方法。
JP2014043098A 2013-11-29 2014-03-05 瞳孔検出装置、視線検出装置および瞳孔検出方法 Active JP6269177B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014043098A JP6269177B2 (ja) 2013-11-29 2014-03-05 瞳孔検出装置、視線検出装置および瞳孔検出方法
PCT/JP2014/080682 WO2015080003A1 (ja) 2013-11-29 2014-11-19 瞳孔検出装置、視線検出装置および瞳孔検出方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013247956 2013-11-29
JP2013247956 2013-11-29
JP2014043098A JP6269177B2 (ja) 2013-11-29 2014-03-05 瞳孔検出装置、視線検出装置および瞳孔検出方法

Publications (2)

Publication Number Publication Date
JP2015126850A true JP2015126850A (ja) 2015-07-09
JP6269177B2 JP6269177B2 (ja) 2018-01-31

Family

ID=53198947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014043098A Active JP6269177B2 (ja) 2013-11-29 2014-03-05 瞳孔検出装置、視線検出装置および瞳孔検出方法

Country Status (2)

Country Link
JP (1) JP6269177B2 (ja)
WO (1) WO2015080003A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6201956B2 (ja) * 2014-10-24 2017-09-27 株式会社Jvcケンウッド 視線検出装置および視線検出方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08327887A (ja) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd 視線検出装置
JP2003144388A (ja) * 2001-11-16 2003-05-20 Canon Inc 視線検出装置
JP2008264341A (ja) * 2007-04-24 2008-11-06 Chube Univ 眼球運動計測方法および眼球運動計測装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08327887A (ja) * 1995-05-31 1996-12-13 Matsushita Electric Ind Co Ltd 視線検出装置
JP2003144388A (ja) * 2001-11-16 2003-05-20 Canon Inc 視線検出装置
JP2008264341A (ja) * 2007-04-24 2008-11-06 Chube Univ 眼球運動計測方法および眼球運動計測装置

Also Published As

Publication number Publication date
WO2015080003A1 (ja) 2015-06-04
JP6269177B2 (ja) 2018-01-31

Similar Documents

Publication Publication Date Title
US10722113B2 (en) Gaze detection apparatus and gaze detection method
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
US10896324B2 (en) Line-of-sight detection device and method for detecting line of sight
EP3123943B1 (en) Detection device and detection method
US11023039B2 (en) Visual line detection apparatus and visual line detection method
JP6201956B2 (ja) 視線検出装置および視線検出方法
JP6245093B2 (ja) 診断支援装置および診断支援方法
US9672422B2 (en) Pupil detection device and pupil detection method
JP6142822B2 (ja) 診断支援装置および診断支援方法
JP6856017B2 (ja) 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法
JP6135550B2 (ja) 診断支援装置および診断支援方法
JP6269177B2 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
JP6187347B2 (ja) 検出装置および検出方法
JP2017131446A (ja) 瞳孔検出装置、および瞳孔検出方法
JP2020119583A (ja) 視線検出装置及び視線検出方法
JP2015181797A (ja) 検出装置および検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171218

R150 Certificate of patent or registration of utility model

Ref document number: 6269177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150