JP6840697B2 - 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム - Google Patents

視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム Download PDF

Info

Publication number
JP6840697B2
JP6840697B2 JP2018056627A JP2018056627A JP6840697B2 JP 6840697 B2 JP6840697 B2 JP 6840697B2 JP 2018056627 A JP2018056627 A JP 2018056627A JP 2018056627 A JP2018056627 A JP 2018056627A JP 6840697 B2 JP6840697 B2 JP 6840697B2
Authority
JP
Japan
Prior art keywords
line
eyeball
center position
sight direction
apparent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018056627A
Other languages
English (en)
Other versions
JP2019168954A (ja
Inventor
小島 真一
真一 小島
加藤 隆志
隆志 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2018056627A priority Critical patent/JP6840697B2/ja
Priority to US16/354,849 priority patent/US11093032B2/en
Priority to EP19164648.8A priority patent/EP3545818B1/en
Priority to CN201910222354.3A priority patent/CN110310321A/zh
Publication of JP2019168954A publication Critical patent/JP2019168954A/ja
Application granted granted Critical
Publication of JP6840697B2 publication Critical patent/JP6840697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Description

本発明は、視線方向推定装置、視線方向推定方法、及び視線方向推定プログラムに関する。
人物の頭部を撮影した撮影画像を用いて人物の視線方向を推定する技術が知られている。例えば、人物の頭部を撮影した撮影画像を用いて虹彩の位置及び眼球の位置を推定し、推定された虹彩の位置及び眼球の位置を用いて視線方向を推定する技術が提案されている(例えば、特許文献1参照)。この技術では、ユーザにカメラを注視させつつ、顔の姿勢を変化させて撮影した複数の撮影画像から眼球中心を推定し、推定された眼球中心と、現在の虹彩中心を用いて眼球中心から虹彩中心に向かう方向を視線方向として導出する。
また、人物の視線方向を推定する他の技術として、角膜表面における反射像の位置から得られる角膜曲率中心と瞳孔中心から視線を検出する場合に、個々のユーザに生じる視線の誤差を補正する技術も提案されている(例えば、特許文献2参照)。この技術では、角膜曲率中心から瞳孔中心に向かう視線を検出する視線検出装置、ユーザの眼を撮影する撮影装置、及び表示装置を備え、表示装置に表示された特徴的な領域の注視点に向う視線が実際の視線として推定し、個々のユーザに対する補正値を求めている。
特開2008−102902号公報 特開2011−217764号公報
しかしながら、特許文献1の技術では、ユーザにカメラを注視させることが必要であり、運用上煩雑な処理が要求される。また、特許文献2の技術では、視線を検出する視線検出装置及びユーザの眼を撮影する撮影装置が必要であり、装置構成が複雑である。さらに、ユーザの眼を撮影した撮影画像を用いて視線方向を推定する場合、撮影画像から推定されるユーザの眼球前眼部の視線に関係する特徴部の位置そのものを補正する必要がある。すなわち、ユーザの視線方向は、眼球中心から虹彩中心及び瞳孔中心等の眼球前眼部の中心に向かう方向であるが、ユーザの視線方向から外れた方向に設けられた撮影装置で撮影した撮影画像は、眼球の角膜で屈折された光線を撮影している。従って、眼球の角膜で生じる屈折により生じる影響を考慮する必要もある。従って、人物の視線方向を高精度に推定するには改善の余地がある。
本発明は、上記事実を考慮してなされたもので、簡単な構成で、かつ眼球の角膜で生じる屈折により生じる影響を考慮して視線方向を推定することができる視線方向推定装置、視線方向推定方法、及び視線方向推定プログラムを提供することを目的とする。
上記目的を達成するために、本発明の視線方向推定装置は、人物の眼球を含む頭部を撮影する撮像素子を備えたカメラと、前記人物の頭部と前記カメラとの距離を検出する距離センサと、前記カメラのカメラ性能、及び前記距離センサで検出された前記距離に基づいて、前記カメラのカメラ座標系、前記カメラで撮影された撮影画像の画像座標系、及び前記人物の顔を3次元モデルでモデル化し、かつ眼球モデルを含む顔モデルの顔モデル座標系の相互関係を特定し、特定した座標系の相互関係を用い、前記撮影画像に基づいて、眼球の表面における見かけの瞳孔の2次元の中心位置、及び前記撮影画像における前記人物の眼を特徴的に表す特徴部位の2次元位置を検出し、前記座標系の相互関係、及び前記見かけの瞳孔の2次元の中心位置に基づいて、前記カメラ座標系における前記見かけの瞳孔の3次元の中心位置を推定し、前記特徴部位の2次元位置と前記眼球モデルとをフィッティングして前記カメラ座標系における前記眼球の3次元の中心位置を推定する第1推定方法を含む推定方法により前記眼球の3次元の中心位置を推定し、推定された前記眼球の3次元の中心位置及び前記見かけの瞳孔の3次元の中心位置に基づいて、前記眼球の3次元の中心位置と前記見かけの瞳孔の3次元の中心位置とを結ぶ見かけの視線方向を導出する見かけの視線方向導出部と、前記眼球の3次元の中心位置と前記カメラの撮像素子の位置とを結ぶ方向と前記見かけの視線方向とが成す角度に対応する、実際の視線方向と前記見かけの視線方向とが成す角度の関係を示す対応関係と、前記眼球の3次元の中心位置と前記カメラの位置とを結ぶ方向と、前記視線方向導出部で導出された前記見かけの視線方向とに基づいて、前記人物の実際の視線方向を推定する視線方向推定部と、を備えている。
本発明の視線方向推定装置によれば、撮影部で撮影された撮影画像を用いて眼球の中心位置を演算し眼球の瞳孔の中心位置に対応する眼球表面における見かけの瞳孔の中心位置を演算する。視線方向導出部は、眼球中心の位置と、見かけの瞳孔中心の位置とを結ぶ方向の見かけの視線方向を導出する。視線方向推定部は、予め定められた対応関係を用いて、見かけの視線方向に対応する人物の視線方向を推定する。予め定められた対応関係は、眼球中心の位置と瞳孔中心の位置とを結ぶ人物の視線方向と、見かけの視線方向との対応を示す。このように、見かけの視線方向に対応する実際の視線方向が推定されるので、簡単な構成で、かつ眼球の角膜で生じる屈折により生じる影響を抑制して視線方向を推定することができる。
前記眼球の3次元の中心位置は、前記人物の眼を特徴的に表す特徴部位である前記撮影画像における眼球周囲の顔の特徴点の位置に基づいて導出することができる。眼を含む顔を撮影した撮影画像には、目を特徴的に表す目尻及び目頭等の特徴部位が撮影される。目尻及び目頭の間隔は、眼球の大きさに対応すると想定される。そこで、目尻及び目頭等の眼球周囲の顔の特徴点を、標準的な眼球を示す予め定めた眼球モデルにフィッティングさせることで、眼球モデルの中心位置を眼球の中心位置として用いることができる。
前記推定方法は、前記座標系の相互関係、及び前記人物の眼球に近赤外光が照射されて前記カメラで撮影された人物の眼球の表面で反射された反射光の位置に基づいて、角膜反射法によって、前記眼球の3次元の中心位置を推定する第2推定方法を含み、前記人物の眼球に近赤外光を照射する光照明部と、前記第2推定方法により前記眼球の3次元の中心位置を推定し、かつ推定された前記眼球の3次元の中心位置を示す情報をメモリに記憶する眼球中心位置推定部と、をさらに備え、前記視線方向導出部は、前記眼球の表面で反射された反射光を利用できない場合で、かつ前記メモリに前記眼球の3次元の中心位置を示す情報が記憶されている場合、前記メモリに記憶された前記眼球の3次元の中心位置を示す情報に基づいて、前記眼球の3次元の中心位置を推定し、前記眼球の表面で反射された反射光を利用できない場合で、かつ前記メモリに前記眼球の3次元の中心位置を示す情報が記憶されていない場合、前記第1推定方法により前記眼球の3次元の中心位置を推定することができる
また、前記眼球中心位置推定部は、前記座標系の相互関係、及び前記反射光の位置に基づいて、前記眼球の角膜の曲率中心の位置である3次元の中心位置を推定し、推定した前記眼球の角膜の曲率中心の位置である3次元の中心位置を用いて前記眼球の3次元の中心位置を推定することができる。
膜反射法による眼球の中心位置の演算は、常時実行することが困難な場合がある。そこで、演算された眼球の中心位置を記憶し、記憶された眼球の中心位置を用いることで、角膜反射法による演算を常時実行することなく、眼球の中心位置を用いることができるので、装置の演算負荷を抑制することができる。
前記視線方向推定装置は、眼球の3次元の中心位置とカメラの撮像素子の位置とを結ぶ方向と見かけの視線方向とが成す角度に対応する、実際の視線方向と前記見かけの視線方向とが成す角度の関係を示す対応関係を対応させたマップを用いて前記人物の視線方向を推定することができる。このように、人物の視線方向と、見かけの視線方向とを対応させたマップを用いることで、短時間で人物の視線方向を推定することができる。
本発明の視線方向推定方法は、コンピュータが、人物の眼球を含む頭部を撮影する撮像素子を備えたカメラのカメラ性能、及び前記人物の頭部と前記カメラとの距離を検出する距離センサで検出された前記距離に基づいて、前記カメラのカメラ座標系、前記カメラで撮影された撮影画像の画像座標系、及び前記人物の顔を3次元モデルでモデル化し、かつ眼球モデルを含む顔モデルの顔モデル座標系の相互関係を特定し、特定した座標系の相互関係を用い、前記撮影画像に基づいて、眼球の表面における見かけの瞳孔の2次元の中心位置、及び前記撮影画像における前記人物の眼を特徴的に表す特徴部位の2次元位置を検出し、前記座標系の相互関係、及び前記見かけの瞳孔の2次元の中心位置に基づいて、前記カメラ座標系における前記見かけの瞳孔の3次元の中心位置を推定し、前記特徴部位の2次元位置と前記眼球モデルとをフィッティングして前記カメラ座標系における前記眼球の3次元の中心位置を推定する推定方法により前記眼球の3次元の中心位置を推定し、推定された前記眼球の3次元の中心位置及び前記見かけの瞳孔の3次元の中心位置に基づいて、前記眼球の3次元の中心位置と前記見かけの瞳孔の3次元の中心位置とを結ぶ見かけの視線方向を導出し、前記眼球の3次元の中心位置と前記カメラの撮像素子の位置とを結ぶ方向と前記見かけの視線方向とが成す角度に対応する、実際の視線方向と前記見かけの視線方向とが成す角度の関係を示す対応関係と、前記眼球の3次元の中心位置と前記カメラの位置とを結ぶ方向と、前記導出された前記見かけの視線方向とに基づいて、前記人物の実際の視線方向を推定する。
本発明の視線方向推定プログラムは、コンピュータを、前記視線方向推定装置として機能させる。
このような、視線方向推定方法、及び視線方向推定プログラムによっても、眼球の角膜で生じる屈折により生じる影響を抑制して視線方向を推定することができる。
以上説明したように本発明によれば、簡単な構成で、かつ眼球の角膜で生じる屈折により生じる影響を考慮して視線方向を推定することができる、という効果が得られる。
第1実施形態に係る視線方向推定装置をコンピュータにより実現する構成の一例を示すブロック図である。 第1実施形態に係る視線方向推定装置の電子機器の配置の一例を示すイメージ図である。 第1実施形態に係る視線方向推定装置における座標系の一例を示すイメージ図でる。 第1実施形態に係る視線方向推定装置の装置本体を機能的に分類した構成の一例を示すブロック図である。 視線方向の第1導出方法を説明するための模式図の一例を示すイメージ図であり、(A)はモデル化した眼球における視線、(B)は眼の撮影画像を示している。 視線方向の第2導出方法を説明するための模式図の一例を示すイメージ図であり、(A)はモデル化した眼球における視線、(B)は眼の撮影画像を示している。 モデル化した眼球の視線に関する詳細な模式図の一例を示すイメージ図である。 視線誤差と、カメラに向かう方向に対する角度との対応関係を示すマップの一例を示すイメージ図である。 第1実施形態に係るコンピュータによる視線方向推定装置の処理の流れの一例を示すフローチャートである。 第2実施形態に係る視線方向推定装置の装置本体を機能的に分類した構成の一例を示すブロック図である。 第2実施形態に係るコンピュータによる視線方向推定装置の処理の流れの一例を示すフローチャートである。
以下、図面を参照して開示の技術に係る実施形態を説明する。
(第1実施形態)
本実施形態は、人物の頭部を撮影した撮影画像を用いて人物の視線方向を推定する場合の一例を説明する。また、本実施形態では、人物の視線方向の一例として、移動体としての自動車等の車両の乗員の視線方向を、視線方向推定装置により推定する。
図1に、開示の技術の視線方向推定装置として動作する視線方向推定装置10を、コンピュータにより実現する構成の一例を示す。
図1に示すように、視線方向推定装置10として動作するコンピュータは、CPU(Central Processing Unit)12A、RAM(Random Access Memory)12B、およびROM(Read Only Memory)12Cを備えた装置本体12を含んで構成されている。ROM12Cは、視線誤差ρを抑制して視線方向を推定する各種機能を実現するための視線方向推定プログラム12Pを含んでいる。装置本体12は、入出力インタフェース(以下、I/Oという。)12Dを備えており、CPU12A、RAM12B、ROM12C、及びI/O12Dは各々コマンド及びデータを授受可能なようにバス12Eを介して接続されている。また、I/O12Dには、キーボード及びマウス等の入力部12F、ディスプレイ等の表示部12G、及び外部装置と通信するための通信部12Hが接続されている。さらに、I/O12Dには、乗員の頭部を照明する近赤外LED(Light Emitting Diode)等の照明部14、乗員の頭部を撮影するカメラ16、及び乗員の頭部までの距離を計測する距離センサ18が接続されている。なお、図示は省略したが、各種データを格納可能な不揮発性メモリをI/O12Dに接続することができる。
装置本体12は、視線方向推定プログラム12PがROM12Cから読み出されてRAM12Bに展開され、RAM12Bに展開された視線方向推定プログラム12PがCPU12Aによって実行されることで、視線方向推定装置10として動作する。なお、視線方向推定プログラム12Pは、視線誤差ρを抑制して視線方向を推定する各種機能を実現するためのプロセスを含む(詳細は後述)。
なお、本実施形態では、眼を特徴的に表す特徴部位に関連した情報を用いて視線方向を導出する第1導出方法(詳細は後述)により実際の視線方向の導出が可能であるため、照明部14は必須の構成ではなく、省略することが可能である。
図2に、視線方向推定装置10として、車両に搭載された電子機器の配置の一例を示す。
図2に示すように、車両には、視線方向推定装置10の装置本体12、乗員を照明する照明部14、乗員OPの頭部を撮影するカメラ16、及び距離センサ18が搭載されている。本実施形態の配置例では、ステアリング4を保持するコラム5の上部に照明部14及びカメラ16を設置し、下部に距離センサ18を設置した場合を示している。なお、図2には、乗員の視線方向を視線3として示している。
図3に、視線方向推定装置10における座標系の一例を示す。
位置を特定する場合の座標系は、中心とする物品をどのように扱うかによって相違する。例えば、人物の顔を撮影するカメラを中心とした座標系、撮影画像を中心とした座標系、及び人物の顔を中心とした座標系が挙げられる。以下の説明では、カメラを中心とした座標系をカメラ座標系といい、顔を中心とした座標系を顔モデル座標系という。図3に示す例は、本実施形態に係る視線方向推定装置10に用いるカメラ座標系、顔モデル座標系、及び画像座標系の関係の一例を示している。
カメラ座標系はカメラ16から見て右方がX方向、下方がY方向、前方がZ方向であり、原点はキャリブレーションにより導出される点である。カメラ座標系は、画像の左上を原点とする画像座標系とx軸とy軸の方向が一致するように定めてある。
顔モデル座標系は、顔の位置姿勢を求めたり、顔の中で目及び口の部位の位置を表現するための座標系である。例えば、顔画像処理では、目及び口などの顔の特徴的な部位の3次元位置が記述された顔モデルと呼ばれるデータを用い、このデータを画像に投影し、目及び口の位置を合わせることで顔の位置及び姿勢を推定する手法が一般的に用いられる。この顔モデルに設定されている座標系の一例が顔モデル座標系であり、顔から見て左方がXm方向、下方がYm方向、後方がZm方向である。
なお、カメラ座標系、顔モデル座標系、及び画像座標系の相互関係は、予め定められており、カメラ座標系、顔モデル座標系、及び画像座標系の間で、座標変換が可能になっている。すなわち、乗員OPの頭部とカメラ16との距離は距離センサ18で検出可能であるため(図2参照)、カメラ16の焦点距離等のカメラ性能と頭部とカメラ16との距離とを用いてカメラ座標系、顔モデル座標系、及び画像座標系の相互関係を特定可能である。また、以下の説明では、特に区別しない場合は、カメラ座標系を適用した場合を説明する。
図4に、本実施形態に係る視線方向推定装置10の装置本体12を機能的構成に分類したブロック構成の一例を示す。
図4に示すように、視線方向推定装置10は、カメラ等の撮影部101、見かけの視線方向導出部102、マップ107が接続された補正量導出部106、視線方向導出部108、及び出力部109の各機能部を含む。
撮影部101は、撮影画像を取得し、見かけの視線方向導出部102へ出力する機能部である。本実施形態では、撮影部101の一例として撮影装置の一例であるカメラ16を用いている。カメラ16は、車両の乗員OPの眼球の一部を含む頭部を撮影し、撮影画像を出力する。
見かけの視線方向導出部102は、見かけの視線方向を導出する機能部であり、撮影部101からの撮影画像を用いて、人物の見かけの視線方向を導出する。ここで、見かけの視線方向とは、2次元の撮影画像から推定される3次元の眼球の中心位置及び瞳孔の中心位置から導出される視線方向である。すわなち、人物の視線方向を特定する場合、眼球の中心位置及び瞳孔の中心位置を物理的に検出することは困難である。そこで、少なくとも眼球表面を撮影した2次元の撮影画像に基づいて、3次元の眼球の中心位置及び瞳孔の中心位置を推定し、推定された眼球の中心位置から、瞳孔の中心位置に向う方向を、見かけの視線方向として導出する。
この見かけの視線方向導出部102は、見かけの視線方向を導出するために、眼球中心演算部103、見かけの瞳孔中心演算部104、及び見かけの視線方向演算部105を含んでいる。撮影画像に含まれる眼球の瞳孔は、眼球表面、すなわち角膜表面を介した光の位置で撮影される。この角膜表面で観測された瞳孔の中心位置を、見かけの瞳孔の中心位置として説明する。
眼球中心演算部103は、撮影画像に基づいて眼球の中心位置を演算する機能部であり、撮影部101からの撮影画像を用いて、3次元の眼球中心の位置を推定する演算を実行する。見かけの瞳孔中心演算部104は、撮影画像に基づいて見かけの瞳孔の中心位置を演算する機能部であり、撮影部101からの撮影画像を用いて、3次元の見かけの瞳孔の中心位置を推定する演算を実行する。見かけの視線方向演算部105は、見かけの眼球の中心位置、及び見かけの瞳孔の中心位置を用いて、見かけの視線方向を演算する機能部である。この見かけの視線方向演算部105は、眼球中心演算部103で演算された眼球中心の位置と、見かけの瞳孔中心演算部104で演算された見かけの瞳孔中心の位置とを用いて、見かけの視線方向を演算する。
補正量導出部106は、見かけの視線方向から実際の視線方向への補正量を求める機能部であり、マップ107に格納された見かけの視線方向と、実際の視線方向への補正量との対応関係を用いて、補正量を導出する。マップ107には、見かけ視線方向に対する実際の人物の視線方向の誤差を補正量として予め求めておき、見かけ視線方向と補正量とを対応づけたマップが記憶される(詳細は後述)。
視線方向導出部108は、実際の視線方向を導出する機能部であり、見かけの視線方向導出部102で演算された見かけの視線方向を、補正量導出部106で導出された補正量で補正する演算を行うことにより、人物の視線方向を導出する処理を実行する。出力部109は、視線方向導出部108で演算された人物の視線方向を示す情報を出力する。
ここで、見かけの視線方向の導出には、眼を特徴的に表す特徴部位に関連した情報を用いて視線方向を導出する第1導出方法と、角膜に関連した情報を用いて視線方向を導出する、所謂角膜反射法による第2導出方法とが挙げられる。第1導出方法は、眼を特徴的に表す特徴部位の2次元位置(画像上の位置)を検出して、特徴部位を基に、3次元モデルでモデル化した眼球2をフィッティングすることで、眼球の中心位置を3次元で導出し、3次元の視線方向を導出する。第2導出方法は、眼球へ向けて照射した光の角膜表面の反射光の位置と、瞳孔の中心位置との2次元位置(画像上の位置)を用いて3次元の視線方向を導出する。
図5に、第1導出方法を説明するための模式図の一例を示す。図5(A)はモデル化した眼球2における視線を示し、図5(B)は人物の顔における眼を撮影した撮影画像の一例を示している。
図5(B)に示すように、眼を撮影した撮影画像には、瞳孔22、及び、眼を特徴的に表す目尻及び目頭の特徴部位24が含まれている。第1導出方法では、撮影画像を用いて、角膜表面で観測された、見かけの瞳孔の中心位置Dを演算する。そして、特徴部位24の各々を特徴点として各々の位置を演算し、目尻及び目頭の特徴点に対して予め定めた標準の3次元眼球モデルをフィッティングする。図5(A)に示すように、フィッティングした3次元眼球モデルの中心位置を眼球2の中心位置Eとして推定し、眼球2の中心位置Eと見かけの瞳孔の中心位置Dを結ぶベクトルを視線ベクトルgeb、すなわち、見かけの視線方向とする。
図6に、第2導出方法を説明するための模式図の一例を示す。図6(A)はモデル化した眼球2における視線を示し、図6(B)は人物の顔における眼を撮影した撮影画像の一例を示している。
図6(A)に示すように、人物の眼を撮影するカメラ16の近傍に配置されたLED等の照明部14から照射された近赤外光の反射光をカメラ16で撮影する。カメラ16では、角膜の曲率中心の位置Aと照明部14とを結ぶ直線と角膜との交点の位置Pに角膜における反射像が撮影される。すなわち、図6(B)に示すように、撮影画像には、瞳孔22の周辺(図6(B)に示す例では瞳孔22の右下方向の位置)に角膜における反射像が形成される。第2導出方法では、位置pとして角膜に映り込んだ角膜反射像と瞳孔22の中心位置Dとの関係に基づいて、角膜の曲率中心の位置Aから見かけの瞳孔の中心位置Dから求まる瞳孔の中心位置Bに向うベクトルを視線ベクトルgcr、として周知の方法により推定する。
ところで、眼球の角膜では光が屈折するので、角膜での光の屈折は見かけの視線方向の導出に影響する。例えば、上述の第1導出方法で導出された見かけの視線方向と、第2導出方法で導出された見かけの視線方向とは、角度差(以下、視線誤差という。)を有する場合がある。この見かけの視線方向の視線誤差について説明する。
図7に、モデル化した眼球2の視線に関する詳細な模式図の一例を示す。
図7では、モデル化した眼球2の実際の位置として、角膜の曲率の中心位置A、瞳孔の中心位置B、及び眼球の中心位置Eが示されている。また、見かけの位置として、角膜表面上における照明による反射像の位置p、及び角膜表面上で観測される見かけの瞳孔の中心位置Dが示されている。なお、位置Cはカメラの撮影素子の位置である。また、図7では、各位置を、位置Aと位置Bとの距離をs、位置Aと位置Eとの距離をu、位置Aと位置pとの距離をrで示している。また、位置Aから位置Dに向うベクトルと、位置Aから位置pに向うベクトルとの成す角度をθ、位置Eから位置Bに向うベクトルと、位置Eから位置Dに向うベクトルとの成す角度(視線誤差)をρ、位置Eから位置Dに向うベクトルと、位置Eから位置Cに向うベクトルとの成す角度をωで示している。
第2導出方法では、角膜反射法を用いて角膜の曲率中心の位置Aを導出できるため、角膜に関連した情報として角膜反射像の位置pと角膜の曲率中心の位置A、及び角膜表面上で観測される見かけの瞳孔の中心位置Dの情報を得ることができる。また、角膜に関連した情報を用いて、眼球2の中心位置Eも導出することができる。これにより、角膜での光の屈折を考慮した演算が可能となり、眼球2の中心位置Eから瞳孔の中心位置Bに向う視線ベクトルgcrを導出することができる。
一方、第1導出方法では、モデル化された眼球2に観測された位置をフィッティングするので、角膜に関連した情報は見かけの瞳孔の中心位置Dのみであり、角膜における光の屈折を考慮することはできない。すなわち、第1導出方法では、見かけの瞳孔の中心位置と眼球の中心位置を結ぶベクトルが視線ベクトルとして演算される。従って、第2導出方法による視線ベクトルgcrと、第1導出方法による視線ベクトルgebとが一致しない場合がある。また、視線誤差である視線ベクトルgcrと、視線ベクトルgebの角度差の角度ρは一定ではなく、眼球2の位置及び向きによって変化する。従って、第2導出方法で演算される視線ベクトルgcrに対して、視線誤差ρが大きくなるのに従って第1導出方法により導出した視線方向の推定精度が劣化する度合いが大きくなる。
ここで、視線ベクトルgcrが、実際の視線ベクトルに近似していると仮定すると、実際の視線ベクトルがカメラの撮影素子の位置Cへ向かうベクトルである場合、実際の視線ベクトルと、視線ベクトルgebとは略一致する。一方、実際の視線ベクトルがカメラの撮影素子の位置Cへ向かうベクトルから角度が大きくなるのに従って、視線誤差ρが大きくなる。このことは、視線方向がカメラに向かう方向から外れるに従って視線誤差ρが大きくなることであり、視線誤差ρは、視線ベクトルgebと眼球2の中心位置Eからカメラの撮影素子の位置Cへ向かうベクトルとの成す角度ωと相関関係を有することを意味する。
従って、視線誤差ρと、角度ωと相関関係が既知であれば、見かけの視線ベクトルgebから実際の視線ベクトルを導出することができる。
図8に、視線誤差ρと、角度ωと相関関係の一例を示す。
図8は、実際に人物の視線方向を変化させた場合に生じる視線誤差ρと、角度ωと相関関係を実験により導出したものである。図8に示すように、人物の視線方向がカメラに向かう場合には、実際の視線ベクトルと、視線ベクトルgebとは略一致するので、視線誤差ρと、角度ωとは零になる。また、視線方向がカメラに向かう方向から外れるに従って視線誤差ρ(絶対値)が大きくなる。
そこで、本実施形態に係る視線方向推定装置10は、視線誤差ρを抑制して視線方向を推定する。すなわち、本実施形態では、図8に示す相関関係を補正量として、すなわち、視線方向推定装置10では、見かけ視線方向に対する実際の人物の視線方向の誤差を補正量として予め求めておき、見かけ視線方向と補正量とを対応づけてマップ107に記憶する。従って、見かけの視線方向導出部102で導出された見かけ視線方向を用いて、補正量導出部106はマップ107に記憶された補正量を見かけ視線方向に対する実際の人物の視線方向の誤差として導出する。そして、視線方向導出部108は、補正量導出部106で導出された補正量を用いて、実際の視線方向(視線ベクトル)を導出することができる。
次に、視線誤差ρを抑制して視線方向を推定する視線方向推定装置10の動作を説明する。本実施形態では、視線方向推定装置10は、コンピュータの装置本体12によって動作される。
図9には、コンピュータにより実現した視線方向推定装置10における視線方向推定プログラム12Pによる処理の流れの一例が示されている。装置本体12では、視線方向推定プログラム12PがROM12Cから読み出されてRAM12Bに展開され、RAM12Bに展開された視線方向推定プログラム12PをCPU12Aが実行する。
まず、ステップS100では、カメラ16により撮影された撮影画像の取得処理が実行される。ステップS100の処理は、図4に示す撮影部101から出力される撮影画像を取得する動作の一例である。
次のステップS102では、撮影画像上における目頭及び目尻等の眼の特徴点を用いて、カメラ座標系における3次元の眼球2の中心位置Eを推定する。ステップS102の処理は、図4に示す見かけの視線方向導出部102に含まれる眼球中心演算部103の動作の一例である。ステップS102では、上述の第1導出方法を用いて眼球2の中心位置を導出することで3次元の眼球2の中心位置を推定する。まず、撮影画像を画像処理して顔モデル座標系における目及び口の部位を示す顔の特徴位置を特定することで顔の位置姿勢を推定する。次に、目頭及び目尻等の眼の特徴点を特定し、推定した顔の位置姿勢及び眼の特徴点に、3次元モデルでモデル化した眼球2をフィッティングすることで、眼球2の中心位置を3次元で導出する。導出された顔モデル座標系の眼球2の中心位置をカメラ座標系の眼球2の中心位置に変換することで、眼球2の中心位置Eの座標e=(e,e,eを求める。
次に、ステップS104では、撮影画像を画像処理して撮影画像上における見かけの瞳孔の中心位置Dを検出する。ここでは、ステップS104における、撮影画像上における画像座標系の2次元位置として検出される中心座標をD=(D,D)とする。
次のステップS106では、画像座標系における見かけの瞳孔の中心位置Dに基づいて、カメラ座標系における3次元の見かけの瞳孔の中心位置Dを推定する。まず、カメラ座標系における見かけの瞳孔の中心位置DのZ座標は、距離センサ18で検出された測距結果を用いて、dとする。ここで、カメラ座標系における見かけの瞳孔の中心位置Dの3次元座標d=(D,D,D)はカメラ16の焦点距離fをピクセル単位で表される焦点距離とすると次の(1)式で表すことができる。この(1)式を用いて、3次元の見かけの瞳孔の中心位置Dを推定する。
d=((D,d)/f,(D,d)/f,d) ・・・(1)
なお、ステップS104とステップS106の処理は、図4に示す見かけの視線方向導出部102に含まれる見かけの瞳孔中心演算部104の動作の一例である。
次に、ステップS108では、ステップS102で推定した眼球2の中心位置Eと、ステップS106で推定した見かけの瞳孔の中心位置Dとを用いて、見かけの視線ベクトルを演算する。見かけの視線ベクトルは、眼球2の中心位置Eと、見かけの瞳孔の中心位置Dとを結ぶベクトルである。このベクトルを、見かけの視線ベクトルgeb=(geb_x,geb_y,geb_z)とすると、見かけの視線ベクトルgebは、次の(2)式で表すことができる。
なお、ステップS108の処理は、図4に示す見かけの視線方向導出部102に含まれる見かけの視線方向演算部105の動作の一例である。
次のステップS110では、見かけの視線ベクトルgebと、眼球2の中心位置Eからカメラの撮影素子の位置Cへ向かうベクトルとの成す角度ωを導出する。
すなわち、ステップS102で推定した眼球2の中心位置Eと、ステップS106で推定した見かけの瞳孔の中心位置Dとを結ぶ視線ベクトルは、見かけの視線ベクトルgeb=(geb_x,geb_y,geb_z)である。位置Cは、カメラ座標系の原点であるので、位置Eと位置Cとを結ぶベクトルは、ベクトルEC(=(−e)=(−e,−e,−e)となり、ベクトルの内積より角度ωは、次に示す(3)式で表すことができる。
そして、(3)式に(2)式を代入すると、次に示す(4)式で表され、角度ωを求めることができる。
この場合、(4)式では角度ωの符号(正負)を特定できないため、角度ωの正負は次の(5)式に示す外積geb×(−e)のx成分である−((D)/f)e+dが正なら正、負なら負を取るようにする。
次に、ステップS112では、マップ107を参照して、ステップS110で導出した角度ωに対応する視線誤差ρを抽出し、角度補正量を導出する。なお、ステップS110及びステップS112の処理は、図4に示す補正量導出部106の動作の一例である。
そして、次のステップS114において、補正後の視線ベクトルとカメラに向かうベクトルとの成す角度を演算する。次に、ステップS116では、ステップS108で演算された見かけの視線ベクトルと、ステップS110で演算された角度と、ステップS114で演算された角度とを用いて、カメラ座標系における実際の視線方向(視線ベクトル)を導出する。そして、次のステップS118において、ステップS116で導出されたカメラ座標系における実際の視線方向(視線ベクトル)を出力し、本処理ルーチンを終了する。
なお、ステップS114及びステップS116の処理は、図4に示す視線方向導出部108の動作の一例である。また、ステップS118の処理は、図4に示す出力部109の動作の一例である。
上記のステップS116における、カメラ座標系における実際の視線方向(視線ベクトル)を導出する処理の一例を説明する。
まず、ステップS110及びステップS112の処理により推定される実際の角度はω+ρになる。これらステップS110及びステップS112の処理により推定される実際の角度(ω+ρ)と、ステップS108で演算された見かけの視線ベクトルの角度とを用いて、実際の視線ベクトルを導出する。ここでは、実際の視線ベクトルを、g’eb=(g’eb_x,g’eb_y,g’eb_z)と表記する。g’ebは以下の計算で求められる。
なお、本実施形態では、ロドリゲスの回転公式(Rodrigues’ rotation formula)を用いて式を導出する場合を一例として説明する。
ロドリゲスの回転公式は、「3次元単位ベクトルkを回転軸として、3次元ベクトルvを3次元単位ベクトルkの周りで角度θだけ回転したベクトルをvrot とすると、ベクトルvrot は次に示す(6)式で与えられる」というものである。ここで、角度θは右手系で定めるものとする。

実際の視線ベクトルg’ebは、ベクトルgebとベクトルECを含む平面上でベクトルgebを角度ρだけ回転したベクトルであるので、(6)式において、v=geb、vrot =g’eb、θ=ρとし、回転軸kをベクトルgebとベクトルECを含む平面の法線ベクトルとした場合になる。kは外積により次に示す(7)式で求められる(kは単位ベクトルである。)。
これらのv、vrot 、θおよびkを(6)式に代入し変形することで、次に示す(8)式が得られる。
このように、実際の視線ベクトルg’ebは、ベクトルgeb、角度ωおよび角度ρから求めることができる。
以上説明したように、本実施形態の視線方向推定装置によれば、眼球の角膜における光の屈折を考慮せずに導出された見かけの視線方向が、実際の視線方向に補正される。すなわち、導出された見かけの視線方向と実際の視線方向との視線誤差を、抑制するように視線方向を導出する。これによって、眼球の角膜における光の屈折を考慮せずに視線方向を導出する場合であっても、実際の視線方向に高精度で導出することができる。
なお、本実施形態では、角度ωと視線誤差ρとの対応関係をマップ107に記憶し、マップ107を参照して実際の視線ベクトルを導出する一例を説明したが、開示の技術はマップ107に記憶する対応関係を角度ωと視線誤差ρとに限定するものではない。例えば、角度ωに代えて、角度ωに関連するベクトルをパラメータとして記憶し、記憶したパラメータに視線誤差ρを対応付けてマップ107に記憶してもよい。角度ωに関連するベクトルの一例には、見かけの視線ベクトルgeb及び眼球2の中心位置からカメラ16に向うベクトルECが挙げられる。
(第2実施形態)
次に、第2実施形態を説明する。第2実施形態は、視線方向の導出に関して、第1導出方法による視線方向の導出と、第2導出方法による視線方向の導出とを切り替え可能な視線方向推定装置に開示の技術を適用したものである。なお、第2実施形態は、第1実施形態と略同様の構成のため、同一部分には同一符号を付して詳細な説明を省略する。
なお、本実施形態では、眼球へ向けて照射した光の角膜表面の反射光の位置を用いて3次元の視線方向を導出するので(第2導出方法)、照明部14は必須の構成である。
視線方向の導出は、角膜表面の反射光の位置を用いることで、高精度に3次元の視線方向を導出することができる。ところが、角膜表面の反射光の位置の検出を常時行うことが困難な、すなわち、角膜反射法で常時検出することが困難な場合がある。そこで、本実施形態では、第2導出方法による視線方向の導出が困難な場合には、第1導出方法によって視線方向を導出する。
図10に、本実施形態に係る視線方向推定装置10Aの装置本体12を機能的構成に分類したブロック構成の一例を示す。
図10に示すように、視線方向推定装置10Aは、図4に示す視線方向推定装置10に、角膜反射法による導出部102Aをさらに備えた構成としている。以下の説明では、図4に示す見かけの視線方向導出部102を第1導出部102といい、角膜反射法による導出部102Aを第2導出部102Aという。
本実施形態の視線方向推定装置10Aに含まれる第2導出部102Aは、眼球中心演算部103A、瞳孔中心演算部104A、及び視線方向演算部105Aを含んでいる。この視線方向導出部102Aは、角膜反射法により視線方向を導出する機能部であり、撮影部101からの撮影画像を用いて、角膜表面における光の屈折を考慮して人物の視線方向を導出する。
眼球中心演算部103Aは、撮影画像に基づいて眼球の中心位置を演算する機能部であり、撮影部101からの撮影画像を用いて、3次元の眼球中心の位置を推定する演算を実行する。瞳孔中心演算部104Aは、撮影画像に基づいて瞳孔の中心位置を演算する機能部であり、撮影部101からの撮影画像を用いて、3次元の見かけの瞳孔の中心位置を推定する演算を実行する。視線方向演算部105Aは、眼球の中心位置、及び見かけの瞳孔の中心位置を用いて、視線方向を演算する機能部である。この視線方向演算部105Aは、眼球中心演算部103Aで演算された眼球中心の位置と、瞳孔中心演算部104Aで演算された瞳孔中心の位置とを用いて、角膜表面における光の屈折が考慮された人物の視線方向を演算する。
第2導出部102Aで導出された、角膜表面における光の屈折が考慮された人物の視線方向は、実際の視線方向とほぼ一致するため、出力部109へ出力され、出力部109から人物の視線方向を示す情報が出力される。
なお、本実施形態では、第1導出部102の眼球中心演算部103、及び第2導出部102Aの眼球中心演算部103Aの各々は、眼球2の中心位置を示す情報を記憶するメモリ(図10では記号Mとして表記している。)を含んでいる。
次に、本実施形態に係る視線方向推定装置10Aで、視線誤差ρを抑制して視線方向を推定する動作を説明する。本実施形態では、視線方向推定装置10Aは、コンピュータの装置本体12によって動作される。
図11には、コンピュータにより実現した視線方向推定装置10Aにおける視線方向推定プログラム12Pによる処理の流れの一例が示されている。
装置本体12では、視線方向推定プログラム12PがROM12Cから読み出されてRAM12Bに展開され、RAM12Bに展開された視線方向推定プログラム12PをCPU12Aが実行する。なお、図11に示す処理の流れは、図9に示すステップS102の処理に代えて、ステップS101,S103,S105、S107,S109の処理を実行する。また、図9に示すステップS108の処理に代えてステップS108Aの処理を実行する。
本実施形態では、ステップS100で、カメラ16により撮影された撮影画像が取得されると、ステップS101において、照明部14から照射された光の反射像が撮影画像に含まれるか否かを判別することで、角膜反射がなしか否かが判断される。ステップS101の処理は、第2導出部による視線方向の導出処理が可能か否かを判断する処理の一例である。
すなわち、ステップS101で、肯定判断された場合は、第1導出部102により見かけの視線方向を導出するべく、ステップS103へ処理を移行する。一方、ステップS101で否定判断された場合は、第2導出部102Aにより視線方向を導出するべく、ステップS105へ処理を移行する。
ステップS105では、角膜反射法による第2導出法を用いて、カメラ座標系における3次元の眼球2の中心位置Eを推定する。ステップS103の処理は、図10に示す視線方向導出部102Aに含まれる眼球中心演算部103Aの動作の一例である。
図7に示すように、カメラ中心座標系における角膜の曲率の中心位置Aの座標をa=(a,a,aとし、第2導出法で求める視線ベクトルをgcr=(gcr_x、gcr_y、gcr_zとし、角膜の曲率の中心位置Aと眼球2の中心位置Eの距離をuとすると、カメラ中心座標系における眼球2の中心位置Eの座標e=(e,e,eは、次の(9)式で表わすことができる。なお、ベクトルaと視線ベクトルgcrは角膜反射法により求めることができる。
このステップS105では、導出したカメラ中心座標系における眼球2の中心位置Eの座標eを、メモリに記憶する。また、ステップS105では、眼球2の中心位置Eの座標eを、第1導出部102の眼球中心演算部103、及び第2導出部102Aの眼球中心演算部103Aの各々のメモリに共通に記憶する処理を実行する。
次のステップS107では、角膜反射法の第2導出法による周知の方法を用いて、カメラ座標系における3次元の瞳孔の中心位置Bを推定する。次のステップS109では、ステップS105で推定した眼球2の中心位置Eと、ステップS107で推定した瞳孔の中心位置Bとを用いて、視線ベクトルgcrを導出する。すなわち、視線ベクトルgcrは、眼球2の中心位置Eと、瞳孔の中心位置Bとを結ぶベクトルである。そして、ステップS118へ処理を移行し、視線ベクトルgcrを出力する。
なお、ステップS105の処理は、図10に示す眼球中心演算部103Aの動作の一例であり、ステップS107の処理は、瞳孔中心演算部104Aの動作の一例であり、ステップS109の処理は、視線方向演算部105Aの動作の一例である。
一方、ステップS101で、肯定判断された場合は、第1導出部102により見かけの視線方向を導出するべく、ステップS103へ処理を移行する。ステップS103では、メモリに記憶されているカメラ中心座標系における眼球2の中心位置Eの座標e=(e,e,eを取得する。なお、上記ステップS105により眼球2の中心位置Eの座標eが記憶されていない場合は、図9に示すステップS102と同様に眼球2の中心位置Eを導出すればよい。
次に、上述したように、ステップS104で、見かけの瞳孔の中心位置D(2次元位置)を検出し、次のステップS106で、カメラ座標系における3次元の見かけの瞳孔の中心位置Dを推定する。
次に、ステップS108Aでは、見かけの視線ベクトルを演算する。なお、上記ステップS105により眼球2の中心位置Eの座標eが記憶されていない場合は、ステップS102と同様にして推定した眼球2の中心位置Eと、ステップS106で推定した見かけの瞳孔の中心位置Dとを用いて、見かけの視線ベクトルgebを演算する(上記の(2)式参照)。
一方、上記ステップS105により眼球2の中心位置Eの座標eが記憶されている場合、ステップS108Aでは、見かけの視線ベクトルgebを、上記(2)式に代えて、次に示す(10)式を用いて演算する。
そして、上述したように、ステップS110で、角度ωを導出し、ステップS112で、マップ107を参照して、ステップS110で導出した角度ωに対応する視線誤差ρを抽出し、角度補正量を導出する。次に、ステップS114で、補正後の視線ベクトルとカメラに向かうベクトルとの成す角度を演算し、ステップS116で、カメラ座標系における実際の視線方向(視線ベクトル)を導出する。そして、ステップS118で、カメラ座標系における実際の視線方向(視線ベクトル)を出力し、本処理ルーチンを終了する。
以上説明したように、本実施形態の視線方向推定装置によれば、角膜での光の屈折を考慮して視線方向を導出することから角膜での光の屈折を考慮せずに視線方向を導出することに切り替えた場合であっても、視線誤差が抑制されるように視線方向が導出される。これによって、眼球の角膜における光の屈折を考慮せずに視線方向を導出する場合であっても、実際の視線方向に高精度で導出することができる。
また、角膜での光の屈折を考慮して視線方向を導出する際の眼球2の中心位置を記憶して視線方向を導出する際に用いているので、撮影画像上の眼の特徴点のみを用いて眼球の中心位置を導出する場合と比べて、高精度で実際の視線方向を導出することができる。
なお、上記各実施形態に係る視線方向推定装置に含まれる装置本体12は、構成する各構成要素を、上記で説明した各機能を有する電子回路等のハードウェアにより構築してもよく、構成する各構成要素の少なくとも一部を、コンピュータにより当該機能を実現するように構築してもよい。
また、上記各実施形態では、説明を簡単にするために、1個の眼球2について視線方向を導出する場合を説明したが、複数の眼球2の各々について視線方向を導出してもよい。この場合、左右一対の眼球2により目視される一方向を特定することが好ましい。また、左右一対の眼球2のうち少なくとも一方の眼球2を視線方向の推定対象としてもよい。この場合、左右一対の眼球2のうち、第2導出法により視線方向を導出可能な眼球2を対象として選択してもよく、左右一対の眼球2の撮影画像を比べて高精細な撮影画像の眼球2を対象として選択してもよい。
さらに、上記各実施形態では、説明を簡単にするために、角度ωと視線誤差ρとの対応関係がマップ107に予め記憶された一例を説明したが、開示の技術は対応関係を予めマップ107に記憶されることに限定されるものではない。例えば、角度ωと視線誤差ρとの対応関係を学習するようにしてもよい。この場合、角度ωを特定可能な目視対象を予めておき、その目視対象を目視させて角度ωと視線誤差ρとの対応関係を導出し、導出された対応関係をマップ107に予め記憶するようにすればよい。
また、上記各実施形態では、乗員の頭部までの距離を計測する距離センサ18を備えた視線方向推定装置の一例を説明したが、距離センサ18を備えることに限定されるものではない。例えば、乗員の頭部とカメラ16との距離が既知であり、距離の変動が、視線方向の推定に影響が少ないことが予測される予め定めた距離範囲内である場合には、視線方向推定装置に乗員の頭部とカメラ16との予め定めた距離を記憶しておき、記憶された距離を読み出して用いてもよい。この場合、複数の異なる距離を段階的に選択可能に記憶しておき、記憶された複数の距離から選択した距離を用いることが好ましい。
なお、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本発明の技術的範囲に含まれる。
10、10A 視線方向推定装置
12 装置本体
12P 視線方向推定プログラム
14 照明部
16 カメラ
18 距離センサ
22 瞳孔
24 特徴部位
101 撮影部
102 見かけの視線方向導出部(第1導出部)
102A 角膜反射法による導出部(第2導出部)
103 眼球中心演算部
103A 眼球中心演算部
104 見かけの瞳孔中心演算部
104A 瞳孔中心演算部
105 見かけの視線方向演算部
105A 視線方向演算部
106 補正量導出部
107 マップ
108 視線方向導出部
109 出力部

Claims (6)

  1. 人物の眼球を含む頭部を撮影する撮像素子を備えたカメラと、
    前記人物の頭部と前記カメラとの距離を検出する距離センサと、
    前記カメラのカメラ性能、及び前記距離センサで検出された前記距離に基づいて、前記カメラのカメラ座標系、前記カメラで撮影された撮影画像の画像座標系、及び前記人物の顔を3次元モデルでモデル化し、かつ眼球モデルを含む顔モデルの顔モデル座標系の相互関係を特定し、特定した座標系の相互関係を用い、前記撮影画像に基づいて、眼球の表面における見かけの瞳孔の2次元の中心位置、及び前記撮影画像における前記人物の眼を特徴的に表す特徴部位の2次元位置を検出し、前記座標系の相互関係、及び前記見かけの瞳孔の2次元の中心位置に基づいて、前記カメラ座標系における前記見かけの瞳孔の3次元の中心位置を推定し、前記特徴部位の2次元位置と前記眼球モデルとをフィッティングして前記カメラ座標系における前記眼球の3次元の中心位置を推定する第1推定方法を含む推定方法により前記眼球の3次元の中心位置を推定し、推定された前記眼球の3次元の中心位置及び前記見かけの瞳孔の3次元の中心位置に基づいて、前記眼球の3次元の中心位置と前記見かけの瞳孔の3次元の中心位置とを結ぶ見かけの視線方向を導出する見かけの視線方向導出部と、
    前記眼球の3次元の中心位置と前記カメラの撮像素子の位置とを結ぶ方向と前記見かけの視線方向とが成す角度に対応する、実際の視線方向と前記見かけの視線方向とが成す角度の関係を示す対応関係と、前記眼球の3次元の中心位置と前記カメラの位置とを結ぶ方向と、前記視線方向導出部で導出された前記見かけの視線方向とに基づいて、前記人物の実際の視線方向を推定する視線方向推定部と、
    を備えた視線方向推定装置。
  2. 前記眼球の3次元の中心位置は、前記人物の眼を特徴的に表す特徴部位である前記撮影画像における眼球周囲の顔の特徴点の位置に基づいて導出される
    請求項1に記載の視線方向推定装置。
  3. 前記推定方法は、前記座標系の相互関係、及び前記人物の眼球に近赤外光が照射されて前記カメラで撮影された人物の眼球の表面で反射された反射光の位置に基づいて、角膜反射法によって、前記眼球の3次元の中心位置を推定する第2推定方法を含み、
    前記人物の眼球に近赤外光を照射する光照明部と、
    前記第2推定方法により前記眼球の3次元の中心位置を推定し、かつ推定された前記眼球の3次元の中心位置を示す情報をメモリに記憶する眼球中心位置推定部と、をさらに備え、
    前記視線方向導出部は、前記眼球の表面で反射された反射光を利用できない場合で、かつ前記メモリに前記眼球の3次元の中心位置を示す情報が記憶されている場合、前記メモリに記憶された前記眼球の3次元の中心位置を示す情報に基づいて、前記眼球の3次元の中心位置を推定し、前記眼球の表面で反射された反射光を利用できない場合で、かつ前記メモリに前記眼球の3次元の中心位置を示す情報が記憶されていない場合、前記第1推定方法により前記眼球の3次元の中心位置を推定する
    請求項1に記載の視線方向推定装置。
  4. 前記眼球中心位置推定部は、前記座標系の相互関係、及び前記反射光の位置に基づいて、前記眼球の角膜の曲率中心の位置である3次元の中心位置を推定し、推定した前記眼球の角膜の曲率中心の位置である3次元の中心位置を用いて前記眼球の3次元の中心位置を推定する
    請求項3に記載の視線方向推定装置。
  5. コンピュータが、
    人物の眼球を含む頭部を撮影する撮像素子を備えたカメラのカメラ性能、及び前記人物の頭部と前記カメラとの距離を検出する距離センサで検出された前記距離に基づいて、前記カメラのカメラ座標系、前記カメラで撮影された撮影画像の画像座標系、及び前記人物の顔を3次元モデルでモデル化し、かつ眼球モデルを含む顔モデルの顔モデル座標系の相互関係を特定し、特定した座標系の相互関係を用い、前記撮影画像に基づいて、眼球の表面における見かけの瞳孔の2次元の中心位置、及び前記撮影画像における前記人物の眼を特徴的に表す特徴部位の2次元位置を検出し、前記座標系の相互関係、及び前記見かけの瞳孔の2次元の中心位置に基づいて、前記カメラ座標系における前記見かけの瞳孔の3次元の中心位置を推定し、前記特徴部位の2次元位置と前記眼球モデルとをフィッティングして前記カメラ座標系における前記眼球の3次元の中心位置を推定する推定方法により前記眼球の3次元の中心位置を推定し、推定された前記眼球の3次元の中心位置及び前記見かけの瞳孔の3次元の中心位置に基づいて、前記眼球の3次元の中心位置と前記見かけの瞳孔の3次元の中心位置とを結ぶ見かけの視線方向を導出し、
    前記眼球の3次元の中心位置と前記カメラの撮像素子の位置とを結ぶ方向と前記見かけの視線方向とが成す角度に対応する、実際の視線方向と前記見かけの視線方向とが成す角度の関係を示す対応関係と、前記眼球の3次元の中心位置と前記カメラの位置とを結ぶ方向と、前記導出された前記見かけの視線方向とに基づいて、前記人物の実際の視線方向を推定する
    視線方向推定方法。
  6. コンピュータを、請求項1から請求項4の何れか1項に記載された視線方向推定装置として機能させるための視線方向推定プログラム。
JP2018056627A 2018-03-23 2018-03-23 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム Active JP6840697B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018056627A JP6840697B2 (ja) 2018-03-23 2018-03-23 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
US16/354,849 US11093032B2 (en) 2018-03-23 2019-03-15 Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
EP19164648.8A EP3545818B1 (en) 2018-03-23 2019-03-22 Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
CN201910222354.3A CN110310321A (zh) 2018-03-23 2019-03-22 视线方向估算装置,视线方向估算方法和视线方向估算程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018056627A JP6840697B2 (ja) 2018-03-23 2018-03-23 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム

Publications (2)

Publication Number Publication Date
JP2019168954A JP2019168954A (ja) 2019-10-03
JP6840697B2 true JP6840697B2 (ja) 2021-03-10

Family

ID=65910965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018056627A Active JP6840697B2 (ja) 2018-03-23 2018-03-23 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム

Country Status (4)

Country Link
US (1) US11093032B2 (ja)
EP (1) EP3545818B1 (ja)
JP (1) JP6840697B2 (ja)
CN (1) CN110310321A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111208905A (zh) * 2020-01-08 2020-05-29 北京未动科技有限公司 一种多模组视线追踪方法、系统和视线追踪设备
CN111353429A (zh) * 2020-02-28 2020-06-30 深圳壹账通智能科技有限公司 基于眼球转向的感兴趣度方法与系统
JP7404137B2 (ja) 2020-04-01 2023-12-25 株式会社豊田中央研究所 顔画像処理装置及び顔画像処理プログラム
CN112099622B (zh) * 2020-08-13 2022-02-01 中国科学院深圳先进技术研究院 一种视线追踪方法及装置
JP7404282B2 (ja) 2021-02-10 2023-12-25 株式会社豊田中央研究所 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061785A (ja) * 1999-08-26 2001-03-13 Shimadzu Corp 視線検出方法及びその装置
JP4692526B2 (ja) 2006-07-18 2011-06-01 株式会社国際電気通信基礎技術研究所 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム
JP5560858B2 (ja) 2010-04-02 2014-07-30 富士通株式会社 補正値算出装置、補正値算出方法および補正値算出プログラム
CA2870751C (en) 2012-07-31 2015-08-18 Japan Science And Technology Agency Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium
WO2016013634A1 (ja) * 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム
KR102442569B1 (ko) * 2016-07-14 2022-09-08 매직 립, 인코포레이티드 각막 곡률을 이용한 홍채 경계 추정
WO2018030515A1 (ja) * 2016-08-12 2018-02-15 国立大学法人静岡大学 視線検出装置
EP3305176A1 (en) * 2016-10-04 2018-04-11 Essilor International Method for determining a geometrical parameter of an eye of a subject
JP6800091B2 (ja) 2017-06-09 2020-12-16 株式会社豊田中央研究所 視線計測装置及びプログラム

Also Published As

Publication number Publication date
CN110310321A (zh) 2019-10-08
US20190294240A1 (en) 2019-09-26
EP3545818A1 (en) 2019-10-02
US11093032B2 (en) 2021-08-17
JP2019168954A (ja) 2019-10-03
EP3545818B1 (en) 2022-01-12

Similar Documents

Publication Publication Date Title
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP6902075B2 (ja) 構造化光を用いた視線追跡
JP4649319B2 (ja) 視線検出装置、視線検出方法、および視線検出プログラム
JP5230748B2 (ja) 視線方向判定装置及び視線方向判定方法
JP6548171B2 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
JP2008136789A (ja) 眼球パラメータ推定装置及び方法
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JPWO2008007781A1 (ja) 視線方向検出装置および視線方向検出方法
KR101769177B1 (ko) 시선 추적 장치 및 방법
CN112102389A (zh) 确定实物至少一部分的3d重构件的空间坐标的方法和系统
JP2019000136A (ja) 視線計測装置及びプログラム
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP6669182B2 (ja) 乗員監視装置
JP7255436B2 (ja) 眼球構造推定装置
JP2018101212A (ja) 車載器および顔正面度算出方法
JP7283841B2 (ja) 視線計測装置
JP6906943B2 (ja) 車載器
JP3711053B2 (ja) 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体
WO2019017224A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006227739A (ja) 画像処理装置及び画像処理方法
JP2005081101A (ja) 視線方向検出装置及び視線方向検出方法
JP2018149234A (ja) 注視点推定システム、注視点推定方法及び注視点推定プログラム
JP6468078B2 (ja) 視線キャリブレーションプログラム、視線キャリブレーション装置、および視線キャリブレーション方法
JP6503856B2 (ja) 虹彩パタン比較装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210217

R150 Certificate of patent or registration of utility model

Ref document number: 6840697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250