JP2020048971A - 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム - Google Patents

眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム Download PDF

Info

Publication number
JP2020048971A
JP2020048971A JP2018182507A JP2018182507A JP2020048971A JP 2020048971 A JP2020048971 A JP 2020048971A JP 2018182507 A JP2018182507 A JP 2018182507A JP 2018182507 A JP2018182507 A JP 2018182507A JP 2020048971 A JP2020048971 A JP 2020048971A
Authority
JP
Japan
Prior art keywords
pupil
center position
eyeball
purkinje
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018182507A
Other languages
English (en)
Other versions
JP7198023B2 (ja
Inventor
祐也 山田
Yuya Yamada
祐也 山田
加藤 隆志
Takashi Kato
隆志 加藤
浩延 宝田
Hironobu Takarada
浩延 宝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2018182507A priority Critical patent/JP7198023B2/ja
Priority to US16/580,511 priority patent/US10706585B2/en
Priority to DE102019125751.4A priority patent/DE102019125751A1/de
Publication of JP2020048971A publication Critical patent/JP2020048971A/ja
Application granted granted Critical
Publication of JP7198023B2 publication Critical patent/JP7198023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】眼球中心位置の推定精度の低下を抑制できる眼球情報推定装置を提供する。【解決手段】眼球情報推定装置は、対象者の眼の瞳孔と、対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得部と、瞳孔の中心位置とプルキニエ像の位置を検出する検出部と、第1の視線角度算出処理と、第2の視線角度算出処理とのいずれを実行するかを選択する選択部と、第1の視線角度算出処理が選択された場合に、少なくとも瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつプルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、視線角度に基づいて決定される3次元顔モデルに基づき、対象者の眼の眼球中心位置の推定を行い、記憶部の眼球中心位置の更新を実行する処理部と、を備える。【選択図】図5

Description

本発明の実施形態は、眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラムに関する。
従来、撮像された画像(静止画または動画)に含まれる顔の眼(眼球)の3次元位置を推定する技術が提案されている。推定された眼球中心位置は、例えば、視線角度(視線方向)の算出等に利用することができる。眼球中心位置は対象者毎の骨格や輪郭によって異なるため、精度のより眼球中心位置を推定するためには、事前のキャリブレーションが必要であったため処理が煩雑であった。そこで、眼球中心の3次元位置を、キャリブレーションを行うことなく精度よく推定する推定装置が提案されている。この推定装置は、例えば、推定された顔の3次元の位置姿勢および検出された顔画像上の瞳孔中心の2次元位置に基づいて、左右の眼の各々について、予め定められた統計的な眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の視線ベクトルを計算している。そして、左右の眼の各々の3次元の視線ベクトルの時系列に基づいて、例えば、左右の眼の各々の視対象の3次元位置の誤差が最小となるように、顔モデル座標系における左右の眼の各々の眼球中心の3次元位置の最適値を推定するようにしている。
特開2013−252301号公報
しかしながら、例えば、視線角度(視線方向)を利用するような状況において、眼球中心位置を推定する対象者は、長時間じっとしている可能性は低く、顔の向きを不規則に変えることがある。そのため、瞳孔中心の2次元位置や3次元の顔モデルの座標系等の検出が不安定になる場合がある。このような場合に、そのまま眼球中心の位置を推定すると、瞳孔中心の2次元位置や3次元の顔モデルの座標系等で生じている誤差がそのまま、推定する眼球中心の3次元位置に反映されて精度が低下してしまうという問題がある。その結果として、視線角度(視線方向)が正確に算出できない場合があった。したがって、眼球中心位置の推定精度の低下を抑制できる眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラムが提供できれば、眼球中心位置を用いた種々の処理、例えば、視線角度の算出等の高精度化が図れて有意義である。
本発明の実施形態にかかる眼球情報推定装置は、例えば、対象者の眼の瞳孔と、上記対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得部と、上記瞳孔の中心位置と上記プルキニエ像の位置を検出する検出部と、上記瞳孔の中心位置と上記プルキニエ像の位置に基づいて上記対象者の眼の視線角度を算出する第1の視線角度算出処理と、上記瞳孔の中心位置と記憶部から読み出される上記対象者に対応する眼の眼球中心位置とに基づいて上記対象者の眼の視線角度を算出する第2の視線角度算出処理とのいずれを実行するかを選択する選択部と、上記第1の視線角度算出処理が選択された場合に、少なくとも上記瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつ上記プルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、上記視線角度に基づいて決定される3次元顔モデルに基づき、上記対象者の眼の眼球中心位置の推定を行い、上記記憶部の上記眼球中心位置の更新を実行する処理部と、を備える。この構成によれば、例えば、瞳孔信頼度およびプルキニエ信頼度が高い場合(それぞれ所定の信頼度がある場合)に、信頼性のある瞳孔中心位置およびプルキニエ像の位置に基づいて算出された視線角度を用いて、眼球中心位置の推定を行う。その結果、眼球中心位置が、信頼度の低い値によって推定されてしまうことを回避することができる。したがって、以降の処理で眼球中心位置を用いた視線角度算出精度の低下を抑制し、全体として視線算出角度の算出精度の維持または向上に寄与できる。
本発明の実施形態にかかる眼球情報推定装置の上記処理部は、例えば、上記眼球中心位置の更新を実行する条件として、さらに、上記対象者の眼である確からしさを示す眼信頼度が所定の眼閾値より高いこと、上記対象者の顔の特徴点の3次元フィッティングの信頼度が所定のフィッティング閾値より高いこと、上記第1の視線角度算出処理で算出した上記視線角度の前回処理で算出した視線角度に対する変化量が所定の角度変化閾値未満であること、上記対象者の顔の位置が上記画像の所定領域内であること、上記対象者の顔の向きが上記画像において所定方向を向いていること、のうち少なくとも一つの条件を加えてもよい。この構成によれば、例えば、眼球中心位置の推定を許可する条件を厳しくすることで、より信頼度の高い状況のときに眼球中心位置の推定が実行され、眼球中心位置の推定精度が低下することをより抑制できる。
本発明の実施形態にかかる眼球情報推定装置の上記選択部は、例えば、上記取得部が取得する上記画像における上記瞳孔の上記瞳孔信頼度が上記第1の瞳孔閾値より低い第2の瞳孔閾値以下の場合、上記第1の視線角度算出処理と上記第2の視線角度算出処理とのいずれも実行しないようにしてもよい。この構成によれば、例えば、瞳孔の中心位置の検出精度(瞳孔信頼度)が低い場合には、視線角度算出が実行されず、不正確な処理結果が利用されることを回避することができる。
本発明の実施形態にかかる眼球情報推定装置の上記選択部は、例えば、上記取得部が取得する上記画像における上記プルキニエ像の上記プルキニエ信頼度が上記第1のプルキニエ閾値より低い第2のプルキニエ閾値より高い場合、上記第1の視線角度算出処理を選択し、上記プルキニエ信頼度が上記第2のプルキニエ閾値以下の場合、上記第2の視線角度算出処理を選択するようにしてもよい。この構成によれば、例えば、取得される画像内容に応じた適切な視線角度算出処理を実行することができる。
本発明の実施形態にかかる眼球情報推定方法は、例えば、対象者の眼の瞳孔と、上記対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得ステップと、上記瞳孔の中心位置と上記プルキニエ像の位置を検出する検出ステップと、上記瞳孔の中心位置と上記プルキニエ像の位置に基づいて上記対象者の眼の視線角度を算出する第1の視線角度算出処理と、上記瞳孔の中心位置と記憶部から読み出される上記対象者に対応する眼の眼球中心位置とに基づいて上記対象者の眼の視線角度を算出する第2の視線角度算出処理とのいずれを実行するかを選択する選択ステップと、上記第1の視線角度算出処理が選択された場合に、少なくとも上記瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつ上記プルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、上記視線角度に基づいて決定される3次元顔モデルに基づき、上記対象者の眼の眼球中心位置の推定を行い、上記記憶部の上記眼球中心位置の更新を実行する処理ステップと、を備える。この構成によれば、例えば、瞳孔信頼度およびプルキニエ信頼度が高い場合(それぞれ所定の信頼度がある場合)に、信頼性のある瞳孔中心位置およびプルキニエ像の位置に基づいて算出された視線角度を用いて、眼球中心位置の推定を行う。その結果、眼球中心位置が、信頼度の低い値によって推定されてしまうことを回避することができる。したがって、以降の処理で眼球中心位置を用いた視線角度算出精度の低下を抑制し、全体として視線算出角度の算出精度の維持または向上に寄与できる。
本発明の実施形態にかかる眼球情報推プログラムは、例えば、コンピュータに、対象者の眼の瞳孔と、上記対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得ステップと、上記瞳孔の中心位置と上記プルキニエ像の位置を検出する検出ステップと、上記瞳孔の中心位置と上記プルキニエ像の位置に基づいて上記対象者の眼の視線角度を算出する第1の視線角度算出処理と、上記瞳孔の中心位置と記憶部から読み出される上記対象者に対応する眼の眼球中心位置とに基づいて上記対象者の眼の視線角度を算出する第2の視線角度算出処理とのいずれを実行するかを選択する選択ステップと、上記第1の視線角度算出処理が選択された場合に、少なくとも上記瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつ上記プルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、上記視線角度に基づいて決定される3次元顔モデルに基づき、上記対象者の眼の眼球中心位置の推定を行い、上記記憶部の上記眼球中心位置の更新を実行する処理ステップと、を実行させる。この構成によれば、例えば、瞳孔信頼度およびプルキニエ信頼度が高い場合(それぞれ所定の信頼度がある場合)に、信頼性のある瞳孔中心位置およびプルキニエ像の位置に基づいて算出された視線角度を用いて、眼球中心位置の推定を行う処理をコンピュータに実行させることができる。その結果、眼球中心位置が、信頼度の低い値によって推定されてしまうことを回避することができる。したがって、以降の処理で眼球中心位置を用いた視線角度算出精度の低下を抑制し、全体として視線算出角度の算出精度の維持または向上に寄与できる。
図1は、実施形態にかかる眼球情報推定装置を搭載可能な車両の車室の一部が透視された状態が示された例示的な斜視図である。 図2は、実施形態にかかる眼球情報推定装置で利用する画像を撮像するための撮像部および赤外線照射器の配置の一例を示す模式図である。 図3は、実施形態にかかる眼球情報推定装置において利用可能な、瞳孔の中心位置とプルキニエ像の位置を用いて視線角度を算出する第1の視線角度算出処理の概要を説明する模式図である。 図4は、実施形態にかかる眼球情報推定装置において利用可能な、瞳孔の中心位置と眼球中心位置を用いて視線角度を算出する第2の視線角度算出処理の概要を説明する模式図である。 図5は、実施形態にかかる眼球情報推定装置の構成を例示的に示すブロック図である。 図6は、実施形態にかかる眼球情報推定装置で利用可能なディープラーニングにおける学習に用いる正解情報を説明する例示的な模式図である。 図7は、実施形態にかかる眼球情報推定装置で利用可能なディープラーニングにおける学習に用いる不正解情報を説明する例示的な模式図である。 図8は、実施形態にかかる眼球情報推定装置において、取得した画像に基づく顔特徴点を用いて3次元の顔モデルのフィッティングを説明するための例示的な模式図である。 図9は、実施形態にかかる眼球情報推定装置において、眼球中心位置の推定を説明するための例示的な模式図である。 図10は、実施形態にかかる眼球情報推定装置における、視線角度算出処理と眼球中心位置の更新処理の流れの一例を示すフローチャートである。 図11は、図10のフローチャートにおける、角膜反射法(第1の視線角度算出処理)の流れの一例を示すフローチャートである。 図12は、図10のフローチャートにおける、眼球中心位置の推定更新処理の詳細な処理の流れの一例を示すフローチャートである。 図13は、図10のフローチャートにおける、眼球モデル法(第2の視線角度算出処理)の流れの一例を示すフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
以下に示す実施形態では、眼球情報推定装置を車両に搭載して、乗員(例えば、運転者)を対象者として眼球情報、具体的には、眼球中心位置の推定および更新を行う場合を説明する。
図1に示す車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード12(インストルメントパネル)から突出したステアリングホイールである。
また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electroluminescent Display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部で覆われている。乗員は、操作入力部を介して表示装置の表示画面に表示される画像を視認することができる。また、乗員は、表示装置の表示画面に表示される画像に対応した位置において手指等で操作入力部を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
また、図2に示すように、車室2aにおいて、操舵部4を支持するハンドルコラム202には、撮像部201と、赤外線照射器203(光源)と、が設けられている。赤外線照射器203は、例えば、赤外線を照射するLED(Light Emitting Diode)ライト等とすることができる。撮像部201は、例えば、赤外線による撮影に対応した、CCD(Charge Coupled Device)カメラ等とすることができる。
撮像部201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。また、赤外線照射器203は、当該赤外線照射器203が照射する光の光軸が、座席2bに着座する運転者302の顔の近傍に来るように、調整されている。
赤外線照射器203は、上述した調整の結果、車両1の座席2bに人が座った場合に、当該人の顔が存在する可能性がある範囲250に対して、赤外線212を照射する。赤外線212は、人の眼には光として認識されない。このため、人の顔の方向に照射しても、照射対象となった人はまぶしいと感じない。このため、運転時の快適性を確保すると共に、撮像部201による、人の顔の撮像が容易になる。
撮像部201は、上述した調整の結果、赤外線照射器203により赤外線が照射される、当該人の顔が存在する可能性がある範囲250を撮像する。そして、撮像部201は、例えば、車両1の運転が行われている間、運転者302の顔の撮影を継続し、所定のフレームレートで動画データ(撮像画像データ)を逐次出力することができる。この場合、撮像画像データには、赤外線照射器203の照射した赤外線が、運転者302の眼の角膜表面で反射した場合に写る虚像(以下、「プルキニエ像」という)を含むことができる。プルキニエ像は、眼の角膜表面に写るため、例えば、瞼が閉じられている場合には写らない。また、瞼の開き具合(瞼開度)に応じて、写る場合と写らない場合がある。プルキニエ像の詳細は後述する。
なお、撮像部201として赤外線カメラを用いる場合、周囲の光の影響を受け難く、運転者302に不快感を与えることなく顔が存在する可能性のある領域の撮像を良好に行うことができる。なお、撮像部201として可視光カメラを用いてもよい。この場合、赤外線照射器203に代えて、可視光を投光する投光器を用いることができる。この場合、システムの簡略化等に寄与することができる。ただし、この場合、投光器の配置や光量の調整を行、運転者302等の乗員が、可視光による眩しさを感じ難くすることが望ましい。また、撮像部201および赤外線照射器203の設置位置は、ハンドルコラム202に限定されず、運転者302の顔が存在する可能性がある範囲250を概ね正面から撮像することができる場所であれば、適宜変更可能である。例えば、撮像部201および赤外線照射器203は、ダッシュボード12上に設けられてもよいし、天井やルームミラー等に設置されてもよい。また、撮像部201と赤外線照射器203とは分離された位置にそれぞれ設けられてもよい。
本実施形態の眼球情報推定装置は、運転者302の視線角度(視線方向)を算出しつつ、眼球情報としての眼球中心位置の推定精度の低下を抑制し、結果的に視線角度の算出精度を向上させるものである。具体的には、眼球情報推定装置は、視線角度の算出に伴い推定可能な眼球中心位置を視線角度の算出が高精度にできる条件が揃う場合にのみ更新することで、眼球中心位置の推定精度の低下を抑制している。そして、結果的に、更新された眼球中心位置を用いて、より正確な視線角度を算出できるようにしている。
本実施形態の場合、視線角度を算出する際に、周知の第1の視線角度算出処理と周知の第2の視線角度算出処理とのいずれかを、撮像部201の撮像した画像の状態(内容)に基づいて選択的に用いるようにしている。まず、第1の視線角度算出処理と第2の視線角度算出処理の概要について示す。
図3は、本実施形態のおける第1の視線角度算出処理である、いわゆる「角膜反射法」の概要を説明する図である。角膜反射法は、赤外線照射器203の光が眼球30の前部に位置する角膜32に映り込んだ(角膜32の表面で反射した場合に写る)プルキニエ像34の位置と瞳孔36の中心位置36aとの位置関係に基づき、視線角度L(視線方向)を検出する方法である。プルキニエ像34の位置は、角膜32の角膜曲率中心位置32aと眼球中心位置30aとの違い(回転中心の違い)により眼球運動に伴って平行移動する。したがって、例えば、左目のプルキニエ像34よりも瞳孔36が目じり側にあれば、運転者302は左側方向を見ていると見なすことができる。また、左目のプルキニエ像34よりも瞳孔36が目頭側にあれば、運転者302は右側方向を見ていると見なすことできる。
図4は、本実施形態のおける第2の視線角度算出処理である、いわゆる「眼球モデル法」の概要を説明する図である。眼球モデル法は、瞳孔36の中心位置36aと眼球30において予め統計的に求められている眼球中心位置30aとを用いて、中心位置36aと眼球中心位置30aとを結ぶ方向を視線角度L(視線方向)として検出する方法である。
図5は、実施形態の眼球情報推定装置100の構成を例示的に示すブロック図である。本実施形態では、眼球情報推定装置100は、ハードウェアとソフトウェア(眼球情報推定プログラム)が協働することにより、撮像部201で撮像した撮像画像データから眼球情報の推定対象の一例となる運転者302の視線角度L(視線方向)を逐次算出する処理を実行するとともに、眼球中心位置の推定処理を実行する。眼球情報推定装置100は、CPU40(Central Processing Unit)やROM42(Read Only Memory)、RAM44(Random Access Memory)、SSD46(Solid State Drive、フラッシュメモリ)等の記憶部で構成されるコンピュータ上で実現することができる。なお、眼球情報推定装置100が車両1に搭載される場合、車両1を制御する複数のECU(Electronic Control Unit)のCPUにおいて眼球情報推定装置100が実現されてもよいし、車両制御用のECUとは別のECUで実現されてもよいし、独立した眼球情報推定装置100として搭載されてもよい。
CPU40は、ROM42等の不揮発性の記憶装置にインストールされ記憶された眼球情報推定プログラム42aを読み出し、当該眼球情報推定プログラム42aにしたがって演算処理を実行できる。ROM42には、眼球情報推定プログラム42aの他、統計データ格納部42bに格納された統計データ、閾値データ格納部42cに格納された閾値データ、学習済みデータ格納部42dに格納された学習済みデータ、条件データ格納部42eに格納された条件データ等が記憶されている。RAM44は、CPU40による眼球情報推定プログラム42aの実行時のワークエリアとして使用されるとともに、CPU40での演算で用いられる各種のデータの一時的な格納エリアとして利用される。RAM44には、例えば、カメラ画座標データを格納するカメラ画座標格納部44a、処理対象の画面座標データを格納する画面座標格納部44b、顔モデル座標データを格納する顔モデル座標格納部44c、信頼度データを格納する信頼度データ格納部44d等が設けられている。また、SSD46は、書き換え可能な不揮発性の記憶部であって、眼球情報推定装置100の電源がオフされた場合にあってもデータを格納することができる。なお、CPU40や、ROM42、RAM44等は、同一パッケージ内に集積されうる。また、眼球情報推定装置100は、CPU40に替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD46に替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD46やHDDは、眼球情報推定装置100とは別に設けられてもよい。
CPU40は、眼球情報推定装置100の機能を実現するための各種モジュールを含む。例えば、CPU40は、図5に示されるように、取得部48、検出部50、信頼度算出部52、選択部54、処理部56等を実現する。なお、これらのモジュールは、専用のハードウェアとして構成されてもよい。
取得部48は、撮像部201により撮像された撮像画像データを逐次取得し、RAM44のカメラ画座標格納部44aにフレーム毎に格納させる。取得部48は、撮像部201が逐次撮像する撮像画像データを取得してもよいし、取得部48が所定のタイミングで撮像部201に撮像処理を実行させて、撮像画像データを取得するようにしてもよい。
検出部50は、カメラ画座標格納部44aから撮像画像データを読出し、運転者302の顔の位置や顔部品(例えば、口、鼻、眼等)を検出する。また、取得部48は、運転者302の顔が検出された領域内で、顔の顔特徴点(例えば、口、鼻、眼(目尻、目頭等))を検出する。運転者302の顔の位置、顔部品、顔特徴点等を検出する手法として、周知の各種手法が利用可能であるが、例えば、ニューラルネットワーク(Neural Network:NN)、個人顔テンプレート等を用いる手法が利用可能である。また、別の方法では、例えば、周知の3次元モデルフィッティングの手法が利用可能である。検出部50は、例えば、ROM42の統計データ格納部42bに予め格納された統計的顔形状モデル、すなわち予め作成した平均的な顔の仮モデルで規定された特徴点を初期状態として参照し、仮モデルを移動、回転、拡縮等させることで、運転者302の顔の位置、顔部品、顔特徴点等を検出する。この際、運転者302の画像上の顔位置座標や、顔向き角度等も検出される。
また、検出部50は、検出された目尻、目頭を基準として、上まぶた及び下まぶたを検出する。上まぶた及び下まぶたの検出手法としては、例えば、曲線フィッティング手法等を用いることができる。検出部50は、算出した上まぶた及び下まぶたの間の距離に基づいて、瞼開度を算出することができる。また、検出部50は、撮像画像データにおける、瞳孔36および瞳孔36の中心位置36aを検出する。さらに、検出部50は、撮像画像データにおいて、検出された上まぶた及び下まぶたの間の近傍領域からプルキニエ像34を検出する。瞳孔36やプルキニエ像34は、過去に取得した大量の顔の顔部品位置やプルキニエ像34に関する正解情報と不正解情報とに基づき学習させるディープラーニング等の機械学習手法で作成し、ROM42の学習済みデータ格納部42dに記憶させた学習済みデータを用いて検出することができる。
ここで、一例として、ディープラーニングにおいて、学習に用いる正解情報および不正解情報について、図6、図7を用いて説明する。
瞳孔36の正解情報とは、撮像画像データに基づく投影画像のうち、瞳孔中心が適切にタグTで示された眼付近の画像として定義できる。一方、瞳孔36の不正解情報とは、撮像画像のうち、瞳孔中心の本来の位置からずれた位置にタグTが示された眼付近の画像として定義できる。そして、学習を行うために、上述のように定義される正解情報と、不正解情報とを用意する。図6は、瞳孔36の正解情報の例を示したものであり、図7は、瞳孔36の不正解情報の例を示したものである。正解情報は、ユーザ(利用者)が、例えば、手動でタグTを設定する場合が考えられる。一方、不正解情報は、ユーザが不正解情報を生成するための規則を設定(生成)した後、パーソナルコンピュータ等の情報処理装置が、設定された規則に基づいて不正解情報を複数生成する。これにより、バランスよく大量の不正解データを生成することができる。
また、学習済みデータ格納部42dは、プルキニエ像34の正解情報と不正解情報とに基づいて、ディープラーニング等の機械学習手法で作成された学習済みデータを記憶することができる。プルキニエ像34の正解情報とは、撮像画像のうち、プルキニエの中心がタグTで示された眼付近の画像として定義できる。プルキニエ像34の不正解情報とは、本来のプルキニエの中心からずれた位置にタグTが示された眼付近の画像として定義できる。プルキニエ像34の正解情報および不正解情報の生成手法は、瞳孔36の正解情報および不正解情報の生成手法と同様であるため、その説明は省略する。なお、本実施家形態において、瞳孔36やプルキニエ像34以外の項目についても、同様に学習済みデータを生成することができる。
そして、上述したように生成された正解情報および不正解情報に基づいた学習済みデータが、学習済みデータ格納部42dに記憶される。これにより、検出部50および信頼度算出部52は、学習済みデータに基づいて、瞳孔36およびプルキニエ像34の確からしさを示すスコアの算出ができる。例えば、学習した瞳孔36の正解情報に類すると判別されたデータは、瞳孔36の確からしさが高いデータ(スコアの高いデータ)となり、学習した瞳孔36の不正解情報に類すると判別されたデータは、瞳孔36の確からしさが低いデータ(スコアの低いデータ)となる。このように、学習済みデータを用いて、撮像画像データ(撮像画像)に対して瞳孔36である確からしさを示すスコア(点数)をつけ、そのスコアが所定値より高い場合に、瞳孔36であると判定する。同様に、学習済みデータを用いて、撮像画像データに対してプルキニエ像34である確からしさを示すスコア(点数)をつけ、そのスコアが所定値より高い場合に、プルキニエ像34であると判定する。なお、瞳孔36やプルキニエ像34の検出は、例えば、上まぶた及び下まぶたの間の近傍の輝度値を解析することによって実行してもよい。検出部50は、各種検出結果をカメラ画座標格納部44aや顔モデル座標格納部44cに格納し、次の画像に対して処理を行う場合には、前回処理の検出結果を用いることが可能で、顔の領域(位置)や各顔部品、顔の向き等の検出を容易に行えるようにすることができる。
信頼度算出部52は、撮像画像データに写っている顔部品と思われるものの信頼度、例えば、瞳孔36である確からしさを示す瞳孔信頼度、プルキニエ像34である確からしさを示すプルキニエ信頼度、眼であることを示す眼信頼度等を算出する。例えば、瞳孔36、プルキニエ像34等の検出をディープラーニング等の機械学習手法で作成した学習済みデータを用いて実行する場合、その処理過程でそれぞれの確からしさを示すスコアが付与される。信頼度算出部52は、このスコアをそれぞれの信頼度をとして算出する。つまり、スコアが高いほど瞳孔36でかる可能性、プルキニエ像34である可能性が高いことを示す。信頼度算出部52は、算出した各信頼度をRAM44の信頼度データ格納部44dに格納する。
選択部54は、視線角度を算出するのにあたり、図3説明した角膜反射法(第1の視線角度算出処理)を実行するか、図4で説明した眼球モデル法(第2の視線角度算出処理)を実行するかを選択する。選択部54は、例えば、信頼度算出部52で算出した瞳孔信頼度およびプルキニエ信頼度とROM42の閾値データ格納部42cに格納された閾値データとの比較に基づいて処理方法の選択を行う。閾値データ格納部42cには、例えば、後述する処理部56で眼球中心位置の推定および更新を実行するか否かを決定する際に参照する第1の瞳孔閾値や第1のプルキニエ閾値、選択部54で参照する第1の瞳孔閾値よりは閾値が低い第2の瞳孔閾値や第1のプルキニエ閾値よりは閾値が低い第2のプルキニエ閾値等が格納されている。
なお、選択部54は、現在処理中の画像において、瞳孔36の瞳孔信頼度が第2の瞳孔閾値以下の場合、例えば、瞳孔36が認識できないような場合には、視線角度算出処理を実行しないようにしてもよい。したがって、選択部54は、現在処理中の画像において、瞳孔36の瞳孔信頼度が第2の瞳孔閾値より高い場合、つまり、瞳孔36が概ね認識できる場合には、プルキニエ信頼度に基づき角膜反射法(第1の視線角度算出処理)または眼球モデル法(第2の視線角度算出処理)のいずれを実行するかを選択する。
閾値データ格納部42cには、上述した第1、第2の瞳孔閾値、第1、第2のプルキニエ閾値の他、眼閾値、フィッティング閾値、角度変化閾値、顔位置判定閾値、顔向き判定閾値、瞼閾値等、複数の閾値が格納されている。なお、眼閾値は、眼である確からしさを示す眼信頼度を算出する際に参照する閾値である。角度変化閾値は、眼球情報推定装置の各処理周期において、視線角度算出処理で算出された視線角度の変化量が許容値以内であるかを判定する際に参照する閾値である。顔位置判定閾値は、運転者302(対象者)の顔の位置が取得部48で取得された画像の所定領域内であるか否かを判定する際に参照する閾値である。フィッティング閾値は、運転者302の顔の顔特徴点と3次元フィッティングモデルとの一致程度を判定する際に参照する閾値である。顔向き判定閾値は、運転者302の顔の向きが取得部48で取得された画像において所定方向、例えば、正面を向いているか否かを判定する際に参照する閾値である。また、瞳閾値は、瞼の開き程度を判定する場合に参照する閾値である。
処理部56は、選択部54によって選択された視線角度算出処理にしたがい、視線角度算出を実行する。例えば、角膜反射法(第1の視線角度算出処理)が選択された場合には、検出部50が検出した瞳孔36の中心位置36aおよびプルキニエ像34の位置に基づき視線角度を算出する。また、眼球モデル法(第2の視線角度算出処理)が選択された場合には、検出部50が検出した瞳孔36の中心位置36aおよび予め算出された眼球中心位置30aに基づき視線角度を算出する。眼球モデル法が初回に実行される場合、眼球中心位置30aは、統計データ格納部42bに格納された統計的な眼球中心位置30aを用いて視線角度を算出する。また、処理部56により眼球中心位置30aが更新(修正)された場合には、更新された眼球中心位置30aを以降の処理で参照する。
また、処理部56は、選択部54によって、視線角度算出処理の手法として、角膜反射法(第1の視線角度算出処理)が選択された場合は、眼球中心位置30aの更新を行うか否かをROM42の条件データ格納部42eに格納された更新条件を参照し決定し、更新条件が満たされた場合に眼球中心位置30aの更新(修正)を実行する。例えば、信頼度算出部52で算出された信頼度のうち、少なくとも瞳孔36である確からしさを示す瞳孔信頼度が第1の瞳孔閾値より高く、かつプルキニエ像である確からしさを示すプルキニエ信頼度が第1のプルキニエ閾値より高い場合に、更新条件が満たされたと判定し、眼球中心位置の更新を実行する。ここで、閾値データ格納部42cに格納された第1の瞳孔閾値は、選択部54がいずれの視線角度算出処理を実行するかを選択する場合に参照した第2の瞳孔閾値より高く(厳しく)設定されている。同様に、第1のプルキニエ閾値は、選択部54がいずれの視線角度算出処理を実行するかを選択する場合に参照した第2のプルキニエ閾値より高く(厳しく)設定されている。したがって、より眼の検出精度がより高い場合に限り、眼球中心位置の更新が実施される。その結果、眼の検出が不安定、例えば、運転者302(対象者)の瞳孔36やプルキニエ像34が信頼度の高い状態で検出できない場合に、眼球モデル法(第2の視線角度算出処理)で利用される眼球中心位置30aが誤差を含む状態で更新されてしまうことを回避する。つまり、眼球モデル法による視線角度検出精度が低下することを防止するとともに、眼球中心位置30aの推定精度が向上することにより、眼球情報推定装置としての信頼度の向上にも寄与できる。
処理部56は、眼球中心位置30aの更新を行うか否かを判定する更新条件として、さらに、現在処理対象の画像の眼信頼度、顔の特徴点の3次元フィッティングの信頼度、前回算出した視線角度と今回算出した視線角度の変化量、対象者の顔の位置や顔向き角度のうち少なくとも一つを加えてもよい。例えば、眼信頼度が所定の眼閾値以下の場合、例えば、睫毛や眼鏡の枠等を眼と誤認識していると推定されるため、眼球中心位置30aの更新が禁止される。また、顔の特徴点の3次元フィッティングの信頼度が所定のフィッティング閾値以下の場合、例えば、運転者302の交代等が発生していたり、目頭や目尻等を瞳孔と誤認識していたりすると推定されるため、眼球中心位置30aの更新が禁止される。視線角度の変化量が、所定の角度変化閾値を超えて変化した場合、つまり、視線の動きが不安定な場合も、眼球中心位置30aの更新が禁止される。視線の動きが不安定となる原因としては、画面上の瞳孔36の実際の位置または検出した位置が不安定(ぶれている)場合や、瞳孔36やプルキニエ像34の検出が不安定な場合等がある。また、運転者302の顔の位置が画像の所定の領域閾値から外れている場合、例えば、運転者302が座席2bの片寄った位置に着座していたり斜め姿勢で着座していたりして通常の運転姿勢を取っていない場合は、瞳孔36の検出が不正確になるため、眼球中心位置30aの更新が禁止される。同様に、運転者302の顔の向きが画像において所定の方向閾値から外れている場合、例えば、正面を向いていない場合で、脇見をしていたり、居眠り等により下や上を向いていたりしている場合も、瞳孔36の検出が不正確になるため、眼球中心位置30aの更新が禁止される。この他、瞼開度を判定条件に含めてもよい。瞼開度が所定の瞼閾値以下の場合、仮に瞳孔36やプルキニエ像34の検出ができたとしても、その検出精度は不正確になると推定されるため、眼球中心位置30aの更新を禁止するようにしてもよい。なお、各閾値は、ROM42の閾値データ格納部42cに格納されている。
処理部56は、上述したように、眼球中心位置30aの更新を許可した場合、角膜反射法(第1の視線角度算出処理)で算出された視線角度Lに基づいて決定される3次元顔モデルに基づき、運転者302の眼の眼球中心位置30aの推定を行う。例えば、図8に示すように、検出部50で検出した運転者302の顔の顔特徴点P(眼60、鼻62、口64等の他輪郭等の顔特徴点)に対応するように、3次元顔モデルMを画像上で移動、回転、縮小、拡大等して画像上の顔にフィッティングさせる。3次元顔モデルMは、統計的顔形状モデルであり、3次元顔モデルMの3次元顔座標上で眼60の位置が定めれば、3次元顔モデルMの内部に存在する図9に示す眼球30も対応して、移動、回転、縮小、拡大等が行われる。その結果、3次元顔座標上での眼球30の位置および眼球中心位置30aの座標が推定できる。この場合、処理部56で角膜反射法(第1の視線角度算出処理)を用いて算出した視線角度Lを用いれば、画像上の顔に対する3次元顔モデルMのフィッティング精度を向上することができる。つまり、3次元顔モデルMにおける眼球中心位置30aの推定精度を向上することができる。処理部56は、推定した眼球中心位置30aをRAM44の顔モデル座標格納部44cに格納する。このとき格納された眼球中心位置30aは、次回の処理で眼球モデル法(第2の視線角度算出処理)が実行される場合に、参照される。その結果、眼球モデル法による視線角度の算出精度を向上させることができる。
なお、図5に示すモジュール構成は一例であり、同様な処理ができれば、機能の分割や統合は適宜可能である。
以上にように構成される眼球情報推定装置100による視線角度Lの算出および眼球中心位置30aの更新処理の流れの一例を図10〜図13のフローチャートを用いて説明する。なお、図10が主フローチャートであり、図11が角膜反射法による視線角度算出処理の詳細フローチャート、図12が眼球中心位置30aの推定更新処理の詳細フローチャート、図13が眼球モデル法による視線角度算出処理の詳細フローチャートである。
撮像部201および赤外線照射器203は、例えば、車両1の電源がONされている状態で常時動作可能状態とされ、撮像部201は、座席2bに着座した運転者302の顔が存在する可能性のある領域を逐次撮像しているものとする。そして、撮像された撮像画像データは、取得部48により、逐次RAM44に格納されるものとする。
眼球情報推定装置100は、動作を開始すると、まず、取得部48は、ROM42の統計データ格納部42bから予め統計的に定められた眼球中心位置(初期値:顔モデル座標データ)や3次元顔モデルM(初期モデル)を取得し、RAM44の顔モデル座標格納部44cに格納する初期値設定を実行する(S100)。続いて、検出部50は、処理対象となる撮像画像データをカメラ画座標格納部44aから取得し(取得ステップ)、顔位置や顔部品(例えば、眼、鼻、口、骨格等)等を検出する顔位置検出を実行する(S102)。また、検出部50は、検出された顔部品に対応する顔特徴点Pの検出を行う(S104)。さらに、検出部50は、検出した顔特徴点Pを用いて、撮像画像データ(画像)上で検出された顔特徴点Pと3次元顔モデルM(初期モデル)で定められた顔特徴点Pとの3次元フィッティングを実行する(S106)。検出部50は、3次元フィッティングによりフィッティングされて移動、回転、拡縮された3次元顔モデルMに基づき、画面上の顔位置座標や顔向き角度を検出し、RAM44の顔モデル座標格納部44cに格納する。
続いて、検出部50は、撮像画像データにおいて、検出された顔部品のうち、上まぶた及び下まぶたの間の近傍領域から瞳孔36、瞳孔36の中心位置36a、プルキニエ像34を検出する(S108:検出ステップ)。なお、検出部50は、検出した瞳孔36(中心位置36aの位置座標)、プルキニエ像34(位置座標)をRAM44の画面座標格納部44bに格納する。次に、信頼度算出部52は、閾値データ格納部42cの各閾値データを参照して、画面座標格納部44bに格納した瞳孔36、プルキニエ像34に対する信頼度を算出し(S110)、信頼度データ格納部44dに格納する。
選択部54は、S110で算出した瞳孔36の信頼度を用いて、視線角度算出処理を実行するか否かの判定を行い(S112)、その後、視線角度算出処理の方法を選択する(S114)。選択部54は、瞳孔36の信頼度の瞳孔スコアが第2の瞳孔閾値より高く(S112のYes)、プルキニエ像34の信頼度のプルキニエスコアが第2のプルキニエ閾値より高い場合(S114のYes)、選択部54は、角膜反射法(第1の視線角度算出処理)を選択する(選択ステップ)。そして、処理部56は、角膜反射法による視線角度算出処理を実行する(S116)。
図11は、角膜反射法の一例を詳細に示すフローチャートである。処理部56は、S108で検出したプルキニエ像34の位置および瞳孔36の位置を画面座標格納部44bから取得する(S200)。また、処理部56は、S106の3次元フィッティングで取得した顔位置座標および顔向き角度を顔モデル座標格納部44cから取得する(S202)。続いて、処理部56は、取得した瞳孔36の位置およびプルキニエ像34の位置、顔位置座標、顔向き角度に基づき、カメラ座標系および顔モデル座標系における仮の眼球中心位置30aを算出し、それぞれカメラ画座標格納部44a、顔モデル座標格納部44cに格納する(S204)。また、処理部56は、画面座標格納部44bから取得した瞳孔36の位置に基づきカメラ座標系の瞳孔36の3次元位置を算出し、カメラ画座標格納部44aに格納する(S206)。そして、処理部56は、仮の眼球中心位置30aおよび瞳孔36の位置に基づき、視線角度の算出を行い(S208)、RAM44に保存し、一旦このフローを終了する。
図10に戻り、角膜反射法による視線角度算出処理が完了すると、処理部56は眼球中心位置の推定更新処理を実行する(S118:処理ステップ)。
図12は、眼球中心位置の推定更新処理の一例を詳細に示すフローチャートでる。処理部56は、S110で算出して信頼度データ格納部44dに格納した、例えば、瞳孔信頼度、プルキニエ信頼度を取得する(S300)。処理部56は、瞳孔36の信頼度の瞳孔スコアが第1の瞳孔閾値より高く(S302のYes)、プルキニエ像34の信頼度のプルキニエスコアが第1のプルキニエ閾値より高い場合(S304のYes)、信頼度算出部52に眼信頼度を算出させる(S306)。そして、処理部56は、眼スコアが眼閾値より高い場合(S308のYes)、S116で算出した今回処理の視線角度Lと前回処理で算出した視線角度Lとの変化量を算出する(S310)。なお、眼球情報推定装置100が初回の処理を実行している場合、前回処理の視線角度は存在しないので、今回処理の角膜反射法で算出した視線角度がそのまま変化量となる。また、前回処理として、角膜反射法または眼球モデル法で視線角度が算出されている場合、前回処理で算出した視線角度と今回処理で算出した視線角度との差分が変化量となる。処理部56は、算出した視線角度の変化量が、閾値データ格納部42cから読み出した角度変化閾値未満の場合(S312のYes)、今回処理のおける角膜反射法による視線角度算出処理は、良好に行われたと判定し、図8、図9で説明したように、算出した視線角度Lに基づいて決定される3次元顔モデルMに基づき眼球中心位置30aを推定し、角膜反射法で仮算出した眼球中心位置30aを推定した眼球中心位置30aで更新(補正)する(S314)。処理部56は、補正した眼球中心位置30aを顔モデル座標格納部44cに格納(更新)する。なお、上述したように、視線角度Lの変化量が角度変化閾値未満になる場合に眼球中心位置30aを更新するようにしている。すなわち、視線角度Lが複数回(最低2回)連続して安定して算出された場合に、眼球中心位置30aの更新が実行されるようになる。その結果、眼球中心位置30aの更新信頼性を向上することができる。
S302において瞳孔36の信頼度の瞳孔スコアが第1の瞳孔閾値以下の場合(S302のNo)、処理部56は、瞳孔36の検出精度が低いと判定して眼球中心位置30aの更新は実行しない(S316)。また、S304において、プルキニエ像34の信頼度のプルキニエスコアが第1のプルキニエ閾値以下の場合(S304のNo)、処理部56はプルキニエ像34の検出精度が低いと判定する。また、S308において、眼スコアが眼閾値以下の場合(S308のNo)、処理部56は、眼60の検出精度が低いと判定する。また、S312において、視線角度の変化量が角度変化閾値より大きい場合(S312のNo)、処理部56は例えば、顔の検出精度が低いと判定する。つまり、いずれも場合も、角膜反射法で算出した視線角度に基づいて決定される3次元顔モデルに基づく眼球中心位置30aの推定精度は低くなると判定し、眼球中心位置30aの更新は実行しない(S316)。
図10に戻り、S118の眼球中心位置の推定更新処理が完了すると、一旦このフローを終了する。また、S114において、プルキニエ像34の信頼度のプルキニエスコアが第2のプルキニエ閾値以下の場合(S114のNo)、選択部54は、眼球モデル法(第2の視線角度算出処理)を選択し(選択ステップ)、処理部56は、眼球モデル法による視線角度算出処理を実行する(S120)。
図13は、眼球モデル法の一例を詳細に示すフローチャートである。処理部56は、眼球モデル法を初回に実行する場合は、S100で顔モデル座標格納部44cに格納した初期値としての統計的な眼球中心位置30aを取得する(S400)。なお、S314で、眼球中心位置30aが更新されている場合は、更新済みの眼球中心位置30aを取得する(S400)。また、処理部56は、S108で検出した瞳孔36の位置を画面座標格納部44bから取得する(S402)。また、処理部56は、S106の3次元フィッティングで取得した顔位置座標および顔向き角度を顔モデル座標格納部44cから取得する(S404)。処理部56は、取得した眼球中心位置30a、顔位置座標、顔向き角度に基づき、カメラ座標系における眼球中心位置30aを算出し、カメラ画座標格納部44aに格納する(S406)。また、処理部56は、瞳孔36の位置に基づきカメラ座標系における瞳孔36の3次元位置を算出し、カメラ画座標格納部44aに格納する(S408)。そして、処理部56は、カメラ座標系における眼球中心位置30aおよび瞳孔36の位置に基づき、視線角度の算出を行い(S410)、RAM44に保存する。ここで保存される視線角度は、S310で視線角度変化量を算出す際にも参照される。
図10に戻り、S120で眼球モデル法による視線角度算出処理が完了した場合、S118の眼球中心位置の推定更新処理を実行することなく、このフローを一旦終了する。また、S112において、瞳孔36の信頼度の瞳孔スコアが第2の瞳孔閾値以下の場合(S112のNo)、選択部54は、瞳孔36が実質的に検出できていないと判定し、視線角度算出処理を中止し(S122)、このフローを一旦終了する。
このように、本実施形態の眼球情報推定装置100によれば、所定の更新条件が満たされた場合のみ、例えば瞳孔信頼度、プルキニエ信頼度等が所定の閾値より高い場合のみ、眼球中心位置30aの更新を実行する。その結果、眼球中心位置が信頼度の低い値によって推定されてしまうことを回避することができる。したがって、以降の処理で眼球中心位置を用いた視線角度算出精度の低下を抑制し、全体として視線算出角度の算出精度の維持または向上に寄与できる。
なお、図12に示すフローチャートでは、更新条件として、瞳孔信頼度、プルキニエ信頼度、眼信頼度、視線角度の信頼度を用いる場合を示したが、更新条件は一例であり、少なくとも瞳孔信頼度、プルキニエ信頼度が含まれれば、更新条件の増減は適宜可能である。例えば、運転者302の顔の特徴点の3次元フィッティングの信頼度が所定のフィッティング閾値より高いこと、運転者302の顔の位置が画像の所定領域内であること、運転者302の顔の向きが画像において所定方向を向いていること、瞼開度が所定の瞼閾値を超えていること、等の更新条件から少なくとも一つを選択し、追加することができる。このように、更新条件の数を増減することにより、眼球中心位置30aの信頼度の調整、しいては眼球情報推定装置100の信頼度の調整が可能になる。
なお、上述した実施形態では、眼球情報推定装置100を車両1の座席2bに着座している運転者302に対して適用した場合を説明したが、車両1の他の座席2bに着座する他の乗員に対して適用しても同様の効果を得ることができる。また、車両1に乗車している人に限らず、測定室等の室内で椅子等に着座している人または立っている人等、撮像部201の撮像範囲に顔が存在する人に対しても適用可能であり、同様の効果を得ることができる。
本実施形態のCPU40で実行される眼球情報推定処理のためのプログラム(眼球情報推定プログラム)は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、眼球情報推定プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される眼球情報推定プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…車両、2b…座席、30…眼球、30a…眼球中心位置、32…角膜、34…プルキニエ像、36…瞳孔、36a…中心位置、40…CPU、42…ROM、42a…眼球情報推定プログラム、42b…統計データ格納部、42c…閾値データ格納部、42d…学習済みデータ格納部、42e…条件データ格納部、44…RAM、44a…カメラ画座標格納部、44b…画面座標格納部、44c…顔モデル座標格納部、44d…信頼度データ格納部、48…取得部、50…検出部、52…信頼度算出部、54…選択部、56…処理部、100…眼球情報推定装置、201…撮像部、203…赤外線照射器、302…運転者、L…視線角度、M…3次元顔モデル。

Claims (6)

  1. 対象者の眼の瞳孔と、前記対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得部と、
    前記瞳孔の中心位置と前記プルキニエ像の位置を検出する検出部と、
    前記瞳孔の中心位置と前記プルキニエ像の位置に基づいて前記対象者の眼の視線角度を算出する第1の視線角度算出処理と、前記瞳孔の中心位置と記憶部から読み出される前記対象者に対応する眼の眼球中心位置とに基づいて前記対象者の眼の視線角度を算出する第2の視線角度算出処理とのいずれを実行するかを選択する選択部と、
    前記第1の視線角度算出処理が選択された場合に、少なくとも前記瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつ前記プルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、前記視線角度に基づいて決定される3次元顔モデルに基づき、前記対象者の眼の眼球中心位置の推定を行い、前記記憶部の前記眼球中心位置の更新を実行する処理部と、
    を備える、眼球情報推定装置。
  2. 前記処理部は、前記眼球中心位置の更新を実行する条件として、さらに、前記対象者の眼である確からしさを示す眼信頼度が所定の眼閾値より高いこと、前記対象者の顔の特徴点の3次元フィッティングの信頼度が所定のフィッティング閾値より高いこと、前記第1の視線角度算出処理で算出した前記視線角度の前回処理で算出した視線角度に対する変化量が所定の角度変化閾値未満であること、前記対象者の顔の位置が前記画像の所定領域内であること、前記対象者の顔の向きが前記画像において所定方向を向いていること、のうち少なくとも一つの条件を加える、請求項1に記載の眼球情報推定装置。
  3. 前記選択部は、前記取得部が取得する前記画像における前記瞳孔の前記瞳孔信頼度が前記第1の瞳孔閾値より低い第2の瞳孔閾値以下の場合、前記第1の視線角度算出処理と前記第2の視線角度算出処理とのいずれも実行しない、請求項1または請求項2に記載の眼球情報推定装置。
  4. 前記選択部は、前記取得部が取得する前記画像における前記プルキニエ像の前記プルキニエ信頼度が前記第1のプルキニエ閾値より低い第2のプルキニエ閾値より高い場合、前記第1の視線角度算出処理を選択し、前記プルキニエ信頼度が前記第2のプルキニエ閾値以下の場合、前記第2の視線角度算出処理を選択する、請求項1から請求項3のいずれか1項に記載の眼球情報推定装置。
  5. 対象者の眼の瞳孔と、前記対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得ステップと、
    前記瞳孔の中心位置と前記プルキニエ像の位置を検出する検出ステップと、
    前記瞳孔の中心位置と前記プルキニエ像の位置に基づいて前記対象者の眼の視線角度を算出する第1の視線角度算出処理と、前記瞳孔の中心位置と記憶部から読み出される前記対象者に対応する眼の眼球中心位置とに基づいて前記対象者の眼の視線角度を算出する第2の視線角度算出処理とのいずれを実行するかを選択する選択ステップと、
    前記第1の視線角度算出処理が選択された場合に、少なくとも前記瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつ前記プルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、前記視線角度に基づいて決定される3次元顔モデルに基づき、前記対象者の眼の眼球中心位置の推定を行い、前記記憶部の前記眼球中心位置の更新を実行する処理ステップと、
    を備える、眼球情報推定方法。
  6. コンピュータに、
    対象者の眼の瞳孔と、前記対象者の眼の角膜表面における光源のプルキニエ像と、を含みうる画像を取得する取得ステップと、
    前記瞳孔の中心位置と前記プルキニエ像の位置を検出する検出ステップと、
    前記瞳孔の中心位置と前記プルキニエ像の位置に基づいて前記対象者の眼の視線角度を算出する第1の視線角度算出処理と、前記瞳孔の中心位置と記憶部から読み出される前記対象者に対応する眼の眼球中心位置とに基づいて前記対象者の眼の視線角度を算出する第2の視線角度算出処理とのいずれを実行するかを選択する選択ステップと、
    前記第1の視線角度算出処理が選択された場合に、少なくとも前記瞳孔である確からしさを示す瞳孔信頼度が所定の第1の瞳孔閾値より高く、かつ前記プルキニエ像である確からしさを示すプルキニエ信頼度が所定の第1のプルキニエ閾値より高い場合に、前記視線角度に基づいて決定される3次元顔モデルに基づき、前記対象者の眼の眼球中心位置の推定を行い、前記記憶部の前記眼球中心位置の更新を実行する処理ステップと、
    を実行させるための、眼球情報推定プログラム。
JP2018182507A 2018-09-27 2018-09-27 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム Active JP7198023B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018182507A JP7198023B2 (ja) 2018-09-27 2018-09-27 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム
US16/580,511 US10706585B2 (en) 2018-09-27 2019-09-24 Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
DE102019125751.4A DE102019125751A1 (de) 2018-09-27 2019-09-25 Augapfelinformationenschätzvorrichtung, Augapfelinformationenschätzverfahren und Augapfelinformationenschätzprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182507A JP7198023B2 (ja) 2018-09-27 2018-09-27 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム

Publications (2)

Publication Number Publication Date
JP2020048971A true JP2020048971A (ja) 2020-04-02
JP7198023B2 JP7198023B2 (ja) 2022-12-28

Family

ID=69781608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182507A Active JP7198023B2 (ja) 2018-09-27 2018-09-27 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム

Country Status (3)

Country Link
US (1) US10706585B2 (ja)
JP (1) JP7198023B2 (ja)
DE (1) DE102019125751A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767821A (zh) * 2020-06-23 2020-10-13 京东数字科技控股有限公司 对象被关注的识别方法、装置、设备及存储介质
WO2022257120A1 (zh) * 2021-06-11 2022-12-15 华为技术有限公司 瞳孔位置的确定方法、装置及系统
CN115886721A (zh) * 2022-08-18 2023-04-04 上海佰翊医疗科技有限公司 一种眼球活动度的评估方法、系统和存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6870533B2 (ja) * 2017-08-23 2021-05-12 株式会社オートネットワーク技術研究所 電気部品付ワイヤーハーネスおよび電気部品付ワイヤーハーネスの組付構造
JP6947099B2 (ja) * 2018-03-27 2021-10-13 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
CN115546876B (zh) * 2022-11-07 2023-12-19 广州图语信息科技有限公司 一种瞳孔追踪方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2018101211A (ja) * 2016-12-19 2018-06-28 矢崎総業株式会社 車載器
JP2018099174A (ja) * 2016-12-19 2018-06-28 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136789A (ja) * 2006-12-05 2008-06-19 Nec Corp 眼球パラメータ推定装置及び方法
JP2013252301A (ja) 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
US10108261B1 (en) * 2017-07-05 2018-10-23 Oculus Vr, Llc Eye tracking based on light polarization
EP3453316B1 (en) * 2017-09-08 2022-02-23 Tobii AB Eye tracking using eyeball center position
US9940518B1 (en) * 2017-09-11 2018-04-10 Tobii Ab Reliability of gaze tracking data for left and right eye

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2018101211A (ja) * 2016-12-19 2018-06-28 矢崎総業株式会社 車載器
JP2018099174A (ja) * 2016-12-19 2018-06-28 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111767821A (zh) * 2020-06-23 2020-10-13 京东数字科技控股有限公司 对象被关注的识别方法、装置、设备及存储介质
CN111767821B (zh) * 2020-06-23 2024-04-09 京东科技控股股份有限公司 对象被关注的识别方法、装置、设备及存储介质
WO2022257120A1 (zh) * 2021-06-11 2022-12-15 华为技术有限公司 瞳孔位置的确定方法、装置及系统
CN115886721A (zh) * 2022-08-18 2023-04-04 上海佰翊医疗科技有限公司 一种眼球活动度的评估方法、系统和存储介质

Also Published As

Publication number Publication date
JP7198023B2 (ja) 2022-12-28
DE102019125751A1 (de) 2020-04-02
US20200105016A1 (en) 2020-04-02
US10706585B2 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
JP7198023B2 (ja) 眼球情報推定装置、眼球情報推定方法および眼球情報推定プログラム
EP3033999B1 (en) Apparatus and method for determining the state of a driver
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP7369184B2 (ja) 運転者注意状態推定
US10664712B2 (en) Eyelid opening/closing determination apparatus and drowsiness detection apparatus
JP6187155B2 (ja) 注視対象物推定装置
US20190294240A1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
JP2016115117A (ja) 判定装置および判定方法
JP2018101212A (ja) 車載器および顔正面度算出方法
JP2018151930A (ja) 運転者状態推定装置、及び運転者状態推定方法
CN109415020B (zh) 辉度控制装置、辉度控制系统以及辉度控制方法
WO2017217044A1 (ja) 視認方向推定装置
JP6322991B2 (ja) 視線検出装置、および視線検出方法
JP6813437B2 (ja) 表示システム
JP7063024B2 (ja) 検出装置および検出システム
JP6572841B2 (ja) 情報処理装置及びプログラム
JP2020079879A (ja) 表示制御装置
EP4336342A2 (en) Processor, image processing device, glasses-type information display device, image processing method, and image processing program
JP2018180623A (ja) 視線方向推定装置及び視線方向推定方法
US20240037787A1 (en) Corneal reflected image identifying device and gaze detection device
JP5144412B2 (ja) 車両用物体判定装置
JP2023127179A (ja) 車載装置、情報処理方法、および、プログラム
CN115130045A (zh) 一种驾驶员视野盲区的计算方法、装置、车辆及介质
JP2023061474A (ja) 視線検出装置、視線検出システム、及び視線検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R150 Certificate of patent or registration of utility model

Ref document number: 7198023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150