JP2013252301A - 眼球中心推定装置及びプログラム - Google Patents

眼球中心推定装置及びプログラム Download PDF

Info

Publication number
JP2013252301A
JP2013252301A JP2012129959A JP2012129959A JP2013252301A JP 2013252301 A JP2013252301 A JP 2013252301A JP 2012129959 A JP2012129959 A JP 2012129959A JP 2012129959 A JP2012129959 A JP 2012129959A JP 2013252301 A JP2013252301 A JP 2013252301A
Authority
JP
Japan
Prior art keywords
face
dimensional
dimensional position
right eyes
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012129959A
Other languages
English (en)
Inventor
Shinichi Kojima
真一 小島
Kashu Takemae
嘉修 竹前
Kiyoto Hanida
清人 埴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2012129959A priority Critical patent/JP2013252301A/ja
Publication of JP2013252301A publication Critical patent/JP2013252301A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができるようにする。
【解決手段】顔位置姿勢推定部24によって、顔画像から、顔の3次元の位置姿勢を推定する。2次元瞳孔中心位置検出部26によって、左右の目の各々について、顔画像上の目の瞳孔中心位置を検出する。視線計算部28によって、推定された顔の3次元の位置姿勢及び検出された目の瞳孔中心の2次元位置に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の視線ベクトルを時系列で計算する。最適値推定部32によって、左右の目の各々の視対象の3次元位置の誤差が最小となるように、顔モデル座標系における左右の目の各々の眼球中心の3次元位置の最適値を推定する。
【選択図】図1

Description

本発明は、眼球中心推定装置及びプログラムに係り、特に、顔を撮像した画像から、顔の目の眼球中心の3次元位置を推定する眼球中心推定装置及びプログラムに関する。
従来より、ユーザの顔を撮影する複数のカメラと、前記カメラの画像出力から顔の向きを検出する検出手段と、前記カメラの画像出力に撮影されている目周辺の画像領域から前記ユーザの目が開いているかどうかを検出する手段と、前記ユーザの目が開いていることに応答して、前記カメラの画像出力から前記ユーザの視線方向を検出する手段と、を備えるよう構成された顔・視線認識装置が知られている(特許文献1)。
また、簡易な個人キャリブレーションのみで視線測定を実現する視線測定システムが知られている(非特許文献1)。従来の視線測定システムでは視線測定時に発生する視線のずれを補正するために、個人キャリブレーションとして視線測定前に画面上に位置する5から20点のマーカを注視する作業が必要であったのに対し、この視線測定システムでは、ずれの補正を2段階に分離した視線測定法を導入することで、最低2点のマーカによる個人キャリブレーションを実現している。
また、相対関係特定部は、人間が単眼カメラを見ている状態で単眼カメラにより撮影された校正用画像を予め取得し、顔領域内の複数の特徴点間の相対的な3次元の位置関係を特定し、眼球中心推定部は、単眼カメラにより撮影された対象画像領域内において複数の特徴点の投影位置を検出し、特定された相対的な3次元の位置関係に基づいて、人間の眼球中心の投影位置を推定し、視線方向推定部は、抽出された虹彩中心位置と推定された眼球中心の投影位置に基づいて、視線方向を推定する視線方向の検出装置が知られている(特許文献2)。
特開2003-015816号公報 特開2008-102902号公報
大野ら、「2点補正による簡易キャリブレーションを実現した視線測定システム」、情報処理学会論文誌、Vol44、No.4、2003年4月
上記特許文献1に記載の技術では、3次元的に求めた目尻目頭を結ぶベクトルの中点から垂直な方向で距離Lの位置に眼球中心があるとしているが、目尻、目頭と眼球中心との位置関係が個人ごとに異なるため、正確な眼球中心を求めることはできない、という問題がある。
また、上記非特許文献1に記載の技術では、眼球中心位置や眼球半径を求めるのにキャリブレーションを行う必要がある、という問題がある。2点とはいえ事前に特定方向を向くというキャリブレーション作業が必要であり、実車で使うには非現実的である。
また、上記特許文献2に記載の技術では、キャリブレーション画像が必要である、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができる眼球中心推定装置及びプログラムを提供することを目的とする。
上記の目的を達成するために第1の発明に係る眼球中心推定装置は、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段と、前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段と、前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の視線ベクトルの時系列を計算する視線ベクトル計算手段と、前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び変動パラメータを用いて表わされる、左右の目の各々の視対象の3次元位置の誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段と、を含んで構成されている。
また、第2の発明に係るプログラムは、コンピュータを、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段、前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段、前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の視線ベクトルの時系列を計算する視線ベクトル計算手段、及び前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び変動パラメータを用いて表わされる、左右の目の各々の視対象の3次元位置の誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段として機能させるためのプログラムである。
第1の発明及び第2の発明によれば、顔位置姿勢推定手段によって、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する。瞳孔中心検出手段によって、前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する。
そして、視線ベクトル計算手段によって、前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の視線ベクトルの時系列を計算する。
そして、眼球中心推定手段によって、前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び変動パラメータを用いて表わされる、左右の目の各々の視対象の3次元位置の誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する。
このように、推定された顔の3次元の位置姿勢、及び検出された顔画像上の瞳孔中心の2次元位置に基づいて、左右の目の各々について、眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の視線ベクトルを計算し、左右の目の各々の3次元の視線ベクトルの時系列に基づいて、左右の目の各々の視対象の3次元位置の誤差が最小となるように、顔モデル座標系における左右の目の各々の眼球中心の3次元位置の最適値を推定することにより、キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができる。
第3の発明に係る眼球中心推定装置は、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段と、前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段と、前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の第1視線ベクトルの時系列を計算する視線ベクトル計算手段と、前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の第1視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の第1視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び左右の目で共通の変動パラメータで表わされる視対象の3次元位置を用いて表わされる、右目の前記3次元の第1視線ベクトルと前記右目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差、及び左目の前記3次元の第1視線ベクトルと前記左目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段と、を含んで構成されている。
第4の発明に係るプログラムは、コンピュータを、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段、前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段、前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の第1視線ベクトルの時系列を計算する視線ベクトル計算手段、及び前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の第1視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の第1視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び左右の目で共通の変動パラメータで表わされる視対象の3次元位置を用いて表わされる、右目の前記3次元の第1視線ベクトルと前記右目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差、及び左目の前記3次元の第1視線ベクトルと前記左目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段として機能させるためのプログラムである。
第3の発明及び第4の発明によれば、顔位置姿勢推定手段によって、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する。瞳孔中心検出手段によって、前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する。
そして、視線ベクトル計算手段によって、前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の第1視線ベクトルの時系列を計算する。
そして、眼球中心推定手段によって、前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の第1視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の第1視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び左右の目で共通の変動パラメータで表わされる視対象の3次元位置を用いて表わされる、右目の前記3次元の第1視線ベクトルと前記右目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差、及び左目の前記3次元の第1視線ベクトルと前記左目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する。
このように、推定された顔の3次元の位置姿勢、及び検出された顔画像上の瞳孔中心の2次元位置に基づいて、左右の目の各々について、眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の視線ベクトルを計算し、左右の目の各々の3次元の視線ベクトルの時系列に基づいて、右目の眼球中心の3次元位置から視対象の3次元位置へ向かう3次元の視線ベクトルとの誤差、及び左目の眼球中心の3次元位置から視対象の3次元位置へ向かう3次元の視線ベクトルとの誤差が最小となるように、顔モデル座標系における左右の目の各々の眼球中心の3次元位置の最適値を推定することにより、キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができる。
以上説明したように、本発明の眼球中心推定装置及びプログラムによれば、推定された顔の3次元の位置姿勢、及び検出された顔画像上の瞳孔中心の2次元位置に基づいて、左右の目の各々について、眼球中心の3次元位置から瞳孔中心の3次元位置へ向かう3次元の視線ベクトルを計算し、左右の目の各々の3次元の視線ベクトルの時系列に基づいて、左右の目の各々の視対象の3次元位置の誤差が最小となるように、あるいは、右目の眼球中心の3次元位置から視対象の3次元位置へ向かう3次元の視線ベクトルとの誤差、及び左目の眼球中心の3次元位置から視対象の3次元位置へ向かう3次元の視線ベクトルとの誤差が最小となるように、顔モデル座標系における左右の目の各々の眼球中心の3次元位置の最適値を推定することにより、キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができる、という効果が得られる。
本発明の第1の実施の形態に係る視線推定装置の構成を示すブロック図である。 各座標系の関係を示す図である。 本発明の第1の実施の形態に係る視線推定装置における眼球中心推定処理ルーチンの内容を示すフローチャートである。 本発明の第6の実施の形態に係る視線推定装置における眼球中心位置の推定方法を説明するための図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、連続的に撮像された顔画像から、視線ベクトルを推定する視線推定装置に本発明を適用した場合を例に説明する。
図1に示すように、第1の実施の形態に係る視線推定装置10は、対象とする被験者の顔を含む画像を撮像するCCDカメラ等からなる画像撮像部12と、画像処理を行うコンピュータ14と、CRT等で構成された出力部16とを備えている。
コンピュータ14は、CPU、後述する眼球中心推定処理ルーチンのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ14をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、コンピュータ14は、画像撮像部12から出力される濃淡画像である顔画像を入力する画像入力部20と、画像入力部20の出力である顔画像から、顔上の特徴点を抽出する特徴点抽出部22と、抽出された特徴点に基づいて顔の3次元の位置姿勢を推定する顔位置姿勢推定部24と、画像入力部20の出力である顔画像から、顔画像上の左右の目の各々の瞳孔中心の2次元位置を検出する2次元瞳孔中心位置検出部26と、推定された顔位置姿勢及び検出された左右の目の各々の瞳孔中心の2次元位置に基づいて、左右の目の各々の3次元の視線ベクトルを計算する視線計算部28と、計算された左右の目の各々の3次元の視線ベクトルの時系列データを記憶する時系列データ記憶部30と、左右の目の各々の3次元の視線ベクトルの時系列データに基づいて、左右の目の各々の眼球中心の3次元位置の最適値を推定する最適値推定部32と、推定された左右の目の各々の眼球中心の3次元位置の最適値を用いて、左右の目の各々の視線ベクトルを推定する視線推定部34とを備えている。
画像入力部20は、例えば、A/Dコンバータや1画面の画像データを記憶する画像メモリ等で構成される。
特徴点抽出部22は、以下に説明するように、顔画像から、予め求められた3次元顔モデルの各顔特徴点に対応する特徴点を抽出する。
まず、3次元顔モデルの顔特徴点の数をNとし、予め求められた全ての顔特徴点(Xmi, Ymi, Zmi)i=0〜N-1のそれぞれと顔画像上の特徴点(xi, yi) i=0〜N-1との対応関係を求める。
対応関係を求める方法は色々あり、例えば、以下の2種類の方法によって対応関係を求める。
まず、第1の方法では、3次元顔モデルに対して、全てのiについて画像パターンiを予め登録しておく。登録された画像パターンiで顔画像上をサーチし、一番適合度の高い座標を返すことで各iの対応関係を求める。
第2の方法では、3次元顔モデルに対して、全てのiについて画像パターンiを検出する検出器を設定しておく。検出器の例としてはSVM(support vector machine)やNN(neural net)が使える。設定された検出器で顔画像内をサーチし、検出器スコアの一番高い座標を返すことで各iの対応関係を求める。
そして、上記の第1の方法または第2の方法で検出された特徴点の2次元座標を(xoi, yoi)とし、顔特徴点(Xmi, Ymi, Zmi)を顔画像上に投影した点を、(xi, yi)とする。
顔位置姿勢推定部24は、特徴点抽出部22によって抽出された顔特徴点に対応する特徴点に基づいて、以下に説明するように、顔の3次元の位置姿勢として、カメラ座標系(図2参照)での顔の回転(ψc, θc, φc)と顔モデル原点位置(Xc, Yc, Zc)とを推定する。
まず、顔モデル座標系(図2参照)での(Xmi, Ymi, Zmi)とカメラ座標系での同じ点(Xci, Yci, Zci)の関係は以下の(1)式で表わされる。
画像の透視投影の式から、カメラの焦点距離パラメータをfとして、以下の(2)式が得られる。
(xi, yi)=(f Xci/Zci, f Yci/Zci) ・・・(2)
また、求めたい位置姿勢の変数は(ψc, θc, φc)と(Xc, Yc, Zc)であり、顔モデル座標系(図2参照)での(Xmi, Ymi, Zmi)は固定値である。従って、最初の(ψc, θc, φc)と(Xc, Yc, Zc)として適切な初期値を使い、以降は前回フレームでの推定値を使うことにすれば、(xi, yi)は(ψc, θc, φc)と(Xc, Yc, Zc)を使って数値計算可能である。
従って、2乗誤差値e=Σi=0〜N-1((xi-xoi)2+ ((yi -yoi)2)が計算可能になり、eを最小化する非線形最適化問題として、今回フレームにおける(ψc, θc, φc)と(Xc, Yc, Zc)を求め、カメラ座標系での顔の回転(ψc, θc, φc)及び顔モデル原点位置(Xc, Yc, Zc)の推定結果とする。
なお、非線形最適化の具体的な手法は、拡張カルマンフィルタ、Levenberg-Marquardt法、最急降下法、Newton法、Gauss−Newton法などが適用可能である。
また、3次元顔モデルの原点位置は、計算上は任意に設定可能だが、合理的な設計指針として人体の左右首振り・上下首振り動作時の回転中心に近い場所を、原点位置として使うことが好ましい。
この場合には、顔モデルデータ収集時に各人の首振り回転中心の眼からの上下距離(y)・奥行き距離(z)を測定しておき、それらの平均値として設定する。左右方向(x)は3次元顔モデルの左右対称面上に載るようにすればよい。
2次元瞳孔中心位置検出部26は、顔画像から、パターンマッチングにより、左右の目の各々の瞳孔を表わす領域を抽出し、抽出された瞳孔を表わす領域の中心を、顔画像上の左右の目の各々の瞳孔中心の2次元位置として検出する。
視線計算部28は、推定された顔の3次元の位置姿勢及び検出された左右の目の各々の瞳孔中心の2次元位置に基づいて、以下に説明するように、左右の目の各々の視線ベクトルを計算する。
まず、顔モデル座標系での眼球中心位置の推定値の初期値を、右目について(Xmc_iniR,Ymc_iniR,Zmc_iniR)、左目について(Xmc_iniL,Ymc_iniL,Zmc_iniL)とし、カメラ座標系での眼球中心位置の推定値の初期値を、右目について(Xcc_iniR,Ycc_iniR,Zcc_iniR)、左目について(Xcc_iniL,Ycc_iniL,Zcc_iniL)とする。
また、顔モデル座標系での眼球中心位置の推定値を、右目について(XmcR,YmcR,ZmcR)、左目について(XmcL,YmcL,ZmcL)とし、カメラ座標系での眼球中心位置の推定値を、右目について(XccR,YccR,ZccR)、左目について(XccL,YccL,ZccL)とする。
ここで、顔位置姿勢推定部24によって推定された、カメラ座標系から見た顔の回転を(ψc(t), θc(t), φc(t))とし、原点位置の差(Xc(t), Yc(t), Zc(t))とすると、顔モデル座標系の右目の眼球中心位置の推定値の初期値(Xmc_iniR,Ymc_iniR,Zmc_iniR)は、以下の(3)式に従って、カメラ座標系での右目の眼球中心位置の推定値の初期値(Xcc_iniR,Ycc_iniR,Zcc_iniR)へ変換される。
顔モデル座標系の左目の眼球中心位置の推定値の初期値(Xmc_iniL,Ymc_iniL,Zmc_iniL)、
顔モデル座標系での左右の目の各々の眼球中心位置の推定値(XmcR,YmcR,ZmcR)、(XmcL,YmcL,ZmcL)も、上記(3)式と同様の式に従って、カメラ座標系での値に変換される。
また、車両座標系での眼球中心位置の推定値の初期値を、右目について(Xvc_iniR,Yvc_iniR,Zvc_iniR)、左目について(Xvc_iniL,Yvc_iniL,Zvc_iniL)とし、車両座標系から見たカメラの回転を(ψv, θv, φv)とし、原点位置の差(カメラ設置時に決まる固定値)を(Xv, Yv, Zv)とすると、カメラ座標系の右目の眼球中心位置の推定値の初期値(Xcc_iniRL,Ycc_iniR,Zcc_iniR)は、以下の(4)式に従って、車両座標系の右目の眼球中心位置の推定値の初期値(Xvc_iniR,Yvc_iniR,Zvc_iniR)に変換される。
カメラ座標系の左目の眼球中心位置の推定値の初期値(Xcc_iniL,Ycc_iniL,Zcc_iniL)、カメラ座標系での左右の目の各々の眼球中心位置の推定値(XccR,YccR,ZccR)、(XccL,YccL,ZccL)も、上記(4)式と同様の式に従って、カメラ座標系での値に変換される。
また、眼球中心座標系での瞳孔中心位置の推定値を、右目について(XepR(t),YepR(t),ZepR(t))、左目について(XepL(t),YepL(t),ZepL(t))とする。
顔モデル座標系での瞳孔中心位置の推定値を、右目について(XmpR(t),YmpR(t),ZmpR(t))、左目について(Xmp(t)L,YmpL(t),ZmpL(t))とする。
カメラ座標系での瞳孔中心位置の推定値を、右目について(XcpR(t),YcpR(t),ZcpR(t))、左目について(XcpL(t),YcpL(t),ZcpL(t))とする。
車両座標系での瞳孔中心位置の推定値を、右目について(XvpR(t),YvpR(t),ZvpR(t))、左目について(XvpL(t),YvpL(t),ZvpL(t))とする。
また、2次元瞳孔中心位置検出部26によって検出される、顔画像上(画像座標系)での瞳孔中心位置を、右目について(xpR(t), ypR(t))、左目について(xpL(t), ypL(t))とする。
観測でも求めた左右の視線角度の推定値を、右目について(αR(t), βR(t))、左目について(αL(t), βL(t))とする。また、眼球半径は、3次元空間での眼球中心から眼球表面までの距離であり、予め定められた固定値Rとする。なお、個人差を考慮して、Rを、変数としてもよい。
また、カメラの焦点距離パラメータは、カメラとレンズで決まる定数であり、fとする。
ここで、カメラ座標系での右目の瞳孔中心位置の推定値(XcpR(t),YcpR(t),ZcpR(t))と、顔画像上(画像座標系)での瞳孔中心位置(xpR(t), ypR(t))との関係は、以下の(5)式で表わされる。
xpR= f XcpR / ZcpR, ypR = f YcpR / ZcpR ・・・(5)
カメラ座標系での左目の瞳孔中心位置の推定値 (XcpL(t),YcpL(t),ZcpL(t))と、顔画像上(画像座標系)での瞳孔中心位置(xpL(t), ypL(t))との関係は、は、上記(5)式と同様の式で表わされる。
また、眼球中心座標系での右目の瞳孔中心位置の推定値(XepR(t),YepR(t),ZepR(t))は、以下の(6)式で表わされる。眼球中心座標系での右目の瞳孔中心位置についても同様である。
また、顔モデル座標系での右目の瞳孔中心位置の推定値(XmpR(t),YmpR(t),ZmpR(t))は、以下の(7)式で表わされる。顔モデル座標系での右目の瞳孔中心位置についても同様である。
顔モデル座標系からカメラ座標系への変換は、上記(3)式と同様の式に従って行われ、カメラ座標系から車両座標系への変換は、上記(4)式と同様の式に従って行われる。
そして、顔モデル座標系での右目の視線ベクトルの推定値を (XmgR(t),YmgR(t),ZmgR(t))とすると、以下の(8)式に従って計算される。
左目の視線ベクトルの推定値(XmgL(t),YmgL(t),ZmgL(t))についても、上記(8)式と同様の式に従って計算される。
また、カメラ座標系での右目の視線ベクトルの推定値を、 (XcgR(t),YcgR(t),ZcgR(t))とすると、以下の(9)式に従って計算される。
左目の視線ベクトルの推定値(XcgL(t),YcgL(t),ZcgL(t))についても、上記(9)式と同様の式に従って計算される。
また、車両座標系での右目の視線ベクトルの推定値を、 (XvgR(t),YvgR(t),ZvgR(t))とすると、以下の(10)式に従って計算される。
左目の視線ベクトルの推定値(XvgL(t),YvgL(t),ZvgL(t))についても、上記(10)式と同様の式に従って計算される。
このように、視線計算部28は、顔位置姿勢推定部24によって推定された、カメラ座標系における顔の回転(ψc(t), θc(t), φc(t))及び原点位置の差(Xc(t), Yc(t), Zc(t))と、2次元瞳孔中心位置検出部26によって検出された顔画像上の左右の目の各々の瞳孔中心の2次元位置とに基づいて、左右の目の各々の車両座標系での瞳孔中心位置の推定値を計算すると共に、左右の目の各々の顔モデル座標系の眼球中心位置の初期値を、車両座標系の位置に変換し、上記(10)式に従って、車両座標系における右目の視線ベクトルを計算すると共に、上記(10)式と同様の式に従って、左目の視線ベクトルを計算し、計算結果を時系列データ記憶部30に格納する。
視線計算部28は、画像撮像部12によって撮像された各フレームの画像について、視線ベクトルを時系列で計算し、時系列データ記憶部30には、視線ベクトルの計算結果が、時系列データとして格納される。また、時系列データ記憶部30には、左右の目の各々の顔モデル座標系における眼球中心位置の推定値の初期値が格納される。
最適値推定部32は、時系列データ記憶部30に記憶された左右の目の各々の3次元の視線ベクトルの時系列データ及び左右の目の各々の眼球中心位置の推定値の初期値に基づいて、以下に説明するように、左右の目の各々の眼球中心の3次元位置の最適値を推定する。
まず、車両座標系での視対象の3次元位置(Xvt(t),Yvt(t),Zvt(t))は、左右の目で共通であって、時間変動する値とする。
ここで、視線ベクトルは、眼球中心から視対象の3次元位置へ向かう3次元ベクトルであるため、車両座標系での右目の視線ベクトル(Xvg'R,Yvg'R,Zvg'R)が、以下の(11)式で表わされる。
左目の視線ベクトル(Xvg'L,Yvg'L,Zvg'L)についても、上記(11)式と同様の式で表わされる。
上記(10)式に従って計算された車両座標系における右目の視線ベクトルと、上記(11)式で表わされる車両座標系における右目の視線ベクトルと向きが一致しなければならない。そこで、λ(t)を時間変動するスケールパラメータとすると、以下の(12)式が得られる。
上記(12)式により、以下の(13)式が得られる。
また、左目の視線ベクトルについても、上記(13)式と同様の式が得られる。
また、視対象は左右で同じなので、以下の(14)式で表される拘束条件が成り立つ。
ここで、観測変数は、上記(10)式に従って計算される左右の目の視線ベクトル(XvgR,YvgR,ZvgR), (XvgL,YvgL,ZvgL)であるが、ベクトルの長さがRという拘束があるので実質的な観測変数は4個である。
また、カメラ座標と車両座標の位置関係は固定であり、カメラ座標中の顔位置姿勢は、顔位置姿勢推定部24によって求められるので、既知である。
また、時間変動する未知変数は、λ(t)L, λ(t)Rの2つであり、時間変動しない未知変数は、顔モデル座標系での左右の目の各々の眼球中心位置の推定値 (XmcR,YmcR,ZmcR)、(XmcL,YmcL,ZmcL)の6個の変数である。
また、観測回数をNとすると、観測変数4N>未知変数2N+6が成り立てば解ける。本実施の形態では、何らかの仮定が無いため、N>3の観測が必要であり、ノイズの影響を考慮すると観測回数は多い方が望ましい。
上記(14)式により、誤差を以下の(15)式のように定義する。
最適値推定部32は、時系列データ記憶部30に記憶された視線ベクトルの計算結果の時系列データ及び左右の目の各々の眼球中心位置の推定値の初期値を使って、以下の(16)式に示す二乗誤差が最小になるように、顔モデル座標系での左右の目の各々の眼球中心位置の推定値 (XmcR,YmcR,ZmcR)、 (XmcL,YmcL,ZmcL)、 パラメータλ(t)L, λ(t)Rの各々の最適値を求めることで、眼球中心位置の修正を行う。最小化手法としては、拡張カルマンフィルタ、Levenberg-Marquardt法、最急降下法、Newton法、Gauss−Newton法などが適用可能である。
また、最適値推定部32は、時系列データ記憶部30に記憶された視線ベクトルの計算結果の時系列データ及び左右の目の各々の眼球中心位置の前回推定値を使って、顔モデル座標系での左右の目の各々の眼球中心位置の推定値 (XmcR,YmcR,ZmcR)、 (XmcL,YmcL,ZmcL)、 パラメータλ(t)L, λ(t)Rの各々の最適値の推定を繰り返す。これによって、左右の目の各々の眼球中心位置の推定精度が徐々に向上していく。
視線推定部34は、最適値推定部32によって推定された顔モデル座標系での左右の目の各々の眼球中心位置の最適値、顔位置姿勢推定部24によって推定された推定結果、及び2次元瞳孔中心位置検出部26によって検出された検出結果に基づいて、画像撮像部12によって撮像される画像毎に、左右の目の各々の視線ベクトルを推定する。
視線推定部34によって推定された左右の目の各々の視線ベクトルの推定値が、出力部16により出力される。
次に、視線推定装置10の動作について説明する。まず、画像撮像部12で被験者の顔画像を連続的に撮像する。
そして、コンピュータ14において、図3に示す眼球中心推定処理ルーチンを実行する。まず、ステップ100において、画像撮像部12で撮像された顔画像を、ビデオ信号として取り込み、ステップ102で、ビデオ信号をA/D変換して、2次元ディジタル画像を生成する。本実施例においては、以降の処理は、このディジタル画像に基づいて、ディジタル処理により行われるので、以後、単に画像という場合にはディジタル画像を意味することとする。
そして、ステップ104において、顔画像から顔上の特徴点を抽出し、次のステップ106では、上記ステップ104で検出された特徴点に基づいて、カメラ座標系におけるf顔の3次元の位置姿勢を推定する。
そして、ステップ108では、顔画像から左右の目の各々の瞳孔領域を抽出し、左右の目の各々について顔画像上の2次元の瞳孔中心位置を検出する。ステップ110において、上記ステップ106で推定されたカメラ座標系における顔の位置姿勢、上記ステップ108で検出された左右の目の各々についての顔画像上の2次元の瞳孔中心位置、及び予め設定された顔モデル座標系における3次元の眼球中心位置の推定値の初期値に基づいて、上記(10)式に従って、車両座標系における右目について眼球中心から瞳孔中心に向かう視線ベクトルを計算し、上記(10)式と同様の式に従って、左目について眼球中心から瞳孔中心に向かう視線ベクトルを計算する。そして、視線ベクトルの計算結果を、3次元の眼球中心位置の推定値の初期値と共に時系列データ記憶部30に格納する。
次のステップS112において、上記ステップ110の計算を所定回数(>3)以上行ったか否かを判定する。上記ステップ110の計算回数が所定回数に到達していない場合には、上記ステップ100へ戻る。一方、上記ステップ110の計算回数が所定回数に到達した場合には、ステップ114へ移行する。
ステップ114では、時系列データ記憶部30に格納された視線ベクトルの計算結果の時系列データ、及び3次元の眼球中心位置の推定値の初期値に基づいて、上記(16)式で表される二乗誤差が最小となる、顔モデル座標系における左右の目の眼球中心位置の最適値を推定する。
そして、ステップ116において、上記ステップ106で最後に推定されたカメラ座標系における顔位置姿勢と、上記ステップ108で最後に検出された顔画像上の2次元瞳孔中心位置と、上記ステップ114で推定された顔モデル座標系における左右の目の眼球中心位置の最適値とに基づいて、車両座標系における左右の目の各々の視線ベクトルを計算して、出力部16により出力し、眼球中心位置推定処理ルーチンを終了する。
そして、コンピュータ14は、画像撮像部12から画像フレームが入力される毎に、上記眼球中心位置推定処理ルーチンで推定された左右の目の眼球中心位置の最適値を用いて、左右の目の各々の視線ベクトルを計算する。
また、上記眼球中心位置推定処理ルーチンで推定された左右の目の眼球中心位置の最適値を、左右の目の眼球中心位置の代わりに用いて、再度、眼球中心位置推定処理ルーチンを実行することを繰り返し、左右の目の眼球中心位置の推定値を修正する。
以上説明したように、第1の実施の形態に係る視線推定装置によれば、推定されたカメラ座標系における顔の3次元の位置姿勢、及び検出された顔画像上の瞳孔中心の2次元位置に基づいて、左右の目の各々について、顔モデル座標系で予め定められた眼球中心の3次元位置から瞳孔中心の3次元位置の推定値へ向かう3次元の視線ベクトルを時系列で計算し、左右の目の各々の3次元の視線ベクトルの時系列に基づいて、左右の目の各々の視対象の3次元位置の誤差が最小となるように、顔モデル座標系における左右の目の各々の眼球中心の3次元位置の最適値を推定することにより、キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができる。
また、事前のキャリブレーション画像取得や、視線計測中に使用者がどこを見ているかを特定できなくても、眼球中心パラメータを推定することができ、眼球中心パラメータの推定により、最終的に得たい視線推定の精度が向上する。
従来技術では、通常、視対象の2次元座標を観測量として定式化しているが、一方、本実施の形態では、視対象の位置を、状態量として定式化している。これにより、従来法のように見ている対象の位置を計測しなくても、左右の視線が3次元空間のどこかで交わる、という制約を組み込むことが可能になる。
次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る視線推定装置の構成は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第2の実施の形態では、顔モデル座標系における左右の目の眼球中心の3次元位置が、左右対称であることを仮定して、左右の目の各々の眼球中心の3次元位置の最適値を推定している点が第1の実施の形態と異なっている。
顔モデル座標系での眼球中心座標が左右対称であると仮定すると、顔モデル座標系でX座標が逆符号、Y座標とZ座標は同じになるため、第2の実施の形態では、顔モデル座標系での眼球中心位置の推定値の初期値は、右目について(Xmc_ini,Ymc_ini,Zmc_ini)と表わされ、左目について(-Xmc_ini,Ymc_ini,Zmc_ini)と表わされる。また、顔モデル座標系での眼球中心位置の推定値は、右目について(Xmc,Ymc,Zmc)と表わされ、左目について(-Xmc,Ymc,Zmc)と表わされる。
つまり、第2の実施の形態に係る視線推定装置10の最適値推定部32では、最適値を求める変数が(Xmc,Ymc,Zmc)、 λ(t)L, λ(t)Rに減ることになる。
このように、顔モデル座標系における左右の目の眼球中心の3次元位置が、左右対称であると仮定することで、未知変数XmcR,YmcR,ZmcR,,XmcL,YmcL,ZmcLをXmc,Ymc,Zmcの3個に減らすのと同等の効果がある。観測変数4N>未知変数2N+3が成り立てば良いので、N>2の観測で解けるようになる。
なお、第2の実施の形態に係る視線推定装置の他の構成及び作用について、第1の実施の形態と同様であるため、説明を省略する。
次に、第3の実施の形態について説明する。なお、第3の実施の形態に係る視線推定装置の構成は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第3の実施の形態では、視対象までの距離が固定値であることを仮定して、左右の目の各々の眼球中心の3次元位置の最適値を推定している点が第1の実施の形態と異なっている。
視対象までの距離Zvt(t)が固定値Aであると仮定すると、以下の(17)式が成り立つため、第3の実施の形態では、λ(t)L, λ(t)Rが観測パラメータで表現される。
つまり、第3の実施の形態に係る視線推定装置10の最適値推定部32では、最適値を求める変数が(XmcR,YmcR,ZmcR)、(XmcL,YmcL,ZmcL)に減ることになる。
このように、視対象までの距離Zvt(t)が例えば20mのような固定値であると仮定することで、時間変動する未知変数2個を0個に減らすことができる。観測変数4N>6が成り立てば良いので、N>1の観測で解けるようになる。
なお、第3の実施の形態に係る視線推定装置の他の構成及び作用について、第1の実施の形態と同様であるため、説明を省略する。
次に、第4の実施の形態について説明する。なお、第4の実施の形態に係る視線推定装置の構成は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第4の実施の形態では、予め定められた平面上に視対象が位置することを仮定して、左右の目の各々の眼球中心の3次元位置の最適値を推定している点が第1の実施の形態と異なっている。
車両座標系における視対象の3次元位置(Xvt(t), Yvt(t), Zvt(t))が同一平面上に存在するということを仮定すると、以下の(18)式で表される平面の方程式が成立する。
aXvt(t)+bYvt(t)+c Zvt(t)+d=0 ・・・(18)
上記(18)式より、右目について以下の(19)式が得られる。また、左目についても、(19)式と同様な式が得られる。このため、第4の実施の形態では、λ(t)L, λ(t)Rが観測パラメータで表現される。
つまり、第4の実施の形態に係る視線推定装置10の最適値推定部32では、最適値を求める変数が(XmcR,YmcR,ZmcR)、(XmcL,YmcL,ZmcL)に減ることになる。
このように、車両座標系における視対象の3次元位置(Xvt(t), Yvt(t), Zvt(t))が同一平面上(例えば水平面)に存在すると仮定することで、時間変動する未知変数2個を0個に減らすことができる。観測変数4N>6が成り立てば良いので、N>1の観測で解けるようになる。
なお、第4の実施の形態に係る視線推定装置の他の構成及び作用について、第1の実施の形態と同様であるため、説明を省略する。
次に、第5の実施の形態について説明する。なお、第5の実施の形態に係る視線推定装置の構成は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第5の実施の形態では、左右の目の視線ベクトルが平行であることを仮定して、左右の目の各々の眼球中心の3次元位置の最適値を推定している点が第1の実施の形態と異なっている。
車両座標系における視対象の3次元位置(Xvt(t), Yvt(t), Zvt(t))が無限遠である、すなわち、左右の目の視線ベクトルが平行であることを仮定すると、以下の(20)式が得られる。これは、6個の未知変数XmcR,YmcR,ZmcR,,XmcL,YmcL,ZmcLを3個の方程式で関係付けたことになるため、実質的に変数を3個に減らしたのと同等である。
つまり、第5の実施の形態に係る視線推定装置10の最適値推定部32では、最適値を求める変数が、(Xmc,Ymc,Zmc)、 λ(t)L, λ(t)Rに減ることになる。
このように、車両座標系における視対象の3次元位置(Xvt(t), Yvt(t), Zvt(t))が無限遠であると仮定することで、時間変動しない未知変数6個を3個に減らすことができる。観測変数4N>2N+3が成り立てば良いので、N>2の観測で解けるようになる。
なお、第5の実施の形態に係る視線推定装置の他の構成及び作用について、第1の実施の形態と同様であるため、説明を省略する。
既存技術を使って設定した眼球中心位置の初期値と、検出した瞳孔中心位置とから、視線方向を計算することができるが、通常は左右の視線方向は一致せず角度差が生じる。本実施の形態では、左右の視線が平行であるという仮定を導入することにより、左右の目の視線方向を平均化した視線方向を計算することができる。
次に、第6の実施の形態について説明する。なお、第6の実施の形態に係る視線推定装置の構成は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第6の実施の形態では、左右の目の各々の眼球中心の3次元位置の最適値を推定するために用いる誤差評価関数が第1の実施の形態と異なっている。
図4に示すように、顔モデル座標系における右目の修正前の眼球中心位置の推定値(例えば初期値)を(XmcR,YmcR,ZmcR)とし、左目の修正前の眼球中心位置の推定値(例えば初期値)を(XmcL,YmcL,ZmcL)とし、顔モデル座標系における右目の瞳孔中心の3次元座標の推定値を(XmeR,YmeR,ZmeR)とし、左目の瞳孔中心の3次元座標の推定値を(XmeL,YmeL,ZmeL)とすると、顔モデル座標系において、左右の目の観測視線ベクトルを以下のように表わすことができる。
右目の観測視線ベクトル= ( XmeR−XmcR, YmeR−YmcR, ZmeR−ZmcR
左目の観測視線ベクトル= ( XmeL−XmcL, YmeL−YmcL, ZmeL−ZmcL
また、2次元瞳孔中心位置検出部26によって検出される、画像座標系における右目の瞳孔中心の2次元位置を(xeR,yeR)とし、左目の瞳孔中心の2次元位置を(xeL,yeL)とする。
上記2つの観測視線ベクトルは一般には1点では交わらないが、仮に、視対象の3次元位置の推定値(XT, YT, ZT)で交わるとすると、視対象の3次元位置へ向かう推定視線ベクトルが、以下のように表わされる。
右目の推定視線ベクトル= ( XT−XmcR, YT−YmcR, ZT−ZmcR
左目の推定視線ベクトル= ( XT−XmcL, YT−YmcL, ZT−ZmcL
観測視線ベクトルと推定視線ベクトルとは一致すべきものであるため、観測視線ベクトルと推定視線ベクトルの誤差が定義できる。
誤差はいくつか定義の方法があるが、本実施の形態では、以下の(21)式で表わされる、ベクトル同士の角度θを使う。ベクトルが一致すれば角度は0になる。
cos θ=(観測視線ベクトルと推定視線ベクトルとの内積)/(観測視線ベクトル長・推定視線ベクトル長) ・・・(21)
cos0=1.0なので、最適値推定では、1- cos θが0になるようにすればよい。
右目の誤差評価関数は、以下の(22)式で表される。
右目の誤差評価関数
=1.0 −((観測視線ベクトルと推定視線ベクトルとの内積)/(観測視線ベクトル長・推定視線ベクトル長))
= 1.0 −
(((XmeR−XmcR)(XT−XmcR)+(YmeR−YmcR)(YT−YmcR)+(ZmeR−ZmcR)(ZT−ZmcR))
/(√((XmeR−XmcR)2+(YmeR−YmcR)2+(ZmeR−ZmcR)2)√ ((XT−XmcR)2+(YT −YmcR)2+(ZT −ZmcR)2)))
・・・(22)
また、左目の誤差評価関数は、以下の(23)式で表される。
左目の誤差評価関数
=1.0 −((観測視線ベクトルと推定視線ベクトルとの内積)/(観測視線ベクトル長・推定視線ベクトル長))
= 1.0 −
(((XmeL−XmcL)(XT−XmcL)+(YmeL−YmcL)(YT −YmcL)+(ZmeL−ZmcL)(ZT−ZmcL))
/(√((XmeL−XmcL)2+(YmeL−YmcL)2+(ZmeL−ZmcL)2)√ ((XT−XmcL)2+(YT−YmcL)2+(ZT−ZmcL)2)))
・・・(23)
ここで、未知変数は、XmcR,YmcR,ZmcR,,XmcL,YmcL,ZmcL, XT, YT, ZTの9個であり、観測変数は、 xeR,yeR,xeL,yeLの4個である。なお、 XmeR,YmeR,ZmeR,,XmeL,YmeL,ZmeLは、 XmcR,YmcR,ZmcR,XmcL,YmcL,ZmcLとxeR,yeR,xeL,yeLとから計算できる推定量である。
未知変数9個に対し観測変数4個なのでそのままでは解けないが、未知変数のうちXmcR,YmcR,ZmcR,XmcL,YmcL,ZmcLの6個は眼球中心位置を表わす値なので顔モデル座標系で時間変動しない固定パラメータである。
つまり、観測変数4個から、時間変動する未知変数3個( XT, YT, ZT )と時間変動しない未知変数6個(XmcR,YmcR,ZmcR,XmcL,YmcL,ZmcL)を求める問題になる。
そこで、時間方向に6回以上の観測を行えば、観測変数4×6=24、時間変動する未知変数3×6=18、時間変動しない未知変数6となり、観測変数の数と未知変数の数が釣り合うので、誤差評価関数を0にするような最適化手法で解くことが可能になる。
最適値推定部32は、時系列データ記憶部30に記憶された視線ベクトルの計算結果の時系列データ及び左右の目の各々の眼球中心位置の推定値の初期値を使って、上記(22)式、(23)式に示す誤差が最小になるように、顔モデル座標系での左右の目の各々の眼球中心位置の推定値 (XmcR,YmcR,ZmcR)、 (XmcL,YmcL,ZmcL)、視対象の3次元位置( XT, YT, ZT )の各々の最適値を求めることで、眼球中心位置の推定値の修正を行う。
なお、第6の実施の形態に係る視線推定装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
以上説明したように、第6の実施の形態に係る視線推定装置によれば、推定されたカメラ座標系における顔の3次元の位置姿勢、及び検出された顔画像上の瞳孔中心の2次元位置に基づいて、左右の目の各々について、顔モデル座標系において予め定められた眼球中心の3次元位置から瞳孔中心の3次元位置の推定値へ向かう3次元の視線ベクトルを時系列で計算し、左右の目の各々の3次元の視線ベクトルの時系列に基づいて、右目の眼球中心の3次元位置から視対象の3次元位置へ向かう3次元の視線ベクトルとの誤差、及び左目の眼球中心の3次元位置から視対象の3次元位置へ向かう3次元の視線ベクトルとの誤差が最小となるように、顔モデル座標系における左右の目の各々の眼球中心の3次元位置の最適値を推定することにより、キャリブレーションを行うことなく、精度よく眼球中心の3次元位置を推定することができる。
なお、上記の第6の実施の形態において、上述した第2の実施の形態〜第5の実施の形態で説明した技術を適用してもよい。例えば、上記の第2の実施の形態で説明したように、顔モデル座標系において右目と左目の眼球中心座標を左右対象と仮定することで、未知変数XcR,YcR,ZcR,,XcL,YcL,ZcLをXc,Yc,Zcの3個に減らすことができ、時間方向の観測を3回以上に減らすことができる。
また、上記の第3の実施の形態で説明したように、視対象の位置までの距離ZTを例えば20mのような固定値を仮定することで、時間変動する未知変数3個を2個に減らすことができ、時間方向の観測を4回以上に減らすことができる。また、上記の第4の実施の形態で説明したように、視対象の位置(XT, YT, ZT)が同一平面上(例えば水平面)に存在すると仮定することで、時間変動する未知変数3個を2個に減らすことができ、時間方向の観測を4回以上に減らすことができる。
また、上記の第5の実施の形態で説明したように、視対象の位置(XT, YT, ZT)が無限遠に存在すると仮定することで、時間変動する未知変数3個を0個に減らすことができ、時間方向の観測を2回以上に減らすことができる。視対象の位置(XT, YT, ZT)が無限遠に存在する、いうことは視線の推定ベクトルが左右平行ということなので、左右の観測視線ベクトルを平均したものを推定視線ベクトルとして用いることができ、平行仮定で求められた視線上の虹彩中心と、計測で得られた虹彩中心にはずれが生じるので、そのずれが小さくなるように眼球中心位置を修正することで、本来計測不可能であるはずの眼球中心パラメータを推定することができるようになる。
また、上記の第1の実施の形態〜第6の実施の形態において、眼球半径パラメータを固定値とする場合を例に説明したが、これに限定されるものではなく、眼球半径パラメータを、推定対象の変数としてもよい。この場合には、最適推定に必要な時間方向の観測数を増やせばよく、これによって、眼球中心位置の最適値と共に、眼球半径の最適値を推定することができる。
10 視線推定装置
12 画像撮像部
14 コンピュータ
22 特徴点抽出部
24 顔位置姿勢推定部
26 2次元瞳孔中心位置検出部
28 視線計算部
30 時系列データ記憶部
32 最適値推定部
34 視線推定部

Claims (9)

  1. 被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段と、
    前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段と、
    前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の視線ベクトルの時系列を計算する視線ベクトル計算手段と、
    前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び変動パラメータを用いて表わされる、左右の目の各々の視対象の3次元位置の誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段と、
    を含む眼球中心推定装置。
  2. 被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段と、
    前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段と、
    前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の第1視線ベクトルの時系列を計算する視線ベクトル計算手段と、
    前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の第1視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の第1視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び左右の目で共通の変動パラメータで表わされる視対象の3次元位置を用いて表わされる、右目の前記3次元の第1視線ベクトルと前記右目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差、及び左目の前記3次元の第1視線ベクトルと前記左目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段と、
    を含む眼球中心推定装置。
  3. 前記眼球中心推定手段は、前記顔モデル座標系における前記左右の目の眼球中心の3次元位置が、左右対称であることを仮定して、前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する請求項1又は2記載の眼球中心推定装置。
  4. 前記眼球中心推定手段は、前記視対象の3次元位置を、前記視対象までの距離が固定値であることを仮定した3次元位置として、前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する請求項1〜請求項3の何れか1項記載の眼球中心推定装置。
  5. 前記眼球中心推定手段は、前記視対象の3次元位置を、予め定められた平面上に前記視対象が位置することを仮定した3次元位置として、前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する請求項1〜請求項4の何れか1項記載の眼球中心推定装置。
  6. 前記眼球中心推定手段は、前記左右の目の視線ベクトルが平行であることを仮定して、前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する請求項1〜請求項5の何れか1項記載の眼球中心推定装置。
  7. 前記眼球中心推定手段によって推定された前記左右の目の各々の眼球中心の3次元位置を用いて、前記左右の目の各々の視線ベクトルを推定する視線推定手段を更に含む請求項1〜請求項6の何れか1項記載の眼球中心推定装置。
  8. コンピュータを、
    被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段、
    前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段、
    前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の視線ベクトルの時系列を計算する視線ベクトル計算手段、及び
    前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び変動パラメータを用いて表わされる、左右の目の各々の視対象の3次元位置の誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段
    として機能させるためのプログラム。
  9. コンピュータを、
    被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像の時系列から、前記顔の3次元の位置姿勢の時系列を推定する顔位置姿勢推定手段、
    前記顔画像の時系列から、左右の目の各々について、前記顔画像上の前記顔の目の瞳孔中心位置の時系列を検出する瞳孔中心検出手段、
    前記顔位置姿勢推定手段によって推定された前記顔の3次元の位置姿勢の時系列、及び前記瞳孔中心検出手段によって検出された前記顔画像上の前記顔の目の瞳孔中心の2次元位置の時系列に基づいて、左右の目の各々について、顔モデル座標系において予め設定された眼球中心の3次元位置から前記瞳孔中心の3次元位置へ向かう3次元の第1視線ベクトルの時系列を計算する視線ベクトル計算手段、及び
    前記視線ベクトル計算手段によって計算された前記左右の目の各々の前記3次元の第1視線ベクトルの時系列に基づいて、前記計算された前記左右の目の各々の前記3次元の第1視線ベクトル、左右の目の各々について前記予め設定された眼球中心の3次元位置、及び左右の目で共通の変動パラメータで表わされる視対象の3次元位置を用いて表わされる、右目の前記3次元の第1視線ベクトルと前記右目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差、及び左目の前記3次元の第1視線ベクトルと前記左目の眼球中心の3次元位置から前記視対象の3次元位置へ向かう3次元の第2視線ベクトルとの誤差が最小となるように、前記顔モデル座標系における前記左右の目の各々の前記眼球中心の3次元位置の最適値を推定する眼球中心推定手段
    として機能させるためのプログラム。
JP2012129959A 2012-06-07 2012-06-07 眼球中心推定装置及びプログラム Pending JP2013252301A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012129959A JP2013252301A (ja) 2012-06-07 2012-06-07 眼球中心推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012129959A JP2013252301A (ja) 2012-06-07 2012-06-07 眼球中心推定装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2013252301A true JP2013252301A (ja) 2013-12-19

Family

ID=49950326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012129959A Pending JP2013252301A (ja) 2012-06-07 2012-06-07 眼球中心推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2013252301A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610521B1 (ko) * 2014-10-13 2016-04-07 현대자동차주식회사 시선 추적 장치 및 방법
JP2018099174A (ja) * 2016-12-19 2018-06-28 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法
US20180357790A1 (en) * 2017-06-09 2018-12-13 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, computable readable medium, and method
CN110533775A (zh) * 2019-09-18 2019-12-03 广州智美科技有限公司 一种基于3d人脸的眼镜匹配方法、装置及终端
KR20190135598A (ko) * 2018-05-29 2019-12-09 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
CN111308697A (zh) * 2018-12-11 2020-06-19 简韶逸 适应性视线追踪的校正方法
US10706585B2 (en) 2018-09-27 2020-07-07 Aisin Seiki Kabushiki Kaisha Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP2021502618A (ja) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体
US11048952B2 (en) 2018-09-27 2021-06-29 Aisin Seiki Kabushiki Kaisha Occupant monitoring device, occupant monitoring method, and occupant monitoring program
WO2022079584A1 (ja) * 2020-10-12 2022-04-21 フォーブ インコーポレーテッド 視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ
CN116052264A (zh) * 2023-03-31 2023-05-02 广州视景医疗软件有限公司 一种基于非线性偏差校准的视线估计方法及装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610521B1 (ko) * 2014-10-13 2016-04-07 현대자동차주식회사 시선 추적 장치 및 방법
JP7030317B2 (ja) 2016-12-19 2022-03-07 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法
JP2018099174A (ja) * 2016-12-19 2018-06-28 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法
CN109008944B (zh) * 2017-06-09 2022-03-25 爱信精机株式会社 视线计测装置、rom及视线计测方法
JP2019000136A (ja) * 2017-06-09 2019-01-10 株式会社豊田中央研究所 視線計測装置及びプログラム
US20180357790A1 (en) * 2017-06-09 2018-12-13 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, computable readable medium, and method
US10783663B2 (en) * 2017-06-09 2020-09-22 Aisin Seiki Kabushiki Kaisha Gaze-tracking device, computable readable medium, and method
CN109008944A (zh) * 2017-06-09 2018-12-18 爱信精机株式会社 视线计测装置、视线计测程序及视线计测方法
KR20190135598A (ko) * 2018-05-29 2019-12-09 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
KR102115150B1 (ko) 2018-05-29 2020-06-08 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
US11048952B2 (en) 2018-09-27 2021-06-29 Aisin Seiki Kabushiki Kaisha Occupant monitoring device, occupant monitoring method, and occupant monitoring program
US10706585B2 (en) 2018-09-27 2020-07-07 Aisin Seiki Kabushiki Kaisha Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
US11295474B2 (en) 2018-09-28 2022-04-05 Beijing Sensetime Technology Development Co., Ltd. Gaze point determination method and apparatus, electronic device, and computer storage medium
JP2021502618A (ja) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体
CN111308697B (zh) * 2018-12-11 2021-11-05 简韶逸 适应性视线追踪的校正方法
CN111308697A (zh) * 2018-12-11 2020-06-19 简韶逸 适应性视线追踪的校正方法
CN110533775A (zh) * 2019-09-18 2019-12-03 广州智美科技有限公司 一种基于3d人脸的眼镜匹配方法、装置及终端
CN110533775B (zh) * 2019-09-18 2023-04-18 广州智美科技有限公司 一种基于3d人脸的眼镜匹配方法、装置及终端
WO2022079584A1 (ja) * 2020-10-12 2022-04-21 フォーブ インコーポレーテッド 視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ
CN116052264A (zh) * 2023-03-31 2023-05-02 广州视景医疗软件有限公司 一种基于非线性偏差校准的视线估计方法及装置

Similar Documents

Publication Publication Date Title
JP2013252301A (ja) 眼球中心推定装置及びプログラム
JP6800091B2 (ja) 視線計測装置及びプログラム
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5812599B2 (ja) 情報処理方法及びその装置
JP5839929B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
CN107273846B (zh) 一种人体体型参数确定方法及装置
US20160317122A1 (en) In-device fusion of optical and inertial positional tracking of ultrasound probes
TWI496108B (zh) AR image processing apparatus and method
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP5159950B2 (ja) 画像処理装置、方法、プログラム
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
JP2008506953A5 (ja)
JP2017119102A (ja) 運動解析装置、方法及びプログラム
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
KR101896827B1 (ko) 사용자 자세 추정 장치 및 방법
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
Wang et al. An automatic self-calibration approach for wide baseline stereo cameras using sea surface images
KR102456872B1 (ko) 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법
US9245343B1 (en) Real-time image geo-registration processing
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム