JP2012216180A - 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム - Google Patents
視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム Download PDFInfo
- Publication number
- JP2012216180A JP2012216180A JP2011289369A JP2011289369A JP2012216180A JP 2012216180 A JP2012216180 A JP 2012216180A JP 2011289369 A JP2011289369 A JP 2011289369A JP 2011289369 A JP2011289369 A JP 2011289369A JP 2012216180 A JP2012216180 A JP 2012216180A
- Authority
- JP
- Japan
- Prior art keywords
- head
- gaze direction
- image
- image frame
- iris
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】第2の頭部位置・姿勢推定部5612は、撮影できている複数のカメラからの画像データを統合して処理することにより、頭部の位置および頭部の姿勢の推定処理を実行する。処理対象となっている画像フレーム以前に獲得されている眼球の3次元モデルに基づいて、眼球中心推定部5614は、処理対象の特定人物の眼球中心の3次元的な位置を推定する。虹彩中心抽出部5616は、虹彩の中心の投影位置を検出する。視線方向推定部5618は、抽出された虹彩の中心の投影位置である画像フレーム中の2次元的な位置と、推定された眼球の3次元的な中心位置とに基づいて、視線方向を推定する。
【選択図】図3
Description
[ハードウェア構成]
以下、本発明の実施の形態1にかかる「視線方向の推定装置」について説明する。この視線方向の推定装置は、パーソナルコンピュータまたはワークステーション等、コンピュータ上で実行されるソフトウェアにより実現されるものであって、対象画像から人物の顔を抽出し、さらに人物の顔の映像に基づいて、視線方向を推定・検出するためのものである。図1は、この視線方向の推定装置の外観を示す図である。
以下に説明するとおり、本実施の形態の視線方向の推定装置では、顔特徴点を検出・追跡することにより、複数のカメラを使用して視線方向を推定する。
顔(頭部)の画像フレームからの検出については、周知の他のアルゴリズムを利用することも可能である。
以下では、ステップS114において実行される頭部の位置および頭部の姿勢の推定処理について、さらに、詳しく説明する。
まず、CPU56は、各カメラからの画像フレーム上で顔部品モデルとのテンプレートマッチング処理により、特徴点の2次元座標を得る(S200)。
(頭部位置の推定)
再び、図7にもどって、続いて、CPU56は、第2の頭部位置・姿勢推定部5612により、頭部位置の推定処理を実行する(S202)。
再び、図7にもどって、続いて、CPU56は、第2の頭部位置・姿勢推定部5612により、頭部姿勢の推定処理を実行する(S204)。
以下で説明するRANSAC処理は、外れ値を含むデータから安定にモデルパラメータを定めるための処理であり、これについては、たとえば、以下の文献に記載されているので、その処理の概略を説明するにとどめる。
文献:大江統子、佐藤智和、横矢直和:“画像徳著点によるランドマークデータベースに基づくカメラ位置・姿勢推定”、画像の認識・理解シンポジウム(MIRU2005)2005年7月
上述のような眼球中心位置を初期値として、入力画像群に対して眼球モデルを当てはめ最適なモデルパラメータを推定する。ここで、入力画像から目の周辺領域を切り出し、色および輝度情報をもとに、以下の式(22)に従って、虹彩(黒目)、白目、肌領域の3種類にラベル付けを行なう。
以上の説明では、視線方向の推定は、「眼球モデルパラメータの推定処理」を、「逐次型眼球モデル推定」として実行する場合を例にとって説明した。
以下では、複数カメラを利用した広域遠隔視線計測のための異なる実施の形態について説明する。
(複数カメラによる視線計測処理)
以下では、実施の形態2の複数カメラを利用した視線計測手法の処理の詳細について述べる。
一方で、カメラ選択部6630は、頭部位置・姿勢の推定結果に基づいて、左右それぞれの目領域を観測可能なカメラを選択し、虹彩抽出部6650は、選択されたカメラからの画像に基づいて虹彩抽出を行う。すなわち、虹彩抽出部6650は、選択された各カメラで抽出された虹彩領域について楕円形上の当てはめにより3次元の虹彩中心位置を決定し、視線推定部6660は、眼球中心推定部6640の推定した眼球中心位置と虹彩抽出部6650の抽出した虹彩中心位置から視線方向を算出する。なお、ユーザの顔画像が1台のカメラのみによって観測される場合は、上記処理は単眼視線計測手法に一致する。
・顔、顔特徴点の決定
・頭部方向の推定
・虹彩の抽出
・視線方向の推定
以下では、これらの各項目について、順次、説明する。
(顔の3次元モデル)
顔面上の各特徴点の重心位置を原点として顔の正面方向をZ軸の正方向とする座標系(X=0に対して左右対称)を定義し、複数の被験者についての観測データに基づいて顔の3次元モデル(顔部品および眼球中心の配置) を生成することができる。
(顔特徴点の決定)
顔検出および顔特徴点の検出については、それぞれ広く用いられているHaar−like特徴量を用いた顔検出アルゴリズムおよび、Gabor特徴量を利用した顔特徴点抽出を利用することができる。
また、Gabor特徴量については、実施の形態1と同様である。
(頭部方向の推定)
上記の顔の3次元モデルを用いて顔の3次元位置、姿勢を決定する。
上記のようにして得られた頭部位置・姿勢に基づいて、目領域を観測可能なカメラが選択され、選択された各カメラにおける左右の各目領域画像が抽出される。
(視線方向の推定)
実施の形態2よる視線計測では眼球の3次元モデルと虹彩中心を利用して視線方向を推定する。
とすると、カメラCiの画像上での虹彩半径(長軸半径)rCi,kは、以下の式で表される。
[実験結果]
実施の形態2よる視線計測の有効性を確認するため、以下の実験を行った。
まず、実装したシステムを用いて頭部姿勢の推定について評価を行った。
(遠隔視線計測アプリケーション)
遠隔視線計測手法を利用すると、日常環境の中で人々の興味や注意に関する情報を獲得することができ、これまで困難だった様々なサービスが可能になる。
Claims (10)
- 観測領域内において、人間の頭部領域を含む動画像を獲得するための複数の撮影手段を備え、各前記頭部領域には、予め複数の特徴点が規定されており、
視線方向の推定処理の対象となる現時刻以前の時点の画像フレームまでの動画像により、推定対象となる人間の3次元の眼球中心位置と画像フレーム中に投影された特徴点の2次元の位置との関係が予めモデル化されているときに、前記複数の撮影手段により同時刻に撮影された前記動画像中の複数の画像フレームのうちから、前記視線方向の推定処理の対象となる現時刻の画像フレームを選択し、前記選択された画像フレームに基づいて、当該モデルを用いて、前記眼球中心位置を推定するとともに、前記現時刻の画像フレームから抽出された虹彩の位置に基づいて、前記推定対象となる人間の視線の方向を推定する視線方向推定手段をさらに備える、視線方向の推定装置。 - 前記視線方向推定手段は、
前記複数の撮影手段において少なくとも2台により撮影された前記動画像の複数の画像フレームにより、前記視線方向の推定処理を実行する時点における特定の人物の頭部の位置を、各前記複数の特徴点と前記撮影手段とを結ぶ3次元直線の交わる点として取得することで、前記特定の人物の頭部の前記観測領域内での位置を追跡する頭部追跡手段と、
前記特定の人物について前記複数の撮影手段により撮影された前記複数の画像フレームにおいて、それぞれ特定される前記複数の特徴点により前記特定の人物の頭部の姿勢を推定する姿勢推定手段と、
前記推定された顔姿勢に基づいて、前記特定の人物が撮影された前記複数の画像フレームのうちから、前記視線方向の推定処理に使用するための画像フレームを選択する選択手段と、
前記選択された画像フレームにおいて、前記特定の人物の虹彩中心を抽出するための虹彩中心位置推定手段と、
前記選択された画像フレームに基づいて、前記特定の人物の眼球中心位置を推定するための眼球中心位置推定手段と、
前記抽出された前記虹彩中心および前記推定された眼球中心位置により、前記特定の人物の視線の方向を算出する視線方向算出手段とを含む、請求項1に記載の視線方向の推定装置。 - 前記選択手段は、前記複数の撮影手段で撮影された画像フレームのうちから撮影された画像が最も顔正面に近い画像フレームを選択する、請求項2に記載の視線方向の推定装置。
- 前記選択手段は、右眼と左眼について、それぞれ、撮影された画像における対応する顔半面の顔正面への近さが異なる場合は、右眼と左眼に対して、異なる前記撮影手段で撮影された画像フレームを選択する、請求項3に記載の視線方向の推定装置。
- 前記姿勢推定手段は、前記頭部追跡手段における投影変換から弱透視変換に投影変換を変更して、前記頭部の姿勢の推定を実行する、請求項2に記載の視線方向の推定装置。
- 前記視線方向推定手段は、
前記複数の撮影手段により撮影された画像において、前記視線方向の推定処理を実行する時点における特定の人物の顔の領域を検出し、前記複数の特徴点を特定するための顔特徴点特定手段と、
前記複数の撮影手段により撮影された前記動画像の複数の画像フレームにより、前記特定の人物の頭部の位置および姿勢を、前記複数の特徴点の再投影誤差が最小となるように特定する頭部方向の推定手段と、
前記特定された頭部方向に基づいて、前記特定の人物が撮影された前記複数の画像フレームのうちから、前記視線方向の推定処理に使用するための画像フレームを選択する選択手段と、
前記選択された画像フレームにおいて、各画素ごとに前記特定の人物の目領域内の虹彩領域をラベルづけするための虹彩抽出手段と、
仮定された視線方向ベクトルと前記頭部の位置および姿勢に基づいて、各選択された画像フレームの画像中のモデル虹彩領域を推定し、前記ラベルづけされた虹彩領域と前記モデル虹彩領域とが最もフィットするように視線方向ベクトルを決定することにより、前記特定の人物の視線の方向を算出する視線方向算出手段とを含む、請求項1に記載の視線方向の推定装置。 - 観測領域内において、人間の頭部領域を含む動画像を複数の撮影手段により撮影するステップを備え、各前記頭部領域には、予め複数の特徴点が規定されており、
視線方向の推定処理の対象となる現時刻以前の時点の画像フレームまでの動画像により、推定対象となる人間の3次元の眼球中心位置と画像フレーム中に投影された特徴点の2次元の位置との関係が予めモデル化するステップと、
前記複数の撮影手段により同時刻に撮影された前記動画像中の複数の画像フレームのうちから、前記視線方向の推定処理の対象となる現時刻の画像フレームを選択し、前記選択された画像フレームに基づいて、当該モデルを用いて、前記眼球中心位置を推定するとともに、前記現時刻の画像フレームから抽出された虹彩の位置に基づいて、前記推定対象となる人間の視線の方向を推定するステップとをさらに備える、視線方向の推定方法。 - 観測領域内において、人間の頭部領域を含む動画像を複数の撮影手段により撮影するステップを備え、各前記頭部領域には、予め複数の特徴点が規定されており、
前記複数の撮影手段において少なくとも2台により撮影された前記動画像の複数の画像フレームにより、視線方向の推定処理を実行する時点における特定の人物の頭部の位置を、各前記複数の特徴点と前記撮影手段とを結ぶ3次元直線の交わる点として取得することで、前記特定の人物の頭部の前記観測領域内での位置を追跡するステップと、
前記特定の人物について前記複数の撮影手段により撮影された前記複数の画像フレームにおいて、それぞれ特定される前記複数の特徴点により前記特定の人物の頭部の姿勢を推定するステップと、
前記推定された顔姿勢に基づいて、前記特定の人物が撮影された前記複数の画像フレームのうちから、視線方向の推定に使用するための画像フレームを選択するステップと、
前記選択された画像フレームにおいて、前記特定の人物の虹彩中心を抽出するステップと、
前記選択された画像フレームに基づいて、前記特定の人物の眼球中心位置を推定するステップと、
前記抽出された前記虹彩中心および前記推定された眼球中心位置により、前記特定の人物の視線の方向を算出するステップとをさらに備える、視線方向の推定方法。 - 演算処理手段を有するコンピュータに、視線方向の推定処理を実行させるためのプログラムであって、前記プログラムは、
観測領域内において、人間の頭部領域を含む動画像を複数の撮影手段により撮影するステップを備え、各前記頭部領域には、予め複数の特徴点が規定されており、
視線方向の推定処理の対象となる現時刻以前の時点の画像フレームまでの動画像により、推定対象となる人間の3次元の眼球中心位置と画像フレーム中に投影された特徴点の2次元の位置との関係が予めモデル化するステップと、
前記複数の撮影手段により同時刻に撮影された前記動画像中の画像フレームのうちから、前記視線方向の推定処理の対象となる現時刻の画像フレームを選択し、前記選択された画像フレームに基づいて、当該モデルを用いて、前記眼球中心位置を推定するとともに、前記現時刻の画像フレームから抽出された虹彩の位置に基づいて、前記推定対象となる人間の視線の方向を推定するステップとをコンピュータに実行させる、プログラム。 - 演算処理手段を有するコンピュータに、視線方向の推定処理を実行させるためのプログラムであって、前記プログラムは、
観測領域内において、人間の頭部領域を含む動画像を複数の撮影手段により撮影するステップを備え、各前記頭部領域には、予め複数の特徴点が規定されており、
前記複数の撮影手段において少なくとも2台により撮影された前記動画像の複数の画像フレームにより、前記視線方向の推定処理を実行する時点における特定の人物の頭部の位置を、各前記複数の特徴点と前記撮影手段とを結ぶ3次元直線の交わる点として取得することで、前記特定の人物の頭部の前記観測領域内での位置を追跡するステップと、
前記特定の人物について前記複数の撮影手段により撮影された前記複数の画像フレームにおいて、それぞれ特定される前記複数の特徴点により前記特定の人物の頭部の姿勢を推定するステップと、
前記推定された顔姿勢に基づいて、前記特定の人物が撮影された前記複数の画像フレームのうちから、視線方向の推定に使用するための画像フレームを選択するステップと、
前記選択された画像フレームにおいて、前記特定の人物の虹彩中心を抽出するステップと、
前記選択された画像フレームに基づいて、前記特定の人物の眼球中心位置を推定するステップと、
前記抽出された前記虹彩中心および前記推定された眼球中心位置により、前記特定の人物の視線の方向を算出するステップとをコンピュータに実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011289369A JP5828167B2 (ja) | 2011-03-30 | 2011-12-28 | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011076021 | 2011-03-30 | ||
JP2011076021 | 2011-03-30 | ||
JP2011289369A JP5828167B2 (ja) | 2011-03-30 | 2011-12-28 | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012216180A true JP2012216180A (ja) | 2012-11-08 |
JP5828167B2 JP5828167B2 (ja) | 2015-12-02 |
Family
ID=47268863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011289369A Active JP5828167B2 (ja) | 2011-03-30 | 2011-12-28 | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5828167B2 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014161937A (ja) * | 2013-02-22 | 2014-09-08 | Seiko Epson Corp | 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム |
KR20160061699A (ko) * | 2014-11-24 | 2016-06-01 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
WO2016085212A1 (ko) * | 2014-11-24 | 2016-06-02 | 삼성전자 주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
JP2018101211A (ja) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | 車載器 |
CN111027506A (zh) * | 2019-12-19 | 2020-04-17 | 斑马网络技术有限公司 | 视线方向的确定方法、装置、电子设备及存储介质 |
CN111309138A (zh) * | 2018-12-12 | 2020-06-19 | 简韶逸 | 降低眼球追踪运算的方法和其眼动追踪装置 |
JPWO2020183732A1 (ja) * | 2019-03-14 | 2020-09-17 | ||
CN111860154A (zh) * | 2020-06-12 | 2020-10-30 | 歌尔股份有限公司 | 一种基于视觉的额头检测方法、装置和电子设备 |
CN112232128A (zh) * | 2020-09-14 | 2021-01-15 | 南京理工大学 | 基于视线追踪的老年残障人士照护需求识别方法 |
CN113139892A (zh) * | 2020-01-19 | 2021-07-20 | 株式会社理光 | 一种视线轨迹的计算方法、装置及计算机可读存储介质 |
CN113379644A (zh) * | 2021-06-30 | 2021-09-10 | 北京字跳网络技术有限公司 | 基于数据增强的训练样本获取方法、装置和电子设备 |
CN114967935A (zh) * | 2022-06-29 | 2022-08-30 | 深圳职业技术学院 | 基于视线估计的交互方法、装置、终端设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002282210A (ja) * | 2001-03-27 | 2002-10-02 | Japan Science & Technology Corp | 視線検出方法及びその装置 |
JP2006277192A (ja) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | 映像表示システム |
JP2007233523A (ja) * | 2006-02-28 | 2007-09-13 | Hitachi Ltd | 非同期カメラ映像を用いた人物位置推定方法及びそのシステム |
JP2008102902A (ja) * | 2006-07-18 | 2008-05-01 | Advanced Telecommunication Research Institute International | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
US20090109400A1 (en) * | 2007-10-25 | 2009-04-30 | Tomoaki Yoshinaga | Gaze direction measuring method and gaze direction measuring device |
US20100013949A1 (en) * | 2006-12-05 | 2010-01-21 | Shinichi Miyamoto | Eyeball parameter estimating device and method |
-
2011
- 2011-12-28 JP JP2011289369A patent/JP5828167B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002282210A (ja) * | 2001-03-27 | 2002-10-02 | Japan Science & Technology Corp | 視線検出方法及びその装置 |
JP2006277192A (ja) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | 映像表示システム |
JP2007233523A (ja) * | 2006-02-28 | 2007-09-13 | Hitachi Ltd | 非同期カメラ映像を用いた人物位置推定方法及びそのシステム |
JP2008102902A (ja) * | 2006-07-18 | 2008-05-01 | Advanced Telecommunication Research Institute International | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム |
US20100013949A1 (en) * | 2006-12-05 | 2010-01-21 | Shinichi Miyamoto | Eyeball parameter estimating device and method |
US20090109400A1 (en) * | 2007-10-25 | 2009-04-30 | Tomoaki Yoshinaga | Gaze direction measuring method and gaze direction measuring device |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014161937A (ja) * | 2013-02-22 | 2014-09-08 | Seiko Epson Corp | 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム |
US10884488B2 (en) | 2014-11-24 | 2021-01-05 | Samsung Electronics Co., Ltd | Electronic device and method for controlling display |
KR20160061699A (ko) * | 2014-11-24 | 2016-06-01 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
WO2016085212A1 (ko) * | 2014-11-24 | 2016-06-02 | 삼성전자 주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
KR102326489B1 (ko) * | 2014-11-24 | 2021-11-16 | 삼성전자주식회사 | 디스플레이를 제어하는 전자 장치 및 방법 |
JP2018101211A (ja) * | 2016-12-19 | 2018-06-28 | 矢崎総業株式会社 | 車載器 |
CN111309138A (zh) * | 2018-12-12 | 2020-06-19 | 简韶逸 | 降低眼球追踪运算的方法和其眼动追踪装置 |
CN111309138B (zh) * | 2018-12-12 | 2023-05-30 | 简韶逸 | 降低眼球追踪运算的方法和其眼动追踪装置 |
JPWO2020183732A1 (ja) * | 2019-03-14 | 2020-09-17 | ||
WO2020183732A1 (ja) * | 2019-03-14 | 2020-09-17 | 日本電気株式会社 | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 |
JP7223303B2 (ja) | 2019-03-14 | 2023-02-16 | 日本電気株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
CN111027506A (zh) * | 2019-12-19 | 2020-04-17 | 斑马网络技术有限公司 | 视线方向的确定方法、装置、电子设备及存储介质 |
CN111027506B (zh) * | 2019-12-19 | 2024-04-12 | 斑马网络技术有限公司 | 视线方向的确定方法、装置、电子设备及存储介质 |
CN113139892A (zh) * | 2020-01-19 | 2021-07-20 | 株式会社理光 | 一种视线轨迹的计算方法、装置及计算机可读存储介质 |
CN111860154A (zh) * | 2020-06-12 | 2020-10-30 | 歌尔股份有限公司 | 一种基于视觉的额头检测方法、装置和电子设备 |
CN111860154B (zh) * | 2020-06-12 | 2024-05-28 | 歌尔股份有限公司 | 一种基于视觉的额头检测方法、装置和电子设备 |
CN112232128A (zh) * | 2020-09-14 | 2021-01-15 | 南京理工大学 | 基于视线追踪的老年残障人士照护需求识别方法 |
CN112232128B (zh) * | 2020-09-14 | 2022-09-13 | 南京理工大学 | 基于视线追踪的老年残障人士照护需求识别方法 |
CN113379644A (zh) * | 2021-06-30 | 2021-09-10 | 北京字跳网络技术有限公司 | 基于数据增强的训练样本获取方法、装置和电子设备 |
CN114967935B (zh) * | 2022-06-29 | 2023-04-07 | 深圳职业技术学院 | 基于视线估计的交互方法、装置、终端设备及存储介质 |
CN114967935A (zh) * | 2022-06-29 | 2022-08-30 | 深圳职业技术学院 | 基于视线估计的交互方法、装置、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP5828167B2 (ja) | 2015-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5828167B2 (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
JP4692526B2 (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
US11042994B2 (en) | Systems and methods for gaze tracking from arbitrary viewpoints | |
Park et al. | 3d social saliency from head-mounted cameras | |
Lu et al. | Inferring human gaze from appearance via adaptive linear regression | |
Wechsler | Reliable Face Recognition Methods: System Design, Impementation and Evaluation | |
Nishino et al. | The world in an eye [eye image interpretation] | |
WO2017211066A1 (zh) | 基于虹膜与瞳孔的用于头戴式设备的视线估计方法 | |
JP4936491B2 (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
JP6191943B2 (ja) | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム | |
KR100714724B1 (ko) | 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템 | |
US20150070470A1 (en) | Apparatus, System, and Method for Mobile, Low-Cost Headset for 3D Point of Gaze Estimation | |
CN106796449A (zh) | 视线追踪方法及装置 | |
US20220100268A1 (en) | Eye tracking device and a method thereof | |
CN109670390A (zh) | 活体面部识别方法与系统 | |
JPWO2010026983A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
CN113227878A (zh) | 用于视线估计的方法和系统 | |
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
JP2006343859A (ja) | 画像処理装置及び画像処理方法 | |
CN112257641A (zh) | 一种人脸识别活体检测方法 | |
JP2010123019A (ja) | 動作認識装置及び方法 | |
JP4379459B2 (ja) | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 | |
JP4682372B2 (ja) | 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
Nitschke et al. | I see what you see: point of gaze estimation from corneal images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5828167 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |