JPWO2008007781A1 - 視線方向検出装置および視線方向検出方法 - Google Patents

視線方向検出装置および視線方向検出方法 Download PDF

Info

Publication number
JPWO2008007781A1
JPWO2008007781A1 JP2008524862A JP2008524862A JPWO2008007781A1 JP WO2008007781 A1 JPWO2008007781 A1 JP WO2008007781A1 JP 2008524862 A JP2008524862 A JP 2008524862A JP 2008524862 A JP2008524862 A JP 2008524862A JP WO2008007781 A1 JPWO2008007781 A1 JP WO2008007781A1
Authority
JP
Japan
Prior art keywords
face
line
sight
feature
gaze direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008524862A
Other languages
English (en)
Other versions
JP5137833B2 (ja
Inventor
宗太郎 築澤
宗太郎 築澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008524862A priority Critical patent/JP5137833B2/ja
Publication of JPWO2008007781A1 publication Critical patent/JPWO2008007781A1/ja
Application granted granted Critical
Publication of JP5137833B2 publication Critical patent/JP5137833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Geometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を得ることができる視線方向検出装置。この装置(100)は、左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を、基準位置として算出するとともに、左右の瞳中心の三次元位置から、被検者の左右の瞳中心の左右方向における中心の三次元位置を、特徴位置として算出する特徴算出部(160)と、左右方向における基準位置に対する特徴位置のずれ量を、視線方向特徴量として算出する視線方向特徴量算出部(172)と、視線方向特徴量に基づいて、被検者の視線方向を算出する視線ベクトル算出部(173)とを有する。

Description

本発明は、人の視線方向を検出する視線方向検出装置および視線方向検出方法に関する。
近年、人の視線の方向を検出することにより、その人の注意の対象や意図を特定することが、多くの分野で注目されている。人間の視線方向の検出を非接触で行う技術が、従来提案されている(たとえば、特許文献1および特許文献2参照)。
特許文献1記載の視線認識装置は、ステレオカメラを使用して視線方向の検出の対象となる人(以下「被検者」という)を撮影し、撮影した画像を解析して、被検者の瞳の中心と、片方の目の目頭および目尻の三次元位置を検出する。次に、目頭および目尻が眼球の外側球面上に位置する前提で、目頭の位置と目尻の位置および眼球半径に基づいて、被検者の眼球の中心の三次元位置を特定する。そして、眼球中心を始点とし、瞳中心を終点とするベクトルを、被検者の視線方向を示すベクトルとして算出する。
また、特許文献2記載の視線方向検出装置は、ステレオカメラで撮影した被検者の画像を解析し、被検者の瞳の中心と、被検者の瞳の輪郭が通る平面の三次元位置を求める。そして、瞳の輪郭が通る平面の法線のうち、瞳の中心を通る線の方向を、被検者の視線方向として検出する。
特開2003−15816号公報 特開2004−255074号公報
しかしながら、目頭および目尻の形状や視覚的特徴には、個人差が大きい。したがって、上記した特許文献1記載の装置では、高い精度の視線方向検出結果を得るためには、被検者ごとに、実際の視線方向と検出される目頭および目尻の位置との関係を測定により特定し、視線方向の算出に用いる各種パラメータの校正を行う必要がある。すなわち、被検者ごとに、装置の校正(キャリブレーション)を行わなくてはならないため、手間が掛かるだけでなく、装置が複雑化するという問題がある。
また、視覚的に検出される瞳の輪郭の状態も、睫および瞼の態様や、眼鏡およびコンタクトレンズの有無により、個人差が大きい。したがって、上記した特許文献2記載の装置においても、高い精度の視線方向検出結果を得るためには、特許文献1記載の装置と同様に、被検者ごとに装置のキャリブレーションを行う必要がある。
本発明の目的は、被検者ごとのキャリブレーションを特に行うことなく高い精度の視線方向検出結果を得ることができる視線方向検出装置および視線方向検出方法を提供することである。
本発明の視線方向検出装置は、左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を、基準位置として算出する基準位置算出手段と、左右の瞳中心の三次元位置から、前記被検者の左右の瞳中心の左右方向における中心の三次元位置を、特徴位置として算出する特徴位置算出手段と、左右方向における前記基準位置に対する前記特徴位置のずれ量を、視線方向特徴量として算出する視線方向特徴量算出手段と、前記視線方向特徴量に基づいて、前記被検者の視線方向を算出する視線方向算出手段とを具備する構成を採る。
本発明の視線方向検出方法は、左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を基準位置として算出するとともに、左右の瞳中心の三次元位置から、前記被検者の左右の瞳中心の左右方向における中心の三次元位置を特徴位置として算出する特徴算出ステップと、左右方向における前記基準位置に対する前記特徴位置のずれ量を、視線方向特徴量として算出する視線方向特徴量算出ステップと、前記視線方向特徴量に基づいて、前記被検者の視線方向を算出する視線方向算出ステップとを有するようにした。
本発明によれば、左右の瞳中心の三次元位置や、目頭などの左右対称に位置する2つの顔部品の三次元位置という、高い検出精度で取得できかつ検出精度に個人差が少ないようなパラメータから、被検者の視線方向を検出することができる。すなわち、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を得ることができる。
本発明の実施の形態1に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態1における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態1における画像入力部で取得されるステレオ画像対の一例を示す説明図 本発明の実施の形態1における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態2に係る視線方向検出装置の構成を示すブロック 本発明の実施の形態2における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態2における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態3に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態3における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態3における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態4に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態4における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態4における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態5に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態5における選択情報テーブルの内容の一例を示す図 本発明の実施の形態5における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態6に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態6における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態6における重み情報の内容の一例を示す図 本発明の実施の形態6における重み情報の内容の他の例を示す図
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る視線方向検出装置の構成を示すブロック図である。本実施の形態の視線方向検出装置100は、たとえば、よそ見運転など、車の運転者に対して事故発生の危険を警報する警報装置に併設されるものであり、運転者の視線方向を検出するための装置である。ここで、視線方向の検出とは、被検者の目を始点とし被検者の注視対象を終点とするベクトルと、方向を同一とするベクトル(以下「視線ベクトル」という)を検出することを示す。
図1において、視線方向検出装置100は、画像入力部110、顔検出部120、顔部品検出部130、三次元位置算出部140、頭部姿勢推定部150、特徴算出部160、および視線方向算出部170を有する。また、画像入力部110は、第1撮像部111、第2撮像部112、および同期部113を有し、視線方向算出部170は、視線特徴投影部171、視線方向特徴量算出部172、および視線ベクトル算出部173を有する。
画像入力部110は、被検者を撮影して画像を入力し、入力画像を、顔検出部120および三次元位置算出部140へ出力する。
画像入力部110において、第1撮像部111および第2撮像部112は、図示しないイメージセンサをそれぞれ備えており、異なる位置で被検者を撮影する。イメージセンサは、たとえば、レンズと、CCD(charge coupled device)またはCMOS(complementary metal oxide semiconductor)により構成される。また、第1撮像部111および第2撮像部112の、入力画像と撮像位置との関係を定義する内部パラメータや、第1撮像部111および第2撮像部112の撮像位置を定義する外部パラメータは、既知である。ここで、たとえば、内部パラメータには、焦点距離、画像中心座標、画素サイズ、およびレンズ歪み係数が含まれ、外部パラメータには、並進ベクトルおよび回転行列が含まれる。また、同期部113は、第1撮像部111と第2撮像部112が同期したタイミングで撮像を行うように制御する。すなわち、画像入力部110は、ステレオカメラとして機能し、第1撮像部111と第2撮像部112でほぼ同時刻に撮像された2つの画像の組(以下「ステレオ画像対」という)を出力する。なお、イメージセンサとして上記したCCDやCMOSを用いる場合には、画像入力部110は、ディジタルステレオカメラとして機能する。
顔検出部120は、画像入力部110により入力される画像から、被検者の顔(以下単に「顔」という)の画像の領域を検出し、顔の画像の領域(以下「顔領域」という)を示す顔領域情報を、ステレオ画像対のうち顔領域が検出された画像とともに、顔部品検出部130へ出力する。
顔部品検出部130は、顔検出部120により入力される画像から、同じく顔検出部120により入力される顔領域情報に基づいて、顔の中心を基準として顔に左右対称に位置する部品(以下「顔部品」という)を検出する。すなわち、顔部品検出部130は、顔部品に対応する画像を検出する。この顔部品は、たとえば、目頭、目尻、鼻孔、口角、眉頭、眉尻である。また、顔部品検出部130は、検出した顔部品(顔部品に対応する画像)に基づいて、被検者の左右の瞳中心(瞳中心に対応する画像)を検出する。そして、顔部品検出部130は、検出した各顔部品および瞳中心の、顔領域が検出された画像における二次元位置を示す顔部品二次元位置情報を、三次元位置算出部140へ出力する。
三次元位置算出部140は、画像入力部110から入力されるステレオ画像対、顔部品検出部130から入力される顔部品二次元位置情報、および上記した画像入力部110の既知の内部パラメータおよび外部パラメータに基づいて、各顔部品の三次元位置を算出する。そして、三次元位置算出部140は、各顔部品の三次元位置を示す顔部品三次元位置情報を、頭部姿勢推定部150および特徴算出部160へ出力する。
頭部姿勢推定部150(顔方向推定手段)は、三次元位置算出部140から入力される顔部品三次元位置情報から、顔正面の方向を示すベクトル(以下「顔正面ベクトル」という)を、被検者の頭部(以下単に「頭部」という)の姿勢を示す頭部姿勢パラメータとして取得する。具体的には、頭部姿勢推定部150は、左右で対応する2つの顔部品を含む3つ以上の顔部品のそれぞれの三次元位置を通る平面を算出し、その平面の法線ベクトルを、頭部姿勢パラメータとして取得する。そして、頭部姿勢推定部150は、取得した頭部姿勢パラメータを、視線方向算出部170へ出力する。
特徴算出部160は、三次元位置算出部140により入力される顔部品三次元位置情報から、被検者の視線(以下単に「視線」という)の特徴を示す視線特徴パラメータを取得する。視線特徴パラメータは、視線方向に対応して移動する点である視線方向特徴点の三次元位置(特徴位置)と、視線方向特徴点の移動を判別する際の基準となる視線方向基準点の三次元位置(基準位置)から成る。具体的には、視線方向特徴点は、左右の瞳中心の中点であり、視線方向基準点は、左右で対応する2つの顔部品(たとえば左右の目頭)の中点である。そして、特徴算出部160は、取得した視線特徴パラメータを、顔部品三次元位置情報とともに、視線方向算出部170へ出力する。
視線方向算出部170は、頭部姿勢推定部150から入力される頭部姿勢パラメータと、特徴算出部160から入力される視線特徴パラメータおよび顔部品三次元位置情報に基づいて、視線ベクトルを算出する。
視線方向算出部170において、視線特徴投影部171は、視線方向特徴点を、視線方向基準点の基となった左右で対応する2つの顔部品を通る直線に垂直に投影した、視線特徴投影点の三次元位置を算出する。視線方向特徴量算出部172は、視線方向基準点に対する視線特徴投影点のずれ量を、視線方向の特徴を示す量(以下「視線方向特徴量」という)として算出する。視線ベクトル算出部173は、視線方向特徴量と顔正面ベクトルに基づいて、視線ベクトルを算出する。視線方向算出部170は、算出された視線ベクトルを、視線方向検出結果として、たとえば上記した警報装置へ出力する。
視線方向検出装置100は、図示しないが、CPU(Central Processing Unit)と、制御プログラムを格納したROM(Read Only Memory)と、CPUの作業用メモリとしてのRAM(Random Access Memory)とを備えている。すなわち、上記した視線方向検出装置100の各部の機能は、CPUが制御プログラムを実行することにより実現される。
以上の構成を有する視線方向検出装置100の動作について、以下、詳細な説明を行う。
図2は、視線方向検出装置100による視線方向検出処理の流れを示すフローチャートである。この視線方向検出処理は、たとえば、上記した警報装置の起動を示す信号の入力や、ユーザ操作による処理開始の指示をトリガとして開始される。
図2のステップS1000において、画像入力部110は、第1撮像部111および第2撮像部112により撮像された2つの画像を、ステレオ画像対として入力する。
図3は、画像入力部110で取得されるステレオ画像対の一例を示す説明図である。ステレオ画像対400は、上記したように、第1撮像部111で撮像された画像(以下「第1画像」という)401と、第2撮像部112で撮像された画像(以下「第2画像」という)402から成る。ここで、第1撮像部111は、頭部をやや左側からみる位置に配置され、第2撮像部112は、頭部をやや右側からみる位置に配置されている。したがって、第1画像401と第2画像402は、同期部113の制御によりほぼ同時に撮像されたものであるが、異なった画像となっている。
画像入力部110は、上記したようにディジタルステレオカメラとして機能する場合には、たとえば、PPM(Portable Pix Map file format)形式の画像データとして、第1画像401および第2画像402を取得する。画像入力部110は、取得した画像データを、画像入力部110に備えられた図示しない記憶部(たとえば、上記したRAMの所定のメモリ空間)に一時的に記憶させる。そして、顔検出部120および三次元位置算出部140は、この記憶部から、PPM形式の画像データを取得する。
図2のステップS1100において、顔検出部120は、ステップS1000で入力されたステレオ画像対400のうち、第1画像401に対し、顔領域403の検出を行い、上記した顔領域情報を生成する。なお、顔検出部120は、第1画像401のみを画像入力部110から取得するようにしてもよい。
顔検出部120は、たとえば、第1画像401のうち、あらかじめ用意した平均顔の顔領域を表す特徴画像との相関が最も高い画像部分を特定することにより、顔領域403を検出する。具体的には、顔検出部120は、第1画像401から、特徴となる画像部分を複数抽出し、抽出した各画像部分と、特徴画像とを比較する。そして、抽出した画像部分のうち、特徴画像との類似度が最も高いものを、顔領域403に決定する。
顔検出部120は、たとえば、第1画像401のガボール特徴量を算出し、あらかじめ用意しておいた特徴画像のガボール特徴量と照合して、その差分の絶対値の逆数を、この類似度として用いるようにすればよい。ここで、ガボール特徴量とは、画像にガボールウェーブレット変換を施すことにより算出される、画像の特徴を示す値である。
また、顔検出部120は、第1画像401を解析して肌色の領域を検出したり、楕円形に近い形状の領域を検出したり、統計的パターン識別手法を用いることにより、顔領域403を検出するようにしてもよい。なお、第1画像401または第2画像402において顔領域403の検出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
顔部品は、当然ながら顔に位置している。したがって、このように顔領域403を検出しておくことにより、顔部品の探索の対象となる領域を顔に絞ることができ、処理の高速化を図ることができる。
ステップS1200において、顔部品検出部130は、ステップS1100で生成された顔領域情報を基に、第1画像401の顔領域403を探索領域として、第1画像401から、顔部品404を検出する。ただし、顔部品検出部130は、たとえば、左右の目頭と左の口角というように、少なくとも2種類の顔部品を検出するとともに、少なくとも1種類については左右の両方を検出する。ここで、顔部品404として、左右の口角、左右の目頭、左右の目尻を検出したものとする。これらの顔部品404は、上記したように、顔の中心を基準として左右対称に位置している。
顔部品検出部130は、たとえば、分離度フィルタを用いて第1画像401の顔領域403の各位置の分離度を検出し、分離度が高い箇所の中から、顔部品404に該当するものを特定することにより、顔部品404を検出する。具体的には、顔部品検出部130は、顔領域と顔部品との位置関係をあらかじめ記憶または学習しておき、分離度が高い箇所のうち、尤度が高い箇所を顔部品404として検出する。または、顔部品検出部130は、平均顔の画像を部分的に切り取った画像部分から作成された画像部品のテンプレートを用意しておき、第1画像401の顔領域403の各所に対してテンプレートマッチングを行って類似する箇所を探索することにより、顔部品404を検出するようにしてもよい。
ステップS1300において、顔部品検出部130は、ステップS1100で生成された顔領域情報を基に、第1画像401の顔領域403を探索領域として、第1画像401から、被検者の瞳中心405を検出する。
顔部品検出部130は、たとえば、顔部品404のうち目尻と目頭を含む領域に対して円形分離度フィルタを適用し、最も輝度の分離度が高い円中心を、瞳中心405として検出する。ただし、このとき、ソーベル(Sobel)フィルタを用いたエッジ検出や、大津の閾値法を用いた輝度の二値化などにより瞼を検出し、上下瞼に挟まれた領域内のみを検出対象範囲とすることが望ましい。または、顔部品検出部130は、目尻と目頭を含む領域において、水平方向および垂直方向のそれぞれで輝度和をとり、それぞれの輝度和が小さい点を瞳中心405とするようにしてもよい。なお、瞳中心405の検出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
ステップS1400において、三次元位置算出部140は、ステップS1000で取得されたステレオ画像対400、ステップS1200で検出された顔部品404、およびステップS1300で検出された瞳中心405に基づいて、顔部品404および瞳中心405の三次元位置を算出する。具体的には、三次元位置算出部140は、第1画像401と第2画像402のそれぞれにおける顔部品404および瞳中心405の二次元位置と、上記した第1撮像部111と第2撮像部112の内部パラメータおよび外部パラメータを基に、ステレオ法により、顔部品404および瞳中心405の三次元位置を算出する。そして、三次元位置算出部140は、算出した各顔部品の三次元位置を、顔部品三次元位置情報として、頭部姿勢推定部150および特徴算出部160へ出力する。
三次元位置算出部140は、たとえば、第2画像402に対してテンプレートマッチングを行うことにより、顔部品404および瞳中心405の第2画像402における対応点の位置を検出する。具体的には、三次元位置算出部140は、第1画像401における各顔部品404と瞳中心405を含む画像部分のそれぞれをテンプレートとするとともに、第1画像401における各顔部品404と瞳中心405のエピポーラ線を第2画像402に対して引く。そして、エピポーラ線上で、対応するテンプレートに最も相関の高い箇所を探索して、顔部品404および瞳中心405の対応点の第2画像402における位置を特定する。
なお、三次元位置算出部140は、第1画像401を基に顔を三次元モデル化して、第2画像402における対応点の探索範囲を限定するようにしてもよい。このように、顔部品404および瞳中心405の対応点の探索領域を絞ることにより、処理の高速化を図ることができる。また、三次元位置算出部140は、顔の形状を三次元モデル化した上で、特徴が顕著な顔部品405の対応点の探索を優先させて、顔全体の三次元形状として考えた際に矛盾が生じないように、残りの対応点を探索するようにしてもよい。顔部品404および瞳中心405の三次元位置の検出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
ステップS1500において、頭部姿勢推定部150は、ステップS1400で検出された顔部品404の三次元位置に基づいて、頭部の姿勢を推定し、頭部姿勢パラメータを取得する。
頭部姿勢推定部150は、たとえば、ステップS1200で取得された顔部品404のうち、左右の口角と左右の目頭の4点を通る平面を特定し、その法線ベクトルを算出する。そして、算出した法線ベクトルを、顔正面ベクトル、つまり頭部姿勢パラメータとする。なお、実際には上記した4点のすべてを通る平面を常に取得することは難しいため、各点から引いた垂線の長さの二乗和が最小となる平面を特定し、その法線ベクトルを顔正面ベクトルとする。または、たとえば、左右の口角と一方の目頭の3点を通る平面を特定し、その法線ベクトルを顔正面ベクトルとしてもよい。または、左右の目頭を結ぶベクトルと、いずれかの目頭と左右の口角の中点を結ぶベクトルを求め、これらの2つのベクトルの外積をとることにより、顔正面ベクトルを求めるようにしてもよい。また、平面を算出する際の評価方法として、M推定などのロバスト推定手法を用いてもよい。なお、顔正面ベクトルの算出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
ステップS1600において、特徴算出部160は、ステップS1400で検出された瞳中心405および顔部品404の三次元位置に基づいて、視線特徴パラメータを取得する。
特徴算出部160は、左右の瞳中心405の三次元位置から、左右の瞳中心405の中点の三次元位置を特定し、特定した点を上記した視線方向特徴点とする。また、特徴算出部160は、たとえば、顔部品404のうち左右の目頭の三次元位置から、左右の目頭の中点の三次元位置を特定し、特定した点を上記した視線方向基準点とする。
なお、左右の目尻の中点、左右の口角の中点など、顔に左右対称に存在する他の顔部品404の中点を、視線方向基準点としてもよい。また、左右の目尻と左右の口角というように、左右対称の顔部品を複数組選定し、それぞれの各点の重心を視線方向基準点としてもよい。すなわち、視線方向基準点は、顔が左右対称となっている前提で、顔の左右方向の中心に位置する点である。特徴算出部160は、視線特徴パラメータだけでなく、視線方向基準点の基となった顔部品404の三次元位置に関する情報も、視線方向算出部170へ出力する。
ステップS1700において、視線特徴投影部171は、ステップS1600で取得された視線特徴パラメータおよび顔部品三次元位置情報に基づいて、視線方向特徴点を、視線方向基準点の基となった左右の対応する2つの顔部品404を通る直線へ投影し、その投影点を、視線特徴投影点として取得する。
視線特徴投影部171は、たとえば、左右の目頭の中点が視線方向基準点とされた場合には、視線方向特徴点から左右の目頭を通る直線へ垂線を下ろし、この垂線と左右の目頭を通る直線との交点を、視線特徴投影点として取得する。また、たとえば、3点以上の顔部品404の重心が視線方向基準点とされた場合には、顔部品404を左右に分け、左右それぞれの顔部品404の重心を通る直線に対して、垂線を下ろすようにすればよい。
ステップS1800において、視線方向特徴量算出部172は、ステップS1600で取得された視線方向基準点と、ステップS1700で取得された視線特徴投影点に基づいて、視線方向特徴量を算出する。
図4は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、被検者の目とその周辺部分を上方からみた状態で示している。ここでは、左右の目頭の中点が視線方向基準点とされた場合を例として説明を行う。
図4に示すように、視線方向基準点Fcは、左目頭501と右目頭502の中点である。また、瞳中心503が移動すると、視線方向特徴点504も移動し、視線特徴投影点Eも左右の同じ方向に同じ距離だけ移動する。したがって、瞳中心503が、顔正面を向いたときの位置に対して左右方向にずれ量dだけ移動した場合、視線特徴投影点Eも、視線方向基準点Fcに対して左右方向にずれ量dだけ移動する。ここで、視線方向基準点Fcを基準とするずれ量dおよび顔正面ベクトル512を基準とする角度について、顔を正面からみたときの左方向を正とする。
ずれ量dは、視線方向特徴量であり、視線方向特徴点504が視線方向基準点Fcよりも左側にある場合には、たとえば、以下に示す式(1)を用いて求められる。また、視線方向特徴点504が視線方向基準点Fcよりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(2)を用いて求められる。
Figure 2008007781
Figure 2008007781
ステップS1900において、視線ベクトル算出部173は、ステップS1900で算出された視線方向特徴量に基づいて、視線ベクトル511と顔正面ベクトル512とが成す角を算出し、視線ベクトル511を算出する。そして、算出した視線ベクトル511を、たとえば、上記した警報装置へ出力する。
顔を基準としたときの瞳中心503の回転中心は、眼球中心505に一致するため、視線ベクトル511は、眼球中心505を始点とし瞳中心503を終点とするベクトルで示すことができる。したがって、眼球半径をrとしたとき、視線ベクトル511と顔正面ベクトル512とが成す角θに関して、以下の式(3)が成り立つ。
Figure 2008007781
したがって、視線ベクトル511と顔正面ベクトル512とが成す角θは、たとえば、以下の式(4)を用いて求められる。
Figure 2008007781
なお、眼球半径rは、成人であれば個人差は少ないため、あらかじめ定めた値を用いることができる。また、年齢や性別、人種といった被検者の特性に合わせて、眼球半径rの値を切り変えたり、被検者の実際の眼球半径を測定し、測定結果を用いるようにしてもよい。
ここで、三次元位置算出部140で三次元位置を表現するのに使用する座標系、つまり第1撮像部111および第2撮像部112の撮像位置を基準とした座標系を、ステレオカメラ座標系というものとする。また、視線方向基準点の基となった左右で対応する2つの顔部品404(図4では、左目頭501と右目頭502)を通る直線をx軸とし、顔正面ベクトル512と平行なz軸を有する座標系を、顔座標系というものとする。
顔座標系における顔正面ベクトル512の各成分を、(0,0,f)とし、顔座標系における視線ベクトル511の各成分を、(g,g,g)とすると、視線ベクトル511は、たとえば、以下の式(5)を用いて求められる。
Figure 2008007781
顔座標系の各軸は、ステレオカメラ座標系で表現可能なベクトルまたは特徴を基に定義される。したがって、顔座標系で表現される視線ベクトル511は、ステレオカメラ座標系においても表現することが可能である。したがって、第1撮像部111および第2撮像部112の外部パラメータから、たとえば視線ベクトルが外界のどの方向を向いているかを検出することができる。
たとえば、ステレオカメラ座標系における視線ベクトル511の各成分を(G,G,G)とし、顔座標系からステレオカメラ座標系へ回転行列および並進ベクトルをそれぞれR、Tとすると、ステレオカメラ座標系における視線ベクトル511は、たとえば、以下の式(6)を用いて求められる。
Figure 2008007781
なお、回転行列Rおよび並進ベクトルTは、顔正面ベクトル512を算出する際に用いた顔部品3点の座標から取得することが可能である。
ステップS2000において、視線方向検出装置100は、視線ベクトル511を検出する処理の終了判定を行う。この終了判定は、たとえば、上記した警報装置の停止を示す信号の入力や、ユーザ操作による処理停止の指示の有無を判別することにより行われる。処理を終了すると判定した場合には(S2000:YES)、そのまま一連の処理を終了する。処理を終了しないと判定した場合には(S2000:NO)、ステップS1000へ戻り、再びステレオ画像対400を入力し、視線ベクトル511の検出を行う。
ただし、視線方向検出装置100を構成する複数の処理部で並行して処理を進められる場合には、直前に取得されたステレオ画像対400から視線ベクトル511が取得される前に、次のステレオ画像対400の取得を行うようにしてもよい。また、画像入力部110は一定周期ごとに撮像を行うようにしてもよい。この場合には、視線方向検出装置100は、ステップS2000の終了判定を早期に行い、視線ベクトル511を検出する処理を終了することを判定したときに、画像入力部110の撮像を停止させる。なお、ステップS1000からステップS1900までの処理に要する時間を短縮すればするほど、よりリアルタイムに近い視線方向検出を実現できることと、ステップS1000の処理間隔を短くすればするほど、より細やかな視線方向検出を実現できることは、いうまでもない。
このようにして、視線方向検出装置100は、被検者がどの方向を見ているかを、視線ベクトル511として検出し、警報装置へ出力する。
警報装置では、たとえば、ステレオカメラ座標系において、フロントガラスの領域、サイドミラーの領域、カーナビゲーション装置の液晶パネルの領域などを記憶しており、入力される視線ベクトル511を基に、運転者がどの領域に視線を向けているかを監視する。そして、たとえば、左右にハンドルを切る操作が行われる際に、ハンドルを切る側のサイドミラーに運転者の視線が向いていない場合には、サイドミラーを確認するよう警告を行う。これにより、ハンドルを切る際の巻き込み事故を未然に防ぐことが可能となる。
以上説明したように、本実施の形態によれば、人間の左右の瞳中心が、顔正面の方向を見ているときには顔に左右対称に配置され、他の方向を見る際には連動して動くという、人間の顔に一般的に共通する特徴を利用し、視線方向の検出を行うようにした。具体的には、左右の瞳中心の三次元位置と、顔の中心を基準として顔に左右対称に位置する顔部品の三次元位置とを検出し、左右の瞳中心の中点の、顔の中心に対する左右方向のずれ量を検出し、そのずれ量と眼球半径に基づいて視線方向を検出するようにした。
これにより、高い検出精度で取得することが可能であり、かつ検出精度に個人差が少ないパラメータから、視線方向を検出することができる。したがって、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を、安定して得ることができる。また、たとえば、ステレオカメラによる低解像度の撮影像からでも、高い精度の視線方向検出結果を安定して得ることができる。すなわち、ステレオカメラの解像度を低く抑えることができ、装置の低コスト化を図ることができる。
また、人間の顔に左右対称に存在する顔部品を利用して、ステレオカメラ座標系などの特定の座標系における顔正面の方向を検出するので、検出した視線方向を特定の座標系で表現することができ、検出結果の利用価値を高めることができる。また、ステレオカメラで撮影した画像に基づいて、左右の瞳中心の中点の、顔の中心に対する左右方向のずれ量を検出するので、非接触での視線方向検出を実現することができ、各種分野に柔軟に適用することができる。さらに、上記した人間の顔に共通する特徴を利用するだけでなく、個人差の少ない眼球半径を既知の値とすることで、被検者ごとのキャリブレーションが全く不要となる。これにより、より短時間で視線方向検出を開始することができるとともに、使用者への負担を軽減することができる。すなわち、より簡便かつ気軽に、人間の視線方向を検出することが可能となる。
特に、車の運転者に対して事故の危険性を警報する警報装置に適用するような場合、ステレオカメラを使用して非接触での視線方向検出を行う必要があるが、運転時の車内の明るさや照明状態の変動が大きいため、画像に影などの不確定要素が入りやすい。したがって、このような警報装置には、本実施の形態による視線方向検出装置は、特に有用である。
なお、本実施の形態の視線方向検出装置では、顔の左右方向における瞳の移動に対応した視線方向検出のみを行うようになっているが、通常、人の瞳は上下方向に比べて左右方向により大きく移動するため、被検者の注意の対象や意図を特定するための情報として、十分に利用価値の高い検出結果を得ることができる。また、顔の上下方向における瞳の移動に対応した視線方向検出の技術と組み合わせてもよいことは勿論である。
(実施の形態2)
以上説明した実施の形態1では、左右の瞳中心の中点の左右方向のずれ量を算出する際に、視線特徴投影点を用いたが、本実施の形態では、顔の左右方向における中心に位置する基準面を算出し、算出された基準面(対称面)を用いる。
図5は、本発明の実施の形態2に係る視線方向検出装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。
図5において、本実施の形態の視線方向検出装置200は、図1に示す視線方向算出部170に代えて、視線方向算出部270を有している。視線方向算出部270は、図1に示す視線特徴投影部171および視線方向特徴量算出部172に代えて、視線基準面算出部271および視線方向特徴量算出部272を有している。
視線方向算出部270において、視線基準面算出部271は、顔の対称面に相当する視線基準面の三次元位置(基準位置)を算出する。視線方向特徴量算出部272は、視線基準面に対する視線方向特徴点のずれ量を、視線方向特徴量として算出する。
図6は、視線方向検出装置200による視線方向検出処理の流れを示すフローチャートであり、実施の形態1の図2に対応するものである。
ステップS1000からステップS1600までの処理は、図2と同様である。ステップS1600で、特徴算出部160が視線特徴パラメータを取得すると、ステップS1710へ進む。
ステップS1710において、視線基準面算出部271は、ステップS1400で取得された顔部品三次元位置情報と、ステップS1600で取得された視線特徴パラメータとに基づいて、上記した視線基準面を算出する。ここで、視線基準面は、視線方向基準点の基となった左右で対応する2つの顔部品404を通る直線を法線とし、視線方向基準点を通る平面と定義する。
視線基準面算出部271は、まず、視線方向基準点Fcの基となった左右で対応する2つの顔部品404を結ぶベクトル(以下「顔部品ベクトル」という)を算出する。そして、算出した顔部品ベクトルと、視線方向基準点に基づいて、視線基準面を算出する。
図7は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、実施の形態1の図4に対応するものである。
図7に示すように、視線基準面601は、視線方向基準点Fcの基となった左右で対応する2つの顔部品404(図7では、左目頭501と右目頭502)を通る直線と直交し、視線方向基準点Fcを通る。顔部品ベクトル611の各成分を、(a,b,c)とし、視線方向基準点Fcの座標を、(x,y,z)とすると、視線基準面601は、たとえば、以下の式(7)で示される。
Figure 2008007781
ステップS1810において、視線方向特徴量算出部272は、ステップS1600で取得された視線方向特徴点504と、ステップS1710で算出された視線基準面601に基づいて、視線基準面601に対する視線方向特徴点504のずれ量dを算出する。
ずれ量d、つまり視線方向特徴量は、視線方向特徴点504の座標を、(x,y,z)とすると、視線方向特徴点504が視線基準面601よりも左側にある場合には、たとえば、以下の式(8)を用いて求めることができる。また、視線方向特徴点504が視線基準面601よりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(9)を用いて求められる。
Figure 2008007781
Figure 2008007781
図6において、以上のようにステップS1810で視線方向特徴量が算出されると、ステップS1900へ進む。ステップS1900以降の処理については、図2と同様であり、ステップS1900において、視線ベクトル511が算出される。この演算には、たとえば、眼球半径rを既知の値として、実施の形態1の式(3)、式(4)、式(5)、および式(6)を用いればよい。
このように、本実施の形態によれば、実施の形態1と同様に、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を、安定して得ることができる。また、実施の形態1における視線方向特徴量の精度は、視線方向投影点と視線特徴点との距離、つまり視線方向基準点の基となる顔部品の選定によって変動するが、本実施の形態では視線基準面を基準とするため、このような精度のばらつきを抑えることができる。したがって、実施の形態1と比較して、視線ベクトルの検出精度を向上させることができる。
(実施の形態3)
たとえば車を運転中の人の視線方向検出を行う場合、広い範囲で顔の向きを変えるため、一時的に片目しか撮像できないことがある。そこで、本実施の形態では、両目を撮像できたときの情報を記憶しておき、一時的に片目しか撮像できないことがあっても、継続的に視線方向を検出できるようにする。
図8は、本発明の実施の形態3に係る視線方向検出装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。
図8において、本実施の形態の視線方向検出装置300は、図1に示す特徴算出部160および視線方向算出部170に代えて、特徴算出部360および視線方向算出部370を有している。視線方向算出部370は、図1に示す視線特徴投影部171および視線方向特徴量算出部172に代えて、視線特徴投影部371および視線方向特徴量算出部372を有している。また、視線方向検出装置300は、特徴記憶部365を有している。
特徴算出部360は、三次元位置算出部140から入力される顔部品三次元位置情報から、視線特徴パラメータを取得するとともに、左右の瞳中心の距離である瞳間距離を算出する。ただし、本実施の形態では、視線特徴パラメータは視線方向基準点を含んでいればよく、必ずしも視線方向特徴点を含む必要はない。
特徴記憶部365は、特徴算出部360で算出される瞳間距離を記憶する。
視線方向算出部370において、視線特徴投影部371は、左右の瞳中心のうち、適切な方の瞳中心を、視線方向基準点の基となる顔部品404を通る直線へ投影した投影点(以下「顔部品投影点」という)を算出する。視線方向特徴量算出部372は、顔部品投影点と、視線特徴パラメータと、特徴記憶部365に記憶されている瞳間距離に基づいて、視線方向特徴量を算出する。
図9は、視線方向検出装置300による視線方向検出処理の流れを示すフローチャートであり、実施の形態1の図2に対応するものである。
ステップS1000からステップS1500までの処理は、図2と同様である。ステップS1500で、頭部姿勢推定部150が頭部姿勢パラメータを取得すると、ステップS1550へ進む。
ステップS1550において、特徴算出部360は、視線特徴パラメータ(視線方向基準点)を取得するとともに、被検者の左右の瞳中心の三次元位置を基に、瞳間距離を算出し、特徴記憶部365に記憶させる。過去の情報が特徴記憶部365に既に記憶されている場合には、新たに算出した瞳間距離で記憶内容を更新する。
ただし、顔が横を向いていたり、眼鏡のレンズへの映り込みが激しいなどして、ステップS1000で、第1撮像部111および第2撮像部112の両方が、左右の瞳中心の両方を撮像できなかった場合には、視線方向特徴点の取得と、瞳間距離の算出および記憶は行わずに、そのままステップS1600へ進む。また、同一の被検者について過去に取得された瞳間距離が特徴記憶部365に既に記憶されている場合も、瞳間距離の算出および記憶を行わずに、そのままステップS1600へ進むようにしてもよい。
ステップS1600において、特徴算出部360は、ステップS1400で検出された瞳中心405および顔部品404の三次元位置に基づいて、視線特徴パラメータを取得し、ステップS1720へ進む。
ステップS1720において、視線特徴投影部371は、ステップS1400で取得された顔部品三次元位置情報と、ステップS1600で取得された視線特徴パラメータとに基づいて、左右の瞳中心のいずれかを、視線方向基準点の基となった左右の対応する2つの顔部品404を通る直線へ投影し、その投影点を、顔部品投影点として取得する。
ステップS1820において、視線方向特徴量算出部372は、ステップS1550で取得された視線方向基準点と、ステップS1720で取得された顔部品投影点に基づいて、視線方向特徴量を算出する。
図10は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、実施の形態1の図4に対応するものである。
図10に示すように、瞳中心503が移動すると、視線方向基準点Fcの基となった2つの顔部品404(図10では、左目頭501と右目頭502)が通る直線に投影された左右の顔部品投影点Eの中点701の三次元位置(特徴位置)も、左右方向に同じずれ量だけ移動する。したがって、瞳中心503が、顔正面を向いたときの位置に対して左右方向にずれ量dだけ移動した場合、左右の顔部品投影点Eの中点701も、視線方向基準点Fcに対して左右方向にずれ量dだけ移動する。
ずれ量dは、視線方向特徴量であり、瞳間距離をLeyeとすると、左右の顔部品投影点Eの中点701が視線方向基準点Fcによりも左側にある場合には、たとえば、以下に示す式(10)を用いて求められる。また、左右の顔部品投影点Eの中点701が視線方向基準点Fcによりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(11)を用いて求められる。
Figure 2008007781
Figure 2008007781
上記した式(10)および式(11)により算出される値は、左右の顔部品投影点Eのいずれを採用してもそれぞれ同一となる。したがって、視線方向特徴量を算出する際には、左右の顔部品投影点Eのうち任意の一方を採用することができる。これは、視線方向基準点Fcと瞳間距離Leyeを取得すれば、左右の瞳中心503のうちいずれか一方の三次元位置のみから、視線方向特徴量を算出できることを意味する。すなわち、必ずしも左右の瞳の両方を撮像する必要がなく、たとえば、顔が横を向き、一時的に片目しか撮像できなくても、継続して視線方向特徴量を算出できる。
図10において、以上のようにステップS1820で視線方向特徴量が算出されると、ステップS1900へ進む。ステップS1900以降の処理については、図2と同様であり、ステップS1900において、視線ベクトル511が算出される。この演算には、たとえば、眼球半径rを既知の値として、実施の形態1の式(3)、式(4)、式(5)、および式(6)を用いればよい。
このように、本実施の形態によれば、実施の形態1および実施の形態2と同様に、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を、安定して得ることができる。また、瞳間距離を記憶しておくことにより、左右の顔部品投影点の中点を片方の瞳中心から特定できるので、片目しか撮像できなくても、正面方向に対する瞳中心の左右方向のずれ量を常に取得することができる。
すなわち、本実施の形態によれば、顔の向きや、髪や眼鏡の縁、光の反射などの原因により、被検者の片目しか撮像できない場合でも、視線方向を検出することができ、高い精度の視線方向検出結果をより安定的に得ることができる。たとえば、顔が左向きならば右目、右向きならば左目というように、第1撮像部111および第2撮像部112から向かって顔の向きと逆側の瞳の中心を、三次元位置の検出の対象として選択すればよい。
なお、瞳間距離は、別途検出を行ったり、初期値として入力することにより、あらかじめ記憶しておくようにしてもよい。さらに、左右の瞳中心の両方が検出されているときには、実施の形態1または実施の形態2で説明した手法により視線方向特徴量を算出し、片方の瞳中心しか検出できないときにのみ本実施の形態で説明した手法を適用するようにしてもよい。この場合、左右の瞳中心の両方が検出されているか否かを判別し、判別結果に応じて処理を切り変えるようにすればよい。
(実施の形態4)
実施の形態4では、実施の形態3で説明した片方の瞳中心の三次元位置を用いた視線方向検出を、実施の形態2で説明した視線基準面を用いて行う場合について説明する。
図11は、本発明の実施の形態4に係る視線方向検出装置の構成を示すブロック図であり、実施の形態2の図5および実施の形態3の図8に対応するものである。
図11において、本実施の形態の視線方向検出装置600は、図8に示す視線方向算出部370に代えて、視線方向算出部670を有している。視線方向算出部670は、図8に示す視線特徴投影部371および視線方向特徴量算出部372に代えて、図5に示す視線基準面算出部271と、視線方向特徴量算出部672とを有している。
視線方向算出部670において、視線方向特徴量算出部672は、視線基準面算出部271により算出された視線基準面の三次元位置と、特徴算出部360により算出された視線特徴パラメータと、特徴記憶部365に記憶されている瞳間距離とに基づいて、視線方向特徴量を算出する。
図12は、視線方向検出装置600による視線方向検出処理の流れを示すフローチャートであり、実施の形態2の図6および実施の形態3の図9に対応するものである。
ステップS1000からステップS1600までの処理は、図9と同様である。また、ステップS1710およびステップS1900以降の処理は、ステップS1810の処理をステップS1830の処理に代えたことを除き、図6と同様である。
ステップS1830において、視線方向特徴量算出部672は、ステップS1400で検出された瞳中心の三次元位置と、ステップS1550で求められた瞳間距離と、ステップS1710で求められた視線基準面とに基づいて、視線方向特徴量を算出する。
図13は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、実施の形態2の図7および実施の形態3の図10に対応するものである。
図13に示すように、瞳中心503が、顔正面を向いたときの位置に対して左右方向にずれ量dだけ移動した場合、左右の瞳中心503の中点である視線方向特徴点504も、視線基準面601に対して左右方向にずれ量dだけ移動する。また、左右の瞳中心503を結ぶ線は視線基準面601と直交する。したがって、左右いずれかの瞳中心503の視線基準面601からの距離Dと、瞳間距離Leyeとの差分が、ずれ量dとなる。
顔部品ベクトル611の各成分を(a,b,c)とし、視線方向基準点Fcの座標を(x,y,z)とし、左右いずれかの瞳中心の座標を(x,y,z)とすると、瞳中心503の視線基準面601からの距離Dは、たとえば、以下の式(12)で示される。
Figure 2008007781
したがって、視線方向特徴量であるずれ量dは、演算に使用する瞳中心503が視線方向基準点Fcによりも左側にある場合には、たとえば、以下に示す式(13)を用いて求められる。また、演算に使用する瞳中心503が視線方向基準点Fcによりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(14)を用いて求められる。
Figure 2008007781
Figure 2008007781
上記した式(13)および式(14)により算出される値は、左右の瞳中心503のいずれを採用してもそれぞれ同一となる。したがって、実施の形態3と同様に、視線方向特徴量を算出する際には、左右の瞳中心503のうち任意の一方を採用することができる。
このように、本実施の形態によれば、実施の形態3と同様に、片目しか撮像できなくても視線方向検出を行うことができ、高い精度の視線方向検出結果をより安定的に得ることができる。更に、視線基準面を基準とし、瞳中心の三次元位置をそのまま演算に用いるため、実施の形態3と比較して視線ベクトルの検出精度を向上させることができる。
(実施の形態5)
実施の形態5では、左右両方の目の瞳中心の三次元位置が取得可能な場合に、取得される三次元位置の信頼度がより高い方の目を用いて視線方向検出を行う場合について説明する。
顔の向きが左右のいずれかに振れているときに、ステレオカメラとして機能する第1撮像部111および第2撮像部112のイメージセンサ(以下「カメラ」という)からみて奥側となる目は、カメラに対する奥行きが大きいことから、相対的に小さい画像で撮像される。また、撮像のための光源として投光器をカメラ付近に置くような場合には、カメラからみて横を向くことになる奥側の目は、光が当たりにくいことから、画像上で黒つぶれしてしまうことが多い。したがって、カメラの光軸に対して、顔の向きが左右のいずれかに大きく振れているとき、カメラからみて奥側の目の画像は、精度が大きく低下することがある。
画像の精度が低下すると、瞳中心の三次元位置の検出精度も低くなる。したがって、両目を撮像可能であっても手前側の目の瞳中心の三次元位置のみを用いて視線方向検出を行うことで、安定した検出精度を確保することができる。そこで、本実施の形態では、左右いずれの目が手前側にあるか否かを顔の向きから判断し、より高い信頼度で情報を得ることができる手前側の目から得られる情報と視線基準面とを用いて視線方向検出を行う。
図14は、本発明の実施の形態5に係る視線方向検出装置の構成を示すブロック図であり、実施の形態4の図11に対応するものである。
図14において、本実施の形態の視線方向検出装置700は、図11に示す視線方向算出部670に代えて、視線方向算出部770を有している。視線方向算出部770は、図11に示す視線方向特徴量算出部672に代えて、水平顔向き判定部774、選択情報格納部775、使用特徴選択部776、および視線方向特徴量算出部772を有している。
視線方向算出部770において、水平顔向き判定部774は、頭部姿勢推定部150で取得された顔正面ベクトルから、ステレオカメラ座標系における水平方向の顔の向きを判定し、顔がカメラからみて左向きか右向きかを示す顔向き情報を生成する。
選択情報格納部775は、顔の向きに対応付けて左右のいずれの目を選択すべきかを予め記述した選択情報テーブルを格納する。
図15は、選択情報テーブルの内容の一例を示す図である。
図15に示すように、選択情報テーブル775aには、カメラからみたときの顔の向きと、視線方向検出の演算に使用すべき左右の目とが記述されている。「左向き」という顔の向きには、使用すべき目として「右目」が対応付けられている。「右向き」という顔の向きには、使用すべき目として「左目」が対応付けられている。すなわち、選択情報テーブル775aは、手前側に位置する目、つまり、より安定した精度で視線方向を検出することができる方の目を、顔の向きに対応付けて記述している。
図14の使用特徴選択部776は、選択情報テーブル775aを参照して、水平顔向き判定部774により生成された顔向き情報が示す顔の向きから、使用すべき目を選択する。そして、使用特徴選択部776は、左右のいずれの目を選択したかを示す瞳選択情報を生成する。
視線方向特徴量算出部772は、顔部品三次元位置情報と、視線基準面の三次元位置と、視線特徴パラメータと、瞳間距離と、使用特徴選択部776により生成された瞳選択情報とに基づいて、視線方向特徴量を算出する。
図16は、視線方向検出装置700による視線方向検出処理の流れを示すフローチャートであり、実施の形態4の図12に対応するものである。
図16に示す視線方向検出処理は、ステップS1830の処理をステップS1750〜S1840の処理に代えたことを除き、図12と同様である。
ステップS1750において、水平顔向き判定部774は、ステップS1500で取得された顔正面ベクトルに基づいて、ステレオカメラ座標系における顔の向きが左右のいずれであるかを判定する。そして、水平顔向き判定部774は、判定結果、つまり左向きか右向きかを示す顔向き情報を、使用特徴選択部776へ出力する。
カメラ座標系における顔向きの左右の判定は、たとえば、以下のようにして行う。水平顔向き判定部774は、顔正面ベクトルをステレオカメラ座標系で表した場合の水平成分を取得する。そして、ここでは顔を正面からみたときの左方向を正としていることから、水平顔向き判定部774は、顔正面ベクトルの水平成分が正の場合には、顔は左向きであると判定し、顔正面ベクトルの水平成分が負の場合には、顔は右向きであると判定する。
なお、顔正面ベクトルの水平成分の値をそのまま顔向き情報としてもよい。この場合には、顔向き情報は、値の正負により、左向きか右向きかを示す。また、顔向き情報は、顔が右向きの場合は0、左向きの場合には1というように、2つ以上の予め定められた値により、顔の向きを示すようにしてもよい。
ステップS1760で、使用特徴選択部776は、入力された顔向き情報が示す顔の向きに対応する目を、選択情報テーブル775aを参照して選択する。そして、使用特徴選択部776は、選択した目を示す瞳選択情報を生成し、生成した瞳選択情報を、視線方向特徴量算出部772へ出力する。
なお、顔向き情報をそのまま瞳選択情報としてもよい。この場合、たとえば、顔向き情報が値の正負により左向きか右向きかを示すものであれば、瞳選択情報は、値の正負により、右目か左目かを示す。また、瞳選択情報は、左目を選択した場合は0、右目を選択した場合には1というように、2つ以上の予め定められた値により、左右の目を示すようにしてもよい。
ステップS1840で、視線方向特徴量算出部772は、瞳選択情報が示す目の瞳中心の三次元位置に基づいて、実施の形態4と同様に、視線方向特徴量であるずれ量dを求める。たとえば、視線方向特徴量算出部772は、瞳選択情報が右目を示す場合には、実施の形態4で例示した式(13)を用い、瞳選択情報が左目を示す場合には、実施の形態4で例示した式(14)を用いる。
なお、顔正面ベクトルの水平成分が0の場合には、顔向き情報または瞳選択情報を生成する際や、視線方向特徴量算出部772での演算手法を決定する際に、選択肢のいずれかに割り振ればよい。
このように、本実施の形態によれば、顔の向きから手前側の目を判断し、手前側の目のみを用いて視線方向検出を行う。これにより、視線方向検出において安定した検出精度を確保することができる。また、逐次検出される顔方向ベクトルから顔の向きを判断するので、精度の安定した視線方向検出を継続させることができる。
なお、本実施の形態では、視線基準面に対する瞳中心の距離からずれ量dを求める場合について説明したが、実施の形態3のように、視線方向基準点に対する顔部品投影点の距離からずれ量dを求める場合に適用してもよい。この場合には、視線特徴投影部371で、瞳選択情報が示す方の目から顔部品投影点を取得すればよい。
(実施の形態6)
実施の形態6では、左右両方の目からそれぞれ得られる視線方向特徴量に、顔の向きに応じた重み付けを行って視線方向検出を行う場合について説明する。
陰になった側の目から取得される三次元位置の信頼度は、顔が左右に大きく振れているときには低いが、カメラの光軸方向に近付けば近付くほど高くなる。また、被検者が至近距離を注視しているなどして左右の瞳中心を結ぶ線分と視線基準面とが垂直ではない場合や、取得した瞳間距離の精度が低い場合、片方の目のみを使用すると、視線方向検出精度が低下する。そこで、本実施の形態では、陰になった側の目から得られた情報と手前側の目から得られた情報に、顔の向きに応じた重み付けを行い、積極的に両方の目を用いて視線方向検出を行う。
図17は、本発明の実施の形態5に係る視線方向検出装置の構成を示すブロック図であり、実施の形態5の図14に対応するものである。
図17において、本実施の形態の視線方向検出装置800は、図14に示す視線方向算出部770に代えて、視線方向算出部870を有している。視線方向算出部870は、図14に示す水平顔向き判定部774、選択情報格納部775、使用特徴選択部776、および視線方向特徴量算出部772に代えて、水平顔向き角度算出部874、重み情報格納部875、特徴重み決定部876、および視線方向特徴量算出部872を有している。
視線方向算出部870において、水平顔向き角度算出部874は、頭部姿勢推定部150で取得される顔正面ベクトルから、カメラの光軸方向に対する顔の向きの水平方向における角度を、水平顔向き角度として算出する。
重み情報格納部875は、重み情報を格納する。重み情報は、水平顔向き角度に、左右の目から得られる情報の信頼度のバランスに応じた値を、左目から得られた情報に対して掛けるべき重み係数(以下「左目重み係数」という)として予め対応付けた情報である。重み情報は、たとえば、水平顔向き角度の離散的な値に対応付けて左目重み係数を記述するテーブル形式や、水平顔向き角度の関数として左目重み係数を決定する関数形式とすることができる。
図18は、テーブル形式の重み情報の内容の一例を示す図である。
図18に示すように、テーブル形式の重み情報876aは、左目重み係数を、水平顔向き角度の増加に従って1から0へと徐々に減少する値として記述している。すなわち、顔が右を向けば向くほど、左目重み係数は大きくなり、顔が左を向けば向くほど、左目重み係数は小さくなる。これは、顔が右を向けば向くほど、右目から得られる情報の信頼度が低くなり、顔が左を向けば向くほど、左目から得られる情報の信頼度が低くなるためである。図18に示すように、顔が大きく左右を向いている場合には、陰になっている側の目の重みを0とし、顔が正面方向(カメラの光軸方向)付近の方向にある場合には、左右とも同じ重みにすることにより、処理負荷を軽減することができる。
図19は、関数形式の重み情報の内容の一例を示す図である。
図19に示すように、関数形式の重み情報876bも、左目重み係数を、水平顔向き角度の増加に従って1から0へと徐々に減少する連続する値として定義している。関数形式の重み情報876bを用いた場合、テーブル形式の重み情報876aを用いた場合よりもより細やかに左目重み係数を決定することができる。
図17の特徴重み決定部876は、重み情報を用いて、水平顔向き角度算出部874で算出された水平顔向き角度から左目重み係数を取得する。そして、特徴重み決定部876は、取得した左目重み係数を、視線方向特徴量であるずれ量を算出する際の重みを表す特徴重み情報として、視線方向特徴量算出部872へ出力する。
視線方向特徴量算出部872は、顔部品三次元位置情報と、視線基準面の三次元位置と、視線特徴パラメータと、瞳間距離と、特徴重み決定部876で取得された特徴重み情報とに基づいて、視線方向特徴量を算出する。
図20は、視線方向検出装置800による視線方向検出処理の流れを示すフローチャートであり、実施の形態5の図16に対応するものである。
図20に示す各処理は、ステップS1750〜S1840の処理をステップS1770〜S1850の処理に代えたことを除き、図16と同様である。
ステップS1770で、水平顔向き角度算出部874は、ステップS1500で取得された顔正面ベクトルに基づいて、カメラの光軸方向に対する顔の向きの水平成分の角度を、水平顔向き角度として算出し、算出した水平顔向き角度を特徴重み決定部876へ出力する。
水平顔向き角度の算出は、たとえば、以下のようにして行う。水平顔向き角度算出部874は、ステレオカメラ座標系における顔正面ベクトルの水平成分、垂直成分、および光軸方向成分を、それぞれ(Xfc,Yfc,Zfc)とすると、たとえば以下の式(15)を用いて、水平顔向き角度θを求める。
Figure 2008007781
ステップS1780で、特徴重み決定部876は、入力された水平顔向き角度に対応する左目重み係数を、重み情報格納部875に格納された重み情報に基づいて決定し、決定した左目重み係数から、右目から得られた情報に対して掛けるべき重み係数(以下「右目重み係数」という)を算出する。そして、特徴重み決定部876は、左目重み係数と右目重み係数とを、特徴重み情報として視線方向特徴量算出部872へ出力する。
特徴重み決定部876は、左目重み係数をWとしたとき、右目重み係数Wを、たとえば以下の式(16)を用いて求める。
Figure 2008007781
なお、視線方向特徴量算出部872で、式(16)を用いて右目重み係数を算出するようにしてもよい。この場合には、特徴重み決定部876は、左目重み係数のみを特徴重み情報として視線方向特徴量算出部872へ出力する。
ステップS1850で、視線方向特徴量算出部872は、左右の瞳中心の三次元位置から得られる情報に対し、特徴重み情報が示す重み付けを行い、視線方向特徴量であるずれ量dを求める。
左右の瞳中心の三次元位置から得られる情報に対する重み付けは、たとえば、以下のようにして行う。視線方向特徴量算出部872は、顔部品ベクトル611の各成分を(a,b,c)、視線方向基準点Fcの座標を(x,y,z)、右目の瞳中心の座標を(x,y,z)、右目の瞳中心の座標を(x,y,z)とすると、右目を用いた場合のずれ量dと、左目を用いた場合のずれ量dとを、たとえば、以下の式(17)、(18)を用いて求める。
Figure 2008007781
Figure 2008007781
そして、視線方向特徴量算出部872は、求めたずれ量d、dに、右目重み係数Wと左目重み係数をWとをそれぞれ乗じた値の和を取ることにより、つまり以下の式(19)を用いることにより、最終的な視線方向特徴量としてのずれ量dを算出する。
Figure 2008007781
なお、重み付けは、左右の目それぞれから個別に求めたずれ量から、視線ベクトルと顔正面ベクトルとが成す角θをそれぞれ算出し、算出された2つの値に対して対応する重み係数を乗じてもよい。
具体的には、たとえば、視線方向特徴量算出部872は、まず、右目を用いた場合のずれ量dおよび左目を用いた場合のずれ量dを算出し、算出結果と、右目重み係数Wおよび左目重み係数をWとを、視線ベクトル算出部173へ出力する。そして、視線ベクトル算出部173は、眼球半径rと、ずれ量d、dから、以下の式(20)、(21)を用いて、右目を用いた場合の視線ベクトルと顔正面ベクトルとが成す角θと、左目を用いた場合の視線ベクトルと顔正面ベクトルとが成す角θとを求める。
Figure 2008007781
Figure 2008007781
そして、視線ベクトル算出部173は、求めた角θ、θに、右目重み係数Wと左目重み係数をWとをそれぞれ乗じた値の和を取ることにより、つまり以下の式(22)を用いることにより、最終的な視線方向特徴量としてのずれ量dを算出する。
Figure 2008007781
このように、本実施の形態によれば、左右の目から得られた情報に信頼度に応じた重み付けを行い、積極的に両方の目を用いて視線方向検出を行う。これにより、視線方向検出の精度の安定化を図ることができる。
なお、撮影条件、瞳間距離の検出精度、および水平顔向き角度と、瞳中心の三次元位置の検出精度との関係を、実験により予め解析し、解析結果から、視線方向検出の精度が最も安定する重み付けを各水平顔向き角度ごとに求めておくことにより、視線方向検出の精度の更なる安定化を図ることができる。また、撮影条件に応じて内容の異なる重み情報を用意しておき、撮影条件に応じて使い分けるようにしてもよい。
また、本実施の形態では、視線基準面に対する瞳中心の距離からずれ量dを求める場合について説明したが、実施の形態3のように、視線方向基準点に対する顔部品投影点の距離からずれ量dを求める場合に適用してもよい。この場合、視線特徴投影部371で、左右両方の目から顔部品投影点を取得し、視線方向特徴量算出部372で、それぞれのずれ量を求めた後、特徴重み情報に従って重み付けを行えばよい。
以上説明した各実施の形態では、車の運転者の視線方向に基づいて事故の危険性を警報する警報装置に適用する場合を例として説明を行ったが、人間の視線方向に基づいて処理を行う他の各種装置に適用してもよいことは勿論である。
このような装置としては、たとえば、テレビジョンや音響スピーカなどの情報提示機器や、監視カメラなどの安全状態監視機器、スチールカメラやビデオカメラなどの映像記録機器、ロボットなどの生活補助機器、ビデオゲームや体感ゲームなどの遊戯機器などが挙げられる。他にも、たとえば、車の運転者が見ていると推定される画像を入力して記録する映像記録装置、ロボットがユーザやロボット自身の状況を把握するための周辺情報把握装置、ビデオゲームのゲーム内容の状態を変化させるためのゲーム状態更新装置、眼球の動きに関する検査をするための医療機器が挙げられる。
また、視線方向の検出の対象となる被検者は、人間に限定されるものではない。顔の中心を基準として左右対称に位置する2つの顔部品を有し、かつ瞳中心を検出可能な動物であれば、本発明を適用してその視線方向を検出することが可能である。
2006年7月14日出願の特願特願2006−194892の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る視線方向検出装置および視線方向検出方法は、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を得ることができる視線方向検出装置および視線方向検出方法として有用である。具体的には、パーソナルコンピュータ、OA(office automation)機器、携帯電話機などの情報端末や、自動車、飛行機、船、電車などの移動手段に搭載される情報提供装置として有用である。また、監視装置、警報装置、ロボット、映像音響再生装置などの情報入力装置としても応用できる。

本発明は、人の視線方向を検出する視線方向検出装置および視線方向検出方法に関する。
近年、人の視線の方向を検出することにより、その人の注意の対象や意図を特定することが、多くの分野で注目されている。人間の視線方向の検出を非接触で行う技術が、従来提案されている(たとえば、特許文献1および特許文献2参照)。
特許文献1記載の視線認識装置は、ステレオカメラを使用して視線方向の検出の対象となる人(以下「被検者」という)を撮影し、撮影した画像を解析して、被検者の瞳の中心と、片方の目の目頭および目尻の三次元位置を検出する。次に、目頭および目尻が眼球の外側球面上に位置する前提で、目頭の位置と目尻の位置および眼球半径に基づいて、被検者の眼球の中心の三次元位置を特定する。そして、眼球中心を始点とし、瞳中心を終点とするベクトルを、被検者の視線方向を示すベクトルとして算出する。
また、特許文献2記載の視線方向検出装置は、ステレオカメラで撮影した被検者の画像を解析し、被検者の瞳の中心と、被検者の瞳の輪郭が通る平面の三次元位置を求める。そして、瞳の輪郭が通る平面の法線のうち、瞳の中心を通る線の方向を、被検者の視線方向として検出する。
特開2003−15816号公報 特開2004−255074号公報
しかしながら、目頭および目尻の形状や視覚的特徴には、個人差が大きい。したがって、上記した特許文献1記載の装置では、高い精度の視線方向検出結果を得るためには、被検者ごとに、実際の視線方向と検出される目頭および目尻の位置との関係を測定により特定し、視線方向の算出に用いる各種パラメータの校正を行う必要がある。すなわち、被検者ごとに、装置の校正(キャリブレーション)を行わなくてはならないため、手間が掛かるだけでなく、装置が複雑化するという問題がある。
また、視覚的に検出される瞳の輪郭の状態も、睫および瞼の態様や、眼鏡およびコンタクトレンズの有無により、個人差が大きい。したがって、上記した特許文献2記載の装置においても、高い精度の視線方向検出結果を得るためには、特許文献1記載の装置と同様に、被検者ごとに装置のキャリブレーションを行う必要がある。
本発明の目的は、被検者ごとのキャリブレーションを特に行うことなく高い精度の視線方向検出結果を得ることができる視線方向検出装置および視線方向検出方法を提供することである。
本発明の視線方向検出装置は、左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を、基準位置として算出する基準位置算出手段と、左右の瞳中心の三次元位置から、前記被検者の左右の瞳中心の左右方向における中心の三次元位置を、特徴位置として算出する特徴位置算出手段と、左右方向における前記基準位置に対する前記特徴位置のずれ量を、視線方向特徴量として算出する
視線方向特徴量算出手段と、前記視線方向特徴量に基づいて、前記被検者の視線方向を算出する視線方向算出手段とを具備する構成を採る。
本発明の視線方向検出方法は、左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を基準位置として算出するとともに、左右の瞳中心の三次元位置から、前記被検者の左右の瞳中心の左右方向における中心の三次元位置を特徴位置として算出する特徴算出ステップと、左右方向における前記基準位置に対する前記特徴位置のずれ量を、視線方向特徴量として算出する視線方向特徴量算出ステップと、前記視線方向特徴量に基づいて、前記被検者の視線方向を算出する視線方向算出ステップとを有するようにした。
本発明によれば、左右の瞳中心の三次元位置や、目頭などの左右対称に位置する2つの顔部品の三次元位置という、高い検出精度で取得できかつ検出精度に個人差が少ないようなパラメータから、被検者の視線方向を検出することができる。すなわち、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を得ることができる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る視線方向検出装置の構成を示すブロック図である。本実施の形態の視線方向検出装置100は、たとえば、よそ見運転など、車の運転者に対して事故発生の危険を警報する警報装置に併設されるものであり、運転者の視線方向を検出するための装置である。ここで、視線方向の検出とは、被検者の目を始点とし被検者の注視対象を終点とするベクトルと、方向を同一とするベクトル(以下「視線ベクトル」という)を検出することを示す。
図1において、視線方向検出装置100は、画像入力部110、顔検出部120、顔部品検出部130、三次元位置算出部140、頭部姿勢推定部150、特徴算出部160、および視線方向算出部170を有する。また、画像入力部110は、第1撮像部111、第2撮像部112、および同期部113を有し、視線方向算出部170は、視線特徴投影部171、視線方向特徴量算出部172、および視線ベクトル算出部173を有する。
画像入力部110は、被検者を撮影して画像を入力し、入力画像を、顔検出部120および三次元位置算出部140へ出力する。
画像入力部110において、第1撮像部111および第2撮像部112は、図示しないイメージセンサをそれぞれ備えており、異なる位置で被検者を撮影する。イメージセンサは、たとえば、レンズと、CCD(charge coupled device)またはCMOS(complementary metal oxide semiconductor)により構成される。また、第1撮像部111および第2撮像部112の、入力画像と撮像位置との関係を定義する内部パラメータや、第1撮像部111および第2撮像部112の撮像位置を定義する外部パラメータは、既知である。ここで、たとえば、内部パラメータには、焦点距離、画像中心座標、画素サイズ、およびレンズ歪み係数が含まれ、外部パラメータには、並進ベクトルおよび回転行列が含まれる。また、同期部113は、第1撮像部111と第2撮像部112が同期したタイミングで撮像を行うように制御する。すなわち、画像入力部110は、ステレオカメラとして機能し、第1撮像部111と第2撮像部112でほぼ同時刻に撮像された2つの画像の組(以下「ステレオ画像対」という)を出力する。なお、イメージセンサとして上記したCCDやCMOSを用いる場合には、画像入力部110は、ディジタルステレオカメラとして機能する。
顔検出部120は、画像入力部110により入力される画像から、被検者の顔(以下単に「顔」という)の画像の領域を検出し、顔の画像の領域(以下「顔領域」という)を示す顔領域情報を、ステレオ画像対のうち顔領域が検出された画像とともに、顔部品検出部130へ出力する。
顔部品検出部130は、顔検出部120により入力される画像から、同じく顔検出部120により入力される顔領域情報に基づいて、顔の中心を基準として顔に左右対称に位置する部品(以下「顔部品」という)を検出する。すなわち、顔部品検出部130は、顔部品に対応する画像を検出する。この顔部品は、たとえば、目頭、目尻、鼻孔、口角、眉頭、眉尻である。また、顔部品検出部130は、検出した顔部品(顔部品に対応する画像)に基づいて、被検者の左右の瞳中心(瞳中心に対応する画像)を検出する。そして、顔部品検出部130は、検出した各顔部品および瞳中心の、顔領域が検出された画像における二次元位置を示す顔部品二次元位置情報を、三次元位置算出部140へ出力する。
三次元位置算出部140は、画像入力部110から入力されるステレオ画像対、顔部品検出部130から入力される顔部品二次元位置情報、および上記した画像入力部110の既知の内部パラメータおよび外部パラメータに基づいて、各顔部品の三次元位置を算出する。そして、三次元位置算出部140は、各顔部品の三次元位置を示す顔部品三次元位置情報を、頭部姿勢推定部150および特徴算出部160へ出力する。
頭部姿勢推定部150(顔方向推定手段)は、三次元位置算出部140から入力される顔部品三次元位置情報から、顔正面の方向を示すベクトル(以下「顔正面ベクトル」という)を、被検者の頭部(以下単に「頭部」という)の姿勢を示す頭部姿勢パラメータとして取得する。具体的には、頭部姿勢推定部150は、左右で対応する2つの顔部品を含む3つ以上の顔部品のそれぞれの三次元位置を通る平面を算出し、その平面の法線ベクトルを、頭部姿勢パラメータとして取得する。そして、頭部姿勢推定部150は、取得した頭部姿勢パラメータを、視線方向算出部170へ出力する。
特徴算出部160は、三次元位置算出部140により入力される顔部品三次元位置情報から、被検者の視線(以下単に「視線」という)の特徴を示す視線特徴パラメータを取得する。視線特徴パラメータは、視線方向に対応して移動する点である視線方向特徴点の三次元位置(特徴位置)と、視線方向特徴点の移動を判別する際の基準となる視線方向基準点の三次元位置(基準位置)から成る。具体的には、視線方向特徴点は、左右の瞳中心の中点であり、視線方向基準点は、左右で対応する2つの顔部品(たとえば左右の目頭)の中点である。そして、特徴算出部160は、取得した視線特徴パラメータを、顔部品三次元位置情報とともに、視線方向算出部170へ出力する。
視線方向算出部170は、頭部姿勢推定部150から入力される頭部姿勢パラメータと、特徴算出部160から入力される視線特徴パラメータおよび顔部品三次元位置情報に基づいて、視線ベクトルを算出する。
視線方向算出部170において、視線特徴投影部171は、視線方向特徴点を、視線方向基準点の基となった左右で対応する2つの顔部品を通る直線に垂直に投影した、視線特徴投影点の三次元位置を算出する。視線方向特徴量算出部172は、視線方向基準点に対する視線特徴投影点のずれ量を、視線方向の特徴を示す量(以下「視線方向特徴量」という)として算出する。視線ベクトル算出部173は、視線方向特徴量と顔正面ベクトルに基づいて、視線ベクトルを算出する。視線方向算出部170は、算出された視線ベクトルを、視線方向検出結果として、たとえば上記した警報装置へ出力する。
視線方向検出装置100は、図示しないが、CPU(Central Processing Unit)と、制御プログラムを格納したROM(Read Only Memory)と、CPUの作業用メモリとしてのRAM(Random Access Memory)とを備えている。すなわち、上記した視線方向検出装置100の各部の機能は、CPUが制御プログラムを実行することにより実現される。
以上の構成を有する視線方向検出装置100の動作について、以下、詳細な説明を行う。
図2は、視線方向検出装置100による視線方向検出処理の流れを示すフローチャートである。この視線方向検出処理は、たとえば、上記した警報装置の起動を示す信号の入力や、ユーザ操作による処理開始の指示をトリガとして開始される。
図2のステップS1000において、画像入力部110は、第1撮像部111および第2撮像部112により撮像された2つの画像を、ステレオ画像対として入力する。
図3は、画像入力部110で取得されるステレオ画像対の一例を示す説明図である。ステレオ画像対400は、上記したように、第1撮像部111で撮像された画像(以下「第1画像」という)401と、第2撮像部112で撮像された画像(以下「第2画像」という)402から成る。ここで、第1撮像部111は、頭部をやや左側からみる位置に配置され、第2撮像部112は、頭部をやや右側からみる位置に配置されている。したがって、第1画像401と第2画像402は、同期部113の制御によりほぼ同時に撮像されたものであるが、異なった画像となっている。
画像入力部110は、上記したようにディジタルステレオカメラとして機能する場合には、たとえば、PPM(Portable Pix Map file format)形式の画像データとして、第1画像401および第2画像402を取得する。画像入力部110は、取得した画像データを、画像入力部110に備えられた図示しない記憶部(たとえば、上記したRAMの所定のメモリ空間)に一時的に記憶させる。そして、顔検出部120および三次元位置算出部140は、この記憶部から、PPM形式の画像データを取得する。
図2のステップS1100において、顔検出部120は、ステップS1000で入力されたステレオ画像対400のうち、第1画像401に対し、顔領域403の検出を行い、上記した顔領域情報を生成する。なお、顔検出部120は、第1画像401のみを画像入力部110から取得するようにしてもよい。
顔検出部120は、たとえば、第1画像401のうち、あらかじめ用意した平均顔の顔領域を表す特徴画像との相関が最も高い画像部分を特定することにより、顔領域403を検出する。具体的には、顔検出部120は、第1画像401から、特徴となる画像部分を複数抽出し、抽出した各画像部分と、特徴画像とを比較する。そして、抽出した画像部分のうち、特徴画像との類似度が最も高いものを、顔領域403に決定する。
顔検出部120は、たとえば、第1画像401のガボール特徴量を算出し、あらかじめ用意しておいた特徴画像のガボール特徴量と照合して、その差分の絶対値の逆数を、この類似度として用いるようにすればよい。ここで、ガボール特徴量とは、画像にガボールウェーブレット変換を施すことにより算出される、画像の特徴を示す値である。
また、顔検出部120は、第1画像401を解析して肌色の領域を検出したり、楕円形に近い形状の領域を検出したり、統計的パターン識別手法を用いることにより、顔領域403を検出するようにしてもよい。なお、第1画像401または第2画像402において顔領域403の検出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
顔部品は、当然ながら顔に位置している。したがって、このように顔領域403を検出しておくことにより、顔部品の探索の対象となる領域を顔に絞ることができ、処理の高速化を図ることができる。
ステップS1200において、顔部品検出部130は、ステップS1100で生成された顔領域情報を基に、第1画像401の顔領域403を探索領域として、第1画像401から、顔部品404を検出する。ただし、顔部品検出部130は、たとえば、左右の目頭と左の口角というように、少なくとも2種類の顔部品を検出するとともに、少なくとも1種類については左右の両方を検出する。ここで、顔部品404として、左右の口角、左右の目頭、左右の目尻を検出したものとする。これらの顔部品404は、上記したように、顔の中心を基準として左右対称に位置している。
顔部品検出部130は、たとえば、分離度フィルタを用いて第1画像401の顔領域4
03の各位置の分離度を検出し、分離度が高い箇所の中から、顔部品404に該当するものを特定することにより、顔部品404を検出する。具体的には、顔部品検出部130は、顔領域と顔部品との位置関係をあらかじめ記憶または学習しておき、分離度が高い箇所のうち、尤度が高い箇所を顔部品404として検出する。または、顔部品検出部130は、平均顔の画像を部分的に切り取った画像部分から作成された画像部品のテンプレートを用意しておき、第1画像401の顔領域403の各所に対してテンプレートマッチングを行って類似する箇所を探索することにより、顔部品404を検出するようにしてもよい。
ステップS1300において、顔部品検出部130は、ステップS1100で生成された顔領域情報を基に、第1画像401の顔領域403を探索領域として、第1画像401から、被検者の瞳中心405を検出する。
顔部品検出部130は、たとえば、顔部品404のうち目尻と目頭を含む領域に対して円形分離度フィルタを適用し、最も輝度の分離度が高い円中心を、瞳中心405として検出する。ただし、このとき、ソーベル(Sobel)フィルタを用いたエッジ検出や、大津の閾値法を用いた輝度の二値化などにより瞼を検出し、上下瞼に挟まれた領域内のみを検出対象範囲とすることが望ましい。または、顔部品検出部130は、目尻と目頭を含む領域において、水平方向および垂直方向のそれぞれで輝度和をとり、それぞれの輝度和が小さい点を瞳中心405とするようにしてもよい。なお、瞳中心405の検出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
ステップS1400において、三次元位置算出部140は、ステップS1000で取得されたステレオ画像対400、ステップS1200で検出された顔部品404、およびステップS1300で検出された瞳中心405に基づいて、顔部品404および瞳中心405の三次元位置を算出する。具体的には、三次元位置算出部140は、第1画像401と第2画像402のそれぞれにおける顔部品404および瞳中心405の二次元位置と、上記した第1撮像部111と第2撮像部112の内部パラメータおよび外部パラメータを基に、ステレオ法により、顔部品404および瞳中心405の三次元位置を算出する。そして、三次元位置算出部140は、算出した各顔部品の三次元位置を、顔部品三次元位置情報として、頭部姿勢推定部150および特徴算出部160へ出力する。
三次元位置算出部140は、たとえば、第2画像402に対してテンプレートマッチングを行うことにより、顔部品404および瞳中心405の第2画像402における対応点の位置を検出する。具体的には、三次元位置算出部140は、第1画像401における各顔部品404と瞳中心405を含む画像部分のそれぞれをテンプレートとするとともに、第1画像401における各顔部品404と瞳中心405のエピポーラ線を第2画像402に対して引く。そして、エピポーラ線上で、対応するテンプレートに最も相関の高い箇所を探索して、顔部品404および瞳中心405の対応点の第2画像402における位置を特定する。
なお、三次元位置算出部140は、第1画像401を基に顔を三次元モデル化して、第2画像402における対応点の探索範囲を限定するようにしてもよい。このように、顔部品404および瞳中心405の対応点の探索領域を絞ることにより、処理の高速化を図ることができる。また、三次元位置算出部140は、顔の形状を三次元モデル化した上で、特徴が顕著な顔部品405の対応点の探索を優先させて、顔全体の三次元形状として考えた際に矛盾が生じないように、残りの対応点を探索するようにしてもよい。顔部品404および瞳中心405の三次元位置の検出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
ステップS1500において、頭部姿勢推定部150は、ステップS1400で検出さ
れた顔部品404の三次元位置に基づいて、頭部の姿勢を推定し、頭部姿勢パラメータを取得する。
頭部姿勢推定部150は、たとえば、ステップS1200で取得された顔部品404のうち、左右の口角と左右の目頭の4点を通る平面を特定し、その法線ベクトルを算出する。そして、算出した法線ベクトルを、顔正面ベクトル、つまり頭部姿勢パラメータとする。なお、実際には上記した4点のすべてを通る平面を常に取得することは難しいため、各点から引いた垂線の長さの二乗和が最小となる平面を特定し、その法線ベクトルを顔正面ベクトルとする。または、たとえば、左右の口角と一方の目頭の3点を通る平面を特定し、その法線ベクトルを顔正面ベクトルとしてもよい。または、左右の目頭を結ぶベクトルと、いずれかの目頭と左右の口角の中点を結ぶベクトルを求め、これらの2つのベクトルの外積をとることにより、顔正面ベクトルを求めるようにしてもよい。また、平面を算出する際の評価方法として、M推定などのロバスト推定手法を用いてもよい。なお、顔正面ベクトルの算出を行うことが可能であれば、上記以外の各種手法を適用してもよいことは勿論である。
ステップS1600において、特徴算出部160は、ステップS1400で検出された瞳中心405および顔部品404の三次元位置に基づいて、視線特徴パラメータを取得する。
特徴算出部160は、左右の瞳中心405の三次元位置から、左右の瞳中心405の中点の三次元位置を特定し、特定した点を上記した視線方向特徴点とする。また、特徴算出部160は、たとえば、顔部品404のうち左右の目頭の三次元位置から、左右の目頭の中点の三次元位置を特定し、特定した点を上記した視線方向基準点とする。
なお、左右の目尻の中点、左右の口角の中点など、顔に左右対称に存在する他の顔部品404の中点を、視線方向基準点としてもよい。また、左右の目尻と左右の口角というように、左右対称の顔部品を複数組選定し、それぞれの各点の重心を視線方向基準点としてもよい。すなわち、視線方向基準点は、顔が左右対称となっている前提で、顔の左右方向の中心に位置する点である。特徴算出部160は、視線特徴パラメータだけでなく、視線方向基準点の基となった顔部品404の三次元位置に関する情報も、視線方向算出部170へ出力する。
ステップS1700において、視線特徴投影部171は、ステップS1600で取得された視線特徴パラメータおよび顔部品三次元位置情報に基づいて、視線方向特徴点を、視線方向基準点の基となった左右の対応する2つの顔部品404を通る直線へ投影し、その投影点を、視線特徴投影点として取得する。
視線特徴投影部171は、たとえば、左右の目頭の中点が視線方向基準点とされた場合には、視線方向特徴点から左右の目頭を通る直線へ垂線を下ろし、この垂線と左右の目頭を通る直線との交点を、視線特徴投影点として取得する。また、たとえば、3点以上の顔部品404の重心が視線方向基準点とされた場合には、顔部品404を左右に分け、左右それぞれの顔部品404の重心を通る直線に対して、垂線を下ろすようにすればよい。
ステップS1800において、視線方向特徴量算出部172は、ステップS1600で取得された視線方向基準点と、ステップS1700で取得された視線特徴投影点に基づいて、視線方向特徴量を算出する。
図4は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、被検者の目とその周辺部分を上方からみた状態で示している。ここでは、左右の目頭の中点が視線
方向基準点とされた場合を例として説明を行う。
図4に示すように、視線方向基準点Fcは、左目頭501と右目頭502の中点である。また、瞳中心503が移動すると、視線方向特徴点504も移動し、視線特徴投影点Eも左右の同じ方向に同じ距離だけ移動する。したがって、瞳中心503が、顔正面を向いたときの位置に対して左右方向にずれ量dだけ移動した場合、視線特徴投影点Eも、視線方向基準点Fcに対して左右方向にずれ量dだけ移動する。ここで、視線方向基準点Fcを基準とするずれ量dおよび顔正面ベクトル512を基準とする角度について、顔を正面からみたときの左方向を正とする。
ずれ量dは、視線方向特徴量であり、視線方向特徴点504が視線方向基準点Fcよりも左側にある場合には、たとえば、以下に示す式(1)を用いて求められる。また、視線方向特徴点504が視線方向基準点Fcよりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(2)を用いて求められる。
Figure 2008007781
Figure 2008007781
ステップS1900において、視線ベクトル算出部173は、ステップS1900で算出された視線方向特徴量に基づいて、視線ベクトル511と顔正面ベクトル512とが成す角を算出し、視線ベクトル511を算出する。そして、算出した視線ベクトル511を、たとえば、上記した警報装置へ出力する。
顔を基準としたときの瞳中心503の回転中心は、眼球中心505に一致するため、視線ベクトル511は、眼球中心505を始点とし瞳中心503を終点とするベクトルで示すことができる。したがって、眼球半径をrとしたとき、視線ベクトル511と顔正面ベクトル512とが成す角θに関して、以下の式(3)が成り立つ。
Figure 2008007781
したがって、視線ベクトル511と顔正面ベクトル512とが成す角θは、たとえば、以下の式(4)を用いて求められる。
Figure 2008007781
なお、眼球半径rは、成人であれば個人差は少ないため、あらかじめ定めた値を用いることができる。また、年齢や性別、人種といった被検者の特性に合わせて、眼球半径rの値を切り変えたり、被検者の実際の眼球半径を測定し、測定結果を用いるようにしてもよ
い。
ここで、三次元位置算出部140で三次元位置を表現するのに使用する座標系、つまり第1撮像部111および第2撮像部112の撮像位置を基準とした座標系を、ステレオカメラ座標系というものとする。また、視線方向基準点の基となった左右で対応する2つの顔部品404(図4では、左目頭501と右目頭502)を通る直線をx軸とし、顔正面ベクトル512と平行なz軸を有する座標系を、顔座標系というものとする。
顔座標系における顔正面ベクトル512の各成分を、(0,0,f)とし、顔座標系における視線ベクトル511の各成分を、(g,g,g)とすると、視線ベクトル511は、たとえば、以下の式(5)を用いて求められる。
Figure 2008007781
顔座標系の各軸は、ステレオカメラ座標系で表現可能なベクトルまたは特徴を基に定義される。したがって、顔座標系で表現される視線ベクトル511は、ステレオカメラ座標系においても表現することが可能である。したがって、第1撮像部111および第2撮像部112の外部パラメータから、たとえば視線ベクトルが外界のどの方向を向いているかを検出することができる。
たとえば、ステレオカメラ座標系における視線ベクトル511の各成分を(G,G,G)とし、顔座標系からステレオカメラ座標系へ回転行列および並進ベクトルをそれぞれR、Tとすると、ステレオカメラ座標系における視線ベクトル511は、たとえば、以下の式(6)を用いて求められる。
Figure 2008007781
なお、回転行列Rおよび並進ベクトルTは、顔正面ベクトル512を算出する際に用いた顔部品3点の座標から取得することが可能である。
ステップS2000において、視線方向検出装置100は、視線ベクトル511を検出する処理の終了判定を行う。この終了判定は、たとえば、上記した警報装置の停止を示す信号の入力や、ユーザ操作による処理停止の指示の有無を判別することにより行われる。処理を終了すると判定した場合には(S2000:YES)、そのまま一連の処理を終了する。処理を終了しないと判定した場合には(S2000:NO)、ステップS1000へ戻り、再びステレオ画像対400を入力し、視線ベクトル511の検出を行う。
ただし、視線方向検出装置100を構成する複数の処理部で並行して処理を進められる場合には、直前に取得されたステレオ画像対400から視線ベクトル511が取得される前に、次のステレオ画像対400の取得を行うようにしてもよい。また、画像入力部110は一定周期ごとに撮像を行うようにしてもよい。この場合には、視線方向検出装置10
0は、ステップS2000の終了判定を早期に行い、視線ベクトル511を検出する処理を終了することを判定したときに、画像入力部110の撮像を停止させる。なお、ステップS1000からステップS1900までの処理に要する時間を短縮すればするほど、よりリアルタイムに近い視線方向検出を実現できることと、ステップS1000の処理間隔を短くすればするほど、より細やかな視線方向検出を実現できることは、いうまでもない。
このようにして、視線方向検出装置100は、被検者がどの方向を見ているかを、視線ベクトル511として検出し、警報装置へ出力する。
警報装置では、たとえば、ステレオカメラ座標系において、フロントガラスの領域、サイドミラーの領域、カーナビゲーション装置の液晶パネルの領域などを記憶しており、入力される視線ベクトル511を基に、運転者がどの領域に視線を向けているかを監視する。そして、たとえば、左右にハンドルを切る操作が行われる際に、ハンドルを切る側のサイドミラーに運転者の視線が向いていない場合には、サイドミラーを確認するよう警告を行う。これにより、ハンドルを切る際の巻き込み事故を未然に防ぐことが可能となる。
以上説明したように、本実施の形態によれば、人間の左右の瞳中心が、顔正面の方向を見ているときには顔に左右対称に配置され、他の方向を見る際には連動して動くという、人間の顔に一般的に共通する特徴を利用し、視線方向の検出を行うようにした。具体的には、左右の瞳中心の三次元位置と、顔の中心を基準として顔に左右対称に位置する顔部品の三次元位置とを検出し、左右の瞳中心の中点の、顔の中心に対する左右方向のずれ量を検出し、そのずれ量と眼球半径に基づいて視線方向を検出するようにした。
これにより、高い検出精度で取得することが可能であり、かつ検出精度に個人差が少ないパラメータから、視線方向を検出することができる。したがって、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を、安定して得ることができる。また、たとえば、ステレオカメラによる低解像度の撮影像からでも、高い精度の視線方向検出結果を安定して得ることができる。すなわち、ステレオカメラの解像度を低く抑えることができ、装置の低コスト化を図ることができる。
また、人間の顔に左右対称に存在する顔部品を利用して、ステレオカメラ座標系などの特定の座標系における顔正面の方向を検出するので、検出した視線方向を特定の座標系で表現することができ、検出結果の利用価値を高めることができる。また、ステレオカメラで撮影した画像に基づいて、左右の瞳中心の中点の、顔の中心に対する左右方向のずれ量を検出するので、非接触での視線方向検出を実現することができ、各種分野に柔軟に適用することができる。さらに、上記した人間の顔に共通する特徴を利用するだけでなく、個人差の少ない眼球半径を既知の値とすることで、被検者ごとのキャリブレーションが全く不要となる。これにより、より短時間で視線方向検出を開始することができるとともに、使用者への負担を軽減することができる。すなわち、より簡便かつ気軽に、人間の視線方向を検出することが可能となる。
特に、車の運転者に対して事故の危険性を警報する警報装置に適用するような場合、ステレオカメラを使用して非接触での視線方向検出を行う必要があるが、運転時の車内の明るさや照明状態の変動が大きいため、画像に影などの不確定要素が入りやすい。したがって、このような警報装置には、本実施の形態による視線方向検出装置は、特に有用である。
なお、本実施の形態の視線方向検出装置では、顔の左右方向における瞳の移動に対応した視線方向検出のみを行うようになっているが、通常、人の瞳は上下方向に比べて左右方
向により大きく移動するため、被検者の注意の対象や意図を特定するための情報として、十分に利用価値の高い検出結果を得ることができる。また、顔の上下方向における瞳の移動に対応した視線方向検出の技術と組み合わせてもよいことは勿論である。
(実施の形態2)
以上説明した実施の形態1では、左右の瞳中心の中点の左右方向のずれ量を算出する際に、視線特徴投影点を用いたが、本実施の形態では、顔の左右方向における中心に位置する基準面を算出し、算出された基準面(対称面)を用いる。
図5は、本発明の実施の形態2に係る視線方向検出装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。
図5において、本実施の形態の視線方向検出装置200は、図1に示す視線方向算出部170に代えて、視線方向算出部270を有している。視線方向算出部270は、図1に示す視線特徴投影部171および視線方向特徴量算出部172に代えて、視線基準面算出部271および視線方向特徴量算出部272を有している。
視線方向算出部270において、視線基準面算出部271は、顔の対称面に相当する視線基準面の三次元位置(基準位置)を算出する。視線方向特徴量算出部272は、視線基準面に対する視線方向特徴点のずれ量を、視線方向特徴量として算出する。
図6は、視線方向検出装置200による視線方向検出処理の流れを示すフローチャートであり、実施の形態1の図2に対応するものである。
ステップS1000からステップS1600までの処理は、図2と同様である。ステップS1600で、特徴算出部160が視線特徴パラメータを取得すると、ステップS1710へ進む。
ステップS1710において、視線基準面算出部271は、ステップS1400で取得された顔部品三次元位置情報と、ステップS1600で取得された視線特徴パラメータとに基づいて、上記した視線基準面を算出する。ここで、視線基準面は、視線方向基準点の基となった左右で対応する2つの顔部品404を通る直線を法線とし、視線方向基準点を通る平面と定義する。
視線基準面算出部271は、まず、視線方向基準点Fcの基となった左右で対応する2つの顔部品404を結ぶベクトル(以下「顔部品ベクトル」という)を算出する。そして、算出した顔部品ベクトルと、視線方向基準点に基づいて、視線基準面を算出する。
図7は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、実施の形態1の図4に対応するものである。
図7に示すように、視線基準面601は、視線方向基準点Fcの基となった左右で対応する2つの顔部品404(図7では、左目頭501と右目頭502)を通る直線と直交し、視線方向基準点Fcを通る。顔部品ベクトル611の各成分を、(a,b,c)とし、視線方向基準点Fcの座標を、(x,y,z)とすると、視線基準面601は、たとえば、以下の式(7)で示される。
Figure 2008007781
ステップS1810において、視線方向特徴量算出部272は、ステップS1600で取得された視線方向特徴点504と、ステップS1710で算出された視線基準面601に基づいて、視線基準面601に対する視線方向特徴点504のずれ量dを算出する。
ずれ量d、つまり視線方向特徴量は、視線方向特徴点504の座標を、(x,y,z)とすると、視線方向特徴点504が視線基準面601よりも左側にある場合には、たとえば、以下の式(8)を用いて求めることができる。また、視線方向特徴点504が視線基準面601よりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(9)を用いて求められる。
Figure 2008007781
Figure 2008007781
図6において、以上のようにステップS1810で視線方向特徴量が算出されると、ステップS1900へ進む。ステップS1900以降の処理については、図2と同様であり、ステップS1900において、視線ベクトル511が算出される。この演算には、たとえば、眼球半径rを既知の値として、実施の形態1の式(3)、式(4)、式(5)、および式(6)を用いればよい。
このように、本実施の形態によれば、実施の形態1と同様に、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を、安定して得ることができる。また、実施の形態1における視線方向特徴量の精度は、視線方向投影点と視線特徴点との距離、つまり視線方向基準点の基となる顔部品の選定によって変動するが、本実施の形態では視線基準面を基準とするため、このような精度のばらつきを抑えることができる。したがって、実施の形態1と比較して、視線ベクトルの検出精度を向上させることができる。
(実施の形態3)
たとえば車を運転中の人の視線方向検出を行う場合、広い範囲で顔の向きを変えるため、一時的に片目しか撮像できないことがある。そこで、本実施の形態では、両目を撮像できたときの情報を記憶しておき、一時的に片目しか撮像できないことがあっても、継続的に視線方向を検出できるようにする。
図8は、本発明の実施の形態3に係る視線方向検出装置の構成を示すブロック図であり、実施の形態1の図1に対応するものである。
図8において、本実施の形態の視線方向検出装置300は、図1に示す特徴算出部16
0および視線方向算出部170に代えて、特徴算出部360および視線方向算出部370を有している。視線方向算出部370は、図1に示す視線特徴投影部171および視線方向特徴量算出部172に代えて、視線特徴投影部371および視線方向特徴量算出部372を有している。また、視線方向検出装置300は、特徴記憶部365を有している。
特徴算出部360は、三次元位置算出部140から入力される顔部品三次元位置情報から、視線特徴パラメータを取得するとともに、左右の瞳中心の距離である瞳間距離を算出する。ただし、本実施の形態では、視線特徴パラメータは視線方向基準点を含んでいればよく、必ずしも視線方向特徴点を含む必要はない。
特徴記憶部365は、特徴算出部360で算出される瞳間距離を記憶する。
視線方向算出部370において、視線特徴投影部371は、左右の瞳中心のうち、適切な方の瞳中心を、視線方向基準点の基となる顔部品404を通る直線へ投影した投影点(以下「顔部品投影点」という)を算出する。視線方向特徴量算出部372は、顔部品投影点と、視線特徴パラメータと、特徴記憶部365に記憶されている瞳間距離に基づいて、視線方向特徴量を算出する。
図9は、視線方向検出装置300による視線方向検出処理の流れを示すフローチャートであり、実施の形態1の図2に対応するものである。
ステップS1000からステップS1500までの処理は、図2と同様である。ステップS1500で、頭部姿勢推定部150が頭部姿勢パラメータを取得すると、ステップS1550へ進む。
ステップS1550において、特徴算出部360は、視線特徴パラメータ(視線方向基準点)を取得するとともに、被検者の左右の瞳中心の三次元位置を基に、瞳間距離を算出し、特徴記憶部365に記憶させる。過去の情報が特徴記憶部365に既に記憶されている場合には、新たに算出した瞳間距離で記憶内容を更新する。
ただし、顔が横を向いていたり、眼鏡のレンズへの映り込みが激しいなどして、ステップS1000で、第1撮像部111および第2撮像部112の両方が、左右の瞳中心の両方を撮像できなかった場合には、視線方向特徴点の取得と、瞳間距離の算出および記憶は行わずに、そのままステップS1600へ進む。また、同一の被検者について過去に取得された瞳間距離が特徴記憶部365に既に記憶されている場合も、瞳間距離の算出および記憶を行わずに、そのままステップS1600へ進むようにしてもよい。
ステップS1600において、特徴算出部360は、ステップS1400で検出された瞳中心405および顔部品404の三次元位置に基づいて、視線特徴パラメータを取得し、ステップS1720へ進む。
ステップS1720において、視線特徴投影部371は、ステップS1400で取得された顔部品三次元位置情報と、ステップS1600で取得された視線特徴パラメータとに基づいて、左右の瞳中心のいずれかを、視線方向基準点の基となった左右の対応する2つの顔部品404を通る直線へ投影し、その投影点を、顔部品投影点として取得する。
ステップS1820において、視線方向特徴量算出部372は、ステップS1550で取得された視線方向基準点と、ステップS1720で取得された顔部品投影点に基づいて、視線方向特徴量を算出する。
図10は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、実施の形態1の図4に対応するものである。
図10に示すように、瞳中心503が移動すると、視線方向基準点Fcの基となった2つの顔部品404(図10では、左目頭501と右目頭502)が通る直線に投影された左右の顔部品投影点Eの中点701の三次元位置(特徴位置)も、左右方向に同じずれ量だけ移動する。したがって、瞳中心503が、顔正面を向いたときの位置に対して左右方向にずれ量dだけ移動した場合、左右の顔部品投影点Eの中点701も、視線方向基準点Fcに対して左右方向にずれ量dだけ移動する。
ずれ量dは、視線方向特徴量であり、瞳間距離をLeyeとすると、左右の顔部品投影点Eの中点701が視線方向基準点Fcによりも左側にある場合には、たとえば、以下に示す式(10)を用いて求められる。また、左右の顔部品投影点Eの中点701が視線方向基準点Fcによりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(11)を用いて求められる。
Figure 2008007781
Figure 2008007781
上記した式(10)および式(11)により算出される値は、左右の顔部品投影点Eのいずれを採用してもそれぞれ同一となる。したがって、視線方向特徴量を算出する際には、左右の顔部品投影点Eのうち任意の一方を採用することができる。これは、視線方向基準点Fcと瞳間距離Leyeを取得すれば、左右の瞳中心503のうちいずれか一方の三次元位置のみから、視線方向特徴量を算出できることを意味する。すなわち、必ずしも左右の瞳の両方を撮像する必要がなく、たとえば、顔が横を向き、一時的に片目しか撮像できなくても、継続して視線方向特徴量を算出できる。
図10において、以上のようにステップS1820で視線方向特徴量が算出されると、ステップS1900へ進む。ステップS1900以降の処理については、図2と同様であり、ステップS1900において、視線ベクトル511が算出される。この演算には、たとえば、眼球半径rを既知の値として、実施の形態1の式(3)、式(4)、式(5)、および式(6)を用いればよい。
このように、本実施の形態によれば、実施の形態1および実施の形態2と同様に、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を、安定して得ることができる。また、瞳間距離を記憶しておくことにより、左右の顔部品投影点の中点を片方の瞳中心から特定できるので、片目しか撮像できなくても、正面方向に対する瞳中心の左右方向のずれ量を常に取得することができる。
すなわち、本実施の形態によれば、顔の向きや、髪や眼鏡の縁、光の反射などの原因により、被検者の片目しか撮像できない場合でも、視線方向を検出することができ、高い精度の視線方向検出結果をより安定的に得ることができる。たとえば、顔が左向きならば右目、右向きならば左目というように、第1撮像部111および第2撮像部112から向かって顔の向きと逆側の瞳の中心を、三次元位置の検出の対象として選択すればよい。
なお、瞳間距離は、別途検出を行ったり、初期値として入力することにより、あらかじめ記憶しておくようにしてもよい。さらに、左右の瞳中心の両方が検出されているときには、実施の形態1または実施の形態2で説明した手法により視線方向特徴量を算出し、片方の瞳中心しか検出できないときにのみ本実施の形態で説明した手法を適用するようにしてもよい。この場合、左右の瞳中心の両方が検出されているか否かを判別し、判別結果に応じて処理を切り変えるようにすればよい。
(実施の形態4)
実施の形態4では、実施の形態3で説明した片方の瞳中心の三次元位置を用いた視線方向検出を、実施の形態2で説明した視線基準面を用いて行う場合について説明する。
図11は、本発明の実施の形態4に係る視線方向検出装置の構成を示すブロック図であり、実施の形態2の図5および実施の形態3の図8に対応するものである。
図11において、本実施の形態の視線方向検出装置600は、図8に示す視線方向算出部370に代えて、視線方向算出部670を有している。視線方向算出部670は、図8に示す視線特徴投影部371および視線方向特徴量算出部372に代えて、図5に示す視線基準面算出部271と、視線方向特徴量算出部672とを有している。
視線方向算出部670において、視線方向特徴量算出部672は、視線基準面算出部271により算出された視線基準面の三次元位置と、特徴算出部360により算出された視線特徴パラメータと、特徴記憶部365に記憶されている瞳間距離とに基づいて、視線方向特徴量を算出する。
図12は、視線方向検出装置600による視線方向検出処理の流れを示すフローチャートであり、実施の形態2の図6および実施の形態3の図9に対応するものである。
ステップS1000からステップS1600までの処理は、図9と同様である。また、ステップS1710およびステップS1900以降の処理は、ステップS1810の処理をステップS1830の処理に代えたことを除き、図6と同様である。
ステップS1830において、視線方向特徴量算出部672は、ステップS1400で検出された瞳中心の三次元位置と、ステップS1550で求められた瞳間距離と、ステップS1710で求められた視線基準面とに基づいて、視線方向特徴量を算出する。
図13は、視線方向ベクトルに関する各パラメータの関係を示す説明図であり、実施の形態2の図7および実施の形態3の図10に対応するものである。
図13に示すように、瞳中心503が、顔正面を向いたときの位置に対して左右方向にずれ量dだけ移動した場合、左右の瞳中心503の中点である視線方向特徴点504も、視線基準面601に対して左右方向にずれ量dだけ移動する。また、左右の瞳中心503を結ぶ線は視線基準面601と直交する。したがって、左右いずれかの瞳中心503の視線基準面601からの距離Dと、瞳間距離Leyeとの差分が、ずれ量dとなる。
顔部品ベクトル611の各成分を(a,b,c)とし、視線方向基準点Fcの座標を(x,y,z)とし、左右いずれかの瞳中心の座標を(x,y,z)とすると、瞳中心503の視線基準面601からの距離Dは、たとえば、以下の式(12)で示される。
Figure 2008007781
したがって、視線方向特徴量であるずれ量dは、演算に使用する瞳中心503が視線方向基準点Fcによりも左側にある場合には、たとえば、以下に示す式(13)を用いて求められる。また、演算に使用する瞳中心503が視線方向基準点Fcによりも右側にある場合には、ずれ量dは、たとえば、以下に示す式(14)を用いて求められる。
Figure 2008007781
Figure 2008007781
上記した式(13)および式(14)により算出される値は、左右の瞳中心503のいずれを採用してもそれぞれ同一となる。したがって、実施の形態3と同様に、視線方向特徴量を算出する際には、左右の瞳中心503のうち任意の一方を採用することができる。
このように、本実施の形態によれば、実施の形態3と同様に、片目しか撮像できなくても視線方向検出を行うことができ、高い精度の視線方向検出結果をより安定的に得ることができる。更に、視線基準面を基準とし、瞳中心の三次元位置をそのまま演算に用いるため、実施の形態3と比較して視線ベクトルの検出精度を向上させることができる。
(実施の形態5)
実施の形態5では、左右両方の目の瞳中心の三次元位置が取得可能な場合に、取得される三次元位置の信頼度がより高い方の目を用いて視線方向検出を行う場合について説明する。
顔の向きが左右のいずれかに振れているときに、ステレオカメラとして機能する第1撮像部111および第2撮像部112のイメージセンサ(以下「カメラ」という)からみて奥側となる目は、カメラに対する奥行きが大きいことから、相対的に小さい画像で撮像される。また、撮像のための光源として投光器をカメラ付近に置くような場合には、カメラからみて横を向くことになる奥側の目は、光が当たりにくいことから、画像上で黒つぶれしてしまうことが多い。したがって、カメラの光軸に対して、顔の向きが左右のいずれかに大きく振れているとき、カメラからみて奥側の目の画像は、精度が大きく低下することがある。
画像の精度が低下すると、瞳中心の三次元位置の検出精度も低くなる。したがって、両目を撮像可能であっても手前側の目の瞳中心の三次元位置のみを用いて視線方向検出を行うことで、安定した検出精度を確保することができる。そこで、本実施の形態では、左右いずれの目が手前側にあるか否かを顔の向きから判断し、より高い信頼度で情報を得ることができる手前側の目から得られる情報と視線基準面とを用いて視線方向検出を行う。
図14は、本発明の実施の形態5に係る視線方向検出装置の構成を示すブロック図であり、実施の形態4の図11に対応するものである。
図14において、本実施の形態の視線方向検出装置700は、図11に示す視線方向算出部670に代えて、視線方向算出部770を有している。視線方向算出部770は、図11に示す視線方向特徴量算出部672に代えて、水平顔向き判定部774、選択情報格納部775、使用特徴選択部776、および視線方向特徴量算出部772を有している。
視線方向算出部770において、水平顔向き判定部774は、頭部姿勢推定部150で取得された顔正面ベクトルから、ステレオカメラ座標系における水平方向の顔の向きを判定し、顔がカメラからみて左向きか右向きかを示す顔向き情報を生成する。
選択情報格納部775は、顔の向きに対応付けて左右のいずれの目を選択すべきかを予め記述した選択情報テーブルを格納する。
図15は、選択情報テーブルの内容の一例を示す図である。
図15に示すように、選択情報テーブル775aには、カメラからみたときの顔の向きと、視線方向検出の演算に使用すべき左右の目とが記述されている。「左向き」という顔の向きには、使用すべき目として「右目」が対応付けられている。「右向き」という顔の向きには、使用すべき目として「左目」が対応付けられている。すなわち、選択情報テーブル775aは、手前側に位置する目、つまり、より安定した精度で視線方向を検出することができる方の目を、顔の向きに対応付けて記述している。
図14の使用特徴選択部776は、選択情報テーブル775aを参照して、水平顔向き判定部774により生成された顔向き情報が示す顔の向きから、使用すべき目を選択する。そして、使用特徴選択部776は、左右のいずれの目を選択したかを示す瞳選択情報を生成する。
視線方向特徴量算出部772は、顔部品三次元位置情報と、視線基準面の三次元位置と、視線特徴パラメータと、瞳間距離と、使用特徴選択部776により生成された瞳選択情報とに基づいて、視線方向特徴量を算出する。
図16は、視線方向検出装置700による視線方向検出処理の流れを示すフローチャートであり、実施の形態4の図12に対応するものである。
図16に示す視線方向検出処理は、ステップS1830の処理をステップS1750〜S1840の処理に代えたことを除き、図12と同様である。
ステップS1750において、水平顔向き判定部774は、ステップS1500で取得された顔正面ベクトルに基づいて、ステレオカメラ座標系における顔の向きが左右のいずれであるかを判定する。そして、水平顔向き判定部774は、判定結果、つまり左向きか右向きかを示す顔向き情報を、使用特徴選択部776へ出力する。
カメラ座標系における顔向きの左右の判定は、たとえば、以下のようにして行う。水平顔向き判定部774は、顔正面ベクトルをステレオカメラ座標系で表した場合の水平成分を取得する。そして、ここでは顔を正面からみたときの左方向を正としていることから、水平顔向き判定部774は、顔正面ベクトルの水平成分が正の場合には、顔は左向きであると判定し、顔正面ベクトルの水平成分が負の場合には、顔は右向きであると判定する。
なお、顔正面ベクトルの水平成分の値をそのまま顔向き情報としてもよい。この場合には、顔向き情報は、値の正負により、左向きか右向きかを示す。また、顔向き情報は、顔が右向きの場合は0、左向きの場合には1というように、2つ以上の予め定められた値により、顔の向きを示すようにしてもよい。
ステップS1760で、使用特徴選択部776は、入力された顔向き情報が示す顔の向きに対応する目を、選択情報テーブル775aを参照して選択する。そして、使用特徴選択部776は、選択した目を示す瞳選択情報を生成し、生成した瞳選択情報を、視線方向特徴量算出部772へ出力する。
なお、顔向き情報をそのまま瞳選択情報としてもよい。この場合、たとえば、顔向き情報が値の正負により左向きか右向きかを示すものであれば、瞳選択情報は、値の正負により、右目か左目かを示す。また、瞳選択情報は、左目を選択した場合は0、右目を選択した場合には1というように、2つ以上の予め定められた値により、左右の目を示すようにしてもよい。
ステップS1840で、視線方向特徴量算出部772は、瞳選択情報が示す目の瞳中心の三次元位置に基づいて、実施の形態4と同様に、視線方向特徴量であるずれ量dを求める。たとえば、視線方向特徴量算出部772は、瞳選択情報が右目を示す場合には、実施の形態4で例示した式(13)を用い、瞳選択情報が左目を示す場合には、実施の形態4で例示した式(14)を用いる。
なお、顔正面ベクトルの水平成分が0の場合には、顔向き情報または瞳選択情報を生成する際や、視線方向特徴量算出部772での演算手法を決定する際に、選択肢のいずれかに割り振ればよい。
このように、本実施の形態によれば、顔の向きから手前側の目を判断し、手前側の目のみを用いて視線方向検出を行う。これにより、視線方向検出において安定した検出精度を確保することができる。また、逐次検出される顔方向ベクトルから顔の向きを判断するので、精度の安定した視線方向検出を継続させることができる。
なお、本実施の形態では、視線基準面に対する瞳中心の距離からずれ量dを求める場合について説明したが、実施の形態3のように、視線方向基準点に対する顔部品投影点の距離からずれ量dを求める場合に適用してもよい。この場合には、視線特徴投影部371で、瞳選択情報が示す方の目から顔部品投影点を取得すればよい。
(実施の形態6)
実施の形態6では、左右両方の目からそれぞれ得られる視線方向特徴量に、顔の向きに応じた重み付けを行って視線方向検出を行う場合について説明する。
陰になった側の目から取得される三次元位置の信頼度は、顔が左右に大きく振れているときには低いが、カメラの光軸方向に近付けば近付くほど高くなる。また、被検者が至近距離を注視しているなどして左右の瞳中心を結ぶ線分と視線基準面とが垂直ではない場合や、取得した瞳間距離の精度が低い場合、片方の目のみを使用すると、視線方向検出精度が低下する。そこで、本実施の形態では、陰になった側の目から得られた情報と手前側の目から得られた情報に、顔の向きに応じた重み付けを行い、積極的に両方の目を用いて視線方向検出を行う。
図17は、本発明の実施の形態5に係る視線方向検出装置の構成を示すブロック図であ
り、実施の形態5の図14に対応するものである。
図17において、本実施の形態の視線方向検出装置800は、図14に示す視線方向算出部770に代えて、視線方向算出部870を有している。視線方向算出部870は、図14に示す水平顔向き判定部774、選択情報格納部775、使用特徴選択部776、および視線方向特徴量算出部772に代えて、水平顔向き角度算出部874、重み情報格納部875、特徴重み決定部876、および視線方向特徴量算出部872を有している。
視線方向算出部870において、水平顔向き角度算出部874は、頭部姿勢推定部150で取得される顔正面ベクトルから、カメラの光軸方向に対する顔の向きの水平方向における角度を、水平顔向き角度として算出する。
重み情報格納部875は、重み情報を格納する。重み情報は、水平顔向き角度に、左右の目から得られる情報の信頼度のバランスに応じた値を、左目から得られた情報に対して掛けるべき重み係数(以下「左目重み係数」という)として予め対応付けた情報である。重み情報は、たとえば、水平顔向き角度の離散的な値に対応付けて左目重み係数を記述するテーブル形式や、水平顔向き角度の関数として左目重み係数を決定する関数形式とすることができる。
図18は、テーブル形式の重み情報の内容の一例を示す図である。
図18に示すように、テーブル形式の重み情報876aは、左目重み係数を、水平顔向き角度の増加に従って1から0へと徐々に減少する値として記述している。すなわち、顔が右を向けば向くほど、左目重み係数は大きくなり、顔が左を向けば向くほど、左目重み係数は小さくなる。これは、顔が右を向けば向くほど、右目から得られる情報の信頼度が低くなり、顔が左を向けば向くほど、左目から得られる情報の信頼度が低くなるためである。図18に示すように、顔が大きく左右を向いている場合には、陰になっている側の目の重みを0とし、顔が正面方向(カメラの光軸方向)付近の方向にある場合には、左右とも同じ重みにすることにより、処理負荷を軽減することができる。
図19は、関数形式の重み情報の内容の一例を示す図である。
図19に示すように、関数形式の重み情報876bも、左目重み係数を、水平顔向き角度の増加に従って1から0へと徐々に減少する連続する値として定義している。関数形式の重み情報876bを用いた場合、テーブル形式の重み情報876aを用いた場合よりもより細やかに左目重み係数を決定することができる。
図17の特徴重み決定部876は、重み情報を用いて、水平顔向き角度算出部874で算出された水平顔向き角度から左目重み係数を取得する。そして、特徴重み決定部876は、取得した左目重み係数を、視線方向特徴量であるずれ量を算出する際の重みを表す特徴重み情報として、視線方向特徴量算出部872へ出力する。
視線方向特徴量算出部872は、顔部品三次元位置情報と、視線基準面の三次元位置と、視線特徴パラメータと、瞳間距離と、特徴重み決定部876で取得された特徴重み情報とに基づいて、視線方向特徴量を算出する。
図20は、視線方向検出装置800による視線方向検出処理の流れを示すフローチャートであり、実施の形態5の図16に対応するものである。
図20に示す各処理は、ステップS1750〜S1840の処理をステップS1770
〜S1850の処理に代えたことを除き、図16と同様である。
ステップS1770で、水平顔向き角度算出部874は、ステップS1500で取得された顔正面ベクトルに基づいて、カメラの光軸方向に対する顔の向きの水平成分の角度を、水平顔向き角度として算出し、算出した水平顔向き角度を特徴重み決定部876へ出力する。
水平顔向き角度の算出は、たとえば、以下のようにして行う。水平顔向き角度算出部874は、ステレオカメラ座標系における顔正面ベクトルの水平成分、垂直成分、および光軸方向成分を、それぞれ(Xfc,Yfc,Zfc)とすると、たとえば以下の式(15)を用いて、水平顔向き角度θを求める。
Figure 2008007781
ステップS1780で、特徴重み決定部876は、入力された水平顔向き角度に対応する左目重み係数を、重み情報格納部875に格納された重み情報に基づいて決定し、決定した左目重み係数から、右目から得られた情報に対して掛けるべき重み係数(以下「右目重み係数」という)を算出する。そして、特徴重み決定部876は、左目重み係数と右目重み係数とを、特徴重み情報として視線方向特徴量算出部872へ出力する。
特徴重み決定部876は、左目重み係数をWとしたとき、右目重み係数Wを、たとえば以下の式(16)を用いて求める。
Figure 2008007781
なお、視線方向特徴量算出部872で、式(16)を用いて右目重み係数を算出するようにしてもよい。この場合には、特徴重み決定部876は、左目重み係数のみを特徴重み情報として視線方向特徴量算出部872へ出力する。
ステップS1850で、視線方向特徴量算出部872は、左右の瞳中心の三次元位置から得られる情報に対し、特徴重み情報が示す重み付けを行い、視線方向特徴量であるずれ量dを求める。
左右の瞳中心の三次元位置から得られる情報に対する重み付けは、たとえば、以下のようにして行う。視線方向特徴量算出部872は、顔部品ベクトル611の各成分を(a,b,c)、視線方向基準点Fcの座標を(x,y,z)、右目の瞳中心の座標を(x,y,z)、右目の瞳中心の座標を(x,y,z)とすると、右目を用いた場合のずれ量dと、左目を用いた場合のずれ量dとを、たとえば、以下の式(17)、(18)を用いて求める。
Figure 2008007781
Figure 2008007781
そして、視線方向特徴量算出部872は、求めたずれ量d、dに、右目重み係数Wと左目重み係数をWとをそれぞれ乗じた値の和を取ることにより、つまり以下の式(19)を用いることにより、最終的な視線方向特徴量としてのずれ量dを算出する。
Figure 2008007781
なお、重み付けは、左右の目それぞれから個別に求めたずれ量から、視線ベクトルと顔正面ベクトルとが成す角θをそれぞれ算出し、算出された2つの値に対して対応する重み係数を乗じてもよい。
具体的には、たとえば、視線方向特徴量算出部872は、まず、右目を用いた場合のずれ量dおよび左目を用いた場合のずれ量dを算出し、算出結果と、右目重み係数Wおよび左目重み係数をWとを、視線ベクトル算出部173へ出力する。そして、視線ベクトル算出部173は、眼球半径rと、ずれ量d、dから、以下の式(20)、(21)を用いて、右目を用いた場合の視線ベクトルと顔正面ベクトルとが成す角θと、左目を用いた場合の視線ベクトルと顔正面ベクトルとが成す角θとを求める。
Figure 2008007781
Figure 2008007781
そして、視線ベクトル算出部173は、求めた角θ、θに、右目重み係数Wと左目重み係数をWとをそれぞれ乗じた値の和を取ることにより、つまり以下の式(22)を用いることにより、最終的な視線方向特徴量としてのずれ量dを算出する。
Figure 2008007781
このように、本実施の形態によれば、左右の目から得られた情報に信頼度に応じた重み付けを行い、積極的に両方の目を用いて視線方向検出を行う。これにより、視線方向検出の精度の安定化を図ることができる。
なお、撮影条件、瞳間距離の検出精度、および水平顔向き角度と、瞳中心の三次元位置の検出精度との関係を、実験により予め解析し、解析結果から、視線方向検出の精度が最も安定する重み付けを各水平顔向き角度ごとに求めておくことにより、視線方向検出の精度の更なる安定化を図ることができる。また、撮影条件に応じて内容の異なる重み情報を用意しておき、撮影条件に応じて使い分けるようにしてもよい。
また、本実施の形態では、視線基準面に対する瞳中心の距離からずれ量dを求める場合について説明したが、実施の形態3のように、視線方向基準点に対する顔部品投影点の距離からずれ量dを求める場合に適用してもよい。この場合、視線特徴投影部371で、左右両方の目から顔部品投影点を取得し、視線方向特徴量算出部372で、それぞれのずれ量を求めた後、特徴重み情報に従って重み付けを行えばよい。
以上説明した各実施の形態では、車の運転者の視線方向に基づいて事故の危険性を警報する警報装置に適用する場合を例として説明を行ったが、人間の視線方向に基づいて処理を行う他の各種装置に適用してもよいことは勿論である。
このような装置としては、たとえば、テレビジョンや音響スピーカなどの情報提示機器や、監視カメラなどの安全状態監視機器、スチールカメラやビデオカメラなどの映像記録機器、ロボットなどの生活補助機器、ビデオゲームや体感ゲームなどの遊戯機器などが挙げられる。他にも、たとえば、車の運転者が見ていると推定される画像を入力して記録する映像記録装置、ロボットがユーザやロボット自身の状況を把握するための周辺情報把握装置、ビデオゲームのゲーム内容の状態を変化させるためのゲーム状態更新装置、眼球の動きに関する検査をするための医療機器が挙げられる。
また、視線方向の検出の対象となる被検者は、人間に限定されるものではない。顔の中心を基準として左右対称に位置する2つの顔部品を有し、かつ瞳中心を検出可能な動物であれば、本発明を適用してその視線方向を検出することが可能である。
2006年7月14日出願の特願特願2006−194892の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る視線方向検出装置および視線方向検出方法は、被検者ごとのキャリブレーションを特に行うことなく、高い精度の視線方向検出結果を得ることができる視線方向検出装置および視線方向検出方法として有用である。具体的には、パーソナルコンピュータ、OA(office automation)機器、携帯電話機などの情報端末や、自動車、飛行機、船、電車などの移動手段に搭載される情報提供装置として有用である。また、監視装置、警報装置、ロボット、映像音響再生装置などの情報入力装置としても応用できる。
本発明の実施の形態1に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態1における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態1における画像入力部で取得されるステレオ画像対の一例を示す説明図 本発明の実施の形態1における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態2に係る視線方向検出装置の構成を示すブロック 本発明の実施の形態2における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態2における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態3に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態3における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態3における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態4に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態4における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態4における視線方向ベクトルに関する各パラメータの関係を示す説明図 本発明の実施の形態5に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態5における選択情報テーブルの内容の一例を示す図 本発明の実施の形態5における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態6に係る視線方向検出装置の構成を示すブロック図 本発明の実施の形態6における視線方向検出装置による視線方向検出処理の流れを示すフローチャート 本発明の実施の形態6における重み情報の内容の一例を示す図 本発明の実施の形態6における重み情報の内容の他の例を示す図

Claims (14)

  1. 左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を、基準位置として算出する基準位置算出手段と、
    左右の瞳中心の三次元位置から、前記被検者の左右の瞳中心の左右方向における中心の三次元位置を、特徴位置として算出する特徴位置算出手段と、
    左右方向における前記基準位置に対する前記特徴位置のずれ量を、視線方向特徴量として算出する視線方向特徴量算出手段と、
    前記視線方向特徴量に基づいて、前記被検者の視線方向を算出する視線方向算出手段と、
    を有する視線方向検出装置。
  2. 所定の2つの位置で撮像を行い、ステレオ画像を入力する画像入力手段と、
    前記画像入力手段により入力されるステレオ画像から、前記顔部品に対応する画像および前記瞳中心に対応する画像を検出する顔部品検出手段と
    前記画像入力手段が撮像を行う前記所定の2つの位置と、前記顔部品検出手段の検出結果に基づいて、前記顔部品および前記瞳中心の三次元位置を算出する三次元位置算出手段と、
    をさらに有する請求項1記載の視線方向検出装置。
  3. 左右対称に位置する2つの顔部品を少なくとも含む3つ以上の顔部品の三次元位置に基づいて、前記被検者の顔正面の方向を推定する顔方向推定手段、をさらに有し、
    前記視線方向算出手段は、
    前記視線方向特徴量、眼球半径、および前記被検者の顔正面の方向に基づいて、前記被検者の視線方向を算出する、
    請求項1記載の視線方向検出装置。
  4. 左右の瞳中心の中点を左右対称に位置する所定の2つの顔部品を通る直線に垂直に投影した点としての視線特徴投影点を取得する視線特徴投影手段、をさらに有し、
    前記視線方向特徴量算出手段は、
    前記所定の2つの顔部品の中点に対する前記視線特徴投影点のずれ量を、前記視線方向特徴量として算出する、
    請求項1記載の視線方向検出装置。
  5. 左右対称に位置する所定の2つの顔部品の三次元位置に基づいて、前記被検者の顔の左右方向における中心に位置する基準面を算出する視線基準面算出手段、をさらに有し、
    前記視線方向特徴量算出手段は、
    前記基準面に対する前記被検者の左右の瞳中心の中点のずれ量を、前記視線方向特徴量として算出する、
    請求項1記載の視線方向検出装置。
  6. 左右の瞳中心の距離を、瞳間距離として記憶する特徴記憶手段と、
    左右のいずれかの瞳中心を左右対称に位置する所定の2つの顔部品を通る直線に垂直に投影した点としての顔部品投影点を取得する視線特徴投影手段と、をさらに有し、
    前記視線方向特徴量算出手段は、
    前記2つの所定の顔部品の中点に対する前記顔部品投影点のずれ量を前記瞳間距離の半分の距離で補正した値を、前記視線方向特徴量として算出する、
    請求項1記載の視線方向検出装置。
  7. 前記画像入力手段により入力されるステレオ画像から、顔の領域を検出する顔検出手段、をさらに有し、
    前記顔部品検出手段は、
    前記画像入力手段により入力されるステレオ画像のうち、顔の領域のみを探索対象として、前記顔部品に対応する画像および前記瞳中心に対応する画像の検出を行う、
    請求項2記載の視線方向検出装置。
  8. 左右の瞳中心の距離を、瞳間距離として記憶する特徴記憶手段と、
    左右対称に位置する所定の2つの顔部品の三次元位置に基づいて、前記被検者の顔の左右方向における中心に位置する基準面を算出する視線基準面算出手段と、をさらに有し、
    前記視線方向特徴量算出手段は、
    前記基準面に対する左右のいずれかの瞳中心のずれ量を前記瞳間距離の半分の距離で補正した値を、前記視線方向特徴量として算出する、
    請求項1記載の視線方向検出装置。
  9. 前記被検者の顔正面が左右のいずれに向いているかを判定する顔向き判定手段と、
    前記顔向き判定手段により判定された顔正面の左右の向きから、前記左右の瞳中心のうち手前側に位置する瞳中心を選択する特徴選択手段と、をさらに有し、
    前記視線特徴投影手段は、
    前記特徴選択手段により選択された瞳中心から前記顔部品投影点を取得する、
    請求項6記載の視線方向検出装置。
  10. 前記被検者の顔正面が左右のいずれに向いているかを判定する顔向き判定手段と、
    前記顔向き判定手段により判定された顔正面の左右の向きから、前記左右の瞳中心のうち手前側に位置する瞳中心を選択する特徴選択手段と、をさらに有し、
    前記視線方向特徴量算出手段は、
    前記特徴選択手段により選択された瞳中心から前記視線方向特徴量を取得する、
    請求項8記載の視線方向検出装置。
  11. 前記画像入力手段の光軸方向に対する前記被検者の顔正面の向きの水平方向における角度を算出する顔向き角度算出手段と、
    前記顔向き角度算出手段により算出された角度に応じて、前記左右の瞳中心のそれぞれから得られた情報に対する重み付けを決定する特徴重み決定手段と、をさらに有し、
    前記視線特徴投影手段は、
    前記左右の瞳中心のそれぞれから前記顔部品投影点を取得し、
    前記視線方向特徴量算出手段は、
    前記左右の瞳中心のそれぞれから得られた情報に対して前記特徴重み決定手段で決定された重み付けを行った値から、前記視線方向特徴量を算出する、
    請求項6記載の視線方向検出装置。
  12. 前記画像入力手段の光軸方向に対する前記被検者の顔正面の向きの水平方向における角度を算出する顔向き角度算出手段と、
    前記顔向き角度算出手段により算出された角度に応じて、前記左右の瞳中心のそれぞれから得られた情報に対する重み付けを決定する特徴重み決定手段と、をさらに有し、
    前記視線方向特徴量算出手段は、
    前記左右の瞳中心のそれぞれから前記視線方向特徴量を算出し、
    前記視線方向算出手段は、
    前記左右の瞳中心のそれぞれから算出された前記視線方向特徴量または前記視線方向特徴量から得られた前記被検者の視線方向に対して前記特徴重み決定手段で決定された重み付けを行った値から、前記被検者の視線方向を算出する、
    請求項8記載の視線方向検出装置。
  13. 前記視線方向算出手段は、
    前記視線方向特徴量を分子とし前記眼球半径を分母とする値の逆正弦を、前記顔正面の方向に対する前記視線方向の水平方向における角度として算出する、
    請求項3記載の視線方向検出装置。
  14. 左右対称に位置する2つの顔部品の三次元位置から、視線方向の検出の対象となる被検者の顔の中心の三次元位置を基準位置として算出するとともに、左右の瞳中心の三次元位置から、前記被検者の左右の瞳中心の左右方向における中心の三次元位置を特徴位置として算出する特徴算出ステップと、
    左右方向における前記基準位置に対する前記特徴位置のずれ量を、視線方向特徴量として算出する視線方向特徴量算出ステップと、
    前記視線方向特徴量に基づいて、前記被検者の視線方向を算出する視線方向算出ステップと、
    を有する視線方向検出方法。
JP2008524862A 2006-07-14 2007-07-13 視線方向検出装置および視線方向検出方法 Active JP5137833B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008524862A JP5137833B2 (ja) 2006-07-14 2007-07-13 視線方向検出装置および視線方向検出方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006194892 2006-07-14
JP2006194892 2006-07-14
JP2008524862A JP5137833B2 (ja) 2006-07-14 2007-07-13 視線方向検出装置および視線方向検出方法
PCT/JP2007/064011 WO2008007781A1 (fr) 2006-07-14 2007-07-13 Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle

Publications (2)

Publication Number Publication Date
JPWO2008007781A1 true JPWO2008007781A1 (ja) 2009-12-10
JP5137833B2 JP5137833B2 (ja) 2013-02-06

Family

ID=38923336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008524862A Active JP5137833B2 (ja) 2006-07-14 2007-07-13 視線方向検出装置および視線方向検出方法

Country Status (6)

Country Link
US (1) US8406479B2 (ja)
EP (1) EP2042079B1 (ja)
JP (1) JP5137833B2 (ja)
CN (1) CN101489467B (ja)
DE (1) DE602007009990D1 (ja)
WO (1) WO2008007781A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201096A (ja) * 2014-04-09 2015-11-12 富士通株式会社 視線検出装置、視線検出プログラム及び視線検出方法
US10528849B2 (en) * 2015-08-28 2020-01-07 Beijing Kuangshi Technology Co., Ltd. Liveness detection method, liveness detection system, and liveness detection device

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US9473766B2 (en) * 2006-12-28 2016-10-18 David Byron Douglas Method and apparatus for three dimensional viewing of images
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US20090196460A1 (en) * 2008-01-17 2009-08-06 Thomas Jakobs Eye tracking system and method
WO2009116242A1 (ja) * 2008-03-18 2009-09-24 パナソニック株式会社 運転者監視装置、運転者監視方法及び車両
JP5042896B2 (ja) * 2008-03-25 2012-10-03 オリンパス株式会社 画像処理装置および画像処理プログラム
JP2009260630A (ja) * 2008-04-16 2009-11-05 Olympus Corp 画像処理装置および画像処理プログラム
US8538044B2 (en) 2008-09-26 2013-09-17 Panasonic Corporation Line-of-sight direction determination device and line-of-sight direction determination method
JP5474202B2 (ja) * 2009-09-29 2014-04-16 アルカテル−ルーセント 顔検出および画像測定に基づいて注視点を検出する方法および装置
EP2333778A1 (en) * 2009-12-04 2011-06-15 Lg Electronics Inc. Digital data reproducing apparatus and method for controlling the same
CN101815174B (zh) * 2010-01-11 2015-03-04 北京中星微电子有限公司 摄像控制方法及控制装置
JP5519413B2 (ja) * 2010-06-03 2014-06-11 パナソニック株式会社 瞳孔隠蔽状態検出装置及びそれを備えた車載カメラ
US8405714B2 (en) 2010-06-03 2013-03-26 Panasonic Corporation Pupil hidden state detecting apparatus and vehicle-mounted camera employing the same
JP5529660B2 (ja) * 2010-07-20 2014-06-25 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
JP5618686B2 (ja) * 2010-08-03 2014-11-05 キヤノン株式会社 視線検出装置、視線検出方法及びプログラム
JP5466610B2 (ja) * 2010-09-27 2014-04-09 パナソニック株式会社 視線推定装置
US9380285B2 (en) * 2010-12-20 2016-06-28 Samsung Display Co., Ltd. Stereo image processing method, stereo image processing device and display device
US9595127B2 (en) * 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
EP2499963A1 (en) * 2011-03-18 2012-09-19 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for gaze point mapping
JP5765015B2 (ja) * 2011-03-30 2015-08-19 富士通株式会社 視線検出装置、視線検出方法および視線検出プログラム
US9582707B2 (en) 2011-05-17 2017-02-28 Qualcomm Incorporated Head pose estimation using RGBD camera
TWI470185B (zh) * 2011-06-28 2015-01-21 Wistron Corp 反光偵測裝置、反光偵測方法及電子裝置
FR2980681A3 (fr) * 2011-09-29 2013-04-05 Fittingbox Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle
US9248796B2 (en) * 2011-10-06 2016-02-02 Honda Motor Co., Ltd. Visually-distracted-driving detection device
GB2495323B (en) 2011-10-07 2018-05-30 Irisguard Inc Improvements for iris recognition systems
GB2495324B (en) * 2011-10-07 2018-05-30 Irisguard Inc Security improvements for Iris recognition systems
KR101874494B1 (ko) 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
CN103186233B (zh) * 2011-12-31 2016-03-09 上海飞来飞去新媒体展示设计有限公司 眼神定位全景互动控制方法
JP5505434B2 (ja) * 2012-02-09 2014-05-28 株式会社デンソー 脇見判定装置
TWI584222B (zh) * 2012-02-17 2017-05-21 鈺立微電子股份有限公司 立體影像處理器、立體影像互動系統、與相關立體影像顯示方法
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
WO2014010251A1 (en) * 2012-07-13 2014-01-16 Panasonic Corporation Hand and object tracking in three-dimensional space
CN103565399B (zh) * 2012-07-27 2015-09-30 原相科技股份有限公司 瞳孔检测装置
IN2015KN00682A (ja) * 2012-09-03 2015-07-17 Sensomotoric Instr Ges Für Innovative Sensorik Mbh
EP2899584B1 (en) * 2012-09-19 2020-03-11 Nikon Corporation Spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection method, measuring system and measuring method
US9123142B2 (en) 2012-10-02 2015-09-01 At&T Intellectual Property I, L.P. Adjusting content display orientation on a screen based on user orientation
US9571726B2 (en) * 2012-12-20 2017-02-14 Google Inc. Generating attention information from photos
US9116926B2 (en) 2012-12-20 2015-08-25 Google Inc. Sharing photos
US9405982B2 (en) * 2013-01-18 2016-08-02 GM Global Technology Operations LLC Driver gaze detection system
DE102014100352B4 (de) 2013-01-18 2020-07-23 Carnegie Mellon University Verfahren zum Detektieren einer Bedingung mit von der Straße abgewandten Augen
US10984441B2 (en) 2013-03-13 2021-04-20 Eversight, Inc. Systems and methods for intelligent promotion design with promotion selection
US10991001B2 (en) 2013-03-13 2021-04-27 Eversight, Inc. Systems and methods for intelligent promotion design with promotion scoring
US11270325B2 (en) 2013-03-13 2022-03-08 Eversight, Inc. Systems and methods for collaborative offer generation
US20210103945A1 (en) * 2013-03-13 2021-04-08 Eversight, Inc. Systems and methods for price testing and optimization in brick and mortar retailers
CN104180995A (zh) * 2013-05-24 2014-12-03 上海汽车集团股份有限公司 一种扫描车辆整车视野的装置以及方法
JP6077655B2 (ja) * 2013-06-11 2017-02-08 シャープ株式会社 撮影システム
WO2014201667A1 (en) * 2013-06-20 2014-12-24 Thomson Licensing Method and device for detecting an object
US9842423B2 (en) * 2013-07-08 2017-12-12 Qualcomm Incorporated Systems and methods for producing a three-dimensional face model
JP6154075B2 (ja) * 2013-08-19 2017-06-28 ノキア テクノロジーズ オーユー オブジェクト検出及び分割の方法,装置,コンピュータプログラム製品
KR20150026358A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 피사체 정보에 따른 템플릿 피팅 방법 및 그 장치
US9876966B2 (en) 2013-10-18 2018-01-23 Pixart Imaging Inc. System and method for determining image variation tendency and controlling image resolution
CN104580943B (zh) * 2013-10-28 2019-10-18 原相科技股份有限公司 影像感测系统和方法以及眼球追踪系统和方法
KR101470243B1 (ko) * 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
JP6090129B2 (ja) * 2013-11-27 2017-03-08 株式会社デンソー 視認領域推定装置
JP6322986B2 (ja) * 2013-12-09 2018-05-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR102227284B1 (ko) 2014-01-16 2021-03-12 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR102135770B1 (ko) * 2014-02-10 2020-07-20 한국전자통신연구원 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
DE102015202846B4 (de) 2014-02-19 2020-06-25 Magna Electronics, Inc. Fahrzeugsichtsystem mit Anzeige
WO2015136908A1 (ja) 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 視線検出装置
US9529428B1 (en) * 2014-03-28 2016-12-27 Amazon Technologies, Inc. Using head movement to adjust focus on content of a display
US20150296135A1 (en) * 2014-04-10 2015-10-15 Magna Electronics Inc. Vehicle vision system with driver monitoring
KR102212209B1 (ko) 2014-04-10 2021-02-05 삼성전자주식회사 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
US9661215B2 (en) 2014-04-22 2017-05-23 Snapaid Ltd. System and method for controlling a camera based on processing an image captured by other camera
US20150312558A1 (en) * 2014-04-29 2015-10-29 Quentin Simon Charles Miller Stereoscopic rendering to eye positions
JP6233650B2 (ja) 2014-05-20 2017-11-22 パナソニックIpマネジメント株式会社 操作補助装置および操作補助方法
JP6350903B2 (ja) 2014-05-20 2018-07-04 パナソニックIpマネジメント株式会社 操作補助装置および操作補助方法
CN105279764B (zh) * 2014-05-27 2020-09-11 北京三星通信技术研究有限公司 眼睛图像处理设备和方法
KR20150144185A (ko) * 2014-06-16 2015-12-24 현대자동차주식회사 안구 중심점 추출 방법
GB2528446B (en) * 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof
TWI577327B (zh) * 2014-08-14 2017-04-11 由田新技股份有限公司 瞳孔定位方法與裝置及其電腦程式產品
WO2016029939A1 (en) * 2014-08-27 2016-03-03 Metaio Gmbh Method and system for determining at least one image feature in at least one image
JP6547268B2 (ja) * 2014-10-02 2019-07-24 富士通株式会社 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム
CN104581126A (zh) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示设备的画面显示处理方法和处理装置
DE102015204281A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
JP6739907B2 (ja) * 2015-06-18 2020-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器特定方法、機器特定装置及びプログラム
US10061383B1 (en) * 2015-09-16 2018-08-28 Mirametrix Inc. Multi-feature gaze tracking system and method
US20180257565A1 (en) * 2015-09-30 2018-09-13 Aisin Seiki Kabushiki Kaisha Drive assist apparatus
US10324297B2 (en) 2015-11-30 2019-06-18 Magna Electronics Inc. Heads up display system for vehicle
US10401621B2 (en) 2016-04-19 2019-09-03 Magna Electronics Inc. Display unit for vehicle head-up display system
US10089543B2 (en) 2016-07-29 2018-10-02 Honda Motor Co., Ltd. System and method for detecting distraction and a downward vertical head pose in a vehicle
JP6897082B2 (ja) 2016-12-13 2021-06-30 富士通株式会社 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法
JP6893607B2 (ja) * 2017-04-21 2021-06-23 達闥机器人有限公司 ロボット制御方法、ロボット装置及びロボット機器
US11941659B2 (en) 2017-05-16 2024-03-26 Maplebear Inc. Systems and methods for intelligent promotion design with promotion scoring
CN107315997B (zh) * 2017-05-27 2020-08-28 湖北天业云商网络科技有限公司 一种基于快速特征点定位的视线朝向判断方法及系统
CN107193383B (zh) * 2017-06-13 2020-04-07 华南师范大学 一种基于人脸朝向约束的二级视线追踪方法
CN109803583A (zh) * 2017-08-10 2019-05-24 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
CN111066316B (zh) * 2017-09-20 2021-08-24 夏普株式会社 电子设备、存储介质、控制装置以及控制方法
JP6702292B2 (ja) * 2017-11-15 2020-06-03 オムロン株式会社 警報制御装置、方法、およびプログラム
US11068735B2 (en) * 2017-12-05 2021-07-20 Denso Corporation Reliability calculation apparatus
JP7040995B2 (ja) * 2017-12-05 2022-03-23 株式会社Soken 信頼度算出装置
JP6711346B2 (ja) * 2017-12-13 2020-06-17 オムロン株式会社 状態推定装置とその方法およびプログラム
KR102444666B1 (ko) * 2017-12-20 2022-09-19 현대자동차주식회사 차량용 3차원 입체 영상의 제어 방법 및 장치
WO2019135281A1 (ja) * 2018-01-05 2019-07-11 三菱電機株式会社 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
CN111771179A (zh) 2018-01-17 2020-10-13 奇跃公司 用于确定显示器与用户的眼睛之间的配准的显示系统和方法
JP6950582B2 (ja) * 2018-03-01 2021-10-13 株式会社Jvcケンウッド 視機能検出装置、視機能検出方法及びプログラム
CN108509029B (zh) * 2018-03-09 2021-07-02 苏州佳世达电通有限公司 非接触式输入方法及非接触式输入系统
CN108592865A (zh) * 2018-04-28 2018-09-28 京东方科技集团股份有限公司 基于ar设备的几何量测量方法及其装置、ar设备
JP7382387B2 (ja) 2018-07-24 2023-11-16 マジック リープ, インコーポレイテッド ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
US11468640B2 (en) 2018-08-03 2022-10-11 Magic Leap, Inc. Depth plane selection for multi-depth plane display systems by user categorization
CN109145864A (zh) * 2018-09-07 2019-01-04 百度在线网络技术(北京)有限公司 确定视线区域的方法、装置、存储介质和终端设备
JP7107380B2 (ja) * 2018-09-26 2022-07-27 日本電気株式会社 推定装置、推定方法、およびプログラム
CN110363133B (zh) * 2019-07-10 2021-06-01 广州市百果园信息技术有限公司 一种视线检测和视频处理的方法、装置、设备和存储介质
CN110488982B (zh) * 2019-08-26 2023-06-02 业成科技(成都)有限公司 透过眼球追踪电子白板之装置
CN111178278B (zh) * 2019-12-30 2022-04-08 上海商汤临港智能科技有限公司 视线方向确定方法、装置、电子设备及存储介质
CN111208905A (zh) * 2020-01-08 2020-05-29 北京未动科技有限公司 一种多模组视线追踪方法、系统和视线追踪设备
JP2021131441A (ja) * 2020-02-19 2021-09-09 キヤノン株式会社 電子機器
JP7475191B2 (ja) * 2020-04-28 2024-04-26 京セラ株式会社 眼間距離測定方法および較正方法
US20220261085A1 (en) * 2021-02-12 2022-08-18 Apple Inc. Measurement based on point selection
CN113903078A (zh) * 2021-10-29 2022-01-07 Oppo广东移动通信有限公司 人眼注视检测方法、控制方法及相关设备
WO2024127449A1 (ja) * 2022-12-12 2024-06-20 日本電気株式会社 車両ドア制御装置、方法、及びコンピュータ可読媒体
CN116824683B (zh) * 2023-02-20 2023-12-12 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224637A (ja) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk 視線検出方法
JP2002288670A (ja) * 2001-03-22 2002-10-04 Honda Motor Co Ltd 顔画像を使用した個人認証装置
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置
JP2003070742A (ja) * 2001-08-31 2003-03-11 Japan Science & Technology Corp 視線検出装置及び視線検出方法
JP2004259043A (ja) * 2003-02-26 2004-09-16 Toyota Motor Corp 向き方向検出装置および向き方向検出方法
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
JP2005198743A (ja) * 2004-01-14 2005-07-28 National Univ Corp Shizuoka Univ 三次元視点計測装置
JP2005313772A (ja) * 2004-04-28 2005-11-10 Toyota Motor Corp 車両用ヘッドアップ・ディスプレイ装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629752A (en) * 1994-10-28 1997-05-13 Fuji Photo Film Co., Ltd. Method of determining an exposure amount using optical recognition of facial features
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
JPH1139469A (ja) * 1997-07-24 1999-02-12 Mitsubishi Electric Corp 顔画像処理装置
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US7003139B2 (en) * 2002-02-19 2006-02-21 Eastman Kodak Company Method for using facial expression to determine affective information in an imaging system
JP4140399B2 (ja) 2003-02-27 2008-08-27 トヨタ自動車株式会社 視線方向検出装置および視線方向検出方法
CA2545202C (en) 2003-11-14 2014-01-14 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2007074842A1 (ja) * 2005-12-27 2007-07-05 Matsushita Electric Industrial Co., Ltd. 画像処理装置
JP2006194892A (ja) 2006-01-27 2006-07-27 Denso Corp 指針計器

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224637A (ja) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk 視線検出方法
JP2002288670A (ja) * 2001-03-22 2002-10-04 Honda Motor Co Ltd 顔画像を使用した個人認証装置
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置
JP2003070742A (ja) * 2001-08-31 2003-03-11 Japan Science & Technology Corp 視線検出装置及び視線検出方法
JP2004259043A (ja) * 2003-02-26 2004-09-16 Toyota Motor Corp 向き方向検出装置および向き方向検出方法
WO2005063114A1 (ja) * 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
JP2005198743A (ja) * 2004-01-14 2005-07-28 National Univ Corp Shizuoka Univ 三次元視点計測装置
JP2005313772A (ja) * 2004-04-28 2005-11-10 Toyota Motor Corp 車両用ヘッドアップ・ディスプレイ装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201096A (ja) * 2014-04-09 2015-11-12 富士通株式会社 視線検出装置、視線検出プログラム及び視線検出方法
US10528849B2 (en) * 2015-08-28 2020-01-07 Beijing Kuangshi Technology Co., Ltd. Liveness detection method, liveness detection system, and liveness detection device

Also Published As

Publication number Publication date
EP2042079A1 (en) 2009-04-01
CN101489467A (zh) 2009-07-22
JP5137833B2 (ja) 2013-02-06
DE602007009990D1 (de) 2010-12-02
US20090304232A1 (en) 2009-12-10
WO2008007781A1 (fr) 2008-01-17
EP2042079B1 (en) 2010-10-20
CN101489467B (zh) 2011-05-04
US8406479B2 (en) 2013-03-26
EP2042079A4 (en) 2010-01-20

Similar Documents

Publication Publication Date Title
JP5137833B2 (ja) 視線方向検出装置および視線方向検出方法
JP5230748B2 (ja) 視線方向判定装置及び視線方向判定方法
CN108958473B (zh) 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体
US8649583B2 (en) Pupil detection device and pupil detection method
WO2018030515A1 (ja) 視線検出装置
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP2008136789A (ja) 眼球パラメータ推定装置及び方法
WO2020068459A1 (en) Sensor fusion eye tracking
JP2018099174A (ja) 瞳孔検出装置及び瞳孔検出方法
JP2017194301A (ja) 顔形状測定装置及び方法
WO2021258251A1 (zh) 用于可移动平台的测绘方法、可移动平台和存储介质
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6572841B2 (ja) 情報処理装置及びプログラム
US11849999B2 (en) Computer-implemented method for determining a position of a center of rotation of an eye using a mobile device, mobile device and computer program
TW201533609A (zh) 以輔助燈光相對位置為基礎之瞳孔定位方法、其系統以及其電腦程式產品
JP2012227830A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
JP2011118767A (ja) 表情モニタリング方法および表情モニタリング装置
JP6468755B2 (ja) 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
JP6359866B2 (ja) 対象者存在範囲推定装置及び対象者存在範囲推定方法
EP4227732A1 (en) Method for head image recording and corresponding mobile device
TW202321775A (zh) 校正由頭戴式顯示器臉部相機捕捉之影像內檢測到之臉部特徵興趣點之原始座標之技術
JP2018106288A (ja) 撮像状態検出装置、撮像状態検出方法、プログラム、および非一時的記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121113

R150 Certificate of patent or registration of utility model

Ref document number: 5137833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350