JP2021081788A - 画像処理方法、画像処理装置、及び画像処理プログラム - Google Patents

画像処理方法、画像処理装置、及び画像処理プログラム Download PDF

Info

Publication number
JP2021081788A
JP2021081788A JP2019206326A JP2019206326A JP2021081788A JP 2021081788 A JP2021081788 A JP 2021081788A JP 2019206326 A JP2019206326 A JP 2019206326A JP 2019206326 A JP2019206326 A JP 2019206326A JP 2021081788 A JP2021081788 A JP 2021081788A
Authority
JP
Japan
Prior art keywords
pupil
line
sight
face
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019206326A
Other languages
English (en)
Other versions
JP6721169B1 (ja
Inventor
寿和 大野
Toshikazu Ono
寿和 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Swallow Incubate Co Ltd
Original Assignee
Panasonic Corp
Swallow Incubate Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Swallow Incubate Co Ltd filed Critical Panasonic Corp
Priority to JP2019206326A priority Critical patent/JP6721169B1/ja
Priority to CN202080078610.7A priority patent/CN114761999A/zh
Priority to PCT/JP2020/004555 priority patent/WO2021095278A1/ja
Application granted granted Critical
Publication of JP6721169B1 publication Critical patent/JP6721169B1/ja
Publication of JP2021081788A publication Critical patent/JP2021081788A/ja
Priority to US17/741,623 priority patent/US20220270407A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】視線方向の検出精度さらに向上させる。【解決手段】画像処理方法は、撮像装置により撮像された画像データを取得し、画像データから、人物の顔の特徴点の位置を検出し、画像データから、人物の目の瞳の中心位置を検出し、特徴点の位置に基づいて、顔の向きの水平成分及び垂直成分を検出し、顔の向きの水平成分と、瞳の中心位置及び特徴点の位置間の距離とに基づいて、光軸に対する人物の視線方向の水平成分を推定し、少なくとも顔の向きの垂直成分に基づいて、視線方向の垂直成分を推定し、視線方向の水平成分及び垂直成分を含む視線情報を出力する。【選択図】図2

Description

本開示は、画像処理により視線情報を検出する技術に関するものである。
視線検出技術は、人物の興味対象の推定、眠気などの人物の状態の推定、及び視線による機器への入力を行うユーザインターフェースといった種々の用途で用いられている。視線方向は、ユーザの顔の向きに応じて異なるため、視線方向を正確に検出するために、顔の向きが考慮されている。
例えば、特許文献1には、人の目の輪郭に対する瞳の位置及び顔の向きと、視線方向との相関関係を学習し、当該相関関係に検出対象者の瞳の位置及び顔の向きを適用し、検出対象者の瞳方向を推定し、推定した瞳方向と検出対象者の顔の向きとに基づいて検出対象者の視線方向を計算する技術が開示されている。特許文献2には、顔の向きを視線方向とみなす技術が開示されている。
特開2009−266086号公報 特開2017−83308号公報
特許文献1、2の技術では、視線方向の水平成分と視線の垂直成分とを算出するにあたり、各成分に対して寄与するパラメータが異なることが何ら考慮されていないため、視線方向を正確に検出するうえでさらなる改善の必要がある。
本開示の目的は、視線方向の検出精度をさらに向上させることが可能な画像処理技術を提供することにある。
本開示の一態様に係る画像処理方法は、画像処理装置における画像処理方法であって、撮像装置により撮像された画像データを取得し、前記画像データから、人物の顔の特徴点の位置を検出し、前記画像データから、前記人物の目の瞳の中心位置を検出し、前記特徴点の位置に基づいて、前記顔の向きの水平成分及び垂直成分を検出し、前記顔の向きの水平成分と、前記瞳の中心位置及び前記特徴点の位置間の距離とに基づいて、前記光軸に対する前記人物の視線方向の水平成分を推定し、少なくとも前記顔の向きの垂直成分に基づいて、前記視線方向の垂直成分を推定し、前記視線方向の水平成分及び垂直成分を含む視線情報を出力する。
本開示によれば、視線方向の検出精度をさらに向上させることができる。
本開示の実施の形態1に係る画像処理システムの全体構成の一例を示す図である。 実施の形態1に係る画像処理システムの詳細な構成の一例を示すブロック図である。 顔向き検出部の詳細な構成を示すブロック図である。 実施の形態1に係る画像処理装置の動作の一例を示すフローチャートである。 顔領域を示す図である。 顔領域に対して設定された顔の特徴点を示す図である。 目領域を示す図である。 二値化された目領域を示す図である。 顔の向きの水平成分を検出する処理の説明図である。 顔の向きの垂直成分を検出する処理の説明図である。 瞳方向の水平成分を検出する処理の第1例の説明図である。 図11に続く説明図である。 瞳方向の水平成分を検出する処理の第2例の説明図である。 光軸、顔の向き、瞳方向、及び視線方向の関係を示した図である。 本開示の実施の形態2に係る画像処理システムの全体構成の一例を示す図である。 実施の形態2に係る画像処理システムの動作の一例を示すフローチャートである。 まぶた検出処理の説明図である。 実施の形態3に係る画像処理システムの詳細な構成を示すブロック図である。
(本開示の基礎となる知見)
3次元実空間内において人物の注視点を人物の顔の画像データを用いて検出する場合、例えば人物を撮影するカメラの光軸に対する視線方向を検出することが要求される。カメラの光軸に対する視線方向を検出する場合のパラメータとしては、例えばカメラの光軸に対する顔の向きと顔の向きに対する視線方向とが用いられる。
しかしながら、視線方向は3次元ベクトルで構成される。そのため、光軸に対する視線方向を検出する場合、カメラの光軸に対する顔の向きと、顔の向きに対する視線方向とを単に用いるだけでは不十分であり、両者を水平成分と垂直成分とに分けることが要求される。
特許文献1では、左右方向の顔向きと左右方向の瞳方向との和から左右方向の視線方向が求められ、上下方向の顔向きと上下方向の瞳方向との和から上下方向の視線方向が求められている(段落[0073])。
しかしながら、特許文献1では、人の目の輪郭に対する瞳の位置及び顔の向きと視線方向とから学習された相関関係に、検出対象者の顔向きと検出対象者の瞳の位置を適用することで瞳方向が計算されることが開示されているに過ぎない。そのため、特許文献1では、左右方向の瞳方向と上下方向の瞳方向とを区別して算出する具体的な開示がない。さらに、左右方向の顔向きと上下方向の顔向きとを区別して算出する具体的な開示もない。よって、特許文献1では、視線方向の水平成分と垂直成分とのそれぞれを算出するにあたり寄与するパラメータが異なることは何ら考慮されていない。さらに、特許文献1では、予め相関関係を学習させることも要求され、手間である。
特許文献2では、顔の向きが視線方向として見なされているため、視線方向の水平成分と垂直成分とのそれぞれを算出するにあたり寄与するパラメータが異なることは何ら考慮されていない。
以上より特許文献1、2の技術は視線方向を精度よく検出するには不十分である。
そこで、本発明者は、視線方向の水平成分と垂直成分のそれぞれを算出するにあたり寄与するパラメータが異なるとの知見を得て、以下に示す各態様を想到するに至った。
本開示の一態様に係る画像処理方法は、画像処理装置における画像処理方法であって、撮像装置により撮像された画像データを取得し、前記画像データから、人物の顔の特徴点の位置を検出し、前記画像データから、前記人物の目の瞳の中心位置を検出し、前記特徴点の位置に基づいて、前記顔の向きの水平成分及び垂直成分を検出し、前記顔の向きの水平成分と、前記瞳の中心位置及び前記特徴点の位置間の距離とに基づいて、前記光軸に対する前記人物の視線方向の水平成分を推定し、少なくとも前記顔の向きの垂直成分に基づいて、前記視線方向の垂直成分を推定し、前記視線方向の水平成分及び垂直成分を含む視線情報を出力する。
本構成によれば、撮像装置の光軸に対する視線方向の水平成分は、顔の向きの水平成分と、瞳の中心位置及び顔の特徴点間の距離とに基づいて推定されている。光軸に対する視線方向の垂直成分は、少なくとも顔の向きの垂直成分に基づいて推定されている。このように、本構成では、光軸に対する視線方向の水平成分及び垂直成分のそれぞれが異なるパラメータを用いて推定されている。よって、本構成は、視線方向の検出精度をさらに向上させることができる。さらに、本構成は、上述したような相関関係を事前に学習することが不要である。よって、本構成は少ない処理ステップ数で高精度に視線方向を検出できる。
上記画像処理方法において、前記特徴点は、前記人物の目尻及び目頭を含んでもよい。
本構成によれば、顔の特徴点として目尻及び目頭が用いられているため、視線方向の検出精度をさらに向上させることができる。
上記画像処理方法において、前記視線方向の水平成分の推定では、前記瞳の中心位置及び前記目頭の位置間の第1距離と前記瞳の中心位置及び前記目尻の位置間の第2距離との割合に基づいて前記顔の向きに対する前記瞳の方向である瞳方向の水平成分を推定し、前記顔の向きの水平成分と前記瞳方向の水平成分とを合成することによって前記視線方向の水平成分を推定してもよい。
本構成によれば、瞳の中心位置及び目頭の位置間の第1距離と瞳の中心位置及び目尻の位置間の第2距離との割合に基づいて瞳方向の水平成分が推定され、瞳方向の水平成分と、顔の向きの水平成分とが合成され、視線方向の水平成分が推定される。これにより、視線方向の水平成分の推定精度が高まり、ひいては視線方向の検出精度をさらに向上させることができる。
上記画像処理方法において、前記特徴点は、前記顔の中心位置を含んでもよい。
本構成によれば、顔の特徴点として顔の中心位置が用いられているため、視線方向の検出精度をさらに向上させることができる。
上記画像処理方法において、前記視線方向の水平成分の推定では、前記人物の左右それぞれの瞳の中心位置の中点と前記顔の中心位置とのずれに基づいて前記顔の向きに対する前記瞳の方向である瞳方向の水平成分を推定し、前記瞳方向の水平成分と前記顔の向きの水平成分とを合成することによって前記視線方向の水平成分を推定してもよい。
本構成によれば、人物の左右それぞれの瞳の中心位置の中点と顔の中心位置とのずれに基づいて瞳方向の水平成分が推定され、瞳方向の水平成分と顔の向きの水平成分とが合成され、視線方向の水平成分が推定される。これにより、視線方向の水平成分の推定精度が高まり、ひいては視線方向の検出精度をさらに向上させることができる。
上記画像処理方法において、前記視線方向の垂直成分の推定では、さらに前記瞳の中心位置及び前記人物の上まぶた間の第3距離と前記瞳の中心位置及び前記人物の下まぶた間の第4距離とを用いて前記視線方向の垂直成分を推定してもよい。
本構成によれば、瞳の中心位置及び人物の上まぶた間の第3距離と瞳の中心位置及び人物の下まぶた間の第4距離とを用いて視線方向の垂直成分が推定されている。そのため、視線方向の垂直成分をより精度よく推定できる。
上記画像処理方法において、前記視線方向の垂直成分の推定では、前記第3距離と前記第4距離との割合に基づいて前記顔の向きに対する前記瞳の方向である瞳方向の垂直成分を推定し、前記瞳方向の垂直成分と前記顔の向きの垂直成分とを合成することによって前記視線方向の垂直成分を推定してもよい。
本構成によれば、第3距離と第4距離との割合に基づいて瞳方向の垂直成分が推定され、瞳方向の垂直成分と、顔の向きの垂直成分とが合成され、視線方向の垂直成分が推定される。これにより、視線方向の垂直成分の推定精度が高まり、ひいては視線方向の検出精度をさらに向上させることができる。
上記画像処理方法において、前記特徴点は、まゆげ及び口角の少なくとも一方を含み、前記視線情報と、前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の関心度を推定してもよい。
本構成によれば、視線情報のみに基づいて関心度を推定する場合に比べて、より高精度に関心度を推定できる。
上記画像処理方法において、前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の表情を推定し、前記視線情報と、前記推定された表情を示す情報とに基づいて前記人物の関心度を推定してもよい。
本構成によれば、まゆげの位置及び口角の位置の少なくとも一方に基づいて推定された人物の表情を示す情報と視線情報とを用いて関心度が推定されているため、人物の関心度をさらに高精度に推定できる。
上記画像処理方法において、前記視線情報は、所定の対象面における前記人物の注視点を基準とする所定範囲の領域である注視面を示す情報を含んでもよい。
本構成によれば、人物及び注視対象物間の距離又は注視対象物の大きさに依存することなく注視対象物を適切に判定できる。
上記画像処理方法において、前記画像データは、可視光カメラにより撮影されたものであり、前記瞳の中心位置は、虹彩の中心位置であってもよい。
可視光カメラで撮影された画像データから瞳孔を検出することは困難であるが、虹彩は検出可能である。本態様は、虹彩の中心位置が瞳の中心位置とされているため、可視光カメラを用いた場合において、瞳の中心位置を精度よく検出できる。
上記画像処理方法において、前記画像データは、赤外光カメラにより撮影されたものであり、前記瞳の中心位置は、瞳孔の中心位置であってもよい。
赤外光カメラで撮影された画像データから瞳孔を検出することは可能である。本態様は、瞳孔の中心位置が瞳の中心位置とされているため、赤外光カメラを用いた場合において、瞳の中心位置を精度よく検出できる。
上記画像処理方法において、前記画像データは、太陽光のスペクトル強度が所定の第1波長よりも減衰した所定の第2波長の帯域の赤外光を用いる赤外光カメラで撮影された画像データであってもよい。
本構成によれば、太陽光のスペクトル強度が強い屋外においても精度よく視線方向を検出できる。
本開示は、このような画像処理方法に含まれる特徴的な各構成をコンピュータに実行させる画像処理プログラム、或いはこの画像処理プログラムによって動作する画像処理装置として実現することもできる。また、このようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
図1は、本開示の実施の形態1に係る画像処理システム1の全体構成の一例を示す図である。画像処理システム1は、人物400を撮影し、得られた人物400の画像データから人物400の視線を示す視線情報を検出するシステムである。図1の例では、画像処理システム1は、表示装置300に表示された複数のオブジェクト301のうち、どのオブジェクト301を人物400が注視しているかを特定している。但し、これは一例であり、画像処理システム1は、表示装置300の表示画面上に表示されたオブジェクト301のみならず、実空間内において人物400が注視するオブジェクト301を特定してもよい。
図1の例では、画像処理システム1はデジタルサイネージシステムに適用されている。したがって、表示装置300に表示されるオブジェクト301は、広告などのサイネージの画像となる。
画像処理システム1は、画像処理装置100、カメラ200(撮影装置の一例)、及び表示装置300を含む。画像処理装置100は、カメラ200及び表示装置300と所定の通信路を介して接続されている。所定の通信路は、例えば、有線LANなどの有線の通信路、又は無線LAN及びブルートゥース(登録商標)などの無線の通信路である。画像処理装置100は、例えば表示装置300の周囲に設置されたコンピュータで構成されている。但し、これは一例であり、画像処理装置100は、クラウドサーバで構成されてもよい。この場合、画像処理装置100は、カメラ200及び表示装置300とインターネットを介して接続される。画像処理装置100は、カメラ200で撮像された人物400の画像データから、人物400の視線情報を検出し、表示装置300に出力する。画像処理装置100は、カメラ200又は表示装置300にハードウェアとして組み込まれてもよい。カメラ200又は表示装置300がプロセッサを備え、画像処理装置100がソフトウェアとして組み込まれていてもよい。
カメラ200は、例えば所定のフレームレートで表示装置300の周囲の環境を撮影することにより、表示装置300の周囲に位置する人物400の画像データを取得する。カメラ200は、取得した画像データを所定のフレームレートで順次に画像処理装置100に出力する。カメラ200は、可視光カメラであってもよいし、赤外光カメラであってもよい。
表示装置300は、例えば液晶パネル又は有機ELパネルなどの表示装置で構成されている。図1の例では、表示装置300は、サイネージディスプレイである。なお、図1の例では、画像処理システム1は、表示装置300を含むとして説明したが、これは一例であり、表示装置300に代えて、別の機器が採用されてもよい。例えば、画像処理システム1が視線により機器への入力を受け付けるユーザインターフェースとして利用されるのであれば、画像処理システム1は例えば表示装置300に代えて、冷蔵庫、テレビ、及び洗濯機などの家電機器が採用されてもよい。例えば、画像処理システム1が車両に搭載されるのであれば、表示装置300に代えて、自動車などの車両が採用されてもよい。さらに、表示装置300に代えてハードディスクドライブ、ソリッドステートドライブなどの記憶装置が採用されてもよい。
図2は、実施の形態1に係る画像処理システム1の詳細な構成の一例を示すブロック図である。画像処理装置100は、プロセッサ110を含む。プロセッサ110は、CPU、FPGAなどの電気回路である。プロセッサ110は、画像取得部111(取得部の一例)、特徴点検出部112、瞳検出部113、顔向き検出部114、垂直視線推定部116、水平視線推定部115、及び出力部117を含む。プロセッサ110が備える各ブロックは、プロセッサ110がコンピュータを画像処理装置として機能させる画像処理プログラムを実行することで実現されてもよいし、専用の電気回路で構成されてもよい。以下に記述される各ブロックの説明は、各ブロックの処理の概要であり、各ブロックの処理の詳細は後述のフローチャートを用いて説明される。
画像取得部111は、カメラ200が撮像した画像データを取得する。ここで、取得される画像データには、表示装置300の周囲の人物400の顔が含まれる。なお、画像取得部111が取得する画像データは、例えばウェブサイトに掲載された画像データであってもよいし、外部の記憶装置が記憶する画像データであってもよい。
特徴点検出部112は、画像取得部111が取得した画像データから、人物400の顔の特徴点の位置を検出する。顔の特徴点とは、例えば目尻、目頭、顔の輪郭、鼻筋、口角、及び眉毛などの顔を構成する複数の部品のそれぞれにおいて、特徴的な位置にある1又は複数の点である。特徴点はランドマークとも呼ばれる。特徴点検出部112は、例えば機械学習のフレームワークのモデルファイルを利用したランドマーク検出処理を実行することで顔の特徴点を検出すればよい。
瞳検出部113は、画像取得部111により取得された画像データから、人物400の左目及び右目のそれぞれの瞳の中心位置を検出する。本実施の形態において、瞳とは、図7に示すように、瞳孔55と、瞳孔55を取り囲むドーナツ状の虹彩56とを含む有色の部分を指す。
瞳検出部113は、後述する瞳孔外縁検出処理を画像データに適用することで瞳外縁を検出し、その瞳外縁の中心を瞳の中心位置として検出する。カメラ200が可視光カメラである場合、瞳孔外縁検出処理は瞳孔の外縁を検出することは困難であるが、虹彩の外縁を検出することは可能である。よって、カメラ200が可視光カメラである場合、瞳の中心位置は虹彩外縁の中心位置となる。カメラ200が赤外光カメラである場合、瞳孔外縁検出処理は、瞳孔外縁が検出可能である。よって、カメラ200が赤外光カメラである場合、瞳の中心位置は瞳孔外縁の中心位置となる。
顔向き検出部114は、特徴点検出部112により検出された特徴点の位置に基づいて、カメラ200の光軸に対する顔の向きの水平成分及び垂直成分を検出する。顔の向き水平成分は、光軸に対して顔の向きが水平方向の左側又は右側にどの程度向いているかを示す指標である。顔の向きの垂直成分は、光軸に対して顔の向きが垂直方向の上側又は下側にどの程度向いているかを示す指標である。水平方向とは、例えば地面と平行な方向であり、カメラ200が撮影する画像データのX軸に対応する。垂直方向とは、例えば地面と直交する方向であり、カメラ200が撮影する画像データのY軸に対応する。
図3は、顔向き検出部114の詳細な構成を示すブロック図である。顔向き検出部114は、水平顔向き検出部1141及び垂直顔向き検出部1142を含む。水平顔向き検出部1141は顔の向きの水平成分を検出する。垂直顔向き検出部1142は、顔の向きの垂直成分を検出する。
図2に参照を戻す。水平視線推定部115は、顔向き検出部114により検出された顔の向きの水平成分と、瞳検出部113により検出された瞳の中心位置及び特徴点検出部112により検出された特徴点の位置間の距離とに基づいて、光軸に対する人物400の視線方向の水平成分を推定する。
本実施の形態では、特徴点には左目及び右目のそれぞれの目尻及び目頭が含まれる。目尻及び目頭を利用した水平視線推定部115の処理は以下の通りである。水平視線推定部115は、瞳の中心位置及目頭の位置間の第1距離を算出する。第1距離を算出した水平視線推定部115は、瞳の中心位置及び目尻の位置間の第2距離を算出する。第2距離を算出した水平視線推定部115は、第1距離と第2距離との割合に基づいて顔の向きに対する瞳の方向である瞳方向の水平成分を推定する。そして、水平視線推定部115は、推定した瞳方向の水平成分と、顔の向きの水平成分とを合成し、視線方向の水平成分を推定する。この目尻及び目頭を利用した推定処理は、左目及び右目のそれぞれに対して適用される。
本実施の形態では、特徴点は、顔の中心位置が含まれてもよい。顔の中心位置を利用した水平視線推定部115の処理は下記の通りである。水平視線推定部115は、人物400の左右それぞれの瞳の中心位置から、左右それぞれの瞳の中心位置間の中点を検出する。この中点を検出した水平視線推定部115は、顔の中心位置と前記中点とのずれを検出する。このずれを検出した水平視線推定部115は、このずれに基づいて瞳方向の水平成分を推定する。以下、水平視線推定部115は、目尻及び目頭を利用した場合と同様に、視線方向の水平成分を推定すればよい。この顔の中心位置を利用した推定処理は左目及び右目のそれぞれに適用される。
垂直視線推定部116は、顔向き検出部114により検出された顔の向きの垂直成分に基づいて、光軸に対する人物400の視線方向の垂直成分を推定する。本実施の形態では、垂直視線推定部116は、顔の向きの垂直成分を視線方向の垂直成分として推定する。
出力部117は、水平視線推定部115により推定された視線方向の水平成分と、垂直視線推定部116により推定された視線方向の垂直成分とを含む視線情報を生成し、表示装置300に出力する。出力部117は、視線方向に基づいて表示装置300の表示面(対象面)における注視点を算出し、この注視点を視線情報に含めてもよい。
注視点を算出した出力部117は、表示装置300で表示されているオブジェクト301の情報を取得し、取得した情報と注視点の座標データとから人物400が注視するオブジェクト301(注視オブジェクト)を特定し、特定結果を表示装置300に出力してもよい。
カメラ200は、図1で説明したため、ここでは説明を省略する。
表示装置300は、例えば出力部117から出力された視線情報を示すマーカーを表示する。注視オブジェクトの特定結果を出力部117から取得した場合、表示装置300は、注視オブジェクトを示すマーカーを表示してもよい。
画像処理システム1が、表示装置300に代えて家電機器で構成される場合、家電機器は視線情報から人物400の入力を受け付ける。画像処理システム1が、表示装置300に代えて記憶装置で構成される場合、記憶装置は、視線情報を記憶する。この場合、記憶装置は視線情報にタイムスタンプを対応付けて記憶してもよい。
次に、画像処理装置100の動作について説明する。図4は、実施の形態1に係る画像処理装置100の動作の一例を示すフローチャートである。ステップS1では、画像取得部111は、カメラ200から画像データを取得する。ステップS2では、特徴点検出部112は、顔領域を検出するための分類器に画像データを入力することにより、画像データから顔領域を検出する。この分類器は、例えばオープンソースによる画像処理ライブラリにおいて顔領域を検出するために予め作成されたハール(Haar)状のカスケード分類器である。顔領域は、例えば顔の全体を含む程度のサイズを持つ矩形状の領域である。但し、これは一例であり、顔領域の形状は矩形以外の例えば、3角形、5角形、6角形、又は8角形などであってもよい。なお、特徴点検出部112は、パターンマッチングにより顔領域を検出してもよい。
図5は、顔領域40を示す図である。図5に示すように、特徴点検出部112は、額の上部と顎の下部と、耳の生え際とを含む矩形状の領域を顔領域40として検出している。ここでは、顔領域40は髪の全体を含んでいないが、髪の全体を含む領域であってもよい。図5では、画像データは人物400を正面から撮影した画像データであるため、左目と右目とが含まれている。本実施の形態では、説明の便宜上、右目とは人物400を正面から見て右側にある目のことを指し、左目とは人物400を正面から見て左側にある目のことを指す。但し、これは一例であり、人物400から見て右側にある目を右目、人物400から見て左側にある目を左目としてもよい。また、本実施の形態では、紙面の右側の方向を右方、紙面の左側の方向を左方とする。
図4に参照を戻す。ステップS3では、ステップS2で検出された顔領域40に上述のランドマーク検出処理を適用し、顔の特徴点を検出する。
図6は、顔領域40に対して設定された顔の特徴点9Xを示す図である。図6に示すように、顔領域40に対してランドマーク検出処理が適用されることにより、複数の特徴点9Xが顔領域40から検出されている。図6の例では、ランドマーク検出処理によって検出される特徴点9Xのうち、視線情報の検出に必要となる特徴点9Xが示されている。図6の例では、鼻筋上に位置する例えば5個の特徴点9Xと、鼻の下側に位置する例えば2個の特徴点9Xと、顔の輪郭上に位置する例えば17個の特徴点9Xとが検出されている。さらに、図6の例では、左右の目頭92に位置する2個の特徴点9Xと、左右の目尻93に位置する2個の特徴点9Xとが検出されている。なお、特徴点9Xは、それぞれランドマーク点番号が付与されており、どのランドマーク点番号の特徴点が顔のどの部位を示すかは予め定められている。例えば、ランドマーク点番号が「2」の特徴点9Xは左の目尻93を示し、ランドマーク点番号が「0」の特徴点は左の目頭92を示すというように、各特徴点9Xにはランドマーク点番号が設定されている。そのため、特徴点検出部112は、ランドマーク点番号から特徴点9Xが顔のどの部位を示しているのかを特定できる。
図4に参照を戻す。ステップS4では、瞳検出部113は、目領域を検出するための分類器にステップS2で検出された顔領域40を入力し、目領域を検出する。この分類器は、例えばオープンソースによる画像処理ライブラリにおいて目検出領域を検出するために予め作成されたハール状のカスケード分類器である。目領域は、目の大きさに所定のマージンを加えた程度のサイズを持つ矩形状の領域である。但し、これは一例であり、目領域の形状は矩形以外の、例えば、3角形、5角形、6角形、又は8角形などであってもよい。顔領域に人物400の2つの目が含まれている場合、瞳検出部113は2つの目のそれぞれに対応する2つの目領域50を設定する。なお、瞳検出部113はパターンマッチングにより目領域50を設定してもよい。本実施の形態において、目とは、図7に示すように上瞼の境界53と下瞼の境界54とによって取り囲まれる、白目と、黒目などの有色の部分とを含む領域を指す。
図7は、目領域50を示す図である。図7に示すように、目領域50は、目の全域を含み、目の大きさに多少のマージンが加えられた矩形状の領域であることが分かる。なお、目領域50の境界を目に対してどの位置に設定するかは、分類器の性能に依存する。したがって、分類器の性能に応じて目領域50のサイズは相違する。例えば、目領域50の上側の境界が上瞼の眉毛付近にまで及ぶこともあり得る。また、目領域50の鼻側の境界が鼻付近にまで及び、目領域50の耳側の境界がこめかみ付近にまで及ぶこともあり得る。図7の例では、顔領域40に左右の目が含まれていたため、瞳検出部113は、右目及び左目のそれぞれに対応する2つの目領域50を設定している。
図4に参照を戻す、ステップS5では、瞳検出部113は、ステップS4で検出された目領域50から瞳の中心位置を検出する。以下、ステップS5の処理の詳細について説明する。まず、瞳検出部113は、目領域50を二値化する。図8は、二値化された目領域50を示す図である。ここでは、例えば大津の二値化と呼ばれる手法が採用されている。図8では、輝度が閾値より低い箇所が白、輝度が閾値以上の箇所が黒で表されている。
次に、瞳検出部113は、二値化された目領域50に現れる白の島にラベリング番号を付与するラベリング処理を行う。図8の例では、上睫毛の左側が1つの島61とみなされ、島61に「1」のラベリング番号が付与されている。上睫毛の右側が1つの島62とみなされ、島62に「2」のラベリング番号が付与されている。瞳孔が1つの島63とみなされ、島63に「3」のラベリング番号が付与されている。下睫毛が一つの島64とみなされ、島64に「4」のラベリング番号が付与されている。
次に、瞳検出部113は、ラベリングした島61〜64のそれぞれに対して、所定の判定条件を満たすか否かを判定し、判定条件を満たす島を瞳孔として判定する。判定条件としては、所定の瞳孔最小面積以上、所定の瞳孔最大面積以下という条件が採用できる。瞳孔最小面積とは、画像データにおいて想定される瞳孔の最小面積であり、瞳孔最大面積とは、画像データにおいて想定される瞳孔の最大面積である。判定条件を満たす島が複数ある場合、瞳検出部113は、例えば面積が最大の島を瞳孔と判定してもよい。ここでは、島63が瞳孔と判定される。
次に、瞳検出部113は、瞳孔の中心を検出する。ここでは、瞳孔の島63の例えば重心が瞳孔の中心として検出される。
図8に示す画像は、赤外光カメラによって撮影された画像である。赤外光カメラで撮影された画像データでは、瞳孔と虹彩との間に大きな輝度変化が現れる。そのため、図8の例では、二値化によって瞳孔の島63が検出されている。一方、可視光カメラで撮影された画像データでは、瞳孔と虹彩との間に大きな輝度変化が現れず、虹彩と白眼との境界で大きな輝度変化が現れる。
そこで、瞳検出部113は、例えばカメラ200が赤外光カメラである場合、二値化した目領域50から瞳孔を検出する。一方、瞳検出部113は、例えばカメラ200が可視光カメラである場合、二値化した目領域50から虹彩を検出する。この場合、瞳検出部113は、判定条件として、所定の虹彩最小面積以上、所定の虹彩最大面積以下という条件を採用すればよい。ここで言う、虹彩最小面積及び虹彩最大面積とは、ドーナツ状である虹彩そのものの面積を指すのではなく、虹彩に瞳孔を含めた領域、すなわち瞳の最大面積及び最小面積のことを指す。この場合、瞳検出部113は、虹彩の中心を検出すればよい。虹彩の中心としては、虹彩を示す島の例えば重心が採用できる。
次に、瞳検出部113は、瞳孔の外縁を検出する瞳孔外縁検出処理を実行する。瞳孔外縁検出処理としては、John G. Daugmanの提唱する手法(以下、「ドーグマンアルゴリズム」と呼ぶ。)の一部を利用した瞳孔外縁検出処理を採用すればよい。ドーグマンアルゴリズムは、「High Confidence Visual Recognition of Persons by a Test of Statistical Independence: John G. Daugman(1993)」の文献にて開示されている。
具体的には、瞳孔外縁検出処理において、まず、瞳検出部113は、二値化した目領域50から検出した瞳孔の中心を円の中心として、所定の瞳孔最小半径を持つ円を設定する。次に、瞳検出部113は、設定した円の円周上の輝度の合計値を周回積分により求める。次に、瞳検出部113は、直前に設定した円の半径を1ピクセル分、径方向に広げた円に対して周回積分を行うことにより輝度の合計値を求める。次に、瞳検出部113は、この処理を、所定の瞳孔最大半径まで繰り返し実行する。これにより、複数の半径と、複数の半径のそれぞれに対応する輝度の合計値との関係を示す関数が得られる。次に、瞳検出部113は、この関数を半径について偏微分して、隣り合う半径同士の輝度の合計値の最大変化量を求め、この最大変化量が検出された位置の半径の円を瞳孔外縁として検出する。次に、瞳検出部113は、瞳孔外縁の中心を瞳の中心位置として決定する。これで、ステップS5の処理は終了となる。
なお、画像データが可視光カメラで撮影された画像データである場合、瞳検出部113は、二値化された目領域50に対して瞳孔外縁検出処理を適用することによって虹彩外縁を検出する。したがって、画像データが可視光カメラで撮影された画像データである場合、ステップS5で最終的に得られる瞳の中心位置は、虹彩外縁の中心位置となる。
従来、瞳孔外縁検出処理としてはハフ(Haugh)円検出処理が広く用いられている。しかし、画像データに含まれる人物400の瞳孔は正円ばかりではなく、いびつに変形しているケースもある。また、画像データに含まれる人物400が細目のケース及び顔を横に向けているケースもある。これらのケースでは瞳孔が正円ではなくなるため、ハフ円検出処理では瞳孔外縁を正確に検出できない可能性がある。
そこで、本実施の形態では、ドーグマンアルゴリズムの一部を利用した瞳孔外縁検出処理を採用する。これにより、本実施の形態では、瞳孔が正円からいびつに変形したケース、細目のケース、及び顔の向きが横向きのケースというような様々なケースにおいて、瞳孔外縁検出処理に対するロバスト性が高められている。
図4に参照を戻す。ステップS6では、水平顔向き検出部1141は、ステップS3で検出された顔の特徴点に基づいて顔の向きの水平成分を検出する。さらに、ステップS6では、垂直顔向き検出部1142は、ステップS3で検出された顔の特徴点に基づいて顔の向きの垂直成分を検出する。
顔の向きの水平成分の処理の詳細は下記の通りである。図9は、顔の向きの水平成分を検出する処理の説明図である。図9の左図は顔が左方を向いている状態を示す。図9の右図は顔が右方を向いている状態を示す。
図9の左図を参照する。まず、水平顔向き検出部1141は、顔領域40に設定された顔の特徴点9Xから縦方向の縦中心線131と横方向の横中心線132とを設定する。例えば、水平顔向き検出部1141は、鼻筋の中心を示す特徴点133を通り、且つ顔領域40の縦の辺と平行な直線を縦中心線131として設定すればよい。特徴点133は、例えば鼻筋を示す5個の特徴点9Xのうち、上から3番目の特徴点9Xである。水平顔向き検出部1141は、例えば特徴点133を通り、且つ顔領域40の横の辺と平行な直線を横中心線132として設定すればよい。縦中心線131及び横中心線132は、鼻筋の中心の特徴点133を通るとして説明したが、例えば鼻筋の下端の特徴点134を通るように設定されてもよいし、鼻筋の上端の特徴点135を通るように設定されてもよい。
次に、水平顔向き検出部1141は、横中心線132を特徴点133で区画し、右区間K1と左区間K2との長さを求める。次に、水平顔向き検出部1141は、横中心線132の長さを100%としたときの右区間K1と左区間K2との割合を求め、この割合に基づいて顔の向きの水平成分を求める。例えば、右区間K1の割合をα1、左区間K2の割合をα2とし、右方を正とする。この場合、水平顔向き検出部1141は、図9の左図に示されるように、割合α2が割合α1より小さければ、顔は左方を向いていると判定する。図9の右図に示されるように、割合α1が割合α2より小さければ、水平顔向き検出部1141は、顔は右方を向いていると判定する。割合α2が割合α1と概ね等しければ、水平顔向き検出部1141は、顔は正面を向いていると判定する。概ね等しいとは、割合α2と割合α1との多少の相違を許容することを意味している。例えば、水平顔向き検出部1141は、割合α2と割合α1との両方が50%に対してプラスマイナスΔαの範囲内にある場合、顔は正面を向いていると判定すればよい。Δαの一例は2%、5%、8%、10%などである。
次に、水平顔向き検出部1141は、割合α1及び割合α2のうち小さい方の割合を50から減じる。例えば、図9の左図に示すように、割合α2が割合α1より小さければ、水平顔向き検出部1141は、50−α2を求める。図9の右図に示すように割合α1が割合α2より小さければ、水平顔向き検出部1141は、は、50−α1を求める。次に、水平顔向き検出部1141は、顔が右方を向いている場合は、右方が正であるため、50−α1を顔の向きの水平成分として算出する。一方、水平顔向き検出部1141は、顔が左方を見ている場合、左方が負であるため、−(50−α2)を顔の向きの水平成分として算出する。
これにより、顔の向きの水平成分の値がプラスの方向に増大するにつれて、顔の向きはより右方を向いていることを示し、顔の向きの水平成分の値がマイナスの方向に増大するにつれて、顔の向きはより左方を向いていることを示す。また、顔の向きの水平成分が0の場合、顔の向きは正面方向であることを示す。以上により、顔の向きの水平成分が算出される。顔の向きの水平成分を求める手法は、上述の手法に限らず、顔の向きの水平成分が算出可能な手法であればどのような手法が採用されてもよい。例えば、顔向きの水平成分は、割合α1と割合α2とのうち大きい方の値から50を引いた値が採用されてもよい。また、顔の向きの水平成分は左方が正とされてもよい。
次に、顔の向きの垂直成分について説明する。図10は、顔の向きの垂直成分を検出する処理の説明図である。図10の左図は顔が上方を向いている状態を示す。図10の右図は顔が下方を向いている状態を示す。
図10の左図を参照する。まず、垂直顔向き検出部1142は、鼻筋の中心を示す特徴点133を通り、且つ顔領域40の横の辺と平行な直線である横中心線132を顔領域40に設定する。なお、横中心線132は、特徴点133以外の鼻筋の特徴点に設定されてもよい。この横中心線132の設定は、水平顔向き検出部1141の設定結果が利用されてもよい。
次に、垂直顔向き検出部1142は、顔領域40の縦辺を、縦辺と横中心線132との交点136で区画し、上区間K3と下区間K4との長さを求める。次に、垂直顔向き検出部1142は、前記縦辺の長さを100%としたときの上区間K3と下区間K4との割合を求め、この割合に基づいて顔の向きの垂直成分を求める。例えば、上区間K3の割合をα3、下区間K4の割合をα4とし、上方を正とする。この場合、垂直顔向き検出部1142は、図10の左図に示されるように、割合α3が割合α4より小さければ、顔は上方を向いていると判定する。図10の右図に示されるように、割合α4が割合α3より小さければ、垂直顔向き検出部1142は、顔は下方を向いていると判定する。割合α3が割合α4と概ね等しければ、垂直顔向き検出部1142は、顔は正面を向いていると判定する。割合α3と割合α4とが概ね等しいとは、上述の割合α1と割合α2とが概ね等しいと同じ意味である。
次に、垂直顔向き検出部1142は、割合α3及び割合α4のうち小さい方の割合を50から減じる。例えば、図10の左図に示すように、割合α3が割合α4より小さければ、垂直顔向き検出部1142は、50−α3を求める。図10の右図に示すように割合α4が割合α3より小さければ、垂直顔向き検出部1142は、は、50−α4を求める。次に、垂直顔向き検出部1142は、顔が上方を向いている場合は、上方が正であるため、50−α3を顔の向きの垂直成分として算出する。一方、垂直顔向き検出部1142は、顔が下方を見ている場合、上方が正であるため、−(50−α4)を顔の向きの垂直成分として算出する。
これにより、顔の向きの垂直成分の値がプラスの方向に増大するにつれて、顔の向きはより上方を向いていることを示し、顔の向きの垂直成分の値がマイナスの方向に増大するにつれて、顔の向きはより下方を向いていることを示す。また、顔の向きの垂直成分が0の場合、顔の向きは正面方向であることを示す。以上により顔の向きの垂直成分が算出される。顔の向きの垂直成分を求める手法は、上述の手法に限らず、顔の向きの垂直成分が算出可能な手法であればどのような手法が採用されてもよい。例えば、顔の向きの垂直成分は、割合α3及び割合α4のうち大きい方の割合から50を減じた値が採用されてもよい。また、顔の向きの垂直成分は下方が正にされてもよい。
図4に参照を戻す。ステップS7において、水平視線推定部115は、ステップS3で顔の特徴点として検出された目尻及び目頭と、ステップS5で検出された瞳の中心位置とを用いて瞳方向の水平成分を推定する。
図11は、瞳方向の水平成分を検出する処理の第1例の説明図である。図11では右目が示されている。第1例では、目尻及び目頭を用いて瞳方向の水平成分が算出される。まず、水平視線推定部115は、目頭92と、瞳の中心位置622とのX方向の距離である第1距離D1を算出する。水平視線推定部115は、目尻93と瞳の中心位置622とのX方向の距離である第2距離D2を算出する。この場合、第1距離D1は、目頭92のX座標と瞳の中心位置622のX座標との差分の絶対値で算出される。第2距離D2は、目尻93のX座標と瞳の中心位置622のX座標との差分の絶対値で算出される。次に、水平視線推定部115は、目頭92のX座標と目尻93のX座標との距離を100%としたときの第1距離D1と第2距離D2との割合β1と割合β2とを算出する。上述の処理は左右の目のそれぞれに対して実行される。
図12は、図11に続く説明図である。図12の左図は顔がほぼ正面を向いた状態で、瞳が左方を向いた状態を示す。図12の右図は顔がほぼ正面を向いた状態で瞳が右方を向いた状態を示す。図12において、Lβ1及びLβ2は左目の第1距離D1及び第2距離D2の割合を示し、Rβ1及びRβ2は右目の第1距離D1及び第2距離D2の割合を示している。
図12の左図では、左右の瞳が左方に寄っている。よって、左目は第2距離D2が短く、右目は第1距離D1が短くなっている。図12の右図では、左右の瞳が右方に寄っている。よって、左目は第2距離D2が長く、右目は第1距離D1が長くなっている。
以上をふまえ、瞳方向の水平成分は下記のように算出される。以下、瞳が右方に寄っている場合を正とする。水平視線推定部115は、瞳が左方に寄っているか右方に寄っているかを判定する。この場合、水平視線推定部115は、例えば右目に着目し、割合Rβ1が割合Rβ2より小さければ瞳は左寄りと判定し、割合Rβ2が割合Rβ1より小さければ瞳は右寄りと判定すればよい。左目に着目した場合、水平視線推定部115は、割合Lβ2が割合Lβ1より小さければ、瞳は左寄りと判定し、割合Lβ1が割合Lβ2より小さければ、瞳は右寄りと判定すればよい。
瞳が左方に寄っている場合、図12の左図に示すように、左目の第2距離D2の割合Lβ2と右目の第1距離D1の割合Rβ1との平均値を算出し、50からこの平均値を減じた値にマイナスを乗じた値を、瞳方向の水平成分として算出する。平均値を算出しているのは、瞳方向は、左右の目で大差がないからである。50から平均値を引いているのは、瞳が顔の正面から左方又は右方に寄るにつれて、瞳方向の水平成分の値を大きくするためである。マイナスを乗じているのは右方を正にするためである。
瞳が右方に寄っている場合、水平視線推定部115は、図12の右図に示すように、左目の第1距離D1の割合Lβ1と右目の第2距離D2の割合Rβ2との平均値を算出し、50からこの平均値を減じた値を瞳方向の水平成分として算出する。
これにより、瞳方向の水平成分の値がプラスの方向に増大するにつれて、顔の正面に対して瞳がより右方を向いていることを示し、瞳方向の水平成分の値がマイナスの方向に増大するにつれて、顔の正面に対して瞳がより左方を向いていることを示す。また、瞳方向の水平成分が0の場合、瞳が顔の正面を向いていることを示す。以上により瞳方向の水平成分が算出される。瞳方向の水平成分を求める手法は、上述の手法に限らず、瞳方向の水平成分が算出可能な手法であればどのような手法が採用されてもよい。例えば、上述の例では、割合β1及び割合β2のうち小さい方の割合が用いられていたが、割合β1及び割合β2のうち大きい方の割合が用いられてもよい。この場合、大きい方の割合から50を減じることで瞳方向の水平成分が算出されてもよい。また、瞳方向の水平成分は、左方が正にされてもよい。
次に、瞳方向の水平成分を検出する処理の第2例について説明する。第2例では、顔の中心位置を用いて瞳方向の水平成分が検出される。図13は、瞳方向の水平成分を検出する処理の第2例の説明図である。水平視線推定部115は、左の目頭92のX座標と右の目頭92のX座標とを繋ぐ線分L2の中点を顔の中心位置142として検出する。次に、水平視線推定部115は、左の瞳の中心位置622のX座標と、右の瞳の中心位置のX座標とを繋ぐ線分L1の中点141を検出する。
次に、水平視線推定部115は、中点141と中心位置142とのずれ143を瞳方向の水平成分として検出する。例えば、右方が正とすると、中心位置142に対して中点141が左方に位置する場合、ずれの絶対値にマイナスを付した値が瞳方向の水平成分として検出される。中心位置142に対して中点141が右方に位置する場合、ずれの絶対値が瞳方向の水平成分として検出される。以上により瞳方向の水平成分が算出される。
図4に参照を戻す。ステップS8において水平視線推定部115は、ステップS6で検出した顔の向きの水平成分とステップS7で検出した瞳方向の水平成分とを合成して、視線方向の水平成分を推定する。例えば、視線方向の水平成分は、顔の向きの水平成分と瞳方向の水平成分とを所定の重み係数を用いて重み付け加算することで算出される。但し、これは一例であり、視線方向の水平成分は、顔の向きの水平成分と瞳方向の水平成分とを重み付けせずに加算して算出されてもよい。
図14は、光軸151、顔の向き152、瞳方向153、及び視線方向154の関係を示した図である。図14の例では、人物400を上方から見た状態が示されている。
図14の例では、顔の向き152は光軸151に対して左回りの方向にある。図14の例では、左回りがマイナス、右回りがプラスとされている。図14の例では、顔の向き152は光軸151に対して左回りの方向にある。そのため、光軸151を基準とする顔の向き152の水平成分は、光軸151と顔の向き152との角度(−θ1)に相当する値を持つ。また、瞳方向153は顔の向き152に対して右回りの方向にある。そのため、顔の向き152を基準とする瞳方向153の水平成分は、顔の向き152と瞳方向153との角度(+θ2)に相当する値を持つ。したがって、光軸151を基準とする視線方向154の水平成分は、光軸151と瞳方向153との角度(−θ3=−θ1+θ2)に相当する値を持つ。
これに対して、瞳が瞳方向155に向いていたとする。この場合、瞳方向155は顔の向き152に対して左回りの方向にある。そのため、顔の向き152を基準とする瞳方向155の水平成分は顔の向き152と瞳方向155との角度(−θ4)に相当する値を持つ。したがって、光軸151を基準とする視線方向156の水平成分は、光軸151と瞳方向155との角度(−θ4=−θ1−θ4)に相当する値を持つ。
図4に参照を戻す。ステップS9では、垂直視線推定部116は、ステップS6で検出された顔の向きの垂直成分を視線方向の垂直成分として推定する。
ステップS10では、出力部117は、ステップS8で推定された視線方向の水平成分と、ステップS9で推定された視線方向の垂直成分とを含む視線情報を生成し、表示装置300に出力する。
このように、本実施の形態によれば、光軸に対する視線方向の水平成分は、顔の向きの水平成分と、瞳方向の水平成分とを合成することで推定されている。光軸に対する視線方向の垂直成分は、顔の向きの垂直成分に基づいて推定されている。このように、本実施の形態では、光軸に対する視線方向の水平成分及び垂直成分のそれぞれが異なるパラメータを用いて推定されている。よって、本実施の形態は、視線方向の検出精度をさらに向上させることができる。さらに、本実施の形態は、上述したような相関関係を事前に学習することが不要である。よって、本実施の形態は少ない処理ステップ数で高精度に視線方向を検出できる。
(実施の形態2)
実施の形態2は、上まぶた及び下まぶたを考慮に入れて視線方向の垂直成分を求めることを特徴とする。図15は、本開示の実施の形態2に係る画像処理システム1Aの全体構成の一例を示す図である。以下の説明では、実施の形態1との相違点を中心に説明する。プロセッサ110Aは、さらに、まぶた検出部118を含む。垂直視線推定部116Aは、実施の形態1の垂直視線推定部116に対して処理内容が相違するため、符号の末尾にAが付されている。
まぶた検出部118は、画像取得部111が取得した画像データに対して後述のまぶた検出処理を適用し、上まぶたの位置及び下まぶたの位置を検出する。
垂直視線推定部116Aは、瞳検出部113により入力された瞳の中心位置及びまぶた検出部118により入力された上まぶたの位置間の第3距離と、前記瞳の中心位置及びまぶた検出部118により入力された下まぶた間の第4距離とを検出する。垂直視線推定部116Aは、第3距離と第4距離との割合に基づいて瞳方向の垂直成分を推定する。垂直視線推定部116Aは、瞳方向の垂直成分と、顔向き検出部114により検出された顔の向きの垂直成分とを合成することによって視線方向の垂直成分を推定する。
次に、画像処理システム1Aの動作について説明する。図16は、実施の形態2に係る画像処理システム1Aの動作の一例を示すフローチャートである。なお、図16において図4と同じ処理については、同じ処理番号が付されている。
ステップS8に続くステップS101では、まぶた検出部118は目領域50に対してまぶた検出処理を適用して上まぶたの位置及び下まぶたの位置を検出する。以下、まぶた検出処理の詳細を説明する。図17は、まぶた検出処理の説明図である。
まぶた検出部118は、二値化される前の目領域50を用いる。まず、まぶた検出部118は、目領域50に対して、ステップS5で検出された瞳の中心位置622を設定する。次に、まぶた検出部118は、瞳の中心位置622の上側にY軸と平行な上垂直線183を設定する。次に、まぶた検出部118は、上垂直線183上を瞳の中心位置622から上まぶたに向けて輝度の明るい側への変化が最大になる位置を探索し、この変化が最大になる位置を上まぶたの位置181として検出する。上まぶたの位置181を検出したまぶた検出部118は、瞳の中心位置622の下側にY軸と平行な下垂直線184を設定する。そして、まぶた検出部118は下垂直線184上を瞳の中心位置622から下まぶたに向けて輝度の明るい側への変化が最大になる位置を探索し、この変化が最大になる位置を下まぶたの位置182として検出する。なお、この探索処理の詳細は、ドーグマンアルゴリズムにおける虹彩外縁の検出処理を利用した処理が用いられる。
図16に参照を戻す。ステップS102では、垂直視線推定部116Aは、ステップS101で検出された上まぶたの位置181及び下まぶたの位置182を用いて瞳方向の垂直成分を推定する。
再び、図17を参照する。垂直視線推定部116Aは、瞳の中心位置622から上まぶたの位置181までの垂直方向の距離である第3距離D3を検出する。垂直視線推定部116Aは、瞳の中心位置622から下まぶたの位置182までの垂直方向の距離である第4距離D4を検出する。
垂直視線推定部116Aは、上まぶたの位置181から下まぶたの位置182までの垂直方向の距離を100%としたときの第3距離D3の割合γを算出する。ここで、瞳が正面方向を向いている場合の割合γを基準割合(例えば、0.6)とおき、上方向を正とする。この場合、瞳が上寄りになるにつれて、割合γは基準割合から減少していく。瞳が下寄りになるにつれて、割合γは基準割合よりも増大していく。そこで、垂直視線推定部116Aは、基準割合から割合γを減じた値を瞳方向の垂直成分として推定する。これにより、瞳が上寄りになるにつれて瞳方向の垂直成分の値はプラスの方向に増大し、瞳が下寄りになるにつれて瞳方向の垂直成分の値はマイナスの方向に増大する。
ステップS103では、垂直視線推定部116Aは、ステップS6で検出された顔の向きの垂直成分と、ステップS102で推定された瞳方向の垂直成分とを合成し、視線方向の垂直成分を推定する。例えば、視線方向の垂直成分は、顔の向きの垂直成分と瞳方向の垂直成分とを所定の重み係数を用いて重み付け加算することで算出される。但し、これは一例であり、視線方向の垂直成分は、顔の向きの垂直成分と瞳方向の垂直成分とを重み付けせずに加算されてもよい。
このように、本実施の形態によれば、瞳方向の垂直成分を考慮に入れて視線方向の垂直成分が推定されているため、視線方向の検出精度をさらに向上させることができる。
(実施の形態3)
実施の形態3は、人物400の関心度を推定するものである。図18は、実施の形態3に係る画像処理システム1Bの詳細な構成を示すブロック図である。なお、本実施の形態において実施の形態1、2と同一の構成要素には同一の符号を付し、説明を省略する。また、図18において、図2と名称が同一であるが機能が異なるブロックには末尾にBの符号が付されている。
プロセッサ110Bは、さらに関心度推定部119を含む。関心度推定部119は、以下の処理により人物400の関心度を推定する。まず、関心度推定部119は、特徴点検出部112により検出された顔の特徴点9Xを用いて、顔領域40からまゆげ及び口角を検出する。ここで、関心度推定部119は、特徴点検出部112により検出された顔の特徴点9Xにおいて、まゆげ及び口角のそれぞれに対応するランドマーク点番号が付された特徴点9Xを特定することで、まゆげ及び口角を検出すればよい。
次に、関心度推定部119は、出力部117から入力された視線情報と、検出したまゆげの位置及び口角の位置とに基づいて人物400の関心度を推定し、表示装置300に出力する。具体的には、関心度推定部119は、例えば、人が喜び、驚き、怒り、悲しみ、及び無表情等の各種表情をしている際のまゆげ及び口角の標準的な位置が予め記述されたパターンデータを例えばメモリ(図略)から取得する。関心度推定部119は、検出した人物400のまゆげ及び口角の位置と、パターンデータとを照合し、人物400の表情を推定する。関心度推定部119は、推定した人物400の表情と視線情報が示す視線とを用いて、人物400の視線がどの方向にある、又は人物400の注視点がどの位置にあるときに人物400がどのような表情を行ったかを特定する。すなわち、関心度推定部119は、人物400の視線情報と人物400の表情とを対応付けたデータを人物400の関心度として特定する。ここでは、関心度推定部119は、まゆげ及び口角に基づいて関心度を推定するとして説明したが、これは一例であり、まゆげ及び口角の一方に基づいて関心度を推定してもよい。
以上説明したように、本実施の形態によれば、視線情報に加えてまゆげ及び口角をさらに用いて人物400の関心度が推定されているため、視線情報のみに基づく関心度推定に比べてより高精度に関心度を推定できる。
(変形例)
(1)カメラ200として赤外光カメラが採用された場合、赤外光カメラは、太陽光のスペクトル強度が所定の第1波長よりも減衰した所定の第2波長の帯域の赤外光を用いる赤外光カメラで構成すればよい。所定の第1波長は、例えば850nmである。所定の第2波長は、例えば940nmである。第2波長の帯域は、例えば850nmを含まず、且つ940nmを基準(例えば中心)とする所定幅の帯域である。近赤外光を撮影する赤外光カメラとして、850nmの赤外光を用いるものが知られている。しかし、850nmでは太陽光のスペクトル強度が十分に減衰していないため、太陽光のスペクトル強度が強い屋外において高精度な視線検出ができない可能性がある。そこで、本開示は、赤外光カメラとして例えば940nmの帯域の赤外光を用いるカメラを採用する。これにより、太陽光のスペクトル強度が強い屋外においても高精度な視線検出を行うことができる。ここでは、所定の第2波長は940nmとしたが、これは一例であり、940nmから多少ずれた波長であってもよい。なお、第2波長の赤外光を用いる赤外光カメラは、例えば第2波長の赤外光を照射する投光器を備えるカメラである。
(2)上記実施の形態では、視線情報は注視点を示す座標データを含むとして説明したが、本開示はこれに限定されない。例えば、視線情報は、注視点を基準(例えば中心)とする所定サイズの所定形状(例えば円、四角形など)の領域である注視面を示す座標データを含んでいてもよい。これにより、人物400及び注視対象物間の距離又は注視対象物の大きさに依存することなく注視対象物を適切に判定できる。
本開示は、視線情報を高精度に検出できるため、瞳情報を用いた虹彩認証、視線情報を用いた人物の興味対象の推定、人物の状態推定、及び視線を用いたユーザインターフェースなどにおいて有用である。
1 :画像処理システム
100 :画像処理装置
110 :プロセッサ
111 :画像取得部
112 :特徴点検出部
113 :瞳検出部
114 :顔向き検出部
115 :水平視線推定部
116 :垂直視線推定部
117 :出力部
118 :まぶた検出部
119 :関心度推定部
200 :カメラ
300 :表示装置
400 :人物
1141 :水平顔向き検出部
1142 :垂直顔向き検出部

Claims (15)

  1. 画像処理装置における画像処理方法であって、
    撮像装置により撮像された画像データを取得し、
    前記画像データから、人物の顔の特徴点の位置を検出し、
    前記画像データから、前記人物の目の瞳の中心位置を検出し、
    前記特徴点の位置に基づいて、前記顔の向きの水平成分及び垂直成分を検出し、
    前記顔の向きの水平成分と、前記瞳の中心位置及び前記特徴点の位置間の距離とに基づいて、前記光軸に対する前記人物の視線方向の水平成分を推定し、
    少なくとも前記顔の向きの垂直成分に基づいて、前記視線方向の垂直成分を推定し、
    前記視線方向の水平成分及び垂直成分を含む視線情報を出力する、
    画像処理方法。
  2. 前記特徴点は、前記人物の目尻及び目頭を含む、
    請求項1記載の画像処理方法。
  3. 前記視線方向の水平成分の推定では、前記瞳の中心位置及び前記目尻の位置間の第1距離と前記瞳の中心位置及び前記目頭の位置間の第2距離との割合に基づいて前記顔の向きに対する前記瞳の方向である瞳方向の水平成分を推定し、前記顔の向きの水平成分と前記瞳方向の水平成分とを合成することによって前記視線方向の水平成分を推定する、
    請求項2記載の画像処理方法。
  4. 前記特徴点は、前記顔の中心位置を含む、
    請求項1記載の画像処理方法。
  5. 前記視線方向の水平成分の推定では、前記人物の左右それぞれの瞳の中心位置の中点と前記顔の中心位置とのずれに基づいて前記顔の向きに対する前記瞳の方向である瞳方向の水平成分を推定し、前記瞳方向の水平成分と前記顔の向きの水平成分とを合成することによって前記視線方向の水平成分を推定する、
    請求項4記載の画像処理方法。
  6. 前記視線方向の垂直成分の推定では、さらに前記瞳の中心位置及び前記人物の上まぶた間の第3距離と前記瞳の中心位置及び前記人物の下まぶた間の第4距離とを用いて前記視線方向の垂直成分を推定する、
    請求項1〜5のいずれかに記載の画像処理方法。
  7. 前記視線方向の垂直成分の推定では、前記第3距離と前記第4距離との割合に基づいて前記顔の向きに対する前記瞳の方向である瞳方向の垂直成分を推定し、前記瞳方向の垂直成分と前記顔の向きの垂直成分とを合成することによって前記視線方向の垂直成分を推定する、
    請求項6記載の画像処理方法。
  8. 前記特徴点は、まゆげ及び口角の少なくとも一方を含み、
    前記視線情報と、前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の関心度を推定する、
    請求項1〜7のいずれかに記載の画像処理方法。
  9. 前記まゆげの位置及び前記口角の位置の少なくとも一方に基づいて前記人物の表情を推定し、
    前記視線情報と、前記推定された表情を示す情報とに基づいて前記人物の関心度を推定する、
    請求項8記載の画像処理方法。
  10. 前記視線情報は、所定の対象面における前記人物の注視点を基準とする所定範囲の領域である注視面を示す情報を含む、
    請求項1〜9のいずれかに記載の画像処理方法。
  11. 前記画像データは、可視光カメラにより撮影されたものであり、
    前記瞳の中心位置は、虹彩の中心位置である、
    請求項1〜10のいずれかに記載の画像処理方法。
  12. 前記画像データは、赤外光カメラにより撮影されたものであり、
    前記瞳の中心位置は、瞳孔の中心位置である、
    請求項1〜10のいずれかに記載の画像処理方法。
  13. 前記画像データは、太陽光のスペクトル強度が所定の第1波長よりも減衰した所定の第2波長の帯域の赤外光を用いる赤外光カメラで撮影された画像データである、
    請求項1〜12のいずれかに記載の画像処理方法。
  14. 撮像装置により撮像された画像データを取得する取得部と、
    前記画像データから、人物の顔の特徴点の位置を検出する特徴点検出部と、
    前記画像データから、前記人物の目の瞳の中心位置を検出する瞳検出部と、
    前記特徴点の位置に基づいて、前記顔の向きの水平成分及び垂直成分を検出する顔向き検出部と、
    前記顔の向きの水平成分と、前記瞳の中心位置及び前記特徴点の位置間の距離とに基づいて、前記撮像装置の光軸に対する前記人物の視線方向の水平成分を推定する水平視線推定部と、
    少なくとも前記顔の向きの垂直成分に基づいて、前記視線方向の垂直成分を推定する垂直視線推定部と、
    前記視線方向の水平成分及び垂直成分を含む視線情報を出力する出力部とを備える、
    画像処理装置。
  15. 撮像装置により撮像された画像データを取得する取得部と、
    前記画像データから、人物の顔の特徴点の位置を検出する特徴点検出部と、
    前記画像データから、前記人物の目の瞳の中心位置を検出する瞳検出部と、
    前記特徴点の位置に基づいて、前記顔の向きの水平成分及び垂直成分を検出する顔向き検出部と、
    前記顔の向きの水平成分と、前記瞳の中心位置及び前記特徴点の位置間の距離とに基づいて、前記撮像装置の光軸に対する前記人物の視線方向の水平成分を推定する水平視線推定部と、
    少なくとも前記顔の向きの垂直成分に基づいて、前記視線方向の垂直成分を推定する垂直視線推定部と、
    前記視線方向の水平成分及び垂直成分を含む視線情報を出力する出力部としてコンピュータを機能させる画像処理プログラム。
JP2019206326A 2019-11-14 2019-11-14 画像処理方法、画像処理装置、及び画像処理プログラム Active JP6721169B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019206326A JP6721169B1 (ja) 2019-11-14 2019-11-14 画像処理方法、画像処理装置、及び画像処理プログラム
CN202080078610.7A CN114761999A (zh) 2019-11-14 2020-02-06 图像处理方法、图像处理装置以及图像处理程序
PCT/JP2020/004555 WO2021095278A1 (ja) 2019-11-14 2020-02-06 画像処理方法、画像処理装置、及び画像処理プログラム
US17/741,623 US20220270407A1 (en) 2019-11-14 2022-05-11 Image processing method, image processing device, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019206326A JP6721169B1 (ja) 2019-11-14 2019-11-14 画像処理方法、画像処理装置、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6721169B1 JP6721169B1 (ja) 2020-07-08
JP2021081788A true JP2021081788A (ja) 2021-05-27

Family

ID=71402425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019206326A Active JP6721169B1 (ja) 2019-11-14 2019-11-14 画像処理方法、画像処理装置、及び画像処理プログラム

Country Status (4)

Country Link
US (1) US20220270407A1 (ja)
JP (1) JP6721169B1 (ja)
CN (1) CN114761999A (ja)
WO (1) WO2021095278A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104524A (ja) * 2007-10-25 2009-05-14 Hitachi Ltd 視線方向計測方法および視線方向計測装置
WO2012105196A1 (ja) * 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
JP2015064513A (ja) * 2013-09-26 2015-04-09 カシオ計算機株式会社 表示装置、コンテンツ表示方法及びプログラム
JP2016162234A (ja) * 2015-03-02 2016-09-05 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
JP2018136770A (ja) * 2017-02-22 2018-08-30 沖電気工業株式会社 情報処理装置、方法および情報処理システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104524A (ja) * 2007-10-25 2009-05-14 Hitachi Ltd 視線方向計測方法および視線方向計測装置
WO2012105196A1 (ja) * 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
JP2015064513A (ja) * 2013-09-26 2015-04-09 カシオ計算機株式会社 表示装置、コンテンツ表示方法及びプログラム
JP2016162234A (ja) * 2015-03-02 2016-09-05 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
JP2018136770A (ja) * 2017-02-22 2018-08-30 沖電気工業株式会社 情報処理装置、方法および情報処理システム

Also Published As

Publication number Publication date
CN114761999A (zh) 2022-07-15
WO2021095278A1 (ja) 2021-05-20
US20220270407A1 (en) 2022-08-25
JP6721169B1 (ja) 2020-07-08

Similar Documents

Publication Publication Date Title
AU2020336048B2 (en) Virtual fitting systems and methods for spectacles
Ji et al. Eye and mouth state detection algorithm based on contour feature extraction
JP6930223B2 (ja) 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法
KR102093198B1 (ko) 시선 인식을 이용한 사용자 인터페이스 방법 및 장치
Peréz et al. A precise eye-gaze detection and tracking system
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
US20220148333A1 (en) Method and system for estimating eye-related geometric parameters of a user
US20170169501A1 (en) Method and system for evaluating fitness between wearer and eyeglasses
JP5578603B2 (ja) 視線制御装置、視線制御方法、及びそのプログラム
CN104766059A (zh) 快速精确的人眼定位方法及基于人眼定位的视线估计方法
US20220270287A1 (en) Eye gaze detection method, eye gaze detection device, and non-transitory computer readable storage medium
JPWO2016195066A1 (ja) 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置
WO2022137603A1 (ja) 判定方法、判定装置、及び判定プログラム
US20220075983A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
JPWO2018220963A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6745518B1 (ja) 視線検出方法、視線検出装置、及び制御プログラム
JP2016111612A (ja) コンテンツ表示装置
WO2021095278A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
TW201533609A (zh) 以輔助燈光相對位置為基礎之瞳孔定位方法、其系統以及其電腦程式產品
JP6757949B1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
Cao et al. Gaze tracking on any surface with your phone
Jeong et al. Eye pupil detection system using an ensemble of regression forest and fast radial symmetry transform with a near infrared camera
JP6209417B2 (ja) 目元印象評価装置および目元印象評価方法
García-Dopico et al. Precise Non-Intrusive Real-Time Gaze Tracking System for Embedded Setups.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200610

R150 Certificate of patent or registration of utility model

Ref document number: 6721169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250