JP6452235B2 - 顔検出方法、顔検出装置、及び顔検出プログラム - Google Patents
顔検出方法、顔検出装置、及び顔検出プログラム Download PDFInfo
- Publication number
- JP6452235B2 JP6452235B2 JP2014235232A JP2014235232A JP6452235B2 JP 6452235 B2 JP6452235 B2 JP 6452235B2 JP 2014235232 A JP2014235232 A JP 2014235232A JP 2014235232 A JP2014235232 A JP 2014235232A JP 6452235 B2 JP6452235 B2 JP 6452235B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- face posture
- coordinate system
- posture
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 122
- 210000001747 pupil Anatomy 0.000 claims description 197
- 238000012937 correction Methods 0.000 claims description 43
- 238000009795 derivation Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000001131 transforming effect Effects 0.000 claims 2
- 230000009466 transformation Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 93
- 238000007781 pre-processing Methods 0.000 description 90
- 230000006870 function Effects 0.000 description 83
- 239000013598 vector Substances 0.000 description 61
- 210000003128 head Anatomy 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 16
- 230000005484 gravity Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 210000003625 skull Anatomy 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
まず、対象者の顔方向(頭部方向)と視線Gとのそれぞれをいろいろな方向へ向けながら角度∠G’と角度∠Hとを有するデータを収集する。それらデータは、図16に示されるように、横軸が角度∠G’であり縦軸が角度∠Hである二次元座標にプロットされる。角度∠G’と角度∠Hとは、式(2)の関係を有する。従って、例えば最小二乗法等を利用して近似式を算出することにより、係数k1,k2を求めることができる。そうすると、係数k1,k2によって決定された関数を利用して、角度∠G’から角度∠Hを算出することが可能になる。そして、角度∠Hと顔方向H1とを角度∠Hの定義に適用すると、真値に近い基準顔方向H2を推定できる。なお、角度∠Hが大きくなった場合には、非線形成分を考慮することが望ましい。その場合には、下記式(3)に示される非線形関係式を使用してもよい。
顔検出方法における顔方向の補正効果を確認した。まず、ディスプレイ装置40の中心から75cm離間した位置に対象者Aの顎を固定する台を配置した。対象者は、この台に顎を載せて顔面をディスプレイ装置40に対して正対させた。この状態では、対象者Aの顔方向は、ディスプレイ装置40の中心に向かう方向である。この状態において、まず注視点の一点較正を実施した。次に、対象者Aは、ディスプレイ装置40上に表示した9個の視標TGに順次視線を向けた。各視標TGを注視する時間はおよそ1秒間である。図8(a)は、顔検出方法に係る補正を行わなかった場合の結果を示し、図8(a)は、顔検出方法に係る補正を行った場合の結果を示す。破線の丸印Cは、顔検出装置1によって検出された顔方向を示す。図8(a)に示されるように、補正を行わない場合、実際の顔方向は固定されているにも関わらず、導出される顔方向は、二点鎖線に示される領域D1の範囲でばらついた。具体的には、領域C1の範囲は、40mm〜50mm程度であった。一方、図8(b)に示されるように、補正を行った場合、二点鎖線に示される領域D2の範囲が縮小した。具体的には、領域C2の範囲は、10mm以下であった。従って、顔検出方法によれば、顔方向の誤差を低減できることが確認できた。
図1に示されるように、顔検出装置1は、ステレオカメラとして機能する一対の瞳孔用カメラ(撮像手段)10と、一対の鼻孔用カメラ20と、画像処理装置(処理手段)30とを備える。以下では、必要に応じて、一対の瞳孔用カメラ10を、対象者Aの左側にある左側瞳孔用カメラ10Lと、対象者Aの右側にある右側瞳孔用カメラ10Rとに区別する。また、一対の鼻孔用カメラ20を、対象者Aの左側にある左側鼻孔用カメラ20Lと、対象者Aの右側にある右側鼻孔用カメラ20Rとに区別する。本実施形態では、顔検出装置1は、対象者Aが見る対象であるディスプレイ装置40を更に備えるが、顔検出装置1の利用目的は上記のように限定されないので、対象者Aの視線の先にあるものはディスプレイ装置40に限定されず、例えば自動車のフロントガラスでもあり得る。従って、ディスプレイ装置40は顔検出装置1における必須の要素ではない。4台のカメラ10,20は何れも画像処理装置30と無線又は有線により接続され、各カメラ10,20と画像処理装置30との間で各種のデータ又は命令が送受信される。各カメラ10,20に対しては予めカメラ較正が行われる。
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
画像取得部31は、瞳孔用カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、瞳孔用カメラ10の偶数フィールドに合わせて発光素子13aを点灯させて暗瞳孔画像を撮影する。画像取得部31は2個の瞳孔用カメラ10の間で作動タイミングをわずかにずらし、個々の瞳孔用カメラ10の露光時間はそのずらし時間以下に設定される。画像取得部31は、瞳孔用カメラ10の露光時間中に、対応する発光素子13a及び発光素子13bを交互に発光させることで、一方の瞳孔用カメラ10の光源13からの光が他方の瞳孔用カメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。
画像取得部31は、光源13の点灯に同期させて鼻孔画像を撮影する。点灯される発光素子は、発光素子13a,13bの何れでもよい。画像取得部31は鼻孔画像を前処理部32に出力する。
前処理ステップS2は、瞳孔位置を検出するステップと、鼻孔を検出するステップと、ステレオ法による顔姿勢ベクトルの導出ステップと、拘束条件法による顔姿勢ベクトルの導出ステップと、視線の検出ステップと、を有する。
前処理部32は、2画像の差分を取ることで差分画像を生成する。そして、前処理部32は差分画像から対象者Aにおける左右の瞳孔の位置を算出する。連続する2フィールドの一方は明瞳孔画像であり他方は暗瞳孔画像である。i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間に対象者Aの頭部が動かなければ、単純に明瞳孔画像及び暗瞳孔画像の差を取ることで、瞳孔部分が浮かび上がった差分画像を生成することができる。
(1)前フィールド(前回の瞳孔検出)で両瞳孔を検出できた場合。
(2)前フィールド(前回の瞳孔検出)で片方の瞳孔のみを検出できた場合。
(3)前フィールド(前回の瞳孔検出)で両瞳孔を検出できなかった場合。
前処理部32は、鼻孔があると推定される鼻孔画像内の位置にウィンドウを設定し、そのウィンドウ内を処理することで鼻孔を検出する。なお、前処理部32は、瞳孔の三次元位置に基づいて、鼻孔があると推定される鼻孔画像内の位置にウィンドウを設定してもよい。前処理部32は、鼻孔画像及び暗瞳孔画像から鼻孔を検出する。あるいは、前処理部32は、鼻孔画像から鼻孔を検出する。鼻孔検出の方法は前フィールドでの鼻孔の検出結果(前回の鼻孔検出の結果)によって下記の3種類に分類される。
(1)前フィールド(前回の鼻孔検出)で左右の鼻孔の双方を検出できなかった場合。
(2)前フィールド(前回の鼻孔検出)で左右の鼻孔の双方を検出できた場合。
(3)前フィールド(前回の鼻孔検出)で片方の鼻孔のみを検出できた場合。
本実施形態では、ステレオ法によって導出された顔姿勢ベクトルを真の顔方向(基準顔方向H2)として取り扱う。ステレオ法とは、複数台のカメラによって撮像された画像データ(顔画像)から対象の三次元座標を復元する方法である。対象物は、瞳孔中心である。本実施形態では、瞳孔用カメラ10を用いて得た少なくとも2枚の顔画像にステレオ法を適用することによって、瞳孔中心の三次元座標を決定する。そして、このステレオ法によって得られた瞳孔中心の三次元座標を利用して、対象者Aの基準顔方向H2を示す顔姿勢ベクトルを算出する。すなわち、基準顔方向H2は、対象者Aの顔画像に基づいて、ステレオ法により導出される。
顔検出装置1における撮像光学系は、図14に示すように焦点距離fのピンホールモデルと仮定することができる。ピンホールを原点ORとしたカメラ座標系(基準座標系XC−YC−ZCにおける鼻孔画像(撮像平面PL)上の右瞳孔、左瞳孔、左鼻孔、及び右鼻孔の中心点の二次元座標をそれぞれ、Q1(x1,y1)、Q2(x2,y2)、Q3(x3,y3)、及びQ4(x4,y4)とする。前処理部32は、これら4点の二次元座標から、両鼻孔の中点(鼻孔間中心)の座標(鼻孔間中心座標)P0、右瞳孔の座標P1、及び左瞳孔の座標P2を求める。ここで、Pn=(Xn,Yn,Zn)(n=0,1,2)である。
また、ピンホールOから各特徴点へ向かう位置ベクトルに対応した単位ベクトルは式(7)により得られる。
各特徴点の位置ベクトルは定数an(n=0,1,2)を用いて式(8)で表される。
すると、式(9)が成立する。
これにより連立方程式(10)が得られる。
顔姿勢導出部34はこの連立方程式からa0,a1,a2を求め、その解を式(8)に適用することで位置ベクトルを求める。
前処理部32は左右の瞳孔の三次元座標に基づいて視線を検出する。この瞳孔の三次元座標には、上記ステレオ法による顔姿勢ベクトルの導出と同様に、瞳孔用カメラ10を用いて得た少なくとも2枚の顔画像にステレオ法を適用することによって得られた瞳孔中心の三次元座標を利用することができる。すなわち、視線Gは、対象者Aの顔画像に基づいてステレオ法により導出される。図15に示されるように、瞳孔の三次元位置に基づいて、瞳孔用カメラ10の開口部12の中心を原点ORとし、その原点ORと瞳孔中心Pを結ぶ基準線ORPを法線とする仮想視点平面X’−Y’を考える。ここで、X’軸は、世界座標系のXw−Zw平面と仮想視点平面X’−Y’との交線に相当する。
関数導出部33は、式(2)における係数k1,k2を決定する。係数k1,k2の決定方法は次の通りである。まず、対象者Aは、顔方向と視線とを自由に動かす。この間に、視線Gと、顔方向H1と、基準顔方向H2とを取得する。そして、図16に示されるように、角度∠G’(第1角度)と角度∠H(第2角度)を二次元座標上にプロットする。これら角度∠G’と角度∠Hとは、世界座標系を基準として表現された角度である。ここで、角度∠G’と角度∠Hとを顔座標系に座標変換する。そして、関数決定部33aは、顔座標系を基準とした角度∠G’と角度∠Hを利用して、二次元座標におけるグラフの傾き(係数k1)および切片(係数k2)を算出する(ステップS3a)。これらの算出には、最小二乗法を利用することができる。これら係数k1,k2が決定されることにより、関数(式(2))が決定される。
画像取得ステップS4では、上記画像取得ステップS1と同様の手法により、明瞳孔画像、暗瞳孔画像及び鼻孔画像を取得する。
前処理ステップS5では、上記前処理ステップS2と同様の手法により、拘束条件法による顔方向H1を導出する。また、上記前処理ステップS2と同様の手法により、ステレオ法による視線Gを導出する。前処理ステップS5では、ステレオ法による基準顔方向H2は必要に応じて導出すればよい。
顔姿勢導出ステップS6では、上記「拘束条件法による顔姿勢ベクトルの導出」と同様の手法により、顔方向H1を導出する。
顔姿勢補正部36は、式(2)と関数導出ステップS3で決定された係数k1,k2を利用して、顔方向H1を補正する。まず、第1の座標変換部36aは、フレーム毎に求まる世界座標系における視線Gと顔方向H1を顔座標系に変換し、顔座標系における視線Gと顔方向H1を求める(第1の座標変換ステップ:S7a)。次に、角度取得部36bは、顔座標系における視線Gと顔方向H1を利用して、顔座標系における角度∠G’(第1角度)を求めた後に、角度∠G’と、すでに求まっている係数k1,k2を含む記式(2)を用いて、顔座標系における角度∠Hを求める(角度取得ステップ:S7b)。次に、方向補正部36cは、この角度∠Hと顔座標系における顔方向H1から顔座標系における基準顔方向H2を求める(方向補正ステップ:S7c)。そして、第2の座標変換部36dは、顔座標系における基準顔方向H2を世界座標系における基準顔方向H2に変換する(第2の座標変換ステップ:S7d)。以上のステップS7a〜S7dにより、補正された顔方向H1を得る。
次に、顔検出装置1を実現するための顔検出プログラムを説明する。
Claims (8)
- 対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と前記顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出ステップと、
前記顔姿勢を導出する顔姿勢導出ステップと、
前記関数導出ステップにおいて導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正ステップと、を有し、
前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出方法。 - 前記関数導出ステップは、
前記顔姿勢を導出するステップと、
前記視線及び前記基準顔姿勢を導出するステップと、
前記第1角度及び前記第2角度に基づいて、前記係数を導出するステップと、を含む、請求項1に記載の顔検出方法。 - 前記関数導出ステップを1回実行した後に、前記顔姿勢導出ステップと前記顔姿勢補正ステップと、を繰り返し実行する、請求項1又は2に記載の顔検出方法。
- 前記関数導出ステップと前記顔姿勢導出ステップと前記顔姿勢補正ステップと、この順で繰り返し実行する、請求項1又は2に記載の顔検出方法。
- 前記顔姿勢補正ステップは、
第1の座標系に基づく前記視線と前記第1の座標系に基づく前記顔姿勢とを、前記第1の座標系とは異なる第2の座標系に基づくように座標変換するステップと、
前記第2の座標系に基づく前記視線と前記第2の座標系に基づく前記顔姿勢とを利用して、前記第2の座標系に基づく前記第1角度を取得し、当該第1角度と前記関数とを利用して、前記第2の座標系に基づく前記第2角度を取得するステップと、
前記第2の座標系に基づく前記第2角度を利用して、前記第2の座標系に基づく前記顔姿勢を補正するステップと、
補正された前記顔姿勢を前記第1の座標系に基づくように座標変換するステップと、を含む、請求項1〜4の何れか一項に記載の顔検出方法。 - 対象者の顔を撮像する少なくとも2台の撮像手段と、
前記撮像手段で撮像された顔画像に基づいて、前記対象者の顔姿勢を導出する処理手段と、を備え、
前記処理手段は、
前記対象者の前記顔姿勢と視線との間の第1角度及び基準顔姿勢と前記顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出部と、
前記顔姿勢を導出する顔姿勢導出部と、
前記関数導出部において導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正部と、を有し、
前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出装置。 - 前記顔姿勢補正部は、
第1の座標系に基づく前記視線と前記第1の座標系に基づく前記顔姿勢とを、前記第1の座標系とは異なる第2の座標系に基づくように座標変換する第1の座標変換部と、
前記第2の座標系に基づく前記視線と前記第2の座標系に基づく前記顔姿勢とを利用して、前記第2の座標系に基づく前記第1角度を取得し、当該第1角度と前記関数とを利用して、前記第2の座標系に基づく前記第2角度を取得する角度取得部と、
前記第2の座標系に基づく前記第2角度を利用して、前記第2の座標系に基づく前記顔姿勢を補正する方向補正部と、
補正された前記顔姿勢を前記第1の座標系に基づくように座標変換する第2の座標変換部と、を含む、請求項6に記載の顔検出装置。 - コンピュータを、
対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出部と、
前記顔姿勢を導出する顔姿勢導出部と、
前記関数導出部において導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正部と、して機能させ、
前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014235232A JP6452235B2 (ja) | 2014-11-20 | 2014-11-20 | 顔検出方法、顔検出装置、及び顔検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014235232A JP6452235B2 (ja) | 2014-11-20 | 2014-11-20 | 顔検出方法、顔検出装置、及び顔検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016099759A JP2016099759A (ja) | 2016-05-30 |
JP6452235B2 true JP6452235B2 (ja) | 2019-01-16 |
Family
ID=56077108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014235232A Active JP6452235B2 (ja) | 2014-11-20 | 2014-11-20 | 顔検出方法、顔検出装置、及び顔検出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6452235B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101815697B1 (ko) * | 2016-10-13 | 2018-01-05 | 주식회사 에스원 | 위조 얼굴 판별 장치 및 방법 |
KR101908851B1 (ko) * | 2017-04-14 | 2018-10-17 | 한국 한의학 연구원 | 얼굴 자세 보정 장치 및 방법 |
JP7046347B2 (ja) * | 2017-12-06 | 2022-04-04 | 国立大学法人静岡大学 | 画像処理装置及び画像処理方法 |
JP6939580B2 (ja) * | 2018-01-10 | 2021-09-22 | 株式会社デンソー | 車両用画像合成装置 |
CN113947799B (zh) * | 2021-11-11 | 2023-03-14 | 石家庄学院 | 三维人脸数据预处理方法及设备 |
CN116030512B (zh) * | 2022-08-04 | 2023-10-31 | 荣耀终端有限公司 | 注视点检测方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4765008B2 (ja) * | 2004-03-16 | 2011-09-07 | 国立大学法人静岡大学 | 瞳孔と鼻孔を用いた頭部の方向を検出する方法 |
JP4501003B2 (ja) * | 2005-07-15 | 2010-07-14 | 国立大学法人静岡大学 | 顔姿勢検出システム |
JP4431749B2 (ja) * | 2006-03-31 | 2010-03-17 | 国立大学法人静岡大学 | 顔姿勢検出方法 |
-
2014
- 2014-11-20 JP JP2014235232A patent/JP6452235B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016099759A (ja) | 2016-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5858433B2 (ja) | 注視点検出方法及び注視点検出装置 | |
US10902635B2 (en) | Line-of-sight detection device | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
JP6548171B2 (ja) | 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム | |
JP5915981B2 (ja) | 注視点検出方法及び注視点検出装置 | |
JP6583734B2 (ja) | 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム | |
JP6631951B2 (ja) | 視線検出装置及び視線検出方法 | |
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
JP2019000136A (ja) | 視線計測装置及びプログラム | |
JP6324119B2 (ja) | 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム | |
JP6452236B2 (ja) | 眼球識別装置及び眼球識別方法 | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP6346018B2 (ja) | 眼球計測システム、視線検出システム、眼球計測方法、眼球計測プログラム、視線検出方法、および視線検出プログラム | |
JP5727969B2 (ja) | 位置推定装置、方法、及びプログラム | |
WO2016159255A1 (ja) | 口領域検出装置及び口領域検出方法 | |
JP2017102731A (ja) | 視線検出装置及び視線検出方法 | |
JP6468755B2 (ja) | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム | |
Fujiyoshi et al. | Inside-out camera for acquiring 3D gaze points | |
US20240095939A1 (en) | Information processing apparatus and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6452235 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |