JP6468755B2 - 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム - Google Patents
特徴点検出システム、特徴点検出方法、および特徴点検出プログラム Download PDFInfo
- Publication number
- JP6468755B2 JP6468755B2 JP2014169509A JP2014169509A JP6468755B2 JP 6468755 B2 JP6468755 B2 JP 6468755B2 JP 2014169509 A JP2014169509 A JP 2014169509A JP 2014169509 A JP2014169509 A JP 2014169509A JP 6468755 B2 JP6468755 B2 JP 6468755B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- face image
- coordinates
- nostril
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 117
- 210000001747 pupil Anatomy 0.000 claims description 246
- 238000000034 method Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 31
- 210000005252 bulbus oculi Anatomy 0.000 description 20
- 210000001508 eye Anatomy 0.000 description 13
- 238000012937 correction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001655798 Taku Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
図1〜4を用いて、実施形態に係る検出システム1の構成を説明する。検出システム1は、対象者の特徴点を検出するコンピュータシステムであり、このシステムにより、本実施形態に係る特徴点検出方法が実施される。対象者とは、特徴点を検出する対象となる人であり、被験者ともいうことができる。特徴点とは、検出する対象となる器官またはその位置を示す点である。本実施形態では特徴点として瞳孔および鼻孔を例示する。検出システム1および特徴点検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者の眠気の検出、商品の興味の度合いの調査、コンピュータへのデータ入力などに検出システム1を利用することができる。
次に、図5〜13を用いて、検出システム1の動作について説明するとともに、本実施形態に係る特徴点検出方法について説明する。本実施形態では、検出システム1はまず瞳孔の位置を検出し、その瞳孔位置に基づいて鼻孔の位置を判定する。したがって、本実施形態では瞳孔が第1特徴点に相当し、鼻孔が第2特徴点に相当する。
少なくとも瞳孔および鼻孔を検出するために、検出システム1は瞳孔および鼻孔をなるべく良好に撮影する必要がある。そこで、瞳孔および鼻孔の撮影について説明する。
瞳孔算出部22は、画像取得部21から入力された顔画像に基づいて、対象者Aの両眼の瞳孔位置を求める。
(参考文献1)国際公開第2012/077713号パンフレット
(参考文献2)国際公開第2012/020760号パンフレット
鼻孔算出部23は、瞳孔算出部22から入力された左右の瞳孔の3次元座標に基づいて、鼻孔が存在すると予想される範囲を存在範囲として設定する。この存在範囲は、鼻孔の正しい3次元座標が存在すべき範囲であると言い換えることができる。
鼻孔算出部23は、瞳孔算出部22から入力された顔画像データおよび瞳孔座標に基づいて、対象者Aの左右の鼻孔候補の位置を求める。本実施形態では、鼻孔算出部23は左カメラ10Lからの顔画像(第1顔画像)と右カメラ10Rからの顔画像(第2顔画像)を被選択顔画像として取得し、該被選択顔画像に基づいて鼻孔候補の位置を求める。鼻孔候補とは、顔画像から得られ、かつ真の鼻孔か否かを判定する対象となる像である。
C2=(x(f/z),y(f/z)) …(1)
(参考文献3)深澤諒亮,海老澤嘉伸、「顔方向に基づく瞳孔と鼻孔の検出改善」、ViEWビジョン技術の実利用ワークショップ講演論文集、2009、2009年12月3日、PP.331−336
続いて、鼻孔算出部23はステレオ法を用いて、1以上の鼻孔候補についての3次元座標を求める。この処理を行おうとする時点で、鼻孔算出部23は、第1顔画像から得られた1以上の鼻孔候補の2次元座標(第1座標群)と、第2顔画像から得られた1以上の鼻孔候補の2次元座標(第2座標群)とを得ている。
鼻孔算出部23は、存在範囲を用いた判定だけでなく他の基準も用いて左右の鼻孔を判定してもよい。他の基準を用いる処理は、存在範囲を用いた判定を行う前または後に実行可能である。他の基準は、左右の鼻孔の位置に基づく数値を用いた基準であってもよいし、左右の鼻孔の位置と左右の瞳孔の位置とに基づく数値を用いた基準であってもよい。以下に他の基準の例をいくつか示すが、以下の記述は他の基準をその例に限定することを意図しない。
次に、図14を用いて、画像処理装置20を実現するための検出プログラム(特徴点検出プログラム)P1を説明する。
検出システム1は、上記の手法により求めた瞳孔座標および鼻孔座標を用いて顔姿勢を求めてもよい。図15は、画像取得部21、瞳孔算出部22、および鼻孔算出部23に加えて、顔姿勢算出部24をさらに備える画像処理装置20Aを示すブロック図である。顔姿勢算出部24の機能(顔姿勢の計算)そのものは、例えば下記参考文献4に記載されている。
(参考文献4)特開2007−271554号公報
画像処理装置20Aは、次回の瞳孔位置を検出する際に、角膜位置に基づく位置補正に加えて、今回検出した鼻孔位置から得られる顔姿勢に基づく位置補正を実行してもよい。
上記実施形態では、検出システム1は瞳孔位置を確定した後にその瞳孔位置に基づいて鼻孔の存在範囲を設定し、その存在範囲内に位置する鼻孔を正しい鼻孔として検出した。すなわち、上記実施形態では第1特徴点が瞳孔であり第2特徴点が鼻孔であった。しかし、特徴点検出システムはまず鼻孔位置を確定した後にその鼻孔位置に基づいて瞳孔の存在範囲を設定し、その存在範囲内に位置する瞳孔を正しい瞳孔として検出してもよい。すなわち、第1特徴点が鼻孔であり第2特徴点が瞳孔であってもよい。瞳孔のための存在範囲については、左瞳孔用のものと右瞳孔用のものとを個別に設定してもよいし、両瞳孔で共通の一つの存在範囲を設定してもよい。
上記実施形態では、瞳孔算出部22が明画像および暗画像から差分画像を生成し、その差分画像から瞳孔座標を求めたが、瞳孔算出部22は差分画像を生成することなく、画像取得部21から入力された1枚の瞳孔座標(明画像または暗画像)から瞳孔位置を求めてもよい。具体的には、瞳孔算出部22は1枚の顔画像に対して2値化およびラベリングを実行し、瞳孔らしい面積、サイズ、面積比、正方形度、および特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔を選択し、その瞳孔の位置を算出する。
上記実施形態では、各カメラ10が、瞳孔および鼻孔の双方を含む顔画像を撮影したが、瞳孔を写すためのカメラ(鼻孔用カメラ)と鼻孔を写すためのカメラ(瞳孔用カメラ)とを別々に用意してもよい。図17に示すように、このような変形例に係る検出システム(特徴点検出システム)1Bは、ステレオカメラとして機能する一対の瞳孔用カメラ40と、一つの鼻孔用カメラ50と、画像処理装置20Bと、ディスプレイ装置30を備える。一対の瞳孔用カメラ40は、対象者Aの左側にある左カメラ40Lと、対象者Aの右側にある右カメラ40Rとから成る。一対の瞳孔用カメラ40は第1カメラおよび第2カメラに相当し、鼻孔用カメラ50は、第1カメラおよび第2カメラとは異なるカメラに相当する。上記実施形態と同様に、この検出システム1Bでもディスプレイ装置30を省略できる。3台のカメラ40,50はいずれも画像処理装置20Bと無線または有線により接続され、各カメラ40,50と画像処理装置20Bとの間で各種のデータまたは命令が送受信される。各カメラ40,50に対しては予めカメラ較正が行われる。
(参考文献5)鈴木 巧他,「光源無し鼻孔検出用カメラを伴う3カメラ視線・頭部姿勢同時計測装置」、第20回画像センシングシンポジウム、2014年6月11日、pp.IS2−05−1〜8
Claims (17)
- 第1カメラにより撮影された対象者の第1顔画像と第2カメラにより撮影された該対象者の第2顔画像とに基づいて第1特徴点の座標を算出する第1算出部であって、前記第1特徴点が前記対象者の瞳孔および鼻孔のどちらか一方の特徴点である、該第1算出部と、
第2特徴点の存在範囲を少なくとも前記第1特徴点の座標に基づいて設定する設定部であって、前記第2特徴点が前記対象者の瞳孔および鼻孔のうち前記第1特徴点として指定されなかった方の特徴点である、該設定部と、
前記第1顔画像と、前記第2顔画像と、前記第1カメラおよび第2カメラとは異なる1以上のカメラから得られた顔画像とのうち1以上の顔画像を被選択顔画像として取得し、1以上の該被選択顔画像に基づいて前記第2特徴点についての1以上の候補座標を算出する第2算出部と、
前記1以上の候補座標のうち前記設定部で設定された前記存在範囲内にある候補座標に前記第2特徴点が位置すると判定する判定部と
を備え、
前記第2算出部が、
前記1以上の被選択顔画像に対して画像処理を実行することで複数の検出点を取得し、
前記画像処理を実行することなく、前記複数の検出点のそれぞれについて、所定の距離だけ離れた位置に複数の推定点を設定し、
前記複数の検出点のそれぞれと前記複数の推定点のそれぞれとについて前記候補座標を算出する、
特徴点検出システム。 - 前記設定部が、少なくとも前記第1特徴点の座標と前記第1特徴点の可動範囲とに基づいて前記存在範囲を設定する、
請求項1に記載の特徴点検出システム。 - 前記判定部が、複数の前記候補座標から選択した二つの候補座標に少なくとも基づいて算出される数値が所定の範囲内であり、かつ該選択した二つの候補座標の双方が前記存在範囲内に位置する場合に、該二つの候補座標のそれぞれに前記第2特徴点が位置すると判定する、
請求項1または2に記載の特徴点検出システム。 - 前記第1算出部が、前記第1顔画像および前記第2顔画像に基づいてステレオ法により前記第1特徴点の3次元座標を算出し、
前記設定部が、3次元空間における前記存在範囲を設定し、
前記第2算出部が、前記1以上の被選択顔画像に基づいて、前記ステレオ法により1以上の3次元座標を前記1以上の候補座標として算出し、
前記判定部が、前記存在範囲内にある前記3次元座標に前記第2特徴点が位置すると判定する、
請求項1〜3のいずれか一項に記載の特徴点検出システム。 - 新たな前記第1顔画像および新たな前記第2顔画像が取得される度に前記第1算出部、前記設定部、前記第2算出部、および前記判定部による処理が実行されることで、前記第2特徴点の検出が繰り返され、
前回の処理で前記第2特徴点が検出されなかった場合に、前記第2算出部が、前記存在範囲を二つの前記被選択顔画像のそれぞれに投影して各顔画像上にウィンドウを設定し、各顔画像の該ウィンドウ内で検出した前記第2特徴点の2次元座標に基づいて、前記ステレオ法により前記第2特徴点についての前記1以上の3次元座標を算出する、
請求項4に記載の特徴点検出システム。 - 前記第1算出部により算出された前記第1特徴点の3次元座標と、前記判定部により判定された前記第2特徴点の3次元座標とに基づいて顔姿勢を算出する顔姿勢算出部をさらに備える請求項4または5に記載の特徴点検出システム。
- 前記第1算出部が、前記顔姿勢算出部により算出された顔姿勢に基づいて次の顔画像における前記第1特徴点の位置を予測し、予測結果に基づいて次の前記第1顔画像および次の前記第2顔画像から前記第1特徴点の次の座標を算出する、
請求項6に記載の特徴点検出システム。 - プロセッサを備える特徴点検出システムにより実行される特徴点検出方法であって、
第1カメラにより撮影された対象者の第1顔画像と第2カメラにより撮影された該対象者の第2顔画像とに基づいて第1特徴点の座標を算出する第1算出ステップであって、前記第1特徴点が前記対象者の瞳孔および鼻孔のどちらか一方の特徴点である、該第1算出ステップと、
第2特徴点の存在範囲を少なくとも前記第1特徴点の座標に基づいて設定する設定ステップであって、前記第2特徴点が前記対象者の瞳孔および鼻孔のうち前記第1特徴点として指定されなかった方の特徴点である、該設定ステップと、
前記第1顔画像と、前記第2顔画像と、前記第1カメラおよび第2カメラとは異なる1以上のカメラから得られた顔画像とのうち1以上の顔画像を被選択顔画像として取得し、1以上の該被選択顔画像に基づいて前記第2特徴点についての1以上の候補座標を算出する第2算出ステップと、
前記1以上の候補座標のうち前記設定ステップにおいて設定された前記存在範囲内にある候補座標に前記第2特徴点が位置すると判定する判定ステップと
を含み、
前記第2算出ステップでは、
前記1以上の被選択顔画像に対して画像処理を実行することで複数の検出点を取得し、
前記画像処理を実行することなく、前記複数の検出点のそれぞれについて、所定の距離だけ離れた位置に複数の推定点を設定し、
前記複数の検出点のそれぞれと前記複数の推定点のそれぞれとについて前記候補座標を算出する、
特徴点検出方法。 - 前記第1算出ステップでは、前記第1顔画像および前記第2顔画像に基づいてステレオ法により前記第1特徴点の3次元座標を算出し、
前記設定ステップでは、3次元空間における前記存在範囲を設定し、
前記第2算出ステップでは、前記1以上の被選択顔画像に基づいて、前記ステレオ法により1以上の3次元座標を前記1以上の候補座標として算出し、
前記判定ステップでは、前記存在範囲内にある前記3次元座標に前記第2特徴点が位置すると判定する、
請求項8に記載の特徴点検出方法。 - 新たな前記第1顔画像および新たな前記第2顔画像が取得される度に前記第1算出ステップ、前記設定ステップ、前記第2算出ステップ、および前記判定ステップが実行されることで、前記第2特徴点の検出が繰り返され、
前回の処理で前記第2特徴点が検出されなかった場合に、前記第2算出ステップでは、前記存在範囲を二つの前記被選択顔画像のそれぞれに投影して各顔画像上にウィンドウを設定し、各顔画像の該ウィンドウ内で検出した前記第2特徴点の2次元座標に基づいて、前記ステレオ法により前記第2特徴点についての前記1以上の3次元座標を算出する、
請求項9に記載の特徴点検出方法。 - 前記第1算出ステップにおいて算出された前記第1特徴点の3次元座標と、前記判定ステップにおいて判定された前記第2特徴点の3次元座標とに基づいて顔姿勢を算出する顔姿勢算出ステップをさらに含む請求項9または10に記載の特徴点検出方法。
- 前記第1算出ステップでは、前記顔姿勢算出ステップにおいて算出された顔姿勢に基づいて次の顔画像における前記第1特徴点の位置を予測し、予測結果に基づいて次の前記第1顔画像および次の前記第2顔画像から前記第1特徴点の次の座標を算出する、
請求項11に記載の特徴点検出方法。 - 第1カメラにより撮影された対象者の第1顔画像と第2カメラにより撮影された該対象者の第2顔画像とに基づいて第1特徴点の座標を算出する第1算出部であって、前記第1特徴点が前記対象者の瞳孔および鼻孔のどちらか一方の特徴点である、該第1算出部と、
第2特徴点の存在範囲を少なくとも前記第1特徴点の座標に基づいて設定する設定部であって、前記第2特徴点が前記対象者の瞳孔および鼻孔のうち前記第1特徴点として指定されなかった方の特徴点である、該設定部と、
前記第1顔画像と、前記第2顔画像と、前記第1カメラおよび第2カメラとは異なる1以上のカメラから得られた顔画像とのうち1以上の顔画像を被選択顔画像として取得し、1以上の該被選択顔画像に基づいて前記第2特徴点についての1以上の候補座標を算出する第2算出部と、
前記1以上の候補座標のうち前記設定部で設定された前記存在範囲内にある候補座標に前記第2特徴点が位置すると判定する判定部と
してコンピュータを機能させ、
前記第2算出部が、
前記1以上の被選択顔画像に対して画像処理を実行することで複数の検出点を取得し、
前記画像処理を実行することなく、前記複数の検出点のそれぞれについて、所定の距離だけ離れた位置に複数の推定点を設定し、
前記複数の検出点のそれぞれと前記複数の推定点のそれぞれとについて前記候補座標を算出する、
特徴点検出プログラム。 - 前記第1算出部が、前記第1顔画像および前記第2顔画像に基づいてステレオ法により前記第1特徴点の3次元座標を算出し、
前記設定部が、3次元空間における前記存在範囲を設定し、
前記第2算出部が、前記1以上の被選択顔画像に基づいて、前記ステレオ法により1以上の3次元座標を前記1以上の候補座標として算出し、
前記判定部が、前記存在範囲内にある前記3次元座標に前記第2特徴点が位置すると判定する、
請求項13に記載の特徴点検出プログラム。 - 新たな前記第1顔画像および新たな前記第2顔画像が取得される度に前記第1算出部、前記設定部、前記第2算出部、および前記判定部による処理が実行されることで、前記第2特徴点の検出が繰り返され、
前回の処理で前記第2特徴点が検出されなかった場合に、前記第2算出部が、前記存在範囲を二つの前記被選択顔画像のそれぞれに投影して各顔画像上にウィンドウを設定し、各顔画像の該ウィンドウ内で検出した前記第2特徴点の2次元座標に基づいて、前記ステレオ法により前記第2特徴点についての前記1以上の3次元座標を算出する、
請求項14に記載の特徴点検出プログラム。 - 前記第1算出部により算出された前記第1特徴点の3次元座標と、前記判定部により判定された前記第2特徴点の3次元座標とに基づいて顔姿勢を算出する顔姿勢算出部として前記コンピュータをさらに機能させる請求項14または15に記載の特徴点検出プログラム。
- 前記第1算出部が、前記顔姿勢算出部により算出された顔姿勢に基づいて次の顔画像における前記第1特徴点の位置を予測し、予測結果に基づいて次の前記第1顔画像および次の前記第2顔画像から前記第1特徴点の次の座標を算出する、
請求項16に記載の特徴点検出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169509A JP6468755B2 (ja) | 2014-08-22 | 2014-08-22 | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014169509A JP6468755B2 (ja) | 2014-08-22 | 2014-08-22 | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016045707A JP2016045707A (ja) | 2016-04-04 |
JP6468755B2 true JP6468755B2 (ja) | 2019-02-13 |
Family
ID=55636220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014169509A Active JP6468755B2 (ja) | 2014-08-22 | 2014-08-22 | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6468755B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3438948B1 (en) * | 2016-05-11 | 2023-08-30 | Sony Group Corporation | Image processing apparatus, image processing method, and mobile body |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4756589B2 (ja) * | 2005-12-07 | 2011-08-24 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
JP4431749B2 (ja) * | 2006-03-31 | 2010-03-17 | 国立大学法人静岡大学 | 顔姿勢検出方法 |
JP5703068B2 (ja) * | 2011-02-28 | 2015-04-15 | 綜合警備保障株式会社 | 顔検出方法および顔検出装置、ならびに、プログラム |
CN104780834B (zh) * | 2012-11-12 | 2016-12-28 | 阿尔卑斯电气株式会社 | 生物体信息计测装置及使用该装置的输入装置 |
-
2014
- 2014-08-22 JP JP2014169509A patent/JP6468755B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016045707A (ja) | 2016-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10878237B2 (en) | Systems and methods for performing eye gaze tracking | |
US10499808B2 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
US10417782B2 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program | |
JP5529660B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
WO2018030515A1 (ja) | 視線検出装置 | |
US10552675B2 (en) | Method and apparatus for eye detection from glints | |
JP6862584B2 (ja) | 画像処理システム及び画像処理方法 | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
JP6870474B2 (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
WO2015027289A1 (en) | Method and apparatus for eye detection from glints | |
JP2010123019A (ja) | 動作認識装置及び方法 | |
JP2018156408A (ja) | 画像認識撮像装置 | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP7046347B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6785723B2 (ja) | 視線計測装置 | |
JP6346018B2 (ja) | 眼球計測システム、視線検出システム、眼球計測方法、眼球計測プログラム、視線検出方法、および視線検出プログラム | |
US11619990B2 (en) | Classification of glints using an eye tracking system | |
JP6468755B2 (ja) | 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム | |
JP2017102731A (ja) | 視線検出装置及び視線検出方法 | |
US20210264618A1 (en) | Eye movement measurement device, eye movement measurement method, and eye movement measurement program | |
US11972549B2 (en) | Frame selection for image matching in rapid target acquisition | |
US20240095939A1 (en) | Information processing apparatus and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6468755 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |