JP2019003312A - 注視対象物推定装置、注視対象物推定方法、およびプログラム - Google Patents

注視対象物推定装置、注視対象物推定方法、およびプログラム Download PDF

Info

Publication number
JP2019003312A
JP2019003312A JP2017115785A JP2017115785A JP2019003312A JP 2019003312 A JP2019003312 A JP 2019003312A JP 2017115785 A JP2017115785 A JP 2017115785A JP 2017115785 A JP2017115785 A JP 2017115785A JP 2019003312 A JP2019003312 A JP 2019003312A
Authority
JP
Japan
Prior art keywords
gaze
sight
line
movement
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017115785A
Other languages
English (en)
Other versions
JP6770488B2 (ja
Inventor
伸洋 水野
Nobuhiro Mizuno
伸洋 水野
顕 吉澤
Akira Yoshizawa
顕 吉澤
石川 貴洋
Takahiro Ishikawa
貴洋 石川
哲洋 林
Tetsuhiro Hayashi
哲洋 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2017115785A priority Critical patent/JP6770488B2/ja
Publication of JP2019003312A publication Critical patent/JP2019003312A/ja
Application granted granted Critical
Publication of JP6770488B2 publication Critical patent/JP6770488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】運転者の視線に基づいて、適切に注視対象物を判別する注視対象物推定装置を提供する。
【解決手段】注視対象物推定装置1は、運転者を撮影するカメラ10と、カメラ10にて撮影した映像から運転者の視線を逐次検出する視線検出部13と、運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを記憶したモデル記憶部11と、視線検出部13にて検出した視線の方向及び移動履歴をモデルに適用して、運転者が注視した注視対象物を求める注視対象物決定部14とを備える。
【選択図】図1

Description

本発明は、注視対象物推定装置、注視対象物推定方法、およびプログラムに関する。
従来から、自動車の運転中に、運転者の視線を利用して、運転を支援する情報の提供や車載機器の操作等を行う技術の研究・開発が行われている。視線を利用した情報提供や操作支援等を行うためには、運転中に運転者が注視した物を特定することが必要である。従来の研究・開発では、車載カメラを用いて運転者の視線を検出し、その視線から、運転者が注視した対象物(例えば、カーナビ、ルームミラー、メータ等)を推定する。
特許文献1及び非特許文献1は、車載視線計測システムにおいて自動較正を行う方法の発明を開示している。この発明では、運転中の車線変更の際のミラー注視時の視線を推定することによって較正を行う。これにより、運転前に較正作業を省き、ユーザの負担を軽減する。
特開2010−29262号公報
山城賢二他「注視対象の位置関係を利用した車載視点計測システム自動較正の高度化」電子情報通信学会論文誌. D, 情報・システムJ92-D(8), 1308-1316, 2009-08-01
上記したような従来の技術では、撮影画像から求めた運転者の視線の方向と注視対象物とが一対一に対応しないことがあった。図6は、このような従来技術の課題を示す図である。図6は、運転者から見て、所定の角度範囲内にウィンドウシールドAとメータBがある状態を示している。運転者の視線がウィンドウシールドAの角度範囲内にあるときはウィンドウシールドAを注視し、視線がメータBの角度範囲内にあるときにはメータBを注視していると判断できれば理想的であるが、実際には、図6に示すように、ウィンドウシールドAを注視しているときの注視領域20とメータBを注視しているときの注視領域21が重なって、その重なり部分22ではいずれを注視しているかを検出できないことがあった。
本発明は、上記背景に鑑み、運転者の視線に基づいて、適切に注視対象物を判別する注視対象物推定装置を提供することを目的とする。
本発明の注視対象物推定装置は、運転者を撮影するカメラと、前記カメラにて撮影した映像から前記運転者の視線を逐次検出する視線検出部と、前記運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを記憶した記憶部と、前記視線検出部にて検出した視線の方向及び前記移動履歴を前記モデルに適用して、前記運転者が注視した注視対象物を求める注視対象物決定部とを備える。
本発明者らは、運転者の視線から注視対象物を適切に求める技術について鋭意研究を行い、走行中に、注視対象物の間を移動する運転者の視線の動きはランダムではないことを突き止めた。図7は、車載機器間における視線の移動の履歴を示す図である。図7(a)は、本発明者らが行った実験において注視対象物として定義した車載機器や方向を示す図である。例えば、「A」はウィンドウシールドであり、「B」はメータである。図7(b)は、注視対象物の間の視線移動を示す図であり、移動元(source)の注視対象物から、移動先(destination)の注視対象物に視線が移動した割合を示す。例えば、ウィンドウシールド(A)以外の注視対象物を移動先(destination)とする場合には、ウィンドウシールド(A)から視線が移動することが多いことが分かる。逆に、ウィンドウシールドを移動先(destination)とする視線の移動は、色々な注視対象物から移動していることが分かる。本発明者らは、この知見に基づき、運転者の視線の方向に加えて、視線の移動履歴を用いて、注視対象物を精度良く推定する本発明を完成させた。
本発明の注視対象物推定装置において、前記モデルは、前記運転者の視線の方向、及び、前記移動履歴に加え、前記運転者の顔向きを入力とするモデルであってもよい。このように運転者の顔向きの情報を用いることにより、注視対象物を精度良く求めることができる。
本発明の注視対象物推定装置において、前記注視対象物決定部は、前記視線の移動速度に応じて、視線の固視微動と視線の跳躍運動とを検出し、(1)現在運転者の視線が固視微動をしている位置に対して視線が跳躍運動をした方向、(2)前記跳躍運動をする前の固視微動の位置、(3)前記跳躍運動をする前の固視微動において注視していた対象物、のいずれかを前記移動履歴として用いて、前記注視対象物を求めてもよい。また、上記(1)(2)(3)のいずれか2つ又は全部の組合せを前記移動履歴として用いて、前記注視対象物を求めてもよい。この構成により、運転者の視線の移動履歴を適切に求めることができる。
本発明の注視対象物推定方法は、車両に搭載されたカメラにて撮影された映像から運転者の視線を逐次検出するステップと、記憶部から、前記運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを読み出すステップと、前記映像から検出した視線の方向及び前記移動履歴を前記モデルに適用して、前記運転者が注視した注視対象物を求めるステップとを備える。
本発明のプログラムは、車両に搭載されたカメラにて撮影された映像に基づいて運転者が注視している対象物を推定するためのプログラムであって、コンピュータに、前記映像から前記運転者の視線を逐次検出するステップと、記憶部から、前記運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを読み出すステップと、前記映像から検出した視線の方向及び前記移動履歴を前記モデルに適用して、前記運転者が注視した注視対象物を求めるステップとを実行させる。
本発明によれば、運転者の視線に基づいて注視対象物を精度良く求めることができる。
実施の形態の注視対象物推定装置の構成を示す図である。 視線検出部によって検出された視線データの例を示す図である。 モデル記憶部に記憶されているモデルの例を示す図である。 実施の形態の注視対象物推定装置の動作を示すフローチャートである。 運転者の視線および顔向きに基づいて注視対象物を求めるためのベイジアンネットのモデルの構造を示す図である。 従来技術の課題を示す図である。 車載機器間における視線の移動の履歴を示す図である。
以下、本発明の実施の形態の注視対象物推定装置について図面を参照して説明する。図1は、実施の形態の注視対象物推定装置1の構成を示す図である。注視対象物推定装置1は、車両に搭載して用いられ、運転中の運転者の視線から注視対象物を推定する。
注視対象物推定装置1は、運転者を撮影するカメラ10と、撮影された画像に基づいて注視対象物を求める演算を行う制御部12と、求めた注視対象物の情報を出力する出力部15とを有している。出力部15は、車両に搭載された車載機器や、運転者に注意を促す警報装置に接続されている。注視対象物の情報に基づいて、車載機器の制御を行なったり、警報装置から警報を発したりする。
カメラ10は、例えば、ダッシュボードに取り付けられる。カメラ10は、1台でもよいし、複数台であってもよい。カメラ10にて撮影された映像は、逐次、制御部12に入力される。
制御部12は、視線検出部13と、注視対象物決定部14を有している。視線検出部13は、映像に映る運転者の眼球の動きからドライバの視線を求める。視線検出部13は、視線を逐次(例えば、1秒間に60回)検出する。これにより、視線の移動履歴を把握することができる。
図2は、視線検出部13によって検出された視線データの例を示す図である。縦軸は視線の角度を表し、横軸は時刻を表している。なお、視線の方向には、鉛直方向角度(ピッチ角)と、水平方向角度(ヨー角)とがあるが、ここでは、簡単のため、鉛直方向角度(ピッチ角)のみを示している。以下、図2を参照して説明する際には、ピッチ角のみに言及し、ヨー角についての説明を省略することがあるが、実際には、視線の方向は、ピッチ角とヨー角によって規定される。
視線のデータは、視線の移動速度によって、次のように分類できる。
(1)固視微動・・・移動速度が0〜300°/秒の視線移動
(2)跳躍運動(サッカード)・・・移動速度が300〜600°/秒の視線移動
(3)振動ノイズ・・・移動速度が600°/秒〜の視線移動
固視微動は、運転者が視線をあまり動かしていない状態であり、このときに運転者が注視行動をとっていると判断される。跳躍運動は、視線の動きが大きい場合であり、ある方向への固視微動から別の方向への固視微動へと移行する際に見られる視線の動きである。なお、ここで示した視線の移動速度の具体的な数値範囲は一例であり、「固視微動」「跳躍運動」「振動ノイズ」を分類する数値範囲は、システムの開発者・運用者が適宜設定してよい。
図2に示す例では、時刻t0から時刻t1までの期間D1では角度P2への固視微動、時刻t1から時刻t2までの期間D2では跳躍運動、時刻t2以降の期間D3では角度P1における固視微動を行っている。期間D1及び期間D3において、運転者は注視行動をとっている。
注視対象物決定部14は、視線の方向及びその移動履歴に基づいて注視対象物を決定する。ここで、移動履歴は、運転者の視線が現在の視線の方向に向けられるに至る移動方向である。図2に示す例で説明すると、期間D3に角度P1への固視微動を行っているが、この角度方向への固視微動がなされるに至るまでの視線の移動方向は、期間D2における跳躍移動の移動方向である。
跳躍移動の移動方向を求める方法としては、時刻t1における視線の方向と時刻t2における視線の方向から求めてもよいし、時刻t2から振動ノイズが検出される時刻tn(tn>t1)まで遡って、時刻tnと時刻t2における視線の方向から、視線の移動方向を求めてもよい。また、別の方法として、時刻t2の視線の方向とその一つ前(例えば1/60秒前)にサンプリングした視線の方向から、視線の移動方向を求めてもよい。視線の移動方向を表す角度αは、視線がピッチ角P1、ヨー角Y1の位置から、ピッチ角P2、ヨー角Y2の位置に移動したとき、下記式(1)で求められる。
Figure 2019003312
注視対象物決定部14は、モデル記憶部11に記憶されているモデルを読み出し、視線の方向及びその移動履歴のデータをモデルに適用することによって、注視対象物を求める。図3は、モデル記憶部11に記憶されているモデルの例を示す図である。モデル記憶部11には、ベイジアンネットのモデルが記憶されている。
図3(a)に示すように、モデルは、入力ノードとして、視線の方向と移動履歴のノードを有しており、出力ノードとして注視対象物のノードを有している。図3(b)は図3(a)に示す構造を有するベイジアンネットモデルの条件付き確率を示す条件付き確率表(CRT:Conditional Probability Table)である。例えば、視線が(p1,y1)で移動方向が240°〜300°のときには、注視対象物がAである確率は0.65、注視対象物がBである確率は0.21である。ここで、p1はピッチ角、y1はヨー角を表している。視線の方向が同じ(p1,y1)であっても移動方向が140°〜200°のときには、注視対象物がAである確率は0.14、注視対象物がBである確率は0.73である。このように、視線の方向と視線の移動履歴に基づいて注視対象物を求めることができる。このモデルは、視線の方向及びその移動履歴と、注視対象物との教師データを用いて学習を行うことによって求めることができる。
注視対象物決定部14は、モデル記憶部11から読み出したモデル(図3参照)に対して、検出した視線の方向及びその移動履歴を適用することによって、注視対象物を求める。視線の方向としては、注視対象物を求めたいタイミングでの視線のデータを適用する。移動履歴としては、注視対象物を求めたいタイミングでの視線の方向に視線が移動した履歴のデータを適用する。ここで、モデルに適用するデータについて図2を参照して説明する。
例えば、時刻t3における注視対象物を求めたい場合、時刻t3における視線の角度P1と、角度P1に視線が移動するに至るまでの視線の移動方向、すなわち、期間D2における跳躍運動の移動方向を入力としてモデルに適用する。例えば、時刻t4における注視対象物を求めたい場合、時刻t4における視線の角度P1と、角度P1に視線が移動するに至るまでの視線の移動方向、すなわち、期間D2における跳躍運動の移動方向を入力としてモデルに適用する。このように時刻t3の場合も時刻t4の場合も、移動履歴については同じデータが入力される。
以上に、注視対象物を推定するための制御部12の機能について説明したが、制御部12の機能は、電子制御ユニット(ECU)にてプログラムを実行することによって実現される。このようなプログラムも本発明の範囲に含まれる。
図4は、実施の形態の注視対象物推定装置1の動作を示すフローチャートである。注視対象物推定装置1は、カメラ10によって運転者を撮影し(S10)、撮影された映像から運転者の視線を検出する(S11)。ここでは、図2に示したように運転者の視線の経時的なデータを取得する。次に、注視対象物推定装置1は、視線の方向及びその移動履歴に基づいて注視対象物を決定し(S12)、決定した注視対象物の情報を出力する(S13)。
本実施の形態の注視対象物は、運転者の視線の方向のデータに加えて、視線の移動履歴のデータを用いて注視対象物を求めるので、高い精度で注視対象物を推定することができる。
以上、本発明の実施の形態の注視対象物推定装置について詳細に説明したが、本発明の注視対象物推定装置は、上記した実施の形態に限定されるものではない。本発明の注視対象物推定装置は、運転者の視線のデータに加えて、運転者の顔向きのデータを用いて、注視対象物を求めてもよい。図5は、運転者の視線および顔向きに基づいて注視対象物を求めるためのベイジアンネットのモデルの構造を示す図である。図5に示すように、入力ノードとして、視線の方向と視線の移動履歴のノードに加えて、顔向きのノードを有する。これら3つのノードが有向リンクによって注視対象物のノードに接続されている。カメラにて撮影した映像から運転者の顔向きを特定し、視線の方向、視線の移動履歴、顔向きに基づいて、注視対象物を推定することにより、注視対象物の推定の精度を高めることができる。
上記した実施の形態においては、移動履歴として、視線が固視微動を行っている現在の方向に至るときの視線の跳躍運動の方向のデータを用いたが、現在運転者の視線が固視微動をしている位置に対して、視線が跳躍運動をする前に固視微動を行っていた視線の方向を用いてもよい。また、視線が跳躍運動をする前の固視微動において運転者が注視していた対象物を移動履歴として用いてもよい。この構成により、図7における右サイド(F)および左サイド(G)の検知範囲内においては、視線の検知範囲外となることもあり得るが、そのような場合であっても、一つ前の注視対象物が右サイド(F)および左サイド(G)を注視していたという移動履歴に基づいて、現在の注視対象物が、例えばウィンドウシールド(A)であると判断することができる。また、跳躍運動の方向、一つ前の固視微動の位置、およびその注視対象物のいずれか2つまたは全部を組み合わせて、移動履歴として用いてもよい。
また、本実施の形態においては、視線の方向、及び視線の移動履歴から注視対象を求めるためのモデルとしてベイジアンネットワークのモデルを用いる例を挙げたが、本発明の注視対象物推定装置で用いるモデルは、ベイジアンネットワークのモデルに限定されない。例えば、サポートベクターマシーン(SVM)の認識モデルを用いてもよいし、ニューラルネットワークのモデルを用いてもよいし、隠れマルコフモデルを用いてもよい。
本発明は、運転中の運転者の視線に基づいて、運転者が注視している対象物を推定する装置として有用である。
1 注視対象物推定装置
10 カメラ
11 モデル記憶部
12 制御部
13 視線検出部
14 注視対象物決定部
15 出力部

Claims (8)

  1. 運転者を撮影するカメラと、
    前記カメラにて撮影した映像から前記運転者の視線を逐次検出する視線検出部と、
    前記運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを記憶した記憶部と、
    前記視線検出部にて検出した視線の方向及び前記移動履歴を前記モデルに適用して、前記運転者が注視した注視対象物を求める注視対象物決定部と、
    を備える注視対象物推定装置。
  2. 前記モデルは、前記運転者の視線の方向、及び、前記移動履歴に加え、前記運転者の顔向きを入力とするモデルである請求項1に記載の注視対象物推定装置。
  3. 前記注視対象物決定部は、前記視線の移動速度に応じて、視線の固視微動と視線の跳躍運動とを検出し、現在運転者の視線が固視微動をしている位置に対して視線が跳躍運動をした方向を前記移動履歴として用いて、前記注視対象物を求める請求項1または2に記載の注視対象物推定装置。
  4. 前記注視対象物決定部は、前記視線の移動速度に応じて、視線の固視微動と視線の跳躍運動とを検出し、現在運転者の視線が固視微動をしている位置に対して視線が跳躍運動をする前の固視微動の位置を前記移動履歴として用いて、前記注視対象物を求める請求項1または2に記載の注視対象物推定装置。
  5. 前記注視対象物決定部は、前記視線の移動速度に応じて、視線の固視微動と視線の跳躍運動とを検出し、現在運転者の視線が固視微動をしている位置に対して視線が跳躍運動をする前の固視微動において運転者が注視していた対象物を前記移動履歴として用いて、前記注視対象物を求める請求項1または2に記載の注視対象物推定装置。
  6. 前記注視対象物決定部は、前記視線の移動速度に応じて、視線の固視微動と視線の跳躍運動とを検出し、(1)現在運転者の視線が固視微動をしている位置に対して視線が跳躍運動をした方向、(2)前記跳躍運動をする前の固視微動の位置、(3)前記跳躍運動をする前の固視微動において注視していた対象物、のうちのいずれか2つまたは全部の組合せを前記移動履歴として用いて、前記注視対象物を求める請求項1または2に記載の注視対象物推定装置。
  7. 車両に搭載されたカメラにて撮影された映像から運転者の視線を逐次検出するステップと、
    記憶部から、前記運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを読み出すステップと、
    前記映像から検出した視線の方向及び前記移動履歴を前記モデルに適用して、前記運転者が注視した注視対象物を求めるステップと、
    を備える注視対象物推定方法。
  8. 車両に搭載されたカメラにて撮影された映像に基づいて運転者が注視している対象物を推定するためのプログラムであって、コンピュータに、
    前記映像から前記運転者の視線を逐次検出するステップと、
    記憶部から、前記運転者の視線の方向、及び、その移動履歴を入力とし、注視対象物を出力とするモデルを読み出すステップと、
    前記映像から検出した視線の方向及び前記移動履歴を前記モデルに適用して、前記運転者が注視した注視対象物を求めるステップと、
    を実行させるプログラム。
JP2017115785A 2017-06-13 2017-06-13 注視対象物推定装置、注視対象物推定方法、およびプログラム Active JP6770488B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017115785A JP6770488B2 (ja) 2017-06-13 2017-06-13 注視対象物推定装置、注視対象物推定方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017115785A JP6770488B2 (ja) 2017-06-13 2017-06-13 注視対象物推定装置、注視対象物推定方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019003312A true JP2019003312A (ja) 2019-01-10
JP6770488B2 JP6770488B2 (ja) 2020-10-14

Family

ID=65007906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017115785A Active JP6770488B2 (ja) 2017-06-13 2017-06-13 注視対象物推定装置、注視対象物推定方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6770488B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197952A (ja) * 2019-06-03 2020-12-10 学校法人早稲田大学 状況認識推定システム及び運転支援システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130300654A1 (en) * 2011-02-14 2013-11-14 Panasonic Corporation Display control device and display control method
JP2014157634A (ja) * 2014-06-05 2014-08-28 Nec Casio Mobile Communications Ltd 表示装置、制御方法及びプログラム
JP2014181927A (ja) * 2013-03-18 2014-09-29 Aisin Aw Co Ltd 情報提供装置、及び情報提供プログラム
JP2015085719A (ja) * 2013-10-28 2015-05-07 株式会社デンソーアイティーラボラトリ 注視対象物推定装置
JP2017072896A (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130300654A1 (en) * 2011-02-14 2013-11-14 Panasonic Corporation Display control device and display control method
JP2014181927A (ja) * 2013-03-18 2014-09-29 Aisin Aw Co Ltd 情報提供装置、及び情報提供プログラム
JP2015085719A (ja) * 2013-10-28 2015-05-07 株式会社デンソーアイティーラボラトリ 注視対象物推定装置
JP2014157634A (ja) * 2014-06-05 2014-08-28 Nec Casio Mobile Communications Ltd 表示装置、制御方法及びプログラム
JP2017072896A (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、情報処理方法、情報処理プログラム及び記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197952A (ja) * 2019-06-03 2020-12-10 学校法人早稲田大学 状況認識推定システム及び運転支援システム
JP7432198B2 (ja) 2019-06-03 2024-02-16 学校法人早稲田大学 状況認識推定システム及び運転支援システム

Also Published As

Publication number Publication date
JP6770488B2 (ja) 2020-10-14

Similar Documents

Publication Publication Date Title
US20190065872A1 (en) Behavior recognition apparatus, learning apparatus, and method and program therefor
CN111566612A (zh) 基于姿势和视线的视觉数据采集系统
US20190325597A1 (en) Simultaneous Localization And Mapping Constraints In Generative Adversarial Networks For Monocular Depth Estimation
US10417782B2 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
CN106574961B (zh) 使用多个物体检测单元的物体识别装置
KR100703698B1 (ko) 공간 필기 인식 장치 및 방법, 그리고 상기 방법을 기록한기록 매체
JP2020012830A (ja) 運動検出方法、装置、機器及び媒体
CN108932737A (zh) 车载相机俯仰角标定方法和装置、电子设备以及车辆
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP6319506B1 (ja) 評価装置、評価システム、車両、およびプログラム
JP2016200910A (ja) 運転者状態判定装置
US11080562B1 (en) Key point recognition with uncertainty measurement
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
US11009963B2 (en) Sign language inputs to a vehicle user interface
Zhao et al. In vehicle diver postural monitoring using a depth camera kinect
JP2012113450A (ja) 覚醒度判定装置、覚醒度判定方法及びプログラム
CN112083795A (zh) 对象控制方法及装置、存储介质和电子设备
JP6770488B2 (ja) 注視対象物推定装置、注視対象物推定方法、およびプログラム
JP6759743B2 (ja) 視認方向推定装置
Park et al. A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation
JP2007301087A (ja) 車両運転者の視線方向の検出方法又は同装置
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
JP2007200074A (ja) 周辺物体追尾装置及び周辺物体位置予測方法
JP7003335B2 (ja) 操作者判定装置および操作者判定方法
WO2017163309A1 (ja) 状態推定装置、ナビゲーション装置、および、作業手順の案内装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250