JP6024639B2 - 視線位置検出装置、および視線位置検出方法 - Google Patents

視線位置検出装置、および視線位置検出方法 Download PDF

Info

Publication number
JP6024639B2
JP6024639B2 JP2013214864A JP2013214864A JP6024639B2 JP 6024639 B2 JP6024639 B2 JP 6024639B2 JP 2013214864 A JP2013214864 A JP 2013214864A JP 2013214864 A JP2013214864 A JP 2013214864A JP 6024639 B2 JP6024639 B2 JP 6024639B2
Authority
JP
Japan
Prior art keywords
line
sight
vehicle
driver
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013214864A
Other languages
English (en)
Other versions
JP2015079304A (ja
Inventor
洋一 成瀬
洋一 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013214864A priority Critical patent/JP6024639B2/ja
Publication of JP2015079304A publication Critical patent/JP2015079304A/ja
Application granted granted Critical
Publication of JP6024639B2 publication Critical patent/JP6024639B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の走行時の運転者の視線の位置を検出する技術に関する。
車両の走行中に車載カメラで撮影した進行方向前方の画像(前方画像)を記憶しておき、車両事故などが発生した場合には、事故原因の特定などに利用可能とする技術が提案されている(特許文献1)。
また、前方画像だけでなく、走行中の運転者の視線の位置を検出して記憶しておくことで、事故が発生した原因などをより詳細に特定可能とすることを狙った技術も提案されている(特許文献2)。
特開平8−235491号公報 特開2007−072567号公報
しかし、提案されている技術では、依然として、事故が発生した原因などを詳細に特定することは難しいという問題があった。これは、次のような理由による。先ず、車載カメラは、運転者よりも車両の進行方向前方に搭載されている。このため、運転者が見ている前方状況は、車載カメラが実際に搭載されている位置よりも少し後方から撮影した画像に対応した前方状況となる。逆に言えば、運転者は、車載カメラで撮影した画像に対応する前方状況を、車載カメラよりも少し遅れて視認することになる。
このため、車両進行方向前方を撮影した前方画像と、運転者の視線の位置とを単に記憶しておくだけでは、事故発生の瞬間に、あるいは事故発生前の特定のタイミングで、運転者が実際に見ていた位置を正確に特定することが困難なためである。
この発明は、上述した問題に鑑みてなされたものであり、車両の走行時に運転者が見ていた位置を正確に特定することが可能な技術の提供を目的とする。
上述した問題を解決するために本発明の視線位置検出装置、および本発明の視線位置検出方法は、前方画像および顔画像を所定の時間間隔で撮影しており、車載カメラで前方画像を撮影した時の走行車速に対応する所要時間に基づいて、顔画像に対応する前方画像を選択する。ここで、所要時間とは、次のような時間である。ある時点で車室内カメラが顔画像を撮影したとすると、その時に運転者の顔面が存在していた位置を、車載カメラは少しだけ前に通過している。所要時間とは、この時間、すなわち、車両の進行に伴って、車載カメラが通過した位置に、運転者の顔面が到るまでに要する時間である。また、顔画像に対応する前方画像を選択するに際しては、顔画像が撮影されるより所要時間前、あるいは所要時間前に近いタイミングで撮影された前方画像を選択する。そして、選択した前方画像上での運転者の視線の位置を、顔画像を解析することによって検出する。
こうすれば、運転者の顔画像と、その顔画像を撮影した時に運転者の顔面が存在する位置(あるいは大まかには同じ位置)で撮影された前方画像とを用いて、運転者の視線の位置を決定することができる。このため、車両の走行時に運転者が見ていた位置を正確に特定することが可能となる。
また、上述した本発明の視線位置検出装置においては、前方画像上で決定された視線の位置を記憶しておくこととしてもよい。また、視線の位置は、前方画像上に上書きして記憶しておくことができる。
こうすれば、顔画像を記憶しておく必要が無くなるので、記憶容量を節約することができる。また、視線の位置を直ちに確認することが可能となる。
また、上述した本発明の視線位置検出装置においては、車両の少なくとも幅方向に位置を異ならせて複数箇所に車載カメラを設けておいてもよい。そして、それらの車載カメラを駆動することによって複数箇所で撮影した前方画像を1つの前方画像に合成し、合成した前方画像上で運転者の視線の位置を決定することとしてもよい。
こうすれば、大まかには運転者の正面に車載カメラを搭載して撮影したような前方画像を得ることができるので、車両の走行時に運転者が見ていた位置を正確に特定することが可能となる。また、運転者の正面には車載カメラを搭載する必要が無くなるので、車載カメラが運転者の視界を妨げて運転の邪魔になることも回避できる。
また、上述した本発明の視線位置検出装置においては、次のようにしても良い。先ず、車両内で車載カメラが搭載された高さ位置を原点とする座標から、運転者の目の高さ位置を原点とする座標に座標変換することにより、前方画像を、運転者の目の位置から見た画像に変換する。そして、得られた前方画像上で運転者の視線の位置を決定することとしてもよい。
こうすれば、大まかには運転者の目の高さの位置から撮影したような前方画像を得ることができるので、車両の走行時に運転者が見ていた位置を正確に特定することが可能となる。
また、前方画像を座標変換する上述した視線位置検出装置においては、顔画像を解析することによって運転者の目の位置を検出してもよい。そして、前方画像を座標変換するに際しては、車載カメラが搭載された高さ位置を原点とする座標から、検出した目の高さ位置を原点とする座標に座標変換することとしてもよい。
こうすれば、運転者の目の高さの位置から撮影したような前方画像を得ることができるので、車両の走行時に運転者が見ていた位置をより正確に特定することが可能となる。
また、上述した本発明の視線位置検出装置および視線位置検出方法は、次のようにしても良い。
すなわち、車載カメラで前方画像を撮影してから、所要時間の経過後に撮影された顔画像、あるいは所要時間後に近いタイミングで撮影された顔画像を選択する。そして、前方画像上での運転者の視線の位置を、選択した顔画像を解析することによって検出する。
こうすれば、車載カメラで撮影した前方画像と、その時の車載カメラの位置での運転者の顔面を撮影した顔画像とを用いて、運転者の視線の位置を決定することができる。このため、車両の走行時に運転者が見ていた位置を正確に特定することが可能となる。
また、上述した本発明の視線位置検出装置および視線位置検出方法は、次のようにしても良い。
すなわち、車載カメラで前方画像を撮影してから、所要時間の経過後に顔画像を撮影する。そして、その顔画像を解析することによって、前方画像上での運転者の視線の位置を検出する。
このようにしても、車載カメラで撮影した前方画像と、その時の車載カメラの位置での運転者の顔面を撮影した顔画像とを用いて、運転者の視線の位置を決定することができる。このため、車両の走行時に運転者が見ていた位置を正確に特定することが可能となる。
また、上述した本発明の視線位置検出装置および視線位置検出方法においては、次のようにしても良い。すなわち、車両の走行中は、前方画像や、顔画像、走行速度などを予め記憶しておく。そして、車両の走行後に、視線の位置を検出するに際しては、記憶されている前方画像、顔画像、走行速度を読み出して、前方画像上での視線の位置を検出することとしても良い。
こうすれば、車両の走行中に顔画像の解析などの処理をする必要がなく、走行終了後に必要に応じて処理すればよいので、処理負担を抑制することが可能となる。
視線位置検出装置10を搭載した車両1の大まかな構成を示した説明図である。 視線位置検出装置10についてのブロック図である。 運転者から見た前方状況と車載カメラで撮影した前方画像との違いについての説明図である。 第1実施例の視線位置検出処理のフローチャートである。 第1実施例で顔画像を用いて前方画像上での視線位置を決定する動作を示した説明図である。 第2実施例の画像撮影処理のフローチャートである。 第2実施例の視線位置検出処理のフローチャートである。 第2実施例で顔画像を用いて前方画像上での視線位置を決定する動作を示した説明図である。 第3実施例の前方画像撮影処理のフローチャートである。 第3実施例の視線位置検出処理のフローチャートである。 第3実施例で顔画像を用いて前方画像上での視線位置を決定する動作を示した説明図である。 複数台の車載カメラを搭載した変形例についての説明図である。 変形例の視線位置検出装置10についてのブロック図である。 複数台の車載カメラを搭載した他の態様の変形例についての説明図である。
以下では、上述した本願発明の内容を明確にするために実施例について説明する。
A.装置構成 :
図1には、本実施例の視線位置検出装置10を搭載した車両1の大まかな構成が示されている。図示されるように本実施例の視線位置検出装置10は、車両1のダッシュボード2内に搭載されており、車両1の進行方向前方の画像を撮影する車載カメラ3や、車両1の運転者6の顔面の画像(顔画像)を撮影する車室内カメラ4や、図示しない車輪に搭載されて車両1の走行速度を検出する車速センサー5などに接続されている。
このうちの視線位置検出装置10は、主にマイクロコンピューターを用いて構成されている。また、車室内カメラ4は、近赤外光を放射する近赤外LEDを内蔵しており、運転者6の顔面に近赤外光を照射することによって近赤外光での顔画像を撮影する。これに対して、車載カメラ3は、可視光を用いて前方画像を撮影する。
ここで図1に示されるように、車両1中で車載カメラ3が搭載されている位置と、運転者6の目の位置とを比較すると、車載カメラ3は、運転者6の目の位置よりも、車両1の進行方向前方に搭載されている。尚、目の位置は運転者6の身長や体格などによって厳密には変化するが、ほとんどの運転者6の目の位置を包含するような領域(アイボックス6a)を想定することができる。そこで、このアイボックス6aの中心から、車両1の進行方向に沿って、車載カメラ3が搭載された位置までの距離を、以下では「距離L」と称することがある。
図2には、視線位置検出装置10の大まかな内部構造が示されている。図示されるように視線位置検出装置10は、前方画像撮影部12と、顔画像撮影部13と、走行速度検出部14と、視線位置解析部15と、記憶部16などを備えている。
尚、これら5つの「部」は、視線位置検出装置10を、主に機能に着目して便宜的に分類した抽象的な概念である。これら5つの「部」の実体は、視線位置検出装置10を構成する各種の機器や、電子部品、コンピューター、コンピュータープログラム、あるいはそれらの組合せなどによって構成することができる。
前方画像撮影部12は、車載カメラ3と接続されており、所定周期(例えば30Hz)で車載カメラ3を駆動して車両1の進行方向前方の画像を撮影し、車載カメラ3で撮影された前方画像を取得する。
顔画像撮影部13は、車室内カメラ4と接続されており、所定周期(例えば30Hz)あるいは指定されたタイミングで車室内カメラ4を駆動して、運転者6の顔面の画像を撮影し、車室内カメラ4で撮影された顔画像を取得する。
走行速度検出部14は、車速センサー5と接続されており、指定されたタイミングで車速センサー5から車両1の走行速度を取得する。
視線位置解析部15は、主にCPUによって構成されており、車載カメラ3で撮影された前方画像や、車室内カメラ4で撮影された顔画像を解析することによって、運転者6の視線の位置を解析する。
尚、運転者6の顔画像から視線の位置を検出する方法には、周知の種々の方法を用いることができる。例えば、顔画像から目の位置と瞳の位置とを検出し、更に、目の位置と瞳の位置との関係から視線の方向を検出する。そして、目の位置と視線の方向とに基づいて視線の位置を検出することができる。あるいは、運転者6の目の位置についてはアイボックス6aの中心の位置で代用することとして、視線の方向を検出することによって、簡易的に視線の位置を検出することも可能である。
本実施例では、視線位置解析部15が本発明における「視線方向検出部」および「視線位置決定部」に対応する。
記憶部16は、ハードディスクなどの大容量記憶装置によって主に構成されており、車載カメラ3で撮影された前方画像や、車室内カメラ4で撮影された顔画像などを記憶する。更に、視線位置解析部15によって検出された視線の位置も記憶部16に記憶される。
尚、記憶部16は、本発明における「視線位置記憶部」に対応する。
もっとも、図1に示したように、運転者6のアイボックス6aの位置と、車載カメラ3が搭載されている位置とは、距離Lだけ離れている。このため、単に車載カメラ3で撮影した前方画像に、顔画像を解析して得られた視線の位置を重ねても、実際には運転者6が見ている位置を正確には特定することができない。この点について、図3を用いて説明する。
図3(a)には、運転者6が実際に見ている前方の状況が例示されており、図3(b)には、その時に車載カメラ3で撮影される前方画像が例示されている。図3(a)に例示した画像も、図3(b)に例示した画像も、どちらも車両1の前方の状況を示しているのでほとんど同じ画像となる。
しかし、2つの画像を比較すれば明らかなように、図3(b)に示した車載カメラ3の画像の方が、図3(a)に示した画像よりも、画像中の対象物が少しだけ大きく写っている。これは、車載カメラ3の搭載位置が、運転者6のアイボックス6aの位置よりも距離Lだけ前方にあることによる。
また、車載カメラ3の搭載位置で見た対象物の方が、運転者6のアイボックス6aの位置で見た対象物よりも大きく見えると言うことは、同じ画角で比較すると、車載カメラ3の位置で撮影した画像の方が、運転者6のアイボックス6aの位置で撮影した画像よりも狭い範囲を写していることになる。そして、このために、顔画像を解析して得られた視線の位置を、単に車載カメラ3で撮影した前方画像に重ねただけでは、実際に運転者6が見ている位置を正確に特定することが困難となる。
例えば、図3(a)中に「視線A」と表示したように、運転者6が信号機を見たとする。この視線の位置は、車室内カメラ4で撮影した顔画像を解析し、運転者6の目の位置と、視線の方向とを検出することによって決定されたものである。仮に、運転者6の目の位置に車載カメラ3が搭載されているとしたら、その車載カメラ3で撮影した前方画像に、顔画像を解析して決定した視線Aの位置を重ねると、視線Aの位置は前方画像上の信号機の位置に来る筈である。
しかし実際には、車載カメラ3は運転者6の目の位置よりも前方に搭載されており、このため車載カメラ3は、運転者6の目の位置に搭載された場合よりも狭い範囲を撮影する。従って、実際に車載カメラ3が撮影した前方画像に、顔画像から求めた視線Aの位置を重ねても、図3(b)に例示したように、視線Aの位置は前方画像上の信号機の位置から離れた位置に来る。
運転者6が歩行者を確認する場合にも同様なことが当て嵌まる。すなわち、図3(b)で左側から出てきた歩行者を確認した時の運転者6の視線の位置が、図中に「視線B」と表示した位置であったとする。しかし、図3(b)に例示したように、この視線Bの位置は、車載カメラ3で撮影した前方画像上では、歩行者の位置とは離れた位置に来る。
このように、車両1の走行中に撮影した顔画像を解析して、得られた視線の位置を、車載カメラ3で撮影した前方画像に重ねただけでは、実際に運転者6が見ている位置を正確に特定することは難しい。そこで、本実施例の視線位置検出装置10では、次のような方法で、運転者6の視線の位置を特定する。
B.第1実施例 :
図4には、第1実施例の視線位置検出装置10が運転者6の視線の位置を検出する視線位置検出処理のフローチャートが示されている。この処理は、視線位置検出装置10の視線位置解析部15によって主に実行される。
第1実施例の視線位置検出処理(S100)では、先ず始めに、車載カメラ3および車室内カメラ4の撮影周期時間が経過したか否かを判断する(S102)。すなわち、図2を用いて前述したように、車載カメラ3および車室内カメラ4は所定周期(例えば30Hz)で画像を撮影しており、前回に画像を撮影してからの経過時間が、その所定周期(例えば30Hz)の逆数に対応する時間(撮影周期時間)に達したか否かを判断する。
その結果、撮影周期時間に達していない場合は(S102:no)、同じ判断を繰り返すことによって、そのまま待機状態となる。
これに対して、撮影周期時間に達したと判断した場合は(S102:yes)、車載カメラ3を駆動して前方画像を撮影すると共に、車室内カメラ4を駆動して運転者6の顔画像を撮影した後、前方画像については記憶部16に記憶する(S104)。
続いて、視線位置解析部15は、顔画像を解析することによって運転者6の視線の方向を検出する(S106)。尚、運転者6の目の位置については、顔画像から検出しても良いし、アイボックス6aの中心に相当する所定の位置にあるものとしてもよい。
その後、車速センサー5を用いて車両1の走行速度を検出し、走行速度に対応する所要時間を算出する(S108)。ここで、走行速度に対応する「所要時間」とは次のような時間である。先ず、あるタイミングで車室内カメラ4が顔画像を撮影したとすると、その時に運転者6の顔面が存在する位置を、車載カメラ3は既に通過している筈である。そして、車載カメラ3が通過してから、その位置で車室内カメラ4によって顔画像が撮影されるまでに要する時間は、車両1の走行速度が高くなるほど短くなる。この時間が、走行速度に対応する所要時間である。
車載カメラ3は、運転者6の顔面よりも距離Lだけ前方に搭載されているから(図1参照)、所要時間Tは、距離Lを走行速度Vで除算することによって算出することができる。図4のS108では、このようにして、走行速度に対応する所要時間を算出する。
尚、所要時間を算出する処理は視線位置解析部15で行われていることから、本実施例の視線位置解析部15は本発明における「所要時間推測部」に対応する。
そして視線位置解析部15は、先に撮影されて記憶部16に記憶されている複数の前方画像の中から、所要時間前に撮影された前方画像を読み出す(S110)。前述したように前方画像は所定周期で(すなわち撮影周期時間毎に)撮影されているから、所要時間前に撮影された画像が、何周期前に撮影された画像に対応するかを直ちに決定することができるので、視線位置解析部15は、その画像を記憶部16から読み出す。
もちろん、所要時間が撮影周期時間の整数倍になるとは限らないが、この場合は、所要時間を撮影周期時間で除算した値を四捨五入することによって、何周期前の画像を読み出すかを決定することができる。あるいは、所要時間を撮影周期時間で除算した値を切り上げ、もしくは切り捨てることによって、何周期前の画像を読み出すかを決定することとしてもよい。
尚、所要時間前に撮影された前方画像を選択して読み出す処理は視線位置解析部15で行われていることから、本実施例の視線位置解析部15は本発明における「前方画像選択部」に対応する。
その後、視線位置解析部15は、先に検出した視線の方向と読み出した前方画像とを用いて、その前方画像上での運転者の視線の位置を決定し(S112)、その結果として得られた視線の位置が書き込まれた前方画像を、記憶部16に記憶する(S114)。尚、視線の位置が書き込まれた前方画像は、元の前方画像に上書きしてもよいし、元の前方画像とは別に記憶しても良い。
こうして、1つの顔画像と、この顔画像に対応する前方画像とについて視線位置を検出したら、車両1の運転を終了するか否かを判断し(S116)、運転終了でない場合は(S116:no)、処理の先頭に戻って、上述した続く一連の処理(S102〜S114)を実行する。
これに対して、運転終了と判断した場合は(S116:yes)、第1実施例の視線位置検出処理を終了する。
図5には、第1実施例の視線位置検出装置10が視線位置を検出する様子が概念的に示されている。車載カメラ3および車室内カメラ4では、一定周期で前方画像および顔画像を撮影する。このうち車載カメラ3が撮影した前方画像は、記憶部16に一旦、記憶される。
一方、車室内カメラ4が撮影した顔画像は視線位置解析部15で解析されて、運転者6の視線の方向(および運転者6の目の位置)が検出される。また、視線位置解析部15は、車速センサー5で検出された走行速度に基づいて、記憶部16に記憶されている複数の前方画像の中から1の前方画像を選択する。そして、その前方画像に対して、顔面画像から検出した視線の方向に基づいて視線の位置を書き込んでいく。
このように第1実施例の視線位置検出装置10では、車載カメラ3で撮影した前方画像が次々と記憶部16に蓄えられていき、そして、前方画像を撮影した位置を運転者6の顔面が通過する度に、その位置で撮影されて記憶部16に記憶されていた前方画像に対して、運転者6の視線の位置が次々と書き込まれていく。
こうすれば、顔画像を撮影した時に運転者6の顔面が存在していた位置と、近い位置から撮影した前方画像に対して視線の位置を決定することができる。このため、図3を用いて前述したような問題が生じることが無く、運転者が実際に見ていた位置を正確に特定することが可能となる。
もちろん、この場合、運転者6の視線の位置が決定される前方画像は、運転者6の顔画像が撮影されるよりも、走行速度に対応する所要時間だけ前に撮影された画像である。従って、歩行者のように前方画像中の対象物が移動する場合には、前方画像中での対象物の位置と、運転者6が実際に見た対象物の位置とにズレが生じる。
しかし、前述したように、走行速度に対応する所要時間は、運転者6の目の位置から車載カメラ3の搭載位置までの距離Lを、車両1の走行速度で除算して得られる時間であり、その短い時間の間で対象物が移動する距離はそれほど大きなものではない。このため、顔画像を撮影したタイミングよりも、所要時間だけ前に撮影した前方画像を用いることによる影響は、事実上、無視することが可能である。
尚、上述した第1実施例では、前方画像を選択する処理や、顔画像を解析して前方画像上での視線の位置を検出する処理は、車両1の走行中に実行されるものとして説明した。しかし、車両1の走行中には前方画像、顔画像、走行速度を記憶しておき、走行終了後に必要に応じて、前方画像の選択や、顔画像の解析や、視線位置の決定などを行うこととしても良い。
C.第2実施例 :
上述した第1実施例では、車室内カメラ4が顔画像を撮影すると、そのタイミングから所要時間だけ前に撮影されていた前方画像を選択し、その前方画像上で視線の位置を検出した。しかし、車載カメラ3が前方画像を撮影すると、そのタイミングから所要時間の経過後に撮影される顔画像を用いて、前方画像上での視線の位置を検出するようにしてもよい。以下では、このような第2実施例の視線位置検出装置10について説明する。
図6には、第2実施例の視線位置検出装置10が、車載カメラ3を用いて前方画像を撮影し、車室内カメラ4を用いて顔画像を撮影する処理のフローチャートが示されている。尚、この画像撮影処理(S200)は、運転者6の視線の位置を検出する準備として行われる処理であり、視線位置検出装置10の視線位置解析部15によって実行される。
画像撮影処理(S200)では、先ず始めに、車載カメラ3および車室内カメラ4の撮影周期時間が経過したか否かを判断する(S202)。撮影周期時間とは、前述した第1実施例と同様に、車載カメラ3および車室内カメラ4が画像を撮影する周期(例えば30Hz)の逆数に対応する時間である。
その結果、撮影周期時間に達していない場合は(S202:no)、同じ判断を繰り返すことによって待機状態となるが、撮影周期時間に達したと判断した場合は(S202:yes)、車載カメラ3および車室内カメラ4を駆動して前方画像および顔画像を撮影し、顔画像については一旦、記憶部16に記憶する(S204)。
続いて、車速センサー5を用いて車両1の走行速度を検出し、走行速度に対応する所要時間を算出する(S206)。ここで、第2実施例における「所要時間」とは次のような時間である。先ず、運転者6の顔面は、車載カメラ3が搭載されている位置よりも車両1の進行方向に対して後方にある。従って、あるタイミングで車載カメラ3が前方画像を撮影したとすると、その時の車載カメラ3の位置を運転者6の顔面が通過するまでには、車両1の走行速度に応じた時間の経過後となる。この経過時間が、第2実施例における「所要時間」である。
もっとも、第2実施例の「所要時間」も第1実施例の「所要時間」と同様に、距離Lを走行速度Vで除算することによって算出することができる。図6のS206では、このようにして、走行速度に対応する所要時間を算出する。
こうして所要時間を求めたら、視線位置解析部15は、求めた所要時間を関連付けた状態で、先に撮影した前方画像を記憶部16に記憶する(S208)。
このように第2実施例の画像撮影処理では、前方画像および顔画像を所定周期で撮影すると、顔画像についてはそのまま記憶部16に記憶し、前方画像については、その時の走行速度に応じた所要時間を関連付けた状態で記憶部16に記憶する。
その後、車両1の運転を終了するか否かを判断し(S210)、運転終了でない場合は(S210:no)、処理の先頭に戻って、上述した続く一連の処理(S202〜S210)を実行する。
これに対して、運転終了と判断した場合は(S210:yes)、第2実施例の画像撮影処理を終了する。
第2実施例の視線位置解析部15は、こうして記憶部16に記憶された顔画像および前方画像に対して、次のような処理を行うことによって運転者6の視線の位置を検出する。
図7には、第2実施例の視線位置解析部15が、運転者6の視線の位置を検出するために実行する視線位置検出処理のフローチャートが示されている。尚、第2実施例の視線位置検出処理(S250)は、車両1の運転が終了した後に開始しても良いし、車両1の運転中に(従って、図6の画像撮影処理と並行して)実行されるようにしても良い。車両1の運転が終了してから視線位置検出処理を開始する場合は、全ての前方画像および顔画像が記憶部16に記憶された状態で、この視線位置検出処理が実行される。これに対して、車両1の運転中に視線位置検出処理を開始する場合は、記憶部16に前方画像および顔画像が記憶される処理と並行して、図7の視線位置検出処理が実行されることになる。
第2実施例の視線位置検出処理を開始すると、視線位置解析部15は先ず始めに、記憶部16に記憶されている前方画像の中から、処理対象となる前方画像を1つ選択する(S252)。
そして、選択した前方画像に関連付けて記憶されている所要時間を記憶部16から読み出すと(S254)、記憶部16に記憶されている複数の顔画像の中から、選択した前方画像に対応する顔画像を、所要時間に基づいて選択する(S256)。
顔画像は前方画像と同様に撮影周期時間毎に撮影されているから、前方画像に関連付けられた所要時間が分かれば、その前方画像が撮影されてから所要時間後に撮影された顔画像を直ちに特定することができる。視線位置解析部15は、こうして前方画像に対応する顔画像を選択して記憶部16から読み出す。
もちろん第2実施例においても、前述した第1実施例と同様に、所要時間が撮影周期時間の整数倍になるとは限らないが、この場合は、所要時間を撮影周期時間で除算した値を四捨五入、切り上げ、あるいは切り捨てすればよい。
尚、前方画像の所要時間後に撮影された顔画像を選択して読み出す処理は視線位置解析部15で行われていることから、本実施例の視線位置解析部15は本発明における「顔画像選択部」に対応する。
続いて視線位置解析部15は、こうして選択した顔画像を解析することによって、運転者6の視線の方向を検出する(S258)。尚、運転者6の目の位置については、顔画像から検出しても良いし、アイボックス6aの中心に相当する所定の位置にあるものとしてもよい。
その後、視線位置解析部15は、S252で選択して読み出しておいた前方画像と、検出した視線の方向とを用いて、前方画像上での運転者の視線の位置を決定し(S260)、その結果として得られた視線の位置が書き込まれた前方画像を、記憶部16に記憶する(S262)。尚、視線の位置が書き込まれた前方画像は、元の前方画像に上書きしてもよいし、元の前方画像とは別に記憶しても良い。
こうして、選択した1つの前方画像についての処理を終了したら、全ての前方画像についての処理を終了したか否かを判断し(S264)、全ての前方画像についての処理が終了していない場合は(S264:no)、処理の先頭に戻って、上述した続く一連の処理(S252〜S264)を実行する。
これに対して、全ての前方画像についての処理が終了したと判断した場合は(S264:yes)、第2実施例の視線位置検出処理を終了する。
図8には、第2実施例の視線位置検出装置10が視線位置を検出する様子が概念的に示されている。前述したように第2実施例では、図6の画像撮影処理を実行して前方画像および顔画像を記憶部16に記憶する段階と、図7の視線位置検出処理を実行することによって、記憶部16に記憶された前方画像および顔画像を読み出して解析する段階の2段階で視線の位置を検出する。
先ず、画像を撮影する段階では、図8(a)に示されるように、車載カメラ3および車室内カメラ4が一定周期で前方画像および顔画像を撮影して、記憶部16に記憶していく。この時、前方画像については、車両1の走行速度に対応する所要時間が関連付けられた状態で記憶される。
次に、視線位置を検出する段階では、図8(b)に示すように、記憶部16に記憶されている前方画像の中から、まだ視線位置が書き込まれていない画像を、処理対象の前方画像として1つ選択する。そして、その前方画像に関連付けて記憶されている所要時間を記憶部16から読み出すと、記憶部16に記憶されている顔画像の中から、前方画像に対応する顔画像を、その所要時間に基づいて選択する。
続いて、視線位置解析部15は、読み出した顔画像を解析して視線位置を検出した後、検出した視線位置を、対象とする前方画像に書き込んで記憶する。このような処理を、記憶部16に記憶されている前方画像に対して順次行うことで、それら前方画像に視線位置を書き込むことができる。
このような第2実施例においても、前方画像を撮影した時に車載カメラ3が存在していた位置の近くを、運転者6の顔面が通過するタイミングで撮影された顔画像を用いて、視線の位置を決定することができる。このため、図3を用いて前述したような問題が生じることが無く、運転者が実際に見ていた位置を正確に特定することが可能となる。
また、この場合にも、前述した第1実施例と同様に、前方画像と顔画像とは異なるタイミングで撮影されている。すなわち、第2実施例では、前方画像上での視線の位置を決定するために用いる顔画像は、その前方画像が撮影されてから所要時間が経過した後に撮影された画像である。従って、歩行者のように前方画像中の対象物が移動する場合には、前方画像中での対象物の位置と、運転者6が実際に見た対象物の位置とにズレが生じる。
しかし、前述したように、走行速度に対応する所要時間は、運転者6の目の位置から車載カメラ3の搭載位置までの距離Lを、車両1の走行速度で除算して得られる時間であり、その短い時間の間で対象物が移動する距離はそれほど大きなものではない。このため、顔画像を撮影したタイミングと、前方画像を撮影したタイミングとが所要時間だけずれていることによる影響は、事実上、無視することができる。
D.第3実施例 :
上述した第1実施例および第2実施例では、車載カメラ3および車室内カメラ4は、どちらも一定周期で前方画像および顔画像を撮影しているものとして説明した。そして、第1実施例では、顔画像を撮影したタイミングを基準として所要時間だけ前に撮影された前方画像を選択し、第2実施例では、前方画像を撮影したタイミングを基準として所要時間だけ後に撮影された顔画像を選択して、視線の位置を検出するものとして説明した。
しかし、車室内カメラ4が顔画像を撮影するタイミングを、車載カメラ3が前方画像を撮影したタイミングに連動させることとして、車載カメラ3が前方画像を撮影してから所要時間が経過したタイミングで、車室内カメラ4で顔画像を撮影するようにしても良い。以下では、このような第3実施例の視線位置検出装置10について説明する。
図9には、第9実施例の視線位置検出装置10が、車載カメラ3を用いて前方画像を撮影する処理のフローチャートが示されている。尚、この前方画像撮影処理(S300)は、運転者6の視線の位置を検出する準備として行われる処理であり、視線位置検出装置10の視線位置解析部15によって実行される。
前方画像撮影処理(S300)では、先ず始めに、車載カメラ3が前回に前方画像を撮影してから撮影周期時間が経過したか否かを判断する(S302)。撮影周期時間とは、前述した第1実施例および第2実施例と同様に、車載カメラ3が画像を撮影する周期(例えば30Hz)の逆数に対応する時間である。
その結果、撮影周期時間に達していない場合は(S302:no)、同じ判断を繰り返すことによって待機状態となるが、撮影周期時間に達したと判断した場合は(S302:yes)、車載カメラ3を用いて前方画像を撮影して、記憶部16に記憶する(S304)。
続いて、車速センサー5を用いて車両1の走行速度を検出し、走行速度に対応する所要時間を算出する(S306)。第3実施例の「所要時間」は、前述した第2実施例の「所要時間」と同様に、あるタイミングで前方画像を撮影した車載カメラ3が存在していた位置を、運転者6の顔面が通過するまでに要する時間である。従って、第3実施例の「所要時間」も、第2実施例(および第1実施例)の「所要時間」と同様に、距離Lを走行速度Vで除算することによって算出することができる。
視線位置解析部15は、こうして求めた所要時間に基づいて、前方画像に対応する顔画像の撮影タイミングを設定する(S308)。尚、こうして設定された顔画像の撮影タイミングは、次の前方画像が撮影されるタイミングよりも早くなる場合もあるが、遅くなる場合もある。顔画像が撮影されるよりも前に次の前方画像が撮影された場合には、新たな前方画像に対しても顔画像の撮影タイミングが設定されるので、複数の前方画像の各々に対して顔画像の撮影タイミングが設定されることになる。
このことから、顔画像の撮影タイミングを設定するに際しては、何れの前方画像に対応して設定された撮影タイミングであるかを識別可能なように、撮影タイミングは前方画像に関連付けられた状態で設定される。
こうして前方画像に関連付けて顔画像の撮影タイミングを設定したら、視線位置解析部15は、車両1の運転終了か否かを判断し(S310)、運転終了でない場合は(S310:no)、処理の先頭に戻って、上述した続く一連の処理(S302〜S310)を実行する。
これに対して、運転終了と判断した場合は(S310:yes)、第3実施例の前方画像撮影処理を終了する。
第3実施例の視線位置解析部15は、以上のようにして前方画像を記憶部16に記憶して、顔画像の撮影タイミングを設定する前方画像撮影処理(S300)を実行する。また、この処理と並行して、以下のような視線位置検出処理を実行する。
図10には、第3実施例の視線位置解析部15が実行する視線位置検出処理のフローチャートが示されている。第3実施例の視線位置検出処理を開始すると、視線位置解析部15は先ず始めに、前述した前方画像撮影処理(S300)で設定された顔画像の撮影時刻に達したか否かを判断する(S352)。複数の撮影時刻が設定されている場合には、そのうちの早い方の撮影時刻に達したか否かが判断される。その結果、撮影時刻に達していない場合は(S352:no)、同じ判断を繰り返すことによって待機状態となる。
これに対して、撮影時刻に達したと判断した場合は(S352:yes)、車室内カメラ4を用いて運転者6の顔画像を撮影する(S354)。
そして、撮影した顔画像を解析することによって、運転者6の視線の方向を検出する(S356)。尚、運転者6の目の位置については、顔画像から検出しても良いし、アイボックス6aの中心に相当する所定の位置にあるものとしてもよい。
その後、視線位置解析部15は、顔画像に対応する前方画像を記憶部16から読み出す(S358)。すなわち、図9を用いて前述したように、撮影時刻は前方画像と関連付けられた状態で記憶されているので、顔画像を撮影した撮影時刻から前方画像を特定することができる。そこで、その前方画像を顔画像に対応する前方画像として記憶部16から読み出す。
そして、顔画像から検出した視線の方向と、読み出した前方画像とを用いて、前方画像上での運転者の視線の位置を決定し(S360)、その結果として得られた視線の位置が書き込まれた前方画像を、記憶部16に記憶する(S362)。尚、視線の位置が書き込まれた前方画像は、元の前方画像に上書きしてもよいし、元の前方画像とは別に記憶しても良い。
その後、車両1の運転を終了するか否かを判断し(S364)、運転終了でない場合は(S364:no)、処理の先頭に戻って、上述した続く一連の処理(S352〜S364)を実行する。
これに対して、運転終了と判断した場合は(S364:yes)、第3実施例の視線位置検出処理を終了する。
図11には、第3実施例の視線位置検出装置10が視線位置を検出する様子が概念的に示されている。第3実施例においても、車載カメラ3については前述した第1実施例あるいは第2実施例と同様に、一定周期で前方画像を撮影する。また、撮影した前方画像は記憶部16に記憶される。
また、視線位置解析部15は、車載カメラ3が前方画像を撮影すると、その時の車両1の走行速度を車速センサー5から取得して、顔画像の撮影時刻を設定する。その後、設定された撮影時刻に達したら、車室内カメラ4を用いて顔画像を撮影し、撮影した顔画像を解析して運転者6の視線の方向(および運転者6の目の位置)を検出する。そして、その顔画像の撮影時刻が関連付けられている前方画像に対して、顔面画像から検出した視線の方向に基づいて視線の位置を書き込んでいく。
このような第3実施例においても、車載カメラ3が前方画像を撮影すると、その時に車載カメラ3が存在していた位置を運転者6の顔面が通過するタイミングで顔画像を撮影し、その顔画像を用いて視線の位置を決定する。このため、図3を用いて前述したような問題が生じることが無く、運転者が実際に見ていた位置を正確に特定することができる。
また、この場合にも、前述した第1実施例および第2実施例と同様に、前方画像と顔画像とは異なるタイミングで撮影されることとなるが、この影響は、前述した第1実施例および第2実施例と同様な理由により、事実上は無視することができる。
尚、上述した第3実施例においても、顔画像を解析する処理や、記憶されている前方画像を読み出す処理、前方画像上での視線の位置を検出する処理は、車両1の走行中に実行されるものとして説明した。しかし、車両1の走行中には前方画像、顔画像を記憶しておき、走行終了後に必要に応じて、前方画像および前方画像に対応する顔画像を選択して、顔画像を解析することにより、前方画像上での視線位置を決定することとしても良い。
E.変形例 :
上述した各種実施例には、幾つかの変形例を考えることができる。以下では、これらの変形例について簡単に説明する。
上述した各種実施例では、車載カメラ3は1台だけ車両1に搭載されているものとして説明した。しかし、複数台の車載カメラ3を搭載しても良い。この場合、図12に例示したように、アイボックス6aの左側と右側とに、アイボックス6aの中央から等距離となる位置に車載カメラ3L,3Rを配置しても良い。
そして、図13に示すように前方画像撮影部12は、車載カメラ3L,3Rを用いてそれぞれの前方画像を撮影して、それらの前方画像を1枚の前方画像に合成する。
前方画像の合成に際しては、左右の車載カメラ3L,3Rの視角差の情報を用いて3次元画像を合成しても良いが、簡易的には次のようにしても良い。車載カメラ3Lと車載カメラ3Rとは搭載位置が左右方向に異なっているので、前方画像中での対象物の位置は異なったものとなる。たとえば、アイボックス6aのちょうど正面にある対象物が、左側の車載カメラ3Lでは少し右側にあるように写り、右側の車載カメラ3Rでは少し左側にあるように写る。すなわち、車載カメラ3Lの前方画像では右側に写り、3Rの前方画像では左側に写っているような対象物は、アイボックス6aの正面にあると考えて良い。また、車載カメラ3Lの前方画像では少しだけ右側に写り、3Rの前方画像では大きく左側に写っているような対象物は、アイボックス6aの正面よりも左側にあると考えて良い。
このことから、車載カメラ3Lで撮影した前方画像上での対象物の位置と、車載カメラ3Rで撮影した前方画像上での対象物の位置とに基づいて、アイボックス6aの位置から撮影した前方画像上での対象物の位置を推定することができる。そして、このようにすれば、車載カメラ3Lで撮影した前方画像と、車載カメラ3Rで撮影した前方画像とを用いて、アイボックス6aの位置で撮影したような前方画像を合成することができる。
こうして合成した前方画像に対して、車室内カメラ4で撮影した顔画像を用いて視線の位置を検出しても良い。
また、図12に示した例では、車載カメラ3L,3Rは、アイボックス6aよりも低い位置に搭載されている。従って、車載カメラ3L,3Rで撮影された前方画像では、アイボックス6aの位置から前方画像を撮影した場合よりも、高い位置に対象物が写っていることになる。
そこで、前方画像撮影部12は、車載カメラ3L,3Rと、アイボックス6aの中心との高さの差に相当する画素数だけ、前方画像上での対象物の位置を下方に移動させることとしてもよい。こうすれば、車載カメラ3L,3Rで撮影された前方画像を、アイボックス6aの中心位置から撮影した前方画像に変換することができる。
尚、変形例の前方画像撮影部12は、本発明における「前方画像合成部」に対応する。
また、車室内カメラ4で撮影した顔画像から運転者6の目の位置を検出することができるから、車載カメラ3L,3Rと、運転者6の目の位置との高さの差に相当する画素数だけ、前方画像上での対象物の位置を下方に移動させることとしてもよい。こうすれば、車載カメラ3L,3Rで撮影された前方画像を、運転者6の目の位置から撮影した前方画像に変換することができる。
尚、この場合の変形例の前方画像撮影部12は、本発明における「画像変換部」に対応する。
また、上述した変形例では、車載カメラ3L,3Rは、車両1に対して大まかには同じ高さ位置に搭載されているものとして説明した。これに対して、図14に例示したように、一方(図示した例では車載カメラ3L)はアイボックス6aよりも高い位置に搭載し、他方(図示した例では車載カメラ3R)はアイボックス6aよりも低い位置に搭載するようにしても良い。
こうすれば、車載カメラ3Lによる前方画像と、車載カメラ3Rによる前方画像を合成することによって、運転者6の目の位置から撮影した前方画像を合成することが可能となる。
以上、各種の実施例および変形例について説明したが、本発明は上記の実施例および変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
1…車両、 2…ダッシュボード、 3…車載カメラ、
4…車室内カメラ、 5…車速センサー、 6…運転者、
6a…アイボックス、 10…視線位置検出装置、 12…前方画像撮影部、
13…顔画像撮影部、 14…走行速度検出部、 15…視線位置解析部、
16…記憶部。

Claims (10)

  1. 車載カメラを用いて車両の進行方向を撮影した前方画像と、車室内カメラを用いて運転者の顔面を撮影した顔画像とを解析することにより、該運転者の視線の位置を検出する視線位置検出装置であって、
    前記車載カメラを駆動することによって、所定の時間間隔で前記前方画像を撮影する前方画像撮影部と、
    前記車室内カメラを駆動することによって、前記所定の時間間隔で前記顔画像を撮影する顔画像撮影部と、
    前記車両の走行速度を検出する走行速度検出部と、
    前記車載カメラが通過した位置に前記車両の進行に伴って前記運転者の顔面が到るまでに要する所要時間を、前記走行速度に基づいて推測する所要時間推測部と、
    前記所定の時間間隔で撮影された前記顔画像について、前記所要時間の経過前に対応する前記前方画像を、該顔画像に対応する前方画像として選択する前方画像選択部と、
    前記顔画像を解析することによって、前記運転者の視線の方向を検出する視線方向検出部と、
    前記視線の方向が検出された前記顔画像に対応する前記前方画像上での前記運転者の視線の位置を、該検出された視線の方向に基づいて決定する視線位置決定部と
    を備える視線位置検出装置。
  2. 請求項1に記載の視線位置検出装置であって、
    前記前方画像上で決定された前記視線の位置を記憶する視線位置記憶部を備える視線位置検出装置。
  3. 請求項1または請求項2に記載の視線位置検出装置であって、
    前記車載カメラは、前記車両の少なくとも幅方向に位置を異ならせて複数箇所に設けられており、
    前記前方画像撮影部は、複数箇所に設けられた前記車載カメラを駆動することによって前記前方画像を撮影しており、
    前記複数箇所で撮影された前記前方画像を1つの前記前方画像に合成する前方画像合成部を備え、
    前記視線位置決定部は、前記合成された前記前方画像上で前記運転者の視線の位置を決定する
    視線位置検出装置。
  4. 請求項1ないし請求項3の何れか一項に記載の視線位置検出装置であって、
    前記車両内で前記車載カメラが搭載された高さ位置を原点とする座標から、前記運転者の目の高さ位置を原点とする座標に座標変換することにより、前記前方画像を、前記運転者の目の位置から見た画像に変換する画像変換部を備え、
    前記視線位置決定部は、前記画像変換部によって座標変換された前記前方画像上で、前記運転者の視線の位置を決定する
    視線位置検出装置。
  5. 請求項4に記載の視線位置検出装置であって、
    前記視線方向検出部は、前記顔画像を解析することによって、前記運転者の視線の方向に加えて、少なくとも高さ方向への前記運転者の目の位置を検出しており、
    前記画像変換部は、前記検出された目の位置に基づいて前記座標変換する
    視線位置検出装置。
  6. 車載カメラを用いて車両の進行方向を撮影した前方画像と、車室内カメラを用いて運転者の顔面を撮影した顔画像とを解析することにより、該運転者の視線の位置を検出する視線位置検出装置であって、
    前記車載カメラを駆動することによって、所定の時間間隔で前記前方画像を撮影する前方画像撮影部と、
    前記車室内カメラを駆動することによって、前記所定の時間間隔で前記顔画像を撮影する顔画像撮影部と、
    前記車両の走行速度を検出する走行速度検出部と、
    前記車載カメラが通過した位置に前記車両の進行に伴って前記運転者の顔面が到るまでに要する所要時間を、前記走行速度に基づいて推測する所要時間推測部と、
    前記所定の時間間隔で撮影された前記前方画像について、前記所要時間の経過後に対応する前記顔画像を、該前方画像に対応する顔画像として選択する顔画像選択部と、
    前記選択された顔画像を解析することによって、前記運転者の視線の方向を検出する視線方向検出部と、
    前記視線の方向が検出された前記顔画像に対応する前記前方画像上での前記運転者の視線の位置を、該検出された視線の方向に基づいて決定する視線位置決定部と
    を備える視線位置検出装置。
  7. 車載カメラを用いて車両の進行方向を撮影した前方画像と、車室内カメラを用いて運転者の顔面を撮影した顔画像とを解析することにより、該運転者の視線の位置を検出する視線位置検出装置であって、
    前記車載カメラを駆動することによって、所定の時間間隔で前記前方画像を撮影する前方画像撮影部と、
    前記車両の走行速度を検出する走行速度検出部と、
    前記車載カメラが通過した位置に前記車両の進行に伴って前記運転者の顔面が到るまでに要する所要時間を、前記走行速度に基づいて推測する所要時間推測部と、
    前記前方画像を撮影してから前記所要時間が経過する度に前記車室内カメラを駆動することによって、該前方画像に対応する前記顔画像を撮影する顔画像撮影部と、
    前記顔画像を解析することによって、前記運転者の視線の方向を検出する視線方向検出部と、
    前記視線の方向が検出された前記顔画像に対応する前記前方画像上での前記運転者の視線の位置を、該検出された視線の方向に基づいて決定する視線位置決定部と
    を備える視線位置検出装置。
  8. 車載カメラを用いて車両の進行方向を撮影した前方画像と、車室内カメラを用いて運転者の顔面を撮影した顔画像とを解析することにより、該運転者の視線の位置を検出する視線位置検出方法であって、
    前記車載カメラを駆動することによって、所定の時間間隔で前記前方画像を撮影する工程と、
    前記車室内カメラを駆動することによって、前記所定の時間間隔で前記顔画像を撮影する工程と、
    前記車両の走行速度を検出する工程と、
    前記車載カメラが通過した位置に前記車両の進行に伴って前記運転者の顔面が到るまでに要する所要時間を、前記走行速度に基づいて推測する工程と、
    前記所定の時間間隔で撮影された前記顔画像について、前記所要時間の経過前に対応する前記前方画像を、該顔画像に対応する前方画像として選択する工程と、
    前記顔画像を解析することによって、前記運転者の視線の方向を検出する工程と、
    前記視線の方向が検出された前記顔画像に対応する前記前方画像上での前記運転者の視線の位置を、該検出された視線の方向に基づいて決定する工程と
    を備える視線位置検出方法。
  9. 車載カメラを用いて車両の進行方向を撮影した前方画像と、車室内カメラを用いて運転者の顔面を撮影した顔画像とを解析することにより、該運転者の視線の位置を検出する視線位置検出方法であって、
    前記車載カメラを駆動することによって、所定の時間間隔で前記前方画像を撮影する工程と、
    前記車室内カメラを駆動することによって、前記所定の時間間隔で前記顔画像を撮影する工程と、
    前記車両の走行速度を検出する工程と、
    前記車載カメラが通過した位置に前記車両の進行に伴って前記運転者の顔面が到るまでに要する所要時間を、前記走行速度に基づいて推測する工程と、
    前記所定の時間間隔で撮影された前記前方画像について、前記所要時間の経過後に対応する前記顔画像を、該前方画像に対応する顔画像として選択する工程と、
    前記選択された顔画像を解析することによって、前記運転者の視線の方向を検出する工程と、
    前記視線の方向が検出された前記顔画像に対応する前記前方画像上での前記運転者の視線の位置を、該検出された視線の方向に基づいて決定する工程と
    を備える視線位置検出方法。
  10. 車載カメラを用いて車両の進行方向を撮影した前方画像と、車室内カメラを用いて運転者の顔面を撮影した顔画像とを解析することにより、該運転者の視線の位置を検出する視線位置検出方法であって、
    前記車載カメラを駆動することによって、所定の時間間隔で前記前方画像を撮影する工程と、
    前記車両の走行速度を検出する工程と、
    前記車載カメラが通過した位置に前記車両の進行に伴って前記運転者の顔面が到るまでに要する所要時間を、前記走行速度に基づいて推測する工程と、
    前記前方画像を撮影してから前記所要時間が経過する度に前記車室内カメラを駆動することによって、該前方画像に対応する前記顔画像を撮影する工程と、
    前記顔画像を解析することによって、前記運転者の視線の方向を検出する工程と、
    前記視線の方向が検出された前記顔画像に対応する前記前方画像上での前記運転者の視線の位置を、該検出された視線の方向に基づいて決定する工程と
    を備える視線位置検出方法。
JP2013214864A 2013-10-15 2013-10-15 視線位置検出装置、および視線位置検出方法 Expired - Fee Related JP6024639B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013214864A JP6024639B2 (ja) 2013-10-15 2013-10-15 視線位置検出装置、および視線位置検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013214864A JP6024639B2 (ja) 2013-10-15 2013-10-15 視線位置検出装置、および視線位置検出方法

Publications (2)

Publication Number Publication Date
JP2015079304A JP2015079304A (ja) 2015-04-23
JP6024639B2 true JP6024639B2 (ja) 2016-11-16

Family

ID=53010695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013214864A Expired - Fee Related JP6024639B2 (ja) 2013-10-15 2013-10-15 視線位置検出装置、および視線位置検出方法

Country Status (1)

Country Link
JP (1) JP6024639B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11077859B2 (en) 2018-03-23 2021-08-03 Denso Corporation State determination device, state determination program, and computer-readable non-transitory tangible storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170916A1 (ja) * 2019-02-22 2020-08-27 パナソニックIpマネジメント株式会社 状態検知装置及び状態検知方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4103518B2 (ja) * 2002-09-20 2008-06-18 株式会社エクォス・リサーチ 車載画像表示装置
JP4274111B2 (ja) * 2004-12-02 2009-06-03 株式会社デンソー 適正車間距離表示制御装置
JP2006172215A (ja) * 2004-12-16 2006-06-29 Fuji Photo Film Co Ltd 運転支援システム
JP4669448B2 (ja) * 2006-07-13 2011-04-13 株式会社デンソーアイティーラボラトリ 情報記録装置、情報記録方法およびプログラム
JP5811918B2 (ja) * 2012-03-26 2015-11-11 富士通株式会社 注視対象物推定装置、方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11077859B2 (en) 2018-03-23 2021-08-03 Denso Corporation State determination device, state determination program, and computer-readable non-transitory tangible storage medium
US11760359B2 (en) 2018-03-23 2023-09-19 Denso Corporation State determination device, state determination program, and computer-readable non-transitory tangible storage medium

Also Published As

Publication number Publication date
JP2015079304A (ja) 2015-04-23

Similar Documents

Publication Publication Date Title
JP7105754B2 (ja) 撮像装置、及び、撮像装置の制御方法
US8836760B2 (en) Image reproducing apparatus, image capturing apparatus, and control method therefor
US9418556B2 (en) Apparatus and method for displaying a blind spot
JP6095985B2 (ja) 再生装置、再生システム、再生方法及びプログラム
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
JP2019509534A (ja) 将来経路を推定するシステム及び方法
JP5299296B2 (ja) 車両周辺画像表示装置及び車両周辺画像表示方法
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6393189B2 (ja) 車載画像処理装置
JP6548900B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2007274377A (ja) 周辺監視装置、プログラム
KR101097063B1 (ko) 사각 지대 표시 장치 및 방법
JP2007325166A (ja) 駐車支援プログラム、駐車支援装置、駐車支援画面
JP6194604B2 (ja) 認識装置、車両及びコンピュータが実行可能なプログラム
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US20100171815A1 (en) Image data obtaining method and apparatus therefor
JP2016175586A (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP2010028803A (ja) 駐車補助のための画像表示方法
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
WO2015133072A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP5299101B2 (ja) 周辺表示装置
JP5439949B2 (ja) ステレオ測定システムおよび動画再生システム
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP6024639B2 (ja) 視線位置検出装置、および視線位置検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R151 Written notification of patent or utility model registration

Ref document number: 6024639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees