JP2009297321A - 視線方向認識エラー検出装置 - Google Patents
視線方向認識エラー検出装置 Download PDFInfo
- Publication number
- JP2009297321A JP2009297321A JP2008156210A JP2008156210A JP2009297321A JP 2009297321 A JP2009297321 A JP 2009297321A JP 2008156210 A JP2008156210 A JP 2008156210A JP 2008156210 A JP2008156210 A JP 2008156210A JP 2009297321 A JP2009297321 A JP 2009297321A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- prediction formula
- face
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】 エラー認識精度を向上させた視線方向認識エラー検出装置を提供する。
【解決手段】 運転者の顔面画像を撮影する撮影手段と、前記顔面画像から前記運転者の顔の向きおよび視線の方向を求める認識手段と、前記視線の方向のエラーを判定する誤認識判定手段とを備え、前記誤認識判定手段は、前記顔の向きに基づき、前記視線の方向を予測する予測式を算出し、この予測式と前記視線の方向の認識結果を比較することにより、前記視線の方向の認識エラーを判定することとした。
【選択図】 図12
【解決手段】 運転者の顔面画像を撮影する撮影手段と、前記顔面画像から前記運転者の顔の向きおよび視線の方向を求める認識手段と、前記視線の方向のエラーを判定する誤認識判定手段とを備え、前記誤認識判定手段は、前記顔の向きに基づき、前記視線の方向を予測する予測式を算出し、この予測式と前記視線の方向の認識結果を比較することにより、前記視線の方向の認識エラーを判定することとした。
【選択図】 図12
Description
本発明は、車両に搭載される運転者の視線方向認識エラー検出装置に関する。
従来、運転者の視線方向認識エラー検出装置にあっては、カメラにより撮影された運転者の顔面画像に基づき顔の向きと視線方向を判断している(例えば、特許文献1参照)。この技術にあっては、顔面画像のうち目、鼻、口等の大まかな特徴点の領域を囲み領域として検出し、この囲み領域内の画像内部から、目の囲み領域内では黒目中心、目頭、目尻等の特徴点を検出し、鼻の囲み領域内では鼻口等の特徴点の位置を検出している。
特開平9−76815号公報
しかしながら上記従来技術にあっては、顔面全体の画像のうち目の領域は相対的に小さいため、顔向き方向の検出精度と比べて視線方向の検出精度が低下し、視線方向の認識エラーが発生しやすいという問題があった。
本発明は上記問題に着目してなされたもので、その目的とするところは、エラー認識精度を向上させた視線方向認識エラー検出装置を提供することにある。
上述の目的を達成するため、本発明では、運転者の顔面画像を撮影する撮影手段と、前記顔面画像から前記運転者の顔の向きおよび視線の方向を求める認識手段と、前記視線の方向のエラーを判定する誤認識判定手段とを備え、前記誤認識判定手段は、前記顔の向きに基づき、前記視線の方向を予測する予測式を算出し、この予測式と前記視線の方向の認識結果を比較することにより、前記視線の方向の認識エラーを判定することとした。
よって、エラー認識精度を向上させた視線方向認識エラー検出装置を提供できる。
以下に、本発明の視線方向認識エラー検出装置の実施の形態を、実施例に基づいて説明する。
[システム構成]
実施例1につき説明する。図1は本願視線方向認識エラー検出装置1のシステム構成図である。視線方向認識エラー検出装置1は車両に搭載され、運転者撮影カメラ110に接続する。
実施例1につき説明する。図1は本願視線方向認識エラー検出装置1のシステム構成図である。視線方向認識エラー検出装置1は車両に搭載され、運転者撮影カメラ110に接続する。
運転者撮影カメラ110は車室内のインパネ2の上部に設けられ、運転者の顔面全体を撮影する。運転者撮影カメラ110をインパネ2の上部に設けることで、ステアリングホイール3によって遮られることなく運転者の顔面を撮影可能となっている。
[制御ブロック図]
図2は視線方向認識エラー検出装置1の制御ブロック図である。視線方向認識エラー検出装置1は認識処理部120、誤認識判定部130を有し、運転者撮影カメラ110からのビデオ映像に基づき視線方向の認識エラーを検出する。
図2は視線方向認識エラー検出装置1の制御ブロック図である。視線方向認識エラー検出装置1は認識処理部120、誤認識判定部130を有し、運転者撮影カメラ110からのビデオ映像に基づき視線方向の認識エラーを検出する。
認識処理部120は顔向き検知処理部121および視線検知処理部122を有し、それぞれビデオ映像に基づき顔向きの角度値(顔向き角度θ)と視線の角度値(視線方向角度φ)を検知する。なお、θおよびφはいずれも車両のヨー方向の角度である。
誤認識判定部130は予測式算出処理および視線向き予測値算出部131、誤認識判定部132を有する。予測式算出処理および視線向き予測値算出部131は顔向き方向角度θおよび視線方向角度φに基づき予測式を算出し、この予測式に基づき視線方向角度φの予測値φiを算出する。誤認識判定部132は視線方向角度φおよび予測値φiに基づき視線方向角度φの誤認識の有無を判定する。
[顔向きおよび視線向きの検出]
認識処理部120では、顔向き検知処理部121および視線検知処理部122において以下の方法で顔向きおよび視線向きを検出する。検出方法は従来例である特開平9−76815と同様である。
認識処理部120では、顔向き検知処理部121および視線検知処理部122において以下の方法で顔向きおよび視線向きを検出する。検出方法は従来例である特開平9−76815と同様である。
まず、顔面画像中における目・鼻・口等の大まかな顔の特徴点の領域をそれぞれ目・鼻・口等の囲み領域として検出した後、各特徴点領域内の画像情報から黒目中心・目頭・目尻・鼻口等の特徴点位置をそれぞれ検出する。
その後、これらの各特徴点の、例えば車両空間を基準とする3次元空間上における座標位置を計算する。そして更に各特徴点の座標位置の時間的変化や各特徴点の相対的な位置関係等から顔の向き、および視線方向を算出する。上述のように、顔向き方向角度θおよび視線方向角度φはいずれも車両のヨー方向の角度である。
[認識エラー検出]
誤認識判定部130では、車速が一定値以上となった際に顔向き方向角度θおよび視線方向角度φのサンプリングを行い、データを蓄積する。ここで、車速の一定値とは、運転者の視線が車両進行方向正面に集中するようになる車速の値である。
誤認識判定部130では、車速が一定値以上となった際に顔向き方向角度θおよび視線方向角度φのサンプリングを行い、データを蓄積する。ここで、車速の一定値とは、運転者の視線が車両進行方向正面に集中するようになる車速の値である。
車速がこの一定値以下での走行は、周宅地周辺での走行や駐停車動作、右左折時などの低速走行時であることが多く、運転者の視線は車両方向正面以外に注がれていることが多い。したがって顔向き方向角度θおよび視線方向角度φのサンプリングは車速一定値以上の場合に行うものとする。なお、本願では車速一定値=30km/hとする。
[サンプリングデータ]
図3は車両のヨー方向と顔向き方向角度θおよび視線方向角度φの関係を示す図、図4はサンプリングデータ表である。図3で示すように、顔向き方向角度θおよび視線方向角度φは車両右向きヨー方向を正、車両左向きヨー方向を負とする。また、図4では顔向き方向角度θおよび視線方向角度φが正面から右方向へ向かった場合のデータを×、正面から左方向へ向かった場合のデータを■で示す
図3は車両のヨー方向と顔向き方向角度θおよび視線方向角度φの関係を示す図、図4はサンプリングデータ表である。図3で示すように、顔向き方向角度θおよび視線方向角度φは車両右向きヨー方向を正、車両左向きヨー方向を負とする。また、図4では顔向き方向角度θおよび視線方向角度φが正面から右方向へ向かった場合のデータを×、正面から左方向へ向かった場合のデータを■で示す
運転者が対象物を目で追う際は目と顔が同一方向に運動するため、視線方向角度φが右を向けば顔向き方向角度θも右向きとなり、φが左向きとなればθも左向きとなって、顔向き方向角度θ−視線方向角度φの関係は図4のように右上がりのグラフとなる。
[サンプリングデータ予測式算出の場合分け]
運転者が車両進行方向を見ている状態で左右の対象物を目で追う際、顔と目の動きには以下の2パターンがある。
パターン1.正面に近い範囲では目だけを動かし、正面から左右30°付近を越えると目と顔を連動して動かす
パターン2.正面に近い範囲(正面から左右30°以下の範囲内)であっても、目と顔を連動して動かす
運転者が車両進行方向を見ている状態で左右の対象物を目で追う際、顔と目の動きには以下の2パターンがある。
パターン1.正面に近い範囲では目だけを動かし、正面から左右30°付近を越えると目と顔を連動して動かす
パターン2.正面に近い範囲(正面から左右30°以下の範囲内)であっても、目と顔を連動して動かす
したがって、パターン1の場合は顔向き方向角度θは視線方向角度φよりも遅れて増大し、パターン1のグラフ(予測式)は図5に示すシグモイド曲線で近似される。シグモイド曲線は顔向き方向角度θに基づき算出される。一方、パターン2では顔向き方向角度θと視線方向角度φとがほぼ同時に同じ角度動くため、パターン2のグラフ(予測式)は顔向き方向角度θに基づき直線で近似される。図6はパターン1の近似例、図7はパターン2の近似例である。なお、図6、図7のα、kはそれぞれ定数である。
[各パターンの予測式算出]
(パターン1)
・パターン1−1:シグモイド曲線近似による予測式算出
パターン1では、運転者は正面に近い範囲では目だけを動かし、正面から左右30°付近を越えると目と顔を連動して動かすため、図4のサンプリングデータのうち正面から左右30°以内の範囲では顔向き方向角度θが視線方向角度φに対して遅れ、左右30°以上の範囲では顔向き方向角度θと視線方向角度φが一致する傾向にある。
(パターン1)
・パターン1−1:シグモイド曲線近似による予測式算出
パターン1では、運転者は正面に近い範囲では目だけを動かし、正面から左右30°付近を越えると目と顔を連動して動かすため、図4のサンプリングデータのうち正面から左右30°以内の範囲では顔向き方向角度θが視線方向角度φに対して遅れ、左右30°以上の範囲では顔向き方向角度θと視線方向角度φが一致する傾向にある。
したがって、パターン1では
・パターン1−1:顔向き方向角度θが±30°の範囲内にある場合、シグモイド曲線で近似
・パターン1−2:顔向き方向角度θが±30°の範囲外にある場合、直線で近似
の2パターンを設定し、顔向き方向角度θの値によってパターン1−1とパターン1−2を組み合わせる。この組み合わせ式に基づき、顔向き方向角度θから視線方向角度φを予測する。視線方向角度φの予測値φiは、この予測式にしたがって算出される。
・パターン1−1:顔向き方向角度θが±30°の範囲内にある場合、シグモイド曲線で近似
・パターン1−2:顔向き方向角度θが±30°の範囲外にある場合、直線で近似
の2パターンを設定し、顔向き方向角度θの値によってパターン1−1とパターン1−2を組み合わせる。この組み合わせ式に基づき、顔向き方向角度θから視線方向角度φを予測する。視線方向角度φの予測値φiは、この予測式にしたがって算出される。
図8、図9はシグモイド曲線による近似の例である。図8はデータ選別、図9は予測式を示す。パターン1−1では、図8においてシグモイド曲線の領域外である左上側(θが負、φが正)の領域と、右下側(θが正、φが負)の領域におけるサンプリング値は使用しない。
通常では運転者の顔向き方向角度θと視線方向角度φの符号が逆転する状況はほとんど発生しないため、左上側(θが負、φが正)の領域と、右下側(θが正、φが負)の領域はエラー領域とし、予測式算出には使用しない。残りの領域のサンプリングデータに基づきシグモイド曲線で近似を行い、図9の予測式を得て顔向き方向角度θから視線方向角度φを予測する。
・パターン1−2:直線近似による予測式算出
図10、図11は直線による近似の例である。図10はデータ選別、図11は予測式を示す。パターン1−2では左上側、右下側領域に加えて中央部(−30°≦θ≦30°)の領域内のデータについても不使用とする(図10参照)。残りの領域内のデータに基づき、原点を通る直線によって近似し、図11の予測式を得る。
図10、図11は直線による近似の例である。図10はデータ選別、図11は予測式を示す。パターン1−2では左上側、右下側領域に加えて中央部(−30°≦θ≦30°)の領域内のデータについても不使用とする(図10参照)。残りの領域内のデータに基づき、原点を通る直線によって近似し、図11の予測式を得る。
不使用領域を設定することで、明らかにエラーと考えられるサンプリング値を無視し、予測式の算出精度を向上させる。例えば、図8、図10における領域Dのように、顔向き方向角度θが大きくなると、運転者撮影カメラから見て運転者の鼻に遮られて奥側の目が見えなくなるなどの影響により、視線φの検出に大きな誤差が発生することがある。このように明らかにエラーと考えられるサンプリング値を除外することで予測式の算出精度を向上させる。
(パターン1:シグモイド関数と直線の組み合わせによる予測式算出)
図12はパターン1における予測式を示す図である。±30°の範囲内ではシグモイド曲線を用いた近似を行い(パターン1−1)、それ以外の範囲では直線を用いた近似を行う(パターン1−2)。これによりパターン1の予測式は図12のようになる。
図12はパターン1における予測式を示す図である。±30°の範囲内ではシグモイド曲線を用いた近似を行い(パターン1−1)、それ以外の範囲では直線を用いた近似を行う(パターン1−2)。これによりパターン1の予測式は図12のようになる。
したがって、正面に近い範囲では目だけを動かし、正面から左右30°付近を越えると目と顔を連動して動かす運転者と、正面に近い範囲(正面から左右30°以下の範囲内)であっても、目と顔を連動して動かす運転者の特性運転者の特性に合わせた予測式が得られる。
(パターン2)
パターン2では、上述のように運転者は正面に近い範囲(正面から左右30°以下の範囲内)であっても目と顔を連動して動かすため、サンプリングデータの全領域で顔向き方向角度θと視線方向角度φが一致する傾向にある。そのため、パターン2では図4のサンプリングデータ全領域を直線で近似する(図7参照)。この直線は原点を通るものとする。
パターン2では、上述のように運転者は正面に近い範囲(正面から左右30°以下の範囲内)であっても目と顔を連動して動かすため、サンプリングデータの全領域で顔向き方向角度θと視線方向角度φが一致する傾向にある。そのため、パターン2では図4のサンプリングデータ全領域を直線で近似する(図7参照)。この直線は原点を通るものとする。
[運転者の視線特性パターン判定]
顔向き方向角度θが±30°の範囲内をシグモイド関数で近似した場合(パターン1)と、全領域を直線近似した場合(パターン2)とで、予測式と実際のサンプリングデータ間の累積誤差を算出する。シグモイド関数(パターン1)のほうが累積誤差が少なければ運転者の視線特性はパターン1であると判定し、直線(パターン2)のほうが累積誤差が少なければ、パターン2であると判定する(後述のステップS110参照)。
顔向き方向角度θが±30°の範囲内をシグモイド関数で近似した場合(パターン1)と、全領域を直線近似した場合(パターン2)とで、予測式と実際のサンプリングデータ間の累積誤差を算出する。シグモイド関数(パターン1)のほうが累積誤差が少なければ運転者の視線特性はパターン1であると判定し、直線(パターン2)のほうが累積誤差が少なければ、パターン2であると判定する(後述のステップS110参照)。
[視線認識エラー判定]
図13はパターン1における誤認識(エラー)判定範囲を示す図である。判定範囲は予測式から視線方向角度φ方向に±10°の範囲である。顔向き方向角度θに基づき予測式を算出した後、この予測式によって予測される視線方向角度φと、検出された視線方向角度φの実際値との値の比較を行う。
図13はパターン1における誤認識(エラー)判定範囲を示す図である。判定範囲は予測式から視線方向角度φ方向に±10°の範囲である。顔向き方向角度θに基づき予測式を算出した後、この予測式によって予測される視線方向角度φと、検出された視線方向角度φの実際値との値の比較を行う。
視線方向角度φの認識結果である実際値と予測式とが大きく乖離せず、視線方向角度φの実際値がこの範囲内にあれば、視線方向角度φの認識は正常と判定して認識結果をそのまま出力する。乖離が大きく視線方向角度φの実際値が範囲外にあれば、視線認識エラーとしてNG出力を行う(後述のステップS112〜S114参照)。
[視線エラー判定処理]
図14は視線エラー判定フローである。
図14は視線エラー判定フローである。
ステップS101では運転者を撮影した映像を入力し、ステップS102へ移行する。
ステップS102では顔向き方向角度θの認識および視線方向角度φの検知処理を行い、ステップS103へ移行する。
ステップS103では車速が一定値(30km/h)であるかどうかが判断され、YESであればステップS104へ移行し、NOであればステップS113へ移行する。
ステップS104ではサンプリングデータ(図4参照)の予測式の算出が終了しているかどうかが判断され、YESであればステップS111へ移行し、NOであればステップS105へ移行する。
ステップS105では顔向き方向角度θと視線方向角度φのサンプリング値をデータログに記録し、ステップS106へ移行する。
ステップS106ではサンプリング値のデータログが予測式算出に必要な量に達したかどうかが判断され、YESであればステップS107へ移行し、NOであればステップS113へ移行する。
ステップS107では図8、図10に基づき予測式算出用データを選別し、ステップS108へ移行する。
ステップS108ではシグモイド関数で近似を行い、ステップS109へ移行する。
ステップS109では直線で近似を行い、ステップS110へ移行する。
ステップS110では運転者の特性がパターン1であるかパターン2であるかを判定し、ステップS111へ移行する。
ステップS111では視線方向角度φと予測式出力の比較を行い、ステップS112へ移行する。
ステップS112では視線方向角度φの認識結果が予測式と大きく外れていないかどうかが判断され、YESであればステップS115へ移行し、NOであればステップS114へ移行する。
ステップS113では視線方向角度φの誤判断(エラー判断)を行わずに認識結果をそのまま出力し、制御を終了する。
ステップS114では視線方向角度φのNG出力(エラー判断を)行い、制御を終了する。
ステップS115では視線方向角度φの誤認識結果(エラー判断)を行い、制御を終了する。
[実施例1の効果]
(1)運転者の顔面画像を撮影する撮影手段と、
顔面画像から運転者の顔向き方向角度θおよび視線の方向φを求める認識処理部120(認識手段)と、
視線の方向φのエラーを判定する誤認識判定部130を備え、
誤認識判定部130は、顔向き方向角度θに基づき、視線の方向φを予測する予測式を算出し、この予測式と視線の方向φの認識結果を比較することにより、視線の方向φの認識エラーを判定することとした。
(1)運転者の顔面画像を撮影する撮影手段と、
顔面画像から運転者の顔向き方向角度θおよび視線の方向φを求める認識処理部120(認識手段)と、
視線の方向φのエラーを判定する誤認識判定部130を備え、
誤認識判定部130は、顔向き方向角度θに基づき、視線の方向φを予測する予測式を算出し、この予測式と視線の方向φの認識結果を比較することにより、視線の方向φの認識エラーを判定することとした。
これにより、エラー認識精度を向上させた視線方向認識エラー検出装置を提供することができる。
(2)予測式は、運転者の特性に基づき2つのパターンが設定され、
2つのパターンは、予測式をシグモイド曲線とするパターン1と、予測式を直線とするパターン2を有することとした。
2つのパターンは、予測式をシグモイド曲線とするパターン1と、予測式を直線とするパターン2を有することとした。
これにより、正面に近い範囲では目だけを動かし、正面から左右30°付近を越えると目と顔を連動して動かす運転者と、正面に近い範囲(正面から左右30°以下の範囲内)であっても、目と顔を連動して動かす運転者の特性の違いに合わせて適切に予測式を算出し、エラー検出精度を向上させることができる。
(3)誤認識判定部130は、パターン1においては、シグモイド曲線と直線を組み合わせて予測式を算出することとした。
これにより、さらに運転者の特性に合わせた予測式を得ることができる。
(4)誤認識判定部130は、パターン1においては、顔向き方向角度θが車両進行方向正面から±30°の範囲内(一定の範囲内)ではシグモイド曲線に基づき予測式を算出し、±30°の範囲外(一定の範囲の外)では直線に基づき予測式を算出することとした。
これにより、さらに運転者の特性に合わせた予測式を得ることができる。
(5)誤認識判定部130は、パターン1においては、
顔向き方向角度θの検出値である顔向き方向角度θおよび視線の方向φの検出値である視線方向角度φのサンプリング値に基づき予測式を算出し、
サンプリング値のうち、一部のサンプリング値を用いて予測式を算出することとした。
顔向き方向角度θの検出値である顔向き方向角度θおよび視線の方向φの検出値である視線方向角度φのサンプリング値に基づき予測式を算出し、
サンプリング値のうち、一部のサンプリング値を用いて予測式を算出することとした。
これにより、明らかにエラーと考えられるサンプリング値を除外することが可能となり、予測値の算出精度を向上させることができる。
(他の実施例)
以上、実施例に基づいて説明してきたが、本発明の具体的な構成は実施例に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても、本発明に含まれる。
以上、実施例に基づいて説明してきたが、本発明の具体的な構成は実施例に限定されるものではなく、発明の要旨を逸脱しない範囲の設計変更等があっても、本発明に含まれる。
本願は、車両用であるが、その他移動体への利用は容易である。
1 視線方向認識エラー検出装置
2 インパネ
3 ステアリングホイール
110 運転者撮影カメラ
120 認識処理部
121 検知処理部
122 視線検知処理部
130 誤認識判定部
131 予測値算出部
132 誤認識判定部
2 インパネ
3 ステアリングホイール
110 運転者撮影カメラ
120 認識処理部
121 検知処理部
122 視線検知処理部
130 誤認識判定部
131 予測値算出部
132 誤認識判定部
Claims (5)
- 運転者の顔面画像を撮影する撮影手段と、
前記顔面画像から前記運転者の顔の向きおよび視線の方向を求める認識手段と、
前記視線の方向のエラーを判定する誤認識判定手段と
を備え、
前記誤認識判定手段は、前記顔の向きに基づき、前記視線の方向を予測する予測式を算出し、この予測式と前記視線の方向の認識結果を比較することにより、前記視線の方向の認識エラーを判定すること
を特徴とする視線方向認識エラー検出装置。 - 請求項1に記載の視線方向認識エラー検出装置において、
前記予測式は、運転者の特性に基づき2つのパターンが設定され、
前記2つのパターンは、前記予測式を曲線とするパターン1と、前記予測式を直線とするパターン2を有すること
を特徴とする視線方向認識エラー検出装置。 - 請求項2に記載の視線方向認識エラー検出装置において、
前記誤認識判定手段は、前記パターン1においては、曲線と直線を組み合わせて前記予測式を算出すること
を特徴とする視線方向認識エラー検出装置。 - 請求項3に記載の視線方向認識エラー検出装置において、
前記誤認識判定手段は、前記パターン1においては、前記顔の向きが車両進行方向正面から一定の範囲内では前記曲線に基づき前記予測式を算出し、前記一定の範囲の外では前記直線に基づき前記予測式を算出すること
を特徴とする視線方向認識エラー検出装置。 - 請求項3または請求項4に記載の視線方向認識エラー検出装置において、
前記誤認識判定手段は、前記パターン1においては、
前記顔の向きの検出値である顔向き方向角度および前記視線の方向の検出値である視線方向角度のサンプリング値に基づき前記予測式を算出し、
前記サンプリング値のうち、一部のサンプリング値を用いて前記予測式を算出すること
を特徴とする視線方向認識エラー検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008156210A JP2009297321A (ja) | 2008-06-16 | 2008-06-16 | 視線方向認識エラー検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008156210A JP2009297321A (ja) | 2008-06-16 | 2008-06-16 | 視線方向認識エラー検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009297321A true JP2009297321A (ja) | 2009-12-24 |
Family
ID=41544839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008156210A Pending JP2009297321A (ja) | 2008-06-16 | 2008-06-16 | 視線方向認識エラー検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009297321A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017134755A1 (ja) * | 2016-02-02 | 2017-08-10 | 富士通株式会社 | 眠気判定プログラム、眠気判定装置、および眠気判定方法 |
CN112083795A (zh) * | 2019-06-12 | 2020-12-15 | 北京迈格威科技有限公司 | 对象控制方法及装置、存储介质和电子设备 |
US11227157B1 (en) | 2020-08-26 | 2022-01-18 | Panasonic Intellectual Property Management Co., Ltd. | System and method for gaze direction detection |
-
2008
- 2008-06-16 JP JP2008156210A patent/JP2009297321A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017134755A1 (ja) * | 2016-02-02 | 2017-08-10 | 富士通株式会社 | 眠気判定プログラム、眠気判定装置、および眠気判定方法 |
CN112083795A (zh) * | 2019-06-12 | 2020-12-15 | 北京迈格威科技有限公司 | 对象控制方法及装置、存储介质和电子设备 |
US11227157B1 (en) | 2020-08-26 | 2022-01-18 | Panasonic Intellectual Property Management Co., Ltd. | System and method for gaze direction detection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9542606B2 (en) | Lane line recognition apparatus | |
US20180326992A1 (en) | Driver monitoring apparatus and driver monitoring method | |
US10055650B2 (en) | Vehicle driving assistance device and vehicle having the same | |
US8611609B2 (en) | Lane line estimating apparatus | |
JP4879189B2 (ja) | 安全走行支援装置 | |
JP5325765B2 (ja) | 路肩検出装置及び路肩検出装置を用いた車両 | |
US7710246B2 (en) | Vehicle driving assist system | |
WO2013141226A1 (ja) | 走行区画線を認識する装置および方法 | |
JP5790762B2 (ja) | 瞼検出装置 | |
JP2005182303A (ja) | 車線認識画像処理装置 | |
JP2010019589A (ja) | 車間距離検出装置、ドライブレコーダ装置 | |
JP2009294753A (ja) | 画像処理装置および画像処理方法 | |
US9727796B2 (en) | Parking assistance system and parking assistance method | |
US12030551B2 (en) | Image processing device and image processing method | |
US20190122054A1 (en) | Road recognition apparatus | |
WO2019163124A1 (ja) | 三次元位置推定装置及び三次元位置推定方法 | |
JP2012176656A (ja) | 駐車支援装置 | |
JP2018060422A (ja) | 物体検出装置 | |
WO2018167995A1 (ja) | 運転者状態推定装置、及び運転者状態推定方法 | |
JP2014146267A (ja) | 歩行者検出装置、運転支援装置 | |
JP5538098B2 (ja) | 車両用白線認識装置 | |
JP2009297321A (ja) | 視線方向認識エラー検出装置 | |
JP5040851B2 (ja) | 脇見運転判定装置 | |
JP2013186718A (ja) | 移動物体位置姿勢推定装置及び方法 | |
JP2009278185A (ja) | 画像認識装置 |