JP2014154100A - ドライバー状態表示装置 - Google Patents
ドライバー状態表示装置 Download PDFInfo
- Publication number
- JP2014154100A JP2014154100A JP2013025801A JP2013025801A JP2014154100A JP 2014154100 A JP2014154100 A JP 2014154100A JP 2013025801 A JP2013025801 A JP 2013025801A JP 2013025801 A JP2013025801 A JP 2013025801A JP 2014154100 A JP2014154100 A JP 2014154100A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- vehicle
- line
- status display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】歩行者や周囲の他の車両のドライバーが車両の状態を把握するために、車両のドライバーの状態を検出し車外に表示するドライバー状態表示装置を提供すること。
【解決手段】車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、カメラ画像取得部の出力である画像データからドライバーの視線方向を推定して出力する視線推定部と、視線推定部の出力であるドライバーの視線方向を車両の外部に表示する表示部とを備える。
【選択図】図2
【解決手段】車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、カメラ画像取得部の出力である画像データからドライバーの視線方向を推定して出力する視線推定部と、視線推定部の出力であるドライバーの視線方向を車両の外部に表示する表示部とを備える。
【選択図】図2
Description
本発明は、歩行者や周囲の他の車両のドライバーに対し自車両のドライバーの状態を表示するドライバー状態表示装置に関するものである。
車両に取り付けられたカメラから得られる画像から歩行者を検出し、自車両と歩行者との距離に応じて点滅光を用いた警報により注意喚起を行う車両用警報装置がある(例えば特許文献1参照)。
従来の車両用警報装置では、警報を発している車両を運転しているドライバーの状態がわからないため、歩行者や周囲の他の車両のドライバーが警報を発している車両の状態の判断が困難であるという問題があった。
本発明は前記のような問題を解決するためになされたもので、自車両のドライバーの状態を検出し車外に表示するドライバー状態表示装置を提供することを目的としている。
本発明によるドライバー状態表示装置は、車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、カメラ画像取得部の出力である画像データからドライバーの視線方向を推定して出力する視線推定部と、視線推定部の出力であるドライバーの視線方向を車両の外部に表示する表示部とを備えるものである。
本発明によれば、車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、カメラ画像取得部の出力である画像データからドライバーの視線方向を推定して出力する視線推定部と、視線推定部の出力であるドライバーの視線方向を車両の外部に表示する表示部とを備えているので、歩行者が車両を運転するドライバーの注目している方向が分かり、事故に巻き込まれる可能性を軽減することができる。
実施の形態1
図1は、本発明の実施の形態1によるドライバー状態表示装置の一例を示したものである。カメラ1によってドライバー2の顔を撮影し、撮影画像からドライバーの視線方向3を推定し、外部表示デバイス4によってドライバーの視線の方向を外部に向けて表示する。
図1は、本発明の実施の形態1によるドライバー状態表示装置の一例を示したものである。カメラ1によってドライバー2の顔を撮影し、撮影画像からドライバーの視線方向3を推定し、外部表示デバイス4によってドライバーの視線の方向を外部に向けて表示する。
図2は、本発明の実施の形態1によるドライバー状態表示装置の構成を示すブロック図である。カメラ映像取得部b1では、ドライバー2の顔を撮影したカメラ1からの画像データを取得し、視線推定部b2と表示部b3に出力する。視線推定部b2では、カメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定し、表示部b3に出力する。表示部b3では、カメラ映像取得部b1から入力されたドライバー2の画像データと視線推定部b2から入力されたドライバーの視線方向3の情報を用いて、外部表示デバイス4に視線情報を表示する。
図3は、本発明の実施の形態1によるドライバー状態表示装置の動作を示すフローチャートである。ST1においてカメラ1により画像データが取得されると、取得された画像データは視線推定部b2と表示部b3へと出力される。
ST2では、ST1で取得した画像データから顔を検出する。顔の検出は、顔の有無が判別できるものであればどの様なものでもかまわない。例えば、画像から得られるアピアランス情報を予め機械学習により学習し、その学習結果を用いることにより検出する。Haar like filterを特徴量として使用し、Cascade Adaboostで学習し、この識別器を用いて検出してもよい(Paul Viola and Michael Jones :”Robust Real-time Face Detection”, IJCV, vol. 57, pp. 137-154, 2004.)。
ST3ではST2の顔検出の結果から顔の有無を判定し、顔が存在しない場合は処理を終了し、顔が存在する場合はST4の視線推定処理へ顔の情報を出力する。
ST4では、ST2の顔検出結果を用いて視線方向を推定する。視線方向推定は、顔向きを視線方向とする方法や、眼球から視線方向を推定する方法がある。顔向きを視線方向とする場合は、顔にactive appearance modelを当てはめる方法(中松由香梨,滝口哲也,有木康雄: 「3次元Active Appearance Modelを利用した視線方向推定」,画像の認識・理解シンポジウム,2011)や顔のパーツ位置と顔向きの関係をConditional Regression Forestsで学習する手法(M. Dantone , J. Gall, G. Fanelli, and L. Van Gool:”Real-time Facial Feature Detection using Conditional Regression Forests”, IEEE CVPR'12)などの手法を用いればよく、手段は問わない。また、眼球から視線を求める手法では、眼球モデルを用いる手法(大野建彦,武川直樹,吉川厚:"眼球形状に基づく視線測定法",第8回画像センシングシンポジウム,pp.307-312,2002.)、目尻と目頭、そして黒目の相対位置から視線を推定する手法などを用いればよい。
ST5では、ST4によって取得した視線方向の情報を外部表示デバイス4に表示する。表示方法は、図4のようにST1によって取得した画像にドライバーの視線方向3を示す矢印などを重畳して表示してもよい。また、図5のように、車両全面にLED等の発光体を複数配置し、ドライバーの視線方向3に対応する発光体を光らせるとしてもよい。ドライバーの視線方向3が車両外部の人に分かる表示方法であれば、どの様なものでもかまわない。
このような処理を行うことにより、歩行者や周囲の他の車両のドライバーがドライバーの視線方向3を車両の外から知ることが可能となり、ドライバー2が自分自身の方向を見ているか否かを確認することができる。その結果、ドライバー2が自分自身の方向を見ていない場合は、ドライバー2が自分自身の存在を認識していない可能性があることが分かり、より注意深く行動することにより事故に巻き込まれる可能性を軽減することができる。
実施の形態2.
実施の形態2では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、ウインカーの動作によって起動を制御する例を示す。図6は、本発明の実施の形態2によるドライバー状態表示装置の一例を示したものである。図6を本発明の実施の形態1によるドライバー状態表示装置の一例を示す図である図1と比べると、ターンシグナルスイッチ5とウインカー6が追加された以外は、同じである。ドライバー2は、右折・左折などを行うときにターンシグナルスイッチ5をその方向に倒すことにより、その方向のウインカー6を点滅させることができる。これにより、ドライバー2が車両を右または左に動かそうとしていることを、歩行者や周囲の他の車両のドライバーに知らせることができる。
実施の形態2では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、ウインカーの動作によって起動を制御する例を示す。図6は、本発明の実施の形態2によるドライバー状態表示装置の一例を示したものである。図6を本発明の実施の形態1によるドライバー状態表示装置の一例を示す図である図1と比べると、ターンシグナルスイッチ5とウインカー6が追加された以外は、同じである。ドライバー2は、右折・左折などを行うときにターンシグナルスイッチ5をその方向に倒すことにより、その方向のウインカー6を点滅させることができる。これにより、ドライバー2が車両を右または左に動かそうとしていることを、歩行者や周囲の他の車両のドライバーに知らせることができる。
図7は、本発明の実施の形態2によるドライバー状態表示装置の構成を示すブロック図である。図7を本発明の実施の形態1によるドライバー状態表示装置の構成を示すブロック図である図2と比べると、移動動作検知部b5とターンシグナルスイッチb4が追加された以外は、同じである。本発明の実施の形態2では、起動制御手段は、ターンシグナルスイッチb4と移動動作検知部b5とから構成されており、ドライバー状態表示手段は、カメラ映像取得部b1と視線推定部b2と表示部b3とから構成されている。
移動動作検知部b5では、ドライバーによってターンシグナルスイッチb4が操作されたこと、すなわち、ターンシグナルスイッチb4が左右のどちらかに倒されたか否かを検知する。そして、その結果をカメラ映像取得部b1へ出力する。カメラ映像取得部b1では、移動動作検知部b5において「ターンシグナルスイッチb4が操作された」ことが検知されたときに、ドライバー2の顔を撮影したカメラ1からの画像データを取得し、視線推定部b2と表示部b3に出力する。視線推定部b2では、カメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定し、表示部b3に出力する。表示部b3では、カメラ映像取得部b1から入力されたドライバー2の画像データと視線推定部b2から入力されたドライバーの視線方向3の情報を用いて、外部表示デバイス4に視線情報を表示する。
図8は、本発明の実施の形態2によるドライバー状態表示装置の動作を示すフローチャートである。ST11において、ターンシグナルスイッチ5が操作されたかどうかを検出する。ターンシグナルスイッチ5が操作され「オン」となった場合は、ST12においてカメラ1により画像データが取得されると、取得された画像データは視線推定部b2と表示部b3へと出力される。ST13の顔検出からST16の表示までは、本発明の実施の形態2によるドライバー状態表示装置の動作を示すフローチャートである図3に示されたST2の顔検出からST5の表示までと同じ処理を行う。
なお、実施の形態2においては、移動動作検知部b5において「ターンシグナルスイッチb4が操作された」ことが検知されたときにドライバー2の顔を撮影したカメラ1からの画像データを取得するとしたが、カメラ1は常に画像を取得し、移動動作検知部b5において「ターンシグナルスイッチb4が操作された」ことが検知されたときに視線推定部b2においてカメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定するとしてもよい。あるいは、移動動作検知部b5において「ターンシグナルスイッチb4が操作された」ことが検知されたときに表示部b3において外部表示デバイス4に視線情報を表示するとしてもよい。さらに、通常時はカメラ映像取得部b1、視線推定部b2、表示部b3は休止しており、移動動作検知部b5において「ターンシグナルスイッチb4が操作された」ことが検知されたときにこれら全てを起動するというのでもよい。
このような処理を行うことにより、歩行者や周囲の他の車両のドライバーがドライバーの視線方向3を車両の外から知ることが可能となり、ドライバー2が自分自身の方向を見ているか否かを確認することができる。その結果、ドライバー2が自分自身の方向を見ていない場合は、ドライバー2が自分自身の存在を認識していない可能性があることが分かり、より注意深く行動することにより事故に巻き込まれる可能性を軽減することができる。また、ターンシグナルスイッチ5が操作されたときのみにドライバーの視線方向3を検出・表示することにより、視線検知がより必要となるドライバー2が車両の進行方向を変更しようとしているときのみにドライバーの視線方向3を表示することができる。これにより、消費電力の低減も期待できる。さらにドライバー2が車両を動かそうとしている方向をウインカー6の点滅方向で知ると同時に、ドライバーの視線方向3を知ることにより、例えば、これら二つの方向が一致していない場合にドライバー2の行動が危険であると判断しより注意深く行動することができる。
実施の形態3.
実施の形態3では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、車両周囲の混雑度に応じて起動を制御する例を示す。図9は、本発明の実施の形態3によるドライバー状態表示装置の一例を示したものである。図9を本発明の実施の形態2によるドライバー状態表示装置の一例を示す図である図6と比べると、ターンシグナルスイッチ5が車両の外部の歩行者7を撮影するカメラ8に変わった以外は、同じである。カメラ8では、車両外部の歩行者7を撮影し、その人数を推定することにより、車両周囲の混雑度を推定する。混雑していると判断した場合、ドライバーの視線方向3を検出し、外部表示デバイス4に表示する。
実施の形態3では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、車両周囲の混雑度に応じて起動を制御する例を示す。図9は、本発明の実施の形態3によるドライバー状態表示装置の一例を示したものである。図9を本発明の実施の形態2によるドライバー状態表示装置の一例を示す図である図6と比べると、ターンシグナルスイッチ5が車両の外部の歩行者7を撮影するカメラ8に変わった以外は、同じである。カメラ8では、車両外部の歩行者7を撮影し、その人数を推定することにより、車両周囲の混雑度を推定する。混雑していると判断した場合、ドライバーの視線方向3を検出し、外部表示デバイス4に表示する。
図10は、本発明の実施の形態3によるドライバー状態表示装置の構成を示すブロック図である。図10を本発明の実施の形態2によるドライバー状態表示装置の構成を示すブロック図である図7と比べると、ターンシグナルスイッチb4が外部カメラ映像取得部b6に、移動動作検知部b5が混雑度推定部b7に変わった以外は、同じである。本発明の実施の形態3では、起動制御手段は、外部カメラ映像取得部b6と混雑度推定部b7とから構成されており、ドライバー状態表示手段は、カメラ映像取得部b1と視線推定部b2と表示部b3とから構成されている。
外部カメラ映像取得部b6では、車外を撮影するカメラ8を用いて、車外を撮影し、混雑度推定部b7へ画像を出力する。混雑度推定部b7では、歩行者を検出し、検出した歩行者の数により混雑しているか否かの判断を行う。そして、判断結果をカメラ映像取得部b1へ出力する。カメラ映像取得部b1では、混雑度推定部b7において「混雑している」ことが検知されたときに、ドライバー2の顔を撮影したカメラ1からの画像データを取得し、視線推定部b2と表示部b3に出力する。視線推定部b2では、カメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定し、表示部b3に出力する。表示部b3では、カメラ映像取得部b1から入力されたドライバー2の画像データと視線推定部b2から入力されたドライバーの視線方向3の情報を用いて、外部表示デバイス4に視線情報を表示する。
図11は、本発明の実施の形態3によるドライバー状態表示装置の動作を示すフローチャートである。ST21において、車外を撮影するカメラ8により車外の画像を取得する。ST22において、車外の画像から歩行者を検出し、歩行者数と歩行者の検出枠p=(pu, pv, pw, ph)を出力する。歩行者の検出には、画像から得られるアピアランス情報をあらかじめ機械学習により学習し、その学習結果を用いることにより検出する。アピアランス情報として勾配情報を用いるHOG(Histograms of Oriented Gradient:N. Dalal and B. Triggs: ”Histograms of Oriented Gradients for Human Detection”, CVPR, pp. 886-893, 2005.)特徴などを用いればよく、学習にはSVM(Support Vector Machine:Nello Cristianini(原著), John Shawe‐Taylor(原著), 大北剛(翻訳): 「サポートベクターマシン入門」. 共立出版, 2005)などを用いればよい。なお、ST22における歩行者検出は、歩行者が検出できるものであればどの様なものでもかまわない。
ST23では、ST22で検出した歩行者の数を元に混雑度を推定する。混雑度は、歩行者数をN、歩行者の検出枠、画像内において歩行者を検出する領域q=(qw, qh)として、例えば以下の式で算出する。
ST24では、ST23で算出した混雑度をしきい値処理することにより、混雑しているかの判断を行う。しきい値は、ユーザが変更可能な変数であるとする。
ST25の画像の撮影からST29の表示までは、本発明の実施の形態2によるドライバー状態表示装置の動作を示すフローチャートである図8に示されたST12の画像の撮影からST16の表示までと同じ処理を行う。
歩行者を検出するためにカメラ8から得られた画像を処理していたが、本発明はこれにこだわるものではなく、カメラ8に距離センサを追加してもよい。この場合は、得られた距離情報を使用することができるため、歩行者のテクスチャ情報だけでなく、物体までの距離や大きさなどの特徴を利用できるようになる。そのため、精度の高い歩行者検出を行うことが可能となる。
なお、実施の形態3においては、混雑度推定部b7において「混雑している」ことが検知されたときにドライバー2の顔を撮影したカメラ1からの画像データを取得するとしたが、カメラ1は常に画像を取得し、混雑度推定部b7において「混雑している」ことが検知されたときに視線推定部b2においてカメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定するとしてもよい。あるいは、混雑度推定部b7において「混雑している」ことが検知されたときに表示部b3において外部表示デバイス4に視線情報を表示するとしてもよい。さらに、通常時はカメラ映像取得部b1、視線推定部b2、表示部b3は休止しており、混雑度推定部b7において「混雑している」ことが検知されたときにこれら全てを起動するというのでもよい。
このような処理を行うことにより、歩行者や周囲の他の車両のドライバーがドライバーの視線方向3を車両の外から知ることが可能となり、ドライバー2が自分自身の方向を見ているか否かを確認することができる。その結果、ドライバー2が自分自身の方向を見ていない場合は、ドライバー2が自分自身の存在を認識していない可能性があることが分かり、より注意深く行動することにより事故に巻き込まれる可能性を軽減することができる。また、周辺が混雑しているとき、すなわち、周辺に歩行者がいるときのみにドライバーの視線方向3を表示することができる。これにより、消費電力の低減も期待できる。
実施の形態4.
実施の形態4では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、白線の接近度に応じて起動を制御する例を示す。図12は、本発明の実施の形態4によるドライバー状態表示装置の一例を示したものである。図12を本発明の実施の形態3によるドライバー状態表示装置の一例を示す図である図9と比べると、カメラ8が撮影する対象が歩行者7から白線9に変わった以外は、同じである。カメラ8によって取得した画像から白線8を検出し、車両が白線8に接近したときにドライバーの視線方向3を表示する。
実施の形態4では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、白線の接近度に応じて起動を制御する例を示す。図12は、本発明の実施の形態4によるドライバー状態表示装置の一例を示したものである。図12を本発明の実施の形態3によるドライバー状態表示装置の一例を示す図である図9と比べると、カメラ8が撮影する対象が歩行者7から白線9に変わった以外は、同じである。カメラ8によって取得した画像から白線8を検出し、車両が白線8に接近したときにドライバーの視線方向3を表示する。
図13は、本発明の実施の形態4によるドライバー状態表示装置の構成を示すブロック図である。図13を本発明の実施の形態3によるドライバー状態表示装置の構成を示すブロック図である図10と比べると、混雑度推定部b7が白線接近推定部b8に変わった以外は、同じである。本発明の実施の形態4では、起動制御手段は、外部カメラ映像取得部b6と白線接近推定部b8とから構成されており、ドライバー状態表示手段は、カメラ映像取得部b1と視線推定部b2と表示部b3とから構成されている。
外部カメラ映像取得部b6では、車外を撮影するカメラ8を用いて、車外を撮影し、白線接近推定部b8へ画像を出力する。白線接近推定部b8では、画像から白線8を検出し、車両が白線8に接近しているか否かの判断を行う。そして、判断結果をカメラ映像取得部b1へ出力する。カメラ映像取得部b1では、白線接近推定部b8において「白線に接近している」ことが検知されたときに、ドライバー2の顔を撮影したカメラ1からの画像データを取得し、視線推定部b2と表示部b3に出力する。視線推定部b2では、カメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定し、表示部b3に出力する。表示部b3では、カメラ映像取得部b1から入力されたドライバー2の画像データと視線推定部b2から入力されたドライバーの視線方向3の情報を用いて、外部表示デバイス4に視線情報を表示する。
図14は、本発明の実施の形態4によるドライバー状態表示装置の動作を示すフローチャートである。ST31において、車外を撮影するカメラ8により車外の画像を取得する。ST32において、車外の画像から白線を推定し、自車と白線の位置関係について算出する。白線の推定には非特許文献、A. Takahashi and Y. Ninomiya: “Model-Based Lane Recognition”, Proceeding of the 1996 IEEE intelligent vehicles symposium, pp. 201-206, 1996.などを用いても良く、手段は問わない。接近度は、画像中の左白線の下端のu座標ll、画像中の右白線の下端のu座標lrから算出する。
接近度が0のとき車両は車線の中央に、0より小さいときは左の白線に接近し、0より大きいときは右車線に近づいていることとなる。ST33で算出した接近度をしきい値処理することにより、白線に接近しているか否かの判断を行う。
ST34の画像の撮影からST38の表示までは、本発明の実施の形態3によるドライバー状態表示装置の動作を示すフローチャートである図11に示されたST25の画像の撮影からST29の表示までと同じ処理を行う。
なお、実施の形態4においては、白線接近推定部b8において「白線に接近している」ことが検知されたときにドライバー2の顔を撮影したカメラ1からの画像データを取得するとしたが、カメラ1は常に画像を取得し、白線接近推定部b8において「白線に接近している」ことが検知されたときに視線推定部b2においてカメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定するとしてもよい。あるいは、白線接近推定部b8において「白線に接近している」ことが検知されたときに表示部b3において外部表示デバイス4に視線情報を表示するとしてもよい。さらに、通常時はカメラ映像取得部b1、視線推定部b2、表示部b3は休止しており、白線接近推定部b8において「白線に接近している」ことが検知されたときにこれら全てを起動するというのでもよい。
このような処理を行うことにより、歩行者や周囲の他の車両のドライバーがドライバーの視線方向3を車両の外から知ることが可能となり、ドライバー2が自分自身の方向を見ているか否かを確認することができる。その結果、ドライバー2が自分自身の方向を見ていない場合は、ドライバー2が自分自身の存在を認識していない可能性があることが分かり、より注意深く行動することにより事故に巻き込まれる可能性を軽減することができる。また、車両が白線に接近したとき、すなわち、車両が歩行者に接近したときのみにドライバーの視線方向3を表示することができる。これにより、消費電力の低減も期待できる。
実施の形態5.
実施の形態5では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、車両の走行速度に応じて起動を制御する例を示す。図15は、本発明の実施の形態5によるドライバー状態表示装置の一例を示したものである。図15を本発明の実施の形態1によるドライバー状態表示装置の一例を示す図である図1と比べると、車両が低速走行時にドライバーの視線方向3が外部表示デバイス4に表示されること以外は、同じである。
実施の形態5では、起動を制御する起動制御手段を備えたドライバー状態表示装置のうち、車両の走行速度に応じて起動を制御する例を示す。図15は、本発明の実施の形態5によるドライバー状態表示装置の一例を示したものである。図15を本発明の実施の形態1によるドライバー状態表示装置の一例を示す図である図1と比べると、車両が低速走行時にドライバーの視線方向3が外部表示デバイス4に表示されること以外は、同じである。
図16は、本発明の実施の形態5によるドライバー状態表示装置の構成を示すブロック図である。図16を本発明の実施の形態2によるドライバー状態表示装置の構成を示すブロック図である図7と比べると、ターンシグナルスイッチb4が車速情報取得部b9に、移動動作検知部b5が徐行運転判断部b10に変わった以外は、同じである。本発明の実施の形態5では、起動制御手段は、車速情報取得部b9と徐行運転判断部b10とから構成されており、ドライバー状態表示手段は、カメラ映像取得部b1と視線推定部b2と表示部b3とから構成されている。
車速情報取得部b9では、車両の速度をCAN(Controller Area Network)などから取得し、徐行運転判断部b10へ車速を出力する。徐行運転判断部b10では、車速情報取得部b9で得られた車速情報から、徐行運転か否かの判断を行い、判断結果をカメラ映像取得部b1へ出力する。カメラ映像取得部b1では、徐行運転判断部b10において「徐行運転である」ことが検知されたときに、ドライバー2の顔を撮影したカメラ1からの画像データを取得し、視線推定部b2と表示部b3に出力する。視線推定部b2では、カメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定し、表示部b3に出力する。表示部b3では、カメラ映像取得部b1から入力されたドライバー2の画像データと視線推定部b2から入力されたドライバーの視線方向3の情報を用いて、外部表示デバイス4に視線情報を表示する。
図17は、本発明の実施の形態5によるドライバー状態表示装置の動作を示すフローチャートである。ST41において、車両情報取得部b9によって車両の測道情報を取得する。ST42において、取得した車速情報をしきい値処理することにより、徐行運転か否かの判断を行う。例えば、車速が5km/h以下の場合、徐行運転として判断する。
ST43の画像の撮影からST47の表示までは、本発明の実施の形態2によるドライバー状態表示装置の動作を示すフローチャートである図8に示されたST12の画像の撮影からST16の表示までと同じ処理を行う。
なお、実施の形態5においては、徐行運転判断部b10において「徐行運転である」ことが検知されたときにドライバー2の顔を撮影したカメラ1からの画像データを取得するとしたが、カメラ1は常に画像を取得し、徐行運転判断部b10において「徐行運転である」ことが検知されたときに視線推定部b2においてカメラ映像取得部b1から入力されたドライバー2の画像データからドライバーの視線方向3を推定するとしてもよい。あるいは、徐行運転判断部b10において「徐行運転である」ことが検知されたときに表示部b3において外部表示デバイス4に視線情報を表示するとしてもよい。さらに、通常時はカメラ映像取得部b1、視線推定部b2、表示部b3は休止しており、徐行運転判断部b10において「徐行運転である」ことが検知されたときにこれら全てを起動するというのでもよい。
このような処理を行うことにより、歩行者や周囲の他の車両のドライバーがドライバーの視線方向3を車両の外から知ることが可能となり、ドライバー2が自分自身の方向を見ているか否かを確認することができる。その結果、ドライバー2が自分自身の方向を見ていない場合は、ドライバー2が自分自身の存在を認識していない可能性があることが分かり、より注意深く行動することにより事故に巻き込まれる可能性を軽減することができる。また、車両の周辺が混雑した場合、右左折時など、徐行運転のときのみにドライバーの視線方向3を表示することができる。これにより、消費電力の低減も期待できる。
実施の形態6.
図18は、本発明の実施の形態6によるドライバー状態表示装置の一例を示したものである。図18を本発明の実施の形態1によるドライバー状態表示装置の一例を示す図である図1と比べると、構成は同じである。
図18は、本発明の実施の形態6によるドライバー状態表示装置の一例を示したものである。図18を本発明の実施の形態1によるドライバー状態表示装置の一例を示す図である図1と比べると、構成は同じである。
図19は、本発明の実施の形態6によるドライバー状態表示装置の構成を示すブロック図である。図19を本発明の実施の形態1によるドライバー状態表示装置の構成を示すブロック図である図2と比べると、視線推定部b2が眠気推定部b11に変わった以外は、同じである。
カメラ映像取得部b1では、ドライバーを撮影するカメラ1から画像データを取得し、眠気推定部b11と表示部b3に画像を出力する。眠気推定部b11では、カメラ映像取得部b1から入力された画像からドライバーが眠気を感じているか否かを推定し、表示部b3へ出力する。表示部b3では、カメラ映像取得部b1から入力された画像と眠気推定部b11から入力されたドライバーの眠気情報を用いて、外部表示デバイス4へ眠気情報を表示する。
図20は、本発明の実施の形態6によるドライバー状態表示装置の動作を示すフローチャートである。ST51においてカメラ1により画像が取得されると、眠気推定部b11と表示部b3へ出力する。ST52では、画像を用いて顔を検出する。そして、ST53では顔の有無を判定し、顔が存在する場合はST54の眠気推定処理へ顔の位置を出力する。顔の検出は、実施の形態1と同様な処理を行う。眠気推定ST54は、特開平8-290726に示された方法などを用いても良く、手段は問わない。ST55では、ST51により取得した画像とST54により推定した眠気情報を合わせて、外部表示デバイスへ出力する。外部表示デバイスとして、取得画像と眠気推定結果を重畳表示した画像をモニタで出力する。また、眠気とLEDの光量を関連付けて光らせてもよく、出力手段は問わない。
実施の形態7.
図21は、本発明の実施の形態7によるドライバー状態表示装置の一例を示したものである。図21を本発明の実施の形態6によるドライバー状態表示装置の一例を示す図である図18と比べると、構成は同じである。
図21は、本発明の実施の形態7によるドライバー状態表示装置の一例を示したものである。図21を本発明の実施の形態6によるドライバー状態表示装置の一例を示す図である図18と比べると、構成は同じである。
図22は、本発明の実施の形態7によるドライバー状態表示装置の構成を示すブロック図である。図22を本発明の実施の形態6によるドライバー状態表示装置の構成を示すブロック図である図19と比べると、車速情報取得部b9と高速運転判定部b12が加わった以外は、同じである。
車速情報取得部b9では、車両の速度をCAN(Controller Area Network)等から取得し、高速運転判断部b12へ出力する。高速運転判断部b12では、車速情報取得部b9で得られた車速から、高速走行か否かの判断を行い、判断結果を眠気推定部b11へ出力する。カメラ映像取得部b1では、高速運転判定部b12において「高速運転である」ことが検知されたときに、ドライバー2の顔を撮影したカメラ1からの画像データを取得し、眠気推定部b11と表示部b3に出力する。眠気推定部b11では、カメラ映像取得部b1から入力された画像からドライバーが眠気を感じているか否かを推定し、表示部b3へ出力する。表示部b3では、カメラ映像取得部b1から入力された画像と眠気推定部b11から入力されたドライバーの眠気情報を用いて、外部表示デバイス4へ眠気情報を表示する。
図23は、本発明の実施の形態7によるドライバー状態表示装置の動作を示すフローチャートである。ST61において、車両の速度情報を取得する。ST62において、取得した車速情報をしきい値処理することにより、高速運転か否かの判断を行う。例えば、車速が80km/h以上の場合、高速運転として判断する。
ST63の画像の撮影からST67の表示までは、本発明の実施の形態6によるドライバー状態表示装置の動作を示すフローチャートである図20に示されたST51の画像の撮影からST55の表示までと同じ処理を行う。
1 カメラ
2 ドライバー
3 ドライバーの視線方向
4 外部表示デバイス
2 ドライバー
3 ドライバーの視線方向
4 外部表示デバイス
Claims (9)
- 車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、
前記カメラ画像取得部の出力である画像データからドライバーの視線方向を推定して出力する視線推定部と、
前記視線推定部の出力であるドライバーの視線方向を前記車両の外部に表示する表示部と
を備えたドライバー状態表示装置。 - ドライバー状態表示手段と、
前記ドライバー状態表示手段の起動を制御する起動制御手段と
を備え、
前記ドライバー状態表示手段は
車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、
前記カメラ画像取得部の出力である画像データからドライバーの視線方向を推定して出力する視線推定部と、
前記視線推定部の出力であるドライバーの視線方向を前記車両の外部に表示する表示部と
を備えることを特徴とするドライバー状態表示装置。 - 起動制御手段はターンシグナルスイッチが操作されたことを検知しドライバー状態表示手段を起動することを特徴とする請求項2に記載のドライバー状態表示装置。
- 起動制御手段は車両の周囲が混雑していることを検知しドライバー状態表示手段を起動することを特徴とする請求項2に記載のドライバー状態表示装置。
- 起動制御手段は車両が白線に接近していることを検知しドライバー状態表示手段を起動することを特徴とする請求項2に記載のドライバー状態表示装置。
- 起動制御手段は車両が徐行運転していることを検知しドライバー状態表示手段を起動することを特徴とする請求項2に記載のドライバー状態表示装置。
- 車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、
前記カメラ画像取得部の出力である画像データからドライバーが眠気を感じているか否か推定して出力する視線推定部と、
前記視線推定部の出力であるドライバーの眠気情報を前記車両の外部に表示する表示部と
を備えたドライバー状態表示装置。 - ドライバー状態表示手段と、
前記ドライバー状態表示手段の起動を制御する起動制御手段と
を備え、
前記ドライバー状態表示手段は
車両を運転しているドライバーの顔を撮影して画像データを出力するカメラ画像取得部と、
前記カメラ画像取得部の出力である画像データからドライバーが眠気を感じているか否か推定して出力する視線推定部と、
前記視線推定部の出力であるドライバーの眠気情報を前記車両の外部に表示する表示部と
を備えることを特徴とするドライバー状態表示装置。 - 起動制御手段は車両が高速運転していることを検知しドライバー状態表示手段を起動することを特徴とする請求項8に記載のドライバー状態表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013025801A JP2014154100A (ja) | 2013-02-13 | 2013-02-13 | ドライバー状態表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013025801A JP2014154100A (ja) | 2013-02-13 | 2013-02-13 | ドライバー状態表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014154100A true JP2014154100A (ja) | 2014-08-25 |
Family
ID=51575874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013025801A Pending JP2014154100A (ja) | 2013-02-13 | 2013-02-13 | ドライバー状態表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014154100A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9953228B2 (en) | 2015-11-20 | 2018-04-24 | Kabushiki Kaisha Toshiba | Information presenting apparatus, information presenting method, and computer program product |
CN109427213A (zh) * | 2017-09-05 | 2019-03-05 | 丰田自动车株式会社 | 用于车辆的防碰撞装置、防碰撞方法以及存储程序的非暂时性存储介质 |
US10737689B2 (en) | 2016-10-04 | 2020-08-11 | Lg Electronics Inc. | Parking assistance apparatus and vehicle having the same |
JP2020188294A (ja) * | 2019-05-09 | 2020-11-19 | アイシン精機株式会社 | 画像表示装置および画像表示プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008269399A (ja) * | 2007-04-23 | 2008-11-06 | Mazda Motor Corp | 車両の車線逸脱警報装置 |
JP2009258802A (ja) * | 2008-04-11 | 2009-11-05 | Nissan Motor Co Ltd | 車外情報提供装置および車外情報提供方法 |
JP2010217956A (ja) * | 2009-03-13 | 2010-09-30 | Omron Corp | 情報処理装置及び方法、プログラム、並びに情報処理システム |
JP2011221906A (ja) * | 2010-04-13 | 2011-11-04 | Denso Corp | 車両に搭載される警報システムおよび警報システム用のプログラム |
-
2013
- 2013-02-13 JP JP2013025801A patent/JP2014154100A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008269399A (ja) * | 2007-04-23 | 2008-11-06 | Mazda Motor Corp | 車両の車線逸脱警報装置 |
JP2009258802A (ja) * | 2008-04-11 | 2009-11-05 | Nissan Motor Co Ltd | 車外情報提供装置および車外情報提供方法 |
JP2010217956A (ja) * | 2009-03-13 | 2010-09-30 | Omron Corp | 情報処理装置及び方法、プログラム、並びに情報処理システム |
JP2011221906A (ja) * | 2010-04-13 | 2011-11-04 | Denso Corp | 車両に搭載される警報システムおよび警報システム用のプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9953228B2 (en) | 2015-11-20 | 2018-04-24 | Kabushiki Kaisha Toshiba | Information presenting apparatus, information presenting method, and computer program product |
US10737689B2 (en) | 2016-10-04 | 2020-08-11 | Lg Electronics Inc. | Parking assistance apparatus and vehicle having the same |
CN109427213A (zh) * | 2017-09-05 | 2019-03-05 | 丰田自动车株式会社 | 用于车辆的防碰撞装置、防碰撞方法以及存储程序的非暂时性存储介质 |
JP2019046319A (ja) * | 2017-09-05 | 2019-03-22 | トヨタ自動車株式会社 | 衝突防止装置、衝突防止方法、衝突防止プログラム、記録媒体 |
CN109427213B (zh) * | 2017-09-05 | 2021-09-17 | 丰田自动车株式会社 | 用于车辆的防碰撞装置、方法及非暂时性存储介质 |
JP2020188294A (ja) * | 2019-05-09 | 2020-11-19 | アイシン精機株式会社 | 画像表示装置および画像表示プログラム |
JP7395842B2 (ja) | 2019-05-09 | 2023-12-12 | 株式会社アイシン | 画像表示装置および画像表示プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5616531B2 (ja) | 車両周辺監視装置 | |
JP6338701B2 (ja) | 瞬間的な眠りを検出するデバイス、方法およびコンピュータプログラム | |
JP5482737B2 (ja) | 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム | |
JP4692344B2 (ja) | 画像認識装置 | |
JP4872245B2 (ja) | 歩行者認識装置 | |
US20080231703A1 (en) | Field watch apparatus | |
WO2018061616A1 (ja) | 監視システム | |
WO2013111819A1 (ja) | 運転支援装置 | |
CN111311963A (zh) | 驾驶员的驾驶不能状态检测装置 | |
JP2018156172A (ja) | 車両の表示システム及び車両の表示システムの制御方法 | |
TWI522257B (zh) | 車用安全系統及其運作方法 | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
JPWO2013136827A1 (ja) | 車両周辺監視装置 | |
JP6379770B2 (ja) | 車両用表示装置 | |
JP2014154100A (ja) | ドライバー状態表示装置 | |
JP2010044561A (ja) | 乗物搭載用監視装置 | |
JPH0976815A (ja) | 運転操作補助装置 | |
EP3286056A1 (en) | System and method for a full lane change aid system with augmented reality technology | |
US20140118131A1 (en) | Monitoring and warning system for vehicles | |
Puli et al. | Safety Alerting System For Drowsy Driver | |
KR101372544B1 (ko) | 사용자 제스처 및 상황 인식을 이용한 지능형 휠체어 제어 시스템 | |
Natraj et al. | Drivers’ Real-Time Drowsiness Identification Using Facial Features and Automatic Vehicle Speed Control | |
KR20130076212A (ko) | 화장을 위한 맞춤 환경 제공 기능이 구비된 차량 실내 시스템 | |
Hariri et al. | Vision based smart in-car camera system for driver yawning detection | |
JP2008162550A (ja) | 外部環境表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150609 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150610 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151110 |