JP5233322B2 - 情報処理装置および方法、並びに、プログラム - Google Patents

情報処理装置および方法、並びに、プログラム Download PDF

Info

Publication number
JP5233322B2
JP5233322B2 JP2008047579A JP2008047579A JP5233322B2 JP 5233322 B2 JP5233322 B2 JP 5233322B2 JP 2008047579 A JP2008047579 A JP 2008047579A JP 2008047579 A JP2008047579 A JP 2008047579A JP 5233322 B2 JP5233322 B2 JP 5233322B2
Authority
JP
Japan
Prior art keywords
face
driver
state
vehicle
face information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008047579A
Other languages
English (en)
Other versions
JP2009201756A (ja
Inventor
靖理 大元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2008047579A priority Critical patent/JP5233322B2/ja
Publication of JP2009201756A publication Critical patent/JP2009201756A/ja
Application granted granted Critical
Publication of JP5233322B2 publication Critical patent/JP5233322B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Description

本発明は、情報処理装置および方法、並びに、プログラムに関し、運転者の顔情報の取得に失敗した原因を特定する場合に用いて好適な情報処理装置および方法、並びに、プログラムに関する。
近年、車両を運転する運転者の顔を撮影した画像に基づいて運転者の顔に関する顔情報(例えば、顔の向き、視線の向き、顔および顔の各パーツの位置、形状、特徴量など)を取得し、取得した顔情報に基づいて運転者の状態を検出する車載装置の開発が進んでいる。そのような車載装置においては、例えば、運転者を撮影するカメラと運転者との間にステアリングホイールなどの障害物が入り、運転者の顔の一部または全部を撮影できない場合、運転者の顔情報が正確に得られないため、運転者の状態を誤検出してしまう恐れがある。
そこで、従来、2枚以上の画像間のオプティカルフローを計算し、計算したオプティカルフローを予め記憶されているオプティカルフローのパターンと比較することにより、予め想定されている異物(ステアリングホイールのスポーク、手、雑誌など)の画像内への進入を検出し、異物の進入を検出した場合、運転者の状態判定の結果を報知するのを禁止することが提案されている(例えば、特許文献1参照)。
また、従来、赤外線カメラを用いて、熱源の存在により乗員の有無を検出する装置において、赤外線カメラの撮像範囲内に人体に相当する温度の熱源が検出された場合、その熱源の大きさが人体の顔の大きさに相当するとき、座席に乗員が存在すると判定し、その熱源の大きさが人体の顔の大きさに相当しないが、頭部が存在すると想定される領域の熱源に直線的なエッジが存在するか、または、画像内の熱源が所定範囲で左右一対であるとき、乗員を遮蔽する物体が存在するため、正確な検出が不能であると判定することが提案されている(例えば、特許文献2参照)。
さらに、従来、撮影手段により、赤外線が照射された運転者の画像をステアリングホイール越しに撮影し、撮影した画像の輝度を2値化し、2値化した輝度値の平均値を所定の閾値と比較することにより、画像にステアリングホイールが映り込んでいるか否かを判定し、ステアリングホイールが映り込んでいると判定した場合、後続の脇見判定処理を行わないようにすることが提案されている(例えば、特許文献3参照)。
特開2005−18651号公報 特開2005−49220号公報 特開2005−157648号公報
ところで、運転者の顔情報の取得に失敗した場合に、失敗した原因をより詳細に特定できれば、より適切な対処を迅速に行うことができる。
本発明は、このような状況に鑑みてなされたものであり、運転者の顔情報の取得に失敗した原因をより詳細に特定できるようにするものである。
本発明の一側面の情報処理装置は、車両を運転する運転者の顔に関する顔情報を入力画像から取得する情報処理装置であって、車両に設けられ、所定の動きをすることにより少なくとも一部が入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置を検出する車載部品位置検出手段と、顔情報の推移に基づいて、運転者の顔の状態を推測する顔状態推測手段と、検出された車載部品の位置、および、推測された運転者の顔の状態に基づいて、顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、または、それらとは異なる要因によるものかを分析する原因分析手段とを備える。
本発明の一側面の情報処理装置においては、車両に設けられ、所定の動きをすることにより少なくとも一部が入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする可能性のある車載部品の位置が検出され、顔情報の推移に基づいて、運転者の顔の状態が推測され、検出された車載部品の位置、および、推測された運転者の顔の状態に基づいて、顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、または、それらとは異なる要因によるものかが分析される。
従って、運転者の顔情報の取得に失敗した原因をより詳細に特定することができる。
この情報取得部、車載部品位置検出手段、顔状態推測手段、原因分析手段は、例えば、CPU(Central Processing Unit)により構成される。
入力画像に基づいて、運転者に照射されている照射光の状態を検出する照射光状態検出手段をさらに設け、原因分析手段には、検出された車載部品の位置、推測された運転者の顔の状態、および、検出された照射光の状態に基づいて、顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、照射光によるものか、または、それらとは異なる要因によるものかを分析させることができる。
これにより、運転者の顔情報の取得に失敗した原因をさらに詳細に特定することができる。
この照射光状態検出手段は、例えば、CPU(Central Processing Unit)により構成される。
顔情報の取得に失敗した原因に応じた対処を行う対処手段をさらに設けることができる。
これにより、運転者の顔情報の取得の失敗に対して適切な処置を迅速に行うことができる。
この対処手段は、例えば、CPU(Central Processing Unit)により構成される。
対処手段には、顔情報の一部を取得できているか否かに応じて対処方法を変更させることができる。
これにより、運転者の顔情報の取得に失敗した原因を明確に特定できない場合にも、運転者の顔情報の取得の失敗に対してより適切な処置を行うことができる。
本発明の一側面の情報処理方法またはプログラムは、車両に設けられ、所定の動きをすることにより少なくとも一部が入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置を検出する車載部品位置検出ステップと、顔情報の推移に基づいて、運転者の顔の状態を推測する顔状態推測ステップと、検出された車載部品の位置、および、推測された運転者の顔の状態に基づいて、顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、または、それらとは異なる要因によるものかを分析する原因分析ステップとを含む。
本発明の一側面の情報処理方法またはプログラムにおいては、車両に設けられ、所定の動きをすることにより少なくとも一部が入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置が検出され、顔情報の推移に基づいて、運転者の顔の状態が推測され、検出された車載部品の位置、および、推測された運転者の顔の状態に基づいて、顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、または、それらとは異なる要因によるものかが分析される。
従って、運転者の顔情報の取得に失敗した原因をより詳細に特定することができる。
この車載部品位置検出ステップは、例えば、車両に設けられ、所定の動きをすることにより少なくとも一部が入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置をCPUにより検出する車載部品位置検出ステップにより構成され、この顔状態推測ステップは、例えば、顔情報の推移に基づいて、運転者の顔の状態をCPUにより推測する顔状態推測ステップにより構成され、検出された車載部品の位置、および、推測された運転者の顔の状態に基づいて、顔情報取得部が顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、または、それらとは異なる要因によるものかをCPUにより分析する原因分析ステップにより構成される。
本発明の一側面によれば、運転者の顔情報の取得に失敗した原因をより詳細に特定することができる。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した運転者監視システム11の一実施の形態を示すブロック図である。図1の運転者監視システム11は、運転者監視システム11が設けられている車両(以下、自車とも称する)を運転する運転者の状態を監視するシステムであり、カメラ21、照明装置22、センサ部23、監視装置24、車両制御装置25、表示装置26、音声出力装置27、および、発光装置28を含むように構成される。
カメラ21は、例えば、CCD撮像素子、CMOS撮像素子、または、対数変換型撮像素子などを用いたカメラにより構成される。カメラ21は、例えば、図2に示されるように、ステアリングホイール51のステアリングスポークの間から運転席に座って運転している運転者の顔を撮影できるように、ステアリングコラム52の上面に設置される。カメラ21は、撮影した画像(以下、入力画像と称する)を、監視装置24の顔情報取得部31およびエラー処理部33に供給する。
照明装置22は、カメラ21用の補助照明として用いられ、カメラ21の光軸方向とほぼ同じ方向から、運転者の顔を照らすように設置される。
センサ部23は、自車の車載部品の位置や状態、運転者の位置や状態、カメラ21と運転者との間の障害物の有無や位置などを検出する各種のセンサからなり、検出結果を示す信号を監視装置24のエラー処理部33に供給する。センサ部23に含まれるセンサの種類としては、例えば、ステアリングホイール51の中立位置(ニュートラル位置)を基準とする回転角である操舵角を検出する操舵角センサ、自車の速度を検出する車速センサ、自車の加速度を検出する加速度センサ、自車のシフトレバーの位置を検出するシフトセンサ、運転席の乗員の有無を検出する着座センサ、運転席のドアの開閉を検出するドアセンサ、カメラ21から運転者までの距離を計測する距離センサ、カメラ21と運転者との間の障害物を検出する電波センサ、超音波センサ、静電容量センサ、運転席付近の熱源を検出する熱源感知センサなどが考えられる。
監視装置24は、カメラ21により撮像された入力画像に基づいて、運転者の状態を監視し、運転者の状態に応じて各種の処理を行う。監視装置24は、例えば、所定の制御プログラムを実行するCPU(Central Processing Unit)により構成され、顔情報取得部31、監視部32、および、エラー処理部33を含むように構成される。
顔情報取得部31は、運転者の顔の向き、視線の向き、顔や顔の各パーツ(目、鼻、口など)の位置、形状および特徴量などの顔情報を入力画像から取得し、監視部32およびエラー処理部33に供給する。顔情報取得部31は、顔情報の取得に成功したか否かをエラー処理部33に通知する。
監視部32は、顔情報に基づいて運転者の状態を監視し、運転者の状態に応じて、運転者が安全に運転できるように、車両制御装置25、表示装置26、音声出力装置27、および、発光装置28の動作を制御する。
エラー処理部33は、運転者の顔情報の取得に失敗した原因を分析し、特定した原因に応じて、運転者監視システム11の各部の動作を制御し、運転者監視システム11の誤動作を回避したり、顔情報が正常に取得できるように対処する。
車両制御装置25は、例えば、ECU(Electronic Control Unit)またはECU(Engine Control Unit)などにより構成され、自車および各種の車載部品の動作を制御する。
表示装置26は、例えば、LCD(Liquid Crystal Display)などにより構成され、監視部32またはエラー処理部33の制御の基に、各種の警告画像や警告メッセージなどを表示する。なお、表示装置26は、運転者監視システム11専用の装置として構成するようにしてもよいし、自車に予め設けられている表示装置(例えば、カーナビゲーションシステムのモニタなど)により構成するようにしてもよい。
音声出力装置27は、例えば、スピーカ、サイレン、または、ブザーなどにより構成され、監視部32またはエラー処理部33の制御の基に、各種の警告メッセージや警告音などを出力する。なお、音声出力装置27は、運転者監視システム11専用の装置として構成するようにしてもよいし、自車に予め設けられている音声出力装置(例えば、カーオーディオ装置など)により構成するようにしてもよい。
発光装置28は、例えば、ランプ、LED(Light Emitting Diode)などにより構成され、監視部32またはエラー処理部33の制御の基に、各種の警告灯の点灯または点滅を行う。なお、発光装置28は、運転者監視システム11専用の装置として構成するようにしてもよいし、自車に予め設けられている発光装置により構成するようにしてもよい。
図3は、エラー処理部33の機能的構成を示すブロック図である。エラー処理部33は、車載部品位置検出部101、顔状態推測部102、照射光状態検出部103、原因分析部104、および、対処部105を含むように構成される。
車載部品位置検出部101は、自動的または乗員の操作により所定の動きをするとともにカメラ21のフレーム内に進入する可能性のある車載部品(例えば、ステアリングホイール、エアバッグ、サンバイザ、ルームミラーなど)の位置を、カメラ21からの入力画像、および、センサ部23からの各種のセンサ信号に基づいて検出し、検出結果を原因分析部104に通知する。
顔状態推測部102は、顔情報取得部31からの顔情報の推移、および、センサ部23からの各種のセンサ信号に基づいて、現在の運転者の顔の状態を推測し、推測結果を原因分析部104に通知する。
照射光状態検出部103は、入力画像に基づいて、また、必要に応じて照明装置22の点滅や明るさを制御して、運転者に照射されている照射光の状態を検出し、検出結果を原因分析部104に通知する。
原因分析部104は、顔情報取得部31から顔情報の取得の失敗が通知された場合、カメラ21からの入力画像、車載部品の位置の検出結果、運転者の顔の状態の推測結果、および、照射光の状態の検出結果に基づいて、運転者の顔情報の取得に失敗した原因が、車載部品によるものか、運転者の顔の状態によるものか、照射光によるものか、または、それ以外の要因によるものかを分析し、分析結果を対処部105に通知する。
対処部105は、運転者の顔情報の取得に失敗した原因に応じて、運転者監視システム11の各部の動作を制御し、運転者監視システム11の誤動作を回避したり、顔情報が正常に取得できるように対処する。また、対処部105は、運転者の顔情報の取得の失敗に対する対処を行っている場合に、顔情報取得部31から顔情報の取得の成功が通知されたとき、運転者監視システム11の各部の動作を制御し、実行中の対処を停止する。
次に、図4のフローチャートを参照して、運転者監視システム11により実行される運転者監視処理を説明する。なお、この処理は、例えば、自車のエンジンが始動されたとき開始され、自車のエンジンが停止したとき終了する。
ステップS1において、顔情報取得部31は、顔情報を取得する。具体的には、顔情報取得部31、車載部品位置検出部101、照射光状態検出部103、および、原因分析部104は、カメラ21により撮影された入力画像を取得する。顔情報取得部31は、取得した入力画像に基づいて、運転者の顔情報を取得する。
ステップS2において、顔情報取得部31は、顔情報の取得に成功したかを判定する。顔情報取得部31は、ステップS1の処理により顔情報の全部を取得できた場合、顔情報の取得に成功したと判定し、処理はステップS3に進む。
ステップS3において、運転者監視システム11は、正常動作を行う。具体的には、顔情報取得部31は、取得した顔情報を監視部32および顔状態推測部102に供給する。また、顔情報取得部31は、顔情報の取得の成功を対処部105に通知する。対処部105は、後述する対応動作1乃至5が行われている場合、運転者監視システム11の各部を制御して、対応動作1乃至5を停止させる。
また、監視部32は、取得した顔情報に基づいて、通常の監視処理を行う。例えば、監視部32は、運転者の認証処理を行う。そして、監視部32は、運転者の認証に失敗した場合、例えば、車両制御装置25を制御して、自車の走行を禁止したり、表示装置26、音声出力装置27、および、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、認証に失敗したことを運転者に通知したり、認証対象以外の人物が運転しようとしていることを外部に通知したりする。
さらに、例えば、監視部32は、運転者の脇見や居眠りなど危険な状態の検出処理を行う。そして、監視部32は、運転者の危険な状態を検出した場合、例えば、車両制御装置25を制御して、車速の制限、加速度の抑制、減速などの自車の走行の制限を行ったり、車両制御装置25、表示装置26、音声出力装置27、または、発光装置28を制御して、ステアリングホイールの振動、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、運転者への警告を行ったりする。
その後、処理はステップS1に戻り、ステップS3において、顔情報の取得に失敗したと判定されるまで、ステップS1乃至S3の処理が繰り返し実行される。
一方、ステップS2において、顔情報取得部31は、ステップS1の処理により顔情報の一部または全部を取得できなかった場合、顔情報の取得に失敗したと判定し、処理はステップS4に進む。なお、顔情報の取得に成功または失敗したかの判定は、顔情報の取得に成功または失敗した状態が所定の時間(例えば、1秒間)継続してから行うようにするのが望ましい。
ステップS4において、原因分析部104は、車載部品が原因であるかを判定する。具体的には、顔情報取得部31は、顔情報の取得の失敗を原因分析部104に通知する。車載部品位置検出部101は、カメラ21からの入力画像、および、センサ部23からの各種のセンサ信号に基づいて、所定の動きをするとともにカメラ21のフレーム内に進入する可能性のある車載部品の位置を検出し、検出結果を原因分析部104に通知する。
カメラ21の設置位置、および、車載部品の設置位置および動きが既知である場合、原因分析部104は、検出された車載部品の位置に基づいて、車載部品がカメラ21のフレーム内に進入しているか否かを検出することが可能である。原因分析部104は、車載部品がカメラ21のフレーム内に進入していることを検出した場合、顔情報の取得に失敗したのは車載部品が原因であると判定し、処理はステップS5に進む。
ここで、カメラ21のフレーム内に進入する可能性のある車載部品が、図2のステアリングホイール51である場合について考える。この場合、車載部品位置検出部101は、センサ部23に含まれる操舵角センサからの信号に基づいて自車の操舵角を検出し、さらに、操舵角に基づいてステアリングホイール51の転舵角を算出し、算出した転舵角を原因分析部104に通知する。ステアリングホイール51の形状は既知であるので、原因分析部104は、ステアリングホイール51の転舵角に基づいて、ステアリングホイール51のステアリングスポークの位置を求め、ステアリングスポークがカメラ21のフレーム内に進入しているか否かを検出することができる。
また、ステアリングホイール51は決められた動きをするため、入力画像内に現れるパターンも予め決まっている。そのため、ステアリングホイール51の動きに伴い入力画像の特徴量が変化するパターンもほぼ固定化されており、予想される特徴量のパターンを予め登録しておくことが可能である。例えば、図5の点線で示されるように、入力画像をいくつかのセグメントに分割しておき、図6に示されるように、ステアリングホイール51の動きに伴う入力画像の各セグメントの輝度の変化量を登録パターンとして登録しておくことが考えられる。また、例えば、ステアリングホイール51の動きに伴う入力画像のオプティカルフローを登録パターンとして登録しておくことが考えられる。
この場合、車載部品位置検出部101は、入力画像の過去数フレームにおける特徴量を抽出し、抽出した特徴量と登録パターンとの照合を行い、抽出した特徴量と登録パターンとの差異が所定の閾値未満である場合、ステアリングホイール51がカメラ21のフレーム内に進入していると判定し、抽出した特徴量と登録パターンとの差異が所定の閾値以上である場合、ステアリングホイール51がカメラ21のフレーム内に進入していないと判定する。
なお、登録パターンに用いる入力画像の特徴量は、上述した例に限定されるものではなく、ステアリングホイール51などの車載部品の動きをより正確かつ簡単に検出することができる特徴量を採用することが望ましい。
ステップS5において、運転者監視システム11は、対応動作1を行う。具体的には、原因分析部104は、顔情報の取得に失敗したこと、および、失敗の原因となった車載部品を対処部105に通知する。対処部105は、例えば、失敗の原因となった車載部品が強制的に移動しても可能な部品である場合、車両制御装置25を制御して、その車載部品を強制的にカメラ21のフレームの外に移動させる。また、対処部105は、例えば、顔情報に含まれる情報のうち取得に成功した情報のみを監視部32に供給し、取得に失敗した情報を監視部32に供給しないように、顔情報取得部31を制御する。さらに、対処部105は、例えば、カメラ21のフレーム内に進入している車載部品がフレームの外に移動するまで、カメラ21および照明装置22の機能の一部または全部を休止させる。また、対処部105は、例えば、表示装置26、音声出力装置27、または、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、車載部品がカメラ21のフレーム内に進入したことにより、顔情報の取得に失敗したことを通知する。
また、監視部32が運転者の認証処理を行う場合、車載部品がカメラ21のフレーム内に進入したまま停車したとき、次回の発進時に運転者の顔情報を取得できず、認証に失敗してしまう恐れがある。そこで、対処部105は、車両制御装置25を制御して、停車時、または、次回の発進前のエンジン始動時に、カメラ21のフレーム内に進入している車載部品を強制的にフレームの外に移動させたり、表示装置26、音声出力装置27、または、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、その車載部品をカメラ21のフレームの外に移動させるように警告する。なお、ステアリングホイール51がカメラ21のフレーム内に進入している場合、強制的にステアリングホイール51を回転させると危険な場合があるので、エンジン、トランスミッションの状態やシフトレバーの位置などに応じて、強制的に回転させるか否かを制御するようにすればよい。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS4において、車載部品が原因でないと判定された場合、処理はステップS6に進む。
ステップS6において、原因分析部104は、顔の状態が原因であるかを判定する。具体的には、顔状態推測部102は、現在までの顔情報の推移に基づいて、現在の運転者の顔の向き、顔の位置、口の開き具合などを推測し、推測結果を原因分析部104に通知する。原因分析部104は、推測結果に基づいて、例えば、運転者の顔の向きが正面方向から大きくずれていたり、運転者の顔がカメラ21のフレームからはみ出していたり、入力画像における運転者の顔が大きすぎたり、あるいは、小さすぎたり、運転者が大きく口を開けていたりして、顔情報の取得に失敗したのは、運転者の顔の状態が原因であると判定した場合、処理はステップS7に進む。
なお、推測精度を向上させるために、さらに、センサ部23からの情報から得られる自車の進行方向、自車のシフトレバーの位置、運転席の乗員の有無、運転席のドアの開閉、カメラ21から運転者までの距離などに基づいて、運転者の顔の状態を推測するようにしてもよい。
ステップS7において、運転者監視システム11は、対応動作2を行う。具体的には、原因分析部104は、顔情報の取得に失敗したこと、および、失敗の原因となった運転者の顔の状態を対処部105に通知する。対処部105は、例えば、顔情報に含まれる情報のうち取得に成功した情報のみを監視部32に供給し、取得に失敗した情報を監視部32に供給しないように、顔情報取得部31を制御する。
また、対処部105は、例えば、表示装置26、音声出力装置27、または、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、運転者の顔の状態に応じた警告を行う。例えば、運転者の脇見により顔情報の取得に失敗した場合、カメラ21の方向すなわち前方を向くように、あるいは、脇見をやめるように促す警告が行われ、運転者が大きく口を開けているため顔情報の取得に失敗した場合、口を閉じるように促す警告が行われ、入力画像における運転者の顔が大きすぎるまたは小さすぎて顔情報の取得に失敗した場合、カメラ21から遠ざかるように、または、近づくように促す警告が行われ、運転者の顔がカメラ21のフレームからはみ出している場合、姿勢を正すように促す警告が行われる。
なお、例えば、自車のシフトレバーの位置が「後進」になっている場合など、自車の進行方向が前方とは異なり、運転者が前方以外の方向を見ている可能性が高い場合、対応動作2を行わないようにしてもよい。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS6において、顔の状態が原因でないと判定された場合、処理はステップS8に進む。
ステップS8において、原因分析部104は、照射光が原因であるかを判定する。具体的には、照射光状態検出部103は、入力画像に基づいて、運転者に照射されている照射光の状態(例えば、照射光の明るさや照射位置など)を検出し、検出結果を原因分析部104に通知する。例えば、照射光状態検出部103は、入力画像の平均輝度や輝度の分布に基づいて、照射光の状態を検出したり、照明装置22を消灯し、消灯時の入力画像に基づいて、照明装置22の照明光以外の外乱光の状態を検出したりする。原因分析部104は、検出結果に基づいて、例えば、照射光が明るすぎまたは暗すぎたり、照射光により輝度のムラが発生しており、運転者の顔情報の取得に失敗したのは、照射光が原因であると判定した場合、処理はステップS9に進む。
ステップS9において、運転者監視システム11は、対応動作3を行う。具体的には、原因分析部104は、照射光により顔情報の取得に失敗したことを対処部105に通知する。対処部105は、例えば、顔情報に含まれる情報のうち取得に成功した情報のみを監視部32に供給し、取得に失敗した情報を監視部32に供給しないように、顔情報取得部31を制御する。また、対処部105は、例えば、運転席の窓が開いている場合、車両制御装置25を制御し、運転席の窓を閉め、車内に入射する太陽光を減衰させる。さらに、対処部105は、照射光の明るさが適切な明るさになるように、カメラ21の露光時間や、照明装置22の明るさを調整する。
さらに、対処部105は、例えば、照明装置22を点滅させ、点灯時の入力画像と消灯時の入力画像の差分画像を生成し、差分画像に基づいて顔情報を取得するように、顔情報取得部31を制御する。これにより、照明装置22からの照明光以外の外乱光の影響が除去される。また、対処部105は、例えば、表示装置26、音声出力装置27、または、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、運転者の顔に照射されている照射光により、顔情報の取得に失敗したことを通知する。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS8において、照射光が原因でないと判定された場合、処理はステップS10に進む。
ステップS10において、原因分析部104は、顔情報の一部を取得できているかを判定する。顔情報の一部を取得できていると判定された場合、処理はステップS11に進む。なお、この場合の運転者の顔情報の取得に失敗した原因としては、例えば、運転者の手、新聞などの障害物、サングラス、マスクなどにより運転者の顔の一部が隠れていたり、または、取得する顔情報の種類に応じて複数の異なるプログラムが独立して稼動しており、顔情報の取得に成功したプログラムと失敗したプログラムとが存在する場合などが想定される。
ステップS11において、運転者監視システム11は、対応動作4を行う。具体的には、原因分析部104は、顔情報の一部の取得に失敗し、かつ、失敗の原因を特定できないことを対処部105に通知する。対処部105は、例えば、顔情報に含まれる情報のうち取得に成功した情報のみを監視部32に供給し、取得に失敗した情報を監視部32に供給しないように、顔情報取得部31を制御する。また、対処部105は、例えば、表示装置26、音声出力装置27、または、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、何かが顔を隠しているため、顔情報の取得に失敗したことを通知する。さらに、対処部105は、例えば、マスク、サングラスなど、運転者の顔を隠している物体の特定処理を顔情報取得部31に実行させる。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS10において、顔情報を全く取得できていないと判定された場合、処理はステップS12に進む。
ステップS12において、運転者監視システム11は、対応動作5を行う。具体的には、原因分析部104は、顔情報の全部の取得に失敗し、かつ、失敗の原因を特定できないことを対処部105に通知する。対処部105は、例えば、監視部32への顔情報の供給を停止するように顔情報取得部31を制御する。また、対処部105は、例えば、表示装置26、音声出力装置27、または、発光装置28を制御して、警告画像、警告メッセージ、警告音、警告灯の点灯または点滅などにより、原因は特定できないが、顔情報の取得に失敗したことを通知する。さらに、対処部105は、例えば、対応動作5を実行する状態が長時間連続する場合、カメラ21を再起動させる。また、対処部105は、例えば、対応動作4または対応動作5を実行する状態が長時間連続する場合、カメラ21に自己故障判定処理を実行させる。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
このようにして、顔情報の取得に失敗した原因をより詳細に特定することができ、その結果、特定した原因に応じた適切な対処を迅速に行うことができる。また、顔情報の取得に失敗した原因を明確に特定できない場合にも、顔情報の一部を取得できているか否かに応じて対処方法が変更されるので、より適切な対処を行うことができる。
次に、図7のフローチャートを参照して、運転者監視システム11により実行される運転者監視処理の第2の実施の形態について説明する。なお、図4を参照して説明した運転者監視処理の第1の実施の形態では、1回のループ処理において、顔情報の取得に失敗した原因を1つ特定したら、その原因に対する対応動作を行い、ループの先頭に戻るようにしていたが、運転者監視処理の第2の実施の形態では、1回のループ処理において、複数の原因の特定を可能にし、各原因に対する対応動作を行うようにしている。
ステップS51において、図4のステップS1の処理と同様に、顔情報が取得され、ステップS52において、図4のステップS2の処理と同様に、顔情報の取得に成功したかが判定される。顔情報の取得に成功したと判定された場合、処理はステップS53に進み、ステップS53において、図4のステップS3の処理と同様に、正常動作が行われ、その後、処理はステップS51に戻り、ステップS51以降の処理が実行される。
一方、ステップS52において、顔情報の取得に失敗したと判定された場合、処理はステップS54に進み、ステップS54において、図4のステップS4の処理と同様に、車載部品が原因であるかが判定される。車載部品が原因であると判定された場合、処理はステップS55に進み、ステップS55において、図4のステップS5の処理と同様に、対応動作1が行われ、処理はステップS56に進む。一方、ステップS54において、車載部品が原因でないと判定された場合、ステップS55の処理はスキップされ、処理はステップS56に進む。
ステップS56において、図4のステップS6の処理と同様に、顔の状態が原因であるかが判定され、顔の状態が原因であると判定された場合、処理はステップS57に進み、図4のステップS7の処理と同様に、対応動作2が行われ、処理はステップS58に進む。一方、ステップS56において、顔の状態が原因でないと判定された場合、ステップS57の処理はスキップされ、処理はステップS58に進む。
ステップS58において、図4のステップS8の処理と同様に、照射光が原因であるかが判定され、照射光が原因であると判定された場合、処理はステップS59に進み、図4のステップS9の処理と同様に、対応動作3が行われ、処理はステップS60に進む。一方、ステップS58において、照射光が原因でないと判定された場合、ステップS59の処理はスキップされ、処理はステップS60に進む。
ステップS60において、原因分析部104は、原因が一つでも判明したかを判定する。原因分析部104は、ステップS52、S54およびS56の処理において、顔情報の取得に失敗した原因が、車載部品、運転者の顔の状態、または、照射光のうち少なくとも1つであることが判明している場合、原因が一つでも判明したと判定し、処理はステップS51に戻り、ステップS51以降の処理が実行される。
一方、ステップS60において、原因が一つも判明していないと判定された場合、処理はステップS61に進み、図4のステップS10の処理と同様に、顔情報の一部を取得できているかが判定される。顔情報の一部を取得できていると判定された場合、処理はステップS62に進み、図4のステップS11の処理と同様に、対応動作4が行われ、その後、処理はステップS51に戻り、ステップS51以降の処理が実行される。一方、ステップS61において、顔情報を全く取得できていないと判定された場合、処理はステップS63に進み、図4のステップS12の処理と同様に、対応動作5が行われ、その後、処理はステップS51に戻り、ステップS51以降の処理が実行される。
運転者監視処理の第2の実施の形態では、運転者監視処理の第1の実施の形態と比較して、複数の原因により顔情報の取得に失敗している場合、顔情報を取得してから次の顔情報を取得するまでの1ループ内に実行する処理が増加する一方で、1ループ内で複数の原因を特定でき、それらに対する処置をより迅速に行うことができる。従って、運転監視処理を実行するCPUなどのプロセッサの能力が高い場合などに、運転者監視処理の第2の実施の形態を実行するようにすることが想定される。
なお、対応動作の負荷によって、残りの原因の分析を行うか否かを切り替えるようにしてもよい。例えば、対応動作1の負荷が重い場合、対応動作1を行った後、ループの先頭に戻り、対応動作2の負荷が軽い場合、対応動作2を行った後、次の照射光の状態に関する分析を行うようにしてもよい。
なお、運転者監視処理の第1の実施の形態および第2の実施の形態のいずれにおいても、運転者の顔の状態が原因であるか否かを判定する処理と、照射光が原因であるか否かを判定する処理の順番を入れ替えることが可能である。
また、照射光の状態が安定している場合、照射光が原因であるか否かを判定する処理を省略して、車載部品、運転者の顔の状態、および、それ以外の要因に顔情報を失敗した原因を分類するようにしてもよい。
さらに、例えば、顔情報の取得に成功しているのに、車載部品が運転者の顔の撮影を阻害する位置にあることが検出された場合、その車載部品の位置を検出するセンサが故障していると判定することも可能である。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記憶部308、ネットワークインタフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した運転者監視システムの一実施の形態を示すブロック図である。 カメラの設置位置の例を示す図である。 エラー処理部の機能的構成を示す図である。 運転者監視処理の第1の実施の形態を説明するためのフローチャートである。 カメラのフレーム内へのステアリングホイールの進入の検出方法の例を説明するための図である。 カメラのフレーム内へのステアリングホイールの進入の検出方法の他の例を説明するための図である。 運転者監視処理の第2の実施の形態を説明するためのフローチャートである。 コンピュータの構成の例を示すブロック図である。
符号の説明
11 運転者監視システム
21 カメラ
22 照明装置
23 センサ部
24 監視装置
25 車両制御装置
26 表示装置
27 音声出力装置
28 発光装置
31 顔情報取得部
32 監視部
33 エラー処理部
101 車載部品位置検出部
102 顔状態推測部
103 照明光状態検出部
104 原因分析部
105 対処部

Claims (6)

  1. 車両を運転する運転者の顔に関する顔情報を入力画像から取得する情報処理装置において、
    前記車両に設けられ、所定の動きをすることにより少なくとも一部が前記入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置を検出する車載部品位置検出手段と、
    前記顔情報の推移に基づいて、前記運転者の顔の状態を推測する顔状態推測手段と、
    検出された前記車載部品の位置、および、推測された前記運転者の顔の状態に基づいて、前記顔情報の取得に失敗した原因が、前記車載部品によるものか、前記運転者の顔の状態によるものか、または、それらとは異なる要因によるものかを分析する原因分析手段と
    を含む情報処理装置。
  2. 前記入力画像に基づいて、前記運転者に照射されている照射光の状態を検出する照射光状態検出手段を
    さらに含み、
    前記原因分析手段は、検出された前記車載部品の位置、推測された前記運転者の顔の状態、および、検出された前記照射光の状態に基づいて、前記顔情報の取得に失敗した原因が、前記車載部品によるものか、前記運転者の顔の状態によるものか、前記照射光によるものか、または、それらとは異なる要因によるものかを分析する
    請求項1に記載の情報処理装置。
  3. 前記顔情報の取得に失敗した原因に応じた対処を行う対処手段を
    さらに含む請求項1に記載の情報処理装置。
  4. 前記対処手段は、前記顔情報の一部を取得できているか否かに応じて対処方法を変更する
    請求項3に記載の情報処理装置。
  5. 車両を運転する運転者の顔に関する顔情報を入力画像から取得する情報処理装置の情報処理方法において、
    前記車両に設けられ、所定の動きをすることにより少なくとも一部が前記入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置を検出する車載部品位置検出ステップと、
    前記顔情報の推移に基づいて、前記運転者の顔の状態を推測する顔状態推測ステップと、
    検出された前記車載部品の位置、および、推測された前記運転者の顔の状態に基づいて、前記顔情報の取得に失敗した原因が、前記車載部品によるものか、前記運転者の顔の状態によるものか、または、それらとは異なる要因によるものかを分析する原因分析ステップと
    を含む情報処理方法。
  6. 車両を運転する運転者の顔に関する顔情報の入力画像からの取得に失敗した原因を特定する処理をコンピュータに実行させるプログラムにおいて、
    前記車両に設けられ、所定の動きをすることにより少なくとも一部が前記入力画像を撮影する撮影装置のフレームの中に入ったり外に出たりする車載部品の位置を検出する車載部品位置検出ステップと、
    前記顔情報の推移に基づいて、前記運転者の顔の状態を推測する顔状態推測ステップと、
    検出された前記車載部品の位置、および、推測された前記運転者の顔の状態に基づいて、前記顔情報の取得に失敗した原因が、前記車載部品によるものか、前記運転者の顔の状態によるものか、または、それらとは異なる要因によるものかを分析する原因分析ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2008047579A 2008-02-28 2008-02-28 情報処理装置および方法、並びに、プログラム Expired - Fee Related JP5233322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008047579A JP5233322B2 (ja) 2008-02-28 2008-02-28 情報処理装置および方法、並びに、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008047579A JP5233322B2 (ja) 2008-02-28 2008-02-28 情報処理装置および方法、並びに、プログラム

Publications (2)

Publication Number Publication Date
JP2009201756A JP2009201756A (ja) 2009-09-10
JP5233322B2 true JP5233322B2 (ja) 2013-07-10

Family

ID=41144607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008047579A Expired - Fee Related JP5233322B2 (ja) 2008-02-28 2008-02-28 情報処理装置および方法、並びに、プログラム

Country Status (1)

Country Link
JP (1) JP5233322B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109747658A (zh) * 2017-11-07 2019-05-14 丰田自动车株式会社 车辆的控制装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4935762B2 (ja) * 2008-06-05 2012-05-23 トヨタ自動車株式会社 顔画像処理装置
CN103347446B (zh) * 2010-12-10 2016-10-26 Tk控股公司 用于监控车辆驾驶员的系统
KR101251836B1 (ko) * 2011-09-02 2013-04-09 현대자동차주식회사 적외선 센서를 이용한 운전자 상태감시 장치 및 그 방법
JP6857841B2 (ja) * 2017-01-24 2021-04-14 パナソニックIpマネジメント株式会社 ドライバ監視装置、車両、ドライバ監視方法およびプログラム
JP2019159346A (ja) * 2018-03-07 2019-09-19 オムロン株式会社 撮像装置
JP6662401B2 (ja) 2018-03-13 2020-03-11 オムロン株式会社 乗員監視装置
GB2571983A (en) * 2018-03-15 2019-09-18 Jaguar Land Rover Ltd Method of controlling an in-vehicle monitoring system
JP7232008B2 (ja) * 2018-09-27 2023-03-02 株式会社アイシン 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
KR102634349B1 (ko) * 2018-10-11 2024-02-07 현대자동차주식회사 차량의 제어 장치 및 방법
US12079319B2 (en) 2019-04-18 2024-09-03 Nec Corporation Person specifying device, person specifying method, and recording medium
JP7346969B2 (ja) * 2019-07-22 2023-09-20 トヨタ自動車株式会社 運転支援装置
CN112849148B (zh) * 2021-01-11 2023-03-14 重庆长安汽车股份有限公司 一种自动驾驶功能控制方法、自动驾驶系统、汽车、控制器及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3843971B2 (ja) * 2003-07-29 2006-11-08 日産自動車株式会社 乗員検知装置
JP2005108033A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 運転者状況判定装置および運転者状況判定方法
JP2005157648A (ja) * 2003-11-25 2005-06-16 Toyota Motor Corp 運転者認識装置
JP4501708B2 (ja) * 2005-02-02 2010-07-14 トヨタ自動車株式会社 運転者の顔向き判定装置
JP2007253821A (ja) * 2006-03-23 2007-10-04 Toyota Motor Corp 乗員撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109747658A (zh) * 2017-11-07 2019-05-14 丰田自动车株式会社 车辆的控制装置

Also Published As

Publication number Publication date
JP2009201756A (ja) 2009-09-10

Similar Documents

Publication Publication Date Title
JP5233322B2 (ja) 情報処理装置および方法、並びに、プログラム
RU2453884C1 (ru) Устройство для формирования изображения водителя и способ формирования изображения водителя
US20180319407A1 (en) Integration of occupant monitoring systems with vehicle control systems
US9888875B2 (en) Driver monitoring apparatus
JP4788624B2 (ja) 不注意警告装置、不注意警告装置の車両機器制御方法及び車両制御装置のプログラム
JP2006248363A (ja) 運転者照明装置、運転者撮影装置および運転者監視装置
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
JP2009136551A (ja) 車両用顔特徴量検出装置及び顔特徴量検出方法
JP6323510B2 (ja) 運転者体調検知装置及び方法
US11498457B2 (en) Vehicle mounted system, vehicle control system and method for monitoring an infant in a vehicle cabin
US20150125126A1 (en) Detection system in a vehicle for recording the speaking activity of a vehicle occupant
US10423846B2 (en) Method for identifying a driver change in a motor vehicle
JP2019104450A (ja) 車載撮影装置、及び車載撮影方法
KR101546893B1 (ko) 졸음 운전 방지 시스템
JP2005096554A (ja) タイヤ空気圧監視システム
JP4888382B2 (ja) 異常検出装置および方法、並びに、プログラム
JP2006096316A (ja) 監視装置
JP5573820B2 (ja) 状態監視装置
US11881054B2 (en) Device and method for determining image data of the eyes, eye positions and/or a viewing direction of a vehicle user in a vehicle
JP2009125518A (ja) ドライバの瞬き検知方法及びドライバの覚醒度判断方法並びに装置
JP4973613B2 (ja) 運転者状態検出装置
JP7149749B2 (ja) 運転支援装置、及び運転支援方法
JP5182567B2 (ja) 乗員監視装置
JP2022138812A (ja) 車両の運転者状態判定装置
JP2017061216A (ja) 車載撮像システム、車両および撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5233322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees