JP2009116742A - 車載用画像処理装置、画像処理方法、および、プログラム - Google Patents
車載用画像処理装置、画像処理方法、および、プログラム Download PDFInfo
- Publication number
- JP2009116742A JP2009116742A JP2007291069A JP2007291069A JP2009116742A JP 2009116742 A JP2009116742 A JP 2009116742A JP 2007291069 A JP2007291069 A JP 2007291069A JP 2007291069 A JP2007291069 A JP 2007291069A JP 2009116742 A JP2009116742 A JP 2009116742A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- face area
- camera
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
- B60K28/066—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1103—Detecting eye twinkling
Abstract
【課題】光環境の変化によらず、運転者に適切な警報を発する。
【解決手段】カメラ10が撮影した顔画像をECU20に送信する度に、ECU20は、送信された顔画像から顔領域を検出し、検出した顔領域で顔の向きおよび眼の状態を判別するのに最適な明るさになるように露光時間を補正し、補正した露光時間をカメラ10に通知し、カメラ10は、通知された露光時間で運転者の顔を撮影する。そして、ECU20は、定期的に、最適な明るさで撮影された顔画像を解析して、運転者が危険運転をしているか否かを判別し、運転者が危険運転をしている場合には警報を発する。
【選択図】図2
【解決手段】カメラ10が撮影した顔画像をECU20に送信する度に、ECU20は、送信された顔画像から顔領域を検出し、検出した顔領域で顔の向きおよび眼の状態を判別するのに最適な明るさになるように露光時間を補正し、補正した露光時間をカメラ10に通知し、カメラ10は、通知された露光時間で運転者の顔を撮影する。そして、ECU20は、定期的に、最適な明るさで撮影された顔画像を解析して、運転者が危険運転をしているか否かを判別し、運転者が危険運転をしている場合には警報を発する。
【選択図】図2
Description
本発明は、車両の運転者の顔画像を撮影するカメラに接続された車載用画像処理装置、画像処理方法、および、プログラムに関する。
運転者が脇見運転や居眠り運転等をしているか否かを判別するために、運転者の顔画像から顔の向きや眼の状態を読み取って、必要に応じて警報を発する等の処理が行われている。
例えば、特許文献1は、運転者の脇見運転などを判別するために、顔画像から顔の向きとその信頼度とを判別する技術を開示している。この技術を用いれば、運転者が脇見運転を行っていること等を高い信頼度で判別して、適切な警報を行うこと等が可能となる。
特開2007−072628号公報
例えば、特許文献1は、運転者の脇見運転などを判別するために、顔画像から顔の向きとその信頼度とを判別する技術を開示している。この技術を用いれば、運転者が脇見運転を行っていること等を高い信頼度で判別して、適切な警報を行うこと等が可能となる。
車両は移動するため、運転者を撮影する光環境等も随時変化する。そのため、顔画像が暗すぎたりハレーションを起こしてしまい、その解析が困難となり、顔の状態(例えば、顔の向きや、視線の方向、眼の開閉状態等)を正確に読み取ることができない場合がある。このような状態が継続すると、適切な警報が困難となるおそれがある。
本発明は、上記実状に鑑みてなされたものであり、環境の変化によらず、適切な警報を提供することを目的とする。
また、本発明は、光環境が変化しても、顔の状況を正確に読み取ることができる顔画像を撮影することを可能とする車載用画像処理装置等を提供することを目的とする。
さらに、本発明は、光環境の変化によらず、解析に適した顔画像の取得を可能とすることを他の目的とする。
また、本発明は、光環境が変化しても、顔の状況を正確に読み取ることができる顔画像を撮影することを可能とする車載用画像処理装置等を提供することを目的とする。
さらに、本発明は、光環境の変化によらず、解析に適した顔画像の取得を可能とすることを他の目的とする。
上記目的を達成するため、本発明の第1の観点に係る車載用画像処理装置は、
運転者の顔を含む撮像画像を、カメラより受信する顔画像受信手段と、
前記顔画像受信手段で受信した画像を解析して、該画像に含まれている顔の領域を検出する顔領域検出手段と、
前記顔領域検出手段で検出した顔領域の明度を判別する明度判別手段と、
前記明度判別手段で求めた顔領域の明度に基づいて、顔領域の明度が所定レベルとなるように、前記カメラを制御するカメラ制御手段と、
前記顔領域検出手段で検出された顔領域の画像を用いて、運転者の状態を判別し、判別した状態に基づいて、警報を出力する警報手段と、
を備えることを特徴とする。
運転者の顔を含む撮像画像を、カメラより受信する顔画像受信手段と、
前記顔画像受信手段で受信した画像を解析して、該画像に含まれている顔の領域を検出する顔領域検出手段と、
前記顔領域検出手段で検出した顔領域の明度を判別する明度判別手段と、
前記明度判別手段で求めた顔領域の明度に基づいて、顔領域の明度が所定レベルとなるように、前記カメラを制御するカメラ制御手段と、
前記顔領域検出手段で検出された顔領域の画像を用いて、運転者の状態を判別し、判別した状態に基づいて、警報を出力する警報手段と、
を備えることを特徴とする。
前記明度判別手段は、前記顔領域検出手段で検出した顔領域に他の領域よりも重い重みを付し、画像の明度の重み付け平均を求める手段から構成してもよい。
前記カメラは、運転者を周期的に撮像して撮像画像を前記顔画像受信手段に供給し、
前記カメラ制御手段は、前記明度判別手段が判別した明度に応じて、前記カメラの露光量を制御してもよい。
前記カメラ制御手段は、前記明度判別手段が判別した明度に応じて、前記カメラの露光量を制御してもよい。
前記カメラは、運転者を周期的に撮像して撮像画像を前記顔画像受信手段に供給し、
前記カメラ制御手段は、
前記明度判別手段が判別した明度が第1の基準値よりも大きいときに前記カメラの露光時間を短く又は絞りの径を小さくし、
前記明度判別手段が判別した明度が該第1の基準値よりも小さい第2の基準値よりも小さいときに前記カメラの露光時間を長く又は絞りの径を大きくしてもよい。
前記カメラ制御手段は、
前記明度判別手段が判別した明度が第1の基準値よりも大きいときに前記カメラの露光時間を短く又は絞りの径を小さくし、
前記明度判別手段が判別した明度が該第1の基準値よりも小さい第2の基準値よりも小さいときに前記カメラの露光時間を長く又は絞りの径を大きくしてもよい。
前記警報手段は、
前記顔領域検出手段で検出された顔領域の画像を用いて、運転者の顔向き、視線の方向、目の開閉状態、の少なくとも1つを判別し、判別結果に基づいて、警報を発してもよい。
前記顔領域検出手段で検出された顔領域の画像を用いて、運転者の顔向き、視線の方向、目の開閉状態、の少なくとも1つを判別し、判別結果に基づいて、警報を発してもよい。
上記目的を達成するため、本発明の第2の観点に係る画像処理方法は、
運転者の顔を含む撮像画像を、カメラより受信し、
受信した画像を解析して、該画像に含まれている顔の領域を検出し、
検出した顔の領域の明度を判別し、
判別した明度に基づいて、画像の顔領域の明度が所望のレベルとなるように、前記カメラを制御し、
検出された顔の領域を用いて、運転者の状態を判別する、
ことを特徴とする。
運転者の顔を含む撮像画像を、カメラより受信し、
受信した画像を解析して、該画像に含まれている顔の領域を検出し、
検出した顔の領域の明度を判別し、
判別した明度に基づいて、画像の顔領域の明度が所望のレベルとなるように、前記カメラを制御し、
検出された顔の領域を用いて、運転者の状態を判別する、
ことを特徴とする。
上記目的を達成するため、本発明の第3の観点に係るプログラムは、
コンピュータに、
運転者の顔を含む撮像画像を、カメラより受信し、
受信した画像を解析して、該画像に含まれている顔の領域を検出し、
検出した顔の領域の明度を判別し、
判別した明度に基づいて、画像の顔領域の明度が所望のレベルとなるように、前記カメラを制御し、
検出された顔の領域を用いて、運転者の状態を判別する、
処理を実行させる。
コンピュータに、
運転者の顔を含む撮像画像を、カメラより受信し、
受信した画像を解析して、該画像に含まれている顔の領域を検出し、
検出した顔の領域の明度を判別し、
判別した明度に基づいて、画像の顔領域の明度が所望のレベルとなるように、前記カメラを制御し、
検出された顔の領域を用いて、運転者の状態を判別する、
処理を実行させる。
この発明によれば、環境の変化によらず、顔画像の顔領域の明度を適切な値に維持できる。従って、環境の変化によらず、画像の顔領域を解析して、運転者の状態を判別することが可能となる。これにより、運転者への適切な警報の出力が可能となる。
以下、本発明の実施形態に係る車載用画像処理システム100について説明する。
車載用画像処理システム100は、運転者を撮影し、撮影した画像から運転者の状態を判別し、必要に応じて、運転者に警報を発するシステムである。
車載用画像処理システム100は、運転者を撮影し、撮影した画像から運転者の状態を判別し、必要に応じて、運転者に警報を発するシステムである。
車載用画像処理システム100は、図1に示すように、運転者を撮影して画像を生成するカメラ10と、カメラ10に接続されたECU(Engine Control Unit)20と、ECU20に接続された表示装置30とを備える。
カメラ10は、図2に示すように、撮影部11と、CCDコントローラ12と、IF部13とを備える。
撮影部11は、CCD(Charge Coupled Device:電荷結合素子)111と絞り112とを備え、CCDコントローラ12によって制御され、運転者の顔を周期的に撮影する。
なお、撮影部11によって撮影される顔画像は、運転者の顔だけでなく、その背景なども含まれている。
なお、撮影部11によって撮影される顔画像は、運転者の顔だけでなく、その背景なども含まれている。
CCDコントローラ12は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備え、RAMをワークエリアとして、ROMに格納されている制御プログラムを実行することにより、撮影部11の動作を制御する。例えば、CCDコントローラ12は、撮影部11のCCD111の撮影および露光の開始/終了、撮像画像の転送等を制御する。また、CCDコントローラ12は、絞り112の開口の径(開度:絞り値)を制御する。
IF部13は、ECU20と通信を行うためのインターフェースである。
ECU20は、車両全体の制御の他、カメラ10から受信した画像から顔の位置(顔領域)を検出し、検出した顔領域で最適な明度の画像になるような露光時間を算出してCCDコントローラ12に指示する機能、および、顔画像を解析して運転者の脇見運転、居眠り運転などの危険運転を検出して警報を鳴らす機能を有する電子制御装置である。
ECU20は、IF部21と、画像メモリ22と、ROM23と、RAM24と、表示制御部25と、CPU26と、スピーカ27とを備える。
IF部21は、カメラ10と通信を行うためのインターフェースである。
ROM23は、CPU26の動作を制御するための制御プログラム、および、固定データを記憶する。
ROM23に格納される固定データの例を図3を参照して説明する。
ROM23は、図3(a)、(b)に示すような、縦エッジ検出用と横エッジ検出用ソーベルフィルタのオペレータを格納する。図3(a)、(b)に示す、縦エッジ検出用ソーベルフィルタと横エッジ検出用のソーベルフィルタとは、それぞれ、図3(c)、(d)に示すような縦方向の濃淡差、横方向の濃淡差を強調するためのオペレータである。
ROM23は、図3(a)、(b)に示すような、縦エッジ検出用と横エッジ検出用ソーベルフィルタのオペレータを格納する。図3(a)、(b)に示す、縦エッジ検出用ソーベルフィルタと横エッジ検出用のソーベルフィルタとは、それぞれ、図3(c)、(d)に示すような縦方向の濃淡差、横方向の濃淡差を強調するためのオペレータである。
また、ROM23は、図3(e)に示すように、顔画像から顔の向きや眼の状態を判別するのに最適な明度の範囲を示す情報(最適明度範囲)を格納する。
また、ROM23は、図3(e)に示すように、カメラ10のデフォルトの露光時間(初期露光時間(TINI))と、露光時間を補正する量(露光補正量(Δt))とを格納する。
また、ROM23は、図3(e)に示すように、カメラ10のデフォルトの露光時間(初期露光時間(TINI))と、露光時間を補正する量(露光補正量(Δt))とを格納する。
RAM24は、CPU26のワークエリアとして機能する。
また、RAM24は、カメラ10の撮影時間(露光時間Te)を格納する。この露光時間Teは、CPU26によってカメラ10に通知され、カメラ10はこの露光時間Teで撮影を行う。なお、初期状態においては、露光時間Teには初期露光時間TINIが設定されている。
また、RAM24は、顔画像から検出した顔の両端と上下の位置の座標(x座標、y座標)を記録する。この位置座標より、顔画像の顔領域を特定することができる。
また、RAM24は、カメラ10の撮影時間(露光時間Te)を格納する。この露光時間Teは、CPU26によってカメラ10に通知され、カメラ10はこの露光時間Teで撮影を行う。なお、初期状態においては、露光時間Teには初期露光時間TINIが設定されている。
また、RAM24は、顔画像から検出した顔の両端と上下の位置の座標(x座標、y座標)を記録する。この位置座標より、顔画像の顔領域を特定することができる。
表示制御部25は、CPU26の制御に従って、表示装置30を制御する。
CPU26は、ROM23から制御プログラムを読み出して実行することにより、ECU20の動作を制御する。また、CPU26は、カメラ10が撮影した顔画像を解析して顔領域を検出し、顔領域で顔の向き、および、眼の状態を判別するのに最適な明るさの画像となるように、カメラ10の露光時間を制御する処理(露光制御処理)を行う。
スピーカ27は、CPU26の制御のもと、危険運転を行っている運転者に対して警報音を鳴らす。
表示装置30は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成され、ナビゲーション画像や、警報用の画像等を表示する。
次に、上記車載用画像処理システム100の動作を説明する。
ユーザの操作等により、車載用画像処理システム100の動作が開始されると、CCDコントローラ12は、撮影部11の制御を開始する。
具体的には、CCDコントローラ12は、所定のタイミング(例えば、1/30秒)毎に、ECU20より通知された露光時間Teで撮影するように、撮影部11のCCD111の露光の開始と終了、撮像画像の転送を制御する。
具体的には、CCDコントローラ12は、所定のタイミング(例えば、1/30秒)毎に、ECU20より通知された露光時間Teで撮影するように、撮影部11のCCD111の露光の開始と終了、撮像画像の転送を制御する。
CCD111は、CCDコントローラ12からの制御により、指示された露光時間Teだけ露光して、運転者の顔を含む領域を撮影する。そして、撮影した顔画像を、IF部13を介してECU20に送信する。
ECU20のCPU26は、カメラ10が撮影した顔画像をIF部21を介して受信する毎に、図4に示す露光制御処理を開始する。
まず、CPU26は、受信した顔画像から顔の位置を判別する顔位置判別処理を実行する(ステップS1)。
図5に示すように、顔位置判別処理は、前処理(ステップS11)と、顔両端検出処理(ステップS12)と、顔上下位置検出処理(ステップS13)とから構成される。
前処理(ステップS11)は、図6に示すように、キャプチャ処理(ステップS111)と、座標変換処理(ステップS112)と、ソーベルフィルタ処理(ステップS113)とから構成される。
キャプチャ処理(ステップS111)は、IF部21が受信した1フレーム分の顔画像を、画像メモリ22に格納する処理である。
座標変換処理(ステップS112)は、処理可能な程度に、顔画像の画素を間引く処理である。
ソーベルフィルタ処理(ステップS113)は、ROM23に格納されている縦エッジ検出用ソーベルフィルタ(図3(a))を用いて座標変換後の顔画像を処理して、顔画像内の縦エッジを強調する処理を行い、また、横エッジ検出用ソーベルフィルタ(図3(b))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調する処理を行う処理である。
図5に戻り、顔両端検出処理(ステップS12)は、縦エッジ検出用のオペレータで処理した処理済顔画像について、顔の両端を構成するラインを特定する処理であり、既知の任意の手法を採用することができる。
例えば、図7に示すように、まず、CPU26は、顔両端検出用のヒストグラムを作成する処理を行う(ステップS121)。このヒストグラム作成処理は、処理済顔画像の各画素の値を縦方向に投影してヒストグラムを作成する処理である。
続いて、CPU26は、このヒストグラムのピーク値の高いものを所定数抽出して、これをソートし(ステップS122)、ヒストグラム値に基づく、顔の左右両端点を抽出する(ステップS123)。
続いて、CPU26は、このヒストグラムのピーク値の高いものを所定数抽出して、これをソートし(ステップS122)、ヒストグラム値に基づく、顔の左右両端点を抽出する(ステップS123)。
次に、CPU26は、端点が2つ(左右両端)抽出されたか否かを判別する(ステップS124)。2つ抽出されていれば(ステップS124;Yes)、CPU26は、抽出した2点を顔の左右両端(x座標)として、RAM24に記録する(ステップS126)。
一方、端点が2つ抽出できていなければ(ステップS124;No)、CPU26は、2点の距離が、人の顔幅としてもっともらしい間隔を有する組み合わせを抽出する(ステップS125)。そして、CPU26は、抽出した2点の組を、顔の左右両端(x座標)として、RAM24に記録する(ステップS126)。
一方、端点が2つ抽出できていなければ(ステップS124;No)、CPU26は、2点の距離が、人の顔幅としてもっともらしい間隔を有する組み合わせを抽出する(ステップS125)。そして、CPU26は、抽出した2点の組を、顔の左右両端(x座標)として、RAM24に記録する(ステップS126)。
図5に戻り、次のステップS13の顔上下位置検出処理は、上述と同様の処理を横エッジについて行って、顔のほぼ眉の位置(上端)と口の位置(下端)を検出する処理である。例えば、顔上下位置検出処理(ステップS13)は、図8に示すように、ヒストグラム作成処理(ステップS131)と、目下候補検出処理(ステップS132)と、顔上下位置算出・記録処理(ステップS133)と、から構成される。
ヒストグラム作成処理(ステップS131)は、横エッジ検出用ソーベルフィルタで処理した顔画像の各画素の値を横方向に投影してヒストグラムを作成する処理である。
目下候補検出処理(ステップS132)は、ヒストグラム値に基づいて、目・眉、口などに対応するヒストグラム値の候補を選択する処理である。
顔上下位置算出・記録処理(ステップS133)は、選択した候補から、顔の上下端位置(y座標)を検出してRAM24に記録する処理である。なお、顔上端位置(y座標)は、例えば、検出した眉から3画素分上の位置(y座標)とし、下端位置は検出した口から3画素分下の位置(y座標)などとして検出すればよい。
図4に戻り、顔位置判別処理(ステップS1)が終了した後、CPU26は、露光時間補正処理を実行する(ステップS2)。
図9に露光時間補正処理(ステップS2)の詳細を示す。
図9に露光時間補正処理(ステップS2)の詳細を示す。
まず、CPU26は、画像メモリ22に格納した顔画像を読み出す(ステップS21)。
続いてCPU26は、読み出した顔画像の平均明度を算出する(ステップS22)。
具体的には、CPU26は、顔画像を構成する画素のうち、顔位置判別処理(ステップS1)で記録した顔の両端と上下位置の座標(x座標、y座標)から特定できる顔領域の画素の明度の平均を算出する。なお、CPU26は、顔領域の画像については重みW1、他の領域の画素については重みW2(<W1)の重みを付けて、顔画像全体の明度を求めてもよい。さらに、顔領域を複数に区分し、重みW1を区分領域毎に設定してもよい。
具体的には、CPU26は、顔画像を構成する画素のうち、顔位置判別処理(ステップS1)で記録した顔の両端と上下位置の座標(x座標、y座標)から特定できる顔領域の画素の明度の平均を算出する。なお、CPU26は、顔領域の画像については重みW1、他の領域の画素については重みW2(<W1)の重みを付けて、顔画像全体の明度を求めてもよい。さらに、顔領域を複数に区分し、重みW1を区分領域毎に設定してもよい。
続いて、CPU26は、算出した平均明度をROM23に記録されている最適明度範囲と比較して、顔画像(正確には、顔領域の画像)が、顔の向きや眼の状態を判別するのに適切な明るさであるか否かを判別する(ステップS23)。
平均明度が最適明度範囲内であると判別した場合(ステップS23;最適)、顔画像の明度は顔の向きや眼の状態を判別するのに最適であり露光時間を補正する必要はないため、CPU26は、ステップS26に処理を移す。
平均明度が最適明度範囲より小さいと判別した場合(ステップS23;暗すぎ)、顔画像は顔の向きや眼の状態を判別するのに暗すぎて解析が困難となるおそれがある。よって、CPU26は、カメラ10の露光時間TeにROM23に記憶されている露光補正量Δtを加算し、新たな露光時間TeとしてRAM24に格納する(ステップS24)。そして、ステップS26に処理を移す。
平均明度が最適明度範囲より大きいと判別した場合(ステップS23;明るすぎ)、顔画像は顔の向きや眼の状態を判別するのに明るすぎて解析が困難となるおそれがある。よって、CPU26は、カメラ10の露光時間TeをROM23に記憶されている露光補正量Δtだけ減算し、新たな露光時間TeとしてRAM24に格納する(ステップS25)。そして、ステップS26に処理を移す。
ステップS26で、CPU26は、露光時間Teを示す情報をRAM24から読み出して、IF部21よりカメラ10のCCDコントローラ12に送信する(ステップS26)。以上で、露光時間補正処理(ステップS2)は終了し、図4に示す露光制御処理は終了する。
そして、カメラ10のCCDコントローラ12は、露光制御処理によって適切に補正された露光時間TeをIF部13を介してECU20から受信し、受信した露光時間Teで撮影するように、撮影部11を制御する。撮影部11によって撮影された画像はECU20に送信されて、露光制御処理が繰り返される。
そして、ECU20は、定期的に、画像メモリ22に格納された運転者の顔画像から、顔の向き、運転者の視線方向、眼の開閉状態を判別して、運転者が脇見運転や居眠り運転などの危険運転をしているかを判別して警告を行う運転者警告処理を行う。
図10に、運転者警告処理の例を示す。
まず、ECU20のCPU26は、画像メモリ22に格納されている運転者の顔画像のうち、ステップS126とS133で特定された顔の両端及び上下位置で区画される顔領域の画像を読み出す(ステップS31)。この顔領域の画像は、上述の露光時間補正処理(ステップS2)により、解析に適した明度を有している。
まず、ECU20のCPU26は、画像メモリ22に格納されている運転者の顔画像のうち、ステップS126とS133で特定された顔の両端及び上下位置で区画される顔領域の画像を読み出す(ステップS31)。この顔領域の画像は、上述の露光時間補正処理(ステップS2)により、解析に適した明度を有している。
続いて、CPU26は、この顔領域の画像を解析して、運転者が脇見運転や居眠り運転などの危険運転をしているか否かを判別する(ステップS32)。
この危険運転をしているか否かを判別する方法は任意であり、既存の任意の手法を仕様可能である。
この危険運転をしているか否かを判別する方法は任意であり、既存の任意の手法を仕様可能である。
例えば、顔領域の画像を解析して、顔の中心の位置を求め、この位置から顔の向きを判別し、顔の向きと車両の正面方向とのずれが所定の値以上でその状態が一定時間以上継続すれば、運転者が脇見運転を行っていると判別することができる。
また、例えば、顔領域の画像を解析して、運転者の目を判別し、目の画像から、視線の方向を検出し、視線の方向と車両の正面方向とのずれが所定の値以上でその状態が一定時間以上継続すれば、運転者が脇見運転を行っていると判別することができる。
また、運転者の目の画像から、眼の開閉を検出し、所定の時間以上、眼が閉じている状態を検出した場合に、運転者が居眠り運転を行っていると判別することができる。
運転者が危険運転をしていないと判別した場合(ステップS32;No)、運転者を警告する必要はなく、運転者警告処理は終了する。
運転者が危険運転をしていると判別した場合(ステップS32;Yes)、CPU26は、運転者を警告するために、スピーカ27より警報音を発生させ(ステップS33)、運転者警告処理は終了する。
運転者が危険運転をしていると判別した場合(ステップS32;Yes)、CPU26は、運転者を警告するために、スピーカ27より警報音を発生させ(ステップS33)、運転者警告処理は終了する。
このように、本実施形態では、カメラ10が撮影した顔画像をECU20に送信する度に、ECU20は、送信された顔画像から顔領域を検出し、検出した顔領域で顔の向きおよび眼の状態を判別するのに最適な明るさになるように露光時間を補正し、補正した露光時間をカメラ10に通知し、カメラ10は通知された露光時間で運転者の顔を撮影する。
従って、光環境が変化しても、適切な明度で顔画像を取得することができる。そして、適切な明度を有する顔画像を解析して、顔の向きや眼の状態を正確に判別し、危険運転の有無を正確に判別することができる。従って、光環境が変化しても、危険運転に対する適切な警告を行うことができる。
なお、この発明は上記実施形態に限定されず、種々の変形及び応用が可能である。
例えば、上記実施形態では、顔画像の顔領域の平均明度が最適明度範囲でない場合に、カメラ10の露光時間を加算/減算したが(ステップS24、S25)、カメラ10の絞り112の開口の径(開度)を変化させるようにしてもよい。即ち、顔画像の顔領域の平均明度が最適明度範囲より高い場合には、絞り112の開口の径(開度)をΔφだけ小さくし、顔領域の平均明度が最適明度範囲より低い場合には、絞り112の開口の径(開度)をΔφだけ大きくするように制御してもよい。このような構成でも、顔画像の平均明度が最適明度範囲でない場合に、最適な明度になるように、カメラ10の露光を制御でき、同様な効果を得られる。
さらに、カメラ10のCCD111の露光時間の調整と絞り112の開口の径(開度)の調整とを組み合わせて実施するようにしてもよい。
さらに、カメラ10のCCD111の露光時間の調整と絞り112の開口の径(開度)の調整とを組み合わせて実施するようにしてもよい。
また、上記実施形態では、顔領域の平均明度が最適明度範囲でない場合に、露光時間を一定の時間(Δt)だけ、或いは、絞り112の開度をΔφだけ加算/減算したが(ステップS24、S25)、CCD111の露光量を調整する手法自体は任意である。
例えば、上記実施形態では、顔画像の平均明度が最適明度範囲でない場合に、一定量Δt、Δφだけ調整したが、可変量分を調整する手法も可能である。例えば、PID制御により、平均明度と最適明度(の中心値、上限値又は下限値)との偏差eに基づいて、a・e、a・e+b・∫edt、a・e+b・∫edt+c・de/dt(a,b,cは定数)等の式で求めた露光時間や絞りの開口の径に調整するようにしてもよい。
例えば、上記実施形態では、顔画像の平均明度が最適明度範囲でない場合に、一定量Δt、Δφだけ調整したが、可変量分を調整する手法も可能である。例えば、PID制御により、平均明度と最適明度(の中心値、上限値又は下限値)との偏差eに基づいて、a・e、a・e+b・∫edt、a・e+b・∫edt+c・de/dt(a,b,cは定数)等の式で求めた露光時間や絞りの開口の径に調整するようにしてもよい。
上記実施の形態では、顔画像のうちの眉〜口、左端〜右端の部分を顔領域とし、この顔領域の画像を用いて運転者の状態を判別したが、顔画像の他の領域を運転者の状態の判別に使用することも可能である。例えば、顔の額〜口のエリアを顔領域として使用してもよい。この場合には、額〜口のエリアの明度が画像解析に適した明度となるように、撮像部11の露光量を調整する。
また、目の画像だけを運転者の状態の判別に使用することも可能である。この場合は、顔画像中の目の近傍の明度が解析に適した明度となるように、撮像部11の露光量を調整する。
また、顔画像全体を運転者の状態を判別するための解析対象とすることも可能である。
また、目の画像だけを運転者の状態の判別に使用することも可能である。この場合は、顔画像中の目の近傍の明度が解析に適した明度となるように、撮像部11の露光量を調整する。
また、顔画像全体を運転者の状態を判別するための解析対象とすることも可能である。
また、上記各実施の形態においては、運転者を撮影する場合にこの発明を適用したが、この発明はこれに限定されず、任意の場面で人間、動物、人形、ロボット等を撮影する処理に広く適用可能である。
また、コンピュータに上述の処理を実行させるためのプログラムを、任意の記録媒体やネットワークを介してROMに格納するようにしてもよい。
10 カメラ
11 撮影部
12 CCDコントローラ
13 IF部
20 ECU
21 IF部(顔画像受信手段)
22 画像メモリ
23 ROM
24 RAM
25 表示制御部
26 CPU(顔領域検出手段、明度判別手段、カメラ制御手段、警報手段)
27 スピーカ(警報手段)
30 表示装置
100 車載用画像処理システム
111 CCD
112 絞り
11 撮影部
12 CCDコントローラ
13 IF部
20 ECU
21 IF部(顔画像受信手段)
22 画像メモリ
23 ROM
24 RAM
25 表示制御部
26 CPU(顔領域検出手段、明度判別手段、カメラ制御手段、警報手段)
27 スピーカ(警報手段)
30 表示装置
100 車載用画像処理システム
111 CCD
112 絞り
Claims (7)
- 運転者の顔を含む撮像画像を、カメラより受信する顔画像受信手段と、
前記顔画像受信手段で受信した画像を解析して、該画像に含まれている顔の領域を検出する顔領域検出手段と、
前記顔領域検出手段で検出した顔領域の明度を判別する明度判別手段と、
前記明度判別手段で求めた顔領域の明度に基づいて、顔領域の明度が所定レベルとなるように、前記カメラを制御するカメラ制御手段と、
前記顔領域検出手段で検出された顔領域の画像を用いて、運転者の状態を判別し、判別した状態に基づいて、警報を出力する警報手段と、
を備えることを特徴とする車載用画像処理装置。 - 前記明度判別手段は、前記顔領域検出手段で検出した顔領域に他の領域よりも重い重みを付し、画像の明度の重み付け平均を求める手段から構成される、
ことを特徴とする請求項1に記載の車載用画像処理装置。 - 前記カメラは、運転者を周期的に撮像して撮像画像を前記顔画像受信手段に供給し、
前記カメラ制御手段は、前記明度判別手段が判別した明度に応じて、前記カメラの露光量を制御する、
ことを特徴とする請求項1に記載の車載用画像処理装置。 - 前記カメラは、運転者を周期的に撮像して撮像画像を前記顔画像受信手段に供給し、
前記カメラ制御手段は、
前記明度判別手段が判別した明度が第1の基準値よりも大きいときに前記カメラの露光時間を短く又は絞りの径を小さくし、
前記明度判別手段が判別した明度が該第1の基準値よりも小さい第2の基準値よりも小さいときに前記カメラの露光時間を長く又は絞りの径を大きくする、
ことを特徴とする請求項1に記載の車載用画像処理装置。 - 前記警報手段は、
前記顔領域検出手段で検出された顔領域の画像を用いて、運転者の顔向き、視線の方向、目の開閉状態、の少なくとも1つを判別し、判別結果に基づいて、警報を発する、
ことを特徴とする請求項1に記載の車載用画像処理装置。 - 運転者の顔を含む撮像画像を、カメラより受信し、
受信した画像を解析して、該画像に含まれている顔の領域を検出し、
検出した顔の領域の明度を判別し、
判別した明度に基づいて、画像の顔領域の明度が所望のレベルとなるように、前記カメラを制御し、
検出された顔の領域を用いて、運転者の状態を判別する、
ことを特徴とする画像処理方法。 - コンピュータに、
運転者の顔を含む撮像画像を、カメラより受信し、
受信した画像を解析して、該画像に含まれている顔の領域を検出し、
検出した顔の領域の明度を判別し、
判別した明度に基づいて、画像の顔領域の明度が所望のレベルとなるように、前記カメラを制御し、
検出された顔の領域を用いて、運転者の状態を判別する、
処理を実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007291069A JP2009116742A (ja) | 2007-11-08 | 2007-11-08 | 車載用画像処理装置、画像処理方法、および、プログラム |
DE112008002646T DE112008002646T5 (de) | 2007-11-08 | 2008-11-06 | Fahrzeuginterne Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm |
US12/679,241 US20100253495A1 (en) | 2007-11-08 | 2008-11-06 | In-vehicle image processing device, image processing method and memory medium |
PCT/JP2008/070197 WO2009060892A1 (ja) | 2007-11-08 | 2008-11-06 | 車載用画像処理装置、画像処理方法、および、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007291069A JP2009116742A (ja) | 2007-11-08 | 2007-11-08 | 車載用画像処理装置、画像処理方法、および、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009116742A true JP2009116742A (ja) | 2009-05-28 |
JP2009116742A5 JP2009116742A5 (ja) | 2010-07-08 |
Family
ID=40625779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007291069A Pending JP2009116742A (ja) | 2007-11-08 | 2007-11-08 | 車載用画像処理装置、画像処理方法、および、プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20100253495A1 (ja) |
JP (1) | JP2009116742A (ja) |
DE (1) | DE112008002646T5 (ja) |
WO (1) | WO2009060892A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018148423A (ja) * | 2017-03-06 | 2018-09-20 | 株式会社デンソー | 方向検出装置及び操作制御装置 |
WO2021001943A1 (ja) * | 2019-07-02 | 2021-01-07 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
WO2021001944A1 (ja) * | 2019-07-02 | 2021-01-07 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103442925B (zh) * | 2011-03-25 | 2016-08-17 | Tk控股公司 | 用于确定驾驶员警觉性的系统和方法 |
JP5800288B2 (ja) * | 2012-10-30 | 2015-10-28 | 株式会社デンソー | 車両用画像処理装置 |
US10115164B1 (en) * | 2013-10-04 | 2018-10-30 | State Farm Mutual Automobile Insurance Company | Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment |
CN106157926A (zh) * | 2015-03-23 | 2016-11-23 | 中兴通讯股份有限公司 | 一种调节显示屏亮度的方法及装置 |
FR3044504A1 (fr) * | 2015-12-01 | 2017-06-02 | Valeo Comfort & Driving Assistance | Dispositif de capture d'image et dispositif de surveillance d'un conducteur utilisant un tel dispositif de capture d'image |
CN109618109B (zh) * | 2019-01-09 | 2021-02-09 | 深圳英飞拓智能技术有限公司 | 一种摄像机成像的曝光调节方法及调节系统 |
US11790535B2 (en) | 2020-05-12 | 2023-10-17 | True Meeting Inc. | Foreground and background segmentation related to a virtual three-dimensional (3D) video conference |
US20210358227A1 (en) * | 2020-05-12 | 2021-11-18 | True Meeting Inc. | Updating 3d models of persons |
US11870939B2 (en) | 2020-05-12 | 2024-01-09 | True Meeting Inc. | Audio quality improvement related to a participant of a virtual three dimensional (3D) video conference |
US20220053168A1 (en) | 2020-05-12 | 2022-02-17 | True Meeting Inc. | Method and system for virtual 3d communications having multiple participants per camera |
US11805157B2 (en) | 2020-05-12 | 2023-10-31 | True Meeting Inc. | Sharing content during a virtual 3D video conference |
WO2022027432A1 (zh) * | 2020-08-06 | 2022-02-10 | 深圳市锐明技术股份有限公司 | 拍摄方法、拍摄装置及终端设备 |
US11765332B2 (en) | 2021-03-02 | 2023-09-19 | True Meeting Inc. | Virtual 3D communications with participant viewpoint adjustment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07249197A (ja) * | 1994-03-10 | 1995-09-26 | Mitsubishi Electric Corp | 人物状態検出装置 |
JPH1035320A (ja) * | 1996-07-24 | 1998-02-10 | Hitachi Ltd | 車両状況認識方法、車載用画像処理装置および記憶媒体 |
JP2007072628A (ja) * | 2005-09-05 | 2007-03-22 | Aisin Seiki Co Ltd | 顔向き判別装置 |
JP2007089091A (ja) * | 2005-06-30 | 2007-04-05 | Olympus Imaging Corp | 電子的ぶれ補正装置 |
JP2007228323A (ja) * | 2006-02-24 | 2007-09-06 | Seiko Epson Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2007264785A (ja) * | 2006-03-27 | 2007-10-11 | Toyota Motor Corp | 眠気検出装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3452685B2 (ja) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | 顔画像の処理装置 |
JP3316725B2 (ja) * | 1995-07-06 | 2002-08-19 | 三菱電機株式会社 | 顔画像撮像装置 |
DE19803158C1 (de) * | 1998-01-28 | 1999-05-06 | Daimler Chrysler Ag | Vorrichtung zur Vigilanzzustandsbestimmung |
US7202792B2 (en) * | 2002-11-11 | 2007-04-10 | Delphi Technologies, Inc. | Drowsiness detection system and method |
JP4572583B2 (ja) * | 2004-05-31 | 2010-11-04 | パナソニック電工株式会社 | 撮像装置 |
JP2007291069A (ja) | 2006-03-31 | 2007-11-08 | Daiichi Sankyo Healthcare Co Ltd | 抗酸化剤および/または消炎鎮痛剤組成物 |
-
2007
- 2007-11-08 JP JP2007291069A patent/JP2009116742A/ja active Pending
-
2008
- 2008-11-06 DE DE112008002646T patent/DE112008002646T5/de not_active Withdrawn
- 2008-11-06 US US12/679,241 patent/US20100253495A1/en not_active Abandoned
- 2008-11-06 WO PCT/JP2008/070197 patent/WO2009060892A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07249197A (ja) * | 1994-03-10 | 1995-09-26 | Mitsubishi Electric Corp | 人物状態検出装置 |
JPH1035320A (ja) * | 1996-07-24 | 1998-02-10 | Hitachi Ltd | 車両状況認識方法、車載用画像処理装置および記憶媒体 |
JP2007089091A (ja) * | 2005-06-30 | 2007-04-05 | Olympus Imaging Corp | 電子的ぶれ補正装置 |
JP2007072628A (ja) * | 2005-09-05 | 2007-03-22 | Aisin Seiki Co Ltd | 顔向き判別装置 |
JP2007228323A (ja) * | 2006-02-24 | 2007-09-06 | Seiko Epson Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2007264785A (ja) * | 2006-03-27 | 2007-10-11 | Toyota Motor Corp | 眠気検出装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018148423A (ja) * | 2017-03-06 | 2018-09-20 | 株式会社デンソー | 方向検出装置及び操作制御装置 |
WO2021001943A1 (ja) * | 2019-07-02 | 2021-01-07 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
WO2021001944A1 (ja) * | 2019-07-02 | 2021-01-07 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
JPWO2021001944A1 (ja) * | 2019-07-02 | 2021-11-04 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
JPWO2021001943A1 (ja) * | 2019-07-02 | 2021-11-25 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
JP7183420B2 (ja) | 2019-07-02 | 2022-12-05 | 三菱電機株式会社 | 車載用画像処理装置、および、車載用画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2009060892A1 (ja) | 2009-05-14 |
DE112008002646T5 (de) | 2010-07-29 |
US20100253495A1 (en) | 2010-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009116742A (ja) | 車載用画像処理装置、画像処理方法、および、プログラム | |
JP4264660B2 (ja) | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム | |
US8068639B2 (en) | Image pickup apparatus, control method therefor, and computer program for detecting image blur according to movement speed and change in size of face area | |
US8055016B2 (en) | Apparatus and method for normalizing face image used for detecting drowsy driving | |
WO2010035472A1 (ja) | 視線方向判定装置及び視線方向判定方法 | |
EP3205084B1 (en) | Image processing method | |
JP5435307B2 (ja) | 車載カメラ装置 | |
JP5737400B2 (ja) | 赤目検出装置 | |
JP4739870B2 (ja) | サングラス検出装置及び顔中心位置検出装置 | |
JP5789091B2 (ja) | 撮像装置および撮像装置の制御方法 | |
KR101769177B1 (ko) | 시선 추적 장치 및 방법 | |
JP5127531B2 (ja) | 画像監視装置 | |
JP2004317699A (ja) | デジタルカメラ | |
KR20080027443A (ko) | 촬상장치 및 촬상장치 제어방법과, 컴퓨터 프로그램 | |
JP2004320287A (ja) | デジタルカメラ | |
JP2004320286A (ja) | デジタルカメラ | |
CN109670421B (zh) | 一种疲劳状态检测方法和装置 | |
JP5171468B2 (ja) | 撮像装置及び撮像装置の制御方法 | |
WO2011158463A1 (ja) | 外光映り込み判定装置、視線検出装置及び外光映り込み判定方法 | |
JP2013005234A5 (ja) | ||
JP2007114029A (ja) | 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム | |
JP2008227906A (ja) | 撮影範囲調節装置、撮影範囲調節方法及びコンピュータプログラム | |
JP2004320285A (ja) | デジタルカメラ | |
JP4816431B2 (ja) | モニタリングシステム、ドライビングアシストシステム | |
JP2024003037A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100420 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120403 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120925 |