JP4552636B2 - ドライバモニタシステムおよびその処理方法 - Google Patents

ドライバモニタシステムおよびその処理方法 Download PDF

Info

Publication number
JP4552636B2
JP4552636B2 JP2004355375A JP2004355375A JP4552636B2 JP 4552636 B2 JP4552636 B2 JP 4552636B2 JP 2004355375 A JP2004355375 A JP 2004355375A JP 2004355375 A JP2004355375 A JP 2004355375A JP 4552636 B2 JP4552636 B2 JP 4552636B2
Authority
JP
Japan
Prior art keywords
eye
information
driver
face image
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004355375A
Other languages
English (en)
Other versions
JP2006163900A (ja
Inventor
治夫 松尾
雅之 金田
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004355375A priority Critical patent/JP4552636B2/ja
Publication of JP2006163900A publication Critical patent/JP2006163900A/ja
Application granted granted Critical
Publication of JP4552636B2 publication Critical patent/JP4552636B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両運転者の状態をモニタするドライバモニタシステムおよびその処理方法に係り、特に、車両運転者にカメラ姿勢の調整作業を負担させることなく、また、車両運転者の顔の向く方向が水平方向または垂直方向に大きく傾いた状態であっても、眼の位置を正確に検出することができ、カメラ設置位置の自由度の高いドライバモニタシステムおよびその処理方法に関する。
車室内にカメラを設置して、運転者の顔部位を撮影することにより運転者の状態を検出するドライバモニタシステムが種々開発されており、カメラの設置位置については、例えば以下に示すとおり複数の提案がなされている。
特開2004−41485号公報に開示の「開閉眼モニタ装置」では、インナーミラー内にカメラと近赤外照明を設置し、運転者の顔画像を撮像して、運転者の眼を検出追跡し、眼の開閉状態を判断する装置が提案されている。この従来例によると、撮像手段が車両のインナーミラーに設けられているため、例えばステアリングホイールやモニタ対象となる乗員の腕等の影響、運転姿勢変化の影響が小さく、該乗員の眼を含む顔の部分を確実に撮像することができる。
また、特許第3312562号に開示の「居眠り状態検出装置」では、自動車のインストルメントパネルに、運転者の顔部分を正面から撮影するTVカメラを用いて、運転者の眼を検出追跡し眼の開閉状態を判断することにより居眠りを検出する装置が提案されている。
さらに、特許第3316725号に開示の「顔画像撮像装置」では、運転者の顔面を含む所定領域を撮像する2次元撮像手段として、768×493の計38万画素のCCD、映像信号処理回路、撮像レンズ、可視光カットフィルタからなるカメラ部は運転席のダッシュボード上あるいはインスツルメントパネル部等に配置され、運転者の前方より顔縦方向が768画素となる向きで運転者の顔を含めた所定の領域を撮像する。このときの撮影角度を顔の正面やや斜め下からとするのが目領域抽出のために最も有利とある。
特開2004−41485号公報 特許第3312562号 特許第3316725号
しかしながら、上述した特許文献1に開示された技術のように、インナーミラー内にカメラを設置する場合には、運転者がインナーミラーを調整することによりカメラの位置と姿勢が決定されるので、常に顔画像を撮影するのに適した位置にカメラを設置することはできるが、カメラの姿勢を運転者が調整しない場合には処理が行えず、また、運転者に煩わしい調整作業を負担させるといった課題があった。
また、従来技術では、車両運転者の顔の向く方向が予め想定している方向から水平方向または垂直方向に大きく傾いた状態にあるときは、眼の位置を正確に検出することができず、処理不可能か或いは居眠り状態と誤検出してしまうおそれがある。
さらに、上述した特許文献2および特許文献3に開示された実施例のように、運転者正面やや下方にカメラを設置する場合には、例えばステアリングコラム上やインストルメンタルパネル、或いはメータ内に設置することになるが、この場合、機器類が非常に多いため、車室内のデザインやメータの視認性の問題により、カメラを設置できない可能性も考えられる。また、設置できたとしても、眼の位置検出はカメラ設置位置の影響を受けやすいため、カメラ設置位置の自由度がないという課題があった。
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両運転者にカメラ姿勢の調整作業を負担させることなく、また、車両運転者の顔の向く方向が水平方向または垂直方向に大きく傾いた状態であっても、眼の位置を正確に検出することができ、カメラ設置位置の自由度の高いドライバモニタシステムおよびその処理方法を提供することにある。
上記目的を解決するため、本発明は、車両運転者の頭部を撮影する撮像装置を備え、前記撮像装置による映像信号および該撮像装置の位置情報であるカメラ位置情報に基づき車両運転者をモニタするドライバモニタシステムであって、前記映像信号および前記カメラ位置情報に基づき車両運転者の顔画像情報を生成する画像取込手段と、前記カメラ位置情報および前記顔画像情報に基づき、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、該眼の座標情報を出力する眼の位置検出手段と、前記カメラ位置情報、前記顔画像情報および前記眼の座標情報に基づき、前記車両運転者の顔の部位を考慮して前記眼の座標情報を元に前記顔画像情報から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報を出力する眼の追跡手段と、前記顔画像情報、前記眼の座標情報および前記眼の移動情報に基づき、顔画像上に眼の座標と眼の移動情報を重ねて表示する表示情報を出力する表示処理手段と、を備えることを特徴とする。
本発明に係るドライバモニタシステムおよびその処理方法では、眼の位置検出手段により、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、眼の追跡手段により、車両運転者の顔の部位を考慮して眼の座標情報を元に顔画像情報から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報を得るので、車両運転者にカメラ姿勢の調整作業を負担させることなく、また、車両運転者の顔の向く方向が水平方向または垂直方向に大きく傾いた状態であっても、眼の位置を正確に検出することができ、カメラ設置位置の自由度の高いドライバモニタシステムを実現できる。
以下、本発明のドライバモニタシステムの実施例について、図面を参照して詳細に説明する。ドライバモニタシステムは、カメラにより運転者顔画像を撮像して、顔画像中から運転者の眼の位置を検出、追跡することにより、運転者のまばたきの検出や視方向の検出などを行い、これら検出結果から、運転者の運転行動判断、居眠りの検出、脇見の検出、安全未確認の検出等を行うものである。ここでは、本発明の特徴である運転者の眼の位置検出および追跡を中心に説明を行い、該検出結果を元に行う判断または検出の処理については、公知のものと同等であるとしてその説明を省略する。
図1は本発明の一実施例に係るドライバモニタシステムの構成図である。同図において、本実施例のドライバモニタシステムは、車両51、近赤外光照明53、顔画像用カメラ(撮像装置)55、ドライバ顔画像処理装置57および車両信号処理装置59を備えて構成されている。
顔画像用カメラ(撮像装置)55としては、可視光から近赤外光までの範囲で撮像可能なCCDやCMOSの撮像素子を用いたカメラを使用する。顔画像用カメラ55の水平画角はおおむね20度〜25度であり、車両のインスト面に取り付けて、運転者の顔全体が画面に大きく写るように調整されたものを使用する。なお、顔画像用カメラ55の作動やカメラ位置は、車両信号処理装置59からのカメラパラメータ変更指示104に基づき行われる。
また、顔画像用カメラ55の撮像可能な波長帯にマッチした近赤外照明装置53を用いる。これは、昼間でも、ビル影、木陰などの照度の不足した箇所や明暗の変化の激しい個所を走行する場合、トンネル等の暗所を走行する場合、或いは、夜間走行する場合などに運転者の顔を照らすものである。なお、ここにあげた状況下であっても、処理の必要がなければ近赤外照明装置53による照明は必要ない。なお、近赤外照明装置53の作動(点灯/消灯)は、車両信号処理装置59からの点灯/消灯指示105に基づき行われる。
車両信号処理装置59は、車両51に搭載されている各種センサ等からの車両情報106や車両運転者の操作指示に基づいて運転制御や各種電子機器の制御を行う。ここでは、ドライバモニタシステムに関わる機能および動作についてのみ説明することとし、それ以外のものについては省略する。
車両信号処理装置59は、車両51に搭載されている各種センサから、車両情報106として車速、ブレーキスイッチ、操舵角、ウィンカースイッチ、シフトポジション等の情報を取得する。車速および操舵角等の車両情報103は、ドライバ顔画像処理装置57に送られて、当該ドライバモニタシステムにおける処理の中断等の制御に供される。例えば、車速が0km/hの(車両停止状態にある)場合や、操舵角が45度以上ある(操舵中である)場合には、眼の位置検出や眼の追跡処理を中断するか、或いは、当該ドライバモニタシステムが出力するデータの信頼性を下げるといった動作制御に使用する。
また、ライトスイッチのオン/オフに合わせて、近赤外照明装置53に点灯/消灯指示105を出力して、近赤外照明装置53を点灯/消灯したり、さらに、顔画像用カメラ55にカメラパラメータ変更指示104を出力して、顔画像用カメラ55のパラメータを昼間用/夜間用に切り替えたりする制御も行う。
ドライバ顔画像処理装置57は、顔画像用カメラの映像信号101と、カメラ位置情報102と、車両情報103を入力して、運転者の顔画像を処理し眼の位置や開閉の状態を検出するものである。ドライバ顔画像処理装置57は、CPU、MPU(マイクロプロセッサ)またはDSP(ディジタル信号処理プロセッサ)等のプロセッサおよびRAM,ROM等のメモリによって実現されるものであり、以下に詳述する各手段は、メモリに記憶されてプロセッサ上で実行されるプログラムである。
図2にドライバ顔画像処理装置57の構成図を示す。同図において、ドライバ顔画像処理装置57は、映像信号101およびカメラ位置情報102に基づき車両運転者の顔画像情報111を生成する画像取込手段10と、カメラ位置情報102および顔画像情報111に基づき、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、該眼の座標情報112を出力する眼の位置検出手段20と、カメラ位置情報102、顔画像情報111および眼の座標情報112に基づき、車両運転者の顔の部位を考慮して眼の座標情報112を元に顔画像情報111から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報113を出力する眼の追跡手段30と、顔画像情報111、眼の座標情報112および眼の移動情報113に基づき、顔画像上に眼の座標と眼の移動情報を重ねて表示する表示情報121を出力する表示処理手段40とを備えて構成されている。
画像取込手段10は、運転者の顔全体を含む頭部を撮像し得た映像信号101を、ディジタル画像としてドライバ顔画像処理装置57内の記憶領域に格納する。この記憶領域に格納したディジタルデータを顔画像情報111と呼ぶ。本実施例においては、映像信号101を、横幅640画素、縦幅480画素、1画素あたり256階調の濃淡データを示すディジタルデータに変換して記憶領域に格納する。
また、眼の位置検出手段20は、カメラ位置情報102を元に顔画像情報111から眼の位置を検出し眼の座標情報112を出力する。また、車両情報103により車両停止状態や操舵中にあるときは、眼の位置検出を中断する等の制御を行う。図3には、眼の位置検出手段20の構成図を示す。同図において、眼の位置検出手段20は、カメラ位置情報102および顔画像情報111に基づき、車両運転者の顔の部位を考慮して車両運転者の片眼の候補の座標を検出して片眼候補情報114を出力する片眼候補検出手段21と、カメラ位置情報102、顔画像情報111および片眼候補情報114に基づき、車両運転者の顔の部位を考慮して片眼候補の座標データを元に顔画像情報111から両眼の位置を検出し眼の座標情報112を出力する両眼確定処理手段22とを備えて構成されている。
また、眼の追跡手段30は、カメラ位置情報102と前回の眼の座標情報112、前回の眼の移動情報113を元に、顔画像情報111から現在の眼の位置を検出し、眼の座標情報112と眼の移動情報113を出力する。また、車両情報103により車両停止状態や操舵中にあるときは、眼の追跡が困難であるとして中断或いは眼の検出に遷移する等の制御を行う。
さらに、表示処理手段40は、顔画像情報111、眼の座標情報112および眼の移動情報113を入力して、表示のためのデータ(顔画像情報111に検出した眼の座標を重ねたデータ)を作成して、システムの利用者に表示情報を出力する。
次に、図4〜図10を参照して、カメラ設置位置、カメラ位置情報、車両運転者の顔の部位(眼間距離および両眼の傾き角)、カメラ設置位置と顔の部位(眼間距離および両眼の傾き角)の関係、並びに、眼の検出領域の補正処理について説明する。図4は顔画像用カメラ55の設置位置を説明する説明図、図5は顔画像用カメラ55のカメラ位置情報を説明する説明図、図6はカメラ設置位置と顔の部位の関係表を作成するために予め行われる計測について説明する説明図、図7は車両運転者の顔の部位(眼間距離および両眼の傾き角)を説明する説明図、図8はカメラ設置位置と眼の傾き角の関係を説明する説明図、図9はカメラ設置位置と眼間距離の関係を説明する説明図、図10は顔画像用カメラ55の光軸方向の回転について説明する説明図である。
まず、顔画像用カメラ55の設置位置については、図4に示すように、メータパネル内(図中A)、ハンドルの外のインスト面上(図中B)、ナビ画面等のセンターパネル上(図中C)、オーディオやエアコンの操作パネル上(図中D)、運転者側ピラー付け根(図中E)等が考えられる。
また、顔画像用カメラ55のカメラ位置情報102の内、設置姿勢を示すものとしては、図5に示すように、ロール(光軸方向)、ピッチ(垂直方向回転角)およびヨー(水平方向回転角)がある。
また、本実施例で眼の検出領域の補正処理を行うために使用する車両運転者の顔の部位は、図7に示すように、車両運転者の両眼を結ぶ線が水平線となす角度である両眼の傾き角と両眼間の距離である眼間距離である。この両眼の傾き角と眼間距離は、カメラ位置情報102である顔画像用カメラ55の車室内での設置位置の3次元情報および顔画像用カメラ55の設置姿勢、即ちロール、ピッチおよびヨーの少なくとも1つ以上の値に対して、あらかじめ計測されているそれぞれの関係表から推定する。
カメラ設置位置と顔の部位の関係表を作成するために予め行われる計測は、図6に示すような条件の下で行った。つまり、運転者のアイポイント(眼の位置)を基準に、運転者から700mm離れた位置に、水平画角20度の映像が撮影されるように調整された顔画像用カメラ(CCDカメラ)55を、水平方向0度〜30度と垂直方向10度〜30度と変えて設置し、顔画像用カメラ55のヨーおよびピッチを調整し運転者頭部が画角内に撮像できるようにする。このとき、顔画像用カメラ55の設置位置によって撮影される運転者の眼の傾き、並びに、眼間距離について運転者正面で撮影したときの眼間距離に対する比を計測した。
図8には、カメラ設置位置と眼の傾き角の関係として、垂直方向角度v1=10度、v2−20度およびv3=30度のそれぞれについて、水平方向角度に対する眼の傾き角をプロットした。また、図9には、カメラ設置位置と眼間距離の関係として、同じく垂直方向角度v1=10度、v2−20度およびv3=30度のそれぞれについて、水平方向角度に対する眼間距離比をプロットした。なお、図8および図9において、A,B,CおよびDは図4で示した車両内でのカメラの設置位置である。これら関係表がマッピングデータとして記憶領域に記憶される。
カメラ位置情報102として、カメラ設置時にヨー角とピッチ角、アイポイントを基準としたカメラの水平方向角度、カメラの垂直方向位置、運転者からカメラまでの距離およびカメラ画角が与えられると、これらの条件から図7および図8の関係表にマッピングして、それぞれ運転者の眼の傾き角および(正面撮影の眼間距離との)眼間距離比を推定できる。
次に、眼の検出領域の補正処理について説明する。眼の検出領域の補正処理には、両眼の傾き角による補正と、眼間距離による補正がある。
両眼の傾き角による補正として、第1の補正は、マッピングにより推定された両眼の傾き角が所定角以上のとき、顔画像用カメラ55を光軸周りに両眼の傾き角だけ回転させて撮影し、画像取込手段10が生成した顔画像情報111において眼の傾き角がほぼ水平になるようにするものである(図10参照)。眼の位置検出手段20および眼の追跡手段30は、この第1の補正後の顔画像情報111について処理することになる。なお、第1の補正は、ドライバ顔画像処理装置57から車両信号処理装置に推定された両眼の傾き角を通知して、カメラパラメータ変更指示104により顔画像用カメラ55のロール角を変更して撮影するようにすればよい。
また、両眼の傾き角による補正としての第2の補正は、推定された両眼の傾き角が所定角以上のとき、画像取込手段10が生成した顔画像情報を両眼の傾き角だけ回転させて、眼の傾き角がほぼ水平の顔画像情報111について、眼の位置検出手段20および眼の追跡手段30による処理を行うようにするものである。
さらに、両眼の傾き角による補正としての第3の補正は、眼の位置検出手段20および眼の追跡手段30において、顔画像情報111について、推定された両眼の傾き角を考慮した位置に眼の検出領域を設置するものである。
また、眼間距離による補正として、第1の補正は、マッピングにより推定された眼間距離比が所定値以下のとき、顔画像用カメラ55のズーム機能を用いるか或いは顔画像用カメラ55において画角を補正したレンズを用いて撮影し、画像取込手段10により生成される顔画像情報111の眼間距離を補正するものである。なお、ズームの倍率やレンズの種別は測定データから経験的に設定しておけばよい。
また、眼間距離による補正としての第2の補正は、画像読込手段10が生成した顔画像情報を拡大した顔画像情報111について、眼の位置検出手段20および眼の追跡手段30による処理を行うようにするものである。
さらに、眼間距離による補正としての第3の補正は、眼の位置検出手段20および眼の追跡手段30において、顔画像情報111について、推定された眼間距離比を考慮して、片眼候補を検出した座標から反対眼の座標を推定し、顔画像中で反対眼の存在する可能性のある位置に眼の検出エリアを設置するものである。
次に、本実施例のドライバモニタシステムにおける眼の位置検出処理および眼の追跡処理の手順について、図11〜図15を参照して説明する。ここで、図11は本実施例のドライバ顔画像処理装置57における処理手順を説明するフローチャート、図12は眼の位置検出処理の手順を説明するフローチャート、図13は片眼の検出を説明する説明図、図14は眼の追跡処理の手順を説明するフローチャート、図15は眼の検出領域の設定を説明する説明図である。
まず、図11に沿って、本実施例のドライバ顔画像処理装置57における処理手順を説明する。
まず、内部情報である顔画像情報111、眼の座標情報112および眼の移動情報113等の初期化(ステップS101)を行った後、画像取込手段10により顔画像用カメラ55から映像信号101およびカメラ位置情報102を読み込んで顔画像情報111を生成する(ステップS102)。
次に、眼の位置検出処理または眼の追跡処理を行うか否かの判断をし(ステップS103,S104)、処理しない場合にはステップS107に進み、眼の位置検出処理の処理を行う場合にはステップS105に進み、眼の追跡処理を行う場合にはステップS106に進む。
車両運転者の顔の部位を考慮して顔画像情報111から車両運転者の眼の位置を検出し、該眼の座標情報112を出力する眼の位置検出処理(ステップS105)、或いは、車両運転者の顔の部位を考慮して眼の座標情報112を元に顔画像情報111から車両運転者の眼の位置を検出して眼の座標情報112を更新し、該眼の移動情報113を出力する眼の追跡処理(ステップS106)を行った後、顔画像情報111、眼の座標情報112および眼の移動情報113に基づき、顔画像上に眼の座標と眼の移動情報を重ねて表示する表示情報を出力する(ステップS107)。
以上のステップS102からステップS107までの処理は繰り返し実行され、所定条件下(例えば、車両停止状態になったときなど)で終了する(ステップS108)。なお、図示しないが、車両情報103により車両停止状態や操舵中にあるときは、眼の位置検出を中断するか、或いは、眼の追跡が困難であるとして中断または眼の検出に遷移する等の制御を行う。
次に、眼の位置検出処理(ステップS105)について、図12を参照して詳細に説明する。
図12(a)に沿って概略を説明すると、位置検出がスタートすると、片眼候補検出手段21による片側候補の検出処理か、或いは両眼確定処理手段22による両側確定処理かを判断し(ステップS201)、カメラ位置情報102および顔画像情報111に基づき、車両運転者の顔の部位を考慮して車両運転者の片眼の候補の座標を検出して片眼候補情報114を出力する片眼候補検出処理(ステップS211)、或いは、カメラ位置情報102、顔画像情報111および片眼候補情報114に基づき、車両運転者の顔の部位を考慮して片眼候補の座標データを元に顔画像情報111から両眼の位置を検出し眼の座標情報112を出力する両眼確定処理(ステップS221)を行う。
片眼候補検出処理(図12(b)参照)では、まず、図13(a)に示すように、顔画像情報111の画像右半分または左半分に片眼候補のための検出処理エリアを切る(ステップS212)。次に、図13(b)に示すように、検出処理エリア内で連続データを求め(ステップS213)、片眼候補を絞り込み(ステップS214)、さらに、次フレームで片眼候補検出処理を行うか或いは両眼確定処理を行うかの判断を行う(ステップS215)。
ここで、連続データとは、検出領域を横方向に10画素毎に縦1ラインずつ走査し、画素の明るさが明・暗・明と変化するポイントを検出し、横方向に隣接する点を集めてグループ化したものである。この連続データの形状を眼の上瞼の形状特徴とマッチングしたとき、湾曲した上凸の形状であって、あらかじめ設定された曲率の範囲内にある場合に、片眼候補として選択されることになる。
次に、両眼確定処理(図12(c)参照)では、まず、片眼候補検出処理の結果、得られる片眼候補情報114によって顔画像情報111に両眼確定用に処理エリアを設定する(ステップS222)。次に、カメラ位置情報102に基づき眼の傾き角および眼間距離比を推定し、該推定された眼の傾き角および眼間距離比を考慮して、片眼候補を検出した座標から反対眼の座標を推定し、顔画像中で反対眼の存在する可能性のある位置に眼の検出エリアを設置する(ステップS223)。
図15に示す例では、眼の検出領域AR0で片眼の検出位置AR1が得られると、反対眼の検出領域(補正前)としてAR2aが得られるが、眼間距離比分だけ左側に移動し、眼の傾き角分だけ上側に移動した反対眼の検出領域AR2bが補正後の領域として得られることになる。
そして、処理エリア内で連続データを求め(ステップS224)、両眼候補を検出したと判定してパターン認識し(ステップS225)、さらに、次フレームで片眼候補検出処理を行うか或いは両眼確定処理を行うかの判断を行う(ステップS226)。
次に、眼の追跡処理(ステップS106)について、図14を参照して説明する。まず、初期化(ステップS301)を行い、眼の検出(ステップS302)、鼻の検出(ステップS303)、眉の検出(ステップS304)を行う。
つまり、眼の追跡処理は、眼の位置検出処理の結果により検出された眼の座標情報112を元にその周辺について眼の検出処理を行うことにより眼の追跡処理を行うものであるが、補助的に、鼻(鼻孔)、即ち両眼の中心下方に存在する2つ並んだ黒い点、眉、即ち眼の上に存在する黒く長いものを、それぞれ検出することにより眼の追跡を保障するものである。もちろん、鼻や眉が検出されない場合もあるため、絶対的な眼の評価として用いることはしない。
さらに、以上説明した本実施例のドライバモニタシステムにより、車両運転者の顔の向く方向が水平方向または垂直方向に大きく傾いた状態であっても眼の位置を正確に検出可能であることを、評価データ(図16および図17の)対比により示す。図16には、従来の運転者正面やや下方に設置したカメラで撮影した顔画像情報を用いて運転者の眼の検出と追跡を行うことを前提に開発した眼の検出・追跡手段により、カメラ設置位置に応じた眼の位置検出および追跡可能な範囲を示す。また、図17には、本実施例のドライバモニタシステムによる眼の位置検出および追跡手段による眼の位置検出および追跡可能な範囲を示す。
この評価データは、図6に示すように、被験者の顔の向きを水平方向に0,10,20,25,30度と変えて顔画像を撮影し、また、カメラの位置を垂直方向に10,20,30度と変えて顔画像を撮影したものである。よって、1名の被験者に対して水平方向5個所、垂直方向3個所について顔画像を撮影したものであり、計15パターンを撮影している。また、被験者には、撮影開始から30秒間は何もせずに前を向いた状態を維持していただき、30秒経過後は1秒〜2秒程度のゆっくりした閉眼(瞬目)を繰り返していただくようにお願いし、1パターンにつき60秒の動画像を撮影した。本評価においては、延べ8名の被験者についてこのような撮影を行った。
カメラの設置場所を変更した場合に、眼の位置検出および追跡が評価用に撮影した顔画像をプログラムに入力として与え、処理結果を1.0点(問題なく処理できるレベル)、0.5点(かろうじて処理できるレベル)、0.0点(処理不能なレベル)の3段階に主観評価した。延べ8名の被験者の顔画像に対して評価を行い、各角度別に平均を算出した。なお、眼の位置検出および追跡が0.5点(かろうじて処理できるレベル)以上の領域を処理可能範囲、0.5未満の領域を処理不可能範囲とした。
図16および図17を比較すると、本実施例のドライバモニタシステムにおいて、処理可能範囲が大きく広がっていることを確認することができた。
以上説明したように、本実施例のドライバモニタシステムでは、映像信号101およびカメラ位置情報102に基づき車両運転者の顔画像情報111を生成する画像取込手段10と、カメラ位置情報102および顔画像情報111に基づき、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、該眼の座標情報112を出力する眼の位置検出手段20と、カメラ位置情報102、顔画像情報111および眼の座標情報112に基づき、車両運転者の顔の部位を考慮して眼の座標情報112を元に顔画像情報111から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報113を出力する眼の追跡手段30と、顔画像情報111、眼の座標情報112および眼の移動情報113に基づき、顔画像上に眼の座標と眼の移動情報を重ねて表示する表示情報121を出力する表示処理手段40とを備えて構成し、眼の位置検出手段20により、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、眼の追跡手段30により、車両運転者の顔の部位を考慮して眼の座標情報を元に顔画像情報から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報を得るので、車両運転者にカメラ姿勢の調整作業を負担させることなく、また、車両運転者の顔の向く方向が水平方向または垂直方向に大きく傾いた状態であっても、眼の位置を正確に検出することができ、カメラ設置位置の自由度の高いドライバモニタシステムを実現できる。
また、本実施例では、眼の位置検出手段20を、カメラ位置情報102および顔画像情報111に基づき、車両運転者の顔の部位を考慮して車両運転者の片眼の候補の座標を検出して片眼候補情報114を出力する片眼候補検出手段21と、カメラ位置情報102、顔画像情報111および片眼候補情報114に基づき、車両運転者の顔の部位を考慮して片眼候補の座標データを元に顔画像情報111から両眼の位置を検出し眼の座標情報112を出力する両眼確定処理手段22を備えた構成とし、片眼候補検出手段21において顔画像全体から片眼の候補を検出し候補を絞り込んだ状態で、両眼確定処理手段22により両眼の形状を判断するため、処理負荷を低減する効果が期待できる。
また、本実施例では、車両運転者の顔の部位を、車両運転者の両眼を結ぶ線が水平線となす角度である両眼の傾き角と両眼間の距離である眼間距離とし、該両眼の傾き角と眼間距離を、カメラ位置情報102である前記撮像装置の車室内での設置位置の3次元情報および撮像装置の設置姿勢、即ちロール、ピッチおよびヨーの少なくとも1つ以上の値に対して、あらかじめ計測されているそれぞれの関係表から推定することとしたので、カメラ設置位置に応じた最適な補正パラメータを得ることができ、車両運転者の顔の向く方向が水平方向または垂直方向に大きく傾いた状態であっても、眼の位置を正確に検出することができ、カメラ設置位置の自由度の高いドライバモニタシステムを実現できる。
また、本実施例では、両眼の傾き角による補正(第1の補正)として、マッピングにより推定された両眼の傾き角が所定角以上のとき、顔画像用カメラ55を光軸周りに両眼の傾き角だけ回転させて撮影し、画像取込手段10が生成した顔画像情報111において眼の傾き角がほぼ水平になるようにするので、常に運転者の両眼がほぼ水平ライン上に存在することとなり、眼の検出領域を設定する処理負荷を低減することができる。
また、両眼の傾き角による補正(第2の補正)として、推定された両眼の傾き角が所定角以上のとき、画像取込手段10が生成した顔画像情報を両眼の傾き角だけ回転させて、眼の傾き角がほぼ水平の顔画像情報111について、眼の位置検出手段20および眼の追跡手段30による処理を行うようにするので、常に運転者の両眼がほぼ水平ライン上に存在することとなり、眼の検出領域を設定する処理負荷を低減することができる。
さらに、両眼の傾き角による補正(第3の補正)として、眼の位置検出手段20および眼の追跡手段30において、顔画像情報111について、推定された両眼の傾き角を考慮した位置に眼の検出領域を設置するので、運転者が正面を向いている状態において、眼の検出領域をあらかじめ得られる補正値によって検出領域を設定することができ、画面全体から両眼を検出する場合に比べて処理負荷を低減すると共に検出時間を短縮する効果が期待できる。
また、本実施例では、眼間距離による補正(第1の補正)として、マッピングにより推定された眼間距離比が所定値以下のとき、顔画像用カメラ55のズーム機能を用いるか或いは顔画像用カメラ55において画角を補正したレンズを用いて撮影し、画像取込手段10により生成される顔画像情報111の眼間距離を補正するので、運転者が正面を向いている状態において、両眼の眼間距離が常にほぼ一定の範囲内に存在するため眼の検出領域を設定する処理負荷を低減することができる。
また、眼間距離による補正(第2の補正)として、画像読込手段10が生成した顔画像情報を拡大した顔画像情報111について、眼の位置検出手段20および眼の追跡手段30による処理を行うようにするので、運転者が正面を向いている状態において、両眼の眼間距離が常にほぼ一定の範囲内に存在するため眼の検出領域を設定する処理負荷を低減することができる。
さらに、眼間距離による補正(第3の補正)として、眼の位置検出手段20および眼の追跡手段30において、顔画像情報111について、推定された眼間距離比を考慮して、片眼候補を検出した座標から反対眼の座標を推定し、顔画像中で反対眼の存在する可能性のある位置に眼の検出エリアを設置するので、運転者が正面を向いている状態において、眼の検出領域をあらかじめ得られる補正値によって検出領域を設定することができるため、画面全体から両眼を検出する場合に比べて処理負荷を低減すると共に検出時間を短縮する効果が期待できる。
また、本実施例では、当該車両の状態を示す車両情報103に基づき、当該車両の停止状態または極低速走行状態を検出したとき、或いは操舵角が一定以上の状態を検出したときは、眼の位置検出手段20または眼の追跡手段30は、それぞれ眼の位置検出処理または眼の座標情報更新処理を中断するので、車両が極低速走行時や操舵操作時に運転者が正面を向いていない可能性ある場面で、眼の位置検出処理や追跡処理を行わないようにすることで、眼の誤検出や誤追跡を減らす効果が期待できる。
また、本実施例では、顔画像用カメラ55を、運転席のヘッドレストのラインが水平に撮像されるように光軸周りに回転して設置するようにしても良い。この場合、運転席のヘッドレストのラインが水平に撮像されるということは、運転者が正面を向いているときに両眼が同一水平ライン上に撮像されることを示しており、眼の傾きの補正と眼間距離の補正の2つの補正のうち眼の傾きを補正する必要がなくなる効果が期待できる。さらに、画像取込手段10において、運転席のヘッドレストのラインが水平になるように回転した顔画像情報を生成するようにしても、同等の効果を期待できる。
本発明の一実施例に係るドライバモニタシステムの構成図である。 実施例のドライバ顔画像処理装置57の構成図である。 眼の位置検出手段20の構成図である。 顔画像用カメラ55の設置位置を説明する説明図である。 顔画像用カメラ55のカメラ位置情報を説明する説明図である。 カメラ設置位置と顔の部位の関係表を作成するために予め行われる計測について説明する説明図である。 車両運転者の顔の部位(眼間距離および両眼の傾き角)を説明する説明図である。 カメラ設置位置と眼の傾き角の関係を説明する説明図である。 カメラ設置位置と眼間距離の関係を説明する説明図である。 顔画像用カメラ55の光軸方向の回転について説明する説明図である。 実施例のドライバ顔画像処理装置57における処理手順を説明するフローチャートである。 眼の位置検出処理の手順を説明するフローチャートである。 片眼の検出を説明する説明図である。 眼の追跡処理の手順を説明するフローチャートである。 眼の検出領域の設定を説明する説明図である。 従来のドライバモニタシステムにおける評価データの説明図である。 実施例のドライバモニタシステムにおける評価データの説明図である。
符号の説明
10 画像取込手段
20 眼の位置検出手段
21 片眼候補検出手段
22 両眼確定処理手段
30 眼の追跡手段
40 表示処理手段
51 車両
53 近赤外光照明
55 顔画像用カメラ(撮像装置)
57 ドライバ顔画像処理装置
59 車両信号処理装置
101 映像信号
102 カメラ位置情報
111 顔画像情報
112 眼の座標情報
113 眼の移動情報
114 片眼候補情報
121 表示情報

Claims (20)

  1. 車両運転者の頭部を撮影する撮像装置を備え、前記撮像装置による映像信号および該撮像装置の位置情報であるカメラ位置情報に基づき車両運転者をモニタするドライバモニタシステムであって、
    前記映像信号および前記カメラ位置情報に基づき車両運転者の顔画像情報を生成する画像取込手段と、
    前記カメラ位置情報および前記顔画像情報に基づき、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、該眼の座標情報を出力する眼の位置検出手段と、
    前記カメラ位置情報、前記顔画像情報および前記眼の座標情報に基づき、前記車両運転者の顔の部位を考慮して前記眼の座標情報を元に前記顔画像情報から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報を出力する眼の追跡手段と、
    前記顔画像情報、前記眼の座標情報および前記眼の移動情報に基づき、顔画像上に眼の座標と眼の移動情報を重ねて表示する表示情報を出力する表示処理手段と、
    を有することを特徴とするドライバモニタシステム。
  2. 前記眼の位置検出手段は、
    前記カメラ位置情報および前記顔画像情報に基づき、車両運転者の顔の部位を考慮して車両運転者の片眼の候補の座標を検出して片眼候補情報を出力する片眼候補検出手段と、
    前記カメラ位置情報、前記顔画像情報および前記片眼候補情報に基づき、車両運転者の顔の部位を考慮して前記片眼候補の座標データを元に前記顔画像情報から両眼の位置を検出し眼の座標情報を出力する両眼確定処理手段と、
    を有することを特徴とする請求項1に記載のドライバモニタシステム。
  3. 前記車両運転者の顔の部位は、車両運転者の両眼を結ぶ線が水平線となす角度である両眼の傾き角と両眼間の距離である眼間距離であり、該両眼の傾き角と眼間距離は、前記カメラ位置情報である前記撮像装置の車室内での設置位置の3次元情報および撮像装置の設置姿勢、即ちロール、ピッチおよびヨーの少なくとも1つ以上の値に対して、あらかじめ計測されているそれぞれの関係表から推定されることを特徴とする請求項1または請求項2の何れか1項に記載のドライバモニタシステム。
  4. 前記推定された両眼の傾き角が所定角以上のとき、前記眼の位置検出手段または前記眼の追跡手段は、撮像装置を光軸周りに所定角度回転させて撮影して前記画像取込手段が生成した顔画像情報、或いは、前記画像取込手段が生成した顔画像情報を所定角度回転した顔画像情報について処理することを特徴とする請求項3に記載のドライバモニタシステム。
  5. 前記眼の位置検出手段または前記眼の追跡手段は、前記顔画像情報において、前記推定された両眼の傾き角を考慮して眼の検出領域を補正し設置することを特徴とする請求項3または請求項4の何れか1項に記載のドライバモニタシステム。
  6. 前記推定された眼間距離が所定値以下のとき、前記眼の位置検出手段または前記眼の追跡手段は、前記撮像装置のズーム機能を用いるか或いは画角を補正したレンズを用いて撮影し前記画像取込手段が生成した顔画像情報、或いは、前記画像読込手段が生成した顔画像情報を拡大した顔画像情報について処理することを特徴とする請求項3〜請求項5の何れか1項に記載のドライバモニタシステム。
  7. 前記眼の位置検出手段または前記眼の追跡手段は、前記顔画像情報において、前記推定された眼間距離を考慮して眼の検出領域を補正し設置することを特徴とする請求項3〜請求項6の何れか1項に記載のドライバモニタシステム。
  8. 当該車両の状態を示す車両情報に基づき、当該車両の停止状態または極低速走行状態を検出したとき、或いは操舵角が一定以上の状態を検出したときは、前記眼の位置検出手段または前記眼の追跡手段は、それぞれ眼の位置検出処理または眼の座標情報更新処理を中断することを特徴とする請求項1〜請求項7の何れか1項に記載のドライバモニタシステム。
  9. 前記撮像装置は、運転席のヘッドレストのラインが水平に撮像されるように光軸周りに回転して設置されることを特徴とする請求項1〜請求項8の何れか1項に記載のドライバモニタシステム。
  10. 前記画像取込手段は、運転席のヘッドレストのラインが水平になるように回転した顔画像情報を生成することを特徴とする請求項1〜請求項8の何れか1項に記載のドライバモニタシステム。
  11. 車両運転者の頭部を撮影する撮像装置を備え、前記撮像装置による映像信号および該撮像装置の位置情報であるカメラ位置情報に基づき車両運転者をモニタするドライバモニタシステムの処理方法であって、
    前記映像信号および前記カメラ位置情報に基づき車両運転者の顔画像情報を生成する画像取込ステップと、
    前記カメラ位置情報および前記顔画像情報に基づき、車両運転者の顔の部位を考慮して車両運転者の眼の位置を検出し、該眼の座標情報を出力する眼の位置検出ステップと、
    前記カメラ位置情報、前記顔画像情報および前記眼の座標情報に基づき、前記車両運転者の顔の部位を考慮して前記眼の座標情報を元に前記顔画像情報から車両運転者の眼の位置を検出して眼の座標情報を更新し、該眼の移動情報を出力する眼の追跡ステップと、
    前記顔画像情報、前記眼の座標情報および前記眼の移動情報に基づき、顔画像上に眼の座標と眼の移動情報を重ねて表示する表示情報を出力する表示処理ステップと、
    を有することを特徴とするドライバモニタシステムの処理方法。
  12. 前記眼の位置検出ステップは、
    前記カメラ位置情報および前記顔画像情報に基づき、車両運転者の顔の部位を考慮して車両運転者の片眼の候補の座標を検出して片眼候補情報を出力する片眼候補検出ステップと、
    前記カメラ位置情報、前記顔画像情報および前記片眼候補情報に基づき、車両運転者の顔の部位を考慮して前記片眼候補の座標データを元に前記顔画像情報から両眼の位置を検出し眼の座標情報を出力する両眼確定処理ステップと、
    を有することを特徴とする請求項11に記載のドライバモニタシステムの処理方法。
  13. 前記車両運転者の顔の部位は、車両運転者の両眼を結ぶ線が水平線となす角度である両眼の傾き角と両眼間の距離である眼間距離であり、該両眼の傾き角と眼間距離は、前記カメラ位置情報である前記撮像装置の車室内での設置位置の3次元情報および撮像装置の設置姿勢、即ちロール、ピッチおよびヨーの少なくとも1つ以上の値に対して、あらかじめ計測されているそれぞれの関係表から推定されることを特徴とする請求項11または請求項12の何れか1項に記載のドライバモニタシステムの処理方法。
  14. 前記推定された両眼の傾き角が所定角以上のとき、前記眼の位置検出ステップまたは前記眼の追跡ステップは、撮像装置を光軸周りに所定角度回転させて撮影して前記画像取込ステップで生成した顔画像情報、或いは、前記画像取込ステップで生成した顔画像情報を所定角度回転した顔画像情報について処理することを特徴とする請求項13に記載のドライバモニタシステムの処理方法。
  15. 前記眼の位置検出ステップまたは前記眼の追跡ステップは、前記顔画像情報において、前記推定された両眼の傾き角を考慮して眼の検出領域を補正し設置することを特徴とする請求項13または請求項14の何れか1項に記載のドライバモニタシステムの処理方法。
  16. 前記推定された眼間距離が所定値以下のとき、前記眼の位置検出ステップまたは前記眼の追跡ステップは、前記撮像装置のズーム機能を用いるか或いは画角を補正したレンズを用いて撮影し前記画像取込ステップで生成した顔画像情報、或いは、前記画像読込ステップで生成した顔画像情報を拡大した顔画像情報について処理することを特徴とする請求項13〜請求項15の何れか1項に記載のドライバモニタシステムの処理方法。
  17. 前記眼の位置検出ステップまたは前記眼の追跡ステップは、前記顔画像情報において、前記推定された眼間距離を考慮して眼の検出領域を補正し設置することを特徴とする請求項13〜請求項16の何れか1項に記載のドライバモニタシステムの処理方法。
  18. 当該車両の状態を示す車両情報に基づき、当該車両の停止状態または極低速走行状態を検出したとき、或いは操舵角が一定以上の状態を検出したときは、前記眼の位置検出ステップまたは前記眼の追跡ステップは、それぞれ眼の位置検出処理または眼の座標情報更新処理を中断することを特徴とする請求項11〜請求項17の何れか1項に記載のドライバモニタシステムの処理方法。
  19. 前記撮像装置は、運転席のヘッドレストのラインが水平に撮像されるように光軸周りに回転して設置されることを特徴とする請求項11〜請求項18の何れか1項に記載のドライバモニタシステムの処理方法。
  20. 前記画像取込ステップは、運転席のヘッドレストのラインが水平になるように回転した顔画像情報を生成することを特徴とする請求項11〜請求項18の何れか1項に記載のドライバモニタシステムの処理方法。
JP2004355375A 2004-12-08 2004-12-08 ドライバモニタシステムおよびその処理方法 Expired - Fee Related JP4552636B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004355375A JP4552636B2 (ja) 2004-12-08 2004-12-08 ドライバモニタシステムおよびその処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004355375A JP4552636B2 (ja) 2004-12-08 2004-12-08 ドライバモニタシステムおよびその処理方法

Publications (2)

Publication Number Publication Date
JP2006163900A JP2006163900A (ja) 2006-06-22
JP4552636B2 true JP4552636B2 (ja) 2010-09-29

Family

ID=36665843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004355375A Expired - Fee Related JP4552636B2 (ja) 2004-12-08 2004-12-08 ドライバモニタシステムおよびその処理方法

Country Status (1)

Country Link
JP (1) JP4552636B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5122782B2 (ja) 2006-09-19 2013-01-16 株式会社デンソー 車両運転者撮影用カメラの搭載構造
JP4331197B2 (ja) * 2006-11-06 2009-09-16 トヨタ自動車株式会社 眼開度検出装置及び方法
IL183385A0 (en) * 2007-05-24 2007-09-20 Yosef Cohen Security systems and methods
KR101393967B1 (ko) * 2008-08-29 2014-05-12 현대자동차주식회사 얼굴 검출 시스템
US9373123B2 (en) 2009-12-30 2016-06-21 Iheartmedia Management Services, Inc. Wearable advertising ratings methods and systems
US9047256B2 (en) 2009-12-30 2015-06-02 Iheartmedia Management Services, Inc. System and method for monitoring audience in response to signage
EP2497670B1 (en) * 2011-03-11 2015-07-01 Johnson Controls Automotive Electronics GmbH Method and apparatus for monitoring the alertness of the driver of a vehicle
US11488319B2 (en) * 2018-02-26 2022-11-01 Mitsubishi Electric Corporation Three-dimensional position estimation device and three-dimensional position estimation method
KR20200044212A (ko) * 2018-10-11 2020-04-29 현대자동차주식회사 차량의 표시 제어 장치 및 방법
JP7107178B2 (ja) * 2018-11-09 2022-07-27 株式会社Jvcケンウッド 映像検出装置、映像検出方法および映像検出プログラム
CN112733633B (zh) * 2020-12-28 2023-07-28 中国农业大学 一种大功率轮式拖拉机驾驶员眼睛位置预测方法
CN114821549A (zh) * 2022-04-22 2022-07-29 电子科技大学 一种利用方向盘定位驾驶区域的驾驶行为识别方法
WO2023248199A1 (en) * 2022-06-24 2023-12-28 Gentex Corporation Mirror assembly with driver modeling system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101386A (ja) * 1999-09-28 2001-04-13 Nissan Motor Co Ltd 眼の状態検出装置
JP2001186501A (ja) * 1999-12-24 2001-07-06 Oki Electric Ind Co Ltd 画像伝送装置
JP2003123075A (ja) * 2001-10-16 2003-04-25 Nissan Motor Co Ltd 顔部位追跡装置
JP2003248815A (ja) * 2002-02-26 2003-09-05 Casio Comput Co Ltd 顔画像の正規化方法及び装置、顔画像における目の位置の検出方法及び装置、並びにプログラム
JP2003250036A (ja) * 2002-02-22 2003-09-05 Mitsubishi Electric Corp 電子透かし埋込み方法、電子透かし検出方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2945870B2 (ja) * 1996-06-28 1999-09-06 財団法人大阪科学技術センター 動き検出装置
JP3477047B2 (ja) * 1997-10-02 2003-12-10 三菱電機株式会社 網膜反射像を利用したまばたき検出顔画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101386A (ja) * 1999-09-28 2001-04-13 Nissan Motor Co Ltd 眼の状態検出装置
JP2001186501A (ja) * 1999-12-24 2001-07-06 Oki Electric Ind Co Ltd 画像伝送装置
JP2003123075A (ja) * 2001-10-16 2003-04-25 Nissan Motor Co Ltd 顔部位追跡装置
JP2003250036A (ja) * 2002-02-22 2003-09-05 Mitsubishi Electric Corp 電子透かし埋込み方法、電子透かし検出方法
JP2003248815A (ja) * 2002-02-26 2003-09-05 Casio Comput Co Ltd 顔画像の正規化方法及び装置、顔画像における目の位置の検出方法及び装置、並びにプログラム

Also Published As

Publication number Publication date
JP2006163900A (ja) 2006-06-22

Similar Documents

Publication Publication Date Title
JP4533762B2 (ja) 可変透過率ウィンドウシステム
US8727539B2 (en) Projector and method of controlling projector
JP4810953B2 (ja) 車両用死角映像表示装置
JP4552636B2 (ja) ドライバモニタシステムおよびその処理方法
JP5093611B2 (ja) 車両周辺確認装置
JP4452833B2 (ja) 視線移動検出方法及び視線移動検出装置
JPH06247184A (ja) 車上表示装置
JP3968867B2 (ja) 表示処理装置
JP3228086B2 (ja) 運転操作補助装置
JP2014116756A (ja) 周辺監視システム
JP2010013090A (ja) 運転者状態監視システム
JP2010130646A (ja) 車両周辺確認装置
JP2008213649A (ja) 車両用周辺監視装置
JP6669019B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6857695B2 (ja) 後方表示装置、後方表示方法、およびプログラム
JP2007081590A (ja) 車両側方確認装置
WO2015129280A1 (ja) 画像処理装置および画像処理方法
JP2009265722A (ja) 顔向き検知装置
JP4779780B2 (ja) 画像表示装置
WO2017108990A1 (en) Rear view device for a vehicle
KR20190119291A (ko) 차량용 모니터링 방법 및 장치
JP4118773B2 (ja) 視線方向検出装置及び視線方向検出方法
JP6649063B2 (ja) 車両後方表示装置及び表示制御装置
JP5004099B2 (ja) カーソル移動制御方法及びカーソル移動制御装置
JP2009278185A (ja) 画像認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees