JP4123077B2 - 運転者状態検出装置 - Google Patents
運転者状態検出装置 Download PDFInfo
- Publication number
- JP4123077B2 JP4123077B2 JP2003185943A JP2003185943A JP4123077B2 JP 4123077 B2 JP4123077 B2 JP 4123077B2 JP 2003185943 A JP2003185943 A JP 2003185943A JP 2003185943 A JP2003185943 A JP 2003185943A JP 4123077 B2 JP4123077 B2 JP 4123077B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- eye
- driving
- determination
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Emergency Alarm Devices (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、運転者状態検出装置に関する。
【0002】
【従来の技術】
従来、車両等の移動体を運転している運転者の脇見状態や居眠り状態を検出し、検出された結果に基づいて警報を行う装置が知られている。この装置では、車両走行状況を判断し、脇見運転をし易い走行状況では脇見の予測判断処理を行う一方、居眠り運転をし易い走行状況では居眠りの予測判断処理を行うように、予測判断処理を切換えている。このため、この装置においては、脇見状態と居眠り状態との2つの運転者状態を、車両の走行状況に応じて迅速に切換えて、検出することを可能としている(特許文献1参照)。
【0003】
【特許文献1】
特開2000−326758号公報
【0004】
【発明が解決しようとする課題】
上記特許文献1に記載の装置では、走行状況によっては、脇見と居眠りとの両方の状態を検出する必要があると判断されてしまう場合がある。しかし、このような場合であっても、従来装置は、いずれか一方の状態に対する処理しか実行できず、走行状況に変化がない場合には、その処理を実行し続けることとなる。
【0005】
【課題を解決するための手段】
本発明によれば、運転者状態検出装置は、運転者の顔を撮影する撮影手段と、前記撮影手段により撮影された顔の画像から、運転者の漫然運転を判定する漫然運転判定手段と、運転者の脇見運転を判定する脇見運転判定手段と、運転者の居眠り運転を判定する居眠り運転判定手段と、漫然運転判定手段、脇見運転判定手段、及び居眠り運転判定手段のうちの少なくとも1つの判定結果に基づいて、前記運転者に報知するための報知信号を出力する報知手段と、を備えており、更に、前記撮影手段により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する画像処理手段と、前記画像処理手段の計算結果に応じて、前記漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうち少なくとも1つを、判定処理を行わせる対象として選択する処理選択手段と、を備え、前記画像処理手段は、オプティカルフローに基づいて動きベクトルを求め、前記処理選択手段は、前記画像処理手段により求められた動きベクトルの大きさ、及び所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度が所定値未満の場合に、前記漫然運転判定手段及び前記居眠り運転判定手段の少なくとも一方を判定処理を行わせる対象として選択し、前記所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度が所定値以上の場合に、前記脇見運転判定手段を判定処理を行わせる対象として選択することを要旨としている。
【0006】
【発明の効果】
本発明によれば、2枚以上の顔の画像に基づいてオプティカルフローを計算し、オプティカルフローに基づいて動きベクトルを求め、処理選択手段は、画像処理手段により求められた動きベクトルの大きさ、及び所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度が所定値未満の場合に、漫然運転判定手段及び居眠り運転判定手段の少なくとも一方を判定処理を行わせる対象として選択し、所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度が所定値以上の場合に、脇見運転判定手段を判定処理を行わせる対象として選択している。このオプティカルフローを検出する手法では、画像内の物体等の動きをとらえることができる。すなわち、運転者の顔の動きをとらえることができる。従って、顔の動きに基づいて検出すべき対象を適切に選択できることとなり、一定の走行状況が継続するような場合であっても、複数の対象を検出することができる。
【0007】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。
【0008】
図1は、本発明の第1実施形態に係る運転者状態検出装置の構成図である。同図に示すように、本実施形態の運転者状態検出装置1は、運転者状態としての脇見及び居眠りなどを複数の運転者状態のうち、状況に応じて検出すべき運転者状態を選択する機能を有するものである。
【0009】
この運転者状態検出装置1は、車両の運転者の顔を撮影する撮影部(撮影手段)10、及び撮影部10により撮影された顔の画像(以下、顔画像という)に基づいて、検出すべき運転者状態を選択する運転者状態判定処理選択装置20を備えている。さらに、運転者状態検出装置1は、撮影部10により撮影された顔画像に基づき、運転者状態を判定する運転者状態判定装置30、及び運転者状態判定装置30による判定結果に基づき、運転者に報知するための報知動作を行う報知器40を備えている。
【0010】
具体的に上記撮影部10は、例えば可視光を撮影するためのCCDカメラなどであり、運転者の正面下方に設置される。また、運転者状態判定装置30は、運転者状態として、運転者の漫然運転、脇見運転、及び居眠り運転を判定するものである。よって、運転者状態判定処理選択装置20は、これら3つの運転者状態から、検出すべきものを選択して、運転者状態判定装置30に検出すべき運転者状態の指令を行う。
【0011】
次に、本装置1の詳細構成、特に運転者状態判定処理選択装置20及び運転者状態判定装置30を図2を参照して説明する。図2は、本発明の第1実施形態に係る運転者状態検出装置1の詳細構成図である。
【0012】
同図に示すように、上記運転者状態判定処理選択装置20は、画像処理部(画像処理手段)21と、処理選択部(処理選択手段)22とを備えている。画像処理部21は、撮影部10により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算するものである。詳しくは、画像処理部21は、撮影部10から画像データを順次入力し、それら画像データの少なくとも2枚分から、濃度差等に基づいて、画像内の物体の動き方向及び動きの速度を表すオプティカルフローを計算するものである。
【0013】
このオプティカルフローとは画像内の各領域における移動量等を表すものである。具体的に、オプティカルフローは、画像の所定箇所に存在した顔部位等が、後の画像においてどの方向にどれだけ速度で移動したかを表すものである。すなわち、オプティカルフローは、大きさ及び向きの情報を含むものである。
【0014】
ここで、オプティカルフローの検出に当たっては、顔画像上に所定の位置及び大きさで設定される参照領域及び探索領域に基づいて行われる。図3は、参照領域及び探索領域の説明図である。なお、参照領域が或る時刻の画像上に設定されるとすると、探索領域はその時刻よりも後の画像に設定されるものであるが、図3においては、便宜上、幅w画素,高さh画素の1つの画像上に表して説明する。
【0015】
同図に示すように、参照領域は、(tx,ty)の位置に設定される幅tw画素,高さth画素の領域である。また、探索領域は、(sx,sy)の位置に設定される幅sw画素,高さsh画素の領域である。この探索領域は、各参照領域を取り囲んで設定されるものであり、参照領域と同じ数だけ設定される。また、この参照領域及び探索領域は、それぞれ大きさが異なるものの、中心位置に関しては特定の点Oで一致している。
【0016】
このように、これら両領域は中心を等しくし、sw>tw且つsh>swの関係となるように設定される。なお、ここでの参照領域及び探索領域は、被検出者の顔の位置等に依存せず、予め定められた位置及び大きさで設定される。
【0017】
また、参照領域は、規則的に配置されることが望ましい。図4は、顔画像に規則的に配置される参照領域の説明図である。参照領域は、例えば図4(a)に示すように、顔画像上の横方向に複数(例えば7つ)配置される。また、図4(b)に示すように、参照領域は、顔画像上に格子状に複数(例えば5行7列)配置される。さらには、図4(c)に示すように、参照領域は、横方向に且つ格子状に複数(例えば3行5列に加え、さらに横方向に2つの計17)配置されてもよい。
【0018】
また、さらに参照領域は、撮影部10の設置位置や画角、及び顔画像のサイズ等に基づいて、予め目、鼻又は口等の顔部位程度の大きさに固定的に設定されることが望ましい。
【0019】
また、画像処理部21は、オプティカルフローに基づいて動きベクトルを求めるものである。ここで、動きベクトルとは、オプティカルフローから所定の演算に従って、領域グループ毎に求められるものであり、領域グループ内の物体等の移動を示すものである。
【0020】
所定の演算については後述することとし、以下、図5を参照して、領域グループについて説明する。図5は、領域グループの説明図である。なお、図5において参照領域は顔画像上に格子状(5行7列)に配置されているものとする。
【0021】
まず、領域グループは、1つ以上の参照領域を含んで顔画像上に定められるものである。例えば、図5に示す例において、領域グループA〜Iはそれぞれ9つの参照領域を含むようにされている。具体的に領域グループA〜Iは3行3列分の参照領域を含み、領域グループAは、1〜3行目の1〜3列目の参照領域を含んでいる。
【0022】
また、領域グループB〜Dは、それぞれ1〜3行目の5〜7列目、3〜5行目の1〜3列目、3〜5行目の5〜7列目の参照領域を含んでいる。また、領域グループE〜Fは、それぞれ1〜3行目の3〜5列目、3〜5行目の3〜5列目の参照領域を含んでいる。さらに、領域グループG〜Iは、2〜4行目の2〜4列目、2〜4行目の4〜6列目、2〜4行目の3〜5列目の参照領域を含んでいる。
【0023】
処理選択部22は、画像処理部21の計算結果に応じて、検出すべき運転者状態を選択し、選択した運転者状態の情報を運転者状態判定装置30に送出するものである。すなわち、処理選択部22は、画像処理部21の計算結果に応じて、漫然運転、脇見運転及び居眠り運転のうち少なくとも1つを、判定処理を行わせる対象として選択し、その選択結果を運転者状態判定装置30に送出するものである。
【0024】
ここで、上記計算結果とは動きベクトルを意味するものである。すなわち、処理選択部22は、動きベクトルに基づいて、判定処理を行わせる対象を選択するものである。より具体的に処理選択部22は、動きベクトルの大きさや出現頻度に基づいて、判定処理を行わせる対象を選択するものである。なお、処理選択部22は、動きベクトルでなく、オプティカルフローから直接に判定対象を選択するようにしてもよい。
【0025】
また、上記運転者状態判定装置30は、漫然運転判定部(漫然運転判定手段)31と、脇見運転判定部(脇見運転判定手段)32と、居眠り運転判定部(居眠り運転判定手段)33と、報知部(報知手段)34とを備えている。
【0026】
漫然運転判定部31は、撮影部10により撮影された顔の画像から、運転者の漫然運転を判定するものである。また、脇見運転判定部32は、撮影部10により撮影された顔の画像から、運転者の脇見運転を判定するものである。また、居眠り運転判定部33は、撮影部10により撮影された顔の画像から、運転者の居眠り運転を判定するものである。
【0027】
具体的に説明すると、漫然運転判定部31は、眼位置検出機能(眼位置検出手段)と、追跡機能(追跡手段)と、滞留判定機能(滞留判定手段)とを有している。眼位置検出機能は、撮影部10により撮影された顔の画像全体から、運転者の眼の位置を検出する機能である。すなわち、漫然運転判定部31は、撮影部10により撮影された顔画像のデータを処理選択部22を介して、入力する。そして、眼位置検出機能により、画像全体から運転者の眼の位置を検出する。
【0028】
また、追跡機能とは、眼位置検出機能により検出された顔画像上の眼の位置を基準として、運転者の眼を含む追跡領域(所定領域)を画像上に設定し、さらに、この追跡領域内から眼を追跡していく機能である。
【0029】
ここで、追跡領域とは、顔画像上に設定された画像全体よりも小さい領域であって、顔画像から運転者の眼の位置を容易に探すために設けられたものである。すなわち、漫然運転判定部31は、この追跡領域が設定されているときは、追跡領域内から運転者の眼を探索することなる。一方、追跡領域が設定されていない場合には、画像全体から運転者の眼の位置を探すこととなる。
【0030】
なお、追跡領域は、眼を含む小さな領域として設定されるため、画像全体からの眼の位置を検出する場合に比べ、画像解像度を上げることができ、眼の位置の検出精度を向上させることができる。
【0031】
また、追跡領域の大きさについては、眼の移動量を許容するように設定することで、眼を常に同領域内に捕らえることができる。この場合、眼の移動量を許容するように、眼の移動速度を1フレーム間で動く移動量に置き換えるなどの処理が必要となる。なお、上記許容する範囲の具体例としては、運転者が顔を所定方向に−40°〜40°程度動かしたときの範囲である。
【0032】
また、滞留判定機能とは、追跡機能により追跡される追跡領域内の眼の位置を座標値として取得し、この座標値から目の移動量を求めて眼が滞留状態にあるか否かを判定する機能である。例えば、漫然運転判定部31は、所定の閾値を記憶しており、取得した座標値から求めた移動量が当該閾値を超えるか否かを判断する。そして、閾値以下となった場合には、眼が滞留状態にあると判定する。
【0033】
このような機能を備えるため、漫然運転判定部31は、滞留判定機能により滞留状態にあると判定された場合、その滞留状態が継続する時間に基づいて、運転者の漫然運転を判定する。すなわち、滞留判定機能により眼が滞留していると判定されると、計時を開始して滞留状態の継続時間を測定する。そして、測定時間が所定時間以上となった場合に、運転者が漫然運転をしていると判定する。
【0034】
また、脇見運転判定部32は、眼位置検出機能(眼位置検出手段)と、追跡機能(追跡手段)と、視方向判定機能(視方向判定手段)とを有している。ここで、眼位置検出機能と追跡機能とは、漫然運転判定部31のものと同じである。
【0035】
視方向判定機能は、追跡機能により追跡される追跡領域内の眼の位置を座標値として取得し、この座標値から眼の移動方向を求めて運転者の眼の視方向を判定する機能である。
【0036】
そして、脇見運転判定部32は、これら機能に基づいて脇見運転を判定する。すなわち、脇見運転判定部32は、判定された眼の視方向に基づいて、運転者の脇見運転を判定する。例えば、運転者が明らかに下側(灰皿の設置位置など)を視認している場合などには、脇見運転を判定する。
【0037】
また、居眠り運転判定部33は、眼位置検出機能(眼位置検出手段)と、追跡機能(追跡手段)と、開閉眼判定機能(開閉眼判定手段)とを有している。ここで、眼位置検出機能と追跡機能とは、漫然運転判定部31のものと同じである。
【0038】
開閉眼判定機能は、追跡機能により追跡される追跡領域内の眼についての開閉眼状態を判定する機能である。ここでの開閉眼判定は、例えば眼の縦幅に基づいて行われる。
【0039】
そして、居眠り運転判定部33は、開閉眼判定機能による判定結果に基づいて、居眠り運転を判定する。その後、居眠り運転判定部33は、眼の閉状態の継続時間などに基づいて、運転者の居眠り運転を判定する。
【0040】
なお、これら各判定部31〜33の詳細は、例えば特開平8−207617号公報、特開平10−40361号公報、特開平10−44824号公報、及び特開平11−339200号公報にも記載されている。
【0041】
また、上記各部31〜33は、処理選択部22を介して、画像処理部21に接続されている。このため、各判定部31〜33は、画像処理部21の計算結果が入力可能とされている。故に、各判定部31〜33は、座標データに基づいて運転者の脇見運転等を判定する構成に限らず、画像処理部21による計算結果に基づいて運転者の脇見運転等を判定する構成とされていてもよい。なお、ここでの計算結果とは、動きベクトル又はオプティカルフローを意味するものである。
【0042】
報知部34は、漫然運転判定部31、脇見運転判定部32、及び居眠り運転判定部33のうちの少なくとも1つの判定結果に基づいて、運転者に報知するための報知信号を、報知器40に出力するものである。ここで、処理選択部22は、各判定部31〜33のうち少なくとも1つを選択する。このため、報知器40は、各判定部31〜33のうち処理選択部22に選択されたものの判定結果を入力することとなる。また、入力した判定結果に基づいて報知すべきであると判断した場合、報知信号を出力することとなる。
【0043】
なお、上記各判定部31〜33それぞれは、眼位置検出機能及び追跡機能の双方を備える点で共通している。このため、これら機能を運転者状態判定装置30に持たせ、各判定部31〜33は、それぞれ共通しない滞留判定機能、視方向判定機能、及び開閉眼判定機能のみを有するようにされていてもよい。
【0044】
次に、本装置1の動作の概略を説明する。なお、ここでは、各判定部31〜33は、眼位置検出機能等に基づいて各運転者状態を判定するものとする。
【0045】
まず、撮影部10により運転者の顔を含む画像が撮影され、その画像が画像処理部21に入力される。入力後、画像処理部21は、撮影部10にて得られた少なくとも2枚の顔画像から、参照領域及び探索領域に基づいてオプティカルフローを検出する。
【0046】
具体的に、時刻tと時刻(t+1)における顔画像からオプティカルフローを検出する場合、画像処理部21は、時刻tにおける顔画像上に参照領域を設定する。また、画像処理部21は、時刻(t+1)における顔画像上に探索領域を設定する。
【0047】
その後、画像処理部21は、探索領域内から参照領域に最も類似する位置を求める。そして、参照領域の位置と最も類似する位置との差をオプティカルフローとして検出する。このため、オプティカルフローは、参照領域毎に求められることとなり、参照領域はオプティカルフローの計算領域として機能する。
【0048】
オプティカルフローの検出後、画像処理部21は、顔の動きベクトルを求める。ここで、画像処理部21は、オプティカルフローから所定の演算に従って、領域グループ毎に求める。
【0049】
動きベクトルの検出後、画像処理部21は、検出した顔の動きベクトルの情報を処理選択部22に送信する。そして、処理選択部22は、動きベクトルから検出すべき運転者状態を選択する。すなわち、各判定部31〜33のうち少なくとも1つを、判定処理を行わせる対象として選択する。
【0050】
ここで、選択されたものが脇見運転判定部32であるとすると、脇見運転判定部32は、顔画像から眼の位置を検出し、その位置情報に基づき、脇見運転をしているか否かを判定する。
【0051】
判定後、脇見運転判定部32は、判定結果を報知部34に送出する。報知部34は、判定結果が脇見運転を示すものである場合、報知信号を報知器40に出力する。
【0052】
なお、上記動作は、脇見運転判定部32の他の漫然運転判定部31及び居眠り運転判定部33が選択された場合も同様にして行われる。
【0053】
次に、上記各判定部31〜33が画像処理部21による計算結果に基づいて運転者の脇見運転等を判定する場合を、図6を参照して説明する。図6は、本実施形態に係る運転者状態検出装置1の各判定部31〜33が画像処理部21による計算結果に基づいて運転者の脇見運転等を判定する場合の動作の概略を示すデータフローダイヤグラムである。
【0054】
まず、撮影部10により運転者の顔を含む画像が撮影され(図6aに示す画像)、その画像が画像処理部21に入力される。入力後、画像処理部21は、撮影部10により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する(図6b)。また、動きベクトルを求める場合は、さらに計算を実行して領域グループ毎に、動きベクトルを求める。
【0055】
そして、処理選択部22は、画像処理部21の計算結果に基づいて、各判定部31〜33のうち判定処理を行わせるものを選択する。ここで、脇見運転の判定処理を行わせると選択した場合、脇見運転判定部32は、画像処理部21の計算結果に基づいて、動きパターンを求める(図6c)。この動きパターンとは、オプティカルフロー(動きベクトル)から得られる運転者の顔の動きを時系列的なデータとして現したものである。
【0056】
また、動きパターンは、運転者が脇見行為をする場合、例えば画像横方向に大きな移動量を示すなどの特徴を有しており、ある程度限られたものとなる。このため、本装置1に特徴的な動きを記憶パターンとして記憶させておき、求めた動きパターンと予め記憶される記憶パターン(図6d)とを照合することにより、脇見行為を判定することができる(図6e)。そして、脇見運転判定部32は、判定した結果を報知部34に出力する。
【0057】
その後、報知部34は、脇見運転判定部32により判定された結果が脇見運転を示すものである場合、運転者に報知すべく、報知器40に報知信号を出力する。
【0058】
次に、本装置1の詳細な動作の一例を説明する。図7は、本実施形態に係る運転者状態検出装置1の詳細な動作の一例を示すフローチャートである。なお、図7において、各判定部31〜33は、眼の座標データに基づいて各運転者状態を判定するものとする。故に各判定部31〜33は、画像処理部21の計算結果によらず判定を行うこととなる。
【0059】
まず、撮影部10は、運転者の顔を撮影し、得られた顔画像のデータを画像処理部21及び処理選択部22に送出する。そして、処理選択部22は、顔画像のデータを運転者状態判定装置30に出力する(ST10)。
【0060】
その後、運転者状態判定装置30は、眼の追跡領域が存在するか否かを判断する(ST11)。眼の追跡領域が設定されていると判断した場合(ST11:YES)、処理はステップST14に移行する。
【0061】
一方、眼の追跡領域が設定されていないと判断した場合(ST11:NO)、運転者状態判定装置30は、画像全体から眼の位置を検出する(ST12)。そして、運転者状態判定装置30は、眼の位置のデータを取得する。
【0062】
その後、運転者状態判定装置30は、眼の位置のデータに基づいて、追跡領域を設定する(ST13)。そして、運転者状態判定装置30は、新たに入力される顔画像については追跡領域内から眼を検出する(ST14)。その後、運転者状態判定装置30は、眼の追跡が正しく行われているか否かを判断する(ST15)。
【0063】
眼の追跡が正しく行われていないと判断した場合(ST15:NO)、運転者状態判定装置30は、眼の追跡領域をクリアし(ST16)、処理はステップST10に戻る。この場合、再度追跡領域の設定が行われることとなる。
【0064】
一方、眼の追跡が正しく行われていると判断した場合(ST15:YES)、処理選択部22は、動きベクトルの出現頻度が所定値未満か否かを判断する(ST17)。
【0065】
なお、ステップST17の処理が実行されるまでに、以下の処理が並行して実行されている。すなわち、この間に画像処理部21は、オプティカルフローに基づいて、領域グループ毎に動きベクトルを算出する(ST18)。そして、画像処理部21は、領域グループ毎に動きベクトルのうち、所定値以上の大きさを示す動きベクトルについての出現頻度をメモリする(ST19)。なお、メモリされる出現頻度の情報は、所定時間分だけである。このため、所定時間経過後、メモリされた出現頻度の情報は、一度消去されることとなる。また、消去せずとも、メモリされた出現頻度の情報のうち所定時間超過分を順次に消去していくようにしてもよい。
【0066】
その後、処理選択部22は、動きベクトルの出現頻度が所定値未満か否かを判断することができる。ここで、動きベクトルの出現頻度が所定値未満であると判断した場合(ST17:YES)、処理選択部22は、漫然運転判定部31及び居眠り運転判定部33を選択する。一方、動きベクトルの出現頻度が所定値未満でないと判断した場合(ST17:NO)、処理選択部22は、脇見運転判定部32を選択する。
【0067】
このように、処理選択部22は、画像処理部21により求められた動きベクトルの大きさ、及び所定時間あたりの所定値以上の大きさを示した動きベクトルについての出現頻度に基づいて、判定処理を行わせる対象を選択している。
【0068】
ここで、処理選択部22が漫然運転判定部31及び居眠り運転判定部33を選択した場合、まず、漫然運転判定部31は、追跡されている眼の位置に基づき漫然運転検出処理を実行する(ST20)。すなわち、漫然運転判定部31は、滞留判定機能により、追跡領域内の眼の位置を座標値として取得し、この座標値から目の移動量を求めて眼が滞留状態にあるか否かを判定する。
【0069】
その後、漫然運転判定部31は、判定された眼の滞留状態が継続する時間に基づいて、運転者の漫然運転を判定する(ST21)。なお、この処理においては、漫然度たる指標を用いて漫然運転か否かを判定するとより明確に処理を行うことができる。
【0070】
漫然運転をしていないと判断した場合(ST21:NO)、処理はステップST10に戻る。一方、漫然運転をしていると判断した場合(ST21:YES)、居眠り運転判定部33は、追跡されている眼の位置の開閉眼状態に基づき居眠り運転検出処理を実行する(ST22)。すなわち、居眠り運転判定部33は、開閉眼判定機能により、追跡領域内の眼についての開閉眼状態を判定する。
【0071】
そして、居眠り運転判定部33は、開閉眼判定機能による判定結果に基づいて、居眠り運転を判定する(ST23)。居眠り運転をしていないと判断した場合(ST23:NO)、報知部34は、運転者へ注意喚起をすべく、報知信号を出力する。そして、報知器40は、報知音などを出力することとなる(ST24)。このとき、運転者は居眠りではないものの漫然運転をしているため、報知器40は運転者に漫然運転であることを気づかせるだけで、違和感の少ない警報音を出力することとなる。その後処理はステップST10に戻る。
【0072】
一方、居眠り運転をしていると判断した場合(ST23:YES)、報知部34は、運転者へ注意喚起をすべく、報知信号を出力する。そして、報知器40は、報知音などを出力することとなる(ST25)。このとき、運転者は居眠り運転をしているため、報知器40は覚醒効果を伴う警報音を出力することとなる。その後処理はステップST10に戻る。
【0073】
ところで、処理選択部22が脇見運転判定部32を選択した場合、脇見運転判定部32は、追跡されている眼の位置に基づき脇見検出処理を実行する(ST26)。すなわち、脇見運転判定部32は、視方向判定機能により、追跡領域内の眼の位置を座標値として取得し、この座標値から眼の移動方向を求めて運転者の眼の視方向を判定する。
【0074】
その後、脇見運転判定部32は、判定された眼の視方向に基づいて、運転者が脇見運転をしているか否かを判断する(ST27)。脇見運転をしていないと判断した場合(ST27:NO)、処理はステップST10に戻る。一方、脇見運転をしていると判断した場合(ST27:YES)、処理はステップST25にを経て、その後ステップST10に戻る。
【0075】
次に、オプティカルフローの算出処理について詳細に説明する。なお、この処理は、オプティカルフローによる動きベクトル算出処理(ステップST18)の前段で行われる処理である。
【0076】
図8は、図7に示したオプティカルフローによる動きベクトル算出処理(ステップST18)の詳細なフローチャートである。まず、画像処理部21は、顔画像にスムージングフィルタを適応し、所定の式にて画素値を変換する(ST30)。ここで、スムージングフィルタは、以下に示す5行5列からなるフィルタである。
【0077】
【数1】
所定の式は、以下に示すものである。
【0078】
【数2】
なお、d(x,y)は、顔画像内の任意位置の画素値であり、d’(x,y)は変換後の画素値である。
【0079】
その後、画像処理部21は、現在の顔画像の探索領域内から、前回の顔画像内の参照領域に最も類似する位置を求めて、移動量(xd,yd)、すなわちオプティカルフローを算出する(ST31)。
【0080】
具体的には、画像処理部21は、まず、探索領域内から参照領域に最も類似する領域を求め、最も類似する領域の中心点を、参照領域に最も類似する位置とする。そして、画像処理部21は、求められた最も類似する領域の中心点と、探索領域の中心点とから移動量(xd,yd)を算出し、オプティカルフローとする。
【0081】
ここで、ステップST31について詳細に説明する。上述したように、顔画像上には予め参照領域が設定されている。また、探索領域は参照領域を取り囲むように設定される。また、参照領域と探索領域とは時間を異にして設定される。具体的には、図9に示すように、参照領域は時刻tにおいて設定され、探索領域は時刻t後の時刻(t+1)において設定される。
【0082】
図9は、図8に示すステップST31における移動量(xd,yd)の算出方法の説明図である。ステップST31の処理において、画像処理部21は、まず、時刻t+1の探索領域内に候補領域を作成する。この候補領域は、参照領域と同じ大きさを有する領域である。具体的には、探索領域内の任意の位置を(xd,yd)とした場合、−(sw−tw)/2<xd<(sw−tw)/2、且つ、−(sh−th)/2<yd<(sh−th)の範囲から切り出した領域である。
【0083】
画像処理部21は、探索領域内の所定箇所に上記のような候補領域を設定し、設定した候補領域と参照領域とを比較等して、類似度を求める。次に、画像処理部21は、候補領域を他の位置に動かし、動かした位置の候補領域と参照領域とを比較等して類似度を求める。
【0084】
その後、画像処理部21は、候補領域を順次移動させていき、探索領域内での各箇所において参照領域との類似度を算出する。類似度は、例えば、濃淡データを基準に判断される。ここで、濃淡データを基準に類似度を算出する場合において、類似度をcosθとすると、類似度は以下の式にて表される。
【0085】
【数3】
上式においては、参照領域の濃淡データをTとし、候補領域の濃淡データをSとしている。また、xdは、探索領域内のX座標値を示し、ydは、探索領域内のY座標値を示している。
【0086】
以上から、画像処理部21は、類似度が最大となる位置Sを定め、点Sと点Oとの座標値の差を移動量(xd,yd)として取得し、これをオプティカルフローとする。
【0087】
再度、図8を参照して説明する。移動量(xd,yd)の算出後、画像処理部21は、類似度の範囲が閾値以上か否かを判断する(ST32)。すなわち、画像処理部21は、まず、候補領域によって探索領域内を走査していき、探索領域内の各箇所の類似度を算出する。その後、画像処理部21は、得られた類似度の分散を求め、この分散により類似度の範囲が閾値以上か否かを判断する。
【0088】
ここで、類似度の範囲が小さい場合とは、探索領域内の各箇所において、同じような類似度が検出される場合である。例えば、参照領域が真っ白な画像である場合など、特徴が少ない場合には探索領域内のどの箇所と比較しても似たような類似度の結果が得られることとなる。そして、このような場合、それぞれ類似度の差が小さいことから、類似度が最大となる点Sの検出が不正確になりやすい。このため、図8のステップST32の処理では、所定の閾値と比較し、好適なものと不適なものとの選別するようにしている。
【0089】
類似度の範囲が閾値以上であると判断した場合(ST32:YES)、画像処理部21は、参照領域を有効な領域とし、fdに「1」を代入する(ST33)。そして、処理はステップST35に移行する。
【0090】
一方、類似度の範囲が閾値以上でないと判断した場合(ST32:NO)、画像処理部21は、参照領域を無効な領域とし、fdに「0」を代入する(ST34)。そして、処理はステップST35に移行する。このように、画像処理部21は、特徴量としての類似度の変化量と、予め設定される閾値とを比較することにより、動きベクトルの計算に用いるか否かを判断している。
【0091】
ステップST35において、画像処理部21は、領域の数だけ上記のステップST31〜ST34を行ったか否かを判断する(ST35)。すなわち、画像処理部21は、すべての参照領域について、探索領域内から類似する位置を特定したか否かを判断している。
【0092】
いずれかの参照領域について、探索領域内から類似する位置を特定していないと判断した場合(ST35:NO)、処理はステップST31に戻り、類似する位置を特定していない参照領域について、上記ステップST31〜ST34の処理を繰り返すこととなる。
【0093】
一方、すべての参照領域について、探索領域内から類似する位置を特定したと判断した場合(ST35:YES)、画像処理部21は、図11に示す処理を実行する。
【0094】
なお、オプティカルフローの計算方法は本実施形態の他に、八木信行監修, "ディジタル映像処理", 映像情報メディア学会編, pp.129-139, 2000, オーム社 などにて動画像から動きを検出する手法が複数紹介されていおり、それらを用いることもできる。
【0095】
ここで、オプティカルフローの検出例を説明する。図10は、運転者が左方向に顔の向きを変える場合のオプティカルフローの例を示す説明図であり、(a)は時刻tにおけるオプティカルフローの例を示し、(b)は時刻(t+1)におけるオプティカルフローの例を示し、(c)は時刻(t+2)におけるオプティカルフローの例を示し、(d)は時刻(t+3)におけるオプティカルフローの例を示している。
【0096】
まず、図10を参照して説明する。時刻tにおいて運転者は前方を視認している(図10(a))。その後、時刻(t+1)において、運転者は交差点の確認等を行うべく、顔を左方に向ける。このとき、オプティカルフローが検出される(図10(b))。ここで、画像中の四角で表示されている領域は、参照領域であり、各参照領域から伸びる線分は、各部位の移動量、すなわちオプティカルフローを示している。
【0097】
その後、時刻(t+2)において、運転者は顔をさらに左方に向ける。このときも同様に、オプティカルフローが検出される(図10(c))。そして、時刻(t+3)において運転者は顔を左上方に向けると、同様にオプティカルフローが検出される(図10(d))。
【0098】
なお、図10中において、参照領域を示す四角枠が実線にて図示されているものは、図8のステップST12にて「NO」と判断され、無効領域とされた参照領域であり、四角枠が破線にて図示されているものは、図8のステップST12にて「YES」と判断され、有効領域とされた参照領域である。
【0099】
次に、動きベクトルの検出処理について詳細に説明する。なお、この処理は、オプティカルフローによる動きベクトル算出処理(ステップST18)の後段で行われる処理である。
【0100】
図11は、図7に示したオプティカルフローによる動きベクトル算出処理(ステップST18)の詳細なフローチャートである。まず、画像処理部21は、領域グループが複数存在する場合には、複数の領域グループのうち処理の対象となるものを選択し、その領域グループの移動量に関する数値x,y,cを「0」に初期化する(ST20)。その後、画像処理部21は、選択した領域グループ内の参照領域のうちいずれか1つを選択する。
【0101】
そして、画像処理部21は、選択した参照領域が有効領域であるか否か、すなわちfdが「1」であるか否かを判断する(ST31)。fdが「1」であると判断した場合(ST31:YES)、画像処理部21は、図8に示す処理において求めた移動量(xd,xy)を積算する(ST32)。具体的に、画像処理部21は、「x」を「x+xd」とし、「y」を「y+yd」とし、「c」を「c+1」とする。そして、処理はステップST33に移行する。
【0102】
一方、fdが「1」でないと判断した場合(ST31:NO)、画像処理部21は、移動量(xd,xy)を積算することなく、処理はステップST23に移行する。
【0103】
ステップST33において、画像処理部21は、選択した領域グループ内のすべての参照領域について処理したか否かを判断する(ST33)。いずれかの参照領域について処理をしてないと判断した場合(ST33:NO)、処理はステップST31に戻り、上記ステップST31,ST32を繰り返すこととなる。すなわち、画像処理部21は、すべての参照領域について有効領域か否かを判断し、有効領域である場合には、移動量を積算するという処理を行っていく。
【0104】
そして、順次移動量の積算等が行われ、すべての参照領域について処理した場合(ST33:YES)、画像処理部21は、cが「0」であるか否かを判断する(ST34)。
【0105】
「c」が「0」であると判断した場合(ST34:YES)、処理はステップST36に移行する。一方、「c」が「0」でないと判断した場合(ST34:NO)、画像処理部21は、積算した「x」「y」についての平均を求める(ST35)。すなわち、画像処理部21は、「x=x/c」及び「y=y/c」を実行し、平均移動量を求める。
【0106】
平均移動量の算出後、画像処理部21は、求めた平均移動量について、移動平均(ax,ay)を求める(ST36)。ここで得られた移動平均が、各領域グループの動きベクトルとなり、移動平均のx方向成分axが動きベクトルのx方向成分となり、移動平均のy方向成分ayが動きベクトルのy方向成分となる。なお、移動平均を求める範囲は任意に定められている。
【0107】
ここで、ステップST36の平均化処理は、以下の理由により行っている。まず、前顔画像と現顔画像の間で求めた参照領域の移動量(xd,xy)は、時間微分した単位時間の移動、つまり速度ベクトルを表しているといえる。そして、理論上、速度ベクトルを順次積算していくと、移動した後の顔部位等の位置を示すことができる。
【0108】
しかし、動きベクトルは揺らぎやノイズ等を含むことが多く、1つの参照領域の移動量(xd,xy)を順次積算しても、移動後の位置を正確に求めることはできない。例えば、運転者の顔が中央から右を向いて中央に戻る場合、移動量(xd,xy)の積算値を求めると、右を向くときの移動量(xd,xy)の積算値と、中央に戻る時のときの移動量(xd,xy)の積算値とはノイズ等の影響により一致しない。このため、右を向き始めるとき(動作開始時)と、顔が正面に戻ったとき(動作終了時)とで顔部位等の位置がずれて検出されることがわかっている。そこで、領域グループ毎に移動量(xd,xy)の平均を求め、さらにその移動平均を求めることでノイズ等の影響を低減するようにしている。
【0109】
ここで、図8に示すように画像処理部21は、この動きベクトルのうち所定値以上のものの出現頻度をメモリしているが、検出等の精度向上を図るべく、以降の処理を実行し、動きベクトルに基づく移動量(後述する)を検出してメモリするようにしてもよい。以下にその手法を示す。
【0110】
その後、画像処理部21は、ステップST36にて求めた領域グループの動きベクトル(ax,ay)を積算する(ST37)。具体的に、画像処理部21は、「sx」を「sx+ax」とし、「sy」を「sy+ay」とする。ここで、領域グループの動きベクトルを積算するため、得られる(sx、sy)は、領域グループにおいて顔部位等が動いた量を積算したもの、すなわち現在位置を示すものとなる。
【0111】
その後、画像処理部21は、現在位置(sx,sy)の移動平均により基準位置(cx,cy)を求める(ST38)。この移動平均を求める範囲についても任意に定められている。
【0112】
そして、画像処理部21は、現在位置(sx,sy)と基準位置(cx,cy)の差から移動量(vx,vy)を得る(ST39)。具体的に、画像処理部21は、「vx」を「sx−cx」とし、「vy」を「sy−cy」とする。移動量(vx,vy)は、前述の移動量(xd,xy)と異なるものである。すなわち、移動量(xd,xy)は、参照領域における移動量を示すのに対し、移動量(vx,vy)は領域グループにおいて移動した後の位置を示している。
【0113】
その後、画像処理部21は、基準位置(cx,cy)が閾値以上であるか否かを判断する(ST40)。基準位置(cx,cy)が閾値以上でないと判断した場合(ST40:NO)、処理はステップST44に移行する。
【0114】
一方、移動量(vx,vy)が閾値以上であると判断した場合(ST40:YES)、画像処理部21は、移動量(vx,vy)の標準偏差が閾値以下であるか否かを判断する(ST41)。移動量(vx,vy)の標準偏差が閾値以下でないと判断した場合(ST41:NO)、画像処理部21は、処理はステップST44に移行する。
【0115】
一方、移動量(vx,vy)の標準偏差が閾値以下であると判断した場合(ST42:YES)、画像処理部21は、領域グループの動きベクトル(ax,ay)が閾値以下であるか否かを判断する(ST42)。領域グループの動きベクトル(ax,ay)が閾値以下でないと判断した場合(ST42:NO)、画像処理部21は、処理はステップST44に移行する。
【0116】
一方、領域グループの動きベクトル(ax,ay)が閾値以下であると判断した場合(ST42:YES)、画像処理部21は、現在位置(sx,sy)を「0」に初期化する(ST43)。そして、画像処理部21は、処理はステップST44に移行する。
【0117】
ステップST44では、すべての領域グループについて処理したか否かが判断される(ST44)。いずれかの領域グループについて処理をしてないと判断した場合(ST44:NO)、処理は再度ステップST30に戻り、同様の処理を行っていくこととなる。一方、すべての領域グループについて処理したと判断した場合(ST44:YES)、画像処理部21による処理は終了する。
【0118】
なお、上記ステップST41〜ST43の処理は、ノイズが現在位置(sx,sy)として累積されてしまうことを防止すべく行っている。まず、現在位置(sx,sy)は、ステップST47にて求められている。ここで、現在位置(sx,sy)を求める際に用いられる領域グループの動きベクトル(ax,ay)は、ステップST45の平均化、及びステップST46の移動平均の算出によりノイズ等が低減されたものとなっている。ところが、領域グループの動きベクトル(ax,ay)は、ノイズ等を含んでいないとは言えない。
【0119】
このため、ノイズ等が徐々に現在位置(sx,sy)に蓄積されてしまう可能性があると言える。そして、ノイズ等が現在位置(sx,sy)に蓄積されてしまうと、現在位置(sx,sy)の移動平均である基準位置(cx,cy)にも当然にノイズ等が累積されて、基準を示す役割を果たさなくなってしまう。
【0120】
そこで、顔の向きの検出や顔以外のものの撮影範囲内への出入の検出に支障をきたことがないように、まず、上記ステップST41にて、基準位置(cx,cy)が閾値以上か否かを判断している。そして、閾値以上の場合に現在位置(sx,sy)を「0」に初期化するようにしている。このように、所定の条件に基づいて現在位置(sx,sy)を初期化することにより、好適に検出対象を検出するようにしている。
【0121】
ただし、現に運転者が顔の向きを変えている段階や顔以外のものが撮影範囲内への出入している段階において現在位置(sx,sy)を「0」に初期化してしまうと、初期化することによって逆に検出対象の検出に支障をきたしてしまう。そこで、ステップST42及びST43において、顔が動いていない状態や顔以外のものが撮影範囲内に出入していない状態であることを検出している。すなわち、画像処理部21は、基準位置(cx,cy)の標準偏差が閾値以下であり、且つ領域グループの動きベクトル(ax,ay)が閾値以下であるという条件に基づいて、現在位置(sx,sy)を「0」に初期化するようにしている。
【0122】
以上、図7,8,11の処理により、漫然運転、脇見運転、居眠り運転のいずれかが選択され、選択されたものについて眼の位置等に基づいて判定処理が実行されていくこととなる。
【0123】
ここで、図7に示したステップ20,ST22,ST26の処理が、眼の位置等に基づかず、図6に示すように動きパターンを求めて、判定する場合を説明する。
【0124】
まず、動きパターンは、図11に示す処理の実行後においては、図12に示す動きパターンが得られる。図12は、動きパターンを示す説明図である。
【0125】
なお、図12において、縦軸は図5に示す領域グループIにて得られた移動量(dx,dy)を示しており、横軸は時刻を示している。また、図12では、画像横方向(X方向)における移動量(dx,dy)のみを示し、画像縦方向(Y方向)における移動量(dx,dy)は省略するものとする。
【0126】
さらに、図12では、運転者が図10に示すような動作を行う場合、すなわち前方を視認している状態から、顔を左に向け、この後に、再度前方を視認する場合の動きパターンの例を示している。
【0127】
同図に示すように、まず、運転者が車両前方を注視している場合(時刻350〜410の期間)、移動位置は、「0」付近となっている。次に、運転者が確認動作をして顔を左に向けた場合(時刻410〜430の期間)、移動位置が「−45〜−48」画素程度を示す。その後、しばらく間、運転者が左を向いているままの状態でいる場合(時刻430〜560の期間)、移動位置は「−45〜−48」画素程度を維持する。
【0128】
そして、運転者が再度車両前方に顔を向けると(時刻560〜580の期間)、移動位置が「0」付近に復帰する。その後、運転者が車両前方を注視し続けると(時刻580〜650の期間)、移動位置は「0」付近を維持し続ける。
【0129】
図13は、動きパターンに基づいて、運転者状態を判定する動作を示すフローチャートである。なお、図13に示す処理は、図7に示したステップ20,ST22,ST26のそれぞれで共通するものである。
【0130】
同図に示すように、画像処理部21は、図12に示すような動きパターンと、予め記憶される複数の記憶パターンそれぞれとの相関を求める(ST50)。相関を求める方法としては、例えば数3と同様にして求めたり、フーリエ変換やウェブレット変換により周波数解析した情報を用いて求めたりする。
【0131】
ここで具体的に、動きパターンP及び記憶パターンDは、
【数4】
となっている。なお、上記「state code」は進入した異物を表すコードである。また、「data」は、移動量を示すものである。
【0132】
その後、画像処理部21は、複数の記憶パターンのうち、最も相関の高い記憶パターンを検出する(ST51)。検出後、画像処理部21は、検出された記憶パターンが示す状態を、現在の運転者の状態とする(ST52)。そして、画像処理部21は、この検出結果に基づいて、それぞれステップ21,ST23,ST27の処理を実行する。
【0133】
なお、図13の処理において、画像処理部21は、最も相関の高い記憶パターンの相関値が所定の閾値を超えない場合には、どの記憶パターンとも類似しなかったと判断して、この判断を結果として取得してもよい。
【0134】
以上により、オプティカルフローの計算を行って、動きパターンを求める方法によっても、眼の位置等に基づく手法と同様に、運転者状態を検出することができる。そして、本実施形態は、オプティカルフロー計算を経る手法、又は眼の位置等に基づく手法のいずれが行われるとしても、処理選択部22により、検出すべき判定対象を選択して、好適に運転者の状態を判定している。
【0135】
このようにして、本実施形態に係る運転者状態検出装置1では、2枚以上の顔の画像に基づいてオプティカルフローを計算し、計算結果に応じて検出対象を選択している。このオプティカルフローを検出する手法では、画像内の物体等の動きをとらえることができる。すなわち、運転者の顔の動きをとらえることができる。従って、顔の動きに基づいて検出すべき対象を適切に選択できることとなり、一定の走行状況が継続するような場合であっても、複数の対象を検出することができる。
【0136】
より具体的には、従来装置が走行状況としての道路状況に基づいて、居眠りと脇見とのいずれを検出すべきかについて判断している場合、従来技術では上記したように道路状況に変化がない限り、居眠りと脇見との一方しか検出されない。ところが、本実施形態では、走行状況に関係なく運転者の顔の動きに基づくため、道路状況に変化がなくとも検出すべき対象が切り換えられる。すなわち、一定の道路状況が所定時間継続していても、その時間中には検出すべき対象が複数選択されることもある。従って、同じ道路状況において、複数の対象を検出することができる。
【0137】
また、各判定部31〜33は、画像処理部21からの計算結果(オプティカルフローや動きベクトル)に基づいて、判定結果を得ている。ここで、画像処理部21からの計算結果は、処理選択部22における選択に用いられている。このため、画像処理部21からの計算結果は、選択及び判定の双方の処理において用いられることとなり、処理を簡素化することができると共に、リアルタイム性を損ない難くすることができる。従って、同時的に各状態を検出することができる。
【0138】
また、動きベクトルの大きさ、及び所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度に基づいて、判定処理を行わせる対象を選択している。さらには、動きベクトルが所定時間内に所定値以上しなくなったと判断した場合に、すなわち、所定時間内における動きベクトルの出現頻度が所定値未満であると判断した場合に、漫然運転又は居眠り運転の判定部31,33を選択している。このように、大きさや値に基づく処理を行うことで、明確な判断を行うことができ、的確に判定処理を行わせる対象を選択することができる。
【0139】
次に、本発明の第2実施形態を説明する。第2実施形態に係る運転者状態検出装置2は、第1実施形態のものと同様であるが、車両走行状態検出装置(車両走行状態検出手段)50を備える点で、第1実施形態のものと異なっている。また、運転者状態判定装置30内に、安全確認判定部(安全確認判定手段)35を更に備える点で、第1実施形態のものと異なっている。
【0140】
以下、第2実施形態に係る運転者状態検出装置2について説明する。図14は、本発明の第2実施形態に係る運転者状態検出装置の構成図である。同図に示すように、第2実施形態に係る運転者状態検出装置2は、安全確認を行うべき場所を特定して、安全確認を必要とする状況で運転者が安全確認を施行しなかった場合に、運転者に注意喚起する機能を更に備えたものである。
【0141】
車両走行状態検出装置50は、車速や、ブレーキスイッチのオン/オフ情報、アクセルスイッチのオン/オフ情報、操舵角、シフトレンジ情報等の車両に関する状態を1つ以上検出するものである。
【0142】
また、車両走行状態検出装置50は、車両周囲等の環境情報についても検出する構成とされている。例えば、車両走行状態検出装置50は、ナビゲーションシステムによって位置情報を取得し、走行中の道路の種別や交差点の有無等を検出する構成とされている。また、カメラ装置等によって車両周辺の道路や先行車両の情報等を検出する構成とされていてもよい。さらに、車両走行状態検出装置50は、気象情報や、天候、照度計による外の明るさや昼夜の区別等の情報を得るものであってもよい。
【0143】
また、車両走行状態検出装置50は、上記目的とする情報を取得すると、その情報から車両信号を生成して運転者状態判定装置30に送信する構成とされている。ここで、車両走行状態検出装置50は、運転者状態判定装置30において運転者が安全確認を行うべき場所を特定するために、上記情報を取得している。
【0144】
例えば、上記ナビゲーションシステムの位置情報を取得すると、安全確認を行うべき場所として、見通しの悪い交差点や信号のない交差点等を特定することができる。また、車速が設定速度以下であるという情報を取得すると、大きく左右に顔を動かした後に交差点内に進入すべきであるとの判断ができ、安全確認を行うべき場所を特定できることとなる。
【0145】
また、左のウィンカーの点灯中を示す情報を取得した場合、大きく顔を左に動かすという左の巻き込み確認を行うべきとの判断ができ、安全確認を行うべき場所を特定できることとなる。
【0146】
次に、本装置2の詳細構成、特に運転者状態判定装置30を図15を参照して説明する。図15は、本発明の第2実施形態に係る運転者状態検出装置2の詳細構成図である。
【0147】
同図に示すように、運転者状態判定装置30には、安全確認判定部35が設けられている。この安全確認判定部35は、車両走行状態検出装置50に接続され出力され、車両信号を入力する構成とされている。
【0148】
車速信号は上記した情報の少なくとも1つであり、走行状態を示すものである。安全確認判定部35は、この車速信号から走行状態を読み取り、その内容が安全確認を行うべき場所であると判断した場合、安全確認の施行を判定する構成とされている。
【0149】
また、安全確認判定部35は、処理選択部22を介して撮影部10に接続されている。このため、安全確認判定部35は、撮影部からの顔画像データに基づいて、運転者による安全運転の施行を判定することとなる。
【0150】
より具体的に説明すると、安全確認判定部35は、眼位置検出機能(眼位置検出手段)と、追跡機能(追跡手段)と、視方向判定機能(視方向判定手段)とを有している。これら機能は、脇見運転判定部32のものと同じである。
【0151】
そして、脇見運転判定部32は、これら機能に基づいて脇見運転を判定する。すなわち、安全確認判定部35は、判定された眼の視方向に基づいて、運転者の安全確認の有無を判定することとなる。
【0152】
次に、本装置2の詳細な動作の一例を説明する。図16〜図18は、本実施形態に係る運転者状態検出装置1の詳細な動作の一例を示すフローチャートである。なお、図16〜図18において、各判定部31〜33,35は、眼の座標データに基づいて各運転者状態を判定するものとする。故に各判定部31〜33,35は、画像処理部21の計算結果によらず判定を行うこととなる。
【0153】
まず、図16に示すステップST50〜ST56は、図7に示すステップST10〜ST16と同様であるため、説明を省略する。ステップST57において、車両走行状態検出処理が実行される。
【0154】
この処理では、まず、車両走行状態検出装置50がナビゲーションシステムによる位置情報等を取得する。そして、車両走行状態検出装置50は、この位置情報等を安全確認判定部35に出力する。その後、安全確認判定部35は、位置情報等の走行状態に基づいて、安全確認すべき場所であるかを特定する(ST57)。
【0155】
そして、安全確認判定部35は、安全確認を判定した結果、撮影部10からの顔画像に基づいて安全確認の施行を判定する(ST58)。ここで、運転者が安全確認をしていないと判定した場合(ST58:NO)、安全確認判定部35は、安全確認の履行を示す安全確認施行フラグを「OFF」とする(ST60)。そして、処理はステップST61に移行する。
【0156】
一方、運転者が安全確認をしたと判定した場合(ST58:YES)、安全確認判定部35は、安全確認の履行を示す安全確認施行フラグを「ON」とし、安全確認が為されたことをフラグにより示す(ST60)。
【0157】
その後、処理選択部22は、動きベクトルの出現頻度が所定値未満か否かを判断する(ST61)。なお、ステップST61の処理が実行されるまでに、ステップST62,ST63の処理が並行して実行されている。この処理は、図7に示したステップST18,ST19と同様である。すなわち、画像処理部21により、所定値以上の大きさを示す動きベクトルについての出現頻度がメモリされる。
【0158】
このため、処理選択部22は、メモリされた情報に基づいて、動きベクトルの出現頻度が所定値未満か否かを判断することができる。ここで、動きベクトルの出現頻度が所定値未満であると判断した場合(ST61:YES)、処理は図17に示すステップST64に移行する。一方、動きベクトルの出現頻度が所定値未満でないと判断した場合(ST17:NO)、図18に示すステップST72に移行する。
【0159】
次に、図17について説明する。出現頻度が所定値未満であると判断した場合、報知部34は、安全確認施行フラグが「ON」か否かを判断する(ST64)。ここで、安全確認施行フラグが「ON」であると判断した場合(ST64:YES)、処理はステップST66に移行する。
【0160】
一方、安全確認施行フラグが「ON」でないと判断した場合(ST64:NO)、報知部34は、安全確認の施行を促すべく報知器40に報知信号を出力する。そして、報知器40は、安全確認の施行を促す注意喚起を行う(ST65)。
【0161】
その後、漫然運転判定部31は、追跡されている眼の位置に基づき漫然運転検出処理を実行する(ST67)。ステップST67〜ST71の処理は、図7に示すステップST20〜ST25と同様であるため省略する。
【0162】
次に、図17について説明する。出現頻度が所定値未満でないと判断した場合、脇見運転判定部32は、追跡されている眼の位置に基づき脇見検出処理を実行する(ST72)。この処理では、図7に示したステップST27と同様に、眼の視方向が判定される。
【0163】
その後、脇見運転判定部32は、判定された眼の視方向に基づいて、運転者が脇見運転をしているか否かを判断する(ST73)。脇見運転をしていないと判断した場合(ST73:NO)、処理はステップST50に戻る。一方、脇見運転をしていると判断した場合(ST73:YES)、報知部34は、安全確認施行フラグが「OFF」であるか否かを判断する(ST74)。
【0164】
安全確認施行フラグが「OFF」でないと判断した場合(ST74:NO)、すなわち、安全確認を履行した場合、処理はステップST50に戻る。ここで、処理をステップST50に戻す理由は、以下の通りである。つまり、眼の視方向から脇見と判断できる場合であっても、実際は脇見でなく安全確認である可能性もある。このため、安全確認施行フラグが安全確認の履行を示す場合には、誤った注意喚起しないように、処理をステップST50に戻すこととしている。
【0165】
一方、安全確認施行フラグが「OFF」であると判断した場合(ST74:YES)、すなわち、安全確認が為されていない場合、報知部34は、運転者の脇見運転に関して注意喚起をすべく、報知信号を出力する。これにより、報知器40は運転者に報知することとなる(ST75)。なお、ここでの報知は、図7のステップST25と同様に、運転者に脇見行為を気づかせる程度のものである。そして、報知終了後、処理はステップST50に戻る。
【0166】
以上のようにして、本装置2では、車両走行状態に基づいて、安全確認の施行の有無を判定し、注意喚起を行うようにしている。なお、図16〜図18に示したフローチャートでは、各判定部31〜33,35は、眼の座標データに基づいて各運転者状態を判定することとしている。しかし、これに限らず、第1実施形態と同様に、オプティカルフローに基づいて判定処理を行うようにしてもよい。
【0167】
また、以下の変形例1、変形例2及び変形例3のようにしてもよい。すなわち、上記では、車両走行状態検出装置50は安全確認判定部35に車両信号を送信するようにしているが、車両走行状態検出装置50は処理選択部22に車両信号を送信するようにしてもよい。そして、処理選択部22が車両信号に基づいて、安全運転確認をするか否かを判断し、安全運転確認をする場合には、安全確認判定部35を、判定処理を行わせる対象として選択するようにしてもよい(変形例1)。
【0168】
上記した図16〜図18では、安全確認判定部35による判定処理は、必ず実行されるようにされていた。しかし、変形例1のように処理選択部22によって選択させることにより、必要のない場合に安全確認判定部35による判定処理を実行させないようにすることができる。従って、不要な演算を行わなくともよいようにすることができる。
【0169】
また、所定値以上の大きさを有する動きベクトルの出現頻度が、所定値以下である場合には、運転者は顔をあまり動かしておらず、安全確認は行われていないことが推測できる。このため、画像処理部21による計算結果に基づいて、安全確認の判定処理を行うか否かを決定することもできる。この場合であっても、処理選択部22によって、安全確認判定部35を、判定処理を行わせる対象として選択するか否かが決定されることとなる(変形例2)。
【0170】
また、上記変形例1及び変形例2を組み合わせてもよい。すなわち、処理選択部22は、車両走行状態検出装置50と画像処理部21との双方からの情報によって、安全確認判定部35を、判定処理を行わせる対象として選択するか否かが決定するようにしてもよい(変形例3)。
【0171】
このようにして、本実施形態に係る運転者状態検出装置2では、第1実施形態と同様に、顔の動きに基づいて検出すべき対象を適切に選択できることとなり、一定の走行状況が継続するような場合であっても、複数の対象を検出することができる。
【0172】
また、第1実施形態と同様に、同時的に各状態を検出することができ、大きさや値に基づく処理を行うことで、明確な判断を行うことができ、的確に判定処理を行わせる対象を選択することができる。
【0173】
さらに、本実施形態の変形例2,3によれば、画像処理部21の計算結果から、処理選択部22によりすべての判定部31〜34のうちいずれかを選択することとなり、安全確認の有無を判定できる上に、処理の簡素化を図ることができる。
【0174】
次に、本発明の第3実施形態を説明する。第3実施形態に係る運転者状態検出装置3は、第2実施形態のものと同様であるが、各判定部31〜33,35の構成が第1実施形態のものと異なっている。
【0175】
第3実施形態の各判定部31〜33,35は、眼の座標値等に基づいて各運転者状態を判定すると共に、オプティカルフローに基づいて各運転状態を判定するものである。すなわち、第1及び第2実施形態の各判定部31〜33,35は、眼の座標値等及びオプティカルフローのいずれか一方に基づく構成であったが、第3実施形態の各判定部31〜33,35は双方に基づいて判定処理を実行するものである。
【0176】
以下、第3実施形態に係る運転者状態検出装置3について説明する。図19は、本発明の第3実施形態に係る運転者状態検出装置3の詳細構成図である。同図に示すように、運転者状態判定装置30には、各判定部31〜33,35にはそれぞれ2つの判断部が設けられている。詳しくは、漫然運転判定部31には、滞留判断部31aと、オプティカルフロー判断部31bとが設けられており、脇見運転判定部32には、視方向判断部32aと、オプティカルフロー判断部32bとが設けられている。
【0177】
また、居眠り運転判定部33には、開閉眼判断部33aと、オプティカルフロー判断部33bとが設けられており、安全確認判定部35には、視方向判断部35aと、オプティカルフロー判断部35bとが設けられている。
【0178】
滞留判断部31aは、第1実施形態で説明した眼位置検出機能、追跡機能及び滞留判定機能を有し、各機能を経て、眼が滞留状態にあると判定された場合、その滞留状態が継続する時間に基づいて、運転者の漫然運転を判定するものである。
【0179】
視方向判断部32aは、第1実施形態で説明した眼位置検出機能、追跡機能及び視方向判定機能を有し、各機能を経て、眼の視方向を判定して、運転者が脇見運転をしているか否かを判定するものである。
【0180】
開閉眼判断部33aは、第1実施形態で説明した眼位置検出機能、追跡機能及び開閉眼判定機能を有し、各機能を経て、眼の開閉眼状態の情報を取得し、この開閉眼状態に基づいて、運転者の居眠り運転を判定するものである。
【0181】
安全確認判定部35の視方向判断部35aは、第2実施形態で説明した眼位置検出機能、追跡機能及び視方向判定機能を有し、各機能を経て、眼の視方向を判定して、運転者が脇見運転をしているか否かを判定するものである。
【0182】
また、各判定部31〜33,35が有するオプティカルフロー判断部31b〜33b,35bは、画像処理部21による計算結果に基づいて、各運転者状態を判定するものである。この計算結果とは、オプティカルフロー又は動きベクトルを意味するものである。
【0183】
このように、上記各判定部31〜33,35は、2手法の判断を行うことが可能とされているため、個別に処理が実行されることとなる。そして、2手法による判断結果に基づいて、各運転者状態が判定されることとなる。
【0184】
この場合、いずれか一方の判定結果についてアンド処理を行うか、オア処理を行うかは、適宜設定可能である。脇見運転判定部32のアンド処理について説明すると、視方向判断部32aとオプティカルフロー判断部32bとの双方により脇見運転と判断された場合に、脇見運転判定部32は、運転者が脇見運転をしていると判定する。また、オア処理については、視方向判断部32aとオプティカルフロー判断部32bとのいずれか一方により脇見運転と判断された場合に、脇見運転判定部32は、運転者が脇見運転をしていると判定する。
【0185】
また、アンド処理とオア処理とは、各判定部31〜33,35の判定対象によって、適宜好適な方を設定するようにしてもよい。図20は、追跡領域の一例を示す説明図であり、(a)は左眼が追跡限界に達しているときの様子を示し、(b)は右眼が追跡限界に達しているときの様子を示している。
【0186】
図20(a)に示すように、左眼に追跡領域が設定されている場合、運転者が更に顔を左に向けると左眼自体が撮影されなくなってしまう。そして、運転者が顔を更に左に向けたとすると、左眼の座標値等に基づいて運転者状態を判定することができず、アンド処理を行っている場合には、判定結果自体が不正確なものとなってしまう。このため、顔を大きく動かす可能性のある脇見判定及び安全確認判定は、アンド処理とせずオア処理とすることが望ましくなる。また、図20(b)に示すように、右眼に追跡領域が設定されている場合であっても同様である。
【0187】
さらに、追跡限界に達する場合でなくとも、運転者は、安全確認を行う際に、顔を速く動かし易い傾向がある。特に車両の運転中では、運転者は素早く安全確認動作を行うことから、顔を一層速く動かす傾向がある。しかし、運転者が顔を速く動かした場合、追跡精度の限界を超え、眼を追跡しきれなくなる可能性がある。このため、安全確認判定については、オア処理とすることが一層望ましいといえる。
【0188】
図21は、安全確認判定部35のオプティカルフロー判断部32bによる処理内容を示す説明図である。上記のように、脇見判定及び安全確認判定は、眼を追跡して座標値等により、脇見及び安全確認を判定することが困難な場合がある。そこで、図21に示すようなオプティカルフローによる顔の移動量による向き判定を統合すれば、例えば眼の追跡に失敗しても、運転者状態検出を続けることができる。
【0189】
図21では、運転者の顔について左右の移動量と予め設定した閾値とを比較することにより、運転者がどの方向に顔を向けているか判断している。そして、現時点から所定時間だけ過去に遡って顔の向きをとらえて安全確認の有無を正確に判定している。
【0190】
すなわち、現時点のみの顔の向きとしては、左、右、正面のいずれかしか得ることはできない。しかし、過去に遡って顔の向きの情報を取得することで、左右の安全確認を行うべき場所においても、正確に左右の安全確認が為されたか否かを判定できるようにされている。
【0191】
なお、脇見運転の判定において眼の移動量の小さい場合には、アンド処理とすることも可能である。また、漫然運転及び居眠り運転の判定については、アンド処理とすることで、顔の移動量が少ないことを検出し、判定結果に対する信頼度を向上させることができる。
【0192】
上記のごとく、第3実施形態では、2手法による処理を行うことで、判定精度の向上を図ると共に、運転者の顔のあらゆる動きに対して適応するようにさせることができる。
【0193】
なお、第3実施形態では、第2実施形態の変形例1及び変形例3と同様の変更を採用することも可能である。
【0194】
このようにして、本実施形態に係る運転者状態検出装置3では、第2実施形態と同様に、顔の動きに基づいて検出すべき対象を適切に選択できることとなり、一定の走行状況が継続するような場合であっても、複数の対象を検出することができる。
【0195】
また、第2実施形態と同様に、同時的に各状態を検出することができ、大きさや値に基づく処理を行うことで、明確な判断を行うことができ、的確に判定処理を行わせる対象を選択することができる。
【0196】
また、第2実施形態の変形例1及び変形例3と同様に、安全確認の有無を判定できる上に、処理の簡素化を図ることができる。
【0197】
さらに、本実施形態に係る運転者状態検出装置3では、撮影された顔の画像全体から、運転者の眼の位置を検出し、検出された顔画像上の眼の位置を基準として、運転者の眼を含む所定領域を画像上に設定する。その後、この所定領域内から眼を追跡していき、追跡される所定領域内の眼の位置を座標値として取得し、この座標値から目の移動量を求めて眼が滞留状態にあるか否かを判定する。そして、画像処理部21による計算結果に加え、この滞留状態が継続する時間に基づいて、運転者の漫然運転を判定している。このため、2手法により漫然運転の判定を行っていることにより、更に精度の高い漫然運転の判定を行うことができる。また、特に漫然運転については、2手法のアンド処理を行うことで、好適に精度の良く漫然運転の判定を行うことができる。
【0198】
また、同様に、居眠り運転の判定についても更に精度の高めることができると共に、2手法のアンド処理を行うことで、好適に精度の良く居眠り運転の判定を行うことができる。
【0199】
また、同様に、脇見運転の判定についても更に精度の高めることができる。また、脇見運転の判定については、2手法のオア処理を行うことで、一層精度の良く判定を行うことができる。
【0200】
また、同様に、安全確認の判定についても更に精度の高めることができる。また、安全確認の判定については、2手法のオア処理を行うことで、一層精度の良く判定を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る運転者状態検出装置の構成図である。
【図2】本発明の第1実施形態に係る運転者状態検出装置1の詳細構成図である。
【図3】参照領域及び探索領域の説明図である。
【図4】顔画像に規則的に配置される参照領域の説明図であり、(a)は顔画像上の横方向に複数(例えば7つ)配置される例を示し、(b)は顔画像上に格子状に複数(例えば5行7列)配置される例を示し、(c)は横方向に且つ格子状に複数(例えば3行5列に加え、さらに横方向に2つの計17)配置される例を示している。
【図5】領域グループの説明図である。
【図6】本実施形態に係る運転者状態検出装置1の各判定部31〜33が画像処理部21による計算結果に基づいて運転者の脇見運転等を判定する場合の動作の概略を示すデータフローダイヤグラムである。
【図7】本実施形態に係る運転者状態検出装置1の詳細な動作の一例を示すフローチャートである。
【図8】図7に示したオプティカルフローによる動きベクトル算出処理(ステップST18)の詳細なフローチャートである。
【図9】図8に示すステップST31における移動量(xd,yd)の算出方法の説明図である。
【図10】運転者が左方向に顔の向きを変える場合のオプティカルフローの例を示す説明図であり、(a)は時刻tにおけるオプティカルフローの例を示し、(b)は時刻(t+1)におけるオプティカルフローの例を示し、(c)は時刻(t+2)におけるオプティカルフローの例を示し、(d)は時刻(t+3)におけるオプティカルフローの例を示している。
【図11】図7に示したオプティカルフローによる動きベクトル算出処理(ステップST18)の詳細なフローチャートである。
【図12】動きパターンを示す説明図である。
【図13】動きパターンに基づいて、運転者状態を判定する動作を示すフローチャートである。
【図14】本発明の第2実施形態に係る運転者状態検出装置の構成図である。
【図15】本発明の第2実施形態に係る運転者状態検出装置2の詳細構成図である。
【図16】本実施形態に係る運転者状態検出装置1の詳細な動作の一例を示すフローチャートであり、前半部分を示している。
【図17】本実施形態に係る運転者状態検出装置1の詳細な動作の一例を示すフローチャートであり、後半部分の一方の処理を示している。
【図18】本実施形態に係る運転者状態検出装置1の詳細な動作の一例を示すフローチャートであり、後半部分の他方の処理を示している。
【図19】本発明の第3実施形態に係る運転者状態検出装置3の詳細構成図である。
【図20】追跡領域の一例を示す説明図であり、(a)は左眼が追跡限界に達しているときの様子を示し、(b)は右眼が追跡限界に達しているときの様子を示している。
【図21】安全確認判定部35のオプティカルフロー判断部32bによる処理内容を示す説明図である。
【符号の説明】
1,2,3…運転者状態検出装置
10…撮影部(撮影手段)
21…画像処理部(画像処理手段)
22…処理選択部(処理選択手段)
31…漫然運転判定部(漫然運転判定手段)
31a…滞留判断部(眼位置検出手段、追跡手段、滞留判定手段)
32…脇見運転判定部(脇見運転判定手段)
32a…視方向判断部(眼位置検出手段、追跡手段、視方向判定手段)
33…居眠り運転判定部(居眠り判定手段)
33a…開閉眼判断部(眼位置検出手段、追跡手段、開閉眼判定手段)
34…報知部(報知手段)
35…安全確認判定部(安全確認判定手段)
35a…視方向判断部(眼位置検出手段、追跡手段、視方向判定手段)
50…車両走行状態検出装置(車両走行状態検出手段)
Claims (10)
- 運転者の顔を撮影する撮影手段と、
前記撮影手段により撮影された顔の画像から、運転者の漫然運転を判定する漫然運転判定手段と、
前記撮影手段により撮影された顔の画像から、運転者の脇見運転を判定する脇見運転判定手段と、
前記撮影手段により撮影された顔の画像から、運転者の居眠り運転を判定する居眠り運転判定手段と、
前記漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうちの少なくとも1つの判定結果に基づいて、前記運転者に報知するための報知信号を出力する報知手段と、
前記撮影手段により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する画像処理手段と、
前記画像処理手段の計算結果に応じて、前記漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうち少なくとも1つを、判定処理を行わせる対象として選択する処理選択手段と、
を備えた運転者状態検出装置であって、
前記画像処理手段は、オプティカルフローに基づいて動きベクトルを求め、
前記処理選択手段は、前記画像処理手段により求められた動きベクトルの大きさ、及び所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度が所定値未満の場合に、前記漫然運転判定手段及び前記居眠り運転判定手段の少なくとも一方を判定処理を行わせる対象として選択し、
前記所定時間内において所定値以上の大きさを示した動きベクトルの出現頻度が所定値以上の場合に、前記脇見運転判定手段を判定処理を行わせる対象として選択することを特徴とする運転者状態検出装置。 - 運転者の顔を撮影する撮影手段と、
前記撮影手段により撮影された顔の画像から、運転者の漫然運転を判定する漫然運転判定手段と、
前記撮影手段により撮影された顔の画像から、運転者の脇見運転を判定する脇見運転判定手段と、
前記撮影手段により撮影された顔の画像から、運転者の居眠り運転を判定する居眠り運転判定手段と、
前記漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうちの少なくとも1つの判定結果に基づいて、前記運転者に報知するための報知信号を出力する報知手段と、
前記撮影手段により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する画像処理手段と、
前記画像処理手段の計算結果に応じて、前記漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうち少なくとも1つを、判定処理を行わせる対象として選択する処理選択手段と、
を備えた運転者状態検出装置であって、
前記画像処理手段は、オプティカルフローに基づいて動きベクトルを求め、
前記処理選択手段は、前記画像処理手段により求められた動きベクトルの大きさ、及び所定時間あたりの当該動きベクトルの出現頻度に基づいて、当該動きベクトルが所定時間内に所定値以上出現しなくなったと判断した場合、前記漫然運転判定手段及び前記居眠り運転判定手段の少なくとも一方を、判定処理を行わせる対象として選択することを特徴とする運転者状態検出装置。 - 前記画像処理手段は、前記オプティカルフローに基づいて運転者の左右方向の顔の向きの時系列データである動きパターンを検出し、検出した動きパターンと予め記憶した複数の記憶パターンのそれぞれとの相関を求め、最も相関の高い記憶パター ンが示す運転者状態を、前記漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のいずれかの判定手段の判定結果とすることを特徴とする請求項1又は請求項2のいずれかに記載の運転者状態検出装置。
- 前記漫然運転判定手段は、
前記撮影手段により撮影された顔の画像全体から、運転者の眼の位置を検出する眼位置検出手段と、
前記眼位置検出手段により検出された顔画像上の眼の位置を基準として、運転者の眼を含む所定領域を画像上に設定し、この所定領域内から眼を追跡していく追跡手段と、
前記追跡手段により追跡される所定領域内の眼の位置を座標値として取得し、この座標値から眼の移動量を求め、この眼の移動量が所定の閾値を超えるか否かにより眼が滞留状態にあるか否かを判定する滞留判定手段と、を有し、
前記滞留判定手段により滞留状態にあると判定された場合、その滞留状態が継続する時間が所定時間以上となった場合に運転者の漫然運転を判定する
ことを特徴とする請求項3に記載の運転者状態検出装置。 - 前記脇見運転判定手段は、
前記撮影手段により撮影された顔の画像全体から、運転者の眼の位置を検出する眼位置検出手段と、
前記眼位置検出手段により検出された顔画像上の眼の位置を基準として、運転者の眼を含む所定領域を画像上に設定し、この所定領域内から眼を追跡していく追跡手段と、
前記追跡手段により追跡される所定領域内の眼の位置を座標値として取得し、この座標値から眼の移動方向を求めて運転者の眼の視方向を判定する視方向判定手段と、を有し、
前記視方向判定手段によって判定された眼の視方向が下側に向いている場合に、運転者の脇見運転を判定する
ことを特徴とする請求項3に記載の運転者状態検出装置。 - 前記居眠り運転判定手段は、
前記撮影手段により撮影された顔の画像全体から、運転者の眼の位置を検出する眼位置検出手段と、
前記眼位置検出手段により検出された顔画像上の眼の位置を基準として、運転者の眼を含む所定領域を画像上に設定し、この所定領域内から眼を追跡していく追跡手段と、
前記追跡手段により追跡される所定領域内の眼についての開閉眼状態を判定する開閉眼判定手段と、を有し、
前記開閉眼判定手段は、眼の縦幅に基づいて閉眼状態を判定し、この閉眼状態の継続時間に基づいて、運転者の居眠り運転を判定する
ことを特徴とする請求項3に記載の運転者状態検出装置。 - 運転者が安全確認を行うべき場所を特定するために、車両の走行状態を検出する車両走行状態検出手段と、
前記車両走行状態検出手段が安全確認すべき場所を特定した場合、前記撮影手段により撮影された顔の画像から、運転者による安全確認の施行を判定する安全確認判定手段と、を更に備え、
前記報知手段は、前記安全確認判定手段、漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうちの少なくとも1つの判定結果に基づいて、前記運転者に報知するための報知信号を出力し、
前記処理選択手段は、前記画像処理手段の計算結果に応じて、前記安全確認判定手段、漫然運転判定手段、前記脇見運転判定手段、及び前記居眠り運転判定手段のうちの少なくとも1つを、判定処理を行わせる対象として選択する
ことを特徴とする請求項1ないし請求項6の何れかに記載の運転者状態検出装置。 - 前記安全確認判定手段は、
前記撮影手段により撮影された顔の画像全体から、運転者の眼の位置を検出する眼位置検出手段と、
前記眼位置検出手段により検出された顔画像上の眼の位置を基準として、運転者の眼を 含む所定領域を画像上に設定し、この所定領域内から眼を追跡していく追跡手段と、
前記追跡手段により検出された眼の位置を座標値として取得し、この座標値から眼の移動方向を求めて運転者の眼の視方向を判定する視方向判定手段と、を有し、
前記視方向判定手段によって判定された眼の視方向が安全確認すべき方向へ向けられた場合に、運転者による安全確認の施行を判定する
ことを特徴とする請求項7に記載の運転者状態検出装置。 - 運転者の顔を撮影して得られた2枚以上の顔の画像から、画像間のオプティカルフローを計算し、このオプティカルフローに基づいて動きベクトルを算出し、所定値以上の大きさを示す動きベクトルの出現頻度が所定値未満である場合に、運転者の漫然運転状態及び居眠り運転状態のうち少なくとも1つを選択し、所定値以上の大きさを示す動きベクトルの出現頻度が所定値以上である場合に、運転者の脇見運転状態を選択し、選択された運転者状態を、撮影により得られた顔の画像に基づいて判定し、得られた判定結果に基づいて運転者に報知するための報知信号を出力することを特徴とする運転者状態検出装置。
- 前記運転者状態は、撮影により得られた顔の画像の眼の位置を追跡し、追跡された眼の移動量又は追跡された眼の開閉眼状態に基づいて、判定されることを特徴とする請求項9に記載の運転者状態検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185943A JP4123077B2 (ja) | 2003-06-27 | 2003-06-27 | 運転者状態検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185943A JP4123077B2 (ja) | 2003-06-27 | 2003-06-27 | 運転者状態検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005018656A JP2005018656A (ja) | 2005-01-20 |
JP4123077B2 true JP4123077B2 (ja) | 2008-07-23 |
Family
ID=34185207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003185943A Expired - Fee Related JP4123077B2 (ja) | 2003-06-27 | 2003-06-27 | 運転者状態検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4123077B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7403124B2 (en) * | 2005-05-10 | 2008-07-22 | Fuji Jukogyo Kabushiki Kaisha | Driving support equipment for vehicles |
JP2008186075A (ja) * | 2007-01-26 | 2008-08-14 | Advanced Telecommunication Research Institute International | インタラクティブ画像表示装置 |
JP4946672B2 (ja) * | 2007-07-04 | 2012-06-06 | オムロン株式会社 | 脇見検出装置および方法、並びに、プログラム |
JP5118590B2 (ja) * | 2008-09-16 | 2013-01-16 | キヤノン株式会社 | 被写体追尾方法及び撮像装置 |
JP5321303B2 (ja) * | 2009-07-10 | 2013-10-23 | 株式会社豊田中央研究所 | 居眠り判定装置及びプログラム並びに警報出力装置及びプログラム |
CN104537806A (zh) * | 2014-11-11 | 2015-04-22 | 奇瑞汽车股份有限公司 | 一种基于摄像头的疲劳驾驶实时检测系统 |
KR101692532B1 (ko) * | 2015-04-30 | 2017-01-18 | 주식회사 엔알피시스템 | 졸음운전 검출장치 및 방법 |
CN106651910A (zh) * | 2016-11-17 | 2017-05-10 | 北京蓝天多维科技有限公司 | 驾驶员异常行为状态的智能图像分析方法和告警系统 |
JP2019091267A (ja) * | 2017-11-15 | 2019-06-13 | オムロン株式会社 | 脇見判定装置、脇見判定方法、およびプログラム |
JP7460362B2 (ja) | 2019-12-19 | 2024-04-02 | 矢崎エナジーシステム株式会社 | ドライバー状態推定装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3272466B2 (ja) * | 1993-04-02 | 2002-04-08 | 三菱電機株式会社 | 動画像解析装置 |
JP3293308B2 (ja) * | 1994-03-10 | 2002-06-17 | 三菱電機株式会社 | 人物状態検出装置 |
JP3119076B2 (ja) * | 1994-06-02 | 2000-12-18 | 日産自動車株式会社 | 車両用警報表示装置 |
JPH11276461A (ja) * | 1998-03-27 | 1999-10-12 | Suzuki Motor Corp | 注意力測定装置及びこれを用いた情報提示装置 |
JP3531503B2 (ja) * | 1998-11-02 | 2004-05-31 | 日産自動車株式会社 | 眼の状態検出装置及び居眠り運転警報装置 |
JP3716647B2 (ja) * | 1998-11-11 | 2005-11-16 | 日産自動車株式会社 | 自動車用の安全促進装置 |
JP3508624B2 (ja) * | 1999-05-21 | 2004-03-22 | 日産自動車株式会社 | 予防安全装置 |
JP2001199296A (ja) * | 2000-01-17 | 2001-07-24 | Matsushita Electric Ind Co Ltd | 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体 |
JP2002150291A (ja) * | 2000-11-06 | 2002-05-24 | Nagoya Industrial Science Research Inst | 動点軌跡計測方法及び動点軌跡計測装置、画像処理方法及び画像処理装置並びに動点軌跡計測プログラムを記録したコンピュータ読み取り可能な記録媒体及び動点軌跡計測プログラム |
JP2003080969A (ja) * | 2001-09-11 | 2003-03-19 | Nissan Motor Co Ltd | 運転者状態検出装置 |
-
2003
- 2003-06-27 JP JP2003185943A patent/JP4123077B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005018656A (ja) | 2005-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8063786B2 (en) | Method of detecting drowsiness of a vehicle operator | |
JP5421072B2 (ja) | 接近物体検知システム | |
JP5616531B2 (ja) | 車両周辺監視装置 | |
JP6350145B2 (ja) | 顔向き検出装置及び車両用警告システム | |
US6360170B1 (en) | Rear monitoring system | |
JP2937030B2 (ja) | 画像処理装置及び人物状態判定装置 | |
JP4692344B2 (ja) | 画像認識装置 | |
JP5774770B2 (ja) | 車両周辺監視装置 | |
JP4123077B2 (ja) | 運転者状態検出装置 | |
EP3483832B1 (en) | Image processing device | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
JP2002240659A (ja) | 車両周囲の状況を判断する装置 | |
JP2005309797A (ja) | 歩行者警報装置 | |
JP4325271B2 (ja) | 状態検出装置及び状態検出システム | |
JP4864953B2 (ja) | 車両周辺監視装置 | |
JP2005018655A (ja) | 運転者行動推定装置 | |
JP4281405B2 (ja) | 確認動作検出装置及び警報システム | |
JP3508624B2 (ja) | 予防安全装置 | |
JP4305057B2 (ja) | 脇見検出装置 | |
JP4123076B2 (ja) | 運転者状態検出装置 | |
KR100383538B1 (ko) | 차선이탈 경보 방법 및 시스템 | |
JP4111080B2 (ja) | 脇見状態検出装置 | |
JP2004192345A (ja) | 運転者状態検出装置 | |
JP5383246B2 (ja) | 車両の周辺監視装置 | |
JP2004130940A (ja) | 視線方向検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080421 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110516 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130516 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140516 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |