JP2004334784A - 確認動作検出装置及び警報システム - Google Patents

確認動作検出装置及び警報システム Download PDF

Info

Publication number
JP2004334784A
JP2004334784A JP2003133452A JP2003133452A JP2004334784A JP 2004334784 A JP2004334784 A JP 2004334784A JP 2003133452 A JP2003133452 A JP 2003133452A JP 2003133452 A JP2003133452 A JP 2003133452A JP 2004334784 A JP2004334784 A JP 2004334784A
Authority
JP
Japan
Prior art keywords
face
confirmation operation
driver
confirmation
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003133452A
Other languages
English (en)
Other versions
JP4281405B2 (ja
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Kinya Iwamoto
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003133452A priority Critical patent/JP4281405B2/ja
Publication of JP2004334784A publication Critical patent/JP2004334784A/ja
Application granted granted Critical
Publication of JP4281405B2 publication Critical patent/JP4281405B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】運転者による確認動作の検出精度を向上させることが可能な確認動作検出装置を提供する。
【解決手段】画像取得部11は、運転者の顔を撮像して撮像画像を取得する。画像処理部12aは、時系列的に撮像して取得された撮像画像に基づき、撮像画像間のオプティカルフローを求める。顔動作検出部12bは、求められたオプティカルフローから運転者の顔の動きを検出する。確認動作判定部12cは、検出された運転者の顔の動作パターンに基づいて、運転者による確認動作の可否を判定する。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、確認動作検出装置及び警報システムに関する。
【0002】
【従来の技術】
従来、走行中に運転者の視線方向が前方に滞留しがちであること検出して、運転者の注意力が低下したか否かを判断し、低下時には運転者にその旨を報知する報知装置が知られている(例えば特許文献1参照)。
【0003】
また、走行環境に基づいて運転者が確認すべき領域を予測し、運転者の視線領域を検出して、この領域を運転者が見たかどうかを判定する確認装置が知られている(例えば特許文献2参照)。
【0004】
これら装置では、撮像手段にて運転者の顔を撮像し、得られた画像中から運転者の目や鼻などの特定の顔部位を検出し、この顔部位を追跡することで運転者の視線方向や顔の向き方向を検出している。
【0005】
【特許文献1】
特開平8−178712号公報
【0006】
【特許文献2】
特開2002−83400号公報
【0007】
【発明が解決しようとする課題】
ところで、運転者は、確認動作時に顔を速く且つ大きく動かすことがある。特に車両の運転中では、運転者は素早く確認動作を行うことから、顔を速く且つ大きく動かしやすい傾向がある。しかし、上記装置では、運転者が顔を速く且つ大きく動かした場合、追跡精度の限界を超え、顔の特定部位を追跡しきれずに、顔の向きを検出できなくなってしまう可能性がある。
【0008】
このように、従来の装置では、確認動作の際に運転者が顔を速く且つ大きく動かした場合に、運転者の確認動作を検出することが困難な状況にある。
【0009】
【課題を解決するための手段】
本発明によれば、撮像手段は、運転者の頭部を撮像して撮像画像を取得し、画像処理手段は、撮像手段により時系列的に撮像して取得された撮像画像に基づき、撮像画像間のオプティカルフローを求め、顔動作検出手段は、画像処理手段により求められたオプティカルフローから運転者の顔の動きを検出し、確認動作判定手段は、顔動作検出手段により検出された運転者の顔の動きのパターンに基づいて、運転者による確認動作の可否を判定する。
【0010】
【発明の効果】
本発明によれば、撮像画像間のオプティカルフローを求めて運転者の顔の動作を検出するため、顔の動きが速く且つ大きいような場合であっても、顔の動きの検出に与える影響を小さくすることができる。従って、運転者による確認動作の検出精度を向上させることができる。
【0011】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。なお、以下の実施形態においては、警報システム1を車両に搭載した場合を例に説明する。また、以下の説明において、移動量とは移動速度と移動方向とを含むものとする。
【0012】
図1は、本発明の第1実施形態に係る確認動作検出装置10を含む警報システム1の構成を示すブロック図である。同図に示すように、警報システム1は、運転者が確認動作を行ったか否かを判定し、確認動作を行っていないと判定した場合に、報知信号Saを出力する確認動作検出装置10を備えている。また、警報システム1は、確認動作検出装置10からの報知信号Saを受信して、確認動作の不履行の旨を運転者に報知する報知装置20を備えている。
【0013】
上記確認動作検出装置10は、運転者の顔を時系列的に撮像して撮像画像を取得する画像取得部(撮像手段)11と、撮像画像に基づいて、運転者の確認動作の可否を判定する確認動作検出部12とを備えている。
【0014】
画像取得部11は、可視光を撮像するためのCCDカメラやCMOSカメラ、近赤外光にて撮像するカメラ、及び人等の発する熱を遠赤外にて撮像するカメラ等の少なくとも1つからなる撮像装置である。この画像取得部11は、例えば運転者の正面下方に設置され、運転者の頭部を含む画像を時系列的に撮像し、得られた撮像画像のデータをビデオ信号Sbとして確認動作検出部12に送出する。そして、確認動作検出部12は、画像取得部11からのビデオ信号Sbを、横幅160画素、縦幅120画素、1画素あたり256階調の濃淡データを示すディジタルデータに変換して記憶領域に格納する。
【0015】
ここで、画像取得部11は、運転者の正面下方に設置されているが、運転者の頭部を含む画像が撮像できればよく、設置位置は特に運転者の正面下方に限られない。
【0016】
確認動作検出部12の詳細を図2に示す。図2は、図1に示した確認動作検出部12の詳細構成を示すブロック図である。なお、この図においては、確認動作検出部12の他に、画像取得部11を図示している。
【0017】
確認動作検出部12は、画像処理部(画像処理手段)12a、顔動作検出部(顔動作検出手段)12b、確認動作判定部(確認動作判定手段)12c、及び報知信号出力部(報知信号出力手段)12dとを具備している。
【0018】
画像処理部12aは、画像取得部11からの撮像画像のデータであるビデオ信号Sbを入力し、撮像画像間のオプティカルフローを求めるものである。そして、画像処理部12aは、求めたオプティカルフローのデータを顔動作検出部12bに送出する。
【0019】
顔動作検出部12bは、画像処理部12aにより求められたオプティカルフローから運転者の顔の動きを検出するものである。そして、顔動作検出部12bは、顔動作のデータを確認動作判定部12cに送出する。
【0020】
確認動作判定部12cは、顔動作検出部12bに求められた顔動作から空間的、時間経過的に顔の動きのパターンを検出するものである。また、確認動作判定部12cは、顔動作検出部12bにより検出された運転者の顔の動きのパターンに基づいて、運転者による確認動作の可否を判定するものである。
【0021】
具体的に確認動作判定部12cは、検出した顔動作のパターンに基づいて、顔の左右の向きの出現頻度を計算して確認動作を判定する。そして、確認動作判定部12cは、この判定結果を報知信号出力部12dへ送出する。
【0022】
報知信号出力部12dは、確認動作判定部12cにより運転者による確認動作がなかったと判定された場合に、その旨を運転者に報知するための報知信号Saを出力するものである。そして、報知信号Saが報知装置20に入力されると、報知装置20により報知動作が行われることとなる。
【0023】
このような、警報システム1にあっては、まず、画像取得部11が運転者の頭部を撮像して撮像画像を取得する。本実施形態においては、画像取得部11は、運転者の前方下方に設置されているため、運転者の顔を撮像して撮像画像を取得する。その後、画像取得部11は、時系列的に得られた撮像画像のデータをビデオ信号Sbとして、確認動作検出部12に送出する。
【0024】
そして、確認動作検出部12の画像処理部12aは、ビデオ信号Sbを入力してディジタルデータとして記憶する。記憶後、画像処理部12aは、記憶したデータに基づいて、撮像画像間のオプティカルフローを求める。その後、画像処理部12aは、求めたオプティカルフローのデータを顔動作検出部12bに送出する。
【0025】
顔動作検出部12bは、オプティカルフローのデータに基づいて、運転者の顔の動きを検出する。この後、確認動作判定部12cは、運転者の顔の動きに基づいて、顔の動きのパターンを算出する。この際、顔動作検出部12bは、例えば運転者が左右を向いた回数や左右を向いている時間等を考慮してパターンを算出する。
【0026】
算出後、確認動作判定部12cは、顔の動きのパターンを、所定の条件と比較等して、運転者が確認動作を行ったか否かを判定する。そして、確認動作判定部12cは、判定結果を報知信号出力部12dに出力する。
【0027】
報知信号出力部12dは、判定結果が確認動作無しを示すものである場合、報知信号Saを報知装置20に出力する。これにより、報知装置20は、運転者に対し報知動作を行う。
【0028】
次に、図3〜図12を参照して、本実施形態に係る確認動作検出装置10の動作を詳細に説明する。図3は、図2に示した画像処理部12aの動作を示すフローチャートである。
【0029】
まず、画像処理部12aは、画像取得部11により取得した撮像画像にスムージングフィルタを適応し、所定の式にて画素値を変換する(ST10)。ここで、スムージングフィルタは、以下に示す5行5列からなるフィルタである。
【0030】
【数1】
Figure 2004334784
所定の式は、以下に示すものである。
【0031】
【数2】
Figure 2004334784
なお、d(x,y)は、撮像画像内の任意位置の画素値であり、d’(x,y)は変換後の画素値である。
【0032】
その後、画像処理部12aは、顔の移動量に関する数値xm,ym,cを「0」に初期化する(ST11)。
【0033】
そして、画像処理部12aは、現在の撮像画像の探索領域内から、前回の撮像画像内の参照領域に最も類似する位置を求めて、移動量(xd,yd)を算出する(ST12)。具体的に、画像処理部12aは、まず、探索領域内から参照領域に最も類似する領域を求め、最も類似する領域の中心点を、参照領域に最も類似する位置とする。そして、画像処理部12aは、求められた最も類似する領域の中心点と、探索領域の中心点とから移動量(xd,yd)を算出する。
【0034】
ここで、上記領域について説明する。画像処理部12aは、撮像画像上に予め複数の参照領域を設定している。具体的に、画像処理部12aは、時刻tにおいて得られ且つフィルタをかけた後の撮像画像に対して少なくとも2つ以上の参照領域を設定する。
【0035】
図4は、撮像画像に設定される2つ以上の参照領域の説明図である。図4(a)に示すように、参照領域は、撮像画像上の横方向に複数(例えば7つ)配置される。また、図4(b)に示すように、参照領域は、撮像画像上に格子状に複数(例えば縦5つ、横7つの計35)配置される。さらには、図4(c)に示すように、参照領域は、横方向に且つ格子状に複数(例えば縦3つ、横5つの計15に加え、さらに横方向に2つの計17)配置されてもよい。
【0036】
なお、参照領域は、カメラの位置、カメラの画角、及び撮像画像中における顔の占める割合等から、目、鼻又は口等の顔の部位の大きさ程度に固定的に設定される。
【0037】
探索領域は、時刻tの撮像画像に設定した参照領域に基づいて、時刻tの後の時刻t+1において得られ且つフィルタをかけた撮像画像に対して、設定されるものである。この探索領域は、各参照領域を取り囲んで設定されるものであり、参照領域と同じ数だけ設定されるものである。
【0038】
図5を参照して上記参照領域及び探索領域についてさらに詳しく説明する。図5は、参照領域及び探索領域の説明図である。なお、参照領域は時刻tにおける撮像画像、探索領域は時刻t+1における撮像画像といったように、それぞれ異なる撮像画像に対して設定されるものであるが、図5においては、便宜上1画像上に表して説明する。
【0039】
同図に示すように、参照領域は、特定の点Oを中心として設定される幅tw画素,高さth画素の領域である。また、探索領域は、参照領域と同様に、点Oを中心として設定される幅sw画素,高さsh画素の領域である。これら両領域は中心を等しくし、sw>tw且つsh>swの関係となるように設定される。
【0040】
そして、画像処理部12aは、上記のような探索領域内から参照領域に最も類似する位置を求めて、移動量(xd,yd)を算出する。次に、移動量の算出を具体的に説明する。
【0041】
図6は、移動量(xd,yd)の算出方法の説明図である。画像処理部12aは、まず、候補領域を作成する。この候補領域は、参照領域と同じ大きさを有する領域である。
【0042】
そして、画像処理部12aは、探索領域内の所定箇所に候補領域を設定し、設定した候補領域と参照領域とを比較等して類似度を求める。次に、画像処理部12aは、候補領域を他の位置に動かし、動かした位置の候補領域と参照領域とを比較等して類似度を求める。
【0043】
その後、画像処理部12aは、候補領域に順次移動させていき、探索領域内での各箇所において参照領域との類似度を算出する。類似度は、例えば、濃淡データを基準に判断される。ここで、濃淡データを基準に類似度を算出する場合において、類似度をcosθとすると、類似度は以下の式にて表される。
【0044】
【数3】
Figure 2004334784
上式においては、参照領域の濃淡データをTとし、候補領域の濃淡データをSとしている。また、xdは、探索領域内のX座標値を示し、ydは、探索領域内のY座標値を示している。
【0045】
以上により、画像処理部12aは、類似度が最大となる位置Pを定め、点Pと点Oとの座標値の差を移動量(xd,yd)として得ることとなる。
【0046】
再度、図3を参照して説明する。移動量(xd,yd)の算出後、画像処理部12aは、類似度の範囲が閾値以上か否かを判断する(ST13)。
【0047】
ここでの判断を図7を参照して説明する。図7は、図3に示したステップST13の処理の説明図である。画像処理部12aは、候補領域によって探索領域内を走査していき、探索領域内の各箇所の類似度を算出する。そして、画像処理部12aは、得られた類似度の分散を求める。
【0048】
例えば、同図に示すように、変化量C1では分散値が小さく、分散の範囲が狭いと言える。一方、変化量C2では変化量C1よりも分散値が大きく、分散の範囲も大きいと言える。
【0049】
ここで、分散の範囲が狭い場合とは、探索領域内の各箇所において、同じような類似度が検出される場合である。例えば、参照領域が真っ白な画像である場合など、特徴が少ない場合には探索領域内のどの箇所と比較しても似たような類似度の結果が得られることとなる。そして、このような場合、それぞれ類似度の差が小さいことから、類似度が最大となる点Pの検出が不正確になりやすい。このため、図3のステップST13の処理では、所定の閾値と比較し、好適なものと不適なものとの選別するようにしている。
【0050】
再度、図3を参照して説明する。類似度の範囲が閾値以上でないと判断した場合(ST13:NO)、処理はステップST15に移行する。一方、類似度の範囲が閾値以上であると判断した場合(ST13:YES)、画像処理部12aは、移動量を積算する(ST14)。具体的に、画像処理部12aは、「xm」を「xm+xd」とし、「ym」を「ym+yd」とし、「c」を「c+1」とする。
【0051】
その後、画像処理部12aは、領域の数だけ上記のステップST12〜ST14を行ったか否かを判断する(ST15)。すなわち、画像処理部12aは、すべての参照領域について、探索領域内から類似する位置を特定したか否かを判断している。
【0052】
いずれかの参照領域について、探索領域内から類似する位置を特定していないと判断した場合(ST15:NO)、処理はステップST12に戻り、類似する位置を特定していない参照領域について、上記ステップST12〜ST14の処理を繰り返すこととなる。
【0053】
一方、すべての参照領域について、探索領域内から類似する位置を特定したと判断した場合(ST15:YES)、画像処理部12aは、「c」が「0」であるか否かを判断する(ST16)。
【0054】
「c」が「0」であると判断した場合(ST16:YES)、画像処理部12aは処理を終了する。一方、「c」が「0」でないと判断した場合(ST16:NO)、画像処理部12aは、積算した「xm」「ym」についての平均を求める(ST17)。すなわち、画像処理部12aは、「xm=xm/c」及び「ym=ym/c」を実行し、平均の移動量を求める。
【0055】
図8は、図3に示した画像処理部12aの平均の移動量を示す説明図であり。(a)は時刻tにおける撮像画像の例を示し、(b)は時刻t+1における撮像画像の例を示し、(c)は時刻t+2における撮像画像の例を示し、(d)は時刻t+3における撮像画像の例を示している。
【0056】
平均移動量は、各画像((a)を除く)の右下に矢印で示されている。この矢印の方向は顔の移動方向を示し、大きさは顔の動きの速さを示している。なお、画像中の四角で表示されている領域は、参照領域であり、各参照領域から伸びる線分は、各部位の移動量を示している。
【0057】
画像処理部12aは、上記のような平均移動量の算出後、このデータを顔動作検出部12bに送出し、その後処理は終了する。
【0058】
なお、オプティカルフロー(動きの検出)の計算方法は本実施形態の他に、八木信行監修, ”ディジタル映像処理”, 映像情報メディア学会編, pp.129−139, 2000, オーム社 などにて動画像から動きを検出する手法が複数紹介されていおり、それらを用いることもできる。
【0059】
図9は、図2に示した顔動作検出部12bの動作を示すフローチャートである。まず、顔動作検出部12bは、画像処理部12aにて求められた平均移動量について、移動平均値(ax,ay)を求める(ST20)。移動平均を求める範囲は、任意に定められており、例えば、図8(b)、(c)及び(d)に示した平均移動量(矢印の大きさに相当)の平均を求めるなどする。
【0060】
その後、顔動作検出部12bは、平均移動量の移動平均値(ax,ay)を積算する(ST21)。具体的に、顔動作検出部12bは、「sx」を「sx+ax」とし、「sy」を「sy+ay」とする。
【0061】
その後、顔動作検出部12bは、積算値(sx,sy)の移動平均値(cx,cy)を求める(ST22)。この移動平均を求める範囲についても任意に定められている。
【0062】
そして、顔動作検出部12bは、積算値(sx,sy)と積算値の移動平均(cx,cy)の差から移動位置(vx,vy)を得る(ST23)。具体的に、顔動作検出部12bは、「vx」を「sx−cx」とし、「vy」を「sy−cy」とする。
【0063】
その後、顔動作検出部12bは、積算値(sx,sy)が閾値以上であるか否かを判断する(ST24)。積算値(sx,sy)が閾値以上でないと判断した場合(ST24:NO)、顔動作検出部12bは、移動位置(vx,vy)のデータを確認動作判定部12cに送出し、処理は終了する。
【0064】
一方、積算値(sx,sy)が閾値以上であると判断した場合(ST24:YES)、顔動作検出部12bは、積算値(sx,sy)の標準偏差が閾値以下であるか否かを判断する(ST25)。積算値(sx,sy)の標準偏差が閾値以下でないと判断した場合(ST25:NO)、顔動作検出部12bは、移動位置(vx,vy)のデータを確認動作判定部12cに送出し、処理は終了する。
【0065】
一方、積算値(sx,sy)の標準偏差が閾値以下であると判断した場合(ST25:YES)、顔動作検出部12bは、平均移動量の移動平均値が閾値以下であるか否かを判断する(ST26)。平均移動量の移動平均値が閾値以下でないと判断した場合(ST26:NO)、顔動作検出部12bは、移動位置(vx,vy)のデータを確認動作判定部12cに送出し、処理は終了する。
【0066】
一方、平均移動量の移動平均値が閾値以下であると判断した場合(ST26:YES)、顔動作検出部12bは、積算値(sx,sy)を「0」に初期化する(ST27)。そして、顔動作検出部12bは、移動位置(vx,vy)のデータを確認動作判定部12cに送出し、処理は終了する。
【0067】
なお、上記ステップST25〜ST27の処理は、以下の理由で行っている。
【0068】
例えば、運転者がシートに着座した場合、運転者の顔は撮像範囲の中心に位置するとは限らない。このため、撮像範囲内において運転者の顔位置の左右の範囲が等しくならなかった場合、運転者が顔を左右に動かすことにより、左右の範囲の差に起因して誤差が発生し、これが積算値(sx,sy)として累積されてしまう。そして、徐々に誤差が積算値(sx,sy)として累積されてしまうと、顔の向きの検出に支障をきたしてしまう。
【0069】
そこで、上記ステップST25にて、積算値(sx,sy)が閾値以上か否かを判断し、閾値以上の場合に積算値(sx,sy)を「0」に初期化するようにしている。
【0070】
ただし、現に運転者が顔の向きを変えている段階で積算値(sx,sy)を「0」に初期化してしまうと、初期化することによって逆に顔の向きの検出に支障をきたしてしまう。そこで、ステップST26及びST27において、顔が動いていない状態であることを検出している。すなわち、積算値(sx,sy)の標準偏差が閾値以下であり、且つ平均移動量の移動平均値が閾値以下である場合に、積算値(sx,sy)を「0」に初期化するようにしている。
【0071】
ここで、上記顔動作検出部12bにより得られる移動位置(vx,vy)のデータ例を説明する。図10は、図2に示した顔動作検出部12bにより得られる移動位置(vx,vy)のデータ例の説明図である。
【0072】
なお、図10において、縦軸は移動位置を示しており、横軸は時刻を示している。また、図中実線は画像横方向(X方向)における移動位置を示しており、破線は画像縦方向(Y方向)における移動位置を示している。
【0073】
同図に示すように、まず、運転者は車両前方を注視している場合(時刻5760〜5940の期間)、移動位置は、X方向とY方向とが共に「0」付近となっている。
【0074】
次に、運転者が確認動作をして顔の向きを左右に数回変えた場合(時刻5940〜6350の期間)、X方向については、移動位置が「−80〜80」までの間で増減を繰り返している。一方、Y方向については、移動位置が「−24〜28」であり、X方向よりも小さい値であるが、時刻5760〜5940の期間に比べ、増減を繰り返しているといえる。
【0075】
その後、運転者が再度車両前方を注視すると(時刻6350〜6500の期間)、移動位置は、再度X方向とY方向とが共に「0」付近となる。
【0076】
このように、顔動作検出部12bにより得られる移動位置(vx,vy)は、運転者の顔の向きを表している。確認動作判定部12cは、運転者の顔の動きを表すこととなる移動位置(vx,vy)により、運転者が確認動作をしたか否かを判断する。
【0077】
次に、図2に示した確認動作判定部12cの動作を説明する。図11は、図2に示した確認動作判定部12cの動作を示すフローチャートである。なお、図11においては、画像横方向、すなわち左右方向の顔の動きを検出する動作について説明する。
【0078】
同図に示すように、確認動作判定部12cは、まず、左右方向確認フラグを初期化する(ST30)。その後、確認動作判定部12cは、顔の横方向の移動位置vxが設定最大値以上か否かを判断する(ST31)。
【0079】
顔の横方向の移動位置vxが設定最大値以上であると判断した場合(ST31:YES)、確認動作判定部12cは顔が左を向いている判定し(ST32)、処理はST36に移行する。
【0080】
一方、顔の横方向の移動位置vxが設定最大値以上でないと判断した場合(ST31:NO)、確認動作判定部12cは、移動位置vxが設定最小値以下であるか否かを判断する(ST33)。
【0081】
顔の横方向の移動位置vxが設定最小値以下であると判断した場合(ST33:YES)、確認動作判定部12cは顔が右を向いている判定し(ST34)、処理はST36に移行する。
【0082】
一方、顔の横方向の移動位置vxが設定最小値以下でないと判断した場合(ST33:NO)、確認動作判定部12cは顔が前方を向いている判定し(ST35)、処理はST36に移行する。
【0083】
ステップST36において、確認動作判定部12cは、顔の向きの判定結果(右、 左又は前方)を一定時間記憶領域に記憶する。そして、確認動作判定部12cは、現在及び以前の顔の向きの判定結果に基づいて、顔の動きのパターンを検出する。さらに、確認動作判定部12cは、このパターンに基づいて、左右それぞれの顔向きの出現頻度を計算する(ST36)。
【0084】
例えば、今回、前回、前々回の順に、「顔が右を向いている」「顔が左を向いている」「顔が右を向いている」と記憶されている場合、確認動作判定部12cは、顔の動きのパターンとして「右、左、右」と算出する。また、例えば、このときの顔の向きの出現頻度は、右「2」左「1」とされる。
【0085】
その後、確認動作判定部12cは、右向きの出現頻度が閾値以上か否かを判断する(ST37)。右向きの出現頻度が閾値以上であると判断した場合(ST37:YES)、確認動作判定部12cは、右方向確認フラグを立てる(ST38)。そして、処理はステップST39に移行する。なお、このフラグは、運転者が右方向を確認したことを示すものである。
【0086】
一方、右向きの出現頻度が閾値以上でないと判断した場合(ST37:NO)、右方向確認フラグは立てられることなく、処理はステップST39に移行する。
【0087】
ステップST39において、確認動作判定部12cは、左向きの出現頻度が閾値以上か否かを判断する(ST39)。左向きの出現頻度が閾値以上であると判断した場合(ST39:YES)、確認動作判定部12cは、左方向確認フラグを立てる(ST40)。なお、このフラグは、運転者が左方向を確認したことを示すものである。
【0088】
そして、確認動作判定部12cは、確認動作の可否を示す確認フラグの情報を報知信号出力部12dに送信し、処理は終了する。
【0089】
一方、左向きの出現頻度が設定値以上でないと判断した場合(ST39:NO)、左方向確認フラグは立てられることなく、確認動作判定部12cは、確認フラグの情報を報知信号出力部12dに送信し、処理は終了する。
【0090】
次に、図12を参照して確認動作判定部12cの動作を再度説明する。図12は、図2に示した確認動作判定部12cの動作を説明するタイミングチャートである。なお、図12においては、図11と同様に画像横方向、すなわち左右方向の顔の動きを検出する動作について説明する。
【0091】
まず、時刻T0〜T1において、移動位置はほぼ「0」である。このため、確認動作判定部12cは、図11のステップST31及びST33の処理にて「NO」と判断し、ステップST35にて顔が前方を向いていると判断する。
【0092】
そして、確認動作判定部12cは、ステップST36にて、「顔が前方を向いている」という情報を記憶領域に記憶する。その後、同様の処理が、時刻T1〜T2及びT2〜T3においてもなされる。
【0093】
時刻T3の時点では、T0〜T3の期間において顔の向きが判定され、その情報が記憶されていることとなる。このため、確認動作判定部12cは、パターン作成の対象が今回、前回、前々回の顔の向きであるとすると、顔の動きのパターンを「前、前、前」と算出する。そして、確認動作判定部12cは、左向き及び右向きの出現頻度が閾値以上か否かを判断する(ST37,ST39)。時刻T0〜T3のデータが得られた時点では、右「0」、左「0」といった出現頻度が得られているため、確認動作判定部12cは、ステップST37及びST39にて「NO」と判断する。この場合、左右の検出フラグは立てられず、確認動作無しとなる。
【0094】
また、時刻T3〜T4において、移動位置は設定最小値を下回っている。このため、確認動作判定部12cは、ステップST31の処理にて「NO」と判断し、ステップST33の処理にて「YES」と判断し、ステップST34にて顔が右を向いていると判断する。
【0095】
また、確認動作判定部12cは、顔の動きのパターンを「前、前、右」と算出する。そして、確認動作判定部12cは、左向き及び右向きの出現頻度が閾値以上か否かを判断する(ST37,ST39)。時刻T1〜T4のデータが得られた時点では、右「1」、左「0」といった出現頻度が得られている。このため、右向きの出現頻度の閾値が「1」に設定されている場合、確認動作判定部12cは、ステップST38にて右方向確認フラグを立てることとなる。一方、確認動作判定部12cは、ST39にて「NO」と判断する。この場合、確認フラグは右方向のみであり左方向のフラグは立っていない。このため、例えば左右の確認がなされていないことから、例えば確認動作無しとなる。
【0096】
その後、時刻T4〜T5において判断が行われる。このとき、まず、確認動作判定部12cは、ステップST30にて左右方向確認フラグを初期化する。このため、前回立てられた右方向確認フラグが初期化されることとなる。
【0097】
また、時刻T4〜T5では、移動位置は設定最大値を以上となっている。このため、確認動作判定部12cは、ステップST31の処理にて「YES」と判断し、ステップST34にて顔が左を向いていると判断する。
【0098】
そして、確認動作判定部12cは、左向き及び右向きの出現頻度が閾値以上か否かを判断する(ST37,ST39)。時刻T2〜T5のデータが得られた時点では、右「1」、左「1」といった出現頻度が得られている。このため、左右方向の出現頻度の閾値が「1」に設定されている場合、確認動作判定部12cは、ステップST38,ST40にて左右の確認フラグを立てることとなる。このように、双方のフラグが立てられると、確認動作判定部12cは、左右の確認がなされたと判定する。すなわち、確認動作有りと判定する。
【0099】
その後、報知信号出力部12dは、確認動作判定部12cからの情報に基づいて、報知装置20へ報知信号Saを送出するか判断し、送出した場合には、報知装置20にて、運転者に確認動作を促すべく警報動作が行われる。
【0100】
このようにして、本実施形態に係る確認動作検出装置10によれば、撮像画像間のオプティカルフローを求めて運転者の顔の動作を検出するため、運転者の特定の顔部位を検出して追跡する必要がない。このため、顔の動きが速く且つ大きいような場合であっても、顔の動きの検出に与える影響を小さくすることができる。
【0101】
例えば、運転者が顔の方向を変えると、特定の顔部位について撮像される角度が変わってしまう。このため、特定部位の見かけ上の形状等が変わってしまってしまう。この場合、従来では、顔の特定部位の特徴量等が変化してしまうこととなり、顔の方向を検出できなくなることがある。ところが、本実施形態のようにオプティカルフローを求めることにより、顔の動きを全体的に検出することができるので、従来の装置のように、顔の特定部位の特徴量に基づいて顔の向きを検出する場合に比して、顔の動きの検出に与える影響を小さくすることができる。
【0102】
従って、運転者による確認動作の検出精度を向上させることができる。
【0103】
また、本実施形態では、コスト低減を図ることができる。すなわち、従来の装置では、顔の動きが速く且つ大きいような場合に顔の向きを検出するようにするために、高フレームレートのカメラを撮像手段として使用する必要がある。例えば、1秒間に約30枚の顔画像を撮像できる一般的なビデオカメラを撮像手段として使用せず、これよりも高フレームレートのカメラ使用することとなる。この場合、従来の装置では、高価なカメラを使用することとなってしまう。また、カメラの撮像速度が速いことから、装置の処理速度を速くする必要がある。ところが、本実施形態では、オプティカルフローにより顔の動き全体を検出するので、上記問題が発生せず、コスト低減を図ることができる。
【0104】
また、一時停止が必要な交差点に進入する際や駐車場から公道に出る際などに、運転者は、確認を行うため体を前方に乗り出す動作を行う。また、左折時の左後方確認等を行う場合には、運転者は体を左後方に大きくひねる動作を行う。
【0105】
例えば図13(a)に示すように、通常の運転状態において運転者の頭部は、撮像範囲内に納まるようになっている。ところが、図13(b)に示すように、確認を行うため運転者が前方に乗り出した場合には、頭部の一部が撮像範囲外に出てしまうこととなる。そして、運転者の顔が撮像範囲外にまで移動してしまった場合には、運転者の特定の顔部位を追跡することができなくなってしまう。
【0106】
これに対し、特開2000−113164号公報記載の装置では、今回及び前回に撮像された画像の差分画像を形成し、差分から求まる運転者の動きを検出することにより、運転者の姿勢を検出するようにしている。
【0107】
しかし、この装置では、姿勢を検出するのみであるため、顔の特定部位が撮像範囲外に出てしまわないように追従手段等を設ける必要がある。ところが、確認動作時の顔の動きは速く且つ大きいため、追従手段等を設けたとしても、顔の特定部位を追跡しきれず、顔の向きを検出できなくなってしまう。
【0108】
このように、従来の装置では、確認動作時に運転者が体を動かした場合の対応が不十分である。しかし、本実施形態においては、オプティカルフローを求めることにより、顔の動きを全体的に検出している。すなわち、撮像範囲内に顔の一部でも残っていれば、顔の向きを検出することができるので、顔の向きの検出精度を一層向上させることができる。
【0109】
また、運転者の確認動作が検出されなかった場合に、運転者に報知するための報知信号Saを送出するため、確認の不履行時に運転者に対し注意喚起を促すことができる。
【0110】
また、画像横方向に参照領域を複数配置している。このように参照領域を配置することで、画像横方向に、精度良くオプティカルフローを計算することができる。
【0111】
また、撮像画像上に格子状に参照領域を複数配置している。このように参照領域を配置することで、画像の全方向に、精度良くオプティカルフローを計算することができる。
【0112】
また、撮像画像中における顔の占める割合に基づいて、複数の参照領域のうち少なくとも1つの参照領域を所定の顔部位の大きさに設定する。このため、大き過ぎる参照領域を設定することにより、計算量が増大していしまうことを防止すると共に、1つの参照領域内に同時に複数の特徴的な部位が入る可能性を少なくすることができる。さらに、小さ過ぎる領域を設定することにより、特徴的な部位がない領域となることを防ぐことができる。
【0113】
また、撮像画像から各領域(探索領域)の特徴量(類似度)の変化量(分散値)を算出し、この変化量と予め設定した閾値とを比較することにより、各領域をオプティカルフローの計算に用いるか否かを判断している。このため、特徴のない参照領域が設定されたことにより、不正確な検出してしまうことを防止することができる。
【0114】
また、オプティカルフローの計算結果から空間的、時間経過的に顔の動きのパターンを検出している。つまり、例えば空間的に左右方向の動きを求め、且つ時間的として今回から過去に遡った顔の動きを求めていることとなる。すなわち、現在運転者が右を向いているので、確認動作有りと判定するような単純な手法をとっておらず、現在から過去の顔の向きに基づいて、確認動作の可否を判定している。よって、確認判定の精度を向上させることができる。
【0115】
また、本実施形態では、パターンに基づき、顔の左右の向きの出現頻度を計算して確認動作を判定している。このため、一応左右を確認したが確認回数が少ない場合などに、確認動作有りと判定してしまうことを防止することができる。従って、確認判定の精度を向上させることができる。
【0116】
また、本実施形態に係る警報システム1によれば、運転者の確認動作が検出されなかった場合に、運転者に報知するため、確認の不履行時に運転者に対し注意喚起を促すことができる。
【0117】
次に、本発明の第2実施形態を説明する。図14は、本発明の第2実施形態に係る確認動作検出装置10を含む警報システム2の構成を示すブロック図である。同図に示すように、警報システム2は、車両の状態を検出する車両状態検出手段30と、車両の周囲環境を検出する環境情報検出手段40とを備えている。
【0118】
具体的に車両状態検出手段30は、車速や、ブレーキスイッチのオン/オフ情報、アクセルスイッチのオン/オフ情報、操舵角、シフトレンジ情報等の車両に関する状態信号Scを1つ以上検出するものである。
【0119】
環境情報検出手段40は、GPSやジャイロを利用したナビゲーションシステムによる位置情報を取得し、例えば、走行中の道路の種別や交差点の有無等を検出するものである。
【0120】
また、環境情報検出手段40は、可視光カメラ、遠赤外線検出素子、レーザーレーダー及び超音波センサの1つ以上から構成されて、車両周辺の情報を検出するものである。この構成により、環境情報検出手段40は、例えば、先行車や障害物の有無・接近、歩行者の横断、後続車の接近、側後方からの接近車両等を検出する。
【0121】
さらに、環境情報検出手段40は、気象情報や、天候、照度計による外の明るさや昼夜の区別等の情報を得るものでもある。
【0122】
また、確認動作検出部12は、車両状態検出手段30からの信号Scと、環境情報検出手段40からの信号Sdとの少なくとも一方に基づいて、運転者が確認動作をすべき場所を特定する機能を有している。
【0123】
このため、確認動作検出装置10は、例えば、ナビゲーションによる地図情報から、見通しの悪い交差点や信号のない交差点に差し掛かっているという環境信号Sdに基づいて、運転者が取るべき行動を予測することができる。
【0124】
また、確認動作検出装置10は、車速が設定速度以下であるという車両の状態信号Scに基づいて、大きく左右に顔を動かした後に交差点内に進入すべきであるという運転者の行動を予測することもできる。
【0125】
さらに、確認動作検出装置10は、地図情報と、左のウィンカーの点灯中を示す車両の状態信号Scとに基づいて、左の巻き込み確認のため大きく顔を左に動かすという運転者の行動を予測することもできる。
【0126】
また、更に、確認動作検出装置10は、レーザーレーダーやミリ波レーダーを用いて前方の車両や障害物に接近中であるという環境信号Sdに基づいて、運転者の顔が前方を視認していない状態であれば、危険な行為と判断することもできる。
【0127】
図15は、図14に示した確認動作検出部12と車両状態検出手段30及び環境情報検出手段40との関係を示すブロック図である。なお、この図においては、確認動作検出部12、車両状態検出手段30及び環境情報検出手段40の他に、画像取得部11を図示している。
【0128】
同図に示すように、車両状態検出手段30及び環境情報検出手段40は、確認動作判定部12cに接続されており、確認動作判定部12cに各信号Sc,Sdを送出する。このため、確認動作判定部12cが信号Sc,Sdに基づいて確認動作の必要な場所を特定することとなる。
【0129】
そして、確認動作判定部12cは、確認動作の必要な場所を特定することにより、確認動作の不必要な場所においては確認動作の可否を判定しないようにする。具体的には確認動作の不必要な場所において、確認動作判定部12cは、図11に示したステップST36〜ST40までの処理を省略するようにする。
【0130】
次に、第2実施形態に係る警報システム2及び確認動作検出装置10の動作を説明する。第2実施形態に係る警報システム2及び確認動作検出装置10の動作は、第1実施形態のものと同様であるが、確認動作判定部12cの動作が一部異なっている。
【0131】
図16は、第2実施形態に係る警報システム2及び確認動作検出装置10の動作を説明するタイミングチャートである。なお、この図においては、一時停止が必要な交差点にて一時停止をした後の発進の際に、確認動作が検出されず報知信号Saを出力する場合の例を示している。
【0132】
まず、第1実施形態と同様にして、確認動作判定部12cは、運転者の顔の向きを検出する。具体的に同図に示すように、確認動作判定部12cは、時刻T10〜T11において前方、時刻T11〜T12において前方、時刻T12〜T13において右方向と検出する。また、確認動作判定部12cは、時刻T13〜T14において左方向、時刻T14〜T15において左方向、時刻T15〜T16において左方向、時刻T16〜T17において左方向、時刻T17〜T18において前方と検出する。
【0133】
また、これらの期間において、車両状態検出手段30は、車速情報、ブレーキS/W(スイッチ)の情報、アクセルS/W(スイッチ)の情報を取得する。
【0134】
まず、時刻T10〜T12の期間においては、車速が所定の閾値以上となっている。通常、運転者による確認動作は、車両発進時などの低速状態において行われることから、確認動作判定部12cは、確認動作の可否を判定しないようにする。
【0135】
また、時刻T12〜T13の期間においては、車速が所定の閾値を下回ることとなるが、ブレーキS/Wがオンであり、アクセルS/Wがオフとなっている。このため、車両は停止状態又は停止しつつある状態といえる。この状態においては、運転者が現在において確認動作を行っていなくとも、発進時までに確認動作をする可能性がある。このため、確認動作判定部12cは、確認動作の可否を判定せず、不必要に警報してしまわないようにしている。
【0136】
そして、時刻T13〜T16の期間においても同様に、確認動作判定部12cは、確認動作の可否を判定しないようにする。
【0137】
その後、時刻T16〜T17の期間において、ブレーキS/Wがオフとなり、アクセルS/Wがオンとなる。このため、確認動作判定部12cは、確認動作の可否を判定することとなる。確認動作の可否を判定するタイミングは、できるだけ素早く警報するべく、ブレーキS/Wがオフとなり、アクセルS/Wがオンとなった時点である。
【0138】
このとき、例えば、パターン作成の対象が今回、前回、前々回の顔の向きであるとすると、時刻T13〜T16の期間における運転者の顔の向きから、確認動作判定部12cは、パターンを「左、左、左」と算出する。
【0139】
この場合、運転者は、主として左を見つづけた状態で交差点を進入していると判定できる。故に、確認動作判定部12cは、確認動作無しと判定し、その情報を報知信号出力部12dに送出する。
【0140】
これを受けた報知信号出力部12dは、報知信号Saを報知装置20へ出力し、報知装置20は、報知動作を行うこととなる。
【0141】
このように、図16の例の場合、運転者は、交差点で右を見た後、左に気を取られている時間が長く続いたにもかかわらず、初めに右を確認していたため、右方向の確認を忘れ、交差点を進入したといえる。本実施形態では、このような場合であっても、発進時に的確に運転者に報知を行うことができる。
【0142】
このようにして、本実施形態に係る確認動作検出装置10によれば、第1実施形態と同様に、運転者による確認動作の検出精度を向上させることができ、コスト低減を図ることができ、顔の向きの検出精度を一層向上させることができる。また、確認の不履行時に運転者に対し注意喚起を促すことができる。また、画像横方向に又は全方向に、精度良くオプティカルフローを計算することができる。また、計算量の増大を防止し、1つの参照領域内に同時に複数の特徴的な部位が入る可能性を少なくすることができ、小さ過ぎる領域を設定することにより、特徴的な部位がない領域となることを防ぐことができる。さらに、特徴のない参照領域が設定されたことにより、不正確な移動位置を検出してしまうことを防止することができ、確認判定の精度を向上させることができる。
【0143】
また、本実施形態に係る警報システム2によれば、確認の不履行時に運転者に対し注意喚起を促すことができる。
【0144】
また、本実施形態に係る警報システム2及び確認動作検出装置10によれば、車両状態検出手段30からの信号Sc、及び環境情報検出手段40からの信号Sdとの少なくとも一方に基づいて、運転者が確認動作をすべき場所を特定する。このため、運転者が明らかに確認動作をする必要がない場所などに、確認動作の可否の判定を行う必要がなくなっている。よって、不要な処理を減らすことができると共に、不要な報知についても減らすことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る確認動作検出装置を含む警報システムの構成を示すブロック図である。
【図2】図1に示した確認動作検出部の詳細構成を示すブロック図である。
【図3】図2に示した画像処理部の動作を示すフローチャートである。
【図4】撮像画像に設定される2つ以上の参照領域の説明図であり、(a)は参照領域を画像横方向に配置したときの例を示し、(b)は参照領域を格子状に配置したときの例を示し、(c)は参照領域を画像横方向且つ格子状に配置したときの例を示している。
【図5】参照領域及び探索領域の説明図である。
【図6】移動量(xd,yd)の算出方法の説明図である。
【図7】図3に示したステップST13の処理の説明図である。
【図8】図3に示した画像処理部の平均の移動量を示す説明図であり、(a)は時刻tにおける撮像画像の例を示し、(b)は時刻t+1における撮像画像の例を示し、(c)は時刻t+2における撮像画像の例を示し、(d)は時刻t+3における撮像画像の例を示している。
【図9】図2に示した顔動作検出部の動作を示すフローチャートである。
【図10】図2に示した顔動作検出部により得られる移動位置(vx,vy)のデータ例の説明図である。
【図11】図2に示した確認動作判定部の動作を示すフローチャートである。
【図12】図2に示した確認動作判定部の動作を説明するタイミングチャートである。
【図13】運転者が撮像される様子を示しており、(a)は通常の運転状態における撮像される様子を示し、(b)は運転者が前方に乗り出したときに撮像される様子を示している。
【図14】本発明の第2実施形態に係る確認動作検出装置を含む警報システムの構成を示すブロック図である。
【図15】図14に示した確認動作検出部と車両状態検出手段及び環境情報検出手段との関係を示すブロック図である。
【図16】第2実施形態に係る警報システム2及び確認動作検出装置10の動作を説明するタイミングチャートである。
【符号の説明】
1,2…警報システム
10…確認動作検出装置
11…画像取得部(撮像手段)
12a…画像処理部(画像処理手段)
12b…顔動作検出部(顔動作検出手段)
12c…確認動作判定部(確認動作判定手段)
12d…報知信号出力部(報知信号出力手段)
20…報知装置
30…車両状態検出手段
40…環境情報検出手段
Sa…報知信号
Sc…状態信号
Sd…環境信号
C1,C2…変化量

Claims (11)

  1. 運転者の頭部を撮像して撮像画像を取得する撮像手段と、
    前記撮像手段により時系列的に撮像して取得された撮像画像に基づき、撮像画像間のオプティカルフローを求める画像処理手段と、
    前記画像処理手段により求められたオプティカルフローから運転者の顔の動きを検出する顔動作検出手段と、
    前記顔動作検出手段により検出された運転者の顔の動きのパターンに基づいて、運転者による確認動作の可否を判定する確認動作判定手段と、
    を備えることを特徴とする確認動作検出装置。
  2. 前記確認動作判定手段により運転者による確認動作がなかったと判定された場合に、その旨を運転者に報知するための報知信号を出力する報知信号出力手段をさらに備えることを特徴とする請求項1に記載の確認動作検出装置。
  3. 前記画像処理手段は、撮像画像上に横方向に配置された複数の領域にてオプティカルフローを求めることを特徴とする請求項1または請求項2のいずれかに記載の確認動作検出装置。
  4. 前記画像処理手段は、撮像画像上に格子状に配置された複数の領域にてオプティカルフローを求めることを特徴とする請求項1または請求項2のいずれかに記載の確認動作検出装置。
  5. 前記画像処理手段は、前記撮像手段により取得された撮像画像中における顔の占める割合に基づいて、前記複数の領域のうち少なくとも1つの領域を所定の顔部位の大きさに設定することを特徴とする請求項3または請求項4のいずれかに記載の確認動作検出装置。
  6. 前記画像処理手段は、撮像画像上に複数の領域を設定し、オプティカルフローを求める際には、オプティカルフローの計算の対象となる撮像画像から各領域の特徴量の変化量を算出し、この変化量と予め設定した閾値とを比較することにより、各領域をオプティカルフローの計算に用いるか否かを判断することを特徴とする請求項1〜請求項5のいずれか1項に記載の確認動作検出装置。
  7. 前記確認動作判定手段は、前記顔動作確認手段が検出する顔の動きから空間的、時間経過的に顔の動きのパターンを検出することを特徴とする請求項1〜請求項6のいずれか1項に記載の確認動作検出装置。
  8. 前記確認動作判定手段は、検出した前記パターンに基づき、顔の左右の向きの出現頻度を計算して確認動作を判定することを特徴とする請求項1〜請求項7のいずれか1項に記載の確認動作検出装置。
  9. 車両の状態を検出する車両状態検出手段からの信号と、車両の周囲環境を検出する環境情報検出手段からの信号との少なくとも一方に基づいて、運転者が確認動作をすべき場所を特定することを特徴とする請求項1〜請求項8のいずれか1項に記載の確認動作検出装置。
  10. 運転者の顔を時系列的に撮像して複数の撮像画像を取得し、取得した複数の撮像画像から撮像画像間のオプティカルフローを求めて運転者の顔の動きを検出し、検出した顔の動きに基づき確認動作を判定することを特徴とする確認動作検出装置。
  11. 運転者の顔を撮像して撮像画像を取得する撮像手段と、
    前記撮像手段により時系列的に撮像して取得された撮像画像に基づき、撮像画像間のオプティカルフローを求める画像処理手段と、前記画像処理手段により求められたオプティカルフローから運転者の顔の動きを検出する顔動作検出手段と、前記顔動作検出手段により検出された運転者の顔の動きのパターンに基づいて、運転者による確認動作の可否を判定する確認動作判定手段と、を有する確認動作検出装置と、
    前記確認動作検出装置が有する確認動作判定手段により運転者による確認動作がなかったと判定された場合に、運転者に対しその旨を報知する報知装置と、
    を備えることを特徴とする警報システム。
JP2003133452A 2003-05-12 2003-05-12 確認動作検出装置及び警報システム Expired - Fee Related JP4281405B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003133452A JP4281405B2 (ja) 2003-05-12 2003-05-12 確認動作検出装置及び警報システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003133452A JP4281405B2 (ja) 2003-05-12 2003-05-12 確認動作検出装置及び警報システム

Publications (2)

Publication Number Publication Date
JP2004334784A true JP2004334784A (ja) 2004-11-25
JP4281405B2 JP4281405B2 (ja) 2009-06-17

Family

ID=33507988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003133452A Expired - Fee Related JP4281405B2 (ja) 2003-05-12 2003-05-12 確認動作検出装置及び警報システム

Country Status (1)

Country Link
JP (1) JP4281405B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159214A (ja) * 2010-02-03 2011-08-18 Fuji Heavy Ind Ltd 行動検出装置
WO2012042580A1 (ja) * 2010-09-27 2012-04-05 パナソニック株式会社 視線推定装置
US8503737B2 (en) 2010-09-27 2013-08-06 Panasonic Corporation Visual line estimating apparatus
JP2014085832A (ja) * 2012-10-23 2014-05-12 Yazaki Energy System Corp 車載装置
WO2023175764A1 (ja) * 2022-03-16 2023-09-21 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03111028A (ja) * 1989-09-25 1991-05-10 Nippon Telegr & Teleph Corp <Ntt> 注視方向予測装置
JPH07218989A (ja) * 1994-02-04 1995-08-18 Mitsubishi Electric Corp 顔画像撮影装置
JP2000142282A (ja) * 1998-11-11 2000-05-23 Nissan Motor Co Ltd 自動車用の安全促進装置
JP2000210270A (ja) * 1999-01-20 2000-08-02 Atr Media Integration & Communications Res Lab 頭部運動測定装置
JP2001043382A (ja) * 1999-07-27 2001-02-16 Fujitsu Ltd 目追跡装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03111028A (ja) * 1989-09-25 1991-05-10 Nippon Telegr & Teleph Corp <Ntt> 注視方向予測装置
JPH07218989A (ja) * 1994-02-04 1995-08-18 Mitsubishi Electric Corp 顔画像撮影装置
JP2000142282A (ja) * 1998-11-11 2000-05-23 Nissan Motor Co Ltd 自動車用の安全促進装置
JP2000210270A (ja) * 1999-01-20 2000-08-02 Atr Media Integration & Communications Res Lab 頭部運動測定装置
JP2001043382A (ja) * 1999-07-27 2001-02-16 Fujitsu Ltd 目追跡装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159214A (ja) * 2010-02-03 2011-08-18 Fuji Heavy Ind Ltd 行動検出装置
WO2012042580A1 (ja) * 2010-09-27 2012-04-05 パナソニック株式会社 視線推定装置
JP2012065997A (ja) * 2010-09-27 2012-04-05 Panasonic Corp 視線推定装置
US8503737B2 (en) 2010-09-27 2013-08-06 Panasonic Corporation Visual line estimating apparatus
JP2014085832A (ja) * 2012-10-23 2014-05-12 Yazaki Energy System Corp 車載装置
WO2023175764A1 (ja) * 2022-03-16 2023-09-21 日本電気株式会社 画像処理装置、画像処理方法、および記録媒体

Also Published As

Publication number Publication date
JP4281405B2 (ja) 2009-06-17

Similar Documents

Publication Publication Date Title
JP5421072B2 (ja) 接近物体検知システム
US8050459B2 (en) System and method for detecting pedestrians
JP4876118B2 (ja) 立体物出現検知装置
US9098751B2 (en) System and method for periodic lane marker identification and tracking
JP5012718B2 (ja) 画像処理装置
JP4173902B2 (ja) 車両周辺監視装置
JP4692344B2 (ja) 画像認識装置
KR101967305B1 (ko) 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
WO2010125833A1 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP2000251080A (ja) 車両用後側方監視装置
JP6032034B2 (ja) 物体検知装置
JP2005309797A (ja) 歩行者警報装置
JP2009053818A (ja) 画像処理装置及びその方法
JP2008262333A (ja) 路面判別装置および路面判別方法
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP2010026601A (ja) 車両周辺監視装置
JPH1062162A (ja) 障害物検出装置
KR20190067578A (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
JP2003028635A (ja) 画像測距装置
JP5004923B2 (ja) 車両の運転支援装置
JP4123077B2 (ja) 運転者状態検出装置
JP4281405B2 (ja) 確認動作検出装置及び警報システム
JP2011103058A (ja) 誤認識防止装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees