JP2006027481A - 物体警告装置及び物体警告方法 - Google Patents
物体警告装置及び物体警告方法 Download PDFInfo
- Publication number
- JP2006027481A JP2006027481A JP2004210662A JP2004210662A JP2006027481A JP 2006027481 A JP2006027481 A JP 2006027481A JP 2004210662 A JP2004210662 A JP 2004210662A JP 2004210662 A JP2004210662 A JP 2004210662A JP 2006027481 A JP2006027481 A JP 2006027481A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- driver
- warning
- detection
- detection target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】 警告を発することが必要な場合にのみ警告を発することにより、運転者に対する注意喚起効果の低下を抑制することができる物体警告装置及び物体警告方法を提供する。
【解決手段】 物体警告装置1は、車両前方の画像を撮像する歩行者検出用カメラ10と、歩行者検出用カメラ10により撮像された画像に基づいて歩行者の位置を検出する歩行者検出部12、歩行者位置取得部13と、車両を運転する運転者の視線方向を検出する視線方向取得用カメラ20、視線検出部22と、歩行者の位置と運転者の視線方向とに基づいて運転者が歩行者を認識しているか否かを判断する認識判断部23と、運転者が認識していない歩行者が所定の警告範囲内に進入した場合に、運転者に警告を促す警告範囲進入判断部41、警告出力部42とを備える。
【選択図】 図1
【解決手段】 物体警告装置1は、車両前方の画像を撮像する歩行者検出用カメラ10と、歩行者検出用カメラ10により撮像された画像に基づいて歩行者の位置を検出する歩行者検出部12、歩行者位置取得部13と、車両を運転する運転者の視線方向を検出する視線方向取得用カメラ20、視線検出部22と、歩行者の位置と運転者の視線方向とに基づいて運転者が歩行者を認識しているか否かを判断する認識判断部23と、運転者が認識していない歩行者が所定の警告範囲内に進入した場合に、運転者に警告を促す警告範囲進入判断部41、警告出力部42とを備える。
【選択図】 図1
Description
本発明は、車両周囲の物体を検知し、運転者に物体の存在を警告する物体警告装置及び物体警告方法に関する。
従来から、車両前方の歩行者を検出して警報を発する歩行者検出警報装置が知られている(例えば特許文献1参照)。
特許文献1に記載されている歩行者検出警報装置によれば、まず、車両前方の風景が可視光カメラ及び赤外線カメラで撮像され、可視光カメラで撮像された可視光画像及び赤外線カメラで撮像された赤外線画像それぞれが2値化される。そして、2値化されたそれぞれの画像の差分をとることにより抽出されたパターンと歩行者パターンとの相関が所定の充足率を超えているときに歩行者として判別され、警告が発せられる。
特開平11−215487号公報
上記歩行者検出警報装置によれば、歩行者が検出された場合には、例えばその歩行者が歩道を歩いているときや運転者が歩行者を認識しているとき等、警告を発する必要がないときであっても警告が発せられる。そのため、運転者に対する警告の注意喚起効果が低下するおそれがある。
本発明は、上記問題点を解消する為になされたものであり、警告を発することが必要な場合にのみ警告を発することにより、運転者に対する注意喚起効果の低下を抑制することができる物体警告装置及び物体警告方法を提供することを目的とする。
本発明に係る物体警告装置は、車両周囲の画像を撮像する撮像手段と、撮像手段により撮像された画像に基づいて検出対象物体の位置を検出する物体検出手段と、車両を運転する運転者の視線方向を検出する視線検出手段と、物体検出手段により検出された検出対象物体の位置と、視線検出手段により検出された運転者の視線方向とに基づいて、運転者が検出対象物体を認識しているか否かを判断する判断手段と、判断手段により運転者が認識していないと判断された検出対象物体の位置が、所定の警告領域内にある場合に、運転者に警告を促す警告手段とを備えることを特徴とする。
本発明に係る物体警告方法は、車両周囲の画像を撮像する撮像ステップと、撮像ステップにおいて撮像された画像に基づいて検出対象物体の位置を検出する物体検出ステップと、車両を運転する運転者の視線方向を検出する視線検出ステップと、物体検出ステップにおいて検出された検出対象物体の位置と、視線検出ステップにおいて検出された運転者の視線方向とに基づいて、運転者が検出対象物体を認識しているか否かを判断する判断ステップと、判断ステップにおいて運転者が認識していないと判断された検出対象物体の位置が、所定の警告領域内にある場合に、運転者に警告を促す警告ステップとを備えることを特徴とする。
本発明に係る物体警告装置又は物体警告方法によれば、検出対象物体の位置と運転者の視線方向から、運転者が検出対象物体を認識したか否かが判断され、運転者が認識した検出対象物体は警告対象から外される。そして、運転者が認識していない検出対象物体が所定の警告領域内にあるときに警告が発せられる。よって、警告を発することが必要な場合にのみ警告を発することが可能となる。
また、判断手段は、運転者により認識されている検出対象物体の数を取得し、物体警告装置は、物体検出手段により検出された検出対象物体の数に対する、判断手段により取得された運転者により認識されている検出対象物体の数の割合から物体認識率を算出する認識率算出手段を備え、警告手段は、認識率算出手段により算出された物体認識率が所定値より低下した場合に、運転者に警告を促すことが好ましい。
また、判断ステップは、運転者により認識されている検出対象物体の数を取得し、物体警告方法は、物体検出ステップにおいて検出された検出対象物体の数に対する、判断ステップにおいて取得された運転者により認識されている検出対象物体の数の割合から物体認識率を算出する認識率算出ステップを備え、警告ステップは、認識率算出ステップにおいて算出された物体認識率が所定値より低下した場合に、運転者に警告を促すことが好ましい。
このようにすれば、物体認識率が低下した場合、すなわち検出対象物体を見逃す頻度が増加した場合に、運転者の注意力が低下してきたと判断して警報を発することができる。
特に、上記検出対象物体は歩行者であることが好適である。この場合、運転者が認識していない歩行者が所定の警告領域内に進入したときや歩行者の認識率が低下したときに運転者に対して警告を発することができる。
本発明によれば、運転者が認識していない検出対象物体が所定の警告領域内にあるときに警告が発せられる構成としたので、警告を発することが必要な場合にのみ警告を発することができ、運転者に対する注意喚起効果の低下を抑制することが可能となる。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。図中、同一又は相当部分には同一符号を用いることとする。
まず、図1を用いて、本実施形態に係る物体警告装置1の全体構成について説明する。図1は、第1実施形態に係る物体警告装置1の全体構成を示すブロック図である。以下、歩行者を検出対象物体とした場合を例にして説明する。なお、本明細書においては、車両が直前進している際の前方方向を「前方」と定め、「前」「後」「左」「右」等の方向を表わす語を用いることとする。
物体警告装置1は、車両前方の風景を撮像して画像データを取得する歩行者検出用カメラ(撮像手段)10、運転者の顔部を撮像して画像データを取得する視線方向取得用カメラ20、歩行者検出用カメラ10により取得された画像データ及び視線方向取得用カメラ20により取得された画像データを処理し、その処理結果に基づいて運転者に警告を促す電子制御装置(以下「ECU」という)7を備えている。
歩行者検出用カメラ10は、2台のCCDカメラを有して構成されており、車両前方の風景を撮像して画像データを取得する。歩行者検出用カメラ10により取得された画像データは、ECU7を構成する歩行者情報取得部11に出力される。歩行者情報取得部11の詳細については後述する。歩行者検出用カメラ10は、自車両のフロントウィンドウ上部(例えば、バックミラーの裏側)に前方を向いて設置されている。歩行者検出用カメラ10を構成する両カメラの光軸は互いに平行(実質的に平行であればよい)で、かつ撮像面の水平軸が同一線上に揃うように配置されている。なお、歩行者検出用カメラ10の設置場所はフロントウィンドウ上部に限られることなく、車両前方の画像を撮像することができる場所であれば、車体のどの位置に設けてもよい。
視線方向取得用カメラ20は、2台のCCDカメラを有して構成されており、運転者の顔部を撮像して画像データを取得する。視線方向取得用カメラ20により取得された画像データは、ECU7を構成する運転者認識情報取得部21に出力される。運転者認識情報取得部21の詳細については後述する。視線方向取得用カメラ20は、自車両のフロントウィンドウ上部(例えば、バックミラーの表側)に運転者の方を向いて設置されている。なお、視線方向取得用カメラ20の設置場所はフロントウィンドウ上部に限られることなく、運転者の顔部の画像を撮像することができる場所であれば、他の位置に設置してもよい。
ECU7は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを記憶するRAM及び12Vバッテリによってその記憶内容が保持されるバックアップRAM等により構成されている。
ECU7には、歩行者検出用カメラ10により取得された画像データに基づいて歩行者を検出し、歩行者の位置や属性等の歩行者情報を取得する歩行者情報取得部11、視線方向取得用カメラ20により取得された画像データに基づいて運転者の視線方向を検出し、歩行者の位置情報や運転者の視線方向等から運転者の視認情報を取得する運転者認識情報取得部21、歩行者情報及び運転者認識情報等を記憶する記憶部30、歩行者情報及び運転者認識情報等に基づいて運転者に警告を発する警告部40が構築されている。
歩行者情報取得部11は、歩行者検出部12、歩行者位置取得部13、歩行者対応付け部14及び歩行者情報書込部15を備えて構成されている。
歩行者検出部12には、歩行者検出用カメラ10により取得された車両前方の画像データが入力される。歩行者検出部12は、入力された車両前方の画像データから、パターン認識等の画像処理手法を用いて歩行者を検出するものである。歩行者の検出には、例えば、ニューラルネットワーク、SVM(Support Vector Machine)、テンプレートマッチング等の技術が用いられる。検出結果は、歩行者位置取得部13へ出力される。歩行者検出部12によって検出された歩行者画像の一例を図5に示す。
歩行者位置取得部13は、歩行者検出部12で検出された歩行者の位置や属性等の情報を取得するものである。すなわち、歩行者検出部12及び歩行者位置取得部13は物体検出手段として機能する。歩行者位置取得部13は、例えばステレオ視の原理を用いて、検出された歩行者の3次元位置(自車両の所定部位を原点とした相対位置座標)を取得する。なお、歩行者の位置座標には、歩行者が検出された矩形の歩行者探索領域(図5参照)の中心座標を用いた。
また、歩行者位置取得部13は、検出された歩行者の属性、例えば色、大きさ、性別、大人又は子供等を画像処理により取得する。そして、取得された歩行者の位置や属性等の歩行者情報から検出歩行者情報リストを作成する。ここで、図5に示された歩行者A及び歩行者Bに関する検出歩行者情報リストの一例を図6に示す。作成された検出歩行者情報リストは歩行者対応付け部14に出力される。
歩行者対応付け部14は、歩行者位置取得部13で作成された検出歩行者情報リストと記憶部30に記憶されている歩行者情報とに基づいて、歩行者検出部12で今回検出された歩行者と記憶部30に記憶されている歩行者マップ上の歩行者との対応をとるものである。そして、歩行者対応付け部14は、今回検出された歩行者に対応する歩行者が歩行者マップ上に存在しない場合には、新たに検出された歩行者に対して歩行者ID(Identification)を付与する。一方、歩行者マップ上には存在している歩行者が検出されなかった場合には、この検出されなかった歩行者の歩行者情報を削除する。
歩行者情報書込み部15は、歩行者対応付け部14で更新された歩行者情報に応じて、記憶部30の歩行者情報を書き換えるものである。
運転者認識情報取得部21は、視線検出部22、認識判断部23、認識情報書込部24及び認識率算出部25を備えて構成されている。
視線検出部22には、視線方向取得用カメラ20により取得された運転者の顔部の画像データが入力される。視線検出部22は、入力された運転者の顔部の画像データから、パターン認識やステレオ立体視の理論に基づく処理を行うことにより運転者の視線方向を取得するものである。すなわち、視線方向取得用カメラ20及び視線検出部22は視線検出手段として機能する。取得された視線方向情報は、認識判断部23に出力される。
認識判断部23は、記憶部30に記憶されている歩行者マップ上の歩行者位置と認識判断部23により取得された運転者の視線方向情報とに基づいて、運転者が歩行者を認識したか否かを判断するものである。すなわち、認識判断部23は判断手段として機能する。判断結果は認識情報書込部24及び認識率算出部25に出力される。
認識情報書込部24は、認識判断部23において運転者が歩行者を認識したと判断された場合に、該当する歩行者の歩行者情報に含まれる運転者認識フラグをFALSEからTRUEにするものである。なお、運転者認識フラグの初期値はFALSEに設定されている。
認識率算出部25は、所定時間内(例えば5分)の歩行者の認識率、すなわち、所定時間内に検出された歩行者数と運転者が認識したと判断された歩行者数との比率を算出するものである。このように、認識率算出部25は認識率算出手段として機能する。算出された歩行者認識率は警告部40を構成する警告出力部42に出力される。
警告部40は、警告範囲進入判断部41及び警告出力部42を備えて構成されている。
警告範囲進入判断部41は、歩行者マップ上の歩行者の位置が予め設定されている警告範囲(警告領域)内にあるか否かを判断し、歩行者が警告範囲内に位置する場合には、該歩行者の運転者認識フラグをチェックする。そして、該歩行者の運転者認識フラグがFALSEの場合、すなわち運転者が認識していない歩行者である場合、警告を発するための制御信号を警告出力部42に出力する。
警告出力部42は、警告範囲進入判断部41から入力された制御信号に応じて、運転者に対して警告を発するものである。警告方法としては、例えば、警告灯の点灯や警告音の発生等が挙げられる。また、警告出力部42は、認識率算出部25において算出された歩行者認識率が低下した場合には、運転者の注意力が低下したと判断し、警告を発する。すなわち、警告範囲進入判断部41及び警告出力部42は警告手段として機能する。
次に、図2〜図4を参照して、物体警告装置1の動作及び物体警告方法について説明する。図2は、物体警告装置1による歩行者情報取得処理の処理手順を示すフローチャートである。図3は、物体警告装置1による運転者認識情報取得処理の処理手順を示すフローチャートである。図4は、物体警告装置1による警告処理の処理手順を示すフローチャートである。
まず、図2を参照して、歩行者情報取得処理について説明する。本処理は、歩行者情報取得部11において、所定時間毎に繰り返して実行される。
ステップS100では、歩行者検出用カメラ10によって取得された車両前方の画像データが読み込まれる。続くステップS102では、ステップS100で読み込まれた画像データから、パターン認識等の画像処理によって歩行者が検出される。
次に、ステップS104において、ステレオ視の原理を用いて、ステップS102で検出された歩行者の3次元位置(自車両の所定部位を原点とした相対位置座標)が求められる。なお、歩行者の位置座標には、歩行者が検出された矩形の歩行者探索領域の中心座標を用いた。また、歩行者の属性情報、例えば色、大きさ、性別等が画像処理により取得される。そして、取得された歩行者の位置や属性等の歩行者情報から検出歩行者情報リスト(図6参照)が作成される。
続いてステップS106では、記憶部30に記憶されている歩行者情報を2次元のマップ形式で表した歩行者マップが読み込まれる。図7に歩行者マップの一例を示す。図7において、○は運転者に認識されていない歩行者を示し、◎は運転者に認識されている歩行者を示す。また、●は運転者に認識されておらず且つ予め設定された扇形の警告範囲に進入した歩行者を示す。歩行者マップ上の各歩行者にはIDナンバーが付与されており、各歩行者の座標に対応した位置に表示されている。また、歩行者マップ上の歩行者を示す各点は、それぞれに対応した歩行者情報を有している。ここで、歩行者情報の一例を図8に示す。図8に示される歩行者情報には、IDナンバーを付与された歩行者ごとに、位置、属性及び運転者認識フラグ等が記憶されている。
次に、ステップS108では、ステップS106で読み込まれた歩行者マップ上の歩行者と、ステップS102で今回検出された歩行者との対応付けが行われる。読み込まれた歩行者マップの情報は、前回取得された画像データから検出された情報である。そのため、前回画像を取得した時刻から今回画像を取得した時刻までの間に車両が移動した距離Dkを、自車両速度Sc及び画像取込間隔(フレーム間隔時間)Tfを用いて次式より算出する。
なお、平均移動距離Dkの移動方向は、自車両の進行方向に応じて調節される。
また、前回画像を取得した時刻から今回画像を取得した時刻までの間に歩行者が移動した距離を考慮するため、歩行者移動最大速度Sp及びフレーム間隔時間Tfを用いて次式により探索半径Rsを算出する。
続いて、算出された平均移動距離Dk及び探索半径Rsに基づいて対応付け探索範囲を設定する。図9に歩行者マップ上の歩行者位置と、平均移動距離Dk、探索半径Rs及び対応付け探索範囲との関係を示す。
そして、今回検出された歩行者の位置が設定された対応付け探索範囲の中にあるか否か、また、歩行者の属性が一致するか否かをチェックすることにより、歩行者マップ上の歩行者と今回検出された歩行者との対応付けが行われる。
続いて、ステップS110では、ステップS108でのチェック結果に基づいて、今回検出された歩行者が、歩行者IDを既に付与されている歩行者であるか否か、すなわち、今回検出された歩行者が既に歩行者マップ上に存在する歩行者であるか否かについての判断が行われる。ここで、今回検出された歩行者が既に歩行者マップ上に存在する歩行者である場合には、ステップS112に処理が移行する。一方、今回検出された歩行者が歩行者マップ上に存在しない歩行者である場合には、ステップS114に処理が移行する。
ステップS112では、今回取得された歩行者位置等の歩行者情報に基づいて、対応する歩行者情報が更新される。その後、処理がステップS116に移行する。
ステップS114では、新規に検出された歩行者に対して、歩行者IDが付与されると共に、歩行者マップに歩行者情報が追加される。その後、処理がステップS116に移行する。
ステップS116では、歩行者マップ上に記憶されている歩行者が今回検出されなかった場合、検出されなかった歩行者の歩行者情報が削除される。なお、例えば、数フレーム連続して検出されなかった場合にのみ歩行者情報を削除するようにしてもよい。その後、処理がステップS100に移行し、所定時間ごとに上記ステップS100〜ステップS116の処理が繰り返して実行される。
次に、図3を参照して、運転者認識情報取得処理について説明する。本処理は、運転者認識情報取得部21において、所定時間毎に繰り返して実行される。
ステップS200では、視線方向取得用カメラ20によって取得された運転者の顔部の画像データが読み込まれる。
続くステップS202では、ステップS200で読み込まれた画像データから、パターン認識やステレオ立体視の理論に基づく処理によって、運転者の眼球の3次元位置及び視線方向が検出される。
ここで、図10に示されるように、自車両の所定位置を原点として、車両進行方向をY軸、車両左右方向をX軸、鉛直方向をZ軸とした座標系を考える。その場合に、運転者の視線方向は、視線ベクトルをXY平面に投影したときにX軸とのなす角である視線水平角度θと、視線べクトルとXY平面とのなす角である視線垂直角度φとによって定義される。また、眼球の3次元位置はE(xe,ye,ze)とする。
続いてステップS204では、記憶部30に記憶されている歩行者マップが読み込まれる。次に、ステップS206において、インデックス番号kが初期化されて1に設定される。
続くステップS208では、IDナンバーがkの歩行者について、歩行者マップ上の歩行者位置と運転者の視線方向とから、運転者がこの歩行者を認識したか否かがチェックされる。すなわち、図11に示されるように、運転者の眼球位置E(xe,ye,ze)を始点とした運転者視線ベクトルを歩行者マップに重ね合わせた場合に、運転者視線ベクトルの延長線上に歩行者が存在するか否かがチェックされる。
より具体的には、図12に示されるように、歩行者視認範囲を設定し、運転者の視線ベクトルがこの歩行者視認範囲を通るか否かがチェックされる。歩行者視認範囲は、例えば、歩行者の3次元位置(中心位置)を基準にして、上下30cm、左右10cmの矩形窓として設定される。歩行者視認範囲の左上端座標をP1(x1,y1,z1)、右下端座標をP2(x2,y2,z2)とし、運転者の眼球位置をE(xe,ye,ze)とした場合、視線水平角度θ及び視線垂直角度φそれぞれが、条件式(3)(6)を満足するか否かを調べることによって、運転者が歩行者を認識しているか否かがチェックされる。
条件式(3)(6)が満足された場合には、歩行者認識範囲の中を視線ベクトルが通っており、運転者が歩行者を認識したと判断される。以下に、具体的な数値を挙げて説明する。
ここでは、歩行者位置取得部13によって取得された歩行者の3次元位置をG(−2.15,8.82,0.53)とし、視線検出部22によって検出された時刻Tmにおける眼球位置をE(0.56,−0.48,1.15)とする。また、歩行者の歩行者視認範囲を、歩行者の3次元中心位置から上下30cm、左右10cmの矩形窓として次のように設定する。すなわち、歩行者視認範囲の左上端座標をP1(−2.25,8.82,0.83)、右下端座標をP2(−2.05,8.82,0.23)とする。
上記のように各座標を設定した場合、上式(4)(5)(7)(8)より、θL=106.8deg、θR=105.7deg、φT=−1.90deg、φB=−5.44degとなる。その結果、運転者が歩行者を認識したと判断されるための条件は、105.7deg<視線水平角度θ<106.8deg、且つ、−5.44deg<視線垂直角度φ<−1.90degとなる。
続くステップS210では、ステップS208でのチェック結果に基づいて、運転者がIDナンバーkの歩行者を認識したか否かについての判断が行われる。ここで、運転者がIDナンバーkの歩行者を認識していないと判断された場合には、処理がステップS212に移行する。一方、運転者がIDナンバーkの歩行者を認識したと判断された場合には、処理がステップS214に移行する。
ステップS212では、歩行者視認範囲の中を視線ベクトルが通っている回数を計数するための変数Mkがゼロに初期設定される。その後、処理はステップS220に移行する。
ステップS214では、Mkが1だけインクリメントされる。そして、続くステップS216において、MkがMtより大きいか否かについての判断が行われる。ここで、MkがMtより大きい場合、すなわち運転者が歩行者を視認したと判断された場合、ステップS218において、IDナンバーkの歩行者情報に含まれる運転者認識フラグがFALSEからTRUEにされる。一方、MkがMt以下の場合には、処理がステップS220に移行する。ここで、例えば、Mtを3に設定した場合、歩行者視認範囲の中を視線ベクトルが通ったことが連続して4回以上検知されたときに、運転者がその歩行者を認識したと判断される。すなわち、画像取得周期を30Hzとした場合、同一歩行者を0.1秒以上連続して見ていたときに運転者がその歩行者を認識したと判断される。
ステップS220では、歩行者マップ上のすべての歩行者をチェックしたか否かについての判断が行われる。ここで、まだチェックのされていない歩行者が存在する場合には、ステップS222において、インデックス番号kが1だけインクリメントされる。その後、処理がステップS208に移行し、すべての歩行者に対してチェックが終了するまで、上記ステップS208〜ステップS220の処理が繰り返して実行される。
一方、歩行者マップ上のすべての歩行者に対してチェックが終了した場合には、処理がステップS200に移行し、所定時間ごとに上記ステップS200〜ステップS220の処理が繰り返して実行される。
次に、図4を参照して警告処理について説明する。本処理は、特に記載のない限り、警告部40において、所定時間毎に繰り返して実行される。
ステップS300では、例えば、警告範囲、歩行者移動最大速度Sp等の各種パラメータの初期設定が行われる。続いてステップS302では、記憶部30に記憶されている歩行者マップが読み込まれる。次に、ステップS304では、インデックス番号kが初期化されて1に設定される。
続いてステップS306では、IDナンバーkの歩行者が、ステップS200で設定された警告範囲に進入しているか否かについての判断が行われる。ここで、IDナンバーkの歩行者が警告範囲に侵入していない場合には、処理がステップS312に移行する。一方、IDナンバーkの歩行者が警告範囲に侵入している場合には、処理がステップS308に移行する。
ステップS308では、警告範囲に進入しているIDナンバーがkの歩行者の運転者認識フラグがFALSEか否か、すなわち運転者にまだ認識されていない歩行者であるか否かについての判断が行われる。ここで、運転者認識フラグがFALSEの場合には、処理がステップS310に移行する。一方、運転者認識フラグがTRUEの場合には、処理がステップS312に移行する。
運転者に認識されていないIDナンバーがkの歩行者が警告範囲に進入していると判断された場合、ステップS310では、警告灯の点灯や警告音等によって、運転者に対して警告が発せられる。なお、ここでは、警告音を一定時間鳴らすためのトリガを出力し、次の処理に進むこととしてもよい。
続いて、ステップS312では、歩行者マップ上のすべての歩行者をチェックしたか否かについての判断が行われる。ここで、まだチェックのされていない歩行者が存在する場合には、ステップS314において、インデックス番号kが1だけインクリメントされる。その後、処理がステップS306に移行し、すべての歩行者に対してチェックが終了するまで、上記ステップS306〜ステップS312の処理が繰り返して実行される。
一方、歩行者マップ上のすべての歩行者に対してチェックが終了した場合には、処理がステップS316に移行する。
ステップS316では、認識率算出部25において、歩行者認識率αが算出される。歩行者認識率αは、所定時間τ(例えば5分)内に検出された歩行者数と運転者が認識したと判断された歩行者数との比率であり、次式により算出される。
次に、ステップS318では、ステップS316で算出された歩行者認識率αが所定のしきい値αT(例えば0.7)より低いか否かについての判断が行われる。ここで、歩行者認識率αがしきい値αTより低下している場合には、運転者の注意力が低下していると判断され、ステップS320において、休憩をとるように促す警告が出力される。なお、しきい値αTの値は、例えば、疲労度合と歩行者認識認識率との関係から実験的に導き出すことができる。
歩行者認識率αがしきい値αT以上である場合、又はステップS320での警告出力ッ処理が終了した場合には、処理がステップS300に移行し、所定時間ごとに上記ステップS300〜ステップS320の処理が繰り返して実行される。
このように、本実施形態によれば、歩行者の位置と運転者の視線方向とから、運転者が歩行者を認識したか否かが判断され、運転者が認識した歩行者は警告対象から外される。そして、運転者が認識していない歩行者が所定の警告範囲内にあるときに警告が発せられる。よって、警告を発することが必要な場合にのみ警告を発することができ、運転者に対する注意喚起効果の低下を抑制することが可能となる。
また、歩行者認識率αが低下した場合、すなわち歩行者を見逃す頻度が増加した場合に警告が発せられる。すなわち、運転者の注意力が低下してきたと判断される状況において警報を発することが可能となる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。例えば、歩行者検出用カメラ10に代えて歩行者の3次元位置を検出することができるレーザレンジファインダ等を用いることもできる。
また、視線方向取得用カメラ20に代えて、例えば、LEDとカメラを組み合わせた視線検出装置等を用いてもよい。運転者が歩行者を視認したと判断される角度は、歩行者が遠方に位置するほど小さくなる。したがって、遠くの歩行者の視認判断を行うには高い分解能が必要になる。例えば、LED式視線検出装置の角度分解能は約0.1degであるので、約50m以内に存在する歩行者を対象とすることができる。
また、本実施形態では、警告範囲を扇形に設定したが、警告範囲は扇形に限られるものではない。さらに、物体警告装置1を構成するECU7の各処理部の機能分担等は上記実施形態に限られるものではない。
1…物体警告装置、10…歩行者検出用カメラ、11…歩行者情報取得部、12…歩行者検出部、13…歩行者位置取得部、14…歩行者対応付け部、15…歩行者情報書込部、20…視線方向取得用カメラ、21…運転者認識情報取得部、22…視線検出部、23…認識判断部、24…認識情報書込部、25…認識率算出部、30…記憶部、40…警告部、41…警告範囲進入判断部、42…警告出力部。
Claims (6)
- 車両周囲の画像を撮像する撮像手段と、
前記撮像手段により撮像された画像に基づいて検出対象物体の位置を検出する物体検出手段と、
前記車両を運転する運転者の視線方向を検出する視線検出手段と、
前記物体検出手段により検出された前記検出対象物体の位置と、前記視線検出手段により検出された前記運転者の視線方向とに基づいて、前記運転者が前記検出対象物体を認識しているか否かを判断する判断手段と、
前記判断手段により前記運転者が認識していないと判断された前記検出対象物体の位置が、所定の警告領域内にある場合に、前記運転者に警告を促す警告手段と、を備えることを特徴とする物体警告装置。 - 前記判断手段は、前記運転者により認識されている前記検出対象物体の数を取得し、
前記物体警告装置は、前記物体検出手段により検出された前記検出対象物体の数に対する、前記判断手段により取得された前記運転者により認識されている前記検出対象物体の数の割合から物体認識率を算出する認識率算出手段を備え、
前記警告手段は、前記認識率算出手段により算出された前記物体認識率が所定値より低下した場合に、前記運転者に警告を促す、ことを特徴とする請求項1に記載の物体警告装置。 - 前記検出対象物体は歩行者であることを特徴とする請求項1又は2に記載の物体警告装置。
- 車両周囲の画像を撮像する撮像ステップと、
前記撮像ステップにおいて撮像された画像に基づいて検出対象物体の位置を検出する物体検出ステップと、
前記車両を運転する運転者の視線方向を検出する視線検出ステップと、
前記物体検出ステップにおいて検出された前記検出対象物体の位置と、前記視線検出ステップにおいて検出された前記運転者の視線方向とに基づいて、前記運転者が前記検出対象物体を認識しているか否かを判断する判断ステップと、
前記判断ステップにおいて前記運転者が認識していないと判断された前記検出対象物体の位置が、所定の警告領域内にある場合に、前記運転者に警告を促す警告ステップと、を備えることを特徴とする物体警告方法。 - 前記判断ステップは、前記運転者により認識されている前記検出対象物体の数を取得し、
前記物体警告方法は、前記物体検出ステップにおいて検出された前記検出対象物体の数に対する、前記判断ステップにおいて取得された前記運転者により認識されている前記検出対象物体の数の割合から物体認識率を算出する認識率算出ステップを備え、
前記警告ステップは、前記認識率算出ステップにおいて算出された前記物体認識率が所定値より低下した場合に、前記運転者に警告を促す、ことを特徴とする請求項4に記載の物体警告方法。 - 前記検出対象物体は歩行者であることを特徴とする請求項4又は5に記載の物体警告方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004210662A JP2006027481A (ja) | 2004-07-16 | 2004-07-16 | 物体警告装置及び物体警告方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004210662A JP2006027481A (ja) | 2004-07-16 | 2004-07-16 | 物体警告装置及び物体警告方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006027481A true JP2006027481A (ja) | 2006-02-02 |
Family
ID=35894336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004210662A Pending JP2006027481A (ja) | 2004-07-16 | 2004-07-16 | 物体警告装置及び物体警告方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006027481A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221766A (ja) * | 2010-04-08 | 2011-11-04 | Toyota Motor Corp | 車両用危険度情報提供装置 |
JPWO2011064831A1 (ja) * | 2009-11-30 | 2013-04-11 | 富士通株式会社 | 診断装置及び診断方法 |
US9168966B2 (en) | 2008-11-06 | 2015-10-27 | Segway, Inc. | Apparatus and method for control of a vehicle |
JP2016018304A (ja) * | 2014-07-07 | 2016-02-01 | 株式会社デンソーアイティーラボラトリ | 安全確認判定装置、及び運転支援装置 |
JP2017049687A (ja) * | 2015-08-31 | 2017-03-09 | 株式会社東芝 | 検出装置、検出方法、検出プログラムおよび情報処理システム |
JP2017224067A (ja) * | 2016-06-14 | 2017-12-21 | 大学共同利用機関法人自然科学研究機構 | わき見状態判定装置 |
WO2018198833A1 (ja) * | 2017-04-27 | 2018-11-01 | 京セラ株式会社 | 制御装置、方法、およびプログラム |
KR20190034649A (ko) | 2017-03-31 | 2019-04-02 | 히다찌 겐끼 가부시키가이샤 | 작업 기계의 주위 감시 장치 |
JP2020024669A (ja) * | 2018-08-07 | 2020-02-13 | キヤノン株式会社 | 検知装置およびその制御方法 |
CN111104845A (zh) * | 2018-10-25 | 2020-05-05 | 佳能株式会社 | 检测设备,控制方法及计算机可读记录介质 |
JP2020119317A (ja) * | 2019-01-24 | 2020-08-06 | 株式会社Jvcケンウッド | 運転支援制御装置、運転支援制御方法、およびプログラム |
US11514703B2 (en) | 2018-08-07 | 2022-11-29 | Canon Kabushiki Kaisha | Detection device and control method of the same |
-
2004
- 2004-07-16 JP JP2004210662A patent/JP2006027481A/ja active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9168966B2 (en) | 2008-11-06 | 2015-10-27 | Segway, Inc. | Apparatus and method for control of a vehicle |
US9477228B2 (en) | 2008-11-06 | 2016-10-25 | Segway, Inc. | Apparatus and method for control of a vehicle |
JPWO2011064831A1 (ja) * | 2009-11-30 | 2013-04-11 | 富士通株式会社 | 診断装置及び診断方法 |
JP2011221766A (ja) * | 2010-04-08 | 2011-11-04 | Toyota Motor Corp | 車両用危険度情報提供装置 |
JP2016018304A (ja) * | 2014-07-07 | 2016-02-01 | 株式会社デンソーアイティーラボラトリ | 安全確認判定装置、及び運転支援装置 |
JP2017049687A (ja) * | 2015-08-31 | 2017-03-09 | 株式会社東芝 | 検出装置、検出方法、検出プログラムおよび情報処理システム |
JP2017224067A (ja) * | 2016-06-14 | 2017-12-21 | 大学共同利用機関法人自然科学研究機構 | わき見状態判定装置 |
KR20190034649A (ko) | 2017-03-31 | 2019-04-02 | 히다찌 겐끼 가부시키가이샤 | 작업 기계의 주위 감시 장치 |
US10570587B2 (en) | 2017-03-31 | 2020-02-25 | Hitachi Construction Machinery Co., Ltd. | Periphery monitoring device of work machine |
JP2018185766A (ja) * | 2017-04-27 | 2018-11-22 | 京セラ株式会社 | 制御装置、方法、およびプログラム |
WO2018198833A1 (ja) * | 2017-04-27 | 2018-11-01 | 京セラ株式会社 | 制御装置、方法、およびプログラム |
JP2020024669A (ja) * | 2018-08-07 | 2020-02-13 | キヤノン株式会社 | 検知装置およびその制御方法 |
US11514703B2 (en) | 2018-08-07 | 2022-11-29 | Canon Kabushiki Kaisha | Detection device and control method of the same |
JP7378223B2 (ja) | 2018-08-07 | 2023-11-13 | キヤノン株式会社 | 検知装置およびその制御方法 |
CN111104845A (zh) * | 2018-10-25 | 2020-05-05 | 佳能株式会社 | 检测设备,控制方法及计算机可读记录介质 |
US11341773B2 (en) | 2018-10-25 | 2022-05-24 | Canon Kabushiki Kaisha | Detection device and control method of the same |
CN111104845B (zh) * | 2018-10-25 | 2023-10-24 | 佳能株式会社 | 检测设备,控制方法及计算机可读记录介质 |
JP2020119317A (ja) * | 2019-01-24 | 2020-08-06 | 株式会社Jvcケンウッド | 運転支援制御装置、運転支援制御方法、およびプログラム |
JP7215191B2 (ja) | 2019-01-24 | 2023-01-31 | 株式会社Jvcケンウッド | 運転支援制御装置、運転支援制御方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4926437B2 (ja) | 車両の運転支援装置 | |
JP4612635B2 (ja) | 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 | |
JP6398347B2 (ja) | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム | |
JP6036065B2 (ja) | 注視位置検出装置及び注視位置検出方法 | |
JP4899424B2 (ja) | 物体検出装置 | |
JP5096836B2 (ja) | 車両の周囲を画像化する方法およびそのためのシステム | |
EP2544449B1 (en) | Vehicle perimeter monitoring device | |
JP6197388B2 (ja) | 距離測定装置、距離測定方法、およびプログラム | |
JP4872245B2 (ja) | 歩行者認識装置 | |
JP2007241740A (ja) | 車両周辺監視装置 | |
JP2010134878A (ja) | 立体物出現検知装置 | |
JP2014194625A (ja) | 目視確認評価装置、方法及びプログラム | |
KR20060021922A (ko) | 두 개의 카메라를 이용한 장애물 감지 기술 및 장치 | |
JP2014106901A (ja) | 距離算出装置、衝突検出システム、距離算出方法、衝突検出方法、及びプログラム | |
JP2006027481A (ja) | 物体警告装置及び物体警告方法 | |
JP2018156408A (ja) | 画像認識撮像装置 | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
JP7077726B2 (ja) | 車両システム、空間領域推測方法及び空間領域推測装置 | |
JP2008310440A (ja) | 歩行者検出装置 | |
JPH09218937A (ja) | 区画線検出装置 | |
JP2012198857A (ja) | 接近物体検知装置及び接近物体検知方法 | |
JP2007233440A (ja) | 車載用画像処理装置 | |
JP2007087203A (ja) | 衝突判定システム、衝突判定方法及びコンピュータプログラム | |
JP5832850B2 (ja) | 車線監視システム及び車線監視方法 | |
JP2008046947A (ja) | 周辺監視システム |