JP2005004413A - Drive supporting device for vehicle - Google Patents

Drive supporting device for vehicle Download PDF

Info

Publication number
JP2005004413A
JP2005004413A JP2003166114A JP2003166114A JP2005004413A JP 2005004413 A JP2005004413 A JP 2005004413A JP 2003166114 A JP2003166114 A JP 2003166114A JP 2003166114 A JP2003166114 A JP 2003166114A JP 2005004413 A JP2005004413 A JP 2005004413A
Authority
JP
Japan
Prior art keywords
detection
driver
environment
vehicle
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003166114A
Other languages
Japanese (ja)
Inventor
Yasushi Takada
裕史 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003166114A priority Critical patent/JP2005004413A/en
Publication of JP2005004413A publication Critical patent/JP2005004413A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drive supporting device for a vehicle with a sensing technology allowing a driver to be provided just enough information by sensing matching to a cognitive characteristics of the driver in consideration both of the cognitive characteristics and the sensing property of the driver. <P>SOLUTION: The supporting device comprises an environment detection means 13 having a function capable of detecting a body existing in an environment in which a vehicle travels with multi-step accuracy, and a function capable of arbitrarily setting a range conducing the detection of the body existing in the environment in which the vehicle travels; an information presenting means 14 for presenting information to the driver; a driving behavior detection means 10 for detecting the driving behavior of the driver; and a cognitive state determining means 11 for determining the cognitive state of the driver according to the detected driving behavior of the driver. The supporting system further has a detection property changing means 12 for changing a detection property indicated by at least either the detection accuracy or the detection area of the detection means 13 according to the determined cognitive state of the driver. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車両の走行進路上に存在する先行車両、歩行者や障害物の存在を認識して運転者に知らしめる機能を備えた車両用運転支援装置の技術分野に属する。
【0002】
【従来の技術】
この種の従来技術としては、車両前方の障害物認識において、認識の高速化を目的としたものと、認識の正確さの向上を目指したものが知られている。
【0003】
高速化を目的としたものとしては、例えば、車両の前方を撮影した画像に対する画像処理において、まず、水平方向のエッジを検出し、水平方向のエッジに障害物や走行車線である可能性のあるエッジが検出された場合に限り、その水平方向のエッジが検出された領域のみに対して、垂直方向のエッジの検出を行う車両用障害物検出装置が知られている(例えば、特許文献1参照)。
【0004】
一方、正確さの向上を目的としたものでは、例えば、複数の障害物の検出において、障害物までの距離に基づいて距離画像上の連続性の確認を可能とするルール群を構築し、認識処理においては、これらルールを駆使することで、複数の障害物を分離して識別可能とした障害物検出装置が知られている(例えば、特許文献2参照)。
【0005】
【特許文献1】
特開平10−97699号公報
【特許文献2】
特開平7−129898号公報
【0006】
【発明が解決しようとする課題】
しかしながら、実際の運転者に対して障害物の存在等の情報提供場面を考えたとき、正確性や詳細度の高い情報提供が効果的な場面と、逆に、正確性、詳細度が低くとも、車両前方の全体的な環境の状態に関する情報提供が効果的な場面もある。すなわち、運転者の状態によって、求められる情報の正確性、詳細度のレベルが異なるため、情報提供の高速化と正確性のどちらか一方を向上させても、運転者にとって常に効果的な情報には成り得ないという問題があった。
【0007】
本発明は、上記問題に着目してなされたもので、その目的とするところは、運転者の認知特性とセンシング特性とを共に鑑みて、運転者の認知特性に合致したセンシングを行うことにより、過不足ない運転者への情報提供を可能とするセンシング技術を備えた車両用運転支援装置を提供することにある。
【0008】
【課題を解決するための手段】
上記目的を達成するため、本発明では、車両の走行する環境に存在する物体を多段階の精度で検出可能な機能と、車両の走行する環境に存在する物体の検出を実施する範囲を任意に設定可能な機能との少なくとも一方を備えた環境検出手段と、情報を運転者に提示する情報提示手段と、運転者の運転行動を検出する運転行動検出手段と、検出された運転者の運転行動に応じて、運転者の認知状態を判定する認知状態判定手段と、を備えた車両用運転支援装置において、判定された運転者の認知状態に応じて、前記環境検出手段の検出精度または検出範囲の少なくとも一方で表される検出特性を変更する検出特性変更手段を設けたことを特徴とする。
【0009】
【発明の効果】
よって、本発明の車両用運転支援装置にあっては、認知状態判定手段の判定した運転者の認知状態に応じて、環境検出手段の検出特性を変更するため、車両の走行する環境に存在する物体を検出する際には、運転者の認知状態に応じて、検出精度と検出範囲の少なくとも一方を変更可能な運転支援が可能となる。すなわち、運転者の認知特性とセンシング特性とを共に鑑みて、運転者の認知特性に合致したセンシングを行うことにより、過不足ない運転者への情報提供が実現できる。
【0010】
【発明の実施の形態】
以下、本発明の車両用運転支援装置を実現する実施の形態を、図面に基づいて説明する。
図1は、実施の形態の車両用運転支援装置を示すブロック構成図である。車両用運転支援装置は、運転行動検出手段10と、認知状態判定手段11と、検出特性変更手段12と、環境検出手段13と、情報提示手段14とから構成されている。
【0011】
前記運転行動検出手段10は、運転者の運転行動を検出する。前記認知状態判定手段11は、運転行動検出手段10により検出された運転者の運転行動に応じて、運転者の認知状態を判定する。
【0012】
前記検出特性変更手段12は、認知状態判定手段11により判定された運転者の認知状態に応じて、環境検出手段13の検出精度または検出範囲の少なくとも一方で表される検出特性を変更する。
【0013】
前記環境検出手段13は、車両の走行する環境に存在する物体を多段階の精度で検出可能な機能と、車両の走行する環境に存在する物体の検出を実施する範囲を任意に設定可能な機能との少なくとも一方を備えている。そして、前記情報提示手段14は、環境検出手段13により検出された情報を運転者に表示する。
【0014】
以下、実施の形態の車両用運転支援装置を、第1実施例と第2実施例に基づいて説明する。
【0015】
(第1実施例)
図2は、第1実施例の車両用運転支援装置を示すブロック構成図である。この車両用運転支援装置は、運転者認識用画像処理装置20、認知状態判定装置21、検出特性変更装置22、環境認識用画像処理装置23、情報提示装置24を備えている。
【0016】
前記運転者認識用画像処理装置20は、図1に示した実施の形態の運転行動検出手段10に対応する。また、認知状態判定装置21は認知状態判定手段11に、検出特性変更装置22は検出特性変更手段12に、環境認識用画像処理装置23は環境検出手段13に、情報提示装置24は情報提示手段14に、それぞれ対応している。
【0017】
前記運転者認識用画像処理装置20には、例えば、運転者を撮像するカメラ装置、および、そのカメラ装置が撮像した運転者の画像から、運転者の視線方向と頭部の左右方向の回転角度を、リアルタイムに算出する画像処理回路が備わった装置を用いている。なお、特に、本実施例においては、運転者の視線が、車室外においては、走行環境もしくはサイドミラーのいずれにあるか、また、車室内においても、ルームミラーもしくはナビゲーション装置の画面のいずれにあるかを判定可能である。
【0018】
また、この運転者認識用画像処理装置20は、運転者の頭部が左右方向に回転する角度を算出可能な画像処理回路を用いる。さらに、運転者の所定時間の視線方向を保持する視線方向保持手段を備え、所定の時間、運転者の視線が及んでいる領域、および視線が及んでいない領域を検出可能な画像処理回路が備わった装置を用いる。
【0019】
前記認知状態判定装置21には、運転者認識用画像処理装置20が検出する運転者の運転行動によって認知状態を判定する装置を用いる。例えば、運転者認識用画像処理装置20が検出した運転者の視線が、ルームミラーもしくはサイドミラー、ナビゲーション装置の画面に注がれる頻度や、運転者認識用画像処理装置20が検出した運転者頭部の左右方向の回転角度や、頭部の左右方向の回転頻度より、運転者の認知状態がスキルベースの状態であるか、知識−ルールベースの状態であるかを判定する技術が開発されているので、本技術を搭載したものを用いる。
【0020】
前記検出特性変更装置22では、運転者認識用画像処理装置20で検出した運転者の視線方向と、認知状態判定装置21で判定した運転者の認知状態に基づいて、後述する環境認識用画像処理装置23における環境認識のさせ方を決定づけるパラメータを設定する。なお、このパラメータは、「検出範囲」、「走査間隔」、「類似度閾値」の3種である。
【0021】
環境認識用画像処理装置23では、検出特性変更装置22によって設定されたパラメータ「検出範囲」、「走査間隔」、「類似度閾値」に基づき、車両が走行する環境において、車両の安全な走行を妨げる可能性のある物体の検出を行う。
【0022】
環境認識用画像処理装置23の構成を図3に示す。環境認識用画像処理装置23は、車両の前方の光景を撮影するカメラ装置32、および、そのカメラ装置32が撮影した画像に対してフィルタ処理等を行うことによって、エッジを抽出する画像処理回路33、障害物や歩行者、先行車両など、車両の安全な走行を妨げる可能性のある物体の画像上の特徴を保持した保持回路35、画像処理回路33によって処理された画像と、保持回路に保持された障害物や歩行者、先行車両などの各種別の特徴とを比較して、一致する可能性の高い種別を選択する画像認識回路34によって構成されている。なお、パラメータ「検出範囲」、「走査間隔」、「類似度閾値」は、入力回路31を介して入力される。
【0023】
前記情報提示装置24は、運転者に情報を提示する装置であり、具体的には、ディスプレイ装置や音声提供装置、シートに備えられた振動装置などを用いることができる。本実施例においては、環境認識用画像処理装置23が認識した、車両の進路上に存在する物体の種別と、認知状態判定装置21によって判定された運転者の認知状態に応じて、運転者に情報を提供する。
【0024】
次に、作用を説明する。
[検出特性変更制御処理]
以下、検出特性変更装置22にて実施される検出特性変更制御処理の流れを、図4に示すフローチャートを用いて説明する。
【0025】
ステップS100では、認知状態判定装置21が判定した運転者の認知状態を入手する。運転者の認知状態は、知識−ルールベースの状態か、スキルベースの状態のいずれかである。運転者の認知状態が、知識−ルールベースの認知状態であった場合には、ステップS101に移行し、一方、スキルベースの認知状態であった場合には、ステップS105に移行する。
【0026】
ステップS101では、運転者認識用画像処理装置20で検出した運転者の視線方向の情報を入手し、ステップS102へ移行する。ここで、運転者の視線方向の情報は、所定の時間、運転者の視線が注がれた方向を蓄積したものである。
【0027】
ステップS102では、ステップS101で入手した運転者の視線方向の情報に基づき、逆に、視線が注がれない範囲を定義し、ステップS103へ移行する。この視線が注がれない範囲が、検出特性変更装置22で設定するパラメータの一つである「検出範囲」である。定義した「検出範囲」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0028】
ステップS103では、検出特性変更装置22で設定するパラメータの一つである「走査間隔」を、例えば「1画素毎」に設定し、ステップS104へ移行する。設定した「走査間隔」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0029】
ステップS104では、検出特性変更装置22で設定するパラメータの一つである「類似度閾値」を、例えば「0.7以上」に設定し、ステップS108へ移行する。設定した「類似度閾値」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0030】
ステップS105では、検出特性変更装置22で設定するパラメータの一つである「検出範囲」を、例えば「画像全体」に設定し、ステップS106へ移行する。設定した「検出範囲」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0031】
ステップS106では、検出特性変更装置22で設定するパラメータの一つである「走査間隔」を、例えば「5画素毎」に設定し、ステップS107へ移行する。設定した「走査間隔」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0032】
ステップS107では、検出特性変更装置22で設定するパラメータの一つである「類似度閾値」を、例えば「0以上」に設定し、ステップS108へ移行する。設定した「類似度閾値」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0033】
ステップS108では、検出特性変更装置22の内部に備えたメモリ装置に保持したパラメータ「検出範囲」、「走査間隔」、「類似度閾値」を、環境認識用画像処理装置23に対して出力し、本制御を終了する。
【0034】
このフローチャートにおいて、運転者の認知状態が知識−ルールベースの状態である場合には、ステップS100→ステップS101→ステップS102→ステップS103→ステップS104→ステップS108へと進む流れとなる。すなわち、ステップS102において検出範囲として運転者の視線が注がれない範囲が定義され、ステップS103において走査間隔が1画素毎に設定され、ステップS104において類似度閾値として0.7以上が設定される。
【0035】
一方、運転者の認知状態がスキルベールの状態である場合には、ステップS100→ステップS105→ステップS106→ステップS107→ステップS108へと進む流れとなる。すなわち、ステップS105において検出範囲として画像全体が定義され、ステップS106において走査間隔が5画素毎に設定され、ステップS107において類似度閾値として0以上が設定される。
【0036】
[環境認識画像制御処理]
次に、環境認識用画像処理装置23にて実施される環境認識画像制御処理の流れを、図5に示すフローチャートに基づいて説明する。
【0037】
ステップS110では、カメラ装置32によって、車両前方の光景を撮影し、ステップS111へ移行する。
【0038】
ステップS111では、入力回路31を介して検出特性変更装置22が設定した検出範囲aを入力し、ステップS112へ移行する。
【0039】
ステップS112では、画像処理回路33において、ステップS110で撮影した画像に対し、車両の安全な走行を妨げる可能性のある物体の検出を試みる範囲を、ステップS111で入力した検出範囲aに基づいて設定し、ステップS113へ移行する。すなわち、検出範囲aが「画像全体」であるときは、ステップS110で撮影した画像全体が、物体の検出を試みる範囲であり(図6参照)、また、検出範囲aとして、運転者の視線が注がれない範囲が定義されている場合には、これをステップS110で撮影した画像上での座標値に変換して、その座標値を物体の検出を試みる範囲から削除する(図7参照)。
【0040】
ステップS113では、入力回路31を介して検出特性変更装置22が設定した走査間隔bを入力し、ステップS114へ移行する。
【0041】
ステップS114では、画像処理回路33にて、ステップS112で設定した物体の検出を試みる画像上の範囲に対して、画像処理を実施し、ステップS115へ移行する。なお、本実施例における画像処理は、物体と道路等の背景の境界を抽出することを目的として、一般的なエッジ抽出を行う処理を実施する。通常、エッジ抽出は画像の水平方向および垂直方向に対して、画素ごとに走査し、隣接する画素間の輝度の差が大きい画素を、エッジとして抽出する。本実施例では、この画素ごとの走査を、ステップS113で入力した走査間隔bによって決定する。例えば、走査間隔b=5であれば、5画素毎の走査を実施する。
【0042】
ステップS115では、入力回路31を介して検出特性変更装置22が設定した類似度閾値rtを入力し、ステップS116へ移行する。
【0043】
ステップS116では、画像認識回路34にて、ステップS114が抽出したエッジの集合が、どの種別によるものか、すなわち、歩行者によるものであるか、先行車両のよるものであるか、障害物によるものであるかを同定し、ステップS117へ移行する。
【0044】
この同定の処理は、ステップS114で抽出したエッジの集合を、保持回路35に保持された各種別の特徴を参照することで行うが、このような処理には、公知のニューラルネットや、隠れマルコフモデルを用いることが可能である。これらニューラルネットや隠れマルコフモデルを用いた画像認識の処理では、エッジの集合を各種別の特徴に参照し、それぞれの種別のうち、どれが最も合致するかを、確率的に表現する。例えば、{歩行者p1,先行車両p2,障害物p3}={0.1,0.7,0.2}と算出されたとき、種別が歩行者である確率が0.1、先行車両である確率が0.7、障害物である可能性が0.2という意味である。本実施例では、最も確率が高い値を示した種別を、同定の種別とする。すなわち、先の例における同定の種別は、p2=0.7を示した「先行車両」となる。さらに本実施例では、この確率p2を類似度r(=0.7)とする。
【0045】
ステップS117では、画像認識回路34にて、ステップS115で入力した類似度閾値rtと、ステップS116で同定した物体の類似度rの比較を実施する。類似度rが類似度閾値rt以上である場合には、環境認識用画像処理装置23の処理を終了する。一方、類似度rが類似度閾値rtより小さい場合には、再度、ステップS116の処理を実施する。この際、前回のステップS116の処理において、最も確率の低かった種別に関する同定は行わない。すなわち、先述のステップS116の例においては、「歩行者」で確率が低かったので、次回のS116の処理では、「歩行者」の同定を省く。
【0046】
[運転者の認知特性に応じたセンシング特性の変更]
運転者の安全な車両運転を実現することを目的として、様々な車両用運転支援装置が発明されている。車両の走行進路上に存在する先行車両や歩行者、障害物の存在を運転者に知らしめる、いわゆる、接近警報も車両用運転支援装置の一つである。これら車両用運転支援装置には、通常、車両の走行する環境の状態を検出するためのセンサ類が備わっている。例えば、カメラを備え、車両前方の光景を画像として撮像し、その画像に対して画像処理を施すことによって、車両の安全な走行を妨げる物体の存在するか否かを確認するセンシング装置や、車両前方に対してレーザ光を発信し、物体からの反射光を検出することによって、車両の安全な走行を妨げる物体が存在するか否かを確認するセンシング装置、等が発明、開発されている。
【0047】
この分野における発明および開発は、2つの方向が存在する。すなわち、その車両の安全な走行を妨げる物体が存在することの検出と、その物体の種別の識別、すなわち、物体が先行車両であるか、歩行者であるか、または障害物であるかを、「いかに高速に行うか」と「いかに正確に検出するか」ということである。
【0048】
この発明および開発における2つの方向の背景には、そもそも、前記のセンシング装置によって取り込んだ車両前方の状態に含まれる情報量が膨大であり、膨大な情報から必要な情報、すなわち、物体の存在確認と種別認識を行うことの複雑さが挙げられる。この複雑さに伴って、物体の検出を試みる領域が広いほど、また、物体の存在確認に正確さが求められるほど、さらには、物体の種別の識別において詳細さが求められるほど、コスト、すなわち時間や必要とされる演算処理装置の能力等が増大する為である。
【0049】
ところが、実際の運転者に対して障害物の存在等の情報提供場面を考えたとき、正確性や詳細度の高い情報提供が効果的な場面と、逆に、正確性、詳細度が低くとも車両前方の全体的な環境の状態に関する情報提供が効果的な場面が想定される。
【0050】
ドライバの運転は、次の2つの状態に大別できる。
▲1▼ 与えられた状況に対して、経験により会得したスキルを駆使し、機械的、反射的に情報を処理しながら運転を行うスキルベースの運転状態。
▲2▼ 経験、学習により会得した知識やルールを適用しながら運転を行う知識−ルールベースの運転状態。
【0051】
ドライバの情報収集という面から考察すると、スキルベースの運転状態の場合、環境の全体的な様子を広く浅く把握することで、運転者は運転という作業を達成している。一方、知識−ルールベースの運転状態の場合、環境の局所的な様子を狭く深く把握することで、運転という作業を実現している。
【0052】
事故を予防するための情報提供を行う場合においても、自ずと、それぞれの運転状態に対して提供すべき情報は異なる。例えば、スキルベースの運転状態の場合、重要時、例えば障害物の存在確認を無意識に意識のルーチンから外したり、障害物に対する対処を無意識に誤ったりする傾向がある。このような場合の事故の予防は、運転者に対して、重要事が意識のルーチンから外れていることを簡潔に示唆することで達成される。これを実現するためには、運転支援装置において、車両前方の走行環境全体に関する環境把握が必要である。
【0053】
一方、知識−ルールベースの運転状態の場合、状況に対してどの知識やルールを使ったらよいのかが解らなかったり、誤った知識やルールを駆動したりする傾向がある。このような場合の事故の予防は、運転者に対して、正しい情報を与えたり、情報の所在を指示したり、また、対処の優先順位、対処方法を与えたりすることで達成される。これを実現するためには、運転視線装置において、環境の状態について正確であり、また詳細である環境把握が必要である。
【0054】
このことは、従来技術によって正確性や詳細度が向上したとしても、運転者がその正確かつ詳細な情報を求める状態になければ、これらの従来技術は効果的に活用されないことを示唆し、また、逆に、検出される情報において、多少、正確性や詳細度が損なわれたとしても、運転者の状態によっては効果的な情報に成り得ることを示唆している。
【0055】
これに対し、本実施例の車両用運転支援装置では、認知状態判定装置21と運転者認識用画像処理装置20の判定または検出結果によって、検出特性変更装置22を介して環境認識用画像処理装置23における画像認識を用いた物体認識の特性を変更することとした。
【0056】
すなわち、運転者の認知状態がスキルベース状態である場合には、車両前方の光景を撮影した画像について、荒くかつ類似度の低い種別同定ではあっても、広い範囲について物体の検出を行うことが可能となり、さらには、その結果に基づいた情報提供が可能となる。
【0057】
一方、運転者の認知状態が知識−ルールベースの状態である場合には、物体の検出範囲が運転者の視線方向が及ばない範囲に限定はされるが、詳細で、かつ、類似度が高い同定を行うことが可能となり、さらには、その結果に基づいた情報提供が可能となる。
【0058】
このように、運転者の認知特性に応じてセンシング特性を変更することにより、運転者の認知特性に合致し、運転者にとって違和感のない情報提供が可能となる。
【0059】
次に、効果を説明する。
第1実施例の車両用運転支援装置にあっては、下記の列挙する効果を得ることができる。
【0060】
(1) 検出特性変更装置22は、判定された認知状態に応じて環境認識用画像処理装置23の検出範囲と走査間隔を変更させるため、車両の走行する環境に存在する物体を検出する際には、運転者の認知状態に応じて、検出範囲と精度を変更可能な運転支援が可能となる(請求項1に対応)。
【0061】
(2) 検出特性変更装置22は、運転者の認知状態がスキルベールの状態である場合には、画像全体を検出範囲として定義するとともに、走査間隔を5画素毎として類似度閾値を0以上に設定するため、運転者に広範囲の領域における概要的な情報を与えることが効果的なスキルベースの状態においては、広い範囲の環境に対する荒い精度の物体検出の結果を提示する運転支援が可能となる(請求項2に対応)。
【0062】
(3) 検出特性変更装置22は、運転者の認知状態が知識−ルールベースの状態である場合には、運転者の視線が注がれない範囲を検出範囲として定義するとともに、走査間隔を1画素毎として類似度閾値を0.7以上に設定するため、運転者に狭い領域における具体的な情報を与えることが効果的な知識−ルールベースの状態においては、狭い範囲の環境に対する詳細な精度の物体検出の結果を提示する運転支援が可能となる(請求項3に対応)。
【0063】
(4) 運転者認識用画像処理装置20は、運転者の視線方向を検出する視線方向検出手段を備え、検出特性変更装置22は、検出特性変更装置22による環境認識用画像処理装置23の検出特性の狭い範囲への変更は、運転者認識用画像処理装置20における物体の存在の検出を、視線方向検出手段によって検出された運転者の視線方向に基づき、運転者の視線が及んでいない範囲に限定して行うように変更することで実現し、一方、検出特性の広い範囲への変更は、運転者認識用画像処理装置20における物体の存在の検出を、視線方向検出手段によって検出された運転者の視線方向にかかわらず、環境認識用画像処理装置23が物体の検出可能が可能な全ての範囲に対して行うように変更することで実現することとしたので、環境認識用画像処理装置23の検出特性を狭い範囲の検出に変更した場合には、運転者が注意を払っていない範囲を中心に、物体の検出を試みることによる運転支援が可能となり、一方、検出特性を広い範囲の検出に変更した場合には、運転者の注意にかかわらず、走行環境全体における物体の検出を試みることによる運転支援が可能となる(請求項4に対応)。
【0064】
(5) 環境認識用画像処理装置23は、車両前方の環境を撮像するカメラ装置32と、撮像された画像を画素単位で走査し、エッジを抽出することによって環境に存在する物体を抽出する画像処理回路33とを備え、検出特性変更装置22による環境認識用画像処理装置23の検出特性の荒い精度への変更は、画像処理回路33における画像処理を、カメラ装置32が撮像した走行環境の画像に対する走査間隔を5画素毎に設定することで実現し、一方、検出特性の詳細な精度への変更は、カメラ装置32が撮像した走行環境の画像に対する走査間隔を1画素毎に設定することで実現することとしたので、画像処理を用いた車両前方の環境における物体の検出において、異なった精度で物体検出が可能となり、異なった物体検出精度に基づく運転支援が可能となる(請求項5に対応)。
【0065】
(6) 環境認識用画像処理装置23は、車両が走行する環境に存在しえる複数の物体の特徴を、物体の種別毎に保持する保持回路35と、保持回路35に保持された複数の種別の特徴と、画像処理回路33によって処理された画像とを比較して、特徴が合致しているほど高い類似度を付与し、最も高い類似度を得た種別を、環境認識用画像処理装置23が検出した物体の種別として特定する画像認識処理を実施する画像認識回路34とを備え、検出特性変更装置22による環境認識用画像処理装置23の検出特性の荒い精度への変更は、画像認識回路34における画像認識処理を、類似度閾値0以上であれば、環境認識用画像処理装置23が検出した物体の種別として特定することで実現し、一方、検出特性の詳細な精度への変更は、画像認識回路34における画像認識処理において、類似度閾値が0.7以上となるまで繰り返して実施することで実現することとしたので、画像処理を用いた車両前方の環境における物体の検出において、異なった精度で物体検出が可能となり、異なった物体検出精度に基づく運転支援が可能となる(請求項7に対応)。
【0066】
(第2実施例)
図8は、第2実施例の車両用運転支援装置を示すブロック構成図である。第2実施例の基本構成は、図2に示した第1実施例のブロック構成図とほぼ同一であるため、同一の構成部分には同符号を付して重複した説明は省略する。
【0067】
この車両用運転支援装置は、運転者認識用画像処理装置20、認知状態判定装置21、検出特性変更装置40、レーダ装置41、情報提示装置24を備えており、検出特性変更装置40は、図1の検出特性変更手段12に対応し、レーダ装置41は、環境検出手段13に対応している。
【0068】
前記検出特性変更装置40では、運転者認識用画像処理装置20で検出した運転者の視線方向と、認知状態判定装置21で判定した運転者の認知状態に基づいて、レーダ装置41における環境認識の方法を決定するパラメータを設定する。なお、このパラメータは、「検出方向」、「分解能」の2種である。
【0069】
前記レーダ装置41では、検出特性変更装置40によって設定されたパラメータ「検出方向」、「分解能」に基づき、車両が走行する環境において、車両の安全な走行を妨げる可能性のある物体の検出を行う。レーダ装置41の構成を図9に示す。レーダ装置41は、レーザ光を照射するタイプのものであり、レーザ光を発信する発信部52、発信したレーザ光の反射を受信する受信部53、タイマー54、発信部を左右方向に回転させるモータ55、このモータ55を制御するモータ制御回路56によって構成されている。
【0070】
前記発信部52は、一方向にのみレーザ光を発信可能であるため、車両の走行方向の前方に存在する物体を検出するためには、モータ55によって発信部52を左右方向に回転させる必要がある。なお、パラメータ「検出方向」、「分解能」は、入力回路51を介して入力される。
【0071】
次に、作用を説明する。
[検出特性変更制御処理]
以下、検出特性変更装置40にて実施される検出特性変更制御処理の流れを、図10に示すフローチャートに基づいて説明する。
【0072】
ステップS200では、認知状態判定装置21が判定した運転者の認知状態を入手する。運転者の認知状態は、知識−ルールベースの状態か、またはスキルベースの状態かのいずれかである。知識−ルールベースの認知状態である場合には、ステップS201へ移行し、スキルベースの認知状態である場合には、ステップS204へ移行する。
【0073】
ステップS201では、運転者認識用画像処理装置20で検出した運転者の視線方向の情報を入手し、ステップS202へ移行する。ここで、運転者の視線方向の情報は、所定の時間、運転者の視線が注がれた方向を蓄積したものである。
【0074】
ステップS202では、ステップS201で入手した運転者の視線方向の情報に基づき、逆に、視線が注がれない方向を定義し、ステップS203へ移行する。この視線が注がれない方向が、検出特性変更装置22で設定するパラメータの一つである「検出方向」である。定義した「検出方向」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0075】
ステップS203では、検出特性変更装置22で設定するパラメータの一つである「分解能」を、例えば0.1°に設定し、ステップS206へ移行する。設定した「分解能」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0076】
ステップS204では、検出特性変更装置22で設定するパラメータの一つである「検出方向」を、例えば「全方向」に設定し、ステップS205へ移行する。設定した「検出方向」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0077】
ステップS205では、検出特性変更装置22で設定するパラメータの一つである「分解能」を、例えば0.3°に設定し、ステップS206へ移行する。設定した「分解能」は、例えば、検出特性変更装置22の内部に備えたメモリ装置に保持する。
【0078】
ステップS206では、検出特性変更装置22の内部に備えたメモリ装置に保持したパラメータ「検出方向」、「分解能」を、レーダ装置41に対して出力し、本制御を終了する。
【0079】
このフローチャートにおいて、運転者の認知状態が知識−ルールベースの状態である場合には、ステップS200→ステップS201→ステップS202→ステップS203→ステップS206へと進む流れとなる。すなわち、ステップS202において検出方向として運転者の視線が注がれない範囲が定義され、ステップS203において分解能が0.1°に設定される。
【0080】
一方、運転者の認知状態がスキルベールの状態である場合には、ステップS200→ステップS204→ステップS205→ステップS206へと進む流れとなる。すなわち、ステップS204において検出方向として全方向が定義され、ステップS205において分解能が0.3°に設定される。
【0081】
[物体検出制御処理]
次に、レーダ装置41にて実施される物体検出制御処理の流れを、図11に示すフローチャートに基づいて説明する。
【0082】
ステップS210では、入力回路51を介して、検出特性変更装置40が設定した「検出方向」と「分解能」を入力し、ステップS211へ移行する。
【0083】
ステップS211では、モータ制御回路56において、レーダ装置41にて車両の安全な走行を妨げる可能性のある物体の検出を試みる方向を、ステップS210で入力した「検出方向」に基づいて設定し、ステップS212へ移行する。
【0084】
すなわち、検出方向が「全方向」であるときは、発信部52および発信部52を回転させるモータ55において、設計上、動作させることが可能な方向の全てを、検出方向に設定する(図12参照)。また、検出方向として、運転者の視線が注がれない方向が定義されている場合には、その方向を中心とし、所定の角度(±α)の範囲の方向を、検出方向に設定する(図13参照)。
【0085】
ステップS212では、モータ制御回路56において、発信部52の左右方向の回転を制御する単位を決定し、ステップS213へ移行する。この単位の決定は、ステップS210で入力した「分解能」に基づく。つまり、「分解能」が0.1°であった場合には、モータ制御回路56はモータ55の回転の制御を0.1°単位で実施しするように設定し、「分解能」が0.3°であった場合には、モータ制御回路56はモータ55の回転の制御を0.3°単位で実施するように設定する。
【0086】
ステップS213では、モータ制御回路56において、ステップS211で設定した「検出方向」と、ステップS212で設定した「分解能」に基づいて、モータ55を制御し、その間、発信部52は、レーザ光を発信し、物体等によって反射して戻ってきたレーザ光を受信部53によって受信することで、物体の検出を行い、本制御を終了する。また、レーザ光を送信してから受信するまでの時間をタイマー54で計測することによって、物体までの距離を計測する。
【0087】
次に、効果を説明する。
第2実施例の車両用運転支援装置にあっては、次に列挙する効果を得ることができる。
【0088】
(7) 検出特性変更装置40によるレーダ装置41の検出特性の荒い精度への変更は、レーダ装置41が発するレーダの分解能を0.3°に設定することで実現し、一方、レーダ装置41の検出特性の詳細な精度への変更は、レーダ装置41の分解能を0.1°に設定することで実現することとしたため、レーダ装置41を用いた車両前方の環境における物体の検出において異なった精度で物体検出が可能となり、異なった物体検出精度に基づく運転支援が可能となる(請求項6に対応)。
【図面の簡単な説明】
【図1】実施の形態の車両用運転支援装置を示すブロック構成図である。
【図2】第1実施例の車両用運転支援装置を示すブロック構成図である。
【図3】環境認識用画像処理装置を示すブロック構成図である。
【図4】検出特性変更装置にて実施される検出特性変更制御処理の流れを示すフローチャートである。
【図5】環境認識用画像処理装置にて実施される環境認識画像制御処理の流れを示すフローチャートである。
【図6】環境認識用画像処理装置における物体検出範囲の説明図である。
【図7】環境認識用画像処理装置における物体検出範囲の説明図である。
【図8】第2実施例の車両用運転支援装置を示すブロック構成図である。
【図9】レーダ装置を示すブロック構成図である。
【図10】検出特性変更装置にて実施される検出特性変更制御処理の流れを示すフローチャートである。
【図11】レーダ装置にて実施される物体検出制御処理の流れを示すフローチャートである。
【図12】レーダ装置における物体検出範囲の説明図である。
【図13】レーダ装置における物体検出範囲の説明図である。
【符号の説明】
10 運転行動検出手段
11 認知状態判定手段
12 検出特性変更手段
13 環境検出手段
14 情報提示手段
20 運転者認識用画像処理装置
21 認知状態判定装置
22 検出特性変更装置
23 環境認識用画像処理装置
24 情報提示装置
31 入力回路
32 カメラ装置
33 画像処理回路
34 画像認識回路
35 保持回路
40 検出特性変更装置
41 レーダ装置
51 入力回路
52 発信部
53 受信部
54 タイマー
55 モータ
56 モータ制御回路
[0001]
BACKGROUND OF THE INVENTION
The present invention belongs to the technical field of a vehicle driving support device having a function of recognizing the presence of a preceding vehicle, a pedestrian, or an obstacle existing on a traveling route of a vehicle and informing the driver.
[0002]
[Prior art]
As this type of prior art, there are known an object for speeding up recognition in obstacle recognition ahead of a vehicle and an object for improving the accuracy of recognition.
[0003]
For the purpose of speeding up, for example, in image processing for an image taken in front of a vehicle, first, a horizontal edge may be detected, and the horizontal edge may be an obstacle or a driving lane. There is known a vehicle obstacle detection device that detects a vertical edge only in an area where a horizontal edge is detected only when an edge is detected (see, for example, Patent Document 1). ).
[0004]
On the other hand, for the purpose of improving accuracy, for example, in the detection of a plurality of obstacles, a rule group that enables confirmation of continuity on a distance image based on the distance to the obstacle is constructed and recognized. In processing, there is known an obstacle detection apparatus that makes it possible to separate and identify a plurality of obstacles by making full use of these rules (see, for example, Patent Document 2).
[0005]
[Patent Document 1]
JP-A-10-97699
[Patent Document 2]
JP-A-7-129898
[0006]
[Problems to be solved by the invention]
However, when considering the situation of providing information such as the presence of obstacles to the actual driver, it is effective to provide information with high accuracy and detail, and conversely, even if accuracy and detail are low. In some cases, it is effective to provide information on the overall environmental condition in front of the vehicle. In other words, the level of accuracy and level of detail required varies depending on the driver's condition, so even if either speeding up of information provision or accuracy is improved, it will always be effective information for the driver. There was a problem that was not possible.
[0007]
The present invention has been made paying attention to the above-mentioned problem, and the purpose thereof is to perform sensing that matches the driver's cognitive characteristics in consideration of both the driver's cognitive characteristics and the sensing characteristics, An object of the present invention is to provide a driving support device for a vehicle equipped with a sensing technology that makes it possible to provide information to a driver who is not excessive or insufficient.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, a function capable of detecting an object existing in an environment in which the vehicle is traveling with multi-stage accuracy and a range for detecting an object present in the environment in which the vehicle is traveling are arbitrarily set. Environment detection means having at least one of settable functions, information presentation means for presenting information to the driver, driving behavior detection means for detecting the driving behavior of the driver, and detected driving behavior of the driver And a recognition state determination unit that determines a driver's recognition state according to the vehicle driving support device, the detection accuracy or detection range of the environment detection unit according to the determined driver recognition state A detection characteristic changing means for changing the detection characteristic represented by at least one of the above is provided.
[0009]
【The invention's effect】
Therefore, in the vehicle driving support apparatus of the present invention, the detection characteristic of the environment detection unit is changed according to the driver's recognition state determined by the recognition state determination unit, and therefore exists in the environment where the vehicle travels. When an object is detected, driving assistance capable of changing at least one of detection accuracy and detection range according to the driver's cognitive state is possible. In other words, in consideration of both the driver's cognitive characteristics and the sensing characteristics, by performing sensing that matches the driver's cognitive characteristics, it is possible to provide information to the driver without excess or deficiency.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment for realizing a vehicle driving support device of the present invention will be described with reference to the drawings.
FIG. 1 is a block configuration diagram illustrating a vehicle driving support apparatus according to an embodiment. The vehicle driving support apparatus includes a driving action detection unit 10, a recognition state determination unit 11, a detection characteristic change unit 12, an environment detection unit 13, and an information presentation unit 14.
[0011]
The driving behavior detection means 10 detects the driving behavior of the driver. The recognition state determination unit 11 determines the driver's recognition state according to the driving behavior of the driver detected by the driving behavior detection unit 10.
[0012]
The detection characteristic changing unit 12 changes the detection characteristic represented by at least one of the detection accuracy or the detection range of the environment detection unit 13 according to the driver's cognitive state determined by the cognitive state determination unit 11.
[0013]
The environment detection means 13 has a function capable of detecting an object existing in the environment in which the vehicle is traveling with multi-stage accuracy and a function capable of arbitrarily setting a range for detecting an object present in the environment in which the vehicle is traveling. And at least one of them. The information presenting means 14 displays the information detected by the environment detecting means 13 to the driver.
[0014]
Hereinafter, a vehicle driving support apparatus according to an embodiment will be described based on a first example and a second example.
[0015]
(First embodiment)
FIG. 2 is a block diagram showing the vehicle driving support apparatus of the first embodiment. The vehicle driving support device includes a driver recognition image processing device 20, a recognition state determination device 21, a detection characteristic changing device 22, an environment recognition image processing device 23, and an information presentation device 24.
[0016]
The driver recognition image processing device 20 corresponds to the driving behavior detection means 10 of the embodiment shown in FIG. The recognition state determination device 21 is the recognition state determination unit 11, the detection characteristic change device 22 is the detection characteristic change unit 12, the environment recognition image processing device 23 is the environment detection unit 13, and the information presentation device 24 is the information presentation unit. 14 respectively.
[0017]
The driver recognition image processing device 20 includes, for example, a camera device that captures an image of the driver, and a driver's image captured by the camera device, and the driver's line-of-sight direction and the horizontal rotation angle of the head. Is provided with an image processing circuit that calculates the above in real time. In particular, in this embodiment, the driver's line of sight is either in the driving environment or in the side mirror outside the passenger compartment, and in the interior of the passenger compartment, either in the room mirror or on the screen of the navigation device. Can be determined.
[0018]
The driver recognition image processing apparatus 20 uses an image processing circuit capable of calculating an angle at which the driver's head rotates in the left-right direction. Further, the image processing circuit is provided with line-of-sight direction holding means for holding the line-of-sight direction of the driver for a predetermined time, and an image processing circuit capable of detecting an area where the line of sight of the driver has been extended and an area where the line of sight has not been extended for a predetermined time Use the same device.
[0019]
The recognition state determination device 21 uses a device that determines the recognition state based on the driving behavior of the driver detected by the driver recognition image processing device 20. For example, the frequency at which the driver's line of sight detected by the driver recognition image processing device 20 is poured onto the screen of a room mirror, a side mirror, or a navigation device, or the driver's head detected by the driver recognition image processing device 20 Technology has been developed to determine whether the driver's cognitive state is a skill-based state or a knowledge-rule-based state based on the rotation angle in the horizontal direction of the head and the rotation frequency in the horizontal direction of the head Therefore, the one equipped with this technology is used.
[0020]
In the detection characteristic changing device 22, based on the driver's line-of-sight direction detected by the driver recognition image processing device 20 and the driver's recognition state determined by the recognition state determination device 21, environment recognition image processing described later. Parameters that determine how to recognize the environment in the device 23 are set. Note that there are three types of parameters: “detection range”, “scan interval”, and “similarity threshold”.
[0021]
In the environment recognition image processing device 23, based on the parameters “detection range”, “scan interval”, and “similarity threshold” set by the detection characteristic changing device 22, the vehicle travels safely in the environment where the vehicle travels. Detect objects that may interfere.
[0022]
The configuration of the environment recognition image processing apparatus 23 is shown in FIG. The environment recognition image processing device 23 includes a camera device 32 that captures a scene in front of the vehicle, and an image processing circuit 33 that extracts an edge by performing filter processing or the like on an image captured by the camera device 32. An image processed by the holding circuit 35 and the image processing circuit 33 holding the image features of an object such as an obstacle, a pedestrian, and a preceding vehicle that may interfere with the safe driving of the vehicle, and held in the holding circuit The image recognition circuit 34 selects a type that has a high possibility of matching by comparing various types of features such as an obstacle, a pedestrian, and a preceding vehicle. The parameters “detection range”, “scan interval”, and “similarity threshold” are input via the input circuit 31.
[0023]
The information presentation device 24 is a device that presents information to the driver. Specifically, a display device, a voice providing device, a vibration device provided in a seat, or the like can be used. In this embodiment, the driver recognizes the vehicle according to the type of the object present on the course of the vehicle recognized by the environment recognition image processing device 23 and the recognition state of the driver determined by the recognition state determination device 21. Provide information.
[0024]
Next, the operation will be described.
[Detection characteristic change control processing]
Hereinafter, the flow of the detection characteristic change control process performed by the detection characteristic change device 22 will be described with reference to the flowchart shown in FIG.
[0025]
In step S100, the recognition state of the driver determined by the recognition state determination device 21 is obtained. The driver's cognitive state is either a knowledge-rule-based state or a skill-based state. If the driver's recognition state is a knowledge-rule-based recognition state, the process proceeds to step S101. If the driver's recognition state is a skill-based recognition state, the process proceeds to step S105.
[0026]
In step S101, information on the driver's line-of-sight direction detected by the driver recognition image processing device 20 is acquired, and the process proceeds to step S102. Here, the information on the driver's line of sight is obtained by accumulating the direction in which the driver's line of sight has been poured for a predetermined time.
[0027]
In step S102, based on the information on the driver's line of sight obtained in step S101, on the contrary, a range where the line of sight is not poured is defined, and the process proceeds to step S103. The range where the line of sight is not poured is a “detection range” which is one of the parameters set by the detection characteristic changing device 22. The defined “detection range” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0028]
In step S103, “scan interval”, which is one of the parameters set by the detection characteristic changing device 22, is set to, for example, “per pixel”, and the process proceeds to step S104. The set “scan interval” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0029]
In step S104, “similarity threshold”, which is one of the parameters set by the detection characteristic changing device 22, is set to, for example, “0.7 or more”, and the process proceeds to step S108. The set “similarity threshold” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0030]
In step S105, “detection range”, which is one of the parameters set by the detection characteristic changing device 22, is set to “whole image”, for example, and the process proceeds to step S106. The set “detection range” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0031]
In step S106, “scan interval”, which is one of the parameters set by the detection characteristic changing device 22, is set to “every 5 pixels”, for example, and the process proceeds to step S107. The set “scan interval” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0032]
In step S107, “similarity threshold” that is one of the parameters set in the detection characteristic changing device 22 is set to “0 or more”, for example, and the process proceeds to step S108. The set “similarity threshold” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0033]
In step S108, the parameters “detection range”, “scan interval”, and “similarity threshold” held in the memory device provided inside the detection characteristic changing device 22 are output to the environment recognition image processing device 23, and This control is terminated.
[0034]
In this flowchart, when the driver's recognition state is a knowledge-rule-based state, the flow proceeds from step S100 to step S101 to step S102 to step S103 to step S104 to step S108. That is, a range in which the driver's line of sight is not poured is defined as a detection range in step S102, a scanning interval is set for each pixel in step S103, and a similarity threshold is set to 0.7 or more in step S104. .
[0035]
On the other hand, when the driver's recognition state is a skill veil state, the flow proceeds from step S100 to step S105 to step S106 to step S107 to step S108. That is, the entire image is defined as the detection range in step S105, the scanning interval is set for every five pixels in step S106, and 0 or more is set as the similarity threshold in step S107.
[0036]
[Environment recognition image control processing]
Next, the flow of the environment recognition image control process performed by the environment recognition image processing apparatus 23 will be described based on the flowchart shown in FIG.
[0037]
In step S110, the camera device 32 captures a scene in front of the vehicle, and the process proceeds to step S111.
[0038]
In step S111, the detection range a set by the detection characteristic changing device 22 is input via the input circuit 31, and the process proceeds to step S112.
[0039]
In step S112, the image processing circuit 33 sets, based on the detection range a input in step S111, a range in which the image captured in step S110 is tried to detect an object that may interfere with safe driving of the vehicle. Then, the process proceeds to step S113. That is, when the detection range a is “entire image”, the entire image captured in step S110 is a range where the detection of the object is attempted (see FIG. 6), and the driver's line of sight is the detection range a. If a range that cannot be poured is defined, it is converted into a coordinate value on the image photographed in step S110, and the coordinate value is deleted from the range where the object detection is attempted (see FIG. 7). .
[0040]
In step S113, the scanning interval b set by the detection characteristic changing device 22 is input via the input circuit 31, and the process proceeds to step S114.
[0041]
In step S114, the image processing circuit 33 performs image processing on the range on the image where the object set in step S112 is attempted to be detected, and the process proceeds to step S115. Note that the image processing in this embodiment performs a general edge extraction process for the purpose of extracting a boundary between an object and a background such as a road. Normally, edge extraction scans for each pixel in the horizontal direction and the vertical direction of an image, and a pixel having a large luminance difference between adjacent pixels is extracted as an edge. In this embodiment, the scanning for each pixel is determined by the scanning interval b input in step S113. For example, if the scanning interval b = 5, scanning is performed every 5 pixels.
[0042]
In step S115, the similarity threshold value rt set by the detection characteristic changing device 22 is input via the input circuit 31, and the process proceeds to step S116.
[0043]
In step S116, in the image recognition circuit 34, the type of edge extracted in step S114 is based on which type, that is, whether it is a pedestrian, a preceding vehicle, or an obstacle. And the process proceeds to step S117.
[0044]
This identification process is performed by referring to the set of edges extracted in step S114 with reference to various features held in the holding circuit 35. Such a process includes a known neural network and a hidden Markov. A model can be used. In the image recognition processing using these neural networks and hidden Markov models, a set of edges is referred to various types of features, and which of the respective types best matches is represented stochastically. For example, when {pedestrian p1, preceding vehicle p2, obstacle p3} = {0.1, 0.7, 0.2} is calculated, the probability that the type is a pedestrian is 0.1. This means that a certain probability is 0.7, and the possibility of being an obstacle is 0.2. In this embodiment, the type showing the value with the highest probability is set as the type of identification. That is, the type of identification in the previous example is “preceding vehicle” indicating p2 = 0.7. Further, in this embodiment, the probability p2 is set as the similarity r (= 0.7).
[0045]
In step S117, the image recognition circuit 34 compares the similarity threshold rt input in step S115 with the similarity r of the object identified in step S116. If the similarity r is greater than or equal to the similarity threshold rt, the processing of the environment recognition image processing device 23 is terminated. On the other hand, when the similarity r is smaller than the similarity threshold rt, the process of step S116 is performed again. At this time, the identification of the type having the lowest probability is not performed in the previous processing of step S116. That is, in the example of step S116 described above, since the probability is “pedestrian”, the identification of “pedestrian” is omitted in the next processing of S116.
[0046]
[Change of sensing characteristics according to driver's cognitive characteristics]
Various vehicle driving support devices have been invented for the purpose of realizing safe vehicle driving for the driver. A so-called approach warning that informs the driver of the presence of a preceding vehicle, a pedestrian, or an obstacle existing on the traveling route of the vehicle is also one of the vehicle driving support devices. These vehicle driving support apparatuses are usually provided with sensors for detecting the state of the environment in which the vehicle travels. For example, a sensing device that includes a camera, captures a scene in front of the vehicle as an image, and performs image processing on the image to check whether there is an object that hinders safe driving of the vehicle, A sensing device, etc., has been invented and developed that confirms whether there is an object that hinders safe driving of a vehicle by transmitting laser light to the front and detecting reflected light from the object.
[0047]
There are two directions for the invention and development in this field. That is, detection of the presence of an object that hinders safe driving of the vehicle and identification of the type of the object, that is, whether the object is a preceding vehicle, a pedestrian, or an obstacle. It is “how fast” and “how accurately it is detected”.
[0048]
The background of the two directions in the present invention and development is that the amount of information contained in the state in front of the vehicle captured by the sensing device is enormous, and necessary information from the enormous information, that is, the existence confirmation of the object And the complexity of performing type recognition. Along with this complexity, the wider the region in which an object is attempted to be detected, the more accurate it is required to confirm the presence of an object, and the more detailed it is required in identifying the type of object, the cost, i.e. This is because the time and the capacity of the arithmetic processing unit required increase.
[0049]
However, when considering information provision situations such as the presence of obstacles to the actual driver, it is effective to provide information with high accuracy and detail, and conversely even if accuracy and detail are low. It is assumed that it is effective to provide information on the overall environmental condition in front of the vehicle.
[0050]
Driver operation can be broadly divided into the following two states.
(1) A skill-based driving state in which driving is performed while processing information mechanically and reflexively using skills acquired through experience for a given situation.
(2) Knowledge based on experience and learning. Driving knowledge while applying rules and rules-Rule-based driving state.
[0051]
Considering from the viewpoint of collecting driver information, in the case of a skill-based driving state, the driver achieves the operation of driving by grasping the overall state of the environment widely and shallowly. On the other hand, in the case of the knowledge-rule-based driving state, the operation of driving is realized by grasping the local state of the environment narrowly and deeply.
[0052]
Even in the case of providing information for preventing an accident, the information to be provided for each driving state is naturally different. For example, in the case of a skill-based driving state, there is a tendency that, for example, the presence confirmation of an obstacle is unconsciously removed from the routine of consciousness, or the countermeasure for the obstacle is mistakenly unconsciously. Prevention of accidents in such cases is accomplished by simply suggesting to the driver that something important is out of the routine of consciousness. In order to realize this, it is necessary for the driving support device to grasp the environment regarding the entire traveling environment in front of the vehicle.
[0053]
On the other hand, in the case of a knowledge-rule-based driving state, there is a tendency that it is not known which knowledge or rule should be used for the situation or that wrong knowledge or rule is driven. Prevention of an accident in such a case is achieved by giving correct information to the driver, instructing the location of the information, and giving a priority order and a countermeasure method. In order to realize this, it is necessary for the driving line-of-sight device to accurately and accurately grasp the environment state.
[0054]
This suggests that even if the accuracy and level of detail are improved by the conventional technology, these technologies cannot be effectively used unless the driver is in a state of seeking accurate and detailed information. On the contrary, the detected information suggests that even if the accuracy and the level of detail are somewhat impaired, it can be effective information depending on the driver's condition.
[0055]
On the other hand, in the vehicle driving support device of the present embodiment, the environment recognition image processing device via the detection characteristic changing device 22 according to the determination or detection result of the recognition state determination device 21 and the driver recognition image processing device 20. The object recognition characteristic using the image recognition in 23 is changed.
[0056]
That is, when the driver's cognitive state is a skill-based state, it is possible to detect an object over a wide range even if it is rough and low-classification type identification for an image obtained by shooting a scene in front of the vehicle. Further, it becomes possible to provide information based on the result.
[0057]
On the other hand, when the driver's recognition state is a knowledge-rule-based state, the object detection range is limited to a range that does not reach the driver's line-of-sight direction, but is detailed and has high similarity. Identification can be performed, and further information can be provided based on the result.
[0058]
In this way, by changing the sensing characteristic according to the driver's cognitive characteristic, it is possible to provide information that matches the driver's cognitive characteristic and that is comfortable for the driver.
[0059]
Next, the effect will be described.
In the vehicle driving support device of the first embodiment, the following effects can be obtained.
[0060]
(1) The detection characteristic changing device 22 changes the detection range and the scanning interval of the environment recognition image processing device 23 according to the determined recognition state, and therefore detects an object present in the environment in which the vehicle travels. Can support driving in which the detection range and accuracy can be changed according to the driver's cognitive state (corresponding to claim 1).
[0061]
(2) When the driver's recognition state is a skill veil state, the detection characteristic changing device 22 defines the entire image as a detection range and sets the similarity threshold to 0 or more with a scanning interval of every 5 pixels. In the skill-based state in which it is effective to give the driver summary information in a wide area to set, it is possible to provide driving support that presents the results of object detection with rough accuracy for a wide range of environments. (Corresponding to claim 2).
[0062]
(3) When the driver's cognitive state is a knowledge-rule-based state, the detection characteristic changing device 22 defines a range in which the driver's line of sight cannot be poured as a detection range, and sets the scanning interval to 1 In order to set the similarity threshold to 0.7 or more for each pixel, it is effective to give the driver specific information in a narrow area. In a rule-based state, detailed accuracy for a narrow range environment The driving support that presents the result of the object detection is possible (corresponding to claim 3).
[0063]
(4) The driver recognition image processing device 20 includes a gaze direction detection unit that detects the driver's gaze direction, and the detection characteristic change device 22 detects the environment recognition image processing device 23 using the detection characteristic change device 22. The change to the narrow range of the characteristic is a range in which the presence of the object in the driver recognition image processing device 20 is detected based on the driver's line-of-sight direction detected by the line-of-sight direction detection unit and the driver's line of sight does not reach. On the other hand, the change of the detection characteristic to a wide range was detected by the gaze direction detection means for detecting the presence of the object in the driver recognition image processing device 20. Regardless of the driver's line-of-sight direction, the environment recognition image processing device 23 is changed so that it can be applied to the entire range in which the object can be detected. When the detection characteristic of the image processing device 23 is changed to detection of a narrow range, driving assistance can be performed by trying to detect an object around a range where the driver is not paying attention. When the detection is changed to a wide range, it is possible to assist driving by trying to detect an object in the entire traveling environment regardless of the driver's attention (corresponding to claim 4).
[0064]
(5) The environment recognition image processing device 23 is a camera device 32 that captures an environment in front of the vehicle, and an image that scans the captured image pixel by pixel and extracts an object that exists in the environment by extracting an edge. A change in the detection characteristics of the environment recognition image processing apparatus 23 to rough accuracy by the detection characteristic changing apparatus 22 is an image of the driving environment captured by the camera apparatus 32 by performing image processing in the image processing circuit 33. On the other hand, the change of the detection characteristics to detailed accuracy is achieved by setting the scanning interval for the image of the driving environment captured by the camera device 32 for each pixel. Because it was decided to realize, object detection in the environment in front of the vehicle using image processing is possible with different accuracy, based on different object detection accuracy Driving support is possible (corresponding to claim 5).
[0065]
(6) The environment recognition image processing device 23 holds the characteristics of a plurality of objects that may exist in the environment in which the vehicle is traveling for each type of object, and a plurality of types held in the holding circuit 35. And the image processed by the image processing circuit 33, the higher the degree of similarity, the higher the degree of similarity, and the type with the highest degree of similarity is assigned to the environment recognition image processing device 23. An image recognition circuit 34 that performs an image recognition process that identifies the type of the object detected by the image recognition circuit 34, and the detection characteristic changing device 22 changes the detection characteristics of the environment recognition image processing device 23 to rough accuracy. If the image recognition processing in 34 is equal to or greater than the similarity threshold 0, it is realized by specifying the type of the object detected by the environment recognition image processing device 23. On the other hand, the change of the detection characteristics to detailed accuracy is as follows. Image recognition In the image recognition processing in the recognition circuit 34, it is realized by repeatedly performing the similarity threshold until the similarity threshold becomes 0.7 or more. Therefore, the detection of an object in the environment in front of the vehicle using image processing is different. The object can be detected with high accuracy, and driving assistance based on different object detection accuracy is possible (corresponding to claim 7).
[0066]
(Second embodiment)
FIG. 8 is a block diagram showing the vehicle driving support apparatus of the second embodiment. Since the basic configuration of the second embodiment is substantially the same as the block configuration diagram of the first embodiment shown in FIG. 2, the same components are denoted by the same reference numerals, and redundant description is omitted.
[0067]
The vehicle driving support device includes a driver recognition image processing device 20, a recognition state determination device 21, a detection characteristic change device 40, a radar device 41, and an information presentation device 24. The radar apparatus 41 corresponds to the environment detection means 13.
[0068]
In the detection characteristic changing device 40, the environment recognition in the radar device 41 is performed based on the driver's line-of-sight direction detected by the driver recognition image processing device 20 and the driver's recognition state determined by the recognition state determination device 21. Set the parameters that determine the method. There are two types of parameters, “detection direction” and “resolution”.
[0069]
The radar device 41 detects an object that may hinder the safe traveling of the vehicle in the environment where the vehicle travels based on the parameters “detection direction” and “resolution” set by the detection characteristic changing device 40. . The configuration of the radar device 41 is shown in FIG. The radar device 41 is of a type that emits laser light, and includes a transmitter 52 that transmits laser light, a receiver 53 that receives reflection of the transmitted laser light, a timer 54, and a motor that rotates the transmitter in the left-right direction. 55, a motor control circuit 56 for controlling the motor 55.
[0070]
Since the transmitting unit 52 can transmit laser light only in one direction, it is necessary to rotate the transmitting unit 52 in the left-right direction by the motor 55 in order to detect an object existing in front of the traveling direction of the vehicle. is there. The parameters “detection direction” and “resolution” are input via the input circuit 51.
[0071]
Next, the operation will be described.
[Detection characteristic change control processing]
Hereinafter, the flow of the detection characteristic change control process performed by the detection characteristic change device 40 will be described based on the flowchart shown in FIG.
[0072]
In step S200, the recognition state of the driver determined by the recognition state determination device 21 is obtained. The driver's cognitive state is either a knowledge-rule-based state or a skill-based state. If it is a knowledge-rule-based recognition state, the process proceeds to step S201, and if it is a skill-based recognition state, the process proceeds to step S204.
[0073]
In step S201, information on the driver's line-of-sight direction detected by the driver recognition image processing apparatus 20 is acquired, and the process proceeds to step S202. Here, the information on the driver's line of sight is obtained by accumulating the direction in which the driver's line of sight has been poured for a predetermined time.
[0074]
In step S202, the direction in which the line of sight is not poured is defined on the basis of the information on the driver's line of sight obtained in step S201, and the process proceeds to step S203. The direction in which the line of sight is not poured is a “detection direction” which is one of the parameters set by the detection characteristic changing device 22. The defined “detection direction” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0075]
In step S203, “resolution” which is one of the parameters set by the detection characteristic changing device 22 is set to 0.1 °, for example, and the process proceeds to step S206. The set “resolution” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0076]
In step S204, “detection direction”, which is one of the parameters set by the detection characteristic changing device 22, is set to “all directions”, for example, and the process proceeds to step S205. The set “detection direction” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0077]
In step S205, “resolution” which is one of the parameters set by the detection characteristic changing device 22 is set to 0.3 °, for example, and the process proceeds to step S206. The set “resolution” is held in, for example, a memory device provided inside the detection characteristic changing device 22.
[0078]
In step S206, the parameters “detection direction” and “resolution” held in the memory device provided inside the detection characteristic changing device 22 are output to the radar device 41, and this control is terminated.
[0079]
In this flowchart, when the driver's recognition state is a knowledge-rule-based state, the flow proceeds from step S200 to step S201 to step S202 to step S203 to step S206. That is, a range in which the driver's line of sight is not poured is defined as the detection direction in step S202, and the resolution is set to 0.1 ° in step S203.
[0080]
On the other hand, when the driver's recognition state is a skill veil state, the process proceeds from step S200 to step S204 to step S205 to step S206. That is, all directions are defined as detection directions in step S204, and the resolution is set to 0.3 ° in step S205.
[0081]
[Object detection control processing]
Next, the flow of the object detection control process performed by the radar apparatus 41 will be described based on the flowchart shown in FIG.
[0082]
In step S210, the “detection direction” and “resolution” set by the detection characteristic changing device 40 are input via the input circuit 51, and the process proceeds to step S211.
[0083]
In step S211, the motor control circuit 56 sets a direction in which the radar device 41 tries to detect an object that may interfere with safe driving of the vehicle based on the “detection direction” input in step S210. The process proceeds to S212.
[0084]
That is, when the detection direction is “omnidirectional”, all directions that can be operated in design are set as the detection direction in the transmission unit 52 and the motor 55 that rotates the transmission unit 52 (FIG. 12). reference). Further, when a direction in which the driver's line of sight is not poured is defined as the detection direction, the direction within a predetermined angle (± α) is set as the detection direction with the direction as the center ( (See FIG. 13).
[0085]
In step S212, the motor control circuit 56 determines a unit for controlling the rotation of the transmitter 52 in the left-right direction, and the process proceeds to step S213. This unit determination is based on the “resolution” input in step S210. In other words, when the “resolution” is 0.1 °, the motor control circuit 56 is set so that the rotation of the motor 55 is controlled in units of 0.1 °, and the “resolution” is 0.3. If it is, the motor control circuit 56 is set so that the rotation of the motor 55 is controlled in units of 0.3 °.
[0086]
In step S213, the motor control circuit 56 controls the motor 55 based on the “detection direction” set in step S211 and the “resolution” set in step S212. During that time, the transmitter 52 transmits laser light. Then, the laser beam reflected and returned by the object or the like is received by the receiving unit 53, so that the object is detected, and this control is finished. Further, the distance from the transmission of the laser beam to the reception thereof is measured by the timer 54, thereby measuring the distance to the object.
[0087]
Next, the effect will be described.
In the vehicle driving support device of the second embodiment, the following effects can be obtained.
[0088]
(7) The change of the detection characteristic of the radar device 41 to the rough accuracy by the detection characteristic changing device 40 is realized by setting the resolution of the radar emitted by the radar device 41 to 0.3 °. The change to the detailed accuracy of the detection characteristics is realized by setting the resolution of the radar device 41 to 0.1 °. Therefore, different accuracy is detected in the detection of an object in the environment in front of the vehicle using the radar device 41. Thus, it becomes possible to detect an object, and driving assistance based on different object detection accuracy is possible (corresponding to claim 6).
[Brief description of the drawings]
FIG. 1 is a block configuration diagram showing a vehicle driving support apparatus according to an embodiment.
FIG. 2 is a block configuration diagram showing the vehicle driving support device of the first embodiment.
FIG. 3 is a block diagram illustrating an environment recognition image processing apparatus.
FIG. 4 is a flowchart showing a flow of detection characteristic change control processing performed by the detection characteristic change device.
FIG. 5 is a flowchart showing a flow of environment recognition image control processing performed by the environment recognition image processing apparatus.
FIG. 6 is an explanatory diagram of an object detection range in the environment recognition image processing apparatus.
FIG. 7 is an explanatory diagram of an object detection range in the environment recognition image processing apparatus.
FIG. 8 is a block diagram showing a vehicle driving support apparatus according to a second embodiment.
FIG. 9 is a block diagram showing a radar apparatus.
FIG. 10 is a flowchart showing a flow of detection characteristic change control processing performed by the detection characteristic change device.
FIG. 11 is a flowchart showing a flow of object detection control processing performed by the radar apparatus.
FIG. 12 is an explanatory diagram of an object detection range in a radar apparatus.
FIG. 13 is an explanatory diagram of an object detection range in a radar apparatus.
[Explanation of symbols]
10 Driving behavior detection means
11 Cognitive state determination means
12 Detection characteristic changing means
13 Environment detection means
14 Information presentation means
20 Image processing device for driver recognition
21 Cognitive state determination device
22 Detection characteristic changing device
23 Image processing device for environment recognition
24 Information presentation device
31 Input circuit
32 Camera device
33 Image processing circuit
34 Image recognition circuit
35 Holding circuit
40 Detection characteristic changing device
41 Radar equipment
51 Input circuit
52 Transmitter
53 Receiver
54 Timer
55 motor
56 Motor control circuit

Claims (7)

車両の走行する環境に存在する物体を多段階の精度で検出可能な機能と、車両の走行する環境に存在する物体の検出を実施する範囲を任意に設定可能な機能との少なくとも一方を備えた環境検出手段と、
情報を運転者に提示する情報提示手段と、
運転者の運転行動を検出する運転行動検出手段と、
検出された運転者の運転行動に応じて、運転者の認知状態を判定する認知状態判定手段と、
を備えた車両用運転支援装置において、
判定された運転者の認知状態に応じて、前記環境検出手段の検出精度または検出範囲の少なくとも一方で表される検出特性を変更する検出特性変更手段を設けたことを特徴とする車両用運転支援装置。
Provided with at least one of a function capable of detecting an object existing in the environment where the vehicle travels with multi-stage accuracy and a function capable of arbitrarily setting a range for detecting an object present in the environment where the vehicle travels Environmental detection means;
Information presentation means for presenting information to the driver;
Driving behavior detecting means for detecting the driving behavior of the driver;
According to the detected driving behavior of the driver, a recognition state determination means for determining the driver's recognition state;
In a vehicle driving support device comprising:
Vehicle driving support characterized by comprising detection characteristic changing means for changing a detection characteristic represented by at least one of detection accuracy or detection range of the environment detection means in accordance with the determined recognition state of the driver apparatus.
請求項1に記載の車両用運転支援装置において、
前記認知状態判定手段は、運転者の認知状態が、スキルベースの状態であるか、または知識−ルールベースの状態であるかを判定する手段であり、
前記検出特性変更手段は、運転者の認知状態がスキルベースの状態であると判定された場合には、広い範囲の環境に対して荒い精度にて物体の存在の検出を実施するように、環境検出手段の検出特性を変更することを特徴とする車両用運転支援装置。
The vehicle driving support device according to claim 1,
The cognitive state determination means is a means for determining whether the driver's cognitive state is a skill-based state or a knowledge-rule-based state,
When the detection characteristic changing means determines that the driver's cognitive state is a skill-based state, the detection characteristic changing unit is configured to detect the presence of an object with rough accuracy over a wide range of environments. A driving support apparatus for a vehicle, wherein the detection characteristic of the detection means is changed.
請求項2に記載の車両用運転支援装置において、
前記検出特性変更手段は、運転者の認知状態が知識−ルールベースの状態であると判定された場合には、狭い範囲の環境に対して詳細な精度にて物体の存在の検出を実施するように、環境検出手段の検出特性を変更することを特徴とする車両用運転支援装置。
The vehicle driving support device according to claim 2,
The detection characteristic changing means detects the presence of an object with a detailed accuracy in a narrow range of environment when it is determined that the driver's cognitive state is a knowledge-rule-based state. In addition, the vehicle driving support device is characterized in that the detection characteristic of the environment detection means is changed.
請求項2または請求項3記載の車両用運転支援装置において、
前記運転行動検出手段は、運転者の視線方向を検出する視線方向検出手段を備え、
前記検出特性変更手段は、
前記環境検出手段の検出特性を詳細な精度とするとき、前記環境検出手段による物体の検出範囲を、検出された運転者の視線方向に基づき、運転者の視線が及んでいない範囲に限定し、
一方、前記環境検出手段の検出特性を荒い精度とするとき、前記環境検出手段による物体の検出範囲を、検出された運転者の視線方向にかかわらず、検出可能な全ての範囲とすることを特徴とする車両用運転支援装置。
In the vehicle driving support device according to claim 2 or 3,
The driving behavior detection means includes a gaze direction detection means for detecting the gaze direction of the driver,
The detection characteristic changing means includes
When the detection characteristics of the environment detection means are set to detailed accuracy, the detection range of the object by the environment detection means is limited to a range where the driver's line of sight does not reach based on the detected driver's line-of-sight direction,
On the other hand, when the detection characteristic of the environment detection unit is set to rough accuracy, the detection range of the object by the environment detection unit is set to all the detectable ranges regardless of the detected driver's line-of-sight direction. A vehicle driving support device.
請求項2ないし請求項4のいずれか1項に記載の車両用運転支援装置において、
前記環境検出手段は、車両前方の環境を撮像するカメラと、
撮像された画像を画素単位で走査し、エッジを抽出することによって環境に存在する物体を抽出する画像処理手段と、
を備え、
前記検出特性変更手段は、
前記環境検出手段の検出特性を荒い精度とするとき、前記画像処理手段における画像処理を、前記カメラが撮像した走行環境の画像に対する走査間隔を荒く実施するように変更し、
一方、前記環境検出手段の検出特性を詳細な精度とするとき、前記画像処理手段における画像処理を、前記カメラが撮像した走行環境の画像に対する走査間隔を詰めて実施するように変更することを特徴とする車両用運転支援装置。
The vehicle driving support device according to any one of claims 2 to 4,
The environment detection means includes a camera that captures an environment in front of the vehicle,
Image processing means for scanning an imaged image in units of pixels and extracting an object existing in the environment by extracting an edge;
With
The detection characteristic changing means includes
When the detection characteristics of the environment detection means are rough accuracy, the image processing in the image processing means is changed so that the scanning interval for the image of the driving environment imaged by the camera is rough,
On the other hand, when the detection characteristics of the environment detection means are set to detailed accuracy, the image processing in the image processing means is changed so as to be performed with a scan interval for the image of the traveling environment imaged by the camera. A vehicle driving support device.
請求項2ないし請求項5のいずれか1項に記載の車両用運転支援装置において、
前記環境検出手段は、車両前方に所定の角度間隔でレーダを発信し、受信したレーダより環境に存在する物体の有無を検出するレーダ装置であり、
前記検出特性変更手段は、
前記環境検出手段の検出特性を荒い精度とするとき、前記レーダ装置が発するレーダの角度間隔を荒く実施するように変更し、
一方、前記環境検出手段の検出特性を詳細な精度とするとき、前記レーダ装置が発するレーダの角度間隔を詰めて実施するように変更することを特徴とする車両用運転支援装置。
The vehicle driving support device according to any one of claims 2 to 5,
The environment detection means is a radar device that transmits radar at a predetermined angular interval in front of the vehicle and detects the presence or absence of an object present in the environment from the received radar.
The detection characteristic changing means includes
When making the detection characteristic of the environment detection means rough accuracy, the radar device emits a change in the angular interval of the radar.
On the other hand, when the detection characteristics of the environment detection means are set to detailed accuracy, the vehicle driving support device is changed so as to be implemented by narrowing the angular interval of the radar emitted by the radar device.
請求項5または請求項6に記載の車両用運転支援装置において、
前記環境検出手段は、
車両が走行する環境に存在しえる複数の物体の特徴を、物体の種別毎に保持する種別特徴保持手段と、
保持された複数の種別の特徴と、前記画像処理手段によって処理された画像とを比較し、特徴が合致しているほど高い類似度を付与し、最も高い類似度を得た種別を、前記環境検出手段が検出した物体の種別として特定する画像認識処理を実施する画像認識手段と、
を備え、
前記検出特性変更手段は、
前記環境検出手段の検出特性を荒い精度とするとき、前記画像認識手段における画像認識処理を行わない、または、前記画像認識手段における画像認識処理を、類似度が低くとも前記環境検出手段が検出した物体の種別として特定し、
一方、前記環境検出手段の検出特性を詳細な精度とするとき、前記画像認識手段における画像認識処理において、高い類似度を得た場合に限り、前記環境検出手段が検出した物体の種別として特定する、または、前記画像認識手段における画像認識処理を、高い類似度を得るまで繰り返して実施することを特徴とする車両用運転支援装置。
In the vehicle driving support device according to claim 5 or 6,
The environment detection means includes
Type feature holding means for holding, for each type of object, characteristics of a plurality of objects that may exist in the environment in which the vehicle travels;
The feature of the plurality of types held is compared with the image processed by the image processing means, and the higher the similarity is given as the features are matched, the type having the highest similarity is determined as the environment. Image recognition means for performing an image recognition process that identifies the type of object detected by the detection means;
With
The detection characteristic changing means includes
When the detection characteristics of the environment detection means are rough accuracy, the image recognition process in the image recognition means is not performed, or the image recognition process in the image recognition means is detected by the environment detection means even if the similarity is low. Specify the type of object,
On the other hand, when the detection characteristic of the environment detection unit is set to detailed accuracy, it is specified as the type of the object detected by the environment detection unit only when high similarity is obtained in the image recognition processing in the image recognition unit. Alternatively, the vehicle driving support device is characterized in that the image recognition processing in the image recognition means is repeatedly performed until a high similarity is obtained.
JP2003166114A 2003-06-11 2003-06-11 Drive supporting device for vehicle Pending JP2005004413A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003166114A JP2005004413A (en) 2003-06-11 2003-06-11 Drive supporting device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003166114A JP2005004413A (en) 2003-06-11 2003-06-11 Drive supporting device for vehicle

Publications (1)

Publication Number Publication Date
JP2005004413A true JP2005004413A (en) 2005-01-06

Family

ID=34092358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003166114A Pending JP2005004413A (en) 2003-06-11 2003-06-11 Drive supporting device for vehicle

Country Status (1)

Country Link
JP (1) JP2005004413A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071062A (en) * 2006-09-13 2008-03-27 Fujitsu Ten Ltd Operation support device and notification method
JP2008299787A (en) * 2007-06-04 2008-12-11 Mitsubishi Electric Corp Vehicle detector
JP2010089661A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012181016A (en) * 2011-02-28 2012-09-20 Toyota Motor Corp Sound source detection apparatus and approaching vehicle detection apparatus
JP2015513132A (en) * 2012-01-23 2015-04-30 アルカテル−ルーセント Method, network entity, and communication system for enhancing traffic security
JP2016223872A (en) * 2015-05-29 2016-12-28 三菱電機株式会社 Object Identification Device
JP2019169124A (en) * 2017-12-19 2019-10-03 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Low dimensional detection of segment area and movement route

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071062A (en) * 2006-09-13 2008-03-27 Fujitsu Ten Ltd Operation support device and notification method
JP2008299787A (en) * 2007-06-04 2008-12-11 Mitsubishi Electric Corp Vehicle detector
JP2010089661A (en) * 2008-10-08 2010-04-22 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2012181016A (en) * 2011-02-28 2012-09-20 Toyota Motor Corp Sound source detection apparatus and approaching vehicle detection apparatus
JP2015513132A (en) * 2012-01-23 2015-04-30 アルカテル−ルーセント Method, network entity, and communication system for enhancing traffic security
JP2016223872A (en) * 2015-05-29 2016-12-28 三菱電機株式会社 Object Identification Device
JP2019169124A (en) * 2017-12-19 2019-10-03 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Low dimensional detection of segment area and movement route
JP7213667B2 (en) 2017-12-19 2023-01-27 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Low-dimensional detection of compartmentalized areas and migration paths

Similar Documents

Publication Publication Date Title
JP4420011B2 (en) Object detection device
JP4345832B2 (en) Road condition detection system
CN107054218B (en) Identification information display device and method
US20170008531A1 (en) Driving assistant for vehicles
CN105620489A (en) Driving assistance system and real-time warning and prompting method for vehicle
JPH06281455A (en) Vehicle environment monitoring device
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
JP7009042B2 (en) A device that can operate to determine the position of a part of the lane
CN106898149B (en) Control of a vehicle
JP2001351200A (en) Onboard object detecting device
CN113593301B (en) Method for pre-judging vehicle jam, vehicle and computer readable storage medium
US20240001846A1 (en) Apparatus and method for giving warning about vehicle in violation of traffic signal at intersection
JP2010262437A (en) Navigation device, and method and program for deciding own vehicle travelling lane
CN110888135B (en) Target identification method and device, storage medium and vehicle
JP2005004413A (en) Drive supporting device for vehicle
JP4277678B2 (en) Vehicle driving support device
EP3495222A1 (en) Image-capturing device
US20240112580A1 (en) Traffic safety support system and storage medium
JP2020154375A (en) Vehicle hazardous condition identification device, vehicle hazardous condition identification method, and program
CN113173160B (en) Anti-collision device for vehicle and anti-collision method for vehicle
JP2021131869A (en) Road surface state estimation device
JP7333702B2 (en) VEHICLE DANGEROUS SITUATION DETERMINATION DEVICE, VEHICLE DANGEROUS SITUATION DETERMINATION METHOD, AND PROGRAM
KR101458387B1 (en) Method and apparatus for preventing drunken driving
JP2022056153A (en) Temporary stop detection device, temporary stop detection system, and temporary stop detection program
KR20200072590A (en) Method And Apparatus for Detection of Parking Loss for Automatic Parking

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051117