JP5206752B2 - 走行環境認識装置 - Google Patents

走行環境認識装置 Download PDF

Info

Publication number
JP5206752B2
JP5206752B2 JP2010192456A JP2010192456A JP5206752B2 JP 5206752 B2 JP5206752 B2 JP 5206752B2 JP 2010192456 A JP2010192456 A JP 2010192456A JP 2010192456 A JP2010192456 A JP 2010192456A JP 5206752 B2 JP5206752 B2 JP 5206752B2
Authority
JP
Japan
Prior art keywords
occupancy
probability
vehicle
occupation
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010192456A
Other languages
English (en)
Other versions
JP2012048642A (ja
Inventor
聖和 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010192456A priority Critical patent/JP5206752B2/ja
Priority to US13/217,375 priority patent/US8744744B2/en
Priority to DE102011081740A priority patent/DE102011081740A1/de
Publication of JP2012048642A publication Critical patent/JP2012048642A/ja
Application granted granted Critical
Publication of JP5206752B2 publication Critical patent/JP5206752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/20Road profile
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Description

本発明は、車両の走行環境を認識する走行環境認識装置に関するものである。
従来、車両の走行環境(車両前方の状況等)に基づく走行制御として様々なものが実用化されている。例えば、アダプティブクルーズ制御(ACC)は、自車両の前方に位置する先行車両と自車両との車間距離を、自車両の乗員らによってあらかじめ設定された設定車間距離に維持する制御である。また例えば、プリクラッシュセーフティ制御(PCS)は、自車両の進行路上に位置する物体(例えば、先行車両やガードレール等)と自車両との衝突の可能性が規定値以上となった場合に、自車両に加わる制動力を増加させる制御である。
車両の走行制御を精度よく行うには、車両の走行環境を精度よく認識することが重要である。車両の走行環境は、カメラやレーダ装置の他、地図データからも判断することができる。ただし、実際の走行環境をリアルタイムに検出することによって得られるカメラやレーダ装置の検出結果に比べ、地図データは精度が劣るため、地図データに基づく走行制御は十分な精度が期待できない。
この点、特許文献1には、地図データの精度を向上させる道路形状取得装置について記載されている。この道路形状取得装置は、地図データにおいて道路を構成するリンクに基づき生成したリンク平面をグリッドに分割し、カメラで検出した道路の白線に対応するグリッドの白線存在確率をベイズの更新式に従って更新し、白線存在確率の高いグリッドから道路形状を取得することで地図データの精度を向上させるものである。
特開2008−3253号公報
しかしながら、前述したように地図データはカメラ等の検出結果に比べて精度が悪いため、特許文献1に記載のようにカメラの検出情報を地図データ(具体的にはリンクに基づき生成したリンク平面)に合わせ込む手法では、実際の空間位置との誤差が大きくなってしまう。
本発明は、こうした問題にかんがみてなされたものであり、車両の走行環境を高精度で認識することのできる走行環境認識装置を提供することを目的としている。
上記目的を達成するためになされた本発明の請求項1,4,6に記載の走行環境認識装置では、自車位置特定手段が、自車両(当該走行環境認識装置が搭載された車両)の運動量を検出するためのセンサからの情報に基づき、任意の地点を原点とする絶対座標系における自車両の位置及び向きを特定する。そして、マップ作成手段が、その絶対座標系をグリッドに分割して自車両の走行の障害となるものの占有確率をグリッドごとに記憶した占有グリッドマップを作成し、占有確率をベイズ推定により更新する。
具体的には、マップ作成手段は、物体占有確率算出手段と、他車両占有確率算出手段と、境界線占有確率算出手段と、融合手段とを備える。物体占有確率算出手段は、自車両の前方に存在する物体を検出するレーダ装置からの情報に基づき、占有グリッドマップのグリッドごとにその物体の占有確率を求める。他車両占有確率算出手段は、自車両の周辺に存在する他車両から送信されたその他車両の位置に関する情報を受信する通信装置からの情報に基づき、占有グリッドマップのグリッドごとにその他車両の占有確率を求める。境界線占有確率算出手段は、車線境界線の位置を特定可能な地図データを記憶する記憶装置からの情報に基づき、占有グリッドマップのグリッドごとに車線境界線の占有確率を求める。そして、融合手段は、物体占有確率算出手段、他車両占有確率算出手段及び境界線占有確率算出手段のそれぞれによって求められた占有確率を占有グリッドマップのグリッドごとに融合することで、自車両の走行の障害となるものの占有確率を求める。
このような走行環境認識装置によれば、自車両の走行環境(具体的には走行の障害となるものの存在)を絶対座標系において確率で表現することができ、ベイズ推定により更新することでその精度を高めることができる。特に、この走行環境認識装置では、レーダ装置からの情報に基づく占有確率と、通信装置からの情報に基づく占有確率と、記憶装置からの情報に基づく占有確率とを融合するようにしている。このため、レーダ装置、通信装置及び記憶装置の各装置(単一の装置)で得られる占有確率に比べ、高精度の占有確率を求めることができる。したがって、自車両の走行環境を高精度で認識することができる。
具体的には、例えば請求項に記載のように、融合手段は、物体占有確率算出手段、他車両占有確率算出手段及び境界線占有確率算出手段のそれぞれによって求められた占有確率を、境界線占有確率算出手段によって求められた占有確率の影響が最も小さくなるように重み付けして融合するようにしてもよい。このようにすれば、レーダ装置や他車両からの情報に比べて精度の悪い地図データに基づく占有確率の影響を小さくすることができるため、融合した占有確率の精度を向上させることができる。
また、レーダ装置が物体として立体物を検出可能である場合には、例えば請求項2,4に記載のように、物体占有確率算出手段は、レーダ装置による検出波の出射点と立体物の観測点とを通る直線上の位置と、立体物の占有確率との対応関係を規定したセンサモデルに従い、立体物の占有確率を求めるようにしてもよい。このようにすれば、立体物の占有確率を容易に求めることができる。
この場合、例えば請求項3,4に記載のように、物体占有確率算出手段は、直線上において2つの観測点で立体物が検出された場合には、自車両に近い観測点の占有確率が自車両から遠い観測点の占有確率よりも低く設定されたセンサモデルに従い、車線境界線の占有確率を求めるようにしてもよい。このようにすれば、雨や霧などの先に存在する物体をレーダ装置で検出するような場合に、実際に存在する立体物よりも自車両に近い位置で雨や霧などを立体物として検出したような場合にも、その影響を小さくすることができる。
また、レーダ装置が物体として車線境界線も検出可能である場合には、例えば請求項5,6に記載のように、物体占有確率算出手段は、車線境界線の占有確率が立体物の占有確率よりも低く設定されたセンサモデルに従い、車線境界線の占有確率を求めるようにしてもよい。このようにすれば、立体物に比べて障害となる程度が低い車線境界線の占有確率を低くすることができる。
一方、通信装置が他車両の位置に関する情報として位置及び向きの情報を受信するものである場合には、例えば請求項に記載のように、他車両占有確率算出手段は、他車両の外形を基準とする位置と、他車両の占有確率との対応関係を規定したセンサモデルに従い、他車両の占有確率を求めるようにしてもよい。このようにすれば、他車両の占有確率を容易に求めることができる。特に、他車両の外形を基準としているため、占有確率を高精度に求めることができる。
また、例えば請求項に記載の走行環境認識装置では、境界線占有確率算出手段は、車線境界線を含むグリッドの占有確率を高くし、車線境界線に挟まれた道路部分のグリッドの占有確率を低くすることで、車線境界線の占有確率を求める。このような走行環境認識装置によれば、車線境界線の占有確率を高精度に求めることができる。
実施形態の走行環境認識システムの全体構成を示すブロック図である。 信号処理ECUが実行する走行環境認識処理を示すフローチャートである。 (a)は、レーザレーダの発光部と立体物の観測点とを通る直線上の位置と、立体物の占有確率との対応関係を規定したシングルエコーのセンサモデル、(b)はそのマルチエコーのセンサモデル、(c)は実際の観測データの説明図である。 レーザレーダの発光部と車線境界線の観測点とを通る直線上の位置と、車線境界線の占有確率との対応関係を規定したセンサモデルである。 他車両の外形を基準とする位置と他車両の占有確率との対応関係を規定したセンサモデルである。 (a)は占有グリッドマップ上にノードを当てはめた状態を示す説明図、(b)は道路形状を進行方向に算出した状態を示す説明図、(c)はグリッドの占有確率の算出方法を説明する説明図である。 地図データベースに基づく2つのノードの絶対位置及びそれらを結ぶ道路の道路幅と、車線境界線の占有確率との対応関係を規定したセンサモデルである。 自車両が走行可能な空間の認識例を示す説明図である。 ピラミッドグリッドの考え方の説明図である。
以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.全体構成]
図1は、実施形態の走行環境認識システムの全体構成を示すブロック図である。この走行環境認識システムは、信号処理ECU10、レーザレーダ20、GPS受信機30、地図データベース40、通信機50、車速センサ60、ヨーレートセンサ70、操舵角センサ80等を備えている。
信号処理ECU10は、CPU、ROM、RAM等を備える電子制御装置であり、各種処理を実行する。
レーザレーダ20は、自車両前部に設けられた発光部(出射点)からパルス状のレーザ光をスキャン(2次元走査)し、自車両前方に存在する物体(立体物だけでなく車線境界線も含まれる。)によって反射されたレーザ光を自車両前部に設けられた受光部で受光する。そして、レーザレーダ20は、レーザ光の出射時刻と反射光の受光時刻との時間差及び反射光強度を表す計測時間情報を信号処理ECU10へ出力する。信号処理ECU10は、レーザレーダ20から入力した計測時間情報に基づいて前方物体までの距離を算出し、算出した距離と、反射光が得られたレーザ光の照射角度とに基づき、自車両に対する前方物体の相対位置(距離及び方位)を判定する。
レーザレーダ20は、高さ方向の角度が異なる複数ライン(例えば6ライン)のレーザ光を照射可能であり、上側のライン(例えば上側3ライン)のレーザ光は、主に、立体物(前方車両や、路側物であるデリニエータ、看板など)を検出するために用いられる。一方、下側のライン(例えば下側3ライン)のレーザ光は、主に、車線の境界を示すために路面上に描かれた車線境界線(例えば、白線)を検出するために用いられる。
GPS受信機30は、GPS(Global Positioning System)用の人工衛星からの送信電波を受信し、自車両の現在位置(緯度経度座標によって表される絶対位置)を検出する。
地図データベース40は、緯度経度座標に従ってデータベース化された地図データが記憶された記憶装置である。この地図データにおいて、車両が走行する道路は、実際の道路における各交差点の中央位置に設定されたノードと、ノード間を接続するリンクとにより表されている。ノードの情報としては、その絶対位置情報の他に、属性情報として道路幅員や車線数などの情報が含まれており、ノードの絶対位置情報に基づき車線境界線の位置を特定することが可能となる。
通信機50は、自車両の周辺に存在する他車両との通信(車車間通信)、あるいは路側器との通信(路車間通信)を行うためのものであり、他車両の現在位置(緯度経度座標によって表される絶対位置)及び運動量(進行方向及び変位量)の情報を受信する。なお、自車両から他車両へも同様の情報を送信することが可能であり、この場合、GPS受信機30から取得した自車両の現在位置(緯度経度座標によって表される絶対位置)及び後述するように自車両の車速、ヨーレート及び操舵角に基づき推定される自車両の運動量の情報を送信する。
車速センサ60、ヨーレートセンサ70及び操舵角センサ80は、自車両の運動量を検出するためのセンサである。具体的には、車速センサ60は自車両の走行速度を検出し、ヨーレートセンサ70は自車両に作用するヨーレートを検出し、操舵角センサ80はステアリングホイールの操舵角を検出する。信号処理ECU10は、車速センサ60、ヨーレートセンサ70及び操舵角センサ80からの検出信号に基づき、自車両の運動量(進行方向及び変位量)を算出する。
[2.処理の説明]
次に、本実施形態の走行環境認識システムにおいて実行される処理の概要について説明する。
この走行環境認識システムでは、自車両の周辺(特に前方)の走行環境(道路環境)を認識する共通基盤として占有グリッドマップを作成し、走行環境を確率で表現する。具体的には、ある時間t=0における自車両の位置を原点に、自車両左右方向をX軸、自車両前後方向をY軸とした絶対座標系を基準単位でメッシュ状(グリッド)に分割し、自車両の走行の障害となるものの占有確率(存在確率)をグリッド(本実施形態では50cm角の正方形グリッド)ごとに記憶する。なお、グリッドサイズは任意あるいはセンサの検出精度に応じて最適なサイズに決定される。
自車両の走行の障害となるものには、立体物だけでなく、車線境界線も含まれる。作成した占有グリッドマップは、アダプティブクルーズ制御(ACC)やプリクラッシュセーフティ制御(PCS)などといった前方監視制御を実現するための衝突系アプリケーションによって利用される。なお、本実施形態で用いる絶対座標系は、前述したように任意の地点を原点としてX軸及びY軸を任意の向きに設定した独自の座標系であり、緯度経度座標に直接対応するものではない。
自車両の走行の障害となるものの占有確率は、レーザレーダ20からの情報だけでなく、通信機50及び地図データベース40からの各情報に基づき求められる。具体的には、レーザレーダ20からの情報に基づき、占有グリッドマップのグリッドごとに前方物体の占有確率を求めるとともに、通信機50からの情報に基づき、占有グリッドマップのグリッドごとに他車両の占有確率を求める。さらに、地図データベース40からの情報に基づき、占有グリッドマップのグリッドごとに車線境界線の占有確率を求める。つまり、異なるセンサ類(レーザレーダ20、通信機50及び地図データベース40)からの各情報に基づき独立に占有確率を導出(占有グリッドマップを作成)する。その後、これらの占有確率を占有グリッドマップのグリッドごとに融合することで、自車両の走行の障害となるものの占有確率を求める。このようにして、衝突系アプリケーションに有用な占有グリッドマップを作成する。
[3.具体的処理手順]
次に、本実施形態の走行環境認識システムにおいて信号処理ECU10が実行する具体的処理手順について説明する。
図2は、信号処理ECU10が実行する走行環境認識処理を示すフローチャートである。なお、以下に説明するS10〜S70の処理は、一定周期(本実施形態では100ms周期)で繰り返される。
信号処理ECU10は、この走行環境認識処理を開始すると、まずS10で、各種センサ類からセンサデータを取得する処理を行う。具体的には、信号処理ECU10は、次の(1)〜(5)の処理を行う。
(1)計測時間情報をレーザレーダ20から取得し、この計測時間情報に基づき、自車両に対する前方物体の相対位置(距離及び方位)を判定する。
(2)自車両の周辺に存在する他車両の現在位置(緯度経度座標によって表される絶対位置)及び運動量(進行方向及び変位量)の情報を通信機50から取得する。
(3)ノードの情報(絶対位置情報及び属性情報)を地図データベース40から取得する。
(4)自車両の現在位置(緯度経度座標によって表される絶対位置)をGPS受信機30から取得する。
(5)自車両の走行速度(車速)を車速センサ60から取得し、自車両に作用するヨーレートをヨーレートセンサ70から取得し、ステアリングホイールの操舵角を操舵角センサ80から取得する。
続いて、S20では、信号処理ECU10は、S10で取得した自車両の車速、ヨーレート及び操舵角に基づき、自車両の運動量(エゴモーション)を推定する。具体的には、信号処理ECU10は、処理間隔である100msの期間における自車両の運動量(進行方向及び変位量)を車速、ヨーレート及び操舵角に基づき算出する。自車両の運動量は、例えば、自車両の車速、ヨーレート及び操舵角を車両モデル(例えば2輪モデル)に当てはめて算出することができる。なお、自車両の運動量は、レーザレーダ20からの取得情報に基づくスキャンマッチング、4輪の車輪速度差、GPS受信機30から取得される自車両の移動速度を使って算出することもできる。
そして、信号処理ECU10は、算出した自車両の運動量に基づき、絶対座標系における自車両の位置及び向き(方位)を算出する。例えば、自車両の進行方向を絶対座標系における方向に変換するとともに、その方向における自車両の変位量を絶対座標系におけるX軸方向の変位量とY軸方向の変位量(ΔX、ΔY)とに分解する。そして、絶対座標系における自車両の前回位置(X、Y)にその変位量を加算する(X+ΔX,Y+ΔY)。これにより、絶対座標系における自車両の位置及び向きを求めることができる。
続いて、S30では、信号処理ECU10は、S20で算出した絶対座標系における自車両の位置及び向きに基づき、各種センサ類(レーザレーダ20、通信機50及び地図データベース40)から取得したデータを絶対座標系に変換する処理を行う。そして、S40では、変換後のデータに基づき、センサ類ごとに占有グリッドマップを作成し、自車両の走行の障害となるものの占有確率を計算する。以下、センサ類ごとに行われるS30及びS40の処理について詳細に説明する。
[A.レーザレーダ20からの取得情報に基づく処理]
信号処理ECU10は、S10でレーザレーダ20からの取得情報に基づき判定した前方物体の相対位置(距離及び方位)を、絶対座標系における位置に変換する処理を行う。具体的には、自車両(レーザレーダ20)を原点とする相対座標系の前方方向を絶対座標系における自車両の進行方向(ヨー角)に一致するように相対座標系を回転させつつ、車幅方向及び前方方向の2次元座標を絶対座標系に当てはめることにより、前方物体の絶対座標系における位置を求めることができる。
続いて、信号処理ECU10は、前方物体の絶対座標系における位置に基づいて、その前方物体の絶対座標系における占有確率を計算する。占有確率の求め方は、レーザレーダ20による上側のラインのレーザ光で検出された前方物体(立体物)と、下側のラインのレーザ光で検出された前方物体(車線境界線)とで異なるため、それぞれについて説明する。
[A1.上側のラインのレーザ光で検出された前方物体(立体物)]
図3(a)は、レーザレーダ20の発光部(出射点)と前方物体(立体物)の観測点とを通る直線上の位置と、前方物体(立体物)の占有確率との対応関係を規定したセンサモデルである。このセンサモデルに示すように、観測点の占有確率は1に近い値に設定される一方、観測点よりも手前の位置の占有確率は0に近い値(ε)に設定され、観測点よりも後ろの位置の占有確率は中間的な値(本実施形態では0.5)に設定される。これは、観測された物体の手前には物体が存在しないと推測される反面、物体の後ろには物体が存在するか否かが不明だからである。
ただし、雨や霧などの先に存在する物体を検出するような場合、同一直線上に複数の観測点で前方物体(立体物)が検出されることがある。前述した図3(a)に示すセンサモデルは、物体が1つのみ検出された場合(シングルエコー)のものであるのに対し、図3(b)に示すセンサモデルは、2つの物体が検出された場合(マルチエコー)のものである。図3(b)に示すように、マルチエコーの場合には、シングルエコーのセンサモデルを並べた形のセンサモデルを用いる。つまり、検出された各物体に対応する観測点付近は占有確率が高く設定され、観測点よりも手前の位置の占有確率は0に近い値に設定され、観測点よりも後ろの位置の占有確率は中間的な値に設定される。本実施形態では、後ろの観測点の手前については占有確率を中間的な値とせずに0に近い値に設定している。また、このセンサモデルでは、自車両に近い観測点の占有確率が自車両から遠い観測点の占有確率よりも低く設定されている。自車両に近い観測点は雨や霧などを前方物体として観測した可能性があるからである。
例えば、図3(c)の左側の写真に示す状況では、図3(c)の右側に示すような前方物体の観測点(測距データ)が得られ、これを占有確率で表すことにより図3(c)の中央に示すような占有グリッドマップが得られる。
占有グリッドマップ(占有確率)は、ベイズ推定により更新される。レーザレーダ20からの情報に基づく前方物体(立体物)の占有確率のセンサモデルの場合、観測点付近(本実施形態では占有確率が0.5よりも大きい範囲)、その手前(占有確率が0.5以下の範囲)、その後ろ(占有確率が0.5の範囲)について、対応するグリッドに対する観測結果を、それぞれ、観測値が得られた(事象ztが生じた)、観測値が得られなかった(事象ztバーが生じた)、観測できなかった、と解釈する。なお、事象ztバーとは、事象ztと背反な事象の意味である。
また、前方物体が存在するという事象をxtと表し、あるグリッドの前方物体の占有確率をp(xt)で表現すると、各グリッドの物体の占有確率は次の条件付き確率を計算することで更新することができる。
[A2.下側のラインのレーザ光で検出された前方物体(車線境界線)]
図4は、レーザレーダ20の発光部(出射点)と前方物体(車線境界線)の観測点とを通る直線上の位置と、前方物体(車線境界線)の占有確率との対応関係を規定したセンサモデル(白線モデル)である。このセンサモデルに示すように、車線境界線の観測点の占有確率は、立体物の占有確率よりも低い値α(ただし0.5よりは高い値であり、例えば0.7)に設定され、観測点の前後の占有確率は0に近い値(ε)に設定される。占有確率を低く設定しているのは、車線境界線は立体物に比べて障害となる程度が低いからである。
占有グリッドマップ(占有確率)は、ベイズ推定により更新される。なお、このセンサモデル(白線モデル)の場合、観測点付近(本実施形態では占有確率が0.5よりも大きい範囲)に対応するグリッドに対する観測結果を、観測値が得られた(事象ztが生じた)と解釈し、残りの観測結果を、観測値が得られなかった(事象ztバーが生じた)と解釈する。
[B.通信機50からの取得情報に基づく処理]
信号処理ECU10は、S10で通信機50から取得した他車両の現在位置(緯度経度座標によって表される絶対位置)及び進行方向(向き)を、絶対座標系における位置及び向きに変換する処理を行う。具体的には、まず、S10でGPS受信機30から取得した自車両の現在位置(緯度経度座標によって表される絶対位置)及びS20で推定した自車両の向き(進行方向)に基づき、自車両に対する他車両の相対位置及び向きを判定し、判定した相対位置及び向きを絶対座標系における位置及び向きに変換する。なお、相対位置及び向きを絶対座標系における位置及び向きに変換する方法は、レーザレーダ20からの取得情報に基づく処理と同様の方法で行うことができる。
続いて、信号処理ECU10は、他車両の絶対座標系における位置に基づいて、その他車両の絶対座標系における占有確率を計算する。図5は、他車両の外形を基準とする位置と他車両の占有確率との対応関係を規定したセンサモデルである。なお、図5に示す中心点は、他車両の後輪間の中心位置に対応する。
このセンサモデルに示すように、他車両の占有確率Premoteは、他車両の外形の内側の領域の占有確率Pinside(本実施形態では0.8)と、それ以外の領域であって他車両の外形よりも一回り大きい外形の内側の領域の占有確率Pstrip(本実施形態では0.6)と、残りの領域の占有確率(本実施形態では0.5)との3種類のいずれかに設定される。なお、他車両の外形は、標準的な車両の外形(既定値)を用いてもよく、他車両からその外形の情報が送信される場合にはその情報を用いてもよい。
占有グリッドマップ(占有確率)は、ベイズ推定により更新される。なお、通信機50からの情報に基づく他車両の占有確率のセンサモデルの場合、他車両の外形の内側の領域(本実施形態では占有確率が0.8の領域)及び一回り大きい外形の内側の領域(占有確率が0.6の領域)に対応するグリッドに対する観測結果を、観測値が得られた(事象ztが生じた)と解釈し、残りの領域(占有確率が0.5の領域)に対応するグリッドに対する観測結果を、観測値が得られなかった(事象ztバーが生じた)と解釈する。
[C.地図データベース40からの取得情報に基づく処理]
信号処理ECU10は、S30の処理として、S10で地図データベース40から取得したノードの絶対位置情報及びノードの属性情報に基づき、車線境界線の占有確率を計算する。
[C1.初期状態]
初期状態では、すべてのグリッドの占有確率が分からないため、すべての占有確率を0.5にセットする。
[C2.GPSで位置情報取得]
S10でGPS受信機30から取得した自車両の現在位置(緯度経度座標によって表される絶対位置)に基づき、絶対座標系におけるノードの位置を演算し、図6(a)に示すように占有グリッドマップ上にノードを当てはめる。
[C3.道路形状算出]
図6(b)に示すように、ノードの属性情報から、道路形状(車線境界線の位置)を進行方向に算出する。具体的には、ノードの属性情報である道路幅員(走行側及び対向側)の情報から道路端を判定し、車線数(走行側及び対向側)の情報から走行区分を判定することができる。
[C4.占有確率算出]
図6(c)に示すように、車線境界線と交わる(車線境界線を含む)グリッドの占有確率を0.1上げ、車線境界線に挟まれた道路部分のグリッドの占有確率を0.1下げる。また、今回情報を取得していない、又は車線境界線よりも外側(道路の外側)のグリッドの占有確率を0.5とする。
[C5.情報の更新]
1周期前までに計算した各グリッドの占有確率の値と今回観測した結果得られる各グリッドの占有確率の値とを用いて、各グリッドの占有確率を次式に従い更新する。ただし、新しい占有確率が1−εよりも大きければ1−εに置き換え、εよりも小さければεに置き換える。
なお、地図データベース40からの取得情報に基づく処理においても、前述したレーザレーダ20からの取得情報に基づく処理や通信機50からの取得情報に基づく処理と同様に、占有グリッドマップ(占有確率)をベイズ推定により更新するようにしてもよい。図7は、地図データベース40に基づく2つのノードの絶対位置及びそれらを結ぶ道路(リンク)の道路幅と、車線境界線の占有確率との対応関係を規定したセンサモデルである。このセンサモデルでは、車線境界線(この例では道路幅よりも外側の一定幅の帯状部分)の占有確率が1−εに設定され、車線境界線に挟まれた道路部分の占有確率がεに設定され、車線境界線よりも外側(道路の外側)の占有確率が0.5に設定されている。
このようなセンサモデルに従い車線境界線の占有確率を求める場合、前述したレーザレーダ20からの取得情報に基づく処理や通信機50からの取得情報に基づく処理と同様に、占有グリッドマップ(占有確率)をベイズ推定により更新することができる。つまり、すべてのセンサ類からの情報をベイズ推定の枠組みで処理することができる。なお、このセンサモデルの場合、車線境界線、車線境界線に挟まれた道路部分、車線境界線よりも外側(道路の外側)について、対応するグリッドに対する観測結果を、それぞれ、観測値が得られた(事象ztが生じた)、観測値が得られなかった(事象ztバーが生じた)、観測できなかった、と解釈する。
図2に戻り、S50では、レーザレーダ20、通信機50及び地図データベース40の各情報に基づき導出した占有確率を融合する重み付け融合演算を行う。すなわち、各種センサ類ごとに作成した占有グリッドマップの対応するグリッドごとに占有確率を重み付けして融合する演算を行うことで、1つの占有グリッドマップを作成する。占有確率を融合する演算は、例えば重み付け平均を算出することにより行うことができる。本実施形態では、レーザレーダ20>通信機50>地図データベース40の関係で占有確率の影響が大きくなるように重み付けを行う。地図データベース40に基づく占有確率の影響が最も小さくなるように重み付けするのは、地図データベース40からの情報が最も精度が悪いと考えられるからである。なお、自車両の位置に対応するグリッドの占有確率が高い場合、その占有確率は自車両と物体とが衝突するあるいは位置を共有する(車線境界線をまたぐ)確率を意味する。
続いて、S60では、占有グリッドマップを用いる衝突系アプリケーションに適したスレッショルドを0〜1の範囲で算出する。前述したように、車線境界線は実際の物(立体物)に比べて占有確率を低く設定しているため、衝突系アプリケーションの種類に応じてスレッショルドを変更することができる。例えば、車線境界線をまたがせたくない制御においては、スレッショルドを車線境界線よりも低めに設定することが好ましい。一方、車線境界線を避けることが重要でない制御では、スレッショルドを車線境界線よりも高めに設定することが好ましい。
また、スレッショルドを低く設定すると、車線境界線も含めて実体化されやすくなるため、自車両の運動が拘束され、逆に、スレッショルドを高く設定すると、実体化されるものが減少するため、運動の自由度が増えることになる。このため、例えば、自車両の進行方向における占有確率が低い(障害が少ない)場合には安全と判断してスレッショルドを上げ、逆に占有確率が大きい(障害が多い)場合にはスレッショルドを下げるといった処理が可能である。なお、スレッショルドを固定値として、前方空間の面積が広がっていれば安全側に移行していると判断し、狭まっていれば危険側に移行していると判断することもできる。
続いて、S70では、S60で算出したスレッショルドに基づき、占有グリッドマップで障害物の有無を認識する空間認識演算を行う。これにより、例えば図8に示すように、先行車両や歩行者などを避けた形で、自車両が走行可能な空間を認識することができる。
[4.効果]
以上説明したように、本実施形態の走行環境認識システムによれば、自車両の走行環境(具体的には走行の障害となるものの存在)を絶対座標系において確率で表現することができ、ベイズ推定により更新することでその精度を高めることができる。特に、レーザレーダ20、通信機50及び地図データベース40からの各情報に基づく占有確率を融合するようにしているため、各情報のみによって得られる占有確率に比べ、高精度の占有確率を求めることができる。したがって、自車両の走行環境を高精度で認識することができる。
また、レーザレーダ20や通信機50からの情報に基づく占有確率に比べて精度の悪い地図データベース40からの情報に基づく占有確率の影響が最も小さくなるように重み付けして融合するようにしているため、融合した占有確率の精度を向上させることができる。地図データは精度が悪いものの、レーザレーダ20や通信機50からでは取得できない情報(交差点位置や直交道路の形状)を取得することができるため、地図データベース40からの情報に基づく占有確率を融合しない場合に比べても占有確率の精度を高くすることができる。
また、センサモデルに従い占有確率を求めるようにしているため、占有確率を容易に(低い処理負荷で)求めることができる。
特に、レーザレーダ20で同一直線上に複数の前方物体(立体物)が検出された場合には、自車両に近い観測点の占有確率が自車両から遠い観測点の占有確率よりも低く設定されるようにしているため、実際に存在する立体物よりも自車両に近い位置で雨や霧などを立体物として検出したような場合にも、その影響を小さくすることができる。
また、レーザレーダ20で検出された車線境界線の占有確率が立体物の占有確率よりも低く設定されるようにしているため、立体物に比べて障害となる程度が低い車線境界線の占有確率を低くすることができる。
また、通信機50からの情報に基づく占有確率が、他車両の外形を基準にして設定されるようにしているため、占有確率を高精度に求めることができる。
また、車線境界線を含むグリッドの占有確率を高く更新し、車線境界線に挟まれた道路部分のグリッドの占有確率を低く更新することで、車線境界線の占有確率を求めるようにしているため、地図データに基づく車線境界線の占有確率を高精度に求めることができる。
[5.特許請求の範囲との対応]
なお、本実施形態では、信号処理ECU10が走行環境認識装置に相当し、S20の処理が自車位置特定手段に相当し、S30〜S50の処理がマップ作成手段に相当し、S30,S40の処理が物体占有確率算出手段、他車両占有確率算出手段及び境界線占有確率算出手段に相当し、S50の処理が融合手段に相当する。また、レーザレーダ20がレーダ装置に相当し、通信機50が通信装置に相当し、地図データベース40が記憶装置に相当する。
[6.他の形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
例えば、上記実施形態では、ある時間t=0における自車両の位置を絶対座標系(占有グリッドマップ)の原点にしたが、これに限定されるものではなく、原点はどこにとっても構わない。ただし、車両の走行経路上のいずれかの地点を原点とすれば、絶対座標系における自車両の位置を、自車両の運動量のみから求めることができるという利点がある。
また、上記実施形態では、X軸方向及びY軸方向の2次元の占有グリッドマップを作成したが、これに限定されるものではなく、更に高さ方向をZ軸とした3次元の占有グリッドマップを作成することも可能である。
また、上記実施形態では、自車両の前方に存在する物体を検出するレーダ装置として、レーザ光を照射するレーザレーダ20を例示したが、これに限定されるものではなく、例えばミリ波等の電波や超音波等を照射するレーダ装置を用いることも可能である。
また、上記実施形態では、占有グリッドマップとして位置系のもののみを例示したが、位置系の占有グリッドマップに加え、速度系、加速度系の占有グリッドマップを作成することも可能である。例えば速度系の占有グリッドマップは、物体の速度を確率的に求めるためのものであり、位置系の占有グリッドマップのあるグリッドについて、そのグリッドに対応する物体の1周期後の予測位置を確率的に表現する。予測位置は、例えば、物体の種類(車両、歩行者等)を特定することを前提に、その物体の特性に応じた運動モデルを用いることで、精度を高めることができる。なお、このように物体の速度をグリッド単位で確率的に求めることで、物体の移動を判断するためにグルーピング(同一の物体を表す複数の検出結果をグループ化する処理)を行う必要がない。
例えば、位置系の占有グリッドマップのグリッドごとの速度、加速度値を用い、t=1,2,…,kでの予測位置を求め、t=1,2,…,kで求めた位置に関する各占有グリッドマップの値を融合すると、t=1,2,…,kにおける自車両と物体とが衝突あるいは共有する確率を求めることができる。このため、自車両の運動特性や制御仕様に応じ、kをいくつにするか設定し、t=1,2,…,kの確率が低い領域を車両の走行可能領域と定義することができる。このように定義した走行可能領域内であれば、自車両が物体と衝突したり車線境界線をまたいだりすることを生じにくくすることが可能となる。
ただし、位置系の占有グリッドマップの各グリッドが速度系の占有グリッドマップを持ち、速度系の占有グリッドマップの各グリッドが加速度系の占有グリッドマップを持つことになるため、ポテンシャルの微分が進むにつれて、グリッドマップのサイズが指数的に増大する。
ちなみに、通信機50からの情報に基づき作成する占有グリッドマップの場合、他車両の運動量についても取得できるため、物体の速度を確率的に求める必要がない。また、地図データベース40からの情報に基づき作成する占有グリッドマップの場合、静止物体(車線境界線)が対象となるため、物体の速度を確率的に求める必要がない。これに対し、レーザレーダ20からの情報に基づき作成する占有グリッドマップの場合、看板やデリニエータ等の静止物体だけでなく、前方車両や歩行者等の移動物体も検出されるが、位置系の占有グリッドマップではこれらを判別することができない。つまり、速度系の占有グリッドマップは、レーザレーダ20からの情報に基づき作成する占有グリッドマップに特有のものとなる。
速度系の占有グリッドマップは、位置系の占有グリッドマップのグリッドごとに作成し得るが、位置系の占有グリッドマップのすべてのグリッドについて計算を行うと処理負荷が大きくなってしまう。このような処理負荷を低減する方法として、図9に示すようなピラミッドグリッドの考え方が有効である。
まず、位置系の占有グリッドマップの複数のグリッドを1つのグリッドとした低解像度のグリッドマップを用意する。例えば、低解像度のグリッドマップが5m角の正方形グリッドからなる場合、位置系の占有グリッドマップの100個分のグリッドが低解像度の1つのグリッドに対応する。
そして、低解像度のグリッドマップのグリッド単位で、占有確率が高い(物体が存在する)か否かを判定し、占有確率が低い場合には計算を行わず、占有確率が高い場合には、そのグリッドに対応する位置系の占有グリッドマップのグリッド単位で計算を行う。つまり、位置系の占有グリッドマップのすべてのグリッドについて計算を行うのではなく、実際に計算を行うグリッドを絞り込むことで、処理負荷を低減する。
10…信号処理ECU、20…レーザレーダ、30…GPS受信機、40…地図データベース、50…通信機、60…車速センサ、70…ヨーレートセンサ、80…操舵角センサ

Claims (8)

  1. 自車両の運動量を検出するためのセンサからの情報に基づき、任意の地点を原点とする絶対座標系における自車両の位置及び向きを特定する自車位置特定手段と、
    前記絶対座標系をグリッドに分割して自車両の走行の障害となるものの占有確率を前記グリッドごとに記憶した占有グリッドマップを作成し、前記占有確率をベイズ推定により更新するマップ作成手段と、
    を備え、
    前記マップ作成手段は、
    自車両の前方に存在する物体を検出するレーダ装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記物体の占有確率を求める物体占有確率算出手段と、
    自車両の周辺に存在する他車両から送信された前記他車両の位置に関する情報を受信する通信装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記他車両の占有確率を求める他車両占有確率算出手段と、
    車線境界線の位置を特定可能な地図データを記憶する記憶装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記車線境界線の占有確率を求める境界線占有確率算出手段と、
    前記物体占有確率算出手段、前記他車両占有確率算出手段及び前記境界線占有確率算出手段のそれぞれによって求められた占有確率を前記占有グリッドマップのグリッドごとに融合することで、前記自車両の走行の障害となるものの占有確率を求める融合手段と、を備え
    前記融合手段は、前記物体占有確率算出手段、前記他車両占有確率算出手段及び前記境界線占有確率算出手段のそれぞれによって求められた占有確率を、前記境界線占有確率算出手段によって求められた占有確率の影響が最も小さくなるように重み付けして融合すること
    を特徴とする走行環境認識装置。
  2. 前記レーダ装置は、前記物体として立体物を検出可能であり、
    前記物体占有確率算出手段は、レーダ装置による検出波の出射点と前記立体物の観測点とを通る直線上の位置と、前記立体物の占有確率との対応関係を規定したセンサモデルに従い、前記立体物の占有確率を求めること
    を特徴とする請求項1に記載の走行環境認識装置。
  3. 前記物体占有確率算出手段は、前記直線上において2つの観測点で立体物が検出された場合には、自車両に近い観測点の占有確率が自車両から遠い観測点の占有確率よりも低く設定されたセンサモデルに従い、前記車線境界線の占有確率を求めること
    を特徴とする請求項に記載の走行環境認識装置。
  4. 自車両の運動量を検出するためのセンサからの情報に基づき、任意の地点を原点とする絶対座標系における自車両の位置及び向きを特定する自車位置特定手段と、
    前記絶対座標系をグリッドに分割して自車両の走行の障害となるものの占有確率を前記グリッドごとに記憶した占有グリッドマップを作成し、前記占有確率をベイズ推定により更新するマップ作成手段と、
    を備え、
    前記マップ作成手段は、
    自車両の前方に存在する物体を検出するレーダ装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記物体の占有確率を求める物体占有確率算出手段と、
    自車両の周辺に存在する他車両から送信された前記他車両の位置に関する情報を受信する通信装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記他車両の占有確率を求める他車両占有確率算出手段と、
    車線境界線の位置を特定可能な地図データを記憶する記憶装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記車線境界線の占有確率を求める境界線占有確率算出手段と、
    前記物体占有確率算出手段、前記他車両占有確率算出手段及び前記境界線占有確率算出手段のそれぞれによって求められた占有確率を前記占有グリッドマップのグリッドごとに融合することで、前記自車両の走行の障害となるものの占有確率を求める融合手段と、を備え
    前記レーダ装置は、前記物体として立体物を検出可能であり、
    前記物体占有確率算出手段は、
    レーダ装置による検出波の出射点と前記立体物の観測点とを通る直線上の位置と、前記立体物の占有確率との対応関係を規定したセンサモデルに従い、前記立体物の占有確率を求め、
    前記直線上において2つの観測点で立体物が検出された場合には、自車両に近い観測点の占有確率が自車両から遠い観測点の占有確率よりも低く設定されたセンサモデルに従い、前記車線境界線の占有確率を求めること
    を特徴とする走行環境認識装置。
  5. 前記レーダ装置は、前記物体として車線境界線も検出可能であり、
    前記物体占有確率算出手段は、前記車線境界線の占有確率が前記立体物の占有確率よりも低く設定されたセンサモデルに従い、前記車線境界線の占有確率を求めること
    を特徴とする請求項2から請求項4までのいずれか1項に記載の走行環境認識装置。
  6. 自車両の運動量を検出するためのセンサからの情報に基づき、任意の地点を原点とする絶対座標系における自車両の位置及び向きを特定する自車位置特定手段と、
    前記絶対座標系をグリッドに分割して自車両の走行の障害となるものの占有確率を前記グリッドごとに記憶した占有グリッドマップを作成し、前記占有確率をベイズ推定により更新するマップ作成手段と、
    を備え、
    前記マップ作成手段は、
    自車両の前方に存在する物体を検出するレーダ装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記物体の占有確率を求める物体占有確率算出手段と、
    自車両の周辺に存在する他車両から送信された前記他車両の位置に関する情報を受信する通信装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記他車両の占有確率を求める他車両占有確率算出手段と、
    車線境界線の位置を特定可能な地図データを記憶する記憶装置からの情報に基づき、前記占有グリッドマップのグリッドごとに前記車線境界線の占有確率を求める境界線占有確率算出手段と、
    前記物体占有確率算出手段、前記他車両占有確率算出手段及び前記境界線占有確率算出手段のそれぞれによって求められた占有確率を前記占有グリッドマップのグリッドごとに融合することで、前記自車両の走行の障害となるものの占有確率を求める融合手段と、を備え
    前記レーダ装置は、前記物体として立体物及び車線境界線を検出可能であり、
    前記物体占有確率算出手段は、
    レーダ装置による検出波の出射点と前記立体物の観測点とを通る直線上の位置と、前記立体物の占有確率との対応関係を規定したセンサモデルに従い、前記立体物の占有確率を求め、
    前記車線境界線の占有確率が前記立体物の占有確率よりも低く設定されたセンサモデルに従い、前記車線境界線の占有確率を求めること
    を特徴とする走行環境認識装置。
  7. 前記通信装置は、前記他車両の位置に関する情報として位置及び向きの情報を受信するものであり、
    前記他車両占有確率算出手段は、前記他車両の外形を基準とする位置と、前記他車両の占有確率との対応関係を規定したセンサモデルに従い、前記他車両の占有確率を求めること
    を特徴とする請求項1から請求項までのいずれか1項に記載の走行環境認識装置。
  8. 前記境界線占有確率算出手段は、車線境界線を含むグリッドの占有確率を高くし、車線境界線に挟まれた道路部分のグリッドの占有確率を低くすることで、前記車線境界線の占有確率を求めること
    を特徴とする請求項1から請求項までのいずれか1項に記載の走行環境認識装置。
JP2010192456A 2010-08-30 2010-08-30 走行環境認識装置 Active JP5206752B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010192456A JP5206752B2 (ja) 2010-08-30 2010-08-30 走行環境認識装置
US13/217,375 US8744744B2 (en) 2010-08-30 2011-08-25 Traveling environment recognition device
DE102011081740A DE102011081740A1 (de) 2010-08-30 2011-08-29 Fahrumgebung-Erkennungseinrichtung und Fahrumgebung-Erkennungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010192456A JP5206752B2 (ja) 2010-08-30 2010-08-30 走行環境認識装置

Publications (2)

Publication Number Publication Date
JP2012048642A JP2012048642A (ja) 2012-03-08
JP5206752B2 true JP5206752B2 (ja) 2013-06-12

Family

ID=45595568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192456A Active JP5206752B2 (ja) 2010-08-30 2010-08-30 走行環境認識装置

Country Status (3)

Country Link
US (1) US8744744B2 (ja)
JP (1) JP5206752B2 (ja)
DE (1) DE102011081740A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610502B1 (ko) * 2014-09-02 2016-04-07 현대자동차주식회사 자율주행차량의 주행환경 인식장치 및 방법
US11132611B2 (en) 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US11204610B2 (en) 2016-05-30 2021-12-21 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method using correlation between attributes
US11222438B2 (en) 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11250288B2 (en) 2016-05-30 2022-02-15 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method using correlation between attributes

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9135825B2 (en) * 2010-02-22 2015-09-15 Toyota Jidosha Kabushiki Kaisha Risk degree calculation device
KR101074638B1 (ko) * 2011-05-04 2011-10-18 한국항공우주연구원 조향 모델을 이용한 주행차선 판단방법
DE102011081397A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zur Schätzung eines Straßenverlaufs und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102011056413A1 (de) * 2011-12-14 2013-06-20 Continental Teves Ag & Co. Ohg Freirauminformationen in einem Belegungsgitter als Grundlage für die Bestimmung eines Manöverraums für ein Fahrzeug
JP5522157B2 (ja) * 2011-12-14 2014-06-18 株式会社デンソー 先行車判定装置および車間制御装置
CN104321665B (zh) * 2012-03-26 2017-02-22 罗伯特·博世有限公司 基于多表面模型的跟踪
JP5600332B2 (ja) * 2012-03-29 2014-10-01 富士重工業株式会社 運転支援装置
US9626599B2 (en) * 2012-04-09 2017-04-18 GM Global Technology Operations LLC Reconfigurable clear path detection system
DE102012105332A1 (de) * 2012-06-19 2013-12-19 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung
DE102012214307A1 (de) * 2012-08-10 2014-02-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Modellieren eines Umfelds
DE102013200387A1 (de) * 2013-01-14 2014-07-17 Robert Bosch Gmbh Erstellung einer Hinderniskarte
JP6128584B2 (ja) 2013-01-16 2017-05-17 株式会社Soken 走行経路生成装置
US9367065B2 (en) * 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
ES2726824T3 (es) * 2013-04-16 2019-10-09 Trajet Gmbh Procedimiento de determinación combinada de una velocidad y una toma de imagen de un vehículo y dispositivo adecuado para ello
DE102013211109A1 (de) * 2013-06-14 2014-12-31 Robert Bosch Gmbh Assistenzvorrichtung und Verfahren zum Unterstützen eines Fahrers des Fahrzeugs
US8996197B2 (en) * 2013-06-20 2015-03-31 Ford Global Technologies, Llc Lane monitoring with electronic horizon
GB201318185D0 (en) * 2013-10-14 2013-11-27 Guidance Navigation Ltd Tracking device
DE102013018315A1 (de) 2013-10-31 2015-04-30 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodell mit adaptivem Gitter
KR101503473B1 (ko) 2014-01-10 2015-03-18 한양대학교 산학협력단 차량의 주행 상황 판단 시스템 및 방법
KR20200039817A (ko) * 2014-03-28 2020-04-16 얀마 가부시키가이샤 자율 주행 작업 차량
DE102014208967A1 (de) * 2014-05-13 2015-11-19 Bayerische Motoren Werke Aktiengesellschaft Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf
DE102014210770A1 (de) 2014-06-05 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
FR3022049B1 (fr) * 2014-06-06 2016-07-22 Inria Inst Nat De Rech En Informatique Et En Automatique Procede d'analyse d'une scene dynamique, module d'analyse et programme d'ordinateur associes
DE102014008662A1 (de) * 2014-06-13 2015-12-17 Daimler Ag Verfahren und Vorrichtung zumindest zur Minderung der Folgen einer Kollision eines Fahrzeugs
DE102014111127A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte sowie Fahrerassistenzsystem
US20160146616A1 (en) * 2014-11-21 2016-05-26 Alpine Electronics, Inc. Vehicle positioning by map matching as feedback for ins/gps navigation system during gps signal loss
JP2016103194A (ja) * 2014-11-28 2016-06-02 パナソニックIpマネジメント株式会社 車両走行支援装置及び車両走行支援方法
EP3048023B1 (en) * 2015-01-23 2018-11-28 Honda Research Institute Europe GmbH Method for assisting a driver in driving an ego vehicle and corresponding driver assistance system
DE102015201706A1 (de) * 2015-02-02 2016-08-04 Bayerische Motoren Werke Aktiengesellschaft Verarbeitung von Sensormessungen eines Fahrzeugumfeldes bei geringer Querauflösung
DE102015205244B3 (de) * 2015-03-24 2015-12-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bereitstellen von Hinderniskarten für Fahrzeuge
JP6237685B2 (ja) * 2015-04-01 2017-11-29 トヨタ自動車株式会社 車両制御装置
DE102015207729A1 (de) * 2015-04-13 2016-10-13 Continental Teves Ag & Co. Ohg Steuervorrichtung für ein fahrzeug und verfahren
DE102015207978B3 (de) * 2015-04-30 2016-06-23 Bayerische Motoren Werke Aktiengesellschaft Analyse der Belegung von grid-basierten Umfeldkarten eines Fahrzeugs
KR101734654B1 (ko) * 2015-06-25 2017-05-11 현대자동차주식회사 레이저 스캐너를 이용한 센서 중심 좌표계의 점유 격자 지도를 작성하는 시스템 및 방법
CN108352116B (zh) * 2015-07-31 2022-04-05 日立安斯泰莫株式会社 自身车辆周边信息管理装置
FR3041451B1 (fr) * 2015-09-22 2018-02-16 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procede et systeme de perception de corps materiels
CN105447892B (zh) * 2015-11-05 2018-04-17 奇瑞汽车股份有限公司 车辆偏航角的确定方法及装置
CN105573318B (zh) * 2015-12-15 2018-06-12 中国北方车辆研究所 基于概率分析的环境构建方法
JP6597415B2 (ja) * 2016-03-07 2019-10-30 株式会社デンソー 情報処理装置及びプログラム
JP6239664B2 (ja) * 2016-03-16 2017-11-29 株式会社デンソーアイティーラボラトリ 周辺環境推定装置及び周辺環境推定方法
US9864377B2 (en) * 2016-04-01 2018-01-09 Locus Robotics Corporation Navigation using planned robot travel paths
DE102016210886A1 (de) * 2016-06-17 2017-12-21 Robert Bosch Gmbh Konzept zum Steuern eines Verkehrs innerhalb eines Parkplatzes
JP6678605B2 (ja) * 2017-01-11 2020-04-08 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
US20180222387A1 (en) * 2017-02-07 2018-08-09 Shenzhen Xiaofeida Electronic Co., Ltd Blind Zone Monitoring Method, License Plate Frame Device with Blind Zone Monitoring Function and Rearview Mirror
KR102414676B1 (ko) * 2017-03-07 2022-06-29 삼성전자주식회사 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
DE102017203838B4 (de) * 2017-03-08 2022-03-17 Audi Ag Verfahren und System zur Umfelderfassung
US11302196B2 (en) * 2017-03-10 2022-04-12 Sony Corporation Information processing apparatus and information processing method
WO2018180247A1 (ja) * 2017-03-28 2018-10-04 パイオニア株式会社 出力装置、制御方法、プログラム及び記憶媒体
US10195992B2 (en) 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
DE102017206987A1 (de) * 2017-04-26 2018-10-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Computerprogrammprodukt, Computer-lesbares Medium, Steuergerät und Fahrzeug umfassen das Steuergerät zum Bestimmen eines kollektiven Manövers von wenigstens zwei Fahrzeugen
JP6673293B2 (ja) * 2017-05-24 2020-03-25 トヨタ自動車株式会社 車両システム
CN110832281A (zh) 2017-06-20 2020-02-21 尼拉动力公司 道路状况监测
JP6808590B2 (ja) * 2017-08-08 2021-01-06 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび移動体
JP7081098B2 (ja) * 2017-09-01 2022-06-07 株式会社デンソー 走行環境認識装置、走行環境認識方法、プログラム
EP3460516B1 (en) * 2017-09-20 2020-05-27 Aptiv Technologies Limited A device and a method for distinguishing between traversable and non-traversable objects
DE102017217972A1 (de) * 2017-10-10 2019-04-11 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines inversen Sensormodells und Verfahren zum Erkennen von Hindernissen
KR102371617B1 (ko) * 2017-11-17 2022-03-07 현대자동차주식회사 차량의 객체 인식 장치 및 방법
US20180079422A1 (en) * 2017-11-27 2018-03-22 GM Global Technology Operations LLC Active traffic participant
US11273836B2 (en) * 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
US20190204834A1 (en) * 2018-01-04 2019-07-04 Metawave Corporation Method and apparatus for object detection using convolutional neural network systems
EP3511740B1 (en) * 2018-01-12 2021-08-25 Bayerische Motoren Werke Aktiengesellschaft Method, system, and computer program product for determining a blockage of a sensor of a plurality of sensors of an ego vehicle
CN110044371A (zh) * 2018-01-16 2019-07-23 华为技术有限公司 一种车辆定位的方法以及车辆定位装置
EP3514648B1 (en) * 2018-01-22 2023-09-06 Continental Autonomous Mobility Germany GmbH Method and apparatus for detecting a boundary in an envi-ronment of an object
CN108089586A (zh) * 2018-01-30 2018-05-29 北醒(北京)光子科技有限公司 一种机器人自主导航装置、方法及机器人
CN108682167A (zh) * 2018-05-02 2018-10-19 李广连 一种车道占用率智能警示装置
US11372424B2 (en) * 2018-05-10 2022-06-28 GM Global Technology Operations LLC Generalized 3D inverse sensor model
CN108919300B (zh) * 2018-07-17 2022-07-08 重庆大学 一种面向仓库通道场景的混合地图创建方法
US11802779B2 (en) * 2018-07-30 2023-10-31 Chiba Institute Of Technology Map generation system and mobile object
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
CN109146898B (zh) * 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
DE102018124638A1 (de) * 2018-10-05 2020-04-09 HELLA GmbH & Co. KGaA Verfahren zur Bereitstellung von Objektinformationen von statischen Objekten in einer Umgebung eines Fahrzeuges
CN109635816B (zh) * 2018-10-31 2021-04-06 百度在线网络技术(北京)有限公司 车道线生成方法、装置、设备以及存储介质
US10989555B2 (en) * 2018-11-05 2021-04-27 Robert Bosch Gmbh System and method for automated semantic map generation
US10969789B2 (en) * 2018-11-09 2021-04-06 Waymo Llc Verifying predicted trajectories using a grid-based approach
CN109282813B (zh) * 2018-11-26 2022-05-10 深圳市海斯比海洋科技股份有限公司 一种无人艇全局障碍物识别的方法
US11030764B2 (en) 2018-11-29 2021-06-08 Denso International America, Inc. Method and system for trailer size estimating and monitoring
KR102247168B1 (ko) * 2018-12-26 2021-05-03 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 내 비 회피 계획 시스템의 장애물 필터링 방법
US11449705B2 (en) 2019-01-08 2022-09-20 Motional Ad Llc Field theory based perception for autonomous vehicles
CN111538009B (zh) * 2019-01-21 2022-09-16 杭州海康威视数字技术股份有限公司 雷达点的标记方法和装置
KR102132115B1 (ko) * 2019-02-15 2020-07-08 부산대학교 산학협력단 V2v와 레이다를 이용한 상대차량 상태 추정 방법 및 장치
US11205343B2 (en) * 2019-02-20 2021-12-21 GM Global Technology Operations LLC Methods and systems for interpretating traffic signals and negotiating signalized intersections
CN111694903B (zh) * 2019-03-11 2023-09-12 北京地平线机器人技术研发有限公司 地图构建方法、装置、设备以及可读存储介质
KR102162646B1 (ko) * 2019-03-11 2020-10-07 주식회사 에스더블유엠 자율주행차의 주행 제어방법
CN109919118A (zh) * 2019-03-15 2019-06-21 百度在线网络技术(北京)有限公司 Ar导航中的障碍物提示方法、装置、设备及介质
US11107249B2 (en) * 2019-03-18 2021-08-31 Sony Group Corporation Point cloud global tetris packing
DE102019107411A1 (de) * 2019-03-22 2020-09-24 Zf Active Safety Gmbh Steuerungssystem und Steuerungsverfahren zur Pfadzuordnung von Verkehrsobjekten
JP7244325B2 (ja) * 2019-03-27 2023-03-22 株式会社Soken 物体検出装置
US11204417B2 (en) * 2019-05-08 2021-12-21 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
JP7152355B2 (ja) * 2019-05-20 2022-10-12 株式会社Soken 障害物検出装置および障害物検出方法
CN112050829B (zh) * 2019-06-06 2023-04-07 华为技术有限公司 一种运动状态确定方法及装置
KR20220020369A (ko) * 2019-06-14 2022-02-18 케이피아이티 테크놀로지스 리미티드 라이더 및 레이더 기반 추적 및 매핑 시스템 및 방법
CN110595457B (zh) * 2019-08-29 2020-12-22 山东大学 伪激光数据生成方法、地图构建方法、导航方法及系统
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
DE112020003817T5 (de) * 2019-09-11 2022-06-02 Hitachi Astemo, Ltd. Belegungsgitterkarten-managementvorrichtung
US11544899B2 (en) * 2019-10-15 2023-01-03 Toyota Research Institute, Inc. System and method for generating terrain maps
US11436876B2 (en) * 2019-11-01 2022-09-06 GM Global Technology Operations LLC Systems and methods for diagnosing perception systems of vehicles based on temporal continuity of sensor data
DE102020204078A1 (de) * 2019-11-27 2021-05-27 Robert Bosch Gesellschaft mit beschränkter Haftung Fahrerassistenzsystem für Kraftfahrzeuge
US11216669B1 (en) * 2020-01-16 2022-01-04 Outsight SA Single frame motion detection and three-dimensional imaging using free space information
US11428550B2 (en) * 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
EP3882813A1 (en) 2020-03-20 2021-09-22 Aptiv Technologies Limited Method for generating a dynamic occupancy grid
KR20210127267A (ko) * 2020-04-13 2021-10-22 현대자동차주식회사 차량 및 그 제어방법
EP3905105A1 (en) * 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a collision free space
EP3905106A1 (en) 2020-04-27 2021-11-03 Aptiv Technologies Limited Method for determining a drivable area
DE102021112349A1 (de) 2020-05-12 2021-11-18 Motional Ad Llc Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters
CN111753649A (zh) * 2020-05-13 2020-10-09 上海欧菲智能车联科技有限公司 车位检测方法、装置、计算机设备和存储介质
CN111598916A (zh) * 2020-05-19 2020-08-28 金华航大北斗应用技术有限公司 一种基于rgb-d信息的室内占据栅格地图的制备方法
CN113865598A (zh) * 2020-06-30 2021-12-31 华为技术有限公司 一种定位地图生成方法、定位方法及装置
CN111746559B (zh) * 2020-07-02 2023-04-07 湖北汽车工业学院 一种前车换道意图预测方法及预测系统
SG10202007346XA (en) 2020-08-01 2020-10-29 Grabtaxi Holdings Pte Ltd Processing apparatus and method for generating route navigation data
FR3114174A1 (fr) * 2020-09-14 2022-03-18 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procédé et système de détection coopérative de corps matériels dans un environnement
CN112543938B (zh) * 2020-09-29 2022-02-08 华为技术有限公司 占据栅格地图的生成方法和装置
FR3116640B1 (fr) * 2020-11-20 2023-11-17 Commissariat Energie Atomique Procédé itératif d’estimation du mouvement d’un corps matériel par génération d’une grille de mouvement filtrée
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
CN112578798B (zh) * 2020-12-18 2024-02-27 珠海格力智能装备有限公司 机器人地图获取方法、装置、处理器和电子装置
CN112763995B (zh) * 2020-12-24 2023-09-01 阿波罗智联(北京)科技有限公司 雷达标定方法、装置、电子设备和路侧设备
CN112802103B (zh) * 2021-02-01 2024-02-09 深圳万拓科技创新有限公司 激光扫地机的位姿重定位方法、装置、设备及介质
JP2022124865A (ja) * 2021-02-16 2022-08-26 三菱重工業株式会社 移動体、移動制御システム、移動体の制御方法及びプログラム
CN112947454A (zh) * 2021-02-25 2021-06-11 浙江理工大学 一种仓库的消防评估方法、装置、设备和存储介质
US11709260B2 (en) * 2021-04-30 2023-07-25 Zoox, Inc. Data driven resolution function derivation
DE102021208627B4 (de) 2021-08-09 2023-10-12 Volkswagen Aktiengesellschaft Verfahren und Prozessorschaltung zum Betreiben eines Radarsystems mit mehreren Antennen sowie Radarsystem und Kraftfahrzeug
CN115143951A (zh) * 2022-05-31 2022-10-04 深圳市普渡科技有限公司 栅格地图更新系统、方法、计算机设备及存储介质
CN115407344B (zh) * 2022-11-01 2023-01-17 小米汽车科技有限公司 栅格地图创建方法、装置、车辆及可读存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60208616T2 (de) 2001-09-21 2006-07-13 Sanei Co., Ltd. System, Verfahren und Programm zur Unterstützung von Fahrzeugen
JP4125569B2 (ja) 2001-09-21 2008-07-30 株式会社 三英技研 運転支援システム、運転支援方法及び運転支援プログラム
JP3931879B2 (ja) 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
JP4533659B2 (ja) 2004-05-12 2010-09-01 株式会社日立製作所 レーザー計測により地図画像を生成する装置及び方法
JP2006140636A (ja) 2004-11-10 2006-06-01 Toyota Motor Corp 障害物検出装置および方法
US7142150B2 (en) * 2004-12-15 2006-11-28 Deere & Company Method and system for detecting an object using a composite evidence grid
JP4483589B2 (ja) * 2005-01-12 2010-06-16 日産自動車株式会社 車両用情報提供装置
US7266477B2 (en) * 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
US8364366B2 (en) * 2005-06-24 2013-01-29 Deere & Company System and method for providing a safety zone associated with a vehicle
FR2890774B1 (fr) * 2005-09-09 2007-11-16 Inst Nat Rech Inf Automat Procede d'assitance a la conduite d'un vehicule et dispositif associe ameliore
US7864032B2 (en) * 2005-10-06 2011-01-04 Fuji Jukogyo Kabushiki Kaisha Collision determination device and vehicle behavior control device
JP2007310741A (ja) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2007333486A (ja) * 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
JP4899657B2 (ja) * 2006-06-21 2012-03-21 トヨタ自動車株式会社 道路形状取得装置
JP4886597B2 (ja) * 2007-05-25 2012-02-29 アイシン・エィ・ダブリュ株式会社 レーン判定装置及びレーン判定方法、並びにそれを用いたナビゲーション装置
US20090233714A1 (en) * 2008-03-14 2009-09-17 William Toro Three Dimensional Infrared Movement Sensing Matrix
JP5094658B2 (ja) * 2008-09-19 2012-12-12 日立オートモティブシステムズ株式会社 走行環境認識装置
US9672736B2 (en) * 2008-10-22 2017-06-06 Toyota Motor Engineering & Manufacturing North America, Inc. Site map interface for vehicular application
DE102010007091A1 (de) * 2010-02-06 2011-08-11 Bayerische Motoren Werke Aktiengesellschaft, 80809 Verfahren zur Positionsermittlung für ein Kraftfahrzeug

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610502B1 (ko) * 2014-09-02 2016-04-07 현대자동차주식회사 자율주행차량의 주행환경 인식장치 및 방법
US11132611B2 (en) 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US11222438B2 (en) 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11204610B2 (en) 2016-05-30 2021-12-21 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method using correlation between attributes
US11250288B2 (en) 2016-05-30 2022-02-15 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method using correlation between attributes

Also Published As

Publication number Publication date
DE102011081740A1 (de) 2012-03-08
US20120053755A1 (en) 2012-03-01
JP2012048642A (ja) 2012-03-08
US8744744B2 (en) 2014-06-03

Similar Documents

Publication Publication Date Title
JP5206752B2 (ja) 走行環境認識装置
US11630197B2 (en) Determining a motion state of a target object
CN106952471B (zh) 交叉路口处驾驶员意图的预测
Jansson Collision Avoidance Theory: With application to automotive collision mitigation
CN101395649B (zh) 障碍物探测方法以及障碍物探测装置
US20150336575A1 (en) Collision avoidance with static targets in narrow spaces
WO2020146428A1 (en) Resolution of elevation ambiguity in one-dimensional radar processing
US11255681B2 (en) Assistance control system
JP2002168953A (ja) 車両周辺監視装置
JP2010003254A (ja) 画像処理装置
US20140156178A1 (en) Road marker recognition device and method
JP5712900B2 (ja) 周辺物体検出装置
US11780436B2 (en) On-board sensor system
WO2020145053A1 (ja) 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体
JP2021196939A (ja) 車載センサシステム
JP7081098B2 (ja) 走行環境認識装置、走行環境認識方法、プログラム
US11685379B2 (en) Vehicle control device and storage medium storing computer program for vehicle control
EP3709279A1 (en) Target detection device for vehicle
KR20230015658A (ko) 그리드 맵 생성 장치 및 방법
JP2009216464A (ja) 物体検出装置
WO2023149003A1 (ja) 車両制御装置
JP2019096039A (ja) 車両の物標検出装置
RU2806452C1 (ru) Устройство и способ для определения объектов
US20220308233A1 (en) Driver assistance system and operation method thereof
Kuehbeck Pre-Crash Extraction of the Constellation of a Frontal Collision between Two Motor Vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5206752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250