JPWO2019097731A1 - 障害物認識装置および障害物認識方法 - Google Patents

障害物認識装置および障害物認識方法 Download PDF

Info

Publication number
JPWO2019097731A1
JPWO2019097731A1 JP2019553679A JP2019553679A JPWO2019097731A1 JP WO2019097731 A1 JPWO2019097731 A1 JP WO2019097731A1 JP 2019553679 A JP2019553679 A JP 2019553679A JP 2019553679 A JP2019553679 A JP 2019553679A JP WO2019097731 A1 JPWO2019097731 A1 JP WO2019097731A1
Authority
JP
Japan
Prior art keywords
detection data
sensor
data
time
obstacle recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019553679A
Other languages
English (en)
Other versions
JP6818907B2 (ja
Inventor
公司 飯田
公司 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019097731A1 publication Critical patent/JPWO2019097731A1/ja
Application granted granted Critical
Publication of JP6818907B2 publication Critical patent/JP6818907B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両の周辺の物体を検知する第1センサおよび第2センサと、第1センサで検出された第1物体に関する第1検出データと、第2センサで検出された第2物体に関する第2検出データとに基づいて、第1物体と前記第2物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、指標値と予め設定された閾値とを比較することで、第1物体と第2物体とが同一物体であるか否かを判定する判定部と、判定部により第1物体と第2物体とが同一物体であると判定された場合に、第1検出データと前記第2検出データとに基づいて第1センサと第2センサとの検出誤差を算出し、検出誤差をなくすように補正後の検出データを生成する補正部と、を備えることにより、実際には同一物体を検出している場合において、別々の物体であると誤認識することなく、正確に同一物体であるか否かを識別することができる。

Description

本発明は、車載センサを用いて障害物認識を行う障害物認識装置および障害物認識方法に関するものである。
従来から、車両周辺の障害物を、複数のセンサ情報を組み合わせて認識する障害物認識装置が提案されている(例えば、特許文献1参照)。
特許文献1の障害物認識装置は、センサとして前方カメラとミリ波レーダを備えている。前方カメラは障害物に関する第一パラメータ情報を取得し、ミリ波レーダは障害物に関する第二パラメータ情報を取得する。特許文献1の障害物認識装置は、第一パラメータ情報と第二パラメータ情報とに基づいて、前方カメラまたはミリ波レーダの方位角の軸ずれ量を算出し、算出された軸ずれ量を用いて、前方カメラまたはミリ波レーダの方位角の軸ずれを補正する。
特開第2010−249613号公報
しかしながら、従来技術には、以下のような課題がある。
車両に搭載されるセンサは、カメラ、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ等がある。複数のセンサで同一物体を検出する場合、センサの種類によりセンサ間で検出誤差(以下、バイアス誤差と称する)が発生する。バイアス誤差は、車両の走行環境により時間的に変動することがあるため、推定することが困難である。
従来の障害物認識装置は、このバイアス誤差を想定していない。そのため、従来の障害物認識装置は、複数のセンサが実際には同一物体を検出している場合でも、センサ間のバイアス誤差により、別々の物体であると誤認識してしまうという課題がある。
本発明は、このような課題を解決するためになされたものであり、その目的は、実際には複数のセンサが同一物体を検出している場合、別々の物体であると誤認識することなく、正確に同一物体であるか否かを識別することができる障害物認識装置および障害物認識方法を提供することである。
本発明における障害物認識装置は、車両の周辺の物体を検知する第1センサおよび第2センサと、第1センサで検出された第1物体に関する第1検出データと、第2センサで検出された第2物体に関する第2検出データとに基づいて、第1物体と前記第2物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、指標値と予め設定された閾値とを比較することで、第1物体と第2物体とが同一物体であるか否かを判定する判定部と、判定部により第1物体と第2物体とが同一物体であると判定された場合に、第1検出データと前記第2検出データとに基づいて第1センサと第2センサとの検出誤差を算出し、検出誤差をなくすように補正後の検出データを生成する補正部と、を備えるものである。
また、本発明における障害物認識装置は、車両の周辺の物体を検知する第1センサと、第1センサにより過去に検出された検出データに基づいて、物体の動きを予測し、現在時刻における予測値を第3物体に関する第3検出データとして生成する予測部と、第1センサで検出された第1物体に関する第1検出データと、予測部により生成された第3物体に関する第3検出データとに基づいて、第1物体と第3物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、指標値と予め設定された閾値とを比較することで、第1物体と第3物体とが同一物体であるか否かを判定する判定部と、判定部により第1物体と第3物体とが同一物体であると判定された場合に、第1検出データと第3検出データとに基づいて第1センサによる検出結果と予測部による生成結果とのバイアス誤差を算出し、前記バイアス誤差をなくすように補正後の検出データを生成する補正部と、を備えるものである。
また、本発明における障害物認識方法は、算出部、判定部および補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、第1センサで検出された第1物体に関する第1検出データと、第2センサで検出された第2物体に関する第2検出データとに基づいて、第1物体と第2物体とが同一物体であるか否かを識別するための指標値を算出する算出ステップと、指標値と予め設定された閾値とを比較することで、第1物体と前記第2物体とが同一物体であるか否かを判定する判定ステップと、判定ステップにより第1物体と第2物体とが同一物体であると判定された場合に、第1検出データと第2検出データとに基づいて第1センサと第2センサとの検出誤差を算出し、検出誤差をなくすように補正後の検出データを生成する補正ステップと、を備えるものである。
また、本発明における障害物認識方法は、予測部、算出部、判定部および補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、第1センサにより過去に検出された検出データに基づいて、物体の動きを予測し、現在時刻における予測値を第3物体に関する第3検出データとして生成する予測ステップと、第1センサで検出された第1物体に関する第1検出データと、予測ステップにより生成された第3物体に関する第3検出データとに基づいて、第1物体と第3物体とが同一物体であるか否かを識別するための指標値を算出する算出ステップと、指標値と予め設定された閾値とを比較することで、第1物体と前記第3物体とが同一物体であるか否かを判定する判定ステップと、判定ステップにより前記第1物体と前記第3物体とが同一物体であると判定された場合に、第1検出データと前記第3検出データとに基づいて第1センサによる検出結果と予測ステップによる生成結果とのバイアス誤差を算出し、バイアス誤差をなくすように補正後の検出データを生成する補正ステップと、を備えるものである。
本発明による障害物認識装置によれば、複数のセンサ情報を組み合わせて障害物を認識する場合に、センサ間のバイアス誤差を補正する構成を備えている。その結果、実際には複数のセンサが同一物体を検出している場合において、別々の物体であると誤認識することなく、正確に同一物体であるか否かを識別することができる障害物認識装置および障害物認識方法を得ることができる。
本発明の実施の形態1、2および3に係る障害物認識装置の構成を示すブロック図である。 本発明の実施の形態1、2および3に係る障害物認識装置の処理を示すフロー図である。 本発明の実施の形態1に係る誤差補正処理を示すフロー図である。 本発明の実施の形態1に係る誤差算出方法の説明図である。 本発明の実施の形態2に係る誤差補正処理を示すフロー図である。 本発明の実施の形態2に係る誤差補正処理の説明図である。 本発明の実施の形態3に係る誤差補正処理を示すフロー図である。 本発明の実施の形態3に係る誤差補正処理の説明図である。 本発明の実施の形態3に係る縦位置相関係数の説明図である。 本発明の実施の形態3に係る横位置相関係数の説明図である。 本発明の実施の形態4、5および6に係る障害物認識装置の構成を示すブロック図である。 本発明の実施の形態4、5および6に係る障害物認識装置の処理を示すフロー図である。 本発明の実施の形態4に係る誤差補正処理を示すフロー図である。 本発明の実施の形態4に係る誤差算出方法の説明図である。 本発明の実施の形態5に係る誤差補正処理を示すフロー図である。 本発明の実施の形態5に係る誤差補正処理の説明図である。 本発明の実施の形態6に係る誤差補正処理を示すフロー図である。 本発明の実施の形態6に係る誤差補正処理の説明図である。 本発明の実施の形態6に係る縦方向位置の相関係数の説明図である。 本発明の実施の形態6に係る横方向位置の相関係数の説明図である。 本発明の実施の形態6に係る検出時刻補正の説明図である。 本発明の実施の形態7に係る検出時刻補正量と相関係数の説明図である。
以下に、本発明の障害物認識装置および障害物認識方法の好適な実施の形態について、図面を用いて説明する。
実施の形態1.
図1は、本発明の実施の形態1に係る障害物認識装置1の構成を示すブロック図である。
本実施の形態1に係る障害物認識装置1は、制御部10、時刻計測部11、データ受信部12、相関処理部13、更新処理部14、第1センサ100、第2センサ200および車両情報センサ300を備えて構成されている。以下の説明では、これらを障害物認識装置1の各ブロックと称する場合がある。
第1センサ100および第2センサ200は、物体から放射または反射した光および電磁波を受信して、信号処理および画像処理を適用することで、物体までの距離、方位角、相対速度等を計測するセンサである。具体的には、第1センサ100および第2センサ200は、例えば、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ、光学カメラ等を、それぞれ単独または組み合わせて使用することができる。
以下の説明では、第1センサ100および第2センサ200が計測した物体の情報を「検出データ」と称する。
車両情報センサ300は、自車の状態を計測するセンサである。具体的には、車両情報センサ300は、自車の速度、車輪速、ステアリング角、ヨーレート等を計測する。以下、車両情報センサ300が計測した自車の状態を示す情報を「自車データ」と称する。
制御部10は、障害物認識装置1の機能を統括して制御するECU(Electronic Control Unit)である。また、制御部10は、算出部10a、判定部10b、補正部10cおよび記憶部10dを備えている。
時刻計測部11は、時刻を計測して、障害物認識装置1内の各ブロックに計測した時刻を出力する機能を備えている。
データ受信部12は、第1センサ100、第2センサ200および車両情報センサ300から送信される検出データおよび自車データを受信する。データ受信部12は、受信した検出データを、時刻計測部11で計測した時刻と関連づけて、制御部10に出力する。
以下、説明を簡単にするために、このように検出データに時刻情報を加えたデータを「観測データ」と称する。
制御部10の算出部10a、判定部10bおよび補正部10cは、後述するバイアス誤差補正処理において予め設定された処理を実行する。
算出部10aは、バイアス誤差補正処理において、算出値、指標値等の演算処理を行う。
判定部10bは、算出部10aが算出した指標値と予め設定された閾値条件とを比較することで、選択された物体ペアが同一物体か否かの判定を行う。
補正部10cは、算出されたバイアス誤差値を用いて、時刻情報を含む検出データである観測データを補正する。
記憶部10dは、揮発メモリ、不揮発メモリ等で構成される。記憶部10dは、観測データ、算出値、指標値、自車データ、航跡データ等を保存する。また、記憶部10dは、観測データを時系列順に格納した観測データ履歴を作成して保存する。また、記憶部10dには、障害物認識装置1の機能を制御するためのプログラムデータが保存されている。
相関処理部13は、制御部10から送信された補正後観測データに基づいて、第1センサ100および第2センサ200で検出された物体を対応付ける相関処理を実行し、相関データを生成する。相関処理部13は、補正後観測データおよび相関データを、更新処理部14に出力する。
更新処理部14は、相関データに基づいて、補正後観測データの物体情報を更新する。 ここで、物体情報とは、第1センサ100または第2センサ200で検出した物体の位置、速度、加速度、種別等の情報である。物体情報の更新は、例えば、カルマンフィルタ、粒子フィルタ等を用いて行うことができる。
更新された物体情報は、「航跡データ」として、更新処理部14から表示部500に出力される。また、記憶部10dは、更新処理部14によって物体情報の更新が実行されるタイミングにおいて、時刻計測部11が計測した時刻と関連づけて、航跡データを保存する。
障害物認識装置1の外部に設けられた表示部500は、更新処理部14から出力された航跡データを、画像、文字情報等に加工して表示する。なお、表示部500は、障害物認識装置1の内部に設けるようにしてもよい。
なお、障害物認識装置1内の各ブロックおよび制御部10内の各ブロックは、それぞれ独立したECUに搭載されるように構成してもよいし、一部または全ブロックが一つのECUに搭載されるように構成してもよい。
次に、図2のフローチャートを用いて、実施の形態1に係る障害物認識装置1の処理の流れを説明する。
最初に、データ受信部12は、制御部10からの指令に基づいて、検出データ取得処理を行う(ステップS100)。検出データ取得処理において、データ受信部12は、第1センサ100および第2センサ200から検出データを取得し、車両情報センサ300から自車データを取得する。次に、データ受信部12は、取得した検出データを、時刻計測部11で計測した時刻と関連づけた観測データを生成する。観測データは、データ受信部12から制御部10に出力される。
次に、制御部10は、バイアス誤差補正処理を行う(ステップS200)。バイアス誤差補正処理においては、まず、制御部10の算出部10aが、データ受信部12から出力された観測データに基づいて、第1センサ100および第2センサ200で検出された物体ペアの物理量の差分値を算出する。ここで、物理量とは、障害物の位置、速度、加速度、種別等の情報であり、以下の説明では、物体情報と称することがある。
続いて、制御部10の判定部10bは、予め設定された条件に基づいて、選択された物体ペアが同一物体か否かの判定を行う。物体ペアが同一物体であると判定された場合、制御部10は、選択された物体ペアのバイアス誤差を設定または算出する。
続いて、制御部10の補正部10cが、バイアス誤差値を用いて、時刻情報を含む検出データである観測データを補正してバイアス誤差補正処理を終了する。補正後観測データは、制御部10から相関処理部13に出力される。
次に、相関処理部13は、相関処理を行う(ステップS300)。相関処理において、相関処理部13は、補正後観測データを用いて、第1センサ100および第2センサ200で検出された物体の対応付けを実行し、相関データを生成する。相関処理部13は、補正後観測データおよび相関データを、更新処理部14に出力する。
次に、更新処理部14は、物体情報の更新処理を行う(ステップS400)。更新処理部14は、相関データによって対応付けられた第一のセンサと第二のセンサの補正後観測データの物体情報を、例えば、カルマンフィルタ等を用いて更新する。
以上で、障害物認識装置1は処理を終了する。なお、図2に示す処理は、予め設定された動作周期で、繰り返し実行される。
次に、図3および図4を用いて、実施の形態1に係る障害物認識装置1のバイアス誤差補正処理の詳細について説明する。
図3は、本発明の実施の形態1に係る障害物認識装置1のバイアス誤差補正処理の流れを示すフローチャートである。
図3のステップS10において、障害物認識装置1の制御部10は、記憶部10dに保存されている観測データ履歴から、最古の観測データを削除する。
続いて、ステップS11において、制御部10は、現周期で取得した最新の観測データを、記憶部10dの観測データ履歴に保存する。ここで、観測データは、時刻情報を含む検出データである。また、検出データは、検出した物体の物理量である、位置、速度、加速度等の数値データである。観測データは、検出したセンサを識別するための番号および記号(以下、センサIDと称する)、検出した物体を識別するための番号および記号(以下、物体IDと称する)に関連づけられて、記憶部10dに保存される。
次に、ステップS12において、制御部10は、記憶部10dに保存されている観測データに基づいて、第1センサ100および第2センサ200がそれぞれ取得した複数の物体の中から、第1センサ100および第2センサ200について1つずつ物体を選択する。以下、選択した物体のペアを、「選択物体ペア」と称する。
次に、ステップS13において、制御部10の算出部10aは、第1センサ100の観測データと第2センサ200の観測データ間の誤差値を算出する。具体的には、選択物体ペア間における観測データの物理量の差分値を、誤差値ΔXとして算出する。ΔXの算出方法については、図4を用いて説明する。
図4は、本発明の実施の形態1に係る観測データ間の誤差ΔXの算出方法を説明する図である。図4の横軸は時刻、縦軸は観測データの物理量である。観測データの物理量は、第1センサ100および第2センサ200が検出した物体の位置、速度、加速度等の数値データである。
ここで、選択物体ペアにおいて、第1センサ100で検出された物体を、物体ID=idsns1とする。物体ID=idsns1の時刻kにおける観測データを、Xksns1とする。同様に、選択物体ペアにおいて、第2センサ200で検出された物体を、物体ID=idsns2とする。物体ID=idsns2の時刻kにおける観測データを、Xksns2とする。
制御部10の算出部10aは、Xksns1とXksns2の差分値の絶対値を、時刻kにおける観測データのセンサ間誤差ΔXkとして算出する。
図3のステップS13において、算出部10aは、図4に示すように、時刻t1〜tnに対応した観測データのセンサ間誤差ΔX1〜ΔXnを算出する。
次に、制御部10は、ステップS14に処理を進める。ステップS14において、制御部10の判定部10bは、予め設定された条件(1)に基づいて、S12において設定された選択物体ペアが同一物体であるか否かを判定する。選択物体ペア間の物理量の差分値が小さいほど、選択物体ペアが同一物体である可能性は高くなる。そのため、条件(1)に基づく判定は、例えば以下のように実行することができる。
条件(1)は、センサ間誤差ΔX1〜ΔXnのばらつきの範囲が、予め設定された閾値より小さいこととする。ばらつきの範囲は、ΔX1〜ΔXnの最大値から最小値を減算した値、ΔX1〜ΔXnの平均値、ΔX1〜ΔXnの中央値等を用いることができる。
ステップS14において、制御部10の判定部10bは、センサ間誤差ΔX1〜ΔXnのばらつきの範囲が、予め設定された閾値より小さい場合(S14:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)。
一方、ステップS14において、制御部10の判定部10bは、センサ間誤差ΔX1〜ΔXnのばらつきの範囲が、予め設定された閾値以上である場合(S14:No)は、選択物体ペアは同一物体ではないと判定する(ステップS21)。
ステップS15に続いて、制御部10は、ステップS16に処理を進める。
ステップS16において、制御部10は、選択物体ペアのバイアス誤差値を設定または算出する。バイアス誤差値は、例えば、時刻t1〜tnに対応した観測データのセンサ間誤差ΔX1〜ΔXnの中から、最新のΔXnをバイアス誤差値として設定することができる。また、ΔX1〜ΔXnの平均値、中央値等を算出して、バイアス誤差値として用いてもよい。
一方、ステップS21に続いて、制御部10は、ステップS22に処理を進める。
ステップS22において、制御部10は、選択物体ペアのバイアス誤差値を、無効値に設定する。
ステップS16またはステップS22に続いて、制御部10は、ステップS17に処理を進める。
ステップS17において、制御部10は、第1センサ100および第2センサ200の観測データ中の物体について、全ての物体ペアが選択済みの場合(S17:Yes)には、ステップS18に処理進める。
一方、制御部10は、まだ全ての物体ペアが選択済みではない場合(S17:No)には、ステップS12に戻って、新たに選択物体ペアを設定する。
ステップS18において、制御部10の判定部10bは、選択された全ての物体ペアにおいて、ステップS16において設定されたバイアス誤差値が無効値であるか否かを判定する。選択された全ての物体ペアにおいてバイアス誤差値が無効値に設定されていない場合(S18:No)には、制御部10は、ステップS19に処理を進める。
一方、選択された全ての物体ペアにおいて、何れか一つでもバイアス誤差値が無効値に設定されている場合(S18:Yes)には、制御部10は、ステップS23に処理を進める。
ステップS18において、制御部10は、選択された全ての物体ペアにおいて、バイアス誤差値が最小の値となる選択物体ペアを、同一物体と決定する。続いて、制御部10は、ステップS20に処理を進める。
一方、ステップS23において、制御部10は、選択された全ての物体ペアにおいて同一物体は無いと決定する。すなわち、制御部10は、第1センサ100および第2センサ200の観測データに同一物体が存在しないと決定して、バイアス誤差補正処理を終了する。
ステップS20において、制御部10の補正部10cは、同一物体と判定された選択物体ペアにおいて、バイアス誤差値を用いて、観測データの補正処理を行う。補正処理は、センサ間の検出誤差であるバイアス誤差をなくすように、例えば、第1センサ100の観測データからバイアス誤差値を減算するようにすればよい。ステップS20の補正処理が終了した後、制御部10はバイアス誤差補正処理を終了する。
以上説明したステップS15の判定およびステップS19の決定について補足して説明する。
バイアス誤差補正処理の流れにおいて、第1センサ100および第2センサ200の観測データ中に、検出された物体が1つずつしかない場合は、選択物体ペアの組み合わせは1つのみとなる。そして、その選択物体ペアがステップS15において同一物体と判定された場合は、一意的にステップS16、ステップS17:Yes、ステップS18:Noの順に処理は進み、ステップS19において、選択物体ペアは同一物体として決定される。
一方、第1センサ100および第2センサ200の観測データにおいて、検出された物体が複数ある場合は、選択物体ペアの組み合わせも複数となる。そのため、最初に選択された選択物体ペアがステップS15において同一物体と判定されたとしても、他により小さいバイアス誤差を持つ選択物体ペアが存在する可能性がある。そのため、制御部10は、全物体ペアのバイアス誤差値の算出が終了するまで、ステップS12からステップS17までの処理を繰り返し実行する。そして、制御部10は、ステップS19において、バイアス誤差値が最小の選択物体ペアを同一物体として決定する。
以上説明したように、本実施の形態1に係る障害物認識装置によれば、算出した物理量の差分値を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
実施の形態2.
次に、本発明の実施の形態2に係る障害物認識装置1の制御処理の流れについて、図5および図6を用いて説明する。
実施の形態2と実施の形態1では、選択物体ペアが同一物体か否かを判定するために用いる指標値の構成が異なっている。実施の形態2の障害物認識装置1の構成は、実施の形態1の図1で示したブロック図と同様であるため、説明は省略する。
実施の形態1のバイアス誤差補正処理においては、第1センサ100および第2センサ200の観測データに基づいて、選択物体ペアの物理量の差分値を算出した。そして、算出した物理量の差分値を用いて、選択物体ペアが同一物体か否かを判定する例について説明した。これに対して、実施の形態2では、選択物体ペアの移動軌跡を多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する。
図5は、本発明の実施の形態2に係る障害物認識装置1の処理の流れを示すフローチャートである。実施の形態1と同様の部分は同じ符号を付して説明を省略する。
図5のステップS10における最古の観測データの削除およびステップS11における最新の観測データの追加処理は、実施の形態1で説明した図3と同様のため説明を省略する。
次に、ステップS30において、制御部10は、第1センサ100および第2センサ200の観測データを、自車データを用いて、対地座標系に変換する処理を行う。以下、このように対地座標系に変換した観測データを、「座標変換データ」と称する。座標変換データは、記憶部10dに保存される。
次に、ステップS31において、制御部10の算出部10aは、座標変換データを用いて、第1センサ100および第2センサ200が検出した物体の移動軌跡を算出する。
図6は、本発明の実施の形態2に係る、検出物体の移動軌跡の算出方法を説明する図である。図6には、各時刻において、第1センサ100が検出した物体および第2センサ200が検出した物体の座標変換データが示されている。図6には、物体を検出した7つの時刻における座標変換データが、対地座標系xy上にプロットされている。
物体の移動軌跡は、多項式y=C0+C1*X+C2*X^2+C3*X^3で近似することができる。図6に示すように、第1センサ100が検出した物体の移動軌跡は、多項式ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3となる。同様に、第2センサ200が検出した物体の移動軌跡は、多項式ysns2=C0sns2+C1sns2*X+C2sns2*X^2+C3sns2*X^3となる。
算出部10aは、座標変換データを用いて、移動軌跡を近似する多項式y=C0+C1*X+C2*X^2+C3*X^3の係数C0、C1、C2、C3を算出することによって、移動軌跡を算出する。
具体的には、算出部10aは、第1センサ100が検出した物体の多項式ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3の係数C0sns1、C1sns1、C2sns1、C3sns1を算出する。同様に、算出部10aは、第2センサ200が検出した物体の多項式ysns2=C0sns2+C1sns2*X+C2sns2*X^2+C3sns2*X^3の係数C0sns2、C1sns2、C2sns2、C3sns2を算出する。
次に、ステップS32において、制御部10は、記憶部10dに保存されている第1センサ100および第2センサ200の座標変換データ中の複数の物体の中から、第1センサ100および第2センサ200についてそれぞれ1つずつ物体を選択して、選択物体ペアを設定する。
次に、ステップS33において、制御部10の算出部10aは、選択物体ペアの移動軌跡を比較するために、上記多項式の係数の差分値の絶対値を算出する。
ここで、係数C0、C1、C2、C3の差分値の絶対値を、それぞれΔC0、ΔC1、ΔC2、ΔC3とする。図6に示す2つの移動軌跡の場合、算出部10aは、ΔC0=abs(C0sns1−C0sns2)、ΔC1=abs(C1sns1−C1sns2)、ΔC2=abs(C2sns1−C2sns2)、ΔC3=abs(C3sns1−C3sns2)を算出する。
続いて、ステップS34において、制御部10の判定部10bは、予め設定された条件(2)に基づいて、選択物体ペアが同一物体であるか否かを判定する。選択物体ペアの移動軌跡の近似度が高いほど、選択物体ペアが同一物体である可能性は高くなる。そのため、条件(2)に基づく判定は、例えば以下のように実行することができる。
まず、制御部10は、係数差分値の絶対値ΔC0、ΔC1、ΔC2、ΔC3に対して、予めそれぞれに対応する閾値を設定する。そして、ステップS34において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3のすべてが、それぞれ予め設定された閾値より小さい場合(S34:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)。
一方、ステップS34において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3の何れか1つが、予め設定された閾値以上である場合(S34:No)には、選択物体ペアは同一物体ではないと判定する(ステップS21に処理を進める)。
ステップS34に続くステップS15およびステップS21以降の処理は、実施の形態1で説明した図3と同様であるため、説明を省略する。
以上説明したように、本実施の形態2に係る障害物認識装置によれば、対地座標系における選択物体ペアの移動軌跡の近似度を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
実施の形態3.
次に、本発明の実施の形態3に係る障害物認識装置1の制御処理の流れについて、図7および図8A〜図8Cを用いて説明する。
実施の形態3と実施の形態1および2では、選択物体ペアが同一物体か否かを判定するために用いる算出値の構成が異なっている。実施の形態3の障害物認識装置1の構成は、実施の形態1の図1で示したブロック図と同様であるため、説明は省略する。
実施の形態1のバイアス誤差補正処理においては、選択物体ペアの物理量の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明した。また、実施の形態2では、選択物体ペアの移動軌跡をそれぞれ多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明した。
これに対して、実施の形態3では、選択物体ペアの対地座標位置の時系列データに基づいて相関係数を算出し、算出した相関係数に基づいて、選択物体ペアが同一物体か否かを判定する。
次に、図7および図8A〜図8Cを用いて、実施の形態3に係る障害物認識装置1のバイアス誤差補正処理の詳細について説明する。
図7は、本発明の実施の形態3に係る障害物認識装置1の処理の流れを示すフローチャートである。また、図8Aは、本発明の実施の形態3に係る障害物認識装置1の誤差補正処理の説明図、図8Bは縦位置相関係数の説明図、図8Cは横位置相関係数の説明図である。実施の形態1または実施形態2と同様の部分は同じ符号を付して説明を省略する場合がある。
図7のステップS10における最古の観測データの削除およびステップS11における最新の観測データの追加処理は、実施の形態1で説明した図3と同様のため説明を省略する。
次に、実施の形態2と同様に、ステップS30において、制御部10は、第1センサ100および第2センサ200の観測データを、自車データを用いて、対地座標系に変換する処理を行う。
次に、実施の形態2と同様に、ステップS32において、制御部10は、記憶部10dに保存されている座標変換データに基づいて、第1センサ100および第2センサ200がそれぞれ取得した複数の物体の中から、第1センサ100および第2センサ200について1つずつ物体を選択する。選択した物体の座標変換データのペアを選択する。
次に、ステップS40において、制御部10の算出部10aは、座標変換データを用いて、選択物体ペアの相関係数を算出する。
図8A〜図8Cは、本発明の実施の形態3に係る、選択物体ペアの相関係数rの算出方法を説明する図である。
図8Aでは、対地座標系xyに対応して、時刻t1〜tnにおける物体の縦方向位置をposX、横方向位置をposYとしている。そして、図8Aの各プロットは、時刻t1〜tnにおいて、第1センサ100が検出した物体の座標変換データX1_sns1〜Xn_sns1および第2センサ200が検出した物体の座標変換データX1_sns2〜Xn_sns2を示している。
すなわち、図8Aに示すX1_sns1〜Xn_sns1は、第1センサ100が検出した物体の時刻t1〜tnにおける縦方向位置(PosXsns1)である。同様に、X1_sns2〜Xn_sns2は、第2センサ200が検出した物体の時刻t1〜tnにおける縦方向位置(PosXsns2)である。
また、図示しないY1_sns1〜Yn_sns1は、第1センサ100が検出した物体の時刻t1〜tnにおける横方向位置(PosYsns1)である。同様に、図示しないY1_sns2〜Yn_sns2は、第2センサ200が検出した物体の時刻t1〜tnにおける縦方向位置(PosYsns2)である。
ステップS40において、制御部10の算出部10aは、選択物体ペアについて、時刻t1〜tnにおける縦方向位置PosXsns1およびPosXsns2、並びに、横方向位置PosYsns1およびPosYsns2を算出する。
続いて、算出部10aは、縦方向位置(PosXsns1、PosXsns2)の相関係数rposXおよび横方向位置(PosYsns1、PosYsns2)の相関係数rposYを算出する。
図8Bは、縦方向位置(PosXsns1、PosXsns2)の相関係数rposXの算出方法の例を説明する図である。図8Bの横軸は第2センサ200が検出した物体の縦方向位置(PosXsns2)であり、図8Bの縦軸は第1センサ100が検出した物体の縦方向位置(PosXsns1)である。
図8Bに示すように、時刻t1〜tnにおける縦方向位置を示すPosXsns1_tiとPosXsns2_ti(i=1、2、・n)の2組のデータ列{(PosXsns1_ti、PosXsns2_ti)}を変数としたときの相関係数rposXを算出する。
図8Cは、横方向位置(PosXsns1、PosXsns2)の相関係数rposYの算出方法の例を説明する図である。図8Cの横軸は第2センサ200が検出した物体の横方向位置(PosYsns2)であり、図8Cの縦軸は第1センサ100が検出した物体の横方向位置(PosYsns1)である。
図8Cに示すように、算出部10aは、時刻t1〜tnにおける横方向位置を示すPosYsns1_tiとPosYsns2_ti(i=1、2、・n)の2組のデータ列{(PosYsns1_ti、PosYsns2_ti)}を変数としたときの相関係数rposYを算出する。
続いて、ステップS41において、制御部10の判定部10bは、予め設定された条件(3)に基づいて、選択物体ペアが同一物体であるか否かを判定する。上記のように算出した相関係数が大きいほど、選択物体ペアが同一物体である可能性は高くなる。そのため、条件(3)に基づく判定は、例えば以下のように実行することができる。
まず、制御部10は、相関係数rposXおよびrposYに対して、予めそれぞれに対応する閾値を設定する。ステップS41おいて、制御部10の判定部10bは、相関係数rposXおよびrposYの両方が、それぞれ予め設定された閾値以上である場合(S41:Yes)には、選択物体ペアは同一物体であると判定する。そして、制御部10は、ステップS15に処理を進める。
一方、ステップS41において、制御部10の判定部10bは、相関係数rposXおよびrposYの何れか1つが、予め設定された閾値より小さい場合(S41:No)には、選択物体ペアは同一物体ではないと判定する。そして、制御部10は、ステップS21に処理を進める。
ステップS41に続くステップS15およびステップS21以降の処理は、実施の形態1で説明した図3と同様であるため、説明を省略する。
以上説明したように、実施の形態3に係る障害物認識装置によれば、選択物体ペアの対地座標位置の時系列データを用いて算出した相関係数を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
実施の形態4.
次に、本発明の実施の形態4に係る障害物認識装置2について、図9〜図12を用いて説明する。
実施の形態1〜3のバイアス誤差補正処理においては、第1センサ100および第2センサ200の観測データに基づいて、選択物体ペアが同一物体か否かを判定する例について説明した。
これに対して、実施の形態4に係る障害物認識装置2は、実施の形態1〜3に係る障害物認識装置1の構成に加えて、予測処理部を備えている。実施の形態4では、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データに基づいて、選択物体ペアが同一物体か否かを判定する例について説明する。なお、以下の説明では、実施の形態1〜3と同様の部分は同じ符号を付して説明を省略する場合がある。
また、以下の説明では、第1センサ100の観測データと予測データを使用する場合について説明するが、第1センサ100の観測データの代わりに第2センサ200の観測データを使用することも可能である。
図9は、本発明の実施の形態4に係る障害物認識装置2の構成を示すブロック図である。本実施の形態4に係る障害物認識装置2は、図1に示す実施の形態1〜3に係る障害物認識装置1の構成に加えて、予測部10eを備えている。
次に、図10のフローチャートを用いて、実施の形態4に係る障害物認識装置2の処理の流れを説明する。
図2に示す実施の形態1のフローチャートと異なり、図10に示す実施の形態4のフローチャートにおいては、最初に、予測処理(ステップS500)が実行される。
具体的には、予測部10eは、前周期における更新処理(ステップS400)で更新された物体情報である航跡データを基づいて、現時刻における物体の航跡の状態の予測データを算出する予測処理(ステップS500)を行う。ここで、物体の航跡の状態とは、検出した物体の位置、速度、加速度、属性情報等である。
算出された予測データは、予測部10eから記憶部10dに送信される。記憶部10dは、予測データを時系列順に格納した予測データ履歴を作成して保存する。
次に、データ受信部12は、検出データ取得処理を行う(ステップS100)。検出データ取得処理については、実施の形態1〜3のステップS100と同様である。なお、以下に説明するように、第1センサ100の観測データをバイアス誤差補正処理に使用する場合は、第2センサ200の観測データを取得する必要はない。
次に、制御部10は、バイアス誤差補正処理を行う(ステップS200)。バイアス誤差補正処理においては、まず、制御部10の算出部10aが、データ受信部12から出力された観測データおよび予測部10eから出力された予測データに基づいて、第1センサ100で検出された物体および予測データ中の物体の物理量の差分値を算出する。
続いて、制御部10の判定部10bは、予め設定された条件に基づいて、第1センサ100の観測データおよび予測データから選択された物体ペアが、同一物体か否かの判定を行う。物体ペアが同一物体であると判定された場合、制御部10は、選択された物体ペアの第1センサ100の観測データと予測データ間の誤差(以下、実施の形態1〜3と同様にバイアス誤差と称する)を設定または算出する。
続いて、制御部10の補正部10cは、バイアス誤差値を用いて、観測データを補正して、バイアス誤差補正処理を終了する。補正後観測データは、制御部10から相関処理部13に出力される。
次に、相関処理部13は、相関処理を行う(ステップS300)。相関処理において、相関処理部13は、補正後観測データを用いて、第1センサ100の補正後観測データと予測データの対応付けを実行し、相関データを生成する。相関処理部13は、補正後観測データおよび相関データを、更新処理部14に出力する。
次に、更新処理部14は、物体情報の更新処理を行う(ステップS400)。更新処理部14は、相関データによって第1センサ100の補正後観測データと予測データの物体情報を、例えば、センサフュージョンを行うことによって更新する。
以上で、障害物認識装置2は処理を終了する。なお、図10に示す処理は、予め設定された動作周期で、繰り返し実行される。
次に、図11および図12を用いて、実施の形態4に係る障害物認識装置2のバイアス誤差補正処理の詳細について説明する。
図11は、本発明の実施の形態4に係る障害物認識装置2のバイアス誤差補正処理の流れを示すフローチャートである。
実施の形態4におけるバイアス誤差補正処理は、実施の形態1における第2センサ200の観測データを予測データに置き換えた場合の処理と同様である。そのため、以下の説明では、実施の形態1と同様の部分は同じ符号を付して説明を省略する場合がある。
図11のステップS50において、障害物認識装置2の制御部10は、記憶部10dに保存されている観測データのうち、最古の観測データを削除する。また、制御部10は、記憶部10dに保存されている予測データのうち、最古の予測データを削除する。
続いて、ステップS51において、制御部10は、現周期で取得した最新の観測データを、記憶部10dの観測データ履歴に保存する。また、制御部10は、現周期の予測データを、記憶部10dの観測データ履歴に保存する。
次に、ステップS52において、制御部10は、記憶部10dに保存されている第1センサ100の観測データ中および予測データ中の複数の物体の中から、それぞれ1つずつ物体を選択して、選択物体ペアを設定する。
次に、ステップS53において、制御部10の算出部10aは、選択物体ペア間における第1センサ100の観測データと予測データの物理量の差分値を、誤差値ΔXとして算出する。なお、ステップS53の処理は、実施の形態1のステップS13における第2センサ200の観測データを、予測データに変更した処理である。ΔXの算出方法については、図11を用いて説明する。
図12は、本発明の実施の形態4に係る観測データと予測データ間の誤差ΔXの算出方法を説明する図である。
ここで、選択物体ペアにおいて、第1センサ100で検出された物体を、物体ID=idsns1とする。物体ID=idsns1の時刻kにおける観測データを、Xksns1とする。同様に、選択ペアにおいて、予測データ中の物体を、物体ID=idsredとする。物体ID=idsredの時刻kにおける観測データを、Xksredとする。
時刻kにおける観測データと予測データ間誤差ΔXkは、Xksns1とXksredとの差分値の絶対値とすることができる。図10のステップS53において、制御部10の算出部10aは、図11に示すように、時刻t1〜tnに対応した誤差ΔX1〜ΔXnを算出する。
図11に戻り、制御部10は、ステップS54に処理を進める。ステップS54において、制御部10の判定部10bは、予め設定された条件(1)’に基づいて、ステップS52において設定された選択物体ペアが同一物体であるか否かを判定する。
条件(1)’に基づく判定は、例えば以下のように実行することができる。
ステップS54において、制御部10の判定部10bは、誤差ΔX1〜ΔXnのばらつきの範囲が、予め設定された閾値より小さい場合(S54:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)。
一方、ステップS54において、制御部10の判定部10bは、センサ間誤差ΔX1〜ΔXnのばらつきの範囲が、予め設定された閾値以上である場合(S54:No)は、選択物体ペアは同一物体ではないと判定する(ステップS21)。ばらつきの範囲は、ΔX1〜ΔXnの最大値から最小値を減算した値、ΔX1〜ΔXnの平均値、ΔX1〜ΔXnの中央値等を用いることができる。
ステップS15に続いて、制御部10は、ステップS16に処理を進める。
ステップS16において、制御部10は、選択物体ペアのバイアス誤差値を設定する。バイアス誤差値は、例えば、時刻t1〜tnに対応した観測データのセンサ間誤差ΔX1〜ΔXnの中から、最新のΔXnをバイアス誤差値として用いることができる。また、ΔX1〜ΔXnの平均値、中央値等をバイアス誤差値として用いてもよい。
一方、ステップS21に続いて、制御部10は、ステップS22に処理を進める。
ステップS22において、制御部10は、選択物体ペアのバイアス誤差値を、無効値に設定する。
ステップS16またはステップS22に続いて、制御部10は、ステップS57に処理を進める。
ステップS57において、制御部10は、第1センサ100の観測データ中および予測データ中の物体について、全ての物体ペアが選択済みの場合(S57:Yes)には、ステップS18に処理進める。
一方、制御部10は、全ての物体ペアが選択済みではない場合(S57:No)には、ステップS52に戻って、新たに選択物体ペアを設定する。
ステップS18において、制御部10の判定部10bは、選択された全ての物体ペアにおいて、ステップS16において設定されたバイアス誤差値が無効値であるか否かを判定する。選択された全ての物体ペアにおいてバイアス誤差値が無効値ではない場合(S18:No)には、制御部10は、ステップS19に処理を進める。一方、選択された全ての物体ペアにおいてバイアス誤差値が無効値ではない場合(S18:Yes)には、制御部10は、ステップS23に処理を進める。
ステップS18において、制御部10は、選択された全ての物体ペアにおいてバイアス誤差値が最小の値となる選択物体ペアを、同一物体と決定する。続いて、制御部10は、ステップS20に処理を進める。
ステップS23において、制御部10は、選択された全ての物体ペアにおいて同一物体が無いと決定して、バイアス誤差補正処理を終了する。
ステップS20において、制御部10の補正部10cは、同一物体と判定された選択物体ペアにおいて、バイアス誤差値を用いて、第1センサ100の観測データの補正処理を行う。補正処理は、バイアス誤差をなくすように、例えば、第1センサ100の観測データからバイアス誤差値を減算するようにすればよい。ステップS20の補正処理が終了した後、制御部10はバイアス誤差補正処理を終了する。
なお、以上説明したバイアス誤差補正処理において、観測データは、第1センサ100または第2センサ200の何れか一方のみを使用すればよい。そのため、障害物認識装置2においては、第1センサ100または第2センサ200の何れか1つを省略可能である。または、第1センサ100または第2センサ200の何れか一方のみを優先的に選択して使用するように設定してもよい。
以上説明したように、本実施の形態4に係る障害物認識装置によれば、バイアス誤差補正処理において、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データから物理量を算出する。続いて、算出した物理量の差分値を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
実施の形態5.
次に、本発明の実施の形態5に係る障害物認識装置2について、図13および図14を用いて説明する。
実施の形態5と実施の形態4では、選択物体ペアが同一物体か否かを判定するために用いる指標値の構成が異なっている。実施の形態6の障害物認識装置2の構成は、実施の形態4の図9で示したブロック図と同様であるため、説明は省略する。
実施の形態4のバイアス誤差補正処理においては、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データに基づいて、選択物体ペアの物理量の差分値を算出した。そして、算出した物理量の差分値を用いて、選択物体ペアが同一物体か否かを判定する例について説明した。
これに対して、実施の形態5では、実施の形態4と同様に予測データを用いる構成において、選択物体ペアの移動軌跡を多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明する。
すなわち、実施の形態5におけるバイアス誤差補正処理は、実施の形態2における第1センサ100の観測データまたは第2センサ200の観測データの何れか一方を、予測データに置き換えた場合の処理と同様である。そのため、以下の説明では、実施の形態1〜4と同様の部分は同じ符号を付して説明を省略する場合がある。
なお、以下の説明では、第1センサ100の観測データと予測データを使用する場合について説明するが、第1センサ100の観測データの代わりに第2センサ200の観測データを使用することも可能である。
次に、図13および図14を用いて、実施の形態5に係る障害物認識装置2のバイアス誤差補正処理の詳細について説明する。
図13は、本発明の実施の形態5に係る障害物認識装置2のバイアス誤差補正処理の流れを示すフローチャートである。
図13のステップS50において、障害物認識装置2の制御部10は、記憶部10dに保存されている観測データのうち、最古の観測データを削除する。また、制御部10は、記憶部10dに保存されている予測データのうち、最古の予測データを削除する。
続いて、ステップS51において、制御部10は、現周期で取得した最新の観測データを、記憶部10dの観測データ履歴に保存する。また、制御部10は、現周期の予測データを、記憶部10dの観測データ履歴に保存する。
次に、ステップS60において、制御部10は、第1センサ100の観測データおよび予測データを、自車データを用いて、対地座標系に変換する処理を行う。座標変換データは、記憶部10dに保存される。
次に、ステップS61において、制御部10の算出部10aは、座標変換データを用いて、第1センサ100の観測データ中および予測データ中の物体の移動軌跡を算出する。移動軌跡を近似する多項式は、実施の形態2と同様である。
図14は、本発明の実施の形態5に係る、検出物体の移動軌跡の算出方法を説明する図である。図14においては、実施の形態2の図6における第2センサ200が検出した物体の座標変換データが、予測データ中の物体の座標変換データに置き換えられている。
算出部10aは、第1センサ100が検出した物体の移動軌跡の多項式ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3の係数C0sns1、C1sns1、C2sns1、C3sns1を算出する。同様に、算出部10aは、予測データの物体の移動軌跡の多項式ypred=C0pred+C1pred*X+C2pred*X^2+C3pred*X^3の係数C0pred、C1pred、C2pred、C3predを算出する。
次に、ステップS62において、制御部10は、記憶部10dに保存されている第1センサ100の観測データ中および予測データ中の複数の物体の中から、それぞれ1つずつ物体を選択して、選択物体ペアを設定する。
次に、ステップS63において、制御部10の算出部10aは、選択物体ペア間における移動軌跡を近似する多項式の係数の差分値の絶対値ΔC0、ΔC1、ΔC2、ΔC3を算出する。図14に示す2つの移動軌跡の場合、ΔC0=abs(C0sns1−C0pred)、ΔC1=abs(C1sns1−C1pred)、ΔC2=abs(C2sns1−C2pred)、ΔC3=abs(C3sns1−C3pred)を算出する。
続いて、ステップS64において、制御部10の判定部10bは、予め設定された条件(2)’に基づいて、選択物体ペアが同一物体であるか否かを判定する。条件(2)’に基づく判定は、例えば以下のように実行することができる。
まず、制御部10は、係数差分値の絶対値ΔC0、ΔC1、ΔC2、ΔC3に対して、予めそれぞれに対応する閾値を設定する。そして、ステップS64において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3のすべてが、それぞれ予め設定された閾値より小さい場合(S64:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)に処理を進める。
一方、ステップS64において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3の何れか1つが、予め設定された閾値以上である場合(S64:No)には、選択物体ペアは同一物体ではないと判定する(ステップS21)。
ステップS64に続くステップS15およびステップS21以降の処理は、実施の形態4で説明した図11と同様であるため、説明を省略する。
以上説明したように、本実施の形態5に係る障害物認識装置によれば、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データから対地座標系における選択物体ペアの移動軌跡を算出する。続いて、算出した選択物体ペアの移動軌跡の近似度を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
実施の形態6.
次に、本発明の実施の形態6に係る障害物認識装置2について、図15および図16A〜図16Cを用いて説明する。
実施の形態6と実施の形態4および5では、選択物体ペアが同一物体か否かを判定するために用いる指標値の構成が異なっている。実施の形態6の障害物認識装置2の構成は、実施の形態4の図9で示したブロック図と同様であるため、説明は省略する。
実施の形態4のバイアス誤差補正処理においては、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データに基づいて、選択物体ペアの物理量の差分値を算出した。そして、算出した物理量の差分値を用いて、選択物体ペアが同一物体か否かを判定する例について説明した。また、実施の形態5では、実施の形態4と同様に予測データを用いる構成において、選択物体ペアの移動軌跡をそれぞれ多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明した。
これに対して、実施の形態6では、実施の形態4と同様に予測データを用いる構成において、選択物体ペアの対地座標位置の時系列データに基づいて相関係数算出し、算出した相関係数に基づいて、選択物体ペアが同一物体か否かを判定する。
すなわち、実施の形態6におけるバイアス誤差補正処理は、実施の形態3における第1センサ100の観測データまたは第2センサ200の観測データの何れか一方を、予測データに置き換えた場合の処理と同様である。そのため、以下の説明では、実施の形態1〜5と同様の部分は同じ符号を付して説明を省略する場合がある。
なお、以下の説明では、第1センサ100の観測データと予測データを使用する場合について説明するが、第1センサ100の観測データの代わりに第2センサ200の観測データを使用することも可能である。
次に、図15および図16A〜図16Cを用いて、実施の形態6に係る障害物認識装置2のバイアス誤差補正処理の詳細について説明する。
図15は、本発明の実施の形態6に係る障害物認識装置2の処理の流れを示すフローチャートである。図16Aは、本発明の実施の形態6に係る障害物認識装置2の誤差補正処理の説明図、図16Bは縦位置相関係数の説明図、図16Cは横位置相関係数の説明図である。
図15のステップS50における最古の観測データおよび最古の予測データの削除およびステップS51における最新の観測データおよび最新の予測データの追加処理は、実施の形態5で説明した図13と同様のため説明を省略する。
次に、実施の形態5と同様に、ステップS60において、制御部10は、第1センサ100の観測データおよび予測データを、自車データを用いて、対地座標系に変換する処理を行う。
次に、実施の形態4と同様に、ステップS52において、制御部10は、記憶部10dに保存されている第1センサ100の観測データ中および予測データ中の複数の物体の中から、それぞれ1つずつ物体を選択して、選択物体ペアを設定する。
次に、実施の形態3と同様に、ステップS40において、制御部10の算出部10aは、座標変換データを用いて、選択物体ペアの相関係数を算出する。
図16A〜図16Cは、本発明の実施の形態6に係る、選択物体ペアの相関係数rの算出方法を説明する図である。
図16Aに示すX1_sns1〜Xn_sns1は、第1センサ100が検出した物体の時刻t1〜tnにおける縦方向位置(PosXsns1)である。同様に、X1_ pred〜Xn_ predは、予測データの時刻t1〜tnにおける縦方向位置(PosXpred)である。
また、図示しないY1_sns1〜Yn_sns1は、第1センサ100が検出した物体の時刻t1〜tnにおける横方向位置(PosYsns1)である。同様に、図示しないY1_ pred〜Yn_ predは、予測データの時刻t1〜tnにおける縦方向位置(PosYpred)である。
ステップS70において、制御部10の算出部10aは、選択物体ペアについて、時刻t1〜tnにおける縦方向位置PosXsns1およびPosXpred、並びに、横方向位置PosYsns1およびPosYpredを算出する。
続いて、算出部10aは、縦方向位置(PosXsns1、PosXpred)の相関係数rposXおよび横方向位置(PosYsns1、PosYpred)の相関係数rposYを算出する。
図16Bは、縦方向位置(PosXsns1、PosXpred)の相関係数rposXの算出方法の例を説明する図である。
図16Bに示すように、算出部10aは、時刻t1〜tnにおける縦方向位置を示すPosXsns1_tiとPosXpred_ti(i=1、2、・n)の2組のデータ列{(PosXsns1_ti、PosXpred_ti)}を変数としたときの相関係数rposXを算出する。
図16Cは、横方向位置(PosXsns1、PosXpred)の相関係数rposYの算出方法の例を説明する図である。
図16Cに示すように、算出部10aは、時刻t1〜tnにおける横方向位置を示すPosYsns1_tiとPosYpred_ti(i=1、2、・n)の2組のデータ列{(PosYsns1_ti、PosYpred_ti)}を変数としたときの相関係数rposYを算出する。
続いて、ステップS71において、制御部10の判定部10bは、予め設定された条件(3)'に基づいて、選択物体ペアが同一物体であるか否かを判定する。条件(3)'に基づく判定は、例えば以下のように実行することができる。
まず、制御部10は、相関係数rposXおよびrposYに対して、予めそれぞれに対応する閾値を設定する。ステップS41おいて、制御部10の判定部10bは、相関係数rposXおよびrposYの両方が、それぞれ予め設定された閾値以上である場合(S71:Yes)には、選択物体ペアは同一物体であると判定する。そして、制御部10は、ステップS15に処理を進める。
一方、ステップS71において、制御部10の判定部10bは、相関係数rposXおよびrposYの何れか1つが、予め設定された閾値より小さい場合(S71:No)には、選択物体ペアは同一物体ではないと判定する。そして、制御部10は、ステップS21に処理を進める。
ステップS71に続くステップS15およびステップS21以降の処理は、実施の形態4で説明した図9と同様であるため、説明を省略する。
以上説明したように、本実施の形態6に係る障害物認識装置によれば、バイアス誤差補正処理において、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データから、対地座標系における選択物体ペアの位置の相関係数を算出する。続いて、算出した相関係数を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
実施の形態7.
実施の形態7は、実施の形態1〜6で説明した障害物認識装置1および障害物認識装置2において、検出データの検出時刻に対してセンサの遅延時間に基づく補正を行う構成を備えている。以下、検出データに検出時刻にセンサの遅延時間に基づく補正を行う処理を、検出時刻の補正処理と称する。
センサにはセンサの種類等に対応した遅延時間が存在する。センサの遅延時間とは、例えば、検出物体がセンサの検出領域内に入ってから、センサの出力が実行されるまでの時間であり、センサの応答時間とも言う。そのため、センサの遅延時間を考慮しない場合は、検出データに時間的なずれが生じてしまう可能性がある。
以下、本発明の実施の形態7に係る検出時刻の補正処理について説明する。
まず、検出時刻の補正処理を実行するタイミングについて説明する。
実施の形態1の図2(障害物認識装置1)および実施の形態4の図10(障害物認識装置2)で説明したように、検出データ取得処理(ステップS100)において、データ受信部12は、センサから検出データを取得する。続いて、データ受信部12は、取得した検出データを、時刻計測部11で計測した時刻と関連づけて観測データを生成する。
ここで、センサに遅延時間が無い場合は、データ受信部12がセンサから検出データを受信した時刻を時刻計測部11で計測し、観測データとしてそのまま適用することができる。しかしながら、センサに遅延時間がある場合は、データ受信部12がセンサからの受信した時刻と、実際にセンサが物体を検出した時刻にずれが生じてしまうことになる。
すなわち、検出時刻の補正処理とは、観測データに含まれる時刻情報を補正する処理である。そのため、検出時刻の補正処理は、データ受信部12が検出データを取得した後から、制御部10が観測データを用いてバイアス誤差補正処理を実行する前までの期間に行うようにすると好適である。
検出時刻の補正処理実行のタイミングとしては、データ受信部12が観測データを生成する際に実行するように設定することができる。
または、データ受信部12は検出データの取得および出力を行い、制御部10の算出部10aが、検出時刻の補正処理を行うようにしてもよい。その場合は、データ受信部12が制御部10に検出データを出力し、続いて、制御部10の算出部10aが、検出時刻の補正処理を行うようにすればよい。
以下の説明では、制御部10の算出部10aが検出時刻の補正処理を行う場合について説明する。
次に、検出時刻の補正処理の内容の詳細について説明する。
障害物認識装置1においては、第1センサ100および第2センサ200の遅延時間が既知である場合には、制御部10の算出部10aは、既知の遅延時間を第1センサ100および第2センサ200の検出データにそれぞれ加算することで、検出時刻の補正処理を行う。
次に、障害物認識装置1において、第1センサ100および第2センサ200の観測データを用いた検出時間の補正方法について、図17Aおよび図17B用いて説明する。
図17Aは、第1センサ100および第2センサ200の時系列の観測データを示している。また、図17Bは、検出時間の補正量(以下、シフト時間と称する)と時系列データの相関係数rの関係を示している。制御部10は、図17Bに示すシフト時間と相関係数rの関係に基づいて、遅延時間を推定する。
まず、制御部10は、第1センサ100および第2センサ200の時系列の観測データから、時系列データの相関係数r0を算出する。
次に、制御部10は、図17Aに示すように、第1センサ100の時系列の観測データを、1周期分に相当するシフト時間Δtの分だけ、時刻が増加する方向にシフトさせる。続いて、制御部10は、Δtシフトさせた第1センサ100の時系列の観測データと、第2センサ200の時系列の観測データから、時系列データの相関係数r(Δt)を算出する。
次に、制御部10は、図17Aに示すように、第1センサ100の時系列の観測データを、2周期分に相当するシフト時間2*Δtの分だけ、時刻が増加する方向にシフトさせる。続いて、制御部10は、2*Δtシフトさせた第1センサ100の時系列の観測データと、第2センサ200の時系列の観測データから、時系列データの相関係数r(2*Δt)を算出する。
同様に、制御部10は、第1センサ100の時系列の観測データを、3*Δt、4*Δt、5*Δt、−1*Δt、−2*Δtとシフトさせ、それぞれ相関係数を算出する。
図17Bは、シフト時間を横軸として、上記のように算出した時系列データの相関係数rをプロットした図である。図17Bの例では、時系列データの相関係数rは、シフト時間が2*Δtの時に最大となっている。
制御部10は、時系列データの相関係数rが最大となるシフト時間(図17Aでは2*Δt)を遅延時間の推定値として設定する。続いて、制御部10の算出部10aは、設定された遅延時間の推定値を用いて第1センサ100の時系列の観測データを補正する。
検出時間補正処理の終了後、制御部10は、この検出時間補正後の観測データを用いて、実施の形態1〜3で説明したバイアス誤差補正処理を実行する。バイアス誤差補正処理において、算出部10aは、検出時間補正後の観測データを用いて指標値を算出する。
なお、相関係数rの算出および遅延時間の推定は、制御部10ではなく、障害物認識装置内部に設けた推定部が行うこととしてもよい。
以上の説明では、実施の形態1〜3(障害物認識装置1)で説明した処理に追加する処理として、第1センサ100および第2センサ200の時系列の観測データを用いて、検出時刻の補正処理を行う場合について説明した。以上説明した検出時刻の補正処理は、実施の形態4〜6(障害物認識装置2)で説明した処理に追加することも可能である。
障害物認識装置2において、第1センサ100または第2センサ200の少なくとも何れか一方の遅延時間が既知である場合には、算出部10aは、既知の遅延時間を第1センサ100または第2センサ200の検出データに加算することで、検出時刻の補正処理を行う。
また、障害物認識装置2において、第1センサ100または第2センサ200の観測データと、予測データを用いて検出時間の補正を行う場合には、以上の図17Aおよび図17Bを用いた説明において、第2センサ200の時系列の観測データを、時系列の予測データに置き換える構成とすればよい。そして、検出時間補正処理の終了後、制御部10は、この検出時間補正後の観測データを用いて、実施の形態4〜6で説明したバイアス誤差補正処理を実行する。バイアス誤差補正処理において、算出部10aは、検出時間補正後の観測データを用いて指標値を算出する。
以上説明したように、本実施の形態7に係る障害物認識装置によれば、センサの遅延時間に起因する物体検出時刻のずれを防止した状態で、バイアス誤差補正処理を実行することが可能となる。
1、2 障害物認識装置、10 制御部、11 時刻計測部、12 データ受信部、13 相関処理部、14 更新処理部、100 第1センサ、200 第2センサ、300 車両情報センサ、500 表示部。

Claims (15)

  1. 車両の周辺の物体を検知する第1センサおよび第2センサと、
    前記第1センサで検出された第1物体に関する第1検出データと、前記第2センサで検出された第2物体に関する第2検出データとに基づいて、前記第1物体と前記第2物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、
    前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第2物体とが同一物体であるか否かを判定する判定部と、
    前記判定部により前記第1物体と前記第2物体とが同一物体であると判定された場合に、前記第1検出データと前記第2検出データとに基づいて前記第1センサと前記第2センサとの検出誤差を算出し、前記検出誤差をなくすように補正後の検出データを生成する補正部と、
    を備える障害物認識装置。
  2. 前記第1センサは、前記第1検出データとして、前記第1物体の位置、速度および加速度の少なくともいずれか1つの物理量を検出し、
    前記第2センサは、前記第2検出データとして、前記第2物体の位置、速度および加速度の少なくともいずれか1つの物理量であり、前記第1センサと同一の物理量を検出し、
    前記算出部は、前記第1検出データと前記第2検出データとの差分を前記指標値として算出する
    請求項1に記載の障害物認識装置。
  3. 前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
    前記第2センサは、前記第2検出データとして、前記第2物体の位置を検出し、
    前記算出部は、前記第1検出データの時系列データから算出した前記第1物体の移動軌跡と、前記第2検出データの時系列データから算出した前記第2物体の移動軌跡との近似度を前記指標値として算出する
    請求項1に記載の障害物認識装置。
  4. 前記算出部は、前記第1物体の移動軌跡を第1多項式として近似し、前記第2物体の移動軌跡を第2多項式として近似し、前記第1多項式と前記第2多項式とで、対応する項の係数同士の差分の絶対値を前記近似度として算出する
    請求項3に記載の障害物認識装置。
  5. 前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
    前記第2センサは、前記第2検出データとして、前記第2物体の位置を検出し、
    前記算出部は、前記第1検出データの時系列データと、前記第2検出データの時系列データとの相関係数を前記指標値として算出する
    請求項1に記載の障害物認識装置。
  6. 前記第2センサが前記第2物体を検出してから前記第2検出データを出力するまでに必要とされる第2時間に対して、前記第1センサが前記第1物体を検出してから前記第1検出データを出力するまでに必要とされる第1時間が長い場合の時間差を遅延時間と規定した際に、前記遅延時間を既知のデータとして記憶する記憶部をさらに備え、
    前記算出部は、前記第1センサで検出された前記第1検出データを取得した時刻に対して前記遅延時間だけ遅れを持たせた時刻に前記第1検出データを受信したものとして遅延処理を実行し、前記遅延処理を実行した後の前記第1検出データと、前記遅延処理を実行しない前記第2検出データとに基づいて、前記指標値を算出する
    請求項1から5のいずれか1項に記載の障害物認識装置。
  7. 前記第2センサが前記第2物体を検出してから前記第2検出データを出力するまでに必要とされる第2時間に対して、前記第1センサが前記第1物体を検出してから前記第1検出データを出力するまでに必要とされる第1時間が長い場合の時間差を遅延時間と規定した際に、前記遅延時間が既知のデータでない場合に、前記第1検出データの時系列データと前記第2検出データの時系列データとに基づいて前記遅延時間を推定する推定部をさらに備え、
    前記算出部は、前記第1センサで検出された前記第1検出データを取得した時刻に対して前記遅延時間だけ遅れを持たせた時刻に前記第1検出データを受信したものとして遅延処理を実行し、前記遅延処理を実行した後の前記第1検出データと、前記遅延処理を実行しない前記第2検出データとに基づいて、前記指標値を算出する
    請求項1から5のいずれか1項に記載の障害物認識装置。
  8. 前記推定部は、前記第1検出データの時系列データを順次時間シフトさせ、前記第2検出データの時系列データとの相関係数を算出し、相関係数が最大となる時間シフト量を前記遅延時間として推定する
    請求項7に記載の障害物認識装置。
  9. 車両の周辺の物体を検知する第1センサと、
    前記第1センサにより過去に検出された検出データに基づいて、前記物体の動きを予測し、現在時刻における予測値を第3物体に関する第3検出データとして生成する予測部と、
    前記第1センサで検出された第1物体に関する第1検出データと、前記予測部により生成された第3物体に関する前記第3検出データとに基づいて、前記第1物体と前記第3物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、
    前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第3物体とが同一物体であるか否かを判定する判定部と、
    前記判定部により前記第1物体と前記第3物体とが同一物体であると判定された場合に、前記第1検出データと前記第3検出データとに基づいて前記第1センサによる検出結果と前記予測部による生成結果とのバイアス誤差を算出し、前記バイアス誤差をなくすように補正後の検出データを生成する補正部と、
    を備える障害物認識装置。
  10. 前記第1センサは、前記第1検出データとして、前記第1物体の位置、速度および加速度の少なくともいずれか1つの物理量を検出し、
    前記予測部は、前記第3検出データとして、前記第3物体の位置、速度および加速度の少なくともいずれか1つの物理量であり、前記第1センサと同一の物理量を予測し、
    前記算出部は、前記第1検出データと前記第3検出データとの差分を前記指標値として算出する
    請求項9に記載の障害物認識装置。
  11. 前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
    前記予測部は、前記第3検出データとして、前記第3物体の位置を検出し、
    前記算出部は、前記第1検出データの時系列データから算出した前記第1物体の移動軌跡と、前記第3検出データの時系列データから算出した前記第3物体の移動軌跡との近似度を前記指標値として算出する
    請求項9に記載の障害物認識装置。
  12. 前記算出部は、前記第1物体の移動軌跡を第1多項式として近似し、前記第3物体の移動軌跡を第3多項式として近似し、前記第1多項式と前記第3多項式とで、対応する項の係数同士の差分の絶対値を前記近似度として算出する
    請求項11に記載の障害物認識装置。
  13. 前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
    前記予測部は、前記第3検出データとして、前記第3物体の位置を予測し、
    前記算出部は、前記第1検出データの時系列データと、前記第3検出データの時系列データとの相関係数を前記指標値として算出する
    請求項9に記載の障害物認識装置。
  14. 請求項1に記載の障害物認識装置において、前記算出部、前記判定部および前記補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、
    前記第1センサで検出された前記第1物体に関する前記第1検出データと、前記第2センサで検出された前記第2物体に関する前記第2検出データとに基づいて、前記第1物体と前記第2物体とが同一物体であるか否かを識別するための前記指標値を算出する算出ステップと、
    前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第2物体とが同一物体であるか否かを判定する判定ステップと、
    前記判定ステップにより前記第1物体と前記第2物体とが同一物体であると判定された場合に、前記第1検出データと前記第2検出データとに基づいて前記第1センサと前記第2センサとの前記検出誤差を算出し、前記検出誤差をなくすように補正後の検出データを生成する補正ステップと、
    を有する障害物認識方法。
  15. 請求項9に記載の障害物認識装置において、前記予測部、前記算出部、前記判定部および前記補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、
    前記第1センサにより過去に検出された検出データに基づいて、前記物体の動きを予測し、現在時刻における予測値を前記第3物体に関する前記第3検出データとして生成する予測ステップと、
    前記第1センサで検出された前記第1物体に関する前記第1検出データと、前記予測ステップにより生成された前記第3物体に関する前記第3検出データとに基づいて、前記第1物体と前記第3物体とが同一物体であるか否かを識別するための前記指標値を算出する算出ステップと、
    前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第3物体とが同一物体であるか否かを判定する判定ステップと、
    前記判定ステップにより前記第1物体と前記第3物体とが同一物体であると判定された場合に、前記第1検出データと前記第3検出データとに基づいて前記第1センサによる検出結果と前記予測ステップによる生成結果との前記バイアス誤差を算出し、前記バイアス誤差をなくすように補正後の検出データを生成する補正ステップと、
    を有する障害物認識方法。
JP2019553679A 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法 Active JP6818907B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041720 WO2019097731A1 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法

Publications (2)

Publication Number Publication Date
JPWO2019097731A1 true JPWO2019097731A1 (ja) 2020-04-02
JP6818907B2 JP6818907B2 (ja) 2021-01-27

Family

ID=66538596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553679A Active JP6818907B2 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法

Country Status (5)

Country Link
US (1) US11465643B2 (ja)
JP (1) JP6818907B2 (ja)
CN (1) CN111417869A (ja)
DE (1) DE112017008157T5 (ja)
WO (1) WO2019097731A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129369A1 (ja) * 2018-12-17 2020-06-25 ソニーセミコンダクタソリューションズ株式会社 キャリブレーション装置とキャリブレーション方法とプログラムおよびキャリブレーションシステムとキャリブレーションターゲット
WO2020230619A1 (ja) * 2019-05-13 2020-11-19 日立オートモティブシステムズ株式会社 車両制御システム
US20210033722A1 (en) * 2019-07-29 2021-02-04 Trackman A/S System and method for inter-sensor calibration
DE112020003137T5 (de) * 2019-08-02 2022-04-07 Hitachi Astemo, Ltd. Zielvorrichtung, fahrsteuersystem und verfahren zum berechnen einer korrekturgrösse von sensordaten
JP7412254B2 (ja) * 2020-04-02 2024-01-12 三菱電機株式会社 物体認識装置および物体認識方法
US11656328B2 (en) * 2020-06-02 2023-05-23 Blue White Robotics Ltd Validating object detection hardware and algorithms
US11619708B2 (en) 2020-07-28 2023-04-04 Trackman A/S System and method for inter-sensor calibration
CN112733907A (zh) * 2020-12-31 2021-04-30 上海商汤临港智能科技有限公司 数据融合方法、装置、电子设备以及存储介质
DE102021201512A1 (de) 2021-02-17 2022-08-18 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Modellierung der Umgebung eines automatisierten Fahrzeugs
JP2022139267A (ja) * 2021-03-11 2022-09-26 株式会社デンソーアイティーラボラトリ トラッキング装置、トラッキング方法、トラッキングプログラム
CN113296088A (zh) * 2021-05-11 2021-08-24 雄狮汽车科技(南京)有限公司 车辆的动态目标跟踪方法、装置、及车辆
WO2024121995A1 (ja) * 2022-12-07 2024-06-13 日立Astemo株式会社 車両制御装置
CN117235545B (zh) * 2023-11-14 2024-02-02 亿海蓝(北京)数据技术股份公司 判断空间对象分布相似性的方法、装置和可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
US20080300787A1 (en) * 2006-02-03 2008-12-04 Gm Global Technology Operations, Inc. Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP2010061567A (ja) * 2008-09-05 2010-03-18 Toyota Motor Corp 物体検出装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011064484A (ja) * 2009-09-15 2011-03-31 Mitsubishi Electric Corp センサバイアス推定装置
JP2013145205A (ja) * 2012-01-16 2013-07-25 Toyota Motor Corp 物体検出装置
JP2014025925A (ja) * 2012-07-24 2014-02-06 Toyota Motor Engineering & Manufacturing North America Inc 車両用コントローラ、車両システム
US20140142800A1 (en) * 2012-11-16 2014-05-22 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
JP2017009574A (ja) * 2015-06-24 2017-01-12 パナソニック株式会社 レーダ軸ずれ量算出装置およびレーダ軸ずれ量算出方法
JP2017139600A (ja) * 2016-02-03 2017-08-10 クラリオン株式会社 カメラキャリブレーション装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014003177T5 (de) * 2013-07-08 2016-03-31 Honda Motor Co., Ltd. Objekterkennungsvorrichtung
JP6084192B2 (ja) * 2014-10-15 2017-02-22 本田技研工業株式会社 物体認識装置
US10578713B2 (en) 2015-06-24 2020-03-03 Panasonic Corporation Radar axis displacement amount calculation device and radar axis displacement calculation method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
US20080300787A1 (en) * 2006-02-03 2008-12-04 Gm Global Technology Operations, Inc. Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP2010061567A (ja) * 2008-09-05 2010-03-18 Toyota Motor Corp 物体検出装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011064484A (ja) * 2009-09-15 2011-03-31 Mitsubishi Electric Corp センサバイアス推定装置
JP2013145205A (ja) * 2012-01-16 2013-07-25 Toyota Motor Corp 物体検出装置
JP2014025925A (ja) * 2012-07-24 2014-02-06 Toyota Motor Engineering & Manufacturing North America Inc 車両用コントローラ、車両システム
US20140142800A1 (en) * 2012-11-16 2014-05-22 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
JP2017009574A (ja) * 2015-06-24 2017-01-12 パナソニック株式会社 レーダ軸ずれ量算出装置およびレーダ軸ずれ量算出方法
JP2017139600A (ja) * 2016-02-03 2017-08-10 クラリオン株式会社 カメラキャリブレーション装置

Also Published As

Publication number Publication date
DE112017008157T5 (de) 2020-09-10
CN111417869A (zh) 2020-07-14
US20200276983A1 (en) 2020-09-03
US11465643B2 (en) 2022-10-11
WO2019097731A1 (ja) 2019-05-23
JP6818907B2 (ja) 2021-01-27

Similar Documents

Publication Publication Date Title
JP6818907B2 (ja) 障害物認識装置および障害物認識方法
US10852139B2 (en) Positioning method, positioning device, and robot
JP5835490B2 (ja) 衝突予測装置
US11415690B2 (en) Method and system comparing odometer velocity to radar based velocity
CN110834642B (zh) 车辆跑偏识别方法、装置、车辆及存储介质
JP6622765B2 (ja) ロボットシステム
KR102126670B1 (ko) 검출 영역을 최적화하는 장애물 추적 장치 및 방법
US10793145B2 (en) Object recognition device, object recognition method, and vehicle control system
US20220383194A1 (en) Information processing device, method, and program
JP2007044865A (ja) 方向付け/位置決めシステム制御方法
US11624757B2 (en) Modeling poses of tracked objects by predicting sensor data
TWI594835B (zh) 加工設備的健康評估方法與健康評估裝置
JP2017075881A (ja) 物体認識統合装置および物体認識統合方法
US20200258379A1 (en) Determination of movement information with surroundings sensors
US20220080997A1 (en) Lane uncertainty modeling and tracking in a vehicle
CN116952273A (zh) 一种时间标定方法、电子设备及计算机可读存储介质
JP7336223B2 (ja) 自己位置推定方法
JP5341296B2 (ja) レーダ装置
JP4750640B2 (ja) 状態変化検出装置および状態変化検出プログラム
JP7412254B2 (ja) 物体認識装置および物体認識方法
JP6598885B2 (ja) 物体認識装置および物体認識方法
KR20180133266A (ko) 차량의 전방 객체 검출 장치 및 방법
JP2020063934A (ja) 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法
JP2019184360A (ja) センサ装置、誤差検出方法および誤差検出プログラム
KR101366558B1 (ko) 차량의 다물체 위치 추적 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R150 Certificate of patent or registration of utility model

Ref document number: 6818907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250