JP7063184B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP7063184B2
JP7063184B2 JP2018151605A JP2018151605A JP7063184B2 JP 7063184 B2 JP7063184 B2 JP 7063184B2 JP 2018151605 A JP2018151605 A JP 2018151605A JP 2018151605 A JP2018151605 A JP 2018151605A JP 7063184 B2 JP7063184 B2 JP 7063184B2
Authority
JP
Japan
Prior art keywords
vehicle
traveling direction
objects
recognition device
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018151605A
Other languages
English (en)
Other versions
JP2020027415A (ja
Inventor
照元 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018151605A priority Critical patent/JP7063184B2/ja
Priority to US16/433,183 priority patent/US11247671B2/en
Publication of JP2020027415A publication Critical patent/JP2020027415A/ja
Application granted granted Critical
Publication of JP7063184B2 publication Critical patent/JP7063184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Description

本発明は、車両に搭載され、車両の周囲の物体を認識する物体認識装置に関する。
特許文献1は、車両に搭載される物体検知装置を開示している。その物体検知装置は、所定範囲内で検知した複数の物体を統合して単一の物体として認識する。所定範囲は矩形状であり、所定範囲の前後幅及び左右幅は、物体の絶対速度に基づいて可変に設定される。ここで、所定範囲の前後幅は、物体検知装置が搭載されている車両の進行方向に沿って拡大される。また、所定範囲の左右幅は、物体検知装置が搭載されている車両の左右方向に沿って拡大される。
特開2009-186276号公報
センサ装置を用いて周囲の物体を検出する車両について考える。検出された複数の物体が同一物体に属すると判定された場合、それら複数の物体は統合され、同一物体として認識される。検出された複数の物体が同一物体に属するか否かを判定するために、物体の検出位置を基準とした統合判定範囲(統合判定距離)が用いられる。
統合判定範囲(統合判定距離)が適切に設定されない場合、同一物体として認識されるべき複数の物体が、別々の物体であると誤認識されるおそれがある。あるいは、別々の物体として認識されるべき複数の物体が、同一物体として誤認識されるおそれがある。すなわち、物体認識精度が低下する。
上記の特許文献1に記載された技術によれば、複数の物体を統合するために用いられる所定範囲は、物体検知装置が搭載されている車両の進行方向に沿って拡大される。しかしながら、車両の進行方向は、検出された物体とは無関係である。物体とは無関係な方向に沿って拡大された所定範囲は、複数の物体を統合するためには不適切である。不適切な範囲設定は、物体認識精度の低下を招く。
本発明の1つの目的は、車両の周囲の物体を認識する物体認識装置による物体認識精度を向上させることができる技術を提供することにある。
第1の観点は、車両に搭載される物体認識装置に関する。
前記物体認識装置は、
前記車両の周囲の状況を検出するセンサ装置と、
前記センサ装置による検出結果を示すセンサ検出情報が格納される記憶装置と、
プロセッサと
を備える。
前記プロセッサは、
前記センサ検出情報に基づいて、前記車両の周囲の物体を検出し、
前記物体の検出位置を基準として、前記物体と同一と判定される距離である統合判定距離を初期設定し、
前記センサ検出情報に基づいて、前記物体の進行方向を推定し、
前記統合判定距離を前記進行方向に沿って拡大し、
前記統合判定距離に基づいて、検出された複数の物体が同一物体に属するか否かを判定し、
前記複数の物体が前記同一物体に属すると判定した場合、前記複数の物体を前記同一物体として統合する。
第2の観点は、第1の観点に加えて、次の特徴を更に有する。
前記物体の横方向は、前記進行方向と直交する平面方向である。
前記プロセッサは、前記統合判定距離を前記横方向に沿って拡大することを禁止する。
第3の観点は、第1あるいは第2の観点に加えて、次の特徴を更に有する。
前記センサ装置は、更に、前記車両の状態を検出する。
前記センサ検出情報は、更に、前記車両の速度を示す。
前記プロセッサは、
前記センサ検出情報に基づいて、前記物体の絶対速度を算出し、
前記進行方向に沿った前記統合判定距離の拡大量を前記絶対速度に応じて増加させる。
第4の観点は、第1あるいは第2の観点に加えて、次の特徴を更に有する。
前記センサ装置は、更に、前記車両の状態を検出する。
前記センサ検出情報は、更に、前記車両の速度を示す。
前記プロセッサは、
前記センサ検出情報に基づいて、前記物体の絶対速度と前記絶対速度の信頼度を算出し、
前記信頼度が閾値以上である前記物体について、前記進行方向に沿った前記統合判定距離の拡大量を前記絶対速度に応じて増加させる。
第5の観点は、第4の観点に加えて、次の特徴を更に有する。
前記プロセッサは、前記信頼度が前記閾値未満である前記物体については、前記進行方向に沿って前記統合判定距離を拡大することを禁止する。
第6の観点は、第4の観点に加えて、次の特徴を更に有する。
前記プロセッサは、前記信頼度が前記閾値未満である前記物体については、前記進行方向に沿った前記統合判定距離の前記拡大量を一定に設定する。
第7の観点は、第1から第5の観点のいずれかに加えて、次の特徴を更に有する。
前記センサ装置は、更に、前記車両の状態を検出する。
前記センサ検出情報は、更に、前記車両の速度を示す。
前記プロセッサは、
前記センサ検出情報に基づいて、前記物体の絶対速度を算出し、
前記絶対速度に基づいて、前記進行方向を推定する。
第8の観点は、第1から第6の観点のいずれかに加えて、次の特徴を更に有する。
前記プロセッサは、
前記センサ検出情報に基づいて、前記物体の形状の長手方向を推定し、
前記長手方向を前記進行方向と推定する。
本発明によれば、複数の物体が同一物体に属するか否かを判定する統合判定処理が行われる。その統合判定処理のための統合判定距離は、物体の検出位置を基準として初期設定される。更に、物体の進行方向が推定され、統合判定距離はその進行方向に沿って拡大される。すなわち、統合判定距離は、物体と無関係な方向ではなく、物体の進行方向に沿って拡大される。従って、統合判定距離に基づく統合判定処理の精度が向上する。その結果、物体認識精度も向上する。
本発明の実施の形態に係る車両を説明するための概念図である。 本発明の実施の形態に係る統合判定処理を説明するための概念図である。 長い物体に関する統合判定処理を説明するための概念図である。 第1の比較例を示す概念図である。 第2の比較例を示す概念図である。 本発明の実施の形態に係る統合判定距離の設定方法を説明するための概念図である。 本発明の実施の形態に係る統合判定処理の一例を説明するための概念図である。 本発明の実施の形態に係る統合判定処理の他の例を説明するための概念図である。 本発明の実施の形態に係る物体認識装置の構成例を示すブロック図である。 本発明の実施の形態に係る物体認識処理を示すフローチャートである。 本発明の実施の形態における物体の進行方向を推定する方法の第1の例を説明するための概念図である。 本発明の実施の形態における物体の進行方向を推定する方法の第2の例を説明するための概念図である。 本発明の実施の形態における物体の進行方向を推定する方法の第3の例を説明するための概念図である。 本発明の実施の形態における物体の進行方向を推定する方法の第3の例を説明するための概念図である。 本発明の実施の形態に係る物体認識処理のステップS200(距離設定処理)の第1の例を示すフローチャートである。 本発明の実施の形態に係る物体認識処理のステップS200(距離設定処理)の第2の例を示すフローチャートである。 本発明の実施の形態に係る物体認識処理のステップS200(距離設定処理)の第2の例を説明するための概念図である。 本発明の実施の形態に係る物体認識処理のステップS200(距離設定処理)の第3の例を説明するための概念図である。 本発明の実施の形態に係る物体認識処理のステップS200(距離設定処理)の第3の例を示すフローチャートである。 本発明の実施の形態に係る物体認識処理のステップS200(距離設定処理)の第4の例を示すフローチャートである。 本発明の実施の形態に係る運転支援システムの構成例を示すブロック図である。
添付図面を参照して、本発明の実施の形態を説明する。
1.概要
図1は、本実施の形態に係る車両1を説明するための概念図である。車両1は、車両1の周囲の状況を検出するセンサ装置を備えている。センサ装置としては、ライダー(LIDAR: Laser Imaging Detection and Ranging)、レーダ、カメラ、等が例示される。車両1は、センサ装置を用いて、車両1の周囲の物体T(物標)を検出する。
尚、図1には、XY座標系における物体Tの検出位置が示されている。X方向は、車両1の前後方向を表し、Y方向は、車両1の横方向を表す。以下の説明においても同様である。
検出された複数の物体Tが同一物体に属する場合、それら複数の物体Tを同一物体として統合(認識)することが好ましい。例えば、同一物体の異なる部分が複数の物体Tとして検出された場合、それら複数の物体Tを同一物体として統合することが好ましい。
また、「複数の物体Tが同一物体に属する」とは、複数の物体Tが同一である場合も含む。例えば、視野の重なるライダーとカメラのそれぞれによって、同一物体が2つの物体Tとして検出された場合を考える。検出誤差が存在するため、2つの物体Tの検出位置は必ずしも一致しない。このような場合も、2つの物体Tを同一物体として統合することが好ましい。
検出された複数の物体Tを同一物体として統合する処理は、以下「物体統合処理」と呼ばれる。物体統合処理は、「フュージョン(fusion)処理」と呼ばれる場合もある。物体統合処理を行うためには、まず、検出された複数の物体Tが同一物体に属するか否かを判定する必要がある。そのような処理は、以下「統合判定処理」と呼ばれる。
図2は、本実施の形態に係る統合判定処理を説明するための概念図である。統合判定処理では、少なくとも、複数の物体Tのそれぞれの検出位置の観点から、複数の物体Tを統合すべきか否かが判定される。そのために、「統合判定範囲RF」が用いられる。統合判定範囲RFは、検出された物体Tと同一と判定される(みなし得る)範囲である。この統合判定範囲RFは、物体Tの検出位置を基準として設定される。例えば、統合判定範囲RFは、物体Tの検出範囲を含む矩形範囲である。但し、統合判定範囲RFの大きさや形状はそれに限定されない。
統合判定範囲RFに基づいて、複数の物体Tが同一物体に属するか否かが判定される。複数の物体Tが同一物体に属すると判定するための条件は、以下「統合条件」と呼ばれる。統合条件としては様々な例が考えられる。例えば、統合条件は、「複数の物体Tのうち1つに対する統合判定範囲RFに他の物体Tが存在していること」を含む。他の例として、統合条件は、「複数の物体Tのそれぞれに対する複数の統合判定範囲RF同士が重なっていること」を含んでもよい。
図2に示される例では、複数の物体Tとして第1物体T1と第2物体T2が示されている。第1物体T1に対して統合判定範囲RF1が設定され、第2物体T2に対して統合判定範囲RF2が設定されている。例えば、第1物体T1に対する統合判定範囲RF1に着目すると、その統合判定範囲RF1に第2物体T2が位置している。このことから、少なくとも検出位置の観点から、第1物体T1と第2物体T2は同一物体に属すると判定される。更に、第1物体T1と第2物体T2との間の速度差の観点から、第1物体T1と第2物体T2が同一物体に属するか否かが判定されてもよい。
図3は、“長い物体”に関する統合判定処理を説明するための概念図である。例えば、車両1の近くに長いトラック2が存在している。そのトラック2の異なる部分が、2つのセンサによって、それぞれ第1物体T1と第2物体T2として検出されている。この場合も、第1物体T1と第2物体T2を同一物体(トラック2)として統合することが好ましい。
しかしながら、物体Tの検出位置を基準として単純に統合判定範囲RFを設定しただけでは、図3に示されるように、第1物体T1と第2物体T2が統合条件を満たさない可能性がある。第1物体T1と第2物体T2が同一物体として統合されない場合、第1物体T1と第2物体T2との間にあたかもスペースが存在するかのように見える。このことは、車両走行制御の観点から好ましくない。
そこで、物体Tの検出位置を基準として統合判定範囲RFを設定した後、所定の規則に従って統合判定範囲RFを拡大することが考えられる。まず、比較例として、統合判定範囲RFを「X方向(車両1の前後方向)」に沿って拡大することを考える。
図4は、第1の比較例を示している。図4において、長いトラック2の異なる部分が、それぞれ第1物体T1と第2物体T2として検出されている。そのトラック2の進行方向は、X方向と異なっている。統合判定範囲RF1、RF2の各々がX方向に沿って拡大されても、第1物体T1と第2物体T2は同一物体として統合されない。すなわち、同一物体として認識されるべき第1物体T1と第2物体T2が、別々の物体であると誤認識される。
図5は、第2の比較例を示している。図5において、先行車両3、4が、それぞれ第1物体T1と第2物体T2として検出されている。統合判定範囲RF1、RF2の各々がX方向に沿って拡大された結果、先行車両3、4が同一物体として統合される。すなわち、別々の物体として認識されるべき先行車両3、4が、同一物体として誤認識される。
このように、比較例に係る統合判定範囲RFの設定は適切ではない。それは、X方向(車両1の前後方向)が物体Tと無関係だからである。物体Tとは無関係なX方向に沿って拡大された統合判定範囲RFは、複数の物体Tを統合するためには不適切なのである。不適切な統合判定範囲RFの設定は、物体認識精度の低下を招く。
図6は、本実施の形態の特徴を説明するための概念図である。統合判定範囲RFの形状は必ずしも矩形ではない。また、統合判定範囲RFが細線状に設定される可能性もある。そこで、統合判定範囲RFを上位概念化した「統合判定距離DF」を考える。統合判定距離DFは、物体Tと同一と判定される距離である。
本実施の形態によれば、物体Tの検出位置を基準として統合判定距離DFが初期設定される。また、物体Tの進行方向Pが推定される。そして、統合判定距離DFは、物体Tと無関係なX方向ではなく、物体Tの進行方向Pに沿って拡大される。これは、統合判定範囲RFを物体Tの進行方向Pに沿って拡大することと等価である。
図7は、本実施の形態に係る統合判定処理の一例を説明するための概念図である。図7に示される例は、統合判定範囲RFの設定を除いて、図4で示された第1の比較例と同じである。本実施の形態によれば、統合判定範囲RF1は、第1物体T1の進行方向P1に沿って拡大され、統合判定範囲RF2は、第2物体T2の進行方向P2に沿って拡大される。その結果、第1物体T1と第2物体T2が同一物体(トラック2)として適切に統合される。これにより、物体認識精度が向上する。
図8は、本実施の形態に係る統合判定処理の他の例を説明するための概念図である。図8に示される例は、統合判定範囲RFの設定を除いて、図5で示された第2の比較例と同じである。本実施の形態によれば、統合判定範囲RF1は、第1物体T1(先行車両3)の進行方向P1に沿って拡大され、統合判定範囲RF2は、第2物体T2(先行車両4)の進行方向P2に沿って拡大される。その結果、先行車両3、4は、統合されず、別々の物体として適切に認識される。すなわち、物体認識精度が向上する。
尚、図6において、横方向Qは、物体Tの進行方向Pと直交する平面方向である。不必要な物体統合を避けるために、横方向Qに沿った統合判定距離DFは、初期設定値のまま維持されることが好適である。言い換えれば、統合判定距離DFを横方向Qに沿って拡大することを禁止することが好適である。但し、不必要な物体統合が発生しない程度に、横方向Qに沿った統合判定距離DFが変更されてもよい。
以上に説明されたように、本実施の形態によれば、複数の物体Tが同一物体に属するか否かを判定する統合判定処理が行われる。その統合判定処理のための統合判定距離DFは、物体Tの検出位置を基準として初期設定される。更に、物体Tの進行方向Pが推定され、統合判定距離DFはその進行方向Pに沿って拡大される。すなわち、統合判定距離DFは、物体Tと無関係なX方向ではなく、物体Tの進行方向Pに沿って拡大される。従って、統合判定距離DFに基づく統合判定処理の精度は、上述の比較例よりも向上する。その結果、物体認識精度も向上する。
以下、本実施の形態に係る物体認識技術について更に詳しく説明する。
2.物体認識装置の構成
図9は、本実施の形態に係る物体認識装置10の構成例を示すブロック図である。物体認識装置10は、車両1に搭載されており、車両1の周囲の物体Tを認識する「物体認識処理」を行う。この物体認識装置10は、センサ装置20及び制御装置100を備えている。
センサ装置20は、周辺状況センサ21と車両状態センサ22を含んでいる。
周辺状況センサ21は、車両1の周辺の状況を検出するセンサである。具体的には、周辺状況センサ21は、ライダーやレーダといった測距センサを含んでいる。測距センサは、送信波を出力し、車両1の周辺の物体Tからの反射波を受け取る。反射波の受信状態から、物体Tの相対位置(距離、方向)や相対速度を算出することができる。周辺状況センサ21は、更に、車両1の周囲を撮像するカメラを含んでいてもよい。尚、各センサの設置位置及び個数は、特に限定されない。
車両状態センサ22は、車両1の状態を検出する。例えば、車両状態センサ22は、車輪速センサ、車速センサ、ヨーレートセンサ等を含んでいる。車輪速センサは、車両1の各車輪の回転速度を検出する。車速センサは、車両1の速度を検出する。ヨーレートセンサは、車両1のヨーレートを検出する。
制御装置100は、車両1を制御するマイクロコンピュータである。制御装置100は、ECU(Electronic Control Unit)とも呼ばれる。この制御装置100は、プロセッサ110及び記憶装置120を備えている。プロセッサ110は、記憶装置120に格納された制御プログラムを実行することにより各種処理を行う。記憶装置120には、各種情報が格納される。
例えば、プロセッサ110は、センサ装置20からセンサ検出情報200を取得し、センサ検出情報200を記憶装置120に格納する。センサ検出情報200は、センサ装置20による検出結果を示す。より詳細には、センサ検出情報200は、周辺状況情報と車両状態情報を含む。周辺状況情報は、周辺状況センサ21によって検出される周辺状況を示す。例えば、周辺状況情報は、ライダーによって計測される点群(point cloud)の位置を示す点群情報を含む。また、周辺状況情報は、カメラによって撮像される撮像情報を含む。車両状態情報は、車両状態センサ22によって検出される車両1の状態を示す。車両1の状態としては、車両1の速度(車速)が例示される。
また、プロセッサ110は、センサ検出情報200に基づいて、車両1の周囲の物体Tを認識する「物体認識処理」を行う。プロセッサ110は、認識された物体Tに関する物体情報300を生成し、物体情報300を記憶装置120に格納する。物体情報300は、物体Tの位置、速度(相対速度、絶対速度)、サイズ、進行方向P、等を示す。以下、本実施の形態に係る物体認識処理について更に詳しく説明する。
3.物体認識処理
図10は、本実施の形態に係るプロセッサ110(制御装置100)による物体認識処理を示すフローチャートである。尚、図10に示される処理フローは、一定サイクル毎に繰り返し実行される。
3-1.ステップS100(物体検出処理)
ステップS100において、プロセッサ110は、物体検出処理を行う。具体的には、プロセッサ110は、センサ検出情報200(周辺状況情報)に基づいて、車両1の周囲の物体Tを検出する。例えば、プロセッサ110は、ライダーによって計測される点群の位置を示す点群情報に基づいて物体Tを検出する。また、プロセッサ110は、カメラによって撮像される撮像情報に基づいて物体Tを検出する。これらの物体検出方法は周知である。
プロセッサ110は、センサ検出情報200に基づいて、車両1に対する物体Tの相対位置及び相対速度を算出する。また、プロセッサ110は、物体Tの絶対速度を算出してもよい。物体Tの絶対速度は、車両1の速度と物体Tの相対速度から算出される。車両1の速度は、車両状態情報から得られる。また、プロセッサ110は、物体Tのサイズを算出してもよい。プロセッサ110は、物体情報300を生成し、物体情報300を記憶装置120に格納する。
3-2.ステップS200(距離設定処理)
ステップS200において、プロセッサ110は、統合判定距離DFを設定する距離設定処理を行う。上述の通り、統合判定距離DFは、物体Tと同一と判定される距離であり、統合判定範囲RFを包含する概念である。統合判定距離DFの設定の詳細については、後に説明される。
3-3.ステップS300(統合判定処理)
ステップS300において、プロセッサ110は、上述の統合判定処理を行う。すなわち、プロセッサ110は、複数の物体Tが同一物体に属するか否かを判定する。複数の物体Tが同一物体に属すると判定するための条件は、統合条件である。統合判定処理は、複数の物体Tが統合条件を満たすか否かを判定する処理であると言うこともできる。
統合条件は、物体Tの位置に関連する条件を含む。例えば、統合条件は、「複数の物体Tのうち1つに対する統合判定距離DF(統合判定範囲RF)に他の物体Tが存在していること」を含む。統合判定範囲RFと重なっている物体Tの部分の全体サイズに対する比率が考慮されてもよい。他の例として、統合条件は、「複数の物体Tのそれぞれに対する複数の統合判定範囲RF同士が重なっていること」を含んでもよい。更に、統合条件は、物体Tの速度に関連する条件を含んでいてもよい。例えば、統合条件は、「複数の物体Tの間の相対速度の差が所定範囲内であること」を含んでいてもよい。
プロセッサ110は、統合判定距離DFと物体情報300に基づいて、複数の物体Tが統合条件を満たすか否かを判定する。複数の物体Tが統合条件を満たす場合(ステップS300;Yes)、処理はステップS400に進む。一方、複数の物体Tが統合条件を満たさない場合(ステップS300;No)、処理はステップS500に進む。
3-4.ステップS400(物体統合処理)
ステップS400において、プロセッサ110は、物体統合処理を行う。すなわち、プロセッサ110は、統合条件を満たす複数の物体Tを同一物体として統合する。例えば、同一物体の位置及び形状は、統合された複数の物体Tを覆う矩形に基づいて算出される。同一物体の速度は、統合された複数の物体Tのそれぞれの速度の重み付け平均等により算出される。
3-5.ステップS500
ステップS500において、プロセッサ110は、複数の物体Tのそれぞれを単独物体として認識する。
4.物体の進行方向の推定方法
上述の通り、本実施の形態によれば、統合判定距離DFを設定する際に、物体Tの進行方向Pが用いられる。進行方向Pを推定する方法としては、様々な例が考えられる。
4-1.第1の例
図11は、物体Tの進行方向Pを推定する方法の第1の例を説明するための概念図である。第1の例では、プロセッサ110は、センサ検出情報200に基づいて、物体Tの絶対速度Vを算出する。物体Tの絶対速度Vは、車両1の速度と物体Tの相対速度から算出される。車両1の速度は、車両状態情報から得られる。そして、プロセッサ110は、算出された絶対速度Vの方向を進行方向Pと推定する。
4-2.第2の例
図12は、物体Tの進行方向Pを推定する方法の第2の例を説明するための概念図である。第2の例では、プロセッサ110は、絶対速度Vの履歴に基づいて、物体Tの進行方向Pを推定する。基準タイミングにおける物体Tの位置及び進行方向Pは既知であるとする。例えば、第1の例と同じ手法で、基準タイミングにおける進行方向Pが得られる。プロセッサ110は、基準タイミング以降の絶対速度V(速度ベクトル)を積分し、物体Tの位置及び進行方向Pの変化量を算出する。そして、プロセッサ110は、基準タイミングにおける物体Tの位置及び進行方向Pに変化量を加えることによって、所望のタイミングにおける物体Tの進行方向Pを推定する。
4-3.第3の例
図13は、物体Tの進行方向Pを推定する方法の第3の例を説明するための概念図である。第3の例では、プロセッサ110は、センサ検出情報200に基づいて、物体Tの形状の長手方向を推定する。そして、プロセッサ110は、その長手方向を物体Tの進行方向Pと推定する。本手法は、静止している物体Tにも適用可能である。
図13に示される例では、物体Tは他車両である。その他車両の側面と後面のそれぞれに相当する2つの辺SS、RSが、物体Tを構成する辺として検出される。辺SSの長さは、辺RSの長さよりも大きい。この場合、プロセッサ110は、辺SSの方向を物体Tの長手方向、すなわち、進行方向Pと推定する。一般的な車両の横幅を考慮して、所定の下限値以上の長さの辺だけが抽出されてもよい。
図14に示される例では、プロセッサ110は、検出された辺SS、RSをX軸に投影する。辺SSの投影長は、辺RSの投影長よりも大きい。この場合、プロセッサ110は、辺SSの方向を物体Tの長手方向、すなわち、進行方向Pと推定する。本手法によれば、後面に相当する辺RSの投影長が小さくなるため、辺SSをより抽出しやすくなる。
プロセッサ110は、カメラによって撮像される撮像情報を解析して、他車両の側面や後面を認識してもよい。この場合、プロセッサ110は、側面に平行な方向を長手方向、すなわち、進行方向Pと推定する。
5.統合判定距離の設定方法
次に、本実施の形態に係る物体認識処理のステップS200(距離設定処理)について詳しく説明する。ステップS200としては、様々な例が考えられる。
5-1.第1の例
図15は、ステップS200の第1の例を示すフローチャートである。
ステップS210において、プロセッサ110は、検出された物体Tに対する統合判定距離DF(統合判定範囲RF)を初期設定する。より詳細には、プロセッサ110は、物体情報300を参照し、物体Tの検出位置を基準として、統合判定距離DFを初期設定する。基準となる検出位置は、基準点である。例えば、車両1からの最も近い点が、基準点として用いられる。他の例として、一定期間にわたって安定的に検出(追跡)されている点が、基準点として用いられてもよい。統合判定距離DFの初期設定値は、一定値であってもよいし、物体Tの検出範囲に応じて設定されてもよい。
ステップS250において、プロセッサ110は、センサ検出情報200に基づいて、物体Tの進行方向Pを推定する。進行方向Pの推定方法は、上述のセクション4で説明された通りである。
ステップS260において、プロセッサ110は、物体Tに対する統合判定距離DFを物体Tの進行方向Pに沿って拡大する。尚、統合判定距離DFの上限値が設定されてもよい。この場合、統合判定距離DFの拡大によって統合判定距離DFが極端に大きくなることが防止される。
5-2.第2の例
図16は、ステップS200の第2の例を示すフローチャートである。第1の例と重複する説明は適宜省略される。ステップS210とステップS250は、第1の例と同様である。
ステップS220において、プロセッサ110は、センサ検出情報200に基づいて、物体Tの絶対速度Vを算出する。物体Tの絶対速度Vは、車両1の速度と物体Tの相対速度から算出される。車両1の速度は、車両状態情報から得られる。
第2の例では、ステップS260の代わりにステップS260Aが実施される。ステップS260Aにおいて、プロセッサ110は、統合判定距離DFを物体Tの進行方向Pに沿って拡大する。このとき、プロセッサ110は、進行方向Pに沿った統合判定距離DFの拡大量を、物体Tの絶対速度Vに応じて増加させる。すなわち、物体Tの絶対速度Vが高くなるほど、進行方向Pに沿った統合判定距離DFの拡大量が増加する。
図17は、ステップS260Aの一例を示している。物体TAに対する統合判定距離DFAは、物体TAの進行方向PAに沿って拡大される。物体TBに対する統合判定距離DFBは、物体TBの進行方向PBに沿って拡大される。物体TBの絶対速度VBは、物体TAの絶対速度VAよりも高い。結果として、物体TBに対する統合判定距離DFBは、物体TAに対する統合判定距離DFAよりも大きくなる。
尚、統合判定距離DFの上限値が設定されてもよい。この場合、統合判定距離DFの拡大によって統合判定距離DFが極端に大きくなることが防止される。統合判定距離DFの下限値が設定されてもよい。この場合、停止している物体Tに対しても、ある程度の統合判定距離DFが確保される。
5-3.第3の例
上述の第2の例では、進行方向Pに沿った統合判定距離DFの拡大量は、物体Tの絶対速度Vに応じて増加する。しかしながら、算出される絶対速度Vの信頼度が低い場合もあり得る。例えば図18において、物体TXがセンサ視野の境界付近に位置している。このような物体TXについて算出(推定)される絶対速度Vの信頼度は低い。信頼度の低い絶対速度Vに基づいて統合判定距離DFが設定されると、統合判定距離DFの精度が却って低下する。そこで、第3の例では、絶対速度Vの信頼度に応じて、統合判定距離DFの設定方法が変更される。
図19は、ステップS200の第3の例を示すフローチャートである。第2の例と重複する説明は適宜省略される。
ステップS230において、プロセッサ110は、センサ検出情報200に基づいて、物体Tの絶対速度Vと絶対速度Vの信頼度を算出する。例えば、物体Tがセンサ視野の境界に近づくほど、絶対速度Vの信頼度は低くなる。他の例として、物体Tの検出回数が少なくなるほど、絶対速度Vの信頼度は低くなる。更に他の例として、一定期間における絶対速度Vのばらつきが大きくなるほど、絶対速度Vの信頼度は低くなる。
続くステップS240において、プロセッサ110は、絶対速度Vの信頼度を所定の閾値と比較する。
信頼度が閾値以上である場合(ステップS240;Yes)、プロセッサ110は、当該物体Tを「高信頼度物体」と判定する。この場合、処理は、ステップS250、S260Aに進む。ステップS250、S260Aは、第2の例の場合と同じである。高信頼度物体については、プロセッサ110は、進行方向Pに沿った統合判定距離DFの拡大量を絶対速度Vに応じて増加させる。
一方、信頼度が閾値未満の場合(ステップS240;No)、プロセッサ110は、当該物体Tを「低信頼度物体」と判定する。この場合、処理は、ステップS270に進む。ステップS270において、プロセッサ110は、低信頼度物体に対する統合判定距離DFを進行方向Pに沿って拡大することを禁止する。言い換えれば、プロセッサ110は、進行方向Pに沿った統合判定距離DFを拡大することなく、初期設定値のまま維持する。
このように、第3の例によれば、絶対速度Vの信頼度を考慮して、統合判定距離DFが設定される。低信頼物体については、統合判定距離DFの拡大が禁止される。これにより、統合判定距離DFについて一定レベルの精度が確保される。その結果、物体認識精度の低下が抑制される。
5-4.第4の例
図20は、ステップS200の第4の例を示すフローチャートである。第4の例は、第3の例の変形例である。第3の例と重複する説明は、適宜省略される。
絶対速度Vの信頼度が閾値未満の場合(ステップS240;No)、処理は、ステップS280に進む。ステップS280において、プロセッサ110は、センサ検出情報200に基づいて、物体T(低信頼度物体)の進行方向Pを推定する。このとき、絶対速度Vを用いない手法で進行方向Pが推定されてもよい。
続くステップS290において、プロセッサ110は、統合判定距離DFを進行方向Pに沿って拡大する。但し、低信頼物体については、プロセッサ110は、絶対速度Vを用いることなく統合判定距離DFを拡大する。具体的には、プロセッサ110は、進行方向Pに沿った統合判定距離DFの拡大量を一定に設定する。低信頼度の絶対速度Vが用いられないため、統合判定距離DFの精度の低下が抑制される。
5-5.第5の例
物体Tの横方向Qは、物体Tの進行方向Pと直交する平面方向である(図6参照)。第5の例では、横方向Qに沿った統合判定距離DFについて検討する。
仮に統合判定距離DFが横方向Qに沿って拡大された場合、同一物体に属さない複数の物体Tが誤って統合されてしまう可能性が高くなる。従って、プロセッサ110は、統合判定距離DFを横方向Qに沿って拡大することを禁止する。言い換えれば、プロセッサ110は、横方向Qに沿った統合判定距離DFを拡大することなく、初期設定値のまま維持する。
第5の例は、上述の第1~第4の例のいずれにも適用可能である。第5の例を適用することによって、不必要な物体統合が抑制され、物体認識精度が更に向上する。
6.運転支援制御
本実施の形態に係る物体認識装置10は、車両1の運転を支援する「運転支援制御」に適用されてもよい。そのような運転支援制御として、自動運転制御、追従走行制御、衝突回避制御、等が例示される。
図21は、本実施の形態に係る運転支援システムの構成例を示すブロック図である。運転支援システムは、車両1に搭載され、車両1の運転を支援する運転支援制御を行う。この運転支援システムは、センサ装置20、走行装置30、及び制御装置100を備えている。
走行装置30は、駆動装置、制動装置、及び操舵装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータが例示される。制動装置は、制動力を発生させる。操舵装置は、車両1の車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。
制御装置100(プロセッサ110)は、走行装置30の動作を制御することによって、車両走行制御を行う。車両走行制御は、駆動制御、制動制御、及び操舵制御を含んでいる。駆動制御は、駆動装置を通して行われる。制動制御は、制動装置を通して行われる。操舵制御は、操舵装置を通して行われる。
制御装置100(プロセッサ110)は、上述の物体認識処理を行う。更に、制御装置100は、物体認識結果に基づいて車両走行制御を適宜行うことにより、運転支援制御(自動運転制御、追従走行制御、衝突回避制御)を行う。
1 車両
10 物体認識装置
20 センサ装置
100 制御装置
110 プロセッサ
120 記憶装置
200 センサ検出情報
300 物体情報
DF 統合判定距離
RF 統合判定範囲

Claims (8)

  1. 車両に搭載される物体認識装置であって、
    前記車両の周囲の状況を検出するセンサ装置と、
    前記センサ装置による検出結果を示すセンサ検出情報が格納される記憶装置と、
    プロセッサと
    を備え、
    前記プロセッサは、
    前記センサ検出情報に基づいて、前記車両の周囲の複数の物体のそれぞれの位置を検出し、
    前記複数の物体のそれぞれについて、前記検出位置を基準として、前記物体と同一と判定される距離である統合判定距離を初期設定し、
    前記センサ検出情報に基づいて、前記複数の物体のそれぞれの進行方向を推定し、
    前記複数の物体のそれぞれの前記統合判定距離を前記複数の物体のそれぞれの前記進行方向に沿って拡大し、
    前記複数の物体のそれぞれの前記統合判定距離に基づいて、前記複数の物体が同一物体に属するか否かを判定し、
    前記複数の物体が前記同一物体に属すると判定した場合、前記複数の物体を前記同一物体として統合する
    物体認識装置。
  2. 請求項1に記載の物体認識装置であって、
    前記物体の横方向は、前記進行方向と直交する平面方向であり、
    前記プロセッサは、前記統合判定距離を前記横方向に沿って拡大することを禁止する
    物体認識装置。
  3. 請求項1又は2に記載の物体認識装置であって、
    前記センサ装置は、更に、前記車両の状態を検出し、
    前記センサ検出情報は、更に、前記車両の速度を示し、
    前記プロセッサは、
    前記センサ検出情報に基づいて、前記物体の絶対速度を算出し、
    前記進行方向に沿った前記統合判定距離の拡大量を前記絶対速度に応じて増加させる
    物体認識装置。
  4. 請求項1又は2に記載の物体認識装置であって、
    前記センサ装置は、更に、前記車両の状態を検出し、
    前記センサ検出情報は、更に、前記車両の速度を示し、
    前記プロセッサは、
    前記センサ検出情報に基づいて、前記物体の絶対速度と前記絶対速度の信頼度を算出し、
    前記信頼度が閾値以上である前記物体について、前記進行方向に沿った前記統合判定距離の拡大量を前記絶対速度に応じて増加させる
    物体認識装置。
  5. 請求項4に記載の物体認識装置であって、
    前記プロセッサは、前記信頼度が前記閾値未満である前記物体については、前記進行方向に沿って前記統合判定距離を拡大することを禁止する
    物体認識装置。
  6. 請求項4に記載の物体認識装置であって、
    前記プロセッサは、前記信頼度が前記閾値未満である前記物体については、前記進行方向に沿った前記統合判定距離の前記拡大量を一定に設定する
    物体認識装置。
  7. 請求項1乃至5のいずれか一項に記載の物体認識装置であって、
    前記センサ装置は、更に、前記車両の状態を検出し、
    前記センサ検出情報は、更に、前記車両の速度を示し、
    前記プロセッサは、
    前記センサ検出情報に基づいて、前記物体の絶対速度を算出し、
    前記絶対速度に基づいて、前記進行方向を推定する
    物体認識装置。
  8. 請求項1乃至6のいずれか一項に記載の物体認識装置であって、
    前記プロセッサは、
    前記センサ検出情報に基づいて、前記物体の形状の長手方向を推定し、
    前記長手方向を前記進行方向と推定する
    物体認識装置。
JP2018151605A 2018-08-10 2018-08-10 物体認識装置 Active JP7063184B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018151605A JP7063184B2 (ja) 2018-08-10 2018-08-10 物体認識装置
US16/433,183 US11247671B2 (en) 2018-08-10 2019-06-06 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151605A JP7063184B2 (ja) 2018-08-10 2018-08-10 物体認識装置

Publications (2)

Publication Number Publication Date
JP2020027415A JP2020027415A (ja) 2020-02-20
JP7063184B2 true JP7063184B2 (ja) 2022-05-09

Family

ID=69405032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151605A Active JP7063184B2 (ja) 2018-08-10 2018-08-10 物体認識装置

Country Status (2)

Country Link
US (1) US11247671B2 (ja)
JP (1) JP7063184B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7172786B2 (ja) 2019-03-22 2022-11-16 トヨタ自動車株式会社 車両制御システム
JP2023082783A (ja) 2021-12-03 2023-06-15 トヨタ自動車株式会社 車載通知装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006188129A (ja) 2005-01-05 2006-07-20 Hitachi Ltd 衝突負荷低減車両システム
JP2009186276A (ja) 2008-02-05 2009-08-20 Honda Motor Co Ltd 物体検知装置
JP2014035669A (ja) 2012-08-09 2014-02-24 Honda Motor Co Ltd 物体位置検知装置
WO2017164017A1 (ja) 2016-03-22 2017-09-28 株式会社デンソー 車両検知装置
JP2018097765A (ja) 2016-12-16 2018-06-21 株式会社デンソー 物体検出装置、及び物体検出方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3229558B2 (ja) * 1997-02-21 2001-11-19 三菱電機株式会社 車間距離検出装置
JP6643166B2 (ja) * 2016-03-31 2020-02-12 株式会社デンソー 物体認識装置及び物体認識方法
US20180288320A1 (en) * 2017-04-03 2018-10-04 Uber Technologies, Inc. Camera Fields of View for Object Detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006188129A (ja) 2005-01-05 2006-07-20 Hitachi Ltd 衝突負荷低減車両システム
JP2009186276A (ja) 2008-02-05 2009-08-20 Honda Motor Co Ltd 物体検知装置
JP2014035669A (ja) 2012-08-09 2014-02-24 Honda Motor Co Ltd 物体位置検知装置
WO2017164017A1 (ja) 2016-03-22 2017-09-28 株式会社デンソー 車両検知装置
JP2018097765A (ja) 2016-12-16 2018-06-21 株式会社デンソー 物体検出装置、及び物体検出方法

Also Published As

Publication number Publication date
JP2020027415A (ja) 2020-02-20
US20200047748A1 (en) 2020-02-13
US11247671B2 (en) 2022-02-15

Similar Documents

Publication Publication Date Title
US10922561B2 (en) Object recognition device and vehicle travel control system
WO2018056212A1 (ja) 物体検知装置及び物体検知方法
KR20190113918A (ko) 운전 지원 방법 및 운전 지원 장치
JP6363516B2 (ja) 車両の走行制御装置
WO2016117602A1 (ja) 車両制御装置及び車両制御方法
KR102075329B1 (ko) 차량 제어 방법 및 차량 제어 장치
JP5785578B2 (ja) 車両周辺監視装置
WO2017179469A1 (ja) 車両制御装置、及び車両制御方法
JP5417832B2 (ja) 車両用運転支援装置
KR102024986B1 (ko) 차로 유지 제어 장치 및 방법
WO2016208500A1 (ja) 運転支援装置及び運転支援方法
JP7063184B2 (ja) 物体認識装置
JP6809023B2 (ja) 操舵補助装置及び操舵補助方法
JP6497329B2 (ja) 車両用走行制御装置
JP2020111300A (ja) 車両運転支援システム及び方法
JP6481627B2 (ja) 車両用走行制御装置
CN111483459B (zh) 车辆控制装置
JP2020111302A (ja) 車両運転支援システム及び方法
JP5147511B2 (ja) 車両の接触回避支援装置
JP2009252032A (ja) 車両の接触回避支援装置
US20190291725A1 (en) Drive assist device, drive assist method and non-transitory computer readable storage medium for storing programs thereof
WO2021172532A1 (ja) 駐車支援装置および駐車支援方法
JP7453785B2 (ja) 駐車支援装置、及び駐車支援システム
JP3900111B2 (ja) 車両用外界認識装置
WO2019186716A1 (ja) 車載装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R151 Written notification of patent or utility model registration

Ref document number: 7063184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151