JP7147651B2 - 物体認識装置及び車両制御システム - Google Patents

物体認識装置及び車両制御システム Download PDF

Info

Publication number
JP7147651B2
JP7147651B2 JP2019054724A JP2019054724A JP7147651B2 JP 7147651 B2 JP7147651 B2 JP 7147651B2 JP 2019054724 A JP2019054724 A JP 2019054724A JP 2019054724 A JP2019054724 A JP 2019054724A JP 7147651 B2 JP7147651 B2 JP 7147651B2
Authority
JP
Japan
Prior art keywords
falling object
point group
vehicle
falling
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019054724A
Other languages
English (en)
Other versions
JP2020154983A (ja
Inventor
慎太朗 芝
太一 河内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019054724A priority Critical patent/JP7147651B2/ja
Priority to US16/782,357 priority patent/US11598877B2/en
Priority to CN202010199433.XA priority patent/CN111722249B/zh
Publication of JP2020154983A publication Critical patent/JP2020154983A/ja
Application granted granted Critical
Publication of JP7147651B2 publication Critical patent/JP7147651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、車両の周囲の物体を認識する物体認識装置、及び車両を制御する車両制御システムに関する。
特許文献1は、自動運転における車両の進路を設定する進路設定装置を開示している。進路設定装置は、車両の周囲の障害物を検出する。更に、進路設定装置は、検出された障害物を静止障害物あるいは移動障害物と仮定することにより、複数種類の経路候補を生成する。そして、進路設定装置は、各経路候補の信頼度に基づいて、複数種類の経路候補の中から進路を決定する。
特開2018-176879号公報
車両の周囲の物体の認識には、ライダー(LIDAR: Laser Imaging Detection and Ranging)等のセンサが用いられる。但し、路面近くの領域については、ノイズの影響により誤認識が発生する可能性がある。そのため、路面近くの領域を認識対象領域から除外することも考えられるが、その場合、路面上の落下物を認識することができない。
本発明の1つの目的は、車両の周囲の物体を認識する物体認識処理において、路面上の落下物の認識精度を高めることができる技術を提供することにある。
第1の観点は、車両の周囲の物体を認識する物体認識装置に関連する。
前記車両は、ライダーを備える。
ライダー点群は、前記ライダーによって検出される検出点の集合である。
前記物体認識装置は、
前記検出点の各々の検出位置を示すライダー計測情報、前記車両の絶対位置及び姿勢を示す位置姿勢情報、及び路面の絶対位置を示す地形地図情報が格納される記憶装置と、
前記車両の周囲の前記物体を認識する物体認識処理を行うプロセッサと
を備える。
前記物体は、前記路面上の落下物と、前記落下物以外の追跡対象とを含む。
前記物体認識処理において、前記プロセッサは、
前記地形地図情報に基づいて、前記路面の前記絶対位置から第1高さの領域をノイズ領域として設定し、
前記ライダー計測情報と前記位置姿勢情報に基づいて、前記ライダー点群を、前記ノイズ領域に含まれる第1点群と前記ノイズ領域に含まれない第2点群とに分類し、
前記第1点群に基づいて、前記落下物の候補である落下物候補を抽出する第1抽出処理を行い、
前記第2点群に基づいて、前記追跡対象の候補である追跡対象候補を抽出する第2抽出処理を行い、
前記落下物候補と前記追跡対象候補の水平位置が一致するか否かを判定し、
前記水平位置が一致する前記落下物候補と前記追跡対象候補とを前記追跡対象として統合し、
前記追跡対象に統合されなかった前記落下物候補を前記落下物として認識する。
第2の観点は、第1の観点に加えて、次の特徴を更に有する。
前記第1高さは、前記車両のピッチ角の誤差に基づいて予め決定される。
第3の観点は、第1又は第2の観点に加えて、次の特徴を更に有する。
路面点群は、前記路面を表す前記ライダー点群である。
前記第1点群は、前記路面点群と、前記路面点群以外の落下物点群とを含む。
前記第1抽出処理において、前記プロセッサは、
前記ライダー計測情報あるいは前記地形地図情報に基づいて、前記第1点群を前記路面点群と前記落下物点群とに分離する分離処理を行い、
前記落下物点群に基づいて、前記落下物候補を抽出する。
第4の観点は、第3の観点に加えて、次の特徴を更に有する。
同一レイヤに属する前記第1点群を考えたとき、前記落下物点群の前記検出位置と前記路面点群の前記検出位置との間には乖離が存在する。
特徴量は、前記乖離を特徴付けるパラメータである。
前記分離処理において、前記プロセッサは、
前記第1点群の前記ライダー計測情報に基づいて、前記第1点群の前記検出点の各々の前記特徴量を算出し、
前記特徴量に基づいて、前記第1点群を前記路面点群と前記落下物点群とに分離する。
第5の観点は、第4の観点に加えて、次の特徴を更に有する。
前記特徴量は、前記ライダーから前記検出点の各々までの距離を含む。
第6の観点は、第4又は第5の観点に加えて、次の特徴を更に有する。
前記特徴量は、隣接する検出点に対する前記検出位置の差分を含む。
第7の観点は、第4から第6の観点のいずれか1つに加えて、次の特徴を更に有する。
落下物尤度は、前記落下物候補が前記落下物であることの尤度である。
前記プロセッサは、前記落下物候補を抽出した後、前記落下物尤度を算出する尤度算出処理を更に行う。
第8の観点は、第7の観点に加えて、次の特徴を更に有する。
前記路面点群と前記落下物点群とを分離するための分離基準は予め決められている。
前記尤度算出処理において、前記プロセッサは、前記落下物候補に対応する前記落下物点群に関する前記特徴量と前記分離基準に基づいて、前記落下物尤度を算出する。
前記落下物候補に対応する前記落下物点群に関する前記特徴量が前記分離基準から離れているほど、前記落下物尤度は高くなる。
第9の観点は、第7又は第8の観点に加えて、次の特徴を更に有する。
連続度は、前記落下物候補の位置が時間的に連続している度合いを表す。
前記尤度算出処理において、前記プロセッサは、
前記落下物候補の抽出履歴に基づいて、前記連続度を算出し、
前記連続度が連続度閾値以上である場合、前記落下物尤度を増加させ、
前記連続度が前記連続度閾値未満である場合、前記落下物尤度を減少させる。
第10の観点は、車両制御システムに関連する。
前記車両制御システムは、
第7から第9の観点のいずれか1つに係る前記物体認識装置と、
前記物体認識処理の結果に基づいて、前記車両の走行を制御する車両走行制御を行う車両走行制御装置と
を備える。
前記車両走行制御装置は、前記落下物尤度に応じて前記落下物に対する走行プランを生成し、前記走行プランに従って前記車両走行制御を行う。
第11の観点は、第10の観点に加えて、次の特徴を更に有する。
第2閾値は第1閾値よりも高い。
前記落下物尤度が前記第1閾値以上、且つ、前記第2閾値未満である場合、前記走行プランは、アクセルをOFFすることを含む。
前記落下物尤度が前記第2閾値以上である場合、前記走行プランは、前記落下物を回避するための減速及び操舵の少なくとも一方を行うことを含む。
本発明によれば、路面の絶対位置を示す地形地図情報に基づいて、路面近くのノイズ領域が設定される。ライダー計測情報で示されるライダー点群は、ノイズ領域に含まれる第1点群と、それ以外の第2点群とに分類される。第1点群からは、ノイズ領域に含まれる落下物候補が抽出される。一方、第2点群からは、ノイズ領域に含まれない追跡対象候補が抽出される。
ノイズ領域に含まれない追跡対象候補の抽出精度は、ノイズ領域に含まれる落下物候補の抽出精度よりも高い。落下物候補と追跡対象候補の水平位置が一致する場合、その位置には落下物ではなく追跡対象が存在すると判断することができる。その場合、落下物候補と追跡対象候補が追跡対象として統合される。言い換えれば、追跡対象候補と重なる落下物候補は、落下物ではなく追跡対象として認識される。これにより、落下物の誤認識が抑制される。すなわち、落下物の認識精度を高めることが可能となる。
本発明の第1の実施の形態に係る車両に搭載されるライダーを説明するための概念図である。 本発明の第1の実施の形態における路面点群を説明するための概念図である。 本発明の第1の実施の形態に係る物体認識装置を説明するためのブロック図である。 本発明の第1の実施の形態に係る物体認識処理によって認識される物体を示す概念図である。 本発明の第1の実施の形態に係る物体認識処理を示すフローチャートである。 本発明の第1の実施の形態に係る物体認識処理のステップS10を説明するための概念図である。 本発明の第1の実施の形態に係る物体認識処理のステップS20を説明するための概念図である。 本発明の第1の実施の形態に係る物体認識処理のステップS30及びS40を説明するための概念図である。 本発明の第1の実施の形態に係る物体認識処理のステップS60を説明するための概念図である。 本発明の第2の実施の形態に係る物体認識処理のステップS30を説明するための概念図である。 本発明の第2の実施の形態に係る物体認識処理のステップS30を説明するための概念図である。 本発明の第2の実施の形態に係る物体認識処理のステップS30を説明するための概念図である。 本発明の第2の実施の形態に係る物体認識処理のステップS30を示すフローチャートである。 本発明の第2の実施の形態に係る物体認識処理のステップS30を説明するための概念図である。 本発明の第3の実施の形態に係る物体認識処理を示すフローチャートである。 本発明の第3の実施の形態における落下物尤度の更新例を示すタイミングチャートである。 本発明の第4の実施の形態に係る車両制御システムの構成例を示すブロック図である。 本発明の第4の実施の形態に係る車両制御システムの制御装置による処理を示すフローチャートである。
添付図面を参照して、本発明の実施の形態を説明する。
1.第1の実施の形態
1-1.ライダー点群
図1は、本実施の形態に係る車両1に搭載されるライダー10を説明するための概念図である。ライダー10は、車両1の周囲の物体を認識するために用いられる。
より詳細には、ライダー10は、複数の方向に向けてレーザパルスを順次出力(走査)する。レーザパルスが物体上の反射点で反射すると、レーザパルスの反射光がライダー10に戻ってくる。ライダー10は、レーザパルスの反射光を受け取る。反射光の受光状態に基づいて、ライダー10に固定されたセンサ座標系における反射点の位置(距離及び方向)を算出することができる。図1に示される例では、センサ座標系のSX軸は、走査の中心軸であり、水平方向と平行である。センサ座標系のSZ軸は、SX軸と直交しており、垂直走査面と平行である。但し、センサ座標系はその例に限定されない。
以下の説明において、ライダー10によって検出される点(反射点)を「検出点」と呼ぶ。検出点の位置を「検出位置」と呼ぶ。検出点の集合を「ライダー点群PC」と呼ぶ。ライダー点群PCに基づいて、車両1の周囲の物体及びその相対位置を認識することができる。例えば、図1に示されるように、車両1の前方の先行車両2及びその相対位置を認識することができる。
図2は、路面点群PCRを説明するための概念図である。ライダー10から出力されるレーザパルスは、路面RSの微小凹凸によっても反射される。路面点群PCRは、ライダー点群PCのうち路面RSを表す点群である。
1-2.物体認識装置
図3は、本実施の形態に係る物体認識装置50を説明するためのブロック図である。物体認識装置50は、ライダー10、位置姿勢センサ20、及び地形地図データベース30に接続されている。
上述の通り、ライダー10は、車両1に搭載されており、ライダー点群PCに関する情報を取得する。
位置姿勢センサ20は、車両1に搭載されており、車両1の絶対位置及び姿勢を検出する。車両1の絶対位置は、絶対座標系(緯度、経度、高度)において定義される。車両1の姿勢は、方位、ピッチ角、及びロール角を含む。例えば、位置姿勢センサ20は、車両1の絶対位置及び方位を検出するGPS(Global Positioning System)センサを含んでいる。また、位置姿勢センサ20は、車両1のピッチ角やロール角を検出する姿勢センサを含んでいる。
地形地図データベース30は、地形地図情報230のデータベースである。地形地図情報230は、地形(terrain)に関する地図情報である。より詳細には、地形地図情報230は、路面RSの絶対位置を示す。例えば、地形地図情報230は、路面RSの各点の水平位置(緯度、経度)と高さ(高度)とを関連付けて示す。地形地図データベース30は、車両1に搭載されている所定の記憶装置に格納されていてもよいし、車両1の外部の管理サーバに格納されていてもよい。
物体認識装置50は、車両1の周囲の物体を認識する。この物体認識装置50は、プロセッサ51と記憶装置52を備えている。記憶装置52には、各種情報が格納される。プロセッサ51は、コンピュータプログラムを実行することにより各種処理を行う。コンピュータプログラムは、記憶装置52に格納されている、あるいは、コンピュータ読み取り可能な記録媒体に記録されている。
より詳細には、プロセッサ51は、ライダー計測情報210、位置姿勢情報220、及び地形地図情報230を取得する「情報取得処理」を行う。プロセッサ51は、取得した情報を記憶装置52に格納する。
ライダー計測情報210は、ライダー点群PCに関する情報である。特に、ライダー計測情報210は、センサ座標系におけるライダー点群PCの各検出点の検出位置を示す。更に、ライダー計測情報210は、各検出点における反射強度を示していてもよい。プロセッサ51は、ライダー10からライダー計測情報210を取得する。
位置姿勢情報220は、車両1の絶対位置及び姿勢を示す。プロセッサ51は、位置姿勢センサ20から位置姿勢情報220を取得する。位置姿勢情報220の精度を高めるために、プロセッサ51は、周知の自己位置推定処理(localization)を更に行ってもよい。その場合、プロセッサ51は、車両1の周囲の特徴物(例:白線、標識、ポール)に関する情報を取得し、自己位置推定処理を行う。
地形地図情報230は、上述の通り、路面RSの絶対位置を示す。プロセッサ51は、位置姿勢情報220を参照し、車両1の周囲の路面RSに関する地形地図情報230を取得する。地形地図データベース30が車両1の外部の管理サーバに格納されている場合、プロセッサ51は、管理サーバと通信を行い、必要な地形地図情報230を取得する。
更に、プロセッサ51は、車両1の周囲の物体を認識する「物体認識処理」を行う。後述されるように、プロセッサ51は、ライダー計測情報210、位置姿勢情報220、及び地形地図情報230に基づいて、物体認識処理を行う。物体認識情報250は、物体認識処理の結果を示す情報である。プロセッサ51は、物体認識処理によって得られる物体認識情報250を記憶装置52に格納する。
尚、典型的には、物体認識装置50は、車両1に搭載されたマイクロコンピュータにより実現される。但し、物体認識装置50は、必ずしも車両1に搭載されていなくてもよい。物体認識処理に必要な情報を取得することができる限り、物体認識装置50の設置位置は限定されない。
以下、本実施の形態に係る物体認識処理について更に詳しく説明する。
1-3.物体認識処理
図4は、本実施の形態に係る物体認識処理によって認識される物体を示す概念図である。物体認識処理では、追跡(tracking)の対象となる物体が認識される。追跡対象としては、他車両、歩行者、看板、パイロン、路側物、落下物、等が挙げられる。本実施の形態では、路面RS上の落下物3と、落下物3以外の追跡対象4とを区別して考える。一般的に、落下物3は路面RSの近傍のみに存在し、落下物3の高さは追跡対象4よりも顕著に低い。本実施の形態に係る物体認識処理は、落下物3と追跡対象4とを識別する。
物体認識処理では、ライダー10により得られるライダー計測情報210が用いられる。具体的には、ライダー計測情報210で示されるライダー点群PCにクラスタリング処理を適用することにより、物体が認識される。
但し、路面RS近くの領域については、ノイズの影響により誤認識が発生する可能性がある。ノイズの一因は、ライダー点群PCに含まれる路面点群PCRである。路面RS近くの領域を認識対象領域から除外すると、路面RS上の落下物3を認識することができない。
以上の観点から、本実施の形態は、物体認識処理における落下物3の認識精度を高めることができる技術を提供する。
図5は、本実施の形態に係る物体認識処理を示すフローチャートである。以下、本実施の形態に係る物体認識処理の各ステップについて説明する。
1-3-1.ステップS10
図6は、ステップS10を説明するための概念図である。Z方向は、鉛直方向を表す。ステップS10において、プロセッサ51は、ノイズの影響が大きいと考えられる「ノイズ領域NR」を設定する。図6に示されるように、ノイズ領域NRは、路面RSの絶対位置から高さh(第1高さ)の領域である。路面RSの絶対位置は、上述の地形地図情報230から得られる。高さhは、予め決定される。高さhの決定ポリシーの一例は、次の通りである。
ライダー点群PCの各検出点の絶対位置は、ライダー計測情報210と位置姿勢情報220に基づいて算出される。しかしながら、位置姿勢情報220は誤差を含んでいる可能性がある。特に、車両1のピッチ角の誤差は、路面点群PCRの高度の算出誤差の原因となる。このような路面点群PCRの高度の算出誤差を反映したパラメータが、ノイズ領域NRの高さhとして用いられる。具体的には、車両1のピッチ角の誤差として、所定の見込み値を考える。そして、そのピッチ角の誤差に基づいて高さhが決定される。例えば、ピッチ角の誤差とライダー10の最大計測距離との積が、高さhとして用いられる。
高さhを示す情報は、記憶装置52に予め格納される。プロセッサ51は、地形地図情報230と高さhの情報に基づいて、路面RSの絶対位置から高さhの領域をノイズ領域NRとして設定する。尚、落下物3の高さは、このノイズ領域NRの高さhと同程度か、あるいはそれ以下であることが多い。
1-3-2.ステップS20
図7は、ステップS20を説明するための概念図である。ステップS20において、プロセッサ51は、ライダー点群PCを、ノイズ領域NRに含まれる第1点群PC1と、ノイズ領域NRに含まれない第2点群PC2とに分類する。
上述の通り、ライダー計測情報210は、センサ座標系におけるライダー点群PCの各検出点の検出位置を示す。位置姿勢情報220は、車両1の絶対位置及び姿勢を示す。プロセッサ51は、ライダー計測情報210と位置姿勢情報220に基づいて、ライダー点群PCの各検出点の絶対位置を算出する。そして、プロセッサ51は、ノイズ領域NRを参照し、ライダー点群PCを第1点群PC1と第2点群PC2とに分類する。
1-3-3.ステップS30(第1抽出処理)
図8は、ステップS30を説明するための概念図である。ステップS30において、プロセッサ51は、ノイズ領域NRに含まれる第1点群PC1に基づいて、落下物3の候補を抽出する(第1抽出処理)。落下物3の候補は、以下「落下物候補3C」と呼ばれる。
但し、第1点群PC1は、路面点群PCRを含んでいる。落下物候補3Cを抽出するためには、路面点群PCRとそれ以外とを分離することが好ましい。路面点群PCR以外の第1点群PC1は、以下「落下物点群PCF」と呼ばれる。
プロセッサ51は、第1点群PC1を路面点群PCRと落下物点群PCFとに分離する分離処理を行う。例えば、プロセッサ51は、地形地図情報230を利用して分離処理を行う。具体的には、地形地図情報230で示される路面RSの絶対位置が、路面点群PCRの絶対位置とみなされる。ライダー点群PCの各検出点の絶対位置は、ライダー計測情報210と位置姿勢情報220に基づいて算出される。ライダー点群PCの絶対位置と路面点群PCRの絶対位置が分かるため、ライダー点群PCから路面点群PCRを除去することができる。
他の例として、プロセッサ51は、地形地図情報230を利用することなくライダー計測情報210に基づいて、分離処理を行ってもよい。ライダー計測情報210に基づく分離処理は、後の第2の実施の形態において詳しく説明される。
分離処理の後、プロセッサ51は、落下物点群PCFに基づいて落下物候補3Cを抽出する。より詳細には、プロセッサ51は、周知のクラスタリング処理を落下物点群PCFに適用することによって、落下物候補3Cを抽出する。
尚、図8に示されるように、追跡対象4のうちノイズ領域NRに含まれる下方部分も落下物候補3Cとして一旦抽出される。
1-3-4.ステップS40(第2抽出処理)
ステップS40において、プロセッサ51は、第2点群PC2に基づいて、追跡対象4の候補を抽出する(第2抽出処理)。追跡対象4の候補は、以下「追跡対象候補4C」と呼ばれる。プロセッサ51は、周知のクラスタリング処理を第2点群PC2に適用することによって、追跡対象候補4Cを抽出する。
1-3-5.ステップS50
図8に示されるように、実際に追跡対象4が存在する水平位置では、落下物候補3Cと追跡対象候補4CがZ方向において重なる。言い換えれば、落下物候補3Cと追跡対象候補4Cの水平位置が一致する。逆に、落下物候補3Cと追跡対象候補4Cの水平位置が一致している場合、その位置には落下物3ではなく追跡対象4が存在すると判断することができる。
そこで、ステップS50において、プロセッサ51は、落下物候補3Cと追跡対象候補4Cの水平位置が一致するか否かを判定する。この判定処理は、落下物候補3C毎に行われる。落下物候補3Cと追跡対象候補4Cとの間の水平位置の差が所定の閾値以下である場合、プロセッサ51は、水平位置が一致していると判定する(ステップS50;Yes)。この場合、処理は、ステップS60に進む。それ以外の場合(ステップS50;No)、処理は、ステップS70に進む。
1-3-6.ステップS60(統合処理)
図9は、ステップS60を説明するための概念図である。ステップS60において、プロセッサ51は、統合処理を行う。具体的には、プロセッサ51は、水平位置が一致する落下物候補3Cと追跡対象候補4Cを追跡対象4として統合する。言い換えれば、プロセッサ51は、追跡対象候補4Cと重なる落下物候補3Cを、落下物3ではなく追跡対象4として認識する。
1-3-7.ステップS70
プロセッサ51は、ノイズ領域NRに残っている落下物候補3Cを落下物3として認識する。つまり、プロセッサ51は、追跡対象4に統合されなかった落下物候補3Cを落下物3として認識する。また、プロセッサ51は、追跡対象候補4Cを追跡対象4として認識する。プロセッサ51は、認識結果を示す物体認識情報250を生成し、その物体認識情報250を記憶装置52に格納する。
1-4.効果
以上に説明されたように、本実施の形態によれば、路面RSの絶対位置を示す地形地図情報230に基づいて、路面RS近くのノイズ領域NRが設定される。ライダー計測情報210で示されるライダー点群PCは、ノイズ領域NRに含まれる第1点群PC1と、それ以外の第2点群PC2とに分類される。第1点群PC1からは、ノイズ領域NRに含まれる落下物候補3Cが抽出される。一方、第2点群PC2からは、ノイズ領域NRに含まれない追跡対象候補4Cが抽出される。
ノイズ領域NRに含まれない追跡対象候補4Cの抽出精度は、ノイズ領域NRに含まれる落下物候補3Cの抽出精度よりも高い。落下物候補3Cと追跡対象候補4Cの水平位置が一致する場合、その位置には落下物3ではなく追跡対象4が存在すると判断することができる。その場合、落下物候補3Cと追跡対象候補4Cが追跡対象4として統合される。言い換えれば、追跡対象候補4Cと重なる落下物候補3Cは、落下物3ではなく追跡対象4として認識される。これにより、落下物3の誤認識が抑制される。すなわち、落下物3の認識精度を高めることが可能となる。
2.第2の実施の形態
上述の第1抽出処理(ステップS30)では、第1点群PC1を路面点群PCRと落下物点群PCFとに分離する分離処理が行われる。但し、路面点群PCRの検出情報(検出位置等)そのものにノイズが含まれる可能性がある。また、上述の通り、車両1のピッチ角の誤差が、路面点群PCRの高度の算出誤差の原因となる。従って、地形地図情報230で示される路面RSの絶対位置を参照しても、路面点群PCRを精度良く除去することができない可能性がある。
そこで、第2の実施の形態では、地形地図情報230を利用することなくライダー計測情報210に基づいて分離処理を行う技術について説明する。第1の実施の形態と重複する説明は適宜省略される。
2-1.概要
図10に示されるように、ライダー10は、水平方向だけでなく、垂直方向に対してもレーザパルスを走査する。垂直方向の走査範囲は、複数のレイヤL1~Ln(n=2以上の整数)で表される。本実施の形態では、路面点群PCRを検出するレイヤ(図10に示される例ではレイヤL4~L6)について考える。
図11は、同一レイヤに属する路面点群PCRの分布を概念的に示している。Z方向は鉛直方向であり、XY平面はZ方向と直交している。同一レイヤに属する路面点群PCRは、基本的に、ライダー10から同じ距離において放射状に分布する。但し、検出ノイズや路面RSの凹凸の影響により、ライダー10からの距離が検出点間で多少異なる可能性はある。
図12は、路面RS上に落下物3が存在する場合を示している。ライダー10から放射されるレーザパルスの一部は、路面RSで反射せず、落下物3の表面で反射する。落下物3の表面における反射点が、上述の落下物点群PCFを構成する。つまり、第1点群PC1は、路面点群PCRと落下物点群PCFの両方を含んでいる。
図12に示されるように、同一レイヤに属する第1点群PC1を考えたとき、落下物点群PCFの検出位置と路面点群PCRの検出位置との間には明確な乖離(ギャップ)が存在している。例えば、ライダー10から各検出点までの距離は、落下物点群PCFと路面点群PCRとで異なる。また、隣接する2つの検出点の間の検出位置の差分は、落下物点群PCFと路面点群PCRとの境界において顕著に増大する。このような乖離は、単なる検出ノイズや路面RSの凹凸とは明らかに異なる。そこで、本実施の形態では、このような乖離に着目して分離処理を行う。
2-2.プロセッサによる処理
図13は、本実施の形態に係る第1抽出処理(ステップS30)を示すフローチャートである。
2-2-1.ステップS31
ステップS31において、プロセッサ51は、第1点群PC1の各検出点の「特徴量Q」を算出する。特徴量Qは、図12で説明された乖離を特徴付けるパラメータである。特徴量Qの一例として、ライダー10から各検出点までの距離が挙げられる。特徴量Qの他の例として、隣接する検出点に対する検出位置の差分が挙げられる。プロセッサ51は、第1点群PC1のライダー計測情報210に基づいて、第1点群PC1の各検出点の特徴量Qを算出することができる。
尚、隣接する2つの検出点のそれぞれに混ざる検出ノイズは相関する。そのため、隣接する2つの検出点の間の検出位置の差分を算出することにより、検出ノイズの影響を軽減することができる。
2-2-2.ステップS32
ステップS32において、プロセッサ51は、特徴量Qに基づいて、第1点群PC1を路面点群PCRと落下物点群PCFとに分離する。路面点群PCRと落下物点群PCFとを分離するための「分離基準」は予め決められている。
図14は、分離基準を説明するための概念図である。図14に示される例では、2種類の特徴量Q1、Q2が考慮されている。特徴量Q1、Q2からなる特徴量空間において、路面点群PCRと落下物点群PCFはそれぞれ異なる分布を有する。分離基準は、特徴量空間において路面点群PCRと落下物点群PCFとを分離(区別)するための基準である。図14に示されるように2種類の特徴量Q1、Q2からなる特徴量空間の場合、分離基準は分離線で与えられる。1種類の特徴量からなる特徴量空間の場合、分離基準は分離値(閾値)で与えられる。3種類以上の特徴量からなる特徴量空間の場合、分離基準は分離平面で与えられる。
分離基準は、実験あるいはシミュレーションを通して予め決定される。例えば、落下物3が存在しない場合(図11参照)と落下物3が存在する場合(図12参照)の両方のライダー計測情報210を対比することによって、分離基準を予め決定することができる。分離基準を示す情報は、記憶装置52に予め格納される。プロセッサ51は、特徴量Qと分離基準の情報に基づいて、第1点群PC1を路面点群PCRと落下物点群PCFとに分離する。
2-2-3.ステップS33
ステップS33において、プロセッサ51は、落下物点群PCFに基づいて落下物候補3Cを抽出する。落下物候補3Cの抽出には、周知のクラスタリング処理が用いられる。このとき、実際には同一の落下物3が2つ以上の落下物候補3Cとして抽出されてもよい。また、実際には異なる2以上の落下物3が1つの落下物候補3Cとして抽出されてもよい。
2-3.効果
同一レイヤに属する第1点群PC1を考えたとき、落下物点群PCFの検出位置と路面点群PCRの検出位置との間には明確な乖離(ギャップ)が存在する。そのような乖離に着目することにより、路面点群PCRの情報のノイズに影響されることなく、路面点群PCRと落下物点群PCFとを精度良く分離することが可能となる。分離処理の精度が向上するため、落下物候補3Cの抽出精度も向上する。結果として、落下物3の認識精度も更に向上する。
3.第3の実施の形態
第3の実施の形態では、落下物候補3Cが落下物3であることの尤度(likelihood)を算出する手法を説明する。落下物候補3Cが落下物3であることの尤度は、以下「落下物尤度LKF」と呼ばれる。既出の実施の形態と重複する説明は適宜省略される。
図15は、本実施の形態に係る物体認識処理を示すフローチャートである。ステップS10~S70は、既出の実施の形態の場合と同じである(図5参照)。本実施の形態に係る物体認識処理は、更に、ステップS80を含んでいる。ステップS80は、少なくとも第1抽出処理(ステップS30)の後に行われる。
ステップS80において、プロセッサ51は、落下物尤度LKFを算出する尤度算出処理を行う。物体認識情報250は、算出された落下物尤度LKFの情報を更に含む。落下物尤度LKFの算出方法の例は、次の通りである。
3-1.第1の例
落下物候補3Cに対応する落下物点群PCFに関する特徴量Qが分離基準(図14参照)から離れているほど、落下物尤度LKFは高いと言える。そこで、プロセッサ51は、落下物候補3Cに対応する落下物点群PCFに関する特徴量Qと分離基準に基づいて、落下物尤度LKFを算出する。具体的には、プロセッサ51は、特徴量空間における特徴量Qと分離基準との間の離間距離を算出し、その離間距離に応じて落下物尤度LKFを算出する。離間距離が大きいほど、落下物尤度LKFは高くなる。
3-2.第2の例
第2の例では、同一の落下物候補3Cに関する「連続度」について考える。連続度とは、同一の落下物候補3Cの位置が時間的に連続している度合いを表す。
ライダー10による計測及びライダー計測情報210の取得は、所定の計測周期毎に行われる。従って、落下物候補3Cの位置は、計測周期毎に更新される。計測周期程度の微小期間では、落下物3の絶対位置はほとんど変化しないため、落下物候補3Cの位置もほとんど変化しないことが期待される。つまり、落下物候補3Cの位置の今回値と前回値との間の変化量は、十分に小さいことが期待される。連続度は、その変化量の減少に従って増加し、その変化量の増加に従って減少する。
また、落下物3から毎回レーザパルスが反射してくるとは限らない。つまり、同一の落下物候補3Cが断続的に抽出される可能性もある。従って、数サイクルにわたる落下物候補3Cの平均位置が、連続度の算出に用いられてもよい。
更に、単位時間あたりに落下物候補3Cが抽出された回数が、その落下物候補3Cに関する連続度に反映されてもよい。単位時間あたりの抽出回数が多くなるほど、連続度は増加する。逆に、単位時間あたりの抽出回数が少なくなるほど、連続度は減少する。
プロセッサ51は、新たな落下物候補3Cを抽出すると、その落下物候補3Cに関する落下物尤度LKFを初期設定する。その後、プロセッサ51は、その落下物候補3Cの抽出履歴に基づいて、その落下物候補3Cに関する連続度を繰り返し算出する。連続度が連続度閾値以上である場合、プロセッサ51は、落下物尤度LKFを増加させる。一方、連続度が連続度閾値未満である場合、プロセッサ51は、落下物尤度LKFを減少させる。このように、プロセッサ51は、落下物候補3Cの抽出履歴に基づいて、その落下物候補3Cに関する落下物尤度LKFを更新する。
3-3.第3の例
第3の例は、第1の例と第2の例の組み合わせである。まず、プロセッサ51は、第1の例に従って落下物尤度LKFを算出する。続いて、プロセッサ51は、第2の例に従って連続度を算出し、その連続度に応じて落下物尤度LKFを更に増減させる。
3-4.落下物尤度の更新例
図16は、落下物尤度LKFの更新例を示すタイミングチャートである。図16に示される例では、落下物尤度LKFは、時間と共に徐々に増加していく。このような落下物尤度LKFは、次に説明される車両走行制御に利用され得る。
尚、尤度算出処理(ステップS80)において、プロセッサ51は、追跡対象候補4Cが追跡対象4であることの尤度を算出してもよい。その尤度の算出方法は、上述の第2の例と同様である。
4.第4の実施の形態
第4の実施の形態では、物体認識処理の結果に基づく車両走行制御について説明する。既出の実施の形態と重複する説明は適宜省略される。
4-1.車両制御システムの構成例
図17は、本実施の形態に係る車両制御システム100の構成例を示すブロック図である。車両制御システム100は、認識センサ110、車両状態センサ120、地図データベース130、走行装置140、及び制御装置150を備えている。
認識センサ110は、車両1に搭載されており、車両1の周囲の状況を認識(検出)する。認識センサ110は、上述のライダー10を含んでいる。更に、認識センサ110は、カメラやレーダを含んでいてもよい。
車両状態センサ120は、車両1に搭載されており、車両1の状態を検出する。車両状態センサ120は、上述の位置姿勢センサ20を含んでいる。更に、車両状態センサ120は、車速センサ、加速度センサ、ヨーレートセンサ、舵角センサ、等を含んでいてもよい。
地図データベース130は、地図情報の集合体である。地図データベース130は、車線配置や道路形状を示す一般的な道路地図情報を含んでいる。更に、地図データベース130は、上述の地形地図データベース30を含んでいる。地図データベース130は、車両1に搭載されている所定の記憶装置に格納されていてもよいし、車両1の外部の管理サーバに格納されていてもよい。
走行装置140は、車両1の走行(加減速、操舵)を担う。具体的には、走行装置140は、駆動装置、制動装置、及び操舵装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータが例示される。制動装置は、制動力を発生させる。操舵装置は、車両1の車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。
制御装置150は、プロセッサ151及び記憶装置152を備えている。記憶装置152には、各種情報が格納される。プロセッサ151は、コンピュータプログラムを実行することにより各種処理を行う。コンピュータプログラムは、記憶装置152に格納されている、あるいは、コンピュータ読み取り可能な記録媒体に記録されている。以下、制御装置150による処理を説明する。
4-2.制御装置による処理
図18は、本実施の形態に係る車両制御システム100の制御装置150による処理を示すフローチャートである。
4-2-1.情報取得処理(ステップS1)
制御装置150(プロセッサ151)は、車両1の運転環境を示す運転環境情報240を取得する。制御装置150は、取得した運転環境情報240を記憶装置152に格納する。
運転環境情報240は、周辺状況情報、車両状態情報、及び地図情報を含んでいる。周辺状況情報は、認識センサ110による認識結果を示す情報であり、上述のライダー計測情報210を含んでいる。制御装置150は、認識センサ110から周辺状況情報を取得する。車両状態情報は、車両状態センサ120による検出結果を示す情報であり、上述の位置姿勢情報220を含んでいる。制御装置150は、車両状態センサ120から車両状態情報を取得する。更に、制御装置150は、上述の地形地図情報230を含む必要な地図情報を地図データベース130から取得する。地図データベース130が車両1の外部の管理サーバに格納されている場合、制御装置150は、管理サーバと通信を行い、必要な地図情報を取得する。
4-2-2.物体認識処理(ステップS10~S80)
また、制御装置150(プロセッサ151)は、運転環境情報240に基づいて、物体認識処理を行う。物体認識処理は、既出の実施の形態のいずれかで説明されたものである。すなわち、制御装置150は、既出の実施の形態で説明された「物体認識装置50」として機能する。制御装置150は、物体認識処理の結果を示す物体認識情報250を記憶装置152に格納する。
4-2-3.車両走行制御(ステップS100)
更に、制御装置150(プロセッサ151)は、車両1の走行を制御する車両走行制御を行う。具体的には、制御装置150は、走行装置140の動作を制御することによって車両走行制御を行う。車両走行制御は、駆動制御、制動制御、及び操舵制御を含んでいる。駆動制御は、駆動装置を通して行われる。制動制御は、制動装置を通して行われる。操舵制御は、操舵装置を通して行われる。制御装置150は、車両走行制御を行う「車両走行制御装置」としても機能する。
特に、制御装置150は、物体認識情報250に基づいて車両走行制御を行う。具体的には、制御装置150は、認識された物体(落下物3、追跡対象4)に基づいて、走行プランを生成する。走行プランは、目標軌道を含む。制御装置150は、走行プランに従って車両1が走行するように車両走行制御を行う。
例えば、制御装置150は、運転環境情報240と物体認識情報250に基づいて、車両1が進路上の障害物(例:落下物3)と衝突する可能性があるか否か判定する。車両1が障害物と衝突する可能性が高い場合、制御装置150は、障害物との衝突を回避するための走行プラン(操舵、減速、等)を生成する。そして、制御装置150は、走行プランに従って衝突回避制御を行う。
第3の実施の形態で説明された落下物尤度LKFが得られている場合、制御装置150は、落下物尤度LKFに応じて落下物3に対する走行プランを生成してもよい。
例えば、落下物尤度LKFが低い段階で衝突回避制御が作動すると、落下物3が誤認識であった場合に、ドライバは違和感を感じる。また、衝突回避制御の誤作動は、衝突回避制御に対する信頼の低下を招く。そこで、制御装置150は、落下物尤度LKFに応じて走行プランの内容を段階的に切り替える。
一例として、第1閾値と、第1閾値よりも高い第2閾値を考える。落下物尤度LKFが第1閾値以上、且つ、第2閾値未満の場合、制御装置150は、アクセルをOFFする走行プランを生成する。これにより、車両1が落下物3に到達するまでの時間を稼ぐことができる。その後、車両1が落下物3に近づくにつれて、落下物尤度LKFが更新され、より正確になる。そして、落下物尤度LKFが第2閾値以上になると、制御装置150は、落下物3を回避するための衝突回避制御(減速、操舵の少なくとも一方)を行う走行プランを生成する。これにより、衝突回避制御の誤作動が抑制される。
4-3.効果
以上に説明されたように、本実施の形態によれば、物体認識処理の結果に基づいて車両走行制御が行われる。例えば、落下物3の認識結果に基づいて、落下物3に対する衝突回避制御が行われる。特に、落下物尤度LKFを利用することにより、衝突回避制御の誤作動を抑制することが可能となる。このことは、衝突回避制御に対する違和感の軽減及び信頼の向上に寄与する。
本実施の形態に係る車両走行制御は、自動運転制御に適用され得る。
1 車両
3 落下物
3C 落下物候補
4 追跡対象
4C 追跡対象候補
10 ライダー
20 位置姿勢センサ
30 地形地図データベース
50 物体認識装置
51 プロセッサ
52 記憶装置
100 車両制御システム
110 認識センサ
120 車両状態センサ
130 地図データベース
140 走行装置
150 制御装置
210 ライダー計測情報
220 位置姿勢情報
230 地形地図情報
240 運転環境情報
250 物体認識情報
LKF 落下物尤度
PC ライダー点群
PC1 第1点群
PC2 第2点群
PCF 落下物点群
PCR 路面点群

Claims (10)

  1. 車両の周囲の物体を認識する物体認識装置であって、
    前記車両は、ライダーを備え、
    ライダー点群は、前記ライダーによって検出される検出点の集合であり、
    前記物体認識装置は、
    前記検出点の各々の検出位置を示すライダー計測情報、前記車両の絶対位置及び姿勢を示す位置姿勢情報、及び路面の絶対位置を示す地形地図情報が格納される記憶装置と、
    前記車両の周囲の前記物体を認識する物体認識処理を行うプロセッサと
    を備え、
    前記物体は、前記路面上の落下物と、前記落下物以外の追跡対象とを含み、
    前記物体認識処理において、前記プロセッサは、
    前記地形地図情報に基づいて、前記路面の前記絶対位置から第1高さの領域をノイズ領域として設定し、
    前記ライダー計測情報と前記位置姿勢情報に基づいて、前記ライダー点群を、前記ノイズ領域に含まれる第1点群と前記ノイズ領域に含まれない第2点群とに分類し、
    前記第1点群に基づいて、前記落下物の候補である落下物候補を抽出する第1抽出処理を行い、
    前記第2点群に基づいて、前記追跡対象の候補である追跡対象候補を抽出する第2抽出処理を行い、
    前記落下物候補と前記追跡対象候補の水平位置が一致するか否かを判定し、
    前記水平位置が一致する前記落下物候補と前記追跡対象候補とを前記追跡対象として統合し、
    前記追跡対象に統合されなかった前記落下物候補を前記落下物として認識し、
    前記第1高さは、前記位置姿勢情報に含まれる前記車両のピッチ角の誤差と、前記ライダーの最大計測距離との積である
    物体認識装置。
  2. 請求項に記載の物体認識装置であって、
    路面点群は、前記路面を表す前記ライダー点群であり、
    前記第1点群は、前記路面点群と、前記路面点群以外の落下物点群とを含み、
    前記第1抽出処理において、前記プロセッサは、
    前記ライダー計測情報あるいは前記地形地図情報に基づいて、前記第1点群を前記路面点群と前記落下物点群とに分離する分離処理を行い、
    前記落下物点群に基づいて、前記落下物候補を抽出する
    物体認識装置。
  3. 請求項に記載の物体認識装置であって、
    同一レイヤに属する前記第1点群を考えたとき、前記落下物点群の前記検出位置と前記路面点群の前記検出位置との間には乖離が存在し、
    特徴量は、前記乖離を特徴付けるパラメータであり、
    前記分離処理において、前記プロセッサは、
    前記第1点群の前記ライダー計測情報に基づいて、前記第1点群の前記検出点の各々の前記特徴量を算出し、
    前記特徴量に基づいて、前記第1点群を前記路面点群と前記落下物点群とに分離する
    物体認識装置。
  4. 請求項に記載の物体認識装置であって、
    前記特徴量は、前記ライダーから前記検出点の各々までの距離を含む
    物体認識装置。
  5. 請求項又はに記載の物体認識装置であって、
    前記特徴量は、隣接する検出点に対する前記検出位置の差分を含む
    物体認識装置。
  6. 請求項乃至のいずれか一項に記載の物体認識装置であって、
    落下物尤度は、前記落下物候補が前記落下物であることの尤度であり、
    前記プロセッサは、前記落下物候補を抽出した後、前記落下物尤度を算出する尤度算出処理を更に行う
    物体認識装置。
  7. 請求項に記載の物体認識装置であって、
    前記路面点群と前記落下物点群とを分離するための分離基準は予め決められており、
    前記尤度算出処理において、前記プロセッサは、前記落下物候補に対応する前記落下物点群に関する前記特徴量と前記分離基準に基づいて、前記落下物尤度を算出し、
    前記落下物候補に対応する前記落下物点群に関する前記特徴量が前記分離基準から離れているほど、前記落下物尤度は高くなる
    物体認識装置。
  8. 請求項又はに記載の物体認識装置であって、
    連続度は、前記落下物候補の位置が時間的に連続している度合いを表し、
    前記尤度算出処理において、前記プロセッサは、
    前記落下物候補の抽出履歴に基づいて、前記連続度を算出し、
    前記連続度が連続度閾値以上である場合、前記落下物尤度を増加させ、
    前記連続度が前記連続度閾値未満である場合、前記落下物尤度を減少させる
    物体認識装置。
  9. 請求項乃至のいずれか一項に記載の物体認識装置と、
    前記物体認識処理の結果に基づいて、前記車両の走行を制御する車両走行制御を行う車両走行制御装置と
    を備え、
    前記車両走行制御装置は、前記落下物尤度に応じて前記落下物に対する走行プランを生成し、前記走行プランに従って前記車両走行制御を行う
    車両制御システム。
  10. 請求項に記載の車両制御システムであって、
    第2閾値は第1閾値よりも高く、
    前記落下物尤度が前記第1閾値以上、且つ、前記第2閾値未満である場合、前記走行プランは、アクセルをOFFすることを含み、
    前記落下物尤度が前記第2閾値以上である場合、前記走行プランは、前記落下物を回避するための減速及び操舵の少なくとも一方を行うことを含む
    車両制御システム。
JP2019054724A 2019-03-22 2019-03-22 物体認識装置及び車両制御システム Active JP7147651B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019054724A JP7147651B2 (ja) 2019-03-22 2019-03-22 物体認識装置及び車両制御システム
US16/782,357 US11598877B2 (en) 2019-03-22 2020-02-05 Object recognition device and vehicle control system
CN202010199433.XA CN111722249B (zh) 2019-03-22 2020-03-20 物体识别装置以及车辆控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054724A JP7147651B2 (ja) 2019-03-22 2019-03-22 物体認識装置及び車両制御システム

Publications (2)

Publication Number Publication Date
JP2020154983A JP2020154983A (ja) 2020-09-24
JP7147651B2 true JP7147651B2 (ja) 2022-10-05

Family

ID=72515747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054724A Active JP7147651B2 (ja) 2019-03-22 2019-03-22 物体認識装置及び車両制御システム

Country Status (3)

Country Link
US (1) US11598877B2 (ja)
JP (1) JP7147651B2 (ja)
CN (1) CN111722249B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384147B2 (ja) 2020-11-30 2023-11-21 トヨタ自動車株式会社 物標検出装置及びそれが搭載された車両
CN113740848B (zh) * 2021-09-30 2023-11-17 中科芯集成电路有限公司 一种基于毫米波雷达的独居老人追踪式跌倒检测装置
CN114942434B (zh) * 2022-04-25 2024-02-02 四川八维九章科技有限公司 一种基于毫米波雷达点云的跌倒姿态识别方法及系统
CN116381698B (zh) * 2023-06-05 2024-03-12 蘑菇车联信息科技有限公司 道路遗撒物的检测方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283392A (ja) 2000-03-31 2001-10-12 Denso Corp 車両用障害物認識方法及び装置、記録媒体
JP2003066144A (ja) 2001-08-23 2003-03-05 Omron Corp 対象物検出装置および方法
JP2017166971A (ja) 2016-03-16 2017-09-21 株式会社デンソー 物体検出装置および物体検出プログラム
JP2018112887A (ja) 2017-01-11 2018-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
WO2018179359A1 (ja) 2017-03-31 2018-10-04 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4202705B2 (ja) * 2002-09-27 2008-12-24 株式会社パスコ レーザデータのノイズ除去方法
CN102779280B (zh) * 2012-06-19 2014-07-30 武汉大学 一种基于激光传感器的交通信息提取方法
KR101491314B1 (ko) * 2013-09-10 2015-02-06 현대자동차주식회사 레이저 스캐너를 이용한 장애물 인식 장치 및 방법
CN104143194B (zh) * 2014-08-20 2017-09-08 清华大学 一种点云分割方法及装置
KR101824982B1 (ko) * 2015-10-07 2018-02-02 엘지전자 주식회사 차량 및 그 제어방법
CN105551016B (zh) * 2015-12-02 2019-01-22 百度在线网络技术(北京)有限公司 一种基于激光点云的路沿识别方法及装置
KR101834348B1 (ko) * 2016-03-16 2018-03-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법
JP6558393B2 (ja) 2017-04-06 2019-08-14 トヨタ自動車株式会社 進路設定装置及び進路設定方法
CN109238221B (zh) * 2017-07-10 2021-02-26 上海汽车集团股份有限公司 一种车辆周围环境的检测方法及装置
WO2019152888A1 (en) * 2018-02-02 2019-08-08 Nvidia Corporation Safety procedure analysis for obstacle avoidance in autonomous vehicle
CN117022255A (zh) * 2018-03-20 2023-11-10 御眼视觉技术有限公司 用于主车辆的自动驾驶系统、机器可读存储介质和装置
US10809073B2 (en) * 2018-12-05 2020-10-20 Here Global B.V. Local window-based 2D occupancy grids for localization of autonomous vehicles
WO2020182591A1 (en) * 2019-03-08 2020-09-17 Osram Gmbh Component for a lidar sensor system, lidar sensor system, lidar sensor device, method for a lidar sensor system and method for a lidar sensor device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283392A (ja) 2000-03-31 2001-10-12 Denso Corp 車両用障害物認識方法及び装置、記録媒体
JP2003066144A (ja) 2001-08-23 2003-03-05 Omron Corp 対象物検出装置および方法
JP2017166971A (ja) 2016-03-16 2017-09-21 株式会社デンソー 物体検出装置および物体検出プログラム
JP2018112887A (ja) 2017-01-11 2018-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
WO2018179359A1 (ja) 2017-03-31 2018-10-04 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Also Published As

Publication number Publication date
JP2020154983A (ja) 2020-09-24
CN111722249A (zh) 2020-09-29
CN111722249B (zh) 2023-12-01
US11598877B2 (en) 2023-03-07
US20200301019A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP7147651B2 (ja) 物体認識装置及び車両制御システム
EP3647728B1 (en) Map information system
US10510257B2 (en) Object tracking method and object tracking device
JP6747269B2 (ja) 物体認識装置
US11898855B2 (en) Assistance control system that prioritizes route candidates based on unsuitable sections thereof
US10553117B1 (en) System and method for determining lane occupancy of surrounding vehicles
US20210061309A1 (en) Vehicle control system
JP2018180735A (ja) 動作範囲決定装置
US10789488B2 (en) Information processing device, learned model, information processing method, and computer program product
JP2018200267A (ja) 上方構造物判定装置及び運転支援システム
JP6911312B2 (ja) 物体識別装置
US20210331671A1 (en) Travel lane estimation device, travel lane estimation method, and computer-readable non-transitory storage medium
KR102569900B1 (ko) 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량
JP2018036796A (ja) 外界情報処理装置
RU2744012C1 (ru) Способы и системы для автоматизированного определения присутствия объектов
CN113412212A (zh) 其它车辆动作预测方法以及其它车辆动作预测装置
US11403951B2 (en) Driving assistance for a motor vehicle when approaching a tollgate
CN112147613A (zh) 竖直道路轮廓估计
JP6171499B2 (ja) 危険度判定装置及び危険度判定方法
CN113525382B (zh) 车辆控制装置及存储介质
CN109991603A (zh) 车辆控制装置
JP7167732B2 (ja) 地図情報システム
CN110736981B (zh) 基于雷达的对慢速移动对象的跟踪
CN116524454A (zh) 物体追踪装置、物体追踪方法及存储介质
CN116242375A (zh) 一种基于多传感器的高精度电子地图生成方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R151 Written notification of patent or utility model registration

Ref document number: 7147651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151