JP6980623B2 - 周囲物体判定方法及び周囲物体判定装置 - Google Patents

周囲物体判定方法及び周囲物体判定装置 Download PDF

Info

Publication number
JP6980623B2
JP6980623B2 JP2018170230A JP2018170230A JP6980623B2 JP 6980623 B2 JP6980623 B2 JP 6980623B2 JP 2018170230 A JP2018170230 A JP 2018170230A JP 2018170230 A JP2018170230 A JP 2018170230A JP 6980623 B2 JP6980623 B2 JP 6980623B2
Authority
JP
Japan
Prior art keywords
sensor
vehicle
region
point cloud
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018170230A
Other languages
English (en)
Other versions
JP2020041933A (ja
Inventor
誠信 永瀬
正文 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2018170230A priority Critical patent/JP6980623B2/ja
Publication of JP2020041933A publication Critical patent/JP2020041933A/ja
Application granted granted Critical
Publication of JP6980623B2 publication Critical patent/JP6980623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、周囲物体判定方法及び周囲物体判定装置に関する。
例えば、特許文献1には、側方探査モードでの測定結果に基づく側方検出物標と同時に、後方探査モードでの測定結果に基づき重複エリアで重複エリア移動物標が検出されていれば、側方検出物標を側方検出エリアでの追跡対象物標として登録すると共に、その登録した追跡対象物標に、重複エリア移動物標の情報を引き継ぐレーダ装置が示されている。
特開2012−159348号公報
しかしながら、センサで自車両の周囲物体を検出する場合、センサのセンシング範囲の広さには限界がある。また、2つのセンサを用いる場合には、2つのセンサの間にはセンサ死角が存在するので、1つの物体をセンサ死角を跨いで2つのセンサが検出した場合には、1つの物体を複数の物体と誤認するおそれがあった。
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、自車両の周囲に存在する一つの物体を、一つの物体として正しく認識することが可能な周囲物体判定方法、及び周囲物体判定装置を提供することにある。
上記目的を達成するため、本願発明は、自車両に設置されたカメラと、自車両の周囲に存在する物体までの距離を測定する第1のセンサ及び第2のセンサを用いて、物体を判定する周囲物体判定方法であり、第1のセンサが物体を検出可能な第1のセンサ領域と、第2のセンサが物体を検出可能な第2のセンサ領域との間にセンサ死角が存在する。第1のセンサを用いて、自車両の周囲に存在する第1の物体の位置を示す第1の測距点を検出し、第2のセンサを用いて、自車両の周囲に存在する第2の物体の位置を示す第2の測距点を検出し、検出した第1の測距点及び第2の測距点の各々をクラスタリングして第1の点群及び第2の点群を生成する。カメラの撮像領域に含まれる第1のセンサ領域に、第1の点群が存在し、且つ、カメラの撮像領域に含まれる第2のセンサ領域に、第2の点群が存在する場合には、カメラで自車両の周囲を撮像して画像を取得し、画像から自車両の周囲に存在する第3の物体を認識して、第3の物体が存在する領域である識別領域を設定する。第1の点群及び第2の点群が、識別領域内に含まれる場合には、第1の点群が示す第1の物体及び第2の点群が示す第2の物体は同一であると判定する。
本発明では、自車両の周囲に存在する一つの物体を、一つの物体として正しく認識することが可能になる。
図1は、本発明の実施形態に係る周囲物体判定装置、及びその周辺機器の構成を示すブロック図である。 図2は、自車両に搭載される複数の測距センサと、各測距センサで検出可能なセンサ領域、及び各測距センサで検出できないセンサ死角を示す説明図である。 図3は、自車両の側方に存在する他車両をカメラで撮像した画像に、測距センサで検出した測距点をクラスタリングして取得した点群を表示した説明図である。 図4は、自車両の側方に存在する他車両をカメラで撮像した画像、及び画像に含まれる他車両の輪郭を囲む識別領域を示す説明図である。 図5は、自車両の側方に存在する他車両をカメラで撮像した画像、及び測距センサで検出した測距点をクラスタリングして取得した点群、及び他車両の輪郭を囲む識別領域を示す説明図である。 図6は、自車両に対する他車両の車幅方向の位置(y軸方向の位置)を算出する方法を示す説明図である。 図7は、自車両に対する他車両の前後方向の位置(x軸方向の位置)を算出する方法を示す説明図である。 図8は、本発明の実施形態に係る周囲物体判定装置の処理手順を示すフローチャートである。 図9は、図8に示すフローチャートのステップS6の詳細な処理手順を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
[本実施形態の構成の説明]
図1は、本発明の実施形態に係る周囲物体判定装置及びその周辺機器の構成を示すブロック図である。図1に示すように、本実施形態に係る周囲物体判定装置101は、車両センサ102、及び車両制御装置103に接続されている。
車両センサ102は、自車両の位置情報、及び走行状態を検出するセンサであり、GPS受信機(Global Positioning System)31と、車速センサ32と、加速度センサ33と、ジャイロセンサ34を備えている。
GPS受信機31は、GPS衛星より送信される自車両の測位情報を受信して、自車両の位置を特定する。
車速センサ32は、自車両の走行速度を検出する。車速センサ32は、例えば車輪と共に回転し円周に突起部(ギヤパルサ)が形成されたセンサロータと、このセンサロータの突起部に対向して設けられたピックアップコイルを有する検出回路と、を備える。そして、センサロータの回転に伴う磁束密度の変化を、ピックアップコイルによって電圧信号に変換し、この電圧信号から各車輪の車輪速度を測定する。各車輪の車輪速度の平均を車速として演算する。
加速度センサ33は、自車両の前後方向の加減速度Gx、及び左右方向の横加速度Gyを検出する。加速度センサ33は、例えば固定電極に対する可動電極の位置変位を静電容量の変化として検出しており、加減速度と方向に比例した電圧信号に変換する。この電圧信号から加減速度Gxを判断し、加速を正の値とし、減速を負の値とする。同様に、横加速度Gyを判断し、右旋回を正の値とし、左旋回を負の値とする。
ジャイロセンサ34は、自車両のヨー、ロール、ピッチの各方向の角速度を検出する。
周囲物体判定装置101は、カメラ21と、第1の測距センサ22aと、第2の測距センサ22b、及び制御部23(コントローラ)を備えている。なお、実施形態では、図2に示すように、測距センサが、通常、自車両の前端部、後端部、右前端部、右後端部、左前端部、左後端部、の合計6箇所に設けられる。図1では、自車両の右前部に設けられる第1の測距センサ22a(第1のセンサ)、及び右後部に設けられる第2の測距センサ22b(第2のセンサ)のみを記載している。なお、測距センサの数及び設置する位置は、図2に示す例に限定されない。
カメラ21は、例えば自車両に1つ或いは複数設置されており、CCD(Charge Coupled Device)方式、CMOS(Complementary Metal Oxide Semiconductor)方式などの撮像方式を利用して、自車両周辺を撮像して、周囲画像を取得する。カメラ21が撮像する撮像領域は、図2に示すように、第1の測距センサ22aで物体を検出可能な第1のセンサ領域B1の少なくとも一部、及び第2の測距センサ22bで物体を検出可能な第2のセンサ領域B2の少なくとも一部を含んでいる。
カメラ21は、車両に搭載される全方位モニタ用のカメラと兼用してもよい。また、カメラ21は、自車両のイグニッションオン時(自車両が電気自動車、ハイブリッド車両である場合はパワーオン時)において、一定の時間間隔をおいて常時、周囲画像を取得する。或いは、自車両の周囲に複数の点群が存在する場合に限って、周囲画像を取得する。「複数の点群」とは、クラスタリングにより取得される点群であり、詳細は、後述する。
図2に示すように、第1の測距センサ22a、及び第2の測距センサ22bは、自車両の異なる箇所に設置されており、自車両の側方に他車両、2輪車、歩行者などの物体が存在する場合に、この物体までの距離を測定するセンサである。本実施形態では、検出対象とする物体として、自車両の周囲に存在する他車両を検出する場合を例に挙げて説明する。
第1、第2の測距センサ22a、22bとして、例えばレーダ、ライダーを用いることができる。なお、以下では第1、第2の測距センサ22a、22bを区別して示す場合にはサフィックス「a」、「b」を付して示し、区別しない場合には、第1、第2の測距センサを総称して「測距センサ22」という。
測距センサ22は、検出対象の物体までの距離の測定精度が、カメラ21で撮像される画像を用いて測定する物体までの距離の測定精度よりも高い。即ち、画像解析技術によりカメラ21で取得した周囲画像の中に含まれる物体までの距離を測定する精度よりも、測距センサ22により自車両から前記物体までの距離を測定する精度の方が高い。これとは反対に、前記物体の形状や輪郭(他車両、2輪車、歩行者の形状、輪郭など)を認識する精度は、測距センサ22による認識精度よりも、カメラ21で撮像した画像を解析して前記物体の種別を認識する精度の方が高い。
測距センサ22の一例であるレーダは、自車両の側方などの、自車両周囲の任意の方向の所定領域に対して、走査しつつ間欠的にレーザ光を照射し、物体で反射した光をそれぞれ受光することによって、自車両の周囲の物体を各測距点として検出する。測距点とは、レーザ光の反射光によって特定される物体の一部が存在する位置を示す。
また、測距センサ22の一例であるライダーは、自車両周囲の任意の方向の所定領域に対して、走査しつつ間欠的にレーザ光よりも波長の短い電磁波を照射し、前述したレーダと同様に、物体で反射した電磁波を自車両の周囲の物体を各測距点として検出する。なお、レーダ、ライダー以外にも、自車両の周囲に存在する物体の位置を認識する他の測距センサを用いてもよい。
図2は、自車両M1に搭載される複数の測距センサと、各測距センサで検出可能なセンサ領域、及びいずれの測距センサでも検出できないセンサ死角を示す説明図である。また、図2は自車両M1を上方から見た図(天頂図)である。以下、図2を参照して、センサ領域、センサ死角、及びセンサ死角が存在することにより生じる問題点、について説明する。
図2に示すように、自車両M1の、前端部、後端部、右前端部、右後端部、左前端部、左後端部、の合計6箇所に測距センサ22が設けられている。自車両M1の右前部に搭載された第1の測距センサ22aには、自車両M1の右の前方及び右の側方に向く所定角度の領域が、物体を検出可能な領域(第1のセンサ領域B1)として設定されている。また、自車両M1の右後部に搭載された第2の測距センサ22bには、自車両M1の右の後方及び右の側方に向く所定角度の領域が、物体を検出可能な領域(第2のセンサ領域B2)として設定されている。
第1のセンサ領域B1は、第1の測距センサ22aの搭載位置から放射状に広がっており、第1の測距センサ22aでのみ検出可能な領域B11、第2の測距センサ22bで検出可能な領域と重複する領域B12、及び自車両M1の前端部に設けられた測距センサ22で検出可能な領域と重複する領域B10からなる。
第2のセンサ領域B2は、第2の測距センサ22bの搭載位置から放射状に広がっており、第2の測距センサ22bでのみ検出可能な領域B21、第1の測距センサ22aで検出可能な領域と重複する領域B12、及び自車両M1の後端部に設けられた測距センサ22で検出可能な領域と重複する領域B20からなる。
更に、1つの測距センサ22のセンサ領域には限界が有る。このため、隣接するセンサ領域B1とセンサ領域B2の間には、第1の測距センサ22a及び第2の測距センサ22bの何れも物体を検出できない領域であるセンサ死角B3が存在する。なお、自車両の左の側方においても同様にセンサ死角B4が存在する。更に、自車両の前方及び後方にも、隣接する測距センサ22の間には、センサ死角が存在する。実施形態では、自車両M1の右側方に存在するセンサ死角B3を例に取り、説明を続ける。
図2に示すように、自車両M1の右側方の第1のセンサ領域B1、第2のセンサ領域B2、及びセンサ死角B3の各領域に、1つの物体の例である他車両M2が位置する場合がある。換言すれば、1つの物体である他車両M2が、センサ死角B3を跨いで、第1のセンサ領域B1、第2のセンサ領域B2の中に位置する場合がある。
即ち、他車両M2の前側は、第1のセンサ領域B1に含まれているので、第1の測距センサ22aにより他車両M2の測距点が検出され、検出された測距点による点群Q1(詳細は後述)が得られる。また、他車両M2の後側は第2のセンサ領域B2に含まれているので、第2の測距センサ22bにより他車両M2の測距点が検出され、検出された測距点による点群Q2が得られる。しかし、センサ死角B3においては、他車両M2の測距点は検出されず、点群は得られない。
このため、第1の測距センサ22a、及び第2の測距センサ22bが、自車両M1の側方であって、センサ死角B3を跨いで第1のセンサ領域B1及び第2のセンサ領域B2の双方に存在する周囲物体(他車両M2)を検出する。この場合、第1の測距センサ22a、及び第2の測距センサ22bは、他車両M2に基づく2つの点群Q1、Q2を検出することになる。これらの点群Q1、Q2は、センサ死角B3により分離されているため、点群Q1、Q2が同一物体により検出されたものか否かを判定することができない。本実施形態では、カメラ21で撮像した周囲画像を用いて測距センサ22の検出結果を補完することにより、2つの点群Q1、Q2が同一物体から検出されたものか否かを判定する。詳細については、後述する。
図1に戻って、制御部23は、測距点検出部11と、クラスタリング部12と、周囲物体認識部13と、対応付け処理部14と、物体算出部15を備えている。
測距点検出部11は、第1の測距センサ22a、または、第2の測距センサ22bで検出される各測距点のデータを取得する。例えば、図2に示したように、第1の測距センサ22aは、自車両M1の周囲にレーザ光を出力し、第1のセンサ領域B1に存在する物体で反射した光を測距点として検出する。この測距点のデータを取得する。同様に、第2の測距センサ22bで検出された測距点のデータを取得する。
即ち、測距点検出部11は、第1の測距センサ22a(第1のセンサ)を用いて、自車両M1の周囲に存在する物体(第1の物体)の位置を示す測距点(第1の測距点)を検出する。また、第2の測距センサ22b(第2のセンサ)を用いて、自車両M1の周囲に存在する物体(第2の物体)の位置を示す測距点(第2の測距点)を検出する。
クラスタリング部12は、測距点検出部11で検出された測距点をクラスタリングする。クラスタリングとは、測距点検出部11で検出された複数の測距点に基づき、自車両M1からの距離がほぼ等しい測距点の集合を点群として纏める処理を示す。
具体的に、クラスタリング部12は、図2に示したように、第1のセンサ領域B1で検出した測距点(第1の測距点)、及び、第2のセンサ領域B2で検出した測距点(第2の測距点)の各々をクラスタリングして点群Q1(第1の点群)、及び、点群Q2(第2の点群)を生成する。
クラスタリング方法として、「Kd-tree」などを用いて近傍探索し、設定した距離の閾値内に含まれる点をクラスタリングしていく手法を用いることができる。他のクラスタリング方法として、例えば「Nearest Neighbor法」や「K-Means法」などの既存の手法を用いることができる。測距点をクラスタリングすることにより得られる点群には、任意に定義された点群位置、及び点群の縦方向、及び横方向の長さが対応付けられる。点群位置とは、点群を代表する位置を示し、例えば、点群の重心位置や外接長方形のある頂点の位置等、任意の位置に設定することができる。
図3は、自車両の側方に存在する他車両をカメラ21で撮像した周囲画像D1に、測距センサ22で検出した測距点をクラスタリングして取得した点群を表示した説明図である。点群を表示した周囲画像D1は、クラスタリングして取得した複数の点群を、カメラ21の座標系のデータに変換し、自車両M1に設置したカメラ21、測距センサ22の設置位置の座標データに基づき、クラスタリングした点群の位置データを、カメラ21の座標系に変換することにより生成することができる。
前述の図2に示したように、自車両M1の側方には、第1のセンサ領域B1と第2のセンサ領域B2の間にセンサ死角B3が存在する。このため、第1の測距センサ22aは、他車両M2に基づく、点群Q1を取得し、第2の測距センサ22bは、他車両M2に基づく、点群Q2を取得する。取得された各点群Q1、Q2のデータは、図示しないRAM(Random access memory)などの記憶部に記憶される。
周囲物体認識部13は、クラスタリング部12において検出される点群の数が閾値以上(例えば、2個以上)である場合に、カメラ21で撮像された自車両M1の周囲画像を取得する。周囲物体認識部13は、取得した周囲画像に基づいて、自車両M1の周囲に存在する物体を検出する。更に、周囲物体認識部13は、物体が検出された場合にこの物体の形状、輪郭を認識する。更に、周囲物体認識部13は、認識した形状、輪郭に基づいて、周知のテンプレートマッチングの手法などを用いて、物体の種別、例えば他車両、2輪車、歩行者などを認識する。
また、周囲物体認識部13は、周囲画像に含まれる物体(本実施形態では他車両とする)の画像に基づき、周囲画像内に物体が位置する領域を示す識別領域を設定する。図4は、周囲画像D2中に他車両M2が含まれる場合において設定される識別領域Pを示す説明図である。図4に示すように、周囲物体認識部13は、周囲画像D2中に他車両M2の輪郭を囲む領域である矩形状の識別領域Pを設定する。なお、識別領域Pの形状は矩形状に限定されるものではなく、台形、円、楕円、などの各種の形状に設定してもよい。また、識別領域Pの形状は図4に示すように、領域の外縁の一部が他車両M2の輪郭を含むように設定される事が好ましい。また、識別領域Pの形状は他車両M2の輪郭と同一形状であっても良い。
即ち、周囲物体認識部13は、カメラ21の撮像領域に含まれる第1のセンサ領域B1に、点群Q1(第1の点群)が存在し、且つ、撮像領域に含まれる第2のセンサ領域B2に、点群Q2(第2の点群)が存在する場合には、カメラ21で自車両M1の周囲を撮像して画像を取得する。そして、取得した画像から自車両M1の周囲に存在する物体(第3の物体)を認識して、認識した物体が存在する領域である識別領域Pを画像上に設定する。
対応付け処理部14は、周囲物体認識部13で設定された識別領域Pの位置に基づいて、クラスタリング部12で取得した複数の点群を対応付ける処理を行う。対応付け処理部14は、識別領域P内に複数の点群が存在する場合に、これらの点群は同一の物体による測距点の点群であるものと判断する。
具体的に、クラスタリング部12で実施されるクラスタリングにより、図3の周囲画像D1に示したように、2つの点群Q1、Q2が取得された場合には、これらの点群Q1、Q2が、図4の周囲画像D2に示した識別領域P内に含まれるか否かを判定する。図5の周囲画像D3は、各点群Q1、Q2が共に識別領域P内に存在する例を示している。
点群Q1、Q2が識別領域P内に含まれるか否かの判定は、例えば、点群Q1、Q2が占有する領域全体の所定の割合以上(例えば、80%以上)の領域が識別領域P内に存在するか否かにより行う。点群Q1及びQ2の80%以上の領域が識別領域P内に存在する場合に、点群Q1、Q2は識別領域P内に含まれるものと判定する。或いは、各点群Q1、Q2を構成する領域の全てが識別領域P内に存在する場合に、各点群Q1、Q2が識別領域P内に含まれるものと判定してもよい。対応付け処理部14は、測距センサ22で検出された測距点をクラスタリングして算出された複数の点群が、1つの識別領域P内に存在すると判定された場合には、これらの点群は、同一の物体による測距点の点群であると判断する。
即ち、対応付け処理部14は、点群Q1(第1の点群)、及び、点群Q2(第2の点群)が、識別領域P内に含まれる場合には、第1の点群が示す第1の物体、及び第2の点群が示す第2の物体は同一であると判定する。
図1に戻って、物体算出部15は、クラスタリング部12で算出された点群のデータに基づいて、周囲物体認識部13で認識された物体(他車両)の位置を算出する。以下、図6、図7に示す説明図を参照して、他車両M2の位置を検出する方法について説明する。
図6は、自車両M1に対する他車両M2の車幅方向の位置(y軸方向の位置)を算出する方法を示す説明図である。クラスタリングにより、他車両M2による点群Q1、Q2が取得された場合には、物体算出部15は、点群Q1を構成する各測距点のうち最も自車両M1に近い測距点q1を算出する。同様に、物体算出部15は、点群Q2を構成する各測距点のうち最も自車両M1に近い測距点q2を算出する。そして、物体算出部15は、測距点q1とq2を結ぶ直線L1を算出し、直線L1を他車両M2の側面であるものと判断する。直線L1を算出することにより、自車両M1に対する他車両M2の車幅方向の位置(y軸方向の間隔)を認識できる。
ここで、カメラ21で撮像された画像を用いることで、他車両M2の車幅方向の位置を算出することも可能であるが、高い精度で算出することは難しい。本実施形態では、レーダやライダーなどの測距センサ22で取得した測距点の集合である点群Q1、Q2を用いて他車両の車幅方向の位置を算出するので、高精度に車幅方向の位置を算出できる。また、測距センサ22では、他車両M2の車幅を測定することはできないので、所定の数値(例えば、2m)を他車両M2の車幅に設定する。
自車両M1が自動運転で走行する上で、自車両M1の右側方位置から他車両M2の側方位置までの距離、即ち、図6に示す直線L1の位置までの距離が必要となる。従って、直線L1の自車両M1に対する位置が高精度に算出できればよい。他車両M2の反対側の側面の位置n1は検出する必要がないので、他車両M2の車幅を、上述のように所定の数値(例えば、2m)に設定しても自車両M1の走行には大きな問題は生じない。
図7は、自車両M1に対する他車両M2の前後方向の位置(x軸方向の位置)を算出する第1の方法を示す説明図である。物体算出部15は、点群Q1を構成する各測距点のうち、最も前方の測距点q3(最もx軸座標の大きい点)を特定する。更に、物体算出部15は、点群Q2を構成する各測距点のうち最も後方の測距点q4(最もx軸座標の小さい点)を特定する。そして、物体算出部15は、点q3が他車両M2の前端、点q4が他車両M2の後端であるものと判断する。これにより他車両M2の前後方向の位置(x軸座標)を高精度に検出することができる。
また、他車両M2の前後方向の位置を算出する第2の方法として、図4に示した周囲画像D2に設定する識別領域Pの左端p1と右端p2の位置座標を算出し、左端p1と右端p2の位置を、他車両M2の前端、後端とすることも可能である。また、上記の第1の方法と第2の方法を組み合わせて、他車両M2の前端、後端を算出してもよい。
図1に戻って、車両制御装置103は、周囲物体判定装置101で算出された周囲物体(例えば、他車両)の情報を取得する。更に車両制御装置103は、GPS受信機31で取得される自車両の位置情報、車速センサ32で検出される車速情報、加速度センサ33で検出される加速度情報、及びジャイロセンサ34で検出される角速度情報を取得して、自車両の走行を制御する。
例えば、自車両M1を自動運転で走行させる場合には、車両制御装置103は、自車両M1と他車両M2との間隔、即ち自車両M1の右側方位置から他車両M2の側方位置までの距離が一定距離以上となるように、加速度、減速度、及び車速を実現するための駆動機構の動作、及びブレーキ動作を制御する。なお、駆動機構の動作は、エンジン自動車にあっては内燃機関の動作、電気自動車にあっては電動モータの動作を含み、ハイブリッド自動車にあっては内燃機関と電動モータとのトルク配分も含む。また、自車両が先行車両の追い越しなどの車線変更を行う場合には、車両制御装置103は、ステアリングアクチュエータの動作を制御して、車輪の動作を制御することで、自車両の転回制御を実行する。
なお、図1に示す周囲物体判定装置101の制御部23は、CPU(Central Processing Unit)、メモリ、及び入出力部を備えるマイクロコンピュータを用いて実現可能である。マイクロコンピュータを制御部23として機能させるためのコンピュータプログラム(制御プログラム)を、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、制御部23が備える複数の情報処理部(11〜15)として機能する。
ここでは、ソフトウェアによって制御部23を実現する例を示すが、勿論、各情報処理を実行するための専用のハードウェアを用意して、制御部23を構成することも可能である。専用のハードウェアには、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)、及び従来型の電気回路や回路部品のような装置を含む。また、制御部23に含まれる複数の情報処理部(11〜15)を個別のハードウェアにより構成してもよい。更に、周囲物体判定装置101の制御部23は、車両にかかわる他の制御に用いる電子制御ユニット(ECU:Electronic Control Unit)と兼用してもよい。
[本発明の処理動作の説明]
次に、上述のように構成された本実施形態に係る周囲物体判定装置101の処理手順を、図8、図9に示すフローチャートを参照して説明する。図8は、本実施形態に係る周囲物体判定装置101の処理手順を示すフローチャート、図9は、図8のステップS6に示す「複数の点群の対応付け処理」の詳細な処理手順を示すフローチャートである。
初めに、図8のステップS1において、測距点検出部11は、第1の測距センサ22a及び第2の測距センサ22bで検出された測距点のデータを取得し、更に、クラスタリング部12は、測距点検出部11で取得した複数の測距点をクラスタリングする。クラスタリングすることにより、自車両M1からほぼ等距離に存在する測距点の集合である点群が取得される。
ステップS2において、クラスタリング部12は、クラスタリングにより取得された点群の数を計測する。自車両M1の側方に存在する他車両M2を検出する場合には、自車両M1の側方の領域で取得された点群の数を計測する。例えば、図2に示した例では、第1のセンサ領域B1内において1つの点群Q1が取得され、第2のセンサ領域B2内において1つの点群Q2が取得されるので、クラスタリングにより取得された点群の数は「2」となる。
ステップS3において、クラスタリング部12は、点群の数が閾値(例えば、2個)以上であるか否かを判定する。点群の数が閾値以上である場合には(S3;YES)、ステップS4に処理を進める。即ち、カメラ21による撮像領域に含まれる第1のセンサ領域B1に第1の点群(Q1)が存在し、且つ、撮像領域に含まれる第2のセンサ領域B2に第2の点群が存在する場合には、ステップS4に処理を進める。一方、点群の数が閾値以上でない場合には(S3;NO)、ステップS8に処理を進める。なお、本実施形態では、一例として点群の数の閾値を2個に設定するが、本発明はこれに限定されるものではなく、3個以上としてもよい。
ステップS4において、カメラ21による周囲画像の撮像を開始する。カメラ21は、第1のセンサ領域B1、第2のセンサ領域B2を含む自車両M1の側方の画像を撮像する。即ち、カメラ21の撮像領域に含まれる第1のセンサ領域B1に、第1の点群(Q1)が存在し、且つ、撮像領域に含まれる第2のセンサ領域B2に、第2の点群(Q2)が存在する場合には、カメラ21で自車両M1の周囲を撮像して画像を取得する。また、周囲物体認識部13は、カメラ21で撮像された画像を取得する。
ステップS5において、周囲物体認識部13は、カメラ21で撮像された画像から自車両M1の周囲に物体(第3の物体)が存在するか否かを判定する。上述したように、周囲物体認識部13は、テンプレートマッチング法などを用いて、画像に含まれる物体の形状、輪郭を検出する。更に、テンプレートマッチング法などを用いて、他車両、2輪車、歩行者などの物体の種別を検出する。周囲物体が存在しない場合には(S5;NO)、ステップS8に処理を進め、周囲物体が存在する場合には(S5;YES)、ステップS6に処理を進める。
ステップS6において、制御部23は、複数の点群の対応付け処理を実施する。以下、図9に示すフローチャートを参照して、複数の点群の対応付け処理について詳細に説明する。
初めに、ステップS601において、対応付け処理部14は、クラスタリングにより取得された複数の点群を、カメラ21の座標系のデータに変換する。対応付け処理部14は、自車両M1に設置した、カメラ21、測距センサ22の設置位置の座標データに基づき、クラスタリングした点群の位置データを、カメラ21の座標系に変換する。
ステップS602において、周囲物体認識部13は、図4に示したように、カメラ21で撮像した周囲画像D1に、他車両M2を囲む識別領域Pを設定する。即ち、周囲物体認識部13は、周囲画像D1から自車両M1の周囲に存在する物体(第3の物体)を認識して、第3の物体が存在する領域である識別領域Pを設定する。
ステップS603において、対応付け処理部14は、点群が識別領域P内に含まれるか否かを判定する。前述したように、点群を構成する領域の所定の割合(例えば、80%)が識別領域P内に存在する場合には(S603;YES)、ステップS604において、対応付け処理部14は、この点群は識別領域P内に含まれるものと判定する。他方、点群を構成する領域の所定の割合が識別領域P内に存在しない場合には(S603;NO)、ステップS605において、対応付け処理部14は、この点群は識別領域P内に含まれないものと判定する。
ステップS606において、対応付け処理部14は、識別領域P内に複数の点群が存在するか否かを判定する。
識別領域P内に複数の点群が存在すると判定された場合には(S606;YES)、ステップS607において、対応付け処理部14は、複数の点群は同一物体により検出された測距点であるものと判定する。即ち、第1の点群(Q1)及び第2の点群(Q2)が、識別領域P内に含まれる場合には、第1の点群(Q1)が示す第1の物体及び第2の点群(Q2)が示す第2の物体は同一であると判定する。更に、対応付け処理部14は、カメラ21にて撮像された周囲画像内に存在する物体(第3の物体)と、上記の物体は同一の物体であると判定する。その後、図6に示すステップS7に処理を進める。
ステップS7において、物体算出部15は、複数の点群に基づいて、周囲物体の位置を算出する。前述した図6に示したように、点群Q1に存在する複数の測距点のうち、最も自車両に近い測距点q1と、点群Q2に存在する複数の測距点のうち、最も自車両に近い測距点q2を結ぶ直線L1を算出し、直線L1が他車両M2の側面のラインであるものと認識する。
直線L1を認識することにより、自車両M1と他車両M2との間の車幅方向の距離を認識できる。更に、前述したように、所定の車幅(例えば、2m)を設定することにより、他車両M2の直線L1とは反対側となる側面の位置を取得できる。
更に、図7に示したように、点群Q1に存在する複数の測距点のうち、最も前方に存在する測距点q3を他車両M2の前端とし、点群Q2に存在する複数の測距点のうち、最も後方に存在する測距点q4を他車両M2の後端とする。こうして、自車両M1の側方に存在する他車両M2の位置を高精度に認識できる。
[本実施形態の効果の説明]
以上説明したように、本実施形態に係る周囲物体判定装置101では、以下に示す効果を達成することができる。
(1)
第1の測距センサ22a(第1のセンサ)を用いて、自車両M1の周囲に存在する第1の物体の位置を示す第1の測距点を検出し、第2の測距センサ22b(第2のセンサ)を用いて、自車両M1の周囲に存在する第2の物体の位置を示す第2の測距点を検出する。
第1の測距点、及び第2の測距点の各々をクラスタリングして第1の点群(点群Q1)及び第2の点群(点群Q2)を生成する。カメラ21による撮像領域に含まれる第1のセンサ領域B1に、点群Q1が存在し、且つ、前記撮像領域に含まれる第2のセンサ領域B2に、点群Q2が存在する場合には、カメラ21で自車両M1の周囲を撮像して画像を取得する。
取得した画像から、自車両M1の周囲に存在する他車両M2(第3の物体)を認識して、他車両M2が存在する領域である識別領域Pを設定する。点群Q1及び点群Q2が、識別領域P内に含まれる場合には、点群Q1が示す第1の物体と、点群Q2が示す第2の物体は同一であると判定する。
従って、第1の測距センサ22a及び第2の測距センサ22bで共に物体を検出できないセンサ死角が存在し、同一物体で検出される測距点が分割された場合であっても、カメラ21で撮像した画像に基づいて、同一の物体であるものと認識することができる。
従って、自車両M1の周囲に、測距センサ22で物体を検出できないセンサ死角が存在する場合であっても、自車両M1の周囲に存在する1つの物体(例えば、他車両M2)を一つの物体として検出することが可能となる。
また、カメラ21にて撮像された画像を用いることにより、自車両から物体までの距離を検出することも可能であるが、画像を用いる場合にはレーダやライダーなどの測距センサ22を用いて距離を測定する場合と対比して距離の検出精度が低い。一方、測距センサ22で検出される測距点のデータでは、物体の形状を認識する精度が低い。本実施形態では、カメラ21で撮像した画像を用いて物体の形状、輪郭を認識し、測距センサ22を用いて自車両から物体までの距離を検出するので、周囲物体の形状、輪郭の認識精度、及び距離測定の精度の双方を高めることが可能になる。
(2)
クラスタリングにより取得した点群を構成する領域のうち、所定の割合以上(例えば、80%以上)が識別領域P内に存在する場合に、この点群は識別領域P内に含まれるものと判定するので、測距センサ22の検出精度のばらつきにより、センサ領域(図2に示すB1、B2)や測距点の検出位置にずれが生じた場合でも、高精度な物体検出が可能となる。
(3)
第1、第2の測距センサ22a、22bを用いて取得される測距点のデータに基づいてクラスタリングを行い、クラスタリングにより得られる点群が閾値(例えば、2個)以上である場合に、カメラ21による撮像を実施して、自車両の周囲画像を撮像する。従って、不要なときにカメラ21による撮像は実施されないので、制御部23の演算負荷を低減することが可能となり、演算処理の高速化を図ることが可能となる。
(4)
カメラ21で撮像した画像に周囲物体が存在する場合には、この周囲物体の輪郭を囲む領域を識別領域Pに設定するので、周囲物体と複数の点群との対応付けを高精度に実施することが可能となる。
(5)
図4に示したように、識別領域Pを矩形状にすることにより、識別領域Pの設定処理を簡便に行うことができ、演算負荷を軽減することができる。
(6)
測距センサとして、レーダ、或いはライダーを用いるので、3次元の測距点のデータを高精度に取得でき、周囲物体の位置をより高精度に検出することが可能となる。
なお、本実施形態では、図1に示した周囲物体判定装置101を自車両に搭載する例について説明したが、周囲物体判定装置101が有する制御部23を遠隔地に配置し、必要な信号やデータを通信回線を介して送受信して、周囲物体を判定してもよい。
以上、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
11 測距点検出部
12 クラスタリング部
13 周囲物体認識部
14 対応付け処理部
15 物体算出部
21 カメラ
22 測距センサ
22a 第1の測距センサ
22b 第2の測距センサ
23 制御部
31 GPS受信機
32 車速センサ
33 加速度センサ
34 ジャイロセンサ
101 周囲物体判定装置
102 車両センサ
103 車両制御装置
B1 第1のセンサ領域
B2 第2のセンサ領域
B3、B4 センサ死角
D1、D2、D3 周囲画像
M1 自車両
M2 他車両
P 識別領域

Claims (7)

  1. 自車両に設置されたカメラと、前記自車両の異なる箇所に設置された、前記自車両の周囲に存在する物体までの距離を測定する少なくとも2つのセンサである第1のセンサ及び第2のセンサであって、前記距離の測定精度が前記カメラを用いて測定する前記距離の測定精度よりも高い前記第1のセンサ及び前記第2のセンサとを用いて、前記物体を判定する周囲物体判定方法であって、
    前記第1のセンサが前記物体を検出可能な第1のセンサ領域と前記第2のセンサが前記物体を検出可能な第2のセンサ領域との間に、前記第1のセンサ及び前記第2のセンサの何れも前記物体を検出できないセンサ死角が存在し、
    前記カメラが撮像する撮像領域は、前記第1のセンサ領域の少なくとも一部、前記センサ死角、及び前記第2のセンサ領域の少なくとも一部を含み、
    前記第1のセンサを用いて、前記自車両の周囲に存在する第1の物体の位置を示す第1の測距点を検出し、
    前記第2のセンサを用いて、前記自車両の周囲に存在する第2の物体の位置を示す第2の測距点を検出し、
    検出した前記第1の測距点及び前記第2の測距点の各々をクラスタリングして第1の点群及び第2の点群を生成し、
    前記撮像領域に含まれる前記第1のセンサ領域に、前記第1の点群が存在し、且つ、前記撮像領域に含まれる前記第2のセンサ領域に、前記第2の点群が存在する場合には、前記カメラで前記自車両の周囲を撮像して画像を取得し、
    前記画像から前記自車両の周囲に存在する第3の物体を認識して、前記第3の物体が存在する領域である識別領域を設定し、
    前記第1の点群及び前記第2の点群が、前記識別領域内に含まれる場合には、前記第1の点群が示す前記第1の物体及び前記第2の点群が示す前記第2の物体は同一であると判定すること
    を特徴とする周囲物体判定方法。
  2. 前記第1の点群をなす領域のうち所定の割合以上の領域が前記識別領域内に存在する場合に、前記第1の点群は、前記識別領域内に含まれると判定し、
    前記第2の点群をなす領域のうち前記所定の割合以上の領域が前記識別領域内に存在する場合に、前記第2の点群は、前記識別領域内に含まれると判定すること
    を特徴とする請求項1に記載の周囲物体判定方法。
  3. 前記撮像領域内に、前記第1の点群、及び前記第2の点群が存在する場合に限って、前記カメラで前記自車両の周囲を撮像すること
    を特徴とする請求項1または2に記載の周囲物体判定方法。
  4. 前記識別領域は、前記第3の物体の輪郭を含む領域であること
    を特徴とする請求項1〜3のいずれか1項に記載の周囲物体判定方法。
  5. 前記識別領域は矩形状であること
    を特徴とする請求項4に記載の周囲物体判定方法。
  6. 前記第1のセンサ及び前記第2のセンサは、レーダ、及びライダーの少なくとも一つであること
    を特徴とする請求項1〜5のいずれか1項に記載の周囲物体判定方法。
  7. 自車両に設置されたカメラと、
    前記自車両の異なる箇所に設置された、前記自車両の周囲に存在する物体までの距離を測定する少なくとも2つのセンサである第1のセンサ及び第2のセンサであって、前記距離の測定精度が前記カメラを用いて測定する前記距離の測定精度よりも高い前記第1のセンサ及び前記第2のセンサと、
    コントローラと、
    を備える周囲物体判定装置であって、
    前記第1のセンサが前記物体を検出可能な第1のセンサ領域と前記第2のセンサが前記物体を検出可能な第2のセンサ領域との間に、前記第1のセンサ及び前記第2のセンサの何れも前記物体を検出できないセンサ死角が存在し、
    前記カメラが撮像する撮像領域は、前記第1のセンサ領域の少なくとも一部、前記センサ死角、及び前記第2のセンサ領域の少なくとも一部を含み、
    前記コントローラは、
    前記第1のセンサを用いて、前記自車両の周囲に存在する第1の物体の位置を示す第1の測距点を検出し、
    前記第2のセンサを用いて、前記自車両の周囲に存在する第2の物体の位置を示す第2の測距点を検出し、
    検出した前記第1の測距点及び前記第2の測距点の各々をクラスタリングして第1の点群及び第2の点群を生成し、
    前記撮像領域に含まれる前記第1のセンサ領域に、前記第1の点群が存在し、且つ、前記撮像領域に含まれる前記第2のセンサ領域に、前記第2の点群が存在する場合には、前記カメラで前記自車両の周囲を撮像して画像を取得し、
    前記画像から前記自車両の周囲に存在する第3の物体を認識して、前記第3の物体が存在する領域である識別領域を設定し、
    前記第1の点群及び前記第2の点群が、前記識別領域内に含まれる場合には、前記第1の点群が示す前記第1の物体及び前記第2の点群が示す前記第2の物体は同一であると判定する
    ことを特徴とする周囲物体判定装置。
JP2018170230A 2018-09-12 2018-09-12 周囲物体判定方法及び周囲物体判定装置 Active JP6980623B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018170230A JP6980623B2 (ja) 2018-09-12 2018-09-12 周囲物体判定方法及び周囲物体判定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170230A JP6980623B2 (ja) 2018-09-12 2018-09-12 周囲物体判定方法及び周囲物体判定装置

Publications (2)

Publication Number Publication Date
JP2020041933A JP2020041933A (ja) 2020-03-19
JP6980623B2 true JP6980623B2 (ja) 2021-12-15

Family

ID=69799369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170230A Active JP6980623B2 (ja) 2018-09-12 2018-09-12 周囲物体判定方法及び周囲物体判定装置

Country Status (1)

Country Link
JP (1) JP6980623B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7570222B2 (ja) 2020-12-18 2024-10-21 マツダ株式会社 物体認識装置および物体認識方法
JP2024017303A (ja) * 2022-07-27 2024-02-08 株式会社ジャパンディスプレイ 表示装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223900A1 (de) * 2014-11-24 2016-05-25 Conti Temic Microelectronic Gmbh Fahrzeug-Umfeld-Abtastung mittels eines phasengesteuerten Lasers
JP2016120892A (ja) * 2014-12-25 2016-07-07 富士通株式会社 立体物検出装置、立体物検出方法および立体物検出プログラム
WO2018105136A1 (ja) * 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
JP6313355B2 (ja) * 2016-03-31 2018-04-18 株式会社Subaru 車両周囲監視装置
US11623558B2 (en) * 2016-09-15 2023-04-11 Koito Manufacturing Co., Ltd. Sensor system

Also Published As

Publication number Publication date
JP2020041933A (ja) 2020-03-19

Similar Documents

Publication Publication Date Title
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
EP3057063B1 (en) Object detection device and vehicle using same
US9151626B1 (en) Vehicle position estimation system
US9863775B2 (en) Vehicle localization system
JP6747269B2 (ja) 物体認識装置
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
RU151809U1 (ru) Видеосистема для обеспечения безопасности транспортных средств
CN101910781A (zh) 移动状态推测装置
US20210387616A1 (en) In-vehicle sensor system
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
JP2008219063A (ja) 車両周辺監視装置及び方法
WO2005086078A1 (en) Method and apparatus for classifying an object
CN112130158B (zh) 对象距离测量装置和方法
JP6980623B2 (ja) 周囲物体判定方法及び周囲物体判定装置
JP4956099B2 (ja) 壁検出装置
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
WO2021172535A1 (ja) 物体検知装置
Kotur et al. Camera and LiDAR sensor fusion for 3d object tracking in a collision avoidance system
JP3586938B2 (ja) 車載用距離測定装置
US20220237899A1 (en) Outside environment recognition device
WO2021094799A1 (ja) 信号機認識方法及び信号機認識装置
EP3540643A1 (en) Image processing apparatus and image processing method
JP2002183719A (ja) 車両用周囲検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211117

R150 Certificate of patent or registration of utility model

Ref document number: 6980623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150