JP6552678B1 - 物体認識装置および物体認識方法 - Google Patents

物体認識装置および物体認識方法 Download PDF

Info

Publication number
JP6552678B1
JP6552678B1 JP2018092752A JP2018092752A JP6552678B1 JP 6552678 B1 JP6552678 B1 JP 6552678B1 JP 2018092752 A JP2018092752 A JP 2018092752A JP 2018092752 A JP2018092752 A JP 2018092752A JP 6552678 B1 JP6552678 B1 JP 6552678B1
Authority
JP
Japan
Prior art keywords
vehicle
map
unit
occupancy
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018092752A
Other languages
English (en)
Other versions
JP2019200049A (ja
Inventor
浩史 山田
浩史 山田
陽平 明石
陽平 明石
貴久 青柳
貴久 青柳
政隆 四郎園
政隆 四郎園
健太 勝
健太 勝
松村 千春
千春 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2018092752A priority Critical patent/JP6552678B1/ja
Application granted granted Critical
Publication of JP6552678B1 publication Critical patent/JP6552678B1/ja
Publication of JP2019200049A publication Critical patent/JP2019200049A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】距離センサにより検出される物体位置よりも高い精度で物体位置を認識できる物体認識装置を提供する。【解決手段】自車データに基づいて、自車位置を推定する自車位置推定部と、距離センサで検出された自車の周辺の物体までの距離および自車位置に基づいて物体位置を検出する物体位置検出部と、物体までの距離、自車位置および物体位置に基づいて、物体の周辺に仮想空間を設定し、該仮想空間を区分した区画地図を生成する地図生成部と、区画地図、物体位置および自車位置に基づいて、自車と物体との境界を検出する境界検出部と、境界および物体位置に基づいて、物体の近似直線を生成する近似直線生成部と、近似直線に基づいて、物体位置の再検出を行って物体位置を認識する物体認識部と、を備えている。【選択図】図1

Description

本発明は物体認識装置に関し、特に車両に搭載された距離センサを用いて検出対象である物体の反射点位置を推定することで物体を認識する物体認識装置に関する。
従来の物体認識装置の一例としては、特許文献1に開示される駐車支援装置のように、距離センサから照射した検出波が物体上で反射する際の反射点位置を推定して、自車の駐車スペース情報を推定し、推定結果に基づいて駐車支援を行う技術が知られている。
このような従来の駐車支援装置の具体的な構成および動作は以下の通りである。すなわち、距離センサが、検出対象である物体に検出波を照射し、当該物体までの最短距離に相当する物体上の反射点位置で反射した検出波を取得することで、物体までの距離データを検出する。
車両情報センサが、自車の速度および進行方向に関する状態を自車データとして検出する。そして、距離センサおよび車両情報センサによる時系列の検出結果に基づいて、動作モードが探索モードの場合には自車が駐車可能な駐車スペースの推定処理を行い、動作モードが誘導モードの場合には自車を駐車スペース内に駐車させるための誘導支援処理を行う。
具体的には、反射点推定部が、距離センサおよび車両情報センサによる時系列の検出結果に基づいて、物体の反射点位置を時系列で推定する。駐車スペース推定部が、反射点推定部によって時系列で推定された反射点位置を用いて、物体の位置を特定する物体情報を推定する。そして推定した物体情報を用いて自車が駐車可能な駐車スペースを特定する駐車スペース情報を推定する。車両制御部が、駐車スペース推定部によって推定された駐車スペース情報に従って自車を駐車スペースに駐車させるための駐車支援を行う。なお、反射部位推定部は、駐車スペース推定部によって推定された物体情報と、自車の現在位置とから、車両制御部によって駐車支援が行われている間に、距離センサによって検出される物体の部位を時系列で推定する。
次に、反射点推定部における処理を説明する。現在時刻における距離センサの位置を中心として、現在時刻において距離センサで検出された距離データによって規定される距離センサの検出範囲に対応する円弧を第1円弧とする。そして、現在時刻よりも前の過去時刻における距離センサの位置を中心として、過去時刻において距離センサで検出された距離データによって規定される距離センサの検出範囲に対応する円弧を第2円弧とする。
このような場合において、特許文献1の図5に示すように、第1円弧および第2円弧の交点を反射点位置とする手法を2円交点処理と定義する。また、特許文献1の図5に示すように、第1円弧および第2円弧の共通接線を引き、共通接線に接する第1円弧上の接点を反射点位置とする手法を2円接線処理と定義する。
反射点推定部は、動作モードが探索モードの場合、2円交点処理および2円接線処理の少なくとも一方を用いて、反射点位置を時系列で推定する。一方、反射点推定部は、動作モードが誘導モードの場合には、車両制御部によって駐車支援が行われている間に、反射部位推定部によって時系列で推定された距離センサにより、検出される物体の部位に応じて、物体の部位が点形状部分である場合には、2円交点処理を用い、物体の部位が面形状部分である場合には、2円接線処理を用いて反射点位置を時系列で新たに推定する。
特許第5843948号公報
以上説明したように、従来の物体認識装置は、動作モードが車両誘導時の誘導モードの場合、2円交点処理を用いて車両の反射点位置を推定して、駐車スペースを修正している。その際、従来の物体認識装置では、車両の移動前後で実際の反射点位置が変わらないと仮定している。しかし、車両の車速が速くなると、実際の反射点位置が変わることにより、2つの円弧の間隔が広がる。このため、2つの円弧の交点が実際の反射点位置から遠ざかる可能性がある。このため、物体の反射点位置を精度良く推定することができないと言う問題があった。
本発明は上記のような問題を解決するためになされたものであり、距離センサにより検出される物体位置よりも高い精度で物体位置を認識できる物体認識装置を提供することを目的とする。
本発明に係る物体認識装置は、自車データに基づいて、自車位置を推定する自車位置推定部と、距離センサで検出された自車の周辺の物体までの距離および前記自車位置推定部で推定された前記自車位置に基づいて物体位置を検出する物体位置検出部と、前記距離センサで検出された前記距離、前記自車位置推定部で推定された前記自車位置および前記物体位置検出部で検出された前記物体位置に基づいて、前記物体の周辺に仮想空間を設定し、該仮想空間を区分した区画地図を生成する地図生成部と、前記地図生成部で生成された前記区画地図、前記物体位置検出部で検出された前記物体位置、前記自車位置推定部で推定された前記自車位置に基づいて、前記自車と前記物体との境界を検出する境界検出部と、前記境界検出部で検出された前記境界および前記物体位置検出部で検出された前記物体位置に基づいて、前記物体の近似直線を生成する近似直線生成部と、前記近似直線生成部で生成された前記近似直線に基づいて、前記物体位置検出部で検出された前記物体位置の再検出を行って物体位置を認識する物体認識部と、を備えている。
本発明に係る物体認識装置によれば、物体位置の認識精度を向上させることができる。
本発明に係る実施の形態の物体認識装置の構成を示す機能ブロック図である。 本発明に係る実施の形態の物体認識装置における物体位置の検出方法を説明する図である。 本発明に係る実施の形態の物体認識装置の全体動作を示すフローチャートである。 地図生成部の構成を示す機能ブロック図である。 センサモデルの設定方法を説明する図である。 占有度算出格子の決定方法を説明する図である。 占有度算出格子の決定方法を説明する図である。 占有度算出格子の決定方法を説明する図である。 格子座標がセンサモデルのどの領域に属しているかの判定を説明する図である。 地図生成部の動作を示すフローチャートである。 占有度算出格子の占有度を算出する動作を示すフローチャートである。 境界検出部の構成を示す機能ブロック図である。 境界生成格子地図の決定方法を説明する図である。 境界生成格子地図の決定方法を説明する図である。 境界生成格子地図の決定方法を説明する図である。 境界面決定部において境界面を決定する方法を説明する図である。 境界面決定部において境界面を決定する方法を説明する図である。 境界検出部の動作を示すフローチャートである。 近似直線生成部の構成を示す機能ブロック図である。 近似直線生成領域に基づいて近似直線を算出する方法を説明する示す図である。 近似直線生成領域に基づいて近似直線を算出する方法を説明する示す図である。 近似直線生成部の動作を示すフローチャートである。 境界面が2つに分割できない場合を説明する図である。 境界面が2つに分割できず、1本分の近似直線しか得られない場合を説明する図である。 1本の近似直線から物体位置を再検出する例を示す図である。 2本の近似直線から物体位置を再検出する例を示す図である。 本発明に係る実施の形態の物体認識装置を実現するハードウェア構成を示す図である。 本発明に係る実施の形態の物体認識装置を実現するハードウェア構成を示す図である。
以下、本発明に係る物体認識装置の実施の形態について説明する。なお、図面の説明においては、同一部分または相当部分には同一符号を付し、重複する説明を省略する。
<実施の形態>
<装置構成>
図1は、本発明に係る実施の形態の物体認識装置100の構成を示す機能ブロック図である。図1に示すように物体認識装置100は、距離センサ1(センサ)および車両情報検出センサ2のそれぞれから出力される距離データおよび自車データに基づいて、検出対象である物体を認識する。物体認識装置100は、自車位置推定部3(第2の検知部)、物体位置検出部4(第1の検知部)、車両状態検出部5、地図生成部6(地図生成部)、境界検出部7(境界検出部)、近似直線生成部8(近似直線生成部)および物体認識部9(物体認識部)を備えている。
距離センサ1は、検出対象である物体に検出波を照射し、物体までの最短距離に相当する物体上の反射点位置で反射した検出波を取得することで、物体までの距離データを検出する。例えば、距離センサ1として超音波センサを用いる場合、検出対象である物体に超音波を照射し、この物体から反射した超音波を受信し、照射した超音波との時間差に基づいて信号処理を行い、物体までの距離を距離データとして検出する。なお、この場合、距離センサ1によって得られるのは物体までの距離のみであり、物体の方向が検出できなくても構わない。また、距離センサ1は予め設定された周期で、距離データの検出を行う。車両には複数の距離センサ1を搭載することが可能であるが、本実施の形態では、複数の距離センサ1のそれぞれの処理が同じものであるとして、1個の距離センサ1について説明する。
距離センサ1は、検出した距離データを物体位置検出部4、地図生成部6に出力する。また、距離センサ1によって検出された距離データは、この距離データが検出された時刻と関連付けられて図示されない記憶部に記憶される。
ここで、距離センサ1の自車への搭載位置と、距離センサ1のセンサ方位情報と、距離センサ1の最大検知距離は、既知であるものとする。センサ方位情報には、距離センサ1の取り付け方位およびセンサ視野角が含まれる。また、距離センサ1のセンサ視野角は、センサの検出可能な方位幅に相当する。距離センサ1の自車への搭載位置と、距離センサ1のセンサ方位情報と、距離センサ1の最大検知距離をあわせて既知センサ情報と呼称する。
なお、距離センサ1としては、超音波の代わりに電磁波などの検出波を用いて物体までの距離を距離データとして検出するタイプのセンサを用いても良い。具体的には、検出波として、超音波の他に、ミリ波レーダ、レーザレーダ、赤外線等を用いたセンサを用いることができる。また、距離センサ1の検出対象である物体として、例えば、駐車車両が挙げられる。本実施の形態では、具体例として、距離センサ1の検出対象である物体が駐車車両であるものとする。さらに、距離センサ1の搭載位置は任意に設定することができるが、自車の左前方、右前方、左後方および右後方にそれぞれ、距離センサを搭載することが望ましい。
車両情報検出センサ2は、一般的に車両に搭載されたセンサであり、自車の速度および進行方向に関する状態を自車データとして検出する。具体的には、自車の速度、車輪速、ステアリング角およびヨーレートなど、自車の速度および進行方向に関する状態を自車データとして検出する。また、車両情報検出センサ2は、予め設定された周期で、自車データを検出する。
車両情報検出センサ2は、検出した自車データを自車位置推定部3に出力する。また、車両情報検出センサ2によって検出された自車データは、この自車データが検出された時刻と関連付けられて図示されない記憶部に記憶される。また、車両の車幅方向の長さおよび、車長方向の長さは既知であり、既知車両情報として記憶部に記憶されている。
なお、GPS(Global Positioning System)を用いて、自車の緯度、経度および進行方向を、自車データとして検出するように、車両情報検出センサ2を構成しても良い。
自車位置推定部3は、車両情報検出センサ2から入力された自車データに基づいて、自車の位置および自車の姿勢角を自車位置として推定し、この自車位置を物体位置検出部4、車両状態検出部5、地図生成部6および境界検出部7に出力する。
自車の位置と姿勢角を算出するには、様々な方法が考えられるが、一例として、車両情報検出センサ2から出力されるヨーレートと車輪速を用いる方法を説明する。
自車の姿勢角は、距離センサ1からの距離データ取得開始時の自車位置と自車姿勢角を基準軸とし、車両情報検出センサ2での自車データの検出ごとに、相対的な自車位置座標と自車の姿勢角を演算する。
自車の位置座標は、車両情報検出センサ2から出力された車輪速から得られる時間ごとの移動距離と、車両情報検出センサ2から出力されたヨーレートから得られる時間ごとのヨー角に基づいて、時間ごとの移動位置を演算し、移動位置を基準軸の自車位置に足し合わせることで求める。また、自車の姿勢角については、車両情報検出センサ2から出力されたヨーレートから得られる時間ごとのヨー角を、基準軸の時点から足し合わせることで求める。なお、本実施の形態では、後輪車軸上の車幅方向中心の位置に基準軸の原点を設定して説明するが、どのような位置に基準軸を設定しても、本実施の形態には影響しない。また、自車位置推定部3で推定される自車位置は、自車データが検出された時刻と関連付けられて図示されない記憶部に記憶される。
物体位置検出部4は、距離センサ1で検出された距離データおよび自車位置推定部3で検出された自車位置に基づいて自車の周辺の物体を検知して、物体位置情報として車両状態検出部5、地図生成部6、境界検出部7、近似直線生成部8および物体認識部9に出力する。また、物体位置情報は、検出された時刻と関連付けられて図示されない記憶部に記憶される。
なお、物体位置検出部4は、記憶部に物体位置が何も記憶されていない場合は物体位置が未検出であると判定し、記憶部に物体位置が記憶されている場合は物体位置が検出済みであると判定する。また、物体位置検出部4は、物体位置が検出済みである場合は、記憶部に記憶されている物体位置を読み出して出力する。
物体位置検出部4による物体位置の具体的な検出方法としては、距離センサ1から出力された超音波などの反射波が物体上で反射した反射点位置を推定して物体位置とする方法などが挙げられる。
ここで、物体の反射点位置の推定方法の一例である、2円交点処理について図2を用いて説明する。図2に示すように、駐車車両PVに対して、自車の移動に伴い、距離センサの位置が矢印ARで示すように移動する場合を考える。なお、図2においては、矢印ARの点A1が現在時刻tでの距離センサの位置であり、矢印ARの点A0が過去の時刻t−Δtでの距離センサの位置である。
この場合、現在時刻tにおいて、駐車車両の反射点位置P(t)は、距離センサ位置を中心とし、時刻tに距離センサによって検出された距離データr(t)を半径とする円周状のどこかに存在することになる。また、このような円周において、距離センサの既知センサ情報に含まれるセンサ方位およびセンサ視野角によって規定される方位範囲から、反射点位置P(t)の存在範囲を円弧A(t)で表すことが可能である。時刻tと同様に、時刻tよりも過去の時刻t−Δtの駐車車両の反射点位置P(t-Δt)の存在範囲も円弧A(t-Δt)で表すことが可能である。ここで、駐車車両の反射点位置が時刻tと時刻t−Δtとでほぼ同一であると仮定することで、円弧A(t)と円弧A(t-Δt)との交点を、時刻tの反射点位置P(t)と推定することが可能となる。
車両状態検出部5は、自車位置推定部3から出力される自車位置と物体位置検出部4から出力される物体位置情報に基づいて、物体位置認識処理要求を出力する。具体的には、物体位置検出部4において物体位置が出力され、自車位置推定部3から出力される自車位置と、物体位置との距離が所定の閾値以下となった場合に、物体位置認識処理要求を出力する。
地図生成部6は、距離センサ1により検出された距離データと自車位置推定部3から出力される自車位置と物体位置検出部4から出力される物体位置情報と車両状態検出部5から出力される物体位置認識処理要求に基づいて、物体の周辺に仮想空間を設定し、当該仮想空間を区分した地図を生成する。
境界検出部7は、地図生成部6から出力される地図、物体位置検出部4から出力される物体位置情報、自車位置推定部3から推定される自車位置に基づいて、自車と物体との境界を検出し、境界情報として出力する。
近似直線生成部8は、境界検出部7から出力される境界情報、物体位置検出部4から出力される物体位置情報に基づいて、物体の近似直線を生成する。
物体認識部9は、近似直線生成部8から出力される近似直線情報と物体位置検出部4から出力される物体位置情報に基づいて、物体位置検出部4で検出された物体位置情報を、再検知することで、物体位置を認識する。
<全体動作>
次に、図3に示すフローチャートを用いて、物体認識装置100の全体動作を説明する。図3の各ステップと、図1の各機能ブロックとの関係は以下の通りである。ステップS1は距離センサ1が行う動作であり、ステップS2は車両情報検出センサ2が行う動作であり、ステップS3は自車位置推定部3が行う動作であり、ステップS4およびS5は物体位置検出部4が行う動作であり、ステップS6は車両状態検出部5が行う動作であり、ステップS7は地図生成部6が行う動作であり、ステップS8は境界検出部7が行う動作であり、ステップS9は近似直線生成部8が行う動作であり、ステップS10およびS11は物体認識部9が行う動作である。
次に、図3の各ステップの動作を説明する。ステップS1では、検出対象である物体に検出波を照射し、その反射波を取得することで、自車と物体との距離データを検知する。
ステップS2では、自車の速度および進行方向の自車に関する状態を検知し、自車データとして取得する。
ステップS3では、ステップS2で取得した自車データに基づいて、自車位置を推定する。
ステップS4では、自車位置と検知した距離データに基づいて自車周辺の物体位置を検出したかどうかを判定し、物体位置が検出済みである場合(Yes)は、ステップS6に移行し、物体位置が未検出である場合(No)は、ステップS5に移行し、自車位置と検知した距離データに基づいて、自車周辺の物体を検出して、物体位置情報を取得し、ステップS1〜S3の処理を繰り返す。
ステップS6では、物体位置および自車位置に基づいて、自車と物体との距離が所定の閾値以下である場合(Yes)は、物体位置認識処理要求を出力し、ステップS7に移行する。一方、自車と物体との距離が所定の閾値を超えている場合(No)は、物体までの距離が遠すぎるとして物体位置認識処理要求を出力せず、ステップS1〜S4の処理を繰り返す。
ステップS7では、距離データ、自車位置および物体位置に基づいて、物体の周辺に仮想空間を設定し、当該仮想空間を区分した地図の生成処理を行う。
ステップS8では、地図、物体位置および自車位置に基づいて、自車と物体との境界の検出処理を行う。
ステップS9では、境界、物体の位置に基づいて、物体の近似直線の生成処理を行い、ステップS10では、近似直線および物体位置に基づいて、物体の位置の再検出を行うことで、物体位置を認識する。
ステップS11は、物体位置が認識済みか否かを判定し、物体位置が認識済みである場合(Yes)は、物体認識を終了し、未認識である場合(No)は、ステップS1〜ステップS10の処理を繰り返す。
<地図生成処理>
次に、地図生成部6における地図生成処理について説明する。図4は、地図生成部6の構成を示す機能ブロック図である。図4に示されるように地図生成部6は、センサモデル算出部11(センサモデル算出部)、地図記憶部12(地図記憶部)、占有度算出格子決定部13(占有度算出区画決定部)、占有度算出部14(占有度算出部)および地図更新部15(地図更新部)を備えている。
本実施の形態において、地図生成部6では、物体位置検出部4から出力される物体位置の周辺に仮想空間を設定し、当該仮想空間を格子状に区分して地図を生成する。以降、格子状に区分された地図を格子地図(区画地図)と呼称する。格子地図には少なくとも1つの格子が存在し、格子地図の各格子には、予め定められた占有度が与えられている。占有度はその格子が物体で占有されているか否かの尺度を表す値であり、0以上1以下の値で規定される。なお、上記では仮想空間を格子状に区分して地図を生成するものとして説明したが、仮想空間の区分は格子状に限定されるものではなく、三角形、五角形、六角形などの多角形の区画としても良く、仮想空間を効率的に区分できるのであればどのような形状でも良い。
次に、図4の各機能ブロックの動作を説明する。センサモデル算出部11は、距離センサ1により検知される距離データと、既知のセンサ情報と、自車位置推定部3から出力される自車位置に基づいて、現在位置におけるセンサの検知範囲を算出し、センサモデルとして出力する。
センサモデルの一例を図5に示す。図5においては、菱形のセンサモデルSMを示しており、検出波の発生位置を原点OPとし、最大検知距離をmaxDistとして表し、最大照射幅となる距離を最大照射範囲距離maxAngDistとして表し、距離rにおける照射範囲をθ(r)として示している。なお、距離センサ1の検知範囲θについては、図5のように、最大照射範囲距離maxAngDistにおいて検知範囲が最大照射範囲θmaxの半値幅θmaxHalfBeamWidthを取るように定め、最大照射範囲距離maxAngDist以上の距離では、以下の数式(1)に示すように照射範囲を狭くするように定めても良い。
Figure 0006552678
上記数式(1)は、距離センサ1の検知範囲θを規定しており、ここでは、センサモデルのセンサ方位に対する対称性を考え、数式(1)には照射範囲上限θmax(r)のみを示している。
なお、上記数式(1)においてmin(1.0,1.0−(r−maxAngDist)/(maxDist−maxAngDist))は、1.0と1.0−(r−maxAngDist)/(maxDist−maxAngDist)のうち小さい方を意味し、その小さい方にHalfBeamWidthを乗ずることで最大照射範囲距離maxAngDist以上の距離での照射範囲を制限している。
地図記憶部12は、物体位置検出部4から出力される物体位置情報および地図更新部15において現在時刻tより過去の時刻t−Δtに更新された初期地図に基づいて、物体位置検出部4で検出された物体位置の周辺に格子状で区分された格子地図を生成する。具体的には、地図記憶部12に時刻t−Δtで更新された初期地図が記憶されているかを確認し、地図が記憶されていない場合は、物体位置検出部4で検出した現在時刻tでの物体位置に基づいて、所定の大きさを持った格子地図を作成し、初期地図として地図記憶部12に記憶させると共に、作成した初期地図を出力する。一方、時刻t−Δtで更新された初期地図が記憶されている場合は、記憶されている初期地図を読み出して出力する。
占有度算出格子決定部13は、地図記憶部12から出力される初期地図とセンサモデル算出部11から出力される距離センサ1の検知範囲に基づいて、初期地図の占有度を算出するための格子を決定し、占有度算出格子として出力する。具体的には、図6に示されるように、距離センサ1の検知範囲と初期地図LMとの共通領域を抽出し、共通領域に含まれる初期地図内の格子を占有度算出格子OCLとする。なお、初期地図と格子地図とは基本的には同じ意味であり、地図記憶部12に記憶された格子地図を初期地図と呼称する。
ここで、図6は、現在時刻tにおける自車OVと駐車車両PVとの位置関係を示しており、自車OVが駐車車両PVの左側に並列した状態を示している。また、自車OVの右後方、右後部側面および右前部側面の距離センサが駐車車両PVを検知しており、それぞれのセンサモデルSMと初期地図LMとの共通領域には、ハッチングを施している。なお、初期地図内の格子によっては、一部分のみがセンサモデルSMとの共通部分となっている格子もあるが、一部分でも共通部分があれば、その格子は占有度算出格子OCLとする。
なお、図6は、現在時刻tにおける自車OVと駐車車両PVとの位置関係を示したが、図7には時刻t−2Δtにおける自車OVと駐車車両PVとの位置関係を示し、その場合の占有度算出格子OCLを示している。また、図8には時刻t−Δtにおける自車OVと駐車車両PVとの位置関係を示し、その場合の占有度算出格子OCLを示している。図7および図8は、駐車車両PVに対して自車OVが後退しながら、駐車車両PVの左側に、並列するように移動する状態を表している。
図7に示す時刻t−2Δtにおける占有度算出格子OCLは、自車OVと駐車車両PVとの距離が離れており、自車OVの右後方および右後部側面の距離センサが駐車車両PVを検知しているが、右後部側面の距離センサのセンサモデルSMと初期地図LMとの共通部分は一部だけであり、占有度算出格子OCLの個数は少ないが、図8に示す時刻t−Δtにおいては、右後部側面の距離センサのセンサモデルSMと初期地図LMとの共通部分は、センサモデルSMのほぼ全体となり、占有度算出格子OCLの個数は、時刻t−2Δtの場合よりも増え、図6に示す時刻tにおいては、自車OVの右前部側面の距離センサが駐車車両PVを検知し、占有度算出格子OCLの個数はさらに増えることとなる。
このように、自車OVが初期地図LMの周辺を移動している場合には、距離センサ1の検知周期ごとに占有度が算出され、占有度算出格子OCLの個数が増えることとなる。
なお、図6〜図8においては、駐車車両PV全体を含むように仮想空間を設定し、格子状に区分した初期地図LMを示したが、認識を行いたい物体位置の周辺に仮想空間を設定できていれば問題なく物体認識を行うことができるので、必ずしも駐車車両PV全体を含むような仮想空間を設定する必要はない。物体位置検出部4から出力される物体位置を中心として、所定の車幅方向の大きさおよび、車長方向の大きさを持った仮想空間を設定し、初期地図を生成すれば良い。
占有度算出部14は、距離センサ1で検知された距離データと占有度算出格子決定部13から出力された占有度算出格子OCLと地図記憶部12から出力された初期地図LMに基づいて、占有度算出格子OCLの占有度を算出し、格子占有度(区画占有度)として出力する。
一例として、各格子が占有されているか否かを確率変数とし、その占有確率密度関数p(m|z1:t)を計算することで、計算結果を格子の占有度とする方法を示す。ただし、mはi番目のインデックスの占有度算出格子とし、z1:tは時刻tまでの距離センサ1による検知距離とする。
まず、占有確率密度関数p(m|z1:t)は、オッズ比の自然対数を取った値である時刻tでの対数オッズlt、iを用いることで、以下の数式(2)および(3)のように表現することが可能である。
Figure 0006552678
Figure 0006552678
ここで、占有確率密度関数p(m|z1:t)は、対数オッズlt、iで表現することにより、0から1で表現される確率を−∞から∞で表現できるようになり、小数点以下の桁落ちを防ぐことが可能となる。また、対数オッズlt、iで表現された占有確率密度関数p(m|z1:t)は、以下の数式(4)で示すベイズの定理を用いることで、数式(5)の漸化式で表現することが可能となる。
Figure 0006552678
ここで、P(X)は事象Xが起きる確率、P(Y)は事象Yが起きる確率、P(X|Y)は事象Yが起きたという条件のもとでの事象Xが起きる確率、P(Y|X)は事象Xが起きたという条件のもとでの事象Yが起きる確率である。
Figure 0006552678
数式(5)の第2項に含まれる占有確率密度関数p(m)は、事前占有確率密度関数と呼ばれるものであり、第3項のlt−1、iは、時刻t−1での対数オッズである。また、数式(5)の第1項に含まれる占有確率密度関数p(m│z)は、逆計測モデルと呼ばれ、距離センサで検出された距離データに基づいて格子が占有されている確率を表現する。すなわち、占有確率密度関数p(m│z)を計算することで、占有度算出格子の占有度を算出することが可能となる。なお、逆計測モデルは、株式会社マイナビ出版発行、著者Sebastian Thrun,Wolfram Burgard、翻訳者上田 隆一の「確率ロボティクス (プレミアムブックス版) 」、第264頁〜第268頁で説明されている。
占有度算出格子miに対する、占有確率密度関数p(m│z)の計算方法を以下に説明する。i番目のインデックスの占有度算出格子mは、センサモデル内に含まれるため、占有度算出格子mの座標を極座標(r,θ)で表示することができる。ただし、原点(0,0)は距離センサ1のセンサ位置とする。
時刻tにおける距離センサによる検知距離zおよびセンサモデルに基づいて、それぞれの格子座標が障害物のある可能性が高い領域(領域I)、障害物のない可能性が高い領域(領域II)、センサデータからは判断できない領域(領域III)のいずれの領域に属するかを図9のようなセンサモデルSMを用いて判定する。
すなわち、図9は、図5に示したセンサモデルSMを初期地図LMと重ね合わせた図であり、検出波の発生位置を座標(0,0)の原点OPとし、最大検知距離をmaxDistとして表し、検知距離zに対しz−εからz+εの範囲が領域Iとなり、原点OPからz−εの範囲が領域IIとなり、z+εから最大検知距離maxDistの範囲が領域IIIとなっている。なお、定数εは、距離センサ1によって物体までの距離を測距した際に、起こりうる距離の誤差を表しており、物体までの検知距離zが決まれば、予め定めた誤差εで規定される範囲で領域Iが決まり、領域Iよりも原点OP側が領域II、領域Iよりも最大検知距離maxDistとなる点側が領域IIIとなる。なお、図9においては、その座標から占有度算出格子mは領域I内に属していると判定される。
そして、判定された領域に応じて、各格子の占有確率密度関数p(m│z)を以下の数式(6)〜(8)で算出する。
Figure 0006552678
Figure 0006552678
Figure 0006552678
数式(6)は、占有度算出格子miが領域IIに含まれる場合の条件式であり、占有度算出格子miが物体で占有されている確率が低いことを意味するため、占有度算出格子miの占有されている確率を0に近づけるため、確率密度関数p(m│z)を定数pminの範囲となるように設定し、その範囲は0<pmin<0.5とする。
数式(7)は、占有度算出格子miが領域Iに含まれる場合の条件式であり、距離センサ1では、物体の距離センサ1からの角度情報が判らず、物体の正確な位置を検出できないものの、領域Iは検知距離zの前後の領域であるので、領域Iのどこかに物体が存在する可能性が高いものとして、占有度算出格子miの占有されている確率を1に近づけるため、占有確率密度関数p(m│z)を定数pmaxminの範囲となるように設定し、その範囲はその範囲は0.5<pmax<1とする。
数式(8)は、占有度算出格子miが領域IIIに含まれる場合の条件式であり、検知距離zよりも遠い領域にあるため、占有度算出格子miが物体で占有されているか否かが不明であるため、占有確率密度関数p(m│z)に予め与える占有度の定数としてp(m)を0.5としている。なお、初期地図LMを区分する各格子には事前に確率が与えられており(事前確率)、その値は0.5としている。なお、定数pmaxは、以下の数式(9)で定義される。
Figure 0006552678
数式(9)に表されるように、定数pmaxは最大検知距離maxDistで定義される。すなわち、距離センサ1によっては、検知距離が大きくなると、検知抜けおよび検知誤差が大きくなり、実際に物体のある場所と、格子地図上で物体により占有された格子のある場所とが誤って判定される可能性があり、検知距離が長くなるにつれて、占有度算出格子を誤って判定しないよう、定数pmaxを最大検知距離maxDistで定義し、maxOccupancyは0以上1未満かつ1に近い定数とすることで、定数pmaxを小さくするように設定している。
ただし、距離センサ1の検知距離に応じて、センサの検知抜けおよび検知誤差が大きくなるため、検知距離が長いほど定数pmaxは小さくなるように設定しても良い。また、距離センサの検出距離に対して、誤差を許容するために、定数εを任意に設定しても良い。
なお、定数εを設定しない場合は、距離センサ1から占有度算出格子miまでの距離rがr=検知距離となったものに対して、pmaxとなるように、占有度算出を行う。また、定数εを任意に設定する場合の範囲としては、用いる距離センサ1の能力に応じて、起こりうる距離の誤差を含むように定数εを設定する。
数式(6)〜(8)を用いて算出した各格子の占有確率密度関数p(m│z)を、対数オッズlt、iの漸化式で表した数式(5)に代入し、得られた対数オッズlt、iを数式(3)に代入することで、占有確率密度関数p(m|z1:t)を求めることができ、得られた計算結果が格子占有度となる。
地図更新部15は、占有度算出部14から出力された格子占有度と、地図記憶部12から出力された初期地図LMに基づいて、初期地図中の全ての格子の占有度を更新し、格子地図として出力する。具体的には、初期地図における全ての格子について、占有度算出格子に含まれる格子は占有度算出部14で算出した占有度に更新し、それ以外の格子は初期地図の占有度を保持することで、格子地図を更新する。更新された格子地図は、地図記憶部12で既に記憶している初期地図の代わりに記憶させる。
次に、図10に示すフローチャートを用いて、地図生成部6で行う動作の流れについて説明する。図10の各ステップと、図4の各機能ブロックとの関係は以下の通りである。ステップS101は、センサモデル算出部11が行う動作であり、ステップS102、S103およびS104は、地図記憶部12が行う動作であり、ステップS105は、占有度算出格子決定部13が行う動作であり、ステップS106、S107およびS108は、占有度算出部14が行う動作であり、ステップS109は、地図更新部15が行う動作である。
次に、図10の各ステップの動作を説明する。ステップS101では、距離センサ1で検知された距離データおよび、自車位置推定部3から出力された自車位置に基づいて、現在の自車位置における距離センサの検知範囲を算出して、センサモデルとして設定する。
ステップS102では、地図記憶部12に初期地図が記憶されているかを判定し、初期地図が記憶されていない場合(No)は、ステップS103に移行し、初期地図が記憶されている場合(Yes)は、ステップS104に移行する。
ステップS103に移行した場合は、物体位置検出部4で検出した現在時刻tでの物体位置に基づいて、所定の大きさを持った格子地図を作成し、初期地図として地図記憶部12に記憶させると共に、作成した地図を初期地図として出力する。出力する。一方、ステップS104に移行した場合は、過去(t−Δt)で記憶された初期地図を読み出し、初期地図として出力する。
ステップS105では、地図記憶部12から出力された初期地図と、センサモデル算出部11から出力された現在の自車位置における距離センサの検知範囲に基づいて、両者の共通領域を抽出し、共通領域に含まれる初期地図内の格子を占有度算出格子とする。
ステップS106では、占有度算出格子決定部13から出力された占有度算出格子を1つずつ取得し、ステップS107では、それぞれの占有度算出格子について、地図記憶部12から出力された初期地図中の格子占有度に基づいて、占有度算出格子の占有度を計算する。
ステップS108では、占有度算出格子決定部13から出力された全ての占有度算出格子についてステップS107の処理を行ったか否かを確認し、全ての占有度算出格子について処理を行った場合(Yes)は、ステップS109に移行し、未処理の占有度算出格子が存在する場合(No)は、ステップS106以下の処理を繰り返す。
ステップS109では、占有度算出部14で算出された占有度算出格子の格子占有度と地図記憶部12から出力された初期地図中の全ての格子の格子占有度に基づいて、初期地図中の全ての格子占有度を更新することで、格子地図を更新し、境界検出部7および地図記憶部12に出力する。地図記憶部12に出力する際は、地図記憶部12で既に記憶している初期地図の代わりに初期地図として記憶させる。
次に、ステップS107における占有度算出格子の占有度を算出する動作について、図11に示すフローチャートを用いて詳細に説明する。
まず、ステップS111では、距離センサ1のセンサ位置から占有度算出格子までの距離と距離センサ1で検知した物体までの距離データに基づいて、占有度算出格子がセンサモデルのどの領域に属するかの判定を行う。
ステップS112では、領域判定を行った格子に対して、領域に応じた占有度を算出する。
地図記憶部12で記憶されている初期地図においては、初期地図中の格子は全て、予め占有度が与えられているため、ステップS113では、ステップS112で占有度算出を行った格子に対応する初期地図中の格子を抽出する。そして抽出された格子の占有度(前回値)とステップS112で算出された格子の占有度(今回値)とを重ね合わせることで、格子の占有度を設定する。
ステップS113で行う前回値との重ね合わせは、数式(5)で示した漸化式に対して、数式(2)示した対数オッズlt、iを用いることで、時刻t−1における前回値の占有度p(m|z1:t-1)をlt-1、iとして算出し、ステップS112で算出した今回値の占有確率密度関数p(m│z)および、上述のlt-1、iを用いることで、対数オッズlt、iを算出し、数式(3)で示した占有確率密度関数p(m|z1:t)により、時刻tにおける格子mの占有確率密度関数p(m|z1:t)を算出する。そして、これを格子mの占有度とする。
すなわち、時刻t−1における格子mの占有確率密度関数p(m|z1:t)の対数オッズと、時刻tにおける格子mの占有確率密度関数p(m│z)の対数オッズを足し合わせることで、時刻tにおける格子mの占有度p(m|z1:t)を算出する。
具体的な算出方法を以下に説明する。時刻tstartにおいて初期地図を生成し、その際の格子mの占有度p(m│ztstart)が0.5であり、時刻tstart+Δtにおける占有確率密度関数p(m│ztstart+Δt)が0.7である場合、格子mの占有度p(m│ztstart:tstart+Δt)は、数式(3)を用いて以下の数式(10)で表される。
Figure 0006552678
数式(10)におけるltstart+Δt、iは、数式(5)を用いて以下の数式(11)で表される。
Figure 0006552678
ここで、p(m│ztstart+Δt)が0.7であり、p(m│ztstart)が0.5であり、p(m)が0.5である場合、ltstart、i=0とすると、数式(11)は、以下の数式(12)のように計算される。
Figure 0006552678
数式(12)の計算結果0.8473を数式(10)に代入すると、以下の数式(13)のように計算される。
Figure 0006552678
この結果、時刻tstart+Δtにおける占有確率密度関数p(m│ztstart+Δt)が0.7である場合、時刻tstart+Δtにおける格子mの占有度p(m│ztstart:tstart+Δt)は0.7となるが、時刻tstart+2×Δtにおける占有確率密度関数p(m│ztstart+2×Δt)においても0.7となる場合、ltstart+Δt、i=0.8473とすると、ltstart+2×Δt、iは、以下の数式(14)のように計算される。
Figure 0006552678
数式(14)の計算結果1.6946を数式(10)の変形式に代入すると、以下の数式(15)のように計算される。
Figure 0006552678
この結果、時刻tstart+2×Δtにおける占有確率密度関数p(m│ztstart+2×Δt)が0.7となる場合、時刻tstart+2×Δtにおける格子mの占有度p(m│ztstart:tstart+2×Δt)は0.8448となる。
一方、時刻tstartにおいて初期地図を生成し、その際の格子mの占有度p(m│ztstart)が0.5であり、時刻tstart+Δtにおける占有確率密度関数p(m│ztstart+Δt)が0.2である場合、ltstart、i=0とすると、ltstart+Δt、iは、以下の数式(16)のように計算される。
Figure 0006552678
数式(16)の計算結果−1.3863を数式(10)の変形式に代入すると、以下の数式(17)のように計算される。
Figure 0006552678
この結果、時刻tstart+Δtにおける占有確率密度関数p(m│ztstart+Δt)が0.2である場合、時刻tstart+Δtにおける格子mの占有度p(m│ztstart:tstart+Δt)は0.2となるが、時刻tstart+2×Δtにおける占有確率密度関数p(m│ztstart+2×Δt)においても0.2となる場合、ltstart+Δt、i=−1.3863とすると、ltstart+2×Δt、iは、以下の数式(18)のように計算される。
Figure 0006552678
数式(18)の計算結果−2.7726を数式(10)の変形式に代入すると、以下の数式(19)のように計算される。
Figure 0006552678
この結果、時刻tstart+2×Δtにおける占有確率密度関数p(m│ztstart+2×Δt)が0.2である場合、時刻tstart+2×Δtにおける格子mの占有確率密度関数p(m│ztstart+2×Δt)は0.0588となる。
<境界検出処理>
次に、境界検出部7における境界検出処理について説明する。図12は、境界検出部7の構成を示す機能ブロック図である。図12に示されるように、境界検出部7は、境界生成格子地図決定部21(境界生成地図決定部)、占有格子判定部22(占有区画判定部)、車両軌跡算出部23(車両軌跡算出部)および境界面決定部24(境界面決定部)を備えている。
境界検出部7の境界生成格子地図決定部21では、地図生成部6から出力される地図、物体位置検出部4から出力される物体位置情報、自車位置推定部3から出力される自車位置に基づいて、自車と物体との境界を検出するための格子地図を決定し、境界生成格子地図として出力する。
具体的には、地図生成部6では、距離センサ1の検知周期ごとに格子地図が更新されるため、境界を検出するための格子地図を決定する必要がある。そこで、境界生成格子地図決定部21では、自車の位置座標と検出された物体位置座標との差が所定の閾値以下となった時点において、地図生成部6で出力された格子地図を、自車と物体との境界(境界面、境界線等で規定され、以下の説明では、自車と物体との境界を境界面として説明する)の生成に用いる境界生成格子地図として決定する。この決定方法を図13〜図15を用いて説明する。
図13〜図15は、自車OVが駐車車両PVの左側に並列した状態から右斜め後ろに後退する状態を示しており、自車OVの後輪車軸上の車幅方向中心の位置の基準軸で規定される自車位置BPと駐車車両PV上の物体位置DPとの距離の時間変化を矢印で示している。なお、図13〜図15では車長方向をX方向、車幅方向をY方向としている。
図13では、時刻t−2Δt前の格子地図LM(t−2Δt)を示しており、図14では、時刻t−Δt前の格子地図LM(t−Δt)を示しており、図14では、現在時刻tでの格子地図LM(t)を示している。時間が経過するにつれて、自車位置BPと物体位置DPとのY方向の座標が近づき、現在時刻tでは自車位置BPと物体位置DPとのY方向の差が予め定めた閾値以下となる。この結果、現在時刻tにおける格子地図を境界生成格子地図として決定する。
占有格子判定部22では、境界生成格子地図決定部21から出力される境界生成格子地図に基づいて、境界生成格子地図中の格子の占有判定を行い、占有判定を受けた格子を占有格子として出力する。具体的には、境界生成格子地図中の格子の占有度が所定の占有度設定値よりも大きい場合、格子は物体で占有されていると判定し、それ以外は非占有と判定し、占有判定を受けた格子を占有格子として出力する。
車両軌跡算出部23では、自車位置推定部3から出力される自車位置に基づいて、自車の車両軌跡を算出し、自車軌跡として出力する。現在時刻tにおける自車軌跡を算出する方法として、具体例を以下に示す。自車位置推定部3から出力される自車位置は、車両情報検出センサ2で検出される自車データが検知された時刻と共に記憶部で記憶されているため、現在時刻tまでの記憶部で記憶されている自車位置を全て出力する。そして、出力された自車位置群について、時間軸において連続する2つの自車位置を結ぶという処理を現在時刻tまで全て行うことで、現在時刻tにおける自車軌跡を算出することができる。
境界面決定部24では、占有格子判定部22から出力された占有格子と車両軌跡算出部23から出力された自車軌跡に基づいて、占有格子と自車軌跡との距離、すなわち自車と物体との距離が最も近い占有格子群(占有区画群)を境界面として決定し、境界情報として出力する。
境界面決定部24において境界面を決定する方法の一例について、図16および図17を用いて説明する。図16では自車OVが駐車車両PVの左側に前方に並列した状態から右斜め後ろに後退する状態を示しており、自車軌跡TRを破線で示し、既知車両情報VIである車両の車幅方向の長さと車両の車長方向の長さを矢印で示している。
図16に示すように、車両軌跡算出部23から出力された自車軌跡TRおよび、既知車両情報VIである車両の車幅方向の長さと車長方向の長さを用いることで、車両領域VRを算出する。そして、占有格子判定部22から出力された占有格子OLのうち、車両領域VR内に属するものは非占有格子とする。そして、自車軌跡TRから非占有格子と判定されていない占有格子OLに対して垂線PLを引き、垂線PLの長さが最も短い格子を境界面を構成する格子とする。この処理を格子間隔ごとに行うことで、境界面を構成する占有格子群を決定し、境界面として決定された占有格子群の位置情報を境界情報として出力する。
図17は、このようにして決定された境界面を構成する占有格子群BLを示しており、占有格子群BLに隣接する占有格子OLにはハッチングを付している。図17に示されるように、車両領域VRに沿って境界面を構成する占有格子群BLが決定されている。
次に、図18に示すフローチャートを用いて、境界検出部7で行う動作の流れについて説明する。図18の各ステップと、図12の各機能ブロックとの関係は以下の通りである。ステップS201、S202は境界生成格子地図決定部21が行う動作であり、ステップS203〜S205は、占有格子判定部22が行う動作であり、ステップS206は、車両軌跡算出部23が行う動作であり、ステップS207は、境界面決定部24が行う動作である。
次に、図18の各ステップの動作を説明する。ステップS201では、自車位置推定部3から出力された自車位置と物体位置検出部4で検出された物体位置とのY方向(車幅方向)の差が所定値以下であるか否かを判定し、所定値以下である場合(Yes)は、ステップS202に移行し、所定値を超えている場合(No)は、境界面を出力せず、境界検出部7の動作を終了する。
ステップS202に移行した場合は、境界生成格子地図決定部21は、地図生成部6から出力された地図を境界生成格子地図として決定して出力し、ステップS203に移行する。
ステップS203では、境界生成格子地図決定部21から出力された境界生成格子地図中の格子を1つずつを取得し、ステップS204では、取得した格子の占有度が予め定められた占有度設定値よりも大きいか否かを判定し、大きい場合は、その格子は、物体で占有されているものと判定し、占有格子として出力する。
ステップS205では、境界生成格子地図中の全ての格子についてステップS204の処理を行ったか否かを確認し、全ての格子について処理を行った場合(Yes)は、ステップS206に移行し、未処理の格子が存在する場合(No)は、ステップS203以下の処理を繰り返す。
ステップS206では、自車位置推定部3から出力された自車位置に基づいて自車軌跡を算出する。
ステップS207では、占有格子判定部22から出力された占有格子と車両軌跡算出部23で出力された自車軌跡に基づいて、占有格子と自車軌跡との距離が最も近い占有格子群を車両と物体との境界面として決定し、境界情報として出力する。
<近似直線生成処理>
次に、近似直線生成部8における近似直線生成処理について説明する。図19は、近似直線生成部8の構成を示す機能ブロック図である。図19に示されるように、近似直線生成部8は、近似直線生成領域算出部31(近似直線生成領域算出部)と近似直線算出部32(近似直線算出部)を備えている。
近似直線生成部8の近似直線生成領域算出部31では、境界検出部7から出力される境界情報、物体位置検出部4から出力される物体位置情報に基づいて、物体位置で境界面を2つに分割し、分割されたそれぞれの境界面を近似直線生成領域として出力する。
近似直線算出部32では、図20および図21に示すように、近似直線生成領域算出部31から出力される近似直線生成領域に基づいて近似直線を算出する。すなわち、図20には、境界検出部7から出力された境界情報BIと、物体位置検出部4から出力された物体位置DPを示しており、物体位置DPにおいて境界情報BIを表す境界面の傾きが変わっていることが判る。図21は、物体位置DPにおいて境界面を2つに分割し、駐車車両PVの側面に沿った近似直線生成領域ARAと、近似直線生成領域ARAに対して傾いた近似直線生成領域ARBとを設定した例である。
近似直線の算出は、具体的には、近似直線生成領域を構成する格子数が予め定められた近似直線生成格子設定値以上であれば、格子の座標情報に基づいて近似直線を算出する。
近似直線の算出方法については、様々な方法が挙げられるが、一例として、RANSAC(Random Sample Consensus)手法を用いる方法を示す。RANSAC手法では、近似直線を算出する占有格子群から無作為にいくつかのサンプルを抽出し、最小二乗法を行う。そして、最小二乗法を行った結果、得られた近似直線と全ての占有格子群との距離を求め、それぞれの距離が所定の距離設定値以下であるか調べ、距離設定値以下である格子数を数える。この操作を1度以上、任意の回数行い、その中で最も距離設定値以下であった格子数が多いものを近似直線として決定する。なお、サンプルのばらつきが小さい場合には、無作為に抽出したサンプルに対して最小二乗法を行うだけで近似直線を算出しても良い。
次に、図22に示すフローチャートを用いて、近似直線生成部8で行う動作の流れについて説明する。図22の各ステップと、図19の各機能ブロックとの関係は以下の通りである。ステップS301、S302は、近似直線生成領域算出部31が行う動作であり、ステップS303〜S305は、近似直線算出部32が行う動作である。
次に、図22の各ステップの動作を説明する。ステップS301では、境界検出部7から境界情報が出力されているか否かに基づいて境界面が存在するか否かを判定し、境界情報が出力されている場合(Yes)は、ステップS302に移行し、出力されていない場合(No)は、近似直線生成処理を終了する。
ステップS302では、境界検出部7から出力された境界情報と、物体位置検出部4で検出された物体位置情報に基づいて、物体位置において境界検出部7から出力された境界面を2つに分割する。例えば、図20の例のように、物体位置DPにおいて境界情報BIを表す境界面の傾きが変わっている場合には、物体位置DPを境にして右側と左側とで2つの近似直線生成領域が得られる。
ステップS303では、近似直線生成領域算出部31から出力された分割された境界面、すなわち近似直線生成領域のそれぞれを取得し、ステップS304では、近似直線生成領域中の格子数が予め定められた近似直線生成格子設定値以上であれば、格子の座標情報に基づいて近似直線を算出して出力する。なお、近似直線生成格子設定値としては、例えば、格子数5〜10個の範囲で任意に設定すれば良いが、この範囲に限定されるものではなく、物体位置の検出精度に基づいて各格子の大きさを設定するのであれば、格子の大きさにより近似直線生成格子設定値も適宜設定すれば良い。
ステップS305では、近似直線生成領域算出部31から出力された分割された境界面の全てについてステップS304の処理を行ったか否かを確認し、全ての境界面について処理を行った場合(Yes)は、近似直線生成処理を終了し、未処理の境界面が存在する場合(No)は、ステップS303以下の処理を繰り返す。
なお、図20および図21では物体位置DPが駐車車両PVの角部に存在したので、物体位置DPを境にして右側と左側とで境界面の傾きが変わっていたので2つの近似直線生成領域が得られたが、図23に示されるように物体位置DPが駐車車両PVの側面中央部に存在する場合は、図24に示されるように境界面は2つに分割できず、近似直線生成領域ARAおよび近似直線生成領域ARBから1本分の近似直線しか得られない。
すなわち、図23では、物体位置DPが駐車車両PVの側面中央部に存在しており、物体位置DPを境にして境界情報BIを表す境界面の傾きがほぼ等しい、この結果、図24に示されるように、物体位置DPにおいて境界面を2つに分割することができない。すなわち、図22のステップS302では境界面を2つに分割することができず、ステップS303では1本の近似直線しか得られない。このため、後に説明するように物体認識部9においては1本の近似直線で物体位置を認識することとなる。
<物体認識処理>
次に、物体認識部9における物体認識処理について説明する。物体認識部9では、近似直線生成部8で出力された近似直線に基づいて、物体位置検出部4で検出された物体位置情報を、再検知することで、物体位置を認識することができる。なお、物体位置を認識するには、少なくとも1本以上の近似直線が近似直線生成部8で生成されていれば良い。以下では、1本の近似直線で物体位置を認識する方法および、2本の近似直線で物体位置を認識する方法の例として、図25および図26を用いて説明する。
まず、1本の近似直線で物体位置を認識する場合、図25に示すように、物体位置検出部4で検出された物体位置DPから近似直線生成領域ARに基づいて算出された近似直線ARLに直交させた垂線PLの交点を物体再検出位置RDPとする。
次に、2本の近似直線で物体位置を認識する場合、図26に示すように、近似直線生成領域ARAおよびARBに基づいてそれぞれ算出された近似直線AL1およびAL2の交点を物体再検出位置RDPとする。この場合、2本の近似直線の傾きの差が、予め定めた閾値以上の場合にのみこの方法を用いる。この閾値としては、角度で例えば1度〜2度の範囲に設定する。なお、この値に限定されるものではなく、近似直線の算出精度などに基づいて、適宜設定すれば良い。
以上説明したように、本実施の形態に係る物体認識装置100によれば、物体位置検出部4で検出された物体位置と自車位置推定部3で検出された自車位置に基づいて自車と物体との境界面を検出して境界情報とし、境界情報と物体位置に基づいて物体の近似直線を生成し、近似直線を用いて物体位置を再検出するので、距離センサにより物体位置を検出するだけの場合よりも物体位置の認識精度を向上させることができる。
なお、以上説明した実施の形態においては、1つの物体位置を検出する例について説明したが、物体認識装置100が認識可能な物体位置は1つに限らず、例えば、図6のように、自車OVの複数の距離センサ1を用いて駐車車両PVの複数の位置を同時に測距する場合には、複数の位置を認識することも可能である。
なお、本実施の形態に係る 物体認識装置100の各部はコンピュータを用いて構成することができ、コンピュータがプログラムを実行することで実現される。すなわち、図1に示した物体認識装置100は、例えば図27に示す処理回路100により実現される。処理回路100には、CPU、DSP(Digital Signal Processor)などのプロセッサが適用され、記憶装置に格納されるプログラムを実行することで各部の機能が実現される。
なお、処理回路100には、専用のハードウェアが適用されても良い。処理回路100が専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらを組み合わせたものなどが該当する。
また、図28には、図1に示した物体認識装置100がプロセッサを用いて構成されている場合におけるハードウェア構成を示している。この場合、物体認識装置100の各部の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリ120に格納される。処理回路100として機能するプロセッサ110は、メモリ120(記憶装置)に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。
なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。
1 距離センサ、2 車両情報検出センサ、3 自車位置推定部、4 物体位置検出部、5 車両状態検出部、6 地図生成部、7 境界検出部、8 近似直線生成部、9 物体認識部、11 センサモデル算出部、12 地図記憶部、13 占有度算出格子決定部、14 占有度算出部、15 地図更新部、21 境界生成格子地図決定部、22 占有格子判定部、23 車両軌跡算出部、24 境界面決定部、31 近似直線生成領域算出部、32 近似直線算出部。

Claims (12)

  1. 自車データに基づいて、自車位置を推定する自車位置推定部と、
    距離センサで検出された自車の周辺の物体までの距離および前記自車位置推定部で推定された前記自車位置に基づいて物体位置を検出する物体位置検出部と、
    前記距離センサで検出された前記距離、前記自車位置推定部で推定された前記自車位置および前記物体位置検出部で検出された前記物体位置に基づいて、前記物体の周辺に仮想空間を設定し、該仮想空間を区分した区画地図を生成する地図生成部と、
    前記地図生成部で生成された前記区画地図、前記物体位置検出部で検出された前記物体位置、前記自車位置推定部で推定された前記自車位置に基づいて、前記自車と前記物体との境界を検出する境界検出部と、
    前記境界検出部で検出された前記境界および前記物体位置検出部で検出された前記物体位置に基づいて、前記物体の近似直線を生成する近似直線生成部と、
    前記近似直線生成部で生成された前記近似直線に基づいて、前記物体位置検出部で検出された前記物体位置の再検出を行って物体位置を認識する物体認識部と、を備える、物体認識装置。
  2. 前記地図生成部は、
    前記距離センサで検出された前記距離および前記自車位置推定で推定された前記自車位置に基づいて、前記距離センサの現在位置における検知範囲を算出するセンサモデル算出部と、
    記憶された過去の前記区画地図、または前記物体位置検出部で検出された前記物体位置に基づいて、前記物体の周辺に仮想空間を設定し、該仮想空間を区分して初期地図を生成する地図記憶部と、
    前記地図記憶部で生成された前記初期地図および前記センサモデル算出部で算出された前記検知範囲に基づいて、前記初期地図における前記物体による占有度を算出するための区画を決定し、占有度算出区画とする占有度算出区画決定部と、
    前記距離センサで検出された前記距離、前記占有度算出区画決定部で決定された前記占有度算出区画および前記地図記憶部で生成された前記初期地図に基づいて、前記占有度算出区画の占有度を算出し、区画占有度とする占有度算出部と、
    前記占有度算出部で算出された前記区画占有度および前記地図記憶部で生成された前記初期地図に基づいて、前記初期地図中の全ての格子の占有度を更新し、前記区画地図とする地図更新部と、を有する、請求項1記載の物体認識装置。
  3. 前記境界検出部は、
    前記地図生成部で生成された前記区画地図、前記物体位置検出部で検出された前記物体位置および前記自車位置推定部で推定された前記自車位置に基づいて、前記自車と前記物体との境界を検出するための地図を決定し、境界生成地図とする境界生成地図決定部と、
    前記境界生成地図決定部で決定された前記境界生成地図に基づいて、前記境界生成地図中の前記区画の占有度が予め定められた占有度設定値よりも大きい場合、前記区画は占有されていると判定し、占有区画とする占有区画判定部と、
    前記自車位置推定部で推定された前記自車位置に基づいて、前記自車の軌跡を算出し、自車軌跡とする車両軌跡算出部と、
    前記占有区画判定部で判定された前記占有区画および前記車両軌跡算出部で算出された前記自車軌跡に基づいて、前記占有区画と前記自車軌跡との距離が最も近い占有区画群を前記自車と前記物体との境界として決定する境界面決定部と、を有する、請求項1記載の物体認識装置。
  4. 前記近似直線生成部は、
    前記境界検出部で検出された前記境界および前記物体位置検出部で検出された前記物体位置に基づいて、前記物体位置で前記境界を分割し、分割されたそれぞれの境界を近似直線生成領域として算出する近似直線生成領域算出部と、
    前記近似直線生成領域算出部で算出された前記近似直線生成領域に基づいて前記近似直線を算出する近似直線算出部と、を有する、請求項1記載の物体認識装置。
  5. 前記物体認識部は、
    前記近似直線生成部で生成された前記近似直線が、1本の近似直線を含む場合は、前記物体位置検出部で検出された前記物体位置から前記1本の近似直線に直交させた垂線の交点を物体再検出位置とする、請求項1記載の物体認識装置。
  6. 前記物体認識部は、
    前記近似直線生成部で生成された前記近似直線が、2本の近似直線を含む場合は、前記2本の近似直線の交点を物体再検出位置とする、請求項1記載の物体認識装置。
  7. (a)自車の周辺の物体を検知して、前記物体までの距離を取得するステップと、
    (b)自車データに基づいて、自車の位置を推定して自車位置を取得するステップと、
    (c)前記距離および前記自車位置に基づいて物体位置を検出して、物体位置を取得するステップと、
    (d)前記自車位置、前記物体位置および前記距離に基づいて、前記物体の周辺に仮想空間を設定し、該仮想空間を区分した区画地図を生成するステップと、
    (e)前記区画地図、前記物体位置および前記自車位置に基づいて、前記自車と前記物体との境界を検出するステップと、
    (f)前記境界および前記物体位置に基づいて、前記物体の近似直線を生成するステップと、
    (g)前記近似直線に基づいて、前記物体位置の再検出を行って物体位置を認識するステップと、を備える、物体認識方法。
  8. 前記ステップ(d)は、
    (d−1)前記距離および前記自車位置に基づいて、現在位置における前記物体の検知範囲を設定するステップと、
    (d−2)過去の前記区画地図、または前記物体位置に基づいて前記物体の周辺に仮想空間を設定し、該仮想空間を区分して生成した地図を初期地図とするステップと、
    (d−3)前記初期地図および前記検知範囲に基づいて、前記初期地図における前記物体による占有度を算出するための区画を決定し、占有度算出区画とするステップと、
    (d−4)前記距離、前記占有度算出区画および前記初期地図に基づいて、前記占有度算出区画の占有度を算出し、区画占有度とするステップと、
    (d−5)前記区画占有度および前記初期地図に基づいて、前記初期地図中の全ての区画の占有度を更新し、前記区画地図を生成するステップと、を有する、請求項7記載の物体認識方法。
  9. 前記ステップ(e)は、
    (e−1)前記区画地図、前記物体位置および前記自車位置に基づいて、前記自車と前記物体との境界を検出するための境界生成地図を取得するステップと、
    (e−2)前記境界生成地図に基づいて、前記境界生成地図中の前記区画の占有度が予め定められた占有度設定値よりも大きい場合、前記区画は占有されていると判定し、占有区画とするステップと、
    (e−3)前記自車位置に基づいて、前記自車の軌跡を算出し、自車軌跡とするステップと、
    (e−4)前記占有区画および前記自車軌跡に基づいて、前記占有区画と前記自車軌跡との距離が最も近い占有区画群を前記自車と前記物体との境界として決定するステップと、を有する、請求項7記載の物体認識方法。
  10. 前記ステップ(f)は、
    (f−1)前記境界および前記物体位置に基づいて、前記物体位置で前記境界を分割し、分割されたそれぞれの境界を近似直線生成領域とするステップと、
    前記近似直線生成領域に基づいて前記近似直線を算出するステップと、を有する、請求項7記載の物体認識方法。
  11. 前記ステップ(g)は、
    (g−1)前記近似直線が、1本の近似直線を含む場合は、前記物体位置から前記1本の近似直線に直交させた垂線の交点を物体再検出位置とするステップを含む、請求項7記載の物体認識方法。
  12. 前記ステップ(g)は、
    (g−1)前記近似直線が、2本の近似直線を含む場合は、前記2本の近似直線の交点を物体再検出位置とするステップを含む、請求項7記載の物体認識方法。
JP2018092752A 2018-05-14 2018-05-14 物体認識装置および物体認識方法 Active JP6552678B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018092752A JP6552678B1 (ja) 2018-05-14 2018-05-14 物体認識装置および物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018092752A JP6552678B1 (ja) 2018-05-14 2018-05-14 物体認識装置および物体認識方法

Publications (2)

Publication Number Publication Date
JP6552678B1 true JP6552678B1 (ja) 2019-07-31
JP2019200049A JP2019200049A (ja) 2019-11-21

Family

ID=67473245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018092752A Active JP6552678B1 (ja) 2018-05-14 2018-05-14 物体認識装置および物体認識方法

Country Status (1)

Country Link
JP (1) JP6552678B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056608A (ja) * 2019-09-27 2021-04-08 株式会社デンソー 占有グリッドマップ生成装置、占有グリッドマップ生成システム、占有グリッドマップ生成方法、およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230174054A1 (en) 2020-05-13 2023-06-08 Mitsubishi Electric Corporation Object recognition device, path planning device, parking support device, object recognition system, path planning system and parking support system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000028717A (ja) * 1998-07-13 2000-01-28 Mitsubishi Electric Corp 障害物検出装置
JP3738719B2 (ja) * 2001-09-26 2006-01-25 日産自動車株式会社 車両用障害物地図作成装置
DE10361315A1 (de) * 2003-12-19 2005-07-21 Valeo Schalter Und Sensoren Gmbh Verfahren und Vorrichtung zum Bestimmen der Position von mindestens einem Reflexionspunkt auf einem Hindernis
JP5845131B2 (ja) * 2012-04-17 2016-01-20 株式会社日本自動車部品総合研究所 駐車空間検知装置
JP5843948B1 (ja) * 2014-11-27 2016-01-13 三菱電機株式会社 駐車支援装置および駐車支援方法
JP6278920B2 (ja) * 2015-03-23 2018-02-14 三菱電機株式会社 駐車支援装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056608A (ja) * 2019-09-27 2021-04-08 株式会社デンソー 占有グリッドマップ生成装置、占有グリッドマップ生成システム、占有グリッドマップ生成方法、およびプログラム
US20220215673A1 (en) * 2019-09-27 2022-07-07 Denso Corporation Device, system, and method for generating occupancy grid map
JP7200897B2 (ja) 2019-09-27 2023-01-10 株式会社デンソー 占有グリッドマップ生成装置、占有グリッドマップ生成システム、占有グリッドマップ生成方法、およびプログラム

Also Published As

Publication number Publication date
JP2019200049A (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
US10739459B2 (en) LIDAR localization
US20200049511A1 (en) Sensor fusion
US10228693B2 (en) Generating simulated sensor data for training and validation of detection models
US11898855B2 (en) Assistance control system that prioritizes route candidates based on unsuitable sections thereof
US7920087B2 (en) Apparatus for estimating state of vehicle located in frontward field
US20190383945A1 (en) Autonomous vehicle localization using a lidar intensity map
CN110632617B (zh) 一种激光雷达点云数据处理的方法及装置
CN109635816B (zh) 车道线生成方法、装置、设备以及存储介质
US11726191B2 (en) Lidar intensity calibration
US9002513B2 (en) Estimating apparatus, estimating method, and computer product
RU2757038C2 (ru) Способ и система для предсказания будущего события в беспилотном автомобиле (sdc)
CN111886597A (zh) 可移动平台的障碍物检测方法、装置及可移动平台
CN112880694A (zh) 确定车辆的位置的方法
JP6552678B1 (ja) 物体認識装置および物体認識方法
US10473772B2 (en) Vehicle sensor operation
JP7408236B2 (ja) 位置推定方法及び位置推定装置
WO2007046336A1 (ja) 物体認識装置
CN112219225A (zh) 定位方法、系统及可移动平台
JP6793787B1 (ja) 車両制御装置、駐車支援装置、車両制御方法および駐車支援方法
JP7459560B2 (ja) 物体検知装置
CN112147614B (zh) 使用占据栅格来映射物理环境的方法和系统
JP4618506B2 (ja) 物体認識装置
CN116659529B (zh) 数据检测方法、装置、车辆及存储介质
CN113670296B (zh) 基于超声波的环境地图生成方法及装置
CN115516543B (zh) 物体识别装置、路径生成装置、停车辅助装置、物体识别系统、路径生成系统及停车辅助系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190702

R150 Certificate of patent or registration of utility model

Ref document number: 6552678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350