JP2021103482A - 自己位置推定方法 - Google Patents

自己位置推定方法 Download PDF

Info

Publication number
JP2021103482A
JP2021103482A JP2019235104A JP2019235104A JP2021103482A JP 2021103482 A JP2021103482 A JP 2021103482A JP 2019235104 A JP2019235104 A JP 2019235104A JP 2019235104 A JP2019235104 A JP 2019235104A JP 2021103482 A JP2021103482 A JP 2021103482A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
past
latest
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019235104A
Other languages
English (en)
Other versions
JP7092741B2 (ja
Inventor
▲兪▼芳 王
Yu-Fang Wang
▲兪▼芳 王
宜學 蔡
Yi-Shueh Tsai
宜學 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Automotive Research and Testing Center
Original Assignee
Automotive Research and Testing Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Automotive Research and Testing Center filed Critical Automotive Research and Testing Center
Priority to JP2019235104A priority Critical patent/JP7092741B2/ja
Publication of JP2021103482A publication Critical patent/JP2021103482A/ja
Application granted granted Critical
Publication of JP7092741B2 publication Critical patent/JP7092741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】従来より定位精度が高い自己位置推定方法を提供する【解決手段】目標物体の周囲環境を連続的に検出して、最新の検出時点に関する周囲環境の情報及び過去の検出時点に関する周囲環境の情報を含む第1の検出情報と、周囲環境の情報に関する第2の検出情報とを得るステップと、第1の検出情報に基づいて、周囲オブジェクトを定義するステップと、周囲オブジェクトから追跡オブジェクトを選択するステップと、追跡オブジェクトの最新の検出時点における情報及び過去の検出時点における情報に基づいて、該追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類するステップと、第2の検出情報から移動オブジェクトに分類された追跡オブジェクトの情報が除去された更新後第2の検出情報を得るステップと、更新後第2の検出情報に基づいて、自己位置推定及び環境地図作成演算法により目標物体の位置を推定するステップと、が実行される。【選択図】図2

Description

本発明は、自己位置推定及び環境地図作成の技術に関し、具体的には、物体追跡に基づく自己位置推定及び環境地図作成の技術に関する。
従来の定位技術には、GPS(汎地球測位システムGlobal Positioning System)がよく使用されている。しかし、障害物が多い又は天気が悪い場合には、GPSの定位精度が落ちる。そこで、GPSの代わりに、周囲の環境から自己位置を推定するSLAM(Simultaneous Localization and Mapping)技術が、例えばロボット掃除機や自動運転車に利用されている。
従来のSLAMは、センサー(例えば、ライダー(LiDAR)、レーダー、カメラ、深度カメラなど)が搭載された定位物体が移動すると共に、その移動時間において区切られた複数の所定のユニット時間ごとに、該センサーによって周囲の環境を数回検出することにより、各ユニット時間ごとに得られた検出結果である、周囲の特徴(例えば、周囲環境にある物体)が記録された複数の環境データを得る上、これを用いて環境地図を作成すると共に、該環境データにおける周囲の特徴を元に自己位置を推定する技術である。特許文献1には、SLAMを使用して動作範囲を決定する動作範囲決定装置が提案されている。
中国特許出願公開第108688660号公報
しかしながら、従来のSLAMを用いて、環境地図を作成するときには、検出した環境データに移動している移動物体のデータが含まれている場合、移動物体の不確定性により環境地図を正常に作成できず、定位物体の自己位置を正確に推定することが困難になる。
したがって、本発明は、従来より、定位精度が高い自己位置推定方法を提供することを目的とする。
前記目的を達成するための手段として、本発明は、以下の自己位置推定方法を提供する。
本発明の自己位置推定方法は、
目標物体に配置された定位システムによって実行される自己位置推定方法において、前記目標物体の周囲環境を連続的に検出して、最新の検出時点に関する前記周囲環境の情報及び過去の検出時点に関する前記周囲環境の情報を含む第1の検出情報と、前記周囲環境の情報に関する第2の検出情報と、を得、前記過去の検出時点と前記最新の検出時点との間には、所定の検出期間があるステップ(A)と、前記第1の検出情報に基づいて、前記周囲環境にある1つ以上の周囲オブジェクトを定義するステップ(B)と、前記1つ以上の周囲オブジェクトから、移動オブジェクトである可能性のある1つ以上の追跡オブジェクトを選択するステップ(C)と、各前記追跡オブジェクトに対して、該追跡オブジェクトの前記最新の検出時点における情報及び該追跡オブジェクトの前記過去の検出時点における情報を示す前記第1の検出情報に基づいて、該追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類するステップ(D)と、前記第2の検出情報から移動オブジェクトに分類された前記追跡オブジェクトに該当する情報が除去された更新後第2の検出情報を得るステップ(E)と、前記更新後第2の検出情報に基づいて、自己位置推定及び環境地図作成演算法により前記目標物体の位置を推定するステップ(F)と、が実行される。
上記構成によれば、本発明は、各追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類して、第2の検出情報を、第2の検出情報から移動オブジェクトに分類された追跡オブジェクトの情報を除外するよう更新する。そして、更新後第2の検出情報に基づいて自己位置推定及び環境地図作成の演算法により目標物体の位置を推定する。このように、移動オブジェクトに分類された追跡オブジェクトの情報が除外されるので、環境地図を作成し、自己位置を推定するときには、移動オブジェクトの不確定性に影響されない。従って、従来より高い定位精度を得ることができる。
本発明の自己位置推定方法に係る第1の実施形態を実施するための定位システムを示すブロック図である。 本発明の自己位置推定方法に係る第1の実施形態を示すフローチャートである。 物体分類ユニットが違う時点で得られた複数の点群データ部分を校正することを示すフローチャートである。 物体分類ユニットが追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類することを示すフローチャートである。 本発明の自己位置推定方法に係る第2の実施形態を実施するための定位システムを示すブロック図である。 本発明の自己位置推定方法に係る第2の実施形態を示すフローチャートである。
以下、本発明に係る自己位置推定方法の第1の実施形態について、図面を参照して説明する。
(第1の実施形態)
図1は本発明の自己位置推定方法に係る第1の実施形態を実施するための定位システムを示すブロック図である。本発明の自己位置推定方法に係る第1の実施形態は、目標物体の位置を推定することに適用し、目標物体に配置された定位システム1によって実行される。図1に示されているように、該定位システム1は、第1のセンサーユニット11と、自己位置推定及び環境地図作成ユニット12と、第1のセンサーユニット11と自己位置推定及び環境地図作成ユニット12とに電気的接続されている物体分類ユニット13と、を具える。また、本実施形態において、目標物体は、自動運転車であるが、本発明としては、これに限定されない。
第1のセンサーユニット11は、目標物体の周囲環境を連続的に検出して、最新の検出時点に関する周囲環境の情報及び過去の検出時点に関する周囲環境の情報を含む第1の検出情報と、周囲環境の情報に関する第2の検出情報と、を得るように構成されている。過去の検出時点と最新の検出時点との間には、所定の検出期間がある。
また、第1のセンサーユニット11としては、例えば、ライダー、レーダー、カメラなどを適用することができる。本実施形態において、第1のセンサーユニット11は、ライダーモジュールを有し、従って、本実施形態における第1の検出情報は、最新の検出時点に関する周囲環境の最新の点群データと、過去の検出時点に関する周囲環境の過去の点群データと、を含む。最新の点群データと過去の点群データは、それぞれ違う時点で得られた複数の点群データ部分を含む。また、各時点において、任意の隣接する2つの時点の間には、所定の期間がある。
本実施形態において、第2の検出情報は、最新の点群データと同じものであり、第1の検出情報は、物体分類ユニット13に提供され、第2の検出情報は、自己位置推定及び環境地図作成ユニット12に提供される。
自己位置推定及び環境地図作成ユニット12は、第2の検出情報に基づいて、従来の自己位置推定及び環境地図作成演算法により、目標物体の周囲環境に関する地図を作成して、目標物体の位置を推定するように構成されている。
物体分類ユニット13は、第1の検出情報に基づいて、周囲環境にある1つ以上の周囲オブジェクトを定義して、1つ以上の周囲オブジェクトから、1つ以上の追跡オブジェクトを選択して、該追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類するように構成されている。
図2は本発明の自己位置推定方法に係る第1の実施形態を示すフローチャートである。図1と図2に示されているように、本発明の自己位置推定方法に係る第1の実施形態は、ステップ21〜ステップ28が実行される。
ステップ21において、第1のセンサーユニット11は、目標物体の周囲環境を連続的に検出して、最新の検出時点に関する周囲環境の情報及び過去の検出時点に関する周囲環境の情報を含む第1の検出情報と、周囲環境の情報に関する第2の検出情報と、を得て、第1の検出情報を物体分類ユニット13に提供し、第2の検出情報を自己位置推定及び環境地図作成ユニット12に提供する。本実施形態において、第1のセンサーユニット11は、ライダーモジュールを有し、第1の検出情報は、最新の検出時点に関する周囲環境の最新の点群データと、過去の検出時点に関する周囲環境の過去の点群データと、を含み、第2の検出情報は、最新の点群データと同じものであり、最新の点群データと過去の点群データは、それぞれ違う時点で得られた複数の点群データ部分を含む。
ステップ22において、物体分類ユニット13は、最新の点群データ及び過去の点群データに対して、各時点における目標物体の位置及び角度(つまり、目標物体が向かっている方向)に基づいて、最新の点群データ及び過去の点群データにおける最初の時点で得られた最初の点群データ部分を除いた各点群データ部分を校正して、過去の校正済み点群データ及び最新の校正済み点群データを得る。
過去の校正済み点群データは、過去の点群データにおける最初の点群データ部分と、校正された過去の点群データにおける複数の点群データ部分と、を含み、最新の校正済み点群データは、最新の点群データにおける最初の点群データ部分と、校正された最新の点群データにおける複数の点群データ部分と、を含む。
具体的には、例えば、最新の点群データと過去の点群データは、それぞれ最初の時点から第Nの時点で得られた最初の点群データ部分から第Nの点群データ部分を含む。ステップ22において、物体分類ユニット13は、第2の時点で得られた第2の点群データ部分から第Nの時点で得られた第Nの点群データ部分を校正する。過去の校正済み点群データは、過去の点群データにおける最初の点群データ部分と、校正された過去の点群データにおける第2の点群データ部分から第Nの点群データ部分と、を含む。最新の校正済み点群データは、最新の点群データにおける最初の点群データ部分と、校正された最新の点群データにおける第2の点群データ部分から第Nの点群データ部分と、を含む。
本実施形態において、最新の点群データにおける最初の時点とは、最新の点群データに対応する検出時点であり、また、過去の点群データにおける最初の時点とは、過去の点群データに対応する検出時点であるため、それぞれの最初の時点で得られた最初の点群データ部分を校正する必要はない。
また、目標物体が自動運転車であれば、各時点における該目標物体の位置及び角度は、自動運転車から得られた速度信号及び回転角度(舵角)信号に基づいて、従来のバイシクルモデルにより得ることができる。
図3は物体分類ユニットが違う時点で得られた複数の点群データ部分を校正することを示すフローチャートである。図1と図3に示されているように、ステップ22は、サブステップ221とサブステップ222とが実行される。
サブステップ221において、物体分類ユニット13は、最新の点群データ及び過去の点群データに対して、最初の時点から第Nの時点における目標物体の位置及び角度に基づいて、第2の時点から第Nの時点をそれぞれ校正するための(N−1)個の第1の平行移動校正行列と(N−1)個の第1の回転校正行列とを得る。
詳しくは、本実施形態において、物体分類ユニット13は、第rの時点における目標物体の位置及び第(r−1)の時点における目標物体の位置に基づいて、第(r−1)の時点から第rの時点までの目標物体の変位(即ち、目標物体に配置されている第1のセンサーユニット11の変位)を計算して、第rの時点に対応する第1の平行移動校正行列を得る。例えば、第3の時点に対応する第1の平行移動校正行列は、第3の時点における目標物体の位置及び第2の時点における目標物体の位置に基づいて、第2の時点から第3の時点までの目標物体の変位を計算して得るものである。
更に、物体分類ユニット13は、第rの時点における目標物体の角度及び第(r−1)の時点における目標物体の角度に基づいて、第(r−1)の時点から第rの時点までの目標物体の回転角度(即ち、目標物体に配置されている第1のセンサーユニット11の回転角度)を計算して、第rの時点に対応する第1の回転校正行列を得る。例えば、第3の時点に対応する第1の回転校正行列は、第3の時点における目標物体の角度及び第2の時点における目標物体の角度に基づいて、第2の時点から第3の時点までの目標物体の回転角度を計算して得るものである。ここで、rは2以上N以下の自然数である。
これにより、物体分類ユニット13は、第2の時点から第Nの時点にそれぞれ対応する(N−1)個の第1の平行移動校正行列と(N−1)個の第1の回転校正行列とを得る。
サブステップ222において、物体分類ユニット13は、最新の点群データ及び過去の点群データに対して、サブステップ221で得られた、第2の時点から第Nの時点にそれぞれ対応する(N−1)個の第1の平行移動校正行列及び(N−1)個の第1の回転校正行列に基づいて、第2の点群データ部分から第Nの点群データ部分を校正して、過去の校正済み点群データ及び最新の校正済み点群データを得る。
詳しくは、本実施形態において、物体分類ユニット13は、第2の時点から第rの時点に対応する(r−1)個の第1の平行移動校正行列及び(r−1)個の第1の回転校正行列により、第rの時点で得られた第rの点群データ部分を校正する。例えば、第3の点群データ部分を校正するために、第2の時点に対応する第1の平行移動校正行列及び第1の回転校正行列と、第3の時点に対応する第1の平行移動校正行列及び第1の回転校正行列と、が用いられる。これで、第2の点群データ部分から第Nの点群データ部分を校正する。校正された第2の点群データ部分から第Nの点群データ部分は、最初の点群データ部分と共に、校正済み点群データを構成する。
目標物体が移動すると、検出時点における隣接する2つの時点における目標物体の変位により、該2つの時点で得られた点群データ部分がずれてしまう。そのため、ステップ22が実行され、上記の点群データ部分のずれを解決する。また、目標物体の速度が所定の速度閾値より小さい場合には、隣接する2つの時点における目標物体の変位が小さくなり、点群データ部分のずれを無視することができる。従って、目標物体の速度が前記速度閾値より小さい場合、ステップ22を省略してもよい。
図2に示されているように、ステップ23において、物体分類ユニット13は、第1の検出情報に基づいて、周囲環境にある1つ以上の周囲オブジェクトを定義する。具体的に、物体分類ユニット13は、過去の点群データをクラスタリングして、少なくとも1つの第1の点群クラスターが判断されると、該少なくとも1つの第1の点群クラスターを周囲オブジェクトとして定義すると共に、最新の点群データをクラスタリングして、少なくとも1つの第2の点群クラスターが判断されると、該少なくとも1つの第2の点群クラスターを周囲オブジェクトとして定義する。更に、ステップ22が実行された場合、過去の校正済み点群データで過去の点群データを書き換え、且つ、最新の校正済み点群データで最新の点群データを書き換えてから、点群データをクラスタリングする。
ステップ24において、物体分類ユニット13は、1つ以上の周囲オブジェクトから1つ以上の追跡オブジェクトを選択する。なお、本実施形態において、追跡オブジェクトは、サイズが所定のサイズ範囲にある周囲オブジェクトから選択される。また、ステップ23において定義された周囲オブジェクトが1つのみである場合、ステップ24においては当該1つの周囲オブジェクトを追跡オブジェクトとして選択する。
ステップ25において、物体分類ユニット13は、各追跡オブジェクトに対して、該追跡オブジェクトの最新の検出時点における情報及び該追跡オブジェクトの過去の検出時点における情報を示す第1の検出情報に基づいて、該追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類する。
図4は物体分類ユニットが追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類することを示すフローチャートである。図1と図4に示されているように、ステップ25は、サブステップ251〜サブステップ254が実行される。
サブステップ251において、物体分類ユニット13は、各追跡オブジェクトに対して、該追跡オブジェクトに係る第1の点群クラスターに基づいて、該追跡オブジェクトの過去の検出時点に関する過去位置を得る。
サブステップ252において、物体分類ユニット13は、各追跡オブジェクトに対して、該追跡オブジェクトに係る第2の点群クラスターに基づいて、該追跡オブジェクトの最新の検出時点に関する最新位置を得る。
サブステップ253において、物体分類ユニット13は、各追跡オブジェクトに対して、サブステップ252で得られた該追跡オブジェクトの最新位置と、目標物体の最新の検出時点における位置及び角度と、目標物体の過去の検出時点における位置及び角度と、に基づいて、該追跡オブジェクトの過去の検出時点の仮定過去位置を推定する。また、該目標物体の最新の検出時点における位置及び角度と、目標物体の過去の検出時点における位置及び角度は、上述したように、従来のバイシクルモデルにより得ることができる。
具体的に、物体分類ユニット13は、最新の検出時点における目標物体の位置及び過去の検出時点における目標物体の位置に基づいて、過去の検出時点から最新の検出時点までの目標物体の変位を計算して、最新の検出時点に対応する第2の平行移動校正行列を得る。更に、物体分類ユニット13は、最新の検出時点における目標物体の角度及び過去の検出時点における目標物体の角度に基づいて、過去の検出時点から最新の検出時点までの目標物体の回転角度を計算して、最新の検出時点に対応する第2の回転校正行列を得る。そして、物体分類ユニット13は、各追跡オブジェクトに対して、該追跡オブジェクトの最新位置と、第2の平行移動校正行列と、第2の回転校正行列とに基づいて、該追跡オブジェクトの過去の検出時点の仮定過去位置を推定する。
サブステップ254において、物体分類ユニット13は、各追跡オブジェクトに対して、該追跡オブジェクトの過去位置及び仮定過去位置に基づいて、該追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類する。具体的に、物体分類ユニット13は、各追跡オブジェクトに対して、該追跡オブジェクトの過去位置と仮定過去位置との距離が所定の距離閾値より大きい場合には、該追跡オブジェクトを移動オブジェクトに分類し、該追跡オブジェクトの過去位置と仮定過去位置との距離が前記距離閾値以下の場合には、該追跡オブジェクトを静止オブジェクトに分類する。
図1と図2に示されているように、ステップ26において、物体分類ユニット13は、ステップ25で得られた分類結果を自己位置推定及び環境地図作成ユニット12に送信する。該分類結果には、移動オブジェクトに分類された追跡オブジェクトに該当する情報が示されている。また、該分類結果に示されている追跡オブジェクトに該当する情報は、該追跡オブジェクトに対応する第2の点群クラスターであってもよいが、該追跡オブジェクトに対応する第2の点群クラスターに基づいて得られた座標(例えば、対応する第2の点群クラスターの中心座標)であってもよい。
ステップ27において、自己位置推定及び環境地図作成ユニット12は、第2の検出情報から移動オブジェクトに分類された追跡オブジェクトに該当する情報を除去して、第2の検出情報から移動オブジェクトに分類された追跡オブジェクトに該当する情報が除去された更新後第2の検出情報を得る。
ステップ28において、自己位置推定及び環境地図作成ユニット12は、更新後第2の検出情報に基づいて、自己位置推定及び環境地図作成演算法により目標物体の位置を推定する。
更新後第2の検出情報には、移動オブジェクトに分類された追跡オブジェクトの情報が含まれていないので、自己位置推定及び環境地図作成ユニット12が環境地図を作成し、自己位置を推定するときには、移動オブジェクトの不確定性による影響がなくなるため、本実施形態は、従来より、定位精度が高い。
(第2の実施形態)
図5は本発明の自己位置推定方法に係る第2の実施形態を実施するための定位システムを示すブロック図である。図5に示されているように、本発明の第2の実施形態を実行する定位システム1は、自己位置推定及び環境地図作成ユニット12に電気的に接続される第2のセンサーユニット14を更に具える点を除いて、第1の実施形態を実行する定位システム1と同じである。また、第2のセンサーユニット14は、目標物体の周囲環境を検出して、第1のセンサーユニット11の代わりに第2の検出情報を得て、該第2の検出情報を自己位置推定及び環境地図作成ユニット12に提供するように構成されている。
本実施形態において、第2のセンサーユニット14は、深度カメラのような画像撮影モジュールを有する。該画像撮影モジュールは、目標物体の周囲環境を撮影し、撮影された画像を第2の検出情報として提供する。また、第2のセンサーユニット14は、第1のセンサーユニット11と同期している。つまり、第1のセンサーユニット11が周囲環境を検出すると同時に第2のセンサーユニット14が目標物体の周囲環境を撮影する。
図6は本発明の自己位置推定方法に係る第2の実施形態を示すフローチャートである。図5と図6に示されているように、本発明の自己位置推定方法に係る第2の実施形態には、ステップ30〜ステップ39が実行される。
本実施形態におけるステップ31〜ステップ34は、第1の実施形態におけるステップ22〜ステップ25と同じであるので、ここでは省略する。第1の実施形態に比して、本実施形態において、第2のセンサーユニット14により得られた第2の検出情報は、第1のセンサーユニット11により得られた第1の検出情報と異なるので、ステップ34で得られた分類結果における移動オブジェクトに分類された追跡オブジェクトの情報を転換する必要がある。したがって、ステップ35とステップ36が実行される。
ステップ30において、第1のセンサーユニット11は、目標物体の周囲環境を連続的に検出して、最新の検出時点に関する周囲環境の情報及び過去の検出時点に関する周囲環境の情報を含む第1の検出情報を得て、物体分類ユニット13に提供する。同時に、第2のセンサーユニット14は、周囲環境の情報に関する第2の検出情報を得て、自己位置推定及び環境地図作成ユニット12に提供する。
本実施形態において、第1のセンサーユニット11は、ライダーモジュールを有し、第1の検出情報は、最新の検出時点に関する周囲環境の最新の点群データと、過去の検出時点に関する周囲環境の過去の点群データと、を含み、最新の点群データと過去の点群データは、それぞれ違う時点で得られた複数の点群データ部分を含む。また、第2のセンサーユニットは、画像撮影モジュールを有し、第2の検出情報は、最新の検出時点に関する周囲環境の画像である。
ステップ35において、物体分類ユニット13は、移動オブジェクトに分類された各追跡オブジェクトに対して、該追跡オブジェクトが対応する第2の点群クラスターに基づいて、該追跡オブジェクトの第1の代表座標(例えば、対応する第2の点群クラスターの中心座標)を得る。
ステップ36において、物体分類ユニット13は、移動オブジェクトに分類された各追跡オブジェクトに対して、第1の検出情報に係る点群座標系から第2の検出情報に係るピクセル座標系に変換するための座標変換パラメーターセットに基づいて、該追跡オブジェクトの第1の代表座標を第2の検出情報に係るピクセル座標系に対応する第2の代表座標に変換する。
また、該座標変換パラメーターセットは、内部パラメーター行列と外部パラメーター行列とを含む。該内部パラメーター行列は、第2のセンサーユニット14の焦点距離と、第2のセンサーユニット14によって得られた画像の中心座標と、により得られる。該外部パラメーター行列は、以下の式1により画成される。

Figure 2021103482
上記式1において、

Figure 2021103482
は、第2のセンサーユニット14の位置を示し、

Figure 2021103482
は、第1のセンサーユニット11の位置を示し、

Figure 2021103482
は、三次元回転行列を示し、

Figure 2021103482
は、平行移動行列を示す。そして、三次元回転行列と平行移動行列は、共に外部パラメーター行列を画成する。
ステップ37において、物体分類ユニット13は、ステップ34で得られた分類結果を自己位置推定及び環境地図作成ユニット12に送信する。また、該分類結果に示されている追跡オブジェクトに該当する情報は、ステップ36で得られた該追跡オブジェクトに対応する第2の代表座標である。
ステップ38において、自己位置推定及び環境地図作成ユニット12は、第2の検出情報から第2の代表座標が対応する追跡オブジェクトが除去された更新後第2の検出情報を得る。
ステップ39において、自己位置推定及び環境地図作成ユニット12は、更新後第2の検出情報に基づいて、自己位置推定及び環境地図作成演算法により目標物体の位置を推定する。
上述した2つの実施形態によれば、本発明に係る自己位置推定方法は、更新後第2の検出情報に基づいて、自己位置推定及び環境地図作成演算法により目標物体の位置を推定する。そして、更新後第2の検出情報には、移動オブジェクトに分類された追跡オブジェクトの情報が含まれていないので、自己位置推定及び環境地図作成ユニット12が環境地図を作成し、自己位置を推定するときには、移動オブジェクトの不確定性による影響がなくなるため、本発明は、従来より、定位精度が高い。
以上、本発明の好ましい実施形態及び変化例を説明したが、本発明はこれらに限定されるものではなく、最も広い解釈の精神および範囲内に含まれる様々な構成として、全ての修飾および均等な構成を包含するものとする。
本発明に係る自己位置推定方法は、地図を作成するときに移動物体の不確定性による影響を排除できるので、従来のSLAMより定位精度が高い。そのため、本発明は、SLAM機能を搭載した様々な物体(例えば、自動運転車、ロボット掃除機など)に対する様々な応用が可能である。
1 定位システム
11 第1のセンサーユニット
12 自己位置推定及び環境地図作成ユニット
13 物体分類ユニット
14 第2のセンサーユニット

Claims (7)

  1. 目標物体に配置された定位システムによって実行される自己位置推定方法において、
    前記目標物体の周囲環境を連続的に検出して、最新の検出時点に関する前記周囲環境の情報及び過去の検出時点に関する前記周囲環境の情報を含む第1の検出情報と、前記周囲環境の情報に関する第2の検出情報と、を得、前記過去の検出時点と前記最新の検出時点との間には、所定の検出期間があるステップ(A)と、
    前記第1の検出情報に基づいて、前記周囲環境にある1つ以上の周囲オブジェクトを定義するステップ(B)と、
    前記1つ以上の周囲オブジェクトから1つ以上の追跡オブジェクトを選択するステップ(C)と、
    各前記追跡オブジェクトに対して、該追跡オブジェクトの前記最新の検出時点における情報及び該追跡オブジェクトの前記過去の検出時点における情報を示す前記第1の検出情報に基づいて、該追跡オブジェクトを移動オブジェクト又は静止オブジェクトに分類するステップ(D)と、
    前記第2の検出情報から移動オブジェクトに分類された前記追跡オブジェクトに該当する情報が除去された更新後第2の検出情報を得るステップ(E)と、
    前記更新後第2の検出情報に基づいて、自己位置推定及び環境地図作成演算法により前記目標物体の位置を推定するステップ(F)と、が実行される
    ことを特徴とする自己位置推定方法。
  2. 前記定位システムは、前記目標物体の前記周囲環境を連続的に検出して、前記第1の検出情報を得るライダーモジュールを有し、
    前記第1の検出情報は、前記最新の検出時点に関する前記周囲環境の最新の点群データと、前記過去の検出時点に関する前記周囲環境の過去の点群データと、を含み、
    前記ステップ(B)において、前記過去の点群データをクラスタリングして、少なくとも1つの第1の点群クラスターが判断されると、該少なくとも1つの第1の点群クラスターを前記周囲オブジェクトとして定義すると共に、前記最新の点群データをクラスタリングして、少なくとも1つの第2の点群クラスターが判断されると、該少なくとも1つの第2の点群クラスターを前記周囲オブジェクトとして定義する
    ことを特徴とする請求項1に記載の自己位置推定方法。
  3. 前記第2の検出情報は、前記最新の点群データと同じものであり、
    前記ステップ(E)において、前記第2の検出情報から、移動オブジェクトに分類された前記追跡オブジェクトに対応する前記第2の点群クラスターを除去する
    ことを特徴とする請求項2に記載の自己位置推定方法。
  4. 前記ステップ(D)は、
    各前記追跡オブジェクトに対して、該追跡オブジェクトに係る前記第1の点群クラスターに基づいて、該追跡オブジェクトの前記過去の検出時点に関する過去位置を得るサブステップ(D1)と、
    各前記追跡オブジェクトに対して、該追跡オブジェクトに係る前記第2の点群クラスターに基づいて、該追跡オブジェクトの前記最新の検出時点に関する最新位置を得るサブステップ(D2)と、
    各前記追跡オブジェクトに対して、前記サブステップ(D2)で得られた該追跡オブジェクトの前記最新位置と、前記目標物体の前記最新の検出時点における位置及び角度と、前記目標物体の前記過去の検出時点における位置及び角度と、に基づいて、該追跡オブジェクトの前記過去の検出時点の仮定過去位置を推定するサブステップ(D3)と、
    各前記追跡オブジェクトに対して、該追跡オブジェクトの前記過去位置と前記仮定過去位置との距離が所定の距離閾値より大きい場合には、該追跡オブジェクトを移動オブジェクトに分類し、該追跡オブジェクトの前記過去位置と前記仮定過去位置との距離が前記距離閾値以下の場合には、該追跡オブジェクトを静止オブジェクトに分類するサブステップ(D4)と、を含む
    ことを特徴とする請求項2又は請求項3に記載の自己位置推定方法。
  5. 前記最新の点群データと前記過去の点群データは、それぞれ違う時点で得られた複数の点群データ部分を含み、
    前記ステップ(A)と前記ステップ(B)との間には、
    前記最新の点群データ及び前記過去の点群データに対して、各時点における前記目標物体の位置及び角度に基づいて、前記最新の点群データ及び前記過去の点群データにおける最初の時点で得られた最初の点群データ部分を除いた各前記点群データ部分を校正して、過去の校正済み点群データ及び最新の校正済み点群データを得るステップ(G)が実行され、
    前記過去の校正済み点群データは、前記過去の点群データにおける前記最初の点群データ部分と、前記ステップ(G)に校正された前記過去の点群データにおける複数の前記点群データ部分と、を含み、
    前記最新の校正済み点群データは、前記最新の点群データにおける前記最初の点群データ部分と、前記ステップ(G)に校正された前記最新の点群データにおける複数の前記点群データ部分と、を含み、
    前記ステップ(B)において、前記過去の校正済み点群データで前記過去の点群データを書き換え、且つ、前記最新の校正済み点群データで前記最新の点群データを書き換えてから、前記点群データをクラスタリングする
    ことを特徴とする請求項2に記載の自己位置推定方法。
  6. 前記定位システムは、前記目標物体の前記周囲環境を撮影して、前記第2の検出情報を得る画像撮影モジュールを有し、
    前記ステップ(D)と前記ステップ(E)との間には、
    移動オブジェクトに分類された各前記追跡オブジェクトに対して、該追跡オブジェクトが対応する前記第2の点群クラスターに基づいて、該追跡オブジェクトの第1の代表座標を得るステップ(H)と、
    移動オブジェクトに分類された各前記追跡オブジェクトに対して、前記第1の検出情報に係る点群座標系から前記第2の検出情報に係るピクセル座標系に変換するための座標変換パラメーターセットに基づいて、該追跡オブジェクトの前記第1の代表座標を前記第2の検出情報に係る前記ピクセル座標系に対応する第2の代表座標に変換するステップ(I)と、が実行され、
    前記ステップ(E)において、移動オブジェクトに分類された各前記追跡オブジェクトの前記第2の代表座標に基づいて、前記第2の検出情報から、移動オブジェクトに分類された各前記追跡オブジェクトの情報を除去する
    ことを特徴とする請求項2に記載の自己位置推定方法。
  7. 前記ステップ(C)において、前記追跡オブジェクトは、サイズが所定のサイズ範囲内にある前記周囲オブジェクトから選択される
    ことを特徴とする請求項1に記載の自己位置推定方法。
JP2019235104A 2019-12-25 2019-12-25 自己位置推定方法 Active JP7092741B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019235104A JP7092741B2 (ja) 2019-12-25 2019-12-25 自己位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235104A JP7092741B2 (ja) 2019-12-25 2019-12-25 自己位置推定方法

Publications (2)

Publication Number Publication Date
JP2021103482A true JP2021103482A (ja) 2021-07-15
JP7092741B2 JP7092741B2 (ja) 2022-06-28

Family

ID=76755352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235104A Active JP7092741B2 (ja) 2019-12-25 2019-12-25 自己位置推定方法

Country Status (1)

Country Link
JP (1) JP7092741B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023062862A1 (ja) * 2021-10-13 2023-04-20 パナソニックIpマネジメント株式会社 データ処理装置およびデータ処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271513A (ja) * 2008-04-30 2009-11-19 Samsung Electronics Co Ltd ロボット及びその地図作成方法
JP2013200604A (ja) * 2012-03-23 2013-10-03 Toyota Motor Corp 移動ロボット
JP2014174683A (ja) * 2013-03-07 2014-09-22 Advanced Telecommunication Research Institute International 位置推定装置、位置推定プログラムおよび位置推定方法
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム
JP2018004343A (ja) * 2016-06-29 2018-01-11 クラリオン株式会社 車載処理装置
WO2019054209A1 (ja) * 2017-09-13 2019-03-21 日本電産シンポ株式会社 地図作成システムおよび地図作成装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271513A (ja) * 2008-04-30 2009-11-19 Samsung Electronics Co Ltd ロボット及びその地図作成方法
JP2013200604A (ja) * 2012-03-23 2013-10-03 Toyota Motor Corp 移動ロボット
JP2014174683A (ja) * 2013-03-07 2014-09-22 Advanced Telecommunication Research Institute International 位置推定装置、位置推定プログラムおよび位置推定方法
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム
JP2018004343A (ja) * 2016-06-29 2018-01-11 クラリオン株式会社 車載処理装置
WO2019054209A1 (ja) * 2017-09-13 2019-03-21 日本電産シンポ株式会社 地図作成システムおよび地図作成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023062862A1 (ja) * 2021-10-13 2023-04-20 パナソニックIpマネジメント株式会社 データ処理装置およびデータ処理方法

Also Published As

Publication number Publication date
JP7092741B2 (ja) 2022-06-28

Similar Documents

Publication Publication Date Title
CN112567201B (zh) 距离测量方法以及设备
US20230152461A1 (en) Determining Yaw Error from Map Data, Lasers, and Cameras
US11754721B2 (en) Visualization and semantic monitoring using lidar data
CN111436216B (zh) 用于彩色点云生成的方法和系统
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
Held et al. Precision tracking with sparse 3d and dense color 2d data
US20220357441A1 (en) Radar and camera data fusion
JP2014025925A (ja) 車両用コントローラ、車両システム
JP7190261B2 (ja) 位置推定装置
JP7343054B2 (ja) 位置推定方法、位置推定装置、および位置推定プログラム
KR20180076441A (ko) 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
KR20190115982A (ko) 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
JP7092741B2 (ja) 自己位置推定方法
KR102195040B1 (ko) 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법
WO2023040137A1 (zh) 数据处理
WO2022133986A1 (en) Accuracy estimation method and system
JPWO2019087581A1 (ja) 情報処理装置と情報処理方法およびプログラム
JP2023152109A (ja) 地物検出装置、地物検出方法及び地物検出用コンピュータプログラム
AU2018102199A4 (en) Methods and systems for color point cloud generation
JP2021047744A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7363225B2 (ja) 計測装置、計測システム、計測方法およびプログラム
US20240185456A1 (en) Method of sensor fusion for harmonizing data from multiple data sources
US20230100412A1 (en) A system, a method and a computer program for generating a digital map of an environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220616

R150 Certificate of patent or registration of utility model

Ref document number: 7092741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150