JP2020095435A - Moving body - Google Patents
Moving body Download PDFInfo
- Publication number
- JP2020095435A JP2020095435A JP2018232357A JP2018232357A JP2020095435A JP 2020095435 A JP2020095435 A JP 2020095435A JP 2018232357 A JP2018232357 A JP 2018232357A JP 2018232357 A JP2018232357 A JP 2018232357A JP 2020095435 A JP2020095435 A JP 2020095435A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- dimensional point
- sensor
- unit
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009826 distribution Methods 0.000 claims abstract description 76
- 238000012545 processing Methods 0.000 claims abstract description 33
- 238000012937 correction Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 24
- 230000010365 information processing Effects 0.000 abstract description 17
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000000605 extraction Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Abstract
Description
本発明は、移動体に関する。 The present invention relates to a mobile body.
ロボット、自動車などの移動体がその周囲の情報を収集し、移動体の現在位置及び走行状態を推定し、移動体の走行を制御する自律走行技術及び運転支援技術が開発されている。 BACKGROUND ART Autonomous traveling technology and driving support technology have been developed in which a moving body such as a robot or an automobile collects information about its surroundings, estimates the current position and running state of the moving body, and controls the traveling of the moving body.
例えば、特許文献1には、自己位置の推定の精度を向上することを目的として、複数の三次元点のうち、距離センサからの距離が所定の距離閾値未満である複数の三次元点と、距離センサからの距離が距離閾値以上であっても特徴量が特徴量閾値以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点とを抽出し、抽出した複数の三次元点と、環境地図が示す複数の三次元点とをマッチングすることで自己位置を推定する方法が開示されている。
For example, in
特許文献2には、誤差の累積を抑制し、目標物になりそうなものがない単調な道路でも適切に真の現在位置を算出することを目的として、移動体の現在位置における2次元画像である観測画像と、予め用意された仮現在位置に対応する2次元画像である参照画像と、を画像マッチングにより照合し、その照合結果に基づいて、移動体の真の現在位置を算出する技術が開示されている。
特許文献1においては、複数の三次元点を抽出する際、適切な三次元点を必ずしも抽出できるとは限らない。
In
特許文献2においては、処理が必要なデータ量が多い画像マッチングを行うため、移動体に内蔵された演算装置の限られた計算能力では、十分に短い時間内に結果を示すことが困難となる場合がある。
In
移動体自体に内蔵された情報処理装置の処理能力等には限界があるため、処理するデータ数を減らす必要性があることが求められている。 Since there is a limit to the processing capability of the information processing device built in the mobile body itself, it is necessary to reduce the number of data to be processed.
本発明の目的は、計算能力が限られている移動体の情報処理装置を用いて、短い処理時間で、移動体の現在位置の存在確率分布の範囲が狭い状態を維持する計算をし、移動体の位置を高精度で推定することにある。 An object of the present invention is to perform a calculation for maintaining a state in which the range of the existence probability distribution of the current position of the mobile object is narrow in a short processing time by using the information processing device of the mobile object whose calculation ability is limited, and to move the mobile object. It is to estimate the position of the body with high accuracy.
上記課題を解決するために、本発明の移動体は、周囲の情報を収集するセンサと、センサによって取得した情報を処理するセンサ処理部と、三次元点取得部と、フィルター部と、マッチング部と、自己位置補正部と、を有し、三次元点取得部は、センサから得られた三次元点を取得し、フィルター部は、マップに含まれる三次元点のうち移動体の現在の仮位置から参照可能な三次元点を求め、マッチング部は、三次元点取得部に記録されている三次元点とフィルター部が求めた参照可能な三次元点とのマッチングを行い、自己位置補正部は、マッチングに成功した三次元点を基にマップにおける移動体の現在の位置を求める。 In order to solve the above problems, the mobile object of the present invention is a sensor that collects information about the surroundings, a sensor processing unit that processes information acquired by the sensor, a three-dimensional point acquisition unit, a filter unit, and a matching unit. And a self-position correction unit, the three-dimensional point acquisition unit acquires the three-dimensional points obtained from the sensor, and the filter unit, among the three-dimensional points included in the map, the current temporary position of the moving body. The matching unit obtains a referable three-dimensional point from the position, the matching unit performs matching between the three-dimensional point recorded in the three-dimensional point acquisition unit and the referable three-dimensional point obtained by the filter unit, and the self-position correction unit Calculates the current position of the moving body on the map based on the three-dimensional points that have been successfully matched.
本発明によれば、計算能力が限られている移動体の情報処理装置を用いて、短い処理時間で、移動体の現在位置の存在確率分布の範囲が狭い状態を維持する計算をし、移動体の位置を高精度で推定することができる。 According to the present invention, by using a mobile information processing device having a limited calculation capability, a calculation is performed in a short processing time to maintain a state in which the existence probability distribution of the current position of the mobile is narrow, The position of the body can be estimated with high accuracy.
本発明は、ロボットや自動車などの移動体の位置を推定する技術に関する。 The present invention relates to a technique for estimating the position of a moving body such as a robot or an automobile.
以下、本発明の実施形態に係る移動体の位置推定装置について、図面を用いて説明する。 Hereinafter, a position estimation device for a mobile body according to an embodiment of the present invention will be described with reference to the drawings.
なお、本明細書においては、「三次元点」は、形状を有する物体の表面及び内部に位置する空間上の座標を表すものであり、センサにより得られた点、マップに含まれる点等を含むものとする。 In the present specification, the “three-dimensional point” represents the coordinates in the space located on the surface and inside of an object having a shape, and the points obtained by the sensor, the points included in the map, etc. Shall be included.
図1は、本発明の一実施形態に係る移動体を示す構成図である。 FIG. 1 is a configuration diagram showing a moving body according to an embodiment of the present invention.
本図において、移動体100は、位置推定装置1を備えている。位置推定装置1は、移動体100の外部に存在する外部記憶装置19と通信可能となっている。この通信は、無線が望ましい。移動体100は、自動車、ロボットなどである。
In the figure, the moving
位置推定装置1は、信号受付部2と、一台以上のセンサ12(12a、12b、…、12n)と、情報処理装置13と、を有する。これらの構成要素は、バス18により相互に接続されている。
The
情報処理装置13は、例えば一般的なコンピュータ(電子計算機)であって、センサ12によって取得した情報を処理するセンサ処理部14と、センサ処理結果に基づく処理を行う制御部15(CPU)と、メモリ16と、ディスプレイなどの表示部17と、を含む。情報処理装置13においては、センサ処理部14及び制御部15が所定のコンピュータプログラムを実行する。実行する内容については後述する。
The
信号受付部2においては、外部からの信号を受信する。信号受付部2は、例えば、世界の絶対座標で現在位置を推定するGPS(Global Positioning System:全地球測位システム)である。また、信号受付部2は、GPSよりも精度よく現在位置を推定するRTK−GPS(Real Time Kinematic GPS)でもよい。また、信号受付部2は、準天頂衛星システムでもよい。また、信号受付部2は、既知の位置に固定されたビーコンからの信号を受信するものでもよい。また、信号受付部2は、車輪エンコーダ、IMU(Inertial Measurement Unit:慣性計測装置)、ジャイロなど、相対座標で位置を推定するセンサから受信してもよい。また、信号受付部2は、走行環境の車線、標識、交通状態、立体物の形状、大きさ、高さなどの情報を受信してもよい。最終的に、移動体100の現在位置推定や制御や認知に利用できれば、どのような方式でもよい。
The
センサ12は、例えばスチルカメラまたはビデオカメラである。また、センサ12は、単眼カメラまたは複眼カメラでもよい。また、センサ12は、レーザセンサでもよい。 The sensor 12 is, for example, a still camera or a video camera. Further, the sensor 12 may be a monocular camera or a compound eye camera. Further, the sensor 12 may be a laser sensor.
情報処理装置13は、センサ12で取得した情報を処理して、移動体100の位置または移動量を算出する。情報処理装置13は、算出された位置または移動量に応じた表示を行ってもよい。また、情報処理装置13は、移動体100の制御に関する信号を出力してもよい。
The
つぎに、センサ12の詳細について説明する。 Next, the details of the sensor 12 will be described.
センサ12aは、例えば、移動体100の前方に設置されている。センサ12aは、レンズを有し、移動体100の前方の遠景情報を取得するものである。この場合、遠景から取得した情報は、立体物、または位置推定のためのランドマークなどの特徴が抽出されるようにしてもよい。
The sensor 12a is installed in front of the
他のセンサ12b、…、12nは、センサ12aと異なる位置に設置され、センサ12aと異なる方向または領域を撮像する。センサ12bは、例えば、移動体100の後方で下方に向けて設置されていてもよい。この場合、センサ12bは、移動体100の後方の近景情報を取得する。近景情報は、移動体100周辺の路面などでもよく、移動体100の周囲の白線、または路面ペイントなどが検出されるようにしてもよい。
The
センサ12が単眼カメラの場合、路面が平らであれば、画像上のピクセル位置と実際の地上位置関係(x,y)が一定になるため、センサ12から特徴点までの距離を幾何学的に計算できる。センサ12がステレオカメラの場合、画像上の特徴点までの距離をより正確に計測できる。また、センサ12がレーザセンサの場合、より正確で遠方の情報を取得できる。 In the case where the sensor 12 is a monocular camera, if the road surface is flat, the pixel position on the image and the actual ground positional relationship (x, y) are constant, so the distance from the sensor 12 to the feature point is geometrically determined. Can be calculated. When the sensor 12 is a stereo camera, the distance to the feature point on the image can be measured more accurately. If the sensor 12 is a laser sensor, more accurate and distant information can be acquired.
以下の説明では、単眼カメラ、ステレオカメラ又はレーザセンサを採用した事例について説明するが、周囲の立体物への距離を算出できれば、これ以外のセンサ(広角レンズを有するカメラまたはTOFカメラなど)でもよい。 In the following description, a case in which a monocular camera, a stereo camera, or a laser sensor is used will be described, but other sensors (a camera having a wide-angle lens or a TOF camera) may be used as long as the distance to a surrounding three-dimensional object can be calculated. ..
また、センサ12a、12b、…、12nは、同時に雨や日差しなどの環境外乱の影響を受けないように配置されていることが望ましい。これにより、例えば、降雨時にセンサ12aのレンズに雨滴が付着した場合でも、進行方向の逆向きまたは下向きのセンサ12bのレンズには雨滴が付着しにくい。このため、センサ12aが取得した情報が雨滴の影響で不鮮明であっても、センサ12bが取得した情報は雨滴の影響を受けにくい。また、日差しの影響でセンサ12aの情報が不鮮明であっても、センサ12bが取得した情報は鮮明である可能性がある。
Further, it is desirable that the
また、センサ12a、12b、…、12nは、互いに異なる取得条件(絞り値、ホワイトバランス、周期、等)で取得してもよい。例えば、明るい場所用にパラメータを調整したセンサと、暗い場所用にパラメータを調整したセンサとを設置することで、環境の明暗によらず撮像可能としてもよい。
Further, the
センサ12a、12b、…、12nは、制御部15から取得開始の指令を受けたとき、または一定の時間間隔で情報を取得する。取得された情報のデータ及び取得時刻は、メモリ16に格納される。
The
メモリ16は、情報処理装置13の主記憶装置(メインメモリ)およびストレージなどの補助記憶装置を含む。
The
センサ処理部14は、メモリ16に格納された情報データ及び取得時刻に基づいて、様々な情報処理を行う。この情報処理では、例えば、中間情報が作成され、メモリ16に保存される。中間情報は、センサ処理部14による処理の他、制御部15などの判断や処理に利用してもよい。
The
バス18は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。
The
外部記憶装置19は、マップを含む移動体100が走行する環境の情報を有する。外部記憶装置19の情報は、例えば、走行環境にある静止物(木、建物、道路、車線、信号、標識、路面ペイント、路端など)の形状や位置である。外部記憶装置19のそれぞれの情報を数式で表してもよい。例えば、線情報を複数点で構成せず、線の傾きと切片のみでよい。また、外部記憶装置19の情報を区別せずに、点群で表してもよい。点群は、3D(x,y,z)、4D(x,y,z,色)などで表してもよい。最終的に、移動体100の現在位置から走行環境を検出し、マップマッチングができれば、外部記憶装置19の情報は、どのような形式で保存しておいてもよい。
The
制御部15から取得開始の指令を受けたとき、外部記憶装置19が情報をメモリ16に送る。外部記憶装置19は、移動体100に設置されている場合、情報をバス18で送受信する。
When receiving the acquisition start command from the
一方、外部記憶装置19が移動体100に設置されていない場合、移動体100と外部記憶装置19との接続は、信号受付部2で行う。この接続は、例えば、Local Area Network(LAN)、Wide Area Network(WAN)等により行うことができる。
On the other hand, when the
センサ処理部14は、外部記憶装置19及びメモリ16に格納された移動体100の現在位置とセンサ12の内部パラメータとに基づいて、センサ12で取得された情報に外部記憶装置19の情報を取得する。
The
センサ処理部14は、センサ12で取得された情報に基づいて移動体の複数の位置候補を特定し、その複数の位置候補と移動体100の移動速度に基づいて移動体100の位置を推定する。
The
センサ処理部14は、移動体100の走行中にセンサ12が取得した情報を処理して、移動体100の位置を推定してもよい。例えば、センサ処理部14は、センサ12が時系列に取得した情報で移動体100の移動量を算出し、過去の位置に移動量を加算して現在位置を推定する。センサ処理部14は、時系列に取得した情報のそれぞれから特徴を抽出してもよい。センサ処理部14は、さらに、次回以降の情報で同じ特徴を抽出する。そして、センサ処理部14は、特徴のトラッキングにより移動体100の移動量を算出する。
The
制御部15は、センサ処理部14の情報処理の結果に基づいて、移動体100に対して移動速度に関する指令を出力する。例えば、制御部15は、情報内の立体物の解像度、情報内の特徴のうちの外れ値の数または情報処理の種類等に応じて、移動体100の移動速度を増加させる指令、減少させる指令または維持させる指令を出力してもよい。
The
図2Aは、図1のセンサ処理部14における情報処理プロセスを示すフロー図である。
FIG. 2A is a flowchart showing an information processing process in the
図2Aにおいて、現在位置推定ステップS201は、移動体100の仮現在位置を推定するステップである。現在位置推定ステップS201は、例えば、絶対位置を推定するGPSで構成する。また、現在位置推定ステップS201は、ある基準点から相対位置を推定するオドメトリで構成してもよい。前述のGPSやオドメトリに基づく位置推定手法には、位置誤差が発生するが、後述する位置補正ステップS206で補正する。
In FIG. 2A, the current position estimation step S201 is a step of estimating the provisional current position of the moving
環境情報抽出ステップS202は、移動体100に設置されているセンサ12a、12b、…、12nで移動体100の周囲の環境情報を抽出するステップである。ここで、環境情報の抽出は、センサ12a、12b、…、12nによる移動体100の周囲の環境のグレイスケール画像、カラー画像、三次元点等の取得を含む。また、環境情報の抽出は、センサ12a、12b、…、12nで取得した画像からの視差画像作成であってもよい。また、環境情報の抽出は、センサ12a、12b、…、12nで取得した情報に含まれる特徴の抽出であってもよい。また、環境情報の抽出は、センサ12a、12b、…、12nで取得した情報に含まれる線情報の抽出であってもよい。
The environmental information extraction step S202 is a step of extracting environmental information around the moving
外部記憶装置情報抽出ステップS203は、制御部15の指令に基づいて、外部記憶装置19から情報を取得するステップである。制御部15の指令で、外部記憶装置19にある情報を全て取得してもよい。また、移動体100の周囲の情報のみを取得してもよい。
The external storage device information extraction step S203 is a step of acquiring information from the
三次元点区別ステップS204は、外部記憶装置情報抽出ステップS203で抽出した外部記憶装置情報の中からマッチングの最も確率が高い三次元点を区別する。三次元点区別ステップS204については、後述する。 The three-dimensional point distinguishing step S204 distinguishes the three-dimensional point having the highest matching probability from the external storage device information extracted in the external storage device information extracting step S203. The three-dimensional point distinction step S204 will be described later.
マッチングステップS205は、環境情報抽出ステップS202でセンサ12a、12b、…、12nで取得した情報を三次元点区別ステップS204で区別した三次元点とマッチングするステップである。マッチングステップS205については、後述する。
The matching step S205 is a step of matching the information acquired by the
位置補正ステップS206は、マッチングステップS205の結果を用い、現在位置推定ステップS201で推定した現在位置を補正するステップである。位置補正ステップS206については、後述する。 The position correction step S206 is a step of correcting the current position estimated in the current position estimation step S201 using the result of the matching step S205. The position correction step S206 will be described later.
図2Bは、図1のセンサ処理部14の構成を示したものである。
FIG. 2B shows a configuration of the
本図において、センサ処理部14は、入出力部210と、三次元点取得部211と、フィルター部212と、マッチング部213と、自己位置補正部214と、を有する。
In the figure, the
入出力部210は、センサ処理部14にて移動体100の位置補正を行うための必要な情報の入出力をする。例えば、入出力部210は、メモリ16に格納されたセンサ12a、12b、…、12nで環境情報抽出ステップS202で取得した情報を取得する。また、入出力部210は、メモリ16に登録された外部記憶装置19の情報抽出ステップS203で外部記憶装置19から情報を取得する。外部記憶装置19から取得する情報量が大きく、メモリ16に格納できない場合、現在位置推定ステップS201で推定した移動体100の現在位置に近い情報だけを取得してもよい。また、現在位置推定ステップS201で推定した移動体100の現在位置から見たときのある領域に入っている情報だけを取得してもよい。
The input/
三次元点取得部211は、入出力部210が取得した情報に基づいて三次元点を取得し、一時的に記録する。センサ12a、12b、…、12nがカメラであり、入出力部210が取得した情報が画像の場合、二次元画像を三次元点に変換する。変換方法は、例えば、視差画像に基づいて画像のそれぞれのピクセルを三次元点にするものであってもよい。また、センサ12a、12b、…、12nが単眼カメラの場合、structure from motion、flat surface model、ORB−SLAM、LSD−SLAMなどの技術を用いてもよい。センサ12a、12b、…、12nがレーザセンサの場合、走行環境の情報を三次元点で抽出するため、他の処理は不要となる。
The three-dimensional
フィルター部212においては、三次元点取得部211で取得三次元点を三次元点区別ステップS204でフィルタリングする。処理時間を軽減させるために、あるエリア以内の三次元点の平均値を算出し、一つの三次元点に絞る。また、コーナーやエッジなどの特徴が少ない走行環境の領域の三次元点を削除してもよい。また、フィルター部212においては、現在位置推定ステップS201で推定した移動体100の仮位置における外部記憶装置19の可視三次元点をフィルタリングする。
In the
マッチングステップS205を実施するとき、センサ12a、12b、…、12nで取得した情報及び外部記憶装置19から取得した情報の数や形状が大きく異なると、マッチングが失敗する可能性が高くなる。したがって、マッチング確率の高い移動体100の仮位置における外部記憶装置19の可視三次元点を抽出することにより、マッチングステップS205で精度よくマッチングができる。なお、このように所定の精度でマッチングができた場合を、「マッチングが成功した」という。
When performing the matching step S205, if the number and the shape of the information acquired by the
マッチング部213は、三次元点取得部211で得た三次元点とフィルター部212で得た可視三次元点とのマッチングをマッチングステップS205で行う。
The
自己位置補正部214では、位置補正ステップS206を行い、移動体100の現在位置を補正する。
The self-
自己位置補正部214で補正した現在位置情報を入出力部210に送信し、制御部15の指令で補正した現在位置情報をメモリ16に送信する。また、制御部15の指令で入出力部210から直接制御部15に自己位置補正部214で補正した現在位置情報を送信してもよい。
The current position information corrected by the self-
なお、上述の説明においては、図2Bの記載に従って、入出力部210、三次元点取得部211、フィルター部212、マッチング部213及び自己位置補正部214がセンサ処理部14に含まれるものとしたが、本発明は、これに限定されるものではなく、入出力部210、三次元点取得部211、フィルター部212、マッチング部213及び自己位置補正部214がセンサ処理部14に含まれない独立の構成要素であってもよい。
In the above description, the input/
つぎに、図3A及び3Bを用いて、三次元点区別ステップS204の詳細を説明する。 Next, details of the three-dimensional point discrimination step S204 will be described with reference to FIGS. 3A and 3B.
図3Aは、図2Aの三次元点区別ステップS204におけるセンサの検出範囲の例を示す模式図である。 FIG. 3A is a schematic diagram showing an example of the detection range of the sensor in the three-dimensional point discrimination step S204 of FIG. 2A.
図3Bは、図2Aの三次元点区別ステップS204の検出誤差を示す模式図である。 FIG. 3B is a schematic diagram showing a detection error in the three-dimensional point discrimination step S204 of FIG. 2A.
図3Aにおいて、符号1001は、外部記憶装置19に登録された移動体100の走行環境の座標(x,y)を指す。
In FIG. 3A,
仮現在位置(X,Y)1002は、現在位置推定ステップS201において推定された座標1001における移動体100の位置である。
The temporary current position (X, Y) 1002 is the position of the moving
移動体100が室内で走行しているとする。移動体100が仮現在位置1002にある時、外部記憶装置19に登録された移動体100の周囲の情報が三次元点群1004と三次元点群1005と三次元点群1006Lと三次元点群1006Rとなるとする。簡単のため、三次元点群1004と三次元点群1005と三次元点群1006Lと三次元点群1006Rの走行環境の地面に対する高さは一定とする。図中、○印は「参照可」であることを表し、●印は「参照不可」であることを表している。
It is assumed that the moving
センサ12a、12b、…、12nの取得角度をFOVとする。移動体100の仮現在位置1002と取得角度FOVに基づいて、三次元点群1004は、センサ12a、12b、…、12nの取得角度FOV外にあるため、参照不可となる。また、三次元点群1005と三次元点群1006Lと三次元点群1006Rは、センサ12a、12b、…、12nの取得角FOV内に入っているが、センサ12a、12b、…、12nは、それぞれの方向の最も近い情報しか得られないため、三次元点群1005は参照可能であり、三次元点群1006Lと三次元点群1006Rは参照不可となってしまう。
The acquisition angle of the
したがって、マッチング部213のマッチングステップS205で移動体100の現在位置1002から参照不可能な三次元点1006Lと三次元点1006Rを用いても、マッチングができない。このため、三次元点1006Lと三次元点1006Rをマッチングに用いられない。
Therefore, even if the three-
よって、フィルター部212は、参照不可能な三次元点1006L、1006Rを除外する。
Therefore, the
なお、簡単のため、三次元点群1004、三次元点群1005、三次元点群1006L及び三次元点群1006Rについては、室内の壁、椅子、テーブル等を想定して説明したが、どのような立体物で構成してもよい。
Note that, for simplicity, the three-
図3Bにおいて、存在確率分布301は、移動体100の現在位置の存在確率分布を表している。存在確率分布301は、例えば、Kalman Filter、Particle Filter、Bayesian Filterのような時系列フィルターを用いて推定する。
In FIG. 3B, the
三次元点302は、外部記憶装置情報抽出ステップS203で抽出した複数の三次元点である。簡単のため、三次元点302の複数の三次元点の地面からの高さを一定とする。
The three-
三次元点303は、移動体100の現在位置から取得した走行環境にある柱の情報である。存在確率分布304は、柱の現在位置の存在確率分布である。
The three-
角度θNは、移動体100のセンサ12の一つからの視野の中心線からの方向である。 The angle θ N is the direction from the centerline of the field of view from one of the sensors 12 of mobile 100.
抽出した三次元点306は、三次元点区別ステップS204で抽出された参照可能な三次元点であり、マッチングステップS205で利用する三次元点である。
The extracted three-
参照不可能な三次元点307は、三次元点区別ステップS204で参照不可能な三次元点として区別され、マッチングステップS205で利用しない三次元点である。
抽出した三次元点303の存在確率分布304は、その範囲が移動体100と相似形の存在確率分布301となるとする。
The non-referenceable three-
The
センサ12a、12b、…、12nの情報取得誤差が0でない場合、抽出した三次元点303の存在確率分布304が移動体100の存在確率分布301より大きくなる。移動体100のセンサ12a、12b、…、12nの情報取得誤差が既知であれば、存在確率分布301に合わせて存在確率分布304を算出する。例えば、センサ12a、12b、…、12nがステレオカメラの場合、情報取得誤差は取得した情報の距離に比例するため、その誤差を含めて存在確率分布304を算出する。
If the information acquisition error of the
したがって、抽出した三次元点303を三次元点302のうち、三次元点302L又は三次元点302Rのいずれとマッチングすればよいか不明となる。
Therefore, it is unclear whether the extracted three-
そのため、角度θNと現在位置の存在確率分布301で三次元点302Lと三次元点302Rと区別する。
Therefore, the
従来センサは、センサに最も近い立体物を検出し、その立体物の裏に他の立体物があっても検出できない。 Conventional sensors detect a three-dimensional object closest to the sensor and cannot detect other three-dimensional objects behind the three-dimensional object.
そこで、本発明においては、角度θNの方向においてセンサに最も近い立体物を探索し、抽出すると、マッチングができる確率が高くなる。 Therefore, in the present invention, if a three-dimensional object closest to the sensor in the direction of the angle θ N is searched for and extracted, the probability of matching can be increased.
つぎに、角度θNの設定について説明する。 Next, the setting of the angle θ N will be described.
所定の角度の範囲θAからθBまでの間で角度θNを調整し、マッチング確率が最も高い三次元点を探索する。例えば、センサの取得角度がFOVの場合、θA=−FOV、θB=+FOVとする。θAからθBまでの範囲において所定の間隔dθ(=θN−θN−1)を設定する。ここで、dθは固定値とする。dθは、センサの解像度に合わせて設定してもよい。 The angle θ N is adjusted within a predetermined angle range θ A to θ B, and a three-dimensional point having the highest matching probability is searched for. For example, when the acquisition angle of the sensor is FOV, θ A =−FOV and θ B =+FOV. A predetermined interval dθ (=θ N −θ N−1 ) is set in the range from θ A to θ B. Here, dθ is a fixed value. You may set d(theta) according to the resolution of a sensor.
また、dθを移動体100の存在確率分布301に合わせてもよい。例えば、自己位置の信頼性が低ければ、現在位置推定ステップS201で推定した仮の現在位置誤差が大きいため、dθを小さく設定する。一方、自己位置の信頼性が高ければ、現在位置推定ステップS201で推定した仮の現在位置誤差が小さいため、dθを大きく設定する。
Further, dθ may be matched with the
また、存在確率分布301の大きさに基づいて、θA及びθBを変更してもよい。例えば、存在確率分布301が大きい場合、推定した現在位置の方位誤差が大きくなっている確率が高いため、θAをθA’(=θA−α)とし、θBをθB’(=θB+α)とする。
Further, θ A and θ B may be changed based on the size of the
図4は、本発明の実施例を示したものである。 FIG. 4 shows an embodiment of the present invention.
本図において、三次元点401は、外部記憶装置19に登録された移動体100の走行環境の三次元点である。
In the figure, a three-
存在確率分布402は、移動体100の存在確率分布である。移動体100が走行を開始した時点においては、存在確率分布402が小さいものとする。
The
範囲403は、移動体100が三次元点区別ステップS204で探索する範囲である。
The
この場合に、外部記憶装置情報抽出ステップS203でθA=−FOV、θB=+FOVと設定し、範囲403内の移動体100の周囲の外部記憶装置19の情報を抽出する。そして、三次元点区別ステップS204において参照可と参照不可の三次元点を区別する。
In this case, in the external storage device information extraction step S203, θ A =−FOV and θ B =+FOV are set, and the information of the
移動体100が廊下のような特徴の少ない環境を走行する場合、マッチングステップS205を行っても、位置の補正ができない。外部記憶装置19に登録された情報に基づいて移動体100が特徴の少ない環境を走行していることを制御部15が認識した場合、制御部15の指令で移動体100が移動し、特徴の探索を開始する。特徴の探索は、例えば、外部記憶装置19に登録された情報に基づいて、移動体100の現在位置に最も近い特徴の位置を抽出する。次に、制御部15の指令で移動体100がその特徴の検出可能な位置に移動し、マッチングステップS205と位置補正ステップS206で位置補正する。
When the moving
移動体100が前述の抽出した特徴の位置に移動する場合、現在位置推定ステップS201で移動体100の推定した位置誤差が大きくなり、移動体100の存在確率分布が存在確率分布404になる。そこで、外部記憶装置情報抽出ステップS203でθAをθA’(=θA−α)とし、θBをθB’(=θB+α)とし、移動体100の周囲の外部記憶装置19の情報を抽出する。そして、三次元点区別ステップS204でθA’(=−FOV−α)からθB’ (=+FOV+α)までの範囲405で探索を行い、参照可能な三次元点を区別する。
When the
位置補正ステップS206において移動体100の現在位置を補正した後、次にマッチングステップS205を行う際には、外部記憶装置情報抽出ステップS203においてθA=−FOV、θB=+FOVと設定する。この新しく設定したθA及びθBを用いて三次元点区別ステップS204で参照可と参照不可の三次元点を区別する。
After correcting the current position of the moving
また、移動体100が特徴の少ない環境を走行し、最も近い特徴の位置に移動する場合、現在位置推定ステップS201で推定する位置誤差が大きくならない経路を制御部15が選定する。例えば、現在位置推定ステップS201で移動体100の現在位置を車輪エンコーダで推定する場合、誤差は走行した距離に比例するため、なるべく最短距離を算出する。また、移動体100の推定した方位誤差を避けるために、なるべく回転が少なく、直進で移動できる経路を算出する。したがって、特徴の少ない環境を走行している場合、動的障害物があっても、移動体100が避けずに、一時停止し、動的障害物が存在しなくなった後に直進移動を続ける。
Further, when the moving
図5は、2台の移動体が走行する場合である。 FIG. 5 shows a case where two moving bodies travel.
本図において、三次元点501は、外部記憶装置19に登録された移動体100の走行環境の三次元点である。
In the figure, a three-
存在確率分布502は、移動体100の現在位置の存在確率分布である。
The
三次元点503は、移動体100が現在位置からセンサで抽出した三次元点である。
The three-
存在確率分布504は、三次元点503の存在確率分布で、存在確率分布502と同じ大きさとする。この場合、センサで抽出した三次元点503を三次元点501の三次元点505Rか三次元点505Lどれとマッチングすればよいか不明となり、誤ってマッチングする可能性が高い。
The
存在確率分布506は、移動体100が走行中環境に存在する2台目の移動体100bの存在確率分布である。存在確率分布506は、存在確率分布504より小さいとする。移動体100と移動体100bとは、互いの位置及び存在確率分布の情報を共有する。情報共有は、例えば、LAN(Local Area Network)に接続して情報の送信及び受信をする。
The
移動体100と移動体100bとが情報を共有するタイミングは、三次元点区別ステップS204の直前とする。また、移動体100と移動体100bとが情報を共有するタイミングを三次元点区別ステップS204の周期より短い周期で実施してもよい。最終的に、存在確率分布の情報を必要としている三次元点区別ステップS204の周期に合わせて、最新の情報を共有できれば、周期をどのように設定してもよい。
The timing at which the
移動体100bの現在位置からセンサで移動体100への距離507を算出する。存在確率分布506があるため、センサで算出した移動体100への距離507に誤差がある。このため、移動体100は、距離508と距離509との間に存在する。
A
距離508及び距離509を存在確率分布502と融合することにより、移動体100の存在確率分布は、更新され、符号510で表される範囲となる。そして、センサで抽出した三次元点503の存在確率分布504も、更新され、符号511で表される狭い範囲となる。言い換えると、他の移動体である移動体100bが有するセンサから周囲の情報を取得し、移動体100が有するセンサからの周囲の情報と組み合わせて、移動体100の現在の位置(存在確率分布510)を求める。
By merging the
これにより、存在確率分布511は、存在確率分布504より小さくなる。そして、センサで抽出した三次元点503を存在確率分布504の範囲に入っている三次元点505Lとマッチングし、移動体100の位置を修正する。
As a result, the
簡単のため、移動体100と移動体100bが止まった状態で説明したが、一台又は二台とも走行しながら上記の位置修正を実施してもよい。また、簡単のため、移動体2台を用いて説明したが、2台以上であってもよい。
For the sake of simplicity, the description has been given with the moving
図6は、2台の移動体及び固定カメラの実施例である。 FIG. 6 shows an embodiment of two moving bodies and a fixed camera.
本図において、存在確率分布601は、移動体100の現在位置の存在確率分布である。
In this figure, the
存在確率分布602は、移動体100bの現在位置の存在確率分布である。存在確率分布602を存在確率分布601より大きいとする。
The
この場合、移動体100bに設置したセンサで移動体100への距離を算出しても、距離603と距離604との間が存在確率分布601より大きくなるため、2台の移動体100、100bによる位置補正が効かない。
In this case, even if the distance to the moving
本図においては、移動体100の走行環境に設置された固定カメラ605(固定センサ)を用いることができ、固定カメラ605から移動体100及び移動体100bまでの距離606及び距離607が得られる。この場合に、距離606及び距離607の誤差が発生しても、移動体100bは、距離608と距離609との間に存在し、移動体100は、距離610と距離611との間に存在するはずである。よって、存在確率分布601が存在確率分布612となり、存在確率分布602が存在確率分布613となり、ともに狭い範囲となる。
In this figure, a fixed camera 605 (fixed sensor) installed in the traveling environment of the moving
存在確率分布612及び存在確率分布613はそれぞれ、存在確率分布601、存在確率分布602より小さいため、三次元点区別ステップS204での参照可能な三次元点の区別ができ、マッチングステップS205で精度よく移動体100の位置を修正できる。
Since the
また、移動体100bに設置したセンサで移動体100への距離614を算出し、距離615と距離616との間で存在確率分布617を算出し、三次元点区別ステップS204〜位置補正ステップS206で位置補正をしてもよい。存在確率分布617は、存在確率分布612よりも狭い範囲となる。言い換えると、移動体100の走行環境に設置された固定センサから周囲の情報を取得し、移動体100が有するセンサからの周囲の情報と組み合わせて、移動体100の現在の位置(存在確率分布617)を求める。
In addition, the sensor installed in the moving
簡単のため、移動体2台と固定カメラ1台を用いて説明したが、2台以上の移動体と複数の固定カメラを用いて位置補正を行ってもよい。 For simplicity, the description has been given using two moving bodies and one fixed camera, but the position correction may be performed using two or more moving bodies and a plurality of fixed cameras.
また、簡単のため、固定カメラ605で説明したが、移動体100を推定し、距離を算出できるセンサであれば、カメラ以外でもよい。
Further, for simplicity, the fixed
図7は、通行人がいる場合である。 FIG. 7 shows a case where there is a passerby.
本図において、固定カメラ701は、移動体100が走行する環境に固定されたセンサである。
In this figure, a fixed
存在確率分布702は、移動体100の現在位置の存在確率分布である。
The
存在確率分布703は、移動体100bの現在位置の存在確率分布である。
The
移動体100bと固定カメラ701との間に通行人704等がいる場合、固定カメラ701による移動体100bの検出は、不可能となる。言い換えると、通行人704等は、検出の障害となり得る。
When there is a
固定カメラ701で移動体100への距離705を算出し、図5及び図6で説明したとおり、移動体100の存在確率分布702を小さくし、存在確率分布702が存在確率分布702bとする。
The fixed
一方、移動体100の現在位置からは、移動体100bの検出が可能であり、距離706を算出した後、移動体の存在確率分布703を小さくし、存在確率分布703bを得ることができる。
On the other hand, the moving
次に、移動体100bの現在位置を修正するために三次元点区別ステップS204、マッチングステップS205及び位置補正ステップS206に進む。
Next, in order to correct the current position of the moving
三次元点区別ステップS204で現在位置とセンサの取得範囲に基づいて、移動体100bの周囲の三次元点707の全点を抽出できるが、通行人704の影響で固定カメラ701が移動体100bを検出できなくなっている。このため、固定カメラ701から通行人704の存在と移動体100bに対する通行人の方向αを移動体100bに送信する。
In the three-dimensional point discrimination step S204, all the three-
これにより、三次元点区別ステップS204でマッチングできる確率が低い方向α以外の三次元点を抽出し、マッチングステップS205と位置補正ステップS206で位置推定を実施する。 As a result, three-dimensional points other than the direction α in which the probability of matching is low are extracted in the three-dimensional point discrimination step S204, and position estimation is performed in the matching step S205 and the position correction step S206.
本図においては、簡単のため、通行人一人の場合について説明したが、複数の通行人が存在してもよい。また、複数の通行人の影響により、他の移動体や固定センサを検出することや、位置補正をすることができない場合、一時的に停止し、通行人がいなくなるまで待機する。また、通行人がしばらくいなくならない場合、移動体が通行人を回避して、他の移動体や固定センサを検出できる位置まで移動してもよい。 In the figure, for simplicity, the case of one passerby has been described, but there may be a plurality of passersby. Further, when it is not possible to detect another moving body or a fixed sensor or correct the position due to the influence of a plurality of passers-by, it temporarily stops and waits until there are no passers-by. Further, when the passerby does not disappear for a while, the moving body may avoid the passerby and move to a position where another moving body or a fixed sensor can be detected.
なお、ここでは通行人について説明したが、一般に、人間以外の動物、物体等をまとめて「障害物」と呼ぶ。 Although a passerby has been described here, animals other than humans, objects and the like are generally referred to as “obstacles”.
まとめると、三次元点取得部が取得した三次元点に障害物の三次元点が含まれている場合には、マッチング部は、障害物の三次元点を除いた三次元点を用いてマッチングを行う。 In summary, when the 3D points acquired by the 3D point acquisition unit include the 3D points of the obstacle, the matching unit performs matching using the 3D points excluding the 3D points of the obstacle. I do.
つぎに、図8A及び8Bを用いて、図2AのマッチングステップS205及び位置補正ステップS206の詳細について説明する。 Details of the matching step S205 and the position correction step S206 of FIG. 2A will be described below with reference to FIGS. 8A and 8B.
図8Aは、マッチングステップ及び位置補正ステップの条件を示す上面図である。 FIG. 8A is a top view showing conditions of the matching step and the position correction step.
図8Bは、マッチングステップ及び位置補正ステップの手順を示すフロー図である。 FIG. 8B is a flowchart showing the procedure of the matching step and the position correction step.
図8Aにおいて、三次元点801(●印)は、外部記憶装置19に登録された移動体100の走行環境である。
In FIG. 8A, a three-dimensional point 801 (marked with ●) is a traveling environment of the moving
三次元点802(○印)は、移動体100の現在位置からセンサで抽出した三次元点である。三次元点801と三次元点802とのマッチング方法は、例えば、ICP Matching(ICPは、Iterative Closest Pointの略称である。)を用いる。また、三次元点801及び三次元点802を線に変換して、線マッチングを行ってもよい。最終的に、三次元点801及び三次元点802の相対位置(X,Y,Z,roll,pitch,yaw)を出力すれば、ICP以外のマッチング方法を適用してもよい。ここで、roll,pitch,yawはそれぞれ、移動体100が前後の軸(進行方向の軸)に対して、その軸の周りに回転する角度、移動体100の先端部が上下する角度、移動体100の先端部が左右に振動する角度を表している。
The three-dimensional point 802 (circle) is a three-dimensional point extracted by the sensor from the current position of the moving
本図において破線で示す層803R、803Lは、移動体100の周囲の状態を数値化するための区分である。ここでは、簡単のため、層803R、803Lは、走行環境を距離と位置とに分け、それぞれ、三次元点の点群が含まれる領域として区分したものであり、それぞれの領域の特徴を数値の集合として表したものである。なお、層803Rは、移動体100の進行方向右側に位置するものであり、層803Lは、移動体100の進行方向左側に位置するものである。また、「位置」は、走行面の座標であり、二次元座標である。
具体的には、層803R、803Lは、下記式(1)に示すとおり、距離、位置、高さ、色などで構成されるものである。
Specifically, the
層(n)=f(距離,位置,高さ,色,…) …(1)
式中、右辺のかっこ内は、それぞれの層803R、803Lの属性を記載したものである。それぞれの層803R、803Lの属性は、それぞれの層803R、803Lに含まれる三次元点の点群を構成するそれぞれの点における距離、位置、高さ、色などに対応するそれぞれの特徴の数値(特徴量)についてその点群の平均値を算出して示したものである。言い換えると、層803R、803Lは、属性を変数とする。
Layer (n)=f (distance, position, height, color,...) (1)
In the formula, the parentheses on the right side describe the attributes of the
上記式(1)についての更に具体的な例は、下記式(2)で表される。 A more specific example of the above formula (1) is represented by the following formula (2).
層(i)=f(距離d,位置p)=f(di−1<d<di,p=R) …(2)
式中、iは、1以上の整数であり、それぞれの領域を表す符号である。diは、移動体100から隣の領域(例えばi+1)との境界までの距離(所定の規則に従って特定される値)である。Rは、移動体100の右側を表す数値である。
Layer (i)=f (distance d, position p)=f(d i-1 <d<d i , p=R) (2)
In the formula, i is an integer of 1 or more and is a code representing each area. d i is a distance (a value specified according to a predetermined rule) from the moving
上記式(2)においては、属性を距離及び位置に限定して示している。また、この式は、層803Rに関するものである。 In the above formula (2), the attributes are limited to the distance and the position. The equation also relates to layer 803R.
同様に、層803Lに関するものは、下記式(3)で表される。
Similarly, the
層(j)=f(距離d,位置p)=f(dj−1<d<dj,p=L) …(3)
式中、jは、1以上の整数であり、それぞれの領域を表す符号である。djは、移動体100から隣の領域(例えばj+1)との境界までの距離(所定の規則に従って特定される値)である。Lは、移動体100の左側を表す数値である。
Layer (j)=f (distance d, position p)=f(d j-1 <d<d j , p=L) (3)
In the formula, j is an integer of 1 or more and is a code representing each area. d j is a distance (a value specified according to a predetermined rule) from the moving
外部記憶装置情報抽出ステップS203においては、外部記憶装置情報を抽出し、前述のそれぞれの層に距離及び位置に基づいて外部記憶装置情報を入力する。三次元点区別ステップS204においては、それぞれの層のマッチングができる参照可能な三次元点を抽出し、環境情報抽出ステップS202においてセンサにより得られた情報をそれぞれの層に入力する。 In the external storage device information extraction step S203, the external storage device information is extracted, and the external storage device information is input to each of the layers described above based on the distance and the position. In the three-dimensional point distinction step S204, the referable three-dimensional points that can be matched in each layer are extracted, and the information obtained by the sensor in the environment information extraction step S202 is input to each layer.
したがって、層803R、803Lのそれぞれは、外部記憶装置情報とセンサで抽出した情報とを有する。このため、マッチングステップS205でそれぞれの層にICP Matchingをかけることにより、修正した属性の候補であって、下記式(4)で表されるものが得られる。
Therefore, each of the
層(k)=(Xk,Yk,Zk,rollk,pitchk,yawk,…) …(4)
式中、kは、1以上の整数であり、それぞれの領域を表す符号である。
Layer (k)=(X k , Y k , Z k , roll k , pitch k , yaw k ,...) (4)
In the formula, k is an integer of 1 or more and is a code representing each area.
位置補正ステップS206でそれぞれの層から修正した位置の候補を融合し、移動体100の修正した位置を出力する。融合した位置は、例えば、それぞれの層で得られた位置の平均である。また、融合した位置をそれぞれの層で得られた位置の中央値にしてもよい。また、融合した位置をそれぞれの層で得られた位置の最頻値にしてもよい。
In the position correction step S206, the position candidates corrected from the respective layers are fused, and the corrected position of the
また、それぞれの層にあった点数Tk(kは、1以上の整数であり、それぞれの領域を表す符号である。)を重みにして融合してもよい。 Further, the points T k (k is an integer of 1 or more, which is a code representing each region) in each layer may be weighted and combined.
それぞれの属性は、下記式(5)〜(10)で表される。 Each attribute is represented by the following equations (5) to (10).
X=Σ(Xk・Tk)/ΣTk …(5)
Y=Σ(Yk・Tk)/ΣTk …(6)
Z=Σ(Zk・Tk)/ΣTk …(7)
roll=Σ(rollk・Tk)/ΣTk …(8)
pitch=Σ(pitchk・Tk)/ΣTk …(9)
yaw=Σ(yawk・Tk)/ΣTk …(10)
また、センサがカメラの場合、算出した距離誤差が距離に比例するため、層の距離dk(kは、1以上の整数であり、それぞれの領域を表す符号である。)を重みにしてもよい。また、ICP Matchingが出力するスコア(センサで抽出した情報と外部記憶装置情報との差)を重みにして、それぞれの層から修正した位置の候補を融合してもよい。
X=Σ(X k ·T k )/ΣT k (5)
Y=Σ(Y k ·T k )/ΣT k (6)
Z=Σ(Z k ·T k )/ΣT k (7)
roll=Σ(roll k ·T k )/ΣT k (8)
pitch=Σ(pitch k ·T k )/ΣT k (9)
yaw=Σ(yaw k ·T k )/ΣT k (10)
When the sensor is a camera, the calculated distance error is proportional to the distance. Therefore, the layer distance d k (k is an integer of 1 or more and is a code representing each area) is used as a weight. Good. Further, the scores output from ICP Matching (difference between the information extracted by the sensor and the external storage device information) may be weighted, and the position candidates corrected from the respective layers may be fused.
図8BにマッチングステップS205と位置補正ステップS206の手順を示す。 FIG. 8B shows the procedure of matching step S205 and position correction step S206.
図8Bに示すプロセスにおいては、属性を用いてマッチングを行う。 In the process shown in FIG. 8B, matching is performed using attributes.
本図において、層分けステップS810は、移動体100の現在位置からセンサで抽出した三次元点802と、外部記憶装置19に登録された三次元点801とを上記式(1)を用いて層に分けるステップである。
In the figure, in the layering step S810, the three-
各層マッチングステップS820は、層分けステップS810で分けられた、それぞれの層のセンサで検出した三次元点802と、外部記憶装置19から取得した三次元点801と、をマッチングするステップである。
Each layer matching step S820 is a step of matching the three-
マッチング結果融合ステップS830は、それぞれの層で得られた各層マッチングステップS820の結果を融合する。融合の際は、上記式(4)〜(10)を用いる。 The matching result fusing step S830 fuses the results of the layer matching steps S820 obtained for the respective layers. At the time of fusion, the above formulas (4) to (10) are used.
1:位置推定装置、2:信号受付部、12、12a、12b、12n:センサ、13:情報処理装置、14:センサ処理部、15:制御部、16:メモリ、17:表示部、19:外部記憶装置、100:移動体、210:入出力部、211:三次元点取得部、212:フィルター部、213:マッチング部、214:自己位置補正部、301、304:存在確率分布、302、303:三次元点、605:固定カメラ。 1: Position estimation device, 2: Signal reception part, 12, 12a, 12b, 12n: Sensor, 13: Information processing device, 14: Sensor processing part, 15: Control part, 16: Memory, 17: Display part, 19: External storage device, 100: moving body, 210: input/output unit, 211: three-dimensional point acquisition unit, 212: filter unit, 213: matching unit, 214: self-position correction unit, 301, 304: existence probability distribution, 302, 303: three-dimensional point, 605: fixed camera.
Claims (7)
前記センサによって取得した情報を処理するセンサ処理部と、
三次元点取得部と、
フィルター部と、
マッチング部と、
自己位置補正部と、を有する移動体において、
前記三次元点取得部は、前記センサから得られた三次元点を取得し、
前記フィルター部は、マップに含まれる三次元点のうち前記移動体の現在の仮位置から参照可能な三次元点を求め、
前記マッチング部は、前記三次元点取得部に記録されている前記三次元点と前記フィルター部が求めた参照可能な前記三次元点とのマッチングを行い、
前記自己位置補正部は、前記マッチングに成功した三次元点を基に前記マップにおける前記移動体の現在の位置を求める、移動体。 A sensor that collects surrounding information,
A sensor processing unit that processes information acquired by the sensor;
A three-dimensional point acquisition unit,
The filter part,
Matching section,
In a moving body having a self-position correction unit,
The three-dimensional point acquisition unit acquires the three-dimensional points obtained from the sensor,
The filter unit obtains a three-dimensional point that can be referred to from the current temporary position of the moving body among the three-dimensional points included in the map,
The matching unit performs matching between the three-dimensional points recorded in the three-dimensional point acquisition unit and the referenceable three-dimensional points obtained by the filter unit,
The moving body, wherein the self-position correcting unit obtains the current position of the moving body in the map based on the three-dimensional points that have been successfully matched.
前記マッチング部は、前記障害物の三次元点を除いた三次元点を用いて、前記マッチングを行う、請求項1記載の移動体。 In the case where the three-dimensional point acquired by the three-dimensional point acquisition unit includes a three-dimensional point of a moving obstacle,
The moving body according to claim 1, wherein the matching unit performs the matching using three-dimensional points excluding the three-dimensional points of the obstacle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018232357A JP7302966B2 (en) | 2018-12-12 | 2018-12-12 | moving body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018232357A JP7302966B2 (en) | 2018-12-12 | 2018-12-12 | moving body |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020095435A true JP2020095435A (en) | 2020-06-18 |
JP7302966B2 JP7302966B2 (en) | 2023-07-04 |
Family
ID=71085078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018232357A Active JP7302966B2 (en) | 2018-12-12 | 2018-12-12 | moving body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7302966B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134656A (en) * | 2008-12-03 | 2010-06-17 | Sogo Keibi Hosho Co Ltd | Autonomous mobile body and speed control method |
JP2016162013A (en) * | 2015-02-27 | 2016-09-05 | 株式会社日立製作所 | Self position estimation device and mobile entity |
WO2017038012A1 (en) * | 2015-08-28 | 2017-03-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Mapping method, localization method, robot system, and robot |
-
2018
- 2018-12-12 JP JP2018232357A patent/JP7302966B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134656A (en) * | 2008-12-03 | 2010-06-17 | Sogo Keibi Hosho Co Ltd | Autonomous mobile body and speed control method |
JP2016162013A (en) * | 2015-02-27 | 2016-09-05 | 株式会社日立製作所 | Self position estimation device and mobile entity |
WO2017038012A1 (en) * | 2015-08-28 | 2017-03-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Mapping method, localization method, robot system, and robot |
Also Published As
Publication number | Publication date |
---|---|
JP7302966B2 (en) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11675084B2 (en) | Determining yaw error from map data, lasers, and cameras | |
US11433880B2 (en) | In-vehicle processing apparatus | |
US11915099B2 (en) | Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data | |
EP3371671B1 (en) | Method, device and assembly for map generation | |
WO2020038285A1 (en) | Lane line positioning method and device, storage medium and electronic device | |
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
WO2020232648A1 (en) | Lane line detection method, electronic device and storage medium | |
US11538241B2 (en) | Position estimating device | |
CN112346463B (en) | Unmanned vehicle path planning method based on speed sampling | |
CN111837136A (en) | Autonomous navigation based on local sensing and associated systems and methods | |
JP2016188806A (en) | Mobile entity and system | |
WO2022041706A1 (en) | Positioning method, positioning system, and vehicle | |
JP2016080460A (en) | Moving body | |
CN111176270A (en) | Positioning using dynamic landmarks | |
TW202020734A (en) | Vehicle, vehicle positioning system, and vehicle positioning method | |
CN116997771A (en) | Vehicle, positioning method, device, equipment and computer readable storage medium thereof | |
Jiménez et al. | Improving the lane reference detection for autonomous road vehicle control | |
JP2021039437A (en) | Object position detection method and object position detection device | |
CN114127738A (en) | Automatic mapping and positioning | |
CN114694111A (en) | Vehicle positioning | |
WO2020230410A1 (en) | Mobile object | |
CN114170499A (en) | Target detection method, tracking method, device, visual sensor and medium | |
Deusch et al. | Improving localization in digital maps with grid maps | |
JP7302966B2 (en) | moving body | |
KR102618951B1 (en) | Method for visual mapping, and computer program recorded on record-medium for executing method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7302966 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |