JP2020095435A - Moving body - Google Patents

Moving body Download PDF

Info

Publication number
JP2020095435A
JP2020095435A JP2018232357A JP2018232357A JP2020095435A JP 2020095435 A JP2020095435 A JP 2020095435A JP 2018232357 A JP2018232357 A JP 2018232357A JP 2018232357 A JP2018232357 A JP 2018232357A JP 2020095435 A JP2020095435 A JP 2020095435A
Authority
JP
Japan
Prior art keywords
moving body
dimensional point
sensor
unit
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018232357A
Other languages
Japanese (ja)
Other versions
JP7302966B2 (en
Inventor
アレックス益男 金子
Alex Masuo Kaneko
アレックス益男 金子
山本 健次郎
Kenjiro Yamamoto
健次郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018232357A priority Critical patent/JP7302966B2/en
Publication of JP2020095435A publication Critical patent/JP2020095435A/en
Application granted granted Critical
Publication of JP7302966B2 publication Critical patent/JP7302966B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Abstract

To perform calculation for maintaining a range of presence probability distribution of a current position of a moving body as a narrow state using an information processing device of the moving body having limited calculation capability during short processing time, and estimate a position of the moving body with high accuracy.SOLUTION: In a moving body having: a sensor collecting surrounding information; a sensor processing unit processing information acquired by the sensor; a three-dimensional point acquisition unit; a filter unit; a matching unit; and a self-position correction unit, the three-dimensional point acquisition unit acquires a three-dimensional point obtained from the sensor, the filter unit obtains a referable three-dimensional point from a current temporary position of the moving body among three-dimensional points included in a map, the matching unit performs matching between the three-dimensional point recorded in the three-dimensional point acquisition unit and the referable three-dimensional point obtained by the filter unit, and the self-position correction unit obtains a current position of the moving body in the map based on the three-dimensional point that has been successfully matched.SELECTED DRAWING: Figure 1

Description

本発明は、移動体に関する。 The present invention relates to a mobile body.

ロボット、自動車などの移動体がその周囲の情報を収集し、移動体の現在位置及び走行状態を推定し、移動体の走行を制御する自律走行技術及び運転支援技術が開発されている。 BACKGROUND ART Autonomous traveling technology and driving support technology have been developed in which a moving body such as a robot or an automobile collects information about its surroundings, estimates the current position and running state of the moving body, and controls the traveling of the moving body.

例えば、特許文献1には、自己位置の推定の精度を向上することを目的として、複数の三次元点のうち、距離センサからの距離が所定の距離閾値未満である複数の三次元点と、距離センサからの距離が距離閾値以上であっても特徴量が特徴量閾値以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点とを抽出し、抽出した複数の三次元点と、環境地図が示す複数の三次元点とをマッチングすることで自己位置を推定する方法が開示されている。 For example, in Patent Document 1, for the purpose of improving the accuracy of self-position estimation, a plurality of three-dimensional points whose distance from a distance sensor is less than a predetermined distance threshold, among a plurality of three-dimensional points, Even if the distance from the distance sensor is equal to or greater than the distance threshold, the plurality of three-dimensional points whose feature amount is equal to or greater than the feature amount threshold are included in a distance section in which a predetermined number or more is extracted and extracted. A method of estimating a self-position by matching a plurality of three-dimensional points with a plurality of three-dimensional points indicated by an environment map is disclosed.

特許文献2には、誤差の累積を抑制し、目標物になりそうなものがない単調な道路でも適切に真の現在位置を算出することを目的として、移動体の現在位置における2次元画像である観測画像と、予め用意された仮現在位置に対応する2次元画像である参照画像と、を画像マッチングにより照合し、その照合結果に基づいて、移動体の真の現在位置を算出する技術が開示されている。 Patent Document 2 discloses a two-dimensional image at the current position of a moving object for the purpose of suppressing the accumulation of errors and appropriately calculating the true current position even on a monotonous road that is unlikely to become a target. A technique for collating an observation image with a reference image, which is a two-dimensional image corresponding to a provisional current position prepared in advance, by image matching, and calculating the true current position of the moving body based on the matching result is available. It is disclosed.

特開2017−83230号公報JP, 2017-83230, A 特開2013−61270号公報JP, 2013-61270, A

特許文献1においては、複数の三次元点を抽出する際、適切な三次元点を必ずしも抽出できるとは限らない。 In Patent Document 1, when extracting a plurality of three-dimensional points, it is not always possible to extract appropriate three-dimensional points.

特許文献2においては、処理が必要なデータ量が多い画像マッチングを行うため、移動体に内蔵された演算装置の限られた計算能力では、十分に短い時間内に結果を示すことが困難となる場合がある。 In Patent Document 2, since image matching that requires a large amount of data to be processed is performed, it is difficult to show the result within a sufficiently short time with the limited calculation capacity of the arithmetic unit incorporated in the mobile body. There are cases.

移動体自体に内蔵された情報処理装置の処理能力等には限界があるため、処理するデータ数を減らす必要性があることが求められている。 Since there is a limit to the processing capability of the information processing device built in the mobile body itself, it is necessary to reduce the number of data to be processed.

本発明の目的は、計算能力が限られている移動体の情報処理装置を用いて、短い処理時間で、移動体の現在位置の存在確率分布の範囲が狭い状態を維持する計算をし、移動体の位置を高精度で推定することにある。 An object of the present invention is to perform a calculation for maintaining a state in which the range of the existence probability distribution of the current position of the mobile object is narrow in a short processing time by using the information processing device of the mobile object whose calculation ability is limited, and to move the mobile object. It is to estimate the position of the body with high accuracy.

上記課題を解決するために、本発明の移動体は、周囲の情報を収集するセンサと、センサによって取得した情報を処理するセンサ処理部と、三次元点取得部と、フィルター部と、マッチング部と、自己位置補正部と、を有し、三次元点取得部は、センサから得られた三次元点を取得し、フィルター部は、マップに含まれる三次元点のうち移動体の現在の仮位置から参照可能な三次元点を求め、マッチング部は、三次元点取得部に記録されている三次元点とフィルター部が求めた参照可能な三次元点とのマッチングを行い、自己位置補正部は、マッチングに成功した三次元点を基にマップにおける移動体の現在の位置を求める。 In order to solve the above problems, the mobile object of the present invention is a sensor that collects information about the surroundings, a sensor processing unit that processes information acquired by the sensor, a three-dimensional point acquisition unit, a filter unit, and a matching unit. And a self-position correction unit, the three-dimensional point acquisition unit acquires the three-dimensional points obtained from the sensor, and the filter unit, among the three-dimensional points included in the map, the current temporary position of the moving body. The matching unit obtains a referable three-dimensional point from the position, the matching unit performs matching between the three-dimensional point recorded in the three-dimensional point acquisition unit and the referable three-dimensional point obtained by the filter unit, and the self-position correction unit Calculates the current position of the moving body on the map based on the three-dimensional points that have been successfully matched.

本発明によれば、計算能力が限られている移動体の情報処理装置を用いて、短い処理時間で、移動体の現在位置の存在確率分布の範囲が狭い状態を維持する計算をし、移動体の位置を高精度で推定することができる。 According to the present invention, by using a mobile information processing device having a limited calculation capability, a calculation is performed in a short processing time to maintain a state in which the existence probability distribution of the current position of the mobile is narrow, The position of the body can be estimated with high accuracy.

本発明の一実施形態に係る移動体を示す構成図である。It is a block diagram which shows the mobile body which concerns on one Embodiment of this invention. 図1のセンサ処理部14における情報処理プロセスを示すフロー図である。It is a flowchart which shows the information processing process in the sensor process part 14 of FIG. 図1のセンサ処理部14を示す構成図である。It is a block diagram which shows the sensor process part 14 of FIG. 図2Aの三次元点区別ステップS204におけるセンサの検出範囲の例を示す模式図である。It is a schematic diagram which shows the example of the detection range of the sensor in the three-dimensional point distinction step S204 of FIG. 2A. 図2Aの三次元点区別ステップS204の検出誤差を示す模式図である。It is a schematic diagram which shows the detection error of 3D point distinction step S204 of FIG. 2A. 本発明の実施例を示す上面図である。It is a top view which shows the Example of this invention. 移動体が2台の場合の実施例を示す上面図である。It is a top view which shows an Example in case the number of moving bodies is two. 移動体が2台であり、固定センサを用いる場合の実施例を示す上面図である。It is a top view which shows an Example in case the number of moving bodies is two and a fixed sensor is used. 通行人がいる場合の実施例を示す上面図である。It is a top view showing an example when there is a passerby. マッチングステップ及び位置補正ステップの条件を示す上面図である。It is a top view which shows the conditions of a matching step and a position correction step. マッチングステップ及び位置補正ステップの手順を示すフロー図である。It is a flowchart which shows the procedure of a matching step and a position correction step.

本発明は、ロボットや自動車などの移動体の位置を推定する技術に関する。 The present invention relates to a technique for estimating the position of a moving body such as a robot or an automobile.

以下、本発明の実施形態に係る移動体の位置推定装置について、図面を用いて説明する。 Hereinafter, a position estimation device for a mobile body according to an embodiment of the present invention will be described with reference to the drawings.

なお、本明細書においては、「三次元点」は、形状を有する物体の表面及び内部に位置する空間上の座標を表すものであり、センサにより得られた点、マップに含まれる点等を含むものとする。 In the present specification, the “three-dimensional point” represents the coordinates in the space located on the surface and inside of an object having a shape, and the points obtained by the sensor, the points included in the map, etc. Shall be included.

図1は、本発明の一実施形態に係る移動体を示す構成図である。 FIG. 1 is a configuration diagram showing a moving body according to an embodiment of the present invention.

本図において、移動体100は、位置推定装置1を備えている。位置推定装置1は、移動体100の外部に存在する外部記憶装置19と通信可能となっている。この通信は、無線が望ましい。移動体100は、自動車、ロボットなどである。 In the figure, the moving body 100 includes a position estimating device 1. The position estimation device 1 can communicate with an external storage device 19 existing outside the moving body 100. This communication is preferably wireless. The moving body 100 is an automobile, a robot, or the like.

位置推定装置1は、信号受付部2と、一台以上のセンサ12(12a、12b、…、12n)と、情報処理装置13と、を有する。これらの構成要素は、バス18により相互に接続されている。 The position estimation device 1 includes a signal reception unit 2, one or more sensors 12 (12a, 12b,..., 12n), and an information processing device 13. These components are connected to each other by a bus 18.

情報処理装置13は、例えば一般的なコンピュータ(電子計算機)であって、センサ12によって取得した情報を処理するセンサ処理部14と、センサ処理結果に基づく処理を行う制御部15(CPU)と、メモリ16と、ディスプレイなどの表示部17と、を含む。情報処理装置13においては、センサ処理部14及び制御部15が所定のコンピュータプログラムを実行する。実行する内容については後述する。 The information processing device 13 is, for example, a general computer (electronic computer), and includes a sensor processing unit 14 that processes information acquired by the sensor 12, a control unit 15 (CPU) that performs processing based on the sensor processing result, It includes a memory 16 and a display unit 17 such as a display. In the information processing device 13, the sensor processing unit 14 and the control unit 15 execute a predetermined computer program. The contents to be executed will be described later.

信号受付部2においては、外部からの信号を受信する。信号受付部2は、例えば、世界の絶対座標で現在位置を推定するGPS(Global Positioning System:全地球測位システム)である。また、信号受付部2は、GPSよりも精度よく現在位置を推定するRTK−GPS(Real Time Kinematic GPS)でもよい。また、信号受付部2は、準天頂衛星システムでもよい。また、信号受付部2は、既知の位置に固定されたビーコンからの信号を受信するものでもよい。また、信号受付部2は、車輪エンコーダ、IMU(Inertial Measurement Unit:慣性計測装置)、ジャイロなど、相対座標で位置を推定するセンサから受信してもよい。また、信号受付部2は、走行環境の車線、標識、交通状態、立体物の形状、大きさ、高さなどの情報を受信してもよい。最終的に、移動体100の現在位置推定や制御や認知に利用できれば、どのような方式でもよい。 The signal receiving unit 2 receives a signal from the outside. The signal reception unit 2 is, for example, a GPS (Global Positioning System) that estimates the current position in absolute coordinates of the world. Further, the signal receiving unit 2 may be an RTK-GPS (Real Time Kinematic GPS) that estimates the current position more accurately than GPS. The signal receiving unit 2 may be a quasi-zenith satellite system. Further, the signal reception unit 2 may receive a signal from a beacon fixed at a known position. The signal reception unit 2 may also receive from a sensor such as a wheel encoder, an IMU (Inertial Measurement Unit), a gyro, or the like that estimates the position by relative coordinates. Further, the signal reception unit 2 may receive information such as the lane of the traveling environment, the sign, the traffic state, the shape, size, and height of the three-dimensional object. Finally, any method may be used as long as it can be used for estimation, control and recognition of the current position of the mobile unit 100.

センサ12は、例えばスチルカメラまたはビデオカメラである。また、センサ12は、単眼カメラまたは複眼カメラでもよい。また、センサ12は、レーザセンサでもよい。 The sensor 12 is, for example, a still camera or a video camera. Further, the sensor 12 may be a monocular camera or a compound eye camera. Further, the sensor 12 may be a laser sensor.

情報処理装置13は、センサ12で取得した情報を処理して、移動体100の位置または移動量を算出する。情報処理装置13は、算出された位置または移動量に応じた表示を行ってもよい。また、情報処理装置13は、移動体100の制御に関する信号を出力してもよい。 The information processing device 13 processes the information acquired by the sensor 12 to calculate the position or the movement amount of the moving body 100. The information processing device 13 may perform display according to the calculated position or movement amount. Further, the information processing device 13 may output a signal related to control of the moving body 100.

つぎに、センサ12の詳細について説明する。 Next, the details of the sensor 12 will be described.

センサ12aは、例えば、移動体100の前方に設置されている。センサ12aは、レンズを有し、移動体100の前方の遠景情報を取得するものである。この場合、遠景から取得した情報は、立体物、または位置推定のためのランドマークなどの特徴が抽出されるようにしてもよい。 The sensor 12a is installed in front of the moving body 100, for example. The sensor 12a has a lens and acquires distant view information in front of the moving body 100. In this case, as the information acquired from the distant view, a feature such as a three-dimensional object or a landmark for position estimation may be extracted.

他のセンサ12b、…、12nは、センサ12aと異なる位置に設置され、センサ12aと異なる方向または領域を撮像する。センサ12bは、例えば、移動体100の後方で下方に向けて設置されていてもよい。この場合、センサ12bは、移動体100の後方の近景情報を取得する。近景情報は、移動体100周辺の路面などでもよく、移動体100の周囲の白線、または路面ペイントなどが検出されるようにしてもよい。 The other sensors 12b,..., 12n are installed at positions different from those of the sensor 12a, and images different directions or regions from the sensor 12a. The sensor 12b may be installed, for example, behind the moving body 100 and facing downward. In this case, the sensor 12b acquires near view information behind the moving body 100. The near view information may be a road surface around the moving body 100, or a white line around the moving body 100 or road surface paint may be detected.

センサ12が単眼カメラの場合、路面が平らであれば、画像上のピクセル位置と実際の地上位置関係(x,y)が一定になるため、センサ12から特徴点までの距離を幾何学的に計算できる。センサ12がステレオカメラの場合、画像上の特徴点までの距離をより正確に計測できる。また、センサ12がレーザセンサの場合、より正確で遠方の情報を取得できる。 In the case where the sensor 12 is a monocular camera, if the road surface is flat, the pixel position on the image and the actual ground positional relationship (x, y) are constant, so the distance from the sensor 12 to the feature point is geometrically determined. Can be calculated. When the sensor 12 is a stereo camera, the distance to the feature point on the image can be measured more accurately. If the sensor 12 is a laser sensor, more accurate and distant information can be acquired.

以下の説明では、単眼カメラ、ステレオカメラ又はレーザセンサを採用した事例について説明するが、周囲の立体物への距離を算出できれば、これ以外のセンサ(広角レンズを有するカメラまたはTOFカメラなど)でもよい。 In the following description, a case in which a monocular camera, a stereo camera, or a laser sensor is used will be described, but other sensors (a camera having a wide-angle lens or a TOF camera) may be used as long as the distance to a surrounding three-dimensional object can be calculated. ..

また、センサ12a、12b、…、12nは、同時に雨や日差しなどの環境外乱の影響を受けないように配置されていることが望ましい。これにより、例えば、降雨時にセンサ12aのレンズに雨滴が付着した場合でも、進行方向の逆向きまたは下向きのセンサ12bのレンズには雨滴が付着しにくい。このため、センサ12aが取得した情報が雨滴の影響で不鮮明であっても、センサ12bが取得した情報は雨滴の影響を受けにくい。また、日差しの影響でセンサ12aの情報が不鮮明であっても、センサ12bが取得した情報は鮮明である可能性がある。 Further, it is desirable that the sensors 12a, 12b,..., 12n are arranged so as not to be affected by environmental disturbance such as rain and sunlight at the same time. As a result, for example, even if raindrops adhere to the lens of the sensor 12a during rain, it is difficult for the raindrops to adhere to the lens of the sensor 12b that is opposite to the traveling direction or faces downward. Therefore, even if the information acquired by the sensor 12a is unclear due to the effect of the raindrops, the information acquired by the sensor 12b is less likely to be affected by the raindrops. Further, even if the information of the sensor 12a is unclear due to the influence of sunlight, the information acquired by the sensor 12b may be clear.

また、センサ12a、12b、…、12nは、互いに異なる取得条件(絞り値、ホワイトバランス、周期、等)で取得してもよい。例えば、明るい場所用にパラメータを調整したセンサと、暗い場所用にパラメータを調整したセンサとを設置することで、環境の明暗によらず撮像可能としてもよい。 Further, the sensors 12a, 12b,..., 12n may be acquired under different acquisition conditions (aperture value, white balance, cycle, etc.). For example, by installing a sensor whose parameters have been adjusted for a bright place and a sensor whose parameters have been adjusted for a dark place, it is possible to perform imaging regardless of whether the environment is bright or dark.

センサ12a、12b、…、12nは、制御部15から取得開始の指令を受けたとき、または一定の時間間隔で情報を取得する。取得された情報のデータ及び取得時刻は、メモリ16に格納される。 The sensors 12a, 12b,..., 12n acquire information when receiving an acquisition start command from the control unit 15 or at regular time intervals. The data of the acquired information and the acquisition time are stored in the memory 16.

メモリ16は、情報処理装置13の主記憶装置(メインメモリ)およびストレージなどの補助記憶装置を含む。 The memory 16 includes a main storage device (main memory) of the information processing device 13 and an auxiliary storage device such as a storage.

センサ処理部14は、メモリ16に格納された情報データ及び取得時刻に基づいて、様々な情報処理を行う。この情報処理では、例えば、中間情報が作成され、メモリ16に保存される。中間情報は、センサ処理部14による処理の他、制御部15などの判断や処理に利用してもよい。 The sensor processing unit 14 performs various information processes based on the information data and the acquisition time stored in the memory 16. In this information processing, for example, intermediate information is created and stored in the memory 16. The intermediate information may be used not only for the processing by the sensor processing unit 14 but also for the judgment and processing by the control unit 15 and the like.

バス18は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。 The bus 18 can be configured by IEBUS (Inter Equipment Bus), LIN (Local Interconnect Network), CAN (Controller Area Network), or the like.

外部記憶装置19は、マップを含む移動体100が走行する環境の情報を有する。外部記憶装置19の情報は、例えば、走行環境にある静止物(木、建物、道路、車線、信号、標識、路面ペイント、路端など)の形状や位置である。外部記憶装置19のそれぞれの情報を数式で表してもよい。例えば、線情報を複数点で構成せず、線の傾きと切片のみでよい。また、外部記憶装置19の情報を区別せずに、点群で表してもよい。点群は、3D(x,y,z)、4D(x,y,z,色)などで表してもよい。最終的に、移動体100の現在位置から走行環境を検出し、マップマッチングができれば、外部記憶装置19の情報は、どのような形式で保存しておいてもよい。 The external storage device 19 has information on the environment in which the mobile body 100 travels, including a map. The information in the external storage device 19 is, for example, the shape or position of a stationary object (tree, building, road, lane, signal, sign, road surface paint, road edge, etc.) in the traveling environment. Each piece of information in the external storage device 19 may be represented by a mathematical expression. For example, the line information does not have to be composed of a plurality of points, and only the inclination and the intercept of the line are required. Further, the information in the external storage device 19 may be represented by a point cloud without being distinguished. The point cloud may be represented by 3D (x, y, z), 4D (x, y, z, color) or the like. Finally, the information in the external storage device 19 may be stored in any format as long as the traveling environment is detected from the current position of the mobile body 100 and map matching can be performed.

制御部15から取得開始の指令を受けたとき、外部記憶装置19が情報をメモリ16に送る。外部記憶装置19は、移動体100に設置されている場合、情報をバス18で送受信する。 When receiving the acquisition start command from the control unit 15, the external storage device 19 sends information to the memory 16. The external storage device 19 transmits/receives information via the bus 18 when installed in the mobile body 100.

一方、外部記憶装置19が移動体100に設置されていない場合、移動体100と外部記憶装置19との接続は、信号受付部2で行う。この接続は、例えば、Local Area Network(LAN)、Wide Area Network(WAN)等により行うことができる。 On the other hand, when the external storage device 19 is not installed in the mobile body 100, the signal receiving unit 2 connects the mobile body 100 and the external storage device 19. This connection can be made by using, for example, Local Area Network (LAN), Wide Area Network (WAN), or the like.

センサ処理部14は、外部記憶装置19及びメモリ16に格納された移動体100の現在位置とセンサ12の内部パラメータとに基づいて、センサ12で取得された情報に外部記憶装置19の情報を取得する。 The sensor processing unit 14 acquires the information of the external storage device 19 from the information acquired by the sensor 12 based on the current position of the moving body 100 and the internal parameters of the sensor 12 stored in the external storage device 19 and the memory 16. To do.

センサ処理部14は、センサ12で取得された情報に基づいて移動体の複数の位置候補を特定し、その複数の位置候補と移動体100の移動速度に基づいて移動体100の位置を推定する。 The sensor processing unit 14 identifies a plurality of position candidates of the moving body based on the information acquired by the sensor 12, and estimates the position of the moving body 100 based on the plurality of position candidates and the moving speed of the moving body 100. ..

センサ処理部14は、移動体100の走行中にセンサ12が取得した情報を処理して、移動体100の位置を推定してもよい。例えば、センサ処理部14は、センサ12が時系列に取得した情報で移動体100の移動量を算出し、過去の位置に移動量を加算して現在位置を推定する。センサ処理部14は、時系列に取得した情報のそれぞれから特徴を抽出してもよい。センサ処理部14は、さらに、次回以降の情報で同じ特徴を抽出する。そして、センサ処理部14は、特徴のトラッキングにより移動体100の移動量を算出する。 The sensor processing unit 14 may process the information acquired by the sensor 12 while the mobile body 100 is traveling to estimate the position of the mobile body 100. For example, the sensor processing unit 14 calculates the movement amount of the moving body 100 based on the information acquired by the sensor 12 in time series, and adds the movement amount to the past position to estimate the current position. The sensor processing unit 14 may extract the characteristic from each of the information acquired in time series. The sensor processing unit 14 further extracts the same feature from the next and subsequent information. Then, the sensor processing unit 14 calculates the movement amount of the moving body 100 by tracking the characteristics.

制御部15は、センサ処理部14の情報処理の結果に基づいて、移動体100に対して移動速度に関する指令を出力する。例えば、制御部15は、情報内の立体物の解像度、情報内の特徴のうちの外れ値の数または情報処理の種類等に応じて、移動体100の移動速度を増加させる指令、減少させる指令または維持させる指令を出力してもよい。 The control unit 15 outputs a command regarding the moving speed to the moving body 100 based on the information processing result of the sensor processing unit 14. For example, the control unit 15 commands to increase or decrease the moving speed of the moving object 100 according to the resolution of the three-dimensional object in the information, the number of outliers among the features in the information, the type of information processing, or the like. Alternatively, a command for maintaining the output may be output.

図2Aは、図1のセンサ処理部14における情報処理プロセスを示すフロー図である。 FIG. 2A is a flowchart showing an information processing process in the sensor processing unit 14 of FIG.

図2Aにおいて、現在位置推定ステップS201は、移動体100の仮現在位置を推定するステップである。現在位置推定ステップS201は、例えば、絶対位置を推定するGPSで構成する。また、現在位置推定ステップS201は、ある基準点から相対位置を推定するオドメトリで構成してもよい。前述のGPSやオドメトリに基づく位置推定手法には、位置誤差が発生するが、後述する位置補正ステップS206で補正する。 In FIG. 2A, the current position estimation step S201 is a step of estimating the provisional current position of the moving body 100. The current position estimation step S201 is composed of, for example, a GPS that estimates an absolute position. Further, the current position estimation step S201 may be configured by odometry for estimating the relative position from a certain reference point. Although a position error occurs in the above-described position estimation method based on GPS or odometry, it is corrected in a position correction step S206 described later.

環境情報抽出ステップS202は、移動体100に設置されているセンサ12a、12b、…、12nで移動体100の周囲の環境情報を抽出するステップである。ここで、環境情報の抽出は、センサ12a、12b、…、12nによる移動体100の周囲の環境のグレイスケール画像、カラー画像、三次元点等の取得を含む。また、環境情報の抽出は、センサ12a、12b、…、12nで取得した画像からの視差画像作成であってもよい。また、環境情報の抽出は、センサ12a、12b、…、12nで取得した情報に含まれる特徴の抽出であってもよい。また、環境情報の抽出は、センサ12a、12b、…、12nで取得した情報に含まれる線情報の抽出であってもよい。 The environmental information extraction step S202 is a step of extracting environmental information around the moving body 100 by the sensors 12a, 12b,..., 12n installed in the moving body 100. Here, the extraction of the environment information includes acquisition of a grayscale image, a color image, a three-dimensional point, etc. of the environment around the moving body 100 by the sensors 12a, 12b,..., 12n. The extraction of the environmental information may be parallax image creation from the images acquired by the sensors 12a, 12b,..., 12n. Further, the extraction of the environmental information may be the extraction of the features included in the information acquired by the sensors 12a, 12b,..., 12n. The extraction of the environmental information may be extraction of line information included in the information acquired by the sensors 12a, 12b,..., 12n.

外部記憶装置情報抽出ステップS203は、制御部15の指令に基づいて、外部記憶装置19から情報を取得するステップである。制御部15の指令で、外部記憶装置19にある情報を全て取得してもよい。また、移動体100の周囲の情報のみを取得してもよい。 The external storage device information extraction step S203 is a step of acquiring information from the external storage device 19 based on a command from the control unit 15. All the information in the external storage device 19 may be acquired by a command from the control unit 15. Moreover, you may acquire only the information around the moving body 100.

三次元点区別ステップS204は、外部記憶装置情報抽出ステップS203で抽出した外部記憶装置情報の中からマッチングの最も確率が高い三次元点を区別する。三次元点区別ステップS204については、後述する。 The three-dimensional point distinguishing step S204 distinguishes the three-dimensional point having the highest matching probability from the external storage device information extracted in the external storage device information extracting step S203. The three-dimensional point distinction step S204 will be described later.

マッチングステップS205は、環境情報抽出ステップS202でセンサ12a、12b、…、12nで取得した情報を三次元点区別ステップS204で区別した三次元点とマッチングするステップである。マッチングステップS205については、後述する。 The matching step S205 is a step of matching the information acquired by the sensors 12a, 12b,..., 12n in the environment information extraction step S202 with the three-dimensional points discriminated in the three-dimensional point discrimination step S204. The matching step S205 will be described later.

位置補正ステップS206は、マッチングステップS205の結果を用い、現在位置推定ステップS201で推定した現在位置を補正するステップである。位置補正ステップS206については、後述する。 The position correction step S206 is a step of correcting the current position estimated in the current position estimation step S201 using the result of the matching step S205. The position correction step S206 will be described later.

図2Bは、図1のセンサ処理部14の構成を示したものである。 FIG. 2B shows a configuration of the sensor processing unit 14 of FIG.

本図において、センサ処理部14は、入出力部210と、三次元点取得部211と、フィルター部212と、マッチング部213と、自己位置補正部214と、を有する。 In the figure, the sensor processing unit 14 includes an input/output unit 210, a three-dimensional point acquisition unit 211, a filter unit 212, a matching unit 213, and a self-position correction unit 214.

入出力部210は、センサ処理部14にて移動体100の位置補正を行うための必要な情報の入出力をする。例えば、入出力部210は、メモリ16に格納されたセンサ12a、12b、…、12nで環境情報抽出ステップS202で取得した情報を取得する。また、入出力部210は、メモリ16に登録された外部記憶装置19の情報抽出ステップS203で外部記憶装置19から情報を取得する。外部記憶装置19から取得する情報量が大きく、メモリ16に格納できない場合、現在位置推定ステップS201で推定した移動体100の現在位置に近い情報だけを取得してもよい。また、現在位置推定ステップS201で推定した移動体100の現在位置から見たときのある領域に入っている情報だけを取得してもよい。 The input/output unit 210 inputs/outputs information necessary for the sensor processing unit 14 to correct the position of the moving body 100. For example, the input/output unit 210 acquires the information acquired in the environment information extraction step S202 by the sensors 12a, 12b,..., 12n stored in the memory 16. Further, the input/output unit 210 acquires information from the external storage device 19 in the information extraction step S203 of the external storage device 19 registered in the memory 16. When the amount of information acquired from the external storage device 19 is large and cannot be stored in the memory 16, only information close to the current position of the mobile unit 100 estimated in the current position estimation step S201 may be acquired. Further, only the information included in a certain area when viewed from the current position of the mobile unit 100 estimated in the current position estimation step S201 may be acquired.

三次元点取得部211は、入出力部210が取得した情報に基づいて三次元点を取得し、一時的に記録する。センサ12a、12b、…、12nがカメラであり、入出力部210が取得した情報が画像の場合、二次元画像を三次元点に変換する。変換方法は、例えば、視差画像に基づいて画像のそれぞれのピクセルを三次元点にするものであってもよい。また、センサ12a、12b、…、12nが単眼カメラの場合、structure from motion、flat surface model、ORB−SLAM、LSD−SLAMなどの技術を用いてもよい。センサ12a、12b、…、12nがレーザセンサの場合、走行環境の情報を三次元点で抽出するため、他の処理は不要となる。 The three-dimensional point acquisition unit 211 acquires a three-dimensional point based on the information acquired by the input/output unit 210 and temporarily records it. If the sensors 12a, 12b,..., 12n are cameras and the information acquired by the input/output unit 210 is an image, the two-dimensional image is converted into a three-dimensional point. The conversion method may be, for example, one in which each pixel of the image is converted into a three-dimensional point based on the parallax image. When the sensors 12a, 12b,..., 12n are monocular cameras, techniques such as structure from motion, flat surface model, ORB-SLAM, and LSD-SLAM may be used. When the sensors 12a, 12b,..., 12n are laser sensors, the information of the traveling environment is extracted at three-dimensional points, and other processing is not necessary.

フィルター部212においては、三次元点取得部211で取得三次元点を三次元点区別ステップS204でフィルタリングする。処理時間を軽減させるために、あるエリア以内の三次元点の平均値を算出し、一つの三次元点に絞る。また、コーナーやエッジなどの特徴が少ない走行環境の領域の三次元点を削除してもよい。また、フィルター部212においては、現在位置推定ステップS201で推定した移動体100の仮位置における外部記憶装置19の可視三次元点をフィルタリングする。 In the filter unit 212, the three-dimensional point acquisition unit 211 filters the acquired three-dimensional points in the three-dimensional point discrimination step S204. In order to reduce the processing time, the average value of three-dimensional points within a certain area is calculated and narrowed down to one three-dimensional point. Also, three-dimensional points in a region of the traveling environment with few features such as corners and edges may be deleted. In addition, the filter unit 212 filters visible three-dimensional points in the external storage device 19 at the temporary position of the moving body 100 estimated in the current position estimation step S201.

マッチングステップS205を実施するとき、センサ12a、12b、…、12nで取得した情報及び外部記憶装置19から取得した情報の数や形状が大きく異なると、マッチングが失敗する可能性が高くなる。したがって、マッチング確率の高い移動体100の仮位置における外部記憶装置19の可視三次元点を抽出することにより、マッチングステップS205で精度よくマッチングができる。なお、このように所定の精度でマッチングができた場合を、「マッチングが成功した」という。 When performing the matching step S205, if the number and the shape of the information acquired by the sensors 12a, 12b,..., 12n and the information acquired from the external storage device 19 are significantly different, the possibility that the matching will fail increases. Therefore, by extracting the visible three-dimensional point of the external storage device 19 at the temporary position of the moving body 100 having a high matching probability, it is possible to perform the matching in the matching step S205 with high accuracy. It should be noted that the case where the matching can be performed with a predetermined accuracy in this way is referred to as “matching has succeeded”.

マッチング部213は、三次元点取得部211で得た三次元点とフィルター部212で得た可視三次元点とのマッチングをマッチングステップS205で行う。 The matching unit 213 performs matching between the 3D point obtained by the 3D point acquisition unit 211 and the visible 3D point obtained by the filter unit 212 in a matching step S205.

自己位置補正部214では、位置補正ステップS206を行い、移動体100の現在位置を補正する。 The self-position correction unit 214 performs a position correction step S206 to correct the current position of the moving body 100.

自己位置補正部214で補正した現在位置情報を入出力部210に送信し、制御部15の指令で補正した現在位置情報をメモリ16に送信する。また、制御部15の指令で入出力部210から直接制御部15に自己位置補正部214で補正した現在位置情報を送信してもよい。 The current position information corrected by the self-position correction unit 214 is transmitted to the input/output unit 210, and the current position information corrected by the command of the control unit 15 is transmitted to the memory 16. Further, the current position information corrected by the self-position correction unit 214 may be directly transmitted from the input/output unit 210 to the control unit 15 according to a command from the control unit 15.

なお、上述の説明においては、図2Bの記載に従って、入出力部210、三次元点取得部211、フィルター部212、マッチング部213及び自己位置補正部214がセンサ処理部14に含まれるものとしたが、本発明は、これに限定されるものではなく、入出力部210、三次元点取得部211、フィルター部212、マッチング部213及び自己位置補正部214がセンサ処理部14に含まれない独立の構成要素であってもよい。 In the above description, the input/output unit 210, the three-dimensional point acquisition unit 211, the filter unit 212, the matching unit 213, and the self-position correction unit 214 are included in the sensor processing unit 14 according to the description of FIG. 2B. However, the present invention is not limited to this, and the input/output unit 210, the three-dimensional point acquisition unit 211, the filter unit 212, the matching unit 213, and the self-position correction unit 214 are not included in the sensor processing unit 14 and are independent. May be a constituent element of.

つぎに、図3A及び3Bを用いて、三次元点区別ステップS204の詳細を説明する。 Next, details of the three-dimensional point discrimination step S204 will be described with reference to FIGS. 3A and 3B.

図3Aは、図2Aの三次元点区別ステップS204におけるセンサの検出範囲の例を示す模式図である。 FIG. 3A is a schematic diagram showing an example of the detection range of the sensor in the three-dimensional point discrimination step S204 of FIG. 2A.

図3Bは、図2Aの三次元点区別ステップS204の検出誤差を示す模式図である。 FIG. 3B is a schematic diagram showing a detection error in the three-dimensional point discrimination step S204 of FIG. 2A.

図3Aにおいて、符号1001は、外部記憶装置19に登録された移動体100の走行環境の座標(x,y)を指す。 In FIG. 3A, reference numeral 1001 indicates the coordinates (x, y) of the traveling environment of the moving body 100 registered in the external storage device 19.

仮現在位置(X,Y)1002は、現在位置推定ステップS201において推定された座標1001における移動体100の位置である。 The temporary current position (X, Y) 1002 is the position of the moving body 100 at the coordinates 1001 estimated in the current position estimation step S201.

移動体100が室内で走行しているとする。移動体100が仮現在位置1002にある時、外部記憶装置19に登録された移動体100の周囲の情報が三次元点群1004と三次元点群1005と三次元点群1006Lと三次元点群1006Rとなるとする。簡単のため、三次元点群1004と三次元点群1005と三次元点群1006Lと三次元点群1006Rの走行環境の地面に対する高さは一定とする。図中、○印は「参照可」であることを表し、●印は「参照不可」であることを表している。 It is assumed that the moving body 100 is traveling indoors. When the moving body 100 is at the provisional current position 1002, the information about the surroundings of the moving body 100 registered in the external storage device 19 is the three-dimensional point group 1004, the three-dimensional point group 1005, the three-dimensional point group 1006L, and the three-dimensional point group. It will be 1006R. For simplification, the heights of the three-dimensional point group 1004, the three-dimensional point group 1005, the three-dimensional point group 1006L, and the three-dimensional point group 1006R with respect to the ground are constant. In the figure, a circle indicates that "reference is possible", and a circle indicates that "reference is not possible".

センサ12a、12b、…、12nの取得角度をFOVとする。移動体100の仮現在位置1002と取得角度FOVに基づいて、三次元点群1004は、センサ12a、12b、…、12nの取得角度FOV外にあるため、参照不可となる。また、三次元点群1005と三次元点群1006Lと三次元点群1006Rは、センサ12a、12b、…、12nの取得角FOV内に入っているが、センサ12a、12b、…、12nは、それぞれの方向の最も近い情報しか得られないため、三次元点群1005は参照可能であり、三次元点群1006Lと三次元点群1006Rは参照不可となってしまう。 The acquisition angle of the sensors 12a, 12b,..., 12n is FOV. Since the three-dimensional point cloud 1004 is outside the acquisition angle FOV of the sensors 12a, 12b,..., 12n based on the provisional current position 1002 of the moving object 100 and the acquisition angle FOV, it cannot be referred to. Further, the three-dimensional point group 1005, the three-dimensional point group 1006L, and the three-dimensional point group 1006R are within the acquisition angle FOV of the sensors 12a, 12b,..., 12n, but the sensors 12a, 12b,. Since only the closest information in each direction can be obtained, the 3D point group 1005 can be referred to, and the 3D point group 1006L and the 3D point group 1006R cannot be referred to.

したがって、マッチング部213のマッチングステップS205で移動体100の現在位置1002から参照不可能な三次元点1006Lと三次元点1006Rを用いても、マッチングができない。このため、三次元点1006Lと三次元点1006Rをマッチングに用いられない。 Therefore, even if the three-dimensional point 1006L and the three-dimensional point 1006R that cannot be referenced from the current position 1002 of the moving body 100 are used in the matching step S205 of the matching unit 213, the matching cannot be performed. Therefore, the three-dimensional point 1006L and the three-dimensional point 1006R cannot be used for matching.

よって、フィルター部212は、参照不可能な三次元点1006L、1006Rを除外する。 Therefore, the filter unit 212 excludes the non-referenceable three-dimensional points 1006L and 1006R.

なお、簡単のため、三次元点群1004、三次元点群1005、三次元点群1006L及び三次元点群1006Rについては、室内の壁、椅子、テーブル等を想定して説明したが、どのような立体物で構成してもよい。 Note that, for simplicity, the three-dimensional point group 1004, the three-dimensional point group 1005, the three-dimensional point group 1006L, and the three-dimensional point group 1006R have been described on the assumption of an indoor wall, a chair, a table, and the like. It may be composed of various three-dimensional objects.

図3Bにおいて、存在確率分布301は、移動体100の現在位置の存在確率分布を表している。存在確率分布301は、例えば、Kalman Filter、Particle Filter、Bayesian Filterのような時系列フィルターを用いて推定する。 In FIG. 3B, the existence probability distribution 301 represents the existence probability distribution of the current position of the mobile body 100. The existence probability distribution 301 is estimated using a time series filter such as Kalman Filter, Particle Filter, and Bayesian Filter, for example.

三次元点302は、外部記憶装置情報抽出ステップS203で抽出した複数の三次元点である。簡単のため、三次元点302の複数の三次元点の地面からの高さを一定とする。 The three-dimensional points 302 are a plurality of three-dimensional points extracted in the external storage device information extraction step S203. For simplicity, the heights of the three-dimensional points 302 from the ground are set to be constant.

三次元点303は、移動体100の現在位置から取得した走行環境にある柱の情報である。存在確率分布304は、柱の現在位置の存在確率分布である。 The three-dimensional point 303 is information on the pillar in the traveling environment acquired from the current position of the moving body 100. The existence probability distribution 304 is the existence probability distribution of the current position of the pillar.

角度θは、移動体100のセンサ12の一つからの視野の中心線からの方向である。 The angle θ N is the direction from the centerline of the field of view from one of the sensors 12 of mobile 100.

抽出した三次元点306は、三次元点区別ステップS204で抽出された参照可能な三次元点であり、マッチングステップS205で利用する三次元点である。 The extracted three-dimensional point 306 is the referable three-dimensional point extracted in the three-dimensional point discrimination step S204, and is the three-dimensional point used in the matching step S205.

参照不可能な三次元点307は、三次元点区別ステップS204で参照不可能な三次元点として区別され、マッチングステップS205で利用しない三次元点である。
抽出した三次元点303の存在確率分布304は、その範囲が移動体100と相似形の存在確率分布301となるとする。
The non-referenceable three-dimensional point 307 is a three-dimensional point which is discriminated as a non-referenceable three-dimensional point in the three-dimensional point discrimination step S204 and is not used in the matching step S205.
The existence probability distribution 304 of the extracted three-dimensional points 303 is assumed to be the existence probability distribution 301 of which the range is similar to the moving body 100.

センサ12a、12b、…、12nの情報取得誤差が0でない場合、抽出した三次元点303の存在確率分布304が移動体100の存在確率分布301より大きくなる。移動体100のセンサ12a、12b、…、12nの情報取得誤差が既知であれば、存在確率分布301に合わせて存在確率分布304を算出する。例えば、センサ12a、12b、…、12nがステレオカメラの場合、情報取得誤差は取得した情報の距離に比例するため、その誤差を含めて存在確率分布304を算出する。 If the information acquisition error of the sensors 12a, 12b,..., 12n is not 0, the existence probability distribution 304 of the extracted three-dimensional points 303 becomes larger than the existence probability distribution 301 of the moving body 100. If the information acquisition error of the sensors 12a, 12b,..., 12n of the moving body 100 is known, the existence probability distribution 304 is calculated in accordance with the existence probability distribution 301. For example, when the sensors 12a, 12b,..., 12n are stereo cameras, the information acquisition error is proportional to the distance of the acquired information, and therefore the existence probability distribution 304 is calculated including the error.

したがって、抽出した三次元点303を三次元点302のうち、三次元点302L又は三次元点302Rのいずれとマッチングすればよいか不明となる。 Therefore, it is unclear whether the extracted three-dimensional point 303 should be matched with the three-dimensional point 302L or the three-dimensional point 302R among the three-dimensional points 302.

そのため、角度θと現在位置の存在確率分布301で三次元点302Lと三次元点302Rと区別する。 Therefore, the existence probability distribution 301 of the angle θ N and the current position distinguishes the three-dimensional point 302L from the three-dimensional point 302R.

従来センサは、センサに最も近い立体物を検出し、その立体物の裏に他の立体物があっても検出できない。 Conventional sensors detect a three-dimensional object closest to the sensor and cannot detect other three-dimensional objects behind the three-dimensional object.

そこで、本発明においては、角度θの方向においてセンサに最も近い立体物を探索し、抽出すると、マッチングができる確率が高くなる。 Therefore, in the present invention, if a three-dimensional object closest to the sensor in the direction of the angle θ N is searched for and extracted, the probability of matching can be increased.

つぎに、角度θの設定について説明する。 Next, the setting of the angle θ N will be described.

所定の角度の範囲θからθまでの間で角度θを調整し、マッチング確率が最も高い三次元点を探索する。例えば、センサの取得角度がFOVの場合、θ=−FOV、θ=+FOVとする。θからθまでの範囲において所定の間隔dθ(=θ−θN−1)を設定する。ここで、dθは固定値とする。dθは、センサの解像度に合わせて設定してもよい。 The angle θ N is adjusted within a predetermined angle range θ A to θ B, and a three-dimensional point having the highest matching probability is searched for. For example, when the acquisition angle of the sensor is FOV, θ A =−FOV and θ B =+FOV. A predetermined interval dθ (=θ N −θ N−1 ) is set in the range from θ A to θ B. Here, dθ is a fixed value. You may set d(theta) according to the resolution of a sensor.

また、dθを移動体100の存在確率分布301に合わせてもよい。例えば、自己位置の信頼性が低ければ、現在位置推定ステップS201で推定した仮の現在位置誤差が大きいため、dθを小さく設定する。一方、自己位置の信頼性が高ければ、現在位置推定ステップS201で推定した仮の現在位置誤差が小さいため、dθを大きく設定する。 Further, dθ may be matched with the existence probability distribution 301 of the moving body 100. For example, if the reliability of the self-position is low, the provisional current position error estimated in the current position estimation step S201 is large, so dθ is set small. On the other hand, if the reliability of the self-position is high, the provisional current position error estimated in the current position estimation step S201 is small, so dθ is set to be large.

また、存在確率分布301の大きさに基づいて、θ及びθを変更してもよい。例えば、存在確率分布301が大きい場合、推定した現在位置の方位誤差が大きくなっている確率が高いため、θをθ’(=θ−α)とし、θをθ’(=θ+α)とする。 Further, θ A and θ B may be changed based on the size of the existence probability distribution 301. For example, when the existence probability distribution 301 is large, there is a high probability that the estimated azimuth error of the current position is large. Therefore, θ A is θ A ′ (=θ A −α) and θ B is θ B ′ (= θ B +α).

図4は、本発明の実施例を示したものである。 FIG. 4 shows an embodiment of the present invention.

本図において、三次元点401は、外部記憶装置19に登録された移動体100の走行環境の三次元点である。 In the figure, a three-dimensional point 401 is a three-dimensional point of the traveling environment of the moving body 100 registered in the external storage device 19.

存在確率分布402は、移動体100の存在確率分布である。移動体100が走行を開始した時点においては、存在確率分布402が小さいものとする。 The existence probability distribution 402 is an existence probability distribution of the mobile unit 100. It is assumed that the existence probability distribution 402 is small at the time when the moving body 100 starts traveling.

範囲403は、移動体100が三次元点区別ステップS204で探索する範囲である。 The range 403 is a range searched by the mobile unit 100 in the three-dimensional point discrimination step S204.

この場合に、外部記憶装置情報抽出ステップS203でθ=−FOV、θ=+FOVと設定し、範囲403内の移動体100の周囲の外部記憶装置19の情報を抽出する。そして、三次元点区別ステップS204において参照可と参照不可の三次元点を区別する。 In this case, in the external storage device information extraction step S203, θ A =−FOV and θ B =+FOV are set, and the information of the external storage device 19 around the moving body 100 within the range 403 is extracted. Then, in the three-dimensional point discrimination step S204, the referenceable and non-referenceable three-dimensional points are distinguished.

移動体100が廊下のような特徴の少ない環境を走行する場合、マッチングステップS205を行っても、位置の補正ができない。外部記憶装置19に登録された情報に基づいて移動体100が特徴の少ない環境を走行していることを制御部15が認識した場合、制御部15の指令で移動体100が移動し、特徴の探索を開始する。特徴の探索は、例えば、外部記憶装置19に登録された情報に基づいて、移動体100の現在位置に最も近い特徴の位置を抽出する。次に、制御部15の指令で移動体100がその特徴の検出可能な位置に移動し、マッチングステップS205と位置補正ステップS206で位置補正する。 When the moving body 100 travels in an environment with few features such as a corridor, the position cannot be corrected even by performing the matching step S205. When the control unit 15 recognizes that the moving body 100 is traveling in an environment with few characteristics based on the information registered in the external storage device 19, the moving body 100 moves according to a command from the control unit 15, and Start the search. In the search for the feature, for example, based on the information registered in the external storage device 19, the position of the feature closest to the current position of the mobile body 100 is extracted. Next, the mobile unit 100 moves to a position where the characteristic can be detected by the command of the control unit 15, and the position is corrected in the matching step S205 and the position correction step S206.

移動体100が前述の抽出した特徴の位置に移動する場合、現在位置推定ステップS201で移動体100の推定した位置誤差が大きくなり、移動体100の存在確率分布が存在確率分布404になる。そこで、外部記憶装置情報抽出ステップS203でθをθ’(=θ−α)とし、θをθ’(=θ+α)とし、移動体100の周囲の外部記憶装置19の情報を抽出する。そして、三次元点区別ステップS204でθ’(=−FOV−α)からθ’ (=+FOV+α)までの範囲405で探索を行い、参照可能な三次元点を区別する。 When the mobile body 100 moves to the position of the extracted feature, the position error estimated by the mobile body 100 in the current position estimation step S201 becomes large, and the existence probability distribution of the mobile body 100 becomes the existence probability distribution 404. Therefore, in the external storage device information extraction step S203, θ A is set to θ A ′ (=θ A −α), θ B is set to θ B ′ (=θ B +α), and the external storage devices 19 around the moving body 100 are stored. Extract information. Then, in the three-dimensional point discrimination step S204, a search is performed in the range 405 from θ A ′ (=−FOV−α) to θ B ′ (=+FOV+α) to discriminate the three-dimensional points that can be referred to.

位置補正ステップS206において移動体100の現在位置を補正した後、次にマッチングステップS205を行う際には、外部記憶装置情報抽出ステップS203においてθ=−FOV、θ=+FOVと設定する。この新しく設定したθ及びθを用いて三次元点区別ステップS204で参照可と参照不可の三次元点を区別する。 After correcting the current position of the moving body 100 in the position correction step S206, when performing the matching step S205 next time, in the external storage device information extraction step S203, θ A =−FOV and θ B =+FOV are set. Using the newly set θ A and θ B , the referenceable and non-referenceable three-dimensional points are discriminated in the three-dimensional point discrimination step S204.

また、移動体100が特徴の少ない環境を走行し、最も近い特徴の位置に移動する場合、現在位置推定ステップS201で推定する位置誤差が大きくならない経路を制御部15が選定する。例えば、現在位置推定ステップS201で移動体100の現在位置を車輪エンコーダで推定する場合、誤差は走行した距離に比例するため、なるべく最短距離を算出する。また、移動体100の推定した方位誤差を避けるために、なるべく回転が少なく、直進で移動できる経路を算出する。したがって、特徴の少ない環境を走行している場合、動的障害物があっても、移動体100が避けずに、一時停止し、動的障害物が存在しなくなった後に直進移動を続ける。 Further, when the moving body 100 travels in an environment with few features and moves to the position of the closest feature, the control unit 15 selects a route in which the position error estimated in the current position estimation step S201 does not increase. For example, when the current position of the moving body 100 is estimated by the wheel encoder in the current position estimation step S201, the error is proportional to the distance traveled, and therefore the shortest distance is calculated as much as possible. Further, in order to avoid the azimuth error estimated by the moving body 100, a route that can be moved in a straight line with less rotation is calculated. Therefore, when traveling in an environment with few characteristics, even if there is a dynamic obstacle, the moving body 100 inevitably stops and continues to move straight after the dynamic obstacle disappears.

図5は、2台の移動体が走行する場合である。 FIG. 5 shows a case where two moving bodies travel.

本図において、三次元点501は、外部記憶装置19に登録された移動体100の走行環境の三次元点である。 In the figure, a three-dimensional point 501 is a three-dimensional point of the traveling environment of the moving body 100 registered in the external storage device 19.

存在確率分布502は、移動体100の現在位置の存在確率分布である。 The existence probability distribution 502 is an existence probability distribution of the current position of the mobile body 100.

三次元点503は、移動体100が現在位置からセンサで抽出した三次元点である。 The three-dimensional point 503 is a three-dimensional point extracted by the sensor from the current position of the moving body 100.

存在確率分布504は、三次元点503の存在確率分布で、存在確率分布502と同じ大きさとする。この場合、センサで抽出した三次元点503を三次元点501の三次元点505Rか三次元点505Lどれとマッチングすればよいか不明となり、誤ってマッチングする可能性が高い。 The existence probability distribution 504 is the existence probability distribution of the three-dimensional points 503, and has the same size as the existence probability distribution 502. In this case, it is unclear whether the 3D point 503 extracted by the sensor should be matched with the 3D point 505R or the 3D point 505L of the 3D point 501, and there is a high possibility of erroneous matching.

存在確率分布506は、移動体100が走行中環境に存在する2台目の移動体100bの存在確率分布である。存在確率分布506は、存在確率分布504より小さいとする。移動体100と移動体100bとは、互いの位置及び存在確率分布の情報を共有する。情報共有は、例えば、LAN(Local Area Network)に接続して情報の送信及び受信をする。 The existence probability distribution 506 is the existence probability distribution of the second moving body 100b existing in the environment where the moving body 100 is traveling. The existence probability distribution 506 is smaller than the existence probability distribution 504. The moving body 100 and the moving body 100b share information on their respective positions and existence probability distributions. For information sharing, for example, a LAN (Local Area Network) is connected to transmit and receive information.

移動体100と移動体100bとが情報を共有するタイミングは、三次元点区別ステップS204の直前とする。また、移動体100と移動体100bとが情報を共有するタイミングを三次元点区別ステップS204の周期より短い周期で実施してもよい。最終的に、存在確率分布の情報を必要としている三次元点区別ステップS204の周期に合わせて、最新の情報を共有できれば、周期をどのように設定してもよい。 The timing at which the mobile unit 100 and the mobile unit 100b share information is immediately before the three-dimensional point discrimination step S204. In addition, the timing at which the mobile object 100 and the mobile object 100b share information may be performed in a cycle shorter than the cycle of the three-dimensional point discrimination step S204. Finally, any cycle may be set as long as the latest information can be shared in accordance with the cycle of the three-dimensional point discrimination step S204 that requires the information of the existence probability distribution.

移動体100bの現在位置からセンサで移動体100への距離507を算出する。存在確率分布506があるため、センサで算出した移動体100への距離507に誤差がある。このため、移動体100は、距離508と距離509との間に存在する。 A distance 507 from the current position of the moving body 100b to the moving body 100 is calculated by a sensor. Because of the existence probability distribution 506, there is an error in the distance 507 to the moving body 100 calculated by the sensor. Therefore, the moving body 100 exists between the distance 508 and the distance 509.

距離508及び距離509を存在確率分布502と融合することにより、移動体100の存在確率分布は、更新され、符号510で表される範囲となる。そして、センサで抽出した三次元点503の存在確率分布504も、更新され、符号511で表される狭い範囲となる。言い換えると、他の移動体である移動体100bが有するセンサから周囲の情報を取得し、移動体100が有するセンサからの周囲の情報と組み合わせて、移動体100の現在の位置(存在確率分布510)を求める。 By merging the distance 508 and the distance 509 with the existence probability distribution 502, the existence probability distribution of the mobile unit 100 is updated to be the range represented by reference numeral 510. Then, the existence probability distribution 504 of the three-dimensional points 503 extracted by the sensor is also updated and becomes a narrow range indicated by reference numeral 511. In other words, the surrounding information is obtained from the sensor of the moving body 100b that is another moving body, and is combined with the surrounding information from the sensor of the moving body 100 to obtain the current position of the moving body 100 (presence probability distribution 510). ).

これにより、存在確率分布511は、存在確率分布504より小さくなる。そして、センサで抽出した三次元点503を存在確率分布504の範囲に入っている三次元点505Lとマッチングし、移動体100の位置を修正する。 As a result, the existence probability distribution 511 becomes smaller than the existence probability distribution 504. Then, the three-dimensional point 503 extracted by the sensor is matched with the three-dimensional point 505L included in the range of the existence probability distribution 504 to correct the position of the moving body 100.

簡単のため、移動体100と移動体100bが止まった状態で説明したが、一台又は二台とも走行しながら上記の位置修正を実施してもよい。また、簡単のため、移動体2台を用いて説明したが、2台以上であってもよい。 For the sake of simplicity, the description has been given with the moving body 100 and the moving body 100b stopped, but the above position correction may be performed while one or both moving vehicles are running. Further, for the sake of simplicity, the description has been given using two moving bodies, but two or more moving bodies may be used.

図6は、2台の移動体及び固定カメラの実施例である。 FIG. 6 shows an embodiment of two moving bodies and a fixed camera.

本図において、存在確率分布601は、移動体100の現在位置の存在確率分布である。 In this figure, the existence probability distribution 601 is the existence probability distribution of the current position of the mobile unit 100.

存在確率分布602は、移動体100bの現在位置の存在確率分布である。存在確率分布602を存在確率分布601より大きいとする。 The existence probability distribution 602 is an existence probability distribution of the current position of the moving body 100b. The existence probability distribution 602 is assumed to be larger than the existence probability distribution 601.

この場合、移動体100bに設置したセンサで移動体100への距離を算出しても、距離603と距離604との間が存在確率分布601より大きくなるため、2台の移動体100、100bによる位置補正が効かない。 In this case, even if the distance to the moving body 100 is calculated by the sensor installed on the moving body 100b, the distance between the distance 603 and the distance 604 becomes larger than the existence probability distribution 601, so that the two moving bodies 100 and 100b are used. Position correction does not work.

本図においては、移動体100の走行環境に設置された固定カメラ605(固定センサ)を用いることができ、固定カメラ605から移動体100及び移動体100bまでの距離606及び距離607が得られる。この場合に、距離606及び距離607の誤差が発生しても、移動体100bは、距離608と距離609との間に存在し、移動体100は、距離610と距離611との間に存在するはずである。よって、存在確率分布601が存在確率分布612となり、存在確率分布602が存在確率分布613となり、ともに狭い範囲となる。 In this figure, a fixed camera 605 (fixed sensor) installed in the traveling environment of the moving body 100 can be used, and a distance 606 and a distance 607 from the fixed camera 605 to the moving body 100 and the moving body 100b can be obtained. In this case, even if an error occurs in the distance 606 and the distance 607, the moving body 100b exists between the distance 608 and the distance 609, and the moving body 100 exists between the distance 610 and the distance 611. Should be. Therefore, the existence probability distribution 601 becomes the existence probability distribution 612, and the existence probability distribution 602 becomes the existence probability distribution 613, both of which are narrow ranges.

存在確率分布612及び存在確率分布613はそれぞれ、存在確率分布601、存在確率分布602より小さいため、三次元点区別ステップS204での参照可能な三次元点の区別ができ、マッチングステップS205で精度よく移動体100の位置を修正できる。 Since the existence probability distribution 612 and the existence probability distribution 613 are smaller than the existence probability distribution 601 and the existence probability distribution 602, respectively, the referenceable three-dimensional points in the three-dimensional point classification step S204 can be distinguished, and the matching step S205 can be performed accurately. The position of the moving body 100 can be corrected.

また、移動体100bに設置したセンサで移動体100への距離614を算出し、距離615と距離616との間で存在確率分布617を算出し、三次元点区別ステップS204〜位置補正ステップS206で位置補正をしてもよい。存在確率分布617は、存在確率分布612よりも狭い範囲となる。言い換えると、移動体100の走行環境に設置された固定センサから周囲の情報を取得し、移動体100が有するセンサからの周囲の情報と組み合わせて、移動体100の現在の位置(存在確率分布617)を求める。 In addition, the sensor installed in the moving body 100b calculates the distance 614 to the moving body 100, the existence probability distribution 617 is calculated between the distance 615 and the distance 616, and in the three-dimensional point discrimination step S204 to the position correction step S206. The position may be corrected. The existence probability distribution 617 has a narrower range than the existence probability distribution 612. In other words, the surrounding information is acquired from the fixed sensor installed in the traveling environment of the moving object 100, and combined with the surrounding information from the sensor of the moving object 100, the current position of the moving object 100 (presence probability distribution 617). ).

簡単のため、移動体2台と固定カメラ1台を用いて説明したが、2台以上の移動体と複数の固定カメラを用いて位置補正を行ってもよい。 For simplicity, the description has been given using two moving bodies and one fixed camera, but the position correction may be performed using two or more moving bodies and a plurality of fixed cameras.

また、簡単のため、固定カメラ605で説明したが、移動体100を推定し、距離を算出できるセンサであれば、カメラ以外でもよい。 Further, for simplicity, the fixed camera 605 has been described, but any sensor other than the camera may be used as long as it is a sensor capable of estimating the moving body 100 and calculating the distance.

図7は、通行人がいる場合である。 FIG. 7 shows a case where there is a passerby.

本図において、固定カメラ701は、移動体100が走行する環境に固定されたセンサである。 In this figure, a fixed camera 701 is a sensor fixed in the environment in which the moving body 100 travels.

存在確率分布702は、移動体100の現在位置の存在確率分布である。 The existence probability distribution 702 is an existence probability distribution of the current position of the mobile body 100.

存在確率分布703は、移動体100bの現在位置の存在確率分布である。 The existence probability distribution 703 is an existence probability distribution of the current position of the moving body 100b.

移動体100bと固定カメラ701との間に通行人704等がいる場合、固定カメラ701による移動体100bの検出は、不可能となる。言い換えると、通行人704等は、検出の障害となり得る。 When there is a passerby 704 or the like between the moving body 100b and the fixed camera 701, the fixed body 701 cannot detect the moving body 100b. In other words, passers-by 704, etc. may be obstacles to detection.

固定カメラ701で移動体100への距離705を算出し、図5及び図6で説明したとおり、移動体100の存在確率分布702を小さくし、存在確率分布702が存在確率分布702bとする。 The fixed camera 701 calculates the distance 705 to the moving body 100, and as described in FIGS. 5 and 6, the existence probability distribution 702 of the moving body 100 is reduced, and the existence probability distribution 702 is set to the existence probability distribution 702b.

一方、移動体100の現在位置からは、移動体100bの検出が可能であり、距離706を算出した後、移動体の存在確率分布703を小さくし、存在確率分布703bを得ることができる。 On the other hand, the moving body 100b can be detected from the current position of the moving body 100, and after the distance 706 is calculated, the existence probability distribution 703 of the moving body can be reduced to obtain the existence probability distribution 703b.

次に、移動体100bの現在位置を修正するために三次元点区別ステップS204、マッチングステップS205及び位置補正ステップS206に進む。 Next, in order to correct the current position of the moving body 100b, the process proceeds to the three-dimensional point distinguishing step S204, the matching step S205, and the position correction step S206.

三次元点区別ステップS204で現在位置とセンサの取得範囲に基づいて、移動体100bの周囲の三次元点707の全点を抽出できるが、通行人704の影響で固定カメラ701が移動体100bを検出できなくなっている。このため、固定カメラ701から通行人704の存在と移動体100bに対する通行人の方向αを移動体100bに送信する。 In the three-dimensional point discrimination step S204, all the three-dimensional points 707 around the moving body 100b can be extracted based on the current position and the acquisition range of the sensor, but the fixed camera 701 detects the moving body 100b by the influence of the passerby 704. It can no longer be detected. Therefore, the fixed camera 701 transmits the presence of the passerby 704 and the direction α of the passerby to the moving body 100b to the moving body 100b.

これにより、三次元点区別ステップS204でマッチングできる確率が低い方向α以外の三次元点を抽出し、マッチングステップS205と位置補正ステップS206で位置推定を実施する。 As a result, three-dimensional points other than the direction α in which the probability of matching is low are extracted in the three-dimensional point discrimination step S204, and position estimation is performed in the matching step S205 and the position correction step S206.

本図においては、簡単のため、通行人一人の場合について説明したが、複数の通行人が存在してもよい。また、複数の通行人の影響により、他の移動体や固定センサを検出することや、位置補正をすることができない場合、一時的に停止し、通行人がいなくなるまで待機する。また、通行人がしばらくいなくならない場合、移動体が通行人を回避して、他の移動体や固定センサを検出できる位置まで移動してもよい。 In the figure, for simplicity, the case of one passerby has been described, but there may be a plurality of passersby. Further, when it is not possible to detect another moving body or a fixed sensor or correct the position due to the influence of a plurality of passers-by, it temporarily stops and waits until there are no passers-by. Further, when the passerby does not disappear for a while, the moving body may avoid the passerby and move to a position where another moving body or a fixed sensor can be detected.

なお、ここでは通行人について説明したが、一般に、人間以外の動物、物体等をまとめて「障害物」と呼ぶ。 Although a passerby has been described here, animals other than humans, objects and the like are generally referred to as “obstacles”.

まとめると、三次元点取得部が取得した三次元点に障害物の三次元点が含まれている場合には、マッチング部は、障害物の三次元点を除いた三次元点を用いてマッチングを行う。 In summary, when the 3D points acquired by the 3D point acquisition unit include the 3D points of the obstacle, the matching unit performs matching using the 3D points excluding the 3D points of the obstacle. I do.

つぎに、図8A及び8Bを用いて、図2AのマッチングステップS205及び位置補正ステップS206の詳細について説明する。 Details of the matching step S205 and the position correction step S206 of FIG. 2A will be described below with reference to FIGS. 8A and 8B.

図8Aは、マッチングステップ及び位置補正ステップの条件を示す上面図である。 FIG. 8A is a top view showing conditions of the matching step and the position correction step.

図8Bは、マッチングステップ及び位置補正ステップの手順を示すフロー図である。 FIG. 8B is a flowchart showing the procedure of the matching step and the position correction step.

図8Aにおいて、三次元点801(●印)は、外部記憶装置19に登録された移動体100の走行環境である。 In FIG. 8A, a three-dimensional point 801 (marked with ●) is a traveling environment of the moving body 100 registered in the external storage device 19.

三次元点802(○印)は、移動体100の現在位置からセンサで抽出した三次元点である。三次元点801と三次元点802とのマッチング方法は、例えば、ICP Matching(ICPは、Iterative Closest Pointの略称である。)を用いる。また、三次元点801及び三次元点802を線に変換して、線マッチングを行ってもよい。最終的に、三次元点801及び三次元点802の相対位置(X,Y,Z,roll,pitch,yaw)を出力すれば、ICP以外のマッチング方法を適用してもよい。ここで、roll,pitch,yawはそれぞれ、移動体100が前後の軸(進行方向の軸)に対して、その軸の周りに回転する角度、移動体100の先端部が上下する角度、移動体100の先端部が左右に振動する角度を表している。 The three-dimensional point 802 (circle) is a three-dimensional point extracted by the sensor from the current position of the moving body 100. As a method of matching the three-dimensional points 801 and 802, for example, ICP Matching (ICP is an abbreviation of Iterative Closest Point) is used. Also, the line matching may be performed by converting the three-dimensional points 801 and 802 into lines. Finally, if the relative positions (X, Y, Z, roll, pitch, yaw) of the three-dimensional point 801 and the three-dimensional point 802 are output, a matching method other than ICP may be applied. Here, roll, pitch, and yaw are the angle at which the moving body 100 rotates about the front-rear axis (the axis in the traveling direction), the angle at which the tip of the moving body 100 moves up and down, the moving body, respectively. It represents the angle at which the tip of 100 vibrates to the left and right.

本図において破線で示す層803R、803Lは、移動体100の周囲の状態を数値化するための区分である。ここでは、簡単のため、層803R、803Lは、走行環境を距離と位置とに分け、それぞれ、三次元点の点群が含まれる領域として区分したものであり、それぞれの領域の特徴を数値の集合として表したものである。なお、層803Rは、移動体100の進行方向右側に位置するものであり、層803Lは、移動体100の進行方向左側に位置するものである。また、「位置」は、走行面の座標であり、二次元座標である。 Layers 803R and 803L indicated by broken lines in this figure are divisions for digitizing the surrounding state of the moving body 100. Here, for the sake of simplicity, the layers 803R and 803L are obtained by dividing the traveling environment into a distance and a position, and dividing the traveling environment into regions each including a point group of three-dimensional points. It is represented as a set. The layer 803R is located on the right side in the traveling direction of the moving body 100, and the layer 803L is located on the left side in the traveling direction of the moving body 100. The "position" is the coordinate of the traveling surface and is the two-dimensional coordinate.

具体的には、層803R、803Lは、下記式(1)に示すとおり、距離、位置、高さ、色などで構成されるものである。 Specifically, the layers 803R and 803L are configured by a distance, a position, a height, a color, etc. as shown in the following formula (1).

層(n)=f(距離,位置,高さ,色,…) …(1)
式中、右辺のかっこ内は、それぞれの層803R、803Lの属性を記載したものである。それぞれの層803R、803Lの属性は、それぞれの層803R、803Lに含まれる三次元点の点群を構成するそれぞれの点における距離、位置、高さ、色などに対応するそれぞれの特徴の数値(特徴量)についてその点群の平均値を算出して示したものである。言い換えると、層803R、803Lは、属性を変数とする。
Layer (n)=f (distance, position, height, color,...) (1)
In the formula, the parentheses on the right side describe the attributes of the layers 803R and 803L. The attributes of the respective layers 803R and 803L are numerical values of respective characteristics (distances, positions, heights, colors, etc. at respective points constituting the point group of the three-dimensional points included in the respective layers 803R and 803L ( (Feature amount), the average value of the point group is calculated and shown. In other words, the layers 803R and 803L have attributes as variables.

上記式(1)についての更に具体的な例は、下記式(2)で表される。 A more specific example of the above formula (1) is represented by the following formula (2).

層(i)=f(距離d,位置p)=f(di−1<d<d,p=R) …(2)
式中、iは、1以上の整数であり、それぞれの領域を表す符号である。dは、移動体100から隣の領域(例えばi+1)との境界までの距離(所定の規則に従って特定される値)である。Rは、移動体100の右側を表す数値である。
Layer (i)=f (distance d, position p)=f(d i-1 <d<d i , p=R) (2)
In the formula, i is an integer of 1 or more and is a code representing each area. d i is a distance (a value specified according to a predetermined rule) from the moving body 100 to the boundary between the adjacent area (for example, i+1). R is a numerical value representing the right side of the moving body 100.

上記式(2)においては、属性を距離及び位置に限定して示している。また、この式は、層803Rに関するものである。 In the above formula (2), the attributes are limited to the distance and the position. The equation also relates to layer 803R.

同様に、層803Lに関するものは、下記式(3)で表される。 Similarly, the layer 803L is represented by the following formula (3).

層(j)=f(距離d,位置p)=f(dj−1<d<d,p=L) …(3)
式中、jは、1以上の整数であり、それぞれの領域を表す符号である。dは、移動体100から隣の領域(例えばj+1)との境界までの距離(所定の規則に従って特定される値)である。Lは、移動体100の左側を表す数値である。
Layer (j)=f (distance d, position p)=f(d j-1 <d<d j , p=L) (3)
In the formula, j is an integer of 1 or more and is a code representing each area. d j is a distance (a value specified according to a predetermined rule) from the moving body 100 to the boundary with the adjacent area (for example, j+1). L is a numerical value indicating the left side of the moving body 100.

外部記憶装置情報抽出ステップS203においては、外部記憶装置情報を抽出し、前述のそれぞれの層に距離及び位置に基づいて外部記憶装置情報を入力する。三次元点区別ステップS204においては、それぞれの層のマッチングができる参照可能な三次元点を抽出し、環境情報抽出ステップS202においてセンサにより得られた情報をそれぞれの層に入力する。 In the external storage device information extraction step S203, the external storage device information is extracted, and the external storage device information is input to each of the layers described above based on the distance and the position. In the three-dimensional point distinction step S204, the referable three-dimensional points that can be matched in each layer are extracted, and the information obtained by the sensor in the environment information extraction step S202 is input to each layer.

したがって、層803R、803Lのそれぞれは、外部記憶装置情報とセンサで抽出した情報とを有する。このため、マッチングステップS205でそれぞれの層にICP Matchingをかけることにより、修正した属性の候補であって、下記式(4)で表されるものが得られる。 Therefore, each of the layers 803R and 803L has the external storage device information and the information extracted by the sensor. Therefore, by applying ICP Matching to each layer in the matching step S205, a corrected attribute candidate represented by the following formula (4) is obtained.

層(k)=(X,Y,Z,roll,pitch,yaw,…) …(4)
式中、kは、1以上の整数であり、それぞれの領域を表す符号である。
Layer (k)=(X k , Y k , Z k , roll k , pitch k , yaw k ,...) (4)
In the formula, k is an integer of 1 or more and is a code representing each area.

位置補正ステップS206でそれぞれの層から修正した位置の候補を融合し、移動体100の修正した位置を出力する。融合した位置は、例えば、それぞれの層で得られた位置の平均である。また、融合した位置をそれぞれの層で得られた位置の中央値にしてもよい。また、融合した位置をそれぞれの層で得られた位置の最頻値にしてもよい。 In the position correction step S206, the position candidates corrected from the respective layers are fused, and the corrected position of the mobile unit 100 is output. The fused position is, for example, the average of the positions obtained in each layer. The fused position may be the median value of the positions obtained in each layer. Further, the fused position may be the mode value of the position obtained in each layer.

また、それぞれの層にあった点数T(kは、1以上の整数であり、それぞれの領域を表す符号である。)を重みにして融合してもよい。 Further, the points T k (k is an integer of 1 or more, which is a code representing each region) in each layer may be weighted and combined.

それぞれの属性は、下記式(5)〜(10)で表される。 Each attribute is represented by the following equations (5) to (10).

X=Σ(X・T)/ΣT …(5)
Y=Σ(Y・T)/ΣT …(6)
Z=Σ(Z・T)/ΣT …(7)
roll=Σ(roll・T)/ΣT …(8)
pitch=Σ(pitch・T)/ΣT …(9)
yaw=Σ(yaw・T)/ΣT …(10)
また、センサがカメラの場合、算出した距離誤差が距離に比例するため、層の距離d(kは、1以上の整数であり、それぞれの領域を表す符号である。)を重みにしてもよい。また、ICP Matchingが出力するスコア(センサで抽出した情報と外部記憶装置情報との差)を重みにして、それぞれの層から修正した位置の候補を融合してもよい。
X=Σ(X k ·T k )/ΣT k (5)
Y=Σ(Y k ·T k )/ΣT k (6)
Z=Σ(Z k ·T k )/ΣT k (7)
roll=Σ(roll k ·T k )/ΣT k (8)
pitch=Σ(pitch k ·T k )/ΣT k (9)
yaw=Σ(yaw k ·T k )/ΣT k (10)
When the sensor is a camera, the calculated distance error is proportional to the distance. Therefore, the layer distance d k (k is an integer of 1 or more and is a code representing each area) is used as a weight. Good. Further, the scores output from ICP Matching (difference between the information extracted by the sensor and the external storage device information) may be weighted, and the position candidates corrected from the respective layers may be fused.

図8BにマッチングステップS205と位置補正ステップS206の手順を示す。 FIG. 8B shows the procedure of matching step S205 and position correction step S206.

図8Bに示すプロセスにおいては、属性を用いてマッチングを行う。 In the process shown in FIG. 8B, matching is performed using attributes.

本図において、層分けステップS810は、移動体100の現在位置からセンサで抽出した三次元点802と、外部記憶装置19に登録された三次元点801とを上記式(1)を用いて層に分けるステップである。 In the figure, in the layering step S810, the three-dimensional point 802 extracted by the sensor from the current position of the moving body 100 and the three-dimensional point 801 registered in the external storage device 19 are layered using the above equation (1). It is a step of dividing.

各層マッチングステップS820は、層分けステップS810で分けられた、それぞれの層のセンサで検出した三次元点802と、外部記憶装置19から取得した三次元点801と、をマッチングするステップである。 Each layer matching step S820 is a step of matching the three-dimensional point 802 detected by the sensor of each layer and the three-dimensional point 801 acquired from the external storage device 19 which are divided in the layer dividing step S810.

マッチング結果融合ステップS830は、それぞれの層で得られた各層マッチングステップS820の結果を融合する。融合の際は、上記式(4)〜(10)を用いる。 The matching result fusing step S830 fuses the results of the layer matching steps S820 obtained for the respective layers. At the time of fusion, the above formulas (4) to (10) are used.

1:位置推定装置、2:信号受付部、12、12a、12b、12n:センサ、13:情報処理装置、14:センサ処理部、15:制御部、16:メモリ、17:表示部、19:外部記憶装置、100:移動体、210:入出力部、211:三次元点取得部、212:フィルター部、213:マッチング部、214:自己位置補正部、301、304:存在確率分布、302、303:三次元点、605:固定カメラ。 1: Position estimation device, 2: Signal reception part, 12, 12a, 12b, 12n: Sensor, 13: Information processing device, 14: Sensor processing part, 15: Control part, 16: Memory, 17: Display part, 19: External storage device, 100: moving body, 210: input/output unit, 211: three-dimensional point acquisition unit, 212: filter unit, 213: matching unit, 214: self-position correction unit, 301, 304: existence probability distribution, 302, 303: three-dimensional point, 605: fixed camera.

Claims (7)

周囲の情報を収集するセンサと、
前記センサによって取得した情報を処理するセンサ処理部と、
三次元点取得部と、
フィルター部と、
マッチング部と、
自己位置補正部と、を有する移動体において、
前記三次元点取得部は、前記センサから得られた三次元点を取得し、
前記フィルター部は、マップに含まれる三次元点のうち前記移動体の現在の仮位置から参照可能な三次元点を求め、
前記マッチング部は、前記三次元点取得部に記録されている前記三次元点と前記フィルター部が求めた参照可能な前記三次元点とのマッチングを行い、
前記自己位置補正部は、前記マッチングに成功した三次元点を基に前記マップにおける前記移動体の現在の位置を求める、移動体。
A sensor that collects surrounding information,
A sensor processing unit that processes information acquired by the sensor;
A three-dimensional point acquisition unit,
The filter part,
Matching section,
In a moving body having a self-position correction unit,
The three-dimensional point acquisition unit acquires the three-dimensional points obtained from the sensor,
The filter unit obtains a three-dimensional point that can be referred to from the current temporary position of the moving body among the three-dimensional points included in the map,
The matching unit performs matching between the three-dimensional points recorded in the three-dimensional point acquisition unit and the referenceable three-dimensional points obtained by the filter unit,
The moving body, wherein the self-position correcting unit obtains the current position of the moving body in the map based on the three-dimensional points that have been successfully matched.
前記三次元点取得部は、前記移動体の走行環境に設置された固定センサ、又は他の移動体が有するセンサから周囲の情報を取得し、前記移動体が有する前記センサからの周囲の情報と組み合わせて現在の位置を求める、請求項1記載の移動体。 The three-dimensional point acquisition unit acquires surrounding information from a fixed sensor installed in the traveling environment of the moving body, or a sensor included in another moving body, and with the surrounding information from the sensor included in the moving body. The moving body according to claim 1, wherein the moving body is obtained by combining the present positions. 前記自己位置補正部は、前記移動体の前記現在の仮位置における存在確率分布と、前記固定センサ又は前記他の移動体が求めた前記移動体の位置情報とを用いて、前記移動体の存在確率分布の範囲が狭い範囲に補正する、請求項2記載の移動体。 The self-position correction unit uses the existence probability distribution of the moving body at the current temporary position and the position information of the moving body obtained by the fixed sensor or the other moving body to determine whether the moving body exists. The mobile object according to claim 2, wherein the probability distribution range is corrected to a narrow range. 前記他の移動体の存在確率分布は、前記移動体の前記現在の仮位置における存在確率分布より小さい、請求項3記載の移動体。 The moving body according to claim 3, wherein the existence probability distribution of the other moving body is smaller than the existence probability distribution of the moving body at the current temporary position. 前記三次元点取得部が取得した前記三次元点に、移動する障害物の三次元点が含まれている場合には、
前記マッチング部は、前記障害物の三次元点を除いた三次元点を用いて、前記マッチングを行う、請求項1記載の移動体。
In the case where the three-dimensional point acquired by the three-dimensional point acquisition unit includes a three-dimensional point of a moving obstacle,
The moving body according to claim 1, wherein the matching unit performs the matching using three-dimensional points excluding the three-dimensional points of the obstacle.
前記マッチング部は、属性を変数とする層を用いて、前記マッチングを行う、請求項1記載の移動体。 The moving body according to claim 1, wherein the matching unit performs the matching using a layer having an attribute as a variable. 前記マッチング部は、前記層の前記属性に重みを設定し、前記マッチングを行う、請求項6記載の移動体。 The moving body according to claim 6, wherein the matching unit sets a weight on the attribute of the layer to perform the matching.
JP2018232357A 2018-12-12 2018-12-12 moving body Active JP7302966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018232357A JP7302966B2 (en) 2018-12-12 2018-12-12 moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018232357A JP7302966B2 (en) 2018-12-12 2018-12-12 moving body

Publications (2)

Publication Number Publication Date
JP2020095435A true JP2020095435A (en) 2020-06-18
JP7302966B2 JP7302966B2 (en) 2023-07-04

Family

ID=71085078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018232357A Active JP7302966B2 (en) 2018-12-12 2018-12-12 moving body

Country Status (1)

Country Link
JP (1) JP7302966B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134656A (en) * 2008-12-03 2010-06-17 Sogo Keibi Hosho Co Ltd Autonomous mobile body and speed control method
JP2016162013A (en) * 2015-02-27 2016-09-05 株式会社日立製作所 Self position estimation device and mobile entity
WO2017038012A1 (en) * 2015-08-28 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Mapping method, localization method, robot system, and robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134656A (en) * 2008-12-03 2010-06-17 Sogo Keibi Hosho Co Ltd Autonomous mobile body and speed control method
JP2016162013A (en) * 2015-02-27 2016-09-05 株式会社日立製作所 Self position estimation device and mobile entity
WO2017038012A1 (en) * 2015-08-28 2017-03-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Mapping method, localization method, robot system, and robot

Also Published As

Publication number Publication date
JP7302966B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
US11675084B2 (en) Determining yaw error from map data, lasers, and cameras
US11433880B2 (en) In-vehicle processing apparatus
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
EP3371671B1 (en) Method, device and assembly for map generation
WO2020038285A1 (en) Lane line positioning method and device, storage medium and electronic device
EP3137850B1 (en) Method and system for determining a position relative to a digital map
WO2020232648A1 (en) Lane line detection method, electronic device and storage medium
US11538241B2 (en) Position estimating device
CN112346463B (en) Unmanned vehicle path planning method based on speed sampling
CN111837136A (en) Autonomous navigation based on local sensing and associated systems and methods
JP2016188806A (en) Mobile entity and system
WO2022041706A1 (en) Positioning method, positioning system, and vehicle
JP2016080460A (en) Moving body
CN111176270A (en) Positioning using dynamic landmarks
TW202020734A (en) Vehicle, vehicle positioning system, and vehicle positioning method
CN116997771A (en) Vehicle, positioning method, device, equipment and computer readable storage medium thereof
Jiménez et al. Improving the lane reference detection for autonomous road vehicle control
JP2021039437A (en) Object position detection method and object position detection device
CN114127738A (en) Automatic mapping and positioning
CN114694111A (en) Vehicle positioning
WO2020230410A1 (en) Mobile object
CN114170499A (en) Target detection method, tracking method, device, visual sensor and medium
Deusch et al. Improving localization in digital maps with grid maps
JP7302966B2 (en) moving body
KR102618951B1 (en) Method for visual mapping, and computer program recorded on record-medium for executing method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230622

R150 Certificate of patent or registration of utility model

Ref document number: 7302966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150