JP6438354B2 - Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus - Google Patents

Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus Download PDF

Info

Publication number
JP6438354B2
JP6438354B2 JP2015110186A JP2015110186A JP6438354B2 JP 6438354 B2 JP6438354 B2 JP 6438354B2 JP 2015110186 A JP2015110186 A JP 2015110186A JP 2015110186 A JP2015110186 A JP 2015110186A JP 6438354 B2 JP6438354 B2 JP 6438354B2
Authority
JP
Japan
Prior art keywords
self
position estimation
unit
estimation unit
occurrence probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015110186A
Other languages
Japanese (ja)
Other versions
JP2016224680A (en
Inventor
亮暢 藤井
亮暢 藤井
英典 藪下
英典 藪下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2015110186A priority Critical patent/JP6438354B2/en
Publication of JP2016224680A publication Critical patent/JP2016224680A/en
Application granted granted Critical
Publication of JP6438354B2 publication Critical patent/JP6438354B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本明細書に開示する技術は、移動体に関する。詳しくは、移動体の位置を推定する技術に関する。   The technology disclosed in this specification relates to a moving object. Specifically, the present invention relates to a technique for estimating the position of a moving object.

所定の移動領域内を移動する移動体であって、移動領域内における自己位置を推定する移動体が知られている。例えば、非特許文献1の移動体では、モンテカルロ位置同定法(Monte Carlo Localization(以下、MCLと称する))による自己位置推定と、ビジョンセンサによる自己位置推定の重み付き平均値を最終自己位置としている。   2. Description of the Related Art A moving body that moves within a predetermined moving area and that estimates its own position within the moving area is known. For example, in the moving body of Non-Patent Document 1, the weighted average value of self-position estimation by Monte Carlo Localization (hereinafter referred to as MCL) and self-position estimation by a vision sensor is used as the final self-position. .

吉川大地、足立勝、安田賢一、“屋内ロボットのための複数センサを用いたロバストな自己位置推定”、第31回日本ロボット学会学術講演会、2013年9月4日〜6日Daichi Yoshikawa, Masaru Adachi, Kenichi Yasuda, “Robust Self-Location Estimation Using Multiple Sensors for Indoor Robots”, 31st Annual Conference of the Robotics Society of Japan, September 4-6, 2013

非特許文献1の技術では、MCLのパーティクル集合の分散が閾値を超えるか否かによって、自己位置推定に用いる重み係数を変化させている。ここで、MCLのパーティクル集合の分散の度合いは、移動体が移動する移動領域によって変化する。このため、移動領域が変わると、それに応じて閾値を変更しなければならない。非特許文献1の技術では、閾値の変更を設定者の経験と勘に基づいて行っていたため、そのバラツキが大きく、自己位置推定精度が安定しないという問題があった。   In the technique of Non-Patent Document 1, the weighting coefficient used for self-position estimation is changed depending on whether or not the dispersion of the MCL particle set exceeds a threshold value. Here, the degree of dispersion of the MCL particle set varies depending on the moving region in which the moving body moves. For this reason, if the movement region changes, the threshold value must be changed accordingly. In the technique of Non-Patent Document 1, since the threshold value is changed based on the experience and intuition of the setter, there is a problem that the variation is large and the self-position estimation accuracy is not stable.

本明細書では、移動体の自己位置推定精度を従来よりも安定化できる技術を開示する。   In the present specification, a technique capable of stabilizing the self-position estimation accuracy of a moving object as compared with the conventional technique is disclosed.

本明細書は、所定の移動領域内を移動する移動体の最終自己位置をステップごとに推定する自己位置推定装置を開示する。自己位置推定装置は、第1自己位置推定部と、第2自己位置推定部と、異常発生確率計算式記憶部と、異常発生確率計算部と、最終自己位置推定部と、を備える。第1自己位置推定部は、移動領域の環境地図と、現在のステップで観測された「移動体から移動領域内に存在している物体までの距離」及び「移動体に対する物体の方位」と、を少なくとも用いて移動体の状態の確率分布を最新の状態に更新し、その最新の状態の確率分布に基づいて第1自己位置を推定する。第2自己位置推定部は、最終自己位置推定部で推定された1つ前のステップにおける移動体の最終自己位置に、オドメトリにより取得される、1つ前のステップから現在のステップまでの移動体の移動距離及び移動方向を加算することにより第2自己位置を推定する。異常発生確率計算式記憶部は、移動体の学習移動時において、第1自己位置推定部が第1自己位置を推定した際に取得された学習データを機械学習して得られた異常発生確率計算式を記憶する。異常発生確率計算部は、移動体の本移動時において、第1自己位置推定部が第1自己位置を推定した際に取得される複数の変数を異常発生確率計算式に入力して異常発生確率を計算する。最終自己位置推定部は、第1自己位置推定部から取得される第1自己位置と第2自己位置推定部から取得される第2自己位置とを用いて算出される重み付き平均値を、現在のステップにおける最終自己位置とする。学習データは、学習移動時に第1自己位置推定部において第1自己位置を推定した際に取得される複数の変数と、そのときの第1自己位置推定結果を正常又は異常に分類したときの分類結果と、を関連付けたデータを複数有する。最終自己位置推定部で用いられる重み係数は、異常発生確率計算部で取得される異常発生確率の関数である。   The present specification discloses a self-position estimation apparatus that estimates the final self-position of a moving body that moves within a predetermined movement area for each step. The self-position estimation device includes a first self-position estimation unit, a second self-position estimation unit, an abnormality occurrence probability calculation formula storage unit, an abnormality occurrence probability calculation unit, and a final self-position estimation unit. The first self-position estimation unit includes an environment map of the moving area, “a distance from the moving object to an object existing in the moving area” and “an orientation of the object with respect to the moving object” observed in the current step, Is used to update the probability distribution of the state of the moving object to the latest state, and the first self-position is estimated based on the probability distribution of the latest state. The second self-position estimating unit obtains the moving body from the previous step to the current step acquired by odometry at the final self-position of the moving body in the previous step estimated by the final self-position estimating unit. The second self-position is estimated by adding the movement distance and the movement direction. The abnormality occurrence probability calculation formula storage unit calculates an abnormality occurrence probability obtained by machine learning of the learning data acquired when the first self-position estimation unit estimates the first self-position during the learning movement of the moving body. Store the expression. The abnormality occurrence probability calculation unit inputs a plurality of variables acquired when the first self-position estimation unit estimates the first self-position during the main movement of the moving object to the abnormality occurrence probability calculation formula, and the abnormality occurrence probability Calculate The final self-position estimation unit calculates a weighted average value calculated using the first self-position acquired from the first self-position estimation unit and the second self-position acquired from the second self-position estimation unit, The final self-position in this step. The learning data includes a plurality of variables acquired when the first self-position estimation unit estimates the first self-position during learning movement, and a classification when the first self-position estimation result at that time is classified as normal or abnormal It has a plurality of data that associates the result. The weighting coefficient used in the final self-position estimation unit is a function of the abnormality occurrence probability acquired by the abnormality occurrence probability calculation unit.

上記の自己位置推定装置では、移動体の最終自己位置を推定する際に用いる重み係数が、異常発生確率の関数となっている。異常発生確率は、異常発生確率計算式から算出される。異常発生確率計算式は、移動体が学習移動することで取得される学習データを機械学習することにより得られる。即ち、異常発生確率計算式は、学習データを統計的に解析することにより生成される。このため、重み係数の値が経験や勘に基づいて決定されないため、移動体の最終自己位置の推定精度を安定化することができる。   In the above self-position estimation apparatus, the weighting factor used when estimating the final self-position of the moving object is a function of the probability of occurrence of abnormality. The abnormality occurrence probability is calculated from an abnormality occurrence probability calculation formula. The abnormality occurrence probability calculation formula is obtained by machine learning of learning data acquired when the moving body learns and moves. That is, the abnormality occurrence probability calculation formula is generated by statistically analyzing the learning data. For this reason, since the value of a weighting coefficient is not determined based on experience and intuition, the estimation accuracy of the final self-position of the moving body can be stabilized.

本明細書が開示する技術の詳細、及び、さらなる改良は、発明を実施するための形態及び実施例にて詳しく説明する。   Details of the technology disclosed in this specification and further improvements will be described in detail in the detailed description and examples.

移動体のシステム構成を示す。The system configuration of a mobile object is shown. 移動体が最終自己位置推定処理等を実施する際のシステム構成を示す。A system configuration when the mobile body performs the final self-position estimation processing and the like is shown. 移動体が学習データ生成処理を実施する際のシステム構成を示す。1 shows a system configuration when a moving body performs learning data generation processing. 移動体が学習移動する移動領域の一例を示す。An example of the movement area | region where a moving body learns and moves is shown. 学習データの一例を示す。An example of learning data is shown. 移動体が異常発生確率計算式生成処理を実施する際のシステム構成を示す。The system configuration | structure when a mobile body implements abnormality-occurrence probability calculation formula generation processing is shown. 異常発生確率計算式のグラフを示す。The graph of abnormality probability calculation formula is shown. 異常発生確率に依存する重み係数のグラフを示す。The graph of the weighting coefficient depending on abnormality occurrence probability is shown.

以下に説明する実施例の主要な特徴を列記しておく。なお、以下に記載する技術要素は、それぞれ独立した技術要素であって、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。   The main features of the embodiments described below are listed. The technical elements described below are independent technical elements and exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. Absent.

(特徴1) 本明細書が開示する移動体の自己位置推定装置では、異常発生確率が増加するにつれて、第1自己位置の重み係数が減少すると共に、第2自己位置の重み係数が増加してもよい。上記の構成によると、異常発生確率が高いとき(即ち、第1自己位置の推定精度が低いとき)は、第2自己位置の重み係数が増加するため、最終自己位置の推定精度が低下することを抑制することができる。 (Characteristic 1) In the self-position estimation apparatus for a moving body disclosed in this specification, the weighting coefficient of the first self-position decreases and the weighting coefficient of the second self-position increases as the abnormality occurrence probability increases. Also good. According to the above configuration, when the probability of occurrence of abnormality is high (that is, when the estimation accuracy of the first self-position is low), the weighting coefficient of the second self-position increases, so that the estimation accuracy of the final self-position decreases. Can be suppressed.

(特徴2) 本明細書が開示する移動体の自己位置推定装置では、第1自己位置推定部が、1つ前のステップにおける異常発生確率が所定の閾値を超えていない場合は、当該第1自己位置推定部で推定された1つ前のステップにおける移動体の第1自己位置をさらに用いて移動体の状態の確率分布を最新の状態に更新してもよい。1つ前のステップにおける異常発生確率が所定の閾値を超えた場合は、移動体の状態の確率分布を、現在のステップにおいて第2自己位置推定部が推定した第2自己位置を含む所定の範囲内に移動体が位置するように更新してもよい。この構成では、1つ前のステップにおいて異常発生確率が所定の閾値を超えた場合(即ち、第1自己位置の推定精度が閾値より低いとき)は、現在のステップにおいては、第2自己位置推定部が推定した第2自己位置を含む所定の範囲内に移動体が位置するように、移動体の状態の確率分布が更新される。このため、移動体の状態の確率分布を適切に更新することができる。 (Feature 2) In the mobile body self-position estimation device disclosed in the present specification, when the first self-position estimation unit does not exceed the predetermined threshold in the abnormality occurrence probability in the previous step, the first The probability distribution of the state of the moving body may be updated to the latest state by further using the first self-position of the moving body in the previous step estimated by the self-position estimating unit. When the abnormality occurrence probability in the previous step exceeds a predetermined threshold value, a predetermined range including the second self-position estimated by the second self-position estimation unit in the current step You may update so that a mobile body may be located in. In this configuration, when the abnormality occurrence probability exceeds a predetermined threshold value in the previous step (that is, when the estimation accuracy of the first self-position is lower than the threshold value), in the current step, the second self-position estimation is performed. The probability distribution of the state of the moving body is updated so that the moving body is positioned within a predetermined range including the second self-position estimated by the unit. For this reason, it is possible to appropriately update the probability distribution of the state of the moving object.

(特徴3) 本明細書が開示する移動体の自己位置推定装置では、学習データの第1自己位置推定結果が、学習移動時に第1自己位置推定部で推定された第1自己位置と、移動体の実際の位置との位置誤差が所定値以下の場合には正常と分類され、位置誤差が所定値を超える場合には異常と分類されていてもよい。この構成では、移動体の実際の位置を基準として、第1自己位置推定結果が正常であるか異常であるかの分類が行われる。このため、信頼性の高い分類結果を取得でき、学習データの信頼性が向上し、結果として精度の高い異常発生確率計算式を取得できる。 (Characteristic 3) In the mobile self-position estimation apparatus disclosed in the present specification, the first self-position estimation result of the learning data includes the first self-position estimated by the first self-position estimation unit during the learning movement, and the movement When the position error with respect to the actual position of the body is less than or equal to a predetermined value, it may be classified as normal, and when the position error exceeds a predetermined value, it may be classified as abnormal. In this configuration, the first self-position estimation result is classified as normal or abnormal based on the actual position of the moving object. For this reason, a highly reliable classification result can be acquired, the reliability of learning data is improved, and as a result, a highly accurate abnormality occurrence probability calculation formula can be acquired.

(特徴4) 本明細書が開示する移動体の自己位置推定装置では、オドメトリが、車輪オドメトリ、カメラを用いたビジュアルオドメトリ又はレーザセンサを用いたレーザオドメトリの何れかであってもよい。 (Feature 4) In the mobile body self-position estimation apparatus disclosed in the present specification, the odometry may be any of wheel odometry, visual odometry using a camera, or laser odometry using a laser sensor.

(特徴5) 本明細書が開示する移動体の自己位置推定装置では、第1自己位置推定部が、モンテカルロ位置同定法(Monte Carlo Localization、 MCL)又は拡張カルマンフィルタの何れかの手法を用いて第1自己位置を推定してもよい。 (Feature 5) In the mobile self-position estimation device disclosed in the present specification, the first self-position estimation unit uses a method of either Monte Carlo Localization (MCL) or an extended Kalman filter. One self-position may be estimated.

(特徴6) 本明細書が開示する自己位置推定装置は、所定の移動領域内を移動する移動体に搭載することができる。移動体は、移動情報取得部と、観測情報取得部と、環境地図記憶部と、自己位置推定装置と、を備えていてもよい。移動情報取得部は、オドメトリにより移動体の移動距離及び移動方向を取得してもよい。観測情報取得部は、移動領域内に存在している物体を観測し、移動体から物体までの距離及び移動体に対する物体の方位を取得してもよい。環境地図記憶部は、移動領域の環境地図を記憶していてもよい。この構成によると、自己位置推定精度を従来よりも安定化した移動体を実現できる。 (Characteristic 6) The self-position estimation apparatus disclosed in the present specification can be mounted on a moving body that moves within a predetermined moving region. The moving body may include a movement information acquisition unit, an observation information acquisition unit, an environment map storage unit, and a self-position estimation device. The movement information acquisition unit may acquire the movement distance and movement direction of the moving body by odometry. The observation information acquisition unit may observe an object existing in the moving region, and acquire a distance from the moving object to the object and an orientation of the object with respect to the moving object. The environment map storage unit may store an environment map of the moving area. According to this configuration, it is possible to realize a mobile object that has more stable self-position estimation accuracy than the conventional one.

図1〜図8を参照して移動体10について説明する。移動体10は、左右に車輪を有する車輪駆動型の移動体であり、所定の移動領域内を自律的に走行する。移動体10の左右の車輪は独立して駆動され、左右の車輪の回転速度を変えることで、移動体10は進行方向を変えることができる。なお、後述する「現在のステップ」とは、移動体10の走行中における最新のステップを意味する。また、「1つ前のステップ」、「1つ後の(次の)ステップ」とは、それぞれ「現在のステップから1つ前のステップ」、「現在のステップから1つ後の(次の)ステップ」を意味する。移動体10は、ステップごとに推定される最終自己位置に基づいて、スタート地点から目的地まで走行する。以下では、移動体10が最終自己位置を推定する走行を、「本走行」と称する。なお、厳密には、移動体10は、自身の位置及び方位を推定するが、以下では、移動体10の位置と方位をまとめて「自己位置」と称する。   The moving body 10 will be described with reference to FIGS. The moving body 10 is a wheel drive type moving body having wheels on the left and right, and autonomously travels within a predetermined moving area. The left and right wheels of the moving body 10 are driven independently, and the moving body 10 can change the traveling direction by changing the rotational speed of the left and right wheels. The “current step” to be described later means the latest step while the moving body 10 is traveling. In addition, “the previous step” and “the next (next) step” are respectively “the next step from the current step” and “the next step after the current step (next)”. Means "step". The moving body 10 travels from the start point to the destination based on the final self-position estimated for each step. Hereinafter, the traveling in which the mobile body 10 estimates the final self-position is referred to as “main traveling”. Strictly speaking, the mobile object 10 estimates its own position and orientation, but hereinafter, the position and orientation of the mobile object 10 are collectively referred to as “self-position”.

図1に示すように、移動体10は、エンコーダ12と、レーザレンジファインダ14(以下、LRF14と称する)と、三角測量センサ16(後述)と、コンピュータ18を備える。
エンコーダ12は、左右の車輪の回転角度を検出し、コンピュータ18の第1自己位置推定部28及び第2自己位置推定部29(後述)に出力する。即ち、左右の車輪はそれぞれ図示しないモータによって駆動される。左右の車輪を駆動するモータにはエンコーダ12がそれぞれ設けられ、各エンコーダ12は左右の車輪の回転角度をそれぞれ検出する。エンコーダ12で検出される左右の車輪の回転角度は、コンピュータ18に入力される。
LRF14は、レーザ光を射出し、射出したレーザ光が物体で反射して返ってくるまでの時間を計測する。LRF14で計測される時間から、LRF14(即ち、移動体10)から物体までの距離が計測される。また、LRF14からレーザ光を射出した方向(即ち、物体から反射されるレーザ光の入射角度)は既知であるため、LRF14に対する物体の方位を決定することができる。以下、物体までの距離及び物体の方位を「観測情報」とも称する。LRF14で取得した観測情報は、コンピュータ18の第1自己位置推定部28に出力される。LRF14は、移動体10の進行方向に対して所定の角度範囲(例えば、進行方向に対して左右方向にそれぞれ60°)でレーザ光を射出する。
コンピュータ18は、演算処理を行うCPU20、演算処理のデータが一時的に記憶されるRAM22、及びCPUによって実行される演算プログラムが記憶されたROM24を備えている。コンピュータ18は、後述する様々な処理を実行する。CPU20がROM24に記憶された演算プログラムを実行することで、CPU20は、第1自己位置推定部28、第2自己位置推定部29等として機能する。なお、コンピュータ18による移動体10の走行制御については、公知の方法で行うことができるため、ここでは、コンピュータ18による最終自己位置推定等の処理について詳細に説明する。
As shown in FIG. 1, the moving body 10 includes an encoder 12, a laser range finder 14 (hereinafter referred to as LRF 14), a triangulation sensor 16 (described later), and a computer 18.
The encoder 12 detects the rotation angles of the left and right wheels, and outputs them to a first self-position estimation unit 28 and a second self-position estimation unit 29 (described later) of the computer 18. That is, the left and right wheels are each driven by a motor (not shown). The motors that drive the left and right wheels are each provided with an encoder 12, and each encoder 12 detects the rotation angle of the left and right wheels. The rotation angles of the left and right wheels detected by the encoder 12 are input to the computer 18.
The LRF 14 emits laser light and measures the time until the emitted laser light is reflected by an object and returned. From the time measured by the LRF 14, the distance from the LRF 14 (that is, the moving body 10) to the object is measured. Further, since the direction in which the laser beam is emitted from the LRF 14 (that is, the incident angle of the laser beam reflected from the object) is known, the orientation of the object with respect to the LRF 14 can be determined. Hereinafter, the distance to the object and the direction of the object are also referred to as “observation information”. The observation information acquired by the LRF 14 is output to the first self-position estimation unit 28 of the computer 18. The LRF 14 emits laser light in a predetermined angle range with respect to the traveling direction of the moving body 10 (for example, 60 ° in the left-right direction with respect to the traveling direction).
The computer 18 includes a CPU 20 that performs arithmetic processing, a RAM 22 that temporarily stores arithmetic processing data, and a ROM 24 that stores arithmetic programs executed by the CPU. The computer 18 executes various processes described later. When the CPU 20 executes the arithmetic program stored in the ROM 24, the CPU 20 functions as the first self-position estimating unit 28, the second self-position estimating unit 29, and the like. Since the traveling control of the moving body 10 by the computer 18 can be performed by a known method, processing such as final self-position estimation by the computer 18 will be described in detail here.

(第1自己位置推定処理:通常時)
図2に示すように、コンピュータ18は、環境地図記憶部26と、第1自己位置推定部28を備える。第1自己位置推定部28は、判定部58と、通常時推定部59と、異常時推定部60を備える。第1自己位置推定部28は、判定部58での判定結果に基づいて、ステップごとに、通常時推定部59での処理と、異常時推定部60での処理を切替える。通常時推定部59及び異常時推定部60は、いずれも移動体10の自己位置を推定する。以下では、通常時推定部59及び異常時推定部60により推定される自己位置を、いずれも「第1自己位置」と称する。以下では、通常時推定部59での第1自己位置推定処理について先に説明し、判定部58での判定処理及び異常時推定部60での第1自己位置推定処理については後で説明する。
(First self-position estimation process: normal)
As shown in FIG. 2, the computer 18 includes an environment map storage unit 26 and a first self-position estimation unit 28. The first self-position estimation unit 28 includes a determination unit 58, a normal time estimation unit 59, and an abnormal time estimation unit 60. The first self-position estimating unit 28 switches between processing in the normal time estimating unit 59 and processing in the abnormal time estimating unit 60 for each step based on the determination result in the determining unit 58. Both the normal time estimation unit 59 and the abnormal time estimation unit 60 estimate the self-position of the moving body 10. Hereinafter, the self-position estimated by the normal time estimation unit 59 and the abnormal time estimation unit 60 are both referred to as “first self-position”. Hereinafter, the first self-position estimation process in the normal time estimation unit 59 will be described first, and the determination process in the determination unit 58 and the first self-position estimation process in the abnormality time estimation unit 60 will be described later.

環境地図記憶部26は、ROM24に設けられており、xy座標平面上に移動領域内の物体の位置及び高さが記録された環境地図を記憶している。環境地図に記憶される物体としては、例えば、移動領域内の障害物(例えば、壁、床面等)が含まれる。
通常時推定部59は、ROM24に予め格納されている公知の運動モデルに基づいて、モンテカルロ位置同定法(Monte Carlo Localization(以下、MCLと称する))により移動体10の第1自己位置をステップごとに推定する。MCLを用いた第1自己位置推定処理では、1つ前のステップにおいて推定された第1自己位置を用いて現在のステップにおける第1自己位置を推定する。ここで、現在のステップが、移動体10がスタート地点から移動を開始してから最初のステップであるときは、上記「1つ前のステップにおいて推定された第1自己位置」はスタート地点の位置を表す。この処理は、CPU20で実施される。MCLは、パーティクルフィルタを用いて移動体が自己位置を推定する公知の手法である。具体的には、通常時推定部59は、(1)まず、初期パーティクル集合を生成する。各パーティクルは移動体10の位置候補を表すベクトルであり、ベクトル要素として、xy座標系における移動体10のx座標、y座標、及びヨー角を備える。(2)次に、通常時推定部59は、エンコーダ12から取得した各車輪の回転角度を元に、移動体10の1ステップ分の移動距離及び移動方向(以下、移動距離及び移動方向を「移動情報」とも称する)を算出する。具体的には、通常時推定部59は、現在のステップにおいてエンコーダ12から取得した各車輪の回転角度から、現在のステップにおける移動体10の移動情報を算出する。そして、現在のステップにおける移動体10の移動情報と、1つ前のステップにおいて既に算出されている移動体10の移動情報との差を求めることにより、移動体10の1ステップ分の移動情報を算出する。ここで、現在のステップが、上述した最初のステップであるときは、上記「1つ前のステップにおいて既に算出されている移動体10の移動情報」はゼロである。そして、運動モデルに移動体10の1ステップ分の移動情報を入力し、各パーティクルを運動モデルに従って移動させる。(3)続いて、通常時推定部59は、各パーティクルにおいて、LRF14から入力された観測情報を、環境地図記憶部26から取得した環境地図とマッチングさせて、各パーティクルの尤度(確からしさ)を計算する。(4)そして、パーティクル数が、尤度の高い領域で多く、尤度の低い領域で少なくなるようにパーティクルを選択し、ノイズを加えて新たな集合を生成する。
The environment map storage unit 26 is provided in the ROM 24 and stores an environment map in which the position and height of an object in the moving area are recorded on the xy coordinate plane. Examples of the objects stored in the environment map include obstacles (for example, walls, floor surfaces, etc.) in the moving area.
The normal time estimation unit 59 determines the first self-position of the moving body 10 for each step by Monte Carlo localization (hereinafter referred to as MCL) based on a known motion model stored in advance in the ROM 24. To estimate. In the first self-position estimation process using MCL, the first self-position in the current step is estimated using the first self-position estimated in the previous step. Here, when the current step is the first step after the moving body 10 starts moving from the start point, the “first self-position estimated in the previous step” is the position of the start point. Represents. This process is performed by the CPU 20. MCL is a known technique in which a moving body estimates its own position using a particle filter. Specifically, the normal time estimation unit 59 (1) first generates an initial particle set. Each particle is a vector that represents a position candidate of the moving body 10, and includes, as vector elements, the x coordinate, y coordinate, and yaw angle of the moving body 10 in the xy coordinate system. (2) Next, the normal time estimation unit 59 determines the moving distance and moving direction for one step of the moving body 10 (hereinafter referred to as “moving distance and moving direction” based on the rotation angle of each wheel acquired from the encoder 12. Also referred to as “movement information”). Specifically, the normal time estimation unit 59 calculates movement information of the moving body 10 in the current step from the rotation angle of each wheel acquired from the encoder 12 in the current step. Then, by obtaining the difference between the movement information of the moving body 10 in the current step and the movement information of the moving body 10 that has already been calculated in the previous step, the movement information for one step of the moving body 10 is obtained. calculate. Here, when the current step is the first step described above, the “movement information of the moving body 10 already calculated in the previous step” is zero. Then, movement information for one step of the moving body 10 is input to the movement model, and each particle is moved according to the movement model. (3) Subsequently, the normal time estimation unit 59 matches the observation information input from the LRF 14 with the environment map acquired from the environment map storage unit 26 for each particle, and the likelihood (probability) of each particle. Calculate (4) Then, particles are selected so that the number of particles is large in the high likelihood region and small in the low likelihood region, and noise is added to generate a new set.

通常時推定部59は、上記(2)〜(4)の処理を繰り返すことでパーティクルの尤度を上げて観測情報と最も適合するパーティクルを発見し、その適合パーティクルを移動体10の第1自己位置と推定する。別言すれば、通常時推定部59は、パーティクル集合に移動体10の実際の位置(以下、真値とも称する)が含まれる(即ち、パーティクル集合を構成するパーティクルのいずれかと真値が一致する)まで、或いは、パーティクル集合のいずれかのパーティクルが真値に極めて近くなるまで、上記(2)〜(4)の処理を繰り返す。即ち、通常時の第1自己位置推定処理では、1回のステップにおいて、パーティクル集合の分布は複数回更新される。これにより、通常時推定部59において、現在のステップにおける第1自己位置が推定される。   The normal time estimation unit 59 increases the likelihood of the particles by repeating the processes (2) to (4) described above, finds a particle that best matches the observation information, and sets the matching particle as the first self of the moving object 10. Estimated position. In other words, the normal time estimation unit 59 includes the actual position of the moving body 10 (hereinafter, also referred to as a true value) in the particle set (that is, the true value matches one of the particles constituting the particle set). ) Or until any particle in the particle set is very close to the true value, the above processes (2) to (4) are repeated. That is, in the normal first self-position estimation process, the particle set distribution is updated a plurality of times in one step. As a result, the normal time estimation unit 59 estimates the first self-position at the current step.

(第2自己位置推定処理)
図2に示すように、コンピュータ18は、第1自己位置推定部28の他に、第2自己位置推定部29と、最終自己位置記憶部56を備える。最終自己位置記憶部56は、ROM24に設けられており、最終自己位置推定部54(後述)により推定された最終自己位置(厳密には、環境地図上の座標)をステップごとに記憶している。第2自己位置推定部29は、最終自己位置記憶部56に記憶されている最終自己位置のうち、1つ前のステップにおける最終自己位置に、移動体10の1ステップ分の移動情報を加算することにより算出される値を、現在のステップにおける移動体10の自己位置と推定する。上記の説明から明らかなように、第2自己位置推定部29は、環境地図を用いずに第2自己位置を推定する。なお、第2自己位置自体は、環境地図に依存した要素を含む場合がある(即ち、1つ前のステップにおける最終自己位置が第1自己位置を構成要素に含む場合)。
(Second self-position estimation process)
As shown in FIG. 2, the computer 18 includes a second self-position estimation unit 29 and a final self-position storage unit 56 in addition to the first self-position estimation unit 28. The final self-position storage unit 56 is provided in the ROM 24, and stores the final self-position (strictly, coordinates on the environment map) estimated by the final self-position estimation unit 54 (described later) for each step. . The second self-position estimating unit 29 adds movement information for one step of the moving body 10 to the final self-position in the previous step among the final self-positions stored in the final self-position storage unit 56. The value calculated by this is estimated as the self-position of the moving body 10 in the current step. As is clear from the above description, the second self-position estimating unit 29 estimates the second self-position without using the environment map. Note that the second self-position itself may include an element depending on the environment map (that is, the final self-position in the previous step includes the first self-position as a component).

なお、上記の「1つ前のステップにおける最終自己位置」は、別言すれば、最終自己位置記憶部56に記憶されている最終自己位置の中で最も新しい最終自己位置である。以下では、第2自己位置推定部29により推定される移動体10の自己位置を「第2自己位置」と称する。この処理は、CPU20で行われる。なお、第2自己位置推定部29における移動体10の1ステップ分の移動情報の求め方は、第1自己位置推定部28の通常時推定部59における求め方と同様である。このため、移動体10の1ステップ分の移動情報を通常時推定部59と第2自己位置推定部29の間で共有してもよい。なお、現在のステップが、移動体10がスタート地点から移動を開始してから最初のステップであるときは、「1つ前のステップにおける最終自己位置」とは、スタート地点の位置を意味する。   In addition, the above-mentioned “final self-position in the previous step” is, in other words, the latest final self-position stored in the final self-position storage unit 56. Hereinafter, the self-position of the moving body 10 estimated by the second self-position estimation unit 29 is referred to as a “second self-position”. This process is performed by the CPU 20. The method for obtaining the movement information for one step of the moving body 10 in the second self-position estimating unit 29 is the same as the method for obtaining the normal time estimating unit 59 of the first self-position estimating unit 28. For this reason, movement information for one step of the moving body 10 may be shared between the normal time estimation unit 59 and the second self-position estimation unit 29. When the current step is the first step after the moving body 10 starts moving from the start point, the “final self position in the previous step” means the position of the start point.

(学習データ生成処理)
移動体10は、本走行を行う前に、学習走行と呼ばれる走行を行う。以下では、移動体10の学習走行、及び学習走行時に得られるデータを元に学習データを生成する処理について説明する。
(Learning data generation process)
The mobile body 10 performs a travel called a learning travel before performing the main travel. Below, the process which produces | generates learning data based on the learning driving | running | working of the moving body 10 and the data obtained at the time of learning driving | running | working is demonstrated.

図3に示すように、コンピュータ18は、上述した処理で使用される各部の他に、真値計算用地図記憶部30と、真値計算部32と、位置誤差計算部34と、学習データ生成部36と、学習データ記憶部38を備える。環境地図記憶部26には、移動体10が学習走行を行う移動領域の環境地図が記憶されている。移動体10が学習走行を行う移動領域は、本走行を行う移動領域と異なっていてもよい。このため、学習走行時と本走行時とで移動領域が異なる場合は、環境地図記憶部26は、両方の移動領域の環境地図を記憶している。以下では、学習走行時の移動領域と本走行時の移動領域とを区別するために、前者を「第1移動領域」と称し、後者を「第2移動領域」と称する。また、第1移動領域の環境地図を「第1環境地図」と称し、第2移動領域の環境地図を「第2環境地図」と称する。   As shown in FIG. 3, in addition to each unit used in the above-described processing, the computer 18 includes a true value calculation map storage unit 30, a true value calculation unit 32, a position error calculation unit 34, and learning data generation. A unit 36 and a learning data storage unit 38 are provided. The environment map storage unit 26 stores an environment map of a moving area in which the moving body 10 performs learning travel. The moving area in which the moving body 10 performs the learning travel may be different from the moving area in which the main traveling is performed. For this reason, when a movement area differs at the time of learning driving | running | working and the time of this driving | running | working, the environment map memory | storage part 26 has memorize | stored the environment map of both movement area | regions. In the following, in order to distinguish the movement area during the learning run from the movement area during the main run, the former is referred to as a “first movement area” and the latter is referred to as a “second movement area”. The environment map of the first movement area is referred to as “first environment map”, and the environment map of the second movement area is referred to as “second environment map”.

図4は、移動体10が学習走行を行う第1移動領域40を示す。図4に示すように、第1移動領域40の一部には、障害物としての塀42が配置されている。塀42は互いに対向するように配置されており、塀42の対向面(内側の面)にはリフレクタ44が等間隔で固定されている。学習走行時の移動体10の走行は、リモートコントローラ(リモコン)で制御される。破線は、学習走行時の移動体10の走行ルートを示す。破線で示すように、移動体10は、塀42が配置されていない領域、及び対向する塀42の間の領域の双方を走行する。   FIG. 4 shows a first movement area 40 in which the moving body 10 performs a learning run. As shown in FIG. 4, a ridge 42 as an obstacle is arranged in a part of the first movement region 40. The collars 42 are arranged so as to face each other, and reflectors 44 are fixed to the opposing surface (inner surface) of the collar 42 at equal intervals. The travel of the moving body 10 during the learning travel is controlled by a remote controller (remote controller). A broken line indicates a travel route of the moving body 10 during the learning travel. As indicated by a broken line, the moving body 10 travels both in a region where the rod 42 is not disposed and in a region between the opposite rods 42.

真値計算用地図記憶部30は、ROM24に設けられており、環境地図記憶部26が記憶している第1環境地図に、塀42及びリフレクタ44の位置が記録された地図を記憶している。別言すれば、第1環境地図には、作為的に配置された塀42及びリフレクタ44の情報は記憶されていない。   The true value calculation map storage unit 30 is provided in the ROM 24 and stores a map in which the positions of the ridges 42 and the reflectors 44 are recorded in the first environment map stored in the environment map storage unit 26. . In other words, the first environment map does not store information on the artificially arranged basket 42 and the reflector 44.

三角測量センサ16は、全方位(360°)にレーザ光を射出し、リフレクタ44で反射して返ってくるレーザ光を検知することで、リフレクタ44までの距離及び移動体10に対するリフレクタ44の方位を計測し、これらの情報をコンピュータ18の真値計算部32に出力する。三角測量センサ16は、移動体10に搭載されている。   The triangulation sensor 16 emits laser light in all directions (360 °), detects the laser light reflected and returned by the reflector 44, and thereby the distance to the reflector 44 and the orientation of the reflector 44 with respect to the moving body 10. And outputs this information to the true value calculation unit 32 of the computer 18. The triangulation sensor 16 is mounted on the moving body 10.

真値計算部32は、三角測量センサ16から取得した距離及び方位の情報から、リフレクタ44に対する移動体10の相対位置(厳密には、相対方位も含む)を特定する。真値計算用地図記憶部30から取得した地図にはリフレクタ44の位置が記録されているため、当該地図に移動体10の相対位置をマッピングすることで、当該地図上における移動体10の位置を特定できる。このようにして、真値計算部32は、移動体10の実際の位置(真値)を計算する。この処理は、CPU20で行われる。移動体10の真値は、位置誤差計算部34に出力される。   The true value calculation unit 32 specifies the relative position of the moving body 10 with respect to the reflector 44 (strictly, including the relative azimuth) from the distance and azimuth information acquired from the triangulation sensor 16. Since the position of the reflector 44 is recorded on the map acquired from the map storage unit 30 for true value calculation, the position of the moving body 10 on the map is determined by mapping the relative position of the moving body 10 on the map. Can be identified. In this way, the true value calculation unit 32 calculates the actual position (true value) of the moving body 10. This process is performed by the CPU 20. The true value of the moving body 10 is output to the position error calculation unit 34.

一方、第1自己位置推定部28の通常時推定部59は、第1環境地図を用いて第1移動領域40における移動体10の第1自己位置を推定し、その結果を位置誤差計算部34に出力する。第1自己位置推定処理と真値計算処理は同じタイミングで行われる。また、通常時推定部59は、最新のパーティクル集合(即ち、現在のステップにおける第1自己位置が推定されたときのパーティクル集合)の分布からx方向の標準偏差σ、y方向の標準偏差σ、及びパーティクルの尤度の最大値wmaxを計算し、これらの情報(標準偏差σ、標準偏差σ、最大尤度wmax)を学習データ生成部36に出力する。なお、標準偏差σ、標準偏差σ、最大尤度wmaxが「変数」の一例に相当する。 On the other hand, the normal time estimation unit 59 of the first self-position estimation unit 28 estimates the first self-position of the moving body 10 in the first movement region 40 using the first environment map, and the result is the position error calculation unit 34. Output to. The first self-position estimation process and the true value calculation process are performed at the same timing. Further, the normal time estimation unit 59 determines the standard deviation σ x in the x direction and the standard deviation σ in the y direction from the distribution of the latest particle set (that is, the particle set when the first self-position is estimated at the current step). y and the maximum likelihood value w max of the particles are calculated, and these pieces of information (standard deviation σ x , standard deviation σ y , maximum likelihood w max ) are output to the learning data generation unit 36. The standard deviation σ x , the standard deviation σ y , and the maximum likelihood w max correspond to an example of “variable”.

位置誤差計算部34は、真値計算部32から取得した真値と、通常時推定部59から取得した第1自己位置との差(位置誤差)を計算し、学習データ生成部36に出力する。この処理は、CPU20で行われる。   The position error calculation unit 34 calculates a difference (position error) between the true value acquired from the true value calculation unit 32 and the first self-position acquired from the normal time estimation unit 59 and outputs the difference to the learning data generation unit 36. . This process is performed by the CPU 20.

学習データ生成部36は、位置誤差計算部34から取得した位置誤差が15cm以下の場合は、通常時推定部59が第1自己位置の推定に成功したとみなし、第1自己位置推定結果を「正常」と分類する。一方、位置誤差が15cmを超える場合は、通常時推定部59が第1自己位置の推定に失敗したとみなし、第1自己位置推定結果を「異常」と分類する。学習走行では、位置誤差が「異常」と分類される事態を意図的に作り出している。即ち、第1移動領域40には、第1環境地図に記録されていない塀42が配置されている。このため、移動体10が塀42の間を走行する際は、LRF14により取得される観測情報と第1環境地図とのマッチング度が低くなり、適合パーティクルの発見が困難になる。これは、仮にパーティクル集合の中に真値が含まれていたとしても、移動体10は真値と一致するパーティクルを適合パーティクルとして発見できないことを意味する。このため、移動体10が塀42の間を走行する場合は、真値とは異なるパーティクルを適合パーティクルとみなし、そのパーティクルを第1自己位置と推定する可能性が極めて高くなる。この結果、第1自己位置と真値との位置誤差が大きくなり、その位置誤差が15cmを超える場合は、「異常」と分類されることになる。   When the position error acquired from the position error calculation unit 34 is 15 cm or less, the learning data generation unit 36 considers that the normal time estimation unit 59 has succeeded in estimating the first self-position, and determines the first self-position estimation result as “ Classified as “normal”. On the other hand, when the position error exceeds 15 cm, the normal time estimation unit 59 regards the first self-position estimation failure and classifies the first self-position estimation result as “abnormal”. In the learning run, the situation where the position error is classified as “abnormal” is intentionally created. That is, in the first movement area 40, the ridge 42 that is not recorded in the first environment map is arranged. For this reason, when the moving body 10 travels between the eaves 42, the degree of matching between the observation information acquired by the LRF 14 and the first environment map becomes low, and it becomes difficult to find suitable particles. This means that even if a true value is included in the particle set, the moving body 10 cannot find a particle that matches the true value as a matching particle. For this reason, when the moving body 10 travels between the eaves 42, a particle different from the true value is regarded as a compatible particle, and the possibility that the particle is estimated as the first self-position becomes extremely high. As a result, the position error between the first self position and the true value becomes large, and when the position error exceeds 15 cm, it is classified as “abnormal”.

このように、学習データ生成部36では、位置誤差を基準として、即ち、「真値」に対する移動体10の第1自己位置のずれ量を基準として、第1自己位置推定結果が正常であるか異常であるかの分類が行われる。このため、信頼性の高い分類結果を取得できる。なお、本実施例では、第1自己位置推定結果の正常/異常の分類基準値を15cmに設定したが、分類基準値はこれに限られない。分類基準値を低くするほど、異常発生確率計算式の異常予測精度を高くすることができる。   As described above, in the learning data generation unit 36, whether the first self-position estimation result is normal based on the position error, that is, based on the shift amount of the first self-position of the moving body 10 with respect to the “true value”. Classification is made as to whether it is abnormal. For this reason, a highly reliable classification result can be acquired. In this embodiment, the normal / abnormal classification reference value of the first self-position estimation result is set to 15 cm, but the classification reference value is not limited to this. The lower the classification reference value, the higher the abnormality prediction accuracy of the abnormality occurrence probability calculation formula.

図5は、学習データ生成部36により生成される学習データの例を示す。図5に示すように、学習データ生成部36は、第1自己位置推定時の時刻と、位置誤差計算部34から取得した位置誤差と、第1自己位置推定結果の分類結果と、通常時推定部59から取得した3つの変数(標準偏差σ、標準偏差σ、最大尤度wmax)と、を関連付けたデータセットを時系列に並べたデータセット群(学習データ)を生成する(σ、σ、wmaxのアルファベットは、実際には数値である)。学習データを参照することで、各時刻における位置誤差、第1自己位置推定結果の正常/異常、及び第1自己位置が推定されたときの変数を知ることができる。例えば、時刻t=2sでは、第1自己位置と真値との位置誤差は7cmであるため、第1自己位置推定結果は「正常」と分類されており、そのときの変数σ、σ、wmaxは、それぞれb、g、lであることがわかる。また、時刻t=10sでは、第1自己位置と真値との位置誤差は20cmであるため、第1自己位置推定結果は「異常」と分類されており、そのときの変数σ、σ、wmaxは、それぞれc、h、mであることがわかる。学習データ生成処理は、CPU20で行われる。このように、移動体10自身が学習データを生成することにより、移動体10の外部において学習データを生成する構成と比較して、システム構成を簡素化することができる。 FIG. 5 shows an example of learning data generated by the learning data generation unit 36. As shown in FIG. 5, the learning data generation unit 36 includes the time at the time of the first self-position estimation, the position error acquired from the position error calculation unit 34, the classification result of the first self-position estimation result, and the normal time estimation. A data set group (learning data) in which data sets in which the three variables (standard deviation σ x , standard deviation σ y , maximum likelihood w max ) acquired from the unit 59 are associated in time series is generated (σ ( The alphabets of x , σ y and w max are actually numerical values). By referring to the learning data, it is possible to know the position error at each time, normality / abnormality of the first self-position estimation result, and variables when the first self-position is estimated. For example, at time t = 2s, since the position error between the first self position and the true value is 7 cm, the first self position estimation result is classified as “normal”, and the variables σ x and σ y at that time are classified. , W max are b, g, and l, respectively. At time t = 10 s, since the position error between the first self position and the true value is 20 cm, the first self position estimation result is classified as “abnormal”, and the variables σ x and σ y at that time are classified. , W max are c, h, and m, respectively. The learning data generation process is performed by the CPU 20. As described above, the mobile body 10 itself generates the learning data, so that the system configuration can be simplified as compared with the configuration in which the learning data is generated outside the mobile body 10.

学習データ記憶部38は、ROM24に設けられており、学習データ生成部36で生成された学習データを記憶する。学習データ記憶部38に記憶された学習データは、後述する異常発生確率計算式生成部46に出力される。このように、移動体10自身が学習データを記憶しておくことにより、移動体10に不具合が生じた場合等に、学習データのログを分析してエラーがないかどうか検証することが可能となる。このため、移動体10に不具合が生じた場合にその原因を発見し易くなり、移動体10の信頼性を向上させることができる。なお、本実施例では、データセットには自己位置推定時の時刻が含まれているが、この構成に限られない。例えば、データセットは時刻を含んでいなくてもよく、学習データは、データセットが第1自己位置推定時刻とは無関係に並べられたデータ群により構成されていてもよい。また、学習データには位置誤差が含まれていなくてもよい。   The learning data storage unit 38 is provided in the ROM 24 and stores the learning data generated by the learning data generation unit 36. The learning data stored in the learning data storage unit 38 is output to an abnormality occurrence probability calculation formula generation unit 46 described later. In this way, by storing the learning data by the mobile body 10 itself, it is possible to verify whether there is an error by analyzing the log of the learning data when a malfunction occurs in the mobile body 10 or the like. Become. For this reason, it becomes easy to discover the cause when the malfunction occurs in the moving body 10, and the reliability of the moving body 10 can be improved. In this embodiment, the data set includes the time at the time of self-position estimation. However, the present invention is not limited to this configuration. For example, the data set may not include time, and the learning data may be configured by a data group in which the data set is arranged regardless of the first self-position estimation time. Further, the learning data may not include a position error.

(異常発生確率計算式生成処理)
移動体10が異常発生確率計算式を生成する処理について説明する。図6に示すように、コンピュータ18は、上述した処理で使用される各部の他に、異常発生確率計算式生成部46と、異常発生確率計算式記憶部48を備える。
異常発生確率計算式生成部46は、学習データ記憶部38に記憶されている学習データを取得し、学習データをロジスティック回帰分析して、異常発生確率計算式を生成する。ロジスティック回帰分析は多変量解析の一手法であり、結果が2値の場合に、その結果の起きる確率を予測できる統計的な回帰モデルを生成する手法である。具体的には、次の数式で表されるロジスティックモデル;

Figure 0006438354
(Z:目的変数、X〜X:説明変数、b:定数、b〜b:回帰係数)に学習データを適用して、定数b及び回帰係数b〜bの値を求める。学習データを適用する際は、目的変数Zに分類結果(正常:0、異常:1)を用い、説明変数X、X、Xに学習データの標準偏差σ、標準偏差σ、最大尤度wmaxをそれぞれ用いる。これにより、次の数式で表される異常発生確率計算式;
Figure 0006438354
が生成される(図7参照)。pは、移動体10の本走行時において第1自己位置推定部28により推定される第1自己位置(即ち、通常時推定部59により推定される第1自己位置と、後述する異常時推定部60により推定される第1自己位置)が異常となる確率(以下、異常発生確率とも称する)である。異常発生確率pは、第1自己位置が真値からどれだけ離れているかを示す尺度であり、第1自己位置が真値から遠ざかるにつれて大きくなる。第1自己位置の推定精度が低くなるほど、異常発生確率pが大きくなる。説明変数X〜Xに用いる変数(σ、σ、wmax)は互いに独立しているため、回帰係数b〜bは、項目間の影響が排除された係数となる。従って、異常発生確率を算出する際に、より正確に項目ごとの影響度を量ることができる。異常発生確率計算式生成処理は、CPU20で行われる。
異常発生確率計算式記憶部48は、ROM24に設けられており、異常発生確率計算式生成部46で生成された異常発生確率計算式を記憶する。 (Abnormality occurrence probability formula generation processing)
A process in which the moving body 10 generates the abnormality occurrence probability calculation formula will be described. As shown in FIG. 6, the computer 18 includes an abnormality occurrence probability calculation formula generation unit 46 and an abnormality occurrence probability calculation formula storage unit 48 in addition to the units used in the above-described processing.
The abnormality occurrence probability calculation formula generation unit 46 acquires the learning data stored in the learning data storage unit 38 and performs logistic regression analysis on the learning data to generate an abnormality occurrence probability calculation formula. Logistic regression analysis is a method of multivariate analysis, and when the result is binary, it is a method of generating a statistical regression model that can predict the probability that the result will occur. Specifically, a logistic model represented by the following formula:
Figure 0006438354
(Z: objective variable, X 1 to X 3: an explanatory variable, b 0: constant, b 1 ~b 3: regression coefficient) by applying the learning data, the value of the constant b 0 and regression coefficient b 1 ~b 3 Ask for. When applying the learning data, the classification result (normal: 0, abnormal: 1) is used for the objective variable Z, and the standard deviation σ x , standard deviation σ y of the learning data is used for the explanatory variables X 1 , X 2 , X 3 , Each maximum likelihood w max is used. As a result, an abnormality occurrence probability calculation formula represented by the following formula:
Figure 0006438354
Is generated (see FIG. 7). p is a first self-position estimated by the first self-position estimation unit 28 during the main traveling of the mobile body 10 (that is, a first self-position estimated by the normal time estimation unit 59 and an abnormal time estimation unit described later). The first self-position estimated by 60) is a probability of abnormality (hereinafter also referred to as abnormality occurrence probability). The abnormality occurrence probability p is a measure indicating how far the first self-position is from the true value, and increases as the first self-position moves away from the true value. As the estimation accuracy of the first self-position decreases, the abnormality occurrence probability p increases. Since the variables (σ x , σ y , w max ) used for the explanatory variables X 1 to X 3 are independent from each other, the regression coefficients b 1 to b 3 are coefficients in which the influence between items is eliminated. Therefore, when calculating the abnormality occurrence probability, the degree of influence for each item can be measured more accurately. The abnormality occurrence probability calculation formula generation process is performed by the CPU 20.
The abnormality occurrence probability calculation formula storage unit 48 is provided in the ROM 24 and stores the abnormality occurrence probability calculation formula generated by the abnormality occurrence probability calculation formula generation unit 46.

(第1自己位置推定処理:再設定時)
上述したように、第1自己位置推定部28は、判定部58での判定結果に基づいて、ステップごとに、通常時推定部59での処理と、異常時推定部60での処理を切替える。以下では、異常時推定部60での第1自己位置推定処理について説明する。
異常時推定部60は、パーティクル集合を生成する際に運動モデルを用いない点で通常時推定部59と異なっている。具体的には、異常時推定部60は、まず、第2自己位置推定部29から現在のステップにおける第2自己位置を取得し、当該第2自己位置を含む所定の範囲内にパーティクル集合を生成する。この所定の範囲内には、移動体10(即ち、真値)が含まれている。パーティクル集合を構成するパーティクルの数は、通常時推定部59におけるパーティクルの数と略同じである。
次に、異常時推定部60は、通常時推定部59における(3)、(4)の処理を実行する。異常時推定部60は、パーティクル集合を構成するパーティクルのいずれかと真値が一致するまで、或いは、パーティクル集合のいずれかのパーティクルが真値に極めて近くなるまで、上記(3)、(4)の処理を繰り返す。即ち、再設定時の第1自己位置推定処理においても、1回のステップにおいて、パーティクル集合の分布は複数回更新される。これにより、異常時推定部60において、現在のステップにおける第1自己位置が推定される。即ち、異常時推定部60では、1つ前のステップにおける第1自己位置ではなく、現在のステップにおける第2自己位置を用いて、現在のステップにおける第1自己位置を推定する。この処理は、CPU20で行われる。なお、パーティクル集合を構成するパーティクルは、上記の所定の範囲内にランダムに分布されてもよいし、均一に分布されてもよいし、所定の基準に従って分布されてもよい。
(First self-position estimation process: when resetting)
As described above, the first self-position estimation unit 28 switches between the process in the normal time estimation unit 59 and the process in the abnormal time estimation unit 60 for each step based on the determination result in the determination unit 58. Below, the 1st self-position estimation process in the abnormal time estimation part 60 is demonstrated.
The abnormal time estimation unit 60 is different from the normal time estimation unit 59 in that a motion model is not used when generating a particle set. Specifically, the abnormal time estimation unit 60 first acquires the second self-position at the current step from the second self-position estimation unit 29 and generates a particle set within a predetermined range including the second self-position. To do. Within this predetermined range, the moving body 10 (that is, the true value) is included. The number of particles constituting the particle set is substantially the same as the number of particles in the normal time estimation unit 59.
Next, the abnormal time estimation unit 60 executes the processes (3) and (4) in the normal time estimation unit 59. The abnormal time estimation unit 60 performs the above (3) and (4) until the true value matches any of the particles constituting the particle set or until any particle in the particle set becomes very close to the true value. Repeat the process. That is, also in the first self-position estimation process at the time of resetting, the particle set distribution is updated a plurality of times in one step. Thereby, in the abnormal time estimation part 60, the 1st self-position in the present step is estimated. That is, the abnormal time estimation unit 60 estimates the first self-position in the current step using the second self-position in the current step, not the first self-position in the previous step. This process is performed by the CPU 20. The particles constituting the particle set may be randomly distributed within the predetermined range, may be uniformly distributed, or may be distributed according to a predetermined standard.

(異常発生確率計算処理)
移動体10が異常発生確率pを計算する処理について説明する。コンピュータ18は、上述した処理で使用される各部の他に、異常発生確率計算部50を備える。
移動体10が第2移動領域において本走行を行う際は、第1自己位置推定部28の通常時推定部59又は異常時推定部60が、第2環境地図を用いて第1自己位置を推定する。通常時推定部59又は異常時推定部60で現在のステップにおける第1自己位置が推定されたときの3つの変数σ、σ、wmaxは、異常発生確率計算部50に出力される。
異常発生確率計算部50は、通常時推定部59又は異常時推定部60から取得した現在のステップにおける3つの変数σ、σ、wmaxを、異常発生確率計算式記憶部48から取得した異常発生確率計算式のX、X、Xにそれぞれ入力して、現在のステップにおける異常発生確率pを求める。異常発生確率pは、ステップごとに計算される。この処理は、CPU20で行われる。異常発生確率計算部50で算出された異常発生確率pは、第1自己位置推定部28の判定部58と、重み係数計算部52に出力される。現在のステップにおける異常発生確率pは、判定部58では1つ後のステップにおける判定処理(後述)に用いられ、重み係数計算部52では現在のステップにおける重み係数計算処理に用いられる。
(Abnormality occurrence probability calculation process)
The process in which the moving body 10 calculates the abnormality occurrence probability p will be described. The computer 18 includes an abnormality occurrence probability calculation unit 50 in addition to the units used in the processing described above.
When the moving body 10 performs the main traveling in the second movement area, the normal time estimation unit 59 or the abnormal time estimation unit 60 of the first self position estimation unit 28 estimates the first self position using the second environment map. To do. The three variables σ x , σ y , and w max when the first self-position at the current step is estimated by the normal time estimation unit 59 or the abnormal time estimation unit 60 are output to the abnormality occurrence probability calculation unit 50.
The abnormality occurrence probability calculation unit 50 acquires the three variables σ x , σ y , w max in the current step acquired from the normal time estimation unit 59 or the abnormality time estimation unit 60 from the abnormality occurrence probability calculation formula storage unit 48. Anomaly occurrence probability p at the current step is obtained by inputting each to X 1 , X 2 , X 3 of the abnormality occurrence probability calculation formula. The abnormality occurrence probability p is calculated for each step. This process is performed by the CPU 20. The abnormality occurrence probability p calculated by the abnormality occurrence probability calculation unit 50 is output to the determination unit 58 of the first self-position estimation unit 28 and the weighting coefficient calculation unit 52. The abnormality occurrence probability p at the current step is used for determination processing (described later) in the next step in the determination unit 58, and is used in the weight coefficient calculation processing in the current step in the weight coefficient calculation unit 52.

(判定処理)
移動体10が、現在のステップにおける第1自己位置を推定する処理を、通常時推定部59と異常時推定部60のどちらで行うかを判定する処理について説明する。上述したように、第1自己位置推定部28は、判定部58を備える。判定部58は、異常発生確率計算部50から、1つ前のステップにおける異常発生確率pを取得する。判定部58は、異常発生確率pが0<p≦0.8を満たすときは通常時推定部59において第1自己位置推定処理を実行させ、0.8<pを満たすときは、異常時推定部60において第1自己位置推定処理を実行させる。なお、移動体10がスタート地点から移動を開始してから最初のステップでは、判定の基準となる異常発生確率pがまだ算出されていないため、通常時推定部59が第1自己地位推定処理を行う。即ち、判定処理は、2回目以降のステップから実施される。また、第1自己位置推定処理を通常時推定部59と異常時推定部60のどちらで行うか判定する基準となる異常発生確率pの閾値は、0.8に限られず、例えば、0.8未満であってもよいし、0.8超であってもよい。
(Determination process)
A process of determining whether the mobile body 10 performs the process of estimating the first self-position in the current step by the normal time estimation unit 59 or the abnormal time estimation unit 60 will be described. As described above, the first self-position estimation unit 28 includes the determination unit 58. The determination unit 58 acquires the abnormality occurrence probability p in the previous step from the abnormality occurrence probability calculation unit 50. The determination unit 58 causes the normal time estimation unit 59 to execute the first self-position estimation process when the abnormality occurrence probability p satisfies 0 <p ≦ 0.8, and when the abnormality occurrence probability p satisfies 0.8 <p The unit 60 causes the first self-position estimation process to be executed. In the first step after the moving body 10 starts moving from the start point, the abnormality occurrence probability p that is a criterion for determination has not been calculated yet, so the normal time estimation unit 59 performs the first self-position estimation process. Do. That is, the determination process is performed from the second and subsequent steps. Further, the threshold value of the abnormality occurrence probability p serving as a reference for determining whether the first self-position estimation process is performed by the normal time estimation unit 59 or the abnormal time estimation unit 60 is not limited to 0.8. Or less than 0.8.

(最終自己位置推定処理)
移動体10は、第2移動領域において本走行を行う前に、上述した学習データ生成処理及び異常発生確率計算式生成処理を実施する。そして、移動体10が本走行を行う際は、異常発生確率計算式から算出した異常発生確率に基づいて重み係数を計算し、その重み係数を用いて最終自己位置を推定する。以下では、移動体10の本走行時における最終自己位置推定処理について説明する。図2に示すように、コンピュータ18は、上述した処理で使用される各部の他に、重み係数計算式記憶部51と、重み係数計算部52と、最終自己位置推定部54を備える。
(Final self-position estimation process)
The mobile body 10 performs the above-described learning data generation processing and abnormality occurrence probability calculation formula generation processing before performing the main traveling in the second movement region. And when the mobile body 10 performs this driving | running | working, a weighting coefficient is calculated based on the abnormality occurrence probability calculated from the abnormality occurrence probability calculation formula, and the final self-position is estimated using the weighting coefficient. Below, the last self-position estimation process at the time of this driving | running | working of the moving body 10 is demonstrated. As shown in FIG. 2, the computer 18 includes a weight coefficient calculation formula storage unit 51, a weight coefficient calculation unit 52, and a final self-position estimation unit 54 in addition to the units used in the above-described processing.

重み係数計算式記憶部51は、ROM24に設けられており、予め設定された重み係数計算式を記憶している。重み係数計算式は、次のシグモイド関数;

Figure 0006438354
(p:異常発生確率、α:重み係数)で表される(図8参照(後述))。
重み係数計算部52は、重み係数計算式記憶部51から取得した重み係数計算式に、異常発生確率計算部50から取得した現在のステップにおける異常発生確率pを入力して重み係数αを求める。この処理は、CPU20で行われる。重み係数計算部52で算出された重み係数αは、最終自己位置推定部54に出力される。 The weighting factor calculation formula storage unit 51 is provided in the ROM 24 and stores a preset weighting factor calculation formula. The weighting factor calculation formula is the following sigmoid function:
Figure 0006438354
(P: abnormality occurrence probability, α: weighting coefficient) (see FIG. 8 (described later)).
The weighting factor calculation unit 52 obtains the weighting factor α by inputting the abnormality occurrence probability p in the current step acquired from the abnormality occurrence probability calculation unit 50 to the weighting factor calculation equation acquired from the weighting factor calculation equation storage unit 51. This process is performed by the CPU 20. The weighting factor α calculated by the weighting factor calculation unit 52 is output to the final self-position estimation unit 54.

最終自己位置推定部54は、重み係数計算部52から取得した重み係数αを用いて、第1自己位置推定部28から取得した第1自己位置と第2自己位置推定部29から取得した第2自己位置の重み付き平均値を算出し、その値を最終自己位置として推定する。具体的には、最終自己位置推定部54は、次の数式;

Figure 0006438354
(r:最終自己位置、r:第1自己位置、r:第2自己位置)に従って計算を行い、移動体10の現在のステップにおける最終自己位置を算出する。重み係数αは第1自己位置の重み係数として使用され、1から重み係数αを減じた係数1−αは第2自己位置の重み係数として使用される。この処理は、CPU20で行われる。最終自己位置推定部54で算出された最終自己位置は、最終自己位置記憶部56に出力される。最終自己位置記憶部56に出力され記憶される最終自己位置は、1つ後のステップにおける第2自己位置推定処理に用いられる。 The final self-position estimation unit 54 uses the weighting coefficient α obtained from the weighting coefficient calculation unit 52 and the first self-position obtained from the first self-position estimation unit 28 and the second self-position estimation unit 29 obtained from the second self-position estimation unit 29. The weighted average value of the self position is calculated, and the value is estimated as the final self position. Specifically, the final self-position estimating unit 54 calculates the following formula:
Figure 0006438354
Calculation is performed according to (r f : final self-position, r 1 : first self-position, r 2 : second self-position), and the final self-position of the moving body 10 in the current step is calculated. The weighting coefficient α is used as a weighting coefficient for the first self-position, and a coefficient 1−α obtained by subtracting the weighting coefficient α from 1 is used as the weighting coefficient for the second self-position. This process is performed by the CPU 20. The final self-position calculated by the final self-position estimation unit 54 is output to the final self-position storage unit 56. The final self-position output and stored in the final self-position storage unit 56 is used for the second self-position estimation process in the next step.

ここで、上記の関数(数3)及び図8を参照して重み係数計算式について説明する。重み係数計算式により算出される重み係数αは、異常発生確率pの関数となっている。第1自己位置の重み係数である重み係数αは、異常発生確率pが大きくなるにつれて(即ち、第1自己位置の推定精度が低下するにつれて)減少している。具体的には、重み係数αの値は、異常発生確率pが0<p<0.1を満たすときは1に近似しており、p=0.2のときは0.5であり、0.3<pを満たすときは0に近似している。このため、最終自己位置は、異常発生確率pが10%未満のときは第1自己位置とほぼ一致し、異常発生確率pが20%であるときは第1自己位置と第2自己位置の中間地点となり、異常発生確率が30%超のときは第2自己位置とほぼ一致することが分かる。上記の説明から明らかなように、本実施例では、異常時推定部60が第1自己位置推定処理を行うときは、第2自己位置と最終自己位置はほぼ一致している。なお、重み係数計算式の定数(50、0.2)は上記の値に限られない。また、重み係数計算式はシグモイド関数に限られない。重み係数αの値を異常発生確率pの値に対してどのように対応付けるかによって、種々の関数を用いることができる。   Here, the weighting coefficient calculation formula will be described with reference to the above function (Equation 3) and FIG. The weighting factor α calculated by the weighting factor calculation formula is a function of the abnormality occurrence probability p. The weighting factor α, which is the weighting factor of the first self-position, decreases as the abnormality occurrence probability p increases (that is, the estimation accuracy of the first self-position decreases). Specifically, the value of the weighting coefficient α is close to 1 when the abnormality occurrence probability p satisfies 0 <p <0.1, is 0.5 when p = 0.2, and is 0. It is approximated to 0 when .3 <p is satisfied. For this reason, the final self-position substantially coincides with the first self-position when the abnormality occurrence probability p is less than 10%, and is intermediate between the first self-position and the second self-position when the abnormality occurrence probability p is 20%. It becomes a point, and it can be seen that when the abnormality occurrence probability exceeds 30%, it almost coincides with the second self-position. As is apparent from the above description, in the present embodiment, when the abnormal time estimation unit 60 performs the first self-position estimation process, the second self-position and the final self-position substantially coincide. Note that the constants (50, 0.2) in the weight coefficient calculation formula are not limited to the above values. Further, the weight coefficient calculation formula is not limited to the sigmoid function. Various functions can be used depending on how the value of the weighting factor α is associated with the value of the abnormality occurrence probability p.

次に、判定処理についてより詳細に説明する。移動体10が、第2移動領域において第2環境地図には記録されていない障害物の付近を走行すると、LRF14で取得される観測情報と環境地図とのマッチング度が低くなる(観測情報が無用化する)ため、第1自己位置の推定精度が低下する。このため、異常発生確率pが高くなる。即ち、たとえパーティクル集合の中に真値が含まれていたとしても、移動体10が真値に相当するパーティクルを適合パーティクルと見なすことができず、別のパーティクルを適合パーティクルと見なすことになる。実施例の移動体10では、通常時推定部59は、MCLの手法に則り、1ステップ前における第1自己位置を用いて現在のステップにおける第1自己位置を推定する。このため、移動体10が第2環境地図には記録されていない障害物の付近を引き続き走行する場合は、通常時推定部59により推定される第1自己位置は真値からますます離れていくことになり、最終的にはパーティクル集合に真値が含まれなくなる。一旦パーティクル集合に真値が含まれなくなると、この後でたとえ移動体10が第2移動領域において障害物が配置されていない領域を走行するようになったとしても(即ち、有用な観測情報を取得できるようになったとしても)、MCLの手法では、真値が含まれる範囲にパーティクル集合を生成することが不可能になる。即ち、通常時推定部59では、精度良く第1自己位置を推定することが不可能になる。   Next, the determination process will be described in more detail. When the moving body 10 travels in the vicinity of an obstacle that is not recorded in the second environment map in the second movement area, the degree of matching between the observation information acquired by the LRF 14 and the environment map becomes low (the observation information is unnecessary). Therefore, the estimation accuracy of the first self-position is lowered. For this reason, the abnormality occurrence probability p increases. That is, even if a true value is included in the particle set, the moving object 10 cannot regard a particle corresponding to the true value as a conforming particle, and regards another particle as a conforming particle. In the moving body 10 according to the embodiment, the normal time estimation unit 59 estimates the first self-position at the current step using the first self-position one step before in accordance with the MCL technique. For this reason, when the mobile body 10 continues to travel in the vicinity of an obstacle that is not recorded in the second environment map, the first self-position estimated by the normal time estimation unit 59 is further away from the true value. Eventually, the true value is not included in the particle set. Once the particle set no longer contains the true value, even if the moving body 10 subsequently travels in the area where no obstacle is located in the second movement area (that is, useful observation information is displayed). Even if it can be acquired), the MCL method makes it impossible to generate a particle set in a range including a true value. That is, the normal time estimation unit 59 cannot accurately estimate the first self-position.

第1自己位置推定部28の判定部58は、異常発生確率pが80%を超えると、通常時推定部59ではなく異常時推定部60で第1自己位置推定処理を実施させる。異常時推定部60では、現在のステップにおいて第2自己位置推定部29により推定された第2自己位置を含む所定の範囲内にパーティクル集合を生成する。当該所定の範囲内には、真値が含まれている。このため、移動体10が異常時推定部60が有用な観測情報を取得できれば、異常時推定部60は、パーティクル集合の中の真値に相当するパーティクルを適合パーティクルと見なすことができ、現在のステップにおいて第1自己位置を精度良く推定できる。即ち、判定部58が異常発生確率pに基づいて第1自己位置の推定手法を切替えることにより、第1自己位置推定部28における第1自己位置の推定精度を再度向上させることができる。第1自己位置の推定精度が向上して現在のステップにおける異常発生確率pが80%以下になると、判定部58は、次のステップにおける第1自己位置推定処理を、異常時推定部60から通常時推定部59に切替える(後述)。   When the abnormality occurrence probability p exceeds 80%, the determination unit 58 of the first self-position estimation unit 28 causes the abnormality-time estimation unit 59 to perform the first self-position estimation process instead of the normal-time estimation unit 59. The abnormal time estimation unit 60 generates a particle set within a predetermined range including the second self-position estimated by the second self-position estimation unit 29 in the current step. A true value is included in the predetermined range. For this reason, if the moving body 10 can acquire useful observation information by the abnormal time estimation unit 60, the abnormal time estimation unit 60 can regard the particle corresponding to the true value in the particle set as a suitable particle, In the step, the first self-position can be estimated with high accuracy. That is, when the determination unit 58 switches the first self-position estimation method based on the abnormality occurrence probability p, the first self-position estimation accuracy in the first self-position estimation unit 28 can be improved again. When the estimation accuracy of the first self-position is improved and the abnormality occurrence probability p in the current step becomes 80% or less, the determination unit 58 normally performs the first self-position estimation process in the next step from the abnormality time estimation unit 60. Switching to the time estimation unit 59 (described later).

一方、移動体10が第2環境地図には記録されていない障害物の付近を引き続き走行するなどして、異常時推定部60が有用な観測情報を取得できない場合を考える。この場合、たとえ真値を含む範囲内にパーティクル集合が生成されても、異常時推定部60は、真値に相当するパーティクルとは別のパーティクルを適合パーティクルと見なし、精度良く第1自己位置を推定できない可能性がある。これにより、異常発生確率pが依然として80%を超える場合は、判定部58は、次のステップにおいても、異常時推定部60で第1自己位置推定処理を実施させる。   On the other hand, consider a case where the abnormal time estimation unit 60 cannot acquire useful observation information, for example, when the moving body 10 continues to travel in the vicinity of an obstacle that is not recorded in the second environment map. In this case, even if the particle set is generated within the range including the true value, the abnormal time estimation unit 60 regards a particle different from the particle corresponding to the true value as the matching particle, and accurately determines the first self-position. There is a possibility that it cannot be estimated. Thereby, when the abnormality occurrence probability p still exceeds 80%, the determination unit 58 causes the abnormality estimation unit 60 to perform the first self-position estimation process in the next step.

他方、異常発生確率pが80%以下のときは、判定部58は、通常時推定部59で第1自己位置推定処理を実施させる。本願発明者らは、実験により、異常発生確率pが80%以下の場合は、たとえ移動体10が第2環境地図には記録されていない障害物の付近を走行していたとしても、真値がパーティクル集合の中に含まれることを確認した。このため、通常時推定部59が有用な観測情報を取得できれば、通常時推定部59は、パーティクル集合の中の真値に相当するパーティクルを適合パーティクルと見なすことができ、現在のステップにおいて第1自己位置を精度良く推定できる。この結果、現在のステップにおける異常発生確率pが80%を超えることがなくなり、判定部58は、次のステップにおいても通常時推定部59で第1自己位置推定処理を実施させる。   On the other hand, when the abnormality occurrence probability p is 80% or less, the determination unit 58 causes the normal time estimation unit 59 to perform the first self-position estimation process. The inventors of the present application show that, if the probability of occurrence of an abnormality p is 80% or less, even if the moving body 10 is traveling near an obstacle that is not recorded in the second environment map, the true value is obtained. Has been confirmed to be included in the particle set. For this reason, if the normal time estimation unit 59 can acquire useful observation information, the normal time estimation unit 59 can regard the particle corresponding to the true value in the particle set as the matching particle, and the first step in the current step. The self-position can be estimated with high accuracy. As a result, the abnormality occurrence probability p in the current step does not exceed 80%, and the determination unit 58 causes the normal time estimation unit 59 to perform the first self-position estimation process in the next step.

一方、移動体10が、第2環境地図には記録されていない障害物の付近を長時間走行するなどして、連続した複数のステップで有用な観測情報を取得できない場合を考える。この場合、通常時推定部59の第1自己位置推定精度がステップを追うごとに低下していく。最終的に異常発生確率pが80%を超えると、判定部58は、第1自己位置推定を、通常時推定部59での処理から異常時推定部60での処理に切替える。これにより、上述したように、第1自己位置の推定精度を再度向上できる。   On the other hand, let us consider a case where the mobile object 10 cannot acquire useful observation information in a plurality of consecutive steps, for example, by traveling for a long time near an obstacle that is not recorded in the second environment map. In this case, the first self-position estimation accuracy of the normal time estimator 59 decreases as each step is followed. When the abnormality occurrence probability p finally exceeds 80%, the determination unit 58 switches the first self-position estimation from the process in the normal time estimation unit 59 to the process in the abnormality time estimation unit 60. Thereby, as above-mentioned, the estimation precision of a 1st self-position can be improved again.

実施例の移動体10の作用効果を説明する。この移動体10では、最終自己位置推定部54で移動体10の最終自己位置を推定する際に用いられる重み係数αが、異常発生確率pの関数となっている。異常発生確率pを算出する異常発生確率計算式は、移動体10が学習移動することで取得される学習データを、機械学習の一手法であるロジスティック回帰分析の手法を用いて解析することにより得られる式である。このため、重み係数αは、異常発生確率計算式以外の要因によって影響を受けることがない。従って、例えば移動領域が変更したり、移動体10の管理者が変更したとしても、重み係数αの値を決定する基準が変動することがない。結果として、移動体10の最終自己位置の推定精度を安定化することができる。   The effect of the moving body 10 of an Example is demonstrated. In this mobile object 10, the weighting factor α used when the final self-position estimating unit 54 estimates the final self-position of the mobile object 10 is a function of the abnormality occurrence probability p. The abnormality occurrence probability calculation formula for calculating the abnormality occurrence probability p is obtained by analyzing learning data acquired by the moving movement of the mobile body 10 using a method of logistic regression analysis which is one method of machine learning. Is an expression. Therefore, the weighting factor α is not affected by factors other than the abnormality occurrence probability calculation formula. Therefore, for example, even if the moving area is changed or the administrator of the moving object 10 is changed, the reference for determining the value of the weighting coefficient α does not change. As a result, the estimation accuracy of the final self-position of the moving body 10 can be stabilized.

また、第2自己位置は、1つ前のステップにおける最終自己位置に、エンコーダ12から取得される左右の車輪の回転角度を元に算出された1ステップ分の移動情報を加算することにより求められる。エンコーダ12が検出する情報には、各車輪の滑り等により誤差が含まれる場合があるが、エンコーダ12による検出距離が比較的に短い場合は、上記の誤差はほとんど無視できる。1ステップ分の移動距離は極めて短いため、1ステップ分の移動情報の精度は高い。また、第2自己位置は、第2環境地図を用いずに推定される。このため、移動体10が、第2移動領域において第2環境地図に記録されていない障害物の付近を走行する場合であっても、このことに起因して第2自己位置の推定精度が低下することはない。従って、1ステップ前の最終自己位置の推定精度が高ければ、現在のステップにおける第2自己位置は高い推定精度を維持できる。
本実施例の移動体10では、異常発生確率pが増加するにつれて第1自己位置の重み係数αが減少すると共に、第2自己位置の重み係数1−αが増加する。この構成によると、異常発生確率pが高いとき(即ち、第1自己位置の推定精度が低いとき)は、最終自己位置に占める第1自己位置の割合を減らすと共に、第2自己位置の割合を増やすことができる。上述したように、第2自己位置の推定精度は高い。このため、この構成によると、第1自己位置の推定精度が低下しても、最終自己位置の推定精度が低下することを抑制できる。また、重み係数計算式は連続した滑らかな関数であるため、重み係数αは異常発生確率pの推移に応じて滑らかに変動する。このため、最終自己位置は、第1自己位置と第2自己位置の間を連続的に推移可能な値となる。従って、最終自己位置の推定精度がさらに向上する。
The second self-position is obtained by adding movement information for one step calculated based on the rotation angles of the left and right wheels acquired from the encoder 12 to the final self-position in the previous step. . The information detected by the encoder 12 may include an error due to slipping of each wheel or the like. However, when the detection distance by the encoder 12 is relatively short, the above error can be almost ignored. Since the movement distance for one step is extremely short, the accuracy of the movement information for one step is high. The second self-position is estimated without using the second environment map. For this reason, even when the moving body 10 travels in the vicinity of an obstacle that is not recorded on the second environment map in the second movement region, the estimation accuracy of the second self-position is reduced due to this. Never do. Therefore, if the estimation accuracy of the final self-position one step before is high, the second self-position in the current step can maintain high estimation accuracy.
In the moving body 10 of the present embodiment, the weighting factor α of the first self-position decreases and the weighting coefficient 1-α of the second self-position increases as the abnormality occurrence probability p increases. According to this configuration, when the abnormality occurrence probability p is high (that is, when the estimation accuracy of the first self-position is low), the ratio of the first self-position to the final self-position is reduced and the ratio of the second self-position is set. Can be increased. As described above, the estimation accuracy of the second self-position is high. For this reason, according to this structure, even if the estimation accuracy of the first self-position is lowered, it is possible to suppress the estimation accuracy of the final self-position from being lowered. Further, since the weighting coefficient calculation formula is a continuous smooth function, the weighting coefficient α varies smoothly according to the transition of the abnormality occurrence probability p. For this reason, the final self-position is a value that can continuously transition between the first self-position and the second self-position. Accordingly, the final self-position estimation accuracy is further improved.

また、従来の移動体では、一旦真値がパーティクル集合に含まれなくなると、それ以降のステップでは、MCLの手法から、別の手法(オドメトリ、GPS等)に切替えるしかなかった。しかしながら、実施例の移動体10では、真値がパーティクル集合に含まれなくなった場合は、真値が再度パーティクル集合に含まれるようにパーティクル集合の生成の仕方を変更する。このため、MCLの手法を用いた第1自己位置推定処理を再開して、第1自己位置の推定精度を再度向上させることができる。従って、第1自己位置の推定精度が低下することにより最終自己位置に占める第2自己位置の割合が極めて高くなった後でも、第1自己位置の推定精度を再度向上させることにより、最終自己位置に占める第1自己位置の割合を再度増やすことが可能になる。このように、第1自己位置推定部28と第2自己位置推定部29のそれぞれの機能をバランスよく活用することで、移動体10がスタート地点から目的地に到達するまで、最終自己位置の推定精度を高く保つことができる。   Further, in the conventional mobile object, once the true value is not included in the particle set, the subsequent steps have to switch from the MCL method to another method (odometry, GPS, etc.). However, in the moving body 10 of the embodiment, when the true value is not included in the particle set, the generation method of the particle set is changed so that the true value is included in the particle set again. For this reason, the first self-position estimation process using the MCL technique can be resumed, and the first self-position estimation accuracy can be improved again. Therefore, even after the ratio of the second self-position occupying the final self-position becomes extremely high due to a decrease in the estimation accuracy of the first self-position, the final self-position is improved by improving the estimation accuracy of the first self-position again. It is possible to increase again the ratio of the first self-position in the area. In this way, by utilizing the functions of the first self-position estimation unit 28 and the second self-position estimation unit 29 in a well-balanced manner, the final self-position is estimated until the moving body 10 reaches the destination from the start point. The accuracy can be kept high.

なお、本願発明者らは、本明細書に開示される最終自己位置の推定手法を、従来のMCLの手法と比較する実験を行った。実験では、2つの移動体に、上記の手法を用いた自己位置推定装置をそれぞれ搭載し、各移動体に、環境地図には記録されていない障害物が配置された移動領域を走行させた。走行後、各移動体について、スタート地点から目的地までのステップごとの位置誤差の平均値を計算した。実験の結果、本明細書に開示される手法では、従来の手法と比較して、位置誤差の平均値が約30%減少した。このことから、移動体10は、従来よりも安定した精度で最終自己位置を推定できることが分かった。   The inventors of the present application conducted an experiment comparing the final self-position estimation method disclosed in this specification with the conventional MCL method. In the experiment, the self-position estimation apparatus using the above-described method was mounted on each of the two moving bodies, and each moving body was caused to travel in a moving area in which an obstacle that was not recorded in the environmental map was placed. After running, the average position error for each step from the starting point to the destination was calculated for each moving object. As a result of the experiment, the average value of the position error was reduced by about 30% in the method disclosed in the present specification as compared with the conventional method. From this, it was found that the moving body 10 can estimate the final self-position with more stable accuracy than in the past.

また、本実施例では、第1自己位置推定処理が通常時推定部59での処理から異常時推定部60での処理に切替えられると、パーティクル集合の生成の仕方が変更される。具体的には、パーティクル集合は、現在のステップにおける第2自己位置を含む所定の範囲に生成される。また、パーティクルの数は通常時推定部59で用いられるパーティクルの数と略同じである。一方、従来の手法では、パーティクルを再散布する際は、移動領域の全体に大量のパーティクルを散布していた。このため、自己位置推定の精度が低く、処理に時間がかかっていた。本実施例では、真値の比較的近傍に位置する特定の位置(即ち、第2自己位置(本実施例では最終自己位置でもある))を基準としてパーティクル集合を生成する。これにより、パーティクルの数を増やさなくても、精度良く、且つ短時間で、第1自己位置を推定することができる。   Further, in the present embodiment, when the first self-position estimation process is switched from the process in the normal time estimation unit 59 to the process in the abnormal time estimation unit 60, the method of generating the particle set is changed. Specifically, the particle set is generated in a predetermined range including the second self position in the current step. The number of particles is substantially the same as the number of particles used in the normal time estimation unit 59. On the other hand, in the conventional method, when re-dispersing particles, a large amount of particles are dispersed over the entire moving region. For this reason, the accuracy of self-position estimation is low, and processing takes time. In this embodiment, a particle set is generated with reference to a specific position (that is, the second self position (which is also the final self position in this embodiment)) located relatively close to the true value. As a result, the first self-position can be estimated accurately and in a short time without increasing the number of particles.

また、本実施例では、学習データの元になる情報(即ち、自己位置推定結果や標準偏差σ等の変数)は、移動体10に実際に第1移動領域40を走行させることで取得する。このため、学習データには、移動体10の第1自己位置推定性能が直接的に反映される。このように、実際に特定の領域を走行させて得られる情報を元に学習データを生成することにより、より精度の高い異常発生確率計算式を生成できる。 In the present embodiment, information (that is, variables such as a self-position estimation result and a standard deviation σ x ) that is the basis of learning data is acquired by causing the moving body 10 to actually travel through the first moving area 40. . For this reason, the first self-position estimation performance of the moving body 10 is directly reflected in the learning data. Thus, by generating learning data based on information obtained by actually traveling in a specific area, a more accurate abnormality occurrence probability calculation formula can be generated.

以上、本明細書が開示する技術の実施例について詳細に説明したが、これらは例示にすぎず、本明細書が開示する移動体は、上記の実施例を様々に変形、変更したものが含まれる。   As mentioned above, although the Example of the technique which this specification discloses was described in detail, these are only illustrations, and the mobile body which this specification discloses contains what changed and changed the said Example variously. It is.

例えば、第1自己位置推定部28では、MCLの代わりに拡張カルマンフィルタを用いて第1自己位置推定処理を行ってもよい。この場合、推定誤差共分散行列から得られる値(例えば、分散値、誤差共分散行列の各要素の値、誤差楕円の長軸及び短軸等)を説明変数に用いて異常発生確率計算式を生成することができる。また、本走行時に得られるこれらの変数を異常発生確率計算式に入力することで、第1自己位置推定結果の正常/異常を精度良く判定することができる。   For example, the first self-position estimation unit 28 may perform the first self-position estimation process using an extended Kalman filter instead of the MCL. In this case, using the values obtained from the estimated error covariance matrix (for example, the variance value, the value of each element of the error covariance matrix, the major axis and minor axis of the error ellipse) as explanatory variables, Can be generated. Moreover, normal / abnormality of the first self-position estimation result can be accurately determined by inputting these variables obtained during the actual traveling into the abnormality occurrence probability calculation formula.

また、上記の実施例では、モータに設けられたエンコーダ12を用いて移動情報を取得したが、移動情報を取得する手法はこれに限られない。例えば、カメラを用いたビジュアルオドメトリ又はレーザセンサを用いたレーザオドメトリを用いて移動情報を取得してもよい。   In the above embodiment, the movement information is acquired using the encoder 12 provided in the motor. However, the method of acquiring the movement information is not limited to this. For example, the movement information may be acquired using visual odometry using a camera or laser odometry using a laser sensor.

また、移動体10は学習データ生成部36を有していなくてもよく、学習データは移動体10の外部で生成されてもよい。また、移動体10は、学習データ記憶部38を有していなくてもよい。即ち、学習データを元に異常発生確率計算式が生成されたら、学習データを消去する構成であってもよい。また、移動体10は、異常発生確率計算式生成部46を有していなくてもよく、異常発生確率計算式は移動体10の外部で生成されてもよい。   In addition, the moving body 10 may not have the learning data generation unit 36, and the learning data may be generated outside the moving body 10. Further, the moving body 10 may not have the learning data storage unit 38. That is, the learning data may be deleted once the abnormality occurrence probability calculation formula is generated based on the learning data. Further, the mobile object 10 may not have the abnormality occurrence probability calculation formula generation unit 46, and the abnormality occurrence probability calculation expression may be generated outside the mobile object 10.

また、異常発生確率計算式生成部46では、多変量解析の代わりにサポートベクターマシーンを用いてもよい。サポートベクターマシーンは、パターン認識のモデリングにおいて公知の手法であり、クラスの帰属が未知の特徴ベクトルを入力すると、当該特徴ベクトルが帰属するクラスを2値で出力する識別関数を構成する手法である。識別関数は、クラスの帰属が既知の訓練用のサンプル集合から構成される。このため、実施例の学習データを訓練用のサンプル集合に用いて学習データをサポートベクターマシーンで学習することで、識別関数(異常発生確率計算式)を構成することができる。そして、当該識別関数に第1自己位置推定部28から取得される3つの変数σ、σ、wmaxを入力することで、第1自己位置推定結果の正常/異常を判定することができる。この方法によっても、実施例と同様の作用効果を奏することができる。 Further, the abnormality occurrence probability calculation formula generation unit 46 may use a support vector machine instead of multivariate analysis. The support vector machine is a well-known technique in pattern recognition modeling, and is a technique for constructing an identification function that outputs a class to which a feature vector belongs in binary when a feature vector with an unknown class assignment is input. The discriminant function is composed of a training sample set with known class membership. For this reason, a discriminant function (abnormality occurrence probability calculation formula) can be configured by learning the learning data with the support vector machine using the learning data of the embodiment as a sample set for training. Then, the normal / abnormality of the first self-position estimation result can be determined by inputting the three variables σ x , σ y , and w max acquired from the first self-position estimation unit 28 to the identification function. . Also by this method, the same effect as the embodiment can be obtained.

また、異常発生確率計算式生成部46では、多変量解析の代わりにニューラルネットワークを用いてもよい。ニューラルネットワークは、パターン認識のモデリングにおいて公知の手法であり、クラスの帰属が未知の変数を入力すると、当該変数が帰属するクラスを2値で出力する識別関数を構成する手法である。この手法では、教師あり学習と教師なし学習の2通りで識別関数を構成できる。教師あり学習では、学習例と、当該学習例に対する目標出力が与えられ、初期状態の関数に学習例を入力して得られる出力が目標出力と一致するように初期状態の関数の重みを調整することで、識別関数が構成される。このため、実施例の学習データの3つの変数σ、σ、wmaxを学習例とし、そのときの分類結果(正常/異常)を目標出力として、学習データをニューラルネットワークで学習することで、識別関数(異常発生確率計算式)を構成することができる。そして、当該識別関数に第1自己位置推定部28から取得される3つの変数σ、σ、wmaxを入力することで、第1自己位置推定結果の正常/異常を判定することができる。この方法によっても、実施例と同様の作用効果を奏することができる。 Further, the abnormality occurrence probability calculation formula generation unit 46 may use a neural network instead of the multivariate analysis. The neural network is a well-known technique in pattern recognition modeling, and is a technique for constructing a discriminant function that outputs a class to which a variable belongs in binary when a variable with unknown class assignment is input. In this method, the discrimination function can be configured in two ways, supervised learning and unsupervised learning. In supervised learning, a learning example and a target output for the learning example are given, and the weight of the function in the initial state is adjusted so that the output obtained by inputting the learning example to the function in the initial state matches the target output Thus, an identification function is configured. For this reason, the three variables σ x , σ y , and w max of the learning data of the embodiment are taken as learning examples, and the learning result is learned by a neural network with the classification result (normal / abnormal) as a target output. The discriminant function (abnormality occurrence probability calculation formula) can be constructed. Then, the normal / abnormality of the first self-position estimation result can be determined by inputting the three variables σ x , σ y , and w max acquired from the first self-position estimation unit 28 to the identification function. . Also by this method, the same effect as the embodiment can be obtained.

また、学習データを解析する際は、ロジスティック回帰分析の代わりに判別分析を用いてもよい。   When analyzing learning data, discriminant analysis may be used instead of logistic regression analysis.

また、学習走行は、実際に移動体に特定の領域を走行させる代わりに、シミュレーションにより行ってもよい。   In addition, the learning travel may be performed by simulation instead of actually traveling a specific area on the moving body.

また、移動体10は車輪駆動型でなくてもよく、例えば、二足歩行型でもよい。また、移動体10はLRF14を複数個有していてもよい。   Moreover, the moving body 10 may not be a wheel drive type, for example, may be a bipedal walking type. Further, the moving body 10 may have a plurality of LRFs 14.

また、真値計算部32では、三角測量センサ16及びリフレクタ44を用いて移動体10の真値を計算したが、真値を計算する方法はこれに限られない。例えば、モーションキャプチャや磁気レールの手法を用いて真値を計算してもよい。   Further, in the true value calculation unit 32, the true value of the moving body 10 is calculated using the triangulation sensor 16 and the reflector 44, but the method of calculating the true value is not limited to this. For example, the true value may be calculated using a motion capture or magnetic rail technique.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

10:移動体、12:エンコーダ、14:レーザレンジファインダ(LRF)、26:環境地図記憶部、28:第1自己位置推定部、29:第2自己位置推定部、36:学習データ生成部、38:学習データ記憶部、46:異常発生確率計算式生成部、48:異常発生確率計算式記憶部、50:異常発生確率計算部、51:重み係数計算式記憶部、52:重み係数計算部、54:最終自己位置推定部、56:最終自己位置記憶部、58:判定部、59:通常時推定部、60:異常時推定部

10: mobile body, 12: encoder, 14: laser range finder (LRF), 26: environment map storage unit, 28: first self-position estimation unit, 29: second self-position estimation unit, 36: learning data generation unit, 38: learning data storage unit, 46: abnormality occurrence probability calculation formula generation unit, 48: abnormality occurrence probability calculation formula storage unit, 50: abnormality occurrence probability calculation unit, 51: weighting factor calculation formula storage unit, 52: weighting factor calculation unit 54: Final self-position estimation unit 56: Final self-position storage unit 58: Determination unit 59: Normal time estimation unit 60: Abnormal time estimation unit

Claims (7)

所定の移動領域内を移動する移動体の最終自己位置をステップごとに推定する装置であって、
第1自己位置推定部と、第2自己位置推定部と、異常発生確率計算式記憶部と、異常発生確率計算部と、最終自己位置推定部と、を備えており、
前記第1自己位置推定部は、前記移動領域の環境地図と、現在のステップで観測された「前記移動体から前記移動領域内に存在している物体までの距離」及び「前記移動体に対する前記物体の方位」と、を少なくとも用いて前記移動体の状態の確率分布を最新の状態に更新し、その最新の状態の確率分布に基づいて第1自己位置を推定し、
前記第2自己位置推定部は、前記最終自己位置推定部で推定された1つ前のステップにおける前記移動体の最終自己位置に、オドメトリにより取得される、前記1つ前のステップから現在のステップまでの前記移動体の移動距離及び移動方向を加算することにより第2自己位置を推定し、
前記異常発生確率計算式記憶部は、前記移動体の学習移動時において、前記第1自己位置推定部が前記第1自己位置を推定した際に取得された学習データを機械学習して得られた異常発生確率計算式を記憶し、
前記異常発生確率計算部は、前記移動体の本移動時において、前記第1自己位置推定部が前記第1自己位置を推定した際に取得される複数の変数を前記異常発生確率計算式に入力して異常発生確率を計算し、
前記最終自己位置推定部は、前記第1自己位置推定部から取得される前記第1自己位置と前記第2自己位置推定部から取得される第2自己位置とを用いて算出される重み付き平均値を、現在のステップにおける最終自己位置とし、
前記学習データは、学習移動時に前記第1自己位置推定部において前記第1自己位置を推定した際に取得される複数の変数と、そのときの第1自己位置推定結果を正常又は異常に分類したときの分類結果と、を関連付けたデータを複数有しており、
前記最終自己位置推定部で用いられる重み係数は、前記異常発生確率計算部で取得される異常発生確率の関数である、移動体の自己位置推定装置。
An apparatus that estimates the final self-position of a moving body that moves within a predetermined moving area for each step,
A first self-position estimation unit, a second self-position estimation unit, an abnormality occurrence probability calculation formula storage unit, an abnormality occurrence probability calculation unit, and a final self-position estimation unit,
The first self-position estimation unit includes an environment map of the moving area, “a distance from the moving object to an object existing in the moving area” and “the moving object relative to the moving object” observed in the current step. Update the probability distribution of the state of the moving body to the latest state using at least the azimuth of the object, and estimate the first self-position based on the probability distribution of the latest state;
The second self-position estimating unit, a final self-position of the movable body in the final self-position preceding steps estimated by the estimation unit is obtained by O Dometori, the current from the previous step Estimating the second self-position by adding the moving distance and moving direction of the moving body up to the step;
The abnormality occurrence probability calculation formula storage unit is obtained by machine learning of learning data acquired when the first self-position estimation unit estimates the first self-position during the learning movement of the mobile body Memorize abnormality occurrence probability formula,
The abnormality occurrence probability calculation unit inputs, into the abnormality occurrence probability calculation formula, a plurality of variables acquired when the first self-position estimation unit estimates the first self-position during the main movement of the moving body. To calculate the probability of anomaly occurrence,
The final self-position estimation unit is a weighted average calculated using the first self-position acquired from the first self-position estimation unit and the second self-position acquired from the second self-position estimation unit Let the value be the final self-position in the current step,
The learning data includes a plurality of variables acquired when the first self-position estimating unit estimates the first self-position during learning movement, and a first self-position estimation result at that time is classified as normal or abnormal Have multiple data related to the classification results
The mobile body self-position estimation apparatus, wherein the weighting factor used in the final self-position estimation unit is a function of the abnormality occurrence probability acquired by the abnormality occurrence probability calculation unit.
前記異常発生確率が増加するにつれて、前記第1自己位置の前記重み係数が減少すると共に、前記第2自己位置の前記重み係数が増加する、請求項1に記載の移動体の自己位置推定装置。   The mobile body self-position estimation apparatus according to claim 1, wherein the weighting coefficient of the first self-position decreases and the weighting coefficient of the second self-position increases as the abnormality occurrence probability increases. 前記第1自己位置推定部は、
前記1つ前のステップにおける前記異常発生確率が所定の閾値を超えていない場合は、当該第1自己位置推定部で推定された1つ前のステップにおける前記移動体の第1自己位置をさらに用いて前記移動体の状態の確率分布を最新の状態に更新し、
前記1つ前のステップにおける前記異常発生確率が所定の閾値を超えた場合は、前記移動体の状態の確率分布を、現在のステップにおいて前記第2自己位置推定部が推定した前記第2自己位置を含む所定の範囲内に前記移動体が位置するように更新する、請求項1又は2に記載の移動体の自己位置推定装置。
The first self-position estimation unit
When the abnormality occurrence probability in the previous step does not exceed a predetermined threshold, the first self-position of the moving body in the previous step estimated by the first self-position estimation unit is further used. Update the probability distribution of the state of the moving body to the latest state,
When the abnormality occurrence probability in the previous step exceeds a predetermined threshold, the second self-position estimated by the second self-position estimation unit in the current step is the probability distribution of the state of the moving object. The mobile body self-position estimation apparatus according to claim 1, wherein the mobile body is updated so that the mobile body is positioned within a predetermined range.
前記学習データの前記第1自己位置推定結果は、学習移動時に前記第1自己位置推定部で推定された第1自己位置と、前記移動体の実際の位置との位置誤差が所定値以下の場合には正常と分類され、前記位置誤差が所定値を超える場合には異常と分類されている、請求項1〜3の何れか一項に記載の移動体の自己位置推定装置。   The first self-position estimation result of the learning data is obtained when a position error between the first self-position estimated by the first self-position estimation unit during learning movement and the actual position of the moving body is a predetermined value or less. The mobile body self-position estimation apparatus according to any one of claims 1 to 3, wherein the mobile body is classified as normal and is classified as abnormal when the position error exceeds a predetermined value. 前記オドメトリは、車輪オドメトリ、カメラを用いたビジュアルオドメトリ又はレーザセンサを用いたレーザオドメトリの何れかである、請求項1〜4の何れか一項に記載の移動体の自己位置推定装置。   5. The mobile body self-position estimation device according to claim 1, wherein the odometry is any one of wheel odometry, visual odometry using a camera, and laser odometry using a laser sensor. 前記第1自己位置推定部は、モンテカルロ位置同定法(Monte Carlo Localization、 MCL)又は拡張カルマンフィルタの何れかの手法を用いて前記第1自己位置を推定する、請求項1〜5の何れか一項に記載の移動体の自己位置推定装置。   The said 1st self-position estimation part estimates the said 1st self-position using the method of either a Monte Carlo location identification method (Monte Carlo Localization, MCL) or an extended Kalman filter, The any one of Claims 1-5. The self-position estimation apparatus of the moving body as described in 2. 所定の移動領域内を移動する移動体であって、
オドメトリにより前記移動体の移動距離及び移動方向を取得する移動情報取得部と、
前記移動領域内に存在している物体を観測し、前記移動体から前記物体までの距離及び前記移動体に対する前記物体の方位を取得する観測情報取得部と、
前記移動領域の環境地図を記憶している環境地図記憶部と、
請求項1〜6の何れか一項に記載の自己位置推定装置と、を備える移動体。
A moving body that moves within a predetermined movement area,
A movement information acquisition unit that acquires a movement distance and a movement direction of the moving body by odometry;
An observation information acquisition unit for observing an object existing in the moving region and acquiring a distance from the moving object to the object and an orientation of the object with respect to the moving object;
An environmental map storage unit storing an environmental map of the moving area;
A mobile body comprising: the self-position estimation apparatus according to any one of claims 1 to 6.
JP2015110186A 2015-05-29 2015-05-29 Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus Active JP6438354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015110186A JP6438354B2 (en) 2015-05-29 2015-05-29 Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015110186A JP6438354B2 (en) 2015-05-29 2015-05-29 Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus

Publications (2)

Publication Number Publication Date
JP2016224680A JP2016224680A (en) 2016-12-28
JP6438354B2 true JP6438354B2 (en) 2018-12-12

Family

ID=57748351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015110186A Active JP6438354B2 (en) 2015-05-29 2015-05-29 Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus

Country Status (1)

Country Link
JP (1) JP6438354B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179960A1 (en) * 2017-03-27 2018-10-04 日本電産株式会社 Mobile body and local position estimation device
JP7091733B2 (en) 2018-03-14 2022-06-28 トヨタ自動車株式会社 Position estimation system, position detection method, and program
JP6832394B2 (en) * 2019-07-22 2021-02-24 株式会社ダイヘン Self-position estimator, self-regioselector, and learner

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065703A (en) * 2004-08-30 2006-03-09 Inst Of Systems Information Technologies Kyushu Self-position estimation device, self-position estimation method, program capable of executing self-position estimation method by computer, and recording medium recording program
JP2009257763A (en) * 2006-06-30 2009-11-05 Nec Corp System, method and program for position estimation for vehicle
JP5083543B2 (en) * 2008-01-23 2012-11-28 株式会社Ihi Traveling area discrimination device and traveling area discrimination method for mobile robot
JP2010224755A (en) * 2009-03-23 2010-10-07 Toyota Motor Corp Moving object and position estimating method of the same
JP5304534B2 (en) * 2009-08-21 2013-10-02 トヨタ自動車株式会社 Self-position estimation apparatus, self-position estimation method and program
JP2014203144A (en) * 2013-04-02 2014-10-27 パナソニック株式会社 Autonomous mobile apparatus
JP6260983B2 (en) * 2013-05-24 2018-01-17 株式会社Ihi Self-position estimation apparatus and method

Also Published As

Publication number Publication date
JP2016224680A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6240595B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
JP6773471B2 (en) Autonomous mobile and environmental map updater
US10127677B1 (en) Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
Shamsfakhr et al. A neural network approach to navigation of a mobile robot and obstacle avoidance in dynamic and unknown environments
Deepak et al. PSO based path planner of an autonomous mobile robot
Akail et al. Reliability estimation of vehicle localization result
Kaufman et al. Autonomous exploration by expected information gain from probabilistic occupancy grid mapping
JP6438354B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
Ruiz et al. A general algorithm for exploration with gaussian processes in complex, unknown environments
Garrote et al. Mobile robot localization with reinforcement learning map update decision aided by an absolute indoor positioning system
JP2017146893A (en) Self-position estimation method
Luperto et al. Predicting performance of SLAM algorithms
Hamad et al. Path Planning of Mobile Robot Based on Modification of Vector Field Histogram using Neuro-Fuzzy Algorithm.
Liu et al. Action selection for active and cooperative global localization based on localizability estimation
US10572802B1 (en) Learning state-dependent sensor measurement models for localization
Seçkin Adaptive Positioning System Design Using AR Markers and Machine Learning for Mobile Robot
Pedrosa et al. Online SLAM based on a fast scan-matching algorithm
Oliveira et al. Augmented vector field navigation cost mapping using inertial sensors
Han et al. A novel navigation scheme in dynamic environment using layered costmap
Tsai et al. Cooperative localization using fuzzy decentralized extended information filtering for homogenous omnidirectional mobile multi-robot system
Marchant et al. Cooperative global tracking using multiple sensors
Xu et al. Active SLAM in 3D deformable environments
CN114184199B (en) Robot navigation method, apparatus, electronic device and storage medium
US20240027226A1 (en) Method for determining objects in an environment for slam
Paneru et al. Autonomous navigation of a mobile robot in indoor environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181116

R150 Certificate of patent or registration of utility model

Ref document number: 6438354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250