JP2021096703A - Travel control device - Google Patents

Travel control device Download PDF

Info

Publication number
JP2021096703A
JP2021096703A JP2019228460A JP2019228460A JP2021096703A JP 2021096703 A JP2021096703 A JP 2021096703A JP 2019228460 A JP2019228460 A JP 2019228460A JP 2019228460 A JP2019228460 A JP 2019228460A JP 2021096703 A JP2021096703 A JP 2021096703A
Authority
JP
Japan
Prior art keywords
self
unit
moving body
estimation accuracy
laser sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019228460A
Other languages
Japanese (ja)
Other versions
JP7347194B2 (en
Inventor
祐太 井上
Yuta Inoue
祐太 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2019228460A priority Critical patent/JP7347194B2/en
Publication of JP2021096703A publication Critical patent/JP2021096703A/en
Application granted granted Critical
Publication of JP7347194B2 publication Critical patent/JP7347194B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a travel control device that is able to improve estimation accuracy of a self-position of a moving body.SOLUTION: In at least one of the detection range of a laser sensor 3A and the detection range of a laser sensor 3B, there may be various causes of decreasing estimation accuracy of a self-position. To counteract this, a position estimation unit 11 acquires information about a decrease in estimation accuracy of a self-position and, based on the information, adjusts a use mode for a detection result from the laser sensor 3A and a use mode for a detection result from the laser sensor 3B. Thus, the position estimation unit 11 can adjust the use mode for the detection result from the laser sensor 3A and the detection result from the laser sensor 3B so as to inhibit a decrease in estimation accuracy of the self-position.SELECTED DRAWING: Figure 1

Description

本発明は、走行制御装置に関する。 The present invention relates to a traveling control device.

従来の走行制御装置としては、例えば特許文献1に記載されているような技術が知られている。特許文献1に記載の走行制御装置は、周囲の物体を検出して、その検出結果に基づいて移動体の自己位置を推定しながら移動体を走行させる。この走行制御装置は、レーザセンサなどの検出部で周囲の物体を検出することによって、移動体の自己位置を推定している。 As a conventional traveling control device, for example, a technique described in Patent Document 1 is known. The travel control device described in Patent Document 1 detects a surrounding object and travels the moving body while estimating the self-position of the moving body based on the detection result. This travel control device estimates the self-position of the moving body by detecting surrounding objects with a detection unit such as a laser sensor.

特開2011−253414号公報Japanese Unexamined Patent Publication No. 2011-253414

ところで、上記従来技術のように、周囲の物体を検出して、その検出結果に基づいて移動体の自己位置を推定しながら移動体を走行させる走行制御装置では、検出した物体と地図データに登録された物体とを照らし合わせる。しかし、移動体の周囲には、自己位置の推定精度を低下させるような様々な原因が存在する。一例としては、移動体の周囲には、地図データに登録された物体の他、人や他の移動体など、地図データに登録されていない物体が存在する場合がある。この場合、走行制御装置は、人や移動体などを地図データに登録された物体であると誤認識する。これにより、走行制御装置の移動体の自己位置の推定精度が低下する場合がある。 By the way, as in the above-mentioned prior art, in a traveling control device that detects a surrounding object and travels the moving object while estimating the self-position of the moving object based on the detection result, it is registered in the detected object and map data. Compare with the object that was made. However, there are various causes around the moving body that reduce the accuracy of estimating the self-position. As an example, in addition to an object registered in the map data, there may be an object not registered in the map data such as a person or another moving object around the moving object. In this case, the travel control device erroneously recognizes a person, a moving body, or the like as an object registered in the map data. As a result, the accuracy of estimating the self-position of the moving body of the traveling control device may decrease.

本発明の目的は、移動体の自己位置の推定精度を向上できる走行制御装置を提供することである。 An object of the present invention is to provide a traveling control device capable of improving the estimation accuracy of the self-position of a moving body.

本発明の一態様は、移動体を走行させる走行制御装置において、移動体の周囲の物体を検出する第1の検出部及び第2の検出部と、第1の検出部及び第2の検出部の少なくとも一方による検出結果、及び予め取得された地図データに基づいて、移動体の自己位置を推定する位置推定部と、位置推定部により推定された移動体の自己位置に基づいて、移動体の走行を制御する走行制御部と、を備え、位置推定部は、自己位置の推定精度の低下に関する情報を取得し、情報に基づいて、第1の検出部による第1の検出結果、及び第2の検出部による第2の検出結果の使用態様を調整する。 One aspect of the present invention is a travel control device for traveling a moving body, in which a first detection unit and a second detection unit for detecting an object around the moving body, and a first detection unit and a second detection unit are used. Based on the detection result by at least one of the above and the map data acquired in advance, the position estimation unit that estimates the self-position of the moving body and the self-position of the moving body estimated by the position estimation unit. A traveling control unit for controlling traveling is provided, and the position estimation unit acquires information on a decrease in the estimation accuracy of the self-position, and based on the information, the first detection result by the first detection unit and the second detection unit. The usage mode of the second detection result by the detection unit of is adjusted.

このような走行制御装置においては、位置推定部は、第1の検出部及び第2の検出部の少なくとも一方による検出結果、及び予め取得された地図データに基づいて、移動体の自己位置を推定する。これにより、位置推定部は、検出部で検出された物体と、地図データに登録された物体と、を照らし合わせることによって、移動体の自己位置を推定することができる。ここで、第1の検出部の検出範囲、及び第2の検出部の検出範囲の少なくとも一方において、自己位置の推定精度を低下させるような様々な原因が存在する場合がある。これに対し、位置推定部は、自己位置の推定精度の低下に関する情報を取得し、情報に基づいて、第1の検出部による第1の検出結果、及び第2の検出部による第2の検出結果の使用態様を調整する。これにより、位置推定部は、自己位置の推定精度の低下を抑制するように、第1の検出部による第1の検出結果、及び第2の検出部による第2の検出結果の使用態様を調整することができる。以上より、走行制御装置は、移動体の自己位置の推定精度を向上することができる。 In such a traveling control device, the position estimation unit estimates the self-position of the moving body based on the detection result by at least one of the first detection unit and the second detection unit and the map data acquired in advance. To do. As a result, the position estimation unit can estimate the self-position of the moving body by comparing the object detected by the detection unit with the object registered in the map data. Here, in at least one of the detection range of the first detection unit and the detection range of the second detection unit, there may be various causes that reduce the estimation accuracy of the self-position. On the other hand, the position estimation unit acquires information on the decrease in the estimation accuracy of the self-position, and based on the information, the first detection result by the first detection unit and the second detection by the second detection unit. Adjust the usage of the results. As a result, the position estimation unit adjusts the usage mode of the first detection result by the first detection unit and the second detection result by the second detection unit so as to suppress the decrease in the estimation accuracy of the self-position. can do. From the above, the travel control device can improve the estimation accuracy of the self-position of the moving body.

位置推定部は、第1の検出結果及び第2の検出結果の一方の検出結果を使用して自己位置の推定を行い、一方の検出結果に対して、推定精度の低下に関する情報を取得した場合、他方の検出結果に切り替えて自己位置の推定を行ってよい。これにより、自己位置の推定精度の低下を抑制しつつ、第1の検出部及び第2の検出部の一方だけを用いるため、処理の負荷を低減できる。 When the position estimation unit estimates its own position using one of the first detection result and the second detection result, and acquires information on a decrease in estimation accuracy for the other detection result. , The self-position may be estimated by switching to the other detection result. As a result, since only one of the first detection unit and the second detection unit is used while suppressing a decrease in the estimation accuracy of the self-position, the processing load can be reduced.

位置推定部は、推定精度の低下に関する情報として、推定精度が低下した旨の判定結果を取得してよい。これにより、推定精度が実際に低下したことに基づいて、検出部の使用態様の調整を行う事ができる。 The position estimation unit may acquire a determination result indicating that the estimation accuracy has decreased as information regarding the decrease in the estimation accuracy. As a result, it is possible to adjust the usage mode of the detection unit based on the fact that the estimation accuracy is actually lowered.

位置推定部は、推定精度の低下に関する情報として、移動体の周囲に推定精度を低下させる障害物が存在することを示す情報を取得してよい。位置推定部は、実際に推定精度が低下したことを演算しなくとも、障害物の存在に基づいて、速やかに検出部の使用態様の調整を行うことができる。 The position estimation unit may acquire information indicating that there is an obstacle that reduces the estimation accuracy around the moving body as information regarding the decrease in the estimation accuracy. The position estimation unit can quickly adjust the usage mode of the detection unit based on the presence of an obstacle without calculating that the estimation accuracy has actually decreased.

位置推定部は、推定精度の低下に関する情報として、推定精度が低下する位置を移動体が通過したことを示す情報を取得してよい。位置推定部は、実際に推定精度が低下したことを演算しなくとも、移動体の通過位置に基づいて、速やかに検出部の使用態様の調整を行うことができる。 The position estimation unit may acquire information indicating that the moving body has passed the position where the estimation accuracy is lowered as the information regarding the deterioration of the estimation accuracy. The position estimation unit can quickly adjust the usage mode of the detection unit based on the passing position of the moving body without calculating that the estimation accuracy is actually lowered.

本発明によれば、移動体の自己位置の推定精度を向上できる。 According to the present invention, the accuracy of estimating the self-position of the moving body can be improved.

本発明の一実施形態に係る走行制御装置を示す概略構成図である。It is a schematic block diagram which shows the traveling control apparatus which concerns on one Embodiment of this invention. 倉庫内や工場内で移動体が走行を行う様子を示す概念図である。It is a conceptual diagram which shows how a moving body runs in a warehouse or a factory. 位置推定部が検出結果に基づいて自己位置を推定する際の様子を示す概念図である。It is a conceptual diagram which shows the state when a position estimation part estimates a self-position based on a detection result. 位置推定部による自己位置の推定処理の内容を示すフローチャートである。It is a flowchart which shows the content of self-position estimation processing by a position estimation part. 変形例に係る走行制御装置の位置推定部が検出結果に基づいて自己位置を推定する際の様子を示す概念図である。It is a conceptual diagram which shows the state when the position estimation part of the traveling control device which concerns on a modification, estimates self-position based on a detection result. 変形例に係る走行制御装置の位置推定部による自己位置の推定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the self-position estimation process by the position estimation part of the traveling control device which concerns on a modification. 変形例に係る走行制御装置の位置推定部が検出結果に基づいて自己位置を推定する際の様子を示す概念図である。It is a conceptual diagram which shows the state when the position estimation part of the traveling control device which concerns on a modification, estimates self-position based on a detection result. 変形例に係る走行制御装置の位置推定部による自己位置の推定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the self-position estimation process by the position estimation part of the traveling control device which concerns on a modification. 変形例に係る走行制御装置の位置推定部が検出結果に基づいて自己位置を推定する際の様子を示す概念図である。It is a conceptual diagram which shows the state when the position estimation part of the traveling control device which concerns on a modification, estimates self-position based on a detection result. 変形例に係る走行制御装置の位置推定部による自己位置の推定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the self-position estimation process by the position estimation part of the traveling control device which concerns on a modification.

以下、本発明の実施形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る走行制御装置1を示す概略構成図である。図1において、本実施形態の走行制御装置1は、図2に示されるように、移動体2を自動的に走行させる装置である。なお、図2は、倉庫や工場などの構造物内で移動体2が走行する様子を示す概念図である。移動体2は、例えばフォークリフト、無人搬送車などである。走行制御装置1は、移動体2に搭載されている。 FIG. 1 is a schematic configuration diagram showing a traveling control device 1 according to an embodiment of the present invention. In FIG. 1, the travel control device 1 of the present embodiment is a device that automatically travels the moving body 2 as shown in FIG. Note that FIG. 2 is a conceptual diagram showing how the moving body 2 travels in a structure such as a warehouse or a factory. The moving body 2 is, for example, a forklift, an automatic guided vehicle, or the like. The travel control device 1 is mounted on the moving body 2.

走行制御装置1は、レーザセンサ3A(第1の検出部)と、レーザセンサ3B(第2の検出部)と、駆動部4と、コントローラ5とを備えている。 The travel control device 1 includes a laser sensor 3A (first detection unit), a laser sensor 3B (second detection unit), a drive unit 4, and a controller 5.

レーザセンサ3A,3Bは、移動体2の周囲の物体を検出する。また、レーザセンサ3A,3Bは、検出した物体との位置関係を計測する。レーザセンサ3A,3Bは、移動体2の周囲にレーザを照射し、レーザの反射光を受光することにより、レーザセンサ3A,3Bから移動体2の周囲の物体を検出し、当該物体までの距離を計測する。レーザセンサ3A,3Bとしては、例えばレーザレンジファインダが用いられる。使用するレーザとしては、2Dレーザでもよいし、3Dレーザでもよい。 The laser sensors 3A and 3B detect an object around the moving body 2. Further, the laser sensors 3A and 3B measure the positional relationship with the detected object. The laser sensors 3A and 3B irradiate the periphery of the moving body 2 with a laser and receive the reflected light of the laser to detect an object around the moving body 2 from the laser sensors 3A and 3B, and the distance to the object. To measure. As the laser sensors 3A and 3B, for example, a laser range finder is used. The laser to be used may be a 2D laser or a 3D laser.

レーザセンサ3A,3Bは、互いに異なる向きを向くように設けられている。これにより、レーザセンサ3Aの検出範囲とレーザセンサ3Bの検出範囲とは、互いに異なる範囲に設定される。例えば、図2に示すように、レーザセンサ3Aは、移動体2の前側に設けられている。また、レーザセンサ3Aは、移動体2の前方へ向かってレーザLを扇状に照射する。具体的には、レーザセンサ3Aは、移動体2の前方直進方向を中心した規定の角度範囲にレーザLを照射する。これにより、レーザセンサ3Aは、移動体2の前方の所定の角度範囲を検出範囲として、検出を行うことができる。レーザセンサ3Bは、移動体2の後側に設けられている。レーザセンサ3Bは、移動体2の後方へ向かってレーザLを扇状に照射する。具体的には、レーザセンサ3Bは、移動体2の後方直進方向を中心した規定の角度範囲にレーザLを照射する。これにより、レーザセンサ3Bは、移動体2の後方の所定の角度範囲を検出範囲として、検出を行うことができる。 The laser sensors 3A and 3B are provided so as to face different directions from each other. As a result, the detection range of the laser sensor 3A and the detection range of the laser sensor 3B are set to different ranges. For example, as shown in FIG. 2, the laser sensor 3A is provided on the front side of the moving body 2. Further, the laser sensor 3A irradiates the laser L in a fan shape toward the front of the moving body 2. Specifically, the laser sensor 3A irradiates the laser L in a predetermined angle range centered on the forward straight direction of the moving body 2. As a result, the laser sensor 3A can perform detection with a predetermined angle range in front of the moving body 2 as a detection range. The laser sensor 3B is provided on the rear side of the moving body 2. The laser sensor 3B irradiates the laser L in a fan shape toward the rear of the moving body 2. Specifically, the laser sensor 3B irradiates the laser L in a predetermined angle range centered on the backward straight direction of the moving body 2. As a result, the laser sensor 3B can perform detection with a predetermined angle range behind the moving body 2 as a detection range.

レーザセンサ3A,3Bから照射されたレーザLは物体20に当たり、その物体20で反射したレーザ(反射光)がレーザセンサ3A,3Bで受光される。物体20には、壁26や柱27等といった静止物体のように、自己位置を示唆する特徴的な構造物である特徴物21が含まれる。このような特徴物21は、地図データに登録されている。また、物体20には、作業者などの人や他の移動体等といった動的物体22が含まれる(図3参照)。このような動的物体22は、地図データに登録されておらず、自己位置の推定を行う上では、障害物となる。また、動的物体の他、一時的に配置された荷物や仮設物などの静止物体も障害物となる場合がある。 The laser L emitted from the laser sensors 3A and 3B hits the object 20, and the laser (reflected light) reflected by the object 20 is received by the laser sensors 3A and 3B. The object 20 includes a feature 21 which is a characteristic structure suggesting a self-position, such as a stationary object such as a wall 26 or a pillar 27. Such a feature 21 is registered in the map data. Further, the object 20 includes a dynamic object 22 such as a person such as a worker or another moving object (see FIG. 3). Such a dynamic object 22 is not registered in the map data and becomes an obstacle in estimating the self-position. In addition to dynamic objects, stationary objects such as temporarily placed luggage and temporary objects may also be obstacles.

駆動部4は、特に図示はしないが、移動体2の走行輪を回転させる走行モータと、移動体2の操舵輪を転舵させる操舵モータとを有している。 Although not particularly shown, the drive unit 4 includes a traveling motor that rotates the traveling wheels of the moving body 2 and a steering motor that steers the steering wheels of the moving body 2.

コントローラ5は、CPU、RAM、ROM及び入出力インターフェース等により構成されている。コントローラ5は、位置推定部11と、走行制御部12と、記憶部13と、を有している。 The controller 5 is composed of a CPU, RAM, ROM, an input / output interface, and the like. The controller 5 includes a position estimation unit 11, a travel control unit 12, and a storage unit 13.

位置推定部11は、レーザセンサ3A,3Bによる検出結果、及び予め取得された地図データに基づいて、移動体2の自己位置を推定する。位置推定部11は、例えばSLAM(simultaneous localization andmapping)手法を用いて、移動体2の自己位置を推定する。SLAMは、センサデータ及び地図データを使って自己位置推定を行う自己位置推定技術である。SLAMは、自己位置推定と環境地図の作成とを同時に行う。具体的には、位置推定部11は、レーザセンサ3により検出された物体20までの距離データと移動体2の周囲環境の地図データとをマッチングさせて、移動体2の自己位置の推定演算を行う。 The position estimation unit 11 estimates the self-position of the moving body 2 based on the detection results of the laser sensors 3A and 3B and the map data acquired in advance. The position estimation unit 11 estimates the self-position of the moving body 2 by using, for example, a SLAM (simultaneous localization and mapping) method. SLAM is a self-position estimation technology that performs self-position estimation using sensor data and map data. SLAM simultaneously estimates the self-position and creates an environmental map. Specifically, the position estimation unit 11 matches the distance data to the object 20 detected by the laser sensor 3 with the map data of the surrounding environment of the moving body 2 to estimate the self-position of the moving body 2. Do.

位置推定部11は、自己位置の推定精度の低下に関する情報を取得し、当該情報に基づいて、レーザセンサ3Aによる検出結果(第1の検出結果)、及びレーザセンサ3Bによる検出結果(第2の検出結果)の使用態様を調整する。自己位置の推定精度の低下に関する情報には、自己位置の推定精度が低下したことを示す情報、及び自己位置の推定精度を低下させる原因となり得る事項を示す情報が含まれる。自己位置の推定精度が低下したことを示す情報とは、検出結果と地図データとのマッチング度を示す指標などのように、推定精度の低下を定量的に示すことのできる情報である。自己位置の推定精度を低下させる原因となり得る事項を示す情報とは、移動体2の周囲に推定精度の低下の原因となるような障害物の存在を示す情報や、移動体2の周囲で推定精度の低下の原因となるような状態が発生していることを示す情報である。障害物としては、人や他の移動体などの動的物体、及び荷物や仮設物などの静的物体が挙げられる。推定精度の低下の原因となるような状態としては、特徴物21の位置変更などが挙げられる。本実施形態では、位置推定部11は、推定精度の低下に関する情報として、移動体2の周囲に推定精度を低下させる障害物が存在することを示す情報、及び特徴物21が位置変更されたことを示す情報を取得する。 The position estimation unit 11 acquires information on the decrease in the estimation accuracy of the self-position, and based on the information, the detection result by the laser sensor 3A (first detection result) and the detection result by the laser sensor 3B (second detection result). The usage mode of the detection result) is adjusted. The information regarding the decrease in the estimation accuracy of the self-position includes information indicating that the estimation accuracy of the self-position has decreased and information indicating items that may cause the estimation accuracy of the self-position to decrease. The information indicating that the estimation accuracy of the self-position has decreased is information that can quantitatively indicate the decrease in the estimation accuracy, such as an index indicating the degree of matching between the detection result and the map data. Information indicating items that may cause a decrease in the estimation accuracy of the self-position includes information indicating the existence of an obstacle that causes a decrease in the estimation accuracy around the moving body 2 and estimation around the moving body 2. This is information indicating that a state that causes a decrease in accuracy has occurred. Obstacles include dynamic objects such as people and other moving objects, and static objects such as luggage and temporary objects. Examples of the state that causes a decrease in the estimation accuracy include a change in the position of the feature 21. In the present embodiment, the position estimation unit 11 has changed the position of the information indicating that there is an obstacle that reduces the estimation accuracy around the moving body 2 and the feature 21 as the information regarding the decrease in the estimation accuracy. Get the information that indicates.

レーザセンサ3Aによる検出結果(第1の検出結果)、及びレーザセンサ3Bによる検出結果(第2の検出結果)の使用態様を調整する。使用態様を調整することには、一方のレーザセンサを用いて自己位置の推定をしている状態から、他方のレーザセンサへ切り替えて自己位置の推定を行うことが含まれる。また、使用態様を調整することには、両方のレーザセンサ3A,3Bで検出を行っている状態において、一方の検出結果を採用して自己位置を推定し、他方の検出結果を用いないことが含まれる。また、使用態様を調整することには、一方のレーザセンサを用いて自己位置の推定をしている状態から、両方のレーザセンサを用いて自己位置の推定を行うことも含まれる。本実施形態においては、位置推定部11は、レーザセンサ3Aによる検出結果及びレーザセンサ3Bによる検出結果の一方の検出結果を使用して自己位置の推定を行い、一方の検出結果に対して、推定精度の低下に関する情報を取得した場合、他方の検出結果に切り替えて自己位置の推定を行う。 The usage mode of the detection result by the laser sensor 3A (first detection result) and the detection result by the laser sensor 3B (second detection result) is adjusted. Adjusting the usage mode includes switching from a state in which one laser sensor is used to estimate the self-position to the other laser sensor to estimate the self-position. Further, in order to adjust the usage mode, in a state where both laser sensors 3A and 3B are performing detection, one of the detection results is adopted to estimate the self-position, and the other detection result is not used. included. In addition, adjusting the usage mode also includes estimating the self-position using both laser sensors from the state where the self-position is estimated using one of the laser sensors. In the present embodiment, the position estimation unit 11 estimates the self-position using one of the detection results of the laser sensor 3A and the detection result of the laser sensor 3B, and estimates for the one detection result. When information on the decrease in accuracy is acquired, the self-position is estimated by switching to the other detection result.

例えば、図3に示す例では、移動体2の前方に物体20A〜20Dが存在している。このうち、物体20A,20C,20Dが特徴物21であり、物体20Bが動的物体22である。位置推定部11は、物体20A〜20Dのうち、動的物体22である物体20Bを障害物として特定する。また、特徴物21である物体20Cは、地図データから位置が変更されていることを特定する。これより、位置推定部11は、移動体2の前方には推定精度を低下させる障害物が存在していることや、特徴物21が位置変更されたことを示す情報を取得する。位置推定部11は、前側のレーザセンサ3Aから後側のレーザセンサ3Bに切り替えて、自己位置の推定を行う。具体的に、位置推定部11は、情報取得部14と、推定精度確認部16と、演算部17と、を備える。 For example, in the example shown in FIG. 3, the objects 20A to 20D exist in front of the moving body 2. Of these, the objects 20A, 20C, and 20D are the feature objects 21, and the object 20B is the dynamic object 22. The position estimation unit 11 identifies the object 20B, which is the dynamic object 22, as an obstacle among the objects 20A to 20D. Further, the object 20C, which is the feature 21, identifies that the position has been changed from the map data. From this, the position estimation unit 11 acquires information indicating that an obstacle that lowers the estimation accuracy exists in front of the moving body 2 and that the feature 21 has been repositioned. The position estimation unit 11 switches from the laser sensor 3A on the front side to the laser sensor 3B on the rear side to estimate its own position. Specifically, the position estimation unit 11 includes an information acquisition unit 14, an estimation accuracy confirmation unit 16, and a calculation unit 17.

情報取得部14は、自己位置の推定に必要な各種情報を所得する。情報取得部14は、レーザセンサ3A,3Bによる検出結果を取得する。情報取得部14は、前側のレーザセンサ3Aが起動しているときは、当該レーザセンサ3Aによる検出結果を取得する。情報取得部14は、後側のレーザセンサ3Bが起動しているときは、当該レーザセンサ3Bによる検出結果を取得する。図3(a)に示すように、レーザLが物体20A〜20Dに照射されることで、レーザセンサ3Aは、点群PA〜PDの位置情報を取得する。これによって、レーザセンサ3Aは、点群PA〜PDの位置情報に基づいて物体20A〜20Dを検出すると共に、物体20A〜20Dの移動体2との位置関係などを取得する。情報取得部14は、これらのレーザセンサ3の検出結果を取得する。なお、図3では、レーザLのうち、各物体のエッジ等に照射されるもののみが示されている。 The information acquisition unit 14 receives various information necessary for estimating its own position. The information acquisition unit 14 acquires the detection results of the laser sensors 3A and 3B. When the laser sensor 3A on the front side is activated, the information acquisition unit 14 acquires the detection result by the laser sensor 3A. When the laser sensor 3B on the rear side is activated, the information acquisition unit 14 acquires the detection result by the laser sensor 3B. As shown in FIG. 3A, when the laser L irradiates the objects 20A to 20D, the laser sensor 3A acquires the position information of the point clouds PA to PD. As a result, the laser sensor 3A detects the objects 20A to 20D based on the position information of the point clouds PA to PD, and acquires the positional relationship of the objects 20A to 20D with the moving body 2. The information acquisition unit 14 acquires the detection results of these laser sensors 3. Note that FIG. 3 shows only the laser L that irradiates the edges and the like of each object.

推定精度確認部16は、レーザセンサ3A,3Bによる検出結果に基づいて自己位置の推定を行った場合の推定精度を確認する。推定精度確認部16は、自己位置の推定精度の低下に関する情報を取得する。 The estimation accuracy confirmation unit 16 confirms the estimation accuracy when the self-position is estimated based on the detection results of the laser sensors 3A and 3B. The estimation accuracy confirmation unit 16 acquires information regarding a decrease in the estimation accuracy of the self-position.

具体的に、推定精度確認部16は、レーザセンサ3Aによって検出された物体の中から、障害物を特定する。例えば、推定精度確認部16は、点群PA〜PDの位置を時系列で把握することによって、点群PA〜PDの移動方向が変化しているかどうかを把握することができる。特徴物21は静止しているため、当該特徴物21に対応する点群PA,PC,PDは、移動体2の移動に従った移動方向へ相対移動する。従って、推定精度確認部16は、点群PA,PC,PDに対応する物体20A,20C,20Dを自己位置の推定に必要な特徴物21として特定する。これに対し、動的物体22は移動しているため、当該動的物体22に対応する点群PBは、移動体2の移動とは異なる方向へ相対移動する。従って、推定精度確認部16は、点群PBに対応する物体20Bを障害物である動的物体22として特定する。このように、推定精度確認部16は、前方に障害物が存在するという情報を、自己位置の推定精度が低下し得る情報として取得する。 Specifically, the estimation accuracy confirmation unit 16 identifies an obstacle from the objects detected by the laser sensor 3A. For example, the estimation accuracy confirmation unit 16 can grasp whether or not the moving directions of the point clouds PA to PD are changing by grasping the positions of the point clouds PA to PD in time series. Since the feature 21 is stationary, the point clouds PA, PC, and PD corresponding to the feature 21 move relative to each other in the moving direction according to the movement of the moving body 2. Therefore, the estimation accuracy confirmation unit 16 identifies the objects 20A, 20C, and 20D corresponding to the point clouds PA, PC, and PD as the feature 21 required for estimating the self-position. On the other hand, since the dynamic object 22 is moving, the point cloud PB corresponding to the dynamic object 22 moves relatively in a direction different from the movement of the moving body 2. Therefore, the estimation accuracy confirmation unit 16 identifies the object 20B corresponding to the point cloud PB as the dynamic object 22 which is an obstacle. In this way, the estimation accuracy confirmation unit 16 acquires the information that an obstacle exists in front of the estimation accuracy as information that the estimation accuracy of the self-position may decrease.

また、推定精度確認部16は、レーザセンサ3Aによって検出された特徴物21としての物体20A,20C,20Dのうち、物体20Cが地図データに登録されている位置から移動したものとして特定する。推定精度確認部16は、点群PCから割り出される物体20Cの位置と、地図データにおける物体20Cの位置(図3(a)において仮想線で示す位置)とを比較することで、物体20Cが登録時の位置から移動していることを特定する。このように、推定精度確認部16は、前方に地図データに登録されている位置から移動した特徴物21が存在するという情報を、自己位置の推定精度が低下し得る情報として取得する。 Further, the estimation accuracy confirmation unit 16 specifies that the object 20C has moved from the position registered in the map data among the objects 20A, 20C, and 20D as the feature 21 detected by the laser sensor 3A. The estimation accuracy confirmation unit 16 compares the position of the object 20C determined from the point cloud PC with the position of the object 20C in the map data (the position indicated by the virtual line in FIG. 3A), thereby causing the object 20C to move. Identify that you are moving from the position at the time of registration. In this way, the estimation accuracy confirmation unit 16 acquires the information that the feature 21 moved from the position registered in the map data is present ahead as information that the estimation accuracy of the self-position can be lowered.

演算部17は、レーザセンサ3A,3Bの検出結果から、移動体2の自己位置を推定するための演算を行う。また、演算部17は、自己位置の推定精度の低下に関する情報に基づいて、レーザセンサ3Aによる検出結果、及びレーザセンサ3Bによる検出結果の使用態様を調整する。演算部17は、前側のレーザセンサ3Aを用いているときに自己位置の推定精度の低下に関する情報が取得された場合、後側のレーザセンサ3Bに切り替えて自己位置の推定を行う。前側のレーザセンサ3Aから後側のレーザセンサ3Bへ切り替えた場合、演算部17は、図3(b)に示すように、後方に存在する物体20E,20Fに対応する点群PE,PFを用いて、自己位置を推定する。なお、推定精度確認部16は、後側のレーザセンサ3Bを用いているときに自己位置の推定精度の低下に関する情報が取得された場合、前側のレーザセンサ3Aに切り替えて自己位置の推定を行う。 The calculation unit 17 performs a calculation for estimating the self-position of the moving body 2 from the detection results of the laser sensors 3A and 3B. Further, the calculation unit 17 adjusts the usage mode of the detection result by the laser sensor 3A and the detection result by the laser sensor 3B based on the information regarding the decrease in the estimation accuracy of the self-position. When the calculation unit 17 acquires information on the decrease in the estimation accuracy of the self-position while using the front laser sensor 3A, the calculation unit 17 switches to the rear laser sensor 3B to estimate the self-position. When switching from the front laser sensor 3A to the rear laser sensor 3B, the calculation unit 17 uses the point clouds PE and PF corresponding to the rear objects 20E and 20F as shown in FIG. 3 (b). To estimate the self-position. When the estimation accuracy confirmation unit 16 acquires information on the decrease in the estimation accuracy of the self-position while using the rear laser sensor 3B, the estimation accuracy confirmation unit 16 switches to the front laser sensor 3A to estimate the self-position. ..

具体的には、演算部17は、点群PE,PFと、記憶部13に記憶された地図データと、を用いて移動体2の自己位置の推定演算を行う。演算部17による自己位置推定は、SLAM手法を用いて行われてよい。また、演算部17は、点群PE,PFから物体20E,20Fを検出し、物体と移動体との距離データと移動体周囲環境の地図データとをマッチングすることで自己位置を推定してよい。 Specifically, the calculation unit 17 performs an estimation calculation of the self-position of the moving body 2 using the point clouds PE and PF and the map data stored in the storage unit 13. The self-position estimation by the calculation unit 17 may be performed by using the SLAM method. Further, the calculation unit 17 may detect the objects 20E and 20F from the point clouds PE and PF and estimate the self-position by matching the distance data between the object and the moving body and the map data of the environment around the moving body. ..

走行制御部12は、位置推定部11により推定された移動体2の自己位置に基づいて、移動体2の走行を制御する。走行制御部12は、自己位置と目標位置とを比較することによって、移動体2の移動方向や移動距離を演算する。また、走行制御部12は、当該演算結果に基づいて、移動体2が目標位置へ向かうように駆動部4へ制御信号を出力する。記憶部13は、各種データを記憶する。記憶部13は、地図データを記憶する。 The travel control unit 12 controls the travel of the moving body 2 based on the self-position of the moving body 2 estimated by the position estimation unit 11. The travel control unit 12 calculates the movement direction and the movement distance of the moving body 2 by comparing the self-position with the target position. Further, the travel control unit 12 outputs a control signal to the drive unit 4 so that the moving body 2 heads for the target position based on the calculation result. The storage unit 13 stores various data. The storage unit 13 stores map data.

次に、図4を参照して、位置推定部11による移動体2の自己位置の推定処理について説明する。図4は、位置推定部11による自己位置の推定処理の内容を示すフローチャートである。ここでは、前側のレーザセンサ3Aで移動体2の前方の検出結果を用いて自己位置を推定している状態から、処理をスタートするものとする。まず、位置推定部11の情報取得部14は、レーザセンサ3Aによる検出結果を取得する(ステップS100)。図3(a)に示す例においては、情報取得部14は、点群PA〜PDに基づいて検出された物体20A〜20Dの検出結果を取得する。 Next, with reference to FIG. 4, the self-position estimation process of the moving body 2 by the position estimation unit 11 will be described. FIG. 4 is a flowchart showing the contents of the self-position estimation process by the position estimation unit 11. Here, it is assumed that the process is started from the state where the self-position is estimated by the laser sensor 3A on the front side using the detection result in front of the moving body 2. First, the information acquisition unit 14 of the position estimation unit 11 acquires the detection result by the laser sensor 3A (step S100). In the example shown in FIG. 3A, the information acquisition unit 14 acquires the detection results of the objects 20A to 20D detected based on the point clouds PA to PD.

次に、位置推定部11の推定精度確認部16は、レーザセンサ3によって検出された物体の中から、障害物を特定する(ステップS110)。図3(a)に示す例においては、推定精度確認部16は、物体20Bを障害物として特定する。次に、推定精度確認部16は、レーザセンサ3の検出範囲に障害物が存在するか否かを判定する(ステップS120)。 Next, the estimation accuracy confirmation unit 16 of the position estimation unit 11 identifies an obstacle from the objects detected by the laser sensor 3 (step S110). In the example shown in FIG. 3A, the estimation accuracy confirmation unit 16 identifies the object 20B as an obstacle. Next, the estimation accuracy confirmation unit 16 determines whether or not an obstacle exists in the detection range of the laser sensor 3 (step S120).

ステップS120において障害物が存在すると判定された場合、演算部17は、前側のレーザセンサ3Aから後側のレーザセンサ3Bに切り替えて、当該レーザセンサ3Bによる検出結果に基づいて、移動体2の自己位置を推定する(ステップS130)。図3に示す例においては、演算部17は、後方の物体20E,20Fに対応する点群PE,PFを用いて、移動体2の自己位置を推定する。ステップSS130の処理が終了すると、図4に示す処理が終了する。なお、後側のレーザセンサ3Bで自己位置の推定をしているときに障害物が特定された場合、演算部17は、後側のレーザセンサ3Bから前側のレーザセンサ3Aに切り替えて、当該レーザセンサ3Aによる検出結果に基づいて、移動体2の自己位置を推定する。 When it is determined in step S120 that an obstacle exists, the calculation unit 17 switches from the laser sensor 3A on the front side to the laser sensor 3B on the rear side, and based on the detection result by the laser sensor 3B, the self of the moving body 2. The position is estimated (step S130). In the example shown in FIG. 3, the calculation unit 17 estimates the self-position of the moving body 2 by using the point clouds PE and PF corresponding to the rear objects 20E and 20F. When the process of step SS130 is completed, the process shown in FIG. 4 is completed. If an obstacle is identified while the rear laser sensor 3B is estimating the self-position, the calculation unit 17 switches from the rear laser sensor 3B to the front laser sensor 3A and switches the laser. The self-position of the moving body 2 is estimated based on the detection result by the sensor 3A.

ステップS120において障害物が前方に存在しないと判定された場合、演算部17は、切り替えを行うことなくレーザセンサ3Aによる検出結果に基づいて、移動体2の自己位置を推定する(ステップS140)。ステップS140の処理が終了すると、図4に示す処理が終了する。 When it is determined in step S120 that the obstacle does not exist in front, the calculation unit 17 estimates the self-position of the moving body 2 based on the detection result by the laser sensor 3A without switching (step S140). When the process of step S140 is completed, the process shown in FIG. 4 is completed.

次に、本実施形態に係る走行制御装置1の作用・効果について説明する。 Next, the operation / effect of the traveling control device 1 according to the present embodiment will be described.

まず、比較例に係る走行制御装置について説明する。比較例に係る走行制御装置は、前方の物体を検出して、その検出結果に基づいて移動体の自己位置を推定しながら移動体を走行させる。このとき、走行制御装置は、前方に検出された全ての物体と地図データに登録された物体とを照らし合わせる。しかし、移動体の周囲には、地図データに登録された物体の他、人や他の移動体など、地図データに登録されていない物体が存在する場合がある。この場合、比較例に係る走行制御装置は、人や移動体などを地図データに登録された物体であると誤認識する。例えば、走行制御装置が、他の移動体を壁と誤認識した場合、自己位置と他の移動体との間の距離を、自己位置と壁との間の距離と誤って推定してしまう。これにより、走行制御装置の移動体の自己位置の推定精度が低下する場合がある。 First, a traveling control device according to a comparative example will be described. The travel control device according to the comparative example detects an object in front and travels the moving body while estimating the self-position of the moving body based on the detection result. At this time, the travel control device compares all the objects detected ahead with the objects registered in the map data. However, in addition to the objects registered in the map data, there may be objects such as people and other moving objects that are not registered in the map data around the moving body. In this case, the travel control device according to the comparative example erroneously recognizes a person, a moving body, or the like as an object registered in the map data. For example, when the traveling control device mistakenly recognizes another moving body as a wall, the distance between the self-position and the other moving body is erroneously estimated as the distance between the self-position and the wall. As a result, the accuracy of estimating the self-position of the moving body of the traveling control device may decrease.

これに対し、本実施形態に係る走行制御装置1においては、位置推定部11は、レーザセンサ3A,3Bの少なくとも一方による検出結果、及び予め取得された地図データに基づいて、移動体2の自己位置を推定する。これにより、位置推定部11は、レーザセンサ3A,3Bで検出された物体と、地図データに登録された物体と、を照らし合わせることによって、移動体2の自己位置を推定することができる。ここで、レーザセンサ3Aの検出範囲、及びレーザセンサ3Bの検出範囲の少なくとも一方において、自己位置の推定精度を低下させるような様々な原因が存在する場合がある。これに対し、位置推定部11は、自己位置の推定精度の低下に関する情報を取得し、情報に基づいて、レーザセンサ3Aによる検出結果、及びレーザセンサ3Bによる検出結果の使用態様を調整する。これにより、位置推定部11は、自己位置の推定精度の低下を抑制するように、レーザセンサ3Aによる検出結果、及びレーザセンサ3Bによる検出結果の使用態様を調整することができる。以上より、走行制御装置1は、移動体2の自己位置の推定精度を向上することができる。 On the other hand, in the traveling control device 1 according to the present embodiment, the position estimation unit 11 self of the moving body 2 based on the detection result by at least one of the laser sensors 3A and 3B and the map data acquired in advance. Estimate the position. As a result, the position estimation unit 11 can estimate the self-position of the moving body 2 by comparing the object detected by the laser sensors 3A and 3B with the object registered in the map data. Here, in at least one of the detection range of the laser sensor 3A and the detection range of the laser sensor 3B, there may be various causes that reduce the estimation accuracy of the self-position. On the other hand, the position estimation unit 11 acquires information regarding the decrease in the estimation accuracy of the self-position, and adjusts the usage mode of the detection result by the laser sensor 3A and the detection result by the laser sensor 3B based on the information. As a result, the position estimation unit 11 can adjust the usage mode of the detection result by the laser sensor 3A and the detection result by the laser sensor 3B so as to suppress the decrease in the estimation accuracy of the self-position. From the above, the travel control device 1 can improve the estimation accuracy of the self-position of the moving body 2.

位置推定部11は、レーザセンサ3Aの検出結果及びレーザセンサ3Bの検出結果の一方の検出結果を使用して自己位置の推定を行い、一方の検出結果に対して、推定精度の低下に関する情報を取得した場合、他方の検出結果に切り替えて自己位置の推定を行う。これにより、自己位置の推定精度の低下を抑制しつつ、レーザセンサ3A及びレーザセンサ3Bの一方だけを用いるため、処理の負荷を低減できる。 The position estimation unit 11 estimates the self-position using one of the detection results of the laser sensor 3A and the detection result of the laser sensor 3B, and provides information on the decrease in estimation accuracy to the one detection result. When it is acquired, it switches to the other detection result and estimates its own position. As a result, since only one of the laser sensor 3A and the laser sensor 3B is used while suppressing a decrease in the estimation accuracy of the self-position, the processing load can be reduced.

位置推定部11は、推定精度の低下に関する情報として、移動体2の周囲に推定精度を低下させる障害物が存在することを示す情報を取得する。位置推定部11は、実際に推定精度が低下したことを演算しなくとも、障害物の存在に基づいて、速やかに検出部の使用態様の調整を行うことができる。 The position estimation unit 11 acquires information indicating that there is an obstacle that reduces the estimation accuracy around the moving body 2 as information regarding the decrease in the estimation accuracy. The position estimation unit 11 can quickly adjust the usage mode of the detection unit based on the presence of an obstacle without calculating that the estimation accuracy has actually decreased.

本発明は、上述の実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.

上述の実施形態では、自己位置の推定精度を低下させる原因となり得る事項を示す情報として、障害物が存在するという情報や、特徴物21の位置が変わったという情報などを取得した。これに代えて、障害物が存在することを間接的に示す情報が取得されてもよい。走行制御装置1が、動的物体を検出して動的物体に追尾する場合、追尾状態になっているという情報を、自己位置の推定精度を低下させる原因となり得る事項を示す情報として取得してよい。例えば、図5(a)に示すように、移動体2の前方に動的物体としての物体20Bが存在する場合、前側のレーザセンサ3Aは、物体20Bを動的物体として検出すると共に、物体20Bを追尾する。推定精度確認部16は、レーザセンサ3Aが追尾状態にあるという情報を取得すると、レーザセンサ3Aの検出範囲に障害物である動的物体22が存在するものとして、レーザセンサ3Aの検出結果による自己位置の推定精度が低下し得ると判断する。この場合、図5(b)に示すように、演算部17は、前側のレーザセンサ3Aから後側のレーザセンサ3Bへ切り替えて、後方に存在する物体20E,20Fに対応する点群PE,PFを用いて、自己位置を推定する。 In the above-described embodiment, information that an obstacle exists, information that the position of the feature 21 has changed, and the like are acquired as information indicating a matter that may cause a decrease in the estimation accuracy of the self-position. Instead of this, information that indirectly indicates the existence of an obstacle may be acquired. When the travel control device 1 detects a dynamic object and tracks the dynamic object, the information that the tracking state is in the tracking state is acquired as information indicating a matter that may cause a decrease in the estimation accuracy of the self-position. Good. For example, as shown in FIG. 5A, when an object 20B as a dynamic object exists in front of the moving body 2, the laser sensor 3A on the front side detects the object 20B as a dynamic object and the object 20B. To track. When the estimation accuracy confirmation unit 16 acquires the information that the laser sensor 3A is in the tracking state, it is assumed that the dynamic object 22 which is an obstacle exists in the detection range of the laser sensor 3A, and the self based on the detection result of the laser sensor 3A. It is judged that the accuracy of position estimation may decrease. In this case, as shown in FIG. 5B, the calculation unit 17 switches from the laser sensor 3A on the front side to the laser sensor 3B on the rear side, and the point clouds PE and PF corresponding to the objects 20E and 20F existing in the rear side. Is used to estimate the self-position.

動的物体を追尾する場合の自己位置の推定処理について、図6を参照して説明する。図6は、変形例に係る走行制御装置の位置推定部11による自己位置の推定処理の内容を示すフローチャートである。まず、位置推定部11の情報取得部14は、レーザセンサ3Aによる検出結果を取得する(ステップS100)。また、推定精度確認部16は、レーザセンサ3Aが追尾状態であるかどうかを確認する(ステップS210)。次に、推定精度確認部16は、レーザセンサ3Aが追尾状態にあるかどうかを判定する(ステップS220)。ステップS220においてレーザセンサ3Aが追尾状態にあると判定された場合、演算部17は、前側のレーザセンサ3Aから後側のレーザセンサ3Bに切り替えて、当該レーザセンサ3Bによる検出結果に基づいて、移動体2の自己位置を推定する(ステップS130)。ステップS220においてレーザセンサ3Aが追尾状態にないと判定された場合、演算部17は、切り替えを行うことなくレーザセンサ3Aによる検出結果に基づいて、移動体2の自己位置を推定する(ステップS140)。ステップS140の処理が終了すると、図6に示す処理が終了する。 The self-position estimation process when tracking a dynamic object will be described with reference to FIG. FIG. 6 is a flowchart showing the contents of the self-position estimation process by the position estimation unit 11 of the travel control device according to the modified example. First, the information acquisition unit 14 of the position estimation unit 11 acquires the detection result by the laser sensor 3A (step S100). Further, the estimation accuracy confirmation unit 16 confirms whether or not the laser sensor 3A is in the tracking state (step S210). Next, the estimation accuracy confirmation unit 16 determines whether or not the laser sensor 3A is in the tracking state (step S220). When it is determined in step S220 that the laser sensor 3A is in the tracking state, the calculation unit 17 switches from the front laser sensor 3A to the rear laser sensor 3B and moves based on the detection result by the laser sensor 3B. The self-position of the body 2 is estimated (step S130). When it is determined in step S220 that the laser sensor 3A is not in the tracking state, the calculation unit 17 estimates the self-position of the moving body 2 based on the detection result by the laser sensor 3A without switching (step S140). .. When the process of step S140 is completed, the process shown in FIG. 6 is completed.

また、位置推定部11は、推定精度の低下に関する情報として、推定精度が低下した旨の判定結果を取得してよい。これにより、推定精度が実際に低下したことに基づいて、レーザセンサ3A,3Bの使用態様の調整を行う事ができる。具体的には、図7に示すように、走行制御装置は、前方のレーザセンサ3Aによる検出とレーザセンサ3Bによる検出を同時に行う。そして、位置推定部11は、レーザセンサ3Aの検出結果による自己位置の推定精度と、レーザセンサ3Bの検出結果による自己位置の推定精度を確認する。そして、位置推定部11がレーザセンサ3A,3Bによる検出結果の何れかによる推定精度が低下した旨の判定結果を取得した場合、推定精度のよい方の検出結果を用いて自己位置の推定を行う。推定精度は、検出結果と地図データとのマッチング度を示す指標などを用いて判定する。 In addition, the position estimation unit 11 may acquire a determination result indicating that the estimation accuracy has decreased as information regarding the decrease in the estimation accuracy. As a result, it is possible to adjust the usage mode of the laser sensors 3A and 3B based on the fact that the estimation accuracy is actually lowered. Specifically, as shown in FIG. 7, the travel control device simultaneously performs detection by the front laser sensor 3A and detection by the laser sensor 3B. Then, the position estimation unit 11 confirms the self-position estimation accuracy based on the detection result of the laser sensor 3A and the self-position estimation accuracy based on the detection result of the laser sensor 3B. Then, when the position estimation unit 11 acquires a determination result that the estimation accuracy is lowered by any of the detection results by the laser sensors 3A and 3B, the self-position is estimated using the detection result having the better estimation accuracy. .. The estimation accuracy is determined by using an index or the like indicating the degree of matching between the detection result and the map data.

推定結果の精度が低下した旨の判定結果を取得する場合の自己位置の推定処理について、図8を参照して説明する。図8は、変形例に係る走行制御装置の位置推定部11による自己位置の推定処理の内容を示すフローチャートである。まず、位置推定部11の情報取得部14がレーザセンサ3A,3Bの検出結果を取得し、演算部17はそれらの結果を用いて自己位置の推定を行う(ステップS300)。推定精度確認部16は、レーザセンサ3Aの検出結果による推定精度と、レーザセンサ3Bの検出結果による推定精度と、を確認する(ステップS310)。そして、演算部17は、レーザセンサ3Aの検出結果と、レーザセンサ3Bの検出結果のうち、自己位置の推定精度のよい方を用いて自己位置を推定する(ステップS330)。ステップS330の処理が終了すると、図8に示す処理が終了する。 The self-position estimation process when acquiring the determination result that the accuracy of the estimation result has deteriorated will be described with reference to FIG. FIG. 8 is a flowchart showing the contents of the self-position estimation process by the position estimation unit 11 of the travel control device according to the modified example. First, the information acquisition unit 14 of the position estimation unit 11 acquires the detection results of the laser sensors 3A and 3B, and the calculation unit 17 estimates the self-position using those results (step S300). The estimation accuracy confirmation unit 16 confirms the estimation accuracy based on the detection result of the laser sensor 3A and the estimation accuracy based on the detection result of the laser sensor 3B (step S310). Then, the calculation unit 17 estimates the self-position using the detection result of the laser sensor 3A and the detection result of the laser sensor 3B, whichever has the better self-position estimation accuracy (step S330). When the process of step S330 is completed, the process shown in FIG. 8 is completed.

また、走行制御装置は、レーザセンサ3A,3Bの一方の検出結果を用いて自己位置を推定しているときに、推定精度が低下した旨の判定結果を取得した場合、レーザセンサ3A,3Bの他方の検出結果に切り替えてもよい。例えば、図9(a)に示すように、自己位置の推定精度は、同じ風景が続く状態では低下する。長い廊下の入口付近では、前方の風景がしばらく同じとなるため、レーザセンサ3Aの検出結果だけでは、移動体2が入口からどの程度進んだ位置にあるかを推定し難い。一方、入口付近では、後方の様子は特徴的である。従って、位置推定部11は、入口付近では、後方のレーザセンサ3Bの検出結果を用いて自己位置を推定する。そして、後方の風景に特徴が無くなる出口付近では、位置推定部11は、前側のレーザセンサ3Aの検出結果を用いて自己位置を推定する。これにより、前方の様子が特徴的な出口付近において、いち早く前方のレーザセンサ3Aの検出結果を用いて自己位置の推定を行うことができる。 Further, when the travel control device estimates the self-position using one of the detection results of the laser sensors 3A and 3B and obtains a determination result indicating that the estimation accuracy has deteriorated, the travel control device of the laser sensors 3A and 3B You may switch to the other detection result. For example, as shown in FIG. 9A, the estimation accuracy of the self-position decreases when the same landscape continues. In the vicinity of the entrance of the long corridor, the scenery in front is the same for a while, so it is difficult to estimate how far the moving body 2 is from the entrance only from the detection result of the laser sensor 3A. On the other hand, near the entrance, the rear view is characteristic. Therefore, the position estimation unit 11 estimates its own position near the entrance by using the detection result of the laser sensor 3B behind. Then, in the vicinity of the exit where the feature in the rear landscape disappears, the position estimation unit 11 estimates its own position using the detection result of the laser sensor 3A on the front side. As a result, it is possible to quickly estimate the self-position using the detection result of the laser sensor 3A in front of the exit in the vicinity of the exit where the state in front is characteristic.

この場合の推定処理の流れについて図10を参照して説明する。図10は、変形例に係る走行制御装置の位置推定部11による自己位置の推定処理の内容を示すフローチャートである。まず、位置推定部11の情報取得部14がレーザセンサ3Aの検出結果を取得し、演算部17はその結果を用いて自己位置の推定を行う(ステップS400)。推定精度確認部16は、レーザセンサ3Aの検出結果による推定精度を確認する(ステップS410)。次に、推定精度確認部16は、レーザセンサ3Aの検出結果による自己位置の推定精度が良いか否かを判定する(ステップS420)。ステップS420において推定精度が良いと判定された場合、演算部17は、切り替えを行うことなくレーザセンサ3Aによる検出結果に基づいて、移動体2の自己位置を推定する(ステップS430)。ステップS420において推定精度が悪いと判定された場合、前側のレーザセンサ3Aから後側のレーザセンサ3Bに切り替えて、当該レーザセンサ3Bによる検出結果に基づいて、移動体2の自己位置を推定する(ステップS440)。ステップS430,S440の処理が終了すると、図10に示す処理が終了する。 The flow of the estimation process in this case will be described with reference to FIG. FIG. 10 is a flowchart showing the contents of the self-position estimation process by the position estimation unit 11 of the travel control device according to the modified example. First, the information acquisition unit 14 of the position estimation unit 11 acquires the detection result of the laser sensor 3A, and the calculation unit 17 estimates its own position using the result (step S400). The estimation accuracy confirmation unit 16 confirms the estimation accuracy based on the detection result of the laser sensor 3A (step S410). Next, the estimation accuracy confirmation unit 16 determines whether or not the estimation accuracy of the self-position based on the detection result of the laser sensor 3A is good (step S420). When it is determined in step S420 that the estimation accuracy is good, the calculation unit 17 estimates the self-position of the moving body 2 based on the detection result by the laser sensor 3A without switching (step S430). If it is determined in step S420 that the estimation accuracy is poor, the front laser sensor 3A is switched to the rear laser sensor 3B, and the self-position of the moving body 2 is estimated based on the detection result by the laser sensor 3B (the self-position of the moving body 2 is estimated). Step S440). When the processes of steps S430 and S440 are completed, the processes shown in FIG. 10 are completed.

位置推定部11は、推定精度の低下に関する情報として、推定精度が低下する位置を移動体が通過したことを示す情報を取得してよい。位置推定部11は、実際に推定精度が低下したことを演算しなくとも、移動体2の通過位置に基づいて、速やかにレーザセンサ3A,3Bの使用態様の調整を行うことができる。図9(b)に示すように、後方のレーザセンサ3Bの検出結果による自己位置の推定精度が低下し始める箇所に、マーク50を設定しておく。位置推定部11は、マーク50を検出したら、推定精度が低下する位置を通過したと判定し、前方のレーザセンサ3Aの検出結果を用いて自己位置を推定する。なお、自己位置の推定精度が低下し得る情報として、レーザ検出結果と地図とによって推定される値と、レーザ以外を使って位置を特定する値とのずれ量が所定の閾値以上であることが挙げられ、このような場合に自己位置の推定精度が低下していると判断してよい。なお、レーザ以外の位置を特定する方法として、路面に設置されたARマーカをカメラにて検出し位置を特定することが挙げられる。 The position estimation unit 11 may acquire information indicating that the moving body has passed the position where the estimation accuracy is lowered as the information regarding the deterioration of the estimation accuracy. The position estimation unit 11 can quickly adjust the usage mode of the laser sensors 3A and 3B based on the passing position of the moving body 2 without calculating that the estimation accuracy is actually lowered. As shown in FIG. 9B, the mark 50 is set at a position where the estimation accuracy of the self-position based on the detection result of the rear laser sensor 3B starts to decrease. When the position estimation unit 11 detects the mark 50, it determines that it has passed a position where the estimation accuracy is lowered, and estimates its own position using the detection result of the laser sensor 3A in front. As information that the estimation accuracy of the self-position may decrease, the amount of deviation between the value estimated by the laser detection result and the map and the value for specifying the position using a device other than the laser is equal to or more than a predetermined threshold. In such a case, it may be determined that the estimation accuracy of the self-position is lowered. As a method of specifying a position other than the laser, an AR marker installed on the road surface may be detected by a camera to specify the position.

なお、上述の実施形態では、移動体2の周囲の物体を検出する検出部としてレーザセンサが例示されていたが、検出部の具体的構成は特に限定されるものではない。例えば、検出部としてカメラが採用されてもよい。カメラは、取得した画像の画像処理を行うことで、物体を検出すると共に、当該物体までの距離などの情報を検出することができる。例えば、画像中に写された物体のエッジを検出することで、物体の検出が可能である。また、予め人の形状や機台の形状を機械学習しておくことで、画像中の物体が人や機台などの動的物体であることを特定することも可能である。また、推定精度確認部16は、カメラで取得された画像を用いて、周囲の物体を検出してよい。また、検出部は、レーザセンサとカメラの組み合わせによって構成されてもよい。例えば、検出部は、物体の検出をカメラの画像に基づいて行い、物体との距離の計測をレーザセンサの結果を用いて行ってもよい。その他、検出部は、超音波などのセンサによって構成されてもよい。 In the above-described embodiment, the laser sensor has been exemplified as a detection unit for detecting an object around the moving body 2, but the specific configuration of the detection unit is not particularly limited. For example, a camera may be adopted as the detection unit. The camera can detect an object and also detect information such as a distance to the object by performing image processing on the acquired image. For example, an object can be detected by detecting the edge of the object captured in the image. Further, by machine learning the shape of a person and the shape of the machine base in advance, it is possible to identify that the object in the image is a dynamic object such as a person or the machine base. Further, the estimation accuracy confirmation unit 16 may detect a surrounding object by using the image acquired by the camera. Further, the detection unit may be configured by a combination of a laser sensor and a camera. For example, the detection unit may detect the object based on the image of the camera and measure the distance to the object using the result of the laser sensor. In addition, the detection unit may be composed of a sensor such as an ultrasonic wave.

1…走行制御装置、2…移動体、3…レーザセンサ(検出部)、11…位置推定部、12…走行制御部、20…物体。 1 ... Travel control device, 2 ... Mobile body, 3 ... Laser sensor (detection unit), 11 ... Position estimation unit, 12 ... Travel control unit, 20 ... Object.

Claims (5)

移動体を走行させる走行制御装置において、
前記移動体の周囲の物体を検出する第1の検出部及び第2の検出部と、
前記第1の検出部及び前記第2の検出部の少なくとも一方による検出結果、及び予め取得された地図データに基づいて、前記移動体の自己位置を推定する位置推定部と、
前記位置推定部により推定された前記移動体の自己位置に基づいて、前記移動体の走行を制御する走行制御部と、を備え、
前記位置推定部は、
前記自己位置の推定精度の低下に関する情報を取得し、
前記情報に基づいて、前記第1の検出部による第1の検出結果、及び前記第2の検出部による第2の検出結果の使用態様を調整する、走行制御装置。
In a traveling control device that travels a moving body,
A first detection unit and a second detection unit that detect an object around the moving body, and
A position estimation unit that estimates the self-position of the moving body based on the detection results of at least one of the first detection unit and the second detection unit and the map data acquired in advance.
A traveling control unit that controls the traveling of the moving body based on the self-position of the moving body estimated by the position estimating unit is provided.
The position estimation unit
Obtaining information on the decrease in the estimation accuracy of the self-position,
A travel control device that adjusts the usage mode of the first detection result by the first detection unit and the second detection result by the second detection unit based on the information.
前記位置推定部は、
前記第1の検出結果及び前記第2の検出結果の一方の検出結果を使用して前記自己位置の推定を行い、
前記一方の検出結果に対して、前記推定精度の低下に関する情報を取得した場合、他方の検出結果に切り替えて前記自己位置の推定を行う、請求項1に記載の走行制御装置。
The position estimation unit
The self-position is estimated by using one of the first detection result and the second detection result.
The travel control device according to claim 1, wherein when the information regarding the decrease in the estimation accuracy is acquired with respect to the one detection result, the self-position is estimated by switching to the other detection result.
前記位置推定部は、前記推定精度の低下に関する情報として、前記推定精度が低下した旨の判定結果を取得する、請求項1又は2に記載の走行制御装置。 The travel control device according to claim 1 or 2, wherein the position estimation unit acquires a determination result indicating that the estimation accuracy has decreased as information regarding the decrease in the estimation accuracy. 前記位置推定部は、前記推定精度の低下に関する情報として、前記移動体の周囲に前記推定精度を低下させる障害物が存在することを示す情報を取得する、請求項1〜3の何れか一項に記載の走行制御装置。 Any one of claims 1 to 3, wherein the position estimation unit acquires information indicating that an obstacle that reduces the estimation accuracy exists around the moving body as information regarding the decrease in the estimation accuracy. The travel control device according to. 前記位置推定部は、前記推定精度の低下に関する情報として、前記推定精度が低下する位置を前記移動体が通過したことを示す情報を取得する、請求項1〜4の何れか一項に記載の走行制御装置。 The position estimation unit according to any one of claims 1 to 4, wherein the position estimation unit acquires information indicating that the moving body has passed the position where the estimation accuracy is lowered as the information regarding the deterioration of the estimation accuracy. Travel control device.
JP2019228460A 2019-12-18 2019-12-18 Travel control device Active JP7347194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019228460A JP7347194B2 (en) 2019-12-18 2019-12-18 Travel control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019228460A JP7347194B2 (en) 2019-12-18 2019-12-18 Travel control device

Publications (2)

Publication Number Publication Date
JP2021096703A true JP2021096703A (en) 2021-06-24
JP7347194B2 JP7347194B2 (en) 2023-09-20

Family

ID=76431427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019228460A Active JP7347194B2 (en) 2019-12-18 2019-12-18 Travel control device

Country Status (1)

Country Link
JP (1) JP7347194B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069147A1 (en) * 2011-11-11 2013-05-16 株式会社日立製作所 Autonomous movement method and autonomous movement device
JP2018146326A (en) * 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 Device and method for estimating position of mobile body
JP2019128750A (en) * 2018-01-24 2019-08-01 株式会社明電舎 Control system and control method of automated guided vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069147A1 (en) * 2011-11-11 2013-05-16 株式会社日立製作所 Autonomous movement method and autonomous movement device
JP2018146326A (en) * 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 Device and method for estimating position of mobile body
JP2019128750A (en) * 2018-01-24 2019-08-01 株式会社明電舎 Control system and control method of automated guided vehicle

Also Published As

Publication number Publication date
JP7347194B2 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
JP3865121B2 (en) Vehicle obstacle detection device
KR101503418B1 (en) Semiautomatic parking machine
JP2014197294A (en) Position identification device and mobile robot having the same
KR20150135007A (en) Unmanned vehicle driving apparatus and method for obstacle avoidance
JP2002327635A (en) Vehicular running control device
JP5085251B2 (en) Autonomous mobile device
JP6569342B2 (en) Mobile robot
JP5843948B1 (en) Parking assistance device and parking assistance method
WO2016047201A1 (en) Obstacle determination device and obstacle determination method
JP5314788B2 (en) Autonomous mobile device
WO2019058578A1 (en) Positioning assistance device
JP2021096703A (en) Travel control device
KR20180000965A (en) System and method for Autonomous Emergency Braking
KR20150130056A (en) Apparatus for making a driver operate a car easily and control method thereof
JP6863049B2 (en) Autonomous mobile robot
JP2021117893A (en) Self position estimation device and self position estimation method
JP7135884B2 (en) travel control device
KR20220050483A (en) Coordinates recognition apparatus of automatic guided vehicle and method thereof
JP6412207B2 (en) Position identification device
JP5803564B2 (en) Steering support apparatus and steering support method for vehicle
JP2021086547A (en) Travel controller
JP7459732B2 (en) Self-location estimation system
JP7180399B2 (en) travel control device
KR20200102005A (en) Automatic parking control device and method thereof
JP7056591B2 (en) Driving control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7347194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151