JP7283341B2 - cruise control system - Google Patents

cruise control system Download PDF

Info

Publication number
JP7283341B2
JP7283341B2 JP2019183903A JP2019183903A JP7283341B2 JP 7283341 B2 JP7283341 B2 JP 7283341B2 JP 2019183903 A JP2019183903 A JP 2019183903A JP 2019183903 A JP2019183903 A JP 2019183903A JP 7283341 B2 JP7283341 B2 JP 7283341B2
Authority
JP
Japan
Prior art keywords
moving body
moving
detection
unit
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019183903A
Other languages
Japanese (ja)
Other versions
JP2021059188A (en
Inventor
遼 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2019183903A priority Critical patent/JP7283341B2/en
Publication of JP2021059188A publication Critical patent/JP2021059188A/en
Application granted granted Critical
Publication of JP7283341B2 publication Critical patent/JP7283341B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、走行制御システムに関する。 The present invention relates to a cruise control system.

従来の走行制御システムとしては、例えば特許文献1に記載されているような技術が知られている。特許文献1に記載の走行制御システムは、複数の移動体の走行を制御するシステムである。各々の移動体には、移動体の周囲の状況を検出する検出部が設けられている。各移動体は、周囲の状況を検出部で検出しながら、当該検出結果、及び予め取得された地図データに基づいて、走行制御される。移動体は、検出結果に基づいて、他の移動体を回避するように走行する。 BACKGROUND ART As a conventional travel control system, for example, a technique such as that described in Patent Document 1 is known. The travel control system described in Patent Literature 1 is a system that controls travel of a plurality of moving bodies. Each moving body is provided with a detection unit that detects the surrounding conditions of the moving body. Each moving object is controlled to travel based on the detection result and pre-acquired map data while the surrounding conditions are being detected by the detecting unit. The moving object runs so as to avoid other moving objects based on the detection result.

特開2011-150443号公報JP 2011-150443 A

ところで、ある移動体が検出部で他の移動体を検出しようとする場合、検出範囲に他の移動体の一部しか存在しない場合がある。走行制御システムが、このような検出結果に基づいて、移動体が他の移動体を回避するように走行制御を行った場合、移動体は、他の移動体の検出されていない箇所と接触する可能性がある。従って、移動体同士の接触を回避して、走行性能を向上することが求められていた。 By the way, when a certain moving body tries to detect another moving body with the detection unit, there are cases where only part of the other moving body exists within the detection range. When the travel control system performs travel control so that the mobile body avoids the other mobile body based on such detection results, the mobile body comes into contact with an undetected portion of the other mobile body. there is a possibility. Therefore, it has been desired to improve the running performance by avoiding the contact between moving bodies.

本発明の目的は、移動体の走行性能を向上することができる、走行制御システムを提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a travel control system capable of improving the travel performance of a mobile object.

本発明の一態様は、複数の移動体の走行を制御する走行制御システムにおいて、各々の移動体に設けられ、当該移動体の周囲の状況を検出する検出部と、検出部による検出結果、及び予め取得された地図データに基づいて、各々の移動体の走行を制御する走行制御部と、各々の移動体の外形情報と、検出部による検出結果を比較して、当該検出結果を補正する補正部と、を備える。 One aspect of the present invention is a travel control system that controls travel of a plurality of mobile bodies, comprising: a detection unit provided in each mobile body for detecting a situation around the mobile body; a detection result of the detection unit; A travel control unit that controls the travel of each mobile object based on previously acquired map data, the outline information of each mobile object, and the detection result by the detection unit are compared to correct the detection result. and

このような走行制御システムにおいては、各々の移動体には、当該移動体の周囲の状況を検出する検出部が設けられる。また、走行制御部は、検出部による検出結果、及び予め取得された地図データに基づいて、各々の移動体の走行を制御する。ここで、補正部は、各々の移動体の外形情報と、検出部による検出結果を比較して、当該検出結果を補正する。この場合、検出部が、実際には他の移動体の外形を検出していなかった場合であっても、補正部は、他の移動体の外形情報を反映するように、検出結果を補正することができる。走行制御部は、外形情報を反映するように補正された検出結果を用いることで、移動体同士の干渉を回避するような走行制御を容易に行うことができる。以上より、移動体の走行性能を向上することができる。 In such a travel control system, each mobile body is provided with a detection unit that detects the surrounding conditions of the mobile body. Further, the travel control unit controls the travel of each moving body based on the detection result by the detection unit and map data acquired in advance. Here, the correcting unit compares the outer shape information of each moving object with the detection result by the detecting unit, and corrects the detection result. In this case, even if the detection unit does not actually detect the outline of the other moving object, the correction unit corrects the detection result so as to reflect the outline information of the other moving object. be able to. The travel control unit can easily perform travel control to avoid interference between moving bodies by using the detection result corrected so as to reflect the external shape information. As described above, it is possible to improve the running performance of the moving body.

補正部は、一の移動体の検出部に対する他の移動体の検出箇所の距離と、一の移動体の検出部に対する他の移動体の外形の距離と、を比較することによって検出結果の補正を行ってよい。これにより、補正部は、距離を比較するだけで容易に検出結果の補正を行うことができる。 The correcting unit corrects the detection result by comparing the distance of the detection part of the other moving object from the detecting unit of the one moving object and the distance of the outer shape of the other moving object from the detecting unit of the one moving object. may be performed. Thereby, the correcting unit can easily correct the detection result only by comparing the distances.

検出部はレーザを用いて移動体の周囲の状況を検出し、走行制御部は、レーザを用いて検出部で検出した検出結果と地図データとをマッチングすることで推定された移動体の位置を用いて、移動体の走行を制御してよい。このような構成では、例えばSLAMという自己位置推定技術を用いて、検出部がレーザを用いて検出を行うだけで、各移動体の位置と姿勢の情報を容易に取得することができる。 The detection unit uses a laser to detect the surroundings of the moving object, and the travel control unit uses a laser to match the detection results detected by the detection unit with the map data to determine the estimated position of the moving object. may be used to control the running of the moving body. In such a configuration, information on the position and orientation of each moving body can be easily acquired simply by using a self-position estimation technique called SLAM, for example, and the detection unit simply performs detection using a laser.

複数の移動体は、各々の移動体の外形情報を互いに共有してよい。この場合、補正部が検出結果の補正を行うときに、各々の移動体の外形情報を正確に反映した上で、補正を行うことができる。 A plurality of moving bodies may share the outline information of each moving body with each other. In this case, when the correction unit corrects the detection result, the correction can be performed after accurately reflecting the outer shape information of each moving body.

本発明によれば、移動体の走行性能を向上することができる。 ADVANTAGE OF THE INVENTION According to this invention, the driving performance of a mobile body can be improved.

本発明の一実施形態に係る走行制御システムを示す概略構成図である。1 is a schematic configuration diagram showing a travel control system according to one embodiment of the present invention; FIG. 図1に示されたコントローラにより実行される制御処理手順の詳細を示すフローチャートである。2 is a flow chart showing details of a control processing procedure executed by the controller shown in FIG. 1; 二つの移動体のレーザセンサが、互いに検出し合う様子を示す図である。FIG. 4 is a diagram showing how laser sensors of two moving bodies detect each other; 移動体のレーザセンサの検出結果を補正する手順を示す概念図である。FIG. 10 is a conceptual diagram showing a procedure for correcting the detection result of the laser sensor of the moving body; 移動体のレーザセンサの検出結果を補正する手順を示す概念図である。FIG. 10 is a conceptual diagram showing a procedure for correcting the detection result of the laser sensor of the moving body; 移動体のレーザセンサの検出結果を補正する手順を示す概念図である。FIG. 10 is a conceptual diagram showing a procedure for correcting the detection result of the laser sensor of the moving body; 比較例に係る走行制御システムの制御内容を示す概念図である。FIG. 10 is a conceptual diagram showing control contents of a traveling control system according to a comparative example; 変形例に係る走行制御システムにおいて、移動体のレーザセンサの検出結果を補正する手順を示す概念図である。FIG. 11 is a conceptual diagram showing a procedure for correcting the detection result of the laser sensor of the moving body in the running control system according to the modification;

図1は、本発明の一実施形態に係る走行制御システム100を示す概略構成図である。図1に示すように、走行制御システム100は、複数の移動体2と、サーバー101と、を備える。走行制御システム100は、複数の移動体2の走行を制御するシステムである。移動体2は、倉庫や工場などの構造物内で自動的に走行する。移動体2は、例えばフォークリフト、無人搬送車などである。 FIG. 1 is a schematic configuration diagram showing a cruise control system 100 according to one embodiment of the present invention. As shown in FIG. 1 , the cruise control system 100 includes multiple moving bodies 2 and a server 101 . The travel control system 100 is a system that controls travel of a plurality of moving bodies 2 . The moving body 2 automatically travels within structures such as warehouses and factories. The moving body 2 is, for example, a forklift, an unmanned guided vehicle, or the like.

移動体2は、レーザセンサ3(検出部)と、駆動部4と、コントローラ5とを備えている。 The moving body 2 includes a laser sensor 3 (detection section), a drive section 4 and a controller 5 .

レーザセンサ3は、各々の移動体2に設けられ、当該移動体2の周囲の状況を検出する。また、レーザセンサ3は、検出した物体との位置関係を計測する。レーザセンサ3は、移動体2の周囲にレーザを照射し、レーザの反射光を受光することにより、レーザセンサ3から移動体2の周囲の物体を検出し、当該物体までの距離と方向を計測する。レーザセンサ3としては、例えばレーザレンジファインダが用いられる。使用するレーザとしては、2Dレーザが用いられる。 A laser sensor 3 is provided on each mobile body 2 to detect the surrounding conditions of the mobile body 2 . Also, the laser sensor 3 measures the positional relationship with the detected object. The laser sensor 3 irradiates a laser around the moving body 2 and receives the reflected light of the laser, thereby detecting an object around the moving body 2 from the laser sensor 3 and measuring the distance and direction to the object. do. As the laser sensor 3, for example, a laser range finder is used. A 2D laser is used as the laser to be used.

レーザセンサ3は、移動体2のうち、周囲の状況を検出し易い箇所に設けられている。例えば、図3に示すように、レーザセンサ3は、移動体2の天井部に設けられている。また、レーザセンサ3は、移動体2の前方へ向かってレーザを扇状に照射する。具体的には、レーザセンサ3は、移動体2の前方直進方向を中心とした規定の角度範囲にレーザを照射する。これにより、レーザセンサ3は、移動体2の前方の所定の角度範囲を検出範囲Eとして、検出を行うことができる。 The laser sensor 3 is provided at a portion of the moving body 2 where the surrounding conditions can be easily detected. For example, as shown in FIG. 3, the laser sensor 3 is provided on the ceiling of the mobile body 2 . In addition, the laser sensor 3 irradiates the moving body 2 with a laser in a fan shape toward the front. Specifically, the laser sensor 3 irradiates a laser in a prescribed angular range centered on the forward straight traveling direction of the moving body 2 . As a result, the laser sensor 3 can perform detection using a predetermined angular range in front of the moving body 2 as the detection range E. As shown in FIG.

駆動部4は、特に図示はしないが、移動体2の走行輪を回転させる走行モータと、移動体2の操舵輪を転舵させる操舵モータとを有している。 The driving unit 4 has a traveling motor that rotates the traveling wheels of the moving body 2 and a steering motor that steers the steering wheels of the moving body 2 (not shown).

コントローラ5は、CPU、RAM、ROM及び入出力インターフェース等により構成されている。コントローラ5は、情報処理部11と、補正部12と、走行制御部13と、記憶部14と、を有している。 The controller 5 is composed of a CPU, a RAM, a ROM, an input/output interface, and the like. The controller 5 has an information processing section 11 , a correction section 12 , a travel control section 13 and a storage section 14 .

情報処理部11は、各種情報を取得すると共に各種情報処理を行う。情報処理部11は、レーザセンサ3による検出結果を取得すると共に、当該検出結果に基づく各種情報処理を行う。また、情報処理部11は、サーバー101からの情報を取得し、当該情報に基づく各種情報処理を行う。また、情報処理部11は、得られた情報をサーバー101へ送信する。情報処理部11は、レーザセンサ3による検出結果、及び予め取得された地図データに基づいて、移動体2の自己位置を推定する。情報処理部11は、例えばSLAM(simultaneous localization andmapping)手法を用いて、移動体2の自己位置(地図データにおける位置座標)を推定する。SLAMは、レーザセンサ3による検出結果と地図データとをマッチングさせることによって、自己位置推定を行う自己位置推定技術である。SLAMは、自己位置推定と環境地図の作成とを同時に行う。具体的には、情報処理部11は、レーザセンサ3により検出された物体までの距離データと移動体2の周囲環境の地図データとをマッチングさせて、移動体2の自己位置の推定演算を行う。また、情報処理部11は、サーバー101からの情報を取得して、他の移動体2の位置も取得することができる。 The information processing section 11 acquires various types of information and performs various types of information processing. The information processing section 11 acquires the detection result by the laser sensor 3 and performs various information processing based on the detection result. Further, the information processing section 11 acquires information from the server 101 and performs various information processing based on the information. The information processing section 11 also transmits the obtained information to the server 101 . The information processing section 11 estimates the self-position of the moving body 2 based on the detection result by the laser sensor 3 and map data acquired in advance. The information processing unit 11 estimates the self-position (position coordinates in the map data) of the moving body 2 using, for example, SLAM (simultaneous localization and mapping) technique. SLAM is a self-position estimation technique that performs self-position estimation by matching detection results from the laser sensor 3 with map data. SLAM simultaneously performs self-localization and environmental mapping. Specifically, the information processing unit 11 matches the distance data to the object detected by the laser sensor 3 with the map data of the surrounding environment of the moving body 2, and performs an estimation calculation of the self position of the moving body 2. . Further, the information processing section 11 can acquire information from the server 101 and also acquire the position of the other moving body 2 .

補正部12は、各々の移動体2の外形情報と、レーザセンサ3による検出結果を比較して、当該検出結果を補正する。外形情報とは、移動体2の機台の外形の形状、大きさ及びレーザセンサ3との位置関係などを示す情報である。なお、外形情報は、機台の移動方向と平行な面における、最も外側に位置する形状とするのが好ましい。補正部12は、一の移動体2のレーザセンサ3に対する他の移動体2の検出箇所(レーザ点)の距離と、一の移動体2のレーザセンサ3に対する他の移動体2の外形の距離と、を比較することによって検出結果の補正を行う。補正部12による検出結果の補正の詳細な内容については、後の処理内容の説明において説明する。 The correction unit 12 compares the outer shape information of each moving body 2 with the detection result by the laser sensor 3, and corrects the detection result. The outer shape information is information indicating the shape and size of the outer shape of the base of the moving body 2, the positional relationship with the laser sensor 3, and the like. It is preferable that the outer shape information be the outermost shape in a plane parallel to the moving direction of the machine base. The correction unit 12 calculates the distance of the detection point (laser point) of the other moving body 2 with respect to the laser sensor 3 of the one moving body 2 and the distance of the outer shape of the other moving body 2 with respect to the laser sensor 3 of the one moving body 2. and are compared to correct the detection result. Details of the correction of the detection result by the correction unit 12 will be described later in the description of the processing content.

走行制御部13は、レーザセンサ3による検出結果、及び予め取得された地図データに基づいて、移動体2の走行を制御する。走行制御部13は、自己位置と目標位置とを比較することによって、移動体2の移動方向や移動距離を演算する。また、走行制御部13は、当該演算結果に基づいて、移動体2が目標位置へ向かうように駆動部4へ制御信号を出力する。また、走行制御部13は、レーザセンサ3による検出結果から、他の移動体2の位置を把握し、他の移動体2を回避するような回避制御を行う。記憶部14は、各種データを記憶する。記憶部14は、地図データを記憶する。 The traveling control unit 13 controls the traveling of the moving body 2 based on the detection result by the laser sensor 3 and map data acquired in advance. The travel control unit 13 calculates the moving direction and the moving distance of the moving body 2 by comparing the self-position and the target position. Further, the traveling control unit 13 outputs a control signal to the driving unit 4 so that the moving body 2 moves to the target position based on the calculation result. Further, the travel control unit 13 grasps the position of the other moving body 2 from the detection result by the laser sensor 3 and performs avoidance control to avoid the other moving body 2 . The storage unit 14 stores various data. The storage unit 14 stores map data.

サーバー101は、走行制御システム100で用いられる各種情報を取得すると共に、各種演算を行う装置である。サーバー101は、各移動体2の位置を取得すると共に当該位置情報を各移動体2へ送信する。サーバー101は、作業を行う構造物の何れかの場所に設けられてよい。なお、サーバー101は、複数の移動体2の中の、いずれかの移動体2に組み込まれていていてもよい。 The server 101 is a device that acquires various information used in the travel control system 100 and performs various calculations. The server 101 acquires the position of each mobile body 2 and transmits the position information to each mobile body 2 . Server 101 may be located anywhere in the structure where the work is performed. Note that the server 101 may be installed in any one of the plurality of mobile bodies 2 .

次に図2~図6を参照して、走行制御システム100の制御処理内容について説明する。図2は、走行制御システム100の制御処理内容を示すフローチャートである。図3は、二つの移動体2のレーザセンサ3が、互いに検出し合う様子を示す図である。図4~図6は、移動体2Aのレーザセンサ3Aの検出結果を補正する手順を示す概念図である。なお、ここでは、移動体2Aの周囲に移動体2B,2C及び壁Wが存在する状況であって、移動体2Aが他の移動体2B,2Cを回避するように走行する場合について説明する。また、図3に示すように、移動体2Aのレーザセンサ3Aの検出範囲Eには、移動体2Bの天井部のレーザセンサ3Bだけが存在し、移動体2Bの機台自体は検出範囲Eに含まれないものとする。同様に、レーザセンサ3Aの検出範囲Eには、移動体2Cのレーザセンサ3Cだけが存在し、移動体2Cの機台自体は検出範囲Eに含まれないものとする。 Next, with reference to FIGS. 2 to 6, the contents of the control processing of the travel control system 100 will be described. FIG. 2 is a flow chart showing the details of the control processing of the cruise control system 100. As shown in FIG. FIG. 3 is a diagram showing how the laser sensors 3 of the two moving bodies 2 detect each other. 4 to 6 are conceptual diagrams showing procedures for correcting the detection result of the laser sensor 3A of the moving object 2A. Here, a situation where the mobile bodies 2B and 2C and the wall W exist around the mobile body 2A and the mobile body 2A runs so as to avoid the other mobile bodies 2B and 2C will be described. Further, as shown in FIG. 3, only the laser sensor 3B on the ceiling of the moving body 2B exists within the detection range E of the laser sensor 3A of the moving body 2A, and the base of the moving body 2B itself is within the detection range E. shall not be included. Similarly, it is assumed that only the laser sensor 3C of the moving body 2C exists in the detection range E of the laser sensor 3A, and the detection range E does not include the base of the moving body 2C itself.

図2に示すように、まず、情報処理部11は、移動体2A,2B,2Cの座標を取得する(ステップS100)。ステップS100では、SLAM等で用いられる地図座標を基準として演算される座標が使用される。座標には、X軸方向及びY軸方向で表現される水平方向における位置の情報と、移動体2A,2B,2Cの機台の角度の情報と、が含まれる。具体的には、図4(a)に示すように、情報処理部11は、移動体2Aの機台の座標(xa,ya,θa)と、移動体2Bの機台の座標(xb,yb,θb)と、移動体2Cの機台の座標(xc,yb,θb)と、を取得する。なお、移動体2A,2B,2Cの座標は、当該移動体2A,2B,2Cの座標点PA,PB,PCの位置を示す。当該座標点PA,PB,PCは、レーザセンサ3A,3B,3Cの中心位置に設定されるものとする(図5等を参照)。 As shown in FIG. 2, the information processing section 11 first acquires the coordinates of the moving bodies 2A, 2B, and 2C (step S100). In step S100, coordinates calculated based on map coordinates used in SLAM or the like are used. The coordinates include position information in the horizontal direction represented by the X-axis direction and the Y-axis direction, and information on the angles of the bases of the moving bodies 2A, 2B, and 2C. Specifically, as shown in FIG. 4A, the information processing unit 11 sets the coordinates (xa, ya, θa) of the base of the moving body 2A and the coordinates (xb, yb) of the base of the moving body 2B. , θb) and the coordinates (xc, yb, θb) of the base of the moving body 2C. The coordinates of the mobile bodies 2A, 2B and 2C indicate the positions of the coordinate points PA, PB and PC of the mobile bodies 2A, 2B and 2C. The coordinate points PA, PB, and PC are set at the center positions of the laser sensors 3A, 3B, and 3C (see FIG. 5, etc.).

次に、情報処理部11は、移動体2Aのレーザセンサ3Aの検出結果を取得する(ステップS110)。図4(b)に示すように、レーザセンサ3Aの検出結果は、当該レーザセンサ3Aを中心としたレーザ点群によって示される。レーザセンサ3Aの検出範囲E内に物体が存在する場合、当該物体の外縁にレーザが照射されることによるレーザ点群が形成される。物体が存在しない箇所については、検出範囲Eの外縁にレーザ点群が形成される。具体的には、レーザセンサ3Aの検出結果は、壁Wに沿ったレーザ点群LWと、移動体2Bのレーザセンサ3Bの外縁に沿ったレーザ点群LBと、移動体2Cのレーザセンサ3Cの外縁に沿ったレーザ点群LCと、検出範囲Eの外縁に沿ったレーザ点群LEと、を有する。 Next, the information processing section 11 acquires the detection result of the laser sensor 3A of the moving body 2A (step S110). As shown in FIG. 4B, the detection result of the laser sensor 3A is indicated by a laser point group centered on the laser sensor 3A. When an object exists within the detection range E of the laser sensor 3A, a laser point group is formed by irradiating the outer edge of the object with the laser. A laser point cloud is formed at the outer edge of the detection range E for locations where no object exists. Specifically, the detection results of the laser sensor 3A are the laser point group LW along the wall W, the laser point group LB along the outer edge of the laser sensor 3B of the moving body 2B, and the laser sensor 3C of the moving body 2C. It has a laser point cloud LC along the outer edge and a laser point cloud LE along the outer edge of the detection area E.

次に、補正部12は、移動体2B,2Cの外形情報を設定する(ステップS120)。図5(a)に示すように、補正部12は、移動体2Bの座標に基づいて、移動体2Bの外形20Bを仮想的に設定すると共に、移動体2Cの座標に基づいて、移動体2Cの外形20Cを仮想的に設定する。補正部12は、移動体2A,2B,2Cの機台の外形は全て同一であるため、移動体2B,2Cの外形20B,20Cとして、移動体2A自身の機台の外形を採用する。ここでは、移動体2A,2B,2Cの外形は、長方形であるものとする。補正部12は、座標点PB,PCが外形20B,20Cの中心位置と一致するように、仮想的な外形20B,20Cを設定する。また、移動体2B,2Cの機台の座標には、当該機台の角度情報も含まれている。従って、補正部12は、各機台の角度情報を、外形20B,20Cの姿勢に反映する。ここでは、移動体2Bの機台の外形20Bは、Y軸方向に対して傾かないように設定される。移動体2Cの機台の外形20Cは、Y軸方向に対してθcの角度だけ傾くように設定される。 Next, the correction unit 12 sets outline information of the moving bodies 2B and 2C (step S120). As shown in FIG. 5(a), the correction unit 12 virtually sets the outer shape 20B of the moving body 2B based on the coordinates of the moving body 2B, and also determines the shape of the moving body 2C based on the coordinates of the moving body 2C. 20C is virtually set. Since the outer shapes of the bases of the moving bodies 2A, 2B, and 2C are all the same, the correction unit 12 adopts the outer shape of the base of the moving body 2A itself as the outer shapes 20B and 20C of the moving bodies 2B and 2C. Here, it is assumed that the moving bodies 2A, 2B, and 2C have rectangular outlines. The correction unit 12 sets the virtual outlines 20B and 20C such that the coordinate points PB and PC match the center positions of the outlines 20B and 20C. The coordinates of the bases of the mobile bodies 2B and 2C also include angle information of the bases. Therefore, the correction unit 12 reflects the angle information of each machine base on the postures of the outlines 20B and 20C. Here, the outer shape 20B of the base of the moving body 2B is set so as not to tilt with respect to the Y-axis direction. The outer shape 20C of the base of the moving body 2C is set to be inclined by an angle of θc with respect to the Y-axis direction.

次に、補正部12は、ステップS120で設定した移動体2B,2Cの外形情報に基づいて、検出結果の補正を行う(ステップS130)。補正部12は、移動体2Aのレーザセンサ3Aに対する他の移動体2B,2Cの実測に係るレーザ点(検出箇所)の距離と、移動体2Aのレーザセンサ3Aに対する他の移動体2B,2Cの外形20B,20Cの距離と、を比較することによって検出結果の補正を行う。補正部12は、レーザデータ毎に、機台の外形20B,20Cとの交点を演算する。この交点は、移動体2Aのレーザセンサ3A及び所定のレーザ点を結ぶ線分と、外形20B,20Cの四方の辺部を構成する線分と、が交差する点である。そして、補正部12は、外形20B,20Cとの交点が存在する場合、レーザセンサ3Aから当該交点までの距離を演算する。補正部12は、このようにして演算された距離と、実測に係るレーザ点の距離との中で、最も移動体2Aの機台の中心に近いものを、補正後のレーザ点として採用する。 Next, the correction unit 12 corrects the detection result based on the outer shape information of the moving bodies 2B and 2C set in step S120 (step S130). The correction unit 12 calculates the distances of the actually measured laser points (detection points) of the other moving bodies 2B and 2C with respect to the laser sensor 3A of the moving body 2A and the distances of the other moving bodies 2B and 2C with respect to the laser sensor 3A of the moving body 2A. The detection result is corrected by comparing the distances of the contours 20B and 20C. The correction unit 12 calculates the intersection points with the outlines 20B and 20C of the machine base for each laser data. This intersection point is a point where a line segment connecting the laser sensor 3A of the moving body 2A and a predetermined laser point intersects with a line segment forming the four sides of the contours 20B and 20C. Then, when there is an intersection with the outlines 20B and 20C, the correction unit 12 calculates the distance from the laser sensor 3A to the intersection. The correction unit 12 adopts the distance closest to the center of the machine base of the moving body 2A as the corrected laser point, out of the calculated distance and the actually measured laser point distance.

具体的に、レーザセンサ3Bに沿った実測に係るレーザ点群LBのレーザ点と移動体2Aのレーザセンサ3Aとを結ぶ線分は、交点CP1にて外形20Bと交差する。実測に係るレーザ点と交点CP1とでは、交点CP1の方がレーザセンサ3Aに近い。従って、交点CP1が、補正後のレーザ点として設定される。検出範囲Eの外縁に沿った実測に係るレーザ点群LEのレーザ点とレーザセンサ3Aとを結ぶ線分は、交点CP2,CP3にて外形20Bと交差する。実測に係るレーザ点及び交点CP2,CP3の中では、交点CP2が最もレーザセンサ3Aに近い。従って、交点CP2が、補正後のレーザ点として設定される。このような補正処理がなされることにより、補正部12は、図6に示すような検出結果を取得する。補正後の検出結果は、レーザセンサ3Bの外縁に沿ったLBに代えて、移動体2Bの仮想的な外形20Bの長辺に沿ったレーザ点群LBaと、移動体2Bの仮想的な外形20Bの短辺に沿ったレーザ点群LBbと、を有する。また、補正後の検出結果は、レーザセンサ3Cの外縁に沿ったLCに代えて、移動体2Cの仮想的な外形20Cの長辺に沿ったレーザ点群LCaと、移動体2Cの仮想的な外形20Cの短辺に沿ったレーザ点群LCbと、を有する。 Specifically, a line segment connecting the laser point of the laser point group LB related to the actual measurement along the laser sensor 3B and the laser sensor 3A of the moving body 2A intersects the outline 20B at the intersection point CP1. The intersection point CP1 is closer to the laser sensor 3A than the laser point and the intersection point CP1 according to the actual measurement. Therefore, the intersection point CP1 is set as the corrected laser point. A line segment connecting the laser points of the laser point group LE according to the actual measurement along the outer edge of the detection range E and the laser sensor 3A intersects the outer shape 20B at intersection points CP2 and CP3. Among the measured laser points and intersection points CP2 and CP3, the intersection point CP2 is closest to the laser sensor 3A. Therefore, the intersection point CP2 is set as the corrected laser point. By performing such correction processing, the correction unit 12 acquires detection results as shown in FIG. The corrected detection result is the laser point group LBa along the long side of the virtual outline 20B of the moving body 2B and the virtual outline 20B of the moving body 2B instead of the LB along the outer edge of the laser sensor 3B. and a laser point cloud LBb along the short side of . In addition, instead of the LC along the outer edge of the laser sensor 3C, the corrected detection result includes the laser point group LCa along the long side of the virtual outline 20C of the moving body 2C and the virtual and a laser point cloud LCb along the short side of the outline 20C.

次に、走行制御部13は、ステップS130で補正された検出結果に基づいて、移動体2Aの走行制御を行う(ステップS140)。走行制御部13は、移動体2Aの機台が、移動体2Bの外形20Bに沿ったレーザ点群LBa,LBb及び移動体2Cの外形20Cに沿ったレーザ点群LCa,LCbと干渉せずに回避するように、走行制御を行う。なお、走行制御部13は、このように検出範囲Eに存在する物体を示すレーザ点群を回避するための回避制御を行う際は、レーザ点群を用いて検出物体を回避するための公知の演算方法を用いて回避制御を行う。以上により、図2に示すフローチャートが終了する。 Next, the travel control unit 13 performs travel control of the moving body 2A based on the detection result corrected in step S130 (step S140). The traveling control unit 13 controls the base of the moving body 2A to perform the laser point groups LBa and LBb along the outline 20B of the moving body 2B and the laser point groups LCa and LCb along the outline 20C of the moving body 2C without interfering with each other. Run control to avoid it. Note that when performing avoidance control for avoiding the laser point group indicating the object present in the detection range E, the travel control unit 13 uses a known method for avoiding the detected object using the laser point group. Avoidance control is performed using the calculation method. Thus, the flowchart shown in FIG. 2 ends.

次に、本実施形態に係る走行制御システム100の作用・効果について説明する。 Next, the actions and effects of the cruise control system 100 according to this embodiment will be described.

まず、比較例に係る走行制御システムについて説明する。比較例に係る走行制御システムは、各移動体が上述の補正部12を有していない。この場合、走行制御部は、実際にレーザセンサ3Aが検出した検出結果に基づいて、走行制御を行う。例えば、図7(b)に示すように、レーザセンサ3Aが実際に移動体2Bの外形20Bを検出することができた場合は、当該外形20Bを反映した状態の検出結果を得ることができる。この場合、走行制御部は、移動体2Aを目標位置GPまで走行させるときには、移動体2Aの外形20Aが移動体2Bの外形20Bとの干渉を回避するように制御を行うことができる。その一方、レーザセンサ3Aが実際に移動体2Bの外形20Bを検出することができず、レーザセンサ3Bだけを検出した場合、走行制御部は、外形20Bが反映されていない検出結果に基づいて、走行制御を行わなくてはならない。この場合、走行制御部は、移動体2Aの外形20Aが移動体2Bのレーザセンサ3Bとの干渉を回避するような制御を行うものの、外形20Bとの位置関係を考慮せずに走行制御するため、移動体2Aの外形20Aと移動体2Bの外形20Bとが干渉してしまう可能性がある。そして、走行制御部が、当該干渉を回避できるような制御処理を行おうとする場合、外形20Bを演算に組み込むための、特別な回避制御処理を行う必要性が生じてしまう。 First, a travel control system according to a comparative example will be described. In the travel control system according to the comparative example, each moving body does not have the correction unit 12 described above. In this case, the travel control unit performs travel control based on the detection result actually detected by the laser sensor 3A. For example, as shown in FIG. 7B, when the laser sensor 3A can actually detect the outer shape 20B of the moving body 2B, it is possible to obtain a detection result reflecting the outer shape 20B. In this case, the travel control unit can perform control so that the contour 20A of the mobile body 2A avoids interference with the contour 20B of the mobile body 2B when the mobile body 2A is caused to travel to the target position GP. On the other hand, if the laser sensor 3A cannot actually detect the outer shape 20B of the moving body 2B and detects only the laser sensor 3B, the traveling control unit, based on the detection result that does not reflect the outer shape 20B, You have to control the running. In this case, the travel control unit performs control to avoid interference between the outer shape 20A of the moving body 2A and the laser sensor 3B of the moving body 2B, but performs travel control without considering the positional relationship with the outer shape 20B. , the outer shape 20A of the moving body 2A and the outer shape 20B of the moving body 2B may interfere with each other. When the travel control unit attempts to perform control processing that can avoid the interference, it will be necessary to perform special avoidance control processing for incorporating the outer shape 20B into the calculation.

これに対し、本実施形態に係る走行制御システム100においては、各々の移動体2A,2B,2Cには、当該移動体2A,2B,2Cの周囲の状況を検出するレーザセンサ3A,3B,3Cが設けられる。また、走行制御部13は、レーザセンサ3A,3B,3Cによる検出結果、及び予め取得された地図データに基づいて、各々の移動体2A,2B,2Cの走行を制御する。ここで、補正部12は、各々の移動体2A,2B,2Cの外形情報と、レーザセンサ3A,3B,3Cによる検出結果を比較して、当該検出結果を補正する。この場合、レーザセンサ3Aが、実際には他の移動体2B,2Cの外形20B,20Cを検出していなかった場合であっても、補正部12は、他の移動体2B,2Cの外形情報を反映するように、検出結果を補正することができる。走行制御部13は、外形情報を反映するように補正された検出結果を用いることで、移動体2A,2B,2C同士の干渉を回避するような走行制御を容易に行うことができる。以上より、移動体2A,2B,2Cの走行性能を向上することができる。 On the other hand, in the travel control system 100 according to the present embodiment, laser sensors 3A, 3B, 3C for detecting the surrounding conditions of the moving bodies 2A, 2B, 2C are provided on the respective moving bodies 2A, 2B, 2C. is provided. Further, the travel control unit 13 controls the travel of each of the moving bodies 2A, 2B, and 2C based on the detection results of the laser sensors 3A, 3B, and 3C and previously acquired map data. Here, the correction unit 12 compares the outer shape information of each moving body 2A, 2B, 2C with the detection results by the laser sensors 3A, 3B, 3C, and corrects the detection results. In this case, even if the laser sensor 3A does not actually detect the outer shapes 20B and 20C of the other moving bodies 2B and 2C, the correcting unit 12 detects the outer shape information of the other moving bodies 2B and 2C. The detection result can be corrected to reflect The travel control unit 13 can easily perform travel control to avoid interference between the moving bodies 2A, 2B, and 2C by using the detection result corrected to reflect the outer shape information. As described above, it is possible to improve the running performance of the moving bodies 2A, 2B, and 2C.

補正部12は、一の移動体2Aのレーザセンサ3Aに対する他の移動体2B,2Cの検出箇所(レーザ点)の距離と、一の移動体2Aのレーザセンサ3Aに対する他の移動体2B,2Cの外形20B,20Cの距離と、を比較することによって検出結果の補正を行ってよい。これにより、補正部12は、距離を比較するだけで容易に検出結果の補正を行うことができる。 The correction unit 12 calculates the distances of the detection points (laser points) of the other moving bodies 2B and 2C from the laser sensor 3A of the one moving body 2A and the distances of the detection points (laser points) of the other moving bodies 2B and 2C from the laser sensor 3A of the one moving body 2A. The detection result may be corrected by comparing the distances of the outlines 20B and 20C of the . Accordingly, the correction unit 12 can easily correct the detection result by simply comparing the distances.

レーザセンサ3A,3B,3Cはレーザを用いて移動体の周囲の状況を検出し、走行制御部13は、レーザを用いてレーザセンサ3A,3B,3Cで検出した検出結果と地図データとをマッチングすることで推定された移動体2A,2B,2Cの位置を用いて、移動体2A,2B,2Cの走行を制御してよい。このような構成では、例えばSLAMという自己位置推定技術を用いて、レーザセンサ3A,3B,3Cがレーザを用いて検出を行うだけで、各移動体2A,2B,2Cの位置と姿勢の情報を容易に取得することができる。 The laser sensors 3A, 3B, 3C use lasers to detect the surrounding conditions of the moving body, and the travel control unit 13 uses lasers to match the detection results detected by the laser sensors 3A, 3B, 3C with the map data. The positions of the moving bodies 2A, 2B, and 2C estimated by doing so may be used to control the running of the moving bodies 2A, 2B, and 2C. In such a configuration, for example, using a self-position estimation technique called SLAM, the position and orientation information of each moving body 2A, 2B, 2C can be obtained only by the laser sensors 3A, 3B, 3C performing detection using lasers. can be obtained easily.

本発明は、上述の実施形態に限定されるものではない。 The invention is not limited to the embodiments described above.

例えば、上述の実施形態では、各移動体2A,2B,2Cの外形は同一のものであったため、補正部12は、移動体2B,2Cの外形20B,20Cを自己の移動体2Aの外形と仮定して、補正を行っていた。これに代えて、複数の移動体2A,2B,2Cは、各々の移動体2A,2B,2Cの外形情報を互いに共有してよい。この場合、補正部12が検出結果の補正を行うときに、各々の移動体2A,2B,2Cの外形情報を正確に反映した上で、補正を行うことができる。 For example, in the above-described embodiment, since the moving bodies 2A, 2B, and 2C have the same outer shape, the correction unit 12 sets the outer shapes 20B and 20C of the moving bodies 2B and 2C to the outer shape of the own moving body 2A. I assumed it and made a correction. Alternatively, the plurality of moving bodies 2A, 2B, 2C may share the outline information of each of the moving bodies 2A, 2B, 2C. In this case, when the correction unit 12 corrects the detection result, the correction can be performed after accurately reflecting the outer shape information of each of the moving bodies 2A, 2B, and 2C.

具体的には、図8(a)に示すように、移動体2B,2Cが自己の移動体2Aとは異なる外形20B,20Cを有していた場合でも、補正部12は、共有した外形情報に基づいて、移動体2Bの固有の外形20B(ここでは三角形)を仮想的に設定し、移動体2Cの固有の外形20C(ここでは六角形)を仮想的に設定することができる。これにより、図8(b)に示すように、補正部12は、各移動体2B,2Cに固有の外形20B,20Cを反映した形にて、検出結果を補正することができる。 Specifically, as shown in FIG. 8(a), even if the moving bodies 2B and 2C have different outlines 20B and 20C from their own moving body 2A, the correction unit 12 uses the shared outline information , a unique outline 20B (here a triangle) of the moving body 2B can be virtually set, and a unique outline 20C (here a hexagon) of the moving body 2C can be virtually set. As a result, as shown in FIG. 8B, the correction unit 12 can correct the detection result in a manner reflecting the contours 20B and 20C unique to the moving bodies 2B and 2C.

上述の実施形態では、移動体2の周囲の物体を検出する検出部としてレーザセンサが例示されていたが、検出部の具体的構成は特に限定されるものではない。例えば、検出部としてカメラが採用されてもよい。カメラは、取得した画像の画像処理を行うことで、物体を検出すると共に、当該物体までの距離などの情報を検出することができる。例えば、画像中に写された物体のエッジを検出することで、物体の検出が可能である。また、検出部は、レーザセンサとカメラの組み合わせによって構成されてもよい。例えば、検出部は、物体の検出をカメラの画像に基づいて行い、物体との距離の計測をレーザセンサの結果を用いて行ってもよい。その他、検出部は、ミリ波レーダなどのセンサによって構成されてもよい。 In the above-described embodiment, a laser sensor was exemplified as the detection unit that detects objects around the moving body 2, but the specific configuration of the detection unit is not particularly limited. For example, a camera may be employed as the detection unit. By performing image processing on the acquired image, the camera can detect an object and information such as the distance to the object. For example, the object can be detected by detecting the edge of the object captured in the image. Also, the detection unit may be configured by a combination of a laser sensor and a camera. For example, the detection unit may detect the object based on the camera image and measure the distance to the object using the result of the laser sensor. Alternatively, the detection unit may be configured by a sensor such as a millimeter wave radar.

上述の実施形態では、移動体2A,2B,2Cの座標としての座標点PA,PB,PCは、レーザセンサ3A,3B,3Cの中心位置に設定されるものとしたが、移動体に対するレーザセンサの取り付け位置をレーザ点の取得された情報に反映させていればよく、中心位置に設定されることに限られない。 In the above-described embodiment, the coordinate points PA, PB, and PC as the coordinates of the moving bodies 2A, 2B, and 2C are set at the center positions of the laser sensors 3A, 3B, and 3C. It is sufficient that the mounting position of is reflected in the acquired information of the laser point, and is not limited to being set at the central position.

2…移動体、3…レーザセンサ(検出部)、12…補正部、13…走行制御部、100…走行制御システム。 DESCRIPTION OF SYMBOLS 2... Moving body 3... Laser sensor (detection part) 12... Correction part 13... Traveling control part 100... Traveling control system.

Claims (3)

複数の移動体の走行を制御する走行制御システムにおいて、
各々の前記移動体に設けられ、当該移動体の周囲の状況を検出する検出部と、
前記検出部による検出結果、及び予め取得された地図データに基づいて、各々の前記移動体の走行を制御する走行制御部と、
各々の前記移動体の外形情報と、前記検出部による前記検出結果を比較して、当該検出結果を補正する補正部と、
他の移動体の位置をサーバから入手する手段と、を備え
前記補正部は、一の前記移動体の前記検出部に対する他の前記移動体の検出箇所の距離と、一の前記移動体の前記検出部に対する他の前記移動体の外形の距離と、を比較することによって前記検出結果の補正を行い、
前記検出部はレーザを用いて前記移動体の周囲の状況を検出し、
前記走行制御部は、前記レーザを用いて前記検出部で検出した前記検出結果と前記地図データとをマッチングすることで推定された前記移動体の位置を用いて、前記移動体の走行を制御し、
前記補正部は、前記他の移動体の位置に対して前記他の移動体の外形を設定する、走行制御システム。
In a travel control system that controls the travel of multiple moving bodies,
a detection unit that is provided in each of the moving bodies and that detects a situation around the moving body;
a travel control unit that controls travel of each of the moving bodies based on the detection result of the detection unit and previously acquired map data;
a correction unit that compares the outer shape information of each moving object with the detection result obtained by the detection unit and corrects the detection result;
means for obtaining the position of another mobile object from a server ;
The correction unit compares a distance of a detection location of the one moving object with respect to the detection unit of the other moving object and a distance of an outer shape of the other moving object with respect to the detection unit of the one moving object. to correct the detection result by
The detection unit uses a laser to detect the surrounding situation of the moving body,
The travel control unit controls travel of the mobile object using the position of the mobile object estimated by matching the detection result detected by the detection unit using the laser with the map data. ,
The traveling control system , wherein the correcting unit sets the outer shape of the other moving body with respect to the position of the other moving body .
前記補正部は、前記一の移動体の前記検出部に対する前記他の移動体の検出箇所の距離と、前記一の移動体の前記検出部に対する前記他の移動体の外形の距離と、を比較し、前記一の移動体の前記検出部に対する前記他の移動体の外形の距離が短い場合は、前記検出部による検出結果が前記一の移動体の前記検出部に対する前記他の移動体の外形の距離となるように当該検出結果を補正する、請求項1に記載の走行制御システム。 The correcting unit compares a distance of a detection location of the one moving body with respect to the detecting unit of the other moving body and a distance of an outline of the one moving body with respect to the detecting unit of the other moving body. When the distance of the outer shape of the one moving body to the detection unit is short, the detection result obtained by the detection unit indicates the outer shape of the one moving body to the detection unit. 2. The traveling control system according to claim 1, wherein the detection result is corrected so that the distance is . 複数の前記移動体は、各々の前記移動体の前記外形情報を互いに共有する、請求項1又は2に記載の走行制御システム。 3. The travel control system according to claim 1 , wherein a plurality of said moving bodies share said outline information of each of said moving bodies with each other.
JP2019183903A 2019-10-04 2019-10-04 cruise control system Active JP7283341B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019183903A JP7283341B2 (en) 2019-10-04 2019-10-04 cruise control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183903A JP7283341B2 (en) 2019-10-04 2019-10-04 cruise control system

Publications (2)

Publication Number Publication Date
JP2021059188A JP2021059188A (en) 2021-04-15
JP7283341B2 true JP7283341B2 (en) 2023-05-30

Family

ID=75381668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183903A Active JP7283341B2 (en) 2019-10-04 2019-10-04 cruise control system

Country Status (1)

Country Link
JP (1) JP7283341B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150443A (en) 2010-01-20 2011-08-04 Hitachi Plant Technologies Ltd Robot and robot system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150443A (en) 2010-01-20 2011-08-04 Hitachi Plant Technologies Ltd Robot and robot system

Also Published As

Publication number Publication date
JP2021059188A (en) 2021-04-15

Similar Documents

Publication Publication Date Title
US10248123B2 (en) Mobile apparatus
US8306684B2 (en) Autonomous moving apparatus
US11347227B2 (en) Autonomous mobile apparatus
JP5247494B2 (en) Autonomous mobile device
JP7489014B2 (en) Location Estimation System
CN110488280B (en) Method and device for correcting parking space profile, vehicle and storage medium
KR102564663B1 (en) Coordinates recognition apparatus of automatic guided vehicle and method thereof
JP6442225B2 (en) Object detection device
KR20130089403A (en) Obstacle detection sensor
JP2020004342A (en) Mobile body controller
JP7283341B2 (en) cruise control system
JP6406894B2 (en) ENVIRONMENTAL MAP GENERATION CONTROL DEVICE, MOBILE BODY, AND ENVIRONMENTAL MAP GENERATION METHOD
CN116359932A (en) Barrier distance feedback method and device based on laser radar sensor
US12116253B2 (en) Method of controlling movable body, movable body and program
CN113711153B (en) Map creation system, signal processing circuit, mobile object, and map creation method
TW201519842A (en) Movement device with route correction function and its operation steps
US10794696B2 (en) Method for identifying noise data of laser ranging device
US9587950B2 (en) Carrier
JP2021076968A (en) Autonomous vehicle
JP7434943B2 (en) Self-position control system and self-position control method
JP7228116B2 (en) self-driving vehicle
JP2022051191A (en) Self-position estimation device
JP7275973B2 (en) position estimator
JP2023028662A (en) Autonomous running body
WO2020138115A1 (en) Autonomous moving body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R151 Written notification of patent or utility model registration

Ref document number: 7283341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151