JP7155216B2 - Mobile body control device and control method - Google Patents

Mobile body control device and control method Download PDF

Info

Publication number
JP7155216B2
JP7155216B2 JP2020165826A JP2020165826A JP7155216B2 JP 7155216 B2 JP7155216 B2 JP 7155216B2 JP 2020165826 A JP2020165826 A JP 2020165826A JP 2020165826 A JP2020165826 A JP 2020165826A JP 7155216 B2 JP7155216 B2 JP 7155216B2
Authority
JP
Japan
Prior art keywords
destination
moving
map data
data
vicinity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020165826A
Other languages
Japanese (ja)
Other versions
JP2022057524A (en
Inventor
昇尚 浦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Makino Milling Machine Co Ltd
Original Assignee
Makino Milling Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Makino Milling Machine Co Ltd filed Critical Makino Milling Machine Co Ltd
Priority to JP2020165826A priority Critical patent/JP7155216B2/en
Priority to PCT/JP2021/027771 priority patent/WO2022070575A1/en
Publication of JP2022057524A publication Critical patent/JP2022057524A/en
Application granted granted Critical
Publication of JP7155216B2 publication Critical patent/JP7155216B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions

Description

本発明は、移動体の制御装置及び制御方法に関する。 The present invention relates to a mobile body control device and control method.

主に、産業用途で使用されており、人間が運転操作を行わなくても自律で走行(移動)することができる移動体(車両)である、AGV(Automated Guided Vehicle)についての様々な技術が提案されている。AGVの自律移動において、経路を計画するための地図は、カメラによる画像から作成された地図が用いられることが多い。このような画像ベースの地図表現は、移動可能領域の表現が簡便であることから、経路計画に適している。その一方で、地図の解像度は、画像データの解像度によって決定されることから、地図に基づくAGVの自己位置推定及び位置決めの精度は、概ね画像データの解像度に依存している。このため、一定程度の誤差が生じ得るAGVの位置/姿勢を修正するための手法も提案されている。 Various technologies are available for AGV (Automated Guided Vehicle), which is mainly used for industrial purposes and is a mobile body (vehicle) that can run (move) autonomously without human operation. Proposed. In autonomous movement of AGVs, maps created from images taken by cameras are often used for route planning. Such image-based map representation is suitable for route planning because it is easy to represent movable areas. On the other hand, since the resolution of the map is determined by the resolution of the image data, the accuracy of self-localization and positioning of the AGV based on the map largely depends on the resolution of the image data. For this reason, methods have also been proposed for correcting the position/orientation of the AGV, in which a certain amount of error may occur.

AGVの位置/姿勢を修正するための手法は、例えば、特許文献1に開示されている。特許文献1には、出発地点から目的地まで経路に沿って自律的に移動する車両が開示されている。この車両は、自律移動に先立ち、出発地点から目的地までの全体的な経路を設定する。具体的には、例えば、出発地点及び目的地だけをプロットし、出発地点と目的地との間の経路は、車両の移動能力及び車両に搭載された制御装置等の処理能力に基づいて自動的に設定される。自律移動の際には、車両は、デジタルマップ中における自己(車両)位置を特定し、特定した自己位置に基づいて、経路に沿って目的地まで移動する。しかしながら、経路設定や位置特定には、一定の誤差が含まれるため、目的地において目標とする位置/姿勢と、車両が目的地近傍に到達した際の実際の位置/姿勢とは、異なり得る。したがって、特許文献1では、車両は、目的地近傍に到着すると、一旦停止する。停止した車両は、センサを用いて、停止位置周辺の環境のデータを検出すると共に、検出した環境データと目的地において目標とする位置/姿勢とを比較する。車両は、比較した結果に基づき、車両の位置/姿勢のずれが、所定の許容値以内に収まるように、車両を自動的に移動させる。しかしながら、車両の位置/姿勢を修正するために、車両の停止、停止位置周辺の環境のデータの検出、車両の移動といった処理を繰り返して移動する。このため、出発地点から目的地までの移動において、車両の位置/姿勢の修正にかかる時間の割合が大きくなる事に加えて、通常、架台上の積載物に衝撃を与えないように、低加速度かつ低速度での移動が求められる車両の移動時間は、さらに増加する。 A technique for correcting the position/orientation of an AGV is disclosed, for example, in US Pat. Patent Literature 1 discloses a vehicle that autonomously moves along a route from a starting point to a destination. The vehicle sets the overall route from the starting point to the destination prior to autonomous movement. Specifically, for example, only the starting point and the destination are plotted, and the route between the starting point and the destination is automatically determined based on the movement ability of the vehicle and the processing ability of the control device installed in the vehicle. is set to During autonomous movement, a vehicle specifies its own (vehicle) position in a digital map and moves to a destination along a route based on the specified self position. However, since route setting and position identification involve certain errors, the target position/attitude at the destination may differ from the actual position/attitude when the vehicle reaches the vicinity of the destination. Therefore, in Patent Document 1, the vehicle stops once when it reaches the vicinity of the destination. A stopped vehicle uses sensors to detect environmental data around the stop position, and compares the detected environmental data with the target position/attitude at the destination. Based on the result of the comparison, the vehicle automatically moves so that the position/orientation deviation of the vehicle is within a predetermined allowable value. However, in order to correct the position/orientation of the vehicle, the process of stopping the vehicle, detecting environmental data around the stop position, and moving the vehicle is repeated. For this reason, in moving from the starting point to the destination, in addition to the fact that the proportion of time required to correct the position/attitude of the vehicle increases, the acceleration is usually kept low so as not to impact the load on the platform. In addition, the travel time of the vehicle, which is required to travel at a low speed, will further increase.

米国特許第9244463号明細書U.S. Pat. No. 9,244,463

本発明の目的は、移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる移動体の制御装置及び制御方法を提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a control apparatus and a control method for a mobile body that can improve the accuracy of self-position estimation of the mobile body and improve the efficiency of self-position estimation.

本発明によれば、周囲の物体の有無を検出するセンサを有しており、出発点から目的地まで自律的に移動する移動体において、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを記憶する記憶装置と、スキャンデータから、目的地の周辺の局所地図データを生成する局所地図生成部と、画像地図データに基づいて、移動体を出発点から目的地の周辺まで移動させている間に、画像地図データに基づいた移動制御から局所地図データに基づいた移動制御に連続的に切り替える制御部と、を具備する移動体の制御装置が提供される。 According to the present invention, in a moving object that has a sensor that detects the presence or absence of surrounding objects and that moves autonomously from a starting point to a destination, scan data detected by the sensor and the moving area of the moving object are detected. a storage device for storing image map data, a local map generation unit for generating local map data around the destination from the scan data, and moving the moving object from the starting point to the vicinity of the destination based on the image map data A controller for continuously switching from movement control based on image map data to movement control based on local map data during movement.

さらに、本発明によれば、周囲の物体の有無を検出するセンサを有する移動体を、出発点から目的地まで自律的に移動させるための制御方法であって、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを、移動体に記憶させるステップと、スキャンデータから、目的地の周辺の局所地図データを生成するステップと、画像地図データに基づいて、出発点から目的地の周辺まで移動体を移動させるステップと、移動体が、画像地図データに基づいた移動制御から局所地図データに基づいた移動制御に連続的に切り替えて、目的地の周辺から目的地まで移動体を移動させるステップと、を具備する、移動体の制御方法が提供される。 Further, according to the present invention, there is provided a control method for autonomously moving a moving body having a sensor for detecting the presence or absence of surrounding objects from a starting point to a destination, comprising scan data detected by the sensor and a step of storing image map data of an area in which the mobile object moves in the mobile object; a step of generating local map data around the destination from the scan data; a step of moving the moving body to the vicinity of the destination, and the moving body continuously switching from movement control based on the image map data to movement control based on the local map data, and moving the moving body from the vicinity of the destination to the destination and moving the object.

制御装置は、記憶装置を備えているため、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを、移動体が出発地点から目的地への移動を開始する前に予め記憶させておくことができる。移動体は、出発地点を出発して目的地の周辺まで移動させている間に、局所地図生成部によって、記憶装置に記憶されたスキャンデータから目的地の周辺の局所地図データを生成することができる。このため、局所地図データを生成するためだけに、移動体を、目的地の周辺において停止する必要がなくなる。これにより、移動体の自己位置推定を、効率よく行うことができると共に、移動体の出発地点から目的地への移動時間を短縮することができる。 Since the control device has a storage device, the scan data detected by the sensor and the image map data of the moving area of the moving body are stored in advance before the moving body starts moving from the starting point to the destination. I can let you. While the mobile body is moving from the departure point to the vicinity of the destination, the local map generation unit can generate local map data of the vicinity of the destination from the scan data stored in the storage device. can. Therefore, it is no longer necessary to stop the moving object in the vicinity of the destination just to generate the local map data. As a result, the self-position estimation of the mobile body can be efficiently performed, and the travel time from the departure point to the destination of the mobile body can be shortened.

移動体の制御方法によれば、移動体は、センサによって検出されたスキャンデータ及び移動体が移動する領域の画像地図データを記憶した上で、出発地点から目的地への移動を開始することができる。移動を開始した移動体は、目的地の周辺まで移動させている間に、スキャンデータから目的地の周辺の局所地図データを生成する。このため、移動体は、局所地図データを生成するためだけに、目的地の周辺において停止する必要がなくなる。これにより、移動体は、効率よく自己位置推定を行うことができると共に、移動体の出発地点から目的地への移動時間を短縮することができる。さらに、出発地点から目的地の周辺までは、画像地図データを使用して移動し、目的地の周辺に到着した際に、画像地図データから局所地図データの使用に連続的に切り替えて、目的地まで移動する。局所地図データを使用するように切り替えられた移動体は、スキャンデータを使用して、移動制御を行った上で、目的地の周辺から目的地まで移動する。これにより、移動体の自己位置推定の精度を向上した上で、目的地の周辺から目的地まで移動することができる。 According to the method for controlling a moving body, the moving body can start moving from the starting point to the destination after storing the scan data detected by the sensor and the image map data of the area in which the moving body moves. can. A moving object that has started to move generates local map data around the destination from the scan data while it is being moved to the vicinity of the destination. Therefore, the mobile body does not need to stop around the destination just to generate the local map data. As a result, the mobile body can efficiently estimate its own position, and can shorten the travel time from the departure point to the destination of the mobile body. Furthermore, from the departure point to the vicinity of the destination, the image map data is used to move, and when the destination location is reached, the image map data is continuously switched to the local map data, and the destination map data is used. move up to A moving body that has been switched to use the local map data uses the scan data to perform movement control, and then moves from the vicinity of the destination to the destination. As a result, it is possible to move from the vicinity of the destination to the destination while improving the accuracy of self-position estimation of the mobile body.

本発明に係る移動体の制御装置及び制御方法によって、移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる。 INDUSTRIAL APPLICABILITY According to the control device and control method of a moving body according to the present invention, it is possible to improve the accuracy of self-position estimation of a moving body and improve the efficiency of self-position estimation.

図1は、実施形態に係る移動体の概略的な側面図を示す。FIG. 1 shows a schematic side view of a moving object according to an embodiment. 図2は、実施形態に係る移動体が移動する工場内の概略的な平面図を示す。FIG. 2 shows a schematic plan view of the interior of the factory where the moving body according to the embodiment moves. 図3は、移動体の制御装置の構成についてのブロック図を示す。FIG. 3 shows a block diagram of the configuration of the mobile body control device. 図4は、移動体により生成される画像地図データ及び点群データを模式的に示す。図4(A)は、同じ物体に対する画像地図データと点群データとの関係を模式的に示しており、図4(B)は、各位置において取得される点データの関係を模式的に示す。FIG. 4 schematically shows image map data and point cloud data generated by a moving object. FIG. 4A schematically shows the relationship between image map data and point cloud data for the same object, and FIG. 4B schematically shows the relationship between point data acquired at each position. . 図5は、局所地図データの生成を模式的に示す。FIG. 5 schematically shows generation of local map data. 図6は、移動体の制御方法をフローチャートとして示す。FIG. 6 shows a method of controlling a moving object as a flow chart.

以下、添付図面を参照して、実施形態に係る移動体の制御装置及び制御方法を説明する。同様な又は対応する要素には同一の符号を付し、重複する説明は省略する。理解を容易にするために、図の縮尺を変更して説明する場合がある Hereinafter, with reference to the accompanying drawings, a control device and a control method for a moving body according to embodiments will be described. Similar or corresponding elements are denoted by the same reference numerals, and overlapping descriptions are omitted. Figures may be scaled to facilitate understanding

図1は、実施形態に係る移動体10を示す概略的な側面図を示す。ここでは、移動体10の一例として、工場100(図2参照)等において、産業用途で使用されており、人間が運転操作を行わなくても自律で走行(移動)することができる車両が示されている。 FIG. 1 shows a schematic side view of a mobile object 10 according to an embodiment. Here, as an example of the moving body 10, a vehicle that is used for industrial purposes in a factory 100 (see FIG. 2) or the like and that can run (move) autonomously without human driving operation is shown. It is

具体的には、移動体10は、AGVとされている。移動体10は、車両本体11と、1つ又は複数の車輪12と、1つ又は複数のロータリエンコーダ13と、アーム14と、センサ15と、カメラ16と、移動体10の自律走行を制御するための制御装置20と、を備えている。制御装置20は、移動体10のいくつかの構成要素を制御するために、これらの構成要素と有線又は無線によって、通信可能に接続されている。なお、上記構成に限らず、移動体10は、他の構成要素を更に備えてもよい。 Specifically, the moving body 10 is an AGV. The mobile body 10 controls a vehicle body 11, one or more wheels 12, one or more rotary encoders 13, an arm 14, a sensor 15, a camera 16, and autonomous travel of the mobile body 10. and a control device 20 for The controller 20 is communicatively connected to several components of the mobile unit 10, either by wire or wirelessly, to control these components. Note that the moving body 10 may further include other components without being limited to the above configuration.

車両本体11の下方側には、移動のための車輪12が設けられており、車輪12は、これを回転させるための、例えば、サーボモータ等の駆動装置(図示省略)と連結されている。また、車輪12の回転数を検出するために、ロータリエンコーダ13が、車輪12毎に車輪12に隣接して配置されている。ロータリエンコーダ13は、検出した回転数を制御装置20に送信するために、有線又は無線によって、制御装置20と通信可能に接続されている。 Wheels 12 for movement are provided on the lower side of the vehicle body 11, and the wheels 12 are connected to a driving device (not shown) such as a servomotor for rotating the wheels. A rotary encoder 13 is arranged adjacent to each wheel 12 to detect the number of revolutions of the wheel 12 . The rotary encoder 13 is communicably connected to the control device 20 by wire or wirelessly in order to transmit the detected number of revolutions to the control device 20 .

アーム14は、例えば、多軸多関節型ロボットとされており、車両本体11の上部に取り付けられている。アーム14の先端には、工具T又はワークW等(共に、図2参照)の物品を保持するためのハンド18、グリッパ又はチャック等が設けられている。また、アーム14の先端側には、カメラ16が設けられている。カメラ16は、CMOSカメラ又はCCDカメラとされているが、これ限らず、カラーカメラ又は白黒カメラとされてもよい。カメラ16は、有線又は無線によって、制御装置20と通信可能に接続されている。これにより、カメラ16は、取得した画像を制御装置20に送信することができ、制御装置20は、カメラ16によって取得された画像に基づいて、アーム14の駆動装置(図示省略)に対して指令を送信することができる。 The arm 14 is, for example, a multi-axis multi-joint type robot and is attached to the top of the vehicle body 11 . A hand 18, a gripper, a chuck, or the like for holding an article such as a tool T or a work W (both of which are shown in FIG. 2) is provided at the tip of the arm 14. As shown in FIG. A camera 16 is provided on the tip side of the arm 14 . The camera 16 is a CMOS camera or a CCD camera, but is not limited to this and may be a color camera or a monochrome camera. The camera 16 is communicably connected to the control device 20 by wire or wirelessly. As a result, the camera 16 can transmit the acquired image to the control device 20, and the control device 20 instructs the driving device (not shown) of the arm 14 based on the image acquired by the camera 16. can be sent.

車両本体11の前方側には、移動体10の周囲における物体の有無を検出するために、レーザセンサ等のセンサ15が取り付けられている。なお、車両本体11の周囲又は中心にセンサ15が取り付けられてもよい。センサ15は、例えば、センサ15から発射したレーザが物体に当たって、戻ってくるまでの時間によって、移動体10の周囲における物体の有無及び当該物体までの距離を測定することができる。また、センサ15は、測定した物体までの距離等のデータを制御装置20に送信するために、有線又は無線によって、制御装置20と通信可能に接続されている。なお、以下の説明では、センサ15は、車両本体11の前方側に取り付けられているとして説明するが、これに限らず、例えば、アーム14等の移動体10の他の部分や車両本体11の他の位置に取り付けられてもよい。さらに、センサ15は、レーザセンサであるとして説明するが、これに限らず、例えば、デプスカメラ等の他の種類のセンサが設けられてもよい。 A sensor 15 such as a laser sensor is attached to the front side of the vehicle body 11 to detect the presence or absence of an object around the moving body 10 . Note that the sensor 15 may be attached around or in the center of the vehicle body 11 . The sensor 15 can measure the presence or absence of an object around the moving body 10 and the distance to the object, for example, based on the time it takes for the laser emitted from the sensor 15 to hit the object and return. In addition, the sensor 15 is communicably connected to the control device 20 by wire or wirelessly in order to transmit data such as the measured distance to the object to the control device 20 . In the following description, it is assumed that the sensor 15 is attached to the front side of the vehicle body 11. However, the sensor 15 is not limited to this. Other positions may be attached. Furthermore, although the sensor 15 is described as being a laser sensor, it is not limited to this, and other types of sensors such as a depth camera may be provided.

図2には、移動体10が移動する工場100内の概略的な平面図を示す。本実施形態に係る移動体10は、1つ又は複数の工作機械50が設けられた工場100内を移動する。工場100には、1つ又は複数の工作機械50と、1つ又は複数のストッカ60と、1つ又は複数のテーブル70と、工場管理システム90と、が設けられている。なお、工場100には、これらに限らず、他の設備が設けられてもよい。また、以下の説明では、移動体10は、工場100内を移動するものとして説明するが、これに限らず、例えば、倉庫等の他の施設内を移動するように構成されてもよい。 FIG. 2 shows a schematic plan view of the inside of the factory 100 in which the moving body 10 moves. A mobile body 10 according to the present embodiment moves within a factory 100 in which one or more machine tools 50 are provided. The factory 100 is provided with one or more machine tools 50 , one or more stockers 60 , one or more tables 70 , and a factory management system 90 . In addition, the factory 100 may be provided with other equipment without being limited to these. Further, in the following description, the moving body 10 is described as moving within the factory 100, but is not limited to this, and may be configured to move within other facilities such as a warehouse.

工場100内には、工作機械50として、マシニングセンタが設けられている。このため、工作機械50は、工具TによってワークWを加工するための主軸51と、複数の工具Tを格納するためのツールマガジン52と、を備えている。工場内の所定の場所には、ワークW又は、例えば、工具等の他の物品を保管するためのストッカ60が配置されている。また、テーブル70上には、工具T又は、例えば、ワークW等の他の物品が配置されている。なお、ここでは、工作機械50として、マシニングセンタが設けられているとして説明したが、これに限らず、マシニングセンタ以外の他の工作機械が設けられてもよい。さらに、ここでは、工作機械50は、主軸51と、ツールマガジン52と、を備えているとして説明したが、これに限らず、工作機械は、更に他の構成要素を備えていてもよい。 A machining center is provided as a machine tool 50 in the factory 100 . For this reason, the machine tool 50 includes a spindle 51 for machining the work W with the tools T, and a tool magazine 52 for storing a plurality of tools T. As shown in FIG. A stocker 60 for storing works W or other articles such as tools is arranged at a predetermined place in the factory. A tool T or other article such as a workpiece W is also placed on the table 70 . Here, although it has been described that a machining center is provided as the machine tool 50, the present invention is not limited to this, and a machine tool other than the machining center may be provided. Furthermore, here, the machine tool 50 has been described as including the spindle 51 and the tool magazine 52, but the machine tool is not limited to this and may further include other components.

また、工場100内には、工場100内のいくつかの構成要素(設備)を制御するための工場管理システム90が設けられている。工場管理システム90は、PLC(Programmable Logic Controller)、PC(Personal Computer)、サーバー、又は、タブレット等を含んで構成されている。また、工場管理システム90は、プロセッサ、記憶部、表示装置、及び、入力装置等を有する。工場管理システム90は、有線又は無線によって、工場100において制御する必要のある構成要素と通信可能に接続されている。 A factory management system 90 is also provided in the factory 100 for controlling some components (equipment) in the factory 100 . The factory management system 90 includes a PLC (Programmable Logic Controller), a PC (Personal Computer), a server, a tablet, or the like. Also, the factory management system 90 has a processor, a storage unit, a display device, an input device, and the like. Factory management system 90 is communicatively connected to the components that need to be controlled in factory 100, either by wires or wirelessly.

工場100内は、1つ又は複数の壁80によって仕切られており、移動体10は、壁80や工作機械50等の工場100内に配置された設備と衝突しないように、壁80によって仕切られた床の上を移動する。具体的には、移動体10は、工作機械50、ストッカ60、及び、テーブル70等の間を自律的に移動し、これらの間でワークW、工具T、又は、他の物品を搬送するように構成されている。工場管理システム90は、目的地を含む様々な指令を移動体10に送信することができ、移動体10は、工場管理システム90からの指令に基づいて工場100内を移動することができる。 The interior of the factory 100 is partitioned by one or more walls 80, and the moving body 10 is partitioned by the walls 80 so as not to collide with equipment arranged in the factory 100 such as the walls 80 and the machine tools 50. move across the floor. Specifically, the moving body 10 autonomously moves between the machine tool 50, the stocker 60, and the table 70, and conveys the work W, the tool T, or other articles therebetween. is configured to Factory management system 90 can send various instructions including a destination to mobile 10 , and mobile 10 can move within factory 100 based on the instructions from factory management system 90 .

図3は、移動体10の制御装置20の構成についてのブロック図を示す。制御装置20は、制御部としてのプロセッサ30と、記憶装置40と、インタフェース45と、を含んで構成されて。制御装置20は、PLC又はPC等を含んで構成されてもよい。プロセッサ30は、例えば、1つ又は複数のCPU等によって構成されており、後述するように、移動体10の移動を制御する。また、記憶装置40は、例えば、1つ又は複数のハードディスクドライブ、ROM(read only memory)及び/又はRAM(random access memory)等を含んで構成されている。さらに、インタフェース45は、例えば、I/Oポート等によって構成されている。これらの制御装置20の構成要素は、図示しないバスによって互いに接続されている。 FIG. 3 shows a block diagram of the configuration of the control device 20 of the moving body 10. As shown in FIG. The control device 20 includes a processor 30 as a control section, a storage device 40 and an interface 45 . The control device 20 may be configured including a PLC, a PC, or the like. The processor 30 is composed of, for example, one or a plurality of CPUs, etc., and controls movement of the moving body 10 as described later. The storage device 40 includes, for example, one or more hard disk drives, ROM (read only memory) and/or RAM (random access memory). Furthermore, the interface 45 is configured by, for example, an I/O port. These components of the control device 20 are connected to each other by a bus (not shown).

制御装置20は、更に他の構成要素を含んで構成されてもよく、具体的には、液晶ディスプレイ及び/又タッチパネル等の表示装置、及び、マウス、キーボード及び/又タッチパネル等の入力装置を備えてもよい。 The control device 20 may further include other components, and specifically includes a display device such as a liquid crystal display and/or a touch panel, and an input device such as a mouse, keyboard and/or touch panel. may

プロセッサ30は、移動体10の移動を制御するための構成として、局所地図生成部31と、移動経路切り替え部32と、位置推定部33と、ロケーション登録部34、速度制御部35と、を備えている。これらの構成部分は、具体的には、プロセッサ30と移動体10に組み込まれた回路又はオペレーティングシステム等によって実行される。オペレーティングシステムとしては、例えば、米国のオープンソースロボティクス財団によって管理されるROS(Robot Operating System)のような、ロボット用に開発された様々なオペレーティングシステムが使用されてもよい。なお、これらに限らず、移動体10に組み込まれたプログラムを用いて実行されてもよい。プログラムは、プロセッサ30に直接記録されていてもよく、記憶装置40に記憶されたプログラムをプロセッサ30から呼び出して実行されてもよい。 The processor 30 includes a local map generation unit 31, a movement route switching unit 32, a position estimation unit 33, a location registration unit 34, and a speed control unit 35 as components for controlling movement of the mobile body 10. ing. These components are specifically executed by the processor 30 and a circuit or operating system incorporated in the mobile body 10, or the like. As an operating system, various operating systems developed for robots may be used, such as ROS (Robot Operating System) managed by the Open Source Robotics Foundation in the United States. In addition, it may be executed using a program incorporated in the moving body 10 without being limited to these. The program may be directly recorded in the processor 30 or may be executed by calling the program stored in the storage device 40 from the processor 30 .

記憶装置40は、移動体10が、出発地点から目的地への移動を開始する前に、制御装置20によって、予め計測されたスキャンデータ130及び生成された画像地図データ120を記憶する。記憶装置40には、移動制御の直前に予め計測されたスキャンデータ130及び生成された画像地図データ120に限らず、過去の移動制御において計測、生成されたデータ130、140も記憶されている。記憶されているスキャンデータ130及び画像地図データ120には、時間、場所等のインデックスが付されており、記憶装置40には、これらのインデックスを用いて検索可能なデータベースが構築されている。 The storage device 40 stores scan data 130 and image map data 120 generated by the control device 20 before the mobile body 10 starts moving from the starting point to the destination. The storage device 40 stores not only the scan data 130 and the generated image map data 120 that were measured in advance immediately before movement control, but also the data 130 and 140 that were measured and generated in the past movement control. The stored scan data 130 and image map data 120 are indexed with time, place, etc., and a searchable database is constructed in the storage device 40 using these indexes.

ここで、画像地図データ120とは、移動体10の自己位置や移動体10の目的地へ向けた移動量(速度)及び移動方向を決定するための移動体10の移動経路における環境全体の情報である。環境全体の情報とは、具体的には、環境全体を細かい格子状に区切り、各格子を「障害物」、「障害物なし」、「未観測」の3つに分類された情報である。画像地図データ120は、移動体10が、目的地まで自律移動する前に予め生成する必要があり、一般的には、SLAM(Simultaneous Localization and Mapping)手法を用いて生成される。SLAM手法によれば、1)移動体10の自己位置を推定する。2)移動体10の自己位置を推定するのと同時に、推定した自己位置から工場100全体の環境をセンシングする。3)センシングした範囲の格子を「障害物」又は「障害物なし」に分類する。4)移動体10は、工場100内の別の地点へ移動し、自己位置を推定すると共に、推定した自己位置から工場100全体の環境をセンシングする。5)移動体10は、画像地図データ120を生成するのに十分な範囲を網羅するまで、工場100内を移動して、1)~4)を繰り返す。このようなステップで、移動体10は、画像地図データ120の生成を行う。ここでは、移動体10に設けられたセンサ15によって取得されたデータに基づいて画像地図データ120が生成される。このとき、移動体10の工場100内における移動は、オペレータによって手動で操作されてもよく、又は、予め移動体10に入力した地図データに基づき移動体10が自律走行してもよく、又は、作成中の画像地図に基づき自動的に移動経路を算出し、移動体10が自律走行してもよい。生成された画像地図データは、記憶装置40に記憶される。 Here, the image map data 120 is information of the entire environment in the moving route of the moving body 10 for determining the self position of the moving body 10 and the moving amount (speed) and moving direction toward the destination of the moving body 10. is. Specifically, the information of the entire environment is information obtained by dividing the entire environment into fine grids and classifying each grid into three categories: "obstacle", "no obstacle", and "unobserved". The image map data 120 must be generated in advance before the mobile body 10 autonomously moves to the destination, and is generally generated using the SLAM (Simultaneous Localization and Mapping) method. According to the SLAM technique, 1) the self-position of the moving body 10 is estimated. 2) At the same time as estimating the self-position of the mobile body 10, the environment of the entire factory 100 is sensed from the estimated self-position. 3) Classify the grid in the sensed range as "obstacle" or "no obstacle". 4) The mobile body 10 moves to another point in the factory 100, estimates its own position, and senses the environment of the entire factory 100 from the estimated self position. 5) The moving body 10 moves within the factory 100 and repeats 1) to 4) until a sufficient range for generating the image map data 120 is covered. Through such steps, the mobile body 10 generates the image map data 120 . Here, image map data 120 is generated based on data acquired by the sensor 15 provided on the mobile body 10 . At this time, the movement of the mobile body 10 within the factory 100 may be manually operated by the operator, or the mobile body 10 may autonomously travel based on map data previously input to the mobile body 10, or The moving route may be automatically calculated based on the image map being created, and the moving body 10 may travel autonomously. The generated image map data is stored in the storage device 40 .

また、スキャンデータ130とは、移動体10のセンサ15によって、一定の頻度/間隔でスキャン(測定)された点の集合(点群)である。具体的には、移動体10は、工場100内を移動し、工場100内の各地点(位置)において、センサ15から、一定のインターバルで、工場100内における工作機械50、ストッカ60、テーブル70及び壁80等の物体にレーザを照射する。物体に当たったレーザが戻ってくるまでの時間を測定することによって、移動体10とこれらの物体との間隔(距離)を測定することができる。移動体10は、工場100内の各位置において、そこから照射できる範囲内での点データ132を取得する。このように計測した点データ132を集約(位置合わせ)することによって、工場100内に配置された各物体表面の形状を点データ132の集合体であるスキャンデータ130として認識することができる。点データ132の位置合わせには、ICP(Iterative Closest Point)等の手法が用いられる。一方、センサ15によって検出されない領域(例えば、物体が配置されていない単なる空間)のデータは、スキャンデータ130には含まれない。通常、スキャンデータ130は、移動体10の自己位置(ここでは、レーザを照射した位置)データと併せて取得するため、移動体10の重心を基準とする座標値(u、v、w座標)として得られるスキャンデータ130の各点データ132は、例えば、工場100内の基準点に対する座標値(x、y、z座標)へ座標変換することができる。このように取得されるスキャンデータ130の精度は、センサ15の分解能に依存する。生成されたスキャンデータ130は、記憶装置40に記憶される。 The scan data 130 is a set (point group) of points scanned (measured) at a constant frequency/interval by the sensor 15 of the moving body 10 . Specifically, the moving body 10 moves within the factory 100, and at each point (position) within the factory 100, from the sensor 15, the machine tool 50, the stocker 60, and the table 70 within the factory 100 are detected at regular intervals. and an object such as a wall 80 is irradiated with a laser. By measuring the time it takes for the laser that hits the object to return, the interval (distance) between the moving body 10 and these objects can be measured. At each position in the factory 100, the moving body 10 acquires point data 132 within a range that can be irradiated therefrom. By aggregating (aligning) the point data 132 thus measured, the shape of each surface of each object placed in the factory 100 can be recognized as the scan data 130 that is an aggregate of the point data 132 . A technique such as ICP (Iterative Closest Point) is used to align the point data 132 . On the other hand, the scan data 130 does not include data of areas not detected by the sensor 15 (for example, a mere space in which no object is arranged). Normally, the scan data 130 is acquired together with the self-position (here, the laser-irradiated position) data of the moving body 10, so the coordinate values (u, v, w coordinates) with respect to the center of gravity of the moving body 10 Each point data 132 of the scan data 130 obtained as can be coordinate-transformed into coordinate values (x, y, z coordinates) with respect to a reference point in the factory 100, for example. The accuracy of the scan data 130 acquired in this way depends on the resolution of the sensor 15 . The generated scan data 130 is stored in the storage device 40 .

図4(A)及び図4(B)に、工場内100内において、移動体10により生成される画像地図データ120及びスキャンデータ130を模式的に示す。図中に示された例では、移動体10は、工場100内の壁80に沿って移動しており、時間T1からT2、さらに、T3までの間における移動体10が同じ図中にまとめて示されている。移動体10の制御装置20は、各時間(各位置)において、センサ15によって取得された工場100内のスキャンデータに基づいて、画像地図データ120を生成する。図4(A)中には、壁80に相当する「障害物」としての画像地図データ120が示されている(図中の黒四角部分)。なお、「障害物なし」及び「未観測」に相当するデータは、図中には明示的に示されていないが、「障害物」についてのデータと共に画像地図データ120に含まれている。 4A and 4B schematically show image map data 120 and scan data 130 generated by the moving body 10 in the factory 100. FIG. In the example shown in the figure, the mobile body 10 is moving along the wall 80 in the factory 100, and the mobile body 10 from time T1 to T2 and further to T3 are collectively shown in the same figure. It is shown. The control device 20 of the moving body 10 generates image map data 120 based on the scan data inside the factory 100 acquired by the sensor 15 at each time (each position). FIG. 4A shows image map data 120 as an "obstacle" corresponding to the wall 80 (black square portion in the figure). The data corresponding to "no obstacle" and "unobserved" are included in the image map data 120 together with the data regarding "obstacle" although they are not explicitly shown in the drawing.

図4(B)には、各時間(各位置)において取得された点データ132の関係を示すために、図中における移動体10の進行方向(U方向)の位置を合わせた上で、図4(A)中に示されている各時間の点データ132を分離して示す。同じく図中には、各時間における移動体10も示す。図中に示されるように、各時間(各位置)で計測できる点データ132の範囲は、空間的に制限されるため、各位置で取得した点データ132を集約してスキャンデータ130を生成する。このとき、図4(A)に示されるように、点データ132は、工場100内の同じ物体(位置)であっても、完全に一致することなく、点データ132同士の誤差を生じ得る。このため、ICP等の手法によって、誤差を最小化するように位置合わせされる。 In FIG. 4B, in order to show the relationship of the point data 132 acquired at each time (each position), the position of the traveling direction (U direction) of the moving body 10 in the figure is aligned, and then the figure The point data 132 for each time shown in 4(A) are shown separately. Similarly, the figure also shows the moving object 10 at each time. As shown in the figure, since the range of point data 132 that can be measured at each time (each position) is spatially limited, the point data 132 acquired at each position is aggregated to generate scan data 130. . At this time, as shown in FIG. 4A, the point data 132 do not match perfectly even for the same object (position) in the factory 100, and errors may occur between the point data 132. FIG. Therefore, techniques such as ICP are aligned to minimize the error.

スキャンデータ130及び画像地図データ120が、記憶装置40に記憶された状態で、例えば、オペレータや工場管理システム90から移動指令を受けると、移動体10は、画像地図データ120上において、出発地点の座標値から目的地の座標値までの全体経路を生成する。また、目的地の座標値は、予め入力された位置、又は、工場管理システム90から指令された位置を目的地としてもよい。全体経路を生成した移動体10は、画像地図データ120を参照しながら、車両本体11に配置された駆動回路17を制御して、車輪12を回転させることにより、自律移動を開始する。図3に示されるように、制御装置20は、局所地図生成部31を備えており、局所地図生成部31は、出発地点を出発して、目的地の周辺に到達するまでの間に、スキャンデータ130から、目的地の周辺の局所地図データ140を生成することができる。 With the scan data 130 and image map data 120 stored in the storage device 40 , for example, when a movement command is received from an operator or the factory management system 90 , the moving body 10 moves to the departure point on the image map data 120 . Generate the entire route from the coordinate value to the coordinate value of the destination. In addition, the coordinate values of the destination may be a position input in advance or a position instructed by the factory management system 90 as the destination. The moving body 10 that has generated the entire route starts autonomous movement by controlling the drive circuit 17 arranged in the vehicle body 11 to rotate the wheels 12 while referring to the image map data 120 . As shown in FIG. 3, the control device 20 includes a local map generation unit 31. The local map generation unit 31 performs scanning from the starting point until reaching the vicinity of the destination. From the data 130, local map data 140 around the destination can be generated.

ここで、局所地図データ140は、目的地から最短の位置におけるスキャンデータ130を基準データとすると共に、目的地の周辺におけるスキャンデータ130だけを統合することによって、生成することができる。具体的には、制御装置20は、記憶装置40に記憶されている(データベースに登録されている)、移動体10のスキャンデータ130を検索して、目的地から最短の位置にあるスキャンデータ130を特定すると共に、特定されたスキャンデータ130から所定の範囲内にあるスキャンデータ130を抽出する。そして、目的地から最短の位置におけるスキャンデータ130を基準にして、所定の範囲内にあるスキャンデータ130をICP手法等に基づいて位置合わせし、統合したデータを局所地図データ140としている。 Here, the local map data 140 can be generated by using the scan data 130 at the nearest position from the destination as reference data and integrating only the scan data 130 around the destination. Specifically, the control device 20 searches for the scan data 130 of the moving body 10 stored in the storage device 40 (registered in the database), and scans the scan data 130 at the shortest position from the destination. is specified, and scan data 130 within a predetermined range is extracted from the specified scan data 130 . Based on the scan data 130 at the shortest position from the destination, the scan data 130 within a predetermined range are aligned based on the ICP method or the like, and integrated data is used as local map data 140 .

図5には、抽出方法の一例を示す。ここでは、特定された移動体10の自己位置から半径dの範囲内に位置するスキャンデータ130だけを抽出して、局所地図データ140が生成されている。目的地から最短の位置にある自己位置に対応するスキャンデータ130を基準にすると共に、自己位置から所定の範囲内にあるスキャンデータ130だけを使用することによって、局所地図データ140を生成する際の誤差の蓄積を抑制することができる。さらに、局所地図データ140は、目的地の周辺におけるスキャンデータ130だけを抽出するため、処理するデータ数を低減することができる。これにより、移動体10の自己位置推定の時間を、短縮することができる。 FIG. 5 shows an example of an extraction method. Here, the local map data 140 is generated by extracting only the scan data 130 located within the radius d from the identified self-position of the moving body 10 . Based on the scan data 130 corresponding to the self-position at the shortest position from the destination, and by using only the scan data 130 within a predetermined range from the self-position, when generating the local map data 140 Accumulation of errors can be suppressed. Furthermore, since the local map data 140 extracts only the scan data 130 around the destination, the number of data to be processed can be reduced. Thereby, the time for self-position estimation of the mobile body 10 can be shortened.

なお、以下の説明では、目的地の周辺におけるスキャンデータ130とは、特定された自己位置から半径dの範囲内に位置するスキャンデータ130であるとして説明するが、これに限らない。例えば、移動体10の特定された自己位置から半径dの範囲内、かつ、移動体10の進行方向を基準として、平面視で所定の角度(所定の方位)の範囲内のスキャンデータ130が抽出されてもよい。また、スキャンデータ130を抽出する、特定された自己位置からの所定の範囲は、目的地の周辺に配置された物体の量、空間の広さ等に応じて、適宜決定されてよい。 In the following description, the scan data 130 around the destination is the scan data 130 located within a radius d from the specified self-position, but the present invention is not limited to this. For example, scan data 130 within a range of a predetermined angle (predetermined azimuth) in plan view with respect to the moving direction of the moving body 10 and within a radius d from the specified self-position of the moving body 10 is extracted. may be Also, the predetermined range from the specified self-position for extracting the scan data 130 may be appropriately determined according to the amount of objects placed around the destination, the size of the space, and the like.

移動体10が、目的地の周辺に到着すると、制御装置20の移動経路切り替え部32は、移動体10が参照するデータを画像地図データ120から局所地図データ140に連続的に切り替えることができる。位置推定部33は、スキャンデータ130を使用して、移動体10の自己位置を推定する。具体的には、移動体10の現在地におけるスキャンデータ130と局所地図データ140とを対比する(位置合わせする)ことによって、移動体10の現在地における座標値を求める。これにより、移動体10の制御装置20は、局所地図データ140及び画像地図データ120の一方又は両方を使用して、目的地の周辺から目的地までの移動制御を行うことができる。位置推定部33は、移動体10の現在地における座標値が登録された局所地図データ140及び画像地図データ120の一方又は両方を使用して、移動体の位置決めを行う。具体的には、予め生成した全体経路からのずれを算出することによって、移動体10が、全体経路に沿って目的地へ移動するための、移動体10の移動量及び方位(方向)を算出する。 When the moving body 10 reaches the vicinity of the destination, the movement path switching unit 32 of the control device 20 can continuously switch the data referred to by the moving body 10 from the image map data 120 to the local map data 140. The position estimator 33 uses the scan data 130 to estimate the self-position of the mobile object 10 . Specifically, the coordinate values at the current location of the mobile object 10 are obtained by comparing (aligning) the scan data 130 and the local map data 140 at the current location of the mobile object 10 . Thereby, the control device 20 of the moving body 10 can use one or both of the local map data 140 and the image map data 120 to control movement from the vicinity of the destination to the destination. The position estimation unit 33 uses one or both of the local map data 140 in which the coordinate values of the current location of the mobile object 10 are registered and the image map data 120 to position the mobile object. Specifically, by calculating the deviation from the overall route generated in advance, the amount of movement and the azimuth (direction) of the mobile object 10 for moving to the destination along the overall route are calculated. do.

本実施形態(本発明)で高精度位置決めを行う場合は、画像地図データ120作成後、ロケーション登録部34において局所地図データ140での目的地の座標値を取得する。具体的には、移動体10が目的地に移動後、画像地図データ120上で現在地における座標の近傍となるスキャンデータ130をデータベースから取得し、周辺のスキャンデータ130を用いて局所地図データ140を生成する。生成した局所地図データ140に対して、現在地におけるスキャンデータ130の位置合わせを行うことによって、局所地図データ140上での現在地における座標値を算出し、画像地図データ120と局所地図データ140上での現在地における座標値をロケーション登録部34に登録する。また、座標値については、画像地図データ120だけでなく、スキャンデータ130上での座標値も登録することができる。 When high-precision positioning is performed in this embodiment (present invention), the coordinate values of the destination in the local map data 140 are obtained in the location registration unit 34 after the image map data 120 is created. Specifically, after the moving object 10 has moved to the destination, the scan data 130 near the coordinates of the current location on the image map data 120 is acquired from the database, and the local map data 140 is generated using the scan data 130 of the surroundings. Generate. By aligning the scan data 130 at the current location with the generated local map data 140, the coordinate values at the current location on the local map data 140 are calculated, and the coordinate values on the image map data 120 and the local map data 140 are calculated. Register the coordinate values at the current location in the location registration unit 34 . As for the coordinate values, not only the image map data 120 but also the coordinate values on the scan data 130 can be registered.

速度制御部35は、算出された移動体10の移動量に基づいて移動体10の移動速度を設定する。さらに、速度制御部35は、設定された移動速度から各車輪12の回転数を設定し、駆動回路17を介して車輪12へ伝達する(図2及び図3参照)。また、速度制御部35は、例えば、移動体10が参照するデータを局所地図データ140に切り替えた直後の移動体10の移動速度が、移動体10が参照するデータを切り替える直前の速度と所定の閾値以上の差を生じる場合は、例えば、移動速度を減速する、又は、大きな加速度が生じない程度に増速する等のように、移動速度の差が小さくなるように修正する。 The speed control unit 35 sets the moving speed of the moving body 10 based on the calculated movement amount of the moving body 10 . Further, the speed control unit 35 sets the rotation speed of each wheel 12 from the set moving speed, and transmits it to the wheels 12 via the drive circuit 17 (see FIGS. 2 and 3). Further, the speed control unit 35, for example, sets the moving speed of the moving body 10 immediately after switching the data referred to by the moving body 10 to the local map data 140 to be equal to the speed immediately before switching the data referred to by the moving body 10 to a predetermined value. If the difference is equal to or greater than the threshold value, the movement speed is corrected to reduce the difference, for example, by reducing the movement speed or increasing the speed to the extent that large acceleration does not occur.

本発明の作用及び効果について、図6のフローチャートに基づいて説明する。 The action and effects of the present invention will be described based on the flowchart of FIG.

ステップS10では、起動された移動体10は、工場100内を移動して、工場100内における自己位置、すなわち、工場100内の基準点に対する位置(x、y、z座標値)及び工場100内の基準座標系(xyz座標系)に対する姿勢(方位)のデータを取得する。また、ステップS20では、自己位置データを取得した位置において、センサ15により取得したデータから画像地図データ120を生成すると共に、センサ15を用いて工場100内に設置及び配置された物体をスキャンすることによって、スキャンデータ130を生成する。ステップS10及びステップS20は、移動体10の自律移動に必要な領域を網羅するまで繰り返される。完成した画像地図データ120及びスキャンデータ130は、記憶装置40に記憶される。なお、例えば、既に移動経路を含むデータ120、130が記憶装置40のデータベースに登録されている場合は、ステップS10及びステップS20は、省略されてもよい。 In step S10, the activated moving body 10 moves within the factory 100, and the self-position within the factory 100, that is, the position (x, y, z coordinate values) with respect to the reference point within the factory 100 and the attitude (orientation) data with respect to the reference coordinate system (xyz coordinate system). Further, in step S20, image map data 120 is generated from the data acquired by the sensor 15 at the position where the self-location data was acquired, and the sensor 15 is used to scan the objects installed and arranged in the factory 100. to generate scan data 130 . Steps S10 and S20 are repeated until the area necessary for autonomous movement of the moving body 10 is covered. The completed image map data 120 and scan data 130 are stored in the storage device 40 . In addition, for example, when the data 120 and 130 including the moving route are already registered in the database of the storage device 40, steps S10 and S20 may be omitted.

ステップS30では、移動体10は、画像地図データ120上において、出発地点の座標値から目的地の座標値までの全体経路を生成する。全体経路を生成した移動体10は、画像地図データ120を参照しながら、車両本体11に配置された駆動回路17を制御して、自律移動を開始する。ステップS40では、制御装置20は、移動体10の自律移動の開始前又は開始と同時に、生成した全体経路及び画像地図データ120に基づいて、局所地図データ140の使用の有無(要否)を決定する。局所地図データ140を使用しない場合は、ステップS50において、移動体10は、画像地図データ120だけを参照して、目的地まで移動する。 In step S<b>30 , the moving object 10 generates an entire route from the coordinate values of the departure point to the coordinate values of the destination on the image map data 120 . The moving body 10 that has generated the overall route controls the drive circuit 17 arranged in the vehicle body 11 while referring to the image map data 120 to start autonomous movement. In step S40, the control device 20 determines whether or not to use the local map data 140 based on the generated overall route and image map data 120 before or at the same time as the start of autonomous movement of the mobile body 10. do. If the local map data 140 is not used, the moving body 10 refers only to the image map data 120 and moves to the destination in step S50.

局所地図データ140を使用する場合は、ステップS60へ移行し、移動体10は、出発地点を出発後、目的地の周辺に到達するまでの間に、局所地図データ140を生成する。これにより、目的地の周辺において停止する必要がなくなるため、移動体10の自己位置推定を、効率よく行うことができると共に、移動体10の出発地点から目的地への移動時間を短縮することができる。 If the local map data 140 is to be used, the process proceeds to step S60, and the mobile body 10 generates the local map data 140 after leaving the starting point until reaching the vicinity of the destination. Since this eliminates the need to stop around the destination, the self-position estimation of the moving body 10 can be performed efficiently, and the time required for moving the moving body 10 from the departure point to the destination can be shortened. can.

局所地図データ140は、目的地から最短の位置におけるスキャンデータ130を基準データとすると共に、目的地の周辺におけるスキャンデータ130だけを抽出することによって、生成することができる。例えば、制御装置20は、記憶装置40に記憶されている(データベースに登録されている)、移動体10の自己位置のデータを検索して、目的地から最短の位置にあるスキャンデータ130を特定すると共に、特定されたスキャンデータ130から所定の範囲内にあるスキャンデータ130を抽出する。これにより、局所地図データ140の誤差の蓄積を抑制することができる。また、局所地図データ140は、目的地の周辺におけるスキャンデータ130だけを抽出するため、処理するデータ数を低減し、移動体10の自己位置推定の時間を、短縮することができる。 The local map data 140 can be generated by using the scan data 130 at the nearest position from the destination as reference data and extracting only the scan data 130 around the destination. For example, the control device 20 searches the self-position data of the mobile body 10 stored in the storage device 40 (registered in the database), and specifies the scan data 130 at the shortest position from the destination. At the same time, scan data 130 within a predetermined range is extracted from the identified scan data 130 . As a result, accumulation of errors in the local map data 140 can be suppressed. Also, since the local map data 140 extracts only the scan data 130 around the destination, the amount of data to be processed can be reduced, and the time required for self-position estimation of the mobile body 10 can be shortened.

ステップS70において、移動体10は、局所地図データ140の生成後も、目的地の周辺までは、画像地図データ120だけを参照して移動する。ステップS80では、目的地の周辺に到着した移動体10の制御装置は、参照する地図データを画像地図データ120から局所地図データ140へ切り替える。これにより、移動体10は、スキャンデータを使用して自己位置推定及び位置決めを行うことができるため、移動体の自己位置推定の精度を向上した上で、目的地の周辺から目的地まで移動することができる。 In step S70, even after the local map data 140 is generated, the moving body 10 moves to the vicinity of the destination by referring only to the image map data 120. FIG. In step S<b>80 , the control device of the moving body 10 that has arrived around the destination switches the map data to be referenced from the image map data 120 to the local map data 140 . As a result, the moving object 10 can perform self-position estimation and positioning using the scan data, and the accuracy of the self-position estimation of the moving object is improved before moving from the vicinity of the destination to the destination. be able to.

ステップS90では、速度制御部35は、移動体10が参照するデータを局所地図データ140に切り替えた直後の移動体10の移動速度が、切り替える直前の速度と所定の閾値以上の差を生じる場合は、例えば、移動速度を減速する、又は、大きな加速度が生じない程度に増速するように修正する。これにより、移動体10の加速度が大きくなることを抑制し、例えば、移動体10の架台上の積載物に衝撃が生じることを抑制することができる。 In step S90, if the moving speed of the moving body 10 immediately after switching the data referenced by the moving body 10 to the local map data 140 differs from the speed immediately before switching by a predetermined threshold or more, the speed control unit 35 For example, the movement speed is reduced, or corrected so as to increase to the extent that large acceleration does not occur. As a result, it is possible to suppress an increase in the acceleration of the mobile body 10 and, for example, to suppress an impact on a load on the platform of the mobile body 10 .

ステップS100では、移動体10は、局所地図データ140を参照して目的地まで移動を続け、目的地に到着すると、ステップS110において、移動体10は、停止する。 In step S100, the mobile body 10 continues to move to the destination with reference to the local map data 140, and upon arrival at the destination, the mobile body 10 stops in step S110.

以上の方法を通じて、移動体を制御することによって、移動体の自己位置推定の精度向上と共に、自己位置推定の効率化を図ることができる。 By controlling the mobile body through the above method, it is possible to improve the accuracy of self-position estimation of the mobile body and improve the efficiency of self-position estimation.

移動体の制御装置及び制御方法の実施形態について説明したが、本発明は上記の実施形態に限定されない。当業者が想到する範囲において、上記の実施形態の様々な変形が本発明の実施形態に含まれる。 Although embodiments of the control device and control method for a moving body have been described, the present invention is not limited to the above embodiments. Various modifications of the above-described embodiments are included in the embodiments of the present invention within the scope of those skilled in the art.

10 移動体
15 センサ
20 制御装置
30 プロセッサ(制御部)
31 局所地図生成部
40 記憶装置
120 画像地図データ
130 スキャンデータ
140 局所地図データ
REFERENCE SIGNS LIST 10 moving body 15 sensor 20 control device 30 processor (control unit)
31 local map generator 40 storage device 120 image map data 130 scan data 140 local map data

Claims (6)

周囲の物体の有無を検出するセンサを有しており、出発点から目的地まで自律的に移動する移動体において、
前記センサによって検出されたスキャンデータ及び前記移動体が移動する領域の画像地図データを記憶する、記憶装置と、
前記出発点を出発して、前記目的地の周辺に到達するまでの間に、前記スキャンデータから、目的地の周辺の局所地図データを生成する、局所地図生成部と、
前記移動体を前記出発点から前記目的地の周辺までは前記画像地図データに基づいた移動制御を行い、目的地の周辺では、前記目的地の周辺のスキャンデータだけ統合した局所地図データに基づいた移動制御に連続的に移動しながら切り替える移動経路切り替え部を有する制御部と、
を具備する、移動体の制御装置。
A moving object that has a sensor that detects the presence or absence of surrounding objects and moves autonomously from a starting point to a destination,
a storage device that stores scan data detected by the sensor and image map data of an area in which the moving object moves;
a local map generation unit that generates local map data around the destination from the scan data from the departure point until the destination is reached ;
The movement of the moving object is controlled based on the image map data from the starting point to the vicinity of the destination, and in the vicinity of the destination, local map data obtained by integrating only the scan data of the vicinity of the destination is used. A control unit having a movement path switching unit that switches while continuously moving to movement control based on
A mobile body control device comprising:
前記局所地図データは、前記目的地の周辺における前記移動体の自己位置と、前記スキャンデータと、から生成される、請求項1に記載の移動体の制御装置。 2. The mobile body control device according to claim 1, wherein said local map data is generated from said mobile body's self-position in the vicinity of said destination and said scan data. 前記目的地の周辺の移動制御において、前記移動体の位置及び経路に基づき求めた前記移動体の移動速度が、前記移動体の直前の移動速度と所定の閾値以上の差を生じる場合は、移動速度の差が小さくなるように該移動速度を変更する、速度制御部を備えた、請求項1又は請求項2に記載の移動体の制御装置。 In the movement control around the destination, if the moving speed of the moving object obtained based on the position and route of the moving object is different from the moving speed immediately before the moving object by a predetermined threshold or more, 3. The moving body control device according to claim 1, further comprising a speed control unit that changes the moving speed so that the speed difference is reduced. 周囲の物体の有無を検出するセンサを有する移動体を、出発点から目的地まで自律的に移動させるための制御方法であって、
前記センサによって検出されたスキャンデータ及び前記移動体が移動する領域の画像地図データを、前記移動体に記憶させるステップと、
前記出発点を出発して、前記目的地の周辺に到達するまでの間に、前記スキャンデータから、目的地の周辺の局所地図データを生成するステップと、
前記画像地図データに基づいて、前記出発点から前記目的地の周辺まで前記移動体を移動させるステップと、
前記目的地の周辺では、前記画像地図データに基づいた移動制御から前記局所地図データに基づいた移動制御に連続的に移動しながら切り替えて、前記目的地の周辺から前記目的地まで前記移動体を移動させるステップと、
を具備する、移動体の制御方法。
A control method for autonomously moving a moving body having a sensor that detects the presence or absence of surrounding objects from a starting point to a destination,
a step of storing in the moving body the scan data detected by the sensor and the image map data of the area in which the moving body moves;
generating local map data around the destination from the scan data from the starting point until the destination is reached ;
moving the moving body from the starting point to the vicinity of the destination based on the image map data;
In the vicinity of the destination, the movement control based on the image map data is switched to the movement control based on the local map data while continuously moving, and the moving object is moved from the vicinity of the destination to the destination. a step of moving;
A control method for a moving object, comprising:
前記局所地図データは、前記目的地の周辺における前記移動体の自己位置と、前記スキャンデータと、から生成される、請求項4に記載の移動体の制御方法。 5. The mobile body control method according to claim 4, wherein said local map data is generated from said mobile body's self-position in the vicinity of said destination and said scan data. 前記目的地の周辺の移動制御において、前記移動体の位置及び経路に基づき求めた前記移動体の移動速度が、前記移動体の直前の移動速度と所定の閾値以上の差を生じる場合は、移動速度の差が小さくなるように該移動速度を変更するステップを備えた、請求項4又は請求項5に記載の移動体の制御方法。 In the movement control around the destination, if the moving speed of the moving object obtained based on the position and route of the moving object is different from the moving speed immediately before the moving object by a predetermined threshold or more, 6. The method of controlling a moving body according to claim 4, further comprising the step of changing said moving speed so that the speed difference is reduced.
JP2020165826A 2020-09-30 2020-09-30 Mobile body control device and control method Active JP7155216B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020165826A JP7155216B2 (en) 2020-09-30 2020-09-30 Mobile body control device and control method
PCT/JP2021/027771 WO2022070575A1 (en) 2020-09-30 2021-07-27 Control device and control method for moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020165826A JP7155216B2 (en) 2020-09-30 2020-09-30 Mobile body control device and control method

Publications (2)

Publication Number Publication Date
JP2022057524A JP2022057524A (en) 2022-04-11
JP7155216B2 true JP7155216B2 (en) 2022-10-18

Family

ID=80951290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020165826A Active JP7155216B2 (en) 2020-09-30 2020-09-30 Mobile body control device and control method

Country Status (2)

Country Link
JP (1) JP7155216B2 (en)
WO (1) WO2022070575A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011063643A (en) 2009-09-15 2011-03-31 Jfe Steel Corp Traveling control method of traveling machine for coke furnace
JP2013033356A (en) 2011-08-01 2013-02-14 Toyota Central R&D Labs Inc Autonomous mobile device
JP5157803B2 (en) 2008-10-06 2013-03-06 村田機械株式会社 Autonomous mobile device
JP2019179497A (en) 2018-03-30 2019-10-17 日本電産シンポ株式会社 Moving body and moving body system
JP2019220035A (en) 2018-06-22 2019-12-26 株式会社明電舎 Unmanned guided vehicle, global map creation system for unmanned guided vehicle, and global map creation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157803B2 (en) 2008-10-06 2013-03-06 村田機械株式会社 Autonomous mobile device
JP2011063643A (en) 2009-09-15 2011-03-31 Jfe Steel Corp Traveling control method of traveling machine for coke furnace
JP2013033356A (en) 2011-08-01 2013-02-14 Toyota Central R&D Labs Inc Autonomous mobile device
JP5803392B2 (en) 2011-08-01 2015-11-04 株式会社豊田中央研究所 Autonomous mobile device
JP2019179497A (en) 2018-03-30 2019-10-17 日本電産シンポ株式会社 Moving body and moving body system
JP2019220035A (en) 2018-06-22 2019-12-26 株式会社明電舎 Unmanned guided vehicle, global map creation system for unmanned guided vehicle, and global map creation method

Also Published As

Publication number Publication date
JP2022057524A (en) 2022-04-11
WO2022070575A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
EP3552775B1 (en) Robotic system and method for operating on a workpiece
CN109154827B (en) Positioning of robotic vehicles
US9244463B2 (en) Automated guided vehicle and method of operating an automated guided vehicle
US20190160682A1 (en) Robot system and method for controlling robot system
CN107671863B (en) Robot control method and device based on two-dimensional code and robot
EP3610284B1 (en) Determination of localization viability metrics for landmarks
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
CN111601761A (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
JP6802137B2 (en) Transport vehicle system, transport vehicle control system and transport vehicle control method
KR102148592B1 (en) Localization using negative mapping
WO2018080672A1 (en) Methods and systems for pallet detection
JP5549223B2 (en) Robot control device, control method, and robot system
CN110849366A (en) Navigation method and system based on fusion of vision and laser radar
CN110789529B (en) Vehicle control method, device and computer-readable storage medium
JP6328796B2 (en) Manipulator control method, system, and manipulator
CN112428248B (en) Robot system and control method
JP7155216B2 (en) Mobile body control device and control method
JP5477167B2 (en) Moving body
JP7049411B2 (en) Mobile
WO2022168377A1 (en) Baggage transport system, and method and computer program used in baggage transport system
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot
WO2022259600A1 (en) Information processing device, information processing system, information processing method, and program
CN114689060A (en) Robot and method for positioning robot
JP2024010564A (en) Route designation method, program, and route designation system
Fujita et al. Gripping position detection of a box-shaped object using a RGB-D sensor by tracked mobile robot with two manipulators

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7155216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150