JPWO2019069921A1 - Mobile - Google Patents

Mobile Download PDF

Info

Publication number
JPWO2019069921A1
JPWO2019069921A1 JP2019546732A JP2019546732A JPWO2019069921A1 JP WO2019069921 A1 JPWO2019069921 A1 JP WO2019069921A1 JP 2019546732 A JP2019546732 A JP 2019546732A JP 2019546732 A JP2019546732 A JP 2019546732A JP WO2019069921 A1 JPWO2019069921 A1 JP WO2019069921A1
Authority
JP
Japan
Prior art keywords
map
data
agv
derivative
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019546732A
Other languages
Japanese (ja)
Inventor
利夫 下硲
利夫 下硲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Shimpo Corp
Original Assignee
Nidec Shimpo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Shimpo Corp filed Critical Nidec Shimpo Corp
Publication of JPWO2019069921A1 publication Critical patent/JPWO2019069921A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

移動体は、センサを用いて周囲の空間をセンシングし、取得されたセンサデータと予め用意された地図とを照合することによって自己位置を推定しながら自律走行を行うことが可能である。移動体は、モータと、モータを制御して移動体を移動させる駆動装置と、床に配置された地図作成用誘導体の位置を光学的または磁気的に読み取る読み取り装置と、読み取り装置の読み取り結果にしたがって、地図作成用誘導体に沿って床を走行させるよう駆動装置を制御する信号処理回路と、地図作成用誘導体に沿った走行中に周囲の空間をセンシングして、センサデータを取得するセンサと、センサデータを格納する記憶装置とを備えている。センサデータから作成された地図を、自律走行を行うための予め用意された地図として使用する。The moving body can autonomously travel while estimating its own position by sensing the surrounding space using a sensor and collating the acquired sensor data with a map prepared in advance. The moving body is based on the reading result of the motor, the driving device that controls the motor to move the moving body, the reading device that optically or magnetically reads the position of the mapping derivative placed on the floor, and the reading device. Therefore, a signal processing circuit that controls the drive device to run the floor along the map-making derivative, a sensor that senses the surrounding space while running along the map-making derivative, and acquires sensor data. It is equipped with a storage device that stores sensor data. The map created from the sensor data is used as a map prepared in advance for autonomous driving.

Description

本開示は、地図を作成することが可能な移動体に関する。 The present disclosure relates to mobiles capable of creating maps.

所定の経路に沿って自律的に空間を移動する自律移動ロボットが開発されている。自律移動ロボットは、レーザレンジファインダ等の外界センサを用いて周囲の空間をセンシングし、センシング結果と、予め用意された地図とのマッチングを行い、自身の現在の位置および姿勢を推定(同定)する。自律移動ロボットは、自身の現在の位置および姿勢を制御しながら、当該経路に沿って移動することができる。 Autonomous mobile robots that autonomously move in space along a predetermined path have been developed. The autonomous mobile robot senses the surrounding space using an external sensor such as a laser range finder, matches the sensing result with a map prepared in advance, and estimates (identifies) its current position and posture. .. The autonomous mobile robot can move along the path while controlling its current position and posture.

特開2009−031884号公報および特開平05−046239号公報は、移動体に地図を作成させる技術を開示する。 Japanese Patent Application Laid-Open No. 2009-031884 and Japanese Patent Application Laid-Open No. 05-046239 disclose a technique for causing a moving body to create a map.

特開2009−031884号公報Japanese Unexamined Patent Publication No. 2009-031884 特開平05−046239号公報Japanese Unexamined Patent Publication No. 05-046239

地図作成のためのデータを収集する作業は、煩雑であるにもかかわらず高い精度が要求されるため、データ収集作業の負担の軽減が必要とされていた。 Since the work of collecting data for creating a map is complicated but requires high accuracy, it has been necessary to reduce the burden of the data collection work.

本開示は、地図作成のためのデータ収集作業をより簡素化する技術を提供する。 The present disclosure provides a technique for further simplifying the data collection work for mapping.

本開示の例示的な実施形態にかかる移動体は、センサを用いて周囲の空間をセンシングし、取得されたセンサデータと予め用意された地図とを照合することによって自己位置を推定しながら自律走行を行うことが可能な移動体であって、モータと、前記モータを制御して前記移動体を移動させる駆動装置と、床に配置された地図作成用誘導体の位置を光学的または磁気的に読み取る読み取り装置と、前記読み取り装置の読み取り結果にしたがって、前記地図作成用誘導体に沿って前記床を走行させるよう前記駆動装置を制御する信号処理回路と、前記地図作成用誘導体に沿った走行中に周囲の空間をセンシングして、センサデータを取得するセンサと、前記センサデータを格納する記憶装置とを備え、前記センサデータから作成された地図を、前記自律走行を行うための前記予め用意された地図として使用する。 The moving body according to the exemplary embodiment of the present disclosure autonomously travels while estimating its own position by sensing the surrounding space using a sensor and collating the acquired sensor data with a map prepared in advance. Optically or magnetically read the positions of the motor, the drive device that controls the motor to move the moving body, and the mapping derivative placed on the floor. A reading device, a signal processing circuit that controls the driving device to run the floor along the mapping derivative according to the reading result of the reading device, and surroundings while running along the mapping derivative. The map created from the sensor data is provided with a sensor for sensing the space of the above and acquiring the sensor data and a storage device for storing the sensor data, and the map prepared in advance for performing the autonomous traveling. Used as.

本発明の例示的な実施形態にかかる移動体では、読み取り装置が床に配置された地図作成用誘導体の位置を光学的または磁気的に読み取り、読み取り結果にしたがって、信号処理回路が前記地図作成用誘導体に沿って前記床を走行させるよう前記駆動装置を制御する。測位装置は、走行によって位置を変えながら前記センサデータを取得して地図を作成する。少なくとも地図の作成時に床に地図作成用誘導体を配置すれば、移動体は自律的に走行して地図を作成できるため、地図作成時のシステム管理者の作業を大幅に簡素化できる。 In the moving body according to the exemplary embodiment of the present invention, a reading device optically or magnetically reads the position of the mapping derivative placed on the floor, and a signal processing circuit is used for mapping according to the reading result. The drive device is controlled to run the floor along the derivative. The positioning device acquires the sensor data and creates a map while changing the position depending on the traveling. At least if a map-making derivative is placed on the floor when creating a map, the moving body can autonomously travel and create a map, which can greatly simplify the work of the system administrator when creating a map.

図1Aは、AGVが磁気センサを用いて、地図作成のための経路に沿って床に設けられた磁気テープを検出することを説明する図である。FIG. 1A is a diagram illustrating that an AGV uses a magnetic sensor to detect a magnetic tape provided on the floor along a path for mapping. 図1Bは、AGVがイメージセンサを用いて、地図作成のための経路に沿って床に設けられた糸を検出することを説明する図である。FIG. 1B is a diagram illustrating that the AGV uses an image sensor to detect threads provided on the floor along a path for mapping. 図1Cは、AGVが測域センサ(レーザレンジファインダ)を用いて、地図作成のための経路に沿って床に設けられた反射板を検出することを説明する図である。FIG. 1C is a diagram illustrating that an AGV uses a range finder (laser range finder) to detect a reflector provided on the floor along a path for creating a map. 図2は、本開示による、各AGVの走行を制御する制御システムの概要を示す図である。FIG. 2 is a diagram showing an outline of a control system for controlling the traveling of each AGV according to the present disclosure. 図3は、AGVが存在する移動空間Sの一例を示す図である。FIG. 3 is a diagram showing an example of the moving space S in which the AGV exists. 図4Aは、接続される前のAGVおよび牽引台車を示す図である。FIG. 4A is a diagram showing an AGV and a tow truck before being connected. 図4Bは、接続されたAGVおよび牽引台車を示す図である。FIG. 4B is a diagram showing a connected AGV and a tow truck. 図5は、本実施形態にかかる例示的なAGVの外観図である。FIG. 5 is an external view of an exemplary AGV according to the present embodiment. 図6Aは、AGVの第1のハードウェア構成例を示す図である。FIG. 6A is a diagram showing a first hardware configuration example of the AGV. 図6Bは、AGVの第2のハードウェア構成例を示す図である。FIG. 6B is a diagram showing a second hardware configuration example of the AGV. 図7Aは、移動しながら地図を生成するAGVを示す図である。FIG. 7A is a diagram showing an AGV that generates a map while moving. 図7Bは、移動しながら地図を生成するAGVを示す図である。FIG. 7B is a diagram showing an AGV that generates a map while moving. 図7Cは、移動しながら地図を生成するAGVを示す図である。FIG. 7C is a diagram showing an AGV that generates a map while moving. 図7Dは、移動しながら地図を生成するAGVを示す図である。FIG. 7D is a diagram showing an AGV that generates a map while moving. 図7Eは、移動しながら地図を生成するAGVを示す図である。FIG. 7E is a diagram showing an AGV that generates a map while moving. 図7Fは、完成した地図の一部を模式的に示す図である。FIG. 7F is a diagram schematically showing a part of the completed map. 図8は、複数の部分地図によって1つのフロアの地図が構成される例を示す図である。FIG. 8 is a diagram showing an example in which a map of one floor is configured by a plurality of partial maps. 図9は、運行管理装置のハードウェア構成例を示す図である。FIG. 9 is a diagram showing a hardware configuration example of the operation management device. 図10は、運行管理装置によって決定されたAGVの移動経路の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing an example of the movement route of the AGV determined by the operation management device. 図11は、互いに分離された撮像装置と、AGVとを示す図である。FIG. 11 is a diagram showing an image pickup device separated from each other and an AGV. 図12は、糸に沿ってAGVが誘導される様子を示す図である。FIG. 12 is a diagram showing how the AGV is induced along the thread. 図13は、撮像装置によって取得された画像の一例を示す図である。FIG. 13 is a diagram showing an example of an image acquired by the imaging device. 図14は、地図作成用データ収集モード時のマイコンの処理の手順を示すフローチャートである。FIG. 14 is a flowchart showing a processing procedure of the microcomputer in the map creation data collection mode.

<用語>
本開示の実施形態を説明する前に、本明細書において使用する用語の定義を説明する。
<Terminology>
Before describing embodiments of the present disclosure, definitions of terms used herein will be described.

「無人搬送車」(AGV)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。 An "automated guided vehicle" (AGV) means an automated guided vehicle that manually or automatically loads luggage into the body, automatically travels to a designated location, and manually or automatically unloads. "Automated guided vehicles" include unmanned tow trucks and unmanned forklifts.

「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(たとえば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term "unmanned" means that no person is required to steer the vehicle, and does not exclude automatic guided vehicles carrying "people (eg, those who load and unload luggage)".

「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 An "unmanned towing vehicle" is an untracked vehicle that automatically travels to a designated place by towing a trolley that manually or automatically loads and unloads luggage.

「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 An "unmanned forklift" is an unmanned aerial vehicle equipped with a mast that raises and lowers a fork for transferring luggage, automatically transfers the luggage to the fork, etc., and automatically travels to a designated place to perform automatic cargo handling work.

「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A "trackless vehicle" is a vehicle that includes wheels and an electric motor or engine that rotates the wheels.

「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 A "moving body" is a device that carries a person or luggage to move, and includes a driving device such as a wheel, a two-legged or multi-legged walking device, or a propeller that generates a driving force (traction) for movement. The term "mobile" in the present disclosure includes mobile robots, service robots, and drones as well as automatic guided vehicles in the narrow sense.

「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 "Automated driving" includes traveling based on a command of a computer operation management system to which an automatic guided vehicle is connected by communication, and autonomous driving by a control device provided in the automated guided vehicle. Autonomous traveling includes not only traveling of an automated guided vehicle toward a destination along a predetermined route, but also traveling of following a tracking target. Further, the automatic guided vehicle may temporarily perform manual traveling based on the instruction of the operator. "Automatic driving" generally includes both "guided" driving and "guideless" driving, but in the present disclosure it means "guideless" driving.

「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The "guide type" is a method in which derivatives are installed continuously or intermittently and an automatic guided vehicle is guided by using the derivatives.

「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The "guideless type" is a method of guiding without installing a derivative. The automatic guided vehicle according to the embodiment of the present disclosure includes a self-position estimation device and can travel in a guideless manner.

「自己位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて環境地図上における自己位置を推定する装置である。 The "self-position estimation device" is a device that estimates the self-position on the environmental map based on the sensor data acquired by an external sensor such as a laser range finder.

「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、たとえば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、および磁気センサがある。 The "outside world sensor" is a sensor that senses the external state of a moving body. External world sensors include, for example, a laser range finder (also called a range finder), a camera (or image sensor), a lidar (Light Detection and Ranging), a millimeter wave radar, and a magnetic sensor.

「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、たとえばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(たとえばジャイロセンサ)がある。 The "inner world sensor" is a sensor that senses the internal state of a moving body. Internal world sensors include, for example, rotary encoders (hereinafter, may be simply referred to as “encoders”), acceleration sensors, and angular acceleration sensors (eg, gyro sensors).

「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と環境地図作成を同時に行うことを意味する。 "SLAM" is an abbreviation for Simultaneous Localization and Mapping, which means that self-position estimation and environmental mapping are performed at the same time.

<例示的な実施形態>
以下、添付の図面を参照しながら、本開示による移動体の一例を説明する。なお、必要以上に詳細な説明は省略する場合がある。たとえば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。本発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供する。これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
<Exemplary Embodiment>
Hereinafter, an example of the moving body according to the present disclosure will be described with reference to the accompanying drawings. In addition, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. The inventors provide accompanying drawings and the following description for those skilled in the art to fully understand the present disclosure. These are not intended to limit the subject matter described in the claims.

無人搬送車(以下「AGV」と記述する。)等の移動体が、外界センサ(例えばレーザレンジファインダ)を用いて自身の現在の位置および姿勢を推定するためには、移動する空間の地図を予め作成しておく必要がある。 In order for a moving object such as an automatic guided vehicle (hereinafter referred to as "AGV") to estimate its current position and attitude using an external sensor (for example, a laser range finder), a map of the moving space is displayed. It is necessary to create it in advance.

予め地図を作成するため、例えば、人がレーザレンジファインダを搭載した手押し台車を手押しして移動させ、移動中に、レーザレンジファインダを利用して周囲の空間をスキャンさせてデータ(以下「地図作成用データ」と記述する。)を取得していた。手押し台車を移動体が移動する空間内の隅々まで押して歩くことで、必要な地図作成用データが得られ、それにより、移動体が移動する空間の地図を作成していた。 In order to create a map in advance, for example, a person manually pushes a hand truck equipped with a laser range finder to move it, and while moving, the laser range finder is used to scan the surrounding space and data (hereinafter referred to as "map creation"). Data for use. ”) Was acquired. By pushing the hand truck to every corner of the space where the moving body moves, the necessary map creation data was obtained, and by doing so, a map of the space where the moving body moved was created.

上述の作業は、移動体が移動する空間のスキャンが終了するまで、人が手押し台車を押し続けて行う必要があった。空間の広さは、1枚の地図あたり、例えば50m×50mである。地図を作成するために必要とされる人の作業負担は比較的大きかった。 The above-mentioned work had to be performed by a person holding down the push cart until the scanning of the space in which the moving body moves was completed. The size of the space is, for example, 50 m × 50 m per map. The human workload required to create the map was relatively heavy.

本発明者は、移動体が自律的に移動する性能を有することに着目し、移動体に移動させながら周囲の空間をスキャンさせて地図作成用データを取得すればよいと考えた。移動体を活用すれば、人の作業負担を大幅に軽減することができる。この方法は、地図作成用データさえ得られればよく、地図を作成することまでは必要とされないという点で、上述のSLAM技術とは異なっている。得られた地図作成用データは有線または無線で送信され、あるいは、記録媒体を介して外部の装置に移動される。外部の装置は、取得した地図作成用データから地図を作成する。ただし、移動体が地図作成用データから地図を作成してもよい。 The present inventor has focused on the ability of a moving body to move autonomously, and considered that it is sufficient to scan the surrounding space while moving the moving body to acquire map creation data. By utilizing a mobile body, the work load on humans can be significantly reduced. This method differs from the above-mentioned SLAM technique in that it is only necessary to obtain data for creating a map and it is not necessary to create a map. The obtained mapping data is transmitted by wire or wirelessly, or is moved to an external device via a recording medium. The external device creates a map from the acquired map creation data. However, the moving body may create a map from the map creation data.

本発明者は、より短い時間で効率的に地図作成用データの収集を行うために、移動体を誘導する技術を検討し、以下に説明する方法に想到した。 The present inventor examined a technique for guiding a moving body in order to efficiently collect data for map creation in a shorter time, and came up with a method described below.

図1Aから図1Cは、いずれも、移動体1a〜1cの誘導方法の例を示す。図には移動体の一例としてAGVが示されている。本実施形態では、移動体は、地図作成用誘導体に沿って移動する。地図作成用誘導体は、少なくとも地図作成用データの収集時に床に配置されていればよく、収集後は撤去され得る。 1A to 1C show examples of methods for guiding the moving bodies 1a to 1c. The figure shows an AGV as an example of a moving body. In this embodiment, the moving body moves along the mapping derivative. The mapping derivative need only be placed on the floor at least at the time of collecting the mapping data, and can be removed after the collection.

本実施形態による移動体1a〜1cは、以下に説明する各種の外界センサに加えて、さらにレーザレンジファインダを有している。地図を取得する前は、移動体1a〜1cは以下に説明する誘導方法によって誘導されながら移動し、レーザレンジファインダを用いて空間を定期的にスキャンする。これにより、地図の作成に必要な、レーザレンジファインダのセンサデータ、つまり地図作成用データ、を得ることができる。取得した地図作成用データから生成された地図を取得すると、移動体1a〜1cは、当該地図とレーザレンジファインダのスキャンデータとを利用して自己位置および姿勢を推定しながら走行することができる。 The mobile bodies 1a to 1c according to the present embodiment further have a laser range finder in addition to the various external world sensors described below. Before acquiring the map, the moving bodies 1a to 1c move while being guided by the guidance method described below, and periodically scan the space using the laser range finder. As a result, the sensor data of the laser range finder, that is, the map creation data, which is necessary for creating the map, can be obtained. When the map generated from the acquired map creation data is acquired, the moving objects 1a to 1c can travel while estimating their own position and posture by using the map and the scan data of the laser range finder.

図1Aは、地図作成用データの収集時に、磁気センサ25aを有する移動体1aが、床に設置された磁気テープ30に沿って誘導される様子を示している。この例では、磁気テープ30が地図作成用誘導体である。移動体1aは、磁気テープ30の磁束を検出する磁気センサ25aの出力を利用して磁気テープ30に沿って走行する。 FIG. 1A shows how the moving body 1a having the magnetic sensor 25a is guided along the magnetic tape 30 installed on the floor when collecting the map creation data. In this example, the magnetic tape 30 is a mapping derivative. The moving body 1a travels along the magnetic tape 30 by utilizing the output of the magnetic sensor 25a that detects the magnetic flux of the magnetic tape 30.

図1Bは、地図作成用データの収集時に、撮像装置25bを有する移動体1bが、床に這わせた糸31に沿って誘導される様子を示している。この例では、糸31が地図作成用誘導体である。移動体1bは、撮像装置25bによって取得された静止画像または動画像に含まれる糸の像を認識し、糸の像が画像内の所定の範囲に入るよう、進行方向および/または姿勢を制御する。これにより、移動体1bは、糸31に沿って走行する。 FIG. 1B shows how the moving body 1b having the image pickup device 25b is guided along the thread 31 crawl on the floor when collecting the map creation data. In this example, the thread 31 is a map-making derivative. The moving body 1b recognizes the image of the thread included in the still image or the moving image acquired by the image pickup apparatus 25b, and controls the traveling direction and / or the posture so that the image of the thread falls within a predetermined range in the image. .. As a result, the moving body 1b runs along the thread 31.

糸の像と、画像内の他の像とをより確実に識別するために、糸を着色してもよい。例えば蛍光塗料を染みこませて糸を着色することができる。蛍光塗料の色は、床の色を考慮して適宜選択され得る。床に糸を這わせる代わりに、床に線を引いてもよい。線は、塗料による塗装、ビニールなどのテープ、炭酸カルシウム等を主成分にしたラインパウダーで引いてもよい。地図作成用データ収集後に線を除去する場合には、後二者が好適である。床の上の線もまた「地図作成用誘導体」である。線の色は例えば白であるが、床の色等に応じて白以外の色を適宜選択し得る。 The thread may be colored to more reliably distinguish the image of the thread from other images in the image. For example, the thread can be colored by impregnating it with a fluorescent paint. The color of the fluorescent paint can be appropriately selected in consideration of the color of the floor. Instead of letting the thread crawl on the floor, you may draw a line on the floor. The line may be painted with paint, tape such as vinyl, or line powder containing calcium carbonate or the like as a main component. When removing lines after collecting mapping data, the latter two are preferable. The line on the floor is also a "mapping derivative". The color of the line is, for example, white, but a color other than white can be appropriately selected depending on the color of the floor and the like.

図1Cは、地図作成用データの収集時に、レーザレーダ装置25cを有する移動体1cが床に設置された反射板35a〜35cの位置を検出し、反射板35a〜35cの間を進む様子を示している。この例では、反射板35a〜35cが地図作成用誘導体である。移動体1cを走行させたい経路32の両側に、反射板35a〜35cを含む複数の反射板を配置すればよい。移動体1cは、レーザレーダ装置25cによって取得された反射光から各反射板の位置を認識しながら、その間を走行するよう、進行方向および/または姿勢を制御する。これにより、移動体1cは、経路32に沿って走行する。 FIG. 1C shows how a moving body 1c having a laser radar device 25c detects the positions of reflectors 35a to 35c installed on the floor and travels between the reflectors 35a to 35c when collecting map creation data. ing. In this example, the reflectors 35a to 35c are mapping derivatives. A plurality of reflectors including the reflectors 35a to 35c may be arranged on both sides of the path 32 on which the moving body 1c is to be traveled. The moving body 1c recognizes the position of each reflector from the reflected light acquired by the laser radar device 25c, and controls the traveling direction and / or the posture so as to travel between them. As a result, the moving body 1c travels along the route 32.

図1Aから図1Cの例によれば、移動体は、床に配置された地図作成用誘導体の位置を磁気的に読み取る装置(磁気センサ25a)、または、光学的に読み取る装置(撮像装置25bまたはレーザレーダ装置25c)を備えている。移動体は、読み取り結果にしたがって地図作成用誘導体に沿って床を走行する。移動体は、レーザレンジファインダを利用して、走行によって位置を変えながら地図作成用データを取得する。取得した地図作成用データは記憶装置に記憶される。 According to the example of FIGS. 1A to 1C, the moving body is a device (magnetic sensor 25a) that magnetically reads the position of the mapping derivative placed on the floor, or a device (imaging device 25b or) that optically reads the position. It is equipped with a laser radar device 25c). The moving body runs on the floor along the mapping derivative according to the reading result. The moving body uses a laser range finder to acquire map creation data while changing its position depending on the running. The acquired map creation data is stored in the storage device.

以下、移動体が無人搬送車である場合のより具体的な例を説明する。誘導体読み取り装置を利用した地図作成用データの収集処理は、後述の図7A〜図7Eの処理(項目(4))が行われる際に実行される。地図作成用データの収集を行う際のAGV10の動作の詳細は、項目(7)において図11〜14を参照しながら説明する。 Hereinafter, a more specific example when the moving body is an automatic guided vehicle will be described. The map creation data collection process using the derivative reader is executed when the processes (item (4)) of FIGS. 7A to 7E described later are performed. The details of the operation of the AGV 10 when collecting the map creation data will be described in the item (7) with reference to FIGS. 11 to 14.

以下の説明は、矛盾がない限り、AGV以外の移動体、例えば移動ロボット、ドローン、または有人の車両などにも同様に適用することができる。 The following description can be similarly applied to mobile objects other than AGVs, such as mobile robots, drones, or manned vehicles, as long as there is no contradiction.

(1)システムの基本構成
図2は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図2には、ユーザ1によって操作される端末装置20も記載されている。
(1) Basic configuration of the system FIG. 2 shows a basic configuration example of the exemplary mobile management system 100 according to the present disclosure. The mobile body management system 100 includes at least one AGV 10 and an operation management device 50 that manages the operation of the AGV 10. FIG. 2 also shows a terminal device 20 operated by the user 1.

AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令に従って移動空間S内を自動走行することが可能である。AGV10は、さらに、人または他の移動体に追従して移動する「追尾モード」で動作することも可能である。 The AGV10 is an automatic guided vehicle capable of "guideless" traveling that does not require a derivative such as a magnetic tape for traveling. The AGV 10 can perform self-position estimation and transmit the estimation result to the terminal device 20 and the operation management device 50. The AGV 10 can automatically travel in the moving space S according to a command from the operation management device 50. The AGV10 can also operate in a "tracking mode" that follows a person or other moving object to move.

運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。たとえば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、たとえば100ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて移動空間S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。典型的には、端末装置20を利用したAGV10の走行は地図作成時に行われ、運行管理装置50を利用したAGV10の走行は地図作成後に行われる。 The operation management device 50 is a computer system that tracks the position of each AGV10 and manages the traveling of each AGV10. The operation management device 50 may be a desktop PC, a notebook PC, and / or a server computer. The operation management device 50 communicates with each AGV 10 via the plurality of access points 2. For example, the operation management device 50 transmits data of the coordinates of the position where each AGV10 should go next to each AGV10. Each AGV 10 periodically transmits data indicating its position and orientation to the operation management device 50, for example, every 100 milliseconds. When the AGV 10 reaches the instructed position, the operation management device 50 further transmits the coordinate data of the position to be next. The AGV 10 can also travel in the moving space S in response to the operation of the user 1 input to the terminal device 20. An example of the terminal device 20 is a tablet computer. Typically, the traveling of the AGV 10 using the terminal device 20 is performed at the time of creating the map, and the traveling of the AGV 10 using the operation management device 50 is performed after the map is created.

図3は、3台のAGV10a、10bおよび10cが存在する移動空間Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図3では参照符号10a、10bおよび10cを付したが、以下では、「AGV10」と記述する。 FIG. 3 shows an example of the moving space S in which three AGVs 10a, 10b and 10c exist. It is assumed that both AGVs are traveling in the depth direction in the figure. The AGVs 10a and 10b are transporting the load placed on the top plate. The AGV10c follows the front AGV10b and travels. For convenience of explanation, reference numerals 10a, 10b and 10c have been added in FIG. 3, but hereinafter, they will be referred to as “AGV10”.

AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図4Aは接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図4Bは、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。 In addition to the method of transporting the luggage placed on the top plate, the AGV10 can also transport the luggage by using a towing trolley connected to itself. FIG. 4A shows the AGV 10 and the tow truck 5 before being connected. Casters are provided on each foot of the tow truck 5. The AGV 10 is mechanically connected to the towing carriage 5. FIG. 4B shows the connected AGV 10 and the tow truck 5. When the AGV 10 travels, the towing carriage 5 is towed by the AGV 10. By towing the towing trolley 5, the AGV 10 can carry the load mounted on the towing trolley 5.

AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。 The connection method between the AGV 10 and the towing carriage 5 is arbitrary. An example will be described here. A plate 6 is fixed to the top plate of the AGV 10. The tow truck 5 is provided with a guide 7 having a slit. The AGV 10 approaches the towing carriage 5 and inserts the plate 6 into the slit of the guide 7. When the insertion is completed, the AGV 10 penetrates the plate 6 and the guide 7 with an electromagnetic lock type pin (not shown) to lock the electromagnetic lock. As a result, the AGV 10 and the towing carriage 5 are physically connected.

再び図2を参照する。各AGV10と端末装置20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi−Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、たとえばスイッチングハブ3を介して互いに接続されている。図2には2台のアクセスポイント2a、2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信され、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信され、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。 See FIG. 2 again. Each AGV 10 and the terminal device 20 can be connected to each other on a one-to-one basis, for example, to perform communication conforming to the Bluetooth (registered trademark) standard. Each AGV 10 and the terminal device 20 can also perform Wi-Fi (registered trademark) compliant communication using one or a plurality of access points 2. The plurality of access points 2 are connected to each other via, for example, a switching hub 3. Two access points 2a and 2b are shown in FIG. The AGV10 is wirelessly connected to the access point 2a. The terminal device 20 is wirelessly connected to the access point 2b. The data transmitted by the AGV 10 is received by the access point 2a, transferred to the access point 2b via the switching hub 3, and transmitted from the access point 2b to the terminal device 20. Further, the data transmitted by the terminal device 20 is received by the access point 2b, transferred to the access point 2a via the switching hub 3, and transmitted from the access point 2a to the AGV10. As a result, bidirectional communication between the AGV 10 and the terminal device 20 is realized. The plurality of access points 2 are also connected to the operation management device 50 via the switching hub 3. As a result, bidirectional communication is also realized between the operation management device 50 and each AGV 10.

(2)環境地図の作成
自己位置を推定しながらAGV10が走行できるようにするため、移動空間S内の地図が作成される。AGV10には位置推定装置およびレーザレンジファインダが搭載されており、レーザレンジファインダの出力を利用して地図を作成できる。
(2) Creation of environmental map A map in the moving space S is created so that the AGV10 can travel while estimating its own position. The AGV10 is equipped with a position estimation device and a laser range finder, and can create a map by using the output of the laser range finder.

AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はレーザレンジファインダを用いたセンサデータの取得を開始する。レーザレンジファインダは周期的にたとえば赤外線または可視光のレーザビームを周囲に放射して周囲の空間Sをスキャンする。レーザビームは、たとえば、壁、柱等の構造物、床の上に置かれた物体等の表面で反射される。レーザレンジファインダは、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。1回のスキャンによって得られた測定結果のデータは「計測データ」または「センサデータ」と呼ばれることがある。 The AGV10 shifts to the data acquisition mode by the operation of the user. In the data acquisition mode, the AGV 10 starts acquiring sensor data using the laser range finder. The laser range finder periodically emits a laser beam of, for example, infrared or visible light to the surroundings to scan the surrounding space S. The laser beam is reflected, for example, on the surface of a structure such as a wall or a pillar, or an object placed on the floor. The laser range finder receives the reflected light of the laser beam, calculates the distance to each reflection point, and outputs the measurement result data showing the position of each reflection point. The position of each reflection point reflects the arrival direction and distance of the reflected light. The measurement result data obtained by one scan is sometimes called "measurement data" or "sensor data".

位置推定装置は、センサデータを記憶装置に蓄積する。移動空間S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、たとえば信号処理プロセッサを有し、かつ、地図作成プログラムがインストールされたコンピュータである。 The position estimation device stores the sensor data in the storage device. When the acquisition of the sensor data in the moving space S is completed, the sensor data stored in the storage device is transmitted to the external device. The external device is, for example, a computer having a signal processing processor and having a mapping program installed.

外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、空間Sの地図を作成することができる。外部装置は、作成した地図のデータをAGV10に送信する。AGV10は、作成した地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。 The signal processor of the external device superimposes the sensor data obtained for each scan. A map of the space S can be created by repeatedly performing the superposition process by the signal processing processor. The external device transmits the created map data to the AGV10. The AGV10 stores the created map data in an internal storage device. The external device may be the operation management device 50 or another device.

外部装置ではなくAGV10が地図の作成を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要が無くなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。 The map may be created by the AGV 10 instead of the external device. A circuit such as an AGV10 microcontroller unit (microcomputer) may perform the processing performed by the signal processing processor of the external device described above. When creating a map in AGV10, it is not necessary to transmit the accumulated sensor data to an external device. The data capacity of the sensor data is generally considered to be large. Since it is not necessary to transmit the sensor data to the external device, it is possible to avoid occupying the communication line.

なお、センサデータを取得するための移動空間S内の移動は、ユーザの操作に従ってAGV10が走行することによって実現し得る。たとえば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって移動空間S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって移動空間S内を前後左右に走行し、地図を作成してもよい。レーザレンジファインダを搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。 The movement in the moving space S for acquiring the sensor data can be realized by the AGV 10 traveling according to the operation of the user. For example, the AGV 10 wirelessly receives a travel command from the user via the terminal device 20 instructing the user to move in each of the front, rear, left, and right directions. The AGV10 travels back and forth and left and right in the moving space S according to a traveling command to create a map. When the AGV 10 is connected to a control device such as a joystick by wire, the map may be created by traveling in the moving space S in front, back, left and right according to a control signal from the control device. Sensor data may be acquired by a person pushing a measuring trolley equipped with a laser range finder.

なお、図2および図3には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、移動空間Sの地図を作成させることができる。 Although a plurality of AGVs 10 are shown in FIGS. 2 and 3, the number of AGVs may be one. When a plurality of AGVs 10 exist, the user 1 can use the terminal device 20 to select one AGV10 from the plurality of registered AGVs and have the user 1 create a map of the moving space S.

地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。自己位置を推定する処理の説明は後述する。 After the map is created, each AGV10 can automatically travel while estimating its own position using the map. The process of estimating the self-position will be described later.

(3)AGVの構成
図5は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、レーザレンジファインダ15とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図5には示されていない。また、図5には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。
(3) The configuration diagram 5 of the AGV is an external view of an exemplary AGV 10 according to the present embodiment. The AGV 10 has two drive wheels 11a and 11b, four casters 11c, 11d, 11e and 11f, a frame 12, a transfer table 13, a traveling control device 14, and a laser range finder 15. The two drive wheels 11a and 11b are provided on the right side and the left side of the AGV 10, respectively. The four casters 11c, 11d, 11e and 11f are arranged at the four corners of the AGV10. The AGV10 also has a plurality of motors connected to the two drive wheels 11a and 11b, but the plurality of motors are not shown in FIG. Further, FIG. 5 shows one drive wheel 11a and two casters 11c and 11e located on the right side of the AGV 10, and a caster 11f located on the left rear portion, but the left drive wheel 11b and the left front portion are shown. Caster 11d is not specified because it is hidden behind the frame 12. The four casters 11c, 11d, 11e and 11f can freely rotate. In the following description, the drive wheels 11a and the drive wheels 11b will also be referred to as wheels 11a and wheels 11b, respectively.

走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および前処理演算を行う。 The travel control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), electronic components, and a substrate on which they are mounted. The travel control device 14 performs data transmission / reception and preprocessing calculation with the terminal device 20 described above.

レーザレンジファインダ15は、たとえば赤外線または可視光のレーザビーム15aを放射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のレーザレンジファインダ15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを放射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、レーザレンジファインダ15が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、レーザレンジファインダ15は高さ方向のスキャンを行ってもよい。 The laser range finder 15 is an optical device that measures the distance to a reflection point by emitting, for example, an infrared or visible light laser beam 15a and detecting the reflected light of the laser beam 15a. In the present embodiment, the laser range finder 15 of the AGV 10 is a pulsed laser beam, for example, in a space within a range of 135 degrees to the left and right (270 degrees in total) with reference to the front surface of the AGV 10 while changing the direction every 0.25 degrees. It emits 15a and detects the reflected light of each laser beam 15a. As a result, it is possible to obtain data on the distance to the reflection point in the direction determined by the angle of 1081 steps in total every 0.25 degrees. In the present embodiment, the scanning of the surrounding space performed by the laser range finder 15 is substantially parallel to the floor surface and is planar (two-dimensional). However, the laser range finder 15 may scan in the height direction.

AGV10の位置および姿勢(向き)と、レーザレンジファインダ15のスキャン結果とにより、AGV10は、空間Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。 Based on the position and orientation (orientation) of the AGV10 and the scan result of the laser range finder 15, the AGV10 can create a map of the space S. The map may reflect the placement of walls, pillars and other structures around the AGV, and objects placed on the floor. The map data is stored in a storage device provided in the AGV10.

一般に、移動体の位置および姿勢は、ポーズ(pose)と呼ばれる。二次元面内における移動体の位置および姿勢は、XY直交座標系における位置座標(x, y)と、X軸に対する角度θによって表現される。AGV10の位置および姿勢、すなわちポーズ(x, y, θ)を、以下、単に「位置」と呼ぶことがある。 Generally, the position and posture of the moving body is called a pose. The position and orientation of the moving body in the two-dimensional plane are represented by the position coordinates (x, y) in the XY Cartesian coordinate system and the angle θ with respect to the X axis. The position and posture of the AGV 10, that is, the pose (x, y, θ) may be simply referred to as “position” below.

レーザビーム15aの放射位置から見た反射点の位置は、角度および距離によって決定される極座標を用いて表現され得る。本実施形態では、レーザレンジファインダ15は極座標で表現されたセンサデータを出力する。ただし、レーザレンジファインダ15は、極座標で表現された位置を直交座標に変換して出力してもよい。 The position of the reflection point as seen from the radiation position of the laser beam 15a can be represented using polar coordinates determined by the angle and distance. In this embodiment, the laser range finder 15 outputs sensor data expressed in polar coordinates. However, the laser range finder 15 may convert the position expressed in polar coordinates into orthogonal coordinates and output it.

レーザレンジファインダの構造および動作原理は公知であるため、本明細書ではこれ以上の詳細な説明は省略する。レーザレンジファインダ15によって検出され得る物体の例は、人、荷物、棚、壁である。 Since the structure and operating principle of the laser range finder are known, further detailed description thereof will be omitted in this specification. Examples of objects that can be detected by the laser range finder 15 are people, luggage, shelves, and walls.

レーザレンジファインダ15は、周囲の空間をセンシングしてセンサデータを取得するための外界センサの一例である。そのような外界センサの他の例としては、イメージセンサおよび超音波センサが考えられる。 The laser range finder 15 is an example of an external sensor for sensing the surrounding space and acquiring sensor data. Other examples of such external sensors include image sensors and ultrasonic sensors.

走行制御装置14は、レーザレンジファインダ15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定することができる。なお、保持されている地図データは、他のAGV10が作成した地図データであってもよい。 The travel control device 14 can estimate its own current position by comparing the measurement result of the laser range finder 15 with the map data held by itself. The map data held may be map data created by another AGV10.

図6Aは、AGV10の第1のハードウェア構成例を示している。また図6Aは、走行制御装置14の具体的な構成も示している。 FIG. 6A shows a first hardware configuration example of the AGV10. FIG. 6A also shows a specific configuration of the travel control device 14.

AGV10は、走行制御装置14と、レーザレンジファインダ15と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bと、2つのロータリエンコーダ18aおよび18bとを備えている。 The AGV 10 includes a travel control device 14, a laser range finder 15, two motors 16a and 16b, a drive device 17, wheels 11a and 11b, and two rotary encoders 18a and 18b.

走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。レーザレンジファインダ15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。 The travel control device 14 includes a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a position estimation device 14e. The microcomputer 14a, the memory 14b, the storage device 14c, the communication circuit 14d, and the position estimation device 14e are connected by a communication bus 14f, and data can be exchanged with each other. The laser range finder 15 is also connected to the communication bus 14f via a communication interface (not shown), and transmits the measurement data as the measurement result to the microcomputer 14a, the position estimation device 14e and / or the memory 14b.

さらに、走行制御装置14は入力インタフェース14hを有している。入力インタフェース14hには、誘導体読み取り装置25が接続されている。 Further, the travel control device 14 has an input interface 14h. A derivative reading device 25 is connected to the input interface 14h.

誘導体読み取り装置25は、地図作成用誘導体の位置を光学的または磁気的に読み取る装置である。誘導体読み取り装置25の例は、図1Aに示す磁気センサ25a、図1Bに示す撮像装置25b、図1Bに示すレーザレーダ装置25cである。 The derivative reading device 25 is a device that optically or magnetically reads the position of the mapping derivative. Examples of the derivative reading device 25 are the magnetic sensor 25a shown in FIG. 1A, the imaging device 25b shown in FIG. 1B, and the laser radar device 25c shown in FIG. 1B.

誘導体読み取り装置25が磁気センサ25aである場合を説明する。磁気センサ25aは複数のホール素子を有している。各ホール素子は、床に配置された磁気テープ30の磁束を検知する。例えば、磁気センサ25aが7個のホール素子を有する場合、7個のホール素子は10mmのピッチで配置される。7個のホール素子のうち、磁気テープ30の直上に位置するホール素子はハイレベルの電圧信号を出力し、磁気テープ30の直上から外れた位置のホール素子はローレベルの電圧信号を出力する。AGV10が走行して磁気テープ30の延びる方向に対して横にずれると、一部のホール素子の電圧信号はハイレベルからローレベルに変化し、他の一部のホール素子の電圧信号はローレベルからハイレベルに変化する。磁気センサ25aは、各ホール素子の電圧信号の変化から、右方向または左方向にどれだけの距離ずれたかを判定できる。磁気センサ25aは、ずれた方向およびずれ量のデータを、入力インタフェース14hを介してマイコン14aに出力する。 The case where the derivative reading device 25 is a magnetic sensor 25a will be described. The magnetic sensor 25a has a plurality of Hall elements. Each Hall element detects the magnetic flux of the magnetic tape 30 arranged on the floor. For example, when the magnetic sensor 25a has seven Hall elements, the seven Hall elements are arranged at a pitch of 10 mm. Of the seven Hall elements, the Hall element located directly above the magnetic tape 30 outputs a high-level voltage signal, and the Hall element located outside the position directly above the magnetic tape 30 outputs a low-level voltage signal. When the AGV 10 travels and shifts laterally with respect to the extending direction of the magnetic tape 30, the voltage signal of some Hall elements changes from high level to low level, and the voltage signal of some other Hall elements is low level. Changes from to high level. The magnetic sensor 25a can determine how much distance is deviated to the right or left from the change in the voltage signal of each Hall element. The magnetic sensor 25a outputs the data of the deviation direction and the deviation amount to the microcomputer 14a via the input interface 14h.

誘導体読み取り装置25が撮像装置25bである場合を説明する。撮像装置25bは不図示のレンズ、イメージセンサおよび画像処理回路を有している。イメージセンサは、縦横に配列された多数の撮像素子を有している。イメージセンサは、レンズを介して入射した光を各撮像素子で受ける。各撮像素子にはフィルタが設けられ、特定の波長域の光を受け、受けた光の強度に応じた信号を出力する。これにより、いわゆる赤色、緑色および青色のそれぞれについて、入射光の強さを取得することができる。複数の撮像素子から出力された信号に従って、多数の画素を有する1枚の画像が構成される。1画素は、例えば、緑色を検出する2つの撮像素子の出力信号と、赤色を検出する1つの撮像素子の出力信号と、青色を検出する1つの撮像素子の出力信号とによって表現される。 The case where the derivative reading device 25 is an imaging device 25b will be described. The image pickup apparatus 25b includes a lens (not shown), an image sensor, and an image processing circuit. The image sensor has a large number of image pickup elements arranged vertically and horizontally. The image sensor receives the light incident through the lens at each image sensor. A filter is provided in each image sensor, receives light in a specific wavelength range, and outputs a signal according to the intensity of the received light. Thereby, the intensity of the incident light can be obtained for each of the so-called red, green and blue. One image having a large number of pixels is configured according to the signals output from the plurality of image pickup elements. One pixel is represented by, for example, an output signal of two image pickup elements that detect green, an output signal of one image pickup element that detects red color, and an output signal of one image pickup element that detects blue color.

画像処理回路は、イメージセンサから出力された画像から、糸31(図1B)の像を認識する。例えば糸31の色が既知の場合には、画像処理回路は、画像内でその色を有する画素を抽出することにより、糸31の像を識別することができる。 The image processing circuit recognizes the image of the thread 31 (FIG. 1B) from the image output from the image sensor. For example, when the color of the thread 31 is known, the image processing circuit can identify the image of the thread 31 by extracting pixels having that color in the image.

さらに画像処理回路は、糸31の像の画像内の位置の変化量を検出する。位置の変化量は、AGV10の走行によって、どれだけの距離、右または左にずれたかに比例する。画像のX画素が現実のYmmのずれに相当することを予め関連付けておくことにより、画像処理回路は、ずれた方向およびずれ量のデータを、入力インタフェース14hを介してマイコン14aに出力することができる。 Further, the image processing circuit detects the amount of change in the position of the image of the thread 31 in the image. The amount of change in position is proportional to how far the AGV10 has moved to the right or left. By associating in advance that the X pixel of the image corresponds to the actual deviation of Y mm, the image processing circuit can output the data of the deviation direction and the deviation amount to the microcomputer 14a via the input interface 14h. it can.

なお、抽出された複数の画素が所定の数以上連続的に存在することも、糸31の判定条件に含めてもよい。これにより、糸31と同色の物体が存在していたとしても、誤認識を回避することができる。 It should be noted that the presence of a plurality of extracted pixels continuously in a predetermined number or more may be included in the determination condition of the thread 31. As a result, even if an object having the same color as the thread 31 exists, erroneous recognition can be avoided.

誘導体読み取り装置25がレーザレーダ装置25cである場合を説明する。レーザレーダ装置25cは、レーザレンジファインダ15と同様、赤外線または可視光のレーザビームを放射する。レーザレンジファインダ15cは、例えば0.5度単位で360度にわたってレーザビームを放射する。レーザレーダ装置25cは、反射体で反射されたレーザビームを検出する。反射体で反射された場合、反射光の強度は十分に強いため、レーザレーダ装置25cは反射光を確実に検出できる。レーザレーダ装置25cは、現在位置が、どの反射体とどの反射体との間であるかを算出して出力する。 The case where the derivative reading device 25 is a laser radar device 25c will be described. The laser radar device 25c, like the laser range finder 15, emits an infrared or visible laser beam. The laser range finder 15c emits a laser beam over 360 degrees in 0.5 degree increments, for example. The laser radar device 25c detects the laser beam reflected by the reflector. When reflected by a reflector, the intensity of the reflected light is sufficiently strong, so that the laser radar device 25c can reliably detect the reflected light. The laser radar device 25c calculates and outputs which reflector and which reflector the current position is between.

マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。 The microcomputer 14a is a processor or a control circuit (computer) that performs an operation for controlling the entire AGV 10 including the travel control device 14. Typically, the microcomputer 14a is a semiconductor integrated circuit. The microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the drive device 17 to control the drive device 17 and adjust the voltage applied to the motor. As a result, each of the motors 16a and 16b rotates at a desired rotation speed.

左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(たとえばマイコン)を、マイコン14aとは独立して設けてもよい。たとえば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。それらの2つのマイコンは、エンコーダ18aおよび18bから出力されたエンコーダ情報を用いた座標計算をそれぞれ行い、所与の初期位置からのAGV10の移動距離を推定してもよい。また、当該2つのマイコンは、エンコーダ情報を利用してモータ駆動回路17aおよび17bを制御してもよい。 One or more control circuits (for example, a microcomputer) that control the drive of the left and right motors 16a and 16b may be provided independently of the microcomputer 14a. For example, the motor drive device 17 may include two microcomputers that control the drive of the motors 16a and 16b, respectively. The two microcomputers may perform coordinate calculation using the encoder information output from the encoders 18a and 18b, respectively, and estimate the moving distance of the AGV 10 from a given initial position. Further, the two microcomputers may control the motor drive circuits 17a and 17b by using the encoder information.

マイコン14aは、誘導体読み取り装置25の出力結果を利用して、誘導体に沿ってAGV10が移動するよう、モータ駆動装置17を制御する。 The microcomputer 14a uses the output result of the derivative reading device 25 to control the motor driving device 17 so that the AGV 10 moves along the derivative.

メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。 The memory 14b is a volatile storage device that stores a computer program executed by the microcomputer 14a. The memory 14b can also be used as a work memory when the microcomputer 14a and the position estimation device 14e perform calculations.

記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。 The storage device 14c is a non-volatile semiconductor memory device. However, the storage device 14c may be a magnetic recording medium typified by a hard disk or an optical recording medium typified by an optical disk. Further, the storage device 14c may include a head device for writing and / or reading data to any recording medium and a control device for the head device.

地図作成用データの収集時には、記憶装置14cは、収集した地図作成用データを記憶する。地図作成用データは、レーザビームの反射点の集まりに相当する点群(Point Cloud)であり得る。 At the time of collecting the map creation data, the storage device 14c stores the collected map creation data. The mapping data can be a point cloud corresponding to a collection of reflection points of the laser beam.

地図が既に作成されている場合には、記憶装置14cは、走行する空間Sの地図データM、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図データMは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図データMが作成された後に外部から送信される。本実施形態では、地図データMおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。 When the map has already been created, the storage device 14c stores the map data M of the traveling space S and the data (traveling route data) R of one or a plurality of traveling routes. The map data M is created by the AGV 10 operating in the map creation mode and stored in the storage device 14c. The travel route data R is transmitted from the outside after the map data M is created. In the present embodiment, the map data M and the travel route data R are stored in the same storage device 14c, but may be stored in different storage devices.

走行経路データRの例を説明する。 An example of the travel route data R will be described.

端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。 When the terminal device 20 is a tablet computer, the AGV 10 receives the travel route data R indicating the travel route from the tablet computer. The traveling route data R at this time includes marker data indicating the positions of a plurality of markers. The "marker" indicates a passing position (via point) of the traveling AGV 10. The travel route data R includes at least the position information of the start marker indicating the travel start position and the end marker indicating the travel end position. The travel route data R may further include the position information of the markers of one or more intermediate waypoints. When the traveling route includes one or more intermediate waypoints, the route from the start marker to the end marker via the traveling waypoints in order is defined as the traveling route. The data of each marker may include, in addition to the coordinate data of the marker, data of the direction (angle) and the traveling speed of the AGV 10 until the movement to the next marker. When the AGV 10 temporarily stops at the position of each marker and performs self-position estimation and notification to the terminal device 20, the data of each marker is the acceleration time required for acceleration until the traveling speed is reached, and / or , The data of the deceleration time required for deceleration from the traveling speed to the stop at the position of the next marker may be included.

端末装置20ではなく運行管理装置50(たとえば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。たとえば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。 The operation management device 50 (for example, a PC and / or a server computer) may control the movement of the AGV 10 instead of the terminal device 20. In that case, the operation management device 50 may instruct the AGV 10 to move to the next marker each time the AGV 10 reaches the marker. For example, the AGV 10 receives from the operation management device 50 the coordinate data of the target position to be headed next, or the data of the distance to the target position and the angle to be traveled as the travel route data R indicating the travel route.

AGV10は、作成された地図と走行中に取得されたレーザレンジファインダ15が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。 The AGV 10 can travel along the stored travel route while estimating its own position using the created map and the sensor data output by the laser range finder 15 acquired during travel.

通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi−Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。たとえばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。 The communication circuit 14d is, for example, a wireless communication circuit that performs wireless communication conforming to the Bluetooth (registered trademark) and / or Wi-Fi (registered trademark) standard. Both standards include wireless communication standards using frequencies in the 2.4 GHz band. For example, in the mode in which the AGV 10 is run to create a map, the communication circuit 14d performs wireless communication conforming to the Bluetooth (registered trademark) standard and communicates with the terminal device 20 on a one-to-one basis.

位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とレーザレンジファインダのスキャン結果とにより、移動空間Sの地図を作成する。走行時には、位置推定装置14eは、レーザレンジファインダ15からセンサデータを受け取り、また、記憶装置14cに記憶された地図データMを読み出す。レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を同定する。位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。自己位置(x, y, θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x, y, θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。 The position estimation device 14e performs a map creation process and a self-position estimation process during traveling. The position estimation device 14e creates a map of the moving space S based on the position and orientation of the AGV 10 and the scan result of the laser range finder. During traveling, the position estimation device 14e receives the sensor data from the laser range finder 15 and reads out the map data M stored in the storage device 14c. By matching the local map data (sensor data) created from the scan results of the laser range finder 15 with the map data M in a wider range, the self-position (x, y, θ) on the map data M can be determined. Identify. The position estimation device 14e generates "reliability" data indicating the degree to which the local map data matches the map data M. The self-position (x, y, θ) and reliability data can be transmitted from the AGV 10 to the terminal device 20 or the operation management device 50. The terminal device 20 or the operation management device 50 can receive the self-position (x, y, θ) and reliability data and display them on the built-in or connected display device.

本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図6Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。 In the present embodiment, the microcomputer 14a and the position estimation device 14e are considered to be separate components, but this is an example. It may be one chip circuit or a semiconductor integrated circuit capable of independently performing each operation of the microcomputer 14a and the position estimation device 14e. FIG. 6A shows a chip circuit 14g including the microcomputer 14a and the position estimation device 14e. Hereinafter, an example in which the microcomputer 14a and the position estimation device 14e are provided separately and independently will be described.

2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。 The two motors 16a and 16b are attached to the two wheels 11a and 11b, respectively, to rotate each wheel. That is, the two wheels 11a and 11b are driving wheels, respectively. In the present specification, the motor 16a and the motor 16b are described as being motors for driving the right wheel and the left wheel of the AGV 10, respectively.

移動体10は、さらに、車輪11aおよび11bの回転位置または回転速度を測定するエンコーダユニット18をさらに備えている。エンコーダユニット18は、第1ロータリエンコーダ18aおよび第2ロータリエンコーダ18bを含む。第1ロータリエンコーダ18aは、モータ16aから車輪11aまでの動力伝達機構のいずれかの位置における回転を計測する。第2ロータリエンコーダ18bは、モータ16bから車輪11bまでの動力伝達機構のいずれかの位置における回転を計測する。エンコーダユニット18は、ロータリエンコーダ18aおよび18bによって取得された信号を、マイコン14aに送信する。マイコン14aは、位置推定装置14eから受信した信号だけでなく、エンコーダユニット18から受信した信号を利用して、移動体10の移動を制御してもよい。 The moving body 10 further includes an encoder unit 18 for measuring the rotation position or rotation speed of the wheels 11a and 11b. The encoder unit 18 includes a first rotary encoder 18a and a second rotary encoder 18b. The first rotary encoder 18a measures the rotation of the power transmission mechanism from the motor 16a to the wheels 11a at any position. The second rotary encoder 18b measures the rotation of the power transmission mechanism from the motor 16b to the wheels 11b at any position. The encoder unit 18 transmits the signals acquired by the rotary encoders 18a and 18b to the microcomputer 14a. The microcomputer 14a may control the movement of the moving body 10 by using not only the signal received from the position estimation device 14e but also the signal received from the encoder unit 18.

駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。 The drive device 17 has motor drive circuits 17a and 17b for adjusting the voltage applied to each of the two motors 16a and 16b. Each of the motor drive circuits 17a and 17b includes a so-called inverter circuit. The motor drive circuits 17a and 17b turn on or off the current flowing through each motor by the PWM signal transmitted from the microcomputer 14a or the microcomputer in the motor drive circuit 17a, thereby adjusting the voltage applied to the motor.

図6Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図6A)と相違する。 FIG. 6B shows a second hardware configuration example of the AGV10. The second hardware configuration example differs from the first hardware configuration example (FIG. 6A) in that it has a laser positioning system 14h and that the microcomputer 14a is connected to each component on a one-to-one basis. To do.

レーザ測位システム14hは、位置推定装置14eおよびレーザレンジファインダ15を有する。位置推定装置14eおよびレーザレンジファインダ15は、たとえばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびレーザレンジファインダ15の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x, y, θ)を示す情報をマイコン14aに出力する。 The laser positioning system 14h includes a position estimation device 14e and a laser range finder 15. The position estimation device 14e and the laser range finder 15 are connected by, for example, an Ethernet (registered trademark) cable. Each operation of the position estimation device 14e and the laser range finder 15 is as described above. The laser positioning system 14h outputs information indicating the pose (x, y, θ) of the AGV 10 to the microcomputer 14a.

マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。 The microcomputer 14a has various general-purpose I / O interfaces or general-purpose input / output ports (not shown). The microcomputer 14a is directly connected to other components in the travel control device 14, such as the communication circuit 14d and the laser positioning system 14h, via the general-purpose input / output port.

図6Bに関して上述した構成以外は、図6Aの構成と共通である。よって共通の構成の説明は省略する。 Except for the configuration described above with respect to FIG. 6B, the configuration is the same as that of FIG. 6A. Therefore, the description of the common configuration will be omitted.

本開示の実施形態におけるAGV10は、図示されていないバンパースイッチなどのセーフティセンサを備えていてもよい。AGV10は、ジャイロセンサなどの慣性計測装置を備えていてもよい。ロータリエンコーダ18aおよび18bまたは慣性計測装置などの内界センサによる測定データを利用すれば、AGV10の移動距離および姿勢の変化量(角度)を推定することができる。これらの距離および角度の推定値は、オドメトリデータと呼ばれ、位置推定装置14eによって得られる位置および姿勢の情報を補助する機能を発揮し得る。 The AGV 10 in the embodiment of the present disclosure may include a safety sensor such as a bumper switch (not shown). The AGV10 may include an inertial measurement unit such as a gyro sensor. By using the measurement data by the rotary encoders 18a and 18b or the internal sensor such as the inertial measurement unit, it is possible to estimate the movement distance and the change amount (angle) of the posture of the AGV10. These distance and angle estimates are called odometry data and can exert a function of assisting the position and orientation information obtained by the position estimation device 14e.

(4)地図データ
図7A〜図7Fは、センサデータを取得しながら移動するAGV10を模式的に示す。ユーザ1は、端末装置20を操作しながらマニュアルでAGV10を移動させてもよい。あるいは、図6Aおよび6Bに示される走行制御装置14を備えるユニット、または、AGV10そのものを台車に載置し、台車をユーザ1が手で押す、または牽くことによってセンサデータを取得してもよい。
(4) Map data FIGS. 7A to 7F schematically show an AGV 10 moving while acquiring sensor data. The user 1 may manually move the AGV 10 while operating the terminal device 20. Alternatively, the unit provided with the travel control device 14 shown in FIGS. 6A and 6B, or the AGV10 itself may be placed on the trolley, and the user 1 may manually push or pull the trolley to acquire sensor data.

図7Aには、レーザレンジファインダ15を用いて周囲の空間をスキャンするAGV10が示されている。所定のステップ角毎にレーザビームが放射され、スキャンが行われる。なお、図示されたスキャン範囲は模式的に示した例であり、上述した合計270度のスキャン範囲とは異なっている。 FIG. 7A shows an AGV 10 that scans the surrounding space using the laser range finder 15. A laser beam is emitted at a predetermined step angle to perform scanning. The illustrated scan range is an example schematically shown, and is different from the above-mentioned scan range of 270 degrees in total.

図7A〜図7Fの各々では、レーザビームの反射点の位置が、記号「・」で表される複数の黒点4を用いて模式的に示されている。レーザビームのスキャンは、レーザレンジファインダ15の位置および姿勢が変化する間に短い周期で実行される。このため、現実の反射点の個数は、図示されている反射点4の個数よりも遥かに多い。位置推定装置14eは、走行に伴って得られる黒点4の位置を、たとえばメモリ14bに蓄積する。AGV10が走行しながらスキャンを継続して行うことにより、地図データが徐々に完成されてゆく。図7Bから図7Eでは、簡略化のためスキャン範囲のみが示されている。当該スキャン範囲は例示であり、上述した合計270度の例とは異なる。 In each of FIGS. 7A to 7F, the positions of the reflection points of the laser beam are schematically shown by using a plurality of black points 4 represented by the symbol “•”. The laser beam scan is performed at short intervals while the position and orientation of the laser range finder 15 changes. Therefore, the actual number of reflection points is much larger than the number of reflection points 4 shown in the figure. The position estimation device 14e stores the positions of the black spots 4 obtained during traveling, for example, in the memory 14b. The map data is gradually completed by continuously scanning while the AGV10 is running. In FIGS. 7B-7E, only the scan range is shown for brevity. The scan range is an example and is different from the above-mentioned example of total 270 degrees.

地図は、地図作成に必要な量のセンサデータを取得した後、そのセンサデータに基づいて、このAGV10内のマイコン14aまたは外部のコンピュータを用いて作成してもよい。あるいは、移動しつつあるAGV10が取得したセンサデータに基づいてリアルタイムで地図を作成してもよい。 The map may be created by using the microcomputer 14a in the AGV10 or an external computer based on the sensor data after acquiring the amount of sensor data required for map creation. Alternatively, a map may be created in real time based on the sensor data acquired by the moving AGV10.

図7Fは、完成した地図40の一部を模式的に示す。図7Fに示される地図では、レーザビームの反射点の集まりに相当する点群(Point Cloud)によって自由空間が仕切られている。地図の他の例は、物体が占有している空間と自由空間とをグリッド単位で区別する占有格子地図である。位置推定装置14eは、地図のデータ(地図データM)をメモリ14bまたは記憶装置14cに蓄積する。なお図示されている黒点の数または密度は一例である。 FIG. 7F schematically shows a part of the completed map 40. In the map shown in FIG. 7F, the free space is partitioned by a point cloud corresponding to a collection of reflection points of the laser beam. Another example of a map is an occupied grid map that distinguishes between the space occupied by an object and the free space on a grid-by-grid basis. The position estimation device 14e stores map data (map data M) in the memory 14b or the storage device 14c. The number or density of sunspots shown is an example.

こうして得られた地図データは、複数のAGV10によって共有され得る。 The map data thus obtained can be shared by a plurality of AGV10s.

AGV10が地図データに基づいて自己位置を推定するアルゴリズムの典型例は、ICP(Iterative Closest Point)マッチングである。前述したように、レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を推定することができる。 A typical example of an algorithm in which the AGV10 estimates its own position based on map data is ICP (Iterative Closest Point) matching. As described above, by matching the local map data (sensor data) created from the scan result of the laser range finder 15 with the map data M in a wider range, the self-position (x,) on the map data M is performed. y, θ) can be estimated.

AGV10が走行するエリアが広い場合、地図データMのデータ量が多くなる。そのため、地図の作成時間が増大したり、自己位置推定に多大な時間を要するなどの不都合が生じる可能性がある。そのような不都合が生じる場合には、地図データMを、複数の部分地図のデータに分けて作成および記録してもよい。 When the area in which the AGV 10 travels is wide, the amount of map data M increases. Therefore, inconveniences such as an increase in map creation time and a large amount of time required for self-position estimation may occur. When such an inconvenience occurs, the map data M may be created and recorded separately for a plurality of partial map data.

図8は、4つの部分地図データM1、M2、M3、M4の組み合わせによって1つの工場の1フロアの全域がカバーされる例を示している。この例では、1つの部分地図データは50m×50mの領域をカバーしている。X方向およびY方向のそれぞれにおいて隣接する2つの地図の境界部分に、幅5mの矩形の重複領域が設けられている。この重複領域を「地図切替エリア」と呼ぶ。1つの部分地図を参照しながら走行しているAGV10が地図切替エリアに到達すると、隣接する他の部分地図を参照する走行に切り替える。部分地図の枚数は4枚に限らず、AGV10が走行するフロアの面積、地図作成および自己位置推定を実行するコンピュータの性能に応じて適宜設定してよい。部分地図データのサイズおよび重複領域の幅も、上記の例に限定されず、任意に設定してよい。 FIG. 8 shows an example in which the entire area of one floor of one factory is covered by the combination of the four partial map data M1, M2, M3, and M4. In this example, one partial map data covers an area of 50m x 50m. A rectangular overlapping area having a width of 5 m is provided at the boundary between two adjacent maps in each of the X and Y directions. This overlapping area is called a "map switching area". When the AGV 10 traveling while referring to one partial map reaches the map switching area, it switches to traveling referring to another adjacent partial map. The number of partial maps is not limited to four, and may be appropriately set according to the area of the floor on which the AGV10 travels, the performance of the computer that performs map creation and self-position estimation. The size of the partial map data and the width of the overlapping area are not limited to the above example, and may be set arbitrarily.

(5)運行管理装置の構成例
図9は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56と、個体差データベース(個体差DB)57とを有する。
(5) Configuration Example of Operation Management Device FIG. 9 shows a hardware configuration example of the operation management device 50. The operation management device 50 includes a CPU 51, a memory 52, a position database (position DB) 53, a communication circuit 54, a map database (map DB) 55, an image processing circuit 56, and an individual difference database (individual difference DB). It has 57 and.

CPU51、メモリ52、位置DB53、通信回路54、地図DB55、画像処理回路56および個体差DB57はバス58で接続されており、相互にデータを授受することが可能である。 The CPU 51, the memory 52, the position DB 53, the communication circuit 54, the map DB 55, the image processing circuit 56, and the individual difference DB 57 are connected by a bus 58, and data can be exchanged with each other.

CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。 The CPU 51 is a signal processing circuit (computer) that controls the operation of the operation management device 50. Typically, the CPU 51 is a semiconductor integrated circuit.

メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。 The memory 52 is a volatile storage device that stores a computer program executed by the CPU 51. The memory 52 can also be used as a work memory when the CPU 51 performs an operation.

位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。本実施形態では、位置データは、基準AGVが出力した位置の座標値および姿勢の角度値の組を含む。当該位置データを「運行管理登録データ」と呼ぶこともある。なお、基準AGVは、図1に示す移動体1aに対応する。 The position DB 53 stores position data indicating each position that can be a destination of each AGV 10. In the present embodiment, the position data includes a set of the coordinate value of the position output by the reference AGV and the angle value of the posture. The location data may be referred to as "operation management registration data". The reference AGV corresponds to the moving body 1a shown in FIG.

通信回路54は、たとえばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図1)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス58を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス58を介してCPU51および/またはメモリ52に送信する。 The communication circuit 54 performs wired communication conforming to, for example, an Ethernet (registered trademark) standard. The communication circuit 54 is connected to the access point 2 (FIG. 1) by wire, and can communicate with the AGV 10 via the access point 2. The communication circuit 54 receives data to be transmitted to the AGV 10 from the CPU 51 via the bus 58. Further, the communication circuit 54 transmits the data (notification) received from the AGV 10 to the CPU 51 and / or the memory 52 via the bus 58.

地図DB55は、AGV10が走行する工場等の内部の地図のデータを格納する。当該地図は、地図40(図7F)と同じであってもよいし、異なっていてもよい。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。たとえば地図DB55に格納される地図は、CADによって作成された地図であってもよい。 The map DB 55 stores map data of the inside of a factory or the like on which the AGV 10 runs. The map may be the same as or different from the map 40 (FIG. 7F). The data format does not matter as long as the map has a one-to-one correspondence with the position of each AGV10. For example, the map stored in the map DB 55 may be a map created by CAD.

位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。 The position DB 53 and the map DB 55 may be built on a non-volatile semiconductor memory, a magnetic recording medium typified by a hard disk, or an optical recording medium typified by an optical disk.

画像処理回路56はモニタ59に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ59は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。 The image processing circuit 56 is a circuit that generates video data to be displayed on the monitor 59. The image processing circuit 56 operates exclusively when the administrator operates the operation management device 50. In this embodiment, further detailed description will be omitted. The monitor 59 may be integrated with the operation management device 50. Further, the CPU 51 may perform the processing of the image processing circuit 56.

個体差DB57は、各AGV10の個体差データを格納する記憶装置である。ある位置においてセンシングを行ったAGV10が、座標値(x,y)および姿勢を表す角度θを出力したとする。本実施形態では、個体差データは(x,y,θ)の各値の基準値からのずれ量として取得される。「基準値」は、当該位置においてセンシングを行った基準AGVが出力した(x,y,θ)である。個体差データは、AGV毎に算出される。また、地図が複数枚存在する場合には、個体差データは地図毎かつAGV毎に算出され得る。個体差データの詳細は後述する。 The individual difference DB 57 is a storage device that stores individual difference data of each AGV10. It is assumed that the AGV 10 that has performed sensing at a certain position outputs the coordinate values (x, y) and the angle θ that represents the posture. In the present embodiment, the individual difference data is acquired as the amount of deviation of each value of (x, y, θ) from the reference value. The “reference value” is the output (x, y, θ) of the reference AGV that has been sensed at the position. Individual difference data is calculated for each AGV. Further, when a plurality of maps exist, the individual difference data can be calculated for each map and each AGV. Details of individual difference data will be described later.

移動体として三次元空間を飛行するドローン等を採用した場合、個体差データは(x,y,z,θ,φ)の各値の基準値からのずれ量として取得され得る。 When a drone or the like flying in a three-dimensional space is adopted as a moving body, individual difference data can be acquired as a deviation amount of each value of (x, y, z, θ, φ) from the reference value.

(6)運行管理装置の動作
図10を参照しながら、運行管理装置50の動作の概要を説明する。図10は、運行管理装置50によって決定されたAGV10の移動経路の一例を模式的に示す図である。
(6) Operation of the Operation Management Device The outline of the operation of the operation management device 50 will be described with reference to FIG. FIG. 10 is a diagram schematically showing an example of the movement route of the AGV 10 determined by the operation management device 50.

AGV10および運行管理装置50の動作の概要は以下のとおりである。以下では、あるAGV10が現在、位置Mにおり、幾つかの位置を通過して、最終的な目的地である位置Mn+1(n:1以上の正の整数)まで走行する例を説明する。なお、位置DB53には位置Mの次に通過すべき位置M、位置Mの次に通過すべき位置M等の各位置を示す座標データが記録されている。The outline of the operation of the AGV 10 and the operation management device 50 is as follows. In the following, an example will be described in which a certain AGV 10 is currently in position M 1 , passes through several positions, and travels to the final destination position M n + 1 (a positive integer greater than or equal to n: 1). .. In the position DB 53, coordinate data indicating each position such as the position M 2 to be passed next to the position M 1 and the position M 3 to be passed next to the position M 2 is recorded.

運行管理装置50のCPU51は、位置DB53を参照して位置Mの座標データを読み出し、さらに個体差DB57から当該AGV10の個体差データを読み出して、位置Mに向かわせる走行指令を生成する。通信回路54は、アクセスポイント2を介して走行指令をAGV10に送信する。The CPU 51 of the operation management device 50 reads the coordinate data of the position M 2 with reference to the position DB 53, further reads the individual difference data of the AGV 10 from the individual difference DB 57, and generates a travel command directed to the position M 2 . The communication circuit 54 transmits a travel command to the AGV 10 via the access point 2.

CPU51は、AGV10から、アクセスポイント2を介して、定期的に現在位置および姿勢を示すデータを受信する。こうして運行管理装置50は、各AGV10の位置をトラッキングすることができる。CPU51は、AGV10の現在位置が位置Mに一致したと判定すると、同様に、位置Mの座標データおよび個体差データを読み出し、位置Mに向かわせる走行指令を生成してAGV10に送信する。つまり運行管理装置50は、AGV10がある位置に到達したと判定すると、次に通過すべき位置に向かわせる走行指令を送信する。これにより、AGV10は最終的な目的位置Mn+1に到達することができる。上述した、AGV10の通過位置および目的位置は「マーカ」と呼ばれることがある。The CPU 51 periodically receives data indicating the current position and posture from the AGV 10 via the access point 2. In this way, the operation management device 50 can track the position of each AGV 10. CPU51 determines that the current position of the AGV10 matches the position M 2, similarly reads out the coordinate data and the individual difference data position M 3, and transmits the AGV10 generates a travel command to direct the position M 3 .. That is, when the operation management device 50 determines that the AGV 10 has reached a certain position, it transmits a travel command to move to the next position to be passed. As a result, the AGV 10 can reach the final target position M n + 1 . The above-mentioned passing position and target position of AGV10 may be referred to as "markers".

(7)地図作成用誘導体を利用して移動する移動体の処理
次に、本実施形態にかかる移動体をより具体的に説明する。以下の説明では、図1Bに示す撮像装置25bを有するAGVを例に挙げるが、下記の説明は、撮像装置25bを磁気センサ25aまたはレーザレーダ装置25cに変更しても適用され得る。
(7) Processing of a Moving Body Using a Derivative for Creating a Map Next, the moving body according to the present embodiment will be described more specifically. In the following description, the AGV having the image pickup device 25b shown in FIG. 1B will be taken as an example, but the following description can be applied even if the image pickup device 25b is changed to the magnetic sensor 25a or the laser radar device 25c.

図11は、互いに分離された撮像装置25bと、AGV10とを示している。撮像装置25bはAGV10に着脱可能である。 FIG. 11 shows the image pickup apparatus 25b separated from each other and the AGV10. The image pickup device 25b is removable from the AGV 10.

撮像装置25bがAGV10に装着されると、マイコン14aは、地図作成用データを収集するためのデータ収集モードでAGV10を動作させる。データ収集モードでは、マイコン14aは、AGV10を地図作成用誘導体に沿って移動させつつ、地図作成用データとして、レーザレンジファインダ15を利用してセンサデータを取得させる。一方、撮像装置25bがAGV10から取り外されると、マイコン14aは、レーザレンジファインダ15から出力されたセンサデータと地図データとを用いた自己位置および姿勢の推定結果に従って、AGV10を自律的に走行させる。 When the image pickup device 25b is attached to the AGV10, the microcomputer 14a operates the AGV10 in a data collection mode for collecting map creation data. In the data acquisition mode, the microcomputer 14a moves the AGV 10 along the map-creating derivative and acquires sensor data as map-creating data using the laser range finder 15. On the other hand, when the image pickup device 25b is removed from the AGV 10, the microcomputer 14a autonomously runs the AGV 10 according to the estimation result of the self-position and the posture using the sensor data and the map data output from the laser range finder 15.

AGV10の搬送テーブル13上には、入力インタフェース14hが設けられている。一方、誘導体読み取り装置25の底部には出力インタフェース14jが設けられている。入力インタフェース14hは、例えば導通の有無により、撮像装置25bの装着または取り外し(着脱)を検出可能である。入力インタフェース14hが撮像装置25bの装着が行われたことを検出すると、ずれた方向およびずれ量のデータが、撮像装置25bからマイコン14aに伝達される。マイコン14aは、AGV10を地図作成用誘導体に沿って走行させる動作モードに移行する。これにより、地図作成用データの収集を行うことができる。なお、走行時に誘導体読み取り装置25がAGV10から抜け落ちないよう、機械的なロック機構が設けられてもよい。 An input interface 14h is provided on the transfer table 13 of the AGV 10. On the other hand, an output interface 14j is provided at the bottom of the derivative reading device 25. The input interface 14h can detect attachment / detachment (attachment / detachment) of the image pickup apparatus 25b, for example, depending on the presence / absence of continuity. When the input interface 14h detects that the image pickup device 25b has been attached, the data of the shift direction and the shift amount is transmitted from the image pickup device 25b to the microcomputer 14a. The microcomputer 14a shifts to an operation mode in which the AGV 10 is driven along the map-making derivative. As a result, it is possible to collect map creation data. A mechanical lock mechanism may be provided so that the derivative reading device 25 does not fall out of the AGV 10 during traveling.

なお、撮像装置25bがAGV10に着脱可能であることは必須ではなく、AGV10に、取り外しできないよう恒常的に固定されていてもよい。撮像装置25bがAGV10に恒常的に固定されている場合、撮像装置25bはデータ収集モード時に地図作成用誘導体を読み取る。さらに、撮像装置25bは、通常走行時に進路上の障害物等を検出するために用いられてもよい。障害物等の検出は、画像処理によって障害物等を識別することによって実現され得る。 It is not essential that the image pickup apparatus 25b be detachable from the AGV 10, and it may be permanently fixed to the AGV 10 so that it cannot be detached. When the imaging device 25b is permanently fixed to the AGV 10, the imaging device 25b reads the mapping derivative in the data acquisition mode. Further, the image pickup device 25b may be used to detect an obstacle or the like in the course during normal traveling. Detection of obstacles and the like can be realized by identifying obstacles and the like by image processing.

図12は、糸31に沿ってAGV10が誘導される様子を示している。図示された例では、AGV10は紙面手前から奥行き方向に向かって走行している。 FIG. 12 shows how the AGV 10 is induced along the thread 31. In the illustrated example, the AGV 10 runs from the front side of the paper toward the depth direction.

図13は、撮像装置25bによって取得された画像35の一例である。画像35には、糸31の像36が含まれている。糸31が蛍光色である場合、撮像装置25bの画像処理回路は、当該蛍光色を有する画素を抽出することにより、糸31の像36を識別する。 FIG. 13 is an example of the image 35 acquired by the image pickup apparatus 25b. The image 35 includes an image 36 of the thread 31. When the thread 31 has a fluorescent color, the image processing circuit of the image pickup apparatus 25b identifies the image 36 of the thread 31 by extracting the pixels having the fluorescent color.

本実施形態では、撮像装置25bは、例えば毎秒15枚のフレームレートで動画像を撮影し、各フレーム画像について、糸31の像36を識別する処理を行う。識別を継続して行うことにより、画像処理回路は、糸31の像36がずれた方向およびずれ量のデータを取得できる。 In the present embodiment, the image pickup apparatus 25b captures moving images at a frame rate of, for example, 15 images per second, and performs a process of identifying the image 36 of the thread 31 for each frame image. By continuously performing the identification, the image processing circuit can acquire data on the direction and amount of deviation of the image 36 of the thread 31.

マイコン14aは、ずれた方向およびずれ量のデータを撮像装置25bから受け取り、ずれ量が、例えば0±10mmの範囲内に入るようAGV10の走行時の姿勢を制御する。 The microcomputer 14a receives the data of the deviation direction and the deviation amount from the image pickup apparatus 25b, and controls the posture of the AGV 10 during traveling so that the deviation amount falls within the range of, for example, 0 ± 10 mm.

なお、撮像装置25bの画像処理回路は、画像の下辺中央の位置37をずれ量を算出する基準位置として定めてもよい。このときAGV10のマイコン14aは、像36が画像の下辺中央の位置37を含む範囲を通過するよう、AGV10の走行時の姿勢を制御する。 The image processing circuit of the image pickup apparatus 25b may set the position 37 at the center of the lower side of the image as a reference position for calculating the deviation amount. At this time, the microcomputer 14a of the AGV10 controls the posture of the AGV10 during traveling so that the image 36 passes through the range including the position 37 at the center of the lower side of the image.

上述の説明では、誘導体読み取り装置25である磁気センサ25a、撮像装置25bおよびレーザレーダ装置25cが、ずれた方向およびずれ量のデータを自ら算出して出力する例を説明した。他の例として、誘導体読み取り装置25が、ずれた方向およびずれ量のデータを算出するためのデータを取得する処理までを行い、ずれた方向およびずれ量のデータを実際に算出する処理はマイコン14aに行わせてもよい。これにより、誘導体読み取り装置25の構成をより簡略化し、コストを抑制することができる。 In the above description, an example has been described in which the magnetic sensor 25a, the image pickup device 25b, and the laser radar device 25c, which are the derivative reading devices 25, calculate and output the data of the deviation direction and the deviation amount by themselves. As another example, the derivative reading device 25 performs a process of acquiring data for calculating the data of the deviation direction and the deviation amount, and the process of actually calculating the data of the deviation direction and the deviation amount is the processing of the microcomputer 14a. May be done. As a result, the configuration of the derivative reading device 25 can be further simplified and the cost can be suppressed.

図14は、地図作成用データ収集モード時のAGV10のマイコン14aの処理の手順を示すフローチャートである。上述のように、地図作成用データ収集モード時には、誘導体読み取り装置25がAGV10に装着されている。 FIG. 14 is a flowchart showing a processing procedure of the AGV10 microcomputer 14a in the map creation data collection mode. As described above, the derivative reading device 25 is attached to the AGV 10 in the map creation data collection mode.

ステップS10において、マイコン14aは、誘導体読み取り装置25から、地図作成用誘導体の読み取り結果のデータを取得する。 In step S10, the microcomputer 14a acquires the data of the reading result of the map-making derivative from the derivative reading device 25.

ステップS11において、マイコン14aは、読み取り結果にしたがって、地図作成用誘導体に沿ってAGV10を走行させる。 In step S11, the microcomputer 14a runs the AGV 10 along the map-making derivative according to the reading result.

ステップS12において、マイコン14aは、走行中に逐次、レーザレンジファインダ15に地図作成用データを取得させる。 In step S12, the microcomputer 14a sequentially causes the laser range finder 15 to acquire map creation data during traveling.

ステップS13において、マイコン14aは、地図作成用データを記憶装置14cに格納させる。 In step S13, the microcomputer 14a stores the map creation data in the storage device 14c.

以上の処理によれば、AGV10は、目印である地図作成用誘導体を自動的に読み取り、地図作成用誘導体に沿って地図作成用データを収集することができる。地図作成用データの収集後は、収集したデータを用いてマイコン14aが地図を作成する処理を追加的に行ってもよいし、収集したデータを外部装置に送信し、外部装置に地図を作成させてもよい。 According to the above processing, the AGV10 can automatically read the map-making derivative which is a mark and collect the map-making data along with the map-making derivative. After collecting the map creation data, the microcomputer 14a may additionally perform a process of creating a map using the collected data, or transmit the collected data to an external device and have the external device create a map. You may.

上記の包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The above-mentioned comprehensive or specific embodiment may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium. Alternatively, it may be realized by any combination of systems, devices, methods, integrated circuits, computer programs, and recording media.

本開示の移動体は、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The moving body of the present disclosure can be suitably used for moving and transporting items such as luggage, parts, and finished products in factories, warehouses, construction sites, physical distribution, hospitals, and the like.

1・・・ユーザ、2a、2b・・・アクセスポイント、10・・・AGV(移動体)、11a、11b・・・駆動輪(車輪)、11c、11d、11e、11f・・・キャスター、12・・・フレーム、13・・・搬送テーブル、14・・・走行制御装置、14a・・・マイコン、14b・・・メモリ、14c・・・記憶装置、14d・・・通信回路、14e・・・測位装置、16a、16b・・・モータ、15・・・レーザレンジファインダ、17a、17b・・・モータ駆動回路、20・・・端末装置(タブレットコンピュータなどのモバイルコンピュータ)、25・・・誘導体読み取り装置、25a・・・磁気センサ、25b・・・撮像装置、25c・・・レーザレーダ装置、50・・・運行管理装置、51・・・CPU、52・・・メモリ、53・・・位置データベース(位置DB)、54・・・通信回路、55・・・地図データベース(地図DB)、56・・・画像処理回路、100・・・移動体管理システム 1 ... User, 2a, 2b ... Access point, 10 ... AGV (moving body), 11a, 11b ... Drive wheels (wheels), 11c, 11d, 11e, 11f ... Caster, 12 ... frame, 13 ... transfer table, 14 ... travel control device, 14a ... microcomputer, 14b ... memory, 14c ... storage device, 14d ... communication circuit, 14e ... Positioning device, 16a, 16b ... motor, 15 ... laser range finder, 17a, 17b ... motor drive circuit, 20 ... terminal device (mobile computer such as tablet computer), 25 ... derivative reading Device, 25a ... Magnetic sensor, 25b ... Imaging device, 25c ... Laser radar device, 50 ... Operation management device, 51 ... CPU, 52 ... Memory, 53 ... Location database (Position DB), 54 ... Communication circuit, 55 ... Map database (Map DB), 56 ... Image processing circuit, 100 ... Mobile management system

Claims (8)

センサを用いて周囲の空間をセンシングし、取得されたセンサデータと予め用意された地図とを照合することによって自己位置を推定しながら自律走行を行うことが可能な移動体であって、
モータと、
前記モータを制御して前記移動体を移動させる駆動装置と、
床に配置された地図作成用誘導体の位置を光学的または磁気的に読み取る読み取り装置と、
前記読み取り装置の読み取り結果にしたがって、前記地図作成用誘導体に沿って前記床を走行させるよう前記駆動装置を制御する信号処理回路と、
前記地図作成用誘導体に沿った走行中に周囲の空間をセンシングして、センサデータを取得するセンサと、
前記センサデータを格納する記憶装置と
を備え、前記センサデータから作成された地図を、前記自律走行を行うための前記予め用意された地図として使用する、移動体。
It is a moving body that can perform autonomous driving while estimating its own position by sensing the surrounding space using a sensor and collating the acquired sensor data with a map prepared in advance.
With the motor
A drive device that controls the motor to move the moving body,
A reader that optically or magnetically reads the location of the mapping derivative placed on the floor,
A signal processing circuit that controls the drive device so as to run the floor along the map-making derivative according to the reading result of the reading device.
A sensor that acquires sensor data by sensing the surrounding space while traveling along the map-making derivative,
A mobile body including a storage device for storing the sensor data, and using a map created from the sensor data as the map prepared in advance for performing the autonomous driving.
前記地図作成用誘導体は前記床に這わせた糸であり、
前記読み取り装置は前記糸を光学的に撮影する撮像装置である、請求項1に記載の移動体。
The mapping derivative is a thread laid on the floor.
The moving body according to claim 1, wherein the reading device is an imaging device that optically images the thread.
前記地図作成用誘導体は前記床に引かれた線であり、
前記読み取り装置は前記線を光学的に撮影する撮像装置である、請求項1に記載の移動体。
The mapping derivative is a line drawn on the floor.
The moving body according to claim 1, wherein the reading device is an imaging device that optically captures the line.
前記地図作成用誘導体は前記床に引かれた磁気テープであり、
前記読み取り装置は磁気センサである、請求項1に記載の移動体。
The mapping derivative is a magnetic tape drawn on the floor.
The mobile body according to claim 1, wherein the reading device is a magnetic sensor.
前記読み取り装置は着脱可能であり、
前記読み取り装置は、前記地図を作成するためのセンサデータの取得時には装着され、前記自律走行時には取り外される、請求項1から4のいずれかに記載の移動体。
The reading device is removable and
The moving body according to any one of claims 1 to 4, wherein the reading device is attached when the sensor data for creating the map is acquired and is removed during the autonomous driving.
前記読み取り装置の着脱を検出可能なインタフェース装置をさらに備え、
前記読み取り装置が装着されたことを前記インタフェース装置が検出すると、前記信号処理回路は、前記地図作成用誘導体に沿って前記床を走行させる動作モードに移行する、請求項1から5のいずれかに記載の移動体。
An interface device capable of detecting the attachment / detachment of the reading device is further provided.
According to any one of claims 1 to 5, when the interface device detects that the reading device is attached, the signal processing circuit shifts to an operation mode in which the floor is run along the mapping derivative. The described mobile body.
前記読み取り装置は恒常的に固定されている、請求項1から4のいずれかに記載の移動体。 The mobile body according to any one of claims 1 to 4, wherein the reading device is permanently fixed. 前記信号処理回路は前記センサデータから地図を作成し、前記自律走行を行うための前記予め用意された地図として使用する、請求項1から7のいずれかに記載の移動体。 The mobile body according to any one of claims 1 to 7, wherein the signal processing circuit creates a map from the sensor data and uses it as the map prepared in advance for performing the autonomous traveling.
JP2019546732A 2017-10-04 2018-10-02 Mobile Pending JPWO2019069921A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017194480 2017-10-04
JP2017194480 2017-10-04
PCT/JP2018/036876 WO2019069921A1 (en) 2017-10-04 2018-10-02 Mobile body

Publications (1)

Publication Number Publication Date
JPWO2019069921A1 true JPWO2019069921A1 (en) 2020-10-22

Family

ID=65995182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546732A Pending JPWO2019069921A1 (en) 2017-10-04 2018-10-02 Mobile

Country Status (2)

Country Link
JP (1) JPWO2019069921A1 (en)
WO (1) WO2019069921A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021035579A1 (en) * 2019-08-28 2021-03-04 Abb Schweiz Ag Apparatus and method for secondary positioning of automatic guided vehicle

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01300311A (en) * 1988-05-30 1989-12-04 Toshiba Corp Unmanned vehicle guiding device
JP3238285B2 (en) * 1994-08-09 2001-12-10 三菱重工業株式会社 Trajectory control method for trackless traveling vehicle
JP3293448B2 (en) * 1996-02-23 2002-06-17 日産自動車株式会社 Vehicle travel position detection device
JP4246325B2 (en) * 1999-08-25 2009-04-02 富士通株式会社 Automated transfer device
JP5396983B2 (en) * 2009-04-14 2014-01-22 株式会社安川電機 Moving body and teaching method of moving body
JP5973610B1 (en) * 2015-03-27 2016-08-23 本田技研工業株式会社 Control equipment for unmanned work vehicles
JP2017146893A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Self-position estimation method

Also Published As

Publication number Publication date
WO2019069921A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
TWI665538B (en) A vehicle performing obstacle avoidance operation and recording medium storing computer program thereof
JP2019168942A (en) Moving body, management device, and moving body system
WO2019187816A1 (en) Mobile body and mobile body system
JP6816830B2 (en) A position estimation system and a mobile body equipped with the position estimation system.
JPWO2019026761A1 (en) Mobile and computer programs
JP7081881B2 (en) Mobiles and mobile systems
US20200110410A1 (en) Device and method for processing map data used for self-position estimation, mobile body, and control system for mobile body
JP7136426B2 (en) Management device and mobile system
JPWO2019054209A1 (en) Map making system and map making device
JP2019148881A (en) Moving object, and method and computer program controlling moving object
JP2019053391A (en) Mobile body
US11537140B2 (en) Mobile body, location estimation device, and computer program
JP2019175137A (en) Mobile body and mobile body system
JP7164085B2 (en) Work transport method using moving body, computer program, and moving body
WO2019194079A1 (en) Position estimation system, moving body comprising said position estimation system, and computer program
JP7243014B2 (en) moving body
JP2019179497A (en) Moving body and moving body system
JP2019079171A (en) Movable body
JP2020166702A (en) Mobile body system, map creation system, route creation program and map creation program
JPWO2019069921A1 (en) Mobile
JP2019067001A (en) Moving body
JP2019165374A (en) Mobile body and mobile system
CN112578789A (en) Moving body
JP2019148871A (en) Movable body and movable body system
JPWO2019059299A1 (en) Operation management device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210806

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210806