JP2019179497A - Moving body and moving body system - Google Patents
Moving body and moving body system Download PDFInfo
- Publication number
- JP2019179497A JP2019179497A JP2018069765A JP2018069765A JP2019179497A JP 2019179497 A JP2019179497 A JP 2019179497A JP 2018069765 A JP2018069765 A JP 2018069765A JP 2018069765 A JP2018069765 A JP 2018069765A JP 2019179497 A JP2019179497 A JP 2019179497A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensor data
- agv
- partial
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 15
- 230000006854 communication Effects 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 34
- 230000007613 environmental effect Effects 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 20
- 239000003550 marker Substances 0.000 description 14
- 238000005259 measurement Methods 0.000 description 10
- 238000009434 installation Methods 0.000 description 9
- 239000004065 semiconductor Substances 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000032258 transport Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000007175 bidirectional communication Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 206010027146 Melanoderma Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本開示は移動体および移動体システムに関する。 The present disclosure relates to a moving body and a moving body system.
所定の経路に沿って自律的に空間を移動する自律移動ロボットが開発されている。自律移動ロボットは、レーザ距離センサ等の外界センサを用いて周囲の空間をセンシングし、センシング結果と、予め用意された地図とのマッチングを行い、自身の現在の位置および姿勢を推定(同定)する。自律移動ロボットは、自身の現在の位置および姿勢を制御しながら、当該経路に沿って移動することができる。 An autonomous mobile robot that autonomously moves in space along a predetermined route has been developed. The autonomous mobile robot senses the surrounding space using an external sensor such as a laser distance sensor, matches the sensing result with a prepared map, and estimates (identifies) its current position and posture. . The autonomous mobile robot can move along the route while controlling its current position and posture.
特許第5927735号明細書は、移動物以外の静止物の物体形状データを地図データとマッチングする技術を開示する。また特開2012−053839号公報は、マスクエリアに相当する走行エリアに置かれた物品(障害物)に関しては、計測データと地図データとのマッチングを行わない、という技術を開示する。 Japanese Patent No. 5927735 discloses a technique for matching object shape data of a stationary object other than a moving object with map data. Japanese Unexamined Patent Application Publication No. 2012-053839 discloses a technique in which measurement data and map data are not matched for an article (obstacle) placed in a travel area corresponding to a mask area.
本願の、限定的ではない例示的なある実施形態は、環境の変化が生じやすい空間を移動する際の、位置同定の信頼性を向上させる技術を提供する。 One non-limiting exemplary embodiment of the present application provides a technique for improving the reliability of position identification when moving in a space subject to environmental changes.
本開示の例示的な実施形態における移動体は、自律的に移動することが可能な移動体であって、前記移動体を移動させる駆動装置と、周囲の空間を繰り返しスキャンしてスキャンごとにセンサデータを出力する外界センサと、前記センサデータと予め用意された地図データとを照合して、照合結果に基づき前記移動体の位置および姿勢を示す位置情報を順次出力する位置推定装置と、前記位置推定装置から出力された前記位置情報を参照しながら前記駆動装置を制御して、前記移動体を移動させるコントローラとを備え、前記位置推定装置は、前記センサデータの一部である部分センサデータであって、移動中の位置に応じて選択される部分センサデータと、予め用意された地図データとを照合して、照合結果に基づき前記移動体の位置および姿勢を示す位置情報を順次出力する。 The mobile body in the exemplary embodiment of the present disclosure is a mobile body that can move autonomously, and a driving device that moves the mobile body and a sensor that scans the surrounding space repeatedly and scans each sensor. An external sensor that outputs data, a position estimation device that collates the sensor data with map data prepared in advance, and sequentially outputs position information indicating the position and orientation of the moving body based on the collation result; and the position A controller that controls the driving device while moving the moving body while referring to the position information output from the estimation device, and the position estimation device uses partial sensor data that is a part of the sensor data. Therefore, the partial sensor data selected according to the moving position and the map data prepared in advance are collated, and the position and the position of the moving body are determined based on the collation result. Sequentially outputs position information indicating the posture.
本開示の実施形態によれば、環境の変化が生じやすい空間を移動する際の、位置同定の信頼性を向上させることができるため、移動体をより安定して移動させることができる。 According to the embodiment of the present disclosure, it is possible to improve the reliability of position identification when moving in a space in which environmental changes are likely to occur, and thus it is possible to move the moving body more stably.
<用語>
本開示の実施形態を説明する前に、本明細書において使用する用語の定義を説明する。
<Terminology>
Prior to describing embodiments of the present disclosure, definitions of terms used herein will be described.
「無人搬送車」(AGV)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。 An “automated guided vehicle” (AGV) means a trackless vehicle in which a package is loaded manually or automatically in a main body, travels automatically to a designated place, and is unloaded manually or automatically. “Automated guided vehicle” includes automatic guided vehicles and automatic forklifts.
「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(たとえば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term “unmanned” means that no person is required to steer the vehicle, and it does not exclude that the automated guided vehicle transports a “person (for example, a person who loads and unloads luggage)”.
「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 An “unmanned towing vehicle” is a trackless vehicle that automatically pulls a cart that loads and unloads luggage manually or automatically travels to a designated location.
「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 An “unmanned forklift” is a trackless vehicle equipped with a mast that moves up and down a load transfer fork, etc., automatically transfers the load to the fork, etc., automatically travels to a designated location, and performs automatic cargo handling work.
「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A “trackless vehicle” is a vehicle that includes wheels and an electric motor or engine that rotates the wheels.
「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 The “moving body” is a device that carries a person or a load and moves, and includes a driving device such as a wheel, a biped or multi-legged walking device, and a propeller that generate a driving traction for movement. The term “mobile body” in the present disclosure includes not only a narrow automatic guided vehicle but also a mobile robot, a service robot, and a drone.
「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 The “automatic traveling” includes traveling based on a command of a computer operation management system to which the automatic guided vehicle is connected by communication, and autonomous traveling by a control device included in the automatic guided vehicle. Autonomous traveling includes not only traveling where the automated guided vehicle travels to a destination along a predetermined route, but also traveling following a tracking target. Moreover, the automatic guided vehicle may temporarily perform manual travel based on an instruction from the worker. “Automatic travel” generally includes both “guided” travel and “guideless” travel, but in the present disclosure, it means “guideless” travel.
「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The “guide type” is a system in which a derivative is installed continuously or intermittently and the guided vehicle is guided using the derivative.
「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The “guideless type” is a method of guiding without installing a derivative. The automatic guided vehicle in the embodiment of the present disclosure includes a self-position estimation device and can travel in a guideless manner.
「自己位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて環境地図上における自己位置を推定する装置である。 The “self-position estimation device” is a device that estimates the self-position on the environment map based on sensor data acquired by an external sensor such as a laser range finder.
「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、たとえば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、および磁気センサがある。 An “external sensor” is a sensor that senses an external state of a moving body. Examples of the external sensor include a laser range finder (also referred to as a range sensor), a camera (or an image sensor), a LIDAR (Light Detection and Ranging), a millimeter wave radar, and a magnetic sensor.
「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、たとえばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(たとえばジャイロセンサ)がある。 The “inner world sensor” is a sensor that senses the state inside the moving body. Examples of the internal sensor include a rotary encoder (hereinafter sometimes simply referred to as “encoder”), an acceleration sensor, and an angular acceleration sensor (for example, a gyro sensor).
「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と環境地図作成を同時に行うことを意味する。 “SLAM” is an abbreviation for “Simultaneous Localization and Mapping”, and means that self-location estimation and environmental map creation are performed simultaneously.
<例示的な実施形態>
以下、添付の図面を参照しながら、本開示による移動体および移動体システムの一例を説明する。なお、必要以上に詳細な説明は省略する場合がある。たとえば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。本発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供する。これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
<Exemplary Embodiment>
Hereinafter, an example of a moving object and a moving object system according to the present disclosure will be described with reference to the accompanying drawings. A more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The inventors provide the accompanying drawings and the following description to enable those skilled in the art to fully understand the present disclosure. They are not intended to limit the claimed subject matter.
本開示において説明する移動体は、地図データを利用して自律的に移動することが可能であり、かつ、当該地図データを更新することが可能である。そのような移動体の例は、無人搬送車(例えば後述の図6)である。 The mobile body described in the present disclosure can move autonomously using map data and can update the map data. An example of such a moving body is an automatic guided vehicle (for example, FIG. 6 described later).
図1は、本開示の例示的な実施形態における移動体の概略構成を示すブロック図である。移動体101は、外界センサ103と、位置推定装置105と、コントローラ107と、駆動装置109とを備えている。なお、ある実施形態では位置推定装置105およびコントローラ107は、それぞれ別個の半導体集積回路チップであるが、他の実施形態では、位置推定装置105およびコントローラ107は1つの半導体集積回路チップであり得る。
FIG. 1 is a block diagram illustrating a schematic configuration of a moving object according to an exemplary embodiment of the present disclosure. The moving
駆動装置109は、移動体101を移動させる機構を備えている。駆動装置109は、例えば少なくとも1台の駆動用電気モータ(以下、単に「モータ」と称する)、および、当該モータを制御するモータ制御回路を備え得る。
The
外界センサ103は、例えばレーザレンジファインダ、カメラ、レーダ、またはLIDARなどの、外部環境をセンシングするセンサである。外界センサ103は、所定の角度範囲で周囲の空間を繰り返しスキャンしてセンサデータを出力する。
The
位置推定装置105は、不図示の記憶装置に地図データを格納している。地図データは、例えば、移動体101の動作開始前に取得されたセンサデータを用いて生成されている。センサデータは、実際に移動体101が空間を移動しながら取得され得る。
The
位置推定装置105は、外界センサ103から出力されたセンサデータと当該地図データとを照合して、照合結果に基づき移動体の位置および姿勢を推定する。位置推定装置105は、推定した移動体の位置および姿勢(orientation)を示す情報(本明細書において「位置情報」と称する)を順次出力する。
The
コントローラ107は、例えば、半導体集積回路であるマイクロコントローラユニット(マイコン)である。コントローラ107は、位置推定装置105から出力された位置情報を参照しながら駆動装置109を制御して、移動体101を移動させる。
The
本実施形態では、位置推定装置105は、常に外界センサ103から出力された全センサデータと地図データとを照合するのではなく、全センサデータの中から選択された一部のセンサデータ(以下「部分センサデータ」と記述する。)を選択し、選択した部分センサデータと地図データとを照合する。部分センサデータは、移動中の位置に応じて決定される。
In the present embodiment, the
移動体101が移動可能な空間には、風景が変わりやすい位置や、変わりにくい位置が混在している。風景が変わりやすい位置のセンサデータは、地図データと比較的大きく相違している可能性が高い。そのようなセンサデータと地図データとを照合し位置同定処理を行うと、位置同定の信頼度が低下し、安定した移動の妨げになり得る。そこで本願発明者は、外界センサ103から出力された全センサデータから、風景が変わりやすい位置のセンサデータ以外のセンサデータ、すなわち部分センサデータ、を位置推定装置105に選択させ、部分センサデータと地図データとを照合させて位置同定処理の信頼性をより高めることにした。
In the space in which the moving
図2Aは、本開示の例示的な移動体101の動作の概要を示すフローチャートである。フローチャートによる処理は、本来、ある1つのCPU、MPUまたはマイクロコントローラによって実行される処理の手順を示している。しかしながら図2は理解の便宜のため、位置推定装置105およびコントローラ107の処理を混在させて説明している。位置推定装置105およびコントローラ107は互いにデータの授受を行いながら、各々の処理を実行する。ステップS1〜S4が位置推定装置105の処理である。
FIG. 2A is a flowchart illustrating an outline of the operation of the exemplary moving
ステップS1において、位置推定装置105は、外界センサ103が周囲の空間を繰り返しスキャンしてスキャンごとに出力したセンサデータを受け取る。
In step S <b> 1, the
ステップS2において、位置推定装置105は、移動中の位置に応じて、部分センサデータまたは全てのセンサデータを選択する。移動中の位置が風景が変わらない位置である場合には、位置推定装置105は全てのセンサデータを選択する。一方、移動中の位置が、風景が変わりやすい位置であることを示す「部分空間」に該当する場合には、位置推定装置105は一部のセンサデータ(部分センサデータ)を選択する。
In step S <b> 2, the
部分空間に該当するか否かの判断に当たっては、移動体101に記憶装置を設け、風景が変わりやすい位置(部分空間)を特定する部分空間データを予め記憶させておけばよい。位置推定装置105は、現在移動中の位置が当該部分空間に該当するか否かを、移動中判定し続ける。現在移動中の位置が当該部分空間内であるか否かに応じて、位置推定装置105は、部分センサデータまたは全センサデータを選択すればよい。
In determining whether or not the image corresponds to a partial space, a storage device may be provided in the moving
位置推定装置105は、ステップS3において、選択されたセンサデータと地図データとを照合し、ステップS4において、照合結果から位置情報を生成して出力する。
The
ステップS5はコントローラ107の処理である。ステップS5において、コントローラ107は、位置推定装置105から出力された位置情報にしたがって駆動装置109を駆動させて移動体101を移動させる。なお、ステップS5は、理解の便宜のために含めた処理であり、位置同定処理自体に必須ではない。そのため、図2ではステップS5を破線で示している。
Step S5 is a process of the
図2Bは、図2AのステップS2のセンサデータの選択処理の一例を示すフローチャートである。 FIG. 2B is a flowchart illustrating an example of sensor data selection processing in step S2 of FIG. 2A.
ステップS11において、位置推定装置105は、移動中の位置を示す位置データを取得する。本実施形態では、「移動中の位置」とは、位置推定装置105が直前に行った位置同定処理によって同定した位置であるとする。位置推定装置105は、自身の内部バッファまたはレジスタに格納された、直前に同定された位置データを読み出せばよい。なお、当該位置が更新されるまでは、位置推定装置105にとっては当該位置が「現在位置」であると言える。そのため、以下では便宜的に「現在位置」と記述することがある。
In step S11, the
ステップS12において、位置推定装置105は、予め用意された、風景が変わりやすい位置である部分空間を示す部分空間データを、不図示の記憶装置から読み出す。
In step S <b> 12, the
ステップS13において、位置推定装置105は、現在位置が部分空間内であるか否かを判定する。現在位置が部分空間内である場合には処理はステップS14に進み、そうでない場合には処理はステップS16に進む。
In step S13, the
ステップS14において、位置推定装置105は、部分空間データを参照して、現在位置からみた部分空間の角度範囲を算出する。
In step S14, the
ステップS15において、位置推定装置105は、スキャンが行われた全角度範囲のセンサデータの中から、部分空間の角度範囲に属しないセンサデータを部分データとして選択する。一方のステップS16において、位置推定装置105は、スキャンが行われた全角度範囲のセンサデータを選択する。
In step S15, the
例えば位置推定装置105は、AGV10の正面を基準にして右方向に+20度から85度の範囲が部分空間の角度範囲であると判定したとする(ステップS14)。位置推定装置105は、外界センサ103によって左右135度(合計270度)の範囲から得られた全センサデータから、部分空間の上記角度範囲を除外した残りのセンサデータを部分データとして選択する(ステップS15)。
For example, it is assumed that the
さらに、移動体101に通信回路を設けて、移動体101に通信機能を持たせることも有効である。通信回路は、部分空間の管理を行う管理装置(図示せず)と通信する。管理装置が部分空間データを更新すると、ブロードキャストにより、各移動体101に更新後の部分空間データが送信される。これにより、通信機能を有する全ての移動体が、最新の部分空間データを用いてセンサデータを選択することが可能になる。
Furthermore, it is also effective to provide a communication circuit in the
以下、移動体が無人搬送車である場合のより具体的な例を説明する。本明細書では、略語を用いて、無人搬送車を「AGV」と記述することがある。なお、以下の説明は、矛盾がない限り、AGV以外の移動体、例えば移動ロボット、ドローン、または有人の車両などにも同様に適用することができる。 Hereinafter, a more specific example when the moving body is an automatic guided vehicle will be described. In this specification, the automatic guided vehicle may be described as “AGV” using an abbreviation. Note that the following description can be similarly applied to a mobile body other than the AGV, such as a mobile robot, a drone, or a manned vehicle, as long as there is no contradiction.
なお、図1および図2を参照しながら説明した開示に関連する内容は、後述の「(7)AGVの動作例」においてより詳細に説明される。 The content related to the disclosure described with reference to FIGS. 1 and 2 will be described in more detail in “(7) Example of operation of AGV” described later.
(1)システムの基本構成
図3は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図3には、ユーザ1によって操作される端末装置20も記載されている。
(1) Basic Configuration of System FIG. 3 shows a basic configuration example of an exemplary
AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令に従って移動空間S内を自動走行することが可能である。AGV10は、さらに、人または他の移動体に追従して移動する「追尾モード」で動作することが可能である。
The
運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。たとえば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、たとえば100ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて移動空間S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。典型的には、端末装置20を利用したAGV10の走行は地図作成時に行われ、運行管理装置50を利用したAGV10の走行は地図作成後に行われる。
The
図4は、3台のAGV10a、10bおよび10cが存在する移動空間Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図4では参照符号10a、10bおよび10cを付したが、以下では、「AGV10」と記述する。
FIG. 4 shows an example of a moving space S in which three
AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図5Aは接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図5Bは、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。
In addition to the method of transporting a load placed on the top board, the
AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。
The connection method between the
再び図3を参照する。各AGV10と端末装置20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi−Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、たとえばスイッチングハブ3を介して互いに接続されている。図3には2台のアクセスポイント2a、2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信され、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信され、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。
Refer to FIG. 3 again. Each
(2)環境地図の作成
自己位置を推定しながらAGV10が走行できるようにするため、移動空間S内の地図が作成される。AGV10には位置推定装置およびレーザレンジファインダが搭載されており、レーザレンジファインダの出力を利用して地図を作成できる。
(2) Creation of environmental map A map in the moving space S is created so that the
AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はレーザレンジファインダを用いたセンサデータの取得を開始する。レーザレンジファインダは周期的にたとえば赤外線または可視光のレーザビームを周囲に放射して周囲の空間Sをスキャンする。レーザビームは、たとえば、壁、柱等の構造物、床の上に置かれた物体等の表面で反射される。レーザレンジファインダは、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。測定結果のデータは「計測データ」または「センサデータ」と呼ばれることがある。
The
位置推定装置は、センサデータを記憶装置に蓄積する。移動空間S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、たとえば信号処理プロセッサを有し、かつ、地図作成プログラムがインストールされたコンピュータである。 The position estimation device accumulates sensor data in a storage device. When the acquisition of the sensor data in the moving space S is completed, the sensor data accumulated in the storage device is transmitted to the external device. The external device is, for example, a computer having a signal processor and having a mapping program installed therein.
外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、空間Sの地図を作成することができる。外部装置は、作成した地図のデータをAGV10に送信する。AGV10は、作成した地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。
The signal processor of the external device superimposes the sensor data obtained for each scan. A map of the space S can be created by repeatedly performing the process of overlapping by the signal processor. The external device transmits the created map data to the
外部装置ではなくAGV10が地図の作成を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要が無くなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。
The
なお、センサデータを取得するための移動空間S内の移動は、ユーザの操作に従ってAGV10が走行することによって実現し得る。たとえば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって移動空間S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって移動空間S内を前後左右に走行し、地図を作成してもよい。レーザレンジファインダを搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。
The movement in the movement space S for acquiring the sensor data can be realized by the
なお、図3および図4には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、移動空間Sの地図を作成させることができる。
3 and 4 show a plurality of
地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。自己位置を推定する処理の説明は後述する。
After the map is created, each
(3)AGVの構成
図6は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、レーザレンジファインダ15とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図6には示されていない。また、図6には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。
(3) Configuration of AGV FIG. 6 is an external view of an
AGV10は、さらに、障害物を検知するための少なくとも1つの障害物センサ19を備えている。図6の例では、フレーム12の4隅に4つの障害物センサ19が設けられている。障害物センサ19の個数および配置は、図6の例とは異なっていてもよい。障害物センサ19は、例えば、赤外線センサ、超音波センサ、またはステレオカメラなどの、距離計測が可能な装置であり得る。障害物センサ19が赤外線センサである場合、例えば一定時間ごとに赤外線を出射し、反射された赤外線が戻ってくるまでの時間を計測することにより、一定距離以内に存在する障害物を検知することができる。AGV10は、少なくとも1つの障害物センサ19から出力された信号に基づいて経路上の障害物を検知したとき、その障害物を回避する動作を行う。
The
走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および前処理演算を行う。
The
レーザレンジファインダ15は、たとえば赤外線または可視光のレーザビーム15aを放射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のレーザレンジファインダ15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを放射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、レーザレンジファインダ15が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、レーザレンジファインダ15は高さ方向のスキャンを行ってもよい。
The
AGV10の位置および姿勢(向き)と、レーザレンジファインダ15のスキャン結果とにより、AGV10は、空間Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。
The
一般に、移動体の位置および姿勢は、ポーズ(pose)と呼ばれる。二次元面内における移動体の位置および姿勢は、XY直交座標系における位置座標(x, y)と、X軸に対する角度θによって表現される。AGV10の位置および姿勢、すなわちポーズ(x, y, θ)を、以下、単に「位置」と呼ぶことがある。
In general, the position and posture of a moving object are called poses. The position and orientation of the moving body in the two-dimensional plane are expressed by position coordinates (x, y) in the XY orthogonal coordinate system and an angle θ with respect to the X axis. The position and posture of the
レーザビーム15aの放射位置から見た反射点の位置は、角度および距離によって決定される極座標を用いて表現され得る。本実施形態では、レーザレンジファインダ15は極座標で表現されたセンサデータを出力する。ただし、レーザレンジファインダ15は、極座標で表現された位置を直交座標に変換して出力してもよい。
The position of the reflection point seen from the radiation position of the
レーザレンジファインダの構造および動作原理は公知であるため、本明細書ではこれ以上の詳細な説明は省略する。レーザレンジファインダ15によって検出され得る物体の例は、人、荷物、棚、壁である。
Since the structure and operating principle of the laser range finder are known, further detailed description is omitted in this specification. Examples of objects that can be detected by the
レーザレンジファインダ15は、周囲の空間をセンシングしてセンサデータを取得するための外界センサの一例である。そのような外界センサの他の例としては、イメージセンサおよび超音波センサが考えられる。
The
走行制御装置14は、レーザレンジファインダ15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定することができる。なお、保持されている地図データは、他のAGV10が作成した地図データであってもよい。
The traveling
図7Aは、AGV10の第1のハードウェア構成例を示している。また図7Aは、走行制御装置14の具体的な構成も示している。
FIG. 7A shows a first hardware configuration example of the
AGV10は、走行制御装置14と、レーザレンジファインダ15と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bと、2つのロータリエンコーダ18aおよび18bとを備えている。
The
走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。レーザレンジファインダ15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。
The
マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。
The
左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(たとえばマイコン)を、マイコン14aとは独立して設けてもよい。たとえば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。それらの2つのマイコンは、エンコーダ18aおよび18bから出力されたエンコーダ情報を用いた座標計算をそれぞれ行い、所与の初期位置からのAGV10の移動距離を推定してもよい。また、当該2つのマイコンは、エンコーダ情報を利用してモータ駆動回路17aおよび17bを制御してもよい。
One or more control circuits (for example, a microcomputer) for controlling the driving of the left and
メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。
The
記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。
The
記憶装置14cは、走行する空間Sの地図データM、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図データMは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図データMが作成された後に外部から送信される。本実施形態では、地図データMおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。
The
走行経路データRの例を説明する。 An example of the travel route data R will be described.
端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。
When the
端末装置20ではなく運行管理装置50(たとえば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。たとえば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。
The operation management device 50 (for example, a PC and / or a server computer) instead of the
AGV10は、作成された地図と走行中に取得されたレーザレンジファインダ15が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。
The
通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi−Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。たとえばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。
The
位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とレーザレンジファインダのスキャン結果とにより、移動空間Sの地図を作成する。走行時には、位置推定装置14eは、レーザレンジファインダ15からセンサデータを受け取り、また、記憶装置14cに記憶された地図データMを読み出す。レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)を、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を同定する。位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。自己位置(x, y, θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x, y, θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。
The
本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図7Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。
In the present embodiment, the
2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。
The two
移動体10は、さらに、車輪11aおよび11bの回転位置または回転速度を測定するエンコーダユニット18をさらに備えている。エンコーダユニット18は、第1ロータリエンコーダ18aおよび第2ロータリエンコーダ18bを含む。第1ロータリエンコーダ18aは、モータ16aから車輪11aまでの動力伝達機構のいずれかの位置における回転を計測する。第2ロータリエンコーダ18bは、モータ16bから車輪11bまでの動力伝達機構のいずれかの位置における回転を計測する。エンコーダユニット18は、ロータリエンコーダ18aおよび18bによって取得された信号を、マイコン14aに送信する。マイコン14aは、位置推定装置14eから受信した信号だけでなく、エンコーダユニット18から受信した信号を利用して、移動体10の移動を制御してもよい。
The moving
駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。
The
図7Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図7A)と相違する。
FIG. 7B shows a second hardware configuration example of the
レーザ測位システム14hは、位置推定装置14eおよびレーザレンジファインダ15を有する。位置推定装置14eおよびレーザレンジファインダ15は、たとえばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびレーザレンジファインダ15の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x, y, θ)を示す情報をマイコン14aに出力する。
The
マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。
The
図7Bに関して上述した構成以外は、図7Aの構成と共通である。よって共通の構成の説明は省略する。 The configuration other than the configuration described above with reference to FIG. 7B is the same as the configuration in FIG. 7A. Therefore, description of the common configuration is omitted.
本開示の実施形態におけるAGV10は、図示されていないバンパースイッチなどのセーフティセンサを備えていてもよい。AGV10は、ジャイロセンサなどの慣性計測装置を備えていてもよい。ロータリエンコーダ18aおよび18bまたは慣性計測装置などの内界センサによる測定データを利用すれば、AGV10の移動距離および姿勢の変化量(角度)を推定することができる。これらの距離および角度の推定値は、オドメトリデータと呼ばれ、位置推定装置14eによって得られる位置および姿勢の情報を補助する機能を発揮し得る。
AGV10 in embodiment of this indication may be provided with safety sensors, such as a bumper switch which is not illustrated. The
(4)地図データ
図8A〜図8Fは、センサデータを取得しながら移動するAGV10を模式的に示す。ユーザ1は、端末装置20を操作しながらマニュアルでAGV10を移動させてもよい。あるいは、図7Aおよび図7Bに示される走行制御装置14を備えるユニット、または、AGV10そのものを台車に載置し、台車をユーザ1が手で押す、または牽くことによってセンサデータを取得してもよい。
(4) Map Data FIGS. 8A to 8F schematically show the
図8Aには、レーザレンジファインダ15を用いて周囲の空間をスキャンするAGV10が示されている。所定のステップ角毎にレーザビームが放射され、スキャンが行われる。なお、図示されたスキャン範囲は模式的に示した例であり、上述した合計270度のスキャン範囲とは異なっている。
FIG. 8A shows an
図8A〜図8Fの各々では、レーザビームの反射点の位置が、記号「・」で表される複数の黒点4を用いて模式的に示されている。レーザビームのスキャンは、レーザレンジファインダ15の位置および姿勢が変化する間に短い周期で実行される。このため、現実の反射点の個数は、図示されている反射点4の個数よりも遥かに多い。位置推定装置14eは、走行に伴って得られる黒点4の位置を、たとえばメモリ14bに蓄積する。AGV10が走行しながらスキャンを継続して行うことにより、地図データが徐々に完成されてゆく。図8Bから図8Eでは、簡略化のためスキャン範囲のみが示されている。当該スキャン範囲は例示であり、上述した合計270度の例とは異なる。
In each of FIGS. 8A to 8F, the position of the reflection point of the laser beam is schematically shown using a plurality of black spots 4 represented by the symbol “·”. The laser beam scan is executed in a short cycle while the position and posture of the
地図は、地図作成に必要な量のセンサデータを取得した後、そのセンサデータに基づいて、このAGV10内のマイコン14aまたは外部のコンピュータを用いて作成してもよい。あるいは、移動しつつあるAGV10が取得したセンサデータに基づいてリアルタイムで地図を作成してもよい。
The map may be created using the
図8Fは、完成した地図40の一部を模式的に示す。図8Fに示される地図では、レーザビームの反射点の集まりに相当する点群(Point Cloud)によって自由空間が仕切られている。地図の他の例は、物体が占有している空間と自由空間とをグリッド単位で区別する占有格子地図である。位置推定装置14eは、地図のデータ(地図データM)をメモリ14bまたは記憶装置14cに蓄積する。なお図示されている黒点の数または密度は一例である。
FIG. 8F schematically shows a part of the completed
こうして得られた地図データは、複数のAGV10によって共有され得る。
The map data obtained in this way can be shared by a plurality of
AGV10が地図データに基づいて自己位置を推定するアルゴリズムの典型例は、ICP(Iterative Closest Point)マッチングである。前述したように、レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)を、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を推定することができる。
A typical example of an algorithm in which the
AGV10が走行するエリアが広い場合、地図データMのデータ量が多くなる。そのため、地図の作成時間が増大したり、自己位置推定に多大な時間を要するなどの不都合が生じる可能性がある。そのような不都合が生じる場合には、地図データMを、複数の部分地図のデータに分けて作成および記録してもよい。
When the area where the
図9は、4つの部分地図データM1、M2、M3、M4の組み合わせによって1つの工場の1フロアの全域がカバーされる例を示している。この例では、1つの部分地図データは50m×50mの領域をカバーしている。X方向およびY方向のそれぞれにおいて隣接する2つの地図の境界部分に、幅5mの矩形の重複領域が設けられている。この重複領域を「地図切替エリア」と呼ぶ。1つの部分地図を参照しながら走行しているAGV10が地図切替エリアに到達すると、隣接する他の部分地図を参照する走行に切り替える。部分地図の枚数は4枚に限らず、AGV10が走行するフロアの面積、地図作成および自己位置推定を実行するコンピュータの性能に応じて適宜設定してよい。部分地図データのサイズおよび重複領域の幅も、上記の例に限定されず、任意に設定してよい。
FIG. 9 shows an example in which the entire area of one floor of one factory is covered by a combination of four partial map data M1, M2, M3, and M4. In this example, one partial map data covers an area of 50 m × 50 m. A rectangular overlapping region having a width of 5 m is provided at the boundary between two adjacent maps in each of the X direction and the Y direction. This overlapping area is called a “map switching area”. When the
(5)運行管理装置の構成例
図10は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56とを有する。
(5) Configuration Example of Operation Management Device FIG. 10 shows a hardware configuration example of the
CPU51、メモリ52、位置DB53、通信回路54、地図DB55および画像処理回路56は通信バス57で接続されており、相互にデータを授受することが可能である。
The
CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。
The
メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。
The
位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。位置データは、たとえば管理者によって工場内に仮想的に設定された座標によって表され得る。位置データは管理者によって決定される。
The
通信回路54は、たとえばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図3)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス57を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス57を介してCPU51および/またはメモリ52に送信する。
The
地図DB55は、AGV10が走行する工場等の内部の地図のデータを格納する。当該地図は、地図40(図8F)と同じであってもよいし、異なっていてもよい。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。たとえば地図DB55に格納される地図は、CADによって作成された地図であってもよい。
The
位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。
The
画像処理回路56はモニタ58に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ59は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。
The
(6)運行管理装置の動作
図11を参照しながら、運行管理装置50の動作の概要を説明する。図11は、運行管理装置50によって決定されたAGV10の移動経路の一例を模式的に示す図である。
(6) Operation of Operation Management Device An outline of the operation of the
AGV10および運行管理装置50の動作の概要は以下のとおりである。以下では、あるAGV10が現在、位置M1におり、幾つかの位置を通過して、最終的な目的地である位置Mn+1(n:1以上の正の整数)まで走行する例を説明する。なお、位置DB53には位置M1の次に通過すべき位置M2、位置M2の次に通過すべき位置M3等の各位置を示す座標データが記録されている。
An outline of operations of the
運行管理装置50のCPU51は、位置DB53を参照して位置M2の座標データを読み出し、位置M2に向かわせる走行指令を生成する。通信回路54は、アクセスポイント2を介して走行指令をAGV10に送信する。
CPU51 of
CPU51は、AGV10から、アクセスポイント2を介して、定期的に現在位置および姿勢を示すデータを受信する。こうして運行管理装置50は、各AGV10の位置をトラッキングすることができる。CPU51は、AGV10の現在位置が位置M2に一致したと判定すると、位置M3の座標データを読み出し、位置M3に向かわせる走行指令を生成してAGV10に送信する。つまり運行管理装置50は、AGV10がある位置に到達したと判定すると、次に通過すべき位置に向かわせる走行指令を送信する。これにより、AGV10は最終的な目的位置Mn+1に到達することができる。上述した、AGV10の通過位置および目的位置は「マーカ」と呼ばれることがある。
The
(7)AGVの動作例
次に、AGV10の動作のより具体的な例を説明する。
(7) Example of AGV Operation Next, a more specific example of the operation of the
図8A〜図8Fに示す手順で地図が新規に作成された直後は、地図は現実の環境を正しく反映している。したがって、位置推定装置14eが、当該地図のデータとレーザレンジファインダ15から出力されたセンサデータとのマッチングを行うと、両者はよく一致する。このとき、位置推定装置14eは相対的に高い信頼度のデータを出力することができる。
Immediately after a new map is created by the procedure shown in FIGS. 8A to 8F, the map correctly reflects the actual environment. Therefore, when the
しかしながら、現実の環境には、風景が変わりやすい位置や、変わりにくい位置が混在している。地図を如何に正確に作成したとしても、風景が変わりやすい位置では、すぐに地図と現実の環境とが相違し得る。 However, in the actual environment, there are a mixture of positions where the scenery is easily changed and positions where the scenery is difficult to change. Regardless of how accurately the map is created, the map and the actual environment can quickly differ at locations where the scenery is likely to change.
図12は、頻繁に荷物が搬入・搬出されることによって変化する風景の例を模式的に示している。いま、左右の地図40における、点線の円で囲まれた2つの領域に注目する。左側の例では設置物90は相対的に大きく、右側の例では設置物92は相対的に小さい。それぞれの地図40では、設置物90の境界90aおよび92aの各位置が異なっている。
FIG. 12 schematically shows an example of a landscape that changes due to frequent loading and unloading of luggage. Attention is now paid to the two regions surrounded by dotted circles in the left and
左側の地図が得られている状況下で、右側の地図に対応する環境に変遷した場合、設置物90の境界90aは、境界92aに対応すると認識されてしまう場合があり得る。逆の場合も同様である。
When the left map is obtained and the environment changes to the right map, the
一般に、環境が変化しやすい位置は、経験的に特定可能な場合が多い。もちろん、ある程度の頻度で地図を作成すれば、環境が変化しやすい位置を容易に特定することが可能である。 In general, the position where the environment is likely to change is often empirically specified. Of course, if a map is created at a certain frequency, it is possible to easily identify a position where the environment is likely to change.
レーザレンジファインダ15を用いて周囲の空間を繰り返しスキャンし、スキャンごとに出力されたセンサデータと地図データとを照合することによって位置同定処理を行う場合を考える。本発明者は、環境が変化しやすい位置について得られたセンサデータを利用して位置同定処理を行うと、位置を同定する精度が低下する可能性があることに着目した。
Consider a case in which the surrounding space is repeatedly scanned using the
本願発明者は、風景が変わりやすい位置であることを示す「部分空間」を設定し、AGVの走行中の位置が当該部分空間に含まれる場合には、部分空間からのセンサデータを除外した残りの「部分センサデータ」を位置同定処理に利用することに想到した。 The inventor of the present application sets a “partial space” indicating that the scenery is easily changed, and if the position where the AGV is traveling is included in the partial space, the remaining data excluding sensor data from the partial space is excluded. The idea was to use the “partial sensor data” for the position identification process.
図13は、地図40に部分空間Pが設定された例を示している。部分空間Pが破線で示されるような矩形であるとすると、部分空間Pを規定するデータ(部分空間データ)は、地図データ上の4隅の座標によって規定され得る。部分空間データは、例えばメモリ14bまたは記憶装置14cに予め格納されている。
FIG. 13 shows an example in which the partial space P is set on the
図13から理解されるように、部分空間Pは設置物90の全体ではなく一部に設定され得る。もちろん、設置物90が風景変化を引き起こし得る場合には、設置物90全体が部分空間Pに含まれ得る。
As can be understood from FIG. 13, the partial space P can be set to a part of the
部分空間Pが設定されると、図12の左側の地図40が取得された場合であっても、位置推定装置14eは、部分空間Pが存在する方位から得られたセンサデータを除外し、残りのセンサデータを利用して位置同定処理を行う。
When the partial space P is set, even if the
なお、理解の便宜のため、図13では部分空間80は設置物90よりも大きく設定されているが、環境の変化を適切に表現できる場合にはより小さくしてもよい。
For convenience of understanding, the
以下、AGV10の走行と部分空間80との関係を説明する。
Hereinafter, the relationship between the traveling of the
図14Aおよび図14Bは、AGV10のレーザレンジファインダ15によるスキャン範囲と部分空間Pとの関係を示している。図14Aおよび図14Bの例は、AGV10が走行することによってスキャン範囲と部分空間Pとの関係が変化した様子を示している。位置推定装置14eは、地図40のデータとレーザレンジファインダ15から出力されたセンサデータのマッチングを行う。太線80は、両者が一致すると判断された箇所を模式的に示している。以下、太線は同様の意味を表すとする。
14A and 14B show the relationship between the scan range by the
図14Aの例では、スキャン範囲は設置物92の一部を含むが、部分空間Pは含まない。そのため、位置推定装置14eは、全センサデータを利用して位置同定処理を行う。一方の図14Bは、スキャン範囲が部分空間Pを含んでいる。
In the example of FIG. 14A, the scan range includes a part of the
図15は、全スキャン範囲に対応する角度範囲θと、部分空間Pに対応する角度範囲εとの関係を示している。位置推定装置14eは、直前に行った位置同定処理によって同定した位置を把握している。そのため、当該位置からみた、部分空間Pの角度範囲εを容易に特定することができる。
FIG. 15 shows the relationship between the angle range θ corresponding to the entire scan range and the angle range ε corresponding to the partial space P. The
位置推定装置14eは、部分空間データを参照して、部分空間Pのスキャン範囲を示す角度範囲εを算出する。そして位置推定装置14eは、算出した角度範囲εを、レーザレンジファインダ15の全スキャン範囲を示す角度範囲θから除外した残りの角度範囲(角度:θ−ε)を決定し、全センサデータのうちから、当該角度範囲に含まれるセンサデータ(部分センサデータ)を選択する。位置推定装置14eは、部分センサデータを利用して位置同定処理を行う。上述の処理は、図2Bに示される処理と同等である。図2Bは、図1に示す移動体101の位置推定装置105によって実行される処理の手順であるが、当該処理の説明を、位置推定装置14eの処理の説明として援用する。
The
なお、角度範囲εに入るセンサデータであっても、位置推定装置14eは距離を考慮して位置同定処理に利用するか否かを判断してもよい。レーザレンジファインダ15は、反射点の位置および反射点までの距離を測定し得る。そのため、位置推定装置14eは、角度範囲εに入るセンサデータであっても、部分空間Pまでの距離よりも手前の反射点から得られたセンサデータである場合には、部分空間Pからのセンサデータではないと判断できる。つまりそのようなセンサデータは、位置同定処理の信頼性を低下させることはないと判断し得るからである。
Even if the sensor data falls within the angle range ε, the
図16は、AGV10の移動に伴って部分センサデータが得られる角度範囲γが変化する例を示している。AGV10は、図面の下方から上方に向かって移動しているとする。図16から理解されるように、AGV10が移動することにより、AGV10と部分空間Pとの相対位置が変化する。そのため、AGV10の位置に応じて、選択される部分センサデータの角度範囲も角度範囲ε1からε2に変化する。
FIG. 16 shows an example in which the angle range γ from which partial sensor data is obtained changes as the
ただし、上述のように部分空間Pでは風景変化が相対的に大きくなり得る。位置推定装置14eは、部分空間Pに含まれる角度範囲のセンサデータを除外し、部分センサデータを用いて位置同定処理を行う。部分センサデータは、例えば太線80として示すように、固定物である壁面で反射したセンサデータである。これにより、位置同定の信頼性はAGV10が通過する度に大きく変化することはなくなり、長期間の運用に耐えることが可能になる。
However, as described above, the landscape change can be relatively large in the partial space P. The
上述の説明では、部分空間Pは予め設定されることを想定していた。しかしながら、移動体管理システム100の運用を継続することにより、新たに部分空間Pを追加し、または削除することが求められる場合も生じ得る。そのような場合には、最新の部分空間Pを規定する部分空間データを運行管理装置50に管理させ、更新がされる度に運行管理装置50から各AGV10に新たな部分空間データを配信すればよい。運行管理装置50は通信回路54(図10)を有しており、また各AGV10も通信回路14dを有している。運行管理装置50は、部分空間データが変更されたときは、変更後の部分空間データを各移動体に配信する、各AGV10の通信回路14dが新たに部分空間データを受信すると、記憶装置14cは部分空間データを更新する。これにより、最新の部分空間データを容易かつ確実に、各AGV10に反映させることができる。
In the above description, it is assumed that the partial space P is set in advance. However, by continuing the operation of the
上記の包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The comprehensive or specific aspect described above may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium. Alternatively, the present invention may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium.
本開示の例示的な移動体および移動体システムは、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The exemplary mobile body and mobile system of the present disclosure can be suitably used for moving and transporting goods such as luggage, parts, and finished products in factories, warehouses, construction sites, logistics, hospitals, and the like.
100 移動体管理システム、 101 移動体、 103 外界センサ、 105 位置推定装置、 107 コントローラ、 109 駆動装置
DESCRIPTION OF
Claims (7)
前記移動体を移動させる駆動装置と、
周囲の空間を繰り返しスキャンしてスキャンごとにセンサデータを出力する外界センサと、
前記センサデータと予め用意された地図データとを照合して、照合結果に基づき前記移動体の位置および姿勢を示す位置情報を順次出力する位置推定装置と、
前記位置推定装置から出力された前記位置情報を参照しながら前記駆動装置を制御して、前記移動体を移動させるコントローラと
を備え、
前記位置推定装置は、前記センサデータの一部である部分センサデータであって、移動中の位置に応じて選択される部分センサデータと、予め用意された地図データとを照合して、照合結果に基づき前記移動体の位置および姿勢を示す位置情報を順次出力する、移動体。 A mobile object that can move autonomously,
A driving device for moving the movable body;
An external sensor that repeatedly scans the surrounding space and outputs sensor data for each scan;
A position estimation device that collates the sensor data with map data prepared in advance, and sequentially outputs position information indicating the position and orientation of the moving body based on the collation result;
A controller for controlling the drive device while referring to the position information output from the position estimation device and moving the movable body;
The position estimation device is partial sensor data that is a part of the sensor data, and collates partial sensor data selected according to a moving position with map data prepared in advance, and a collation result The mobile body sequentially outputs position information indicating the position and orientation of the mobile body based on the above.
前記位置推定装置は、前記記憶装置から読み出した前記部分空間データを利用して、前記センサデータから前記部分センサデータを選択する、請求項1に記載の移動体。 A storage device for storing subspace data for specifying a subspace that is a part of the movable space;
The mobile object according to claim 1, wherein the position estimation device selects the partial sensor data from the sensor data using the partial space data read from the storage device.
前記位置推定装置は、
前記記憶装置から読み出した前記部分空間データを利用して、前記部分空間のスキャン範囲を示す第2角度範囲を算出し、
前記第1角度範囲のセンサデータから、前記第2角度範囲のセンサデータを除外した、残りのセンサデータを前記部分センサデータとして選択する、請求項3に記載の移動体。 The external sensor scans a predetermined first angle range and outputs the sensor data,
The position estimation device includes:
Using the partial space data read from the storage device, a second angle range indicating a scan range of the partial space is calculated,
The moving body according to claim 3, wherein the remaining sensor data obtained by excluding the sensor data of the second angle range from the sensor data of the first angle range is selected as the partial sensor data.
前記通信回路が前記部分空間データを受信したとき、前記記憶装置は、前記部分空間データを更新する、請求項2から4のいずれかに記載の移動体。 A communication circuit for receiving the partial space data;
The mobile unit according to claim 2, wherein the storage device updates the partial space data when the communication circuit receives the partial space data.
前記複数の移動体の各々は、請求項6に記載の移動体であり、
前記管理装置は、前記部分空間データが変更されたときは、変更後の部分空間データを各移動体に配信し、
前記各移動体の記憶装置は前記部分空間データを更新する、移動体システム。 A mobile system comprising a plurality of mobile bodies and a management device for managing the partial space,
Each of the plurality of moving bodies is the moving body according to claim 6,
When the partial space data is changed, the management device distributes the changed partial space data to each mobile unit,
The mobile system, wherein the storage device of each mobile unit updates the partial space data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018069765A JP2019179497A (en) | 2018-03-30 | 2018-03-30 | Moving body and moving body system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018069765A JP2019179497A (en) | 2018-03-30 | 2018-03-30 | Moving body and moving body system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019179497A true JP2019179497A (en) | 2019-10-17 |
Family
ID=68278794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018069765A Pending JP2019179497A (en) | 2018-03-30 | 2018-03-30 | Moving body and moving body system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019179497A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021116131A (en) * | 2020-01-22 | 2021-08-10 | 株式会社豊田自動織機 | Unmanned forklift |
WO2022070575A1 (en) * | 2020-09-30 | 2022-04-07 | 株式会社牧野フライス製作所 | Control device and control method for moving body |
CN117824666A (en) * | 2024-03-06 | 2024-04-05 | 成都睿芯行科技有限公司 | Two-dimensional code pair for fusion positioning, two-dimensional code calibration method and fusion positioning method |
-
2018
- 2018-03-30 JP JP2018069765A patent/JP2019179497A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021116131A (en) * | 2020-01-22 | 2021-08-10 | 株式会社豊田自動織機 | Unmanned forklift |
JP7294162B2 (en) | 2020-01-22 | 2023-06-20 | 株式会社豊田自動織機 | driverless forklift |
WO2022070575A1 (en) * | 2020-09-30 | 2022-04-07 | 株式会社牧野フライス製作所 | Control device and control method for moving body |
JP2022057524A (en) * | 2020-09-30 | 2022-04-11 | 株式会社牧野フライス製作所 | Moving entity controller and control method |
JP7155216B2 (en) | 2020-09-30 | 2022-10-18 | 株式会社牧野フライス製作所 | Mobile body control device and control method |
CN117824666A (en) * | 2024-03-06 | 2024-04-05 | 成都睿芯行科技有限公司 | Two-dimensional code pair for fusion positioning, two-dimensional code calibration method and fusion positioning method |
CN117824666B (en) * | 2024-03-06 | 2024-05-10 | 成都睿芯行科技有限公司 | Two-dimensional code pair for fusion positioning, two-dimensional code calibration method and fusion positioning method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019168942A (en) | Moving body, management device, and moving body system | |
JP7168211B2 (en) | Mobile object that avoids obstacles and its computer program | |
JP7081881B2 (en) | Mobiles and mobile systems | |
JPWO2019026761A1 (en) | Mobile and computer programs | |
US20200110410A1 (en) | Device and method for processing map data used for self-position estimation, mobile body, and control system for mobile body | |
WO2019187816A1 (en) | Mobile body and mobile body system | |
JP7136426B2 (en) | Management device and mobile system | |
WO2019044500A1 (en) | Location estimation system and mobile body comprising location estimation system | |
JP2019148881A (en) | Moving object, and method and computer program controlling moving object | |
JP2019053391A (en) | Mobile body | |
WO2019054209A1 (en) | Map creation system and map creation device | |
JP2019148870A (en) | Moving object management system | |
JP2019175137A (en) | Mobile body and mobile body system | |
US11537140B2 (en) | Mobile body, location estimation device, and computer program | |
JP7164085B2 (en) | Work transport method using moving body, computer program, and moving body | |
JP2019179497A (en) | Moving body and moving body system | |
WO2019194079A1 (en) | Position estimation system, moving body comprising said position estimation system, and computer program | |
JP7243014B2 (en) | moving body | |
JP2019079171A (en) | Movable body | |
JP2019067001A (en) | Moving body | |
JP2019165374A (en) | Mobile body and mobile system | |
JP2019148871A (en) | Movable body and movable body system | |
JP2021056764A (en) | Movable body | |
JP2020166702A (en) | Mobile body system, map creation system, route creation program and map creation program | |
JPWO2019069921A1 (en) | Mobile |